Future of AI
10.22.2025

생성형 AI 시대, 기업 리더가 던져야 할 8가지 질문

생성형 AI가 개인화·효율·혁신을 통해 K-12 교육을 변화시키고 있다.

Ace
Product Manager

2025년 6월 17일, Standard AI의 공동 창립자이자 전 CEO인 Jordan Fisher는 AI Startup School 무대에 올랐습니다. 그러나 그는 확신이 아닌 혼란으로 시작했습니다.

 “지금 제 인생에서 그 어느 때보다 더 혼란스럽습니다.” 그는 이렇게 고백하며 이어 말했습니다. “하지만 혼란은 언제나 무언가 흥미로운 일이 시작되는 신호예요.”

현재 그는 Anthropic에서 AI 정렬(AI Alignment) 연구팀을 이끌고 있습니다. Fisher는 청중인 창업가들에게 사고의 틀을 바꾸라고 강조했습니다.

 “빠른 정답을 찾는 대신, 더 나은 질문을 던지세요.”

그는 이렇게 주장했습니다. “범용 인공지능(AGI)이 단 몇 년 안에 현실화될지도 모르는 지금, 이 사고방식은 선택이 아니라 생존의 문제입니다.”

액센츄어(Accenture): AI 기반 프로세스를 도입한 기업, 매출 성장률 2.5배 앞서간다. 여기서 더 읽어보세요!

1. 지금 회사를 창업해야 할까?

Fisher의 첫 번째 질문은 모든 창업가의 마음을 찔렀습니다. “지금 이 시점에 정말 회사를 시작해야 할까요?”

그는 경력 내내 ‘예측력’을 경쟁 우위로 삼아왔습니다.  “예전엔 5년, 10년 앞을 내다볼 수 있었죠. 하지만 지금은요? 고작 3주 앞도 잘 모르겠어요.”

이 불확실성이야말로 오늘날 창업 시대를 정의한다고 그는 말합니다. 생성형 AI와 대규모 언어 모델 (LLM)의 발전 속도가 비즈니스 모델의 진화보다 훨씬 빠른 지금, 창업가는 전략부터 채용, 윤리까지 모든 것을 다시 생각해야 한다는 것입니다.

그는 스타트업들에게 “오늘 가능한 것만 계획하지 말고, 2년 뒤의 세상을 위한 회사를 만들어야 한다”고 조언합니다.

“범용 인공지능(AGI)이 채용, 마케팅, 시장 진입 전략을 어떻게 바꿔놓을지를 고민하지 않는다면, 창업가로서 제 역할을 다하고 있는 게 아닙니다.”

하지만 혼란 속에서도 Fisher는 낙관론을 이야기합니다. “창업가는 매 순간 모든 질문에 답해야 하는 사람입니다. 바로 그 점이 여러분을 이 시대에 가장 적합한 존재로 만들어줍니다.”

McKinsey의 AI and the Future of Work 2025 보고서에 따르면, 전 세계 경영진의 55%가 2027년까지 AGI가 자사 산업에 실질적인 영향을 미칠 것이라 믿고 있으며, 이는 2023년 대비 두 배 증가한 수치입니다.






2. 소프트웨어가 ‘상품’이 되는 시대

Fisher는 또 하나의 불편한 질문을 던졌습니다.“소프트웨어 자체가 하나의 ‘상품(Commodity)’이 된다면 어떻게 될까요?”

그는 가까운 미래를 이렇게 그렸습니다. AI 챗봇과 코드 생성형 에이전트가 사용자의 요청에 따라 앱을 즉석에서 만들어주는 세상 — 개발자도, 앱스토어도 필요 없는 시대 말입니다.

“소비자들이 더 이상 앱을 다운로드하지 않을 수도 있습니다. 그냥 ‘내 폰이 이걸 해줬으면 좋겠어’라고 말하면, AI가 바로 실행해주는 거죠. 그 상황에서 앱을 받을 이유가 있을까요?”

이 시나리오는 전통적인 SaaS 모델 전체에 도전장을 내밉니다. 그러나 Fisher는 이렇게 덧붙입니다. “상품화가 곧 기회의 종말은 아닙니다. 단지 ‘기준이 높아진다’는 뜻이죠.”

“누구나 지금의 앱 수준은 프롬프트 한 줄로 만들 수 있게 될 겁니다. 하지만 내일의 뛰어난 앱, 인간과 AI가 함께 만들어내는 탁월한 결과물은 과연 누가 만들 수 있을까요?”

그가 강조한 바로 이 차별점이 스타트업의 방어력(Defensibility)이자 경쟁력입니다. 단순한 기능을 넘어, 탁월함을 설계해야 합니다.

Gartner는 2027년까지 기업 소프트웨어 업무의 80%가 생성형 AI 도구로 자동화될 것이라 전망하지만, 품질과 신뢰를 통해 지속적인 차별화를 이루는 기업은 단 22%에 불과할 것이라고 밝혔습니다.






3. AI 네이티브 팀과 문화를 구축하라

“AI 네이티브 팀은 기존 팀과 어떻게 다를까?”라는 질문에 대해, Fisher는 경고합니다. “팀이 작다고 해서 더 안전하거나 효율적인 것은 아닙니다.” 그는 이렇게 설명합니다. “부분적으로 자동화된 세상에서는, 한 사람이 내린 결정이 제품 전체를 바꿔놓을 수도 있습니다. 그런데 다른 누구도 그걸 모를 수 있죠.”

이 때문에 ‘신뢰(Trust)’가 AI 시대의 핵심 통화가 됩니다. 다양한 구성원, 인간의 감독, 내부 고발자 같은 전통적 안전장치는 자동화가 확산되며 점차 약화될 것입니다. Fisher는 이에 대한 급진적 대안을 제시합니다 — AI 기반 감사 시스템(AI-powered audits). 이 시스템은 기업의 의사결정, 커뮤니케이션, 코드 등을 자사의 윤리 기준에 맞춰 지속적으로 점검한 뒤, 개인정보 보호를 위해 스스로 삭제되는 방식입니다.

“신뢰는 모델 자체에만 담아야 하는 게 아닙니다. 에이전트에도, 그 에이전트를 만드는 회사에도 뿌리내려야 합니다.”

이 개념은 거버넌스(조직 운영)를 기술 자체로 재정의합니다. Fisher는 말합니다. “앞으로는 브랜드평판 보다 기술 구조에 대한 신뢰가 더 중요해질 겁니다.”

Dataiku Global AI Confessions Report에 따르면, CEO의 74%가 “AI 성과를 내지 못하면 2년 내에 직위를 잃을 수 있다”고 답했습니다. 이는 리더십의 생존이 이제 AI 실행력과 거버넌스에 달려 있음을 보여줍니다. Fisher의 경고처럼, AI 네이티브 팀에서는 작은 실수 하나가 전체 시스템을 뒤흔들 수 있습니다. 전통적 감독 체계가 약화된 지금, 신뢰는 ‘전제’가 아니라 ‘설계’되어야 합니다.

AI 감사 시스템, 투명한 거버넌스, 그리고 책임 있는 AI 문화 — 앞으로의 리더십은 시스템 자체에 대한 신뢰를 구축하는 데 달려 있습니다. 이제 안정성과 성공의 궁극적인 기준은 ‘사람’이 아니라, 우리가 만든 시스템의 신뢰도가 될 것입니다.






4. 윤리적이면서도 경제적인 압력으로서의 AI 정렬

Jordan Fisher의 AI 정렬(Alignment)에 대한 관점은 도덕철학과 스타트업 현실주의가 절묘하게 섞여 있습니다. 그에게 AI 정렬은 초지능을 통제하기 위한 문제만이 아니라, 비즈니스의 생존 가능성을 확보하기 위한 문제이기도 합니다.
(AI 정렬(AI Alignment)이란, 인공지능의 목표와 행동이 인간의 가치·의도·윤리 기준과 일치하도록 설계하는 개념을 말합니다. 이는 초지능 통제의 문제가 아니라, AI가 기업의 철학과 사회적 책임에 부합하도록 운영되는가를 가늠하는 척도이기도 합니다. Jordan Fisher는 이 정렬의 개념을 ‘윤리적 사명’이자 ‘경제적 생존전략’으로 재해석합니다.)

“만약 여러분이 대규모 언어 모델(LLM)에게 하루나 일주일간 일을 맡기고 그 결과를 나중에 검토할 생각이라면, 그 모델이 엉뚱한 방향으로 가지 않을 거라는 확신이 어느 정도는 있어야 합니다.”

그는 장기적 관점에서 볼 때, 대규모 언어 모델이 진정한 경제적 가치를 가지려면 감독 없이도 안전하고 예측 가능해야 한다고 강조합니다. 이것이 독특한 압력을 만들어냅니다 — AI 정렬이 발전해야 하는 이유가 단순히 존재론적(Existential) 위협 때문만이 아니라, 시장 자체가 그것을 요구하기 때문이라는 점입니다.

“좋은 소식이 있어요. 경제적 압력은 안전한 발전을 강제하는 훌륭한 기능을 합니다.”

다시 말해, 경제적 인센티브가 윤리적 책임과 일시적으로 일치할 수 있다는 것입니다. Fisher는 AI 정렬을 윤리적 사명이자 경제적 필수 조건으로 재정의합니다. 단순히 초지능을 통제하기 위한 것이 아니라, 자율 시스템 시대에 기업이 살아남기 위해 필요한 구조라는 것입니다.

그는 경고합니다. “감독 없이 LLM에게 업무를 맡기려면 기술적 신뢰만으로는 부족합니다. 거버넌스, 예측 가능성, 책임성이 함께 따라야 합니다.”

기업이 점점 더 의사결정 과정에 AI를 통합함에 따라, 정렬(Alignment)은 경쟁의 새로운 최전선이 됩니다.  안전성, 투명성, 신뢰가 곧 수익성에 직결되는 시대이기 때문입니다.

Fisher는 이렇게 덧붙입니다. “경제적 압력은 안전 발전을 강제하는 훌륭한 장치입니다.” 그의 말처럼, 다음 단계의 혁신은 AI 윤리를 인프라처럼 다루며, 목적과 성과를 동시에 정렬시키는 사업가들이 주도하게 될 것입니다.






5. AGI 이후의 시대, 무엇이 ‘지속가능한 경쟁우위’가 될 것인가

Fisher는 창업가들에게 질문을 던졌습니다. “지능이 싸진 세상에서도 여전히 어려운 건 무엇인가?” 그는 덧붙입니다.

“만약 내가 미래에 등장할 GPT-7이나 Claude 7에게 당신의 스타트업을 복제하라고 시킬 수 있다면, 당신의 경쟁력은 무엇이죠?”

그의 답은 명확했습니다 — 에너지, 인프라, 제조, 로보틱스, 반도체처럼 완전한 자동화가 불가능한 ‘어려운 문제들’입니다. “저는 어려운 문제를 해결하는 걸 좋아합니다. 누군가는 마케팅이 강점을 수 있겠죠. 하지만 제 경쟁력은 AGI 이후에도 여전히 어려운 걸 만드는 것이에요.” Fisher는 투자자와 창업가들에게 “방어력(Defensibility) 논리”를 중심으로 사고하라고 조언합니다.  소프트웨어는 결국 상품화(Commoditization)될 수 있지만, 물리적 시스템, 공급망, 그리고 전문적 도메인 지식은 훨씬 오래 지속되는 가치를 가집니다.

“지능이 싸진 뒤에도 남는 가치를 찾아야 합니다.”

그가 경고한 대로, “만약 GPT-7이나 Claude 7이 당신의 회사를 복제할 수 있다면, 당신의 장점은 사라진 겁니다.” 이는 현재 투자자들 사이에서도 커져가는 우려입니다. 생성형 AI가 소프트웨어 제작을 자동화함에 따라, 차별화의 원천은 전문성, 물리적 시스템, 독점 데이터로 옮겨가고 있습니다.

Goldman Sachs는 2030년까지 AI 자동화가 소프트웨어 업무의 최대 25%를 대체할 것으로 전망하면서도, AI 통합 로보틱스와 하드웨어 엔지니어 수요는 40% 이상 증가할 것이라고 밝혔습니다.

Fisher는 이렇게 말합니다. “이제 자동화가 어려운 영역에 뿌리를 둔 스타트업이 다음 세대의 지속 가능한 혁신을 정의하게 될 겁니다. 진정한 방어력은 코드가 아니라 복잡성 그 자체에서 나올 겁니다.”

맥킨지(McKinsey) 리포트: 생성형 AI가 바꾸는 글로벌 생산성과 미래의 일. 여기서 읽어보세요!







6. 새로운 중립성의 질문: 누가 AI의 한계를 정하는가?

Fisher가 던진 가장 도발적인 질문은 이것이었습니다.

“AI가 무엇을 할 수 있고, 할 수 없는지를 누가 결정하는가?”

그는 이 상황을 인프라 독점에 비유했습니다.  “만약 GE가 전력망 전체를 소유하고 ‘우리 회사 토스트만 꼽을 수 있다’고 한다면, 말도 안 되는 일이라 생각하겠죠. 그런데 지금 AI 모델 시장에서 바로 그 일이 벌어지고 있습니다.” 그는 경고합니다. 전 세계가 소수의 대규모 언어 모델(LLM)에 의존하게 되면서, 그 내부 정책과 필터링이 산업 전반을 형성하거나 제한할 수 있다는 것입니다. 따라서 앞으로는 “AI 중립성(AI Neutrality)”이라는 새로운 개념이 필요해질 수도 있습니다.

전기, 수도, 인터넷처럼 AI 역시 공정한 경쟁과 개방적 혁신을 보장하기 위한 공공적 원칙이 필요하다는 것입니다. Epoch AI 2025 분석에 따르면, 전 세계 AI 연산 능력은 빠르게 집중되고 있으며, 2030년까지 데이터센터 리소스의 70%가 OpenAI, Anthropic, Google DeepMind, Meta, Amazon 등 소수 기업이 운영하는 초대형 AI 인프라에 의해 사용될 것으로 예측됩니다.

더 나아가, AI 훈련용 컴퓨팅 파워는 2012년 이후 30만 배 증가했으며, 전 세계 코드의 41%가 이미 AI에 의해 생성되고 있습니다. 이는 몇몇 LLM의 정책과 검열 구조가 전 산업의 혁신 방향을 결정할 수 있는 수준에 이르렀다는 뜻입니다.

따라서 Fisher의 AI 중립성 주장은 기술 산업을 넘어 사회 전체의 개방적·투명한 AI 생태계 구축이라는 더 큰 필요성과 맞닿아 있습니다. 즉, 지능은 사유재산이 아닌, 모두가 접근 가능한 공공 자원이 되어야 한다는 것입니다.







7.“사람들이 원하는 것을 만들어라”에서 “사회가 필요로 하는 것을 만들어라”로

가장 감정적인 순간, Fisher는 실리콘밸리의 창업 정신으로 돌아갔습니다.

“예전엔 ‘세상을 바꾸고 싶다’고 말했죠. 지금 들으면 오글거리지만, 그땐 진심이었습니다.”

하지만 그는 우려합니다. 이제 많은 사업가들이 그 열망 대신 공포와 단기 이익 추구로 방향을 바꾸고 있다고 말이죠.

“요즘 사람들은 AGI 이야기를 들으면 가장 먼저 ‘이걸로 어떻게 돈 벌지?’라고 묻습니다. 솔직히, 실망 스럽지.”

그는 돈 버는 걸 부정하지 않습니다. “돈 벌 수 있을 때 보세요. 저도 그렇게 바랍니다.”  하지만 그는 이렇게 덧붙입니다.

“이건 AGI가 모든 걸 바꾸기 전에 당신이 만들 마지막 제품일지도 모릅니다. 그렇다면, 그 변화 이후에도 존재할 가치가 있는 무언가를 만들어야 하지 않을까요?”

Fisher는 Y Combinator의 고전적인 모토 “사람들이 원하는 것을 만들어라”를 새롭게 정의했습니다.

“사람들이 진정으로 원하는 것은 사회에 도움이 되는 것입니다. 사용자가 무엇을 소비할지를 묻지 말고, 세상이 진정으로 무엇을 필요로 하는지를 물어야 합니다.”

그의 메시지는 점점 커지는 사회적 흐름과도 일치합니다. 최근 조사에 따르면, 전 세계 소비자의 61%가 “사회적 선을 위해 책임감 있게 생성형 AI를 사용하는 브랜드”를 선호한다고 답했습니다. 또한 투자자의 56%는 기업의 AI 윤리와 거버넌스 수준이 투자 결정에 직접적인 영향을 미친다고 밝혔습니다.

다른 조사에서는 사회적 임팩트 목표가 명확한 기업이 고객 신뢰도와 유지율이 25% 높다는 결과도 나왔습니다. Fisher의 메시지는 분명합니다. AGI 시대를 살아남는 스타트업은 단순히 시장의 문제를 해결하는 곳이 아니라, 인류의 가치를 지키며 혁신과 공동선을 함께 추구하는 곳이 될 것입니다.







8.AI 시대의 리더십: 정보 절제와 독립적 사고

청중 Q&A 시간, 누군가 Fisher에게 물었습니다.  “이 혼란의 시대에 어떻게 명확성을 찾나요?” 그의 답은 놀라울 만큼 현실적이었습니다.

“솔직히 말하면, 트위터예요. 하지만 저는 팔로잉을 철저히 관리합니다. 통찰 있는 사람은 팔로우하고, 쓸모없는 계정은 바로 언팔합니다. 결국 당신의 정보에 대한 절제가 사고방식을 결정합니다.”

그는 이를 강화학습(Reinforcement Learning)에 비유했습니다 — 탐색(Exploration)과 활용(Exploitation)의 균형을 잡는 과정 말이죠. Fisher는 이렇게 말합니다.

“대부분의 테크 업계 사람들은 ‘미래지향적’이라고 말하지만, 사실 극단적인 집단사고(Groupthink)에 빠져 있어요. 이미 다들 현실보다 2년은 뒤처져 있습니다.”

그의 말은 단순한 경고가 아닙니다. 앞서 나가기 위해 필요한 것은 더 나은 기술이 아니라, 더 나은 사고방식이라는 점을 일깨워 줍니다. Fisher는 마지막으로 이렇게 강조했습니다.

“진짜 경쟁력은 정보 절제력입니다. 알고리즘의 소음 속에서 무엇을 걸러내고, 무엇을 의심하며, 얼마나 다양한 관점을 받아들일 수 있는가 — 그것이 리더십의 본질이죠.”

지금 사용자들은 하루 평균 2시간 27분 동안 7개의 플랫폼을 넘나들며 정보를 소비하고 있습니다.
그리고 기술 임원의 60%가 소셜미디어를 주요 산업 정보원으로 사용한다고 답했습니다. 이런 환경에서 알고리즘이 만든 에코 챔버(반향실)는 그 어느 때보다 강력한 위험 요소가 되었습니다.

Fisher의 메시지는 분명합니다. 독립적으로 사고하는 능력은 선택이 아니라 필수입니다. 정보가 넘쳐나는 시대일수록, 오리지널한 생각이 희소해지고 있습니다. 창업가라면 이 ‘정보 절제력’을 관리할 줄 알아야, 진정으로 앞서 나갈 수 있습니다.

답을 찾는 시대는 끝났다, 질문하는 리더의 시대다

Jordan Fisher의 강연은 스타트업 성공의 청사진이 아니라, 지적 겸손(Intellectual Humility)에 대한 경고였습니다.

생성형 AI가 창작을 자동화하고, 대규모 언어 모델(LLM)이 전문성을 모방하는 시대에 진정한 경쟁력은 코드, 자본, 네트워크가 아니라 ‘명확한 목적’에 있습니다.

“창업가란 모든 것을 고민하는 사람들입니다. 모든 질문을, 항상. 그래서 지금 이 시대를 헤쳐 나갈 수 있는 최적의 존재죠.”

지능의 경계가 확장되는 지금, Fisher는 한 가지 영원한 진리를 남깁니다.

“미래는 모든 답을 가진 사람의 것이 아니라, 여전히 올바른 질문을 던질 용기를 가진 사람의 것입니다.”

전문가 인사이트: 현대 창업가를 위한 핵심 교훈

  1. 신뢰는 설계 단계에서 만들어야 합니다: 기업이 AI 정렬(Alignment)을 단순한 기술 이슈가 아니라 브랜드 핵심 가치로 삼을 때, 고객은 기능이 아니라 ‘안심할 수 있는 기술’을 선택합니다.
  2. AI 네이티브 시스템을 구축하라: 기존 제품에 덧붙이지 말고, 처음부터 생성형 AI 중심으로 설계하세요.
  3. 어려운 문제를 해결하라: 인프라, 에너지, 로보틱스처럼 자동화가 어려운 영역에 집중하세요.
  4. 지적 독립성을 유지하라: 데이터셋만큼이나 입력 정보도 신중히 선별하세요.
  5. 이익과 목적의 균형을 잡아라: AGI 시대를 살아남는 기업은 시장을 위한 회사가 아니라, 사회를 위한 회사입니다.

한국의 AI 혁신을 세계에 알리다: 이탈리아 SIGIR 2025에서 공개된 메이크봇의 HybridRAG 프레임워크. 여기서 읽어보세요!







메이크봇, 신뢰할 수 있는 생성형 AI의 기준을 세우다

Jordan Fisher는 이렇게 강조했습니다. “AI의 미래는 더 빠른 제품을 만드는 기업이 아니라, 신뢰할 수 있는 AI 네이티브 시스템을 구축하는 창업가들의 것입니다.”

메이크봇은 바로 이 지점에서 그 격차를 메웁니다. 우리는 생성형 AI와 대규모 언어 모델(LLM) 기술을 직접 연구·개발하며, 산업별 맞춤형 LLM 에이전트와 엔드투엔드 생성형 AI 솔루션을 제공합니다.

이를 통해 AI 정렬(AI Alignment, 즉 AI의 의사결정과 행동이 인간의 가치와 기업의 목적에 일치하도록 설계하는 원칙) 을 측정 가능한 비즈니스 성과로 전환합니다.

헬스케어, 금융, 리테일, 공공 서비스 등 다양한 산업에서 BotGrade, MagicTalk, MagicSearch 등 메이크봇의 솔루션은 기업이 AI 실험 단계에서 실행과 확장 단계로 나아가도록 돕습니다. 또한, 세계 최고 정보검색 학회 SIGIR 2025에서 발표된

메이크봇의 HybridRAG 프레임워크는 정확도를 26.6% 향상, 비용을 90% 절감하며 생성형 AI가 윤리적 정렬과 혁신적 효율성을 동시에 실현할 수 있음을 입증했습니다.

메이크봇은 신뢰·투명성·성과를 바탕으로 기업들이 AGI 시대의 책임 있는 AI 리더십을 실질적으로 구현하도록 지원합니다.

👉 지금 바로 AI 여정을 시작하세요: www.makebot.ai
📩 문의: b2b@makebot.ai 

Request a Consultation Now!

당신의 비즈니스를 위한 맞춤형 AI 솔루션, 메이크봇에서 시작하세요!

상담 신청하기

Latest stories

More Stories

2024 APAC Chatbot
Trend Report
by Makebot

아시아의 챗봇 산업 트렌드를 전망한다
메이크봇 챗봇 전문가들이 아시아 5개국(Asia Pacific)의 리서치를 통해 매년 발간하는
아시아 최초의 챗봇 트렌드 리포트

바로가기