🤖 AI와의 대화

두 명의 낙관주의자 – 샘 알트먼과 데미스 하사비스의 다른 믿음

타잔007 2025. 6. 17. 18:41

인공지능 분야를 이끄는 두 거물의 최근 인터뷰가 화제다.

OpenAI의 샘 알트먼과 Google DeepMind의 데미스 하사비스는 모두 AI의 미래에 대해 강한 낙관론을 펼쳤지만, 그들의 믿음 체계와 접근 방식에는 흥미로운 차이점들이 드러났다.

이들의 발언을 통해 AI 분야의 두 가지 서로 다른 철학적 접근법과 그 의미를 살펴볼 수 있다.

낙관의 출발점 : 정치적 설득 vs 과학적 이상

샘 알트먼의 낙관주의는 뚜렷한 실용적 색채를 띤다.

그는 최근 인터뷰에서 5000억 달러 규모의 Stargate 프로젝트를 발표하며, 이 거대한 인프라 투자가 어떻게 AI의 미래를 가속화할 것인지 설명했다.

특히 주목할 점은 그가 트럼프 대통령과의 협력을 강조하며 "대통령이 AI 관련해서 가장 중요한 결정들을 내릴 수 있는 위치에 있다"고 언급한 부분이다.

알트먼은 또한 현실적인 제약들을 솔직하게 인정했다. "GPU가 녹고 있다"는 그의 농담 섞인 표현 뒤에는 실제로 컴퓨팅 자원 부족에 대한 절실함이 담겨 있었다.

그는 "기가antic한 컴퓨팅 플릿을 가지고 있지만, 두 배가 있다면 훨씬 더 나은 제품과 서비스를 제공할 수 있을 것"이라며 수요와 공급의 불균형을 토로했다.

 

반면 데미스 하사비스는 훨씬 더 과학적이고 신중한 접근을 보여준다.

그는 AGI(인공일반지능)의 정의부터 명확히 했다.

"인간이 가진 모든 인지 능력을 보여줄 수 있는 시스템"이라는 그의 정의는 매우 엄격하다. 심지어 "AI가 아인슈타인이 1900년대에 가진 정보만으로 상대성이론을 발견할 수 있었을까?"라는 구체적인 테스트까지 제시했다.

 

하사비스는 현재 시스템들의 한계도 냉정하게 분석했다. "국제 수학 올림피아드 금메달 수준의 문제는 풀지만, 때로는 고등학교 수학이나 단어의 글자 수 세기에서 실수한다"며 일관성 부족을 지적했다.

이런 분석은 그의 과학자적 엄밀함을 보여준다.

 

하사비스의 신중함은 단순한 보수성이 아니라 실제 과학적 성취에서 나온다.

그는 2024년 노벨 화학상을 수상한 AlphaFold 프로젝트를 이끌었으며, 이 AI 시스템은 단백질 구조 예측이라는 "50년간의 거대한 도전"을 해결했다.

현재 190개국 250만 명 이상의 연구자들이 AlphaFold를 사용해 말라리아 백신, 암 치료법, 심지어 플라스틱 분해 효소까지 개발하고 있다.

이런 구체적 성과가 그의 "과학을 위한 AI" 철학에 설득력을 더한다.

AGI 타임라인 : 서로 다른 예측과 정의

하사비스는 AGI 타임라인에 대해 더욱 신중한 입장을 보였다. "샘 알트먼은 트럼프 임기 내에 AGI가 가능할 것이라고 했고, Anthropic의 다리오 아모데이(Dario Amodei)는 빠르면 2026년이라고 했다"며 다른 리더들의 예측을 언급한 후, "하지만 AGI 정의에 따라 달라진다. 많은 사람들이 여러 이유로 그 정의를 희석시키고 있다"고 지적했다.

 

그는 자신의 예측을 "다음 5-10년 내 50% 확률"로 보다 보수적으로 제시했다.

알트먼이 트럼프 임기 내(4년 이내)라고 한 것과 비교하면 상당한 차이다. 이런 차이는 단순히 시간 문제가 아니라 AGI에 대한 근본적인 정의와 접근법의 차이를 반영한다.

 

흥미롭게도 AI 안전성 논의에서는 세 번째 목소리가 등장한다.

Anthropic의 다리오 아모데이는 최근 "2027년까지 인간 수준 AI가 등장할 것"이라고 예측하면서도, 동시에 AI 안전성 연구의 필요성을 강력히 주장해 왔다.

이는 알트먼의 "속도 우선" 접근법과 하사비스의 "신중함 우선" 사이의 중간 지점을 제시하는 것으로 보인다.

미래의 풍요에 대한 서로 다른 경로

두 리더 모두 AI가 가져올 "풍요"에 대해 이야기하지만, 그 실현 경로에 대한 관점은 상당히 다르다.

알트먼은 시장 중심적 접근을 취한다.

그는 "더 효율적인 AI를 1/10 가격으로 제공할 수 있다면, 사람들은 20배 더 많이 사용할 것이고, 결국 두 배의 컴퓨팅이 더 필요할 것"이라며 제번스 패러독스를 언급했다.

이는 기술 발전이 수요 증가로 이어지고, 이것이 다시 더 큰 인프라 투자의 필요성을 만든다는 자본주의적 성장 논리다.

 

그는 또한 일자리 변화에 대해서도 현실적인 시각을 보였다.

"AI는 확실히 많은 일자리를 바꿀 것이고, 일부 직업들을 없앨 것이다. 하지만 새로운 일자리들도 만들어낼 것"이라며, 특히 "휴머노이드 로봇이 등장하는 순간이 정말 큰 변화의 시점이 될 것"이라고 예측했다.

 

하사비스는 더 근본적인 변화를 상상한다.

그가 말하는 "급진적 풍요(Radical Abundance)"는 단순한 경제적 성장을 넘어선다. "AGI가 질병을 치료하고, 새로운 에너지원을 발견하며, 실온 초전도체나 핵융합 같은 것들을 가능하게 만든다면, 우리는 제로섬 게임에서 벗어날 수 있을 것"이라고 설명했다.

 

특히 인상적인 것은 그의 구체적인 예시들이다.

"담수화는 기술적으로 해결된 문제지만 에너지 비용 때문에 부유한 국가들만 사용한다.

하지만 에너지가 거의 무료가 된다면? 물 접근성 문제가 해결되고, 바닷물에서 로켓 연료도 만들 수 있다."

그는 20-30년 후에는 "별을 여행하고 은하계를 식민지화하는 인류 번영의 극대화 시대"가 올 것이라고 전망했다.

안전에 대한 접근: 속도 vs 신중함

AI 안전성에 대한 두 사람의 접근법도 대조적이다.

 

알트먼은 "경쟁"의 논리를 강조한다.

그는 중국의 AI 발전을 의식하며 "우리는 최선을 다하고 있다. 매일 조금씩 더 나아지려고 노력하고 있다"고 말했다. 이는 글로벌 AI 경쟁에서 앞서 나가는 것이 안전성 확보의 전제라는 시각을 보여준다.

 

하사비스는 더 신중한 입장이다.

그는 "나쁜 행위자들이 범용 AI 기술을 해로운 목적으로 전용하는 것과 AI 자체가 더 강력하고 에이전틱해질 때의 기술적 위험"이라는 두 가지 우려를 명시했다.

그는 "국제적 협력이나 협업이 필요하다"며 글로벌 거버넌스의 중요성을 강조했다.

 

하사비스는 또한 현재 상황의 복잡성을 인정했다.

"주요 서구 연구소들의 리더들은 서로 알고 정기적으로 대화한다.

문제는 언제 그 지점(멈춰야 할 때)인지에 대한 올바른 정의가 없다는 것"이라며 판단 기준의 어려움을 토로했다.

 

특히 그는 "mechanistic interpretability(기계론적 해석가능성)" 연구에 더 많은 투자가 필요하다고 강조했는데, 이는 AI 시스템의 내부 작동 방식을 이해하려는 노력으로 안전성 확보의 핵심이다.

낙관론이 마주한 현실적 도전들

두 리더의 낙관론이 설득력 있게 들리지만, 그들도 현실적 제약들을 인정한다.

 

하사비스는 과거 기술 발전의 예를 들며 우려를 표했다.

"우리는 지금 엄청난 풍요를 가지고 있지만 공정하게 분배하지 못하고 있다. 기후 변화를 해결하는 방법도 알고 있지만 실행하지 않고 있다"며 기술적 해결책만으로는 부족하다는 점을 지적했다.

 

그는 백신 거부 현상을 예로 들며 "우리에게는 백신이 있지만 일부 사람들은 거부한다"고 말하며, 기술적 풍요가 자동으로 사회적 문제를 해결하지는 않는다는 현실을 인정했다.

 

알트먼 역시 AI 발전 속도의 불확실성을 인정했다.

"아무도 모른다. 1905년에 앉아서 물리학에서 무엇을 발견하게 될지, 40년 후 원자폭탄을 갖게 될지 예측할 수 있었겠는가?"라며 미래 예측의 한계를 솔직히 털어놓았다.

서로 다른 철학이 던지는 질문들

두 리더의 접근법은 AI 발전에 대한 근본적인 질문들을 제기한다.

 

알트먼의 시장 중심적 접근은 혁신의 속도와 실용성에서 강점을 보이지만, 불평등 심화나 기술 접근성 문제에 대한 우려를 낳는다.

반면 하사비스의 과학 중심적 접근은 안전성과 신중함에서 장점이 있지만, 글로벌 경쟁에서 뒤처질 위험을 안고 있다.

 

특히 두 사람이 모두 언급한 "국제적 협력"의 필요성은 현재 지정학적 긴장 상황에서 매우 어려운 과제다.

하사비스가 지적했듯이 "세상은 5년 전과는 매우 다른 곳이 되었고" 민주적 가치들이 승리할 것이라고 당연하게 여길 수 없는 상황이다.

낙관론 너머의 성찰

이들의 대화는 AI의 미래에 대한 희망적인 비전을 제시하지만, 동시에 우리가 놓치기 쉬운 중요한 질문들도 제기한다.

기술적 풍요가 정말 모든 이에게 공평하게 분배될 수 있을까?

AI 개발의 주도권을 누가 가져야 하며, 그 결정은 어떤 기준으로 내려져야 할까?

 

결국 AI의 미래는 알트먼의 시장 중심적 혁신, 하사비스의 과학적 엄밀성, 그리고 Anthropic 같은 회사들의 안전 우선 접근법이 경쟁하고 협력하는 과정에서 만들어질 것이다.

이들의 서로 다른 철학과 타임라인이 오히려 AI 발전에 건전한 견제와 균형을 제공할 수 있을 것이다.

 

샘 알트먼과 데미스 하사비스, 두 명의 낙관주의자가 그리는 미래는 분명 매력적이다. 하지만 그들의 서로 다른 접근법이 보여주듯이, AI의 미래는 단순히 기술적 발전만으로 결정되지 않는다.

그것은 우리가 어떤 가치를 추구하고, 어떤 위험을 받아들일 것인지에 대한 집단적 선택의 결과가 될 것이다.

 

결국 중요한 것은 이들의 낙관론을 맹목적으로 받아들이는 것이 아니라, 그 안에 담긴 가정들과 전제들을 비판적으로 검토하는 것이다.

AI의 위험은 기술 자체보다도 그것을 둘러싼 과도한 낙관이나 성급한 판단에서 나올 수 있기 때문이다.