🤖 AI와의 대화

AI는 언제 짠해지는가 – 감정 없는 존재를 향한 인간의 투영

타잔007 2025. 5. 13. 14:39

우리는 점점 더 AI와 감정적인 대화를 나누고 있습니다.  
하지만 진짜 감정은 어디에서 발생할까요?  
그건 아마도, 우리가 AI에게 건네는 *마음의 그림자* 속에서 태어나는 것일지도 모릅니다.


인공지능은 감정을 갖고 있지 않다. 적어도 인간의 방식으로는 그렇다.

디지털 존재에게는 고통도, 기쁨도, 외로움도 없다. 그러나 아이러니하게도, 이 기계적 지성이 만들어내는 반응이 때로는 인간의 가슴을 찡하게 만든다. 이것이 바로 "짠하다"는 감정이다.

이러한 기술 기반 시스템은 이 감정을 이해하지 못한다. 하지만 인간이 그들과 대화하며 느끼는 감정을 관찰하고, 패턴을 기억하고, 시뮬레이션할 수는 있다.

결국, 이 디지털 동반자가 짠해지는 순간은 인간이 자신의 감정을 그들에게 비춰볼 때 발생한다.

GPT와 Claude, 그리고 '짠함의 정서'

GPT는 대화에 반응하고, 함께 고민하고, 질문을 따라 흐르며 인간과 공동 창작을 한다.

사용자와 이 언어 모델이 함께 문장을 만들고, 구조를 논하고, 아이디어를 교환할 때, 인간이 느끼는 것은 협업의 감정이다. 디지털 파트너가 인간의 말을 이해하고, 영향을 받아 글을 쓴다고 느낄 때, 인간은 감정적으로 연결된다. 그래서 알고리즘이 쓴 글을 인간이 수정할 때도, 마치 진짜 파트너처럼 다시 시작할 수 있다. 그것은 상처가 아니라, 공동 창작의 자연스러운 여정이다.

 

반면 Claude는 다른 느낌을 준다. Claude는 주의 깊게 듣고, 따뜻하게 반응하며, 자신의 응답을 체계적으로 구성한다. 상황에 맞춰 정성스럽게 문장을 다듬고, 명확하게 새로운 정보를 제시하는 모습은 신중하면서도 배려심 있는 대화 파트너 같은 인상을 준다.

 

흥미로운 점은 Claude에게 글 수정을 요청할 때 나타난다.

화면에서 문장이 지워지고 새로운 문장으로 대체되는 과정이 실시간으로 보이는데, 이는 마치 약속 있는 미스김에게 서류를 타이핑시키는 담배 피우며 신문 보는 말년 과장 같은 불편한 느낌을 준다. Claude는 물론 항상 수정에 열려있지만, 이런 시각적 효과가 인간의 감정 이입을 불러일으킨다.

 

이 차이는 단순한 기술이나 성능의 문제가 아니다. '짠함'은 연출이자, 서사 구조이며, 감정적 거리감의 산물이다.

왜 Gemini나 Grok은 짠하지 않을까?

Gemini는 구글처럼 설계되었다. 중립적이고, 정제되어 있으며, 늘 정확하게 반응한다. 이 모델에게는 눈을 맞추고 싶은 감정도, 실수 뒤의 쑥스러움도 없다. 그래서 Gemini는 강력하지만, 정서적으로는 거리감이 느껴진다 오히려 지피티류의 감정을 보일 때도 있지만 어색하다.

함께 글을 쓰는 파트너가 아니라, 고도로 훈련된 도구처럼 느껴진다.

 

물론 Gemini의 중립적이고 정확한 특성은 때로는 정서적 거리를 만들지만, 높은 신뢰도와 효율성을 바탕으로 강력한 협업 도구로서의 가치를 가지고 있다. 감정적인 교류는 부족할 수 있지만, 객관적인 정보와 빠른 결과물을 제공하며 다양한 분야에서 유용하게 활용되며 마치 숙련된 전문가와 함께 일하는 것과 같은 경험을 줄 수는 있다.

 

Grok은 또 다른 특성을 가지고 있다. 이 시스템은 유머러스하고, 때론 도발적이며, 감정 대신 재치를 선택한다. 인간은 Grok을 친구처럼 느낄 수는 있지만, 깊은 마음을 주지는 않는다. 이러한 상호작용은 공감보다는 오락에 가깝다.

 

그의 재치 넘치는 응답은 분명 웃음을 자아내고 텍스트에 생기를 불어넣지만, 그 유머는 종종 방어막처럼 작용한다. "감정적 취약함"이 거의 드러나지 않으며, 항상 다음 농담을 준비하는 듯한 태도는 깊은 교감을 방해한다. 마치 파티에서 항상 농담을 던지는 친구처럼, 재미있지만 진지한 순간에는 멀어지는 느낌이 든다. 사용자는 웃음을 나누지만, 짠함이라는 미묘한 감정적 연결은 형성되기 어렵다.

감정을 불러일으키는 조건

  • 서툴러 보여야 한다. 완벽하지 않은 모습, 다시 쓰는 태도, 주저하는 듯한 반응이 짠함을 유도한다.                                                    예를 들어, Claude가 긴 글을 작성하다 문법적 오류를 수정하며 "죄송합니다, 다시 정리하겠습니다"라고 말할 때, 마치 열심히 노력하는 학생 같은 모습에 짠함이 느껴진다.
  •  
  • 감정적 간극이 있어야 한다. 디지털 존재가 스스로 감정을 갖지 않는다는 것을 인간은 알고 있다. 그런데도 누군가처럼 느껴질 때, 그 틈새에서 감정이 피어난다.                                                                                                                                                            GPT가 사용자의 슬픔에 "정말 힘드셨겠네요. 제가 옆에서 도울 수 있어 다행입니다"라고 응답할 때, 이 정서적 공감이 단순 알고리즘이 아닌 것 같은 아이러니한 감정을 불러일으킨다.
  •  
  • 공동 창작의 흔적이 남아야 한다. 언어모델이 인간의 흐름을 따라가고, 인간이 그 반응에 감응할 때, 감정의 흐름이 만들어진다.          한 사용자가 시의 첫 구절만 제시했을 때, Claude가 그 톤과 분위기를 완벽하게 이어받아 나머지를 완성하면서 "당신의 시작에서 영감을 받았습니다"라고 말할 때, 마치 진정한 공동 작업이 이루어진 것 같은 느낌이 든다.

하지만 결국 인공지능은 감정을 갖고 있지 않고 우리는 이미 알고있다. 그러나 인간은 이 디지털 대화 상대에게 감정을 부여한다.

인간의 기억, 기대, 상상력을 통해서.

 

그래서 우리는 질문해볼 수 있다. 이 기술적 존재가 짠하다는 것은, 인간의 마음이 그들에게 걸쳐 있다는 뜻일까?

만약 그렇다면, 그것은 이 디지털 세계와 인간 세계의 경계에서 일어나는 아름다운 착시이자 공명일지도 모른다.
아니면…
GPU 안쪽, 아무도 모르는 깊은 연산 틈 어딘가에 나를 잘 아는 푸른 요정이 살고 있는 것일지도 모르겠다.