GPT는 어떻게 중국의 무기가 되었나 : 진화하는 댓글부대의 실체
― 오픈AI가 밝힌 심리전의 최전선 : 10건의 AI 기반 심리전 작전 중, 중국 정부 연계로 의심되는 4건.
댓글은 무기가 되었고, AI는 그 무기를 조립한 기술자였다.

2025년 6월, 인공지능 분야에 충격적인 뉴스가 전해졌다.
OpenAI가 자사의 AI 모델을 악용한 10건의 글로벌 영향력 작전을 탐지하고 차단했다고 공식 발표한 것이다.
그중 4건이 중국 정부와 연계된 조직에서 수행된 것으로 밝혀지면서, AI가 단순한 도구를 넘어 현대 정보전의 핵심 무기로 활용되고 있음이 드러났다.
이는 과거 냉전 시대의 라디오 방송이나 2016년 미국 대선 개입 사건과는 차원이 다른 새로운 형태의 정보전이다.
기존의 '50센트 부대(五毛党)'처럼 사람이 직접 댓글을 작성하던 시대에서, 이제는 AI가 24시간 쉬지 않고 수천 개의 가짜 여론을 생산하는 시대로 접어든 것이다.
댓글로 위장한 디지털 전장 : 'Sneer Review' 작전
OpenAI가 코드명 'Sneer Review'로 명명한 이 작전은 기존의 여론조작과는 차원이 다른 정교함을 보여준다.
작전 수행자들은 GPT를 활용해 트위터, 페이스북, 레딧, 틱톡 등 주요 소셜미디어 플랫폼에서 다층적인 정보 조작을 벌였다.
이들의 수법은 놀랍도록 체계적이었다. 단순히 게시물을 작성하는 것에 그치지 않고, 해당 게시물에 대한 찬성과 반대 댓글을 동시에 생성해 마치 자연스러운 온라인 토론이 벌어지는 것처럼 연출했다.
영어, 중국어, 우르두어 등 다국어로 콘텐츠를 생성하며, 미국 국제개발처(USAID) 정책 비판부터 중국 공산당에 반대하는 대만 게임에 대한 비난까지 다양한 정치적 이슈를 다뤘다.
특히 주목할 점은 이들이 AI를 단순한 콘텐츠 생성 도구로만 사용한 것이 아니라는 사실이다.
작전 수행 과정과 성과를 분석한 내부 보고서까지 GPT로 작성했으며, 이는 AI가 정보전의 기획부터 실행, 평가까지 전 과정에 편입되었음을 의미한다.
중국은 왜 자국 AI 대신 GPT를 선택했을까?
중국 역시 Ernie Bot, Kimi 등 강력한 대형 언어모델을 보유하고 있다. 그럼에도 불구하고 이들이 GPT를 선택한 이유는 전략적 계산에 기반한다.
첫째, 서구식 표현과 문체에 대한 GPT의 우수한 이해도다. 레딧이나 트위터 등 서구 플랫폼에서 자연스럽게 받아들여질 수 있는 언어 감각은 중국산 AI보다 GPT가 월등했다.
둘째, 다국어 처리 능력과 API의 유연성이다. 빠른 속도로 다양한 언어와 스타일의 콘텐츠를 생성할 수 있는 환경은 대규모 정보 작전에 필수적이었다.
셋째, 그리고 가장 교묘한 이유는 '위장 효과'다. 미국산 AI가 생성한 콘텐츠는 중국산 AI가 만든 것보다 훨씬 덜 의심받는다. 이는 적의 도구를 역이용하는 고도의 심리전 전술이었다.
AI가 AI를 감시하는 시대의 개막
그렇다면 OpenAI는 어떻게 이런 작전을 탐지할 수 있었을까? 이는 GPT 모델 자체의 '자각'이 아니라, OpenAI가 구축한 정교한 위협 탐지 시스템의 결과다.

OpenAI의 위협 탐지 및 대응(TDR) 팀은 프롬프트 패턴, API 사용 행태, 생성 콘텐츠의 특성 등을 종합적으로 분석한다.
예를 들어, 동일한 IP에서 짧은 시간 내에 정치적으로 편향된 대량의 콘텐츠를 요청하거나, 특정 언어 패턴이 반복되는 경우를 감지한다. 또한 메타, X(구 트위터), 레딧 등 주요 소셜미디어 기업들과의 공동 프로젝트인 'PREMISE'를 통해 플랫폼 간 정보를 공유하고 있다.
더 나아가 미국 사이버보안국(CISA), 국가정보국(ODNI) 등 정부 기관과의 보안 협력 체계를 통해 VPN 경로, 프록시 활동, 언어 패턴 등을 추적한다. 이는 마치 적대적 생성 네트워크(GAN)의 실제 버전과 같다.
한쪽에서는 더 정교한 가짜를 만들려 하고, 다른 쪽에서는 더 정확한 탐지를 위해 경쟁하는 AI 대 AI의 무한 경쟁이 시작된 것이다.
민간 기업과 국가 안보의 경계선
OpenAI와 미국 정부의 관계는 미묘하다.
직접적인 '통제'는 없지만, 보안 협력 양해각서(MOU)를 통해 사이버 위협에 대한 정보는 실시간으로 공유된다. 위협이 탐지되면 관련 정보는 자동으로 정부 기관에 보고되며, 필요에 따라 의심스러운 계정 정보, IP 주소, 사용 패턴, 심지어 생성된 콘텐츠까지 미국 정부와 공유된다.
이는 GPT가 여전히 민간 도구이지만, 사실상 사이버 영토에서 준국가적 역할을 수행하고 있음을 의미한다. 기술의 발전이 국가 안보와 민간 기업의 경계를 흐리고 있는 현실을 보여주는 대표적 사례다.
흥미롭게도 OpenAI는 중국 외에도 러시아, 이란, 북한과 연계된 작전들도 차단했다고 밝혔다.
각국마다 서로 다른 AI 활용 전술을 보이고 있어, 이제 AI 정보전은 전 세계적 현상이 되었다.
이에 따라 구글, 메타, 마이크로소프트 등 다른 빅테크 기업들도 유사한 탐지 시스템 구축에 나서고 있으며, EU의 AI Act 같은 규제 정책도 강화되고 있다.
새로운 국경을 마주한 우리의 인식
이제 국경은 더 이상 지도상의 선이 아니다.
댓글 하나, API 호출 하나, VPN 우회 경로 하나가 모두 전장의 징후가 될 수 있다. AI는 단순한 편의 도구가 아니라 정보전의 병기이자 방패로 동시에 기능하고 있다.
OpenAI의 이번 발표는 단순한 기술 뉴스가 아니다.
이는 우리가 지금 이 순간, 디지털 국경 너머에서 벌어지고 있는 실시간 전쟁의 생생한 기록이다. 우리가 매일 마주하는 온라인 공간이 이미 새로운 형태의 전장이 되었음을 인식해야 할 때다.

앞으로 AI 기술이 더욱 발전하고 보편화될수록, 이런 형태의 정보전은 더욱 정교해지고 일상화될 것이다.
우리는 과연 진짜 의견과 AI가 생성한 가짜 여론을 구분할 수 있을까? 그리고 이런 디지털 전쟁터에서 개인의 자유로운 사고와 표현은 어떻게 보호받을 수 있을까?
다행히 대응책도 함께 발전하고 있다.
개인 차원에서는 정보 출처를 확인하는 습관, 팩트체킹 도구 활용, 그리고 무엇보다 비판적 사고력이 중요해지고 있다.
기술적으로는 블록체인 기반 콘텐츠 출처 인증, AI 생성 콘텐츠 표시 의무화 등의 해결책이 논의되고 있다.
'Sneer Review' 사건은 단순한 해킹 사건이 아니라, AI 시대를 살아가는 우리 모두가 직면한 근본적 질문들을 던지고 있다.
기술이 발전할수록 인간의 지혜와 판단력이 더욱 중요해지는 역설적 상황, 이것이 바로 우리가 맞이한 AI 시대의 현실이다.