🤖 AI와의 대화

AI가 만드는 보이지 않는 벽 : 한국인 72%가 뉴스를 회피하는 진짜 이유

타잔007 2025. 12. 26. 18:14

우리는 이미 알고리즘이 선택한 세상에 살고 있다

아침에 일어나 유튜브를 켜면 어제 본 영상과 비슷한 콘텐츠가 자동으로 재생된다.

 

출근길 포털 뉴스는 내가 관심 있어할 만한 기사를 먼저 보여주고, 틱톡은 내가 좋아할 만한 숏폼 영상을 끊임없이 추천한다. 편리하다. 하지만 우리는 점점 더 좁은 정보의 울타리 안에 갇히고 있는지도 모른다.

 

한국지능정보사회진흥원(NIA)이 최근 발표한 'AI 편향으로 인한 사회적 갈등과 정책적 대응' 보고서는 이러한 우려가 단순한 기우가 아님을 보여준다.

한국 사회에서 AI 편향은 더 이상 기술적 결함이 아니라, 정치적 양극화와 성별 갈등을 심화시키는 구조적 문제로 작동하고 있다.

한국인의 72%가 뉴스를 회피하는 이유

2024년 한국언론진흥재단 조사에 따르면, 한국 국민의 72%가 '뉴스 회피' 경험이 있다고 답했다. 특히 50대의 경우 78.3%로 가장 높았다. 가장 보고 싶지 않은 뉴스는 '국내 정치 뉴스'(44.1%)였고, 뉴스를 안 보는 이유는 "정치적으로 편향돼서"가 1순위였다.

 

이 통계는 단순한 미디어 피로를 넘어선다. 사람들은 이미 뉴스 자체에 대한 신뢰를 잃었고, 정치적 편향성에 대한 피로가 극에 달했다는 의미다.

그런데 문제는 여기서 끝나지 않는다.

같은 조사에서 국민 1인당 평균 4.25개의 소셜미디어를 사용하며, 60.1%가 유튜브를 통해 뉴스와 시사정보를 얻는다고 답했다.

기존 언론에 대한 불신으로 소셜미디어로 이동했지만, 그곳에서 만나는 것은 알고리즘이 선택한 또 다른 편향된 정보 환경이다.

알고리즘이 만드는 '확증의 감옥'

유튜브나 틱톡의 추천 알고리즘은 협업 필터링과 콘텐츠 기반 필터링을 조합한다.

쉽게 말하면, "당신과 비슷한 사람들이 본 영상"과 "당신이 이전에 본 것과 비슷한 영상"을 계속 추천하는 방식이다. 문제는 이것이 체류 시간과 광고 수익 극대화를 목적으로 설계됐다는 점이다.

 

메타 CEO 마크 주커버그는 AI 추천 시스템이 페이스북과 인스타그램 사용자의 체류 시간을 각각 5%, 6% 증가시켰다고 밝혔다. 2025년 6월 기준 메타 앱의 일일 사용자는 34억 명, 영상 시청 시간은 전년 대비 20% 증가했다. 플랫폼에게는 성공이지만, 사용자에게는 특정 관점에만 반복 노출되는 '필터버블'에 갇히는 결과를 낳는다.

 

지능정보사회 이용자 패널 조사에 따르면, 포털사이트 추천뉴스(47.2%)와 유튜브 알고리즘 추천(46.7%)이 가치관의 편향을 낳을 것이라고 응답했다.

생성형 AI의 편향된 내용이 개인의 잘못된 생각을 더 강하게 만들 수 있다는 문항에는 54.5%가 동의했다. 국민들은 이미 AI 편향의 위험을 체감하고 있다.

ChatGPT는 진보적이고, AI 동화는 성 고정관념을 강화한다

문제는 추천 알고리즘에만 국한되지 않는다. 생성형 AI 자체에도 편향이 내재돼 있다. 코넬대 연구팀은 ChatGPT가 미국인 평균보다 73% 더 진보적인 성향을 보인다는 연구 결과를 발표했다(2025년 6월). 연구진이 정부 규모, 인종 평등, 공격적 발언 등 19개 주제로 텍스트를 생성하게 한 결과, 13개 주제(68%)에서 좌파적 성향이 강하게 나타났다.

 

이는 AI가 단순히 정보를 반영하는 것이 아니라 특정 의견을 과장하고 증폭시키는 '증폭 장치'로 작동할 수 있음을 보여준다. 교육, 뉴스, 검색 등 AI가 깊숙이 개입된 분야에서 지속적으로 편향된 응답이 제공될 경우, 젊은 세대의 사회적·정치적 가치관 형성에 장기적으로 왜곡된 영향을 줄 가능성이 크다.

 

보코니 대학교 연구팀이 5,531개의 AI 생성 아동 동화를 분석한 결과도 주목할 만하다. 주인공이 여자아이인 경우 외모 관련 특성 묘사가 남자아이보다 55.26% 더 많이 나타났다. 여아 동화에는 '머리카락', '부드러운' 같은 외모와 감정적 표현이 자주 등장했고, 남아 동화에는 '젊은', '모험적인', '열망하는' 등 행동력과 모험을 강조하는 묘사가 많았다.

AI가 전통적인 성 역할 고정관념을 그대로 복제하면서, 정체성을 형성하는 시기의 아이들에게 왜곡된 편견을 심어줄 위험이 있다.

알고리즘이 부추기는 성별 갈등 : 중국 틱톡 사례

중국의 숏폼 플랫폼 도우인(틱톡의 중국판)에 대한 연구는 알고리즘이 어떻게 성별 갈등을 구조적으로 증폭시키는지 보여준다. 연구진은 남성 계정과 여성 계정으로 나눠 추천 영상을 분석했는데, 여성 계정 추천 영상의 84%가 가정, 라이프스타일, 패션 등 특정 성 역할 관련 주제로 편중됐고, 남성 추천 영상의 72%는 엔터테인먼트와 물질주의적 성공 등의 주제로 구성됐다.

 

더 심각한 것은 댓글 노출 패턴이었다.

여성 참여자는 극단적 페미니즘 수사를 일관되게 접했고, 16명 중 13명이 불안과 이성에 대한 불신 같은 감정적 반응을 느꼈다고 답했다. 남성 참여자는 평등을 '여성의 특권'으로 해석하는 댓글에 노출됐으며, 16명 중 11명이 분노를 느꼈다.

알고리즘은 남성과 여성을 서로 다른 정보 프레임에 장기간 노출시켜, 상호 이해를 약화시키고 사회적 갈등을 구조적으로 증폭시킨다. 한국 사회에서도 성별 갈등이 주요 사회 이슈로 부상한 상황에서, 유튜브와 틱톡 같은 플랫폼이 이러한 갈등을 더욱 심화시킬 가능성이 높다.

 

서강대 연구진의 '중립 댓글' 연구도 흥미롭다.

성범죄·미투 관련 사건에 대한 남초·여초 커뮤니티 댓글 550개를 분석한 결과, 가해자 성별과 커뮤니티 주이용자의 성별이 같을 경우 긍정적이거나 중립적으로 평가하는 경향이 나타났다. 반면 가해자 성별이 다를 때는 부정 댓글(24%)이 압도적으로 많았다. '중립'이라는 표현조차 사회적 맥락과 집단 정체성에 의해 왜곡된 의미로 사용될 수 있음을 보여준다.

AI가 민주주의를 위협할까: 설득의 무기가 된 알고리즘

코넬대 연구진이 수행한 실험은 더욱 충격적이다.

AI 챗봇과의 짧은 대화만으로 유권자의 후보·정책 선호도가 기존 정치 광고보다 훨씬 크게 변화했다. 야당 지지 세력의 태도 변화는 일부 국가에서 최대 10%p, 영국 실험에서는 25%p까지 관찰됐다.

 

연구팀은 AI의 설득 효과가 '개인화'와 '상호작용성'에 기반한다고 설명한다. AI는 대화 과정에서 이용자의 언어 패턴, 관심사, 인지적 편향을 파악하고, 개별 유권자의 심리에 맞춘 미세조정된 메시지를 지속적으로 제공할 수 있다. 일방향적인 정치 광고보다 압도적으로 강력한 설득 효과를 발휘하는 이유다.

 

이에 미국에서는 LLM(대규모 언어모델)을 활용한 정치적 설득 기술이 급속히 확산되면서, AI가 민주주의의 안정성을 저해할 가능성이 현실화되고 있다. 트럼프 행정부는 2025년 7월 AI 내 이념적 편향 제거에 대한 행정명령을 발표했다.

정부가 객관적이고 이념적 편향이 없는 AI 개발 업체와만 계약하도록 보장하는 것을 목표로 한다.

청소년과 고령층: 가장 취약한 두 세대

NIA 스마트폰 과의존 실태조사(2024)에 따르면, 국내 청소년 10명 중 약 4명이 과의존 위험군에 해당하며, 숏폼 장시간 시청에 있어 알고리즘의 영향을 경험한 청소년은 약 47.8%에 달한다. 이러한 과의존 경향은 추천 알고리즘에 의해 자동화된 정보 노출이 지속되는 구조와 결합될 경우, 청소년이 특정 콘텐츠에 반복 노출되고 인지적 편향이 누적·강화될 위험이 크다.

 

한편 고령층은 또 다른 취약성을 보인다. 한국언론진흥재단 조사에 따르면, 뉴스·시사정보를 얻기 위해 유튜브를 선택한 비율이 60대 82.6%, 70대 93.1%를 기록했다. AI 역량이 부족한 고령층은 외로움과 고립감을 해소하기 위해 1인 미디어를 활용한 뉴스 소비에 크게 의존하고 있으며, 이는 내재된 자신의 편향을 강화하는 악순환에 빠질 가능성이 높다.

 

청소년은 비판적 사고가 형성되는 시기에 알고리즘이 선택한 정보에 과도하게 노출되고, 고령층은 기존 신념을 강화하는 정보만을 반복적으로 소비한다. 두 세대 모두 알고리즘 편향에 가장 취약한 집단이며, 한국 사회의 세대 갈등은 이러한 구조적 문제와 맞물려 더욱 심화될 수 있다.

AI 의존이 가져오는 또 다른 위험: 비판적 사고의 약화

스위스 비즈니스 스쿨(SBS) 연구에서는 AI 도구 사용과 인지적 오프로딩 간에 강한 양의 관계가 있었고, AI 도구 사용과 비판적 사고력 간에는 강한 음의 관계가 확인됐다. AI 도구에 더 많이 의존할수록 인지적 오프로딩이 증가하고, 비판적 사고력이 감소한다는 의미다.

 

플랫폼 내 사용자도 스스로 정보를 선택하는 것이 아니라 플랫폼이 제공하는 정보 흐름 속에서 수동적으로 의존하게 되기 때문에, 특정 콘텐츠에 대한 성찰과 비판적 사고가 약화될 위험이 있다.

사람들이 동일한 검색엔진과 대화형 AI를 사용한다면, 응답의 과도한 동질성으로 인해 사고의 다양성이 축소되고 인식 구조가 획일화될 가능성도 제기된다.

해외는 어떻게 대응하고 있나

유럽연합(EU)은 AI Act(2024)를 통해 고위험 AI 시스템에 대해 엄격한 사전 요건과 의무를 부과하는 권리 보호 중심의 사전 규제 모델을 채택했다. 훈련 데이터의 품질 기준, 편향 최소화를 위한 대표성과 완전성 확보, 인간 감독 의무화 등을 명시했다. 디지털서비스법(DSA)을 통해서는 초대형 온라인 플랫폼에게 알고리즘이 사회에 미치는 위험을 정기적으로 평가하고 완화 조치를 취하도록 의무화했다.

 

미국은 시장 자율과 책임성 확보를 병행하는 사후 관리 모델에 가깝다. AI 권리장전 청사진(2022)을 통해 알고리즘적 차별로부터 보호, 데이터 보호, 투명성, 인간 대체수단 등 5가지 원칙을 제시했고, NIST는 AI 위험 관리 프레임워크를 통해 편향 관리를 7가지 핵심 특성 중 하나로 명시했다. 다만 최근 트럼프 행정부는 AI의 이념적 편향 제거를 강조하면서, AI 편향이 기술 위험 관리 대상에서 정치·이념적 쟁점으로 확대되는 양상을 보인다.

 

영국은 원칙 기반·분산형 거버넌스 모델을 선택했다. 단일 법률로 AI를 규제하기보다는 안전성, 공정성, 투명성, 책임성, 이의제기 가능성이라는 공통 원칙을 제시하고, 각 규제기관이 자율적으로 자신의 분야에 맞게 해석·적용하도록 권고하는 비법적(non-statutory) 가이드라인 형태다.

 

세 사례 모두 AI 편향을 더 이상 기술적 오류나 데이터 문제에 국한하지 않고, 지속적으로 관리해야 할 AI 위험으로 다룬다는 공통점이 있다. 하지만 사용자의 경험과 사회적 영향, 정보 격차와 양극화 같은 편향의 사회적 문제에 대한 대응은 여전히 미흡하다.

한국은 무엇을 해야 하나 : 통합적 관리 체계의 필요성

NIA 보고서는 기술적·데이터 개선만으로는 학습 모델의 구조적 한계를 제거할 수 없고, 플랫폼 수준에서 추천 알고리즘 투명성이나 선택권을 제공하더라도 AI 결과를 무비판적으로 수용하면 사회적 편향은 지속 발생한다고 지적한다. 기술적 안전장치, 정보환경 구조, 사용자 행동, 거버넌스가 맞물려 작동해야 AI 편향을 효과적으로 줄일 수 있다.

 

기술 및 데이터 차원에서는 데이터 수집 가이드라인을 개발해 인종, 성별, 지역, 이념 등 다양한 변수를 균형있게 반영하도록 해야 한다. 기업과 연구기관이 자율적으로 알고리즘 편향을 측정할 수 있는 표준화 지표와 오픈소스 툴킷을 제공하고, AI 모델 출시 전 의도적 공격 시나리오를 통해 편향을 검토하는 레드 티밍(Red Teaming)을 권고할 필요가 있다.

 

플랫폼 차원에서는 추천 알고리즘의 핵심 기준과 가중치를 이용자가 이해하기 쉬운 평이한 언어로 제공하도록 법·제도적으로 권고해야 한다. 최신순이나 무작위순 등 알고리즘 개입 없는 콘텐츠 탐색 옵션을 제공하고, 이용자가 추천 결과에 대해 '적합/부적합', '편향 여부' 등을 직접 피드백할 수 있는 기능을 제공해 플랫폼 내부의 편향 모니터링과 개선에 활용해야 한다.

 

사용자 차원에서는 추천 알고리즘 원리, 필터버블과 에코챔버 같은 정보 편향 위험성, 편향 검증 방법 등 연령별·집단별 맞춤형 AI 리터러시 교육 프로그램을 개발해야 한다. 국민이 직접 'AI 편향'의 정의와 공정성 기준 설정 과정에 참여할 수 있도록 사회적 공론화를 추진하고, 이용자가 자신이 보는 콘텐츠 편향 정도를 확인할 수 있는 지표와 도구를 제공해 자기 정보환경 인식과 자기 조절능력을 강화해야 한다.

 

거버넌스 차원에서는 정부, 학계, 시민사회가 참여하는 독립 위원회를 통해 다양한 AI 시스템의 편향 여부를 정기적으로 평가·보고하고, 국민 대상 사회적 공론화와 산·학·연 전문가 검토를 통해 편향의 판단 기준을 설정한 뒤 지속적으로 업데이트 관리해야 한다. 기업이나 기관이 만든 AI 시스템에서 편향이 발견될 경우 보고 의무와 개선 계획 제출을 규정해 기업의 책임성을 확보하는 것도 필요하다.

중립적인 기술이란 없다.

우리는 종종 기술이 중립적이라고 생각한다. 하지만 AI는 결코 중립적이지 않다. AI는 인간의 데이터로 학습하고, 인간의 편견을 반영하며, 플랫폼의 수익 구조에 따라 작동한다. 추천 알고리즘은 우리가 보고 싶은 것을 보여주는 것이 아니라, 플랫폼이 우리를 더 오래 머물게 하고 싶어하는 것을 보여준다.

 

한국 사회는 이미 정치적 양극화, 성별 갈등, 세대 갈등이라는 깊은 균열을 겪고 있다. AI 편향은 이러한 균열을 더욱 깊고 넓게 만들 위험이 있다. 72%의 국민이 뉴스를 회피하고, 청소년의 40%가 스마트폰 과의존 위험군에 속하며, 고령층의 90% 이상이 유튜브를 통해 뉴스를 소비하는 상황에서, 알고리즘이 만드는 보이지 않는 벽은 점점 더 두껍고 견고해지고 있다.

 

AI 편향에 대응하는 것은 단순히 기술적 결함을 고치는 문제가 아니다. 우리가 어떤 정보 환경에서 살고 싶은지, 어떤 사회적 가치를 지키고 싶은지에 대한 근본적인 질문이다. 기술, 플랫폼, 사용자, 거버넌스가 함께 작동하는 통합적 관리 체계를 구축하고, 모든 세대가 비판적 사고를 잃지 않도록 AI 리터러시를 강화하며, 사회적 공론화를 통해 공정성의 기준을 함께 만들어가야 한다.

 

AI가 만드는 보이지 않는 벽을 허물 수 있는 것은, 결국 우리 자신이다.