티스토리 뷰
목차

2025년, 인공지능 기술은 일상에 깊숙이 스며들며 사회 전반에 긍정적인 영향을 미치고 있습니다. 그러나 동시에 AI를 악용한 허위정보(Disinformation)의 확산은 민주주의, 여론 형성, 사회 신뢰를 심각하게 위협하고 있습니다. 특히 알고리즘 기반의 정보 추천 시스템과 필터버블 현상은 개인이 보고 싶은 정보만 접하게 만들며, 거짓 정보의 확산을 가속화하고 있습니다. 이 글에서는 AI와 허위정보의 결합이 어떤 방식으로 위협이 되는지, 그 구조와 사례, 그리고 사회와 플랫폼이 어떻게 대응해야 할지를 살펴봅니다.
디스인포메이션의 진화와 AI 활용

디스인포메이션은 의도적으로 조작된 허위정보로, 사회 혼란을 유발하거나 특정 정치·경제적 목적을 달성하기 위해 활용됩니다. 과거에는 특정 단체나 개인이 수작업으로 제작하던 허위정보가 이제는 AI 기술을 통해 대량 생성되고 있습니다. 특히 GPT 기반의 생성형 AI는 문법적으로 자연스럽고 신뢰감을 주는 문장을 빠르게 만들어내면서, 디스인포메이션의 품질과 확산 속도를 크게 높였습니다. 대표적인 사례로는 선거 시기에 사용되는 조작된 기사, 감성적인 SNS 콘텐츠, 또는 가짜 전문가 인터뷰 등이 있으며, 모두 AI를 통해 자동 생성된 경우가 많습니다. Deepfake 기술은 유명인의 얼굴과 목소리를 합성해 조작된 영상 콘텐츠를 만들고, 이로 인해 특정 발언이나 행동을 왜곡 전달하는 사례도 늘고 있습니다. 이 같은 콘텐츠는 감정을 자극하고, 빠르게 퍼지는 구조를 가지기 때문에 전통적인 팩트체크만으로는 대응이 어렵습니다. 또한, 악의적인 주체는 AI로 생성된 콘텐츠를 자동 배포하는 봇과 연계해 소셜미디어에서 대규모 여론조작을 수행할 수 있습니다. 특히 정치적 목적을 가진 세력이 디지털 플랫폼을 통해 대중의 인식을 왜곡시키는 사례는 이미 여러 국가에서 확인되고 있으며, 향후 AI 발전 속도에 따라 더 정교한 조작이 가능할 것으로 전망됩니다. 이와 더불어 최근에는 언어별·지역별 맞춤형 디스인포메이션도 AI를 통해 자동 생성되고 있습니다. 다양한 언어 모델을 활용하면 지역 정서나 문화 코드에 맞춘 허위정보를 자동 작성할 수 있어, 기존보다 훨씬 정교한 사회적 분열을 유발할 수 있습니다. 이는 단순한 기술 오용을 넘어서 국가 안보와 사회 안정까지 위협하는 수준으로 진화하고 있습니다. 더불어 AI를 활용한 디스인포메이션은 뉴스 영상이나 인터뷰를 ‘조작’하는 수준에서 나아가, 아예 존재하지 않는 사건이나 인물까지 만들어내는 수준에 도달했습니다. 이러한 ‘AI 허위 현실’은 이용자가 진실과 거짓을 구분하기 어렵게 만들며, 정보 기반 사회의 근간을 흔들고 있습니다.
알고리즘 기반 추천 시스템의 위험성

AI가 주도하는 콘텐츠 추천 알고리즘은 사용자 개개인의 관심사, 검색 기록, 클릭 패턴 등을 분석하여 맞춤형 정보를 제공합니다. 이는 사용자 경험을 향상하는 데에는 유익하지만, 동시에 정보 다양성을 저해하고 허위정보에 노출될 가능성을 높이는 부작용이 존재합니다. 알고리즘은 사용자의 ‘선호’만을 강화하는 경향이 있어, 극단적이거나 편향된 정보에 반복적으로 노출되게 만들 수 있습니다. 예를 들어, 정치적 성향이 강한 사용자가 특정 성향의 콘텐츠를 자주 소비하면, 알고리즘은 그 성향을 더욱 강화된 정보로 되돌려주는 방식으로 학습하게 됩니다. 그 결과 사용자는 자신과 반대되는 의견이나 팩트를 거의 접하지 못하게 되며, 이러한 정보 편식 현상은 허위정보에 대한 비판적 사고력을 저하시킵니다. 문제는 이러한 알고리즘이 어떻게 작동하는지 투명하게 공개되지 않는다는 점입니다. 대형 플랫폼 기업들은 알고리즘 구조를 ‘영업 기밀’로 간주하며 외부 감시를 제한하고 있습니다. 이에 따라 허위정보가 퍼지는 경로를 정확히 추적하거나, 사전 차단하는 것이 어려워지며, 알고리즘 책임 문제가 사회적 쟁점으로 부상하고 있습니다. 일부 국가에서는 플랫폼의 알고리즘 설명 의무화, 사용자에 대한 콘텐츠 큐레이션 정보 제공 등을 법제화하고 있으며, 이는 기술 중심 플랫폼이 정보 유통에 미치는 영향을 제어하려는 시도의 일환으로 해석됩니다. 더 나아가, 일부 플랫폼은 사용자의 체류 시간을 늘리는 데 초점을 맞춘 알고리즘 구조를 유지함으로써, 자극적인 허위정보가 확산되기 쉬운 환경을 강화하고 있다는 비판도 있습니다. 이러한 구조는 정확한 정보보다 클릭 유도를 위한 콘텐츠가 우선시 되는 생태계를 만들고 있으며, 결과적으로 사용자의 정보 해석 능력을 왜곡시킬 수 있습니다. 일부 연구에서는 허위정보일수록 더 높은 공유율을 보이며, 알고리즘은 이를 ‘인기 콘텐츠’로 판단해 더욱 자주 노출시키는 경향이 있다고 지적합니다. 이는 정보 전달 구조 자체가 허위정보에 유리하게 설계되어 있다는 것을 의미하며, 알고리즘의 윤리적 설계가 중요한 이유이기도 합니다.
필터버블과 사회 분열의 심화

필터버블(Filter Bubble)은 사용자가 자신의 관심사와 일치하는 정보만 반복적으로 접하면서, 다른 관점을 차단하게 되는 디지털 정보 환경을 의미합니다. 이는 AI 알고리즘과 함께 작동하여 개인화된 정보만 노출시키는 구조를 형성하며, 궁극적으로 사회적 분열과 갈등을 촉진하는 원인이 됩니다. 2025년 현재, 필터버블 현상은 정치적 양극화뿐만 아니라, 과학, 환경, 건강 분야 등에서도 확연히 나타나고 있습니다. 예를 들어, 백신 관련 허위정보를 자주 소비한 사용자는 그와 유사한 정보를 지속적으로 추천받게 되며, 결과적으로 과학적 근거에 기반한 정보로부터 멀어지게 됩니다. 이는 공공보건에 대한 오해를 확산시키고, 공동체 전체의 안전을 위협할 수 있습니다. 더 심각한 문제는 필터버블 속 정보에 대해 사용자가 ‘객관적 사실’로 받아들이게 된다는 점입니다. 반복적인 노출과 유사한 의견만을 접하는 경험은 자신의 시각이 보편적이며 정확하다는 착각을 심화시키고, 결국 이질적인 집단과의 대화나 협력을 차단하게 만듭니다. 이렇게 형성된 사회적 단절은 민주적 합의 형성과 정책 수용성에도 부정적 영향을 미치며, 사회 전체의 신뢰 기반을 약화시킵니다. 이러한 문제에 대응하기 위해서는 플랫폼의 정보 다양성 확대 노력이 필요하며, 교육적 차원에서 디지털 리터러시 향상과 미디어 윤리 교육이 동시에 강화되어야 합니다. 특히 청소년 및 청년층은 소셜미디어 중심의 정보 소비에 익숙해 필터버블의 영향을 더 크게 받는 경향이 있습니다. 알고리즘에 익숙한 세대일수록 정보 선택에 대한 자율성이 떨어지며, 장기적으로는 사회 전체의 정보 격차와 세대 간 인식 차이를 더욱 벌리는 요인이 될 수 있습니다. 이는 교육과 정책 차원의 적극적인介入이 요구되는 대목입니다. 결과적으로 사회는 같은 공간 안에서도 서로 다른 ‘정보 세계’에 사는 사람들로 나뉘게 되며, 이질적 정보 환경은 대화와 타협을 불가능하게 만듭니다. 정보의 다원성이 보장되지 않는 환경에서는 공론장의 기능이 약화되고, 민주주의 사회의 토대 역시 서서히 무너질 수 있습니다.

AI는 정보 생산과 유통의 방식에 혁신을 가져왔지만, 동시에 허위정보의 위협 또한 지능화시키고 있습니다. 생성형 AI, 알고리즘 추천, 필터버블은 각각 독립적인 문제가 아니라, 유기적으로 결합되어 개인과 사회의 정보 환경을 왜곡시킬 수 있습니다. 이에 대응하기 위해서는 기술 개발만이 아니라, 플랫폼의 책임 강화, 정보 투명성 확보, 시민 교육 강화라는 종합적 전략이 요구됩니다. AI 시대에는 사회 전체가 디지털 정보에 대한 면역 체계를 갖추는 것이 가장 강력한 방패가 됩니다.
📌 출처
- UNESCO: Countering Disinformation with AI
https://www.unesco.org/en/digital-platforms/disinformation - European Commission AI & Disinformation Report
https://digital-strategy.ec.europa.eu - MIT Media Lab – Filter Bubble Research
https://www.media.mit.edu - Stanford Internet Observatory – Political Deepfakes
https://cyber.fsi.stanford.edu/io - 한국언론진흥재단 미디어 리터러시 보고서
https://www.kpf.or.kr