잘못된 정보가 빠르게 퍼지는 디지털 시대에, 인공지능은 음모론에 대응할 수 있는 잠재적인 솔루션으로 떠올랐습니다.
그러한 예 중 하나는 “디벙크봇“, 음모론을 믿는 사용자와 교류하도록 설계된 AI 챗봇. 최근 in에 발표된 연구 과학 인상적인 결과를 보여주었습니다. 봇과 짧은 대화를 나눈 후, 참가자들의 음모론에 대한 믿음은 20% 감소했고, 약 4분의 1이 그 믿음을 완전히 버렸습니다. 게다가, 이러한 효과는 2개월 후에도 지속되어 AI가 잘못된 정보에 도전하는 데 장기적인 솔루션을 제공할 수 있음을 시사했습니다.
연구 저자 중 한 명인 Gordon Pennycook은 다음과 같이 말했습니다.이 작업은 우리가 음모에 대해 생각했던 방식을 많이 뒤집습니다.“음모론은 사실과 논리만으로는 반박할 수 없다는 오랜 믿음에 도전합니다. 인지적 불협화음, 즉 사람들이 깊이 간직한 믿음과 모순되는 정보에 직면했을 때 느끼는 불편함 때문입니다. DebunkBot은 이 장벽을 우회하는 듯합니다.
그러나 DebunkBot의 성공은 일반적인 반박 전략에 의존하기보다는 사용자의 구체적인 우려 사항에 대한 맞춤형 사실 기반 응답을 제공하는 능력 덕분이었습니다. 이러한 개인화된 참여를 통해 봇은 각 사용자의 고유한 신념을 해결하고 종종 음모 이론을 부추기는 확인 편향과 같은 인지적 편향을 극복할 수 있었습니다.
이러한 결과는 유망하지만, 더 광범위한 의문도 제기합니다. 전통적 기관과 정보 출처에 대한 불신이 점점 더 커지는 세상에서 AI만으로 음모론에 진정으로 맞설 수 있을까요? 다트머스 대학의 허위 정보 연구원인 브렌던 니한은 중요한 우려 사항을 강조합니다.AI 정보가 주류 미디어와 같은 방식으로 보여지는 세상을 상상해 보세요. 보인다” — 광범위한 회의주의와 불신으로. AI가 엘리트나 기술 기업의 또 다른 도구로 여겨진다면, AI는 도움을 주려는 사람들의 신뢰를 얻지 못할 수 있으며, 특히 많은 음모론자들이 이미 기존 미디어와 기관에 대한 깊은 불신을 품고 있는 상황에서 더욱 그렇습니다.
시드니 대학교 미디어 및 커뮤니케이션학과의 디지털 커뮤니케이션 및 문화 교수인 테리 플루(Terry Flew)는 신뢰의 침식을 주장한다 뉴스 미디어와 정치 엘리트의 영향력은 포퓰리즘과 음모론의 부상에 중요한 요인이었습니다. 그는 불신이 만연한 환경에서는 잘못된 정보가 번창한다고 강조합니다. 이러한 맥락에서 DebunkBot과 같은 AI 개입은 단순히 사실에 대한 수정을 제공하는 것이 아니라 신뢰를 회복하기 위한 더 큰 노력의 일부가 되어야 합니다.
플루는 정치, 사회, 미디어 기관의 글로벌 신뢰 위기를 강조하고, 상호 연결된 세 가지 수준의 신뢰를 개략적으로 설명합니다. 거시적(사회적), 중간적(제도적), 미시적(대인적). 이 프레임워크는 AI가 음모론에 맞서 싸우는 역할을 고려할 때 매우 중요한데, AI는 이러한 수준의 교차점에서 기능하기 때문입니다. 즉, 사실적 수정(미시), 신뢰할 수 있는 플랫폼 내에서 작업(중간)하고, 더 광범위한 사회적 신념에 영향을 미칩니다(거시). 플루는 AI 개입이 진정으로 효과적이려면 사회의 이러한 광범위한 신뢰 부족을 해결해야 한다고 결론 내립니다.
마찬가지로,음모 이론의 심리학사회 심리학 교수 Karen M. Douglas 사람들이 주체성이 부족하다고 느낄 때, 음모론이 제공하는 단순화된 설명이 매력적이라고 설명한다. 이러한 심리적 필요성은 확인 편향과 같은 인지적 편향이 음모론적 사고를 더욱 강화함에 따라, 사실만으로 이러한 믿음을 반박하려는 노력을 복잡하게 만든다. 플루와 더글러스는 모두 개인이 기관 엘리트와 미디어 게이트키퍼와 단절되어 있다고 느낄 때 음모론이 번창한다고 강조한다.
MIT 교수 데이비드 랜드가 지적했듯이 AI 개입의 과제는 투명성, 중립성, 정확한 정보에 기반을 두면서도 사용자에게 공감을 얻는 것입니다. 이는 특히 기존 미디어에 대한 신뢰가 감소하고 소셜 미디어가 음모 이론의 비옥한 토양이 된 시대에 매우 중요합니다.
사회적 신뢰에 관한 연구는 사람들이 기관과 확장하여 AI 시스템을 투명하고 책임감 있고 공익을 위해 일하는 것으로 인식될 때 더 신뢰할 가능성이 높다는 것을 나타냅니다. 반대로 기관이나 AI 도구가 불투명하거나 조작적이라고 여겨지면 신뢰가 떨어집니다. DebunkBot과 같은 도구가 효과를 유지하려면 지속적으로 중립성과 공정성을 입증해야 합니다. 정책 입안자, 개발자 및 기술자는 AI 시스템이 잘못된 정보에 맞서 싸우는 데 신뢰할 수 있는 참여자로 여겨지도록 협력해야 합니다.
DebunkBot이 유망해 보이지만, 과제는 여전히 남아 있습니다. AI 개입은 설득력과 사용자 신뢰 유지 사이에서 균형을 맞춰야 합니다. AI를 소셜 미디어나 헬스케어와 같이 음모론이 자주 유포되는 일상 플랫폼에 통합하면 효과를 개선할 수 있습니다. 예를 들어, AI는 병원 진료실에서 백신에 대한 오해를 해소하거나 잘못된 정보가 빠르게 퍼지는 온라인 포럼에서 사용할 수 있습니다.
음모론에 맞서는 AI의 장기적인 성공에는 기술 혁신 이상이 필요합니다. 신뢰, 심리적 요인, 대중의 인식은 모두 AI가 지속적인 영향을 미칠 수 있는지 여부를 결정하는 데 중요한 역할을 합니다. 플루가 강조했듯이 미디어, 기관 및 광범위한 정보 생태계에 대한 신뢰를 재건하는 것은 모든 솔루션이 성공하는 데 필수적입니다. DebunkBot과 같은 AI 도구는 개인화된 사실 기반 개입을 제공하는 데 중요한 역할을 할 수 있지만 투명한 커뮤니케이션, 정책 입안자와 개발자 간의 협업, 광범위한 사회적 신뢰 부족을 해결하기 위한 노력을 포함하는 더 큰 전략의 일부가 되어야 합니다.
파리 에스판디아리글로벌 테크노폴리틱스 포럼의 공동 창립자이자 회장이며, 유럽 지역을 대표하는 ICANN의 대표 자문 위원회 위원이자 APCO 월드와이드의 자문 위원회 위원입니다.