디지털 시대의 미디어리터러시와 언어생활

유권자가 알아야 할 AI 상식

literacy-talktalk 2025. 4. 7. 00:03
반응형

 

AI의 발전은 정치 영역에도 빠르게 스며들고 있으며, 특히 선거 유세 과정에서의 활용이 점차 본격화되고 있습니다. 후보자의 메시지를 더 넓은 대중에게 빠르게 전달하고, 유권자 개개인과의 소통을 가능하게 만드는 도구로서 AI는 새로운 가능성을 보여주고 있습니다. 그러나 동시에 정보의 신뢰성과 책임성이라는 민주주의의 핵심 가치와 충돌할 수 있는 위험도 함께 안고 있습니다.

 

 

❚  사망한 정치인을 선거판에 세운 AI 

 

2024년 인도 타밀나두(Tamil Nadu) 선거에서는 인공지능 기술을 활용한 캠페인 전략이 새로운 양상을 보였습니다. 특히 큰 논란을 불러일으킨 사례는, 이미 사망한 두 정치 거물인 M. 카루나니디(M. Karunanidhi)와 J. 자얄랄리타(J. Jayalalithaa)의 디지털 아바타가 AI 기술을 통해 생성되어 선거 유세에 등장한 사건입니다.
이들의 디지털 아바타는 실제처럼 말하고 움직이며 특정 정당 또는 후보를 지지하는 모습을 보여주었고, 이는 유권자들에게 강한 인상을 남겼습니다. 특히 두 인물은 타밀나두 정치사에서 오랜 시간 대중적 지지와 상징성을 지녀왔던 지도자들이었기 때문에, 이들의 ‘가상 복귀’는 단순한 캠페인 도구를 넘어선 정서적 파급력을 불러일으켰습니다. 유권자들은 실제로는 존재하지 않는 발언과 메시지를 통해 오도되는 사태에 직면하였고, 일부 시민들은 영상 속 내용이 실제 발언인지, 아니면 합성된 것인지조차 분간하지 못했다는 반응도 있었습니다. 단지 기술의 놀라움이나 창의성만을 앞세우기보다, 정보의 진위와 유권자의 알 권리를 보장하는 방향에서 AI 활용의 윤리적 기준이 마련되어야 한다는 것을 보여주는 중요한 사건이 아닐 수 없습니다.

 

 

❚  특정 정치인 이미지 실추를 위한 조작 영상 


딥페이크 기술이 정치 영역에서 사용되었을 때 발생할 수 있는 문제 중 대표적인 사례 중 하나가, 2018년 공개된 버락 오바마 전 미국 대통령의 딥페이크 영상입니다. 이 영상은 오바마 대통령이 실제로 하지 않은 말을 마치 직접 한 것처럼 보이도록 만든 것으로, 인공지능을 통해 음성과 입모양, 표정까지 정교하게 합성하였습니다. 영상이 퍼졌을 당시 많은 사람들이 그것이 조작된 것이라는 사실을 인지하지 못했고, 이는 딥페이크 기술이 얼마나 쉽게 여론을 왜곡하고 오해를 불러일으킬 수 있는지에 대한 우려를 증폭시켰습니다.

이러한 위험성은 이후에도 계속되었습니다. 2023년 5월에는 낸시 펠로시 미국 하원의장이 공식 발언 중 말을 더듬는 듯한 모습이 담긴 조작 영상이 SNS를 통해 확산되었습니다. 이 영상은 실제 영상을 느리게 편집하거나 음성을 조절하여, 그녀가 음주 상태이거나 인지 능력이 저하된 것처럼 보이도록 악의적으로 조작한 것이었습니다. 이러한 조작물은 단순한 유머나 개인 의견 표현을 넘어, 정치인의 이미지를 실질적으로 훼손하고, 공적 신뢰를 무너뜨리는 위험한 도구로 작용할 수 있습니다. 더욱이 소셜 미디어 알고리즘은 자극적인 콘텐츠에 우선 순위를 부여하는 경향이 있어서, 이와 같이 자극적인 조작 영상은 빠르게 확산되며 선거 기간에 진실보다 먼저 대중의 인식을 선점하게 될 가능성을 가지고 있습니다.

딥페이크 기술은 정보 전달의 수단이 아니라 현실을 왜곡하는 강력한 수단으로 변질될 수 있는 이중적 속성이 있습니다. 일반 사용자들의 미디어 문해력이 충분히 갖춰지지 않은 상태에서 활용된다면 시민의 올바른 판단을 방해하고 민주적 결정 구조를 위협하게 될 것입니다. 페이크에 대한 규제와 대응 방안 마련이 반드시 마련되어야 합니다.

 

❚  선거운동 AI 도우미_ 애슐리(Ashley), 바샤니(Bhashini), 만 키 바트(Mann Ki Baat), 주지(Zoozie) 등

 

202312월경, 미국 펜실베이니아주 민주당 하원의원 후보인 샤메인 대니얼스(Shamaine Daniels) 캠프는 ‘애슐리(Ashley)’라는 이름의 생성형 인공지능 도우미를 선거운동에 도입하였습니다. 애슐리는 20개 이상의 언어를 구사하며, 동시에 무한대의 유권자들에게 직접 전화를 걸어 후보의 정책을 설명하고 실시간으로 질문에 응답하는 기능을 수행하였습니다. 이 과정에서 유권자의 연령, 성별, 거주 지역, 검색 이력과 같은 프로필 정보를 분석하여 맞춤형 대화를 제공하는 것이 특징이었습니다.

 

 

유사한 사례는 남아프리카공화국과 인도에서도 있었습니다. 남아프리카공화국의 경우, 민주동맹(DA) 정당이 2019년 총선에서 ‘주지(Zoozie)’라는 AI 챗봇을 도입해 유권자 질문에 실시간으로 응답하고 당의 정책을 설명하는 데 활용하였습니다. 인도에서는 2022년부터 총리 나렌드라 모디와 그가 소속된 인도국민당(BJP)이 ‘바샤니(Bhashini)’라는 AI 번역 도구를 활용해 모디 총리의 힌디어 연설을 다양한 지역 언어로 실시간 번역하였으며, 그의 월간 라디오 프로그램인 ‘만 키 바트(Mann Ki Baat)’도 AI를 통해 지역 언어로 음성 복제되어 전달되었습니다. 2020년 델리 지방선거에서는 정치인 마노즈 티와리(Manoj Tiwari) 역시 자신의 연설을 영어에서 하리아나어로 변환하여 다언어 유권자층에 접근하였습니다.

(참고로, 인도에는 ‘공식 언어’가 총 22개로 지정되어 있습니다. 그리고 인도 정부의 2001년 인구조사에 따르면, 인도에서 사용되고 있는 주요 언어는 122개이고, 국가 전체적으로는 1599개의 언어가 사용되고 있다는 것이 확인되었습니다. 그래서 여러 정당에서는 유권자의 신뢰를 얻기 위해 지역 언어로 말하거나, 해당 언어를 사용할 줄 아는 지역 정치인을 전면에 내세웁니다. 유권자는 ‘내가 이해할 수 있는 언어’로 메시지를 접했을 때, 참여율이 훨씬 높아지는 경향이 있습니다. 인도에서 언어는 지역, 종교, 계층 정체성과 긴밀히 연결돼 있습니다. 예를 들어 타밀나두에서는 힌디어 중심 정책을 북인도의 문화 강요로 받아들이는 반감이 있어서, 타밀어를 쓰는 정치인이 훨씬 신뢰받는다고 합니다. 이러한 지역 정체성 때문에, 유세 과정에서 정치인의 특정 언어 사용은 “우리를 존중하느냐, 무시하느냐”로 해석되기도 합니다.)

 

 

❚  장점

 

이러한 AI 도우미의 도입은 여러 긍정적 요소를 가지고 있습니다. 우선 AI다국어 처리 능력은 언어 장벽으로 인해 선거 정보에 접근하기 어려웠던 이민자, 고령자, 비영어권 유권자들에게도 정치 정보를 이해할 수 있는 기회를 제공합니다. 자신이 익숙한 언어로 공약을 듣고 질문할 수 있게 되면서 정치에서 소외되기 쉬웠던 사람들이 정보에 좀 더 가까이 접근할 수 있게 되었습니다.

그리고 AI24시간 유권자의 질문에 응답할 수 있기에 후보자와 유권자 간의 소통이 더욱 즉각적이고 접근성이 높아졌습니다. 실제 후보자가 모든 유권자에게 개별적으로 대응하는 것이 현실적으로 불가능한 상황에서, AI는 캠페인의 지속성과 확장성을 보장하는 보조 수단이 될 수 있습니다. 여기에 더해 유권자의 관심사나 가치관, 연령대에 맞춘 맞춤형 메시지를 제공할 수 있다는 점에서 선거 전략의 효율성과 타깃팅의 정교함도 높아졌다는 평가를 받고 있습니다.

 

 

❚  유권자를 위한 리터러시 

 

그러나 이러한 긍정적인 기능 뒤에는 분명한 위험도 존재합니다. 생성형 AI주어진 데이터를 학습하고, 이를 기반으로 가장 자연스럽고 그럴듯한 응답을 만들어내는 방식으로 작동합니다. 이는 AI가 만들어내는 발언이 반드시 사실에 근거한다고 보장할 수 없음을 의미합니다. 실제로 애슐리는 후보자의 정책을 설명하는 과정에서 아직 발표되지 않은 정책에 대해 확정된 것처럼 응답하거나, 공약의 내용을 과장되게 전달할 가능성이 있습니다. 생성형 AI정확한 사실이 아닌 내용을 사실처럼 말하는 ‘환각(hallucination)’ 현상을 가지고 있기 때문입니다. AI유권자의 관심사와 기대에 맞춰 정보를 선별적으로 강조하거나 부각시킬 가능성이 있습니다. 복지에 관심이 많은 유권자에게는 후보가 실제로 발표한 것보다 더 광범위한 복지정책을 추진할 것처럼 설명할 수 있습니다. 이는 듣는 사람의 기대를 부풀리고 정책에 대한 현실적인 판단을 흐리게 하는 결과로 이어집니다.

실제 후보자와의 대화에서는 말하는 사람이 자신의 말에 대한 책임감이 수반되므로 “그것은 아직 검토 중입니다”나 “그건 확답드리기 어렵습니다”와 같은 유보적 발언이 가능하지만, AI는 말에 책임을 지는 메시지 생산자가 아니고 설계상 사용자가 ‘듣고 싶어하는 말’을 하도록 설계되었기 때문에 정치적 메시지를 정확하게 이해하고 판단해야 하는 유권자에게 오히려 혼란을 줄 수 있습니다. AI사용자의 관심사에 맞춰 그럴듯한 응답을 생성하도록 설계된 까닭에 정보를 전달하는 과정에서 중립성과 균형을 확보하기 어려울 수 있습니다.

인공지능 도우미의 선거 유세 활용은 정치 참여의 문턱을 낮추고, 정보 접근성을 넓히며, 전략적 효율성을 높이는 데 기여할 수 있지만, 생성형 AI의 특성과 한계를 제대로 이해하지 못한 상태에서 기술을 전면적으로 도입할 경우, 유권자의 판단을 왜곡시키는 잠재적 위험도 존재한다는 것을 인식해야 할 것입니다.

 

반응형