그럴듯한 거짓말: LA 시위에 대한 AI의 진실은?
LA 시위를 둘러싼 정보 혼란 속에서 AI 챗봇은 진실보다 혼란을 가중시켰다. 기술의 시대에 진실을 지키는 최후의 수문장은 인간이다. 그러나 혼란을 퍼뜨리는 것도 인간이다. 이러한 시대, 인간은 과연 어떻게 행동해야 하는가?

미국 로스앤젤레스에서 이민자 단속을 둘러싼 시위가 벌어지자, 소셜 미디어에 과거의 시위 영상, 문맥이 삭제된 이미지, AI로 생성된 허위 콘텐츠까지 뒤섞여 급속히 퍼졌다. 와이어드에 따르면, 사용자들이 ChatGPT나 Grok 같은 AI에게 챗봇에 진위를 자, 챗봇은 “I checked the San Francisco Chronicle’s claims. The photos of National Guard troops sleeping on floors are likely from 2021, probably the U.S. Capitol, not Los Angeles 2025.”와 같은 답변을 내놓았다. 그러나 이는 잘못된 정보였다. San Francisco Chronicle은 해당 사진이 2025년 6월 LA에서 촬영된 것이며, 국방부 역시 이를 공식 확인한 사실을 보도했다. AI 챗봇은 진실을 설명하기는커녕, 오히려 ‘그럴듯한 오류’를 반복하며 혼란을 키운 것이다.
진짜보다 더 그럴듯한 가짜, AI가 만드는 혼란
이번 사례는 단순한 기술적 오류가 아니다. 알고리즘은 ‘확률상 타당한 문장’을 생성하지만, 그것이 진실이라고 보장하지는 않는다. 사실 우리는 이미 다 알고 있다. 이런 증상을 할루시네이션이라고 부른다는 것을. 그리고 그 할루시네이션의 창작력에 우습기도 하고 놀랍기도 속기도 했었다. AI 기업들은 할루시네이션을 줄이려고 노력하지만 원래 뭔가 창작을 해야 하는 생성AI의 특성상 할루시네이션을 완전히 피할 수 있을지는 의문이다. 특히 AI가 발달하면서 시각 콘텐츠가 개입된 경우, AI가 제공하는 정보는 오히려 사람들의 분노를 자극하고 오해를 증폭시키는 방향으로 작동할 수 있다.
와이어드는 “The photos likely originated from Afghanistan in 2021…”라는 Grok의 답변을 지적하며, AI가 사실을 오인하는 동시에 ‘단정’하는 위험성을 드러냈다고 비판했다. 가장 큰 문제는 이런 오류들이 사실처럼 소비된다는 점이다.
항목 | 사실 여부 | 설명 |
---|---|---|
시위 발생 | ✅ 사실 | 2025년 6월, LA에서 ICE 단속에 반대하는 시위가 발생했다. |
군 병력 배치 | ✅ 사실 | 트럼프 행정부는 캘리포니아 주지사의 동의 없이 2,000여 명의 주방위군과 해병대를 투입했다. |
사진의 진위 | ✅ 사실 | 샌프란시스코 크로니클이 보도한 사진은 LA에서 실제로 촬영된 것으로 국방부도 이를 확인했다. |
AI 챗봇의 오류 | ✅ 사실 | Grok 및 ChatGPT가 잘못된 시점·장소를 단정하거나 회피하며 잘못된 정보를 제공했다. |
기술은 중립이 아니다 — 이용자의 태도가 최종 방어선
AI의 언어는 ‘사실’이 아니라 ‘예측’이다. 아무리 신뢰를 받는 도구라 하더라도, 그것이 제시하는 정보는 반드시 교차 검증되어야 한다. 다음은 소셜 미디어에서 정보를 얻는 일반인이 갖추어야 할 체크 리스트다.
- 1차 출처 확인: 영상, 사진, 인용 보도는 반드시 원본과 맥락을 파악한다.
- 다중 확인(Cross-check): 좌우 진영, 국내외 매체 등 다양한 관점에서 정보를 비교한다.
- AI는 참고용일 뿐: 챗봇은 정보 분석 도우미이지, 진실 판별자가 아니다.
- 즉각적 감정 반응을 경계: 분노나 흥분을 유도하는 콘텐츠일수록 한 걸음 물러서서 본다.
플랫폼의 책임은 어디까지인가
X, 유튜브, 페이스북 등 주요 플랫폼은 AI나 커뮤니티 노트를 통해 정보 검증 책임을 ‘분산’시키고 있다. 그러나 이번 사례처럼 중대한 허위 정보가 퍼졌을 때, 플랫폼은 더 이상 신뢰할 수 있는 필터 역할을 하지 않는다. 법적으로도, AI가 생성한 정보에 대한 책임 주체는 여전히 모호하다. 가짜 정보로 인한 피해자 보호 시스템은 아직 미흡한 단계에 머물러 있다.
진실을 지키는 것은 결국 시민의 감각이다
기술은 진실을 ‘가공’할 수 있지만, 진실을 ‘보증’하지는 않는다. 결국 진실을 확인하고 지킬 수 있는 사람은 기계가 아니라 인간이다. 우리는 정보를 공유하기 전에 한 번 더 확인하고, 신뢰할 수 없는 콘텐츠에는 의심을 품을 수 있어야 한다.
AI는 도구일 뿐이다. 그 도구를 신중하게 다루는 시민의 감각이야말로, 혼돈의 시대를 살아가는 우리가 가질 수 있는 가장 강력한 무기이다. 혼란은 AI가 만드는 것이 아니다. 그것을 배포하는 인간이 만들 뿐이다.