트럼프 행정부는 AI가 생성한 이미지를 온라인에 공유하고, 만화 같은 이미지와 밈을 채택해 백악관 공식 채널에 홍보하는 일을 서슴지 않았다.
그러나 민권 변호사 네키마 레비 암스트롱(Nekima Levy Armstrong)이 체포된 후 울고 있는 편집된(현실적인) 이미지는 정부가 진짜와 가짜 사이의 경계를 어떻게 모호하게 만들고 있는지에 대한 새로운 경각심을 불러일으키고 있습니다.
국토안보부 장관 크리스티 노엠(Kristi Noem)의 계정에는 레비 암스트롱이 체포된 원본 이미지가 게시됐고, 공식 백악관 계정에는 레비 암스트롱이 울고 있는 모습을 수정한 이미지가 게시됐다. 조작된 이미지는 미니애폴리스에서 미국 국경 순찰대 요원이 르네 굿(Renee Good)과 알렉스 프리티(Alex Pretti)를 총격으로 사망시킨 이후 정치적 스펙트럼 전반에 걸쳐 공유된 AI 편집 이미지의 홍수의 일부입니다.
그러나 백악관의 인공지능 활용은 AI가 생성하거나 편집한 이미지의 확산이 진실에 대한 대중의 인식을 침식하고 불신을 심을 것을 우려하는 허위정보 전문가들을 우려하게 만들었다.
레비 암스트롱의 편집된 이미지에 대한 비판에 대해 백악관 관리들은 게시물을 두 배로 늘렸고, 커뮤니케이션 부국장인 케일란 도르(Kaelan Dorr)는 X에 “밈은 계속될 것”이라고 적었습니다. 애비게일 잭슨 백악관 부대변인도 비판을 조롱하는 글을 올렸다.
코넬 대학의 정보 과학 교수인 데이비드 랜드(David Rand)는 조작된 이미지를 밈이라고 부르는 것은 “확실히 이전 만화처럼 농담이나 유머러스한 게시물로 표현하려는 시도처럼 보입니다. 이는 아마도 조작된 미디어 게시에 대한 비판으로부터 그들을 보호하기 위한 의도인 것 같습니다.”라고 말했습니다. 그는 체포 과정을 조작한 이미지를 공유하려는 목적이 과거 정부가 공유했던 만화 이미지보다 “훨씬 더 모호해 보인다”고 말했다.
밈은 이해하는 사람들에게는 재미있거나 유익하지만 외부인에게는 해독할 수 없는 다층적인 메시지를 항상 전달해 왔습니다. AI로 강화되거나 편집된 이미지는 백악관이 온라인에서 많은 시간을 보내는 트럼프 지지층의 관심을 끌기 위해 사용하는 최신 도구일 뿐이라고 인플루언서 마케팅 회사인 Total Virality를 설립한 공화당 커뮤니케이션 컨설턴트 Zach Henry는 말했습니다.
“온라인에 있는 사람들은 그것을 보고 즉각 밈으로 인식할 것입니다.”라고 그는 말했습니다. “조부모님은 그것을 보고 밈을 이해하지 못할 수도 있지만 그것이 실제처럼 보이기 때문에 자녀나 손자에게 물어보게 됩니다.”
백악관 소셜 미디어 팀의 작업을 전반적으로 칭찬한 헨리는 그것이 격렬한 반응을 불러일으키고 입소문이 퍼지는 데 도움이 된다면 훨씬 더 좋다고 말했습니다.
그는 “정부는 정보를 신뢰할 수 있는 곳, 정확하다고 할 수 있는 곳이어야 한다. 그래야 할 책임이 있기 때문”이라고 말했다. “이러한 유형의 콘텐츠를 공유하고 이러한 유형의 콘텐츠를 만드는 것은 신뢰를 침식하고 있습니다. 비록 저는 항상 신뢰라는 용어에 대해 약간 회의적이지만, 정확하고 검증된 정보를 제공하기 위해 연방 정부에 대해 가져야 할 신뢰입니다. 이는 실질적인 손실이며 정말 걱정스럽습니다.”
UCLA 교수이자 Utopias 팟캐스트 진행자인 Ramesh Srinivasan은 이제 많은 사람들이 “신뢰할 수 있는 정보”를 얻기 위해 어디로 갈 수 있는지 궁금해하고 있다고 말했습니다. 그는 “인공지능 시스템은 현실, 진실, 증거로 간주될 수 있는 것에 대한 이해 부족, 신뢰 부족 문제를 더욱 악화시키고 증폭시키고 가속화할 뿐입니다”라고 말했습니다.
스리니바산은 AI 생성 콘텐츠를 공유하는 백악관과 기타 관리들이 일반 사람들에게 유사한 콘텐츠를 계속 게시하도록 권유할 뿐만 아니라 정책 입안자와 같은 신뢰성과 권력이 있는 위치에 있는 다른 사람들에게 라벨이 지정되지 않은 합성 콘텐츠를 공유하도록 허용하고 있다고 생각한다고 말했습니다. 그는 소셜 미디어 플랫폼이 AI 생성 도구가 쉽게 생성할 수 있는 극단적이고 음모적인 콘텐츠를 “알고리즘적으로 특권”을 부여하는 경향이 있기 때문에 “우리 손에는 크고 큰 과제가 있다”고 덧붙였습니다.
이민 및 관세 집행 조치, 항의, 시민과의 상호 작용과 관련된 AI 생성 비디오의 유입이 이미 소셜 미디어에서 급증했습니다. ICE 경찰관이 차 안에 있는 르네 굿(Renee Good)에게 총을 쏜 후, 멈추라는 지시를 받은 ICE 경찰관을 피해 걸어가는 여성들의 모습이 담긴 AI 생성 영상이 여러 개 돌기 시작했습니다. 이민단속단과 ICE요원과 대면하는 사람들, 종종 그들에게 소리를 지르거나 얼굴에 음식을 던지는 조작된 비디오도 많이 돌고 있습니다.
미디어 활용 능력과 바이러스성 AI 동영상의 허위 사실을 폭로하는 콘텐츠 제작자 Jeremy Carrasco는 이러한 동영상의 대부분이 “참여를 유도”하거나 ICE와 같은 인기 키워드 및 검색어로 콘텐츠를 생성하여 클릭 수를 활용하려는 계정에서 나올 가능성이 높다고 말했습니다. 그러나 그는 또한 해당 동영상이 ICE와 DHS에 반대하는 사람들, 이를 ‘팬픽션’으로 보거나 해당 조직과 그 관리들에 대한 실질적인 반발을 기대하는 ‘희망적 사고’에 참여할 수 있는 사람들의 조회수를 얻고 있다고 말했습니다.
그럼에도 불구하고 Carrasco는 대부분의 시청자가 자신이 보고 있는 것이 가짜인지 알 수 없다고 믿으며 “위험이 훨씬 더 높은 경우와 같이 정말 중요한 경우 무엇이 진짜인지 아닌지”를 알 수 있을지 궁금해합니다.
횡설수설이 있는 거리 표지판이나 기타 명백한 오류와 같이 AI 생성의 명백한 징후가 있는 경우에도 “최상의 경우”에만 시청자가 AI 사용을 등록할 만큼 충분히 똑똑하거나 충분한 주의를 기울일 것입니다.
Carrasco는 매체의 출처에 대한 정보를 메타데이터 계층에 통합하는 워터마킹 시스템의 광범위한 구현이 해결책을 향한 한 단계가 될 수 있다고 믿습니다. 콘텐츠 출처 및 진위성 연합(Coalition for Content Provenance and Authenticity)은 이러한 시스템을 개발했지만 Carrasco는 이 시스템이 적어도 1년 동안은 널리 채택될 것이라고 생각하지 않습니다.
그는 “영원히 문제가 될 것”이라고 말했다. “사람들이 이것이 얼마나 나쁜지 이해하지 못하는 것 같아요.”
__
피닉스의 Associated Press 작가 Jonathan J. Cooper와 샌프란시스코의 Barbara Ortutay가 이 보고서에 기고했습니다.
