AI 시대에는 현실이 하루아침에 다시 쓰여질 수 있습니다. 어느 날, 당신은 자신이 가장 좋아하는 시장 후보 중 한 명을 공개적으로 지지하게 되었습니다. 다음날 AI가 생성한 인용문은 그렇지 않다고 말합니다.
응답자가 쓴 것처럼 결과는 예상치 못한 것이었습니다. “제 생각에는 수학이 정밀한 조사를 견디지 못하고 정치적 장애물이 상당합니다.” 실제 Bill de Blasio는 다른 언론 매체와 소셜 네트워크를 언급한 후 자리에서 일어나 해당 이야기는 완전히 허위이고 꾸며낸 것이며 자신의 견해를 반영하지 않는다고 말했습니다.
그를 가장한 사람은 Mamdani의 세금 계획을 비판하는 답변을 작성하기 위해 ChatGPT를 사용했다고 인정했으며 자신의 목표를 달성하기 위해 금액을 모금할 가능성이 낮다고 말했습니다.
이제 해결된 시나리오는 또 다른 질문을 제기합니다. AI, 딥페이크 또는 온라인 누군가에게 속으면 어떻게 합니까?
“우리는 미래에 목소리를 위조하거나 기사를 조작하여 언론인이나 편집자가 그런 식으로 피해를 입게 하고 대중도 피해를 입는 것이 얼마나 쉬운지에 대해 여기서 질문이 있습니다.”라고 전 뉴욕 시장이 Fortune에 말했습니다.
세간의 이목을 끄는 인물의 경우 복제될 위험이 이보다 더 높을 수는 없습니다. 사칭이라는 ‘초현실주의’를 직접 겪은 사람으로서 나는 실제 Bill de Blasio에게 시나리오를 어떻게 처리했는지, AI 시대에 앞으로 어떤 단계가 중요하다고 생각하는지 물었습니다.
빠른 응답 및 신원 확인.
드 블라시오는 이전에 이 사건에 대해 보도한 언론인도 없었고 출판물에서도 연락을 취한 적이 없었기 때문에 당시 그의 최선의 방법은 X에 있는 온라인 게시물에 그것이 거짓이라고 말하면서 즉시 응답하는 것이었다고 말했습니다.
그는 “온라인에 접속해 사과를 요구하고 게시글을 내려달라고 요구하는 것이 그들의 관심을 끄는 효과가 있었다”고 말했다.
OpenAI의 Sora 및 Google의 Veo 3와 같은 도구를 사용하면 AI 생성 콘텐츠가 폭동, 범죄, 정치적 잘못된 정보, 허위 주장, 사기 등을 포함하여 실제가 아닌 사물에 대한 사실적인 이미지와 비디오를 더 쉽게 생성할 수 있습니다. 소라의 동영상에는 AI 창작물임을 식별하는 움직이는 워터마크가 있지만 일부 전문가들은 약간의 노력을 기울이면 편집할 수 있다고 말합니다.
드 블라시오는 “당신이 할 수 있는 일은 온라인에 접속해 존재하는 것을 부정하는 것 뿐이다”라고 말했다. “누군가 내가 가게를 털었다고 비난하는데 내가 가게를 털지 않았다면 신속하게 대응하고 누군가에게 문제를 해결하도록 하는 대신 세상에 그것이 거짓이라고 즉시 말하십시오.”
AI 사기는 직장에서도 일어날 수 있습니다
딥페이크는 공인에게 명백한 위협이지만 직장에서도 파급력을 미칠 수 있습니다.
HCM 플랫폼 isolved의 사기 방지 책임자인 Steve Lenderman은 “직장에서 사기가 항상 사기처럼 보이는 것은 아닙니다.”라고 말했습니다.
Lenderman의 조언: 신속하게 행동하고 모든 것을 문서화하십시오. 스크린샷, 링크, 메시지는 고용주나 IT 팀에 보고할 때 도움이 됩니다. 피해를 억제하고, 비밀번호를 재설정하고, 영향을 받은 계정을 잠그고, 다단계 인증을 활성화할 수 있습니다. “빠르게 행동할수록 나쁜 행위자가 심각한 피해를 입히기 전에 막을 가능성이 높아집니다. 이러한 경우 투명성과 속도가 최선의 방어책입니다.”라고 그는 덧붙였습니다.
법적 조치 취해야 할 필요성
사칭 경험을 통해 de Blasio는 신흥 기술의 보안 위험에 대해 더 강력한 조치를 취해야 할 필요성을 숙고했습니다. 2023년에 그는 하버드 컨퍼런스에서 AI 규제를 다루는 정책이 부족하다는 점에 대해 연설했습니다.
그는 “AI가 규칙의 예외이고 규제되지 않은 유일한 기술이어야 한다는 생각은 미친 짓”이라고 말했다.
“범죄를 저지르는 사람을 묘사한다면 그것은 범죄여야 하며, 어떤 기술 회사도 부적절하고 불법적인 콘텐츠를 게시하는 사람을 돕거나 조장해서는 안 됩니다.”
