AI 안전 감시 기관의 최근 성적표는 기술 회사가 냉장고에 보관하고 싶어하는 것이 아닙니다.
Future of Life Institute의 최신 AI 안전 지수에 따르면 최고의 AI 연구소는 C보다 높은 등급이 거의 없어 대부분의 AI 책임 조치를 충족하지 못한 것으로 나타났습니다. 이 조직은 안전 프레임워크, 위험 평가 및 현재 피해와 같은 범주에서 8개 회사의 등급을 매겼습니다.
아마도 가장 눈에 띄는 것은 기업이 전반적으로 D 및 F 등급을 획득한 “실존적 보안” 라인이었을 것입니다. MIT 교수이자 Future of Life Institute의 회장인 Max Tegmark에 따르면 이들 기업 중 다수는 명시적으로 초지능을 추구하고 있지만 이를 안전하게 관리할 계획이 부족하다고 합니다.
“비평가들은 이런 종류의 불일치를 발견했습니다”라고 Tegmark는 말했습니다.
문제의 검토자는 공개적으로 이용 가능한 자료와 8개 회사 중 5개 회사가 제출한 설문 조사 응답을 검토한 AI 학계 및 거버넌스 전문가로 구성된 패널이었습니다.
Anthropic, OpenAI 및 GoogleDeepMind는 전체 등급 C+ 또는 C로 상위 3위를 차지했습니다. 그 다음에는 Xai, Z.ai, Meta, DeepSeek 및 Elon Musk의 Alibaba가 순서대로 D 또는 D-를 획득했습니다.
Tegmark는 AI 경쟁에서 치열한 경쟁이 안전 예방 조치보다 우선한다는 것을 의미하는 규제 부족을 비난합니다. 캘리포니아는 최근 국경 AI 기업이 재앙적 위험에 대한 보안 정보를 공개하도록 요구하는 첫 번째 법안을 통과시켰고, 뉴욕도 현재 타격을 받을 수 있는 거리에 있습니다. 그러나 연방 입법에 대한 희망은 희박합니다.
Tegmark는 “기업은 최선의 의도를 갖고 있다고 하더라도 반드시 안전을 확보하기 위해 많은 시간을 소비하기보다는 항상 경쟁사보다 먼저 신제품을 출시하려는 인센티브를 갖고 있습니다.”라고 말했습니다.
Tegmark는 정부가 부과한 표준 대신 업계가 그룹이 정기적으로 발표하는 안전 등급을 더욱 심각하게 받아들이기 시작했다고 말했습니다. 현재 5개 미국 기업 중 4개 기업이 그의 설문조사에 응답하고 있습니다(Meta는 저항하는 유일한 기업입니다). Tegmark는 내부 고발 정책에 대한 Google의 투명성을 예로 들며 기업들은 시간이 지남에 따라 몇 가지 개선을 이루었다고 말했습니다.
그러나 챗봇이 조장한 것으로 알려진 십대 자살, 미성년자와의 부적절한 상호작용, 대규모 사이버 공격과 같은 주제와 관련하여 보고된 실제 피해도 논의의 이해관계를 높였다고 그는 말했습니다.
Tegmark는 “(그들은) 우리가 미래에 대해 이야기하고 있는 것이 아니라 지금에 대해 이야기하고 있다는 것을 많은 사람들에게 깨닫게 해주었습니다”라고 말했습니다.
미래 생명 연구소(Future of Life Institute)는 최근 해리 왕자와 메건 마클, 전 트럼프 보좌관 스티브 배넌, 애플 공동 창업자 스티브 워즈니악, 래퍼 윌아이엠 등 다양한 유명 인사들을 모집해 초지능으로 이어질 수 있는 연구에 반대하는 성명서에 서명했습니다.
Tegmark는 “기업이 모델을 판매하기 전에 먼저 전문가에게 모델이 안전하다는 것을 확신시켜야 하는 AI용 FDA”와 같은 것을 보고 싶다고 말했습니다.
테그마크는 “AI 산업은 샌드위치보다 규제가 덜한(기본적으로 전혀 규제되지 않는) 강력한 기술을 만드는 미국의 유일한 산업이기 때문에 매우 독특하다”고 말했다. “누군가 ‘타임스퀘어 근처에 새 샌드위치 가게를 열고 싶다’고 말하면 첫 번째 샌드위치를 팔기 전에 위생 검사관에게 주방을 점검하게 하고 주방에 쥐가 가득하지 않은지 확인해야 합니다. 대신 ‘아, 아니, 난 샌드위치를 안 팔 거야. 난 그냥 초지능을 발휘할 뿐이야’라고 말한다면요. 괜찮습니다! 검사관도 필요 없고 어떤 것에 대해서도 승인을 받을 필요가 없습니다.”
“따라서 이에 대한 해결책은 매우 분명합니다”라고 Tegmark는 덧붙였습니다. “다른 회사에서는 얻을 수 없는 면제를 AI 회사에 제공하는 기업 복지가 중단될 뿐입니다.”
이 보고서는 원래 Tech Brew에서 출판되었습니다.
