지난 금요일 20세의 다니엘 모레노-가마(Daniel Moreno-Gama)가 수행한 것으로 알려진 오픈AI(OpenAI) CEO 샘 알트먼(Sam Altman)의 샌프란시스코 자택 폭파 시도는 유사한 이름을 가진 두 개의 AI 반대 그룹인 Pause AI와 Stop AI에 주목을 끌었다. 두 사람 모두 폭력을 비난했으며 용의자는 자신의 조직 구성원이 아니며, 결코 그런 적이 없다고 말했습니다.
하지만 모레노-가마 역시 오픈AI 본사에 찾아가 의자로 건물 유리문을 부수고 시설을 불태우겠다고 위협한 사건으로 인해 그의 활동이 일시정지 AI 디스코드 서버에 드러나 지난해 오픈AI를 겨냥한 Stop AI의 직접적 행동에 대한 조사가 재개됐다.
AI의 둔화에 따른 움직임
2023년 5월 네덜란드 위트레흐트에서 Joep Meindertsma가 설립한 Pause AI는 “AI의 위험한 개척지”를 멈추는 것을 목표로 브뤼셀에 있는 Microsoft 로비 사무실 밖에서 첫 번째 시위를 조직했습니다. 2023년 3월 Future of Life Institute(현재 최대 개인 자금 제공자이기도 함)의 공개 서한에서 이름을 따온 이 그룹은 이후 지역 지부와 함께 글로벌 풀뿌리 운동으로 성장했습니다. 여기에는 캘리포니아주 버클리에 본사를 둔 홀리 엘모어(Holly Elmore)가 이끄는 Pause AI US라는 별도의 조직이 포함됩니다. 홀리 엘모어는 하버드에서 진화 생물학 박사 학위를 취득했으며 이전에 야생 동물 복지에 초점을 맞춘 싱크탱크에서 근무했습니다.
Moreno-Gama는 2025년 12월 3일자 게시물을 포함하여 Pause AI의 Discord 서버에 대한 댓글과 연결되었습니다. “자정이 가까워졌습니다. 실제로 행동할 시간입니다.” Pause AI는 용의자가 2년 전에 서버에 접속해 총 34개의 메시지를 게시했는데 그 중 “노골적인 폭력을 요구하는 내용”은 하나도 포함하지 않았다고 말했습니다.
게티 이미지를 통한 Lea Suzuki/San Francisco Chronicle
엘모어는 포춘과의 인터뷰에서 폭탄 테러 시도 당시 국회의사당에서 열리는 평화적 시위와 의회 의원들과의 회의 준비를 마치기 위해 지난주 워싱턴 D.C.로 가는 길이었다고 말했습니다. “내가 착륙했을 때 갑자기 그들은 샘 알트만의 집을 공격한 누군가에 대해 질문하기 시작했습니다.”라고 그는 말했습니다. “내가 정말로 자랑스러워하고 긍정적인 일을 하는 것 사이에 왔다 갔다 했습니다. 민주적 수단을 통해 민주적 변화를 만드는 것이 정확히 올바른 변화입니다. 그런 다음 이 끔찍한 사건에 대해 논평해야 하고, 게다가 이 사건과의 연관성이 실제로 더럽혀지는 것입니다.”
그는 “이 사람이 우리와 많은 관련이 있다고 생각할 이유가 없다”고 덧붙였습니다. 폭력에 대한 Pause AI의 입장은 “항상 믿을 수 없을 정도로 명확했고” 이를 명시적으로 금지하고 있다고 지적했습니다. 또한 해당 활동이 Pause AI US 조직 채널과 별개인 공개 글로벌 Discord 서버에서 발생했다는 점을 강조했으며, 용의자는 “더 이상 온보딩이나 공식적인 역할을 맡는 데 진전을 이루지 않았다”고 밝혔습니다.
Elmore는 Pause AI가 의도적으로 자원봉사자를 조사하고 극단적인 의견과 연관되는 것을 피하기 위해 그들의 메시지를 엄격하게 통제한다고 덧붙였습니다.
Weiss-Blatt는 이 영화에서 Elmore가 활동가들에게 인간 멸종 가능성에 대한 긴급 일정을 설명하는 내용을 이해하도록 촉구하는 모습을 보여준다고 말했습니다. Weiss-Blatt는 “그녀는 결코 폭력을 옹호하지 않지만 파멸에 대한 위험을 높입니다.”라고 말했습니다.
“누군가 만들면 모두가 죽는다(If 누군가가 만들면 모두가 죽는다)의 저자인 Eliezer Yudkowsky와 같은 저명한 AI 저자들이 인류 멸종이 임박했다고 계속 주장할 때, 누군가가 극단적인 조치를 취하도록 강요받는 것은 놀라운 일이 아닙니다.”라고 그는 덧붙였습니다. “목적을 추구하는 젊고 열성적인 추종자들은 명시적인 폭력을 요구하지 않더라도 AI의 묵시적인 수사에 의해 급진화될 수 있습니다.”
그러나 배스 대학교 교수이자 기계 중지: 기술 반대 극단주의의 부상의 저자인 마우로 루브라노(Mauro Lubrano)는 폭력적으로 기술을 근절하려는 그룹과 규제나 중단을 옹호하는 그룹 사이에는 분명한 차이가 있다고 경고했습니다. 그는 “AI의 위험성에 대한 인식을 높이려는 이러한 모든 그룹과 운동을 결합하는 것은 쉽다고 생각합니다”라고 말했습니다.
전술에서 벗어나 직접 행동으로 전환
Sam Altman의 집에서 발생한 사건은 OpenAI가 본사 직원들에게 Sam Kirchner라는 이름의 27세 남성이 “사람들을 살해”하기 위해 샌프란시스코에 있는 여러 OpenAI 사무실에 가겠다고 협박했기 때문에 약 5개월 후에 발생했다고 경찰에 전화해서 신고한 사람들이 말했습니다. Kirchner는 이전에 Pause AI에 참여했던 Guido Reichstadter(45세)와 함께 2024년에 설립한 그룹인 Stop AI의 공동 창립자입니다.

사진 제공: Drew Angerer/Getty Images
Elmore는 “나는 그들을 쫓아냈습니다.”라고 덧붙였습니다. Stop AI 창립자들이 법을 위반하는 시민 불복종을 추진하면서 Pause AI가 명시적으로 거부하는 전술에 대한 의견 불일치로 인해 분할이 발생했다고 덧붙였습니다. Stop AI를 설립한 후 Reichstadter와 Kirchner는 OpenAI 반대 시위에 참여했으며, Reichstadter는 Anthropic 본사 밖에서 단식 투쟁도 조직했습니다(그는 2022년 Roe v. Wade 대법원 판결에 항의하여 보안 울타리에 몸을 묶고 워싱턴 DC 다리 꼭대기에 오르는 등 시민 불복종 행위를 오랫동안 해왔습니다).
라이히스타터(Reichstadter)는 이전에 체포된 후 OpenAI 시설 출입을 금지하는 판사의 명령을 위반한 혐의로 12월 초 샌프란시스코 카운티 교도소에 수감되었습니다. 그리고 Stop AI는 이전에 지난 11월 Golden State Warriors 감독 Steve Kerr와 함께 샌프란시스코 시드니 골드스타인 극장 무대에 있던 Sam Altman에게 수비팀 구성원이 소환장을 전달하면서 전국적인 헤드라인을 장식했습니다.
그러나 Stop AI의 리더 중 한 명인 매튜 홀(Matthew Hall)이 비폭력을 포기할 것을 제안한 것으로 알려진 내부 분쟁 중에 폭행 혐의로 공동 창립자인 샘 커치너(Sam Kirchner)가 실종된 후 그룹의 추진력이 무너졌습니다. 그는 아직 실종 상태입니다.
어제 올라온 글에서
Mareno-Gama에 대한 기록을 바로잡기 위해 Stop AI는 “Stop AI 온라인 공개 포럼에 가입하여 자신을 소개한 다음 ‘폭력에 관해 이야기하면 금지됩니까?’라고 물었습니다.”라고 썼습니다. 그들이 그에게 “예”라고 단호하게 답한 후, 그는 우리 포럼에서의 모든 활동을 중단했습니다. “그가 범죄 행위를 하기 몇 달 전이었습니다.”
Stop AI의 공동 이사 5명 중 한 명인 Valerie Sizemore는 Fortune과의 인터뷰에서 현재 일부 회원이 OpenAI 사건과 너무 연관되는 것에 대해 불안과 걱정을 느끼고 있다고 말했습니다. “그러나 개인적으로 나는 우리가 하고 있는 비폭력 조직이 사람들에게 폭력이 아닌 다른 일을 할 수 있도록 하는 것이 훨씬 더 중요하다고 생각합니다”라고 그는 말했습니다.
이 조직은 국경 연구소 본부에 항의하기 위한 샌프란시스코 기반의 노력에 여전히 초점을 맞추고 있다고 Sizemore는 덧붙였습니다. 또한 지난달에는 현지 “AI 경주 중지” 시위에도 참여했습니다.
AI 활동과 그 위험에 대한 광범위한 토론
바스 대학의 루브라노 교수는 반기술 운동과 극단주의가 기계와 산업화에 반대했던 19세기 영국 섬유 노동자 러다이트 이후 오랫동안 존재해 왔다고 지적했습니다.
저스틴 탈리스 / 게티 이미지를 통한 AFP
많은 사람들에게 AI는 기술에 관한 모든 두려움의 총합을 의미한다고 그는 설명했습니다. “기술은 시스템으로 간주되며 모든 부분은 서로 의존합니다.”라고 그는 말했습니다. “AI가 전쟁에 배치되면서 노동자의 성과를 모니터링하고 시위에 참여하는 사람들을 모니터링하거나 그들의 행동을 보장하기 위해 AI 덕분에 우리를 통제하고 수렴하려는 기술 과두제의 요소가 있습니다.”
그는 반AI 단체를 기술 혐오적이거나 반기술적이라고 일축하기보다는 이들과 협력하라고 조언했습니다. “러다이트들은 기술에 반대한 것이 아닙니다. 그들은 기술의 절대적인 도입에 반대했습니다. 기술이 그들의 삶을 방해했기 때문입니다. 그리고 이러한 우려는 무시되었고 결국 러다이트들은 폭력에 의지했습니다.” 그는 그러한 우려를 무시하면 분노를 불러일으킬 수 있고, 주변부에서는 더욱 극단적인 행동으로 이어질 수 있다고 경고했습니다. 하지만 그러한 집단의 존재만으로 폭력 행위를 비난하는 것은 실수가 될 것입니다.
그럼에도 불구하고 독립 연구원 Weiss-Blatt는 Pause AI 및 Stop AI와 같은 그룹의 의견과 행동이 여전히 급진화로 이어질 수 있으며, 이는 결국 나쁜 결과로 이어질 수 있다고 주장했습니다.
그는 “2025년 11월 OpenAI 사무실 폐쇄를 포함해 경고 신호가 계속 존재했다”고 말했다. “진짜 질문은 AI 패닉을 조장하는 사람들이 급진화로 이어지는 책임, 특히 가장 취약한 사람들에 대한 책임을 회피하기 위해 얼마나 오래 기다리느냐는 것입니다.”
Pause AI의 Elmore는 AI 문제에 대한 대중의 이해가 깊어져 평화로운 행동주의와 고립된 폭력 행위를 결합하는 것이 더 어려워질 것이라고 믿습니다. 이 문제는 여전히 새롭고 단일하고 획일화된 공간으로 여겨지지만, 전국적인 관심의 주요 초점이 되기를 희망합니다.
“사람들은 붓 하나로 (우리 모두를) 그리는 것이 그리 쉽지 않다는 것을 알게 될 것입니다.”라고 그는 말했습니다.

