(캐나다)
OpenAI의 최고경영자(CEO) 샘 올트먼이 지난 2월 BC주 북부 텀블러릿지(Tumbler Ridge)에서 발생한 총기 난사 사건과 관련해 지역 사회에 공식 사과문을 보냈다.
"아이를 잃은 슬픔 상상조차 못 해"... 샘 올트먼의 뒤늦은 참회
24일(금) 공개된 서한에서 올트먼은 "비극을 겪은 유가족과 지역 사회에 깊은 애도를 표한다"며, "범인의 ChatGPT 계정이 제재를 받았음에도 이를 수사 기관에 알리지 않은 점에 대해 깊이 사과한다"고 밝혔다.
자동 시스템은 감지했지만... 인적 검토에서 누락된 위험 신호
이번 논란의 중심은 범인 제시 밴 루트셀라르 ChatGPT 사용 기록이다. OpenAI에 따르면, 범인의 계정은 이미 지난해 6월 사용자 정책 위반으로 자동 시스템에 의해 차단된 상태였다. 그러나 당시 인적 검토 단계에서 "박두한 폭력 계획에 대한 신뢰할 수 있는 근거"가 부족하다고 판단해 경찰에 통보하지 않았다. 이후 범인은 두 번째 계정을 만들어 추적을 피했고, 결국 지난 2월 10일 6명의 어린이를 포함한 무고한 시민들을 살해하는 끔찍한 범죄를 저질렀다.
정치권 압박에 고개 숙인 AI 공룡... "재발 방지 약속"
데이비드 에비 BC주 수상은 지난달 샘 올트먼을 직접 만나 AI 챗봇이 범죄에 이용되는 과정에서 발생한 회사의 책임과 공적 사과를 강력히 요구한 바 있다. 올트먼은 사과문을 통해 "수상 및 시장과 약속한 대로 향후 유사한 비극을 막기 위한 방안을 찾고, 모든 수준의 정부와 긴밀히 협력하겠다"고 강조했다.
OpenAI의 글로벌 정책 부사장 앤 오리어리는 "현재 강화된 프로토콜이 2025년 6월 당시에 있었다면, 범인의 계정 정보는 즉시 법 집행 기관에 전달되었을 것"이라며 정책적 허점을 시인했다.
AI의 '침묵'이 불러온 비극... 기술 윤리의 임계점
이번 텀블러릿지 참사는 AI 기술이 단순한 편의를 넘어 공공 안전에 얼마나 직접적인 영향을 미칠 수 있는지 보여주는 뼈아픈 사례다. 자동화된 시스템이 위험을 감지했음에도 '임박한 위협'을 판단하는 인간의 기준이 너무 높았던 탓에 골든타임을 놓쳤다는 점은 시사하는 바가 크다.
샘 올트먼의 사과는 의미가 있지만, 기술 기업이 수집하는 방대한 데이터 중 어디까지를 '범죄 징후'로 보고 공권력에 넘길 것인지에 대한 법적·윤리적 가이드라인은 여전히 모호하다. 이번 사건을 계기로 캐나다를 비롯한 글로벌 사회는 AI 기업에 더 강력한 '감시 및 신고 의무'를 부과하는 입법 절차에 속도를 낼 것으로 보인다. 기술의 발전이 인간의 안전보다 앞서 나갈 때 어떤 대가를 치르는지, 텀블러릿지의 비극은 우리에게 무거운 질문을 던지고 있다.
토론토 중앙일보 편집팀 (news@koreadailytoronto.com)