(국제) 미국에서 인공지능(AI)이 인류를 멸종시킬 수준의 위협이 될 수 있다는 보고서가 나왔다. 이 보고서는 AI가 무기화하고 통제력이 상실된다면 세계 안보 위험이 커지므로 미 정부의 개입이 빨리 이뤄져야 한다고 강조했다.
11일 타임지에 따르면 AI 정책 조언 등을 제공하는 미 민간 업체 글래드스톤 AI는 이날 홈페이지에 '첨단 AI의 안전성과 보안성을 높이기 위한 실행방안'과 관련한 보고서를 발표했다. 총 247쪽에 달하는 보고서는 미 국무부의 의뢰로 작성됐다.
보고서의 골자는 최첨단 AI와 AGI(범용인공지능) 등장은 핵무기 도입을 연상시키는 방식으로, 최악의 경우 인류에게 멸종 수준의 위협을 초래해 세계 안보를 불안정하게 만들 가능성이 있다는 것이다.
보고서는 특히 최첨단 AI와 AGI의 큰 위험 요소로 '무기화'와 '통제력 상실'을 꼽았다. 보고서는 "이 시스템은 잠재적으로 생화학 및 사이버 전쟁을 설계하고 실행하는데 사용될 수 있고, 통제가 불가능해져 인간에게 적대적으로 행동할 수 있다"고 경고했다.
보고서는 또 AGI 진화 속도를 재앙적 위험의 핵심 요인으로 봤다. AGI는 대부분의 작업을 인간 수준 이상으로 수행하는 인공지능으로 공상과학 영화 등에 등장하고 있다. 아직 존재하지 않지만, AI 전문가들은 향후 5년 이내에 AGI가 나올 것으로 보고 있다. CNN에 따르면 오픈AI, 구글 딥마인드, 앤트로픽, 엔비디아는 모두 오는 2028년까지 AGI에 도달할 수 있다고 공개적으로 밝혔다.
보고서는 이런 위협에 대응하기 위해 미 정부가 AI 개발에 신속하고 단호하게 개입해야 한다고 강조했다. 구체적으로 긴급 규제 안전장치와 새로운 AI 감독 기관을 만들고, AI 모델 훈련에 사용할 수 있는 컴퓨터 성능을 제한하는 방안 등을 제시했다. 아울러 첨단 AI 반도체 제조와 수출에 대한 통제도 강화할 것을 권고했다.
글래드스톤 AI 공동 설립자이자 최고경영자(CEO)인 제러미 해리스는 CNN에 "AI는 이미 경제적으로 혁신적인 기술이지만, 사람들은 AI가 재앙적인 위험을 포함한 심각한 위험을 가져올 수 있다는 것도 알아야 한다"고 말했다. 이어 "세계 최고의 AI 회의들에서 발표된 경험적 연구와 분석을 포함해 늘어나는 증거들은 특정 능력의 한계점을 넘어서면 AI가 잠재적으로 통제할 수 없게 될 수 있음을 시사한다"고 강조했다.
동시에 이런 위험성 때문에 AI 연구를 아예 그만두게 하는 것도 바람직하지 않다고 주장했다. 그는 타임지에 "최악의 시나리오 중 하나는 모든 사람의 AI 연구를 완전히 중단시켜 이 기술의 놀라운 이점을 누리지 못하는 것"이라고 했다.
CNN은 "이 보고서는 빠르게 진화하는 AI로 인한 재앙적인 국가 안보 위험에 대한 경고와 미 정부가 재난을 피할 수 있는 시간이 얼마 남지 않았다는 것을 보여준다"고 짚었다. 타임지는 "지난 2022년 11월 챗GPT가 출시된 후 AI가 사회 전반에 영향을 주면서, 많은 사람들이 AI가 미래에 인류에게 실존적인 위험을 초래할 수 있다는 의문을 제기하게 만들었다"고 지적했다.
미 AI정책연구소(AIPI)의 최근 여론조사에 따르면 미국인 80% 이상이 AI가 우발적으로 재앙적인 사건을 일으킬 수 있다고 믿고 있다. 77%는 정부가 AI를 규제하기 위해 더 많은 조치를 취해야 한다고 답했다.
글래드스톤 AI는 지난 2022년 10월 미 국무부로부터 AI 안보 위험에 대한 평가를 의뢰받고 약 1년 동안 주요 AI 기업의 최고 경영진, 사이버 보안 연구원, 대량살상무기 전문가, 미·영국·캐나다 국가 안보 당국자 등 200여명을 인터뷰해 보고서를 작성했다. 글래드스톤 AI 측은 오픈AI, 구글 딥마인드, 페이스북 모회사인 메타, 앤트로픽 등 주요 빅테크 기업의 기술 및 리더십 팀과 이야기를 나눴다고 밝혔다.
이 보고서는 지난달 26일 미 국무부에 전달됐다. 미 국무부 당국자는 CNN에 "국내외에서 미국의 국익을 보호하려는 목표에 AI가 어떻게 부합하는지를 지속적으로 평가하고 있어서 이 보고서를 의뢰했다"고 밝혔다. 다만 이 보고서가 미 정부의 견해를 대변하는 것은 아니라고 덧붙였다.
토론토중앙일보 (news@cktimes.net)
등록된 댓글이 없습니다.