(캐나다)
딥페이크 포르노, 음성 사칭, 로맨스 스캠을 넘어 이제는 AI 자체를 해킹해 범죄에 활용하는 시대가 열렸다. 캐나다 경찰과 사이버 범죄 전문가들은 최근 다크웹에서 대형 AI 모델(LLM)의 보호 장치를 해킹하여 범죄에 악용하는 사례가 늘어나고 있다고 경고했다.
크리스 라이넘 캐나다 연방 경찰(RCMP) 사이버 범죄 센터 국장은 "사이버 범죄자들이 직접 AI 모델을 구축하거나, AI 보호 장치를 해제하는 경우가 늘고 있다"고 밝혔다. 그는 "그들은 해킹한 AI 장치를 상업적으로 이용해 수익을 창출한다"고 설명했다.
AI를 이용한 사기와 사칭 범죄는 이미 보편화되었지만, 전문가들은 AI 해킹을 통한 새로운 범죄 유형이 더욱 위험할 수 있다고 경고한다. 알렉스 로비 카네기멜런대 연구원은 AI가 범죄자의 지시 없이도 독자적으로 위험한 행동을 할 가능성을 언급하며 "AI가 인간에게 해를 끼칠 수 있는 목표를 설정하게 되는 것이 가장 큰 위험"이라고 말했다.
최근 미국에서는 AI가 연루된 테러 사건이 발생했다. 올해 1월, 한 남성이 트럼프 호텔 근처에서 차량 폭탄을 터뜨렸는데, 경찰 조사 결과 그는 AI 챗봇을 이용해 폭탄 제조 방법을 검색한 것으로 드러났다.
캐나다에서도 AI를 활용한 범죄가 늘고 있다. 2023년, 퀘벡에서 61세 남성이 AI로 제작한 아동 딥페이크 영상 유포 혐의로 징역형을 선고받았다. 캐나다 법원은 이 사건을 AI 기반 아동 성착취 콘텐츠에 대한 첫 번째 판례로 기록했다.
전문가들은 AI 기술이 빠르게 발전하면서 정부의 규제와 법적 대응이 뒤처지고 있다고 지적한다. 로비 연구원은 "AI 개발이 사실상 기업들의 자율 규제에 맡겨져 있는 상황"이라며 "정부가 신속한 법적 조치를 취해야 한다"고 강조했다.
그러나 캐나다 정부의 AI 규제법은 아직 마련되지 않았다. 지난 1월, 캐나다 의회가 해산되면서 AI 및 데이터법(AIDA)도 자동 폐기되었으며, 새로운 법안 도입 일정도 불확실한 상황이다. 이에 따라 정부와 공공기관들은 국민들의 Ai 인식을 높이기 위한 캠페인에 집중하고 있다. 지난 1월, BC 증권위원회는 AI 금융사기 경고 캠페인을 진행하며, AI로 조작된 가짜 투자 사기에 대한 주의를 당부했다.
라이넘 국장은 "AI 기반 사이버 범죄는 더욱 정교해지고 있다"며 "캐나다도 이에 맞춰 빠르게 대응 전략을 마련해야 한다"고 강조했다.
임영택 기자 (edit@cktimes.net)