[사진: 셔터스톡]
[디지털투데이 강진규 기자]인공지능(AI)을 악용한 범죄에 대한 공포가 커지고 있다.최근 인터넷 커뮤니티, 카페, 블로그 등에 AI를 악용한 피싱 가능성을 경고하는 글이 빠르게 확산하고 있다.
<!-- -->
25일 보안업계 관계자들에 따르면한 대학생이모르는 번호의 전화를 받았는데 상대방이 아무 말도 하지 않았다. 이에 대해 교수가 말을 해서는 안 된다며 목소리를 녹음한 후 AI로 똑같은 목소리를 만든 후 가족, 지인 등에서 보이스피싱을 할 수 있다고 경고했다는 것이다.
커뮤니티에 올라온 이 글은 조회수 2만1000건을 넘어섰고 많은 사람들이 주식, 여행, 자동차 커뮤니티, 카페 등으로 확산시켰다. 이를 일부 언론이 보도하고 다시 보도 내용이 인터넷에서 확산됐다.
이런 내용을 접한 한 누리꾼은 “무서운 세상이다. 가족들에게도 정보를 공유해 모르는 전화를 받지 않도록 했다”고 말했다. 또 다른 누리꾼은 “무섭다. 모르는 전화번호는 아예 받지 말아야 겠다”고 언급했다.
그동안 AI를 악용한 범죄는 영화 속 이야기, 미래의 이야기로 여겨졌다. 그런데 이제는 현실 속에서 걱정하는 목소리가 높아지고 있는 것이다.
이런 공포는 단순한 걱정이 아니다. 실제로 최근 경찰청은 공식 블로그를 통해 AI 피싱 사기에 주의해야 한다고 당부했다.
경찰청은 최근 딥보이스나 딥페이크 등 인공지능 기술이 보이스피싱 등 금융 사기범죄에 악용되면서 새로운 범죄유형이 생겨나고 이에 따른 피해자고 급증하고 있다고 설명했다. 경찰청은 소셜네트워크서비스(SNS)에 개인정보를 최소한으로 올려야 하며 특히 자신의 목소리가 포함된 게시글을 올리는 것에 주의할 것을 당부했다.
또 의심스러운 전화나 영상은 반드시 사실 여부를 확인해야 한다고 밝혔다. 의심스러울 경우 일단 전화나 영상을 종료하고 당사자나 주변 지인에게 확인해보는 것이 안전하다는 설명이다.
경찰청 이외에도 2021년 국가정보원은 딥페이크를 이용한 사이버범죄 가능성을 경고했다. 전 세계 범죄조직들이 딥페이크 기술을 이용해 피해자의 가족, 지인을 사칭한 후 금품을 갈취하거나 피해자의 사진으로 음란물 등을 만들어 협박하는 사례가 나타나고 있다는 것이었다.
이처럼 AI 피싱 등 AI 기술을 악용한 범죄가 현실로 다가오면서 사회적 신뢰가 붕괴될 수도 있다는 우려가 나오고 있다. 한 보안업계 관계자는 “과거에는 보이스피싱 범죄자들이 경찰, 검사 등을 사칭하는 수준이었다면 앞으로는 실제 경찰, 검사의 목소리를 AI로 흉내 내서 사기를 시도할 수 있다”며 “이렇게 되면 진짜 경찰, 검사가 전화를 해도 사람들이 의심하고 믿지 않게 될 것”이라고 우려했다. 서로가 서로를 불신하는 상황이 올 수 있다는 것이다.
전문가들은 기술적으로 AI 피싱 등을 탐지하는 방안을 마련하고 AI를 활용한 범죄를 강력히 처벌해야 한다고 주장하고 있다.
일례로 대검찰청은 AI 가짜 음성 탐지, 확인을 위한 연구개발 4개년 계획을 수립했다. 2024년부터 4년 간 AI로 조작한 음성을 분석하고 탐지하는 방안을 마련할 방침이다. 이런 연구가 검찰 뿐 아니라 경찰, 금융권, 사이버보안 등 다양한 영역에서 이뤄져야 한다는 지적이다.
[db:圖片]