디지틀조선TV 유튜브 바로가기

‘열린 판도라 상자’…AI 악용범죄에 “정부 차원 규제 필요”

강나윤 기자 ㅣ muse@chosun.com
등록 2023.06.09 14:08

“AI 개발 초기에 방향성 수립 부재…국가 차원에서 규제해야”

/픽사베이

챗GPT와 바드(Bard), 빙(New Bing)과 같은 대화형 인공지능(AI)의 출현에 따른 기술 발전에 대한 기대가 높아지고 있고 있다. 하지만 AI의 기술력을 악용한 범죄 증가 역시 우려되고 있다. 부작용을 차단할 수 있는 정부차원에 제도적 장치 마련이 시급하다는 지적이 나온다.

9일 정보기술(IT)업계에 따르면 대화형 AI를 활용해 범죄에 활용할 수 있는 소스 등 정보를 얻는 경우가 증가하고 있다.

AI는 정보 값을 도출할 때 판단을 선행하지 않는다. 옳고 그름을 먼저 따지지 않는다는 것이다. 이 때문에 AI가 범죄 진입 장벽을 낮추는 수단으로 활용될 수 있다는 우려가 커지고 있다.

챗봇은 문장을 구사하는 것은 잘하지만 문장의 사실 여부, 가치 판단까지는 하지 못한다. 문장의 다음에 나올 말로 확률이 높은 값을 택할 뿐이다.

워싱턴대학교의 칼 버그스트롬 생물학과 교수는 미국 과학매체 ‘언다크’ 기고문에서 “GPT는 자신이 하는 말의 의미를 모른 채 ‘그럴싸한 답변’을 하도록 만들어졌다”고 설명했다.

실제 생성형 AI의 데이터 지식을 악용해 홈페이지 탈취 등 해킹이 일어난 사례가 속출하고 있다. 중국 해커 조직 '샤오치잉'은 올 초 국내 학술기관 사이트를 공격할 때 AI를 활용했는데, 해킹에 필요한 코드를 물어 답변을 구한 것으로 알려졌다.

해커들이 이용하는 모 온라인 커뮤니티에서 챗봇에 관련한 문의도 늘었다. 올 1월 120건에서 2월 870건으로 한 달 사이 약 7배가량 급증했다. 이 중 챗GPT 등 AI를 활용해 악성 프로그램을 퍼뜨리는 방법을 공유하는 내용이 대다수를 차지했다. 더불어 인터넷상에는 생성형 AI에 특정 범죄상황을 묘사하게 하는 우회적인 명령도 공유되고 있다.

이에 챗봇이 범죄에 이용될 수 있는 정보를 제공하는 사례가 나타날 경우, 일일이 답변을 수정하는 피드백 과정이 이뤄지고 있다. 하지만 전문가들은 사후약방문에 불과하다고 평가한다. 생성형 AI는 ‘열려있는 길’이라 얼마든지 다른 방법을 이용할 수 있다는 것이다.

전문가들은 AI에 대한 정부의 강력한 규제를 강조한다. 최병호 고려대학교 인공지능연구소 교수는 “생성형AI 개발 초기에 방향성이 수립되지 않았기 때문에 지금에서야 윤리적인 가이드라인을 만들어야 한다는 주장이 나오는 것이다”라며 “범죄에 활용될 수 있는 AI의 정보 수집 등은 정부의 규제를 통해 막아야 하는 문제”라고 했다.

최 교수는 이어 “AI를 이용한 범죄는 사용자 차원이 아닌 조직적인 범죄로 연결된다”며 “초국가 차원의 첨예하고 강력한 규제가 필수다. 위험성을 심각하게 받아들이지 않으면 비싼 대가를 치르게 될 수 있다”고 경고했다.


최신기사


    최신 뉴스 더보기


        많이 본 뉴스

          산업 최신 뉴스 더보기

            많이 본 뉴스