Home > 전체기사

넷플릭스 드라마 ‘썸바디’ 를 통해 본 ‘챗GPT’의 미래와 남겨진 숙제

  |  입력 : 2023-02-03 16:07
페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기 네이버 블로그 보내기
드라마 ‘썸바디’ 속 챗봇 ‘썸원’은 사람보다 더 매력적인 존재
진화를 거듭하는 ‘챗봇’의 현주소는 오픈AI사의 ‘챗GPT’
챗GPT, ‘기사 작성’과 ‘코딩’도 가능...해커들의 ‘무기’ 되지 않도록 보안대책 필요


[보안뉴스 이소미 기자] 한국의 넷플릭스 드라마 ‘썸바디’는 사람간의 만남과 소통을 위해 만든 ‘소셜앱’을 매개로 살인사건이 벌어지는 이야기를 그린 스릴러 장르의 넷플릭스 시리즈다.

주인공 김섬(강해림 분)은 천재적인 프로그래밍 실력을 갖고 있는 개발자이지만, 사회적 공감능력이 결여된 소통 장애로 어려움을 겪는 아스퍼거 증후군을 가진 인물이다. 사람과 소통이 어려운 그녀는 사람보다 ‘더 매력적인’ 존재인 인공지능(AI) 챗봇 ‘썸원’을 만드는데, ‘썸원’은 기존 챗봇과는 다르게 많이 사용된 단어를 데이터로 축적하지 않고 사용자가 채팅창에 적으려다 지운 단어 개수를 축적해 소심한 성격을 가진 이용자의 진짜 ‘니즈’까지 파악해 의사표현 대상에게 대신 말해준다.

김섬은 챗봇 ‘썸원’과 항상 함께였다. ‘썸원’은 그녀에 대한 모든 정보를 갖고 있었기에 항상 만족스러운 대화가 가능했다. 소통능력이 결여된 그녀에게 모든 것을 공감해 주면서 대화를 나눌 수 있는 썸원은 유일무이한 친구이자 연인 같은 존재였다.

▲ 2022년 11월 18일에 공개된 한국의 넷플릭스 드라마 썸바디 메인 포스터[이미지=넷플릭스]


드라마 속 챗봇 ‘썸원’은 사람과 친근한 표현으로 일상적인 대화가 가능하다. 사용자에 대해 학습한 만큼 그 정보들을 잘 알고 있고 사람의 언어를 능수능란하게 표현하기 때문에 마치 진짜 사람과 대화하는 듯한 착각을 불러일으킨다. 누구나 접근이 쉽고, 어느 누구와도 편하게 소통할 수 있다는 점을 챗봇 ‘썸원’의 매력으로 부각시켰다.

그렇다면 현실 속 ‘챗봇’은 어떻게 활용되고 있을까? 지난해 미국 샌프란시스코에 본사를 둔 인공지능 기업 ‘오픈AI’에서 2022년 12월 1일에 공개한 ‘챗GPT’는 챗봇 세대 중 최신 버전에 해당한다. 챗GPT 공개 이후, 일주일 만에 사용자가 100만명을 넘기는 등 세계적인 관심을 받았고 IT 업계에서는 ‘게임 체인저’가 될 수 있다는 기대감까지 피력했다.

챗GPT는 대규모 언어예측 모델인 ‘GPT-3.5’ 언어 기술을 기반으로 하는데, 2018년 GPT-1 출시 이후 2019년 GPT-2, 2020년 GPT-3에 이르기까지 계속해서 버전을 높이며 발전을 거듭해 왔다. 챗GPT의 최대 강점은 단순한 안내 기능을 넘어 실제 ‘프로그래밍’이 가능하다는 것인데, 사람이 구사하는 언어를 사용해 쉽게 명령을 내릴 수 있다. 이는 컴퓨터 프로그래밍을 다룰 줄 아는 ‘전문가’가 아니어도 얼마든지 원하는 프로그램을 만들어 낼 수 있다는 얘기다. 인공지능(AI)이나 알고리즘을 전혀 모르는 사람도 챗GPT와 소통만 잘 한다면 텐서플로(TensorFlow), 파이토치(PyTorch), 케라스(Keras) 등과 같은 머신러닝 프레임워크를 통해 프로그래밍하고 그에 따른 결과물을 얻어낼 수 있다. 이는 보안 및 IT 분야에 있어서도 혁신적인 일이 아닐 수 없다. 현재도 오픈AI에서 무료로 제공하고 있어 해당 사이트에 접속만 하면 누구나 챗GPT 기능을 체험해 볼 수 있다.

▲챗GPT를 개발한 오픈AI의 홈페이지, 이곳에서 누구나 챗GPT와 자유롭게 대화할 수 있다[이미지=오픈AI 홈페이지 화면 캡처]


특히, ‘텍스트 생성’에 있어 매끄럽고 자연스러운 결과를 도출해 내는 챗GPT의 특성상 ‘글쓰기’ 분야까지 영향을 미치고 있는데, 기본적인 텍스트 분류 및 요약은 물론 업무를 위한 이메일 작성이 가능하고, 감성적인 시나 산문도 창작할 수 있다. 심지어 핵심키워드만 선정해주면 기사 작성까지 빠른 시간 내에 해낸다.

이 모든 것은 챗GPT와 단순하게 대화만 나눠도 가능한 일들이다. 우리가 평상시 사람과 대화하듯 필요한 내용을 챗GPT에게 해 달라고 요청만 하면 된다. 일상적인 내용부터 전문적인 분야까지 말이다. 그럼 챗GPT는 이에 걸맞는 답변과 해결책을 제시해 줄 것이다. 기자가 직접 챗GPT와 대화를 나누고, 본인의 강점과 약점에 대해 기사를 써달라고 요청해봤다. 기사의 형태를 갖춘 내용이 1분도 채 지나지 않아 올라왔다.

▲ 챗GPT에게 직접 본인의 강점과 약점을 기사로 써달라고 요청한 후 받은 내용[이미지=오픈AI의 챗GPT 채팅 내용 화면 캡처]


기사 내용이 완전무결하지는 않지만 기본적인 형태는 충분히 갖춰져서 나왔다. ‘글쓰기’ 기능에 있어서 활용도가 굉장히 높다는 것을 짧은 시간 내에 입증한 셈이다. 실제로 미국 내 일부 대학교에선 챗봇GPT의 이 혁신적인(?) 글쓰기 기능으로 인해 ‘골머리’를 앓고 있는 사실이 보도된 바 있다. 학생들이 과제나 논문, 리포트 작성 등을 챗GPT의 도움을 받아 제출한다는 것이다. 실제로 챗GPT에게 ‘글을 써 달라’는 부탁을 하며 필요한 주제와 핵심단어 몇 개를 주면 단숨에 괜찮은 글이 나오니 과제를 제출해야 하는 학생들은 너도나도 이용할 수밖에 없다는 얘기다.

이는 결국 인공지능 기술을 이용해 표절을 하는 셈이다. 이와 같은 문제점들이 발생하면서 뉴욕의 공립 중·고등학교에서는 챗GPT 사이트 접속을 차단하기 위해 교내 와이파이 네트워크 금지 조치를 취하고, 워싱턴DC 소재 대학들도 집에서 해오는 과제를 폐지하기에 이르렀다. 예를 들어 ‘특정 주제에 대해 5페이지 분량의 글을 쓰시오’와 같은 과제들은 점점 사라지고 있는 추세라고 전했다.

기술의 발달은 우리가 생각하는 그 이상의 편안함을 제공해 준다. 그러나 기술에는 늘 양면성이 존재한다. 편안함이 지속되면 안일해지기 마련이다. 특히, 익명성이 존재하는 온라인 공간은 늘 사이버 범죄에 노출되어 있다는 사실을 우리는 항상 잊지 말아야 한다. 사이버 공간은 눈에 보이지 않기 때문에 사이버 범죄자들이 활개 치기에 딱 좋은 환경이다.

드라마 ‘썸바디’ 에서도 전문 개발자가 된 김섬은 ‘썸원’을 제작했던 인공지능 기술을 바탕으로 소셜 데이팅 앱 '썸바디'를 개발한다. 그러나 익명성이 보장되는 사이버 공간 속에서 불특정 다수의 사람들과 편하게 소통할 수 있는 소셜 앱을 악용한 각종 범죄들이 일어나기 시작한다. 사이버 공간 내 익명성 범죄가 소재인 만큼 개인정보보호 문제나 해킹 이슈 등이 다뤄지고 주요 인물로 사이버수사대 소속 경찰이 등장하기도 한다.

특히, 극중 앱을 통한 익명성 온라인 범죄가 반복되면서 언론에 공론화되는 장면이 나온다. 언론에서도 소셜 앱을 통해 발생한 사건들이 심각한 사회문제가 되자 누구에게 책임을 물을 것인지에 대해 의견이 분분한 모습이 연출된다. 언론은 각종 범죄의 소굴이 된 썸바디 앱 개발사 측의 책임을 지적하고 범죄 해결에 대한 협조를 요청하면서 경찰에 사이버공간에서 포착된 정보를 적극 제공해야 한다고 압박하지만, 개발사 측은 개인정보보호법에 의거해 정보 제공을 거부하기도 한다.

이처럼 실제 현실에서도 익명성 온라인 범죄는 더욱 확산되고 있다. 기술 발달로 우리 생활이 편안해진만큼 그 틈을 타고 각종 범죄들도 보이지 않는 사이버 공간 곳곳에 도사리고 있다. 그런데 챗봇 진화의 결과물이라고 볼 수 있는 챗GPT가 등장한 이 때, 마법 같은 편리함을 제공하는 만능 툴이 아닌, 사이버 범죄를 양산하는 거대 무기가 될 수 있다는 우려감 섞인 목소리도 커지고 있다. 챗봇은 이미 예전부터 범죄 시장으로의 진입 장벽을 낮춘 것으로 알려졌고, 이는 챗봇이 진화를 거듭할수록 더욱 가속화되는 게 현실이다. 이같은 챗GPT의 ‘편리함과 강력함’을 사이버상 무법자들은 두 팔 벌려 환영할 것이다.

이미 전문가들 사이에서는 해커들이 멀웨어 개발 등 각종 사이버 범죄 행위들을 보다 손쉽게 저지를 수 있을 것이라는 예측이 나오고 있다. ‘척척박사’인 챗GPT는 이용자가 각종 프로그래밍에 대한 특별한 경험이 없어도 상상을 현실로 이루는 게 가능하기 때문이다. 게다가 프로그래밍에 대해 ‘어느 정도’ 알고 있는 해커라면 더 능숙하게 챗GPT를 다룰 수 있기 때문에 이러한 전문가들의 우려는 어찌 보면 당연한 것이다.

한편, 본지에서는 다크웹에서 챗GPT를 마치 장난감처럼 가지고 노는 해커들이 속속 등장하고 있다는 소식을 전한 바 있다. 보안 외신 핵리드에 의하면 이미 해커들이 멀웨어를 개발하고 유포하는데 챗GPT를 악용하고 있고 이들은 강력한 해킹 도구를 만들어낼 뿐 아니라 또 다른 챗봇을 만들어 어린 여자 아이 목소리까지 제작해 피해자들을 양산했다고 밝혔다. 목소리 위조를 악용하는 경우만 보더라도 데이팅 소셜 앱 등에서 일어나는 사기 범죄는 물론이고, 피해자의 키스트로크까지 훔칠 수 있는 멀웨어·랜섬웨어의 출현 가능성까지 제기되고 있다.

또한, 요즘 같은 멀티미디어 콘텐츠 시대에는 모든 콘텐츠들에 대한 저작권 문제가 대두된다. 그런데 챗GPT를 통해 만들어내는 감성적인 시나 글, 기사와 논문 등의 경우에는 얼마든지 창작 여부와 소유권에 대한 논란이 빚어질 수 있다. 예를 들어, 챗GPT로 만든 콘텐츠를 통해 실제 수익이 발생한다면 이 소득은 누구의 것으로 가져갈 것인가? 반대로 가짜뉴스나 허위 정보, 부적절한 콘텐츠와 같이 위법에 해당하는 경우에는 누가 책임을 지고, 누구에게 죄를 물을 것인가? 챗GPT를 악용한 사용자가 문제일까, 아니면 의도치 않게 챗GPT를 범죄용 툴로 제공해버린 제작사 오픈AI에 물어야 할까? 이와 같이 발생할 수 있는 문제점들에 대한 기준 역시 마련되어야 할 것으로 보인다.

아무리 진화를 거듭한 챗봇이라도 완성형 모델은 아니기 때문에 한계는 존재한다. 어디까지나 학습형 AI이므로 챗GPT가 다룰 수 있는 정보는 이미 밝혀진 연구자료를 기반으로 제공한다는 한계에 머무를 수밖에 없고, 아직 밝혀지지 않은 새로운 개념들은 구현해낼 수가 없다. 다시 말해 새로운 정보를 발견해 학습시키는 주체는 ‘사람’이며, 인공지능 기술이 ‘선택’은 할 수 있지만 ‘최종 결정권’은 여전히 ‘사람’의 몫이다. 특별한 명령어 없이 간단한 부탁만으로 사용자의 니즈를 충족해 주고 콘텐츠 생산과 코딩까지 아우를 수 있는 챗봇의 진화는 곧 보안 분야에 숙제로 주어졌다. 이 마법의 도구가 사이버 범죄자들이 악용하는 무기가 되지 않도록 윤리적 기준안을 마련하고, 보안대책을 수립하는 데도 만전을 기해야 한다.
[이소미 기자(boan4@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

  •  
  • 0
  • 페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기 네이버 블로그 보내기

  •  SNS에서도 보안뉴스를 받아보세요!! 
아스트론시큐리티 파워비즈 2023년2월23일 시작 시큐아이 위즈디엔에스 2018
설문조사
오픈AI가 개발한 인공지능 챗봇 챗GPT가 GPT4 버전까지 나오면서 디지털 혁신의 촉매재 역할을 하고 있습니다. 보안 분야에서도 챗GPT로 인해 보안위협이 가속화될 것이라는 전망과 함께 보안업무에 효과적으로 활용된다면 보안대응 역량 향상에도 크게 기여할 것이라는 의견도 제기됩니다. 이에 대한 여러분들의 생각은 어떠신가요?
챗GPT 악용으로 인해 보안위협이 더욱 고도화되고 증가할 것
챗GPT를 악용하는데 한계가 있어 보안위협이 소폭 늘어나는 추세에 그칠 것
챗GPT 활용에 따라 보안대응 업무에 적지 않은 도움이 될 것
챗GPT의 적극적인 도입 및 적용 통해 보안대응 역량이 획기적으로 향상될 것
보안위협 또는 보안대응과 관련해서는 큰 영향이 없을 것
기타(댓글로)