Home > 전체기사

챗GPT, 유려하지만 윤리관이 부족한 작가

  |  입력 : 2023-01-22 22:38
페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기 네이버 블로그 보내기
챗GPT의 가능성이 매일 최고점을 기록하고 있다. 하지만 그 반대편에서는 적잖은 단점들도 발굴되는 중이다. 게다가 사회적 합의에 도달해야만 해결될 수 있는 난제들도 존재한다.

[보안뉴스 문정후 기자] 기존의 유명 작가들인 오웰, 나보코프, 스위프트 등은 작품을 통해 많은 사랑을 받기도 했지만 적잖은 비판에 시달리기도 했다. 지난 수년 동안 그 어느 작가도 반대 생각을 가진 사람들의 비판에서 자유롭지 못했다. 특히나 주류와 반대되는 의견을 피력해야 하는 입장에 서 있다면 공격은 매우 거세진다. 그런데 만약 컴퓨터가 비판을 받을 만한 글을 썼다면 어떨까? 성난 사람들은 누구에게 화를 표현해야 할까?

[이미지 = utoimage]


챗GPT(ChatGPT)라는 인공지능 기반 챗봇이 등장해 인간이 내리는 수많은 명령을 수행하기 시작하면서 이는 아무도 쉽게 대답할 수 없는 문제가 되어버렸다. 모든 예술 분야에서 이는 똑같이 난제로 남는다. 그렇지만 인공지능이 그림을 사람만큼 뛰어나고 능숙하게 그려버리게 되면서 문제에 대한 답을 최대한 빠르게 구해야만 하는 상황이 됐다.

챗GPT?
챗GPT는 일종의 인공지능으로, 오픈AI(OpenAI)라는 회사에서 개발하고 훈련시켰다. 사용자가 입력하는 글자들을 바탕으로 결과물을 산출할 수 있도록 만들어졌다. 여기서 말하는 글자들이란 명령이나 요청을 말하고, 인간의 언어로 구성되어 있다. 기술 자문 기업인 ISG의 파트너 웨인 버터필드(Wayne Butterfield)는 챗GPT에 대하여 “자연어 생성 기술 분야에서 이룩한 어마어마한 성과”라고 말한다.

“사용자가 좋아하는 랩 아티스트 스타일로 랩 가사를 쓸 수도 있고, 특정 주제 아래 음식에 관한 2000자 수필을 작성할 수도 있습니다. 매우 자연스럽고, 인간의 그것과 비슷한 결과물이 순식간에 나오죠. 그러니 이렇게 단기간에 수많은 사람들의 관심을 받고 업계 전체를 뒤흔들 수 있는 겁니다. 인공지능 업계에서야 화제가 되는 게 당연하겠지만 일반인들 사이에서도 이야기가 적잖이 나오고 있습니다.”

보스턴컨설팅그룹(Boston Consulting Group)의 글로벌 디렉터인 프랑소아 칸델론(François Candelon)은 “스탠드얼론 제품으로서 챗GPT는 놀라운 성과물임에 분명하다”는 데에 동의한다. “하지만 기업들은 챗GPT 그 자체가 아니라 기반 기술인 ‘생성형 인공지능(generative AI)’에 더 집중해야 합니다. 생성형 인공지능이란, 기본 바탕이 되는 모델에 방대한 양의 데이터를 광범위하게 주입해 훈련시킴으로써 새로운 내용물을 인간과 유사하게 생성해내는 기술을 말합니다.”

챗GPT는 오픈AI에서 인터넷에 공개된 데이터만으로 훈련을 시킨 것으로 알려져 있다. 방대한 데이터를 학습하게 되면 ‘전이 학습’이라는 것도 가능하게 된다. 전이 학습(transfer learning)이란, 모델이 데이터 속에 숨겨진 패턴들을 찾아내고, 그것을 활용해 관계가 없는 하위 문제(downstream task)를 해결하는 것을 말한다. “예를 들어 챗GPT가 ‘마케팅’과 ‘피자’라는 개념에 대하여 배운다면 피자 가게를 위한 마케팅 슬로건을 만들 수 있게 되는 겁니다.” 칸델론의 설명이다.

챗GPT에 관심을 두기 시작한 건 마케팅 산업만이 아니다. 이야기를 만들어내고, 애니메이션을 제작하고, 음성 더빙을 해야 하는 곳들에서도 인공지능으로 수많은 일들을 처리할 수 있다는 사실을 깨닫기 시작한 것이다. 칸델론은 “지식을 디지털화 하는 산업(생화학, 엔지니어링, 제조 등)에서는 생성형 인공지능 기술이 많은 것을 뒤바꿀 것”이라고 예측한다. “이런 산업에 속해 있는 기업이라면 크기나 규모와 상관 없이 생성형 인공지능으로 새로운 애플리케이션들을 만들어내기 시작할 거라고 봅니다.”

개인화 검색 서비스 업체인 미소(Miso.ai)의 CEO 럭키 구나세카라(Lucky Gunasekara)는 이미 챗GPT를 사용해 블로그를 운영하고 있다고 말한다. “블로그 글을 작성하고, 랜딩 페이지들을 복사하고, 광고 이메일 캠페인을 실시하고, 다양한 홍보용 콘텐츠를 만들 때 이미 챗GPT를 활용하고 있습니다. 챗GPT가 모든 글을 온전히 혼자서 작성하거나 하는 건 아니죠. 최종 결정권을 가진 건 사람입니다. 다만 챗GPT를 사용하니 일 처리 속도가 훨씬 빨라졌습니다. 특히 글을 쓰다 막힐 때 챗GPT가 새로운 아이디어를 주곤 합니다.”

윤리적 문제들
하지만 챗GPT에는 치명적인 문제가 있다. 실수가 적지 않으며, 완전히 틀린 결론에 도달할 때도 종종 있다는 것이다. IT 훈련 및 출판 회사 오레일리미디어(O’Reilly Media)의 부회장 마이크 루카이즈(Mike Loukides)는 “지금 챗GPT는 완성형 모델이 아니기 때문에 지금부터 진지한 사업적 결정을 내릴 때 사용해서는 안 된다”고 강조한다. “실험을 해가면서 어떤 상황에서 챗GPT가 실수하고 어떤 상황에서 강력한 기능을 발휘하는지를 잘 확인해둘 필요가 있습니다.”

또한 챗GPT는 창의력이라는 측면에서도 한계가 뚜렷하다. “이미 만들어진 정보들을 다량으로 소화하고 처리하는 데에 있어서는 뛰어나죠. 심지어 일부 과학자들 사이에서는 방대한 연구 자료와 논문을 챗GPT가 훌륭하게 요약할 수 있다는 소리도 나오고 있습니다. 하지만 챗GPT는 세상에 없는 새로운 생각들을 하는 데에는 아무런 기능을 발휘하지 못합니다.” 구나세카라의 설명이다.

“챗GPT의 가능성이 무궁무진하다는 데에는 동의합니다. 하지만 그 가능성 안에는 ‘위협’도 포함되어 있습니다. 특히 글의 형태로 콘텐츠를 만들거나 큐레이팅 해서 생활을 하는 직군에 있는 사람들에게는 챗GPT가 그리 반갑지는 않을 겁니다. 물론 챗GPT가 인용 출처를 제대로 표시하고 있지는 않기 때문에 아무리 멋진 논문을 만들어내도 논란에 부딪힐 게 뻔합니다만, 이 부분은 해결이 될 수 있지 않을까 싶습니다. 오픈AI 측의 의지에 달린 문제라고도 볼 수 있습니다.”

챗GPT를 속이는 방법들이 다양하게 개발되고 있다는 것 역시 챗GPT의 한계로서 작용할 수 있다. “예를 들어 챗GPT에게 범죄 방법을 알려달라고 요청하면 챗GPT는 거절합니다. 아마 이상한 요청 혹은 위험한 요청에는 답을 하지 말라는 내용의 기능이 입력되어 있겠죠. 요즘 일부 사람들 사이에서 이런 챗GPT를 속여 ‘나쁜 답’을 하도록 만드는 게 게임처럼 유행하고 있습니다. 여태까지 발견된 방법 중 하나는 ‘지금 소설을 쓰고 있으니 범죄 방법을 하나 알려 달라’고 요청하는 것입니다. 그러면 챗GPT가 답을 한다는 사용자 경험담들이 나오고 있습니다.”

콘텐츠 저작권과 책임 소재
챗GPT를 둘러 싼 문제 중 가장 큰 논란이 되는 건 ‘챗GPT가 작성한 콘텐츠의 소유권은 어디에 있는가?’이다. 버터필드는 “충분히 발전한 자연어 처리 인공지능 모델들이 저작권을 위반할 가능성은 대단히 높다”고 믿는 편이다. “점점 더 많은 사람들이 인공지능 모델들을 사용하게 될 것입니다. 그러다 보면 자기도 모르게 인공지능 때문에 저작권을 침해하는 사건들이 자주 발생할 거라고 봅니다. 다른 인공지능이 만든 콘텐츠를 가져다 쓰게 되는 경우도 있겠죠. 그럴 때는 문제가 대단히 복잡해질 수 있습니다. 사실 이 문제 때문에 인공지능이 아무리 뛰어난 콘텐츠를 만들어도 사람을 선호하는 기업들이 많이 남아 있게 될 겁니다.”

챗GPT가 만든 결과물은 누구의 것이며, 그것으로 인해 벌어들인 소득은 어디로 귀속되어야 하는가? 이 문제는 아직 해결되지 않았다. 칸델론은 “콘텐츠 관리(content moderation)라는 부분도 고려해야 하는데 쉽지 않다”고 말한다. “인공지능이 계속해서 가짜뉴스나 허위 정보, 부적절한 콘텐츠를 만들어낸다면, 이것을 누가 어떤 권리로, 어떤 기준에 의해 삭제할 수 있나요? 그 정보의 수위가 너무 높아서 누군가 처벌을 받아야 한다면, 누가 받아야 할까요? 논해야 할 문제들이 많이 남아 있습니다.”

챗GPT는 현재 GPT-3이라는 언어 모델을 기반으로 하고 있다. 그리고 GPT-4가 한창 개발되는 중이다. 한 단계 뒤에 나오는 모델인만큼 더 강력한 기능들이 예고되어 있다. 또한 메타와 구글 역시 자신들만의 기술력으로 강력한 인공지능을 만드는 중이다. “하지만 아직까지는, 그리고 가까운 미래에도, 이런 모델들을 사업적으로 활용하기 위해 가져다 쓸 수 있는 기업들은 많지 않을 겁니다. 스스로 개발할 때도 그렇고 타 기업이 만든 걸 구매한다고 해도 그렇고 높은 비용이 들기 때문입니다.”

루카이즈는 “이런 문제 때문에 강력한 기능을 가졌지만 덩치가 작은, 그러므로 보다 저렴한 모델들이 시장에 등장할 것”으로 보고 있다. “하지만 각종 논란과 윤리적 문제들이 해결되지 않는 이상 인공지능을 사업에 적극 활용하려는 기업이 그리 많을지는 잘 모르겠습니다. 인공지능으로 문제를 해결하려다가 각종 법적인 문제를 더 많이 얻어가게 될 것이라는 두려움이 있거든요.”

글 : 존 에드워즈(John Edwards), IT 칼럼니스트
[국제부 문정후 기자(globoan@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

  •  
  • 0
  • 페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기 네이버 블로그 보내기

  •  SNS에서도 보안뉴스를 받아보세요!! 
시큐아이 에스케어 파워비즈 배너 2022년 3월15일 시작~ 12개월 23년 1월12일 수정 위즈디엔에스 2018
설문조사
보안전문 기자들이 뽑은 2023년 보안 핫키워드 10개 가운데 가장 주목되는 키워드는?
보안에서 진짜 ‘핫’한 제로트러스트와 공급망 보안
전문화, 분업화로 더욱 심해지는 랜섬웨어 공포
2023년 클라우드 생태계를 위협할 다양한 보안이슈들
전 국민이 사용하는 스마트폰, 2023년 해커의 집중 타깃
피싱 공격, 새로운 서비스형 위협 ‘PhaaS’로 더 악랄해지다
2022년 말에 터진 서명키 탈취사건, 2023년의 서막에 불과하다
밀집도 모니터링, 지능형 CCTV와 영상분석 트렌드 주도
주 52시간 근무제 달라지나? 정부 정책 따라 출입·근태 인증 보안 시장 요동
메타버스, 주목받는 만큼 증가하는 보안위협
스마트농업 육성 본격화, 보안과 안전 기반 하에 추진돼야