Home > 전체기사

1천 명의 IT 전문가들, 인공지능 개발 6개월만 중단하자 제안

  |  입력 : 2023-03-30 20:31
페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기 네이버 블로그 보내기
인공지능의 위험성을 지적하는 공개서한이 발표됐고, 여기에 IT 전문가 1천 명이 서명을 남겼다. 그냥 전문가가 아니라 매우 유명하고 저명한 사람들이라 적잖은 파문을 일으키고 있다.

[보안뉴스 문가용 기자] 1천 명 이상의 테크 분야 전문가들이 인공지능 개발을 잠시 중단해야 한다고 목소리를 높였다. 여기에는 트위터의 CEO인 일론 머스크(Elon Musk), 애플의 공동 창립자인 스티브 워즈니악(Steve Wozniak), 정치인 앤드류 양(Andrew Yang) 등이 포함되어 있다. 인공지능이라는 기술을 지금처럼 무작정 발전시키기만 한다면 인류에 위험을 초래할 수 있다는 게 그 이유다.

[이미지 = utoimage]


“인공지능은 강력한 기술입니다. 너무나 강력합니다. 그래서 그 강력함이 긍정적으로 발현될 것이라는 확신이 있을 때에 발전시켜야 합니다. 인공지능이 초래할 수 있는 위험 요소들을 관리하고 해결할 수 있을 때가 아니라면 더 이상의 발전이 재앙으로 이어질 수 있습니다.” 퓨쳐오브라이프인스티튜트(Future of Life Institute) 사이트에 공개되고 1천 명의 전문가들이 서명한 공개서한의 내용이다. “그러므로 모든 인공지능 실험소들에서 최소 6개월 동안은 GPT-4보다 강력한 인공지능의 훈련을 중단하기를 촉구합니다.”

대형 학습 모델(LLM)이라고 알려진 알고리즘의 학습 과정을 확인하지 않았을 때(그러므로 방치했을 때) 초래될 수 있는 결과는 매우 위험할 수 있다고 공개서한의 강조하고 있다. “인간이 인공지능에 대체되는 건 아주 사소해 보일 정도라고 할 수 있습니다.”

스카이넷의 위험은 실재하는가?
“현대의 인공지능 시스템들은 점점 인간의 일을 인간보다 더 잘하는 방향으로 발전하고 있습니다. 우리는 자문해야 합니다. 우리의 할 일들을 자동화 하는 게 정말 모든 경우에 긍정적인 걸까요? 언젠가 인간보다 더 똑똑해지고 더 일도 잘 처리하고, 종국에는 인간을 대체할지도 모르는 비인견적 두뇌를 개발하는 게 맞는 걸까요? 인류 문명의 존속을 위협할지도 모르는 존재가 성장하도록 놔두는 게 옳은 일일까요?” 공개서한은 묻는다.

인공지능이 발전에 불안감을 가지고 있는 건 인공지능 옹호론자들도 마찬가지다. 오픈AI(OpenAI)의 CEO인 그렉 브록먼(Greg Brockman)은 최근 한 행사에 참석해 회중들에게 “인공지능은 허위 정보 생성 및 전파 능력과 사이버 공격 능력이 너무나 놀라워 솔직히 걱정될 정도”라고 말하기도 했었다. 물론 인공지능의 그런 능력을 보면서 ‘지각을 가지기 시작했다’고 말하기는 어렵긴 하다. 즉 악의를 품고 그러한 악성 행위를 할 수 있는 건 아니라는 것이다.

이번 공개서신도 인공지능을 영원히 묻어버리자고 제안하는 건 아니다. 보다 안전한 기술 향상을 위해 6개월 동안 정책과 가이드라인을 만들어 수립하자는 것이 정확한 의도라고 할 수 있다. 지금은 중구난방이라 이 미지의 기술이 어디로 튈지 모르니 잠깐 멈춰서 테두리부터 그어놓자는 것이라고도 볼 수 있다. “새로운 기능을 앞다투어 내놓기 전에, 그 기능들이 가질 수 있는 위험성부터 먼저 이해하는 게 당연한 수순이라고 생각합니다.”

이번 공개서한에 의심의 눈초리를 보내는 의견들도 존재한다. 오픈AI와 같은 기업이 앞으로 치고나가니 타 테크 분야 CEO들이 위기감에 합세하여 앞선 자들을 견제하고 스스로 시간을 벌려는 것 아니냐는 것이다. 그러면서 인류의 위기니 뭐니 하는 선동적인 문구를 집어 넣어 언론 플레이를 하는 것이라고 회의론자들은 주장한다.

보안 업체 카도시큐리티(Cado Security)의 CTO인 크리스 도먼(Chris Doman)은 “이 공개서한과 서명자들의 의도를 조금은 의심해 봐야 한다”고 말한다. “여기에 참여한 사람들 중 수많은 사람들이 인공지능 경쟁으로부터 직접적인 이득을 거둘 수 있지만 지금은 오픈AI의 등장으로 손해를 보고 있는 사람들입니다. GPT-4보다 강력한 인공지능은 훈련시키지 말자고 서한은 주장하고 있는데, 솔직히 지금 GPT-4보다 강력한 인공지능을 보유하고 훈련시키고 있는 곳은 오픈AI뿐입니다.”

이번 공개서한, 효력을 가질 수나 있을까?
참여자들이 유명하다는 것은 둘째치고 다양한 출신 배경을 가지고 있다는 것과 1천 명이 넘는 전문가들이 서명한 사실이 공개됐다는 것 자체로 이미 이 공개서한은 의미를 갖는다고 앱노멀시큐리티(Abnormal Security)의 댄 쉬블러(Dan Shiebler)는 설명한다. 인공지능 분야의 손꼽히는 전문가인 존 홉필드(John Hopfield), 연합신경망을 발명한 맥스 테그마크(Max Tegmark) 같은 사람들도 이번 서한에 서명했고, 이 사실을 업계 전체가 알게 됐다는 것이다.

“다양한 사람들이 다양한 동기를 가지고 인공지능 발전에 제동을 걸자는 데 동의했습니다. 일론 머스크의 경우 오래 전부터 인공지능은 위험하다는 목소리를 나왔던 인물이라 놀랍지 않은데, 인공지능 기술 개발에 평생을 바쳤다고 하는 사람들조차 여기에 참여했다는 것은 충격적이기까지 합니다.”

그러나 쉬블러는 이 서한이 실질적으로는 아무런 효력을 갖지 못하게 될 것이라는 데 표를 던진다. “이미 물은 엎질러졌습니다. 주워 담는 게 불가능합니다. 기술 개발을 견인하는 힘은 돈과 시간인데, 이미 많은 기업들이 돈과 시간을 어마어마하게 투자했습니다. 이제 회수를 고민해야 하는데, 개발을 중단할 리가 없습니다. 인공지능 기술을 안전하게 사용하도록 해야지 중단하자고 하는 건 무리입니다.”

보안 업체 넷엔리치(Netenrich)의 위협 분석가 존 밤베넥(John Bambenek)은 “안전과 윤리 문제에 누군가 공개적인 목소리를 냈고, 그것에 수많은 사람들이 참여했다는 것 자체가 긍정적인 일”이라는 의견이다. “그래도 누군가는 냉정하게 우리의 상황을 돌아봤다는 뜻이 됩니다. 이런 생각들이 전파되기만 하더라도 성공이라고 봅니다.”

하지만 밤베넥도 이 편지가 가진 효력에 대해서는 회의적이다. “어떤 기업도 이 편지를 읽고 개발을 중단하지는 않을 겁니다. 이미 개발과 프로젝트 완수가 원활치 않은 것에 대하여 조바심을 느끼고 있는 게 기업들입니다. 멈춘다는 건 상상하기 힘든 선택지죠. 다만 우리가 지금 하는 일에 큰 위험이 따를 수 있다는 것을 염두에 두고 있었으면 좋겠습니다.”

3줄 요약
1. 인공지능의 위험성을 알리는 공개서한이 발표되고 1천 명이 서명.
2. 공개서한은 인공지능의 학습을 6개월 동안 중단하자고 제안.
3. 효과는 없겠으나 위험성에 대하여 알렸다는 것에 의의를 둬야 할 듯.

[국제부 문가용 기자(globoan@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

  •  
  • 0
  • 페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기 네이버 블로그 보내기

장지성 2023.03.31 10:36

아무 기업도 참가하지 않을 것 같고, 서명한 사람들 중에서도 더욱 열심히 일 할 것 같은데...위험 할거라 생각되는건 빠르게 법안을 만드는 방법 밖에는 없겠네요.


  •  SNS에서도 보안뉴스를 받아보세요!! 
아스트론시큐리티 파워비즈 2023년2월23일 시작 위즈디엔에스 2018
설문조사
오픈AI가 개발한 인공지능 챗봇 챗GPT가 GPT4 버전까지 나오면서 디지털 혁신의 촉매재 역할을 하고 있습니다. 보안 분야에서도 챗GPT로 인해 보안위협이 가속화될 것이라는 전망과 함께 보안업무에 효과적으로 활용된다면 보안대응 역량 향상에도 크게 기여할 것이라는 의견도 제기됩니다. 이에 대한 여러분들의 생각은 어떠신가요?
챗GPT 악용으로 인해 보안위협이 더욱 고도화되고 증가할 것
챗GPT를 악용하는데 한계가 있어 보안위협이 소폭 늘어나는 추세에 그칠 것
챗GPT 활용에 따라 보안대응 업무에 적지 않은 도움이 될 것
챗GPT의 적극적인 도입 및 적용 통해 보안대응 역량이 획기적으로 향상될 것
보안위협 또는 보안대응과 관련해서는 큰 영향이 없을 것
기타(댓글로)