보안뉴스 창간 17주년을 축하합니다!!

Home > 전체기사 > 인터뷰

[이슈진단] 오픈AI에서 있었던 해킹 사고, 1년 넘게 숨겨졌다?

입력 : 2024-07-09 03:19
페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기 네이버 블로그 보내기
사고요? 있었어요. 공개요? 국가 보안 사건도 아닌데 무슨...이라는 이 분야 1위 기업

[보안뉴스 문가용 기자] 오픈AI가 작년 초에 해킹 당했다는 고발이 나왔다. 회사 측에서는 쉬쉬하며 감추던 것을 뉴욕타임즈가 취재해 보도했다. 해커는 사내 메신저 프로그램을 침해하여 직원들 간 대화 내용을 수집했을 뿐 아니라, 오픈AI가 가진 인공지능 관련 기술들까지도 훔쳐간 것으로 보인다. 이 사건으로 인공지능 생태계의 불안전성은 물론 오픈AI의 해이함까지 드러났다.

[이미지 = gettyimagesbank]


드러난 문제 1
뉴욕타임즈가 최초로 보도한 내용에 따르면 해커는 당시 인공지능을 훈련시키는 데 사용되는 정보들에까지 손을 뻗치지는 못한 것으로 보인다. 즉 대단히 민감할 수 있는 정보들 자체는 현재까지 무사한 것으로 파악된다는 뜻이다. 이것이 오픈AI가 해당 사건을 세상에 공개하지 않은 이유가 되는데, 정확히는 “국가 안보를 위협할 사건이 아닌 것으로 파악되었기 때문에” 문제를 감췄다고 한다. 오픈AI 측은 2023년 4월 임원진들 사이에서만 침해 사고가 있었다고 알린 것으로 전해진다.

사건이 발생한 이후 당시 오픈AI의 기술 프로그램 관리자였던 레오폴드 아셴브레너(Leopold Aschenbrenner)는 미래 인공지능 기술로 인해 피해가 발생하는 것을 막아야 한다는 생각에 임원진들에게 제안서를 발송했다. 뉴욕타임즈에 의하면 “회사가 중국 정부와 그 외 여러 해외 적대 세력들의 공격에 대비해 충분한 조치를 취하지 않고 있다”는 비판의 내용도 함께 있었다고 한다.

오픈AI의 대표 인공지능 프로그램인 챗GPT의 경우 점점 더 활용 가치가 늘어나고 있으며, 따라서 사용자들도 빠른 속도로 증가하는 중에 있다. 각종 연구와 실험에도 동원되고 있기도 하다. 그렇기 때문에 사용자들이 챗GPT에 입력하는 데이터들 중 민감한 것이 상당한 비중을 차지하고 있으며, 비중이 아니라 절대적 분량에 있어서도 어마어마한 양일 것으로 추정된다. 하지만 오픈AI는 사용자가 입력한 데이터가 어떻게 처리되는지 밝히지 않고 있다, 또 하나, 챗GPT를 훈련시키는 데 사용되는 데이터를 어디서 어떻게 수급하는지 역시 명확히 설명하지 않는다. 이건 비단 오픈AI만의 문제는 아니고, 모든 생성형 인공지능 개발사들이 비슷한 태도를 취하고 있다.

그렇기 때문에 인공지능 개발사에서 데이터 침해 사고가 일어났다고 하면 제일 먼저 이 두 가지 유형의 데이터가 자동으로 염려될 수밖에 없다. 인공지능을 훈련시키느라 사용한 데이터와, 인공지능을 사용할 때 입력한 데이터가 바로 그것이다. 오픈AI의 해명인 “국가 안보와 직결되는 사안이 아니다”라는 건, 그렇기에 이 두 가지 염려에 대한 답이 되기에 부족하다. 민감한 데이터를 잔뜩 보유하고 있는 것으로 추정되는 회사가 데이터 침해 사고에 대해 ‘국가 안보 문제가 아니니 공개할 필요 없다’는 태도를 취하고 1년 넘게 이를 비공개로 감춰두었다는 것 자체가 첫 번째 문제다.

드러난 문제 2
이번 침해 사고로 인해 드러난 또 다른 오픈AI의 문제는 위에서 언급한 아셴브레너라는 인물과 관련이 있다. 그는 회사가 보안에 대해 더 신경을 써야 한다는 취지의 글을 임원진들에게 전달하며 회사가 할 수 있는 일들을 제안서 형식으로 같이 첨부했다고 한다. 하지만 그의 제안은 하나도 실현되지 않았을 뿐더러 아셴브레너는 올해 초 해고되기까지 했다. 아셴브레너는 회사의 보안에 문제가 있다고 지적한 것 때문이라고 주장하고 있다. 하지만 오픈AI 측 그의 제안과 해고는 별개로 다뤄졌다는 입장이다.

오픈AI의 대변인은 매체와의 인터뷰를 통해 “아셴브레너의 헌신적 태도에는 감사하고 있지만, 그가 오픈AI의 보안 상태에 대해 가지고 있는 견해에 동의하기는 힘들다”며 “해당 해킹 사건으로 불거진 문제들은 이미 여러 방면의 노력으로 해결한 상황”임을 주장했다.

그렇다면 아셴브레너는 왜 해고가 된 걸까? 공식적인 이유는 ‘정보 유출’이다. 이에 대해 아셴브레너는 지난 6월 4일 한 팟캐스트에서 이렇게 말한 바 있다. “오픈AI는 내부적으로 제가 정보를 유출했다고 하더군요. 그래서 저와 동료들은 어떤 정보를 어떻게 유출한 것인지 설명하라고 요구했습니다. 회사로부터 돌아온 답변은, 제가 지난해 인공지능의 안전과 보안을 강화하기 위해 브레인스토밍을 진행했고, 그 과정을 문서화 해 외부 전문가 세 명에게 자문을 구한 것이 정보 유출이였다는 것이었습니다. 민감할 수 있는 내용들을 전부 줄이고 삭제한 채로 문서를 보냈는데도 말이죠.”

아직 양측의 주장은 팽팽하다. 여기서 드러난 문제는 오픈AI가 내부적으로 많이 혼란스럽다는 것이다. 보안 외신 시큐리티위크는 “오픈AI가 화목한 분위기로 운영되는 건 아닌 게 분명해 보인다”며 “많은 사람들이 인공지능이라는 강력한 신기술에 대하여 여러 가지 철학과 생각을 가지고 있고, 그것이 충돌하는 모습이 드러나고 있다”고 썼다. 이는 오픈AI에만 해당되는 문제라고 할 수 없다. 챗GPT라는 제품의 문제인 것만도 아니다. 현지 우리는 인공지능이라는 기술 자체를 어떤 식으로 바라봐야 하는가에 대해 의견을 일치시키지 못하고 있다.

지금 IT 계열이나 일반 사용자, 정책 입안자들이 대략적으로 동의하고 있는 건 ‘인공지능 알고리즘에 안전장치를 설치해야 한다’는 것 뿐이다. 안전장치를 어느 수위로, 어떻게 삽입해야 하는지에 대해서는 저마다 다른 의견을 가지고 있다. 오픈AI는 인공지능 분야에서 1, 2위를 다투는 기업이고, 많은 주목을 받고 있기에, 이런 사회적 논의가 내부에서부터 가시적으로 드러나는 것일 수 있다. 하지만 그런 의견 불일치 상황을 유연하게 대처하고 있다고 하기는 힘들다. 지난 해 말 벌어진 사건이 상기되는 이유다.

상기되는 것들
오픈AI는 작년 11월 온갖 매체의 헤드라인을 장식한 바 있다. 갑자기 CEO인 샘 올트만이 해고됐다는 소식이 나왔기 때문이다. 그를 해고하는 데 동의했던 임원진들은 “올트만이 솔직하게 소통하지 않고 있어 더 이상 그를 신뢰할 수 없기 때문”이라고 밝혔었다. 하지만 회사 전체가 들끓고, 거의 모든 직원들이 “올트만을 복귀시키라”고 요구하면서 상황은 역전됐다. 1주일 만에 올트만은 복직했고, 임원진들은 물갈이가 됐다.

그러면서 올트만은 인공지능 분야를 대표하는 얼굴로 등극했는데, 뒤늦게 그에 대한 여러 가지 자료들과 증언들이 보충되기 시작했다. 그가 임원진들과 불화를 겪었던 건 챗GPT를 개발하고 발표하고 안전장치를 마련하는 등 대단히 중요한 문제에 있어서 정확한 정보를 제공하지 않았다는 내용이었다. 쉽게 말해 자신이 원하는 바를 밀어붙이기 위해 거짓말을 하기도 하고, 한참 늦게 정보를 제공했다는 것이었다. 이런 일들이 쌓이고 쌓여 신뢰할 수 없는 상황에까지 이르렀다고 한다. 그렇다 하더라도 해고가 정당화 된 것은 아니었기에 그의 CEO 직책은 요지부동이었다.

그가 거짓말로 임원진들을 속여왔던 건 인공지능에 대한 철학이 달랐기 때문인 것으로 알려져 있다. 인공지능은 위험할 수 있으니 안전하게 발전시켜야 한다는 게 오픈AI 당시 임원진들 대부분의 생각이었고, 올트만은 인공지능을 빠르게 개발시키고 상품화 해서 시장을 선점해야 한다는 생각에 더 집중하는 편이었다는 것이다. 이는 전 임원진이었던 헬렌 토너(Helen Toner)의 증언으로도 확인된 내용이다. 물론 올트만도 스스로는 인공지능의 보안에 대해 깊이 고민하고 있다고 말하긴 한다.

남겨진 찝찝함
‘오픈AI가 해킹 사고를 당했다’는 자극적인 내용 뒤에는 여러 가지 찝찝함이 해결되지 않은 채 남아 있다. 인공지능 회사들이 그 강력한 모델을 훈련시키기 위해 데이터를 어디서 수급하는지 아직도 정확히 공개되지 않는다는 것이 첫 번째다. 인공지능 모델들을 사용하기 위해 사용자들이 입력하는 데이터가 정확히 어떻게 처리되는지 아무도 모른다는 것이 두 번째다. 인공지능 개발사들은 한 마음으로 이 두 가지 문제에 대한 답변을 흐지부지 하고 있다.

그렇기 때문에 인공지능은 아직 미완성된 기술이긴 하지만 벌써부터 시한폭탄과 같은 존재다. 전면에 드러나는 인공지능 서비스 뒤에 방대한 데이터가 있는 게 분명한데, 그것이 어떤 식으로 관리되는지 아무도 모르고, 아무도 감독하지 않기 때문이다. 그러니 오픈AI와 같은 기업이 해킹 사고의 심각성을 자의적으로 판단해 1년 넘게 덮어둘 수 있었던 것이기도 하다. 이것이 세 번째 찝찝함이다.

이 세 번째 찝찝함을 좀 더 쉽게 표현하자면 ‘사기업들이 너무 많은 권한을 가지고 있다’는 것이다. 인공지능 알고리즘이 가지고 있어야 할 안전장치들에 대한 규정이나 표준이 없어서 지금은 개발사들이 독자적으로 만든 것들을 믿고 따를 수밖에 없는 게 현재 인공지능 사용자들의 상황이다. 그들이 데이터가 안전하다고 하면, 구체적인 설명이 없더라도 믿는 수밖에 없다. 그들이 국가 안보에 위협이 되는 사건이 아니었다고 주장하면, 구체적인 증거가 없더라도 믿는 수밖에 없다. 그들이 자사 알고리즘은 충분히 안전하다고 하면 사건이 터질 때까지(아니, 터지더라도) 믿는 수밖에 없다.

그 사기업들은 항상 사용자나 고객의 안전보다 이윤 남기기를 1순위로 여기는 집단이었다. 여기서 말하는 사기업들이란 오픈AI의 뒤에 있는 MS, 앤스로픽(Anthropic)이라는 거대 인공지능 개발사의 배후에 있는 구글, 라마(Llama) 등으로 두각을 나타내고 있는 메타 등 빅테크들이다(애플은 이름값에 비해 인공지능 분야에서의 활동이 미미하다). 이들은 다년간 사용자 개인정보를 추적하고 수집해 표적 광고 활동을 함으로써 막대한 수익을 거둔 전적을 가지고 있으며, 가짜뉴스와 선거 시즌 여론 조작이 사회적 문제가 되기 전까지 물밑에서 그런 정치적 활동을 막지 않고, 심지어 부추기기까지 했다는 혐의를 다 풀지 못하고 있기까지 하다.

무엇이나 첫 단추를 잘 끼워야 하는데, 인공지능이라는 기술의 첫 단추를 잡은 손은 너무 기업들 뿐이다.
[국제부 문가용 기자(globoan@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

  •  
  • 0
  • 페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기 네이버 블로그 보내기

  •  SNS에서도 보안뉴스를 받아보세요!! 
 하이젠 파워비즈 23년 11월 16일~2024년 11월 15일까지 아스트론시큐리티 파워비즈 2023년2월23일 시작 위즈디엔에스 2018
설문조사
3월 15일부터 시행되고 있는 개정 개인정보보호법과 관련해 가장 까다롭고 이행하기 어려운 조항은 무엇인가요?
인공지능(AI) 등 자동화된 결정에 대한 정보주체 권리 구체화
접근권한 관리 등 개인정보 안전성 확보조치 강화 및 고유식별정보 관리실태 정기조사
영향평가 요약본 공개제도 도입 등 개인정보 영향평가제도
영상정보처리기기 및 안전조치 기준
개인정보 보호책임자의 전문성 강화 위한 전문CPO 지정
국외 수집·이전 개인정보 처리방침 공개 등 개인정보 처리방침 평가제도
손해배상책임 의무대상자 변경 및 확대
공공기관 개인정보 보호수준 평가 확대
기타(댓글로)