Home > 전체기사

[주말판] 진실을 추구하는 안전한 인공지능, 있을 수 있을까?

  |  입력 : 2023-05-06 11:18
페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기 네이버 블로그 보내기
최대한으로 진실을 추구하는 인공지능이라는 것을 만들겠다고 일론 머스크가 장담했다. 하지만 그런 기술이 가능한 걸까? 아니, 그런 인공지능이 나온다면 우리는 인공지능으로부터의 위협을 차단할 수 있게 되는 걸까?

[보안뉴스 문정후 기자] 인공지능에 내재되어 있을 수 있는 ‘편향성’에 대한 우려가 점점 커지고 있다. 그런 가운데 IT 업계에서 이러나 저러나 영향력이 큰 인물인 일론 머스크(Elon Musk)가 “최대한의 진실을 추구하는 인공지능”을 만들어 챗GPT(ChatGPT)와 바드(Bard)를 경쟁에서 따돌리겠다고 장담하며 ‘윤리적 인공지능’ 혹은 ‘착한 인공지능’에 대한 관심에 새로운 불씨가 지펴졌다.

[이미지 = utoimage]


머스크는 최근 한 매체와의 인터뷰에서 “챗GPT가 거짓말을 하고, 정치적 올바름을 무조건적으로 추구하도록 훈련되는 현상을 매우 우려하고 있다”고 밝혔다. 그러면서 “‘트루스GPT(TruthGPT)’라는 선택지가 있어야 인류는 안전할 것”이라고 덧붙였다. 진실을 추구하는 인공지능이 아닌 생성형 인공지능은 위험할 수 있다는 게 그의 진단이었다.

머스크는 그가 말하는 트루스GPT라는 게 어느 시점에 시장에 나타날 지 정확히 예고하지는 않았다. 하지만 그는 이미 X.AI라는 새로운 인공지능 회사를 설립했고, 챗GPT를 만든 오픈AI(OpenAI)와 구글로부터 엔지니어들을 공격적으로 채용하는 중이다.

그의 이러한 움직임이 어떤 결실을 맺을지, 그의 주장이 진실과 얼마나 밀착되어 있는지는 아직 아무도 알 수 없다. 다만 인공지능의 편향성이라는 것이 존재한다는 것과, 그것이 사이버 보안과 IT 업계에 큰 문제가 되고 있다는 것은 확실하다.

이미 익숙한 이야기가 수면 위로 올라온 것일 뿐
머스크가 집중 조명을 받고 있고, 대부분의 경우 거센 비판의 대상이 되어서 그렇지, 인공지능을 안전하게 발전시켜야 한다는 주장 자체는 이 분야의 많은 전문가들이 공감하고 있다. 지난 달 수천 명에 달하는 전문가들이 오픈AI 등 인공지능 기업에 공개 서한을 보내 “사회적 안전 장치가 마련될 때까지 6개월 동안 인공지능의 개발을 중단하자”고 촉구했었다.

국제프라이버시전문가협회(IAPP)의 데이터 전략가이자 과학자인 수잔나 힉스(Suzannah Hicks)는 “인공지능에 존재하는 편향성의 근본적인 문제는 인간의 결정 프로세스에서부터 출발한다”고 주장한다. “모든 인공지능 모델들은 방대한 데이터를 가지고 학습을 하되, 특정한 방법으로 대응하도록 설계되지 않습니다. 그러므로 설계자가 편향성을 일부러든 실수로 넣는 것은 아닙니다. 인공지능이 학습하는 그 수많은 데이터들에 문제가 있으니 편향성이 생겨나는 것이죠.”

힉스는 “오랜 시간 인간이 생성하고 처리하고 편집한 데이터에 아무런 편향성이 없다면 좋겠지만 그렇지 않다는 걸 우리는 잘 알고 있다”고 말한다. “알고리즘에 조금이라도 편향성이 내재된 데이터가 섞여 들어가면 그 결과물에도 편향성이 있을 수밖에 없습니다. 그것만이 아닙니다. 학습에 필요한 데이터 중 일부를 알고리즘이 학습하지 않아도 편향성이 발생합니다. 데이터 과학자가 의도적이든 성향에 의해서든 아니면 단순 실수로 뭔가를 빼먹어도 인공지능이 편향적인 결과를 내게 된다는 겁니다.”

IT 기업 콜파이어(Coalfire)의 부회장 앤드류 배럿(Andrew Barratt)은 자신의 경험을 공유한다. “텍스트를 이미지로 변환시키는 생성형 인공지능 모델을 실험할 때였습니다. 한 번은 햇빛을 아주 행복하게 누리는 남성의 그림을 사진처럼 정밀하게 그려달라는 요청을 입력했습니다. 여러 번 반복했지요. 하지만 그 인공지능 모델은 매번 백인 남성만 그렸습니다. 제 요청문에는 남성의 인종에 관한 내용이 조금도 없었는데도요.”

만약 일반 대중들이 선호하는 ‘편향성’이 있다면, 인공지능 그림 서비스로 돈을 버는 운영자가 일부러 편향성을 내재시키는 것 역시 가능하다고 보안 업체 짐페리움(Zimperium)의 부회장 크리슈나 비시누보틀라(Krishna Vishnubhotla)는 추가로 지적한다.

“이윤이라는 개념이 개입하는 순간 인공지능은 아무런 편향성 없이 순수하게 발전할 수만은 없습니다. 운영자들은 어떻게 해서든 이윤을 극대화하기 때문입니다. 그러면서 인공지능이라는 기술의 발전이 시장 전체에 미치는 영향은 부차적인 문제로 변하고, 돈을 제일 많이 벌게 해 주는 요인들이 연구되기 시작합니다. 누구나 의도적으로 편향성을 부여할 수 있다는 것이 ‘인공지능 윤리’ 쪽에서 가장 우려하는 부분이기도 합니다.”

편향성과 보안
머스크 등의 전문가들이 편향성과 보안의 관계에 대해 특별히 언급하지는 않았다. 하지만 보안 업계에서는 꽤 긴 시간 동안 이 이야기가 나오는 중이다. IBM과 MS에서 임원 자격으로 근무한 경험을 가지고 있는 IT 전문가 아티 보카(Aarti Borkar)는 이미 2019년 한 칼럼을 통해 “인공지능 기술을 가진 보안 장치들이 점점 늘어가는 상황에서 인공지능의 편향성은 보안 위협이 될 수밖에 없다”고 썼다.

“인공지능 모델이 보안과 관련하여 잘못된 상정을 하거나 한쪽으로 치우친 결정을 하게끔 훈련이 되어 있다면 그 모델은 보안 도구가 아니라 위협이 될 가능성이 더 높습니다. 정상적인 네트워크 트래픽이나 악성 네트워크 트래픽이나, 보안과 상관이 없는 요인들을 기반으로 판단한다면 어떻게 될까요? 악성 트래픽을 정상으로 판단할 가능성이 높습니다. 반대로 지나치게 보안 쪽으로 휩쓸린다면요? 사업 운영에 꼭 필요한 것들까지 차단하기 시작할 겁니다.” 당시 칼럼을 통해 그가 쓴 내용이다.

그리고 4년이 지난 오늘, 보안 업계에서는 챗GPT를 보안에 활용하려는 움직임 활발하게 일고 있다. 편향성이 은밀하게 내재되기 시작한다면 우리는 보카가 말한 요인들과 그 외의 요인들로 인해 더 큰 위협을 받게 될 것이다. 이는 각 기업만이 아니라 국가들에도 적잖은 문제로 발전할 가능성이 높다. 이를 잘 이해하고 있는 사이버 범죄자들이라면, 우리가 방어에 사용하는 인공지능을 오염시키기 위해 여러 가지 수단을 동원할 것이 분명하다.

인공지능에서 편향성 제거하기
데이터 편향성을 다루기 위해서 제일 먼저 해야 할 것은 데이터 편향성이 가지고 있는 잠재력(잠재적 위험성)을 이해하는 것이라고 힉스는 강조한다. “인공지능 모델에 어떤 데이터 변수들이 들어 있으며, 이것이 어떤 식으로 작용하는지를 파악해야 한다는 뜻입니다. 하지만 인공지능 모델들 대다수가 ‘블랙박스’라고 불릴 정도로 그 안에서 어떤 일이 일어나는지 알기가 힘든 게 현실입니다. 데이터 과학자나 인공지능 전문가, 심지어 그러한 모델들의 개발자조차 ‘이 알고리즘이 어떤 과정으로 이러한 결론에 도달했는가?’를 완전하 이해하지 못하지요.”

힉스는 “수많은 블랙박스 유형의 인공지능 알고리즘들이 대부분의 경우 정확한 결과를 내기 때문에 사람들은 신뢰하고 있으며, 그 신뢰가 얼마나 대단한지 ‘블랙박스’라는 말 자체를 불편해하는 사람들도 적잖이 존재한다”고 지적한다. “하지만 블랙박스를 블랙박스라고 인정하는 것이 중요합니다. 어떤 결과를 인공지능이 내든, 그 결과가 어떻게 나왔는지 확실히 이해하고 있는 사람이 아무도 없다는 걸 늘 기억하고 있어야 합니다.”

작년 10월 세계경제포럼(WEF) 블로그에는 글이 하나 올라왔다. OSDS(오픈소스 데이터 과학)라는 것이 인공지능의 편향성을 다루는 방법이 될 수 있다는 글이었다. OSDS는 관계자들이 투명한 방법으로 협업하여 데이터를 다루고 처리하고 모으는 것을 이야기 한다. “오픈소스 소프트웨어가 출현함으로써 소프트웨어 생태계 자체가 크게 변했습니다. 인공지능 모델과 데이터 역시 투명하게 공개해 수많은 사람들이 참여할 수 있게 한다면 편향성을 보다 빠르게 발견하여 삭제할 수 있을 겁니다.”

인공지능 문제를 다루고자 하는 유럽연합의 방식
인공지능이 내포하고 있는 문제를 해결하기 위해 유럽연합은 ‘인공지능법안(Artificial Intelligence Act)’이라는 것을 만들기도 했다. 인공지능이 개인의 건강, 안전, 기본권에 미치는 위험에 따라 인공지능과 인공지능 도구들을 분류하자는 제안이 여기에 포함되어 있다. 실시간 생체 ID 시스템처럼 위험 수위가 너무나 높은 경우라면 기술 개발 자체를 금지시킨다는 것이다. 비디오 게임용이나 스팸 차단 인공지능 기술처럼 위험성이 낮다고 판단되면 기본적인 감시와 감독만을 적용한다고 한다. 자율 주행 인공지능처럼 위험도도 높지만 다가오는 미래의 기술이라고 분류될 경우라면 철저하고 엄격한 실험 과정을 거쳐야만 한다.

인공지능 문제를 다루고자 하는 NIST의 방식
미국의 NIST는 인공지능의 편향성의 단초가 될 만한 것들을 찾아나설 때 광범위한 영역을 분석할 것을 권장한다. 즉 인공지능 알고리즘이나, 그 알고리즘을 훈련시키는 데이터 외에 사회 및 인간으로부터 오는 요소들까지도 같이 살펴야 한다는 것이다. 최근 발행한 문건을 통해 NIST는 다음과 같은 방향성을 제안했다.

“편향성이 문제가 되는 건 우리 사회에서 새롭게 나타나는 현상도 아니고, 인공지능이라는 분야만의 고유한 일도 아닙니다. 또한 인공지능의 편향성 문제를 0으로 만드는 것도 불가능합니다. 그러므로 편향성으로 인한 위험성을 식별하고 이해하고 측정하고 관리할 수 있는 표준과 정책을 만드는 것이 더 생산적인 일이 될 것입니다.”

글 : 자이 비자얀(Jai Vijayan), IT 칼럼니스트
[국제부 문정후 기자(globoan@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

  •  
  • 0
  • 페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기 네이버 블로그 보내기

  •  SNS에서도 보안뉴스를 받아보세요!! 
아스트론시큐리티 파워비즈 2023년2월23일 시작 위즈디엔에스 2018
설문조사
오픈AI가 개발한 인공지능 챗봇 챗GPT가 GPT4 버전까지 나오면서 디지털 혁신의 촉매재 역할을 하고 있습니다. 보안 분야에서도 챗GPT로 인해 보안위협이 가속화될 것이라는 전망과 함께 보안업무에 효과적으로 활용된다면 보안대응 역량 향상에도 크게 기여할 것이라는 의견도 제기됩니다. 이에 대한 여러분들의 생각은 어떠신가요?
챗GPT 악용으로 인해 보안위협이 더욱 고도화되고 증가할 것
챗GPT를 악용하는데 한계가 있어 보안위협이 소폭 늘어나는 추세에 그칠 것
챗GPT 활용에 따라 보안대응 업무에 적지 않은 도움이 될 것
챗GPT의 적극적인 도입 및 적용 통해 보안대응 역량이 획기적으로 향상될 것
보안위협 또는 보안대응과 관련해서는 큰 영향이 없을 것
기타(댓글로)