Home > 전체기사
아마존·MS·인텔, 인류의 생명을 위험에 빠트릴 수 있다?
  |  입력 : 2019-08-22 15:34
페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기
인공지능을 무기에 접목하려는 시도 계속 이어져...개발 자체는 막기 힘들 것
발을 빼는 기업도 있고, 빈 자리에 찾아 들어가려는 기업도 있고...세계적 합의 필요


[보안뉴스 문가용 기자] 아마존과 마이크로소프트, 인텔이 인류를 위험 속으로 몰아넣고 있다는 내용의 보고서가 발표됐다. 제한 없이 인공지능 기술을 향상시키고 있기 때문이라고 한다. 해당 보고서는 네덜란드의 NGO인 팍스(Pax)가 발표한 것으로, “이 세 회사 때문에 인류는 지능을 가진 무기들의 위협에 노출될 것”이라고 내다봤다.

[이미지 = iclickart]


팍스는 다음 세 가지 기준을 바탕으로 50개의 회사를 선정해 순위를 매겼다.
1) 생명을 앗아갈 잠재력이 있는 인공지능 기술을 개발 중인가?
2) 인공지능과 관련된 군사 프로젝트에 참여 중인가?
3) 위 두 가지에 참여하지 않고 있다면, 앞으로도 그럴 계획인가?

이 보고서의 1저자인 프랭크 슬리퍼(Frank Slijper)는 “마이크로소프트나 아마존과 같은 기업들은 현재 살인을 스스로 결정할 수 있는 지능을 가진 무기들을 개발하는 데 일조하고 있다는 걸 부정하지 않고 있다”고 썼다. 슬리퍼는 인공지능 기술이 첨단 무기와 만날 때의 상황을 우려하는 차원에서 이 보고서를 쓴 것이다. 무기가 스스로 생각해 결정을 할 수 있게 된다는 건, 인간의 개입 없이 살인을 저지를 수 있다는 뜻이 된다. 이는 꽤나 오랜 시간 논란이 되어온 주제다.

구글은 지난 해 무기와 관련된 인공지능 기술을 개발하거나 연구하지 않겠다는 내용의 원칙을 수립해 공개한 바 있다. 이 때문인지 이번 팍스의 연구 보고서에서는 가장 바람직한 회사 중 하나로 꼽혔다. 인공지능 애완견 로봇으로 유명한 일본의 소프트뱅크(Softbank)도 구글처럼 바람직한 회사에 이름을 올렸다. 참고로 해당 연구는 12개국에 걸쳐서 진행됐다고 한다.

‘어느 정도 우려가 된다’는 수준의 평가를 받은 기업은 총 22개였다. ‘많이 우려가 된다’ 항목에 들어간 기업은 21개였는데, 이 중에는 아마존과 마이크로소프트가 있었다. 그 외에도 CIA와 어느 정도 커넥션이 있는 기업인 팔란티어(Palantir)도 위험한 그룹으로 묶였다. 팔란티어는 군인들이 실시간으로 전투 지형을 분석할 수 있게 해주는 인공지능 기술을 개발 중인 회사다.

“자기 스스로 살인을 결정할 수 있는 무기는 대량 학살의 위험성을 소지하고 있습니다. 이런 기술을 보유한 소수의 사람 혹은 개인이 수많은 사람들의 목숨을 쥐게 된다는 소리입니다.” 캘리포니아 대학의 스튜어트 러셀(Stuart Russell) 컴퓨터 과학과 교수는 주장한다. “하지만 기업들의 경쟁 논리에 의해 이러한 기술은 반드시 개발될 겁니다. 기술 개발 자체를 막을 수는 없습니다. 다만 그런 기술이 보편화되지 않도록 하는 장치를 마련해야 합니다.”

실제로 미국 정부는 이미 이러한 무기 개발을 위한 프로젝트를 실행 중에 있거나 적어도 준비 중에 있다. 작년 미국 국방부는 프로젝트 메이븐(Project Maven)이라는 걸 실시해 드론 영상을 머신 러닝으로 분석해 사람과 물체를 구분하는 기술을 개발하려고 했다. 이 때 구글이 참여하지 않기로 결정하면서 여론의 관심이 들끓었던 바 있다.

그 외에도 구글은 공동엔터프라이즈방어시설(Joint Enterprise Defense Infrastructure, JEDI)이라는 클라우드 사업에서도 빠져나왔다. 그 자리를 아마존과 마이크로소프트가 탐내고 있는 상태다. 팍스의 보고서에 따르면 마이크로소프트의 근무자들은 미군과 회사가 계약을 맺어 군인들을 위한 증강현실 헤드셋이나 홀로렌즈 등 살상력을 높이는 무기를 개발하는 것에 반대해왔다고 한다.

러셀에 따르면 “지금 무기로 간주되기만 하면 뭐든지 인공지능을 얹어보려고 하는 시도가 이뤄지고 있다”고 한다. “탱크든, 전투기든, 잠수함이든 구분 없이 말입니다.” 실제로 이스라엘은 스스로 공격할 지역을 선택할 수 있는 드론이 출시된 바 있다. 이 드론의 이름은 하피(Harpy)였다.

“드론 얘기가 나와서 하는 말인데, 보고서에는 언급도 되지 않은 새로운 인공지능 무기들이 존재합니다. 살상형 미니 드론 같은 것들 말이죠. 미니 드론 1백만 개를 배 컨테이너에 실어서 특정 지역에 보내면 마치 핵폭탄이 떨어진 것과 같은 효과가 발생할 겁니다. 게다가 사람만 골라 죽이겠죠. 건물이나 시설 등은 그대로 놔두고요.” 러셀의 설명이다. “이런 기술로 하룻밤 안에 인종 말살도 시킬 수 있습니다. 특별 성별에 대한 학살도 할 수 있고요. 정치적으로 반대편에 있는 인물들도 찾아서 죽일 수 있죠.”

지난 4월 유럽연합은 인공지능 개발을 위한 윤리적 가이드라인을 발표했다. 그러면서 인간의 감독과 환경 및 사회적 발전에 초점을 맞춘 개발이라는 개념을 강조했다. 본지도 얼마 전 주말판 기사를 통해 인공지능의 윤리 프레임워크에 대한 내용을 정리해 보도(https://www.boannews.com/media/view.asp?idx=82156&skind=D)하기도 했다.

러셀은 생명에 위협을 줄 수 있는 인공지능 기술은 전 세계가 공통으로 금지시켜야 한다는 입장이다. “살인을 스스로 결정하고 실행할 수 있는 기계는 아무도 개발하지 말고, 구축하지도 말며, 활용하지도 말아야 합니다. 그 누구도, 그 어떤 나라라도 다 마찬가지입니다.”

3줄 요약
1. 인공지능 개발이 무기와 접목되면서 인류의 생명이 위협을 받는다는 보고서 나옴.
2. 위험한 기업과 안전한 회사를 나눴을 때 구글은 Good, MS와 아마존은 Bad.
3. 전 세계적으로 살상력 가진 인공지능 기술의 개발을 금지시키는 데 합의하는 게 최선이라는 주장도 있음.

[국제부 문가용 기자(globoan@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

  •  
  • 0
  • 페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기


  •  SNS에서도 보안뉴스를 받아보세요!! 
넷앤드 파워비즈 진행 2020년1월8일 시작~2021년 1월8일까지위즈디엔에스 2018파워비즈배너 시작 11월6일 20181105-20200131
설문조사
코로나19 사태로 인해 화상회의, 원격교육 등을 위한 협업 솔루션이 부상하고 있습니다. 현재 귀사에서 사용하고 있는 협업 솔루션은 무엇인가요?
마이크로소프트의 팀즈(Teams)
시스코시스템즈의 웹엑스(Webex)
구글의 행아웃 미트(Meet)
줌인터내셔녈의 줌(Zoom)
슬랙의 슬랙(Slack)
NHN의 두레이(Dooray)
이스트소프트의 팀업(TeamUP)
토스랩의 잔디(JANDI)
기타(댓글로)