Home > 전체기사 > 인터뷰

[한국정보보호학회 칼럼] 딥러닝과 보안

  |  입력 : 2022-11-18 14:03
페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기 네이버 블로그 보내기
개발단계에서 보안 문제 고려하지 않은 ‘딥러닝’, 시간 지날수록 악용사례 늘어나
해결책 마련 요원한 딥러닝 보안... 국가 단위의 투자와 지원 필요해


[보안뉴스= 권태경 한국정보보호학회 감사] 딥러닝(Deep Learning)이란 용어가 우리의 일상 속에 들어 온지가 어언간 10년의 세월을 가늠하고 있다. 지난 2013년 미국 매사추세츠공대(MIT)의 과학전문지 ‘MIT 테크놀로지 리뷰’가 스마트워치, 3D 프린터, 고효율 태양전지 등과 함께 ‘10대 혁신기술’로 딥러닝을 선정하면서 세간에 큰 관심을 불러 일으켰고, 2016년에는 구글 딥마인드의 알파고와 이세돌 9단의 바둑 대국 장면이 전 세계에 전파되면서 딥러닝은 이제 일반적인 인공지능의 수식어로 사용되고 있을 정도이다.

[이미지=utoimage]


사실 딥러닝은 일련의 다계층 구조를 이용하는 기계학습 방식의 한 종류를 일컫는 말로서 이미 예전에 등장한 인공신경망(Artificial Neural Network) 구조를 기반으로 오랜 기간 발전을 거듭해오고 있는 분야다. 무려 1943년으로 거슬러 올라가 맥컬록과 피츠가 처음 소개했던 이 개념은 당초 인공 뉴런의 깊은 연결을 통해 인간의 뇌를 모델링할 수 있을 것이라는 기대에서 시작해, 1958년 로젠블랫이 고안한 퍼셉트론과 이후에 힌튼이 발전시킨 다계층 퍼셉트론을 통해 구체화되었으나, 그 사이 비선형 문제와 기울기소실, 과적합 등 여러 가지 인공신경망 난제를 만나며 오히려 인공지능겨울(AI Winter)이라 일컫는 두 번의 암흑기를 초래했던 긴 역사가 있다. 어찌 보면 한편의 흑역사다.

하지만 다행히도 이러한 난제들을 해결하는 인공신경망 알고리즘의 눈부신 발전과 함께 컴퓨팅 파워와 데이터 용량이 폭발적으로 증가하게 된 21세기에 이르러 드디어 2006년 힌튼의 논문을 신호탄으로 한 딥러닝이란 이름으로 화려한 부활을 이루게 된 것이다. 딥러닝의 부활은 특히 음성인식, 컴퓨터비전, 자연어처리, 합성과 생성 등 기존 기계학습 기법들이 해결하지 못했던 많은 분야에서 탁월한 성능으로 나타났으며 이제야 우리의 일상 속에서 다양한 형태로 화자되고 응용되기 시작한 것이 바로 지난 10년인 셈이다.

이와 같이 오랜 역사 속에 오늘날도 지속적인 발전을 거듭하고 있는 딥러닝이지만, 그 이면에는 역시 다름 아닌 보안 문제가 존재한다. 왜냐하면 딥러닝 모델의 주된 용도와 그 사용 목적이 주로 외부 입력과 데이터를 처리하는 것에서 비롯되지만, 개발 초기부터 오랜 기간 줄곧 보안 문제를 근본적으로 고려하지는 않았기 때문이다. 아이러니하게도 이것은 과거 보안에 대한 근본적인 고려 없이 개발되어 여전히 많은 문제를 야기하고 있는 운영체제, 인터넷 등 주변의 여러 시스템을 통해 우리가 이미 경험해온 있는 일이 이번에도 반복되는 것이 아닌가. 게다가 딥러닝 모델은 이론적인 뒷받침은 턱없이 부족한 가운데 그 구조가 복잡하게만 구성되는 경향이 있으며, 늘 대용량 데이터 학습을 통해 재구성되는 방식이므로 근본적으로 분석과 이해가 매우 어렵고, 따라서 자동으로 취약성을 찾고 보안 기능을 구현하기란 더욱 어렵다.

예를 들어 2013년 세게디가 처음 소개한 딥러닝 적대적 예제(Adversarial Example)는 원본 이미지 샘플에 구분하기 어려운 미세한 섭동(Perturbation)을 추가하는 것만으로 최신 이미지 분류 딥러닝 시스템에 대한 회피(Evasion) 공격이 가능함을 보였다. 만약 자율주행차가 멈춤 표지판을 속도제한 표지판으로 잘못 분류해 제때 멈추지 않고 계속 속력을 내는 상황을 한번 상상해보라. 이것은 흔히 말하는 사이버 보안 문제인 동시에 사회 안전에 관한 문제인 것이다. 하지만 이와 같은 공격에 대한 실용적인 대응 방법을 마련하고 검증하기란 여전히 매우 어려운 연구 주제이다. 회피 공격에 대한 대응 기법을 연구하다보면 늘 겪게 되는 성능 저하도 문제이지만 모델의 정확성마저 낮아지게 되니 말이다.

뿐만 아니라 2016년 마이크로소프트가 공개한 딥러닝 기반 챗봇인 테이(Tay)는 컴퓨터 전공자들에게 매우 친숙한 문구인 “Hello World”를 첫 마디로 던지며 트위터 계정을 통해 많은 기대 속에 등장했지만 대중들의 막말 오염(Poisoning) 공격에 취약함을 보이며 공개한지 불과 16시간 만에 운영을 중단하고 결국 트위터 계정을 완전 비공개로 전환하며 폐기하게 되었다. 이것은 딥러닝 보안 문제가 기술적인 문제일 뿐만 아니라 사회적 윤리 문제와도 크게 상관이 있음을 보여준 사례다.

▲권태경 한국정보보호학회 감사[사진=권태경 교수]

한편, 최근 벌어지고 있는 우크라이나-러시아 전쟁과 관련해 우크라이나가 크게 선전하고 있음에도 불구하고 젤렌스키 대통령의 즉각적인 항복 영상이 SNS를 통해 송출되고 급속히 전파되어 한때 국제사회에 혼란과 불신을 초래한 적이 있다. 이것은 다름 아닌 딥러닝 기반 영상 합성 및 생성 기술인 ‘딥페이크’를 악용한 가짜뉴스인 것이다. 딥페이크는 이미 많은 가짜뉴스와 불법 음란물을 양산하며 딥러닝 기술 악용의 파급력과 위험성을 드러내고 있다. 미국 FBI에서는 원격 인재 채용 기업에 딥페이크 면접자 주의보를 내렸으며, 비즈니스 기업 익스페리언은 딥페이크를 이용해 생체인증 기술을 우회할 수 있다고 경고했다. 또한 현존하는 비대면 신원확인 시스템이나 보험 손해사정시스템과 같은 원격 서비스의 경우도 딥페이크 제출물을 판별할 수 있는 기능이 전무한 상황이다.

딥러닝 보안의 관점에서 딥페이크 탐지 시스템 개발을 위한 노력도 함께 이루어지고 있지만 여전히 쉽게 우회 가능하며 더욱 다양한 악용 사례가 늘어가고만 있다. 이 밖에도 모델의 학습 파라미터나 학습 데이터에 대한 추론(Inference) 공격이나 추출(Extraction) 공격은 향후 딥러닝 기술이 더욱 발전하고 보편화되면서 겪어야할 많은 보안 문제를 예고하고 있다. 그러나 여전히 해결책 마련은 요원하다. 누군가 보안 문제를 해결했다고 주장해도 이것이 정말 그러하다는 것을 어떻게 검증할 것인가? 딥러닝 보안, 국가의 안전과 미래를 위해 진실로 지금부터라도 아낌없이 많은 투자와 막대한 지원이 필요한 상황이다.
[글_ 권태경 한국정보보호학회 감사, 연세대학교 정보대학원 교수]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

  •  
  • 0
  • 페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기 네이버 블로그 보내기

  •  SNS에서도 보안뉴스를 받아보세요!! 
시큐아이 에스케어 파워비즈 배너 2022년 3월15일 시작~ 12개월 위즈디엔에스 2018
설문조사
산업 전 분야의 지능화·융합화·스마트화 추세에 따라 스마트시티와 스마트공장, 스마트의료, 스마트상점 등 각 분야에서도 정보보안과 물리보안이 함께 접목되는 융합보안이 이슈가 되고 있습니다. 올해 융합보안이 가장 활발하게 적용될 분야는 어디라고 보시나요?
스마트시티 보안
스마트공장 보안(OT 보안)
스마트의료 보안
스마트상점 보안
기타(댓글로)