상세 컨텐츠

본문 제목

뇌는 인공지능을 거부할 수 있을까?

2021년 11월호(145호)

by 행복한동네문화이야기 2021. 11. 22. 20:46

본문

[뇌과학 스토리 14]

뇌는 인공지능을 거부할 수 있을까?

 

아이폰을 사용하는 유저라면 얼굴을 들이대기만 하면 암호로 잠겨있는 스마트폰을 해제시켜주는 편리한 기능을 사용해 보셨을 것입니다. 아이폰 유저가 아니더라도 금융앱으로 내 통장의 잔액을 확인하거나 친구에게 돈을 이체하는 등의 아주 중요한 일을 할 때에도 얼굴을 요구할 때가 많지요. 스마트폰이 우리집 강아지보다 주인의 얼굴을 신통방통할 정도로 잘 기억하는 시대에 우리는 살고 있습니다. 가끔은 마스크 쓴 주인의 얼굴을 제대로 못 알아봐서 당황스러울 때도 있지만요. 스마트폰이 똑똑해져서라기보다 인공지능 기술의 발달로 인한 안면인식 기술이 적용되었기 때문입니다. 안면인식 기술은 딥러닝 기술이 급속도로 발전하면서 가장 빠르게 상용서비스에 도입된 기술 중의 하나입니다. 전 세계에서 가장 열성적으로 사용하고 있는 중국 공산당은 이 기술을 이용해 수 만 명이 운집한 콘서트장에서 수배자를 체포하기도 하고, 신호위반 보행자를 적발해낼 뿐 아니라, 무엇보다도 14억이 넘는 중국인구의 일거수일투족을 감시 및 통제하는데 활용하고 있습니다. 또한, 안면인식과 유사한 인간 얼굴의 감정을 인식하는 기술도 개발되어 학습, 인재채용, 원격 감시, 운전 등 작업 피로도 감지, 쇼핑과 마케팅 등의 다양한 분야로 활용이 확산되고 있으며, 2026년까지 370억 달러(41조원) 규모로 시장이 성장할 것으로 전망하고 있습니다.

 

출처 : SK C&C 블로그


AI의 영상인식 기술, 21세기 디지털 골상학?
최근 인공지능 기술의 사회적인 영향과 문제점을 연구하는 ‘AI NOW’의 수장인 케이트 크로퍼드 미국 남가주대 교수는 ‘AI의 영상인식 기술을 활용한 얼굴인식과 감정인식은 21세기 디지털 골상학’이라며 날선 비판을 한 바 있습니다. ‘골상학’이라는 것은 19세기에 많이 유행했던 것으로 두개골과 얼굴 형태로 인류를 몇 개의 종류로 구분할 수 있을 뿐 아니라 성격과 특성까지도 맞출 수 있다는 이론인데 한 때는 그럴듯한 주장이었지요. 하지만, 현재는 비과학적이라는 평가를 받고 있습니다. 또한, 감정인식 기술은 1960년대 미 국방부가 후원한 방대한 실험연구에서 심리학자 폴 에크먼이 모든 사람의 표정은 기쁨, 두려움, 혐오, 분노, 놀람, 슬픔 등의 6가지로 분류할 수 있다는 ‘보편적 기본 감정’ 이론을 주장한 데에서 시작되었습니다. 그러나 이런 주장 또한 문화, 사회적 요소 및 맥락을 무시하는 접근법이라는 인류학자의 비판을 받았지요. 하지만, 인공지능 머신러닝에 적용하기 쉬운 모델이라는 이유로 최근 다양한 분야에 적용되어 확산되고 있습니다. 9.11테러 이후, 미 교통안전국은 이 기술로 잠재적 테러리스트와 승객들의 얼굴에 나타난 두려움과 스트레스 정도를 측정하다 신뢰성과 인종 차별 논란을 불러일으킨 바 있습니다. 유럽의 몇몇 국가에서도 이와 유사한 사례로 도입을 검토하다가 무고한 시민을 범인으로 모는 등의 신뢰성 문제로 인해 사회적인 이슈가 되기도 하였습니다. 미국 정보기술 전문지 <와이어드> 4월26일자에 따르면, 1,000개가 넘는 연구논문 검토결과 얼굴에서 사람의 감정을 신뢰성있게 추론할 수 있다는 증거가 발견되지 않았다고 합니다. 이처럼 과학적으로 검증되지 않은 실험적 결과에 인공지능 기술을 입혀 골상학처럼 인간을 비과학적이고 부당하게 분류하는 용도로 사용되고 있다는 것이 케이트 교수의 주장입니다. 이런 위험성 때문에 미국의 몇 개 주에서는 인공지능 안면인식 기술의 사용을 금지한 바 있습니다. 케이트 교수가 인공지능 안면기술의 위험성에 대해 가장 크게 경고하는 부분은 윤리적 가이드라인조차도 없기 때문에 사회전반에 엄청난 영향을 초래할 수 있다는 점과 무엇보다 이런 막강한 기술이 권력의 시녀역할을 하는 도구가 될 수 있다는 점입니다. 

우리 뇌가 인공지능을 쉽게 거부하지 못하는 이유
인공지능 기술의 한계와 전문가들의 우려가 섞인 경고의 메시지를 들어도 우리 뇌가 쉽게 거부하지 못하는 이유가 있습니다. 

1. 인공지능 기술이 가져다주는 매력적이고, 편리한 기능 때문입니다. 타인이 내 폰을 보지 못하도록 설정한 암호를 해제하기 위해서는 매번 비밀번호를 입력하거나 낙서하듯 특이한 기호를 그려 넣거나 해야 합니다. 하지만, 아무런 동작 없이 그저 스마트폰을 들여다보고만 있으면 알아서 자동으로 해제시켜주니 이보다 편리할 수가 있을까요? 하지만, 우리가 편리만 좇다보면 편리의 관성에 노예가 되어 스스로의 힘으로는 아무런 저항조차 할 수 없는 미약한 존재로 전략할 수 있다는 사실을 명심해야겠습니다.

2. 우리 뇌의 정상화 편향 때문입니다. 빅데이터를 이용한 머신러닝(기계학습)의 맹점으로 바로 학습되지 않은 소수는 언제든지 차별의 대상이 될 수 있습니다. 구글의 사진인식 프로그램이 흑인 여자 친구를 고릴라로 인식한 사건은 너무나도 유명한 사건입니다. 하지만, 우리 뇌는 그런 위기는 나에겐 오지 않을 거야라며 위기를 과소평가하는 ‘정상화 편향’경향을 가지고 있습니다. 더군다나 최근의 인공지능의 딥러닝 기술은 명확하게 실수한 지점과 원인을 파악하기 어렵다는 약점이 있습니다. 다르게 표현하자면, 피해를 당한 소수가 인공지능 기술의 실수를 명확하게 규명하기가 어렵기 때문에 인공지능이란 도구를 쥔 권력자들이 사회적 책임을 쉽게 회피할 수 있어 아주 위험합니다. 따라서 우리는 인공지능이 가져올 수 있는 나쁜 가능성을 외면해서는 안 되며, 그 결과 벌어질 수 있는 문제들을 미리 고민해보고 대안을 생각해보아야 합니다. 

3. 권위에의 호소 편향입니다. 이세돌을 이긴 알파고, 그리고 그 알파고를 단번에 이겨버린 알파고제로. 이제는 전 세계 어떤 최고의 인간 바둑기사를 데려와도 절대 이길 수 없는 수준에 이르렀습니다. 바흐의 수많은 악보들을 학습한 인공지능은 누구보다 바흐풍의 곡을 잘 작곡해 냅니다. 고흐의 작품을 섭렵한 인공지능은 어떤 사진이나 이미지를 던져주어도 고흐풍으로 재창조해냅니다. 아마 고흐가 지금 시대에 돌아왔다면 깜짝 놀랄 정도로 말입니다. 이런 경이로운 수준에 도달한 인공지능 기술이 전문가 이상으로 인정받곤 합니다. 그리고 인공지능 기술들은 대부분 한 가지 목적을 위해 최적화 되었습니다. 하지만 그 목적에는 인간이 중요하게 생각하는 더 높은 가치인 윤리나 사회, 종교 등은 아예 고려되지 않았습니다. 그렇기 때문에 한 가지 기능을 탁월하게 잘하는 것을 보고, 그 이상 혹은 다른 것을 기대하는 것은 어불성설입니다. 인공지능 기술이 이룬 높은 수준은 인정하되, 그 기술의 한계를 명확하게 이해해야 합니다. 

인간이 동물과 구별되는 것 중의 하나가 바로 비판적 사고입니다. 편리를 추구하는 습관과 뇌의 인지편향을 비판적으로 바라보고 부정할 수 있다면, 인공지능 기술의 위협에도 진정한 인간성을 회복할 기회로 삼을 수 있을 것입니다.

 

금천구 갈렙추
caleb.kj.choo@gmail.co

 

이 글은 <행복한 동네문화 이야기 제145>에 실려 있습니다.

 

 

< 행복한동네문화이야기 >는 

  • '지역적 동네'뿐 아니라 '영역적 동네'로 확장하여 각각의 영역 속에 모여 사는 수많은 사람들의 다양한 스토리와 그 속에서 형성되는 새로운 문명, 문화현상들을 동정적이고 창조적 비평과 함께 독자들에게 소개하는 국내 유일한 동네신문입니다.
  • 일체의 광고를 싣지 않으며, 이 신문을 읽는 분들의 구좌제와 후원을 통해 발행되는 여러분의 동네신문입니다.

정기구독을 신청하시면  매월 댁으로 발송해드립니다.
    연락처 : 편집장 김미경 010-8781-6874
    1 구좌 : 2만원(1년동안 신문을 구독하실 수 있습니다.)
    예금주 : 김미경(동네신문)
    계   좌 : 국민은행 639001-01-509699
 

관련글 더보기