자율주행 자동차가 고장 나
소유주와
길 가는 행인 3명 중
한쪽을 희생시켜야 하는 상황일 때
AI는 어떻게 판단해야 하나.
인간도 이룰 수 없는 ‘윤리적 완전성’을 과연 AI에 바랄 수 있나.
놀라운 것은 알파고 제로가
기존 알파고보다 바둑을 더 잘 둔다는 것이다.
이세돌을 이긴 알파고 리에는 100전 100승으로 이겼고,
커제를 이긴 알파고 마스터에는 100전 89승을 거뒀다.
AI의 발전 무한성을 보여주는 대목이다.
영국 일간지 더 데일리 텔레그래프(The Daily Telegraph)는
알파고 제로가 40일 만에 사람의 3000년 역사를 익혔다고 보도했다.
AI를 일상에 적용하는 사례도 빠르게 증가한다.
사이버 보안, 의료, 증권 등 여러 분야에 AI가 활용된다.
IBM이 개발한 왓슨은
2012년 의료계 진출을 시작으로 다양한 분야에 적용되고 있다.
40일간 3000년 역사 익혀
AI 윤리 연구가 활발해진 까닭은 무엇일까.
엄밀히 말해 AI는 수십 년 전부터 구현됐다.
AI는 주어진 문제를 처리하는
시스템으로 정의할 수 있다.
이러한 정의에 따르면
우리 주변에 수많은 AI가 있다. 2
000년대 바둑 게임에도 AI가 적용돼 있다고 하겠다.
그러므로 AI 윤리 논쟁은 오래전부터 진행해야 했다.
그런데 사실은 그렇지 않다.
무슨 이유에서일까.
이는 '자유의지'와 관련이 있다.
좀 더 구체적으로 살펴보자.
윤리 논쟁을 던지기 전에
AI의 문제 해결 원리에 대해 살펴보자.
AI는 두 가지 방법으로 문제 해결 능력을 얻을 수 있다.
'지식공학'과 '기계학습'이 그것이다.
지식공학은 사람이 AI에
공식을 제공해 문제를 해결하게끔 하는 방식이다.
특정 상황을 주면
지식공학 기반 AI는 공식에 따라 답을 산출한다.
지식공학의 장점은 명확하다.
공식에 맞는 상황이 주어지면 답을 정확하게 산출한다.
또한 구현이 쉽다.
공식만 시스템에 입력하면 되기 때문이다.
단점은 복잡한 상황에 적용하기 어렵다는 것이다.
공식 입력은 사람 몫이다.
따라서 사람이 유추해내기 어려운 상황에
지식공학 기반 AI를 적용하기는 어렵다.
아울러 고정적이다.
사람이 직접 입력한 공식을 바꾸지 않는 한
시스템은 공식을 기반으로 계속 동작한다.
스스로 생각하는 능력 갖춰
그렇다면 AI는 기계학습으로
어떻게 판단 기준을 세울까.
'신경망 알고리즘(혹은 딥러닝)'을 예로 들어보자.
신경망 알고리즘은 학습 원리가
뇌의 신경과 비슷해 붙여진 이름이다.
사람의 기억력은 뇌의 신경 자극에 따라
달라진다고 할 수 있는데
특정 경험을 자주 접하거나
충격이 클수록 기억을 더 잘한다.
더 나아가 경험과 기억의
축적이 사람의 생각과 가치관을 바꾸게 한다.
신경망 알고리즘도 비슷하다.
신경망 알고리즘은
퍼셉트론(딥러닝의 기원이 되는 알고리즘으로
다수의 신호를 받아 하나의 신호로 출력한다)을 기반으로 한다.
퍼셉트론은 판단에 미치는 요인에 특성을 정의하고
가중치를 선정해 결과 값을 구하는 모형이다.
참고로 신경망 알고리즘은
다중 퍼셉트론을 기반으로 삼는 경우가 많다.
다시 말해 특정 요인의 결과가 되는 값이,
상위 결과에 요인의 역할을 하는 것이다.
한마디로 추론 계층이 여러 단계로 이뤄진 것이다.
수많은 요인을 추출해 분석해야 하므로
수많은 데이터가 필요한 것은 당연한 일이다.
신경망 알고리즘은 고정적이지 않다.
요인들의 정의가 신규로 유입되는
데이터에 따라 얼마든지 달라질 수 있기 때문이다.
데이터가 유입되면 요인들의
특성이 달라지는 데
알고리즘을 이용해 예측 오차를 줄여나간다.
정리하면,
지식공학 기반 AI는 사람에 의해
정해진 대로만 동작한다.
반면 기계학습 기반 AI는
경험을 바탕으로 자신의 주관에 따라 동작한다.
다시 말해 AI가 스스로
생각하는 능력을 갖췄음을 의미한다.
이는 '자유의지'와도 연관이 있다.
자유의지는 말 그대로
스스로 결정할 수 있다고 믿는 것이다.
반대 용어는 결정론이다.
결정론은 운명 혹은
환경에 따라 결정된다는 것이다.
기존의 AI는 결정론에 가까웠다.
사람이 정한 방식대로
생각할 수밖에 없었기 때문이다.
반면 기계학습 기반 AI는 그렇지 않다.
경험으로 스스로 생각하는 기준을 만들기 때문이다.
로봇이 사람을 죽인다면?
기계학습 알고리즘은 정해져 있으므로
AI는 결정론을 기반에 둬야 한다고 볼 수 있으나
다르게 생각해볼 부분이 많다.
기계학습은 정해져 있어도 학습에 따라
AI의 생각 방식이 달라질 수 있기에 자
유의지를 기반으로 해야 하는 것으로 볼 수 있다.
이러한 주장을 보여주는 사례가
레딩대(University of Reading)의 로봇 인격 실험이다.
피터 W 싱어가 저술한
'하이테크(Wired for War)'에 실험 내용이 소개돼 있다.
싱어에 따르면 다수 로봇을 밀폐된 공간에
개별로 넣고 보상과 처벌을 다르게 하니
로봇의 행동이 달랐다.
AI와 관련해 결정론,
자유의지를 나누는 것이
윤리와 상관없는 것처럼 보일 수 있다.
그러나 이는 AI의 책임 범위를 정하는 데
매우 중요한 역할을 한다.
제임스 H 무어 다트머스대 교수는
시스템의 도덕적 판단 가능성에 따라
'암묵적 윤리적 행위자(implicit ethical agent)'와
'명시적 윤리적 행위자(explicit ethical agent)'를 구분한다.
전자는 개발 단계에서 정해진
AI의 윤리적 행위를 지칭하는 말이다.
반면 후자는 AI가 자율적으로
윤리적 행위를 결정하는 경우다.
전자가 결정론을 뒷받침한다면
후자는 자유의지를 강조한다.
결정론은 책임 회피가
발생할 수 있는 윤리적 문제점이 있다.
윤리적 행위가 외부에서 정해지기 때문이다.
실제로 그렇기도 하다.
일부 사람들은 책임을 회피하기 위해
"어쩔 수 없었다"거나
"술 때문에 그랬어"라는 식으로 발언한다.
이는 외부로 책임을 넘기는 발언이라고 볼 수 있다.
AI는 결정론 기반을 원칙으로 한다고 믿는 경우가 많다.
다시 말해 사람들은 AI가 한 행동은
개발자가 그렇게 만들었기 때문에
어쩔 수 없었다는 식으로 생각하는 것이다.
따라서 대부분의 기관은 AI가
문제를 일으켰을 때 어떻게 하느냐는
대응 방안보다는 개발자를 위한
AI 윤리 지침을 논의하는 경우가 많다.
군인이 실수로 민간인을
쏘는 상황이 일어났다고 가정해보자.
총을 쏜 군인에게 책임을 묻지,
총에 잘못을 따지는 사람은 없을 것이다.
반면 킬러로봇이 실수로
민간인을 총으로 쏘았다고 가정해보자.
누가 책임을 져야 하는 것일까.
총을 쏜 군인의 경우 책임 소재가 명확한 데 반해
후자는 책임을 정하는 것이 애매하다.
기계학습으로 인해 자유의지가 발생한 것일 수 있기 때문이다.
결정론 vs 자유의지
총을 소지한 군인은
총을 원하는 방식대로 조작할 수 있다.
본인이 실수하지 않는 이상 갑자기
총이 자기를 쏘는 일은 없다.
통제권 안에 있는 것이다.
킬러로봇은 어떨까.
비록 의사소통으로 명령을 내릴 수 있다고 해도
갑작스러운 돌발 행동으로 자신에게 총을 겨눌 수 있다.
자유의지를 가졌다면 킬러로봇이
무조건 통제권 안에 있다고는 말할 수 없다.
그렇다면 AI에 인권을 부여해야 할까.
EU는 AI를 대상으로 한 법을 제정한 상태다.
이는 AI가 자유의지와
도덕적 판단력이 있다고 믿는 것을 보여준다.
루치아노 플로리디 옥스퍼드대 교수는
윤리 기준을 논할 때 인간 중심에서 탈피할 필요가 있다고 주장한다.
그는 인공물도 도덕적 권리를 가져야 한다고 주장하는데,
이는 매우 급진적인 생각이다.
그의 주장에 따르면 컴퓨터 등
모든 인공물이 도덕적 권리를 가져야 한다.
결정론과 자유의지에 상관없이 말이다.
플로리디의 주장보다는
무어가 정의한 명시적 윤리적 행위자에게만
도덕적 권리를 부여하는 것이 바람직해 보일 수 있다.
인간이 AI를 통제할 수 있는지에 대한
윤리 논쟁도 치열하다.
AI가 자유의지를 가지고 있다고 믿는다면 통제가 어렵다.
가령 부모는 자녀를 통제하기가
쉽지 않다고 느끼는 경우가 많을 것이다.
반면 결정론을 따른다면 통제가 쉽다.
스마트폰을 손안에서 쉽게 조종할 수 있는 것처럼 말이다.
자유의지와 결정론의 차이는
AI가 인류에게 위협을 주는지에 관한 논쟁으로 확장된다.
AI가 자유의지를 가지고
예측하지 못한 범위로 발전하면
인류에게 큰 위협이 될 수밖에 없다.
일론 머스크 테슬라 회장, 스
티븐 호킹 케임브리지대 교수 등
1000명의 전문가가 AI는 인류에게 큰 위협이 된다고 주장한다.
이는 AI가 통제 범위를 벗어나고 있다고 믿기 때문이다.
반면 마크 저커버그 페이스북 창업자,
래리 페이지 구글 창립자 등은 AI가 인류에게 도움이 된다고 믿는다.
AI를 인류에게 도움이 되도록
발전시킬 수 있다고 여겨서다.
이들은 AI를 통제할 수 있다고 생각하는 것으로 해석할 수 있다.
AI는 신이 아니다
영화 '아이로봇'의
주인공은 불의의 사고로 소녀와 함께 물에 빠진다.
이때 로봇은 둘 중 한 명밖에 구할 수 없는 상황에 부닥친다.
그래서 생존 확률이 높은
주인공을 먼저 구하고 소녀는 익사하고 만다.
생존 확률만 고려해
연약한 소녀를 먼저 구하지 않은 것이
윤리적으로 옳은 판단이었을까.
대답하기 어렵다.
이 같은 논쟁이 이어지는 것은
인간에게 유익하나 해답은 없다.
그렇다고 AI에 해답을 요구해서는 안 된다.
AI는 신이 아니기 때문이다.
| 유성민 IT칼럼니스트
'창작소설 > SF·신비·구도' 카테고리의 다른 글
[스크랩] 환상적인 우주여행(3D) (0) | 2018.02.13 |
---|---|
[스크랩] 우주서 우주복을 벗는다면 (0) | 2018.02.12 |
우주의 사진들과 사색의 순간들 (0) | 2018.02.08 |
[스크랩] 내셔날지오그래픽 이미지 (0) | 2018.01.31 |
[스크랩] 아타카마 사막 (Atacama Desert) (0) | 2018.01.31 |