- AI와 로봇이 같은 의미로 쓰였습니다.
AI가 일자리를 대체한다고 합니다. 많은 학자들은 인간이 창의성을 발휘하면 된다고 합니다. 그런데 과연 그럴 수 있을까요..? 창의성은 기존의 발상을 깨는 새로운 생각입니다. 즉 새로운 경우의 수입니다. 하지만 인공지능이 모든 정보를 습득을 한다면, 이미 그 안에 세상의 모든 경우의 수가 있지 않을까요?
생각해보니 공상에서만 가능한 생각입니다. 모든 정보를 습득할 수가 있을까요? 아닙니다. 모든 정보를 습득하기능 불가능하고 또한 데이터화 할 수 없는 정보도 존재합니다. 하지만 그럼에도 불구하고 인공지능은 대략적인 판단을 하는 역할을 할 것 같습니다. 마치 GDP처럼 말이죠. GDP도 시장을 통과하지 못하는 경제활동은 측정하지 못하지만, 그래도 한 나라의 경제를 파악하는데 큰 도움이 됩니다.
또한 요즘 AI의 감정적 기능을 말합니다. 그렇다고 AI가 정말로 감정을 가지고 있는 것일까요? 그건 아니라고 생각합니다. 그냥 흉내내는 것이죠. 얘를 들어 사람을 분석하여 슬픔을 느끼고 있는 것 같으면, 슬픔 감정을 드러내고 위로를 하게 프로그램 되어있는 것입니다.
하지만 중요한 것은 사람이 AI의 행동을 어떻게 받아들이냐 입니다. 겉으로 보이는 AI의 슬픔과 위로를 인간이 진정으로 받아들인 다면, AI가 실제로 감정을 느끼냐 안느끼냐는 중요한 문제가 아닙니다. 일본에서 로봇 장례식이 치뤄진 것도 같은 맥락입니다.
예전에 친구들에게 이런 질문을 한 적이 있습니다. 모든 것이 완벽한 배우자입니다. 이 사람과 함께라면 일생을 행복하게 살 수 있습니다. 문제는 로봇입니다. 하지만 사람과 전혀 구분되지 않습니다. '그러면 너는 이 로봇과 같이 살 것이냐? 선택하면 로봇이 로봇이라는 사실을 잊을 수 있다. 아니면 진짜 감정이 있는 하지만 불완전한 사람과 살 것이냐?' 여러분의 생각은 어떠신가요.
제 생각엔 로봇의 사고 및 행동에 진정한 감정은 없습니다. 확률만 있을 뿐입니다. 네이버 웹툰 '나이트런' 에서 그 모습이 잘 드러납니다. (http://comic.naver.com/webtoon/detail.nhn?titleId=64997&no=299&weekday=sat) 보시면 AI가 민간인과 군대에 대한 폭격을 결정해야 합니다. AI는 군대와 민간인의 가치를 추산합니다. 결국 49.89% 대 50.11%로 민간인의 가치가 높게 계산되어 군대를 폭격합니다.
누군가는 AI의 판단을 비난 할 것이고, 누군가는 동조할 것입니다. 하지만 어느 결정도 나름의 옳음이 있습니다. 결국 AI의 가치 계산이 어떻게 이루어지냐에 따라 결과는 완전히 바뀔 것입니다. 그러므로 기준설정은 끊임없이 논란이 됩니다. 어떠한 도덕원칙을 넣어도, 도덕원칙 간에는 상호 모순 되는 것이 많기에, 사람이 보기에는 극단적인 행동도 가능합니다. 하지만 AI는 가장 도덕적인 것이 아닌 가장 효율적인 것을 선택했을 뿐이죠. 그리고 그 판단도 옳음의 일종입니다.
사람이 판단하면 달라질까요? 더 옳을까요? AI는 계산이라도 했습니다. 하지만 사람은 자신의 가진 정보, 가치관 그리고 감정에 기반하여 판단을 합니다. 군대를 선택하든, 민간인을 선택하든 어느 것을 완전히 옳다고 할 수 있을까요? 아무튼 선택을 해야 합니다. 하지만 힘듭니다. 그 책임을 인간이 감당할 수 있을까요? 어쩌면 AI는 어느 것도 선택할 수 없는 인간을 대신하여 대신 선택해주는 것일 수 있습니다.