
팔을 잃은 장애인이 장착한 로봇팔이 훼손됐다. 기물 파손인가, 인체 상해인가. 로봇팔이 사물인지 신체인지가 핵심이다. 인간이 만든 인공지능(AI)도 마찬가지다. 그것이 잘못 작동해서 피해를 일으켰다면 책임 소재는 어떻게 가려야 하나. 더 심각한 건 각종 윤리 문제다.
몇 년 전 마이크로소프트사 ‘챗봇’(Chatbot·채팅 로봇)의 정치·인종 편향 발언이나 미국 샌프란시스코의 경비 로봇이 자행한 노숙자 추방 같은 일들을 보라. 최근에는 세계 최대 쇼핑몰 기업 아마존이 생산성을 근거로 직원들의 해고 여부를 자동 결정하는 AI를 도입해 논란을 빚고 있다.
‘AI’ 개념이 획기적 전기를 맞은 것은 2006년이었다. 인간의 신경망을 모방한 네트워크에 엄청난 양의 데이터를 입력한 뒤 반복 훈련시키면 어떤 질서가 생긴다는 걸 알아냈다. 이른바 ‘딥러닝 알고리즘’이다.
“기계가 인간을 육체노동에서 해방시켰다면, AI는 정신노동에서 해방시킬 것이다.”
그렇게 AI는 장밋빛 전망을 타고 전 세계 산업 전반을 덮쳤다. 그러나 AI는 실제 운용 과정에서 사생활 침해, 차별, 불공정 등 의도치 않은 부작용을 낳는다. AI는 기본적으로 인간의 사고를 본 뜬 것이기 때문이다. 인간의 주관과 편견이 개입되면 위험성은 더욱 커진다. AI에 어떤 데이터를 넣느냐에 따라 결과는 달라질 수밖에 없다. AI의 차별을 없애려면 결국 현실의 차별을 고쳐야 하는 것이다.
선진국을 비롯한 세계 여러 나라가 AI 윤리 문제를 고민하는 건 그런 이유다. 최근 유럽연합이 ‘윤리적 AI’에 대한 가이드라인을 발표했다. △인간의 주체성 보장 △안전성과 정확성 △사생활 보호와 데이터에 대한 인간의 통제권 △투명성 △다양성과 비차별성, 공정성 △환경적·사회적 행복 △책임성 등 7개 항목이다.
국제전기전자기술자협회도 AI 윤리 설계를 다룰 표준을 발표한 바 있다. 기존의 도덕적 가치 속에서 인간과 조화를 이뤄야 하고, 기능상의 목표 달성을 넘어 사람에게 널리 도움이 돼야 한다는 게 골자다.
우리는 아직 걸음마 수준이다. 정부가 지난해 5월 지능정보사회 윤리 가이드라인을 마련했지만 현실 적용은 요원한 원론적 선언에 그치고 있다. 반면 AI 관련 산업 활성화엔 사활을 거는 모습이다. 기업가치 10억 달러 이상의 ‘유니콘’ 10개 육성 전략을 발표한 게 올 초다. 기술 투자도 좋지만 법률적, 제도적 토대가 함께 가야 한다. 미래의 핵심 경쟁력은 그냥 ‘AI’가 아니라 ‘윤리를 갖춘’ AI다.
김건수 논설위원
'알송 달송' 카테고리의 다른 글
지금은 기나긴 삶과 윤회의 미처리 부분을 마지막으로 정리 종결하는 시간대, (0) | 2019.05.26 |
---|---|
지구 대멸종 (0) | 2019.05.11 |
고대의 의혹들 (0) | 2019.05.06 |
역대 한국의 미스테리 사건사고7 (0) | 2019.05.06 |
기막힌 사연 시간나는대로 하나씩 열어 보세요 (0) | 2019.04.28 |