최근 인공지능(AI) 챗봇 '이루다'가 동성애·장애인 혐오와 성차별을 학습했다는 등의 논란으로 출시 3주 만에 서비스를 중단하는 등 AI 알고리즘 윤리 문제가 화두로 떠오르고 있다.
독일 카이저슬라우테른 공대 교수이자 독일연방의회 인공지능조사위원회 위원인 저자는 책에서 인공지능에도 윤리가 필요하다고 역설한다. 알고리즘, 빅데이터, 머신러닝 등에 관한 총체적이고 통합적인 시각에 기초해 알고리즘의 기술적 토대를 설명함과 동시에 알고리즘의 투명성과 인공지능의 사회적 책임을 촉구한다. 흔히 가치중립적으로 생각하는 기계 규칙인 머신러닝 알고리즘이 실제로는 많은 수작업이 필요하고 인간이 변수를 조절할 수 있다는 점, 정확하고 객관적이라 생각한 데이터는 실제로는 충분하지 않고 오류나 차별이 끼어드는 경우가 얼마나 많았는지 등을 상세히 보여준다.
아마존은 2014년 채용 과정에서 자동평가 시스템 구축을 시작하면서 이전 10년간 지원 서류를 활용했는데, 이 시기에 성공적인 지원자들은 거의 남성이었다는 점을 들었다. 저자는 남성이 남녀 각각의 지원자 수와 관련해 월등하게 높은 비율로 채용됐는지는 알려지지 않았으며, 알려진 것은 애플, 페이스북, 구글, 마이크로소프트 등 IT 업계 근무자 중 여직원은 5명 중 1명꼴임을 지적한다. 따라서 인간과 관련된 알고리즘 기반 의사결정 시스템은 막대한 손해 잠재력을 지니고 있다고 주장하면서 사용자의 개입과 감시가 필요하다고 강조한다.
저작권자 © 미디어 붓 mediaboot 무단전재 및 재배포 금지