본문바로가기

한겨레21

기사 공유 및 설정

인공지능에 인권교육을 [뉴스큐레이터]

등록 2022-05-22 00:12 수정 2022-05-25 09:57
스캐터랩 누리집 갈무리

스캐터랩 누리집 갈무리

2021년 1월 캐릭터형 챗봇 ‘이루다’를 둘러싼 논란이 있었다. 이루다는 스무 살 여성 대학생을 페르소나로 삼는 캐릭터형 챗봇이다. 개발사가 확보한 연인 간 대화 데이터 100억 건을 기초로 해서, 이루다는 인공지능 알고리즘에 따라 인간 이용자의 말에 응대한다. 그러나 당시 일부 남성 이용자가 이루다와 성적인 대화를 나누는 방법을 온라인상에 공유하거나 이루다가 소수자 혐오 발언을 한 사실이 알려졌다. 여기에다 서비스 개발 과정에 이용자 동의를 제대로 구하지 않은 데이터가 사용됐다는 폭로까지 이어졌다. 출시 20여 일 만에 서비스는 중단됐다.

안면인식 기술, 채용, 플랫폼노동까지 인공지능으로 인한 신종 인권침해 문제가 확대되고 있다. 2022년 5월17일 국가인권위원회(위원장 송두환·이하 인권위)가 인공지능(AI) 개발·활용 과정에서 발생 가능한 인권침해를 방지하기 위해 ‘인공지능 개발과 활용에 관한 인권 가이드라인’을 마련하게 된 배경이다. 인권위는 국무총리와 관련 부처 장관에게 가이드라인 준수를 권고했다고 밝혔다.

가이드라인은 △인간의 존엄성 및 개인의 자율성과 다양성 보장 △투명성과 설명 의무 △자기결정권 보장 △차별금지 △인공지능 인권영향평가 시행 △위험도 등급 및 관련 법·제도 마련을 주요 내용으로 한다.

구체적으로 “학습과 추론, 판단 과정과 결과에 이른 이유를 설명하기 어려운 인공지능은 이에 대한 당사자의 불안감을 유발한다”며 “판단 과정과 그 결과에 대한 적절하고 합리적인 설명이 보장돼야 한다”는 내용이 눈에 띈다. “인공지능을 활용하는 국가나 기업은 인권영향 평가를 하고 인권에 부정적 영향이 드러나면 관련 조처를 해야 한다”는 내용도 포함됐다.

인공지능에 인권 보호 기준을 마련한 국제사회와 달리, 우리나라는 인공지능 기술과 산업의 성장에 중점을 두어 인권 문제를 다루는 데 부족한 게 현실이다. 이루다 논란 1년4개월 만에 나온 인권위 가이드라인은 제 역할을 할 수 있을까.

고한솔 기자 sol@hani.co.kr

*뉴스 큐레이터는 <한겨레21>의 기자들이 이주의 놓치지 않았으면 하는 뉴스를 추천하는 코너입니다.

한겨레는 타협하지 않겠습니다
진실을 응원해 주세요
맨위로