본문바로가기

한겨레21

기사 공유 및 설정

알고리즘이 공정하다고?

알고리즘을 만드는 주체는 인간

그들의 편향성이 기계에 투사돼
등록 2017-05-07 06:11 수정 2020-05-02 19:28
우버는 스마트폰 앱으로 승객이 차량을 이용할 수 있게 하는 서비스다. 우버의 요금설계 알고리즘은 혼잡한 시간대에 비싼 요금을 내도록 한다. REUTERS

우버는 스마트폰 앱으로 승객이 차량을 이용할 수 있게 하는 서비스다. 우버의 요금설계 알고리즘은 혼잡한 시간대에 비싼 요금을 내도록 한다. REUTERS

“인공지능이 변호사를 대체할 수 있을까요?”

판사 퇴임 뒤 변호사로 일하는 분께 물었다. ‘알파고’(구글 딥마인드가 개발한 인공지능 바둑 프로그램) 후폭풍으로 웬만한 직업은 인공지능이 대체할 수 있을 것이란 전망이 난무할 무렵이었다. “글쎄요. 미국에서 판사 정도는 대체할 수 있지 않을까요.” 배심원의 의견을 수렴해 판결하는 ‘중립적’ 역할은 인공지능이 더 공정하게 수행하지 않겠냐는 얘기다.

그 배경에 ‘인공지능은 객관적’이란 인식이 깔려 있다. 논리적 연산과 방대한 데이터에 근거하기 때문이요, 순간의 감정·편견으로 주관적 결정을 내리지 않을 거란 믿음 말이다. 인공지능으로 대변되는 알고리즘은 객관적일까. 안타깝지만 아니올시다. 인공지능은 완전체가 아니며, 학습을 거치며 똑똑해진다. 그 과정에서 문제가 생긴다. 인간의 주관이 들어간 데이터를 학습하거나 인간이 직접 개입할 경우다.

영국 배스대학 컴퓨터과학자 조애나 브라이슨과 미국 프린스턴대학 어바인드 나라야난은 흥미로운 연구를 했다. 이들은 ‘워드 임베딩’(Word Embedding)이란 기계학습 방식을 이용해 인공지능이 단어를 어떻게 학습하는지 분석했다. 워드 임베딩은 한 단어와 함께 쓰이는 단어들을 관계망으로 엮어 사회·문화적 맥락을 파악하는 방법이다. 연구팀은 온라인에서 수집한 850만 개 단어 목록을 조사했다. 그랬더니 인공지능이, ‘여성’이란 단어는 예술·인문 직종과 밀접한 관련이 있고 ‘남성’은 수학·공학 직종과 관련 있는 것으로 분류했다. 유럽계 미국인 이름은 ‘선물’이나 ‘행복’ 같은 유쾌한 단어와 연관짓지만 아프리카계 미국인은 불쾌한 단어와 연결했다. 인간의 언어에 내재된 편견을 인공지능이 학습한 결과다. 이 논문은 4월 중순 에 실렸다.

미국 인터넷 언론 의 보도에서도 비슷한 사례가 있다. 미국 교육업체 ‘프린스턴 리뷰’는 알고리즘을 이용해 온라인 SAT(Scholastic Aptitude Test·미국 대학입학자격시험) 수강료를 지역마다 다르게 매겼다. 그랬더니 아시아인이 같은 강의를 거의 2배 비싼 가격에 수강하는 것으로 나타났다. 알고리즘은 저소득층 지역 아시아인에게 가장 높은 가격을 부과하기도 했다.

2016년 7월 열린 한 미인대회도 논란을 남겼다. 대회는 전세계 100개국 6천 명이 제출한 인물사진을 대상으로 얼굴 대칭과 피부 상태, 주름 등을 기준으로 수상자를 선정했다. 심사위원은 ‘뷰티닷에이아이’(Beauty.AI)란 인공지능 알고리즘이었다. 인공지능이 뽑은 수상자 44명 가운데 43명은 백인이었다. 심사 기준에 활용한 인물 데이터에 다양한 피부색 사진이 부족했기 때문이다. 학습 데이터의 편향성이 인공지능의 판단으로 이어짐을 보여주는 사례다.

알고리즘을 만드는 주체도 결국 인간이다. 인간의 개입은 알고리즘 편향성을 심화한다. 차량 공유 업체 ‘우버’를 보자. 우버는 승객이 붐비는 지역과 시간대를 알고리즘이 파악해 운전기사에게 알려준다. 운전자라면 당연히 승객이 붐비고 요금이 비싼 지역과 시간대를 선호하게 마련이다. 이를 이용해 우버 알고리즘은 혼잡한 시간과 지역에선 승객이 더 비싼 요금을 내도록 유도한다. 미국 뉴욕대학 데이터&소사이어티 연구소는 “우버의 매칭 알고리즘은 인간의 노동자 통제 방식과 비슷하다”며 우버 알고리즘이 “직접적인 경영 권한과 통제 수단으로 작동한다”고 지적했다.

객관적이라고 믿어 의심치 않는 알고리즘에도 차별이 내재돼 있다. 알고리즘도 편식한다. 그 레시피엔 요리사인 인간의 편향성이 투사돼 있다. 문제는 알고리즘 수용자가 이를 견제할 방법이 없다는 점이다. 유럽연합은 2016년 4월 개인정보 보호규정을 발표하고 정보 주체에게 알고리즘의 의사결정에 대해 ‘설명을 요구할 권리’를 제안했다.

인류의 미래를 잠식하는 건 기계가 아니라 사람이다. 알고리즘을 통제하는 인간에게 어떤 합리적 규범을 제시할 것인가. 새 정부는 이 질문에서 출발해야 한다.

이희욱 편집장 asadal@bloter.net



독자  퍼스트  언론,    정기구독으로  응원하기!


전화신청▶ 02-2013-1300 (월납 가능)
인터넷신청▶ http://bit.ly/1HZ0DmD
카톡 선물하기▶ http://bit.ly/1UELpok


한겨레는 타협하지 않겠습니다
진실을 응원해 주세요
맨위로