“인공지능은 새로운 전기다(AI is new electricity).” 스탠포드 대학 앤드류 응(Andrew Ng) 교수는 앞으로 인공지능이 인간의 삶에 더욱 깊게 침투할 것이라고 예견했다. 영상 시청, 상품 구매와 같은 일상의 사소한 의사결정 과정부터 교육과 학습, 심지어 면접 평가 영역까지. 현대인들은 인공지능 알고리즘이 정제해 낸 제한된 선택지 속에 살아간다.
그러나 인공지능의 미래가 밝지만은 않다. 수많은 IT 기업이 기술적 성능과 윤리적 가치의 갈등 속에서 ‘착한 인공지능 딜레마’에 직면한다. 데이터의 질을 고려하지 않은 채 학습 데이터의 양을 늘리는 데만 집중하면 똑똑한 인공지능을 만들 순 있어도 윤리성은 담보되지 않는다. AI 윤리 문제의 해결을 더 이상 미룰 수 없는 지금, 인공지능 속 혐오와 차별의 문제는 해결될 수 있을까?
착한 인공지능 딜레마에 빠진 기업들
인공지능 윤리 딜레마를 이해하려면 AI의 기술적 특성을 살펴봐야 한다. 일반적으로 AI 구현에는 기계학습(Machine Learning)과 딥러닝(Deep Learning) 기술이 사용된다. 기초 데이터를 통해 기계가 스스로 지식을 터득해나가는 방식이다. AI의 학습은 철저히 개발자가 수집한 제한적 학습 데이터에 의존한다. 그런 만큼 데이터 수집 과정이 엄밀하지 못하면 인공지능은 개발자가 따로 차별적 의도를 집어넣지 않더라도 데이터 속의 사회적 혐오를 자연스레 재생산하게 된다. 2018년 10월 아마존의 인공지능 기반 채용시스템이 기술 직군의 대부분에 남성만을 추천했던 것이 대표적 사례다. 인간의 차별이 깃든 데이터를 바탕으로 태어난 AI가 인간보다 객관적이고 중립적인 결정을 내릴 것이란 예측은 오산이다.
인공지능 특유의 데이터 기반 학습 방식은 차별과 혐오에 따른 피해에 대한 책임 규명을 어렵게 만든다. 서울대학교 인공지능정책 이니셔티브(SAPI) 박도현 연구원은 “인간과 인공지능은 서로 다른 방식으로 사고하기 때문에 차별의 양상도 서로 다르다”며 “발화자가 일차적 책임을 지는 인간의 혐오 표현과 달리, 인공지능이 의사결정을 할 때는 데이터 수집자, 가공자, 이용자 등 다양한 사람이 함께 문제에 개입하기 때문에 책임을 묻기 어렵다”고 지적했다. 인공지능이 만들어내는 차별이 특히 위험한 이유다.

인공 지능의 혐오와 차별이 문제가 되었던 사례 ⓒ이루다 홈페이지
인공지능이 학습 데이터를 통해 ‘스스로’ 알고리즘을 산출해낸다는 특성은 개발자들이 AI의 구체적인 의사결정 과정을 설명하는 데 상당한 어려움을 겪게 한다. 이처럼 인공지능의 판단 과정을 알기 어렵다는 불투명성은 기업들이 착한 인공지능을 만드는 데에 큰 걸림돌로 작용해왔다. AI가 잘못된 판단을 내리게 된 원인을 찾지 못하면 사후적으로 AI의 구현과정에서 혐오와 차별 요소를 제거할 수 없어서다. 데이터 수집에 대한 엄격한 법적 규제를 마련하자는 주장이 나온다. 사전적으로 AI가 비윤리적인 데이터를 학습할 가능성을 통제하자는 것이다.
그러나 관계자들 사이에서는 데이터 수집 과정을 규제하는 게 능사는 아니라는 반응이다. 고학수 교수(법학전문대학원)는 “모든 상황을 개발자가 사전에 파악해 리스크를 지운다는 것은 현실적으로 거의 불가능하다”고 말했다. 법을 다양한 종류의 인공지능 분야에 일괄적으로 적용할 수 없다는 의견도 존재한다. 교육 관련 인공지능 스타트업의 박민석 개발자는 “기업별로 수집해야 하는 데이터의 종류와 양상이 매우 다양하다”며 “학원에서 맞춤형 교육 인공지능을 개발하기 위해 학생들의 정보를 수집하는 것과, 로봇 청소기 같은 가사노동 인공지능을 만들기 위해 데이터를 수집하는 것 사이에는 서로 다른 윤리적 기준이 적용돼야 한다”고 강조했다. 인공지능의 목적에 따라 활용하는 데이터의 양과 종류, 처리 방식이 상이할 수밖에 없다는 것이다. 하지만 지나친 데이터 규제로 활용할 수 있는 학습 데이터가 줄어들면 원활한 기계학습이 이뤄지기 힘들다는 주장도 나오고 있다. 인공지능 개발사들은 사전적인 데이터 규제가 현실적으로 어려울 뿐만 아니라 기업의 기술 혁신을 지나치게 억제한다고 본다.
실효성이 떨어지는 데이터 규제보다는 알고리즘에 대한 규제를 강화하자는 목소리도 있다. 알고리즘의 코딩 과정이라도 투명하게 공개해 최소한의 설명 가능성을 확보하자는 얘기다. 그러나 이 역시 문제가 많다. 익명을 요청한 한 인공지능 챗봇 스타트업의 팀장은 “기업의 입장에서 코딩 공개는 영업 기밀 유출과 직결된다”며 “상업적 논리 속에서 (코딩을) 오픈하는 것이 쉽지 않을 것”이라고 말했다. 고학수 교수도 “기업이 알고리즘의 소스코드를 공개하면 투명성은 확보될 수 있어도 오히려 그 허점이 드러나 포이즈닝 어택에 취약해질 수 있다”고 지적했다. 포이즈닝 어택(posioning attack)은 알고리즘의 허점을 노려 부당한 이익을 취하려는 조작이다. 알고리즘 투명성 확보를 위한 노력이 역으로 기업에 심각한 손해를 유발하게 될 수도 있다는 것이다.
인공지능에서 차별과 혐오를 지우는 일은 결코 쉽지 않다. 기업들은 데이터 편향성 제거와 성능 저하, 알고리즘의 투명성과 영업 기밀의 유지 등 상충되는 여러 가치 가운데에서 착한 인공지능 딜레마에 봉착한다. 지난 4월 챗봇 이루다의 개발사 스캐터랩이 개인정보보호위원회에서 1억 원 상당의 과징금을 받게 되면서 섣부른 기술 개발에 대한 기업들의 우려와 딜레마 해소에 대한 고민은 더욱 깊어지고 있다.
기업 AI 윤리 가이드라인은 해답을 던져줄까
인공지능의 혐오와 차별적 요소를 제거할 가장 유력한 대안으로 인공지능 윤리 관련 입법이 꼽힌다. 지난 4월 유럽연합(EU)은 인공지능 개발과 활용에 대한 신뢰 확보를 위해 총 85개 조문으로 구성된 인공지능법안(Regulation)을 마련했다. 인공지능에 대한 투자와 혁신이 촉진될 수 있도록 법적 안정성 보장에 힘쓰겠다는 취지다.
하지만 법안 제정은 신중해야 한다는 의견이 나온다. 고학수 교수는 “학계에 여전히 인공지능 법제 설계에 대한 의견차가 존재하고 분명한 기준을 정립하지 못한 상황”이라며 “성급한 입법은 산업의 촉매가 아닌 족쇄가 될 가능성이 있다”고 말했다. 성급한 법적 규제가 독이 될 수 있다는 것이다. EU의 사례를 우리나라에 그대로 적용할 순 없다는 지적도 제기된다. SAPI의 연구원인 정종구 변호사는 “네이버나 카카오 등 국내 IT기업의 세계적 성장 가능성을 고려할 때, 구글이나 유튜브 등 해외 기업에 대한 강한 규제를 택한 EU의 입법안은 한국의 산업 현실에 온전히 부합한다고 볼 수 없다”고 말했다.
남은 해결책은 기업의 자발적인 ‘AI 윤리 가이드라인’ 수립과 자율적 규제다. 2018년 이후로 정부와 시민사회, 기업 등으로부터 윤리적 AI 기술 확립을 위한 가이드라인이 나오고 있다. 지난 5월 13일 정부는 ‘신뢰할 수 있는 인공지능 실현 전략’을 발표하며 개발자와 이용자 등이 AI 윤리 준수 여부를 자율적으로 점검할 수 있도록 체크리스트를 보급하겠다고 밝혔다. 정종구 변호사는 “AI와 같이 발전 속도가 빠르고 세분화된 산업의 경우, 법령을 통한 타율적인 규제보다는 기업이 규칙을 정립하고 운용할 수 있도록 가이드를 주는 자율적 규제가 더 적합하다”고 강조했다.

2018년 이후 인공지능 윤리 가이드라인의 수가 급증하고 있다.ⓒSPAI
개별 기업의 특징과 정체성이 반영된 가이드라인을 수립하려는 작업은 전세계적으로 증가하는 추세다. 마이크로소프트는 2016년 3월 챗봇 테이의 혐오 발언으로 인공지능 기술 개발의 윤리적 난점에 부딪혔지만, 이후 기업 차원의 윤리원칙을 개별서비스에 구체적으로 적용해 나갈 방법을 고민하고 있다. 정종구 변호사는 “모든 기업이 시행착오를 겪을 수는 있지만, 즉각 피드백을 반영하려는 기업 차원의 개선 의지만 있다면 AI의 운영과정에서 발생할 수 있는 차별과 혐오의 재생산을 최소화할 수 있다”고 말했다.
더 나은 AI 윤리 가이드라인을 위해
일각에서는 마이크로소프트나 네이버 등 대기업이 안정적으로 AI 윤리 가이드라인을 제작할 수 있는 이유가 그만한 자본력과 기술력이 받쳐주기 때문이라고 보기도 한다. 실제로 소규모 영세 스타트업에겐 가이드라인을 마련할 여력이 충분치 않다. 고학수 교수는 “기존 AI 윤리 가이드라인의 가장 큰 한계는 구체적인 기술 마련과 금전적 지원과 관련된 가이드는 전혀 제공하고 있지 않다는 점”이라고 지적했다.
소규모 스타트업은 개발 과정에서 발생할 수 있는 윤리적 문제를 상담할 곳이 마땅치 않(아 문제)다. 박민석 개발자는 “윤리에 관한 고민을 공유하고 자문을 구할 수 있는 사람이 있아야 하는데, 소규모 스타트업의 경우 행위의 적법성을 법률적으로 상담할 방법도 없을 뿐만 아니라 데이터 정제 기술에 대한 정보 습득도 상당히 제한적”이라고 토로했다. 박도현 연구원은 인공지능 산업 전반의 협력이 필요하다고 강조한다. 박 연구원은 “대기업은 데이터 비식별화 조치나 혐오·차별 표현 디버깅과 관련된 다양한 유즈케이스를 소규모 스타트업과 적극적으로 공유해야 한다”고 말했다.
정부와 대학이 인공지능 윤리 가이드를 산업별로 세분화해 소규모 스타트업에게 적극 제공해야 한다는 요구도 커지고 있다. ‘인공지능 윤리’라는 정부의 포괄적 지칭 아래 인공지능 분야의 다양한 맥락이 지워지고 있다는 이유에서다. 박민석 개발자는 “같은 인공지능 분야라도 적용되는 산업별로 AI 서비스 양상이 매우 다르다”며 “정부 차원에서 기준을 더 세분화해 산업별 윤리 가이드를 제공해야 스타트업의 기술 혁신에 도움이 될 것”이라고 목소리를 높였다.
AI 윤리 가이드라인의 강제성이 없다는 문제도 제기된다. 박도현 연구원은 “가이드라인이 잘 지켜지고 있는지를 문서화해서 공개하는 기업이 있는 반면, 그냥 윤리원칙을 통보하고 마는 기업도 상당수”라며 가이드라인의 실효성에 의문을 제기했다. 기업들이 실질적으로 윤리 가이드라인을 준수하도록 만들 인센티브가 존재하지 않는다는 우려다. 정종구 변호사는 가이드라인 이행 여부를 감안해 인공지능의 차별적 행위에 대한 처벌 수준을 결정하는 방안을 제시했다. “스타트업의 경우 가이드라인을 충실히 이행한다면, 인공지능의 차별적 아웃풋에 관한 법적 분쟁이 발생했을 때 윤리성에 대한 기업의 일차적 책임을 수행했음을 인정받아 정상 참작될 가능성이 커진다. 이런 법리적 인센티브가 존재하는 한 기업이 가이드라인을 따르는 것은 당연한 수순이 될 것이다.”
대다수의 인공지능 스타트업은 정부 차원의 체계적인 AI 가이드라인이 만들어진다면 적극적으로 따르겠다는 입장이다. 한 챗봇 스타트업 팀장은 “이루다 사건 이후 인공지능 챗봇 에 대한 불신이 커져 자사 소비 수요도 영향을 받았다”며 “모든 스타트업이 상생하기 위해서는 사회적 가치를 준수하려는 기업 윤리의 재고가 필요하다”고 강조했다.
인공지능의 개발과 출시, 활용의 모든 단계에서 윤리적 문제의 발생을 막으려면 실효성 있는 조치가 필요하다. 착한 인공지능을 만들기 위한 과정은 지난하지만, 고민은 계속돼야 한다. 박도현 연구원은 “착한 인공지능을 구현하기 위해서는 결국 인류가 추구하는 가치가 무엇인지에 대한 고민이 선행돼야 한다”고 강조한다. 이제 시작일 뿐인 인공지능의 미래에 윤리성에 대한 사회적 요청이 공허한 외침으로 남아서는 안 될 것이다. 규제를 넘어선 근본적인 변화를 위해 모든 사회 주체의 고민과 협력이 촉구되는 이유다.