[출처: 이루다 홈페이지]


인공지능(AI)에 관한 윤리문제가 심각한 이슈로 떠오르고 있다. 인공지능이 만들어내는 인격체의 모습, 그걸 이용하는 사용자의 잘못된 행태, 인공지능을 만드는 업체의 윤리관까지. 매우 복합적으로 모든 문제가 한꺼번에 쏟아져 나오는 중이다.

최근에 문제가 된 것은 지난달 23일 페이스북 메신저 기반으로 출시된 인공지능(AI) 챗봇인 '이루다'다. 이루다의 나이는 스무살이고 만화풍의 귀여운 인상이며 그룹 블랙핑크와 일상을 기록하기 좋아한다. 발랄한 요즘 20대 여성의 캐릭터가 살아있다. 젊은이들이 잘 쓰는 표현, 신조어, 오타까지 자연스럽게 녹아 있는 것이 장점이다.

그런데 막상 이걸 이용하는 사용자 일부는 성적인 표현을 우회적으로 쓰며 성희롱을 즐겼다. 더구나 이루다는 성소수자나 장애인 등에 대한 혐오 발언도 했다고 알려졌다. 원인은 학습하는 빅데이터 가운데 이용하는데  사용자 대화에 답하는데, 그 데이터에 포함된 잘못된 표현과 혐오발언을 걸러내지 못했기 때문이다. 

이런 일은 2016년 마이크로소프트(MS)가 가상 10대 여성 인공지능 챗봇 '테이'를 만들었을 때도 벌어졌다. 테이는 이용자의 데이터를 무비판적으로 학습하다보니 인종 성차별적 발언과 욕설까지 배우게 된 것이다. 사태가 커지자 출시 20일만인 1월 11일 이루다 서비스는 잠정 중단됐다. 

이루다를 둘러싼 사건은 발전하는 인공지능 서비스가 최근 겪고 있는 문제점을 드러낸다는 점에서 주목할 가치가 있다. 한마디로 말하자면 인공지능 그 자체에는 잘못이 없다. 문제는 만들고 사용하는 측이 인공지능의 기반이 되는 빅데이터를 매우 잘못 사용하고 있다는 점이다.

인공지능은 우리 생활을 편리하게 만들기 위한 도구다. 자동차나 가전제품을 만들때는 그것이 주는 효용성 극대화에 앞서 우선 안전이 중요하다. 인공지능 역시 마찬가지다. 얼마나 재미있고 유용한 캐릭터를 만들 수 있냐는 측면도 중요하다. 그러나 그 인공지능이 결과적으로 인간을 육체적 심리적으로 상처입히지 않는 것이 더욱 중요하다. 기계가 인간을 지배하고 죽이는 디스토피아 세계관은 영화속에서나 있어야지 현실에 있어서 안되기 때문이다.

인공지능은 기본적으로 학습된 빅데이터의 결과물이다. 그리고 빅데이터를 학습하는 과정은 개발자가 만든 규칙에 절대적인 영향을 받는다. 개발자가 빅데이터 학습과정에서 적절한 필터를 통해 비윤리적인 표현과 성적인 부분을 걸러내도록 만들면 된다. 다만 그렇게 하면서 생동감 넘치는 인공지능을 단시간에 만들기 어려우니 그 과정을 생략하려는 유혹에 빠진다. 그러면 인공지능은 앞서 본 이루다나 테이처럼 나쁜 표현과 대응도 가능하게 된다. 개발자의 책임이다.

사용자 일부에게도 잘못이 있다. 마치 저항하지 못하는 작은 동물을 일방적으로 학대하듯, 쏘아붙이거나 고소하지 못하는 인공지능을 상대로 비윤리적 대화를 시도하는 부분이다. 사용자와의 피드백을 통해 성장하는 인공지능은 그런 대화에서도 무엇인가를 배우려고 한다. 그러다보면 아무것도 모르는 앵무새나 아기에게 욕설을 가르치는 것과 마찬가지로 인공지능이 그걸 받아들일 수 있다. 

이런 심각성 때문일까? 구글, MS, IBM 등 기업들이 사회적 편견을 걷어낸 AI 개발에 나서겠다고 선언했다. 훈련 빅데이터에 편향 원인이 있는지 평가하고, 문제가 될 수 있는 편향을 제거 또는 수정하는 모델을 훈련한다는 내용이다. IT기술을 이끌어나가는 기업 답게 큰 문제가 되기 전에 제대로 된 대응을 하려는 책임있는 자세다.

우려되는 것은 국내기업이다. 미국처럼 거대한 인력풀과 자금력이 없는 국내 기업은 의욕에 넘친 나머지 효율만 중시한 빅데이터 학습을 그대로 진행할 수 있다. 그렇게 되면 이루다 케이스보다 더 심각한 사회적 문제가 발생할 수 있다. 빅데이터를 제대로 활용하려는 기업과 사용자 모두의 노력이 간절히 필요하다.