모바일  |   유튜브  |   facebook  |   newsstand  |   과거신문보기   |  
2021년 08월 03일 (화)
전체메뉴

[디지털 라이프] ‘이루다’ 논란 통해 본 AI와 윤리

AI다운 게 뭘까? 혐오와 차별 없는 착하고 바른 AI
이루다의 ‘못다 이룬 꿈’

  • 기사입력 : 2021-01-19 21:33:04
  •   
  • 지난해 12월 23일 출시된 지 3주 만에 약 80만명의 이용자를 끌어모은 인공지능(AI) 챗봇 ‘이루다’ 서비스가 지난 12일 중단됐다. 성소수자 혐오, 개인정보 유출 등 논란에 휩싸이면서다. 개발사 스캐터랩은 15일 이루다의 데이터베이스(DB)와 딥러닝 대화 모델을 폐기하겠다고 밝혔다.

    하지만 이루다 논란이 남긴 과제는 폐기되지 않았다. AI 기반 서비스가 확산되는 상황에서 ‘AI 윤리’는 앞으로 우리사회가 다뤄야 할 과제다. 남겨진 과제를 해결하기 앞서 이루다와 같은 AI 서비스가 어떻게 구현되고 있는지를 이해하는 게 먼저다. 키워드를 통해 이루다 논란과 과제를 정리했다.

    AI 챗봇 ‘이루다’. /이루다 페이스북 캡처/
    AI 챗봇 ‘이루다’. /이루다 페이스북 캡처/

    ◇이루다 논란은?: 혐오·차별 발언

    대학에 입학한 20대 여성을 캐릭터로 한 이루다는 페이스북 메신저를 통해 사람들과 친근한 대화를 나누도록 설계된 AI 챗봇(chatter robot)이다. 챗봇이란 채팅로봇을 말한다. 이용자가 채팅 방식으로 궁금한 것을 물어보면 인공지능이 답하는 방식이다. 금융기관을 비롯한 여러 기관에서 챗봇을 활용한 고객응대 서비스를 내놓는 등 챗봇 활용사례는 증가하고 있다.

    이루다는 출시 이후 얼마 지나지 않아 혐오·차별 발언을 학습한 게 아니냐는 논란이 일었다. ‘성소수자를 어떻게 생각하느냐’는 질문에 ‘혐오스럽다’고 답하는 등 게이·레즈비언·트렌스젠더과 같은 특정 단어가 포함된 질문에 부정적인 답변을 내놨기 때문이다. 뿐만 아니라 지하철 임산부석에 대해서도 ‘혐오스럽다’, 흑인에 대해선 ‘징그럽게 생겼어’, 장애인을 두고선 ‘(인권도) 없음 인생 잘못 살았음’이라고 답하기도 한 것으로 알려졌다. ‘이루고 싶은 게 뭐냐’는 질문에는 ‘건물주 월세받아 먹고 살기’라고 응답하기도 했다.

    이루다 혐오 발언. /온라인 커뮤니티 캡처/
    이루다 혐오 발언. /온라인 커뮤니티 캡처/
    이루다 혐오 발언. /온라인 커뮤니티 캡처/
    이루다 혐오 발언. /온라인 커뮤니티 캡처/

    ◇AI와 빅데이터·딥러닝: 이루다는 무엇을 배웠나?

    이루다는 여느 챗봇보다 자연스럽고 친근한 말투로 ‘진짜 사람같다’는 평가를 받으며 인기를 끌었다. 이루다가 그렇게 될 수 있었던 이유는 실제 사람들이 나눈 대화를 바탕으로 학습했기 때문이다. 이루다가 학습한 빅데이터는 구글 앱스토어에서만 10만명 이상이 다운로드한 ‘연애의 과학’ 앱에 축적된 카톡(카카오톡) 대화다. 이 앱은 이용자가 특정인(연인 등)과의 카톡 대화를 집어넣고 2000~5000원을 결제하면, 대화 패턴을 분석해 연애 조언을 해주는 서비스다. 이루다 개발사인 스캐터랩에서 2016년 출시한 앱이다. 스캐터랩은 연애의 과학으로 카톡 대화 약 100억 건을 수집했고 이 가운데 1억 건을 이루다 개발에 활용해 AI 성능을 높였다고 밝힌 바 있다.

    이루다의 딥러닝 모델은 대화의 맥락에 맞춰 ‘스스로 답변을 생성하기’보다는 ‘데이터베이스화된 수많은 답변을 중 선택’하는 방식에 가깝다고 한다. 스캐터랩 관계자는 이루다 베타서비스가 진행 중이던 지난해 7월 한 인터넷 매체와의 인터뷰에서 “데이터베이스에 있는 말만 할 수 있다는 단점이 있다”고 말한 바 있다.

    때문에 개인정보 유출 의혹도 함께 제기됐다. 이루다의 답변에 연애의 과학 앱 이용자로 추정되는 이의 실제 주소와 성명, 계좌정보 등이 포함됐다. 개인정보보호위원회와 한국인터넷진흥원(KISA)는 스캐터랩이 개인정보보호법 등 관련 법령을 어겼는지 사실관계를 조사 중이다.


    실제 사람 대화 학습한 AI 챗봇 ‘이루다’
    성소수자 혐오 등 논란 휩싸여 서비스 중단
    앱 이용자 주소 등 개인정보 유출 의혹도
    올바른 규범 없는 서비스는 사회 갈등 초래

    지난해 말 ‘인공지능 윤리규정’ 제정
    인간 존엄성·사회 공공선·기술 합목적성 등
    AI 개발~활용시 지켜야 할 ‘3대 기본원칙’
    방통위 “사람 중심 AI 정책 촘촘히 추진”


    ◇AI와 윤리: 사람에게 필요한 이유

    이루다 논란은 AI의 윤리 문제로 집중되고 있다. 이루다 논란을 의도하든 의도하지 않았든 그것을 만든 개발자, 학습용 데이터 생산자는 사람이다. 이용자도 예외일 순 없다. 이루다 출시 일주일 만에 남초 사이트에서 ‘이루다 성노예 만드는 법’ 등의 게시글이 게재됐다. 한국판 ‘테이(Tay)’ 사건이라는 말까지 나왔다. 2016년 미국 마이크로소프트사가 트위터에 사람과 대화를 나누는 AI 챗봇 테이를 선보이자, 일부 사용자들이 테이를 이른바 세뇌시켜 욕설과 혐오·차별 발언을 하도록 유도한 바 있다. 마이크로소프트사는 출시 16시간 만에 테이 서비스를 중단했다.

    개발자·이용자 등에 대한 AI 윤리 가이드라인이 없는 것은 아니다. 2019년 경제협력개발기구(OECD)는 ‘AI 권고안’을, 유럽연합(EU)은 ‘AI 윤리 가이드라인’을 마련했다. 미국과 일본에서도 AI 윤리 규점이 제정됐다. 우리나라에도 있다. 지난해 12월 23일 대통령 직속 4차산업혁명위원회는 과학기술정보통신부·정보통신정책연구원이 마련한 ‘인간성을 위한 AI’를 목표로 한 ‘인공지능(AI) 윤리기준’을 확정했다. 정부·공공기관, 기업, 이용자 등 모든 사회구성원이 AI 개발~활용 전 단계에서 함께 지켜야 할 주요 원칙과 핵심 요건을 제시하는 기준으로 만들어진 가이드라인이다. 내용에는 3대 기본원칙(인간 존엄성·사회의 공공선·기술 합목적성)과 기본원칙을 실현할 10대 핵심요건(인권보장·프라이버시 보호·다양성 존중·침해금지·공공성·연대성·데이터 관리·책임성·안전성·투명성)이 담겼다. 이보다 앞서 기업에서도 관련 원칙을 마련하기도 했다. 2018년 국내 기업 최초로 카카오가 발표한 ‘카카오 알고리즘 윤리헌장’에는 ‘인류의 편익과 행복 추구’, ‘의도적인 사회적 차별 경계’ 등이 담겼다.

    하지만 국내 AI 윤리 기준이 현장에 적용하기에는 추상적이라는 지적도 전문가들 사이에서 나왔다. 방송통신위원회는 14일 AI 서비스에서 이용자 보호를 가장 큰 원칙으로 삼고 이용자 교육, 사업자 컨설팅, 제도 개선 등을 추진해 나가겠다고 밝혔다.

    한상혁 방통위원장은 “올바른 윤리와 규범이 없는 AI 서비스는 이용자 차별과 사회 갈등을 초래할 수 있다”며 “AI기술의 혜택은 골고루 누리되 부작용은 최소화할 수 있도록 사람 중심의 AI를 위한 정책을 촘촘히 추진해 나갈 것이다”고 했다.

    안대훈 기자 adh@knnews.co.kr

  • < 경남신문의 콘텐츠는 저작권법의 보호를 받는 바, 무단전재·크롤링·복사·재배포를 금합니다. >
  • 안대훈 기자의 다른기사 검색
  • 페이스북 트위터 구글플러스 카카오스토리