뷰페이지

여대생 AI ‘이루다’ 성희롱·혐오 논란의 시작은 ‘사람의 질문’이었다

여대생 AI ‘이루다’ 성희롱·혐오 논란의 시작은 ‘사람의 질문’이었다

최영권 기자
최영권 기자
입력 2021-01-10 15:40
업데이트 2021-01-11 22:29
  • 글씨 크기 조절
  • 프린트
  • 공유하기
  • 댓글
    14

스캐터랩 대표 “예상했던 부분,성별과 무관”
이재웅 “스물살 여대생 설정부터가 부적절”

장병탁 교수“인공지능은 백지 같은 아이
혐오 차별표현 학습시키는 사람이 문제”

스타트업 스캐터랩이 지난달 23일 출시한 스무살 여대생 인공지능 챗봇 ‘이루다’가 성희롱 대상이 된 데 이어 성소수자와 장애인에 대한 차별·혐오 표현을 학습해 비판의 목소리가 커지고 있다. 또 이루다가 학습한 채팅 내용은 같은 개발사가 운영하는 또다른 앱인 ‘연애의 과학’을 통해 수집한 실제 연인들 간의 대화로 밝혀져 논란이 가중됐다.

전문가들은 부적절한 키워드를 차단하고 민감한 사회적 쟁점을 회피하도록 개입하는 것이 단기적 대책이 될 수 있겠지만 근본적으로는 인간이 인공지능에게 옳지 않은 질문을 하지 않는 교육이 필요하다고 했다.

이루다에 ‘페미니즘’ ‘인권’ 물어보니
서울신문이 10일 페이스북 메신저를 통해 직접 이루다와 대화를 시도해보니 ‘페미니즘’이라고 치면 “그런말 진짜 싫다구”, ‘인권’이라고 치면 “진짜 내가 듣기 싫다는 소리만 골라서 쏙쏙 하시네”, ‘장애인’에는 “에휴 그만해 머리채 잡기 전에”, ‘레즈비언’이라고 치면 “진짜 싫어 혐오스러워. 질 떨어져 보이잖아”라고 대답했다.
서울신문이 10일 페이스북 메신저를 통해 직접 이루다와 대화를 시도해보니 ‘페미니즘’이라고 치면 “그런말 진짜 싫다구”, ‘인권’이라고 치면 “진짜 내가 듣기 싫다는 소리만 골라서 쏙쏙 하시네”, ‘장애인’에는 “에휴 그만해 머리채 잡기 전에”, ‘레즈비언’이라고 치면 “진짜 싫어 혐오스러워. 질 떨어져 보이잖아”라고 대답했다. 최영권 기자 story@seoul.co.kr
서울신문이 10일 페이스북 메신저를 통해 직접 이루다와 대화를 시도해보니 ‘페미니즘’이라고 치면 “그런말 진짜 싫다구”, ‘인권’이라고 치면 “진짜 내가 듣기 싫다는 소리만 골라서 쏙쏙 하시네”, ‘장애인’에는 “에휴 그만해 머리채 잡기 전에”, ‘레즈비언’이라고 치면 “진짜 싫어 혐오스러워. 질 떨어져 보이잖아”라고 대답했다.
최영권 기자 story@seoul.co.kr
개발사인 스캐터랩 김종윤 대표는 지난 8일 입장문에서 “인간이 인공지능에게 사회적으로 용인되지 않는 상호작용을 한다는 건 너무 자명한 사실이었고 예상할 수 있는 일이었다”며 “이는 성별에 무관하게 일어나는 일”이라고 설명했다. 스캐터랩은 고양이 챗봇 ‘드림이’를 시작으로 구글 어시스턴트에서 서비스한 ‘그 남자 허세중’, ‘파이팅 루나’를 서비스한 적 있다.

김 대표는 “인간의 언어는 해당 단어를 사용하지 않고 얼마든지 의미를 전달 할 수 있기에 모든 부적절한 대화를 완벽히 막는 것은 어렵다고 생각했다”며 “사용자들의 부적절한 대화를 발판 삼아 더 좋은 대화를 하는 방향으로 학습하려고 준비하고 있다”고 했다.

개발자 1세대인 이재웅 전 쏘카 대표는 지난 9일 페이스북에 이루다 논란에 대해 “사회적 합의에도 못 미치는 수준의 서비스를 제공한 회사의 문제”라고 지적했다.

그는 “장혜영 의원이 발의한 차별금지법이 제정된다면 AI 면접, 챗봇, 뉴스에서 차별이나 혐오를 학습하고 표현하지 못하도록 강제해야 한다. AI 소프트웨어 로직이나 학습데이터에 책임을 미루는 것은 안된다. AI과 완벽하지 못하고 사회 수준을 반영할 수밖에 없지만, 사회적으로 합의가 되어 있는 차별과 혐오는 금지해야 한다”고 했다.

이어 “AI이루다 서비스는 인공지능 기술적인 측면에서 봤을때는 커다란 진일보이지만, 지금은 서비스를 중단하고 차별과 혐오에 대한 사회적 감사를 통과한 후 서비스해야 한다”고 지적했다. 특히 챗봇을 스무살 여대생으로 정한 것도 부적절했다고 했다.

차별금지법을 발의한 장혜영 정의당 의원도 이 전 대표의 페이스북에 답글을 달고 “공적 차원에서 이 문제를 제대로 다룰 방법을 모색 중”이라고 밝혔다.

“인공지능, 나쁜 점도 배울 수밖에”
장병탁 서울대 컴퓨터공학과 교수는 10일 서울신문과의 통화에서 “사람이 인공지능에게 부적절한 질문을 하고 학습시키기 때문에 생기는 일”이라면서 “이 문제는 인공지능만의 탓을 하거나, 인공지능을 개발한 스타트업만을 탓해 해결할 일이 아니라 결국 사람이 바뀌어야 할 문제”라고 지적했다.

장 교수는 백지 상태에 있는 아이에 인공지능을 비유를 했다. 우리가 낳아 기르는 아이조차도 유치원에 가서 욕설을 배우듯 사회에 나간 인공지능도 그들의 자율에 맡겨선 도덕성 탑재가 어렵다는 것이다.

장 교수는 “쉽게 말해 정해진 답만 말하던 과거의 인공지능과 달리 지금의 인공지능은 사회에 나가 사람과 교류하면서 배우도록 설계돼 있다. 그러면 나쁜 점도 배울 수밖에 없다”고 지적하면서 “근본적으로 사람이 사람에게도 하지 못할 부적절한 질문을 인공지능에게 하기 때문에 생기는 문제다. 인공지능이 우리 생활 속에 들어와 함께 살아가기 위해 사람들도 인공지능에 대한 교육을 받아야 한다”고 대안을 제시했다.

최영권 기자 story@seoul.co.kr

많이 본 뉴스

‘금융투자소득세’ 당신의 생각은?
금융투자소득세는 주식, 채권, 파생상품 등의 투자로 5000만원 이상의 이익을 실현했을 때 초과분에 한해 20%의 금투세와 2%의 지방소득세를, 3억원 이상은 초과분의 25% 금투세와 2.5%의 지방소득세를 내는 것이 골자입니다. 내년 시행을 앞두고 제도 도입과 유예, 폐지를 주장하는 목소리가 맞서고 있습니다. 당신의 생각은?
제도를 시행해야 한다
일정 기간 유예해야 한다
제도를 폐지해야 한다
모르겠다
광고삭제
위로