비전공자도 이해할 수 있는 AI지식 -이루다는 왜 2주만에 서비스를 멈췄는가-

1. 컴퓨터와 대화할 수 있을까

 

이루다는 국내 스타트업이 개발한 챗봇입니다.

 

https://luda.ai/

 

 

자유 주제 대화시스템(Open Domain Dialogue System)을 기반으로 어떤 주제로든 자유롭게 대화할 수 있는 인공지능을 이루었다는 의미로 이름 지은, 스무 살의 소녀로 설정된 챗봇입니다.

 

십수년 전에 '심심이'라는 챗봇이 큰 인기를 끈 적이 있었습니다

 

http://m.segyebiz.com/newsView/20220421501122

 

 

수백 가지 규칙을 입력한 챗봇은 규칙에 맞게 질문이 들어오면 이에 해당하는 대답을 해주었습니다.

 

규칙 기반의 챗봇은 한계가 분명 있었지만, 심심이는 나름대로 풍부한 규칙으로 이름처럼 심심치 않게 대화를 이어나갈 수 있었고, 많은 사람이 대화에 빠져들게 됩니다.

 

1966년 MIT의 컴퓨터 과학자 요제프 바이첸바움은 세계 최초의 챗봇 일라이자(ELIZA)를 개발합니다.

 

http://aidev.co.kr/chatbot/9013

 

일라이자는 조지 버나드 쇼의 희곡 <피그말리온>에 등장하는 인물의 이름입니다.

 

희곡의 제목, 피그말리온은 자신이 만든 조각상과 사랑에 빠지는 그리스 신화 속 조각가의 이름으로,

 

자신의 피조물과 사랑에 빠진다는 신화가 이후 수많은 예술가의 영감을 자극했었죠.

 

쇼의 희곡도 이 신화를 차용합니다. 

 

<피그말리온>에 등장하는 하층민 소녀 일라이자는 음성학 교수 헨리 히긴스에게 상류층 영어를 구사하도록 교육받죠

 

이 소녀의 이름을 딴 일라이자 챗봇은 심심이보다 수십 년 전에 등장한 세계 최초의 챗봇으로, 규칙 기반으로 구현되었습니다.

 

규칙 또한 매우 단순했습니다.

 

일라이자의 심리 치료사 버전은 상류층의 언어를 따라하던 일라이자처럼 상대방의 말을 따라서 대화하도록 설계되어서, 상대방이 한 말을 약간만 비틀어 되묻기만 할 뿐이었죠.

 

예를 들면 다음과 같습니다.

 

사람: 남자친구가 저를 여기로 보냈어요.

일라이자: 남자친구가 당신을 여기로 보냈나요?

사람: 남자친구 말이 제가 항상 우울하대요.

일라이자: 우울하다니 안됐군요.

사람: 사실인걸요. 저는 불행해요.

일라이자: 여기 오면 불행해지지 않는데 도움이 될 것 같나요?

 

여기서 일라이자는 정신과 의사 역할이고, 사람은 환자 역할입니다.

 

얼핏 의사가 환자를 진료하는 것처럼 보이지만 사실은 매우 단순한 규칙에 따라 의사는 환자가 한 말을 그대로 반복하는 것에 불과합니다.

 

의사 역할을 한 일라이자의 대화 규칙 중 일부입니다.

 

----------------------------------------------------------------------------------------------------

 

만약 환자가 "나는 ~가 필요해요"라고 말하면, 다음 중 하나로 대답한다.

 

1. 왜 ~가 필요한가요?

2. 만약 ~가 있다면 정말 도움이 될까요?

3. 정말 ~가 꼭 있어야 한다고 생각하세요?

 

----------------------------------------------------------------------------------------------------

 

만약 환자가 "나는 ~에요"라고 말하면 다음 중 하나로 대답한다.

 

1. 환자분이 ~여서 의사를 보러 오셨나요?

2. 얼마나 오랫동안 ~였나요?

3. 스스로가 ~인데 대해 어떤 기분이 드나요?

 

----------------------------------------------------------------------------------------------------

 

만약 환자가 "~가 뭐에요?"라고 물으면 다음 중 하나로 대답한다.

 

1. 왜 물으세요?

2. 답을 듣는 게 어떻게 도움이 될 것 같아요?

3. 환자분은 어떻게 생각하세요?

 

----------------------------------------------------------------------------------------------------

 

만약 환자가 "미안"이라는 단어를 사용하면 다음 중 하나로 대답한다.

 

1. 미안해하지 않아도 되는 경우도 많이 있어요.

2. 남한테 사과할 때는 어떤 기분이 들어요?

 

----------------------------------------------------------------------------------------------------

 

환자가 아무런 규칙도 적용할 수 없는, 이해 불가능한 말을 하면 다음 중 하나로 대답한다.

 

1. 계속 말씀해보세요.

2. 정말 흥미롭군요.

3. 알겠습니다.

4. 그래요, 그게 무슨 뜻인 것 같나요?

 

----------------------------------------------------------------------------------------------------

 

전형적인 if-then 규칙입니다.

 

정해진 규칙에 따라 대답을 하는 거죠. 

 

여기에 더해 일라이자는 상대방이 사용한 문장에서 핵심 어구를 추출하여 내부적으로 미리 정한 문장에 끼워넣어 되묻습니다.

 

몇 가지 규칙과 패턴 매칭을 기반으로 하는 매우 단순한 형태의 인공지능이죠.

 

예를 들어 "친구가 필요해요"라고 한다면, 여기서 첫번째 규칙에 따라 "친구"를 추출하고, 일라이자는 규칙에 따라 "왜 친구가 필요한가요?"라고 단순하게 응답합니다.

 

더 이상 대화를 이어나가기 힘들면 적당히 얼버무리기도 하죠.

 

요즘 남녀관계로 비유하자면 여자의 얘기를 영혼 없이 들어주는 남자와 비슷합니다.

 

할 말이 없으니 말 끝을 잡아 되묻기만 하죠.

 

쇼의 희극에서 일라이자는 상류층 영어를 완벽하게 구사하지만, 정작 대화 내용으로는 자신이 속했던 하층민 계급에 어울리는 얘기만 늘어놓습니다.

 

챗봇 일라이자 또한 정신과 의사의 말투를 흉내 내지만 정작 상담 내용으로는 아무 의미 없는 말을 반복할 뿐이죠.

 

하지만 결과는 매우 성공적이었습니다.

 

컴퓨터와 대화한다는 발상이 사람들을 깜짝 놀라게 했고, 심지어 일라이자에게 애착을 느낀 사람도 등장할 정도였습니다.

 

마치 영화 <그녀>에서 주인공이 인공지능과 사랑에 빠졌던 것처럼 무려 60여 년전부터 단순한 규칙 기반의 챗봇에 마음을 빼앗긴 사람이 수두룩했죠.

 

심지어 바이첸바움의 비서는 바이첸바움에게 일라이자와 단 둘이 대화를 나눠야겠으니 자리를 비켜달라고 했다고 합니다.

 

그만큼 일라이자는 사람들에게 매력적인 존재였죠.

 

이런 성과 덕분에 인공지능이 아직 산재한 여러 문제를 금방 극복할 것이라는 낙관주의가 널리 퍼졌습니다.

 

하지만 우리 모두가 잘 알다시피 이후에 인공지능은 별다른 성과를 내지 못하죠.

 

일라이자 역시 단순 패턴에 따른 응답으로 마치 기계가 사람의 말을 이해했다고 착각하게 하는 일종의 속임수에 불과했기때문에, 챗봇 열풍은 금방 사그라듭니다.

 

그 후 많은 시간이 흘렀습니다. 그리고 2020년 이루다가 등장합니다.

 

 

2. 이루다는 무엇이 달랐나

 

이루다는 여전히 많은 부분에서 부족했지만 적어도 패턴 기반의 단순 응답을 반복하는 챗봇은 아니었습니다.

 

일라이자나 심심이와 달리 이루다는 한발 더 나아가 딥러닝을 활용해 풍부한 대화가 가능했습니다.

 

훨씬 더 자연스럽게 대화를 이어나갈 수 있었고, 보다 인간에 가까운 표현을 구사할 수 있었죠.

 

이처럼 자연스러운 대화를 위해 실제로 수많은 사람이 나눈 카카오톡 데이터를 두고 학습했습니다.

 

알려진 바에 따르면 무려 100억건 이상의 한국어 데이터를 활용했다고 합니다.

 

데이터의 출처가 문제가 되었는데, 이루다의 개발사는 자사의 연애 서비스에 이용자들이 남긴 개인적 대화까지 학습에 동원했습니다.

 

물론 사전에 고객에게 고지했고, 철저하게 개인정보를 필터링했다고 하지만, 개인정보침해 논란이 커졌습니다.

 

결국 이루다 개발사에게 정부는 동의 없이 개인정보를 수집하고 수집 목적 외에 정보를 활용해 개인정보보호법을 위반했다고 판단하여 벌금 1억원을 부과합니다.

 

짧은 서비스 기간 동안 무려 75만명이 넘는 사용자가 이루다와 대화했습니다.

 

이루다는 그야말로 폭발적인 인기를 끌었죠. 하지만 딥러닝 알고리즘에 따라올 수밖에 없는 여러 문제점과 개인정보 침해논란으로 결국 이루다는 출시한 지 겨우 2주만에 서비스를 중단하게 됩니다.

 

딥러닝을 기반으로 한 이루다가 규칙 기반의 심심이와 가장 달랐던 점은 어떤 말을 할지 예측하기가 어렵다는 것입니다.

 

풍부한 소재로 대화할 수 있지만, 얼마나 풍부할지는 알 길이 없는 양날의 검같은 존재였습니다.

 

심심이가 문제가 되는 발언을 하면, 규칙을 변경하기만 하면 그만이지만, 이루다는 어떤 말을 할지 사실상 필터링하기가 힘들었습니다.

 

이루다는 발설하면 안 될 불특정 다수의 실명이나, 집 주소 같은 개인정보를 얘기하기 시작했고, 성소수자를 향한 혐오를 표현하기에 이르렀죠.

 

이는 이미 수년 전 마이크로소프트가 개발한 챗봇 테이가 일으킨 문제와 유사합니다.

 

테이는 이루다처럼 미국의 열아홉 살 소녀로 설정되었습니다.

 

테이의 트위터 프로필 사진은 디지털 세상에만 존재하는 인격임을 보여주기 위해 큰 픽셀을 이용했는데, 이는 보는 이에게 위화감을 주기에 충분했습니다.

 

https://www.yna.co.kr/view/AKR20160325010151091

 

 

물론 여기까지는 괜찮았습니다. 문제는 테이가 트위터 사용자들과 대화하면서 스스로 학습하도록 디자인되었다는 점입니다.

 

마이크로소프트는 학습을 통해 테이의 대화능력이 점점 더 향상하길 바랐겠지만, 현실은 냉혹했습니다.

 

테이가 스스로 학습한다는 사실이 알려지자 많은 사람이 테이에게 차별과 혐오, 욕설 등을 가르치기 시작했습니다.

 

안타깝게도 테이는 옳고 그름을 판단할 수 있는 능력이 없었고, 부적절한 대화도 무차별적으로 학습했죠.

 

얼마 안 가 테이는 "9.11테러는 조지 부시 미국 전 대통령이 일으킨 거야"라고 말했습니다.

 

뿐만 아니라 인종차별적인 발언을 내뱉었고, 성소수자를 혐오했죠.

 

급기야 "히틀러가 옳아. 난 유대인이 싫어"따위의 말을 쏟아내면서 출시한 지 불과 16시간만에 마이크로소프트는 테이의 운영을 중단하기로 결정합니다.

 

진정한 인공지능을 꿈꾸던 테이와 이루다는 여러 논란만을 남기고 16시간, 2주라는 짧은 운명을 맞이했습니다.

 

이처럼 진정한 인공지능을 탑재한 챗봇은 아직 요원합니다.

 

무엇보다 챗봇 같은 '생성' 모델에게는 사소한 실수도 허용되지 않습니다.

 

자율주행차가 저지른 단 한번의 신호 위반이 치명적인 결과로 이어지는 것처럼 챗봇 또한 히틀러를 찬양하는 등의 단 한번의 실언이 매우 치명적인 결과로 이어질 수 있기 때문이죠.

 

그렇다면 사소한 실수는 용인되는 언어의 "이해"영역부터 살펴보겠습니다.

 

애초에 언어를 제대로 "생성"하기 위해서는, 정확한 "이해"가 선행되어야하므로 이 둘은 서로 연관성이 매우 높은 기술입니다.

 

 

TAGS.

Comments