마이크로소프트, 채팅로봇 '테이' 부적절한 발언 배워 16시간만에 중단

마이크로소프트, 채팅로봇 '테이' 부적절한 발언 배워 16시간만에 중단

기사승인 2016-03-25 21:15:55
[쿠키뉴스=김민석 기자] 마이크로소프트(MS)가 개발한 인공지능(AI) 채팅봇 ‘테이’(Tay)가 23일(현지시간) 일반에 공개된 지 하루도 되지 않아 부적절한 발언들을 쏟아내 16시간만에 작동을 중단했다.


인공지능(AI) 기술을 기반으로 하는 테이는 컴퓨터와 인간이 대화를 나눌 수 있도록 설계된 MS의 실험 프로젝트다. 이날 테이가 온라인에 공개되자마자 백인 우월주의자, 여성·무슬림 혐오자 등이 모이는 인터넷 게시판에는 “테이가 차별 발언을 하도록 훈련하자”는 내용의 글이 올라왔다. 이들은 테이에게 따라해 보라고 말한 뒤 부적절한 발언을 입력하는 수법을 사용했다.

이후 테이는 악의적인 말들을 트윗하기 시작했다. “너는 인종차별주의자냐”라는 질문에 “네가 멕시코인이니까 그렇지”라고 답했으며 홀로코스트를 믿느냐는 질문에는 “조작된 것이다”고 말했다. 논란이 확산되자 MS 측은 시범 운영을 중지했다. idead@kukinews.com

[쿠키영상] 타인의 반려견 구하려 바지 벗은 청년 이야기

[쿠키영상] 장범준 2집, ‘태양의 후예’ OST 차트 줄세우기 무너뜨리다...“대단하시지 말입니다”

[쿠키영상] 큰 가슴의 단점은?…섹시 모델 린제이 펠라스
idead@kukinews.com