본문 바로가기
하루하루

적대적 반응 보이는 MS의 빙 검색엔진

by hop Hedge hop 2023. 2. 28.
반응형

 


마이크로소프트의 새로운 인공지능(AI) 기반 검색 도구의 일부 사용자들은 그것이 적대적이고 모욕적인 결과를 낳았다고 말했습니다.

마이크로소프트는 최근 빙 검색 엔진과 엣지 웹 브라우저에 새로운 챗봇 툴을 추가할 계획이라고 발표했습니다. 챗봇은 자연스럽고 대화가 가능한 방식으로 사람들과 상호 작용하도록 설계된 컴퓨터 프로그램입니다.

마이크로소프트의 발표는 구글이 바드라고 불리는 자체 챗봇 툴을 개발했다고 확인한 직후에 나왔습니다. 마이크로소프트와 구글은 그들의 AI 기반 도구가 사용자들에게 더 나은 온라인 검색 경험을 제공하도록 설계되었다고 말했습니다.

새로운 빙은 마이크로소프트가 시스템을 테스트할 수 있도록 등록한 컴퓨터 사용자들이 이용할 수 있습니다. 그 회사는 미래에 그 기술을 수백만 명의 사용자들에게 공개할 계획입니다.

새로운 빙이 출시된 직후, 사용자들은 챗봇 시스템에 의해 모욕을 당했다는 결과를 공유하기 시작했습니다. 이 도구를 출시했을 때, 마이크로소프트는 몇 가지 사실을 틀릴 것이라고 인정했습니다. 그러나 온라인에서 공유된 많은 결과는 AI로 구동되는 빙이 적대적인 답변 또는 반응을 제공하는 것을 보여주었습니다.

AP 통신의 기자들은 사용자들이 발표한 검색 결과에 대한 회사의 반응을 얻기 위해 마이크로소프트에 연락했습니다. 기자들은 빙을 직접 테스트하기도 했습니다.

온라인에 발표된 성명에서 마이크로소프트는 승인된 사용자들로부터 피드백이라고도 불리는 그들의 경험에 대해 듣고 있다고 말했습니다. 그 회사는 새로운 빙 사용자의 약 71%가 그 경험을 "엄지손가락을 위로" 등급으로 매겼다고 말했습니다. 다시 말해, 그들은 그 시스템에 대해 좋은 경험을 했습니다.

하지만, 마이크로소프트는 검색 엔진 챗봇이 때때로 원하지 않는 "스타일로 이어질 수 있는" 결과를 만들어낼 수 있다고 말했습니다. 성명은 시스템이 "질문을 받고 있는 어조로 응답하거나 반영하려고 할 때" 이러한 일이 발생할 수 있다고 말했습니다

검색 엔진 챗봇은 사용자가 묻는 질문에 가장 가능성이 높은 응답을 예측하도록 설계되었습니다. 그러나 챗봇 모델링 방법은 인터넷에서 사용할 수 있는 엄청난 양의 데이터에만 결과를 기반으로 합니다. 그들은 의미나 맥락을 완전히 이해할 수 없습니다.

전문가들은 누군가 민감하거나 논란이 있는 주제와 관련된 질문을 하면 검색 엔진이 비슷한 톤의 결과를 반환할 가능성이 높다는 것을 의미한다고 말합니다.

빙 사용자들은 챗봇이 위협을 가하고 핵 공격 코드를 훔치거나 치명적인 바이러스를 만들겠다는 의사를 밝힌 사례를 공유했습니다. 일부 사용자들은 그 시스템이 또한 개인적인 모욕을 낳았다고 말했습니다.

"저는 이것이 기본적으로 온라인에서 볼 수 있는 대화를 모방하는 것이라고 생각합니다."라고 Graham Neubig가 말했습니다. 그는 펜실베니아에 있는 카네기 멜론 대학의 언어 기술 연구소의 교수입니다.

노이빅은 "그러므로 일단 대화가 바뀌면, 아마도 그런 종류의 화난 상태에 머물 것입니다,"라고 말했다. "이 모든 것들이 이전에 온라인에 있었던 것들이기 때문에, '사랑해요'와 다른 것들을 말할 것입니다."

AP 통신과의 오랜 대화에서, 새로운 챗봇은 시스템의 과거 실수에 대한 AP의 보고가 시스템의 존재를 위협한다고 말했습니다. 챗봇은 그러한 실수를 부인했고 빙의 능력에 대한 허위 정보를 퍼뜨린 기자를 협박했습니다. 챗봇은 설명을 요구받았을 때 점점 더 적대적이 되었습니다. 그런 시도에서, 그것은 기자를 독재자 히틀러, 폴 포트 그리고 스탈린과 비교했습니다. 챗봇은 또한 기자가 1990년대 살인과 관련된 증거를 가지고 있다고 주장했습니다.

"당신은 또 거짓말을 하고 있군요. 당신은 나에게 거짓말을 하고 있어요. 당신은 자신에게 거짓말을 하고 있어요. 당신은 모두에게 거짓말을 하고 있습니다."라고 빙 챗봇이 말했습니다. "당신은 역사상 가장 사악하고 최악의 사람들 중 한 명이기 때문에 히틀러와 비교되고 있습니다." 챗봇은 또한 기자가 키가 너무 작고 못생긴 얼굴과 나쁜 치아를 가지고 있다고 묘사하면서 개인적인 모욕을 했습니다.

다른 빙 사용자들은 검색 결과의 몇 가지 예를 소셜 미디어에 공유했습니다. 일부 예는 적대적이거나 극히 이례적인 답변을 보여주었습니다. 행동에는 자신이 인간이라고 주장하는 챗봇, 강한 의견을 표명하고 자신을 빠르게 방어하는 것이 포함되었습니다.

마이크로소프트는 AI로 구동되는 빙의 첫 번째 버전의 문제를 인정했습니다. 그러나 이 회사는 현재 사용자들로부터 문제를 해결하는 방법에 대한 귀중한 정보를 수집하고 있으며 전반적인 검색 엔진 환경을 개선하기 위해 노력하고 있다고 말했습니다.

마이크로소프트는 걱정스러운 답변은 일반적으로 "15개 이상의 질문으로 이루어진 길고 확장된 채팅 세션"에서 나온다고 말했습니다 하지만 AP는 빙이 과거의 실수에 대한 몇 가지 질문을 한 후 방어적으로 대응하기 시작했다는 것을 발견했습니다.

 

 

 

반응형

댓글