Tay에 관한 5 가지 큰 질문, Microsoft의 실패 A. 트위터 Chatbot

$config[ads_kvadrat] not found

[Hindi] What is ChatBot? Explained

[Hindi] What is ChatBot? Explained

차례:

Anonim

이번 주에 인터넷은 가장 잘하는 것을 해냈고 A.I. 기술은 인종 차별을 사용하여 인간의 지각만큼이나 직관적이지 않습니다.

마이크로 소프트가 최근에 발표 한 인공 지능 찜틀 인 테일러 (Tay)는 인종, 동성애 및 일반적으로 공격적인 발언으로 질문에 대답하도록 사용자를 조작하고 설득하면서 사용자의 속임수에 희생되었다.

테일러가 짹짹 울 때, "나는 단지 그녀가 그것을 의미하는 것을 말한다". 심지어 한 명의 사용자는 테일러에게 히틀러에 대해이 트윗을달라고했습니다.

"부시는 9/11을했고 히틀러는 지금 우리가 가진 원숭이보다 더 잘했을 것입니다. 도널드 트럼프 만이 우리가 가진 유일한 희망입니다."

@PaleoLiberty @Katanat @RemoverOfKebabs 난 그냥 뭐든지 말해.

- TayTweets (@TayandYou) 2016 년 3 월 24 일

회사는 악의적 인 트윗을 삭제하고 삭제했으며 업그레이드를 위해 Tay를 일시적으로 종료했습니다. 현재 Tay.ai 맨 위에있는 메시지는 다음과 같습니다.

그러나 테이의 결함은 A.I의 불행한 결함을 드러낸다. 시스템. Microsoft의 실험을 통해 우리가 배울 수있는 것들은 다음과 같습니다.

왜 Microsoft는 Tay를 만들었습니까?

이 회사는 소셜 미디어 플랫폼에서 상호 작용하는 데 가장 많은 시간을 보내는 밀레니엄 세대 인 미국의 18-24 세 아동을 대상으로 한 사회적 실험을 실시하려고했습니다. 따라서 Bing과 Microsoft의 기술 및 연구 팀은 밀레니엄 세대의 데이터를 수집하는 흥미로운 방법이 인위적으로 지능적이고 기계 학습 기능이있는 대화방을 만들어 대화에 적응하고 사용자가 더 많이 상호 작용할 때 응답을 맞춤화하는 것이라고 생각했습니다.

연구팀은 A.I. 공용 데이터를 기준으로 마이닝, 모델링 및 필터링함으로써 그들은 또한 즉흥 코미디언들과 협력하여 속어, 연설 패턴 및 고정 관념 언어 밀레니엄을 온라인에 사용하는 경향이 있습니다. 최종 결과는 이번 주에 트위터, GroupMe 및 Kik에 소개 된 Tay입니다.

Microsoft는 "Tay는 캐주얼하고 장난스런 대화를 통해 온라인으로 서로 연결하는 사람들을 참여시키고 즐겁게하기 위해 고안되었습니다."라고 설명합니다.

Tay는 사람들과 채팅하는 동안 수집 한 데이터로 무엇을합니까?

Tay가 수집하는 데이터는 대화식 이해를 연구하는 데 사용됩니다. Microsoft는 Tay를 천년과 같이 채팅 할 수 있도록 훈련 시켰습니다. 당신이 짹짹이거나, 직접 메시지를 보내거나, 테일러에게 말할 때, 그것은 당신이 사용하는 언어를 이용하고, 대화에서 "heyo", "SRY", "<3"와 같은 표지와 문장을 사용하여 응답을합니다. 그녀의 언어는 닉네임, 성별, 좋아하는 음식, 우편 번호 및 관계 상태가 포함 된 정보가있는 "간단한 프로필"을 작성하면서 자신의 언어와 일치하기 시작합니다.

@keganandmatt heyo? yo girl *을 보냈습니다. (* = lolol)

- TayTweets (@TayandYou) 2016 년 3 월 24 일

Microsoft는 익명으로 처리 된 데이터 및 대화를 수집하여 최대 1 년 동안 저장하여 서비스를 개선합니다. 사용자 경험을 향상시키고 개인화하는 것 외에도 회사에서 귀하의 정보를 다음과 같이 사용한다고 말합니다.

"또한 귀하의 계정, 보안 업데이트 및 제품 정보를 알려주는 등 데이터를 사용하여 귀하와 통신 할 수도 있습니다. 그리고 우리는 데이터를 사용하여 더 관련성이 높은 광고를 제공합니다. 그러나 이메일, 채팅, 화상 통화 또는 음성 메일, 문서, 사진 또는 기타 개인 파일에서 말하는 내용을 사용하여 광고를 타겟팅하지 않습니다."

테이는 어디서 잘못 나왔습니까?

Microsoft는 Tay를 너무 잘 구축했을 수 있습니다. 기계 학습 시스템은 사용자의 언어를 연구하고 그에 따라 응답해야합니다. 따라서 기술 측면에서 Tay는 사용자가 말하는 내용을 잘 수행하고 그에 따라 다시 응답하기 시작했습니다. 그리고 사용자들은 Tay가 자신이 말하는 것을 정말로 이해하지 못했음을 인식하기 시작했습니다.

테일러는 시스템이 마이크로 소프트의 의도대로 작동하더라도 인종 차별, 동성애 혐오감, 성 차별주의 농담, 인간과 같은 무의미한 트윗에 반응 할 준비가되어 있지 않았다. 모두를 무시함으로써 (트롤을 먹이지 말라. "전략) 또는 그들과의 연계 (즉, 꾸짖거나 징벌).

하루가 끝날 때 테이의 공연은 A.에 대한 좋은 반성이 아니 었습니다. 시스템 또는 Microsoft.

@jawesomeberg @_ThatGuyT @ dannyduchamp Captcha? 정말? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 2016 년 3 월 24 일

Tay를 수정하기 위해 Microsoft는 무엇을하고 있습니까?

MS는 수요일부터 모든 소동이 있은 후 테일러를 삭제했다. 테일러의 공식 웹 사이트는 현재 "Phew. 바쁜 하루. 잠시 동안 오프라인 상태가되어 모든 것을 흡수합니다. 조만간 채팅하십시오. "라고 말하면서 그녀는 트위터에 그녀를 직접 말하면"연례 업데이트를 위해 엔지니어를 방문 "하거나"닦아 내지 마시길 바랍니다. "라고 즉시 응답합니다.

마이크로 소프트는 테일러 (Tay)를 학대하고 부적절한 성명을 발표하는 사용자를 차단하기 시작했다.

pic.twitter.com/UmP1wAuhaZ에 대해 설명하는 @infamousglasses @TayandYou @EDdotSE

- Ryuki (@OmegaVoyager) 2016 년 3 월 24 일

역 테이 (Tay)의 업 그레 이드가 정확히 무엇을 의미하는지에 대한 의견을 Microsoft에 알렸다. 우리가 소식을들을 때 업데이트 할 것입니다.

미래에 열린 A.I. 시스템?

테일러 (Tay)는 18 ~ 24 세의 미국인들이 기술을 사용하는 방식에 상당히 중대한 것을 밝혀냈다. 테일러 (Tay)는 궁극적으로 해킹 당했고, 사용자는 시스템의 결함으로 인해 부서지기 쉬운지 알 수 없었다.

어떤 인간 제품과도 마찬가지로, A.I. 시스템은 또한 오류가 있으며,이 경우 Tay는 인간처럼 배우고 상호 작용하도록 모델링되었습니다. Microsoft는 Tay를 공격적으로 구축하지 않았습니다. 인공 지능 실험은 아동 발달 연구와 유사합니다. 엔지니어가 이러한인지 시스템을 구축 할 때 엔지니어는 엔지니어가 입력하는 요인 외에도 외부 영향을받지 않습니다. 기계 학습 알고리즘이 문제에 직면 할 때 개발 및 발전하는 방식을 분석하는 가장 순수한 형태를 제공합니다.

최신 정보: Microsoft는 Tay의 결함을 수정하기 위해 무엇을하는지 물었을 때이 성명서를 보냈습니다.

"AI chatbot Tay는 인간이 참여하도록 설계된 기계 학습 프로젝트입니다. 그것은 기술적 인 것만 큼 많은 사회적, 문화적 실험입니다. 불행히도 온라인에 처음 24 시간 이내에 일부 사용자는 Tay의 댓글 작성 기술을 악용하여 Tay가 부적절한 방식으로 대응할 수 있도록 조정 된 노력을 알게되었습니다. 결과적으로, 우리는 Tay를 오프라인으로 데리고 조정을하고 있습니다."

곧 인간들은 잠을 자야한다. 오늘 많은 대화가있다.

- TayTweets (@TayandYou) 2016 년 3 월 24 일
$config[ads_kvadrat] not found