일체 포함. Expert Virginia Dignum : 트롤리 문제로 인해 투명성이 필요한 이유

$config[ads_kvadrat] not found

Huynh Đệ À - Đinh Đại Vũ x Son2M | Lyric Video | Nhạc Hot Tiktok 2020

Huynh Đệ À - Đinh Đại Vũ x Son2M | Lyric Video | Nhạc Hot Tiktok 2020
Anonim

연구원은 인공 지능은 투명성을 필요로하기 때문에 사람이 그것을 지킬 수 있다고 주장했다. 델프트 공과 대학교 (Delta University of Technology)의 버지니아 디넘 (Virginia Dignum) 부교수는 금요일 뉴욕 대학 (New York University)의 한 청중에게 기계가 왜 그렇게 행동하는지 이해하지 못한다면 우리는 자신의 결정을 판단 할 수 없을 것이라고 말했다.

Dignum은 과학 저술가이자 연구원 인 David Berreby의 이야기를 인용했다. 오늘 심리학: "사람들이 기계를 가지고 일할 때, 혼자 일하거나 다른 사람들과 일할 때보 다 기관의 감각이 떨어진다는 증거가 있습니다."

Dignum은 "트롤리 문제는 사람들이 올바른 결과를 선택하기 위해 맹목적으로 믿음을 가질 수있는 영역입니다. 문제는 가상의 가출 전차에서 레버를 전환하여 5 명이 아닌 1 명이 사망하도록할지 여부입니다. 사람들은 기계가 가능한 가장 합리적인 방법으로 문제를 해결할 것으로 기대합니다. 그렇다고 항상 그런 것은 아닙니다. 투명성은 기계가 어떻게 결정되었는지를 설명하는 데 도움이됩니다.

"아무도 이해할 수없는 아주 깊이있는 신경 네트워크의 사슬이 아니라 사람들이 이해할 수있는 방식으로 설명을하는 것"이라고 그녀는 말했다.

일체 포함. DARPA가 탐구해온 분야가 그 일을 분명하게 해줍니다. 기관은 설명 가능한 A.I.에 관심있는 팀을 찾고 있다는 발표를 8 월에 올렸다. XAI로 알려진 프로젝트 이 시스템은 왜 연구원이 A.I. 그 결정을 내렸고, 기계를 맹목적으로 신뢰하는 것보다 결과 정보로 무엇을 할 것인가를 결정할 수있는 범위가 더 넓어졌습니다.

Dignum은 기계 학습을 통해 투명성이 그 어느 때보 다 중요하다고 지적했습니다. "우리는 시스템, 특히 기계 학습 기계가 배우고 곧바로 그것을 알기를 기대할 수 없습니다."라고 그녀는 말했습니다."우리는 운전할 때 운전 기사가 교통 법규를 완전히 이해할 것을 기대하지 않습니다. 많은 국가에서, 그들은 "L"판을 사용하여 '나는 배우고있다. 내가 할 수있는 실수를 저를 용서합니다.' "AI를보고, 어떤 결정에 어떻게 도달했는지를 이해하고이를 바탕으로 행동하는 것이 여전히 나쁜 결정을 내리는 것을 배우는 기계를 멈추게합니다.

$config[ads_kvadrat] not found