Huynh Đệ À - Đinh Đại Vũ x Son2M | Lyric Video | Nhạc Hot Tiktok 2020
연구원은 인공 지능은 투명성을 필요로하기 때문에 사람이 그것을 지킬 수 있다고 주장했다. 델프트 공과 대학교 (Delta University of Technology)의 버지니아 디넘 (Virginia Dignum) 부교수는 금요일 뉴욕 대학 (New York University)의 한 청중에게 기계가 왜 그렇게 행동하는지 이해하지 못한다면 우리는 자신의 결정을 판단 할 수 없을 것이라고 말했다.
Dignum은 과학 저술가이자 연구원 인 David Berreby의 이야기를 인용했다. 오늘 심리학: "사람들이 기계를 가지고 일할 때, 혼자 일하거나 다른 사람들과 일할 때보 다 기관의 감각이 떨어진다는 증거가 있습니다."
Dignum은 "트롤리 문제는 사람들이 올바른 결과를 선택하기 위해 맹목적으로 믿음을 가질 수있는 영역입니다. 문제는 가상의 가출 전차에서 레버를 전환하여 5 명이 아닌 1 명이 사망하도록할지 여부입니다. 사람들은 기계가 가능한 가장 합리적인 방법으로 문제를 해결할 것으로 기대합니다. 그렇다고 항상 그런 것은 아닙니다. 투명성은 기계가 어떻게 결정되었는지를 설명하는 데 도움이됩니다.
"아무도 이해할 수없는 아주 깊이있는 신경 네트워크의 사슬이 아니라 사람들이 이해할 수있는 방식으로 설명을하는 것"이라고 그녀는 말했다.
일체 포함. DARPA가 탐구해온 분야가 그 일을 분명하게 해줍니다. 기관은 설명 가능한 A.I.에 관심있는 팀을 찾고 있다는 발표를 8 월에 올렸다. XAI로 알려진 프로젝트 이 시스템은 왜 연구원이 A.I. 그 결정을 내렸고, 기계를 맹목적으로 신뢰하는 것보다 결과 정보로 무엇을 할 것인가를 결정할 수있는 범위가 더 넓어졌습니다.
Dignum은 기계 학습을 통해 투명성이 그 어느 때보 다 중요하다고 지적했습니다. "우리는 시스템, 특히 기계 학습 기계가 배우고 곧바로 그것을 알기를 기대할 수 없습니다."라고 그녀는 말했습니다."우리는 운전할 때 운전 기사가 교통 법규를 완전히 이해할 것을 기대하지 않습니다. 많은 국가에서, 그들은 "L"판을 사용하여 '나는 배우고있다. 내가 할 수있는 실수를 저를 용서합니다.' "AI를보고, 어떤 결정에 어떻게 도달했는지를 이해하고이를 바탕으로 행동하는 것이 여전히 나쁜 결정을 내리는 것을 배우는 기계를 멈추게합니다.
Parkland Teen은 공중 보건 문제로 미국의 도시를 진단합니다.
플로리다 주 파크 랜드 (Parkland)에있는 고등학교의 수석 레베카 슈나이드 (Rebecca Schneid)는 의사가 될 계획입니다. 그러나 그녀는 이미 미국에서 가장 시급한 사안 중 하나 인 '총기 폭력과 관련된 사망자'에 대해 파헤 치고 American Journal of Medicine에 발표했다.
연구원, 해결할 수있는 대기 오염 문제로 650 만명 사망
대기 오염은 국제 에너지기구 (International Energy Agency)의 새로운 보고서에 따르면 매년 650 만 명의 사람들의 삶을 끝내고있다. 저자들은 고혈압,식이 불량, 흡연 등으로 인체 건강에 가장 큰 위협이되고 있다고 지적했다. 그러나 바보짓을하지 마십시오.
Twitter는 생존의 문제로 Facebook이되어야합니까?
트위터의 새로운 타임 라인 알고리즘의 공개가 공식화되었으므로 트위터의 종식에 대한 보고서가 조금 조숙 한 것으로 보인다. 소셜 미디어 서비스의 핵심 사용자 중 상당수가 구제하기 위해 새로운 알고리즘이 "옵트 인 (opt-in)"기능으로 도입되었습니다. 즉, 사용자가 스위치를 전환하지 않으면 일정을 ...