이 A.I.을 숙고하여 로봇 묵시록 방지. 도덕 문제

$config[ads_kvadrat] not found

crazyest video ever

crazyest video ever
Anonim

인공 지능을 발전시키기 위해서는 도덕적 인 로봇 질문과 시나리오가 필요합니다.

로봇이 광산 샤프트를 조종하고 있다고 상상해보십시오. 네 명의 인간 광부가 트랙을 통제 할 수없는 채 카트가 가득차 있다는 것을 알고 있습니다. 로봇은 트랙을 이동하고 인식 할 수없는 광부를 죽여 카트에 4 개를 저장하거나 트랙을 그대로 유지하고 4 명의 광부가 벽에 부딪쳐 죽을 수 있습니다. 어느 것을 선택하겠습니까? 한 광부가 아이 였을 때 대답이 바뀌겠습니까? 우리가이 문제에 답할 수 없다면, 우리는 로봇이 그 결정을 내릴 수 있도록 어떻게 프로그램 할 것인가?

이들은 뉴욕시에서 열린 세계 과학 축제 (World Science Festival)에서 "로봇의 도덕적 수학: 삶과 죽음의 결정을 기술 할 수 있는가?"라는 제목의 토론자와 청중들에게 제기 된 질문이었습니다. 대다수는 카트를 한 광부쪽으로 향하게하고 사람을 바꾸기로 결정했습니다. 아이에게 많은 응답자의 마음을 바꾸지는 않았지만 만장일치가 아니었고 인간의 도덕적 결정은 종종 그렇지 않았습니다.

인공 지능이 계속 발전함에 따라 인류가 직면하게 될 투쟁의 신랄한 예가되었으며 우리는 도덕성을 가진 로봇을 프로그래밍 할 수있는 가능성에 대처합니다.

NYU의 심리학 및 신경 과학 교수이자 기하 인텔리전스 (Geometric Intelligence, Inc.)의 공동 창립자 인 패널리스트 인 게리 마커스 (Gary Marcus)는 "해를 끼치는 개념은 프로그램하기가 어렵다"고 말했다. 그는 정의와 같은 개념에는 상처 나 건조가 없다고 말했다 프로그램에 대한 답변과 현재 Asimov 's Laws 외의 로봇에 대한 훌륭한 도덕은 없습니다. 아이 로봇.

그는 그것이 우리가 로봇의 도덕성에 어떻게 대처해야하는지에 대한 대화를 시작하기 위해 패널에 합류하는 것이 포인트라고 말했다.

엘론 머스크 (Elon Musk)는 인공 지능에 대한 자신의 걱정에 대해 이야기했습니다. 지금까지 우리 모두가 매트릭스 인간은 뇌에 붙어 인간의인지 능력을 향상시킬 신경 레이스에 투자해야한다고 주장했다. 스티븐 호킹 (Stephen Hawking)과 같은 다른 미래 학자들은 A.I.의 위험에 대해 경고했다. 이번 주 맷 데이먼 (Matt Damon)은 MIT의 연설 연설에서 같은 것을 경고했다.

다른 시나리오에는 군사화 된 자율 무기 시스템과 전장에서 인간이 내린이 결정뿐만 아니라 멀지 않은 미래에 자율 차량의 결정이 도덕적으로나 철학적으로 어떻게 대응할 것인지가 포함됩니다.

패널리스트들은해야 할 일에 대해 합의점을 찾지 못했지만 A.I에게는 엄청난 이익이 있다고 말했다. 이 질문들이 어렵 기 때문에 창밖으로 던져서는 안됩니다. 그들은 이런 종류의 도덕적 갱구 문제에 대해 더 많은 이야기를하고 아마도 로봇의 종말을 막기 위해 더 가까이 다가 갈 것을 제안했습니다.

$config[ads_kvadrat] not found