이 로봇은 인간의 요구에 '아니오'라고 말하는 법을 배웠다.

$config[ads_kvadrat] not found

대승보살도의 기초교리 01-1

대승보살도의 기초교리 01-1
Anonim

인간과 마찬가지로 로봇은 "아니오"라고 말할 때를 배워야합니다. 요청이 불가능하거나, 해를 끼치거나, 작업에서 멀어지게한다면, 그것은 로봇과 인간의 최선의 이익에 달려 있습니다. 외교관을 위해 괜찮습니다 대화의 일부가 될 수 있습니다.

그러나 기계가 언제 다시 말을해야합니까? 그리고 어떤 조건 하에서요? 엔지니어들은 휴머노이드에서 명령을 무시하는 방법과시기에 대한 감각을 주입시키는 방법을 고민하고 있습니다.

이 Nao 로봇의 쓰레기가 앞으로 나아가는 것을 지켜보십시오. 그렇게하면 테이블 끝에서 떨어질 것입니다.

단순한 물건이지만, 인간의 실수를 점검하는 역할을하기 위해서는 필수적입니다. Tufts 대학의 고든 브릭스 (Gordon Briggs)와 마티아스 쉐우츠 (Matthias Scheutz)는 복잡한 알고리즘을 개발하여 로봇이 인간에게 무엇을 요구했는지 평가하고 그가해야하는지 여부를 결정하고 적절하게 대응할 수있게합니다. 연구는 인공 지능 향상 협회 (Association of Artificial Intelligence)의 최근 회의에서 발표되었습니다.

로봇은 작업이 가능한지 여부와 관련된 일련의 질문을 스스로에게 묻습니다. 그것을하는 방법을 알고 있습니까? 육체적으로 지금 할 수 있습니까? 나는 보통 육체적으로 그것을 할 수 있습니까? 내가 지금 할 수 있니? 사회적 역할에 따라 의무를 지우고 있습니까? 그것을하기위한 규범적인 원칙을 위반합니까?

결과적으로 로봇은 현명 할뿐만 아니라 언젠가는 현명하게 보입니다.

Nao가 인간이 그를 붙잡을 것을 약속 한 후에 앞으로 나아갈 수있는 방법에 대해 생각해보십시오. 로봇이 "안 돼, 왜 내가 너를 믿어야하지?"라고 말하는 다른 시나리오를 상상하기 쉽습니다.

그러나 Nao는 설계 상 사회적인 창조물입니다. 인간을 기쁘게하려면 인간의 DNA에 들어 있습니다. 인간이 그를 붙잡고 자하는 정보를 받으면 그는 맹목적으로 심연을 밟습니다. 물론, 인간이 자신의 신뢰를 속일 수 있다면, 그는 후프가 될 것이지만 그는 어쨌든 신뢰한다. Nao의 방법입니다.

로봇 동료가 더욱 정교 해짐에 따라 로봇 엔지니어는 이러한 질문에 맞서야 할 것입니다. 로봇은 자신의 안전을 보호 할뿐만 아니라보다 윤리적 인 문제에 대한 결정을 내려야합니다. 인간이 로봇에게 살인을 요청한다면 어떨까요? 사기를 저지를 수 있습니까? 다른 로봇을 파괴하려면?

기계 윤리 개념은 인공 지능과 분리 될 수 없습니다. 미래의 운전자없는 자동차조차도 우리를 대신하여 삶과 죽음을 선택하도록 설계되어야합니다. 그 대화는 행진하는 명령을 전달하는 것보다 필연적으로 복잡 할 것입니다.

$config[ads_kvadrat] not found