ëì¹ë³´ì´ëì 기ì´êµë¦¬ 01-1
인간과 마찬가지로 로봇은 "아니오"라고 말할 때를 배워야합니다. 요청이 불가능하거나, 해를 끼치거나, 작업에서 멀어지게한다면, 그것은 로봇과 인간의 최선의 이익에 달려 있습니다. 외교관을 위해 괜찮습니다 대화의 일부가 될 수 있습니다.
그러나 기계가 언제 다시 말을해야합니까? 그리고 어떤 조건 하에서요? 엔지니어들은 휴머노이드에서 명령을 무시하는 방법과시기에 대한 감각을 주입시키는 방법을 고민하고 있습니다.
이 Nao 로봇의 쓰레기가 앞으로 나아가는 것을 지켜보십시오. 그렇게하면 테이블 끝에서 떨어질 것입니다.
단순한 물건이지만, 인간의 실수를 점검하는 역할을하기 위해서는 필수적입니다. Tufts 대학의 고든 브릭스 (Gordon Briggs)와 마티아스 쉐우츠 (Matthias Scheutz)는 복잡한 알고리즘을 개발하여 로봇이 인간에게 무엇을 요구했는지 평가하고 그가해야하는지 여부를 결정하고 적절하게 대응할 수있게합니다. 연구는 인공 지능 향상 협회 (Association of Artificial Intelligence)의 최근 회의에서 발표되었습니다.
로봇은 작업이 가능한지 여부와 관련된 일련의 질문을 스스로에게 묻습니다. 그것을하는 방법을 알고 있습니까? 육체적으로 지금 할 수 있습니까? 나는 보통 육체적으로 그것을 할 수 있습니까? 내가 지금 할 수 있니? 사회적 역할에 따라 의무를 지우고 있습니까? 그것을하기위한 규범적인 원칙을 위반합니까?
결과적으로 로봇은 현명 할뿐만 아니라 언젠가는 현명하게 보입니다.
Nao가 인간이 그를 붙잡을 것을 약속 한 후에 앞으로 나아갈 수있는 방법에 대해 생각해보십시오. 로봇이 "안 돼, 왜 내가 너를 믿어야하지?"라고 말하는 다른 시나리오를 상상하기 쉽습니다.
그러나 Nao는 설계 상 사회적인 창조물입니다. 인간을 기쁘게하려면 인간의 DNA에 들어 있습니다. 인간이 그를 붙잡고 자하는 정보를 받으면 그는 맹목적으로 심연을 밟습니다. 물론, 인간이 자신의 신뢰를 속일 수 있다면, 그는 후프가 될 것이지만 그는 어쨌든 신뢰한다. Nao의 방법입니다.
로봇 동료가 더욱 정교 해짐에 따라 로봇 엔지니어는 이러한 질문에 맞서야 할 것입니다. 로봇은 자신의 안전을 보호 할뿐만 아니라보다 윤리적 인 문제에 대한 결정을 내려야합니다. 인간이 로봇에게 살인을 요청한다면 어떨까요? 사기를 저지를 수 있습니까? 다른 로봇을 파괴하려면?
기계 윤리 개념은 인공 지능과 분리 될 수 없습니다. 미래의 운전자없는 자동차조차도 우리를 대신하여 삶과 죽음을 선택하도록 설계되어야합니다. 그 대화는 행진하는 명령을 전달하는 것보다 필연적으로 복잡 할 것입니다.
테슬라 픽업 트럭 : 엘론 머스크는 운전자 목록 요구에 따라 문화 충돌을 위해 설정
엘론 머스크 (Elon Musk)는 그의 마음을 픽업 트럭에 쏟아 부었지만 중요한 관중과 함께 그 표를 놓칠 수있었습니다. 테슬라의 CEO는 다가오는 차량이 미래 지향적 인 사이버 펑크 '블레이드 러너 (Blade Runner)'디자인을 갖게 될 것이라고 선언했으며, 이는 "내가 가장 개인적으로 가장 해고 한 것"이라고 묘사했다.
'글로벌'잠재 고객으로 Netflix는 새로운 검열 요구에 직면하게됩니다.
수요일에 CES 2016에서 Netflix의 기조 연설을 시작으로 많은 것이있었습니다. Will Arnett와 Chelsea Handler가 그들의 새로운 쇼에 대한 업데이트를 제공 할뿐만 아니라 그들의 플랫폼이 현재 전 세계적으로 이용할 수있는 컨텐츠 폭탄을 떨어 뜨리는 것에도 불구하고 Netflix CEO 인 Reed Hastings는 또한 afterwar ...
함정 여왕은 무엇입니까? 모든 트랩 퀸 요구에 101 안내서
Fetty Wap의 마술과 생각을 불러 일으키는 노래 "Trap Queen"까지 모든 사람들이 멈추고 생각하게 만들었습니다.