우리가 미래의 도적을 어떻게 멈추게 할 수 있나. A.I. 모방하는 HAL 9000에서

$config[ads_kvadrat] not found

Hip Meme Countryhumans (13+??) FT. South Korea (Male Version)

Hip Meme Countryhumans (13+??) FT. South Korea (Male Version)
Anonim

미래를 어떻게 멈출 수 있을까요? 질서에 어긋나고 스스로의 길을 선택하는 것에서? 그것은 음모처럼 들릴지도 모른다. 2001: 우주 오딧세이 그러나 한 전문가는 이것이 우리가 이미 생각하기 시작할 필요가 있다고 주장합니다. 물론, Google 검색 알고리즘이 불량 일 경우 Google 검색 알고리즘을 해제 할 수 있지만 재정적 및 법적 결과에 직면했을 때보다 쉽게 ​​수행 할 수 있습니다. 앞으로 더욱 발전된 A.I.에 의존하여 성장함에 따라 불가능할 수도 있습니다.

"이 알고리즘은 의도적으로 설계하지 않았습니다. 그 자체 재부팅이나 해제는 불가능하지만 그런 식으로 공동 진화했다 "고 수요일에 해적 정상 2016에서 인류 연구소의 미래 연구자 인 스튜어트 암스트롱 (Stuart Armstrong)이 말했다. 이것은 부주의 한 결과로 인한 변경이 해결하기 어려울 수 있음을 의미하며 첫 번째 A.I가 아닐 수도 있습니다. 그 상황에서 스스로를 찾아야한다.

Isaac Asimov의 솔루션은 인간에게 해를 입히지 않는 것과 같은 아이디어를 하드 코딩하는 로봇 공학의 세 가지 법칙이었습니다. 문제는 해가 다소 주관적이고 해석에 개방적이라는 것입니다. 인간은 해를 끼치 지 않고 상황을 해석하는 것이 나쁘다는 것과 같은 가치에 대해 더 많이 연구합니다.

"이러한 전통적인 방식으로 코드를 작성하는 것이 아니라 가치를 얻으려는 기계 학습을 사용하는 사람들이 훨씬 더 예민한이 문제 때문에"라고 암스트롱은 말했습니다. "가치는 다른 것들이 A.I에없는 방식으로 안정적입니다. 가치는 본질적으로 스스로를 방어합니다."

그러나 이러한 상황에서도 A.I.를 설계하는 것이 중요합니다. 그들이 실행되는 동안 인터럽트 가능하게 만들 수 있습니다. 안전한 중단은 안전한 정책 변경을 허용하여 학습 된 값에서 예기치 않은 결과를 피할 수 있습니다. HAL 9000이 포드 베이 도어를 열지 못하도록 시도한 경우 A.I. 값이 엉망이되어 시스템을 오프라인으로 전환하지 않고 개입 할 수 있음을 확인할 수 있어야합니다.

$config[ads_kvadrat] not found