사향, Wozniak, 호킹, 다른 천재들은 자치적 무기에 반대하고있다.

$config[ads_kvadrat] not found

[화이트보드]가상화 환경의 스토리지 ‘IP SAN’을 선택하는 이ìœ

[화이트보드]가상화 환경의 스토리지 ‘IP SAN’을 선택하는 이ìœ
Anonim

AK-47은 수십 년 동안 값 싸고 내구성이 뛰어나고 유비쿼터스 적이기 때문에 세계의 많은 먼지가 많은 곳에서 가장 많이 사용되는 살상 기계였습니다. 그 같은 요인들은 생명의 미래 연구소 (Future of Life Institute)에서 공개 한 공개 서한의 서명국들이 자율 무기가 위험을 안고있는 이유라고 주장한다. 그러나 인공 지능 무기와 카라 쉬니 코프를 구분하는 것은 자율 기계가 사람의 개입없이 목표를 선택하고 참여할 수 있다는 것입니다. 잘못된 손에서 계산되지 않은 소총보다 훨씬 큰 잔학 행위를 자행 할 수 있습니다.

서명국들은 그들을 위해 일을 줄였습니다. 인간으로서, 우리는 전반적으로 생각보다 반응하는 것이 훨씬 낫습니다. 주요 선수들은 핵무기를 낮추는 데 시간이 많이 걸렸다. (사고 방식은 핵무기를 만드는 기계류를 필요로 할 것이다.) 다른 곳에서는 지뢰가 여전히 수십 년 된 전쟁터에 자리 잡고 있습니다. 화약이나 해군의 드레드 노트 또는 농축 우라늄과 같이 전쟁에 혁명을 일으키기위한 기술이 등장했을 때 아니 군비 경쟁이었다.

FLI는 인간의 손에 의해 원격 조종 된 로봇과 로봇을 켜고 자체 살인 장치로 남긴 로봇 사이를 구별합니다. 후자의 창설은 FLI가 주장하는 세계 AI 군비 경주를 일으킬 것이며, 칼라 쉬니 코프의 역사가 시연하는 것처럼 잘 끝나지 않을 것입니다.

암시장이나 테러리스트, 국민의 통제력을 강화하려는 독재자, 인종 청소를 원하고있는 군벌 등이 암시장에 나타나기까지는 시간 문제 일뿐입니다. 자율 무기는 암살, 불안정화 인구를 정복하고 특정 종족 집단을 선택적으로 살해하는 것. 따라서 우리는 군사 AI 무기 경쟁이 인류에게 유익하지 않을 것이라고 믿는다. 인공 지능으로 사람을 살해 할 수있는 새로운 도구를 만들지 않고도 전장을 인간, 특히 민간인에게 더욱 안전하게 만들 수있는 다양한 방법이 있습니다.

이것은 무거운 똥이다. 그리고이 경고의 이름은 평소 Skynet 크랙 포트가 아닙니다. 그들은 오늘날 우리 기술이 어떻게 생겼는지를 도운 창조자, 엔지니어, 과학자 및 철학자입니다. 애플의 스티브 워즈니악 (Steve Wozniak), 스카 이프의 자안 탈린 (Jaan Tallinn), 스튜어트 러셀, 바바라 제이 그로스, 톰 미첼, 에릭 호르 비츠, 여배우 탈 룰라 라일리, 노엄 촘스키 등 인공 지능 연구원 및 로봇 공학자 인 리사 랜달 (Haraard physalist), 스티븐 호킹.

호킹 박사는 최근에 비관적 인 구부러진 부분에 약간의 비판을하고 있으며, 또한 외계 생명체와의 위험에 대한 그의 예측을 되풀이하고 있습니다. 그는 이번 주 Reddit에서이 편지와 기술의 미래에 대한 질문에 답할 것입니다. 우리는 적대적인 외계인을 통제하지 못할 수도 있지만 우리는 인간의 요소를 지키기 위해이 기술의 최전선에있는 과학자들에게 " 혁신의 전면과 중심 "이라고 강조했다.

편지에 이름을 추가 할 수도 있습니다.

$config[ads_kvadrat] not found