ISIS를 향한 학습 기계의 무력화로 군 사령부가 복잡해질 것

$config[ads_kvadrat] not found

Charter Course

Charter Course
Anonim

인터넷에있는 모든 사람들은 몇 시간 만에 인종 차별적 인 홀로 코스트 데니스가 된 마이크로 소프트의 트위터 로봇 인 테이 (Tay)와 좋은 시간을 보냈다. 회사는 대중에게 재난보다 더 많은 사건이 발생하는 홍보 플랩을 만들었지 만 기계 학습의 장단점에 대한 객관적인 교훈을 제공했습니다. 자동화는 패턴을 매끈한 효과로 매끄럽게 활용할 수 있지만 결과는 예측하기 어려울 것입니다.

종종 그렇듯이, 군대는 얼리 어답터의 자동화 기술입니다. 그것은 - 한 번에 - 기계 학습에 대한 책임을 이끌고 또한 필사적으로 계속 노력하고 있습니다. 미 국방부의 주요 초점 분야 중 하나는 자율 로봇과 인간과 어떻게 팀을 이룰 것인가입니다 (예: R2D2 스타일 로봇 윙맨). 그러나 이번 주에 로버트 (Robert) 국방부 차관보는 오픈 소스 데이터 처리에 대한 또 다른 과제를 설명했다.

"우리는 깊은 학습 기계를 사용하면 ISIL을 네트워크로 더 잘 이해할 수 있고 정확하게 대상을 지정하고 그 목표를 달성 할 수있는 방법에 대해 더 잘 이해할 수 있습니다"라고 장관은 말했습니다. 국방부 웹 사이트. 그 계정에 따르면, 일하는 사람은 워싱턴 포스트 실리콘 밸리의 기술 회사가 "2014 년 7 월 말레이시아 항공 17 편이 실시간으로 중단되는 것을 보여주기 위해 트위터, Instagram 및 기타 여러 공개 소스에서 데이터를 가져온 기계"를 시연하면서 그의 출현을 보았습니다.

사기업과 법 집행 기관은 오랜 기간 동안 "큰 데이터"를 이해하려고 시도해 왔습니다. 그러나 군대는 이점이 있습니다. 또한 분류 된 자료에 액세스 할 수 있습니다.

미국 정부는 소프트웨어 알고리즘이 대량의 데이터를 분류하여 ISIS 대상을 식별하고, 계획가가이를 수행 할 수있게되기 전에 음모를 탐지하고 혼란시킬 수 있다고 확신 할 수 있습니다. 정부는 이미 온라인 시위의 규모를 예측하기 위해 소셜 미디어를 연구하려고합니다. 기계 학습을 통해 정보 분석가가 세계에서 사용할 수있는 풍부한 정보를 이해하는 힘을 키울 수 있다는 데는 의문의 여지가 없습니다. 그러나 그러한 정보가 치명적인 타격을 입는 기초가 될 때, 윤리적 인 문제는 비록 직설적이더라도 더욱 복잡해집니다.

일은 펜타곤이 "치명적인 권위를 기계에 위임하지"않는다는 것을 재빨리 말해 주었지만, 그것은 여전히 ​​끝까지 남아있다. 그 동안 사람들은 전문 용어가 사용되는 것처럼 "반복"상태를 유지할 것입니다. 그러나 창문 옆에 서있을 때 날씨보고를 위해 iPhone을 본 사람은 누구나 우리 장치 및 소프트웨어와의 관계가 단순하지 않다는 것을 알고 있습니다. 우리는 UI 문제로 인해 당황스럽고 문제가 많습니다.

인간이 기계에 연기하는 경향 인 "자동화 편견"은 분명하고 점점 더 위험 해지고 있습니다. 이 현상을 설명하기위한 예는 휴대 전화가 당신이 잘못 알고있는 여행 경로를 취할 것을 지시하지만 어쨌든 당신이하지 않는 것을 알고 있어야한다고 가정 할 때입니다. 이것은 군대가 아닌 맥락에서 공통적 인 문제이다. 펜타곤이 가까이서 나아가고있는 것처럼 보이는 것은 인공 지능으로 구성된 위협 보고서이다. 우리는이 프로그램의 잠재적 효능에 대해 알지 못합니다. 인간이 구현하기가 어려울 것입니다.

학생과 전문 조종사 및 자동화 바이어스를보고있는 2001 년 논문에서 연구자들은 "자동화 정보를 교차 확인하고 감지 할 수있는 정확한 정보가있는 시나리오에서 55 %에 가까운 오류율이 두 집단간에 문서화되었다"는 사실을 발견했습니다. 추가 인간 동료를 추가해도 문제가 완화되지 않는다는 사실을 알게되었습니다.

마찬가지로 작년의 MIT 연구에 따르면 컴퓨터와 비디오 게임 플레이어가 "자동화를 과장 할 가능성이 더 높다"는 것이 다소 혼란 스러웠습니다. 이는 우리가 화면을 바라 보는데 더 많은 시간을 할애하면 볼 수있는 것을 더 많이 신뢰한다는 것을 의미 할 수 있습니다. 다시 말하지만 문제는 우리가 사용하는 시스템이 아닌 사용 방법과 관련되어 있습니다. 잘못은 우리 별에있는 것이 아니라 우리 자신에 있습니다.

큰 데이터가 유망하다. 기계 학습은 여전히 ​​유망하다. 그러나 기계가 인간에게 조언 할 때 결과는 예측할 수 없을 정도로 예측할 수 있습니다. 테일러가 신 나치 주의자 신식 론자로 변신 한 것은 트위터가 유대인과 여성을 싫어한다는 것을 의미 하는가? 알기가 어렵지만, 거의 일어나지 않을 것입니다. 투입물이 산출물이되는 방법에 의한 과정을 이해하지 못하면 합리적인 방법으로 결과를 처리하기 위해 노력합니다. 그게 펜타곤을 흥미로운 위치에 놓습니다. 군대의 기계 학습 소프트웨어를 프로그래밍하는 사람들이 공습을 명령하는 사람들이 될 것입니까? 그것은 명령 체계가 작동하는 방식이 아니지만 기술이 관련 될 때 명령 체계가 엉키게됩니다.

$config[ads_kvadrat] not found