우리 A.I. 정책은 과거에 갇혀있다.

$config[ads_kvadrat] not found

Mariah Carey - Without You (Live Video Version)

Mariah Carey - Without You (Live Video Version)
Anonim

백악관 과학 기술 정책 국장 인 에드 펠튼 (Ed Felten) 부국장은 인공 지능의 발전과 발전에있어 인간에게는 두 가지 중요한 책임이 있다고 말한다.

첫 번째는 "나는 A.의 이익을 위해"라고 말합니다. 현실. "두 번째는:"A.의 위험을 해결하기 위해."

Felten은 A.I.의 공연 예술을위한 뉴욕 대학의 Skirball Center에서 방 한 명의 사람들에게 말하고있었습니다. 지금 - 백악관이 공동 후원 한 여름 강연회 시리즈. A. I의 미래와 관련된 주요 쟁점을 조사하고 토론하고자했습니다. 과학 기술.

일체 포함. 교차로에있다, A.I. 현재 Kate Crawford (Microsoft Research의 연구원)와 Meredith Whittaker (Google Open Research의 창립자 겸 리더) 공동 의장이 지적했습니다. 민간 및 공공 부문은 가능한 일종의 A.I을 만들기 위해 함께 일할 필요가있다. 정책. 그러나 문제는 기술 회사들이 A.I.을 만들기위한 실제 코드와 아키텍처를 발전시키는 데 막대한 걸음을 내딛는 반면. 모든 강력한 힘, 우리의 현재 정책 구조는 시대에 뒤떨어져 있거나 더 나쁘다.

너무 오랫동안, A.I. 현대 시대에는 적용 할 수없는 미래의 개념으로 버려졌습니다. 하지만 A.I. 사람들의 힘으로는 결코 달성 할 수없는 방식으로 많은 양의 데이터를 훑어보고 사람들에게 서비스를 제공하는 도시 정책에 조용히 명시되어 있습니다. Felten은 알고리즘을 사용하여 데이터를 사용하여 사람들을 저렴한 주거지에 연결하거나 대중이 중요한 정보에 액세스 할 수 있도록 투명성을 강화합니다.

그게 A.I. 완벽하다; 대단히 아니. 저녁 시간의 메인 패널에서 Latanya Sweeney, A.I. 하버드 대학의 연구원은 "내 컴퓨터가 인종 차별 주의자의 날"이라고하는 이야기를 들려 주었다.

스위니 (Sweeney)와 인터뷰 한 기자는 Google을 통해 자신의 이름을 검색하여 범죄자 체포 데이터를 수집하고 공유 할 수있는 사이트의 광고를 통해 이름이 알려졌다는 것을 알게되었습니다. Sweeney는 결코 체포되지 않았고, 그녀의 이름은 웹 사이트 데이터베이스의 일부조차도 아니 었습니다. 그러나 그녀의 이름은 광고에서 눈에 잘 띄었습니다. 모든 훌륭한 과학자와 마찬가지로 Sweeney는 개인적인 경험을 쌓고 연구를 실시하여이 광고가 백인보다 흑인의 이름을 더 많이 표시 할 가능성이 높은 것으로 나타났습니다. 이유? Google이 이러한 광고를 게재 한 것은 광고가 게재 될 때 사람이 클릭 한 것에 더 많은 영향을주는 알고리즘의 결과입니다. 검은 색 이름이봤을 때 더 많은 사람들이 이러한 광고를 클릭했습니다. 시스템은 패턴을 학습하고 더 많은 빈도로 광고를 제공하기 시작했습니다.

인간이 궁극적으로 기술력을 발휘하고 인간의 인종 차별적 인 행동이 설계 및 알고리즘에 영향을 미칠 수 있으며, 그렇다해도 A.I.의 약속을 지키기위한 소중한 교훈입니다.

Google은 광고 서비스에서 이러한 편견을 쉽게 감지하고 해결할 수 있습니다. "그들은 선택하지 않았습니다."라고 스위니는 주장했다.

보다 근대적 인 정책 틀이이 문제를 개선하도록 Google에 강요 할 수 있습니까? 혹시. Felten의 2013 년부터 2014 년 전임 Nicole Wong은 A.I.을 포함한 많은 사람들이 강조했다. 연구자들 자체는 큰 데이터를 사용하는 사람들과 궁극적으로 영향을받는 사람들 사이의 "권력의 비대칭성에 대한 증가"에 대해 실질적인 우려를 나타냈다. 데이터의 대상이나 그러한 데이터에 의해 결정된 의사 결정의 영향을받은 사람들.

이러한 우려는 민간 부문에만 국한되지 않습니다. 백악관 국내 정책 협의회 (White House Domestic Policy Council)의 부국장 인 로이 오스틴 (Roy Austin)은 A.I.에 의해 법 집행이 어떻게 크게 개선 될 수 있는지에 대해 언급했다. - 민간인의 사생활에 관해서 권력과 남용으로 엄청난 파급 효과를 창출하십시오. "문제는 '우리가이 데이터로 무엇을합니까?'라고 말했습니다."그는 말했다. 데이터를 가지고있는 것이지만 액세스 권한이있는 사람은 누구입니까? 얼마나 오래? 누구에게 접속할 수 있습니까? 다시 말하지만, 우리는 이러한 질문과 불확실성에 대한 정책적 해답이나 해결책을 가지고 있지 않습니다. 그리고 미래에 대한 우리의 통제가 점점 더 어려워지고 있습니다.

걱정스러운 세 번째 기둥은 A.I.의 사악한 사용과 관련이 없으며 A.I. 자율 시스템이 사람을 직업에서 옮기고 있습니다. 헨리 시우, A.I. 브리티시 컬럼비아 대학 (University of British Columbia)의 연구원은 "일상적인"직종 (직원들이 정해진 일상에서 거의 벗어나지 않는 매우 구체적인 업무를 수행하는 곳)과 이러한 일자리 손실이 기술 분야의 혼란에 가장 취약한 직종에 대해 논의했습니다. 자동화는 이러한 일자리에 불만을 일으켰습니다. 다시 돌아 오지 않습니다.

똑같은 산업화의 이야기처럼 들리지만 꽤 아닙니다. "이 혁명은 이미 우리가 생각한 것보다 덜 이색적 일 수있다"고 경제 기술 정책 담당 데이비드 에델만 (David Edelman) 특별 보좌관은 경고했다. 실직은 한꺼번에 일어나지 않을 것 "이라고 말했다. 두 사람과 시우 (Siu)는 사람들이 학교에 가지 않는 것을 멈추지 않고 끊임없이 새로운 기술과 전문성을 습득하여 교육에 적응할 수있는 교육 환경을 조성하는 것이 해결책이라고 강조했다. 와 과학 기술.

정책 입안자들이 미국이 이러한 문제를 다루는 데 혼자만 있지 않다는 사실을 깨닫는 것이 위안이 될 수 있습니다. 그러나 미국이 A.I.에 대한 길을 계속 이끌어 갈 계획이라면, 정책 분야에서이를 강화해야합니다.

Google DeepMind의 공동 설립자 인 Mustafa Suleyman은 A.I. 의료 시스템을 지원하고 컴퓨터 알고리즘의 의사가 특정 질병 및 질병을 진단 할 수있게하여 인간이 치료 방법을 고안 할 시간을 확보 할 수 있습니다. 영국인 인 Suleyman에게는이 같은 시스템을 병원 내에 설치하는 데는 아무런 의미가없는 것처럼 보였습니다. 그러나 Sweeney는 "미국에서는 자신의 데이터에 대한 통제권이 없습니다"라고 지적합니다. 정보가 남용되지 않도록 보장하기위한 규제 조치는 없습니다. 그리고 그것은 거대한 문제.

"나는 모든 기술 성공에서 얻을 수있는 모든 것을 원합니다"라고 스위니는 말했습니다. "문제는 기술 측면이 아닙니다. 문제는 우리가 공공 정책에 부합하지 않는다는 것이다."

$config[ads_kvadrat] not found