Mariah Carey - Without You (Live Video Version)
백악관 과학 기술 정책 국장 인 에드 펠튼 (Ed Felten) 부국장은 인공 지능의 발전과 발전에있어 인간에게는 두 가지 중요한 책임이 있다고 말한다.
첫 번째는 "나는 A.의 이익을 위해"라고 말합니다. 현실. "두 번째는:"A.의 위험을 해결하기 위해."
Felten은 A.I.의 공연 예술을위한 뉴욕 대학의 Skirball Center에서 방 한 명의 사람들에게 말하고있었습니다. 지금 - 백악관이 공동 후원 한 여름 강연회 시리즈. A. I의 미래와 관련된 주요 쟁점을 조사하고 토론하고자했습니다. 과학 기술.
일체 포함. 교차로에있다, A.I. 현재 Kate Crawford (Microsoft Research의 연구원)와 Meredith Whittaker (Google Open Research의 창립자 겸 리더) 공동 의장이 지적했습니다. 민간 및 공공 부문은 가능한 일종의 A.I을 만들기 위해 함께 일할 필요가있다. 정책. 그러나 문제는 기술 회사들이 A.I.을 만들기위한 실제 코드와 아키텍처를 발전시키는 데 막대한 걸음을 내딛는 반면. 모든 강력한 힘, 우리의 현재 정책 구조는 시대에 뒤떨어져 있거나 더 나쁘다.
너무 오랫동안, A.I. 현대 시대에는 적용 할 수없는 미래의 개념으로 버려졌습니다. 하지만 A.I. 사람들의 힘으로는 결코 달성 할 수없는 방식으로 많은 양의 데이터를 훑어보고 사람들에게 서비스를 제공하는 도시 정책에 조용히 명시되어 있습니다. Felten은 알고리즘을 사용하여 데이터를 사용하여 사람들을 저렴한 주거지에 연결하거나 대중이 중요한 정보에 액세스 할 수 있도록 투명성을 강화합니다.
그게 A.I. 완벽하다; 대단히 아니. 저녁 시간의 메인 패널에서 Latanya Sweeney, A.I. 하버드 대학의 연구원은 "내 컴퓨터가 인종 차별 주의자의 날"이라고하는 이야기를 들려 주었다.
스위니 (Sweeney)와 인터뷰 한 기자는 Google을 통해 자신의 이름을 검색하여 범죄자 체포 데이터를 수집하고 공유 할 수있는 사이트의 광고를 통해 이름이 알려졌다는 것을 알게되었습니다. Sweeney는 결코 체포되지 않았고, 그녀의 이름은 웹 사이트 데이터베이스의 일부조차도 아니 었습니다. 그러나 그녀의 이름은 광고에서 눈에 잘 띄었습니다. 모든 훌륭한 과학자와 마찬가지로 Sweeney는 개인적인 경험을 쌓고 연구를 실시하여이 광고가 백인보다 흑인의 이름을 더 많이 표시 할 가능성이 높은 것으로 나타났습니다. 이유? Google이 이러한 광고를 게재 한 것은 광고가 게재 될 때 사람이 클릭 한 것에 더 많은 영향을주는 알고리즘의 결과입니다. 검은 색 이름이봤을 때 더 많은 사람들이 이러한 광고를 클릭했습니다. 시스템은 패턴을 학습하고 더 많은 빈도로 광고를 제공하기 시작했습니다.
인간이 궁극적으로 기술력을 발휘하고 인간의 인종 차별적 인 행동이 설계 및 알고리즘에 영향을 미칠 수 있으며, 그렇다해도 A.I.의 약속을 지키기위한 소중한 교훈입니다.
Google은 광고 서비스에서 이러한 편견을 쉽게 감지하고 해결할 수 있습니다. "그들은 선택하지 않았습니다."라고 스위니는 주장했다.
보다 근대적 인 정책 틀이이 문제를 개선하도록 Google에 강요 할 수 있습니까? 혹시. Felten의 2013 년부터 2014 년 전임 Nicole Wong은 A.I.을 포함한 많은 사람들이 강조했다. 연구자들 자체는 큰 데이터를 사용하는 사람들과 궁극적으로 영향을받는 사람들 사이의 "권력의 비대칭성에 대한 증가"에 대해 실질적인 우려를 나타냈다. 데이터의 대상이나 그러한 데이터에 의해 결정된 의사 결정의 영향을받은 사람들.
이러한 우려는 민간 부문에만 국한되지 않습니다. 백악관 국내 정책 협의회 (White House Domestic Policy Council)의 부국장 인 로이 오스틴 (Roy Austin)은 A.I.에 의해 법 집행이 어떻게 크게 개선 될 수 있는지에 대해 언급했다. - 민간인의 사생활에 관해서 권력과 남용으로 엄청난 파급 효과를 창출하십시오. "문제는 '우리가이 데이터로 무엇을합니까?'라고 말했습니다."그는 말했다. 데이터를 가지고있는 것이지만 액세스 권한이있는 사람은 누구입니까? 얼마나 오래? 누구에게 접속할 수 있습니까? 다시 말하지만, 우리는 이러한 질문과 불확실성에 대한 정책적 해답이나 해결책을 가지고 있지 않습니다. 그리고 미래에 대한 우리의 통제가 점점 더 어려워지고 있습니다.
걱정스러운 세 번째 기둥은 A.I.의 사악한 사용과 관련이 없으며 A.I. 자율 시스템이 사람을 직업에서 옮기고 있습니다. 헨리 시우, A.I. 브리티시 컬럼비아 대학 (University of British Columbia)의 연구원은 "일상적인"직종 (직원들이 정해진 일상에서 거의 벗어나지 않는 매우 구체적인 업무를 수행하는 곳)과 이러한 일자리 손실이 기술 분야의 혼란에 가장 취약한 직종에 대해 논의했습니다. 자동화는 이러한 일자리에 불만을 일으켰습니다. 다시 돌아 오지 않습니다.
똑같은 산업화의 이야기처럼 들리지만 꽤 아닙니다. "이 혁명은 이미 우리가 생각한 것보다 덜 이색적 일 수있다"고 경제 기술 정책 담당 데이비드 에델만 (David Edelman) 특별 보좌관은 경고했다. 실직은 한꺼번에 일어나지 않을 것 "이라고 말했다. 두 사람과 시우 (Siu)는 사람들이 학교에 가지 않는 것을 멈추지 않고 끊임없이 새로운 기술과 전문성을 습득하여 교육에 적응할 수있는 교육 환경을 조성하는 것이 해결책이라고 강조했다. 와 과학 기술.
정책 입안자들이 미국이 이러한 문제를 다루는 데 혼자만 있지 않다는 사실을 깨닫는 것이 위안이 될 수 있습니다. 그러나 미국이 A.I.에 대한 길을 계속 이끌어 갈 계획이라면, 정책 분야에서이를 강화해야합니다.
Google DeepMind의 공동 설립자 인 Mustafa Suleyman은 A.I. 의료 시스템을 지원하고 컴퓨터 알고리즘의 의사가 특정 질병 및 질병을 진단 할 수있게하여 인간이 치료 방법을 고안 할 시간을 확보 할 수 있습니다. 영국인 인 Suleyman에게는이 같은 시스템을 병원 내에 설치하는 데는 아무런 의미가없는 것처럼 보였습니다. 그러나 Sweeney는 "미국에서는 자신의 데이터에 대한 통제권이 없습니다"라고 지적합니다. 정보가 남용되지 않도록 보장하기위한 규제 조치는 없습니다. 그리고 그것은 거대한 문제.
"나는 모든 기술 성공에서 얻을 수있는 모든 것을 원합니다"라고 스위니는 말했습니다. "문제는 기술 측면이 아닙니다. 문제는 우리가 공공 정책에 부합하지 않는다는 것이다."
플래시에는 한 번에 두 명의 배우가 나옵니다. 어떻게 과거에 사라 졌는가?
슈퍼 영웅 영화와 TV에 대한 워너 브라더스의 혼란스런 접근 방식은 배리 알렌 (Barry Allen), 일명 더 플래시 (Theka The Flash)의 속도에 대한 의인화와 같은 사람이 아닌 단 한 사람도 곧 만들어 낼 것입니다. Grant Gustin이 출연 한 CW의 The Flash는 이미 마약이지만, 곧 The Flash, Ezra Miller 주연의 영화 감독이 될 것입니다 ...
아마존 리뷰 정책은 사회 미디어 지지자들을 잡초로 몰아 넣습니다.
아마존은 저자의 어머니, 친한 친구, 직장 동료, 이웃 사람, 애완 동물이 투명하게 쓴 5 성급 리뷰로 가득합니다. 이것은 독자의 피드백이 쇼핑객에게 가치를 제공하기를 바라는 사이트에 대한 문제를 제시하지만,이 사소한 문제를 관리하려는 시애틀 거물의 시도는 이제 역효과를 탔습니다 ...
Miss Peregrine의 다람쥐는 치명적인 시간 루프에 갇혀있다.
시간 루프는 시원하지만 아기 다람쥐가 떨어지면 친절한 특유의 도움 없이는 꽤 치명적일 수 있습니다.