Apple iPhone X, 중국인의 얼굴을 말할 수 없음, 환불 예정

$config[ads_kvadrat] not found

다각화되는 요즘 무선 환경의 '3대 트렌드'

다각화되는 요즘 무선 환경의 '3대 트렌드'
Anonim

지난주, 중국 동부의 주요 도시인 난징에서 얀이라는 이름의 한 여성이 얼굴 인식 기술을 사용하여 잠금을 해제 한 결함있는 iPhoneX로 Apple에서 두 번 환불을 제안했습니다. 두 여성 모두 민족적으로 중국인입니다.

Yan은 현지 뉴스에서 처음으로 이런 일이 발생했을 때 아이폰 핫라인을 불렀지 만 그녀를 믿지 않았다. 그녀와 그녀의 동료가 현지 애플 상점에 가서 상점 직원에게 환불을 제안하고 그녀가 아마도 결함이있는 카메라가 탓이라고 생각하면서 새 전화를 구입 한 사실을 보여주었습니다.

그러나 두 번째 전화도 똑같은 문제를 안고 있었는데 매장의 직원이 제안한 것처럼 카메라 결함이 아니라 소프트웨어 자체의 문제라고 제안했습니다.

이것은 얼굴 인식 소프트웨어와 그 뒤에있는 인공 지능이 흰색이 아닌 얼굴을 인식하는 데 어려움을 겪은 첫 번째 사례는 아닙니다.

2015 년에 Google 포토는 실수로 2 명의 아프리카 계 미국인 사진을 고릴라로 표시했지만 2009 년에는 HP 컴퓨터 http://www.youtube.com/watch?v=t4DT3tQqgRM에서 얼굴을 인식하고 추적하는 데 어려움이있었습니다. 하얀 얼굴에 문제 없음. 같은 해 Nikon의 카메라 소프트웨어는 아시아의 얼굴을 깜박 거리는 것으로 잘못 붙잡 았습니다.

Google 포토, 모두들 엿 먹어. 내 친구는 고릴라가 아니야. pic.twitter.com/SMkMCsNVX4

- Jacky (@ jackyalcine) 2015 년 6 월 29 일

MS의 수석 연구원이자 오바마 백악관의 심포지움과 A.I의 공동 의장 인 케이트 크로포드 (Kate Crawford)는 "이것은 근본적으로 데이터 문제이다. "알고리즘은 엔지니어가 선택한 특정 이미지를 받음으로써 배웁니다. 시스템은 이미지를 기반으로 한 세계 모델을 만듭니다. 압도적으로 하얗게 보이는 사람들의 사진에 대한 훈련을 받으면 비 얼굴을 인식하는 것이 더 힘들어 질 것입니다."

그의 사진이 구글에 의해 잘못 표기된 브루클린에 기반을 둔 프로그래머 Jacky Alcine은 동의했다. 그의 경험 중 그는 "흑인들을 정확하고 더 완전하게 분류하면 피할 수 있었을 것"이라고 말했다.

그러나 인공 지능으로 코드화 된 인종 차별은 의도하지 않은 경우 라 할지라도 얼굴 인식 이상의 의미를 갖습니다.

2016 년 ProPublica 수사는 흑인 범죄자가 실수로 "예측 적 치안 정책"의 증가 추세는 알고리즘을 사용하여 범죄를 예측하고 그에 따라 경찰 자원을 지시합니다.

그러나 소수 민족 공동체는 역사적으로 지나치게 치안을 유지해 왔으며, "이 소프트웨어는 이미 악순환을 지속시킬 위험성이 있습니다"라고 Crawford는 말합니다.

중국 난징에 돌아온 Yan은 두 번째 iPhoneX에서 두 번째 환불을 받았습니다. 현지 뉴스 보도에 따르면 그녀가 세 번째 잡지를 구입했는지 여부는 확실하지 않습니다.

위태로운 것은 이번에는 단 한 명의 소비자 일 수 있습니다. 그러나 Yan의 사례는 기술 업계가 다양성과 포괄 성을 염두에두고 설계해야하는 지속적인 필요성의 한 예입니다.

$config[ads_kvadrat] not found