일체 포함. 연구원은 책임있는 알고리즘을 만드는 방법을 보여줍니다

$config[ads_kvadrat] not found

다각화되는 요즘 무선 환경의 '3대 트렌드'

다각화되는 요즘 무선 환경의 '3대 트렌드'
Anonim

연구 기관인 AI는 수요일에 공개 영역에서 알고리즘의 책임 구현을위한 새로운 권장 사항을 발표했습니다.이들의 조언은 1 월 뉴욕 시의회 (New York City Council)에서 정부의 인공 지능 활용을 연구하는 태스크 포스를 대상으로합니다.

AI Now의 보고서, 알고리즘 영향 평가: 공공 기관에서의 책임있는 자동화 지향 알고리즘을 배치 할 때 투명성의 필요성에 대해 설명합니다. 알고리즘은 우리의 일상 생활에 커다란 영향을 미칩니다. 그러나 그 영향은 때때로 눈에 띄지 않게됩니다. 예를 들어 소셜 미디어 및 비디오 플랫폼의 인프라로 구워지기 때문에 프로그램이 종종 인터넷 사용자에게 어떤 콘텐츠가 푸시되는지 결정하는 것을 잊어 버리는 것은 쉽습니다. YouTube의 인기 급상승 목록 상단에있는 음모론 동영상과 같이 온라인 경험을 형성하는 자동화 된 의사 결정 절차를 면밀히 조사하는 등 잘못된 일이 발생하는 경우에만 해당됩니다.

알고리즘은 인터넷 플랫폼에만 국한되지 않습니다. 정부 기관은 교육에서 형사 사법에 이르기까지 다양한 영역에서 알고리즘에 점점 더 의존하고 있습니다. 이상적인 세계에서 알고리즘은 수감자에게 가석방을 허용해야하는지 여부를 결정하는 것과 같은 어려운 결정에서 인간 편견을 제거합니다. 그러나 실제로는 알고리즘이 알고리즘을 만드는 사람들만큼 효과적입니다.

예를 들어, 프로 페리 카 법정에서 사용 된 위험 평가 알고리즘은 인종적으로 편향된 것으로 나타났습니다. 설상가상으로 공공 부문에서 사용되는 많은 알고리즘은 개인 소유이며 일부 회사는 자사 소프트웨어의 근본적인 코드 공유를 거부합니다. 따라서 이러한 소위 "블랙 박스"알고리즘이 왜 특정 결과를 반환하는지 이해하는 것은 불가능합니다.

AI가 제공 할 수있는 한 가지 해결책은 무엇입니까? 알고리즘 영향 평가. 이러한 평가는 완전한 투명성의 규범을 수립합니다. 즉 알고리즘을 사용하는 정부 기관이 언제 어떻게 사용하고 있는지 알릴 필요가 있음을 의미합니다. 보고서는 "이 요구 사항 자체만으로도 대중에게 봉사하기 위해 기술을 배치하고 책임 연구에 초점을 맞추어야하는 빛을 흘려 나가는 방향으로 나아갈 것"이라고 밝혔다.

알고리즘을 둘러싼 개방성 정책은 시민들이 그들의 사용을 면밀히 조사하고 항의 할 수있는 문을 열 것입니다. 당신의 통제 범위 밖의 요인들에 근거하여 위험 평가 점수를주는 알고리즘을 원하십니까? 특히 점수가 감옥에 갈지 결정하는 데 도움이되는 경우? 아마 네, 아닐 수도 있습니다. 어느 쪽이든, 알고리즘에 의해 어떤 변수가 분석되는지 정확히 아는 것이 중요합니다.

또한 AI Now는 사람들이 불공정 한 알고리즘에 대해 로비하기위한 법적 표준을 설정하도록 권장합니다.

예를 들어, 기관이 합리적으로 자동 결정을 내리는 시스템의 범위에 해당하지 않는 시스템을 공개하지 못하거나 공급 업체가 영업 비밀 요구를 해산하여 의미있는 시스템 액세스를 차단할 수있는 경우 대중은 기관의 감독 기관 또는 직접적인 법원에서 공개 의견 제시 기간 후에 이러한 문제를 해결하기를 거부 한 경우.

권장 사항은 근본적으로 하나의 중요한 임무로 요약됩니다. 알고리즘을 사용하는 경우에는 그에 대해 응하지 마십시오.

여기에서 전체 보고서를 읽으십시오.

$config[ads_kvadrat] not found