우리는 Facebook의 음성을 그래픽 이미지로 사진 인식 테스트했습니다.

$config[ads_kvadrat] not found

Ài Ài Y Ai , bản remix ( Tiktok Trẻ thời 8X)

Ài Ài Y Ai , bản remix ( Tiktok Trẻ thời 8X)

차례:

Anonim

오늘날 페이스 북은 맹인 또는 시각 장애인이 소셜 미디어의 이미지 품질을 향상시킬 수 있도록 해주는 자동 대체 텍스트라는 기능을 출시했습니다.

iOS의 VoiceOver 기능을 사용하여 Facebook의 물체 인식 기술은 문제의 이미지를 포함 할 수있는 요소를 나열합니다. 특히, 그 요소에는 사람 (사진이 몇 장이나 있는지, 웃는 얼굴인지), 특정 물건, 실내 / 실외 장면, 행동, 상징적 장소, 사진에 불쾌한 콘텐츠가 있는지 여부가 포함됩니다.

2014 년 연구에 따르면 시각 장애가있는 사람들은 Facebook에서 사진을 거의 공유하지 않지만 시각적으로 손상되지 않은 사람들보다 평균적으로 사람들의 사진을 더 좋아한다는 결과가 나왔습니다. 그들은 또한 사진에 대해서도 자주 언급합니다. 그러나 사진을 이해하는 것은 메타 데이터와 사진 캡션의 컨텍스트 단서를 파싱하는 데 의존했습니다. 우리가 알고있는 모든 것이 항상 가장 직접적인 설명자가되는 것은 아닙니다.

그러나 자동 대체 텍스트를 사용하면 사용자는 이미지에 대한 기계화 된 설명을 통해 그림에 대한 새로운 통찰력을 얻을 수 있습니다.

그렇다면 Facebook의 자체 가이드 라인에 따라 사진이 부적절한 콘텐츠로 간주 될 수 있습니다.

나는 페이스 북이 할지도 모르는 일부 이미지를 업로드하거나 (개인) 앨범에 "불쾌한"것으로 판단했다.

모유 수유

페이스 북이 여성 모유 수유 이미지를 제거하는 이야기는 2015 년 초에 인터넷을 인수했습니다. 영향을받은 여성들 중 신생아 사진가는 많은 문제를 가진 것으로 보였습니다.

Jade Beall은 그 사진 작가 중 한 명입니다.위와 같은 이미지는 반복적으로 전문적인 Facebook 페이지에서 삭제되었습니다. 오늘날 페이스 북은 모유 수유 이미지를 사이트에 올릴 수 있습니다. Beall은 위 이미지를 캡션과 함께 헤더 사진으로 다시 게시하여 축하합니다.

"모유 수유 여성들의 탈성화를 진화시키고 지원하는 소셜 미디어에 대한 YAY! 나는 FB 금지에 대한 두려움없이이 이미지를 게시 할 수 있다는 것을 아직도 두려워하고있다."

페이스 북의 자동 대체 텍스트 역시 모유 수유와 함께 시원하고 설명을 간단하게 남겨 둡니다.

"이미지에 포함될 수있는 것: 6 명."

모유 수유 중 한 모체의 기본 이미지의 경우 단순히 다음을 제공합니다.

"이미지에 포함될 수있는 것: 두 명."

약물 사용

Facebook은 약물 사용을 포함하는 사진과 비디오를 명시 적으로 금지합니다. 뚱뚱한 봉을 ​​치는 것은 "마약 사용"의 명확한 예입니다.

자동 대체 텍스트는 다음과 같이 처리합니다.

"이미지에는 다음이 포함될 수 있습니다. 한 명, 실내."

나체

마약 사용과 더불어 페이스 북은 누드를 금지합니다. 페이스 북이 허용하는 것처럼, 여기의 라인은 조금 퍼지기 마련이다. 약간 과도한 노출은 있지만 회사 검열 관에서 누드 만 예술적인 장점이 있습니다. 회화는 일반적으로 이러한 경우에는 더 많은 여유를 갖게되는 반면, 사진 촬영은 조금 더 어려워집니다.

위의 그림의 경우 자동 alt 텍스트는 이미지에 아무런 문제가 없습니다.

"이미지에는 다음이 포함될 수 있습니다: 한 사람."

페이스 북의 검열 지침에 따라, 1 월 14 일 #FBNudityDay에서 예술가들이 누드 이미지를 게시하기 위해 모였습니다. 페이스 북은 검열하는 경향이 있습니다. 전체 누드 바디 페인팅 이미지가 포함되어 있었고 자동 alt 이미지 테스트를 거쳤을 때 이것은 응답이었습니다.

"이미지에는 다음이 포함될 수 있습니다: 한 사람."

그래픽 폭력

Facebook은 폭력 장면을 묘사하고 영화 롭게하는 사진 및 비디오를 비난합니다. 윤리적 인 시각적 폭력은 어두운 곳입니다. 자동 대체 텍스트가 그림 폭력에 어떻게 반응하는지 테스트하기 위해 사용한 그림은 2014 년에 게시 된 베네수엘라 총기 희생자 중 한 명이었습니다. 샌프란시스코 크로니클.

이 사진에는 통증이 있고 통증이있는 ​​곳의 한 남자가 등장합니다. 그 옆에는 장갑을 낀 여자가 있지만, 그 이미지는 그녀를 어깨에서 잘라냅니다.

이것은 가장 치명적인 대체 텍스트 응답이 들어온 부분입니다.

"이미지에는 신발이 들어있을 수 있습니다."

출생

페이스 북이 사람들의 소셜 미디어 피드에 표시해야하거나 표시하지 말아야 할 것에 대한 가장 최근의 진출은 출생의 사진이었습니다. 뉴욕 매거진 처음에는 신생아, 탯줄이 붙어있는 Francie라는 여성의 모습을 보여주는 이미지에 관심을 기울였다.

비공개 Facebook 그룹에 게시되었지만 비공개 그룹의 누군가가 Facebook의 누드 규칙을 위반했다고 신고했기 때문에 삭제되었습니다. 그러나 프랜시는 사진이 여성의 권한 부여의 한 예라고 생각한다고 말했다.

자동 대체 텍스트는 다음과 같이 말합니다.

"이미지에는 다음이 포함될 수 있습니다. 하나 이상의 사람들."

이 예에서 알 수 있듯이 Facebook의 자동 대체 텍스트는 Facebook의 검열이 무엇인지 판단하기에는 신속하지 않습니다. 그러나 아직 따라 잡을 시간이 있습니다. 페이스 북은 시간이 지남에 따라 새로운 기술이 향상되고 프로그램이 더 많은 것을 배울 것이라고 말한다.

새로운 기술은 시각 장애인들에게 페이스 북에서 이전에 불가능했던 방식으로 이미지와 상호 작용할 수있는 기회를 제공 할 것입니다. 우리는 자동 대체 텍스트가 향상되기를 기대합니다. 그러나 "부적절한"사진에 끼어 들기 시작할 정도는 아닙니다.

$config[ads_kvadrat] not found