Pixelated 이미지는 Cornell Tech의 얼굴 인식 A.에 맞지 않습니다.

$config[ads_kvadrat] not found

Joy Oladokun - if you got a problem (Official Music Video)

Joy Oladokun - if you got a problem (Official Music Video)
Anonim

뉴욕시의 코넬 테크 (Cornell Tech)에있는 3 명의 연구원은 흐릿하고 픽셀 화 된 이미지가 인공 지능과 일치하지 않는다는 것을 발견했습니다. 가려진 이미지는 인간의 눈에는 이해할 수 없으며 민감한 내용을 보호하는 것처럼 보이지만 신경 네트워크는 종종 원래 이미지의 대상자를 정확하게 말할 수 있습니다.

즉, 인간은 더 이상 리트머스 검사가 아닙니다. 우리는 더 이상 단순히 인간의 모든 두뇌를 무 찌르 게 하는지를 묻지 않습니다. A. 단순한 AI 라 할지라도 인간보다 우월 할 수 있기 때문에 그들을 물리 칠 때도 항상 등식의 일부가되어야합니다.

코넬 테크 연구원의 연구는 특정 정보 나 그림의 일부를 흐릿하게하거나 픽셀 화하는 사생활 보호 알고리즘을 테스트하는 데 중점을 두었습니다. 이전에는 프라이버시 보존 소프트웨어 또는 알고리즘을 암시 적으로 신뢰하면서 가려진 정보가 안전하지 않은 것으로 파악했습니다. 인간의 누가 디지털 베일 뒤에 있었는지 말할 수 있습니다. 그 연구는 그 시대가 끝났음을 보여 주며, 관련 익명화 방법도 오래 가지 않을 것입니다. 이러한 개인 정보 보호 수단을 사용하여 만난 신경 회로망은 불공정합니다.

Richard McPherson은 Ph.D. 비탈리 슈마티코프 (Vitaly Shmatikov) 교수를 코넬 테크 (Cornell Tech)로 이끈 텍사스 대학 (University of Texas, Austin) 컴퓨터 과학 후보. Reza Shokri와 함께 그들은 간단한 신경 네트워크가 일반적인 이미지 난독 화 기술을 벗겨 낼 수 있다는 것을 보여주었습니다. 이 기법은 상대적으로 단순하기 때문에 발견이 더 걱정 스럽습니다. 이는 일반적으로 액세스 할 수있는 방법이며 난독 화를위한 업계 표준을 무력화 할 수있었습니다.

신경 회로망은 뇌의 기본 구조를 모방 한 노드의 큰 층 구조 또는 인공 뉴런입니다. McPherson은 "뉴런의 작동 원리에 대한 간단한 이해를 바탕으로합니다"라고 말합니다 역. "입력 신호를주고 뉴런은 발사하거나 발사하지 않는다."

그들은 또한 용어의 대략적인 정의에 의해 "학습"할 수 있습니다. 야성적 인 (완전히 무식한) 인간에게 "붉은 색"의 것을 보여주고 양동이에있는 모든 "붉은 색"의 것들을 골라 내라고 말하면, 그들은 처음에는 투쟁 할 것이지만 시간이 지나면 향상시킬 것입니다. 신경망에서도 마찬가지입니다. 기계 학습이란 컴퓨터에 다양한 물건이 담긴 가상의 물통과 같은 "붉은 색"물체를 골라내는 것입니다.

이것이 McPherson과 회사가 신경 네트워크를 훈련 한 방법입니다. "우리 시스템에서는 신경 네트워크의 구조, 이러한 인공 뉴런의 구조화 된 세트를 만든 다음, 그 이미지에 많은 양의 난독 화 된 이미지를 제공합니다." "예를 들어, 우리는 픽셀 화 된 캐롤의 백가지 사진을 제공 한 다음 픽셀 화 된 밥의 백 가지 사진을 제공 할 수 있습니다."

연구원은이 픽셀 화 된 이미지에 라벨을 붙이며 이렇게함으로써 각 이미지의 모델을 알려줍니다. 이 데이터 세트를 처리 한 후 네트워크는 Pixelated Bob 및 Pixelated Carol의 모습을 기능적으로 알고 있습니다. McPherson은 다음과 같이 레이블없이 "Bob 또는 Carol과 다른 픽셀 화 된 그림을 제공 할 수 있습니다."라고 말하면서 "이것이 Bob이라고 생각합니다."라고 말하면서"

이 모델은 난독 화 된 이미지를 재구성하지 않지만 가장 일반적이며 이전의 가장 신뢰할 수있는 익명화 방법을 물리 칠 수 있다는 사실 자체가 당황 스럽습니다. McPherson은 "그들은 무엇이 난독 화되는지 알 수 있지만 원래 어떻게 보이는지 알지 못합니다."라고 말합니다.

그러나 신경 네트워크는 여전히 인간보다 훨씬 더 잘할 수 있습니다. 이미지가 하나의 산업 표준 기술을 사용하여 가장 난독 화되었을 때 시스템은 여전히 ​​50 % 이상 정확했습니다. 약간 덜 난독 화 된 이미지의 경우 시스템은 약 70 %의 정확도로 놀라운 것으로 나타났습니다. 얼굴 흐리게하기위한 YouTube의 표준은 완전히 실패했습니다. 가장 흐릿한 이미지조차도 신경망에 의해 괴롭혀 96 %의 정확성을 보였다.

이전에는 다른 고정되지 않은 데이터, 텍스트 및 이미지 익명 기술도 마찬가지로 신뢰할 수 없습니다. McPherson은 "여름에는 픽셀 화와 흐림 효과를 사용하여 텍스트를 익명으로 처리하는 작업이 있었지만 그 작업 또한 손상 될 수 있음을 보여주었습니다."라고 McPherson은 말합니다. 그리고 한 번 신뢰할만한 다른 방법이 문 밖으로 나올 수 있습니다. 익명의 TV 인터뷰에 사용 된 것과 같은 음성 난독 화 기술의 내용을 알지 못하지만 신경 네트워크로 익명화를 깨뜨릴 수 있다면 그는 놀라지 않을 것입니다.

McPherson의 발견은 "과거에 우리가 가지고 있던 프라이버시 보존 방법은 특히 현대의 기계 학습 기술을 사용하여 소량으로하지 못했습니다."즉, 우리는 부적절한 코드를 작성하여 모든 영역에서 우리를 능가합니다.

"기계 학습의 힘이 커짐에 따라, 이러한 상충 관계는 적들에게 유리하게 바뀔 것"이라고 연구진은 썼다.

$config[ads_kvadrat] not found