IT소식

애플 아이폰 어린이 성관련 내용 걸러낸다.

피커 2021. 8. 6. 15:57
728x90
반응형

안녕하세요.

최근에 아동 성적 학대 자료 때문에 사회적 이슈가 된적이 있습니다.
애플은 이런 문제들을 해결하기 위해 아동 성 관련 내용을 필터링하는 기능을 적용한다고 합니다.
이런 일에 앞장서는 애플은 정말 멋진 기업인것 같습니다.
회사가 이윤을 목적으로 하는것은 맞지만, 사회의 문제점들과 불편한점들을 해결하는것도 몫인듯합니다.


애플은 미국 고객의 기기에서 CSAM(아동 성적 학대 자료)을 찾는 시스템에 대한 세부 정보를 공개했습니다.
이미지가 아이클라우드 사진에 저장되기 전에 이 기술은 알려진 일치하는 항목을 검색합니다.
일치하는 항목이 발견되면 검토자가 사용자를 평가하고 법 집행 기관에 보고할 것이라고 말했습니다.
그러나 금지된 콘텐츠나 정치적 발언이 있는지 휴대폰을 스캔하도록 기술이 확장될 수 있다는 개인 정보 보호 문제가 있습니다.

전문가들은 이 기술이 권위주의적인 정부가 시민들을 염탐하는 데 사용할 수 있다고 우려하고 있습니다.
올해 말에 출시될 새 버전에 "온라인 확산을 제한하는 동시에 사용자 개인 정보를 보호하도록 설계된 새로운 암호화 응용 프로그램"이 포함될 것이라고 말했습니다.

이 시스템은 NCMEC 및 기타 아동 안전 기관에서 수집한 알려진 아동 성적 학대 이미지 데이터베이스와 사진을 비교하여 작동합니다.

이러한 이미지는 장치에서 이미지를 "일치"할 수 있는 숫자 코드인 "해시"로 변환됩니다.

이 기술이 원본 이미지의 편집되었지만 유사한 버전도 캡처할 것이라고 말합니다.
'높은 명중률'
"이미지가 저장되기 전에 알려진 해시에 대해 이미지에 대해 온디바이스 일치 프로세스가 수행됩니다."라고 말했습니다.

회사는 이 시스템이 "매우 높은 수준의 정확도를 가지고 있으며 특정 계정에 잘못 플래그를 지정할 확률이 연간 1조 분의 1 미만"이라고 주장합니다.

일치하는 항목이 있는지 확인하기 위해 각 보고서를 수동으로 검토할 것이라고 말합니다. 그런 다음 계정을 비활성화하고 법 집행 기관에 신고하는 조치를 취할 수 있습니다.

회사는 새로운 기술이 기존 기술에 비해 "상당한" 개인 정보 보호 이점을 제공한다고 말합니다. 사진 계정에 알려진 컬렉션이 있는 경우에만 사진에 대해 학습하기 때문입니다.

그러나 일부 개인정보 보호 전문가들은 우려를 표명했습니다.

보안 연구원 매튜 그린은 "애플의 장기 계획이 무엇이든 매우 분명한 신호를 보냈다"고 말했다. "(매우 영향력 있는) 그들의 의견으로는 사용자의 휴대폰에서 금지된 콘텐츠를 검색하는 시스템을 구축하는 것이 안전합니다." 하세요." 존스 홉킨스 대학이 말했다.

"이 점에서 그들이 옳고 그름은 중요하지 않습니다. 이것은 댐을 깨뜨릴 것입니다. 정부는 모든 사람에게 그것을 요구할 것입니다."

반응형