애플, 아동 성학대 자료 저조한 신고 논란
애플이 플랫폼에서 의심되는 아동 성학대 자료(CSAM) 신고 건수가 적어 비판을 받고 있으며, 특히 구글이나 메타와 같은 다른 테크 기업들에 비해 이 문제가 두드러지고 있다. 2023년에 애플은 전국 실종·학대 아동 센터(NCMEC)에 CSAM 사례 267건만을 보고했는데, 이는 구글의 147만 건, 메타의 3060만 건에 크게 못 미친다. 틱톡, X, 스냅챗, 엑스박스, 플레이스테이션과 같은 다른 플랫폼들도 애플보다 더 많은 사례를 보고했다.
영국의 아동 학대 예방 국가 협회(NSPCC)는 2022년 4월부터 2023년 3월까지 잉글랜드와 웨일스에서 애플과 관련된 CSAM 사례가 337건이었음을 밝혀냈으며, 이는 전 세계 보고 건수를 능가했다. NSPCC는 자유 정보 요청을 통해 이 정보를 확보했다.
애플의 서비스인 iMessage, FaceTime, iCloud에 사용되는 엔드 투 엔드 암호화가 사용자 콘텐츠를 감시하는 회사의 능력을 저해하고 있다. 그러나 비슷한 암호화를 사용하는 왓츠앱은 2023년에 의심되는 CSAM 사례를 약 140만 건 보고했다.
NSPCC의 온라인 아동 안전 정책 책임자인 리처드 콜러드는 애플 서비스에서 영국의 CSAM 사례 수와 당국에 보고된 전 세계 사례 수의 차이가 큰 것에 대해 우려를 표명했으며, 특히 영국의 온라인 안전법이 곧 시행될 예정이므로 애플이 안전을 우선시해야 한다고 촉구했다.
애플은 2021년에 iCloud에 업로드하기 전 CSAM에 대한 이미지 스캔을 구현하려 했지만 개인 정보 보호 운동가들의 반대에 부딪혀 2022년에 이 프로젝트를 중단했다. 이후 애플은 개인 데이터를 광범위하게 모니터링하지 않고도 아동 보호를 달성할 수 있다고 강조하며 사용자 보안과 개인 정보 보호에 초점을 맞추고 있다.
핵심 요약
- 애플은 2023년 전 세계 CSAM 사례 267건을 보고했으며, 이는 구글(147만 건)과 메타(3060만 건)에 크게 못 미친다.
- NSPCC는 애플이 잉글랜드와 웨일스에서 337건의 CSAM 사례와 관련되어 있음을 발견했으며, 이는 전 세계 보고 건수보다 많다.
- 애플의 iMessage, FaceTime, iCloud은 엔드 투 엔드 암호화를 사용하여 CSAM 탐지 능력을 제한한다.
- 비슷한 암호화에도 불구하고 왓츠앱은 2023년에 약 140만 건의 의심되는 CSAM 사례를 보고했다.
- 애플은 2022년에 CSAM 탐지 도구를 폐기하고 사용자 개인 정보 보호 및 보안에 초점을 맞췄다.
분석
애플의 CSAM 사례 저조한 신고는 주로 엔드 투 엔드 암호화 사용으로 인해 탐지 노력이 방해받기 때문이다. 이러한 차이는 NCMEC나 NSPCC와 같은 기관뿐만 아니라 아동 안전 이니셔티브에 대한 우려도 제기한다. 단기적으로 애플은 규제 점검과 명성에 대한 잠재적 피해를 직면해 있다. 그러나 장기적으로는 파트너십을 통해 안전 기술에 대한 투자를 늘리면 위험을 완화하고 영국의 온라인 안전법과 같은 개인 정보 보호법의 변화에 맞출 수 있을 것이다.
알고 계셨나요?
- 엔드 투 엔드 암호화(E2EE):
- 설명: 이 보안 조치는 통신 사용자만이 메시지를 읽을 수 있도록 보장한다. 개인 정보 보호에 중요하지만 CSAM과 같은 불법 콘텐츠를 모니터링하고 탐지하는 서비스 제공자의 능력을 제한할 수 있다.
- 전국 실종·학대 아동 센터(NCMEC):
- 설명: 미국의 필수 비영리 조직으로 아동 성 착취 사례에 대한 중앙 보고 기관 역할을 한다. 테크 기업들은 플랫폼에서 발견된 의심되는 CSAM 사례를 NCMEC에 보고해야 한다.
- 온라인 안전법(영국):
- 설명: 특히 아동을 위해 인터넷을 더 안전하게 만들기 위해 기술 기업들이 유해 콘텐츠, 포함 CSAM로부터 사용자를 보호하기 위해 사전 조치를 취하도록 요구하는 법안이다. 이 법은 기술 기업들이 사용자 안전과 개인 정보 보호를 관리하는 방식에 영향을 미칠 수 있는 엄격한 규제를 부과할 것으로 예상된다.