소셜 미디어 플랫폼의 연령 인증 확대



소셜 미디어 플랫폼에서 연령 인증이 점점 더 보편화되고 있으며, 사용자들은 YouTube와 Roblox와 같은 서비스에 완전 접근하기 위해 신분증이나 얼굴 스캔을 요구받고 있다. 이러한 연령 제한 조치는 아동 안전 조치를 강화하라는 요구와 함께 진행되고 있으며, 개인 정보 보호, 보안 및 검열에 대한 우려가 제기되고 있다. 미국에서는 앱 스토어가 사용자 연령을 인증하도록 하는 법안인 App Store Accountability Act와 Parents Over Platforms Act가 추진되고 있다. Discord는 사용자 반발로 인해 2026년까지 전 세계적으로 연령 인증 계획을 연기했지만, 이전 공급업체의 데이터 유출 사건 이후에도 이를 완전히 포기하지는 않았다. 다른 플랫폼인 ChatGPT와 Google은 AI 모델을 활용하여 미성년자로 의심되는 계정을 잠금 처리하고 있으며, 사용자가 성인임을 증명할 수 있는 신원 확인이 이루어질 때까지 대기하고 있다. Discord는 다음 달부터 얼굴 스캔이나 신분증을 요구할 예정이다. Roblox는 채팅을 원할 경우 연령 확인을 요구하고 있으며, Steam은 영국에서 성인 콘텐츠 게임에 접근하기 위해 신용카드를 요구하고 있다. 블루스카이는 사우스다코타와 와이오밍에서 연령 인증을 도입하고 있으며, Reddit과 Discord는 영국에서 연령 인증을 시행하고 있다. EU는 7월에 연령 인증 앱의 프로토타입을 테스트할 예정이다. 이러한 변화는 아동 안전 법안이 인터넷 환경을 재편성하고 있다는 점에서 중요한 의미를 갖는다.
Source: theverge.com
댓글
댓글 쓰기