Apple expande sua detecção de nudez no dispositivo para combater o CSAM

Por Xerife Tech, 8.06.2023 às 17:08 134

Em dezembro, a Apple anunciou que estava eliminando uma polêmica instrumento de digitalização de fotos do iCloud que a empresa havia desenvolvido para combater o material de injúria sexual infantil (CSAM) no que dizia ser uma maneira de preservar a privacidade. A Apple portanto disse que seus esforços anti-CSAM se concentrariam em seus recursos de “Segurança de informação” para crianças, anunciados inicialmente em agosto de 2021. E na Conferência Mundial de Desenvolvedores da empresa em Cupertino hoje, a Apple estreou expansões para o mecanismo, incluindo um recurso suplementar adequado para adultos.

O Communication Safety verifica as mensagens localmente nos dispositivos de usuários jovens para sinalizar o teor que as crianças estão recebendo ou enviando em mensagens no iOS que contenham nudez. A Apple anunciou hoje que o recurso também está se expandindo para mensagens de vídeo do FaceTime, pôsteres de contato no aplicativo Phone, instrumento de seleção de fotos onde os usuários escolhem fotos ou vídeos para enviar e AirDrop. O processamento do recurso no dispositivo significa que a Apple nunca vê o teor sendo sinalizado, mas a partir deste outono, a Segurança de informação será ativada por padrão para todas as contas infantis – crianças menores de 13 anos – em um projecto de Compartilhamento Familiar. Os pais podem optar por desativar o recurso, se assim o desejarem.

“A segurança da informação é um recurso em que realmente queremos dar à párvulo um momento para fazer uma pausa e, com sorte, ser interrompida no que é efetivamente uma conversa de limpeza, ou pelo menos pode ser”, diz o gerente de privacidade do usuário da Apple, Erik Neuenschwander. “Portanto, é para ser de subida fricção. O objetivo é que haja uma resposta que achamos provavelmente correta na situação daquela párvulo, que é não seguir em frente, e realmente queremos prometer que eles sejam educados.

A Apple disse em dezembro que planejava disponibilizar uma interface de programação de aplicativos (API) para que desenvolvedores terceirizados pudessem integrar facilmente o Communication Safety em seus aplicativos e usá-lo para detectar material de injúria sexual infantil, ou CSAM. A API, conhecida porquê a estrutura Sensitive Content Analysis, já está disponível para desenvolvedores. Plataformas porquê Discord já disseram que planejam incorporá-lo em seus aplicativos iOS.

Uma solicitação de segurança de informação para a conta de uma párvulo.

Retrato: Apple

[ad_2]

Comentários 0

    Os mais lidos

    Windows 10 Ghost Spectre