Nova versão do iOS vai desfocar imagens para proteger crianças

·2 min de leitura
O recurso foi projetado para proteger as crianças de imagens inadequadas, digitalizando imagens de entrada e saída em busca de material “sexualmente explícito”. (Reprodução / Apple)
  • O iOS 15.2 adiciona um recurso de segurança de comunicação da Apple ao aplicativo Mensagens

  • Porém, sistema não enviará mensagem aos pais caso criança opte por ver a imagem

  • Siri também terá atualização para proteger crianças no uso do iPhone

A versão beta mais recente do iOS 15.2 adiciona um recurso de segurança de comunicação da Apple ao aplicativo Mensagens, relata MacRumors. O recurso foi projetado para proteger as crianças de imagens inadequadas, digitalizando imagens de entrada e saída em busca de material “sexualmente explícito”. Todas as imagens que atendam a essa descrição ficam desfocadas e a criança será avisada sobre seu conteúdo e informada que não há problema em visualizar. O recurso, que se conecta ao sistema de Compartilhamento de Família existente da Apple, também foi projetado para oferecer recursos às crianças afetadas para que elas obtenham ajuda.

Leia também

A versão do recurso lançado no último beta do iOS 15.2 tem uma diferença crucial em relação ao que a Apple anunciou originalmente em agosto: ela não enviará notificações aos pais se uma criança decidir ver uma imagem sexualmente explícita. Críticos como a instrutora da Harvard Cyberlaw Clinic, Kendra Albert, objetaram a esse elemento em particular porque ele poderia tornar crianças queer ou transgêneros para seus pais. MacRumors também observa que em sua forma original, o recurso poderia ter introduzido problemas de segurança quando um pai é violento ou abusivo.

As crianças terão a opção de alertar alguém em quem confiam sobre uma foto sinalizada, e que essa escolha é separada da escolha de desfocar e visualizar a imagem. As verificações são realizadas no dispositivo e não afetam a criptografia de ponta a ponta.

O recurso de segurança de comunicação foi anunciado originalmente em agosto como parte de um trio de recursos projetados para proteger crianças contra abuso sexual. No entanto, a empresa disse que estava atrasando a introdução dos recursos no mês seguinte em resposta às objeções levantadas por defensores da privacidade.

Siri também terá atualização para proteger crianças

A segurança na comunicação é diferente do recurso de detecção de CSAM (detecção de imagens de abuso sexual infantil) que verifica as fotos do iCloud de um usuário e relata conteúdo ofensivo aos moderadores da Apple, e que gerou a maior parte do clamor dos defensores da privacidade. Há também uma atualização chegando à pesquisa do Siri que foi projetada para oferecer recursos se um usuário pesquisar tópicos relacionados a abuso sexual infantil. No momento, não está claro quando esses dois recursos estão planejados para lançamento, e não há relatos deles aparecendo no software beta público da Apple.

É importante notar que os recursos adicionados ao beta mais recente do iOS 15.2 ainda podem mudar drasticamente antes de seu lançamento oficial, e podem ser totalmente removidos da atualização. Outros novos recursos que chegaram na versão beta mais recente incluem um recurso de verificação manual do AirTag, bem como a opção de passar seus dados do iCloud para um ente querido em caso de sua morte.

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos