Black on White.png
  • Facebook
  • Twitter
  • Instagram
  • Franck

Apple rassure ses employés sur les mesures de protection des enfants malgré certaines inquiétudes

Apple a annoncé officiellement hier son intention d’analyser les photos des utilisateurs afin de voir s’il n’y a pas de contenu pédopornographique. Les photos des utilisateurs seront comparées avec une base de données qui recense des images d’abus sexuels sur les enfants.




Apple a déclaré à ses employés, dans une note de service interne, qu'elle reconnaît certaines inquiétudes concernant ses mesures de protection de l'enfance, qui ont été critiquées par des chercheurs en sécurité.


Matthew Green, chercheur en cryptographie à l’université Johns Hopkins, déclare que l’analyse des photos par Apple est une « très mauvaise idée ». Il explique que ce système pourrait à l’avenir s’étendre à l’analyse des photos chiffrées de bout en bout plutôt qu’au seul contenu présent sur iCloud.



Dans une série de tweets, Edward Snowden a souligné les préoccupations selon lesquelles Apple déploie une forme de "surveillance de masse dans le monde entier" et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire à l'avenir.




Ross Anderson, professeur d'ingénierie de la sécurité à l'Université de Cambridge, a déclaré qu'il s'agissait d'une "idée absolument épouvantable" qui pourrait conduire à une "surveillance en bloc distribuée" des appareils.


9to5Mac rapporte que le vice-président du logiciel d'Apple, Sébastien Marineau-Mes, a déclaré aux employés jeudi soir que cette étape faisait partie d'une mission importante visant à assurer la sécurité des enfants. La note de service complète indique :


Aujourd'hui, marque le dévoilement public officiel de protections élargies pour les enfants, et je voulais prendre un moment pour remercier chacun d'entre vous pour tout votre travail acharné au cours des dernières années. Nous n'aurions pas atteint ce jalon sans votre dévouement et votre résilience inlassables.
Assurer la sécurité des enfants est une mission si importante. À la manière d'Apple, la poursuite de cet objectif a nécessité un engagement interfonctionnel profond, couvrant l'ingénierie, GA, HI, les affaires juridiques, le marketing produit et les relations publiques. Ce que nous avons annoncé aujourd'hui est le produit de cette incroyable collaboration, qui fournit des outils pour protéger les enfants, mais aussi pour maintenir l'engagement profond d'Apple en faveur de la vie privée des utilisateurs.
Nous avons vu de nombreuses réponses positives aujourd'hui. Nous savons que certaines personnes ont des inquiétudes, mais nous continuerons d'expliquer et de détailler les caractéristiques afin que les gens comprennent ce que nous avons construit. Et bien que beaucoup de travail acharné reste à faire pour fournir les fonctionnalités au cours des prochains mois, je voulais partager cette note que nous avons reçue aujourd'hui du NCMEC. Je l'ai trouvé incroyablement motivant et j'espère que vous le ferez aussi.
Je suis fier de travailler chez Apple avec une équipe aussi incroyable. Merci !

Un message du National Center for Missing and Exploited Children a également été diffusé à l'équipe d'Apple qui avait travaillé sur ces fonctionnalités : "Pendant ces longues journées et ces nuits blanches, j'espère que vous serez réconforté de savoir qu'à cause de vous, plusieurs milliers d'enfants victimes d'abus sexuel seront secourus et auront une chance de guérir et d'avoir une enfance qu'ils méritent". Il a également noté que les jours à venir "seront remplis des voix criardes de la minorité", faisant certainement référence aux réactions soulevées par plusieurs exempts en sécurité.


Apple a déclaré que les fonctionnalités débuteront cet automne avec iOS 15, mais uniquement aux États-Unis. D'autres régions s'ajouteront au fil du temps, mais sans plus de précision.


Abonnez-vous sur la page Facebook et Twitter d'AppleGeek !





14 vues0 commentaire