- Batterie ordinateur
- ACER ADVENT ALCATEL AMAZON APPLE ASUS AUTEL BAOFENG BBK BENQ BFDX BLACKBERRY BLACKVIEW BLU BOSE BQ CANON CASIO CAT CHUWI CITIZEN CLEVO CMCC COMPAQ COOLPAD CUBOT DELL DJI DOOGEE DOOV DYNABOOK ECOVACS ELEPHONE ETON FANUC FUJIFILM FUJITSU GARMIN GATEWAY GE GETAC GETONG GIGABYTE GIONEE GOOGLE GOPRO HAIER HASEE HBC HILTI HISENSE HOMTOM HONEYWELL HONGJIE HONOR HP HP_COMPAQ HTC HUAWEI HYTERA IBM ICOM INFINIX INFOCUS ITEL JBL JJRC JUMPER JVC K-TOUCH KENWOOD KIRISUN KODAK KONKA KOOBEE KYOCERA LEAGOO LEICA LENOVO LG LOGITECH MAXELL MEDION MEITU MEIZU MICROMAX MICROSOFT MINDRAY MITSUBISHI MJXRIC MOTOROLA MSI NEC NETGEAR NEWLAND NIKON NOKIA OLYMPUS ONEPLUS OPPO OTHER OUKITEL PACKARD_BELL PANASONIC PARROT PAX PENTAX PHILIPS PRESTIGIO QIKU RAZER REALME RTDPART SAMSUNG SANYO SEIKO SHARK SHARP SIEMENS SONY SUNMI SYMA SYMBOL TADIRAN TCL TECNO TOPCON TOSHIBA TP-LINK TRIMBLE TWINHEAD ULEFONE UMI UMIDIGI UNIWILL UROVO VARTA VERTEX VERTU VIVO WEILI WIKO XIAOMI XINNUAN YAESU YUHUIDA ZEBRA ZTE
TOP DES VENTES
Capacité - Tension
ARTICLES RÉCENTS DU BLOG
>
Tous les articles >
Apple supprime toute trace de son système controversé anti-pédopornographieApple supprime toute trace de son système controversé anti-pédopornographie
Présenté pour la première fois en août 2021, Apple cherche maintenant à effacer toute trace de son système de détection de matériel pédopornographique (des CSAM). En effet, la marque à la pomme a supprimé toute mention de cette fonctionnalité sur son site web. Pourtant, la firme de Cupertino compte toujours lancer ce système prochainement, une fois qu'elle y aura apporté quelques modifications.
En août 2021, Apple dévoile ses nouvelles mesures concernant la lutte contre la pédopornographie. En effet, la firme de Cupertino compte intégrer une fonctionnalité capable de détecter les matériels (images et vidéos) pédopornographiques, également appelés CSAM aux États-Unis.
Pour ce faire, le système va analyser, à l'aide de plusieurs algorithmes, la signature numérique unique d'une image contenu dans iCloud ou iMessages. Elle sera ensuite comparée avec les signatures numériques de millions d'images pédopornographiques enregistrées dans la base de données du Centre National des enfants disparus et exploités.
Sur le papier, les intentions d'Apple restent louables. Seulement, cette mesure a rapidement rencontré l'hostilité de nombreux défenseurs de la vie privée et de lanceurs d'alerte, à commencer par Edward Snowden. À ses yeux, il y a un risque que cette fonctionnalité soit détournée pour être transformée en une “infrastructure de surveillance et de censure”.
APPLE EFFACE LES TRACES DU SYSTÈME CONTROVERSÉ ANTI-PÉDOPORNOGRAPHIE
Face à la levée de boucliers générale, Apple a décidé de suspendre le déploiement de cette fonctionnalité jusqu'à nouvel ordre. Or, nos confrères de The Verge nous apprennent que le constructeur vient de mettre à jour sa page web sur ses fonctions de sécurité pour les enfants.
En effet, la marque à la pomme a supprimé toute mention de cette fonctionnalité controversée. Les références au système de détection de CSAM ont disparues. Néanmoins, Apple tient à préciser qu'il n'enterre pas pour autant le dispositif : “Sur la base des personnes, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des informations et apporter des améliorations avant de lancer ces fonctions de sécurité pour les enfants qui sont d'une importance cruciale”, assure un porte-parole de la marque au média américain.
Notez que si la fonction de détection de CSAM est passée à la trappe, Apple a déployé deux fonctions dédiées à la protection des plus jeunes présentées en août 2021. Avec iOS 15.2, les mineurs reçoivent une notification d'Apple lorsqu'ils reçoivent ou envoient une photo intime. À ce sujet, Apple pensait aussi alerter les parents, mais le constructeur s'est finalement ravisé. La seconde fonctionnalité offre des informations supplémentaires lorsque des recherches liées à l'exploitation des enfants sont effectuées via Siri, Spotlight ou Safari Search.