- Batterie ordinateur
- ACER ADVENT ALCATEL AMAZON APPLE ASUS AUTEL BAOFENG BBK BENQ BFDX BLACKBERRY BLACKVIEW BLU BOSE BQ CANON CASIO CAT CHUWI CITIZEN CLEVO CMCC COMPAQ COOLPAD CUBOT DELL DJI DOOGEE DOOV DYNABOOK ECOVACS ELEPHONE ETON FANUC FUJIFILM FUJITSU GARMIN GATEWAY GE GETAC GETONG GIGABYTE GIONEE GOOGLE GOPRO HAIER HASEE HBC HILTI HISENSE HOMTOM HONEYWELL HONGJIE HONOR HP HP_COMPAQ HTC HUAWEI HYTERA IBM ICOM INFINIX INFOCUS ITEL JBL JJRC JUMPER JVC K-TOUCH KENWOOD KIRISUN KODAK KONKA KOOBEE KYOCERA LEAGOO LEICA LENOVO LG LOGITECH MAXELL MEDION MEITU MEIZU MICROMAX MICROSOFT MINDRAY MITSUBISHI MJXRIC MOTOROLA MSI NEC NETGEAR NEWLAND NIKON NOKIA OLYMPUS ONEPLUS OPPO OTHER OUKITEL PACKARD_BELL PANASONIC PARROT PAX PENTAX PHILIPS PRESTIGIO QIKU RAZER REALME RTDPART SAMSUNG SANYO SEIKO SHARK SHARP SIEMENS SONY SUNMI SYMA SYMBOL TADIRAN TCL TECNO TOPCON TOSHIBA TP-LINK TRIMBLE TWINHEAD ULEFONE UMI UMIDIGI UNIWILL UROVO VARTA VERTEX VERTU VIVO WEILI WIKO XIAOMI XINNUAN YAESU YUHUIDA ZEBRA ZTE
TOP DES VENTES
Capacité - Tension
ARTICLES RÉCENTS DU BLOG
Né en 2017, le deep-porn a fait plus de 600.000 victimes
Le terme deep-porn désigne une vidéo pornographique réalisée à l’aide des mêmes méthodes que les deepfakes. Autrement dit, à l’aide d’algorithmes d’intelligence artificielle.
Les deepfakes, qu’on appelle aussi médias synthétiques, héritent leur nom d’un utilisateur de la plateforme Reddit, u/deepfakes. Ce dernier fabriquait des séquences pornographiques détournées. Pour cela, il greffait numériquement le visage de célébrités sur le corps d’actrices de films pour adultes.
Ainsi, les deep-porn sont apparus pour la première fois en 2017 sur le forum Reddit. Dans la foulée, elles ont fait l’objet d’un trafic entre les utilisateurs et leur créateur. Le groupe qui s’était formé autour de cette thématique a atteint près de 100 000 membres.
Les célébrités comme cible n°1
En 2018, Sam Cole, un journaliste de Motherboard, a découvert qu’un utilisateur de Reddit du nom de “deepfakes” publiait de fausses vidéos pornographiques non consensuelles. Pour cela, il utilisait un algorithme d’intelligence artificielle. Celui-ci lui permettait d’échanger les visages de célébrités dans de vraies vidéos pornographiques.
C’est ainsi que, au moment où la technologie rencontrait un fort succès, Sam Cole a tiré la sonnette d’alarme sur ce phénomène. En un an, le deepfake porn s’est finalement répandu bien au-delà de Reddit. Des applications qui pouvaient “déshabiller” toute femme photographiée ont même fait leur apparition.
Une véritable prolifération
En septembre 2019, Deeptrace, une société d’intelligence artificielle, a trouvé 15 000 vidéos deepfake en ligne. Ce qui signifie que leur nombre avait doublé en seulement neuf mois. Parmi les vidéos, 96 % étaient pornographiques et 99 % d’entre elles mettaient en correspondance des visages de célébrités féminines avec des stars du monde pornographique.
Dans le même contexte, en 2020, Sensity.ai, une société néerlandaise spécialisée dans la détection de médias synthétiques, a révélé que près de 680 000 femmes auraient été victimes de DeepNude. Il s’agit d’un générateur de Deep porns sur Télégram. Le principe était relativement simple. En effet, il suffisait de téléverser une photo de femme habillée et l’algorithme générait un deepfake de cette même femme, nu.
D’après le site journalism.design, le bot, dont les images ont été diffusées sur différentes chaines affiliées regrouperait 101 080 utilisateurs dans le monde. 70 % se trouvent en Russie ou dans les pays satellites de l’ex-URSS. Pour rappel, un bot est un service automatisé disponible sur les messageries instantanées comme Messenger ou encore Télégram.
La réaction des plateformes
La plateforme Gfycat a été la première à réagir en supprimant les comptes partageant des deep-porns. Dans la foulée, les plateformes Pornhub et Twitter ont interdit les deep-porns début février 2018.
Le 8 février 2018, c’est la plateforme Reddit qui a décidé à bannir ces vidéos de son système. Et ce, en mettant à jour ses conditions d’utilisation. Cette date signe ainsi la fermeture du principal sub Reddit qui regroupait près de 90 000 membres.
En Corée, au Japon et en Russie, les réseaux de trafic de deep-porns qui prospéraient sur les plateformes Telegram et Signal sont démantelés. Depuis, de nombreux textes de loi visant à pénaliser les deep-porn ont vu le jour aux États-Unis. Par contre, les poursuites restent rares. En effet, le plus souvent, les victimes n’ont pas conscience de l’infraction, ou alors, n’ont pas le courage ou les moyens de se confronter aux créateurs de ces vidéos.