- Batterie ordinateur
- ACER ADVENT ALCATEL AMAZON APPLE ASUS AUTEL BAOFENG BBK BENQ BFDX BLACKBERRY BLACKVIEW BLU BOSE BQ CANON CASIO CAT CHUWI CITIZEN CLEVO CMCC COMPAQ COOLPAD CUBOT DELL DJI DOOGEE DOOV DYNABOOK ECOVACS ELEPHONE ETON FANUC FUJIFILM FUJITSU GARMIN GATEWAY GE GETAC GETONG GIGABYTE GIONEE GOOGLE GOPRO HAIER HASEE HBC HILTI HISENSE HOMTOM HONEYWELL HONGJIE HONOR HP HP_COMPAQ HTC HUAWEI HYTERA IBM ICOM INFINIX INFOCUS ITEL JBL JJRC JUMPER JVC K-TOUCH KENWOOD KIRISUN KODAK KONKA KOOBEE KYOCERA LEAGOO LEICA LENOVO LG LOGITECH MAXELL MEDION MEITU MEIZU MICROMAX MICROSOFT MINDRAY MITSUBISHI MJXRIC MOTOROLA MSI NEC NETGEAR NEWLAND NIKON NOKIA OLYMPUS ONEPLUS OPPO OTHER OUKITEL PACKARD_BELL PANASONIC PARROT PAX PENTAX PHILIPS PRESTIGIO QIKU RAZER REALME RTDPART SAMSUNG SANYO SEIKO SHARK SHARP SIEMENS SONY SUNMI SYMA SYMBOL TADIRAN TCL TECNO TOPCON TOSHIBA TP-LINK TRIMBLE TWINHEAD ULEFONE UMI UMIDIGI UNIWILL UROVO VARTA VERTEX VERTU VIVO WEILI WIKO XIAOMI XINNUAN YAESU YUHUIDA ZEBRA ZTE
TOP DES VENTES
Capacité - Tension
ARTICLES RÉCENTS DU BLOG
>
Tous les articles >
Deepfake : ce site porno dopé à l’IA attire de plus en plus d’adeptes et c’est inquiétantDeepfake : ce site porno dopé à l’IA attire de plus en plus d’adeptes et c’est inquiétant
L'un des plus importants sites de deepfake pornographiques voit sa popularité grandir de jour en jour. Mais surtout, son influence s'étend, via la création de service similaires grâce à des partenariats. Et si les célébrités sont souvent les plus touchées par ces photos dénudées retouchées à l'aide d'une intelligence artificielle, le grand public commence à être visé.
Le Deepfake, ou hypertrucage dans la langue de Molière, est une technique de synthèse multimédia reposant sur l'intelligence artificielle. Généralement, on se sert de cette technologie pour superposer des fichiers audio et vidéo sur un fichier vidéo déjà existant. De cette manière, on peut littéralement faire dire n'importe quoi à n'importe qui. Et si le cinéma s'est rapidement emparé de cette technologie prometteuse, à l'image de ce qui a été fait avec Luke Skywalker sur The Mandalorian, les deepfake ont rapidement démontré leur dangerosité.
Sur le plan politique notamment, à l'instar de ces vidéos truquées de Barack Obama insultant volontairement Donald Trump. Très rapidement, le deepfake s'est imposé comme l'outil par excellence de la désinformation. Et pour essayer de contrer le phénomène, des réseaux sociaux comme Facebook se sont équipés de mécanismes anti-deepfake.
LE PORNO, LE NOUVEL EL DORADO DU DEEPFAKE
Mais il y a un autre domaine où le deepfake a explosé : la pornographie. Nos confrères de Wired se sont intéressés au plus important site de deepfake dédié à cette tâche particulière : générer de fausses photographies à caractère érotique ou pornographique. Afin de ne pas faire involontairement la promotion du site, Wired a préféré taire son nom. Nous ferons de même.
Créé l'année dernière, ce site supprime numériquement les vêtements de photos “non-dénudées” pour façonner et diffuser des deepfakes pornographiques hyperréalistes. Bien entendu, le site se passe bien du consentement des personnes détournées de la sorte. Depuis ces derniers mois, la plateforme a étendu ses services, en mettant à disposition ses algorithmes et ses API à des “partenaires”, permettant la création de deux autres sites web similaires.
Ainsi, la page du “programme de partenariat” du site web précise qu'il a été créé pour que le développeur à l'origine du système puisse “se concentrer davantage” sur la recherche en matière d'IA, fournir d'autres méthodes de paiement et proposer des versions multilingues du premier site. Avoir un modèle décentralisé permet selon ses dires d'éviter “une suspension soudaine du service, voire une suppression” ordonnée par les autorités.
À lire également : Zao – pourquoi cette appli bluffante de deepfake inquiète tout le monde ?
LE SITE SE FORGE UNE COMMUNAUTÉ ET DES PARTENAIRES POUR RESTER EN VIE
C'est comme ça que le site est parvenu à rester en ligne. Selon les données de la plateforme Similarweb, la plateforme a reçu 50 millions de visiteurs entre janvier et octobre 2021, faisant de lui le site le plus important de sa catégorie. Son audience a même atteint un pic en août avec 6,92 millions de vues en une journée.
Bien entendu, une telle fréquentation n'est pas passée inaperçue et a valu au site plusieurs enquêtes journalistiques du Huffington Post et d'autres médias. Ces articles ont conduit à la fin de de son hébergement et à la suspension de son compte de paiement via la plateforme de cryptomonnaies CoinBase. Ces restrictions ont porté leurs fruits, en réduisant de moitié sa fréquentation en octobre (3,14 millions de visiteurs seulement).
Et si le site a été affecté par ces mesures, ses partenaires commerciaux se sont à l'inverse développés, contribuant à maintenir en ligne cette technologie abusive. Ainsi, l'un des sites clones a enregistré 800 000 visiteurs en octobre 2021, contre seulement quelques milliers les mois précédents. Et de son côté, le créateur du site original se remplit les poches, l'un de ses partenaires affirmant qu'il lui paie 500 dollars environ pour obtenir 10 000 images dénudées. On parle ici d'une base de données comprenant des millions d'images détournées.
UN BUSINESS PLAN ÉLABORÉ ET PLUTÔT INQUIÉTANT
Depuis le lancement de ce site de deepfake il y un an, le créateur assure avoir mis à jour son algorithme plusieurs fois. Aujourd'hui sur la version 2.0, le développeur a annoncé le déploiement d'une troisième mouture en début d'année 2022 qui “améliorera la prédiction des photographies prises de côté ou de dos”. D'après lui, cela permettra aux utilisateurs “de manipuler certains attributs du sujet comme la taille des seins ou les poils pubiens”.
Comme le souligne Wired, la tactique de croissance du site s'apparente à une startup, et prouve à quel point les technologies abusives de “nudification” de photos volées sont devenues monnaies courantes. D'autant qu'elles sont maintenant très simples à utiliser. De fait, les cibles ne sont plus uniquement des célébrités ou des personnalités, mais monsieur et madame tout le monde. Et vous en conviendrez, il y a de quoi s'inquiéter.