YouTube est conscient du danger du clonage de voix par IA, la sécurité du site est-elle suffisante ?

L’intelligence artificielle est à la mode et la plupart des géants d’Internet accumulent les projets en rapport avec l’IA. Malheureusement, c’est un domaine encore assez mal maîtrisé et il n’est pas rare de voir l’intelligence artificielle déraper de manière spectaculaire parfois.

Youtube ©Pixabay
©Pixabay

On pourrait penser que les jours des IA problématiques étaient comptés mais ce n’est pas vraiment le cas. Les entreprises essaient de renforcer la sécurité de leurs outils mais ça ne marche pas à tous les coups.

Microsoft est l’exemple parfait d’intelligence artificielle hors de contrôle. L’entreprise n’a retenu aucune leçon de sa toute première expérience avec son IA raciste de 2016 et aujourd’hui, Bing caricature Mickey en terroriste et résout des CAPTCHA.

Heureusement, certaines compagnies semblent plus préoccupées par la sécurité dans le projet d’intelligence artificielle. C’est le cas de Google avec YouTube, la plateforme d’hébergement de vidéo qui multiplie les initiatives concernant l’IA et il semblerait que la sécurité soit au cœur de leurs expériences avec l’IA.

On peut citer l’obligation des créateurs à indiquer si leur contenu est artificiel afin de limiter la désinformation, par exemple. Si c’est un pas vers une sécurité plus importante pour les utilisateurs, il faut néanmoins souligner le fait que certains projets de YouTube sur le sujet de l’IA sont parfois discutables.

Youtube sécurité et IA
©Unsplash

Le clonage de voix, un sujet particulièrement sensible

C’est le cas notamment de son projet de clonage de voix célèbres. Pour commencer, sans accord signé de la part des labels et des artistes, on peut se poser la question de la légalité du projet. De plus, l’utilisation de voix clonées est un véritable danger pour les utilisateurs de la plateforme.

Si le projet a pour but de faire chanter les créateurs avec les voix de leurs artistes préférés, le clonage de voix peut également provoquer des problèmes d’usurpation d’identité mais aussi de propagande et de campagne de désinformation.

Pour résoudre ces problèmes, YouTube travaille sur le projet Dream Screen. C’est un outil qui permet à la plateforme de détecter si un contenu créé sur la plateforme a été généré à l’aide de l’intelligence artificielle. Pour ce faire, Dream Screen ajoute une watermark (un tatouage numérique en français) sous la forme d’un son inaudible pour les êtres humains mais qui peut être repéré facilement par l’entreprise.

Les initiatives de YouTube pour renforcer la sécurité autour de l’intelligence artificielle sont louables. Bien que les watermarks puissent potentiellement être retirées, la plateforme d’hébergement de vidéo est sur la bonne voie pour éviter les dérapages de ses IA.

Il ne reste plus qu’à patienter pour voir comment les utilisateurs vont s’y prendre pour contourner les sécurités de YouTube et commencer à faire n’importe quoi avec ses outils d’intelligence artificielle. En espérant qu’ils se cantonnent à la création de fond vert animé.

Source : Wccftech