Fin du game : l’IA VALL-E imite votre voix en seulement 3 secondes

Fin du game : l’IA VALL-E imite votre voix en seulement 3 secondes

Après les « deep fake » en image ou en vidéo, va-t-on voir débarquer des « deep fake » sonores ? C’est possible puisque Microsoft a dévoilé un nouveau modèle d’intelligence artificielle (IA) de synthèse vocale appelé VALL-E. Sa particularité ? Elle peut imiter et donc simuler la voix d’une personne avec un simple échantillon audio de trois secondes. Une fois qu’elle a appris une voix spécifique, cette IA peut synthétiser le son de cette personne, tout en préservant son timbre et les émotions.

Chez Microsoft, on pense que VALL-E pourrait être utilisé pour des applications de synthèse vocale, mais aussi, et c’est évidemment plus inquiétant, pour l’édition de la parole dans un enregistrement. Il serait possible d’éditer et modifier le son à partir d’une transcription textuelle d’un discours. Imaginez une allocution d’un homme ou d’une femme politique modifiée par cette intelligence artificielle

Un texte exemple, un enregistrement de trois secondes, et l'intelligence artificielle fait le reste. © Microsoft

UN TEXTE EXEMPLE, UN ENREGISTREMENT DE TROIS SECONDES, ET L’INTELLIGENCE ARTIFICIELLE FAIT LE RESTE. © MICROSOFT

Le « machine learning » en action

Pour la firme, VALL-E est ce qu’on appelle un « modèle de langage de codec neuronal », et il s’appuie sur une technologie de compression audio appelée EnCodec, dévoilée par Meta (Facebook) en octobre dernier. Contrairement à d’autres méthodes de synthèse vocale qui synthétisent généralement la parole en manipulant des formes d’onde, VALL-E génère des codes de codec audio à partir d’échantillons textuels et acoustiques. Il analyse essentiellement le son d’une personne, décompose ces informations en tokens (jetons) grâce à EnCodec, et il utilise le « machine learning » pour faire correspondre l’échantillon de trois secondes avec ce qu’il a appris.

Pour cela, Microsoft s’est appuyé sur la bibliothèque sonore LibriLight. Elle contient 60 000 heures de discours en anglais de plus de 7 000 locuteurs, principalement tirés des livres audio du domaine public LibriVox. Pour que VALL-E génère un résultat pertinent, la voix dans l’échantillon de trois secondes doit correspondre étroitement à une voix dans les données d’apprentissage.

Microsoft a conscience du danger

Pour vous convaincre, Microsoft fournit des dizaines d’exemples audio du modèle d’IA en action. Certains sont effrayants de similitude, mais d’autres sont clairement synthétiques et l’oreille humaine parvient à distinguer que c’est une intelligence artificielle. Ce qui impressionne, c’est qu’en plus de préserver le timbre et l’émotion de la personne qui parle, VALL-E est capable de reproduire l’environnement et les conditions de l’enregistrement. Microsoft prend l’exemple d’un appel téléphonique avec les propriétés acoustiques et fréquentielles propres à ce type de conversation.

Interrogé sur les dangers d’une telle intelligence artificielle, Microsoft confirme que le code source n’est pas disponible, et la firme a conscience que « cela peut entraîner des risques potentiels d’utilisation abusive du modèle, tels que l’usurpation d’identification vocale ou l’usurpation d’identité d’un locuteur spécifique. Pour atténuer ces risques, il est possible de construire un modèle de détection pour discriminer si un clip audio a été synthétisé par VALL-E. Nous mettrons également en pratique les principes de Microsoft AI lors du développement ultérieur des modèles ».

Source : futura-sciences.com

Génial ! Vous vous êtes inscrit avec succès.

Bienvenue de retour ! Vous vous êtes connecté avec succès.

Vous êtes abonné avec succès à APAR.TV.

Succès ! Vérifiez votre e-mail pour obtenir le lien magique de connexion.

Succès ! Vos informations de facturation ont été mises à jour.

Votre facturation n'a pas été mise à jour.