Portada » L’IA de Meta est parfaite pour la traduction simultanée

L’IA de Meta est parfaite pour la traduction simultanée

by Reina Escarcega

En août dernier, Meta a présenté Sans coutureM4T, son modèle d’IA de traduction multimodale qui prend en charge près de 100 langues différentes pour le texte et 36 pour la parole. En soi, c’est un outil très complet, mais l’entreprise aimerait l’étendre encore pour permettre encore plus de traductions de conversations plus spontané et expressif. C’est exactement pourquoi Meta a récemment présenté « TransparenteExpressif« « , »un modèle pour préserver l’expression dans la traduction parole-parole« , Transférer des détails expressifs dans la traductionPar exemple, la hauteur, le volume, le débit de parole et les pauses. Une nouveauté qui est loin d’être dénuée de sens, sachant que les traductions se sont toujours révélées robotisées. Les fonctionnalités prennent actuellement en charge six langues : Anglais, Espagnol, Allemand, Français, italien Et Chinois.

Mais ce n’est pas tout. Meta a annoncé avoir également développé le modèle «Diffusion fluide« , capable commence par traduire un discours pendant que l’orateur parle encoreCela permet au public d’écouter la traduction plus rapidement. Pour le moment, il semble qu’il soit toujours là un intervalle de 2 secondes entre les mots du locuteur et leur traduction, mais au moins il n’est plus nécessaire d’attendre la fin d’une phrase pour obtenir la traduction. En fait, le modèle prend en charge «reconnaissance vocale automatique et traduction parole-texte pour près de 100 langues d’entrée et de sortie, ainsi que traduction parole-parole pour près de 100 langues d’entrée et 36 langues de sortie« . Étant donné que différentes langues ont des constructions syntaxiques différentes, l’entreprise a dû développer un algorithme spécial – Efficient Monotonic Multihead Attention (EMMA). Sous-étude d’entrée audioafin que vous puissiez décider indépendamment s’il y a suffisamment de contexte pour commencer à générer le résultat traduit ou si vous devez plutôt continuer à écouter.

En bref, Meta a travaillé dur pour développer des modèles de traduction qui accompagnent les utilisateurs dans toutes les situations, mais sans jamais négliger la sécurité. Chaque titre traduit est marqué de un filigrane audio« , »un signal inaudible pour l’oreille humaine, mais qui peut néanmoins être détecté dans le son à l’aide d’un modèle de détecteur« . Un conseil utile pour «prévenir le risque d’imitation et d’autres formes d’utilisation inappropriée« . Dans l’ensemble, les modèles d’IA de Meta semblent prêts à atteindre le grand public, mais on ne sait pas encore quand cela se produira réellement.

Related Videos

Leave a Comment