Sitio web de resúmenes de películas - E-sports - La IA puede convertir imágenes en vídeos y dejar hablar a la gente

La IA puede convertir imágenes en vídeos y dejar hablar a la gente

Vi un "video falso": la IA puede convertir imágenes en videos y dejar que la gente hable | Chao Technology

¿Liang Feng? 2017-05-22

Puede que lo que ves no sea cierto

Dicen que oír para creer y ver para creer, pero la tecnología derribará este dicho. El vídeo real está ahí, pero puede que sea un "vídeo falso".

Investigadores de la Universidad de Oxford han desarrollado un sistema de inteligencia artificial que puede convertir imágenes estáticas en vídeos dinámicos e incluso hacer hablar a las personas que aparecen en las imágenes. Usaron imágenes y clips de audio de una persona para crear el video.

Aunque este sistema es actualmente relativamente tosco e irreal, los investigadores dicen que este software pronto hará que los "vídeos falsos" sean reales.

En este sistema, los investigadores utilizan el reconocimiento de imágenes para identificar rostros.

Luego, el sistema de IA manipula la forma de la boca de la persona en la imagen estática para que suene como una persona real hablando.

El autor afirmó en el artículo que el sistema es adecuado para rostros y audio sin precedentes, lo que significa que incluso si estos rostros no aparecen como datos de entrenamiento, este sistema se puede utilizar para sintetizar el efecto de "falso". video" .

Para lograr este objetivo, propusieron un modelo CNN codificador-descodificador que incorpora conjuntamente rostros humanos y audio para sintetizar el efecto de que las personas puedan hablar en el vídeo. Este modelo fue entrenado con decenas de miles de horas de videos sin etiquetar.

El estudiante graduado de la Universidad de Oxford, Joon Son Chung, es uno de los creadores del sistema. Joon Son Chung dijo que están considerando dividir el vídeo en varios idiomas.

Espera que con el tiempo los vídeos de noticias puedan traducirse automáticamente a diferentes versiones de idiomas y que las formas de la boca también puedan corresponderse simultáneamente. De esta manera, para las plataformas de noticias internacionales, la eficiencia de la producción de noticias mejorará enormemente y se reducirá el costo de traducción.

Antes de esto, existían muchos sistemas que podían convertir imágenes en vídeos.

Sin embargo, estos sistemas requieren una gran cantidad de acumulación de vídeo para funcionar correctamente. Coincidirán automáticamente con las formas de la boca de las voces humanas y luego las recombinarán en nuevos vídeos.

Joon Son Chung dijo que sería fácil para personas famosas, como el ex primer ministro británico David Cameron, usar sus fotografías para crear videos, pero para personas menos famosas. Para la persona promedio, este trabajo será Será muy difícil porque no habrá mucho material de imagen del que sacar.

Además, Chung también cree que el sistema que desarrolló también es muy eficaz para el doblaje de animaciones.

Alex Champandard, otro experto en inteligencia artificial, afirmó que aunque estos sistemas actualmente están enfocados a cambiar la forma de la boca, en el futuro podrán cambiar las expresiones faciales y las posturas. También dijo que la gente pronto no podrá saber qué vídeos son falsos y cuáles reales.

Champandard es cofundador de Creative AI, un sitio web que proporciona a los artistas herramientas de inteligencia artificial.

Con el tiempo, los expertos en inteligencia artificial crearán vídeos que parecerán falsos y reales.

Esta no es una buena noticia para los agentes del orden. Equivale a añadir un nuevo factor de interferencia. El desarrollo de esta tecnología puede provocar que el vídeo en algunos casos sea insuficiente para convertirse en prueba fiable en el juicio. Los tribunales tendrán que depender más de la experiencia forense, la evidencia científica y el testimonio de los testigos.

Además, debido a que las herramientas de inteligencia artificial hacen que este proceso sea rápido y sencillo, el umbral de producción se reduce considerablemente. Al final, cualquiera puede hacer un vídeo de este tipo.

De esta forma, ¿se generalizarán los vídeos falsos? Al igual que las imágenes P de hoy, están por todas partes.

No se encontró la dirección de este software