Nacionales

¿Podemos confiar en algún video después de hoy? …

Internet está lleno de contenido «Deepfakes»: es sólido, imágenes o videos hechos con herramientas de inteligencia artificial, aquí las personas parecen haber hecho o han hecho cosas que no dicen o han hecho, o en lugares donde no lo están.

Agrega el anuncio

Algunos se conocen como «desnudidad digital» porque las imágenes se modifican para mostrar a alguien sin ropa. Solía ​​engañar a los otros clientes «falsos profundos» o para dañar a los políticos y la reputación de otros públicos.

Es fácil crear «duplicado profundo» con algunos clics en el teclado de inteligencia artificial. Los gobiernos están ansiosos por lidiar con este fenómeno, pero de acuerdo con los datos de la compañía de identidad «significativa», los esfuerzos para usar «falso profundo» han aumentado 20 veces en los últimos tres años.

¿Qué pasos has tomado para lidiar con «profundo falso»?

El 19 de mayo, el presidente de los Estados Unidos, Donald Trump, firmó la Ley «Take It Download», que también criminaliza las instituciones de redes sociales para eliminar estas imágenes sexuales claras utilizando inteligencia artificial, que también se conoce como «venganza obscena».

El año pasado, el Comité Federal de Comunicaciones de los Estados Unidos utilizó voces de inteligencia artificial en llamadas automáticas ilegales.

La prohibición surgió dos días después de que el presidente Joe Biden emitió la «parada y parada» contra la compañía responsable del «duplicado de audio profundo». Los residentes de New Hamposher recibieron una llamada automática antes de las elecciones preliminares presidenciales en el estado, en las que la voz parecía ser la garganta de Biden y les pidió que permanecieran en sus hogares y que «continuaran sus votos para las elecciones de noviembre».

La IA de la Unión Europea restringe las plataformas para indicar que el contenido de la IA es el producto de «falsificación profunda». En 2023, China aplicó la misma ley. El 28 de abril, el Comisionado de Asuntos de Niños del Gobierno Británico llamó a una gran cantidad de solicitudes de «desnudez digital».

¿Dónde se informó el «duplicado profundo» en las noticias?

Fotos de la estrella del pop «profunda», Taylor Swift, generalizada en las redes sociales en enero de 2024, enojó a sus fanáticos y empujó a la Casa Blanca para expresar su ansiedad.

Durante las elecciones presidenciales de los Estados Unidos en 2024, se compartió un video promocional utilizando el «duplicado profundo» de Elon Musk en el que el video no se clasificó como una voz revisada utilizando la inteligencia artificial del candidato demócrata Kamala Harris.

En el video, describe al presidente Joe Biden como «diferencia» y dice que «no sabe nada sobre la administración del país». Este video ganó más de 10 millones de opiniones. En respuesta, Gavin Newsam, gobernador de California, se comprometió a prohibir la política política revisada digital «falsa profunda» y se firmó legalmente en septiembre.

¿Cómo hacer videos usando «profundo falso»?

A menudo se produce utilizando un algoritmo de inteligencia artificial entrenado para identificar patrones en la grabación de video real de una persona en particular, que se llama «aprendizaje profundo».

Entonces es posible reemplazar un elemento del video como la cara de la persona, con otro contenido no se ve como una forma de superficie. Estos cambios son más engañosos al usar técnicas de «clonación de sonido», que analizan el clip de audio de una persona que habla con piezas de audio muy pequeñas, que se vuelven a combinar para crear nuevas palabras que se parecen al altavoz de video original.

¿Cómo se extiende la «falsa profunda»?

Esta tecnología fue inicialmente el cuidado de académicos e investigadores. Sin embargo, en 2017, la plataforma «VICE» del sitio web «Motherboard» ha informado que ha creado un algoritmo para hacer videos falsos utilizando la hoja de código abierto de Reddit llamado «Fuerza profunda». «Reddit» ha prohibido a este usuario, pero la práctica se ha extendido rápidamente. En su comienzo, la tecnología falsa profunda requiere video real y rendimiento real de audio, así como habilidades de edición avanzadas.

Hoy, los sistemas actuales de inteligencia de maternidad permiten a los usuarios crear imágenes y videos confiables a través de órdenes escritas regulares. Pídale a una computadora que cree un video que mantenga a una persona en la boca y definitivamente te verá.

¿Cómo puedes aprender sobre «falsificación profunda»?

Esta falsificación digital es difícil de encontrar, y las compañías de inteligencia artificial están utilizando nuevas herramientas para una gran cantidad de bibliotecas de fotos y videos almacenadas en YouTube.

A veces, los signos obvios incluyen una imagen o video creado usando inteligencia artificial, como tener una mano que contenga una fiesta sin lugar o seis dedos. La diferencia en las imágenes aparece entre las partes modificadas y revisadas de la película.

A veces, el movimiento oral no coincide con el discurso en los clips de «falsificación profunda». La inteligencia artificial puede tener problemas para proporcionar los detalles perfectos del cabello, la boca y las sombras, y los bordes de los cuerpos a veces pueden ser duros o contener píxeles.

Pero todo esto se puede encender con la mejora de los modelos básicos.

¿Cuáles son los ejemplos populares para usar tecnología «falsa profunda»?

En agosto de 2023, los promotores chinos publicaron imágenes modificadas de incendios forestales en la isla Moui en Hawai, en apoyo de las acusaciones de que los incendios fueron causados ​​por la prueba de armas «aire» secreta de los Estados Unidos.

En mayo de 2023, las acciones estadounidenses cayeron poco después de mostrar una imagen del Pentágono en Internet. Los expertos dijeron que la imagen falsa tenía propiedades del producto utilizando inteligencia artificial.

En febrero del mismo año, apareció un clip de audio falso en el que parecía ser un candidato presidencial nigeriano Attiko Abu Bakr que planeaba engañar a las elecciones en el mes.

En 2021, el presidente ucraniano, Vodmir Jellinsky, publicó un videoclip de un solo minuto en las redes sociales que fue expulsado a sus soldados y se entregó a Rusia. La estrella del fútbol Christiano Ronaldo tiene otras formas «profundas» dañinas que se muestran cuando canta poemas árabes.

¿Cuáles son las dimensiones peligrosas asociadas con esta técnica?

El miedo está en los clips «falsos profundos», lo real y el duplicado es imposible de distinguirlos. Gwan que los estafadores manipularán los precios de las acciones produciendo videos falsos de ejecutivos que hacen clips falsos de soldados que cometen sus empresas o crímenes de guerra.

Los políticos, los líderes empresariales y las celebridades son muy vulnerables y tienen una gran cantidad de grabación.

La técnica de «Forja profunda» también proporciona lo que se conoce como «venganza porno», incluso cuando no hay una imagen o video real de una persona y está desnuda y las mujeres a menudo son atacadas. Una vez que el video se extiende en Internet, es casi imposible tenerlo.

El informe del Comisionado de Asuntos Infantil del Reino Unido emitido en abril ha aumentado el temor de que serán víctimas del contenido «falso profundo» de la calumnia.

Las preocupaciones adicionales les permiten difundir la conciencia sobre el reclamo de las personas que aparecen en los registros de los registros de los registros, y dicen o rechazaron o rechazaron o lo ilegal, la evidencia en su contra es falsa, porque algunos ya han comenzado a usar protección «falsa profunda» frente a los tribunales.

¿Qué otros pasos se pueden tomar para reducir la propagación de «falso profundo»?

Es imposible repeler fácilmente el tipo de aprendizaje automático utilizado en el producto «profundo duplicado» para encontrar clips falsos. Pero la ternura de los Países Bajos en los Países Bajos está trabajando para desarrollar métodos para identificar clips falsos, como «centinela» en Estonia, así como muchas compañías de tecnología importantes en los Estados Unidos.

Las empresas, incluido Microsoft, se han comprometido a incluir marcas de agua digitales en las imágenes que producen utilizando sus herramientas de inteligencia artificial, para separarlas como contenido falso. Operai, esta compañía también ha desarrollado métodos para identificar imágenes con inteligencia artificial, así como desarrollar mercados de agua a los textos, pero la última tecnología aún no se ha demostrado, porque el sitio web de Bloomberg dijo que era fácil escapar de ellos.

Source link

Publicaciones relacionadas

Botón volver arriba