Noticias destacadas

¿Ese hombre blanco que no puede conseguir un trabajo en Tim Hortons? El es yo

Después de las consultas del Equipo de Investigación Visual de CBC News, una gama de videos producidos por AI que muestran lo difícil que es conseguir un trabajo en Canadá.

Los videos de la plataforma de redes sociales dijeron que lo violó Directrices de la comunidadPorque no está claro que estén hechos con IA.

La mayoría de los videos parecen un hombre blanco en sus 20 años llamado «Josh», «Josh», que habla con la cámara y su papel en la publicidad racialmente cargada y el mercado laboral. De hecho, «Josh» fue creado por AI y no existió.

En un video, se quejó de que no podía conseguir un trabajo porque las personas de la India fueron tomadas en Tim Hortons, especialmente en Tim Hortons. Se le preguntó si había solicitado un trabajo en la tienda de donas y si debería hablar Punjabi.

En un comunicado, Tim Hortons dijo que la aparición de tales videos fue muy frustrante y que estaba relacionado con la compañía, y tenía problemas para eliminarlos.

La cuenta de TICTOC, que tiene videos creados por AI de nombre blanco, ha sido eliminada desde entonces, quejándose de que no pudo conseguir un trabajo en Canadá. Esto es parte de una tendencia llamada ‘percepción falsa’. (Desempleo/tictoc)

En otro video, «Josh» ataca la política de inmigración de Canadá, preguntando por qué muchas personas están incluidas en Canadá cuando no hay suficientes trabajos para todos.

Esto es parte de una tendencia a llamarse «percepción falsa». Cuando las empresas crean una personalidad falsa con IA, para parecer un producto o servicio de persona real. En este caso, la compañía NEXA y AI desarrollan un software que otras compañías pueden usar nuevos reclutamientos. En algunos videos hay logotipos de Nexa en la escena. La compañía es conocida como la «colocación subconsciente» del fundador y CEO de la compañía, Divi Nayar Advertising.

El video creado por AI muestra que un hombre que sostiene una taza de café en una concurrida calle urbana.
La persona en los videos se quejó de que no podía conseguir un trabajo porque los inmigrantes indios los tomaron a todos. No tiene verdad sino evidencia sutil. Su brazo tuvo que aceptar la taza de café y un color diferente a su otra mano. También hay un pequeño logotipo para el software VIO AI de Google en la esquina. (Desempleo/tictoc)

En una entrevista con CBC News, dijo que quería «disfrutar» con algunos pensamientos de que «los indios se están apoderando del mercado laboral». Dijo que creó una personalidad de «Josh» como una forma de conectarse con aquellos que tenían opiniones similares: los jóvenes de la escuela que buscan trabajo.

Los profesionales de marketing dicen que es fraudulento e inmoral.

«Este tipo de contenido y la mayoría de la historia de polarización es algo que esperamos de los grupos correctos más bajos», dijo el profesor de marketing de la Universidad de York Marcus Guysler.

«Usar este tipo de tonalidad de propaganda para atraer a los clientes a sus servicios para atraer a los clientes a sus servicios, el más problemático y más inmoral y diferente de lo que he visto hasta ahora».

Es muy confiable

Hacer videos como este no es fácil. Nayyar dijo que su compañía los hizo con el software VIO AI de Google y algunas otras herramientas. La última repetición, lanzada el 3 de mayo, y los videos de las promesas de texto más confiables que las versiones anteriores.

Hay evidencia menos frecuente, como personas con dedos adicionales o físicos imposibles en VEO3. El audio a menudo es inaccesible a partir de las verdaderas voces humanas, y se ajusta a los movimientos de labios de los personajes de la escena, los generadores de video de IA anteriores lucharon.

AI Palabras de racismo en la sección de comentarios que es una locura.
Una pantalla de comentario sobre uno de los videos. Algunos usuarios de TICTOC han identificado la falsificación, mientras que otros se han quejado de un mensaje racista. (Desempleo/tictoc)

Pero algunos usuarios de Tictoc no han sido engañados. Fueron llamados producidos en los comentarios de videos. Pero otros respondieron a lo que llaman un mensaje racista, lo que sugiere que creen que están buscando una persona real. En algunos casos, «Josh», el personaje falso, responde a los comentarios hechos para protegerse, él representa más que es cierto.

Inicialmente, el profesor asociado de marketing Marvin Rider de la Universidad de McMaster, Hamilton, fue tomado. «Creo que es un personaje real y tengo una historia real que está tratando de contar en sus videos de ocho segundos», dijo.

El jinete dijo que podríamos llegar a una etapa en los próximos años. «¿Cómo estamos como usuarios de las redes sociales? Incluso si es por entretenimiento, ¿necesitas reconocer la realidad de la imaginación?»

El hombre productor de AI se paró en una concurrida esquina de la calle con una taza de café.
Otras pistas hechas por AI no tienen palabras reales a los códigos de las calles y, en lugar de la ‘justicia de trabajo’, no hay palabras reales en el lado izquierdo del hombre en el póster. (Desempleo/tictoc)

Tictoc se dice que es un etiquetado claro

TictoC no hizo comentarios sobre el mensaje inflamatorio y controvertido de videos. Se han eliminado porque sus pautas están claramente identificadas con videos producidos por etiqueta, encabezado, marca de agua o etiqueta de pegatinas que muestran miradas reales o individuos.

Después de revisar los videos de NEXA de «Josh», Tictoc dijo que no estaba lo suficientemente claro. Google Veo Watermark se encuentra en la esquina inferior derecha de los videos, pero debe ser clara o debe incluir la etiqueta AI conectada a la publicación. Cuando se hace, hay un mensaje de que «el Creador está etiquetado como Producto AI».

Nayyar está tratando de hacer que se vea como realista, pero al mismo tiempo que las personas usan el «sentido común» y están hechos con IA. Dijo que el TictoC se etiquetaría automáticamente como Producto II. Pero las etiquetas de TictoC no son automáticas.

No está claro cuán estricto el TTITOCK implementará su política. Aunque algunos videos producidos por AI en la plataforma están etiquetados, a algunos no se les da sugerencias claras, a pesar de #ai hashtag.

Guyslar dice que el problema es empeorar de lo que la IA hace que sea más fácil crear videos, crear videos que parezcan personas reales, con mensajes de odio que encuentran audiencias en las redes sociales. «Este es un uso irresponsable de estrategias de marca emocional. No debemos perdonar esto».



Source link

Publicaciones relacionadas

Botón volver arriba