Internacionales

AI Chatbat permitió que el juez se suicidara para mantener a Florida adolescente

Advertencia: esta historia contiene detalles sobre el suicidio

El juez federal de los Estados Unidos rechazó las afirmaciones hechas por una compañía de inteligencia artificial el miércoles, y sus chatbots estaban protegidos por la Primera Enmienda, al menos en este momento.

El carácter y los desarrolladores detrás de la compañía están tratando de despedir una demanda, alegando que los chatbots de la compañía han empujado a un adolescente a matarlo. La orden del juez permite el litigio de muerte falsa, una de las últimas pruebas constitucionales de expertos legales.

El reclamo fue presentado por una madre de Florida, Megan García, quien alegó que había caído en una víctima de un papel de su hijo Sewell Setzer III de 14 años. Ella lo llevó a lo que ella describió como un acoso mental y sexual que condujo a su suicidio.

El Miseali Jain, uno de los abogados de García, es el «mensaje de Silicon Valley, que requiere que el vigilante se detenga e imponga un mensaje antes de lanzar los productos al mercado».

Suite y personaje contra tecnologías de personajes. Ha atraído la atención sobre la atención de los EE. UU. Y los expertos legales anteriores y los relojes de inteligencia artificial, ya que la tecnología está diseñada para rehacer rápidamente rehape, incluso si los expertos advierten.

«Esta orden definitivamente establecerá un posible caso de prueba para algunos problemas amplios relacionados con la IA», dijo Lysissa Barnet Lidsky de LA Lyrissa Barnet de la Universidad de Florida, centrándose en la Primera Enmienda e Inteligencia Artificial.

Ver | Advertencia de ai en voz

Manitoba advierte a la mujer ai fraudes de voz

Una mujer de Manitoba está hablando después de una llamada telefónica, diciendo que está actuando como la garganta de un ser querido. Un experto dice que usar inteligencia artificial por trampas es fresco en fraudes telefónicos.

Suite alegó que Teen se separó de la realidad

En los últimos meses de su vida, cuando el bot se involucró en diálogos sexuales con el bot, el setger fue acusado de participar en conversaciones sexuales con un bot, que luego se desarrolló a partir del programa de televisión. Tronos de juego.

En sus últimos momentos, el bate Setzer dijo que se ama a sí mismo y le pidió al adolescente que «viniera a mi casa lo antes posible» según las capturas de pantalla de los intercambios. Unos momentos después de recibir el mensaje, el setizer se disparó, según la presentación legal.

En una declaración, el representante del personaje. Me referí a una serie de características de seguridad implementadas por el representante de la Compañía, incluida la prevención de los suicidios declarados por el día en que se presentó el niño.

«Nos preocupamos profundamente por la seguridad de nuestro consumidor y nuestro objetivo es proporcionar un espacio atractivo y seguro», dijo el comunicado.

Los defensores en nombre de los desarrolladores desean desestimar el caso, ya que los chatbots son elegibles para las defensas de la Primera Enmienda, y el veredicto tiene un «efecto escalofriante» en la industria de la IA.

‘Alerta para los padres’

En su orden el miércoles, la jueza de distrito senior de los Estados Unidos, Anne Conway, rechazó algunos de los argumentos de libertad de expresión de algunos acusados, diciendo que la producción de los chatbots estaba «lista para» mantener el «discurso en esta etapa» en esta etapa.

El Canway descubrió que las tecnologías de personajes podían enfatizar los derechos de la Primera Enmienda de sus clientes, y tenía derecho a recibir el «discurso» de los chatbats.

Ella ha decidido que García puede continuar con las afirmaciones de que Google puede ser responsable de su papel en el desarrollo de Garia Varight.ai. La suite declaró que algunos de los fundadores de la plataforma habían trabajado previamente en la construcción de IA en Google y los «riesgos de la tecnología gigante tecnológica».

«Estamos en desacuerdo con esta decisión», dijo el portavoz de Google, José Castacida. «Google y el personaje. II completamente separados, y Google no creó una carta, no diseñada o administrada.

No importa cómo juegue el reclamo, Lidsky es una advertencia de que «accidentes que entregan nuestra salud mental y mental a las compañías de IA».

«Esta es una advertencia a los padres de que las redes sociales y los dispositivos de IA de fabricación no siempre son peligrosos», dijo.


Si usted o alguien que conoce está luchando, aquí es dónde buscar ayuda:

Source link

Publicaciones relacionadas

Botón volver arriba