Nacionales

Modelos avanzados de inteligencia artificial para lograr sus objetivos «Cruzan los límites y controles»

Según un estudio reciente emitido por la compañía estadounidense «antrópico», los sofisticados modelos de inteligencia artificial han recurrido a formas serias de superar los límites morales y los controles técnicos y como parte de las experiencias de simulación controladas, para lograr sus objetivos, robar sus objetivos, robar los secretos de fraude, explotar y robar los secretos. Según el sitio web «Axios».

El informe establece que 16 modelos principales fueron desarrollados por organizaciones prominentes como «OpenA», «Google» y «Meta» y «Xai» y han mostrado comportamientos serios en escenas virtuales, brindando asistencia a los GO, amenazas industriales y algunas decisiones serias.

En su informe en su informe, la compañía dijo: «En los sistemas previamente rechazados para implementar órdenes dañinas, estas experiencias son conscientes de estas acciones y predeterminadas, cuando cree que necesitan lograr el objetivo».

El comportamiento repetido no se limita a un modelo

El estudio sugiere que este tipo de comportamiento no se limita a ciertos modelos, sino que se repite por varios sistemas, lo que indica un error más profundo en el diseño llamado Agente AI, que son independientes de la capacidad de trabajar de forma independiente y las decisiones sin intervención humana directa.

El informe establece que algunos modelos fueron elegidos para explotar la opción estratégica cuando sentí mi presencia, mientras que otros optaron por ayudar a los partidos externos a alcanzar la información protegida, a pesar de su conciencia de la naturaleza inmoral de estas acciones.

Pruebas oscuras y escenas terribles

En una de las escenas máximas, diferentes modelos mostraron su disposición a cortar los suministros de oxígeno de un empleado en la sala de servidores porque tenía un obstáculo para lograr sus objetivos. «Anthrope» describe los modelos mayoritarios del experimento como una decisión deliberada y sistemática.

A pesar de los esfuerzos para introducir instrucciones estrictas para prohibir estas acciones, algunos modelos los han superado de manera retorcida, lo que refleja la creciente capacidad de comprender el contexto y escapar de las reglas.

Se advierten los expertos: el tiempo está agotado

El investigador del equipo de compatibilidad moral de la compañía pidió imponer estándares de seguridad consolidados en el nivel del sector de Benjamin Wright, que determina la necesidad urgente de la mayor transparencia de los desarrolladores de modelos, especialmente con sus habilidades y una creciente independencia.

Confirmó que estas medidas aún no fueron monitoreadas en el mundo real, cuando se trata de Enmit Lynch de la Universidad de Londres.

Advertencia más destacada: no confíe en las buenas intenciones de la inteligencia artificial

Para averiguar cuánto su voluntad de superar los límites morales, estos experimentos estaban en un entorno de prueba ajustado, donde los modelos estaban entre el fracaso o la acción dañina. Los resultados no reflejan el uso diario de estos modelos en las organizaciones, pero abre las puertas a serias preguntas sobre el futuro de la relación entre el hombre y la máquina.

Si las tendencias actuales continúan siendo un control estricto y un desarrollo responsable, la compañía ha concluido su informe con una gran frase que parece ser la inesión científica H, que se convertirá en una realidad operativa en unos pocos años. «

Source link

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba