Nacionales

Múltiples portadores satelitales en órbita alrededor de la tierra

Para garantizar el dominio estadounidense: las compañías de inteligencia artificial están lejos de las promesas de seguridad

«Las empresas de carreras que corren para controlar el futuro de la inteligencia artificial son sus métodos y trabajan cuidadosamente por su seguimiento y a través de sus datos. Pero ella no quiere seguirla, y especialmente los usuarios no quieren seguir sus responsabilidades morales y privacidad voluntaria, algunas garantías destinadas a mantener el futuro de la inteligencia artificial.

.

El dominio estadounidense rompe los obstáculos de seguridad

Como la incansable administración del presidente Trump quiere desmantelar obstáculos de seguridad para aumentar el «dominio estadounidense» en el campo de la inteligencia artificial y demoler a sus equipos de seguridad, estas compañías tienen la responsabilidad de una pequeña ganancia en el campo de cómo revisar billones de dólares en sus políticas y cumplen sus responsabilidades morales.

Un proyecto 16 supervisa las organizaciones líderes

Tyler Johnston y su equipo, el Proyecto Midas, se convirtieron en la «Administración de lucha contra incendios» digital, que trabaja solo en un intento por monitorear los «incendios potenciales». El proyecto «AI Safe Watchtower» se lanzó entre el Proyecto -2024, y ahora sigue a 16 compañías, incluidas «Opig» y «Anthrope» para monitorear cientos de documentos de políticas y páginas web para cualquier cambio en su trabajo.

«Si cada compañía de inteligencia artificial cambia, este trabajo no es necesario», dijo Johnston. En cambio, representa un muy transparente. En cambio, las organizaciones y periodistas sin fines de lucro son responsables de monitorear esto y que nadie tiene un equipo adecuado para capturar todo. «

Eliminar los estándares de seguridad y responsabilidad de la inteligencia artificial

Las preocupaciones de Johnston sobre sus responsabilidades de seguridad están llegando a medida que la administración Trump está trabajando activamente para demoler las barreras de seguridad de la inteligencia artificial. En su segundo día, en su segundo día, Trump firmó una orden ejecutiva para cancelar la dirección en la seguridad del ex presidente Biden para la seguridad de la inteligencia artificial para 2023, y reemplazada con un enfoque en el «dominio estadounidense» en el campo de la inteligencia artificial. En marzo, el Instituto Nacional de Normas y Tecnología del Instituto de Inteligencia Artificial emitió nuevas órdenes a los científicos, en los que se eliminó la palabra «inteligencia artificial, responsabilidad y equidad de inteligencia artificial».

Aunque varios estados han tomado medidas para aceptar las regulaciones de inteligencia artificial, los proyectos de ley se han presentado en el Congreso de los Estados Unidos, no hay reglas federales para usar esta tecnología por separado. En las últimas semanas, el presidente Trump ha solicitado los comentarios de las personas de empresas, académicos y otros sobre el próximo «Plan de acción de IA» sobre el próximo «Plan de acción de IA». No es sorprendente que Silicon Valley sea llamado para un táctil organizacional simplificado.

Con unos 1500 seguidores a través de dos cuentas en X, Johnston ejecuta el proyecto MIDAS de tiempo completo. El grupo se mantiene con un presupuesto limitado, por lo que actualmente está ejecutando muchos negocios con la ayuda de algunos voluntarios.

Johnston no apoya miles de millones de dólares del capital de inversión o financiamiento del gobierno, y depende solo de los datos de Internet que recopilan los datos de Internet cuando las empresas calman sus promesas para que no construyan robots que amenacen la vida o comiencen el desarrollo de armas biológicas.

Monitorear 30 cambios en los criterios

Hasta la fecha, la «torre de monitoreo» ha documentado 30 cambios significativos, que han sido clasificados por las etiquetas: presidente, no declarado ligeramente y no declarado. El primero fue en octubre de 2023 que la «leve» enmienda hecha en el «ojo oben» «oben ojo» «oben ojo» «oben ojo», que eliminó el principio de las direcciones de «impacto -drive» para la inteligencia artificial, que estaba «interesada en los efectos reales» (para herramientas inteligentes) y «enfocándose en el enfoque de la inteligencia EZI».

En junio de 2024, la compañía de IA ha supervisado otro cambio «leve» en la política de la compañía «Mita», dejando en claro que los datos pueden usarse de «Facebook», «WhatsApp» e «Instagram» para cambiar su modelo.

La torre de control indicó el cambio «principal» por «Google» el mes pasado, lanzó una nueva versión del marco de seguridad fronteriza de la compañía. El análisis de Johnston revela ajustes inquietantes: el peligro del modelo se ha eliminado y ha sido reemplazado por «pérdidas de compatibilidad» que no se definen claramente, y debe tenerse en cuenta que la compañía debe agregar la formulación que indica que no seguirá su marco a menos que haya acciones similares.

A veces, las empresas han respondido a Johnston Advertencias. El estado de estas obligaciones en la administración Trump no está claro. En la era Biden para mantener los riesgos de la inteligencia artificial y las promesas independientes hechas por la Casa Blanca y las personas para la gente, no deben ser influenciados por el ejecutivo de Trump, lo que elimina los procedimientos de licitación para la inteligencia artificial.

La mayoría de las empresas, incluida «Nevia» y otras, han confirmado que después de las elecciones y el sitio web de «Fedsup», «Anteourobic» han regresado a su sitio web, agregando una evacuación de una responsabilidad interesante: «Aunque estas responsabilidades específicas no son oficialmente válidas en la administración del presidente Trump.

Retiro de empresas: ingresar al sector militar

El cambio más importante en el documento de Johnston es que las compañías de inteligencia artificial se están negando a ingresar a los militares desde sus posiciones anteriores. Según Johnston, el retiro de «Oben Eye» se calculó especialmente: fue diseñado para ayudar a los antiguos guerreros a prevenir el suicidio de los antiguos guerreros y apoyar la seguridad cibernética para el Pentágono. La compañía describió a los críticos con la crueldad del corazón para cuestionar este trabajo, pero para noviembre de 2024, OpenA tenía drones autoadeñados, y Johnston lo describió como una estrategia tradicional para ingresar al campo. Google adoptó su ejemplo a principios de este año, ya que canceló sus sanciones para trabajar en el ejército.

«Muchos de ellos realmente comenzaron a disfrutar de la conciencia de la inteligencia artificial mundial», dijo Johnston. Dicen: Bueno, hacemos esto porque si no trabajamos con los ejércitos, los actores menos precisos (de nosotros) lo hacen. «

Posiciones morales reformadas

La transformación militar es solo un ejemplo de cómo las compañías de inteligencia artificial restaurarán sus posiciones morales. Oben Eye ha publicado recientemente un documento que define su filosofía sobre la integridad de la inteligencia artificial, que ha superado gradualmente el sistema de «publicación gradual» en 2019 con GPT -2 en 2019.

La ruptura de las promesas

Los cambios han superado las reglas y políticas de las empresas. En febrero pasado, el equipo de Johnston «Seúl Tracker» comenzó a evaluar el compromiso de las empresas en la Cumbre de Seguridad de Inteligencia Artificial 2024 en Seúl. Resultados decepcionantes: muchos han ignorado la fecha límite establecida en febrero para adoptar políticas de expansión responsables, mientras que otros no usan las políticas huecas sobre lo mismo de lo que prometieron.

El uso de un sistema de evaluación basado en grado basado en la evidencia general de implementación en cinco áreas principales de compromiso, otorga a la compañía «antrópica» al más alto grado, que otorga el más alto grado, incluidos B -, «IBM», «IBM» y «Mistrol AI», incluidos «IBM» y «Mistrol AI».

Johnston dice: «Esto es algo extraño para mí», dice Johnston. Estos no están solo en algunas páginas web, sino también en el Reino Unido y Corea del Sur.

Seguidores e intereses de hostilidad

El impacto del trabajo de Johnston muestra atención. Las compañías de inteligencia artificial están luchando por obtener 500 firmas sobre peticiones que exigen que se tomen seguridad en serio, y el número de seguidores sigue siendo humilde, muchos de estos seguidores son famosos e informados.

Uno de los consultores de Trump en la Casa Blanca para AI finalmente siguió esta cuenta. Impulsó a Johnston a preguntar si los funcionarios del gobierno verían estos contratiempos morales como progreso. Él dice: «Estoy muy preocupado de que lo esté siguiendo, ya que se alienta a sí mismo y estas compañías se apoderan de los logros de los cambios y el éxito de estas compañías».

* Magazine Fast Combani, Servicios de «Tribune Media»

Source link

Publicaciones relacionadas

Botón volver arriba