Noticias destacadas

Críticas al Primer Ministro de Suecia por su dependencia de la tecnología «Chat GBT»

|

El primer ministro sueco, Olf Christmson, enfrenta graves críticas después de confesarse a consultar.Sobre los restos de las transformaciones«Constantemente dentro de sus tareas de trabajo diarias, según un informe publicado por The Guardian.

Christmson confirma que su uso de herramientas inteligencia artificial «Chat GBT» no solo se extendió, sino que también se extendió a la herramienta de inteligencia artificial francesa «Lechat», y agregó que sus colegas también usan estas herramientas.

Agregó en su conversación con el periódico sueco para la «industria de Dagns» de negocios, que describe su uso de la herramienta: «Lo uso mucho, y si esto es solo para una segunda opinión: ¿qué hacen los demás? ¿Y tenemos que pensar en lo contrario exactamente?

Estos comentarios causaron una ola de amplias críticas que afectaron a Christmson y su partido derecho de expertos en tecnología de todo el mundo, debido a las diversas preocupaciones que podrían resultar de modelos de inteligencia artificial.

Virginia dignum, profesora de inteligencia artificial, responsable de la Universidad de Umia, criticó el uso del primer ministro sueco del modelo «Chat GBT», diciendo: No hemos elegido «GBT de chat» (AI Four Guode)

El periódico sueco «Aftonbadet» también lo acusó de caer en la trampa de la obsesión de la inteligencia artificial con los ricos del mundo occidental, en la apertura que proporcionó a sus últimos números. Simon Fisher Hobner, investigador de la Universidad de Carlsad, advirtió en su conversación con el periódico «Aftonbladet» contra el uso de herramientas de inteligencia artificial con información confidencial relacionada con el trabajo.

Por su parte, el portavoz de Christersson confirmó que el primer ministro sueco no corrió el riesgo de usar técnicas de inteligencia artificial, enfatizando que no compartía ninguna información sensible o secreta con la herramienta, sino que se basaba en ella para obtener conjeturas generales.

A su vez, Virginia Dignum consideró la profesora de inteligencia artificial responsable de la Universidad de Umia de que la inteligencia artificial no puede proporcionar su propia opinión o neutral sobre cuestiones e ideas políticas, pero simplemente refleja las opiniones de quienes la construyeron, así como la información que se capacitó en él.

«Debemos exigir la garantía de confiabilidad y confiabilidad, ya que no hemos votado por el robot GPT».

Source link

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba