La encuesta dice que la exageración de C-suite en la inteligencia artificial puede ser malo para los negocios.

En el clima geográfico político y económico en constante cambio, parece que la clave del éxito es la capacidad de adaptarse.
Agregue a eso el mundo de la tecnología de AI y un conjunto rápido, y si no está listo para cambiar, lo dejará.
«Inteligencia artificial (como) un ecosistema avanzado que las empresas piensan al proporcionar un nivel de condición física para tomar la decisión de darles la capacidad de hacerse cargo de lo que la inteligencia artificial traerá a nuestro camino, mientras que no saben completamente cuál es la respuesta». EyDijo Euronews.
Pero a medida que las empresas están listas para aumentar la adopción de inteligencia artificial e innovación, ¿están contentos sus consumidores con los peligros que toman?
¿Cómo se ve responsable la IA?
Parece que la definición real de la inteligencia artificial responsable es algo para la discusión, y puede tener graves consecuencias en el trabajo, de acuerdo con la última limpieza de pulso de la IA para EY.
«Parece que existe una brecha decente entre las expectativas de suite C, la comprensión de lo que es el funcionario de inteligencia artificial, cuál es el riesgo de inteligencia artificial y cuáles son las expectativas del cliente y el consumidor», explicó Jad.
La encuesta destacó que en las organizaciones que ya han destruido Amnistía Internacional, muchos líderes de C-Suite «tienen confianza en su lugar en la fuerza de las prácticas de inteligencia artificiales responsables y su consenso con los temores de los consumidores».
Esto puede conducir a una disminución en la confianza del consumidor y una disposición competitiva reducida para la empresa, que está programada para aumentar solo porque cosas como la IA de la agencia se han vuelto más frecuentes.
«CEOs El informe indicó que se destaca una excepción: mostró más ansiedad por la inteligencia artificial responsable, una opinión que es más consistente con la moral del consumidor.
«Uno de cada cinco ejecutivos altos cree que tienen los riesgos de Amnistía Internacional bajo control, mientras que un tercio de C-Suite cree que tienen los riesgos de Amnistía Internacional bajo control», dijo Jad a Euronews.
«Por lo tanto, parece que los CEO son algo cómodos porque el riesgo de inteligencia artificial se entiende y diluye completamente que C-Suite».
Esta diferencia en la percepción entre los directores ejecutivos y sus colegas está asociada con bajos niveles de conciencia o baja responsabilidad.
La encuesta agregó: «También puede parecer una comprensión incompleta del potencial real de Amnistía Internacional», agregó la encuesta.
Sin embargo, era grave que las regulaciones relacionadas con la Amnistía Internacional responsable se vuelvan más claras y más coordinadas en todo el mundo, los consumidores sentirán más garantía de que los riesgos están suficientemente mitigados.
Imagina para la realidad
Temas que incitaron diferentes niveles de ansiedad entre individuos y consumidores C-suite incluidos para ser creados por inteligencia artificial Información incorrectaUtilizando inteligencia artificial para tratar a las personas y el efecto de la inteligencia artificial en las partes débiles de la sociedad.
Ambas partes no les importaba mucho una idea Pérdida de empleoEl tema donde estaban más alineados.
La encuesta también encontró que las empresas que todavía están en proceso de integrar la inteligencia artificial eran estrechamente consistentes con el nivel de ansiedad de los consumidores, en comparación con aquellos que ya han incorporado la inteligencia artificial por completo.
«Es un poco más de la mitad (51 %) de (C-suite) en este grupo creen que está bien comprometido al 71 % de (C-suite) en las organizaciones en las que la inteligencia artificial ya está completamente integrada a través de los negocios».
Mire el video de arriba para ver más entrevista con Jad Shimaly de EY.