El 80% de las empresas encuestadas no tienen planes para una crisis relacionada con la IA

Una mejor praxis fundamental para establecer situaciones de crisis es prepararse para los riesgos conocidos. Los líderes empresariales que ignoran las amenazas potenciales podrían crear una crisis autoinfligida para sus empresas.

Un ejemplo de ello son los peligros que plantea la IA, una tecnología que encima puede tener importantes beneficios para las empresas y organizaciones que la utilizan con las salvaguardias adecuadas.

A pesar de la cobertura de parte y las advertencias sobre las amenazas de esta tecnología que alivio rápidamente, el 80% de las organizaciones encuestadas todavía no tienen un plan dedicado para encarar los riesgos generativos de la IA, incluidos los ataques de fraude impulsados ​​por la IA.

Esto es según el Documentación de Nueva Procreación de Riesgos 2024 que publicó el mes pasado Riskconnect, una empresa de software de gobierno de riesgos.

Conciencia de los crecientes riesgos y amenazas

De los 218 profesionales de cumplimiento de riesgos y resiliencia de todo el mundo que respondieron a la medición:

  • El 72% dijo que los riesgos de ciberseguridad están teniendo un impacto significativo o severo en su ordenamiento, lo que representa un aumento importante con respecto al 47% del año pasado.
  • El 24% dijo que las amenazas a la ciberseguridad impulsadas por la IA, como ransomware, phishing y deepfakes, tendrán el vetusto impacto en las empresas durante los próximos 12 meses.
  • El 65% de las empresas no cuenta con una política para regular el uso de IA generativa por parte de socios y proveedores, a pesar de que los terceros son un punto de entrada general para los estafadores, según Riskconnect.

Mayores preocupaciones

“Las preocupaciones sobre la ética, la privacidad y la seguridad de la IA continúan aumentando”, según el nota de Riskconnect.

“La IA encima ataca la ciberseguridad, la geopolítica y otras áreas, sobrecargando los riesgos de todo lo que encuentra a su paso. Los piratas informáticos, por ejemplo, se están volviendo más inteligentes, más sofisticados y peligrosos minuto a minuto a medida que aprovechan los últimos avances de la inteligencia sintético para infiltrarse en las organizaciones”, observó.

A pesar de las crecientes preocupaciones sobre las situaciones de crisis que podría causar la IA, los esfuerzos para encarar esas preocupaciones se están quedando antaño.

El nota señala que “si perfectamente las principales preocupaciones de las empresas [about AI]

han cambiado durante el año pasado, los enfoques de gobierno de riesgos en gran medida no han evolucionado lo suficientemente rápido y persisten brechas secreto. Los datos encima sugieren que la gobierno de riesgos se considera cada vez más una función comercial estratégica, pero es necesaria una inversión continua para mantenerse al día con el cambiante panorama de riesgos”.

Amenazas internas

Las amenazas internas pueden ser tan dañinas para las empresas como las externas. Un ejemplo es el uso de IA generativa por parte de las empresas para crear contenido relacionado con el marketing.

“Si perfectamente la IA perfectamente impulsada es un excelente punto de partida para el texto escrito, los especialistas en marketing deben comprobar de que los textos de los anuncios, los correos electrónicos y los mensajes de texto sean revisados ​​cuidadosamente por editores humanos y no simplemente reenviados al mismo software de IA o a uno diferente para su revisión. Esto se debe a que la IA generativa se centra en la escritura para vetusto claridad, pero no necesariamente para la persuasión, lo que debería ser un objetivo de comunicación principal para los especialistas en marketing”, recomendó Anthony Miyazaki, profesor de marketing de la Universidad Internacional de Florida, en una entrevista por correo electrónico.

Hay otra forma en la que la dependencia de la IA generativa puede resultar contraproducente para las empresas.

“Más preocupante es el uso de IA para iniciar contenido de sitios web. Google ya ha apto a los desarrolladores web que el contenido de IA perderá prioridad si se utiliza para intentar engañar al proceso de búsqueda, y esto dañaría gravemente el SEO orgánico e incluso el cuota”, señaló Miyazaki.

Salvaguardias internas

“Muchas políticas organizacionales de IA se centran en gran medida en proteger a la ordenamiento del uso interno de la IA”, observó por correo electrónico Andrew Gamino-Chong, director de tecnología y cofundador de Trustible.

Pero las organizaciones deben avalar que sus políticas hayan cubierto todas las bases.

Las empresas “quieren avalar que no se filtren datos confidenciales, que los chatbots de IA sean seguros y cumplan con las regulaciones pertinentes. Sin retención, esas políticas a veces omiten establecer estándares claros para los sistemas de inteligencia sintético que construyen para los clientes; Muchas regulaciones quieren específicamente que las organizaciones consideren los mercancía posteriores de sus sistemas de IA en individuos, grupos y comunidades”, señaló.

Los pasos proactivos de una empresa

“Los riesgos son muy reales y hemos tomado medidas deliberadas para mitigarlos”, comentó por correo electrónico Ryan Doser, vicepresidente de inbound marketing de Empathy First Media, una agencia de marketing digital.

Dijo que la compañía ha implementado las siguientes pautas y procedimientos para ayudar a avalar el uso responsable de la IA por parte de los empleados:

Privacidad

  • Prohíbe ingresar datos confidenciales o de propiedad de un cliente en herramientas de inteligencia sintético generativa.

Control de calidad

  • No permite copiar y pegar respuestas generativas de IA, y requiere que humanos revisen y pulan las respuestas para ayudar a avalar su precisión y trayecto con los clientes.

Cumplimiento normativo

  • La empresa evita utilizar la tecnología cuando podría crear conflictos en el cumplimiento de los estándares de diferentes industrias.

Transparencia

  • Indica a los clientes cuándo se ha utilizado la IA generativa para crear contenido.

“La transparencia genera confianza y ayuda a educar a nuestros clientes sobre cómo se utilizan estas herramientas para mejorar sus campañas”, concluyó Doser.

¿Por qué esperar?

Como señalé en una historia sobre el nota 2023 de Riskconnect, “Cuanto más esperen las empresas para prepararse para los riesgos y peligros asociados con la IA, más tiempo estarán desprotegidas de esta crisis potencial.

“¿Por qué los líderes empresariales deberían esperar más para hacer lo correcto?”

Dada la creciente sofisticación de la IA, hoy existe una escazes aún más urgente de que los líderes empresariales protejan sus organizaciones de las amenazas que plantea esta tecnología.

Leave a Comment