El papel de la IA en la seguridad laboral

Desde que OpenAI lanzó ChatGPT en noviembre de 2022, el rumor en torno a la inteligencia artificial ha alcanzado un punto álgido. Las posibilidades de la IA parecen ilimitadas e inspiran reacciones que van desde un optimismo asombrado hasta pesadillas apocalípticas (especialmente después de que cientos de líderes tecnológicos firmaron una declaración pública en mayo de 2023 advirtiendo sobre la amenaza existencial de la IA para la humanidad).

La verdad es que la IA no es una herramienta única: es un avance tecnológico de propósito general similar a la electricidad o Internet, con un potencial similar para cambiar el mundo, dice Cam Stevens, director ejecutivo de Pocketknife Group, una consultora centrada en la Intersección entre tecnología y seguridad en el lugar de trabajo.

“La IA es un término general que describe un campo de la informática dedicado a crear sistemas que sean capaces de realizar tareas que normalmente requerirían algún tipo de inteligencia humana”, explica Stevens. “Es una de las megatendencias tecnológicas que están dando forma al futuro del trabajo”.

Eso incluye el futuro de la seguridad en el lugar de trabajo.

¿Cómo se utiliza la IA ahora?

Lo que separa a la IA de los programas informáticos anticuados es su capacidad para aprender, adaptarse y responder con cierto grado de autonomía.

Aún así, la IA no es realmente nueva. Durante décadas, antes de que ChatGPT explotara, la IA nos ayudaba silenciosamente a planificar rutas de conducción con GPS, proteger nuestros teléfonos inteligentes con reconocimiento facial o de huellas dactilares y limpiar nuestra ortografía en mensajes de texto y correos electrónicos.

Pero en los últimos años, los avances y la inversión en IA han llevado a profesionales de todos los campos, incluida la seguridad y salud en el trabajo, a explorar cómo la tecnología podría revolucionar su trabajo.

El resultado ha sido una profusión de aplicaciones innovadoras en materia de salud y seguridad, desde exoesqueletos robóticos que ayudan a prevenir lesiones musculoesqueléticas y cascos inteligentes que pueden monitorear los signos vitales y las condiciones de trabajo, hasta capacitación en seguridad en realidad virtual. Pero por el momento, la mayoría de estas aplicaciones todavía se encuentran en etapa experimental o en uso a pequeña escala.

“Hay muchas promesas en el área de las tecnologías emergentes, pero la IA generativa es a lo que todos tienen acceso y es la forma principal utilizada en el lugar de trabajo”, dice Jay Vietas, jefe de la División de Tecnologías Emergentes de NIOSH. “Puede pedirle que redacte un plan de salud y seguridad para su área. Puede pedirle que le indique cuáles son los riesgos con respecto a la seguridad eléctrica o cómo diseñar un programa de bloqueo/etiquetado, por ejemplo.

“Se podría argumentar que es sólo una búsqueda en Google con esteroides. Sin embargo, todavía necesitamos que los profesionales de seguridad y salud regresen y evalúen lo que se les ha proporcionado para garantizar que sea apropiado y aplicable a su área particular”.

Poniéndose al día con la IA

Si siente que se está quedando atrás en lo que respecta a la inteligencia artificial, está en buena compañía. Como señala Cam Stevens, director ejecutivo de Pocketknife Group, una consultoría centrada en la intersección entre tecnología y seguridad en el lugar de trabajo, la tecnología avanza tan rápido que los artículos de revistas sobre IA a menudo quedan obsoletos antes de ser publicados.

Jay Vietas, jefe de la División de Tecnologías Emergentes de NIOSH, aconseja a los profesionales de la seguridad que se equipen con un conocimiento práctico de las capacidades de los sistemas de IA y las mejores prácticas para el diseño, la implementación y el mantenimiento.

“Cuanto más comprendamos cómo funcionan estos sistemas y cómo se traducen en una mayor seguridad en el lugar de trabajo, más eficaces serán”, afirma Vietas.

Libros

“Co-inteligencia: vivir y trabajar con IA”, por Ethan Mollick

“Máquinas éticas: su guía concisa para una IA totalmente imparcial, transparente y respetuosa”, por Reid Blackman

“Atlas de la IA: poder, política y los costos planetarios de la inteligencia artificial”, por Kate Crawford

Recursos gubernamentales

Marco de gestión de riesgos de IA del Instituto Nacional de Estándares y Tecnología

“Plan para una Declaración de Derechos de la IA”

“Ley de IA de la UE: primer reglamento sobre inteligencia artificial”

Informes de la Agencia Europea para la Seguridad y la Salud en el Trabajo

boletines electrónicos

Tecnología de trabajo charter

Una cosa útil

IA sobrehumana

¿Qué hay en el horizonte?

Otras aplicaciones de IA que Stevens prevé que se utilizarán más ampliamente son la visión por computadora y el procesamiento del lenguaje natural.

La visión por computadora puede aprovechar las cámaras de televisión de circuito cerrado existentes para monitorear prácticas laborales seguras y alertar a los trabajadores sobre peligros, como posibles interacciones entre humanos y montacargas en una fábrica.

“Entrenamos algoritmos de aprendizaje automático, que básicamente identifican los mismos patrones que nosotros, como humanos, estaríamos buscando, pero sin que necesitemos estar allí”, dice Stevens. “Los algoritmos de aprendizaje automático se pueden aplicar a través de miles de horas de metraje, identificar patrones y luego brindarnos información que luego podemos utilizar para tomar medidas”.

El procesamiento del lenguaje natural tiene una amplia gama de usos que podrían ser útiles para los profesionales de la seguridad, como grabar reuniones o conversaciones de entrenamiento (con consentimiento, por supuesto) y resumir, tomar notas, interpretar el tono y la dinámica de las interacciones o proporcionar traducción. el punto.

“La capacidad de tener traducción en tiempo real de información sobre salud y seguridad o sobre el trabajo, generalmente usando un teléfono inteligente, es de vital importancia para las organizaciones que tienen una fuerza laboral multilingüe”, dice Stevens.

¿Qué hay en el futuro?

Los usos potenciales de la IA en seguridad son tan amplios que son difíciles de predecir. “Era muy difícil decir exactamente cómo se iba a utilizar Internet cuando apareció por primera vez”, señala Stevens.

Le gusta pensar que las futuras soluciones de IA permitirán a los trabajadores individuales recibir capacitación en seguridad “hiperpersonalizada” en cualquier forma que optimice su aprendizaje (un cómic en español, por ejemplo) y tomar decisiones de seguridad bien informadas.

“Creo que el verdadero poder estará cuando comencemos a poner soluciones de inteligencia artificial en manos de los trabajadores de primera línea”, dice Stevens, “donde podamos ayudarlos a obtener la información correcta en el momento adecuado para que su toma de decisiones se incremente con todo lo que necesitan al alcance de su mano”.

¿Cuáles son algunas barreras y riesgos?

La IA tiene docenas de aplicaciones de seguridad, “que van desde un análisis mejor y más rápido de las condiciones del lugar de trabajo, la ergonomía, los peligros, etc., hasta el monitoreo y ajuste continuo de la interfaz de trabajo y la toma de decisiones diaria”, dice John Dony, vicepresidente. presidente de estrategia laboral del Consejo Nacional de Seguridad.

Entonces, ¿qué barreras y riesgos se interponen entre los profesionales de la seguridad y todo este potencial?


Costo: Una de las razones por las que la IA generativa se usa con tanta frecuencia entre los profesionales de la seguridad es que normalmente es de bajo costo o gratuita, dice Vietas. El problema no es sólo el costo monetario de otras herramientas de IA, sino también los recursos necesarios para programarlas, personalizarlas e implementarlas, así como capacitar a los trabajadores en su uso.

“Pero a medida que la potencia de los ordenadores siga aumentando y con la cantidad de inversión en sistemas de inteligencia artificial, creo que el coste será más razonable en un futuro próximo”, afirma Vietas.



Falta de datos de alta calidad: Como dicen en informática: “Basura entra, basura sale”. Y, lamentablemente, gran parte de los datos relacionados con la salud y la seguridad actualmente disponibles para entrenar sistemas de IA son de baja calidad, señala Stevens.

“Normalmente está incompleto”, continúa. “Puede contener un sesgo bastante significativo. Puede que no sea robusto, accesible, almacenado, seguro, adecuadamente protegido, anónimo o privado. No importa cuán sofisticadas sean estas tecnologías y herramientas de IA, si proporcionamos y entrenamos estas herramientas con datos de trabajo o relacionados con la salud y la seguridad de mala calidad, es ridículo pensar que vamos a obtener un buen resultado”.



Ciberseguridad y privacidad: “Muchas herramientas de inteligencia artificial que están ampliamente disponibles para uso gratuito también generan preocupaciones de seguridad para las organizaciones con información de propiedad privada o de identificación personal”, dice Dony. “La compra de versiones seguras y solo internas es, en la actualidad, competencia de organizaciones más grandes y/o de aquellas que se encuentran en el lado de la adopción temprana de la tecnología”.



Posible sesgo e inequidad: Debido a que la IA generativa se basa en conjuntos de datos existentes, refleja los sesgos y estereotipos de los humanos que crearon ese contenido, lo que aumenta el riesgo de resultados injustos. “Se puede diseñar un sistema de IA en un entorno para un grupo de personas, y eso podría resultar muy exitoso”, señala Vietas. “Si, entonces, decides intentar poner eso en un nuevo entorno con una demografía de trabajadores completamente diferente, no deberías esperar obtener el mismo resultado”.


Rechazo de los trabajadores: El malestar con la IA en el lugar de trabajo puede atribuirse a varias causas:

  • Falta de familiaridad con la tecnología y cómo funciona.
  • Miedo entre los trabajadores a ser reemplazados por tecnología de inteligencia artificial o empujados a roles menos significativos
  • Ansiedad por aprender a utilizar las nuevas herramientas y mantenerse al día a medida que cambia la tecnología.
  • Preocupaciones por violaciones de la privacidad, vigilancia al estilo “Gran Hermano” y cómo se utilizarán sus datos

La transparencia y el compromiso de los trabajadores pueden suavizar la resistencia, afirma Stevens.

“Una organización necesita articular simplemente lo que significa la IA en su negocio: para qué aplicaciones (en términos simples) se utilizan estas soluciones, cómo se han entrenado esas herramientas, cómo se espera que los trabajadores interactúen con ellas y cómo se espera que funcionen sus trabajos. cambio gracias a ello”, añade. “Y los trabajadores deben tener voz y voto en el diseño de la estrategia para la implementación y adopción de esas herramientas”.

NSC y IA

Encuentre más información del Consejo Nacional de Seguridad sobre inteligencia artificial, tecnología y el futuro del trabajo.

¿Todavía se necesitan humanos? (Sí)

En última instancia, los peligros reales de integrar la IA en la salud y la seguridad en el lugar de trabajo no residen en las tecnologías sino en los humanos que (mal) las usan, especialmente si no reconocen que la IA todavía requiere una dirección, capacitación y supervisión humanas sustanciales.

“La dependencia excesiva de cualquier herramienta o sistema, por fuerte que sea, es peligrosa, y lo mismo ocurre con la IA”, afirma Dony. “Las organizaciones y las personas necesitarán encontrar un lugar de equilibrio y comodidad mutuos en el que las herramientas de IA se consideren una guía confiable y eficaz, pero no infalible, y se utilicen para actuar estratégica y tácticamente de manera más rápida y exhaustiva que antes.

“Una vez que se alcance este equilibrio, el potencial de la IA para tener un efecto real y duradero en la seguridad es enorme: un verdadero facilitador de un futuro en el que nadie pierda la vida en el trabajo”.

Leave a Comment