La revolución moderna de la inteligencia artificial (IA) lleva más de una década cocinándose a fuego lento, pero sólo recientemente se han puesto a disposición de los usuarios no-técnicos herramientas de IA muy avanzadas. 

Las herramientas de IA generativa, capaces de generar textos o imágenes impresionantes a partir de sencillas instrucciones, han dado un gran salto adelante. Ya forman parte del kit de herramientas del profesional moderno para aportar ideas, crear visualizaciones rápidas y obtener información instantánea de un compañero de trabajo digital.

La IA no generativa también ha aumentado la potencia de las herramientas digitales existentes, permitiendo a los profesionales utilizar su capacidad para detectar patrones y comprender datos sin formato y mejorar sus flujos de trabajo.

La IA es una herramienta poderosa, pero un gran poder conlleva una gran responsabilidad. Los límites y riesgos de la misma están bien documentados, desde los problemas de propiedad intelectual que plantean las herramientas de IA generativa hasta los patrones de razonamiento erróneos que refuerzan y potencian los prejuicios y sesgos humanos más comunes.

descargá: obtené la guía para identificar el uso responsable de la IA.

descargá: obtené la guía para identificar el uso responsable de la IA.

obtené la guía

Por eso, las empresas que utilizan y desarrollan herramientas se esfuerzan por conseguir una IA responsable y ética. Se trata de una mentalidad que pretende potenciar los usos positivos y ponerlos a disposición de más personas, al tiempo que se toman medidas para mitigar los graves riesgos que genera.

Las herramientas de IA no van a desaparecer y, en el futuro serán aún más avanzadas y se utilizarán más que hoy. Así que es hora de que todas las empresas empiecen a pensar en cómo garantizar un uso responsable y ético. Este artículo no debe considerarse como un consejo legal, pero te ayudará a entender lo que significa la IA responsable en la práctica y cómo fomentar el uso responsable de la IA en tu empresa.

4 persons looking up in the same direction, in a room with glass windows
4 persons looking up in the same direction, in a room with glass windows

¿qué es la inteligencia artificial responsable?

Aunque los principios básicos son los mismos, la definición de IA responsable varía. Según Google, que está invirtiendo mucho en sus propias herramientas de IA:

"La IA responsable considera el impacto social del desarrollo y la escala de las tecnologías [de IA], incluidos los daños y beneficios potenciales".

En Randstad utilizamos la IA de acuerdo con nuestros principios. Randstad utiliza IA cuando los resultados son beneficiosos para todos. Cuando la supervisión humana y el respeto por la autonomía humana pueden dar transparencia; y garantizar la inclusión y equidad. Siempre utilizada con la seguridad en mente. Por último, se permite su uso siempre que los que implementan cualquier sistema de IA son responsables.

En todo su trabajo de IA, pretenden seguir siendo responsables centrándose siempre en la equidad, la responsabilidad, la seguridad y la privacidad. Microsoft, otro gran impulsor de la transformación de la IA, define los sistemas de IA responsables como justos, fiables y seguros, privados y seguros, inclusivos, transparentes y responsables.

La definición exacta del uso responsable de la IA en su empresa puede ser ligeramente diferente. Pero el significado básico será el mismo: una IA que se utilice de forma ética, legal, positiva e inclusiva. Significa utilizar la IA para complementar y mejorar las capacidades humanas al tiempo que se reduce la influencia de los prejuicios humanos comunes, en lugar de utilizarla para sustituir a los humanos por completo.

En el mundo de los RRHH, un ejemplo potencial de uso responsable podría ser el uso de un chatbot de IA para escanear y ajustar las descripciones del puesto para evitar el lenguaje no inclusivo. Sin embargo, la defectuosa herramienta de contratación con IA de Amazon, que la empresa dejó de utilizar tras descubrir que tenía prejuicios contra las candidatas, no es un buen ejemplo.

descargá: obtené la guía para identificar el uso responsable de la IA.

descargá: obtené la guía para identificar el uso responsable de la IA.

obtené la guía

cómo garantizar un uso responsable de la IA en su empresa

Dependiendo de su negocio y de la experiencia previa de su empresa con la IA, hay múltiples maneras de crear un entendimiento común de lo que es el uso responsable de la IA y ponerlo en práctica en toda la empresa. Sin embargo, la mayoría de las empresas que ya están teniendo éxito lo hacen de una o varias de estas maneras:

formación en el uso responsable de la IA

Es poco probable que introduzcas una nueva herramienta importante como un CRM o un sistema ATS sin proporcionar a los empleados la formación adecuada. Así que cuando una nueva tecnología como la IA comienza a filtrarse en todas las partes de su negocio, es igual de importante asegurarse de que su equipo sabe cómo utilizarla de forma adecuada y responsable. 

Desde que se generalizaron las herramientas de IA generativa de fácil uso, la exageración no ha hecho más que aumentar. Los usuarios inexpertos en IA pueden ver estas herramientas como algo completamente positivo y sin riesgos, pasando por alto los riesgos potenciales, como los problemas de seguridad de los datos, las infracciones de la propiedad intelectual y la injusticia y los prejuicios causados, entre otros, por la mala calidad de los datos de entrenamiento.

La formación es una oportunidad para disipar los mitos en torno a la IA e informar a los colegas de los inconvenientes y limitaciones de la tecnología. Cuando tengan todos los datos, podrán aprovechar las ventajas de la IA y evitar sus peligros más graves.

Los empleados de hoy en día también demandan formación. En la encuesta Workmonitor de Randstad realizada a más de 27.000 trabajadores de todo el mundo, la IA encabezaba la lista de habilidades que los encuestados querían desarrollar. Una encuesta de PwC realizada a más de 54.000 trabajadores arrojó resultados similares, encontrando una actitud ampliamente positiva hacia la IA en el lugar de trabajo entre los encuestados. Educar a los empleados en las habilidades clave de la IA y en cómo utilizar la tecnología como una herramienta útil puede convertirlos en usuarios seguros y eficaces de la IA y satisfacer su demanda de conocimientos.

RM_202-tech.webp
RM_202-tech.webp

controlar el uso de la IA y lograr el compromiso de los empleados

Para garantizar el éxito, los equipos que trabajan con la herramienta deberán ajustar continuamente sus procesos y explorar nuevas funciones, averiguando qué funciona y asegurándose de que la herramienta no se utiliza de forma incorrecta. Tu organización debería hacer lo mismo con sus herramientas de IA para garantizar un uso responsable.

A nivel operativo, designar a determinados empleados como "propietarios" de las herramientas de IA ayuda a adquirir experiencia y a crear responsabilidad. Garantizar que estos propietarios están familiarizados con los principios de la IA responsable también les ayuda a evaluar nuevos casos de uso y evita el uso no supervisado de potentes herramientas de IA en nuevas áreas de la empresa.

En un nivel superior, las encuestas periódicas pueden ayudar a la dirección de la empresa a comprender cómo se utiliza actualmente la IA en la organización y cómo se extiende con el tiempo, lo que garantiza que no le pille por sorpresa si surgen posibles problemas con la IA.

En resumen, las nuevas herramientas de IA no deben implantarse de manera automática. Por el contrario, los empleados deben comprender la importancia de reflexionar críticamente sobre su uso de la IA y trabajar para mejorar y desarrollar su uso de las herramientas con el tiempo. 

políticas y gobernanza claras y responsables en materia de IA

Disponer de documentos claros sobre la gobernanza de la IA y de una definición común de IA responsable es una de las medidas más importantes. Cada persona puede tener una idea diferente de lo que es "responsable". Pero una política de IA definida, aprobada por la dirección de la empresa y distribuida a todos los compañeros, pone a todos de acuerdo. Ofrecé a los miembros del equipo algo a lo que recurrir si no están seguros al 100% de que la tarea de IA que han planificado es posible y responsable.

Nuestras guías para crear tus propios principios de IApolíticas son excelentes recursos si estás empezando a diseñar la postura oficial de tu empresa sobre la IA. Pero si estás empezando y querés asegurarte de que estás haciendo las preguntas correctas sobre la IA, descargá nuestra guía para identificar el uso responsable de la IA en tu organización. Planteando una serie de preguntas, ayudarás a evaluar casos específicos de uso de la IA y te dirá si se pueden considerar responsables o si necesitás trabajar más antes de implementarlos en la empresa.

sobre el autor/a
Maximiliano Schellhas
Maximiliano Schellhas

Maximiliano Schellhas

director general de staffing, key accounts & inhouse services

Con más de 20 años de trayectoria dentro de Randstad, Maximiliano ocupó diferentes posiciones gerenciales y de alta dirección, tanto para Argentina como para las operaciones de Chile y Uruguay. Desde 2016 es Director General de Staffing, Key Accounts & Inhouse Services, posición desde la que lidera la estrategia, operación y gestión comercial de diferentes unidades de negocios en todo el país.

Graduado en 1995 en la Universidad Nacional de Rosario como Contador Público, Maximilano Schellhas completó su formación con un MBA, que cursó en el IDEA y un Programa de Lead, Coaching y Liderazgo, de la ESADE Business School.

Maximiliano Schellhas cuenta con más de 25 años de experiencia profesional en el ámbito corporativo. Por sus antecedentes y vasta trayectoria, Maxi es un experimentado profesional con profundo conocimiento del mundo del trabajo en Argentina y la región, y una alta especialización en temas laborales y de RRHH.

mantenete al día con las últimas noticias, tendencias e informes sobre contratación y mercado laboral.

suscribite