Cuatro claves para crear soluciones de IA éticas en 2025

La inteligencia artificial (IA) ya no es solo una palabra de moda, sino el estándar que las empresas de todo el mundo buscan adoptar para mejorar los procesos, la comunicación, la generación de contenidos, y la lista continúa. 

En 2014, Amazon utilizó una herramienta de IA para ayudar a contratar nuevos empleados. La IA se entrenó con los currículums de su departamento de software, compuesto en su mayoría por empleados varones. Esto enseñó a la IA a excluir los perfiles que incluían escuelas, clubes u otras afiliaciones de mujeres, entrenándola esencialmente para eliminar a las mujeres del grupo de contratación. 

La intención era inocente: utilizar una herramienta de IA para acelerar los procesos de contratación de una gran empresa que recibe miles de solicitudes con regularidad. Pero la IA es tan inteligente como los humanos la entrenan para serlo, y a veces los prejuicios humanos pueden filtrarse, incluso sin intención.

La IA ética implica adoptar un enfoque seguro en el desarrollo de la IA. El objetivo de todas las partes interesadas, desde los ingenieros hasta los gobiernos y los directores ejecutivos, debe ser dar prioridad al uso respetuoso de los datos y crear un sistema de IA que sea transparente y tenga una brújula moral. En esencia, la IA ética pretende mitigar el riesgo de situaciones poco éticas y evitar el daño a cualquier ser humano.

“Sabemos que los distintos gobiernos tienen normativas, pero existe una gran necesidad de que las organizaciones apliquen normativas y marcos para intentar minimizar las soluciones de IA poco éticas. Las regulaciones exhaustivas de la ley de protección de datos no están a la altura de la velocidad de desarrollo de la IA, por lo que las empresas necesitan sus propios sistemas para mantenerse bajo control a medida que se avanza en el desarrollo de la IA”, explica Janeth Rodríguez, VP Revenue Latam de Infobip.

Un código de conducta de IA está diseñado para ayudar a las empresas a seguir unas directrices morales a la hora de desarrollar tecnología de IA, o incluso de implantarla en su negocio. El G7 creó un código de conducta voluntario para que las empresas de todo el mundo lo siguieran. Estas directrices pretenden promover una IA segura y fiable y ayudar a que las empresas rindan cuentas de lo que desarrollan. 

Desde Infobip, plataforma global de comunicaciones en la nube, presentan cuatro claves para crear soluciones de IA éticas en 2025:

1. Comprender el sector y la finalidad para la que se ha diseñado la solución

Cada industria puede tener un efecto diferente en consideraciones éticas como: religión, sexo y género, educación, origen socioeconómico, ubicación geográfica, origen cultural, niveles de competencia lingüística, capacidades físicas y acceso tecnológico.

Por ejemplo, un sector con un alto riesgo de desarrollar IA poco ética sería el de los sistemas judiciales. Las soluciones de IA podrían utilizarse para la elaboración de perfiles criminales, recomendaciones de sentencias, asesoramiento jurídico y asistencia, pero pueden crear sesgos basados en los datos de entrenamiento, lo que podría tener implicaciones poco éticas que pueden afectar drásticamente a la vida de alguien. 

Mientras que, en el comercio minorista, una solución de IA puede utilizarse para un chatbot de atención al cliente, un asistente personal de compras o ayudar a generar recomendaciones personalizadas para campañas de marketing. Si la IA está mal entrenada y genera una respuesta poco ética, lo más probable es que afecte a la reputación de una  marca, pero tendrá poco o ningún impacto en la vida del  cliente.

2. Abordar los sesgos 

Al igual que a los humanos, a la IA le gusta poner a la gente en cajas, asignando etiquetas positivas y negativas aprendidas de los datos a diferentes grupos. Para corregir este tipo de sesgos de grupo, los investigadores pueden obligar al modelo a ignorar atributos como la raza, la clase social, la edad y el sexo. Es similar a cómo algunas orquestas hacen ahora que los músicos audicionen detrás de una cortina para mantener un proceso de selección ciego a la raza y al género.

3. Establecer Key Performance Indicators (KPI)  justos y medibles

Otra forma de ayudar a mitigar el riesgo de IA poco ética es que las marcas establezcan KPI medibles desde el principio. Esto ayuda a medir el éxito en términos de equidad técnica de la solución de IA y el contexto social en el que influye. 

Por ejemplo, una marca de tecnología financiera lanza una solución automatizada de IA para préstamos. Deberían medir la tasa de conversión a préstamos aprobados, así como el número de préstamos no aprobados. Al mismo tiempo, deben comprobar si los préstamos se aprueban por igual para los distintos grupos, garantizando la equidad. Evaluar la precisión racial del reconocimiento facial. Verificar si las personas con antecedentes similares reciben un trato uniforme. Y luego pueden determinar si es técnicamente justo en un contexto social.

4. Trabajar con expertos en IA

Crear una solución de IA ética no es tarea fácil. Asociarse con un proveedor de soluciones que conozca los entretelones de la IA ética puede hacer que un proyecto vaya sobre ruedas.

Trabajar con profesionales de CX e IA permite garantizar que una solución de IA siga siendo ética y cumpla las leyes y normativas locales, manteniendo la reputación de una marca fuerte y fiable. 

“Los riesgos éticos de la IA pueden controlarse y mitigarse si todos desempeñan su papel. Las partes interesadas y los responsables políticos desempeñan un papel fundamental a la hora de establecer directrices, códigos de conducta y fijar las normas para un desarrollo ético de la IA que salvaguarde los datos y la privacidad de los usuarios”, finaliza la ejecutiva de Infobip.

baf

leave a reply