Voxiva

Cómo el Sesgo algorítmico en la Inteligencia Artificial puede afectar los resultados futuros

La Inteligencia Artificial ha deslumbrado en la última década con el valor que aporta a distintos sectores. Desde soluciones para empresas privadas, ONGs, en salud y hasta programas del gobierno, su utilidad y efectividad es incuestionable. Sin embargo, una implementación responsable de la IA debe concientizar también sobre los posibles riesgos que esta presenta. Uno de estos es el sesgo epistémico y conocerlo es importante para poder mitigarlo.

Las capacidades predictivas y de análisis de la IA sobrepasan con creces lo que podemos “computar” los seres humanos. El machine learning y el deep learning han expandido nuestra capacidad de analizar grandes cantidades de datos y reconocer tendencias o patrones significativos. Pero, justamente por esto es que resulta de suma importancia poder confiar en la Inteligencia Artificial. Con su creciente expansión, debemos preguntarnos cómo ocurre el sesgo en la Inteligencia Artificial y qué debemos hacer para lidiar con ello.

¿Qué es Sesgo Algorítmico?

Un sesgo se entiende como “errores sistemáticos que revelan una preferencia hacia una respuesta o resultado”. Estos errores pueden estar causados por diversos motivos. En el caso de los seres humanos, solemos estar sesgados en base a nuestra experiencia y creencias personales. En el caso de sistemas informáticos, el sesgo puede encontrarse en una falla procedimental, o en heredar los sesgos de quienes los diseñan.

En todo caso, una característica crucial del sesgo es que suele pasar desapercibido para quien incurre en él. Por eso se requiere de una perspectiva externa capaz de observar un análisis y señalar los posibles sesgos. En el caso de un algoritmo, esto quiere decir que son las personas quienes deben permanecer atentas a los posibles sesgos en el análisis.

Un sesgo algorítmico, entonces, se produce cuando la IA produce resultados que son sistemáticamente injustos hacia ciertos grupos de personas. Estos usualmente consisten en minorías de género, raciales o de clase.

Lo que debemos entender es que esto no sucede necesariamente porque quienes programan la IA sean sexistas o racistas, ni porque la misma IA quiera ser discriminatoria. Muchas veces, la discriminación algorítmica es producto de un descuido, o de utilizar datos que de por sí ya contenían un sesgo.

Cómo se da el sesgo en la Inteligencia Artificial

Cuando entrenamos a un programa de machine learning para resolver ciertos desafíos, debemos proveer una base de datos de la cual aprender, así como de una serie de criterios o parámetros para que pueda evaluar qué contenido es relevante y para qué. Si la serie de datos contuviese, de por sí, sesgos históricos por la forma en que se ha ido registrando la data, entonces esto va a repercutir en el aprendizaje automático de la IA.

Pero, ¿en qué consiste un sesgo histórico? Para entenderlo planteemos el ejemplo de un algoritmo que ayude a evaluar postulantes para puestos en una empresa. Históricamente se ha tendido a privilegiar las aplicaciones de postulantes masculinos sobre los femeninos. Así, al entrenar al algoritmo de machine learning, se le darán los registros de contrataciones obviando el nombre y género de los aplicantes. La intención es que aprendiendo a reconocer patrones, encuentre las características más favorables en un aplicante, independientemente de su género.

La idea es bien intencionada. Sin embargo, a pesar de que no hayan parámetros que discriminen por género explícitamente, la evaluación aun puede producir una discriminación algorítmica en virtud de que los registros históricamente han favorecido a hombres.

El efecto de esto es que la Inteligencia Artificial puede correlacionar otros factores, no explícitamente relacionados al género, con las distinciones entre hombre y mujer y así reproducir el sesgo subrepticiamente. Un ejemplo sería el privilegio a aplicantes que muestran años continuos de trabajo. Si bien la consistencia es una característica deseable, esto puede terminar discriminando aplicantes femeninas que han tenido que interrumpir sus labores debido al descanso por maternidad.

Si no somos cautos y vigilantes, los algoritmos pueden reproducir y magnificar sesgos previamente existentes.

Debemos ser cuidadosos y críticos en el proceso de diseño de los algorítmos

Ética en la Inteligencia Artificial y la incertidumbre epistémica

El desarrollo de Inteligencia Artificial debe venir siempre acompañado de una perspectiva ética. Sobre todo ahora que las soluciones de IA están siendo adoptadas con mayor frecuencia. Una perspectiva ética no solo es responsable y sensata, sino que genera mayor confianza en una marca.

En el caso que estamos discutiendo, es importante prevenir el sesgo en contra de grupos sociales que han sido históricamente desaventejados. Es importante reconocer que al construir algoritmos tenemos la responsabilidad de evitar que se perpetúan estos sesgos que pueden resultar en discriminación y desigualdad.

Parte del trabajo que tenemos que hacer es reconocer el problema de una pretendida objetividad de los datos. Cuando un algoritmo analiza datos, tendemos a pensar que el resultado que emite nos muestra una realidad objetiva. Podemos decir “son datos, no opiniones”. El output no depende de los sentimientos, opiniones o preferencias de la IA, sino que es un proceso neutral e imparcial.

Sin embargo, la perspectiva humana siempre se filtra. Somos nosotros quienes diseñamos la inteligencia artificial, y somos nosotros quienes deciden qué datos son relevantes para esta. Por ello debemos ser conscientes de lo que Richard Bronk llama la incertidumbre epistémica. Este término hace referencia a que en un sistema complejo de toma de decisiones, jamás se contará con información perfecta, por lo que un análisis siempre será parcial. Pero, incluso si hubiera una Inteligencia Artificial con la capacidad computacional para analizar todos los datos en existencia relevantes para un tema, aún no se escapa de la parcialidad. Esto porque sigue siendo necesaria, de antemano, una determinación sobre qué cuenta como dato relevante y qué no. De modo que siempre hay una exclusión que puede perpetuar sesgos inconscientemente.

Con esto, solo queda decir que el trabajo de evaluación en contra de sesgos debe permanecer siempre abierto. Los desarrolladores deben estar dispuestos a escuchar voces diversas que muestren aspectos previamente ignorados.

Ejemplos de caso

Para entender esto con más detalle, veamos dos casos concretos del año pasado.

En primer lugar tenemos a GPT-3, que es un sistema de deep learning para generar texto original luego de estudiar materiales base en los cuales inspirarse. Esta IA de procesamiento de lenguaje natural (NLP) es muy avanzada y puede producir texto que parece haber sido escrito por humanos.

El año pasado, junto con la publicación del GPT-3 se publicó un estudio que mostraba los sesgos que podía reproducir en el análisis del lenguaje. Así, se encontró que el programa tendía a designar a profesionales en carreras de alta educación o en ocupaciones que requieren de fuerza, principalmente con hombres, y a ocupaciones de cuidado (como enfermera, ama de casa, o secretaria) con mujeres. De modo similar, se vió que tendía a asociar características negativas a personas de piel oscura.

Por otro lado, un hombre afroamericano en Detroit fue arrestado erróneamente debido a que una Inteligencia Artificial de reconocimiento facial lo identificó como el sospechoso de un crimen. A pesar de ser inocente, fue arrestado en el patio de su casa frente a su familia. Solo eventualmente, al revisar la foto del sospechoso llegaron a reconocer que no era la misma persona. Al parecer, el reconocimiento facial tenía sesgos a la hora de interpretar los rostros de personas con piel oscura.

Si bien estos casos no son motivos para detener el uso de la inteligencia artificial, sí son indicadores de que debemos ser cuidadosos y permanecer críticos para tratar de identificar estos sesgos lo antes posible.

¿Cómo afecta el sesgo algorítmico a las empresas?

Hoy en día, para innovar y tener ventajas competitivas, las compañías deben invertir en soluciones de IA para los problemas de negocios. Dada la gran cantidad de datos y la digitalización de muchos servicios, no adoptar nuevas tecnologías es decididamente quedarse atrás.

Por ello es sumamente importante contar con un equipo responsable a la hora de implementar estas soluciones. Una AI que reproduce sesgos puede afectar la imagen o el desempeño de una empresa y no dar la mejor información para la toma de decisiones.

Un artículo de Mónica Villas señala que las compañías que tomaban la ética en la IA en consideración obtenían una ventaja de 44 puntos en NPS (Net Promoter Score, un índice para medir lealtad del consumidor) sobre otras. Estas consideraciones pueden ayudar a aumentar ventas y fidelización de clientes.

Un equipo diverso y una evaluación de datos continua son clave para reducir el riesgo de sesgo algoritmico

Estrategias para prevenir y corregir el sesgo algorítmico

Hay diversas estrategias que un equipo de desarrollo debe seguir para poder combatir el sesgo:

  • Identificar el tipo de sesgo relevante a tu negocio: Cada negocio tiene distintos tipos de sesgo según sus metas y su público objetivo. Es crucial realizar un análisis de cuáles son los factores de riesgo inicialmente.
  • Evaluación y control de datos: se debe prestar particular atención a los sets de datos que se utilizan, sobre todo si provienen de una fuente externa. Se debe estar atentos a posibles sesgos históricos en la data y advertirlos con anticipación. Algunos datos pueden correlacionarse de forma inadvertida, como el distrito de residencia con características étnicas o raciales.
  • Tener un equipo diverso: El sesgo muchas veces se produce por tener una perspectiva parcial. Incluir voces diversas en el equipo ayuda a notar aquellos sesgos que, desde una sola perspectiva, pasan inadvertidos. Por ello, contar con miembros de diversidad de género, orientación y etnias ayuda a corregir potenciales sesgos incluso antes de que sucedan. En todo caso, consultar con otras personas externas cuando su perspectiva sea relevante para un determinado proyecto.
  • Mantener una evaluación continua: Como hemos visto, no hay una solución perfecta y permanente, sino que hay que estar continuamente evaluando y permanecer vigilantes. De esta manera podremos prevenir o corregir los sesgos a tiempo y evitar mayores daños

Las soluciones de inteligencia artificial son el mejor paso para mantenerse actualizados y conseguir una ventaja comparativa frente a los competidores. Por ello, al adentrarse es importante escoger a un equipo responsable en quien pueda confiar para navegar estas dificultades. En Voxiva, cada vez cuidamos a nuestros clientes realizando un proceso de ETL (Eliminación de data irrelevante de forma responsable, evitando impactos en el los resultados de negocio) y luego asociando libremente las variables para evitar que las reglas estrictas de negocio gobiernes el resultado final. Como resultado, nuestros clientes confían en nosotros y Ud. también puede hacerlo.

¿Qué reto de negocios estás enfrentando?


¡Cuéntanos aquí!


Has un comentario

Newsletter

Ai en el corazón del conocimiento

Diseñamos algoritmos de inteligencia artificial para modelos correctivos, descriptivos, prescriptivos y predictivos. Nuestras soluciones le brindan conocimiento de alto valor que le permitirán obtener una importante ventaja competitiva en el mercado.

Artículos Recientes