Ética en la Inteligencia Artificial y la incertidumbre epistémica
El desarrollo de Inteligencia Artificial debe venir siempre acompañado de una perspectiva ética. Sobre todo ahora que las soluciones de IA están siendo adoptadas con mayor frecuencia. Una perspectiva ética no solo es responsable y sensata, sino que genera mayor confianza en una marca.
En el caso que estamos discutiendo, es importante prevenir el sesgo en contra de grupos sociales que han sido históricamente desaventejados. Es importante reconocer que al construir algoritmos tenemos la responsabilidad de evitar que se perpetúan estos sesgos que pueden resultar en discriminación y desigualdad.
Parte del trabajo que tenemos que hacer es reconocer el problema de una pretendida objetividad de los datos. Cuando un algoritmo analiza datos, tendemos a pensar que el resultado que emite nos muestra una realidad objetiva. Podemos decir “son datos, no opiniones”. El output no depende de los sentimientos, opiniones o preferencias de la IA, sino que es un proceso neutral e imparcial.
Sin embargo, la perspectiva humana siempre se filtra. Somos nosotros quienes diseñamos la inteligencia artificial, y somos nosotros quienes deciden qué datos son relevantes para esta. Por ello debemos ser conscientes de lo que Richard Bronk llama la incertidumbre epistémica. Este término hace referencia a que en un sistema complejo de toma de decisiones, jamás se contará con información perfecta, por lo que un análisis siempre será parcial. Pero, incluso si hubiera una Inteligencia Artificial con la capacidad computacional para analizar todos los datos en existencia relevantes para un tema, aún no se escapa de la parcialidad. Esto porque sigue siendo necesaria, de antemano, una determinación sobre qué cuenta como dato relevante y qué no. De modo que siempre hay una exclusión que puede perpetuar sesgos inconscientemente.
Con esto, solo queda decir que el trabajo de evaluación en contra de sesgos debe permanecer siempre abierto. Los desarrolladores deben estar dispuestos a escuchar voces diversas que muestren aspectos previamente ignorados.
Ejemplos de caso
Para entender esto con más detalle, veamos dos casos concretos del año pasado.
En primer lugar tenemos a GPT-3, que es un sistema de deep learning para generar texto original luego de estudiar materiales base en los cuales inspirarse. Esta IA de procesamiento de lenguaje natural (NLP) es muy avanzada y puede producir texto que parece haber sido escrito por humanos.
El año pasado, junto con la publicación del GPT-3 se publicó un estudio que mostraba los sesgos que podía reproducir en el análisis del lenguaje. Así, se encontró que el programa tendía a designar a profesionales en carreras de alta educación o en ocupaciones que requieren de fuerza, principalmente con hombres, y a ocupaciones de cuidado (como enfermera, ama de casa, o secretaria) con mujeres. De modo similar, se vió que tendía a asociar características negativas a personas de piel oscura.
Por otro lado, un hombre afroamericano en Detroit fue arrestado erróneamente debido a que una Inteligencia Artificial de reconocimiento facial lo identificó como el sospechoso de un crimen. A pesar de ser inocente, fue arrestado en el patio de su casa frente a su familia. Solo eventualmente, al revisar la foto del sospechoso llegaron a reconocer que no era la misma persona. Al parecer, el reconocimiento facial tenía sesgos a la hora de interpretar los rostros de personas con piel oscura.
Si bien estos casos no son motivos para detener el uso de la inteligencia artificial, sí son indicadores de que debemos ser cuidadosos y permanecer críticos para tratar de identificar estos sesgos lo antes posible.
¿Cómo afecta el sesgo algorítmico a las empresas?
Hoy en día, para innovar y tener ventajas competitivas, las compañías deben invertir en soluciones de IA para los problemas de negocios. Dada la gran cantidad de datos y la digitalización de muchos servicios, no adoptar nuevas tecnologías es decididamente quedarse atrás.
Por ello es sumamente importante contar con un equipo responsable a la hora de implementar estas soluciones. Una AI que reproduce sesgos puede afectar la imagen o el desempeño de una empresa y no dar la mejor información para la toma de decisiones.
Un artículo de Mónica Villas señala que las compañías que tomaban la ética en la IA en consideración obtenían una ventaja de 44 puntos en NPS (Net Promoter Score, un índice para medir lealtad del consumidor) sobre otras. Estas consideraciones pueden ayudar a aumentar ventas y fidelización de clientes.