Gabriela Arriagada Bruneau investiga un método sociotécnico para identificar sesgos en el proceso de desarrollo de IA
En el artículo “A Bias Network Approach (BNA) to Encourage Ethical Reflection Among AI Developers”, publicado en el Journal Science and Engineering Ethics de Springer Nature, la académica del Instituto de Éticas Aplicadas UC en cargo compartido con el Instituto de Ingeniería Matemática y Computacional (IMC UC) e investigadora del Centro Nacional de Inteligencia Artificial (Cenia), Gabriela Arriagada Bruneau, junto a las investigadoras Claudia […]

En el artículo “A Bias Network Approach (BNA) to Encourage Ethical Reflection Among AI Developers”, publicado en el Journal Science and Engineering Ethics de Springer Nature, la académica del Instituto de Éticas Aplicadas UC en cargo compartido con el Instituto de Ingeniería Matemática y Computacional (IMC UC) e investigadora del Centro Nacional de Inteligencia Artificial (Cenia), Gabriela Arriagada Bruneau, junto a las investigadoras Claudia López (Universidad Técnica Federico Santa María) y Alexandra Davidoff (Núcleo FAIR) presentan el BNA (Bias Network Approach) como un método sociotécnico para que los desarrolladores de inteligencia artificial (IA) identifiquen, mapeen y relacionen sesgos a lo largo del proceso de desarrollo de IA. Este enfoque aborda las limitaciones de lo que llaman el “enfoque aislacionista del sesgo en IA”, una tendencia en la literatura en la que los sesgos se ven como ocurrencias separadas, vinculadas a etapas específicas en un pipeline de IA.
Para probar el BNA, estudiaron un caso piloto sobre el proyecto de investigadores chilenos en el que se usa un modelo de procesamiento de lenguaje natural para optimizar las listas de espera del servicio público de salud en Chile, el que mostró hallazgos prometedores: (1) El BNA ayuda a visualizar sesgos interconectados y sus impactos, facilitando la reflexión ética de una manera más accesible. (2) Promueve la transparencia en la toma de decisiones a lo largo del desarrollo de IA. (3) Y da cuenta de que es necesario poner más énfasis en los sesgos profesionales y limitaciones materiales como fuentes de sesgo en el desarrollo de IA.
“La ética de la IA requiere ahora que los desarrolladores contextualicen su trabajo más que nunca, a pesar de que no siempre cuentan con formación ética. Basándonos en nuestros hallazgos al aplicar el BNA, notamos que facilitar la discusión ética es esencial para establecer una comprensión de los conceptos éticos para los ingenieros que carecen de este tipo de instrucción formal. Esta ofrece estructura y garantiza profundidad en las discusiones, permitiendo que los equipos se involucren de manera efectiva con el método propuesto”, explican las investigadoras.
Agregan que “el BNA proporciona un marco para ayudarles a visualizar y comprender las conexiones y matices de los sesgos de la IA, mostrando cómo abordarlos a través de una red que conduce a prácticas y decisiones más transparentes. Si bien este marco no resuelve todos los problemas éticos, su objetivo es ayudar a los desarrolladores a ver cómo interactúan los diferentes factores éticos”.
Dada la naturaleza de los hallazgos del paradigma de investigación cualitativa, las investigadoras señalan que no se espera que sean resultados generalizables. El enfoque está en proporcionar una perspectiva sobre las ventajas y desventajas de utilizar este enfoque de red desde la perspectiva del equipo de desarrollo.
Además, la aplicación del BNA a un caso específico les permitió identificar fuentes de sesgos que tenían impactos generalizados y en red en el proyecto bajo estudio, como los sesgos profesionales y las limitaciones materiales. Ambos tuvieron una influencia significativa en los resultados del proyecto y en la aparición de sesgos adicionales en diferentes etapas del proceso de IA.
“Si bien esta invisibilización podría estar relacionada con el enfoque aislacionista que encontramos en la literatura sobre sesgos, notamos que los sesgos profesionales apenas se conceptualizan como un sesgo presente en la IA, quizás debido a la falta de reconocimiento por parte de los desarrolladores de IA de que su trabajo y formación no son neutrales y podrían estar influenciados por su propia formación. Por lo tanto, futuras investigaciones podrían explorar más a fondo los sesgos profesionales y las limitaciones materiales en una variedad más amplia de proyectos de IA para evaluar sus impactos y prevalencia”, concluyen.
Actualmente, están trabajando junto a algunos estudiantes para mejorar y hacer más accesible el mapeo de visualización, además de tener nuevos proyectos de testeo para seguir profundizando y actualizando las recomendaciones.
Invitamos a leer el artículo completo en Springer.