Inteligencia Artificial: seis sesgos a evitar en el próximo algoritmo
A medida que ChatGPT, Dall-E y muchos otros algoritmos de IA se han introducido en nuestras vidas, ha aumentado la toma de conciencia sobre sus posibles consecuencias. En primer lugar de las prácticas (ej; ¿puede un algoritmo quitarme el trabajo?) pero en segundo término, de las éticas. Y en este sentido, cada vez son más los investigadores que se preguntan si es posible desarrollar algoritmos capaces de evitar la mayoría de los sesgos con los que contamos los seres humanos. Dicho de otra forma: ¿podemos crear una IA que sea justa, caritativa y empatiza…o estamos condenados a repetir nuestros errores una y otra vez?
De esta premisa han partido dos investigadores del MIT, que en su paper “A Framework for Understanding Sources of Harm throughout the Machine Learning Life Cycle” identifican seis sesgos que habitualmente se encuentran en los datos con los que se entrenan los modelos de machine learning, y que les puede llevar a repetir patrones de comportamiento indeseables, como racismo, infrarepresentación de la diversidad, exclusión por motivos socio-económicos o uniformidad cultural. Harini Suresch y John Guttag, autores de este estudio, identifican los siguientes sesgos que deberían ser evitados por los científicos de datos y expertos en IA.
La entrada Inteligencia Artificial: seis sesgos a evitar en el próximo algoritmo se publicó primero en MuyComputer.
Comentarios
Publicar un comentario