El futuro del algoritmo en una sociedad plural.

  • Por Lorena Jara
    • 14 Sep, 2020
    • read
  • Twitter
  • Linkedin

¿Sesgos en Inteligencia Artificial? El futuro del algortimo.  

Augusta Ada King, Condesa de Lovelace (1815-1852), matemática, informática y escritora británica, célebre por su trabajo acerca de la calculadora de uso general de Charles Babbage, tenía entre sus notas lo que se reconoce hoy como el primer algoritmo destinado a ser procesado por una máquina, por lo que se la considera como la primera programadora de ordenadores. Ada describió con detalle las operaciones mediante las cuales las tarjetas perforadas “tejerían” una secuencia de números en la máquina analítica. Este código está considerado como el primer algoritmo específicamente diseñado para ser ejecutado por un ordenador.

Dedujo y previó la capacidad de los ordenadores para ir más allá de los simples cálculos de números. Lo que no podría imaginarse es que la Inteligencia Artificial la podría discriminar en un proceso de selección para Amazon si viviera hoy en día, pero que sufrirían sus generaciones venideras, o que los resultados de la búsqueda en Google con las palabras ‘algoritmo’ y ‘mujer’ se centrarían, casi únicamente sobre la existencia del sesgo de género en los algoritmos.

Existe una brecha de género así, como racial, y es innegable. Según el Informe DISCRIMINATING SYSTEMS de tres investigadoras de IA Now Institute y la New York University, el desastre de diversidad ahora alcanza a todo el sector de la IA, y es que “las estadísticas de diversidad de género y de raza son alarmantemente bajas”.

Estudios recientes encontraron que solo el 18% de los autores en las principales conferencias de IA son mujeres, y más del 80% de los profesores de IA son hombres. Esta disparidad es extrema en la industria de IA: las mujeres comprenden solo el 15% del personal de investigación de IA en Facebook y 10% en Google. Para los trabajadores de raza negra, la situación es aún peor. Por ejemplo, solo el 2.5% de la fuerza laboral de Google es de raza negra, mientras que Facebook y Microsoft tienen cada uno el 4%.

Con estos datos, lo único que me viene a la mente es pensar en qué soluciones se están poniendo a este problema que logre encontrar un camino positivo que nos lleve a un futuro inmediato que haga que esto cambie radicalmente. Se debe ampliar el marco de referencia e integrar enfoques sociales y técnicos. Si queremos que la IA sea complementaria a nuestro cerebro, pero ésta está limitada y sesgada, necesitamos desarrollar esta tecnología desde marcos éticos, y debe estar presente no solo en las respuestas, sino también en las preguntas.

Conocer los sesgos existentes en los datos de entrenamiento, ejercer un control sobre ello y extinguirlo. Traducido sería: no deberíamos permitir que las máquinas comentan los mismos errores que los humanos, ni que el sistema de IA esté sesgado. No deberían replicarse los prejuicios humanos a la hora de tomar decisiones. Y en cuatro palabras: justicia, responsabilidad, transparencia e igualdad, por favor.

Author

Lorena Jara

Explore our latest insights

Leer más arrow_forward

Facturación electrónica: Descubre todas las claves de la nueva...

Con el objetivo de fomentar la creación de nuevas empresas, facilitar su desarrollo y eliminar la...

Bonificaciones personal investigador

Ahorra un 40% gracias a las Bonificaciones a la Seguridad Soci...

Las bonificaciones para personal investigador son un mecanismo de ahorro establecido por el Real ...

csr

Los clientes de Leyton han recibido más de 1.000 millones de e...

Tras 8 años de trayectoria en España, Leyton, la consultora de asesoramiento global especializada...

Partnership Leyton

¿Por qué es importante que optimices los impuestos locales?

El peso que tienen los impuestos en la economía de las empresas de nuestro país es importante. Ya...