|
María Ávila Bravo-Villasante
|
|
|
|
Universidad Rey Juan Carlos -
España
|
Recibido: 14-03-2023
Aceptado: 15-06-2023
Resumen
El artículo ofrece una
panorámica de los retos que la cuarta revolución industrial plantea para la
agenda feminista. La algoritmización de la esfera
pública implica la automatización de decisiones que antes eran tomadas por
seres humanos. Estas decisiones, no son neutras, incorporan y reproducen sesgos
que generan situaciones de desigualdad. La incorporación de las mujeres a los
equipos de trabajo en el sector STEM contribuiría a erradicar estos sesgos, si
bien, la brecha de género no parece remitir. Para ilustrar la manera en la que
los sesgos de género y los modelos androcéntricos pueden arruinar el proceso de
toma de decisiones, se proponen dos ejemplos paradigmáticos: el ámbito de la
salud y el sistema VioGén.
Palabras clave: algoritmización de la
esfera pública, inteligencia artificial, feminismo, sesgos y estereotipos de
género, androcentrismo, brechas digitales, violencia de género.
Abstract
This article provides an overview of the challenges posed by the
fourth industrial revolution
to the feminist agenda. The automation of decision-making processes in the public sphere,
driven by algorithms, brings forth inherent challenges. These decisions are not impartial; instead, they perpetuate and amplify gender biases, leading to situations of inequality. While the inclusion
of women in STEM work teams could help
mitigate these biases, the gender
gap in these fields persists. To demonstrate the detrimental effects of gender biases and androcentric models on decision-making,
two illustrative examples are presented: the healthcare sector and the VioGen system,
which addresses gender-based violence.
Keywords: algorithmization of the public sphere, artificial intelligence, feminism, gender bias and stereotypes, androcentrism,
digital divides, gender-based violence.
El objetivo terminal de este
artículo es ofrecer una panorámica de las diferentes transformaciones que se
derivan de la creciente algoritmización de la esfera
pública y las implicaciones que tiene para las mujeres. Para ello, se ha
realizado una revisión bibliográfica de la literatura científica que muestra
los sesgos y brechas de género inherentes a estos procesos.
En la primera parte del artículo se
realiza una revisión de los conceptos empleados. La omnipresencia en el debate
público de los términos utilizados requiere explicitar su significado para
evitar el riesgo de vacuidad. Una vez establecido el marco conceptual, se
analiza, tangencialmente, el problema de la radicalización y la polarización
como coadyuvantes en el auge de narrativas antifeministas y misóginas.
En la segunda parte del artículo se
expondrán los sesgos presentes en los modelos de aprendizaje automático. Éstos
no sólo replican y amplifican estereotipos racistas, sexistas y colonialistas,
sino que vulneran el acceso a servicios y derechos básicos —empleo, recursos
financieros, principio de igualdad y no discriminación—. La presencia de estos
sesgos está íntimamente relacionada con la falta de diversidad en los equipos
de diseño y programación. Por tanto, resulta imprescindible acometer el
análisis de las brechas tecnológicas.
Cuando hablamos de brechas
tecnológicas hay que apelar a una doble dimensión, la brecha de acceso y la
brecha de uso. Los datos de los que disponemos indican que en nuestro país
ambas brechas se han erradicado. Sin embargo, se sigue sin encontrar una
respuesta clara a la escasa participación de las mujeres y niñas en las STEM.
Se abordará, como posible explicación, el modelo multifactorial propuesto por
la UNESCO (2019).
Por último, si bien el uso de algoritmos
en la toma de decisiones no es inherentemente negativo, es necesario reconocer
que los principios éticos que fundamentan nuestras decisiones como seres
humanos no se encuentran presentes en las decisiones automatizadas. No es
suficiente con crear sistemas técnicamente eficientes, hay que incorporar los
principios humanos y valores éticos a las tomas de decisiones. Si no se tienen
en cuenta estos elementos, la toma de decisiones puede no ser adecuada. Para
ilustrar estos aspectos, se proponen dos ejemplos de ámbitos en los que la algoritmización está muy avanzada: salud y prevención de
violencia de género
En 1986 el filósofo de la tecnología Langdon Winner utiliza el término
“sonambulismo tecnológico” para referirse a la ausencia de reflexión sobre el
uso y la utilización de la tecnología a causa del entusiasmo que nos provocan
los nuevos descubrimientos. Este enardecimiento llevaba implícito un
determinismo que parecería indicar que el despliegue tecnológico era
inevitable. De este modo, los procesos sociales parecerían derivarse del
tecnológico obviando que la tecnología es un asunto social. La falta de
reflexión en torno a todos estos procesos nos lleva a caminar “sonámbulos de
buen grado a través del proceso de reconstrucción de las condiciones de la
existencia humana.” (Winner, 1986: 16). Y dado que en
esta reconstrucción está en juego las condiciones sociales y personales en las
que se desenvuelve nuestra existencia, es importante que la teoría crítica feminista
nos acompañe en este despertar del sueño dogmático en el que nos había imbuido
la celeridad tecnológica.
En las últimas décadas estamos asistiendo a
rápidos y profundos cambios tecnológicos que involucran a nuestra manera de
trabajar, de relacionarnos en entornos profesionales, afectivos y familiares,
de cuidar nuestra salud, de cubrir nuestras necesidades de protección y nuestra
interacción con el entorno. Estos cambios ocultan, legitiman y generan
injusticias y desigualdad, que van desde las brechas de acceso y uso de la
tecnología a los problemas medioambientales. No podemos obviar por más tiempo
que lejos de resolver los problemas medioambientales, los profundos cambios a
los que asistimos en el capitalismo digital, su velocidad y aceleracionsimo,
implican un alto coste ecológico (Bellver, 2019).
Autores como Brynjolfsson
& McAfee (2014) se refieren a esta nueva etapa como la segunda edad de las
máquinas. Klaus Schwab (2017) considera que está más que justificado hablar de
cuarta revolución industrial. Sara Gallego y Carlos Oliva (2022) denominan a
este cambio de “paradigma tecnológico” como industria 4.0. Independientemente del nombre que demos a
esta nueva etapa, lo importante es la manera que tendremos de hacer frente a
sus retos. Y el mayor reto, por decirlo con Schwab, es cómo vamos a darle forma.
Si la cuarta revolución industrial involucra todos los aspectos con los que
hemos iniciado este recorrido, es lícito y necesario construir marcos que nos
permitan comprender el sentido que están tomando estos cambios, pues involucran
de un modo indiscutible lo que hasta ahora entendemos por “humanidad” (Schwab,
2017: 13) y las relaciones que esta nueva humanidad mantiene con los diversos
ecosistemas.
Todos los intentos que realizamos
por definir las inteligencias artificiales se realizan desde una visión
sapiens-céntrica, —y dado el androcentrismo imperante, podemos afirmar que se
trata de una visión andro-sapiens-céntrica—. Esto
supone una negación del resto de inteligencias naturales (Hoffman, 2015). En
2007 Shane Legg y Marcus Hutter llevaron a cabo una investigación que les permitió
recopilar un total de setenta definiciones de inteligencia. Estas fueron
extraídas de diversos ámbitos: definiciones colectivas (diccionarios,
enciclopedias, sitios web), utilizadas en el ámbito de la psicología, o las
referenciadas por investigadores del área de la inteligencia artificial. Los
autores concluyen que es difícil sostener que haya un sentido objetivo que
pueda ser considerado como correcto. No obstante, comparando todas las
definiciones, hay una serie de características compartidas. En primer lugar, es
una propiedad que tiene un agente individual cuando interactúa con el entorno.
En segundo lugar, la inteligencia está relacionada con la capacidad del agente
para tener éxito o sacar provecho con respecto a alguna meta u objetivo. En
tercer lugar, dependería de la capacidad del agente para adaptarse a diferentes
objetivos y entornos. Teniendo en cuenta las características citadas, elaboran
su propia definición de inteligencia. Según su propuesta “La inteligencia mide
la capacidad de un agente para alcanzar objetivos en una amplia gama de
entornos.” (Legg y Hutter,
2007). En la definición proporcionada estaría implícita la capacidad de
aprender, comprender y adaptarse, pues eso es lo que les permite ser exitosos
en entornos diversos. Si ceñimos la
definición al ámbito de la inteligencia artificial podríamos definirla como la
capacidad que tiene un sistema, para alcanzar objetivos en una amplia gama de
entornos.
La algoritmización
hace referencia al proceso de diseño, desarrollo e implantación de algoritmos
que facilitan determinadas tareas mediante el uso de computadoras. El uso de
los algoritmos en computadoras permite que realicen cálculos, tomen decisiones
y procesen grandes cantidades de información de un modo más rápido que el
empleado por humanos. Por su parte, la inteligencia artificial desarrolla
tecnologías que permiten a las computadoras simular el comportamiento humano e,
incluso, expandirlo. El desarrollo de la inteligencia artificial permite el
procesamiento del lenguaje, reconocimiento de patrones, toma de decisiones,
aprendizaje automático y solución de problemas.
La inteligencia artificial se encuentra
presente en nuestras vidas y en nuestras sociedades de diversas formas. Desde
los predictores de texto que completan lo que escribimos cuando hacemos una
búsqueda, los chatbots con los que interactuamos a
través de páginas webs a los asistentes personales —Cortana, Siri, Alexa, Aura se han convertido en nuestras grandes
aliadas—. La algoritmización también ha llegado al
cuerpo. Durante las últimas décadas ha sido redefinido como una entidad
configurada por información (Van der Ploeg, 2007).
Esto permite que los organismos puedan ser percibidos como algoritmos vivos,
erosionándose la frontera entre máquinas y animales (Harari,
2022). Este tipo de planteamientos
representan un giro decisivo a nuestra comprensión ontológica del mundo. Y en
este giro y en esta nueva comprensión, tenemos que estar las mujeres.
Una de las ventajas que presenta la algoritmización de la vida pública es que permite mejorar y
optimizar la difusión de la información en línea. El algoritmo está diseñado
para identificar qué contenido resulta interesante a las personas usuarias de
determinados servicios. Para realizar estos análisis se fija en el tiempo que
invertimos en ver las publicaciones, en los anuncios que desechamos y en los
que nos detenemos, en nuestros likes en redes
sociales, nuestros tweets, nuestros datos biomédicos, las páginas que visitamos
y nuestros hábitos de consumo (desde compras en internet hasta nuestra búsqueda
de productos bancarios). Con toda la información que tienen sobre nosotros
podemos afirmar que el algoritmo nos conoce mejor que nosotras mismas. “Cuando
voy a una librería física, deambulo entre las estanterías y confío en mis
sensaciones para escoger un libro adecuado. Cuando voy a la tienda virtual de
Amazon, aparece inmediatamente un algoritmo que me dice: “sé que libros te
gustaron en el pasado. A personas con gustos similares también les gusta este o
aquel libro”. ¡Maravilloso!” (Harari, 2022:
376).
Los hábitos de navegación, los datos —el
petróleo del siglo XXI (Fernández-Laquetty,
22/05/2020)—, permiten que el algoritmo identifique y conozca los intereses de
determinadas audiencias y con ese conocimiento puede ofrecer servicios,
productos acordes a los necesidades y deseos de esas audiencias. En todo este
intercambio, damos un salto de la programación de algoritmos a la programación
de personas, pues el proceso de anticipación de nuestros intereses es, a la
vez, un condicionamiento, pues se anticipan, también, nuestras propensiones
futuras.
En las formas tradicionales de publicidad,
como puede ser el panfleteo, el buzoneo o los anuncios que aparecen en prensa,
televisión o en las marquesinas de los autobuses, aparece dispersa. Los “anuncios
oscuros” se caracterizan por enviarse a un grupo concreto de personas propensas
a su recepción según un estudio exhaustivo previamente realizado. Uno de los
problemas fundamentales de este tipo de prácticas es que el receptor no posee
la posibilidad de escuchar otro tipo de opiniones. ¿Qué ocurre cuando lo que se
anticipa son ideas políticas? Lo que
sucede es que nuestra capacidad de plantear futuros políticos alternativos está
seriamente amenazada (Amoore, 2020: xi).
Para que la manipulación pase desapercibida,
se necesita el llamado efecto de resonancia: sugerencias suficientemente
personalizadas para cada individuo. De este modo, las tendencias locales se
refuerzan gradualmente mediante la repetición, lo que conduce a la “burbuja de
filtro” o “efecto de cámara de eco”: al final, lo único que puedes obtener son
tus propias opiniones reflejadas. Esto provoca la polarización social, que da
lugar a la formación de grupos separados que ya no se entienden entre sí y se encuentran
cada vez más enfrentados. De este modo,
la información personalizada puede destruir involuntariamente la cohesión
social. En las democracias occidentales, esta ruptura está siendo cada vez más
clara, asistimos a una radicalización y una polarización de los discursos que
hacen imposibles los compromisos políticos (Helbing et
al., 25-02-2017). Estos problemas se ven agravados en aquellos lugares en
los que existe un déficit de estabilidad política y social y pueden ser
utilizados para fomentar la violencia — la ONU denunció el papel determinante
que el uso de Facebook en el genocidio perpetrado contra los rohiyás (Mozur, 15-10-2018) —.
La polarización y radicalización puede
coadyuvar en procesos con altos índices de violencia contra las mujeres y contra
los movimientos feministas. En las
últimas décadas, asistimos a la radicalización de las narrativas misóginas y
antifeministas en las comunidades digitales, fagocitadas en gran medida, por
este tipo de estrategias. La machoesfera sería un ejemplo claro de ecosistema en el que
surgen narrativas radicales contra las mujeres y el feminismo. Dentro de este
ecosistema, merece especial atención la emergencia de los discursos de odio en
la incelosphere (Ávila, 2023; Ging, 2019; Lavin, 2020; RAN,
2021; Van Valkenburgh, 2021).
Los modelos de aprendizaje automático replican
y amplifican estereotipos racistas, sexistas y colonialistas. Junto a estos estereotipos,
encontramos otros sesgos tóxicos como pueden ser las asociaciones
estereotipadas hacia personas con enfermedad mental o diversidad funcional.
Estos estereotipos y sesgos serían legitimados durante el proceso de
aprendizaje automático perpetuando patrones históricos injustos y
discriminatorios (Basta, Costa-Jussà y Casas, 2019;
Bennett et al., 2021; Birhane, 2021; Birhane et al., 2021; Ricaurte, 2019; López Flores,
2022).
La presencia de este tipo de sesgos entra en
conflicto con el acceso a derechos básicos. Dado que los algoritmos de
aprendizaje automático recurren a grandes paquetes estadísticos para recabar
los patrones de datos, los patrones son permeables a los contextos de
desigualdad en los que los datos consultados se producen. Disponemos de una
gran lista de casos en los que los sesgos han estado presentes en las
decisiones algorítmicas incurriendo en discriminación.
La inteligencia artificial que Amazon
incorporó para reclutar a su personal discriminaba a las mujeres. El sistema se
“enseñó a sí mismo” que eran preferibles los candidatos masculinos penalizando
aquellos que incluían la palabra femenino — “capitán de un club de ajedrez
femenino”, o descartando, directamente, candidaturas que provenían de graduadas
de universidades exclusivamente femeninas (Dastin,
11-10- 2018).
Los sistemas de reconocimiento automático de
habla presentan importantes sesgos de género, raciales y étnicos (por no hablar
de los que pueden afectar a las personas con algún tipo de diversidad). Cometen
más errores con hablantes negros que con hablantes blancos
Los sistemas de reconocimiento automático
facial no están exentos de este tipo de sesgos. Joy Buolanwini y Timnit Gebru evaluaron tres sistemas de reconocimiento facial
comerciales: IBM, Microsoft y Face++. Encontraron que
el reconocimiento facial falla, y lo hace, con imágenes de mujeres y con
imágenes de personas racializadas. Según su informe, las mujeres más morenas
presentan los porcentajes de error más elevados para todos los clasificadores
de género, que oscilan entre el 20,8% y el 34,7%. Para los clasificadores de
Microsoft e IBM, los hombres más claros son el grupo mejor clasificado, con
tasas de error del 0,0% y el 0,3%, respectivamente. Estamos ante sistemas de
aprendizaje automático que han sido entrenados con datos sesgados por lo que
tienen un margen de error mínimo cuando lo que tienen que reconocer son hombres
blancos (Buolamwini y Timnit,
2018).
Otro ámbito en el que se han detectado sesgos
de género ha sido en el relacionado con el acceso a servicios financieros, en
concreto en la evaluación de riesgos para concesión de créditos. Dado que lo
que se tiene en cuenta son series de datos estadísticas, aquellos colectivos
que han estado tradicionalmente excluidos de la esfera laboral o aquellos cuyos
ingresos han sido menores, se ven perjudicados.
En 2019, el empresario danés David Heinemeier Hansson publicó un tweet en el que acusaba al algoritmo de
la Apple Card de sexista. El algoritmo consideraba
que Heinemeier merecía 20 veces más crédito que su
mujer. El cofundador de Apple, Steve Wozniak reconoció que el mismo algoritmo le proporcionó 10
veces más crédito a él que a su mujer, pese a tener todos sus bienes
compartidos
Insistiremos durante el trabajo en la
importancia que tiene contar con mujeres en los procesos de diseño y desarrollo
de sistemas de aprendizaje automático. Muchos de los sesgos y problemas
resultarían obvios si se tuviera en los equipos las necesidades y puntos de
vista de las mujeres (Gutiérrez, 2021;
El surgimiento de internet, en
tanto nuevo espacio de comunicación, generó toda una serie de reflexiones de
gran interés. Así, desde finales del siglo pasado asistimos a un debate en el
que se atisban dos claras posturas: teorías utópicas y teorías distópicas. A grandes rasgos, las primeras consideraban que
Internet podría erigirse en un nuevo espacio de comunicación e intercambio a
escala global. Por otro, lado, surgieron teorías distópicas
que alertaban sobre los peligros de Internet como vía de escape y fuente de
aislamiento de la realidad (Núñez, 2008).
Como veremos más adelante, la retórica igualitaria que emerge de estas
teorías utópicas y su apariencia democrática, han dificultado el ejercicio de
la crítica (Prainsack, 2019). Los planteamientos
feministas no tardarán en desarrollar estos debates. Dentro de la postura
utópica podíamos situar el ciberfeminismo de Sadie Plant.
El término ciberfeminismo fue
acuñado por colectivo australiano VNS Matrix en la
primera década de 1990, si bien la Encyclopedia of
New Media de Sage le otorga erróneamente la
maternidad a Sadie Plant (Rackham, 2019). El ciberfeminismo tiene como objetivo “explorar
la construcción del espacio social, la identidad y la sexualidad en el
ciberespacio” (Wajcman, 2006: 99). Uno de los
trabajos pioneros fue Ceros y Unos de Sadie Plant. Se trata de una obra ecléctica, con influencia de
autoras feministas como Luce Irigaray, Monique Wittig y Dona Haraway y con guiños al posestructuralismo francés, en
especial, los análisis de biopolítica de Foucault y Capitalismo y Esquizofrenia
de Deleuze y Guattari. En
esta obra reconstruye la relación entre mujeres y tecnología. Según Plant, “la tecnología es fundamentalmente femenina y no
masculina, como quieren hacernos creer legiones de lumbreras de los
ordenadores, profesores de informática y redactores de la revista Wired” (Galloway, n.d.).
El tecnofeminismo
de Judy Wajcman “se basa en
las ideas del feminismo ciborg, aunque asentándolo firmemente en un enfoque
completamente materialista de los estudios sociales de la tecnología, incluido
su propio papel en dichos estudios. De esta manera, el tecnofeminismo
también ofrece una crítica más concienzuda de los estudios de la tecnología y
de la ciencia dominante”. El tecnofeminismo
realizaría un análisis sobre las relaciones que se producen entre las políticas
sexuales y la tecnología, apartándose del “determinismo tecnológico” que lleva
implícito el ciberfeminismo en los términos planteados por Plant.
“Una política de la tecnología que promueva la emancipación requiere algo más
que hardware y software, requiere wetware –cuerpos,
fluidos y agencia humana–” (Wajcman, 2006: 120).
La solución a la brecha digital y
tecnológica promovida por el feminismo en las décadas de 1970 y de 1980 del
pasado siglo estaba centrada en las mujeres, esto es, en facilitar el acceso de
las mujeres a los ámbitos científicos y tecnológicos. Se consideraba que era un
problema de socialización y de acceso a la educación. Por eso, en la medida que
las mujeres pudieran adoptar el modelo de los hombres su entrada sería un
éxito. Se asumió que la tecnociencia era neutra, que
era objetiva, que no estaba sujeta a sesgos. Las estrategias para promocionar
la igualdad de oportunidades en el ámbito de las ciencias y de la tecnología
tienen un éxito limitado porque no están teniendo en cuenta que “el propio
lenguaje de la tecnología, su simbolismo, son masculinos” (Wajcman,
2006: 28). Aunque las mujeres se encuentran entre las primeras tecnólogas, el
surgimiento de la ingeniería moderna desplazó toda la historia que vincula a
las mujeres con la tecnología. El ingenio femenino se sustituye por las
máquinas masculinas y la ingeniería se convierte en una profesión para varones
de clase media blancos —y, si tenemos en cuenta la experiencia de Alan Turing (Plant, 1998: 101-103), podemos incluir la última
característica, “heterosexual”—. La
redefinición de la masculinidad y feminidad que opera a finales del siglo
pasado afectaría a la relación que éstas mantienen con la tecnología. La
feminidad es redefinida como incompatible con los requisitos tecnológicos y se
construye una frontera de género, clase y raza en torno a la ingeniería.
Cada vez es mayor el número de
mujeres que utiliza ordenadores, paliando, en cierto modo, la primera brecha
digital (referida a uso y acceso). No obstante, pese a este aumento en su uso y
pese a que cada vez son más las mujeres que utilizan Internet, observamos una
división digital en la habilidad para utilizar dicha tecnología. Las mujeres,
deben adquirir competencias para utilizar estos nuevos medios (Castaño, 2008).
Si afirmamos con Wajcman que la brecha digital “produce
nuevas formas de exclusión social” el tecnofeminismo,
siguiendo a Sonia Núñez, tendría entre sus objetivos la promoción de políticas
que permitan reducir las disparidades en el acceso y el uso de los medios
tecnológicos. Pero no se limita a esto, cuestionaría también la manera en la
que las desigualdades de género intersecciona con
otras formas de desigualdad que se manifiestan cuando se analiza el entramado
político-económico en el que surgen y se desarrollan los descubrimientos
tecnológicos (Núñez, 2008).
La última encuesta sobre “Equipamiento
y Uso de Tecnología de Información y Comunicación (TIC) en los hogares (2022)”
(INE, 2022), confirma que en nuestro país acabamos de superar la primera brecha
digital, esto es, la brecha que existe en el acceso a la tecnología (Attewell, 2001). El aumento del uso de internet por parte
de las mujeres es un hecho que desplaza el estereotipo que las situaba en
contraposición a la tecnología (Saiz, Arroyo y Castaño, 2020).
Gráfico 1.
Brecha de género (hombres - mujeres).
Población de 16 a 74 años que ha usado Internet en los últimos tres
meses por edad. Serie 2017-2022 (%)
Fuente: elaboración propia con datos obtenidos del INE (2022).
Pese a los
buenos resultados obtenidos en nuestro país, la brecha de acceso sigue
existiendo en otros lugares del mundo. Según los datos del Foro Económico
Mundial, los hombres tienen un 21% más de probabilidades de acceder a Internet
que las mujeres. Si centramos nuestra atención en los países en vías de
desarrollo, la probabilidad se eleva al 52% (Moore Aoki,
Mar 8, 2022). Además, las mujeres con niveles socioeconómicos bajos
experimentan mayores dificultades para acceder a internet, lo que incrementa de
un modo notable su discriminación.
La
contratación de mujeres en profesiones relacionadas con la Tecnología de la
Información y la Comunicación (TIC) viene profundamente lastrada por la brecha
de género existente en áreas como Ciencia, Tecnología, Ingeniería y Matemáticas
(STEM por su acrónimo en Ingles). Los datos del National
Center for Education Statistics (NCES) muestran que en Estados Unidos el
porcentaje de mujeres graduadas en Ciencias computacionales ha descendido en
los últimos treinta años. (Simonite ,17-8-2018). Se
observa la misma tendencia en nuestro país. El gráfico 2 muestra el descenso
del interés de las mujeres hacia carreras relacionadas con la ciencia de la
computación (Merelo y Merelo,
2017). Según el estudio, la presencia de mujeres en el área de informática no
deja de descender en la mitad de las universidades públicas españolas. El
porcentaje de mujeres, de media, es del 12%. (Merelo
y Merelo, 2017).
Gráfico 2.
Mujeres estudiantes de informática 1985-2017
Fuente:
Merelo y Merelo (2017).
La interpretación de este descenso requiere un enfoque diverso. La UNESCO (2019) propone un modelo
explicativo multifactorial que permite abordar la escasa participación de las
mujeres y niñas en la ciencia. Esta vendría marcada por diferentes factores que
pueden ser agrupados en cuatro niveles: individuales, familiares y pares,
escolar y social (Gráfico 3).
Gráfico 3.
Marco ecológico de factores que influyen en la participación, el rendimiento y
la progresión femenina en los estudios
La revisión y posterior investigación llevada a cabo por Olga Martín,
Elsa Santaolalla e Isabel Muñoz (2022), concluye que
la brecha de género en las STEM se debe a la confluencia de diversos factores
entre los que cabe destacar los relacionados con la percepción identitaria de
quién realiza ciencia, a saber, el prototipo responde a un varón blanco,
centrado en su área de estudio y con dificultades para socializarse. Las niñas y adolescentes no solo no se
ajustan al prototipo, sino, además, cuanto mayor es su grado de conformidad con
los estereotipos atribuidos a las mujeres, menor es su autoconfianza respecto a
su propio desempeño en áreas científicas. Esta imagen prototípica es asumida
por las chicas, pero también, por familias y docentes (Rippon,
2020).
Si la imagen estereotipada de programador (friki, sin habilidades
sociales e incluso siniestro) le resultaba muy lejano a las chicas, la nueva
imagen de programador puede resultar aterradora. Desde hace una década
asistimos a un nuevo prototipo de programador veinteañero, el broprogrammer (bro=hermano, programmer=programador). La versión 2.0 de la vieja
fratría. El término aparece por primera vez en 2012, en un artículo titulado “Entrevistas
Gangbang y fotos en bikini: el problema de los
programadores en el Silicon Valley”. En él Tasneem Raja denuncia las actitudes y conductas sexistas
inherentes al mundo de la programación y de las famosas Starts
Apps
En 2018, Brotopia
se convierte en uno de los libros más polémicos del año al destapar el “lado
oscuro, secreto y orgiástico de Silicon Valley”
Si, como afirma Tasneem Raja
Con motivo del Día Internacional de las Mujeres y de las Niñas en la
Ciencia, Sima Bahous, directora ejecutiva de ONU
Mujeres, afirmó en su declaración que pese a los esfuerzos que se están
realizando solo el 35% de las estudiantes de STEM son mujeres y, lo más
preocupante, solo el 3% estudian TIC (Bahous, February 9, 2023). Estos datos se traducen en una
infrarrepresentación de las mujeres en la Industria 4.0. Según el informe de la
UNESCO, esta industria solo contaría con un 33% de mujeres. La brecha de género
es mucho más profunda en aquellos campos en los que se requieren habilidades
técnicas innovadoras. Así, las mujeres solo tienen una presencia del 14% en
áreas como el Cloud Computing; un 20% en Ingeniería y un 32% en Ciencia de
datos e Inteligencia Artificial (WEF, 2021).
No obstante, es importante advertir sobre la dificultad que supone el
acceso a los datos sobre género y diversidad (Young, Wajcman,
Sprejer, 2021). Por un lado, estamos ante nichos
profesionales novedosos cuyos campos no están del todo definidos. Por otro, la
disponibilidad de los datos requiere de la voluntad de terceros; las cifras han
dejado de ser accesibles cuando la IA ha pasado del ámbito de la investigación
académica a la empresa privada. Para solventar estas dificultades, las
investigaciones recurren a datos de plataformas científicas e investigaciones
que se han llevado a cabo previamente, a los aportados en conferencias o a los
proporcionados por empresas privadas. El Foro Económico Mundial recurre
métricas desarrolladas en colaboración con LinkedIn, Coursera,
Hologic y WTW para analizar la incidencia de estas
tendencias emergentes en la paridad de género.
(WEF, 2022: 32).
Teniendo en cuenta las diversas brechas analizadas, todo parece
indicar que la inminente automatización e incorporación de inteligencia
artificial en el ámbito productivo, incidirá de manera negativa en los empleos
desempeñados por las mujeres. La razón es obvia, el uso de inteligencia
artificial en el ámbito laboral requerirá de profesionales capaces de gestionar
dichos sistemas. Dado el sesgo existente en la formación de competencias
digitales, esto se traducirá en pérdida de oportunidades laborales y salariales
para las mujeres (UNESCO, 2022). La digitalización y adopción de nuevas
tecnologías en el mercado laboral se han acelerado desde la pandemia por
COVID-19, por tanto, es fundamental elaborar estrategias encaminadas a eliminar
las barreras que impiden que las mujeres ocupen su lugar en estos nuevos
escenarios.
¿Qué puede salir mal? preguntaba Monika Sarder (5-6-2020). La aplicación de algoritmos a la toma de
decisiones no es de por sí negativa, ni debería ser problemática. Sin embargo,
cuando se automatizan las tomas de decisiones, no es suficiente con desarrollar
un buen software ni con vigilar los datos que se utilizan. Hay que tener en
cuenta que no se están incluyendo consideraciones éticas que sí tienen en
cuenta las decisiones humanas.
Para ilustrar este aspecto se proponen dos ejemplos de ámbitos en los
que la algoritmización está muy avanzada: salud y
prevención de violencia de género. Se observará que, en ambos casos, los
modelos de inteligencia artificial utilizados reproducen la visión
androcéntrica y desigual que opera en la sociedad y en la ciencia.
Los algoritmos médicos son, algoritmos informáticos que ayudan, por un
lado, a procesar la información médica; de otro, en la toma de decisiones
sanitarias (Hoffman y Podgurski, 2020). Antes de
la pandemia por COVID-19 se comenzó a implementar la inteligencia artificial en
países con grandes listas de espera como China, Inglaterra y Japón. Estos
algoritmos ayudaban a los profesionales a tomar decisiones sobre los casos de
riesgo y priorizar en la asignación de profesionales y pruebas (Axelsen, 15-03-2019). Durante la pandemia la telemedicina o
asistencia sanitaria virtual se convirtió en una herramienta habitual para
pacientes y profesionales sanitarios. Se nos invitaba a instalar aplicaciones
para el control de contagios y acabamos incorporando nuestros datos sanitarios
en nuestros pequeños dispositivos.
La inteligencia artificial se aplica a diferentes áreas y tareas en el
sector sanitario, desde tareas de gestión hasta diagnósticos. A grandes rasgos
encontramos:
- Diagnósticos
asistidos por ordenador: diagnósticos de melanomas a partir de imágenes de
lesiones cutáneas o evaluación de resonancias magnéticas para diagnosticar un
tumor.
- Programas de análisis
predictivo. El objetivo es identificar a pacientes con un alto riesgo de sufrir
patologías antes de que esas patologías se materialicen.
- En el ámbito
de la medicina personalizada permite el ajuste de las dosis adecuadas de
medicación gracias al conocimiento de diferentes variables (peso, sexo,
secuencia genética…).
- Realización
de triajes que priorizan a los pacientes más urgentes
y reducen las listas de espera — El hospital público CHU de Rennes (Francia) ha
reducido el tiempo de espera de las urgencias de traumatología entre un 30-40
aplicando inteligencia artificial (ISANIDAD, 1 de diciembre de 2022)—.
- Aplicaciones
para teléfonos inteligentes que permiten adaptar y prescribir dietas en función
de la información médica de referencia y de los patrones de ejercicio.
Antes de analizar la relación inteligencia artificial, género y salud
hay que poner en primer plano que la medicina adolece de un fuerte
androcentrismo. En 1969 un pequeño grupo denominado “grupo médico”, se reunió
en Boston para expresar la angustia y frustración causada por el sistema médico
en general (Colectiva Mujeres de Boston, 1987). El libro, no sólo resulta un
excelente material sobre sexualidad y salud, resulta también, un ajuste de
cuentas a esa larga tradición de oscurantismo, vergüenza y condena al cuerpo de
las mujeres. Ha pasado medio siglo desde la publicación de Nuestros cuerpos,
nuestras vidas y todavía hoy es uno de los ámbitos en el que es necesario
recordar que el hombre no es la medida de todas las cosas ni es sinónimo de
humanidad. La ciencia no es objetiva, es una construcción social y la ciencia
médica, afirma Carme Valls “ha nacido sesgada porque es androcéntrica, y será
necesario investigar en qué apartados y cómo ha conseguido invisibilizar
a las mujeres y sesgar su aproximación diagnóstica y terapéutica” (Valls, 2006:
151). Este sería el escenario real en el que se plantea la algoritmización.
Nos encontramos ante una nueva dificultad al analizar la triada
género, inteligencia artificial y salud; a saber, la disponibilidad de datos.
Para entrenar a los sistemas de IA se necesitan una gran cantidad de paquetes
estadísticos: desde historiales farmacéuticos, registros médicos, rastreadores
de actividad, seguros —dejamos de lado otro gran tema, el de la protección de
nuestros datos de salud —. El problema de recurrir a los paquetes de datos
estadísticos y a las grandes series históricas es que importamos sesgos,
entrenamos a la inteligencia artificial con datos que están sesgados. De la
misma manera que los sistemas de reconocimiento facial y los de reconocimiento
de voz han demostrado fallar ante determinados grupos (mujeres, minorías étnicas,
personas racializadas) porque se encontraban infrarrepresentados en los grupos
de entrenamiento, los sistemas de diagnóstico pueden mostrar sesgos de diverso
tipo si no se tiene en cuenta la diversidad en su entrenamiento.
Los sesgos en los datos reflejan a menudo desequilibrios profundos y
ocultos en las infraestructuras institucionales y las relaciones sociales de
poder
Resulta, además, imperativo analizar qué se entiende por “eficiencia”.
Desde un marco de interpretación neoliberal, como en el que nos encontramos, es
fácil apelar sólo a criterios económicos —rapidez en el procesamiento de la
información y ahorro de mano de obra—. La aplicación de la inteligencia
artificial al ámbito sanitario debe tener en cuenta otras variables de cara a
no seguir reproduciendo injusticias y sesgos que, pueden traducirse en un coste
de vidas.
En 2020 Phumzile Mlambo-Ngcuka,
directora ejecutiva de ONU Mujeres, se refería a la violencia contra las
mujeres como una pandemia en la sombra (Mlambo-Ngcuka,
6-04-020). La declaración ponía en
primer plano los 253 millones de mujeres y niñas de entre 15 y 49 años que,
durante los doce meses anteriores a la pandemia, habían sufrido violencia por
sus parejas y exparejas. Desde que la
violencia contra las mujeres se reconoce como un fenómeno estructural (ONU,
1993), los organismos supranacionales instan a los gobiernos a trabajar por su
erradicación. De este modo, la eliminación de la violencia contra las mujeres
ha pasado a formar parte de las agendas políticas de la mayoría de los
gobiernos democráticos (con desigual compromiso y con desigual resultado). Si
la introducción de algoritmos en la toma de decisiones políticas y sociales
permite optimizar las respuestas, aumentando la eficacia y la rapidez de
soluciones, resulta lógico que los gobiernos, en su compromiso por erradicar la
violencia contra las mujeres, introduzcan el aprendizaje automático en sus
estrategias de protección a las víctimas. Es el caso de VioGén
en España.
En 2007, siguiendo lo establecido por la Ley Orgánica 1/2004 de 28 de
diciembre, se pone en funcionamiento el Sistema de Seguimiento Integral de los
casos de Violencia de Género, conocido por sus siglas como VioGén.
Entre sus objetivos está la nada fácil tarea de hacer una predicción de riesgo
y en función de este, realizar un seguimiento y ofrecer protección a las
víctimas (Ministerio del Interior, n.d). Se trata de
un sistema pionero a nivel mundial, que ha ido evolucionando y sometiéndose a
revisiones constantes.
La auditoría externa realizada por la Fundación Éticas ha puesto de
manifiesto lo que desde algunas organizaciones feministas y de atención a las
víctimas se sospechaba. El sistema de predicción de riesgo está fallando y lo
hace porque los datos que utiliza el sistema algorítmico para predecir la
situación de riesgo son pobres o sesgados.
En primer lugar, el formulario de la entrevista, el VRP (Valoración de
Riesgo Policial de Violencia contra la Víctima) es un cuestionario rígido y
genérico que no permite que las víctimas se expliquen. Las respuestas dependen
de la interpretación de los agentes de policía, lo que puede dar lugar a
tergiversación, en especial cuando los profesionales no tienen formación en
violencia de género. El momento en el que se realiza la entrevista es cuando la
mujer presenta la denuncia —esto es, en el momento en el que la mujer es más
vulnerable—. A esto hay que sumarle la
ambigüedad de algunas preguntas o la dificultad para comprender las
mismas.
En función de la información extraída en el VRP, el sistema asigna un
nivel de riesgo: riesgo no apreciado, bajo, medio, alto o extremo. Estos
niveles de riesgo pueden ser modificados al alza por los agentes, no obstante,
según el informe de la Fundación Éticas, el 95% de los agentes de policía no
modificaron la valoración de riesgo propuesta por el sistema (Fundación Éticas,
8-3-2022).
Tras el repunte de violencia de género que estamos experimentando en
nuestro país —desde el 1 de diciembre de 2022 hasta el 31 de mayo de 2023,
ascienden a 31 el número de mujeres víctimas mortales— es importante
comprometerse para que todas las herramientas que pongamos a disposición para
proteger a las víctimas funcionen correctamente. Según los datos disponibles en
el portal estadístico de la Delegación del Gobierno contra la Violencia de
Género del Ministerio de Igualdad de los 11 asesinatos que ocurrieron en
diciembre de 2022, seis habían interpuesto una denuncia contra su agresor
(Gráfico 4). Durante el año 2022 y lo que llevamos de 2023 el 35% de las
víctimas mortales por violencia de género habían interpuesto una denuncia. ¿Podemos
dejar en manos del algoritmo decisiones tan complejas como la evaluación de
riesgo de las mujeres víctimas de género?
Gráfico 4.
Número de mujeres víctimas mortales por violencia de género con y sin denuncia (2022-2023).
Datos absolutos
Fuente:
elaboración propia con datos de la Delegación del Gobierno contra la Violencia
de Género del Ministerio de Igualdad. Ministerio de Igualdad. Actualizado el
31-05-2023.
Según Andrés Pueyo,
activo colaborador en la implantación del sistema VioGén.
es prácticamente imposible predecir el asesinato, precisamente porque es tan
poco frecuente que se convierte en no predecible (Kohan,
09-01-2023). Por otro lado, el porcentaje de denuncia, pese a estar aumentando
en los últimos años, es relativamente bajo. Sólo el 21% de las mujeres
asesinada desde 2003 hasta la actualidad habían presentado denuncia (Gráfico
5). Los datos que se utilizan para perfeccionar el sistema de evaluación de
riesgo provienen de los datos de las denuncias.
Gráfico
5.
Número de mujeres víctimas mortales según denuncia 2003-2023 (31-05-2023)
Fuente:
elaboración propia con datos de la Delegación del Gobierno contra la Violencia
de Género del Ministerio de Igualdad. Ministerio de Igualdad. Actualizado
31-05-2023.
El gran desafío no parece estar en la
inteligencia artificial, sino en los datos y entrenamiento que se le está
proporcionando; si los datos suministrados están sujetos a interpretación
humana, el reto pendiente sigue siendo la formación de los profesionales que
atienden a las mujeres.
Es fundamental que en todos estos procesos
prime la cautela y se tenga en cuenta que el algoritmo no se ajusta a la
realidad. No es posible aplicar reglas únicas a problemas complejos
En las últimas décadas presenciamos profundos cambios tecnológicos que
involucran todas las facetas de nuestra vida. Ninguna de las revoluciones
anteriores ha sido tan rápida y ha provocado cambios tan profundos como los que
estamos observando con la llegada de la cuarta revolución industrial. Estas
transformaciones afectan a aspectos fundamentales de nuestra identidad
individual y colectiva que van más allá de nuestra capacidad de adquirir nuevas
habilidades profesionales y personales. A corto y medio plazo estas
transformaciones nos invitan a repensar qué tipo de sociedades estamos
construyendo e incluso a redefinir lo que entendemos por humanidad. Desde el
feminismo tenemos que estar atentas a estas redefiniciones.
En la primera parte del artículo, se analiza la necesidad de despertar
del sueño dogmático, del sonambulismo tecnológico en el que nos encontrábamos.
El exceso de entusiasmo nos ha hecho olvidar que la ciencia y la tecnología son
androcéntricas. La tecnología, en general, y los modelos de aprendizaje son
portadores de sesgos y estereotipos de género. Por tanto, es importante que la
teoría critica feminista incorpore en sus análisis este tipo de cuestiones.
Dada la saturación de significados de los términos en juego, por su
omnipresencia en el debate público, en la segunda parte del trabajo se
explicitan los términos involucrados. Se insiste en uno de los riesgos de la algoritmización de la esfera pública, la polarización como
coadyuvante en el aumento y propalación de discursos misóginos y
antifeministas.
En la tercera parte del artículo, se analiza la urgencia de incluir a
las mujeres en los procesos de aprendizaje automático para evitar los sesgos y
estereotipos de género. La tarea no es sencilla, sobre todo si se tiene en
cuenta las reticencias de las mujeres a incorporarse a las STEM y la cronificada brecha de género en la tecnología.
El debate teórico sobre la relación de mujeres y tecnología no es
nuevo. A finales del XX el ciberfeminismo pone en el centro del debate la
cuestión. Las brechas tecnológicas atisbadas entonces, siguen siendo objeto de
interés en nuestros días. La ausencia de mujeres en la tecnología genera nuevas
formas de exclusión e ir cerrando estas brechas se convierte en un tema
prioritario de la agenda feminista. La
falta de diversidad en los equipos dificulta que se tenga en cuenta una mirada
plural en la definición de los procesos. Si a esto le unimos la presencia de
sesgos en los datos procesados por los algoritmos ¿qué puede salir mal?
Se han analizado dos ámbitos en los que la algoritmización
está muy avanzada: salud y prevención de violencia de género. Hemos visto que,
en ambos casos, la desigualdad existente en la sociedad y la visión
androcéntrica de la ciencia y de la realidad, alimentan los datos con los que
aprenden los sistemas de aprendizaje automático. Es importante detectar a tiempo
los sesgos para evitarlos; contrarrestar los datos que pueden reproducir sesgos
en la aplicación de los algoritmos. Para
detectar a tiempo estos sesgos, insistimos en la importancia de incorporar
mujeres, de incluir la diversidad en los equipos de trabajo, de ampliar la
mirada.
Amoore, Louise (2020): Altorithms and the attributes of ourselves and others. Durham: Duke University Press.
Attewell, Paul (2001): “The First and Second Digital
Divides”. En: Sociology of Education, vol. 74, nº. 3, pp. 252-259. Disponible en: https://www.learntechlib.org/p/95037/ [01/06/2023].
Australian Associated Press (2017): “Computer says no: Irish vet fails oral English test needed to stay in Australia”. En:
The Guardian,
8 de agosto. Disponible en: https://www.theguardian.com/australia-news/2017/aug/08/computer-says-no-irish-vet-fails-oral-english-test-needed-to-stay-in-australia [01/06/2023].
Ávila Bravo-Villasante,
María (2023): “Radicalización violenta y misoginia extrema: Narrativas
antifeministas en la manosphere”. En: Global Media Journal
México, nºº. 20, pp. 1–17. Disponible en: https://doi.org/10.29105/gmjmx20.38-485 [02/06/2023].
Axelsen, Amelia (2019): “Hospitals
are using AI to slash wait times and solve doctor shortages”. En: Apolitical, 15 de marzo. Disponible en https://apolitical.co/solution-articles/en/hospitals-are-using-ai-to-slash-wait-times-and-solve-doctor-shortages [01/06/2023].
Bahous, Sima (2023): “Statement:
Building a future of scientific progress and gender equality” En: UN WOMEN,
9 de febrero. Disponible en: https://www.unwomen.org/en/news-stories/statement/2023/02/statement-building-a-future-of-scientific-progress-and-gender-equality
[01/06/2023].
Bardon, Agnès (2021): Nuestras
invitadas: “Hay que educar a los algoritmos”. En: El Correo De La UNESCO,
2020, vol. 2020, nº. 4, pp. 42-45. Disponible en: https://doi.org/10.18356/22202315-2020-4-13 [01/06/2023].
Basta, Christine; Costa-Jussà,
Marta R. y Casas, Noe (2019): “Evaluating
the Underlying Gender Bias in Contextualized Word Embeddings”.
En: Marta R. Costa-jussà, Christian Hardmeier, Will Radford y Kellie Webster (eds.): Proceedings of
the First Workshop on Gender Bias
in Natural Language Processing.
Florence, Italy: Association
for Computational Linguistics, pp. 33–39.
Bellver, José (2019): “Costes y restricciones ecológicas al
capitalismo digital”. En: Papeles de relaciones ecosociales
y cambio global nº. 144, pp. 59-79. Disponible en: https://www.fuhem.es/papeles_articulo/costes-y-restricciones-ecologicas-al-capitalismo-digital/ [01/06/2023].
Bennett, Cynthia L. et al. (2021): “‘It’s Complicated’: Negotiating Accessibility and
(Mis)Representation in Image
Descriptions of Race, Gender, and Disability”. En: Proceedings of the 2021
CHI Conference on Human Factors in Computing Systems
(Yokohama, Japan) (CHI ’21): Association
for Computing Machinery, New
York, NY, USA, nº. 375, pp.1-19 Disponible en: https://doi.org/10.1145/3411764.3445498 [01/06/2023].
Birhane, Abeba (2021): “Algorithmic
Injustice: A Relational Ethics Approach”. En: Perspective, 12 de febrero, vol. 2. pp.1-9. Disponible en: https://doi.org/10.1016/j.patter.2021.100205 [01/06/2023].
Birhane, Abeba; Prabhu, Vinay Uday y Kahembwe,
Emmanuel (2021): Multimodal datasets: misogyny, pornography, and malignant stereotypes. En:
arXiv:2110.01963v1 [cs.CY], en 5 de octubre. Disponible en: https://doi.org/10.48550/arXiv.2110.01963 [01/06/2023].
Brynjolfsson, Erik y McAfee, Andrew (2014): The
Second Machine Age. Work, Progress, and Prosperity in a Time of Brilliant
Technologies. Nueva York: W. W. Norton & Company.
Buolamwini, Joy y Gebru Timnit (2018): Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. En: Proceedings of Machine Learning
Research vol. 81, pp.1–15. Conference
on Fairness, Accountability, and Transparency.
Disponible en https://proceedings.mlr.press/v81/buolamwini18a.html [01/06/2023].
Castaño Callado, Cecilia (2008): “Nuevas tecnologías
y género. La segunda brecha digital y las mujeres”. En: Telos:
Cuadernos de Comunicación, Tecnología y Sociedad vol. 75, pp: 24-33.
Chang, Emily (2018): Brotopia:
Breaking Up the Boys' Club of Silicon Valley. Nueva
York: Portfolio.
_____. (2018): “Oh My God, This Is
So F---ed Up”: Inside Silicon Valley’s Dark Side”. En: Vanity Fair, el 2
de enero. Disponible: https://www.vanityfair.com/news/2018/01/brotopia-silicon-valley-secretive-orgiastic-inner-sanctum [09/03/2023].
Colectiva Mujeres de Boston (1987): Nuestros
cuerpos, nuestras vidas. Cali: Colectivo de Mujeres de Cali y Asociación
Artística La Cuchilla.
Dastin, Jeffrey (2018): “Amazon scraps
secret AI recruiting tool that showed
bias against women”. En: Reuters, 8 de marzo. Disponible
en: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G [09/03/2023].
Fernández-Lasquetty
Quintana, Javier (2020): “Los datos son el petróleo del siglo XXI”. En: The Conversation,
22 de mayo. Disponible en: https://theconversation.com/profiles/javier-fernandez-lasquetty-quintana-1036288/articles [09/03/2023].
Fundación Éticas (2022): “Auditoría externa del
sistema VioGén”. En: Fundación Éticas y Fundación
Ana Bella. Red de Mujeres Supervivientes, 8 de marzo. Disponible en: https://eticasfoundation.org/wp-content/uploads/2022/04/ETICAS-_-Auditori%CC%81a-Externa-del-sistema-VioGe%CC%81n-_-20220308.docx.pdf [09/03/2023].
Gallego Trijueque, Sara
and Oliva Marañón, Carlos (2022): La cuarta revolución industrial:
Transformación digital como nuevo paradigma. En: Signo y Pensamiento, nº.
41. Disponible: https://doi.org/10.11144/Javeriana.syp41.crit [09/03/2023].
Galloway, Alex (n.d.): “A Report on Cyberfeminism
Sadie Plant relative to VNS Matrix” En: Switch. Electronic Gender. Art at the Interstice. Disponible en: https://vnsmatrix.net/wordpress/wp-content/uploads/a-report-on-cyberfeminism-sadie-plant-relative-to-vns-matrix-alex-galloway-switch-journal-issue-9-june-14-1998-online-journal.pdf [09/03/2023].
García, Eva. C., y Calvo, Encina (2022):
“Perspectiva de género en Inteligencia Artificial, una necesidad”. En: Cuestiones
de género: de la y la diferencia, nº. 17, pp. 111–127. Disponible en: https://doi.org/10.18002/cg.i17.7200 [09/03/2023].
Ging, Debbie (2019): “Alphas, betas, and incels: theorizing the masculinities of the manosphere”. En: Men
and Masculinities, nº. 22, pp:
638-657. Disponible en: https://doi.org/10.1177/1097184X17706401 [09/03/2023].
Gutiérrez, Miren (2021): “Algorithmic
Gender Bias and Audiovisual
Data: A Research Agenda”. En: International Journal
of Communication, nº. 15, pp. 439-461. Disponible
en: https://ijoc.org/index.php/ijoc/article/view/14906/3333 [09/03/2023].
Hamilton, Isobel Asher (2019): “Apple cofounder
Steve Wozniak says Apple Card offered his
wife a lower credit limit”. En: Business Insider, 11 de noviembre. Disponible en: https://www.businessinsider.com/apple-card-sexism-steve-wozniak-2019-11 [09/03/2023].
Harari, Yuval Noah (2022): Homo
Deus. Breve historia del mañana. Barcelona: Debate.
Isanidad (1 de diciembre de 2012): “La inteligencia
artificial puede reducir hasta un 40% los tiempos de espera en urgencias de
traumatología”. En: Isanidad. Disponible en: https://isanidad.com/232698/la-inteligencia-artificial-puede-reducir-hasta-un-40-los-tiempos-de-espera-en-urgencias-de-traumatologia/ [09/03/2023].
INE (2022): “Encuesta sobre Equipamiento y Uso de
Tecnologías de la Información y Comunicación en los Hogares”. En: Instituto
Nacional de Estadística. Disponible en: https://www.ine.es/dyngs/INEbase/es/operacion.htm?c=Estadistica_C&cid=1254736176741&menu=ultiDatos&idp=1254735976608 [09/03/2023].
Helbing, Dirk et al.
(2017): “Will democracy survive big data and artificial intelligence?”. En: Scientific American. 25 de febrero. Disponible en: https://www.scientificamerican.com/article/will-democracy-survive-big-data-and-artificial-intelligence/ [09/03/2023].
Hicks, Mar (2013): “De-Brogramming
the History of Computing [Think Piece]”. En: IEEE Annals
of the History of Computing,
nº. 35, pg. 88. Disponible en: https://ieeexplore.ieee.org/document/6502624 [09/03/2023].
Hoffman, Donald (2015): “Evolving
AI. Edge 2015: What do you think about
machines that think?” En: Edge.org.
Disponible en: http://bit.ly/3ZRxzr7
[09/03/2023].
Hoffman, Sharona y Podgurski, Andy (2020): “Artificial Intelligence
and Discrimination in Health
Care”. En: Faculty
Publications, nº. 19. Disponible en: https://scholarlycommons.law.case.edu/faculty_publications/2098 [09/03/2023].
Knight, Will (2019): “The Apple Card Didn't 'See' Gender—and
That's the Problem”. En: WIRED, 19 de noviembre. Disponible: https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/ [09/03/2023].
Kohan, Marisa (2023): “Viogén,
una herramienta necesaria pero insuficiente para poner fin a los asesinatos por
violencia de género”. En: Público, 9 de enero. Disponible en: https://www.publico.es/mujer/viogen-herramienta-necesaria-insuficiente-poner-asesinatos-violencia-genero.html [09/03/2023].
Koenecke, Alison et al. (2020): “Racial disparities in automated speech recognition”. En: Proceedings of the National Academy of Sciences, nº. 117 pp. 7684-7689. Disponible en: https://doi.org/10.1073/pnas.1915768117 [09/03/2023].
Lavin, Talia (2020): La
cultura del odio. Un periplo por la dark web de la
supremacía blanca. Madrid: Capitán Swing.
Legg, Shane y Hutter, Marcus (2007): “A collection
of definitions of intelligence”.
En: Frontiers
in Artificial Intelligence and applications,
nº. 157, pp. 17-54. Disponible en: https://doi.org/10.48550/arXiv.0706.3639 [01/06/2023].
López Flores, Luis Moisés (2022): “Colonialdad algorítmica: Racialización y sexualización
mecanizada en el capitalismo digital: Una perspectiva de género”. En: Revista de Cultura Digital y Movimientos
Sociales, nº. 19, pp. 231-239. Disponible: http://dx.doi.org/10.5209/TEKN.78681 [09/03/2023].
López
Iñesta, Emilia et al. (2020): “Towards breaking the Gender Gap in Science”, Technology, Engineering and Mathematics.
En: IEEE Revista
Iberoamericana de tecnologías del Aprendizaje, vol. 15, nº. 3 pp. 233-241.
Disponible en: http://dx.doi.org/10.1109/RITA.2020.3008114 [01/06/2023].
Martín Carrasquilla, Olga; Santaolalla
Pascual, Elsa y Muñoz San Roque, Isabel (2022): “La brecha de género en
educación STEM”. En: Revista de educación nº. 396, pp. 151-175.
Merelo Guervós, Juan Julián y
Melero Molina, Cecilia (2017): “Evolución de la Matrícula Femenina en el Grado
de Informática en Universidades Públicas Españolas; Technical
Report”. En: GeNeura.
Disponible en: http://dx.doi.org/10.13140/RG.2.2.19608.08969 [02/06/2023].
Merelo Guervós, Juan Julián; Melero Molina, Cecilia (2017):
“Evolución de la Matrícula Femenina en el Grado de Informática en Universidades
Públicas Españolas; Technical Report”.
En: GeNeura. Disponible en: http://dx.doi.org/10.13140/RG.2.2.19608.08969 [02/06/2023]
Ministerio del Interior (n.d.):
“Sistema VioGén. Ministerio del Interior”. Disponible
en: http://bit.ly/3m8lwWX [09/03/2023].
Mlambo-Ngcuka, Phumzile (2020):
“Violencia contra las mujeres: la pandemia en la sombra”. En: ONU MUJERES,
6 de abril. Disponible en: http://bit.ly/3hVW3ht [09/03/2023].
Moore Aoki, Ayumi (2022) “The digital economy. How to close the digital gender divide and empower women”. En: World Economic Forum, 8 de
marzo. Disponible en: https://www.weforum.org/agenda/2022/03/how-to-close-digital-gender-divide/ [09/03/2023].
Mozur, Paul (2018): “A Genocide
Incited on Facebook, With Posts From
Myanmar’s Military”.
En: The
New York Times, 15 de octubre. Disponible
en: https://www.nytimes.com/2018/10/15/technology/myanmar-facebook-genocide.html [09/03/2023].
Nicholson Price II, William (2017): “Regulating
black-box medicine”. En: Michigan Law Review, nº. 116, pp.
421-474. Disponible en: https://repository.law.umich.edu/mlr/vol116/iss3/2/ [03/03/2023].
Núñez Puente, Sonia (2008): “Una exploración de la
praxis feminista en España: nuevas tecnologías y nuevos espacios de relación
desde el ciberfeminismo”. En: Feminismo/s, nº. 11, pp. 109-123.
Disponible en: http://dx.doi.org/10.14198/fem.2008.11.07 [03/03/2023].
ONU - Organización de Naciones Unidas (1993): Declaración
sobre la eliminación de la violencia contra las mujeres (Res. AG/48/104).
Naciones Unidas.
Plant, Sadie (1998): Ceros y
Unos. Mujeres digitales y la nueva tecnocultura. Barcelona:
Destino.
Prainsack, Barbara (2019): “Data Donation: How to Resist the iLeviathan
en J. Krutzinna”, En: Luciano Floridi
(ed.): The Ethics
of Medical Data Donation, Philosophical
Studies Series nº. 137. Disponible en: https://doi.org/10.1007/978-3-030-04363-6_2 [03/03/2023].
Rackham, Melinda (2019): “Manifiesto”. En; Remedios Zafra y
Teresa López-Pellisa (eds.): Ciberfeminismo. De
VNS MATRIX a Laboria Cuboniks.
Barcelona: Holobionte, pp. 45-49.
Radicalisation Awareness Network – RAN
(2021): Incels: a first
scan of the phenomenon (in the EU) and its relevance and challenges for P/CVE. Publications Office of the European Union. Disponible en: https://home-affairs.ec.europa.eu/whats-new/publications/incels-first-scan-phenomenon-eu-and-its-relevance-and-challenges-pcve-october-2021_en [03/03/2023].
Raja, Tasneem (2012): “‘Gangbang Interviews” and “Bikini Shots’:
Silicon Valley’s Brogrammer Problem”. En: Mother
Jones, 26 de abril. Disponible en https://www.motherjones.com/media/2012/04/silicon-valley-brogrammer-culture-sexist-sxsw/
[03/03/2023].
Ricaurte, Paola (2019): “Data Epistemologies,
The Coloniality of Power, and Resistance”. En: Television & New Media, nº. 20, pp.
350–365. Disponible: https://doi.org/10.1177/1527476419831640 [03/03/2023].
Rippon, Gina (2020): El género y nuestros cerebros. La
nueva neurociencia que rompe el mito del cerebro femenino. Barcelona: Galaxia
Gutenberg.
Sainz, Milagros; Arroyo, Lidia y Cecilia Castaño
(2020): Mujeres y digitalización. De las brechas a los algoritmos. Madrid: Instituto
de la Mujer y para la Igualdad de Oportunidades. Disponible en: https://www.inmujeres.gob.es/diseno/novedades/M_MUJERES_Y_DIGITALIZACION_DE_LAS_BRECHAS_A_LOS_ALGORITMOS_04.pdf [03/03/2023].
Sarder, Monika (2020): “From robodebt to racism: what can go wrong when
governments let algorithms make the decisions”. En: The Conversation, 8
de junio. Disponible en http://theconversation.com/from-robodebt-to-racism-what-can-go-wrong-when-governments-let-algorithms-make-the-decisions-132594 [03/03/2023].
Schwab, Klaus. (2017): La cuarta revolución
industrial. Barcelona: Debate.
Simonite, Tom (2018): “AI Is the Future—But
Where Are the Women?” En: WIRED, 17 de agosto. Disponible en: https://www.wired.com/story/artificial-intelligence-researchers-gender-imbalance/ [03/03/2023].
Tatman, Rachael (2016): “Google’s speech recognition has a gender bias”. En: Making noise and hearing things, 12 de julio. Disponible en: https://makingnoiseandhearingthings.com/2016/07/12/googles-speech-recognition-has-a-gender-bias/ [05/05/2023].
The Associated Press (2022): “Oregon is dropping an
artificial intelligence tool
used in child welfare system”. En: National Public Radio, 2 de julio. Disponible en: https://www.npr.org/2022/06/02/1102661376/oregon-drops-artificial-intelligence-child-abuse-cases [03/03/2023].
Tiu, Ekin, et al., (2022):
“Expert-level detection of pathologies from unannotated chest X-ray images via
self-supervised learning”.
En: Nature Biomedical
Engineering, nº. 6, pp. 1399–1406. Disponible en:
https://www.nature.com/articles/s41551-022-00936-9 [03/03/2023].
UNESCO (2019): “Descifrar el Código: LA educación de
las niñas y las mujeres”. En: Ciencias, tecnología, ingeniería y matemáticas
(STEM): UNESCO Publishing. Disponible en https://unesdoc.unesco.org/ark:/48223/pf0000366649 [03/03/2023].
_____. (2021): “Science Report: The Race Against Time for Smarter Development”.
En: Susan Schneegans, Tiffany Straza y Jake Lewis (eds): UNESCO Publishing.
Disponible en https://unesdoc.unesco.org/ark:/48223/pf0000377250 [03/03/2023].
_____. (2022): “Los efectos de la IA en la vida
laboral de las mujeres”. En: Clementine Collett, Gina Neff y Livia Gouvea Gomes (eds.): UNESCO Publishing. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000380871 [03/03/2023].
Van der Ploeg, Irma
(2007): “Genetics, biometrics
and the informatization of the body”. En: Annali dell'Istituto superiore di sanita, vol. 43, nº. 1, pp:44-50.
Disponible en: https://pubmed.ncbi.nlm.nih.gov/17536153/ [05/05/2023].
Van Valkenburgh, Shawn. P. (2021): “Digesting the Red Pill: Masculinity
and Neoliberalism in the Manosphere”. En: Men and Masculinities,
vol. 24, nº. 1, pp. 84-103. Disponible en https://doi.org/10.1177/1097184X18816118 [05/05/2023].
Valls Llobet, Carme
(2006): Mujeres invisibles. Barcelona: Debolsillo.
Wajcman, Judy (2006): El tecnofeminismo. Madrid: Ediciones Cátedra.
WEF (2021): Global Gender
Gap Report 2021. World Economic Forum. Disponible en: https://www.weforum.org/reports/global-gender-gap-report-2021/ [05/05/2023].
_____. (2022): Global Gender
Gap Report 2022. World Economic Forum. Disponible en: https://www.weforum.org/reports/global-gender-gap-report-2022/ [05/05/2023].
Winner, Langdon (2008): La
ballena y el reactor una búsqueda de los límites en la era de la alta
tecnología. Barcelona: Gedisa.
Young, Erin; Wajcman, Judy y Sprejer, Laila, (2021): “Where are the Women?
Mappingthe Gender Job Gap
in AI. Policy Briefing:
Full Report”. En: The
Alan Turing Institute. Disponible en: https://www.turing.ac.uk/research/research-projects/women-data-science-and-ai [05/05/2023].
Zou, James y Schiebinger, Londa (2018): “AI can be sexist
and racist — it’s time to make it fair”.
En: Nature, nº. 559, pp:
324-326. Disponible: https://doi.org/10.1038/d41586-018-05707-8 [05/05/2023].
[1] El “gang bang” es una práctica de
sexo grupal que ha sido popularizada a través de la industria del porno. En
estas representaciones normalmente una mujer, realiza prácticas sexuales con
diversos hombres.