
Provincia: con el desempate de Magario, el Senado aprobó las reelecciones indefinidas
Provincia: con el desempate de Magario, el Senado aprobó las reelecciones indefinidas
Ya la trasladaron a Ezeiza: la contadora se quedó sin domiciliaria
Una docente de una escuela de Gorina denunció a madres por agresiones
La jueza Makintach renunció para evitar el jury y la quieren ver presa
$2.000.000: el Súper Cartonazo quedó vacante y aumenta el pozo
Rechazan un planteo de Cristina y el Estado le reclama $22.500 millones
Con chicanas cruzadas por Cristina, el Concejo local retoma las sesiones
Globant, el unicornio con raíces platenses, despide a mil empleados
La venta de inmuebles subió 25% en un año, pero bajó en el mes
Actividades: café literario, fiesta del sol, folclore, taekwondo, odontología gratis
Una sentencia puso de relieve la crisis de las entidades platenses de bien público
Los desafíos de viajar a través de una app en tiempos de violencia
Una sentencia puso de relieve la crisis de las entidades platenses de bien público
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Cada vez está más presente en la cotidianidad, desde editar una foto a dictarle al teléfono o automatizar algún proceso laboral u hogareño. Los problemas más graves, en detalle
El reconocimiento facial puede ser un problema / Freepik
En un mundo que se vanagloria de los avances tecnológicos como motores del progreso, la Inteligencia Artificial (IA) se ha instalado en el centro de nuestras vidas cotidianas, facilitando tareas y optimizando procesos que hace apenas una década nos habrían parecido ciencia ficción. Sin embargo, en esta cruzada hacia un futuro hiperconectado y automatizado, una serie de sombras se ciernen sobre la promesa de igualdad que la tecnología prometía. Detrás de las pantallas de nuestros dispositivos, los algoritmos no son tan imparciales como creemos, y lejos de democratizar el acceso a oportunidades, en muchos casos perpetúan los mismos sesgos y desigualdades que históricamente han marcado nuestras sociedades.
El reconocimiento facial es uno de los ejemplos más escandalosos. En 2019, un informe del Instituto Nacional de Normas y Tecnología de los Estados Unidos (NIST) desnudó una realidad alarmante: los sistemas de reconocimiento facial utilizados por gobiernos y empresas tenían tasas de error significativamente más altas al identificar a personas negras y asiáticas en comparación con individuos de piel blanca. En un contexto donde estas herramientas son utilizadas para tareas tan sensibles como la seguridad y la vigilancia, los errores no son simples fallos técnicos. Son vidas impactadas, son oportunidades perdidas y, en casos extremos, son detenciones injustas. En países donde la policía se apoya en estos sistemas para identificar sospechosos, el margen de error no solo refleja una falla en el software, sino un fallo moral en el diseño y entrenamiento de estas herramientas.
Pero este no es un problema aislado. Cuando Amazon intentó automatizar su proceso de selección de personal utilizando IA, pronto descubrió que su sistema penalizaba automáticamente los currículums que incluían términos relacionados con mujeres, como “capitana” de un equipo deportivo. El sesgo no era un capricho del software, sino el resultado de entrenar a la IA con datos históricos que reflejaban una industria tech dominada por hombres. Así, la tecnología, en lugar de corregir los prejuicios, los amplificó. Si en la era analógica los prejuicios quedaban a merced de la subjetividad humana, en la era digital son perpetuados por algoritmos que actúan con la frialdad de los datos, pero no con la comprensión del contexto.
No se trata solo del ámbito laboral. Las plataformas de publicidad en línea, que deciden qué anuncios mostrar a cada usuario, también han sido acusadas de reforzar estereotipos. Investigaciones recientes revelan que los algoritmos tienden a excluir a mujeres y minorías de anuncios de empleos mejor remunerados, reservando esas oportunidades para un público mayoritariamente masculino y blanco. ¿El resultado? Un ciclo de exclusión que, lejos de romperse, se retroalimenta. En lugar de nivelar el terreno, las plataformas digitales están construyendo muros invisibles que segmentan y marginan, limitando las oportunidades para aquellos que ya enfrentan barreras estructurales.
Los sesgos afectan a quienes buscan trabajo o quieren ser reconocidos por una cámara de seguridad
LE PUEDE INTERESAR
Belgrano: encanto y naturaleza
LE PUEDE INTERESAR
Buenos Aires: cómo recorrer la ciudad en city bus
Los sesgos no solo afectan a quienes buscan trabajo o quieren ser reconocidos por una cámara de seguridad. Incluso en algo tan trivial como los asistentes de voz, la tecnología refuerza estereotipos de género. Siri, Alexa y Google Assistant, los asistentes más populares, han sido programados con voces femeninas y un tono servicial que refuerza la idea de que la mujer está destinada a ser complaciente. Esta representación, aunque pueda parecer inofensiva, contribuye a perpetuar un imaginario social que ya de por sí nos cuesta erradicar.
Las aplicaciones de citas, tan populares en la actualidad, no son inmunes a esta problemática. Aunque muchas personas ven en estas plataformas una oportunidad para conocer a su próxima pareja, los algoritmos que deciden qué perfiles mostrarnos están plagados de sesgos raciales. Estudios demuestran que los usuarios no blancos tienen menos probabilidades de recibir “matches” en comparación con los usuarios blancos, lo que no es casualidad sino consecuencia de cómo los algoritmos interpretan las preferencias basadas en datos históricos. La tecnología que se nos vendió como una herramienta para ampliar nuestros horizontes sociales en realidad refuerza las mismas divisiones que nos separan en la vida offline.
En lugar de nivelar, las plataformas digitales están construyendo muros
Por supuesto, no todos los sesgos son tan visibles o tan fáciles de medir. ¿Qué pasa cuando la IA empieza a decidir a quién se le otorga un crédito bancario o una hipoteca? Las consecuencias no son menores. Varias denuncias indican que los algoritmos que evalúan la solvencia financiera tienden a ser más estrictos con mujeres y minorías, perpetuando así la exclusión financiera de los sectores más vulnerables. En un sistema donde la igualdad de oportunidades debería ser la piedra angular, resulta que los más desfavorecidos siguen siendo los más perjudicados, esta vez bajo el manto de la “objetividad” tecnológica.
¿Y qué decir de la automatización? A medida que más empresas adoptan sistemas automatizados para aumentar la eficiencia, las primeras víctimas son los trabajadores de bajos ingresos y los adultos mayores, cuyas habilidades no siempre son fácilmente transferibles a un entorno digital. La promesa de un futuro automatizado suena atractiva para quienes tienen las competencias necesarias para surfear la ola tecnológica, pero para otros representa una ola que arrasa con sus fuentes de empleo y seguridad económica.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$650/mes
*LOS PRIMEROS 3 MESES, LUEGO $6100
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$500/mes
*LOS PRIMEROS 3 MESES, LUEGO $3950
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2025 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí