Noticias de hoy

F1: Briatore bancó a Colapinto y confía en él para 2026: "La madurez que logró en el último tiempo me sorprendió mucho"

Carburando

Límite de Pista

El lado oscuro de la automatización: cómo los algoritmos reproducen —y amplifican— la discriminación

Bancos, aseguradoras, departamentos de recursos humanos y apps financieras adoptaron sistemas algorítmicos para evaluar riesgos, conceder créditos o seleccionar candidatos. Pero múltiples investigaciones revelan que estas herramientas pueden discriminar por raza, género o nivel socioeconómico. Reguladores y expertos piden mayor transparencia y auditorías obligatorias.

El lado oscuro de la automatización: cómo los algoritmos reproducen —y amplifican— la discriminación
El lado oscuro de la automatización: cómo los algoritmos reproducen —y amplifican— la discriminación

Del dato al prejuicio: cuando el algoritmo hereda el sesgo humano

Los modelos de scoring, reclutamiento o evaluación de riesgos se entrenan con enormes bases de datos históricas. El problema es que esos datos reflejan patrones de desigualdad preexistentes: distribución de ingresos, zonas marginadas, roles de género o tasas de endeudamiento asociadas a minorías.
Cuando un algoritmo aprende sobre esa información, no solo la reproduce: la formaliza. La discriminación deja de ser un comportamiento humano aislado y se convierte en una función matemática integrada a millones de decisiones.

Investigaciones académicas demostraron que sistemas de crédito pueden asignar tasas más altas a personas que viven en barrios catalogados como de “mayor riesgo”, sin distinguir entre individuos. En recursos humanos, modelos de selección descartaron mujeres para roles técnicos porque el historial de contrataciones previo estaba sesgado hacia hombres.


Banca y fintech: el sesgo dentro del scoring crediticio

En el sector financiero, los algoritmos analizan miles de variables: historial de pago, ubicación, tipo de dispositivo utilizado e incluso patrones de uso en redes sociales.
Casos recientes en Estados Unidos y Europa mostraron que algunas apps financieras ofrecían líneas de crédito más bajas a personas afrodescendientes, aun con indicadores económicos similares a los del resto de los usuarios.

En América Latina, organizaciones civiles denunciaron que ciertos modelos penalizan a quienes no tienen historial bancario tradicional, reforzando la exclusión financiera. La práctica impacta especialmente en jóvenes de sectores populares y trabajadores informales, que suelen quedar atrapados en un círculo: sin historial, no hay crédito; sin crédito, no pueden construir historial.


La automatización digital de procesos: requisitos y ventajas

Recursos humanos: filtros automáticos que excluyen

El uso de IA en reclutamiento creció exponencialmente. Plataformas que prometen reducir tiempos de selección aplican análisis de lenguaje, expresiones faciales y patrones de voz para evaluar candidatos.

Sin embargo, varios estudios demostraron que estos sistemas pueden priorizar perfiles masculinos, penalizar acentos regionales o descartar personas con discapacidad debido a movimientos o patrones vocales no contemplados en el entrenamiento del modelo.
En 2018, un caso emblemático forzó a una multinacional tecnológica a desactivar su algoritmo de selección al descubrir que sistemáticamente relegaba postulaciones de mujeres en tecnología.


Aseguradoras: el riesgo de usar datos “alternativos”

Las aseguradoras utilizan modelos predictivos para calcular primas. Si bien la automatización ayuda a estimar riesgos con más precisión, también puede traducirse en precios diferenciados injustificados.
El cruce entre código postal, nivel de ingresos y comportamiento digital puede generar perfiles que, de forma indirecta, afectan a minorías étnicas o grupos con menor acceso a servicios formales.

La falta de explicación sobre cómo se calcula la prima alimenta la preocupación: los clientes no pueden reclamar lo que no entienden.


¿Qué dicen los reguladores? Transparencia y auditoría como punto de partida

En la Unión Europea avanza la AI Act, que obligará a auditar algoritmos de alto riesgo —como los financieros o de recursos humanos— y a demostrar que no discriminan. En Estados Unidos, algunas agencias exigen “explicabilidad” en modelos utilizados por bancos y aseguradoras.

En la región, el debate es incipiente. Organismos de protección de datos piden impact assessments obligatorios, publicación de criterios de selección y canales de apelación para decisiones automatizadas.
Para los expertos, el desafío principal es romper la opacidad: sin acceso a los datos y al diseño del modelo, no hay forma de detectar sesgos sistémicos.


El dilema central: automatizar sin profundizar desigualdades

La automatización promete eficiencia, escala y objetividad. Pero sin controles, puede convertirse en una máquina que perpetúa desigualdades históricas bajo apariencia de neutralidad técnica.

El reto para los próximos años será claro: desarrollar IA que mejore decisiones sin sacrificar justicia. La tecnología puede ser parte de la solución, pero solo si logramos ver —y corregir— el lado oscuro de sus algoritmos.

 

 

 

 

 

 

ChatGPT puede cometer errores. Comprueba la información impor

Recibir mas informacion sobre
El lado oscuro de la automatización: cómo los algoritmos reproducen —y amplifican— la discriminación

Lo mas leído

TC2000

Ver todas

MotoGP

Ver todas

TCR South America

Ver todas

Internacionales

Ver todas

Turismo Nacional

Ver todas

Córdoba Pista

Ver todas

Sport Prototipo

Ver todas