La Universidad Nacional de Córdoba (UNC) será el epicentro de un debate crucial sobre los límites éticos y legales de la tecnología, al recibir la presentación del libro Inteligencia Artificial y Discriminación, obra de la investigadora y docente Mariana Sánchez Caparrós.
El encuentro tendrá lugar este miércoles, a las 19, en el Auditorio del Centro Cultural de la UNC (Obispo Trejo 314). La presentación no será una simple exposición, sino que incluirá un diálogo entre la autora y la profesora Paula Gastaldi, en el que aportarán perspectivas desde el campo académico y los estudios sociales de la tecnología, y se abrirá un intercambio con el público sobre la idoneidad de los estándares constitucionales de igualdad y no discriminación.
La IA y el desafío a la igualdad constitucional
El texto de Sánchez Caparrós, basado en un riguroso análisis multidisciplinario, propone una mirada crítica sobre el impacto social de la inteligencia artificial. La principal advertencia es clara: «La creciente integración de sistemas de inteligencia artificial (IA) en la toma de decisiones públicas y privadas está desafiando directamente los principios de igualdad y no discriminación consagrados en nuestras constituciones«.
La autora, Doctora en Ciencias Jurídicas y especialista en IA, Derecho y Discriminación, ha analizado la amenaza del sesgo algorítmico y la automatización inteligente, concluyendo que, sin los ajustes normativos necesarios, la IA tiene el poder de «replicar y amplificar desigualdades estructurales,» tal como advierten estudios recientes (European Union Agency for Fundamental Rights, 2023).
Del sesgo a la discriminación: el riesgo de la masividad
Un punto clave del análisis es la distinción conceptual entre sesgo y discriminación. Según explicó la Dra. Sánchez Caparrós en un conversatorio sobre el tema, la relación es de causa y consecuencia: «El sesgo algorítmico es lo que provoca la discriminación algorítmica«.
El sesgo se define como una «carga de valores, estereotipos, creencias sociales, patrones de exclusión o de desigualdad estructural» que ingresan al sistema, sea por los datos de entrenamiento o por las decisiones humanas de diseño.
A diferencia de una decisión humana individual, la experta enfatiza que la IA puede producir daños «a escala» y opera bajo una lógica de «toma de decisiones masiva«. Esta amenaza se ilustra con casos reales y muy difundidos:
- Amazon: Un sistema de filtrado de currículums penalizaba a mujeres, identificando indirectamente el género por variables como la escuela o el deporte practicado.
- COMPAS (EE. UU.): Utilizado para evaluar riesgo de reincidencia, el sistema mostró una tasa de error mayor en personas de color que en personas blancas, asignándoles riesgos más altos.
La propuesta de solución: invertir la carga de la prueba
El desafío se agrava en el plano procesal, donde el ciudadano enfrenta barreras casi insalvables para probar la discriminación (opacidad, propiedad intelectual del código, automejora del sistema y el uso de proxies o variables indirectas).
Frente a estas barreras, la especialista propone un cambio de enfoque constitucional, sugiriendo abandonar el estándar tradicional de la igualdad como no discriminación y migrar al paradigma de la «igualdad como no sometimiento«.
En este contexto, la Dra. Sánchez Caparrós propone invertir la carga de la prueba en casos de alegado trato desigual, tomando como inspiración la doctrina de las categorías sospechosas. Durante un conversatorio previo, la jurista sostuvo: «aquel que se está beneficiando de automatizar una decisión… sea el que tenga la carga de probar, porque en definitiva es el que está obteniendo un rédito económico». Esta inversión no solo facilitaría la defensa del ciudadano, sino que actuaría como un incentivo para que las empresas «se diseñen mejor los sistemas inteligentes».
Un requisito para el Estado de Derecho
Finalmente, la Dra. Sánchez Caparrós subraya que la solución va más allá de la regulación legal. En su análisis, propone la «coconstrucción y al codiseño de sistemas inteligentes«, garantizando que las ciencias humanas -derecho, ética, filosofía, sociología y antropología- tengan una participación activa en el «diseño, desarrollo y despliegue» de la tecnología.
La conclusión es categórica, derivada de su tesis doctoral que da origen al libro: «La ética de la IA, concluye, ‘no es opcional, es un requisito para un Estado de Derecho sólido'».










