🤖 Dilemas éticos del uso de IA
📚 Casos reales de uso (y abuso)
Qué pasó: Recolectaron datos de 87 millones de usuarios de Facebook sin consentimiento. Usaron IA para crear perfiles psicológicos y enviar mensajes diseñados para explotar miedos y sesgos cognitivos.
Impacto: Influenciaron Brexit (Reino Unido) y elección de Trump (EEUU) con microtargeting basado en manipulación psicológica. Cuando se descubrió, Facebook perdió $100 mil millones en capitalización bursátil y Cambridge Analytica cerró.
Lección ética: La IA puede ser usada para explotar vulnerabilidades psicológicas a escala masiva sin que los votantes sepan que están siendo manipulados.
Qué pasó: Durante la guerra Rusia-Ucrania, circuló un deepfake video del presidente Zelensky "ordenando" a soldados ucranianos rendirse ante Rusia.
Impacto: Aunque fue desmentido rápidamente, demostró que deepfakes pueden usarse como arma de guerra informática. En un contexto electoral, un deepfake similar liberado 24 horas antes de votar podría cambiar resultados antes de que se desmienta.
Lección ética: Necesitamos tecnología de detección de deepfakes TAN avanzada como la tecnología de creación.
Qué pasó: Durante elecciones presidenciales brasileñas, organizaciones de fact-checking usaron IA para detectar y desmentir información falsa en tiempo real.
Impacto: Lograron verificar 10,000+ afirmaciones en días (vs meses manualmente). Identificaron patrones de desinformación coordinada y alertaron a plataformas para acción rápida.
Lección ética: La IA puede DEFENDER la democracia tanto como atacarla. Todo depende de quién la use y cómo.
✅ Principios para uso ético de IA
Transparencia algorítmica
Si usas IA en tu campaña, divúlgalo públicamente. Explica qué hace el algoritmo, qué datos usa, y qué decisiones automatiza. "Caja negra" = desconfianza.
Consentimiento informado
Las personas deben saber que interactúan con IA. Un bot debe identificarse como bot. Un mensaje generado por IA debe marcarse como tal. No engañes sobre origen.
Prohibición de deepfakes engañosos
Deepfakes deben marcarse claramente como contenido sintético. Usar deepfakes para hacer parecer que alguien dijo algo que no dijo = fraude electoral.
Auditorías de sesgo
Antes de desplegar IA, auditarla para sesgos. ¿Discrimina por raza, género, edad, NSE? Si sí, corregir antes de usar. Publicar resultados de auditoría.
Límites a microtargeting
No todo lo técnicamente posible es éticamente aceptable. Mensajes tan personalizados que son contradictorios entre audiencias = manipulación, no persuasión.
Protección de datos
Datos usados para IA deben recolectarse legalmente, almacenarse seguramente, y eliminarse después de elección. No reventa, no uso posterior no autorizado.
⚖️ Propuestas de regulación
1. Registro obligatorio de uso de IA en campañas
Partidos y candidatos deben reportar al INE qué herramientas de IA usan, para qué, y qué datos procesan.
Publicación en plataforma pública de transparencia.
2. Prohibición de deepfakes no marcados
Contenido sintético (audio, video, imagen) generado por IA debe llevar marca visible/audible
"Generado por IA". Violación = sanción electoral.
3. Auditorías algorítmicas obligatorias
Sistemas de IA usados para decisiones críticas (segmentación, targeting, predicción)
deben ser auditados por terceros independientes certificados por INE.
4. Derecho al no-perfilado
Ciudadanos pueden solicitar NO ser perfilados por IA para campañas políticas.
Lista de exclusión administrada por INAI.
5. Sanciones proporcionales
Uso de deepfakes engañosos = pérdida de registro + cárcel (delito electoral grave).
Microtargeting sin transparencia = multa del INE.
Bots sin identificar = retiro de contenido + multa.
Regular demasiado = campañas obsoletas que no conectan con votantes digitales.
Regular muy poco = manipulación masiva y erosión de confianza en democracia.
Balance difícil: Necesitamos regulación "quirúrgica" que prohiba ABUSO sin prohibir USO.
- ✅ IA para análisis de datos, NO para generación de contenido engañoso
- ✅ Transparencia total: clientes saben qué algoritmos usamos
- ✅ Auditorías de sesgo en modelos predictivos
- ✅ No vendemos datos a terceros ni reutilizamos sin autorización
- ✅ Cumplimiento LFPDPPP + estándares GDPR