Capítulo 07. La Ilusión de No Tener IA¶
Automatización, Decisión y el Punto de No Retorno¶
"La mayoría de las organizaciones afirma que 'no tiene Inteligencia Artificial'. Lo que realmente no tienen es conciencia de cuántas decisiones críticas ya no pasan por humanos. Si un script de SQL decide a quién cobrarle y a quién no, usted ya tiene un gobierno algorítmico, solo que no lo ha declarado."
7.1. Automatización sin Nombre¶
La discusión sobre Inteligencia Artificial suele comenzar demasiado tarde, cuando aparece un modelo explícito (ej. ChatGPT), un proveedor externo costoso o un proyecto con presupuesto propio. Pero desde la perspectiva de la Gobernanza de Datos Defensiva, la IA no comienza cuando alguien pronuncia la sigla en un comité; comienza cuando una decisión deja de depender de un criterio humano identificable.
En la práctica, la mayoría de las organizaciones ya opera con decisiones automatizadas, aunque no las llame así:
- Reglas de negocio duras que aprueban o rechazan créditos.
- Scoring de riesgo calculados en procedimientos almacenados (SQL).
- Priorización automática de reclamos en CRMs.
- Segmentaciones de marketing que disparan campañas sin revisión humana.
Nada de esto requiere Deep Learning para constituir un riesgo legal y operativo masivo. Desde el punto de vista regulatorio (Ley 21.719), una decisión automatizada es una decisión automatizada, independientemente de la complejidad matemática que la sustente.
Principio de Equivalencia: La ley no pregunta qué tecnología usaste (si fue un
IF/ELSEen Excel o una Red Neuronal). Pregunta si la decisión que afectó al titular fue tomada sin intervención humana significativa. Si la respuesta es sí, usted ya tiene IA y ya tiene la responsabilidad asociada.
7.2. El Mito del "Después Vemos"¶
Muchas organizaciones operan bajo una narrativa tranquilizadora y lineal: "Primero ordenamos los datos. Después, cuando tengamos madurez, vemos lo de la IA."
Esta secuencia es ficticia. En la realidad operativa:
- Los proveedores de software ya traen automatización "out of the box" activada por defecto.
- Las áreas de negocio experimentan con herramientas SaaS por fuera del gobierno formal (Shadow AI).
- Los reguladores no esperan a que la organización se sienta "lista" para fiscalizar una decisión algorítmica.
La automatización no llega cuando se le envía una invitación formal. Llega cuando alguien en el negocio necesita velocidad. Y cuando llega, consume lo que haya disponible: datos incompletos, mal clasificados, sin linaje y sin responsabilidad clara.
Error de Diseño Recurrente: Creer que la gobernanza puede ser secuencial ("primero Calidad, luego Uso"). En sistemas reales, ambos avanzan en paralelo o colisionan catastróficamente. La gobernanza debe diseñarse asumiendo que el dato será consumido por una máquina mañana mismo.
7.3. El Punto de No Retorno¶
Existe un momento crítico, rara vez reconocido en los diagramas de arquitectura, en que los datos de una organización cruzan un umbral invisible.
No es cuando se entrena un modelo complejo. Es cuando los datos comienzan a ser consumidos por sistemas que no toleran ambigüedad.
En ese punto:
- Los errores dejan de ser locales (un humano corrigiendo una celda).
- Las inconsistencias se propagan sistémicamente.
- Las decisiones erróneas se escalan a velocidad de máquina.
- La trazabilidad posterior se vuelve económicamente inviable.
Tesis Central: La gobernanza que no está diseñada para automatización no falla el día que se implementa la IA. Falla el día antes, cuando alguien conecta los datos sin avisar.
7.4. La IA como Prueba de Estrés, no como Objetivo¶
Este libro no asume que la organización tenga una estrategia de "IA Generativa". Asume algo más incómodo: que sus datos ya están siendo usados, o lo serán pronto, por sistemas que no interpretan contexto, intención ni excusas.
La IA aparece aquí no como una promesa de innovación, sino como la Prueba de Estrés Definitiva de la gobernanza existente.
Si los datos:
- No tienen dueño claro (Ownership).
- No tienen linaje técnico (Trazabilidad).
- No tienen base legal explícita (Privacidad).
Entonces la IA no "falla". La IA expone. Amplifica las grietas estructurales que la operación manual lograba disimular con esfuerzo humano.
Reencuadre Fundamental: La Inteligencia Artificial no crea nuevos problemas de gobernanza de datos. Simplemente hace inevitables, visibles y costosos los problemas que la organización decidió ignorar durante años.
7.5. Puente al Bloque de Inteligencia¶
Los capítulos siguientes (8, 9 y 10) no describen un futuro hipotético ni una adopción avanzada reservada a organizaciones "maduras" tipo Google o Amazon. Describen el comportamiento esperable de cualquier sistema que consuma datos sin mediación humana.
Leerlos como "capítulos de IA" es un error. Son capítulos sobre qué ocurre cuando el dato deja de poder mentirse a sí mismo.
A partir de aquí, no hablaremos de si la automatización llega, sino de cómo blindar la arquitectura para que, cuando llegue, el sistema diga la verdad.