tecnologia
¿Quién responde cuando un algoritmo se equivoca?
El desafío del derecho argentino frente a la IA en el Estado
A través de una trilogía de doctrinas publicadas en el Sistema Argentino de Información Jurídica (SAIJ), el autor marplatense Ezequiel Brunner propone avanzar hacia un estándar de responsabilidad pública para evitar la indefensión de los ciudadanos ante decisiones automatizadas.
Mar del Plata, mayo de 2026. La inteligencia artificial ya no pertenece únicamente al terreno de la ciencia ficción ni de la innovación tecnológica. Cada vez con mayor frecuencia, los sistemas automatizados comienzan a intervenir en trámites administrativos, beneficios estatales, fiscalizaciones, clasificaciones de riesgo, procesos de control y decisiones que pueden afectar derechos concretos de las personas.
Frente a ese escenario, una pregunta empieza a ganar fuerza en el debate jurídico argentino: ¿qué ocurre cuando un algoritmo utilizado por el Estado se equivoca?
Esa es la línea de análisis desarrollada por Ezequiel Brunner en una trilogía de trabajos doctrinarios publicados en el Sistema Argentino de Información Jurídica (SAIJ), donde propone una evolución conceptual que va desde la transparencia algorítmica hasta la responsabilidad estatal frente al daño producido por decisiones automatizadas.
La serie plantea una hoja de ruta clara: primero, el ciudadano debe saber que un algoritmo intervino; luego, el Estado debe registrar, explicar y controlar esos sistemas; finalmente, si la decisión automatizada causa un daño, debe existir una vía efectiva para revisar, probar y reparar.
1. La transparencia como escudo constitucional
En su primer trabajo, “Transparencia Algorítmica como Garantía Constitucional: Hacia un Modelo Argentino de Control Real y Responsabilidad Pública” —Id SAIJ: DACF250125, publicado el 17 de diciembre de 2025—, Brunner sostiene que la inteligencia artificial no puede ser tratada como una cuestión meramente técnica cuando interviene en decisiones que afectan derechos.
El eje del artículo es la opacidad de los algoritmos, también conocida como el problema de las “cajas negras”. Según el autor, si una persona no puede conocer qué sistema intervino, qué datos fueron utilizados o qué criterios guiaron una decisión automatizada, su derecho de defensa queda seriamente debilitado.
La tesis central es contundente: la transparencia algorítmica debe ser entendida como una garantía constitucional práctica, vinculada al debido proceso y al artículo 18 de la Constitución Nacional.
En ese marco, el trabajo propone cuatro pilares iniciales: explicación obligatoria, auditoría preventiva estatal, responsabilidad institucional y revisión humana efectiva.
2. El laboratorio bonaerense
La segunda publicación, “Resolución 9/2025 (PBA): transparencia, explicabilidad y control algorítmico en la Administración Pública” —Id SAIJ: DACF260022—, analiza la primera norma obligatoria dictada en la Provincia de Buenos Aires sobre uso responsable de inteligencia artificial en la Administración Pública.
La Resolución 9/2025 de la Subsecretaría de Gobierno Digital bonaerense establece principios como centralidad de la persona humana, transparencia, explicabilidad, trazabilidad, protección de datos, supervisión humana y responsabilidad demostrada. También prevé un registro de sistemas de inteligencia artificial y obligaciones de advertencia cuando los organismos públicos utilicen IA para comunicarse o relacionarse con la ciudadanía.
Brunner valora la norma como un avance real, pero advierte sobre sus límites: ausencia de un régimen sancionatorio, falta de un recurso específico para el ciudadano afectado, dependencia de la autoridad de aplicación dentro del propio Poder Ejecutivo y riesgos de implementación insuficiente.
En esta segunda etapa, el análisis deja de ser puramente teórico y se concentra en una norma concreta. La pregunta ya no es solamente qué garantías deberían existir, sino qué controles reales empieza a construir el derecho argentino frente al uso estatal de inteligencia artificial.
3. Responsabilidad: cuando explicar no alcanza
La tercera doctrina, publicada el 30 de abril de 2026 bajo el título “Cuando explicar no alcanza: responsabilidad algorítmica, prueba y reparación frente a decisiones automatizadas en la Administración Pública argentina” —Id SAIJ: DACF260043—, profundiza el debate hacia su punto más delicado: la responsabilidad jurídica frente al daño algorítmico.
El planteo central es que explicar un algoritmo no alcanza si no existe un sistema capaz de determinar responsabilidades y reparar daños. Una decisión asistida por inteligencia artificial puede ser técnicamente explicable y, aun así, resultar injusta, discriminatoria, desproporcionada o lesiva del derecho de defensa.
El trabajo analiza situaciones en las que un sistema automatizado podría producir exclusiones de beneficios, demoras injustificadas, clasificaciones desfavorables, pérdidas de oportunidad, afectaciones patrimoniales o restricciones indirectas al ejercicio de derechos fundamentales.
Uno de los puntos más relevantes es el problema probatorio. En los conflictos tradicionales, el ciudadano puede discutir documentos, fechas, notificaciones, fundamentos o actos administrativos. Pero cuando una decisión fue influida por inteligencia artificial, la prueba relevante suele estar en poder de la Administración o del proveedor tecnológico.
Por eso, Brunner introduce la idea de una asimetría probatoria estructural: el ciudadano común no conoce el modelo, los datos utilizados, los registros de funcionamiento, la tasa de error ni los controles aplicados. En consecuencia, si el Estado decide incorporar inteligencia artificial, debe estar en condiciones de explicar y acreditar cómo funcionó el sistema, qué controles aplicó y qué intervención humana existió.
Cuatro pilares para evitar la indefensión algorítmica
A partir de esta trilogía doctrinaria, la propuesta puede resumirse en cuatro grandes ejes:
Registro de sistemas algorítmicos relevantes. Todo sistema de inteligencia artificial utilizado por el Estado para asistir decisiones que puedan afectar derechos debería estar identificado y registrado.
Auditoría y evaluación preventiva. Los sistemas de alto riesgo deberían ser analizados antes de su implementación, especialmente cuando puedan impactar en salud, educación, trabajo, seguridad, beneficios sociales, justicia o fiscalización.
Revisión humana real. La intervención de una persona no puede limitarse a firmar lo que el sistema sugirió. Debe existir una autoridad competente, informada y con capacidad efectiva de revisar, corregir o apartarse del resultado automatizado.
Deber estatal reforzado de explicación y prueba. Cuando una persona impugna fundadamente una decisión asistida por IA, el Estado debería aportar información suficiente sobre el sistema utilizado, su finalidad, los datos relevantes, la trazabilidad del proceso y la intervención humana realizada.
Un desafío constitucional
La conclusión de esta línea doctrinaria es una advertencia para el debate legislativo argentino: la tecnología puede hacer que el Estado sea más eficiente, pero no necesariamente más justo.
Como señala Brunner en su última publicación, una mala burocracia con inteligencia artificial no necesariamente se vuelve más justa; puede volverse más rápida para equivocarse.
El desafío ya no consiste solamente en decidir si el Estado utilizará inteligencia artificial. Esa etapa parece superada. La verdadera discusión es bajo qué condiciones podrá hacerlo, con qué controles, con qué trazabilidad y con qué consecuencias jurídicas cuando su uso afecte derechos.
La inteligencia artificial puede ser una herramienta valiosa para mejorar la gestión pública. Pero cuando el poder público decide con ayuda de algoritmos, la ciudadanía debe conservar intacta su posibilidad de entender, impugnar y reclamar.
Porque si esa posibilidad se pierde, el problema ya no es tecnológico: es constitucional.
Sobre el autor
Ezequiel Brunner es estudiante de Abogacía en la Universidad Argentina John F. Kennedy, sede Mar del Plata, y autor de trabajos doctrinarios publicados en SAIJ sobre transparencia algorítmica, inteligencia artificial, debido proceso y responsabilidad pública.
Página:
https://mdpok.ar/noticia/tecnologia/2026/05/11/quin-responde-cuando-un-algoritmo-se-equivoca/29308.html