Desafíos legales para implementar la inteligencia artificial en el sector público

La implementación de la inteligencia artificial (IA) en las administraciones tributarias debe considerar ciertos desafíos legales como la transparencia, los sesgos algorítmicos, la discriminación, el derecho a la privacidad, la protección de datos, la responsabilidad por las decisiones automatizadas y el derecho a defensa y al debido proceso.

La velocidad exponencial de la transformación tecnológica plantea dificultades para actualizar los marcos normativos y las instituciones enfrentan grandes desafíos al intentar seguir el rápido ritmo de los cambios.

La digitalización de las administraciones tributarias puede avanzar en muchos aspectos, pero tan importante como la inversión en fierros es la simplificación de procesos y la adecuación normativa en forma simultánea.

Asimismo se debe analizar la consistencia de la normativa tributaria con otros marcos legales tanto nacionales como internacionales.


Responsabilidad por las decisiones automatizadas:

Existe interrogantes sobre la responsabilidad y la supervisión humana en la toma de decisiones por parte de las IAs. Se debe analizar con detenimiento si la legislación debe permitir que los programas realicen actividades y, de considerarlo oportuno, deben dictarse leyes especiales que así lo permitan. Sin perjuicio de ello, la decisión de ceder el control en contextos limitados deberá seguir recayendo en personas. Un sistema de IA nunca podrá reemplazar la responsabilidad final de las personas.


Derecho a la defensa y debido proceso:

Los contribuyentes deben tener el derecho a impugnar las decisiones basadas en la IA que consideren incorrectas o injustas. En tal sentido, se debe garantizar la supervisión e intervención humana y a impugnar las decisiones automatizadas tomadas por sistemas de IA que produzcan efectos en su esfera personal y patrimonial.


Validez de las respuestas de los asistentes virtuales:

Dado que muchas veces se "legisla" mediante el micrositio de "Preguntas Frecuentes" de la página en Internet de las administraciones tributarias, se debe definir el valor frente al ordenamiento jurídico tributario de las respuestas brindadas por los Asistentes Conversacionales Virtuales.


Derecho a la privacidad y protección de datos:

La utilización de la IA en la Administración Tributaria se enfrenta a dificultades como la necesidad de garantizar la privacidad y la seguridad de los datos. Al respecto es importante que los datos para los sistemas de IA se recopilen, utilicen, compartan, archiven y supriman de forma consistente con las normas vigentes de protección de datos y secreto fiscal. Cuando se recopilan y analizan grandes cantidades de datos personales, se pueden generar problemas de privacidad. La normativa debe precisar quién asume los riesgos y la responsabilidad ante fallas de los sistemas, como filtraciones de información. 


Derecho a la información:

Nadie discute que se debe garantizar el derecho de la ciudadanía a ser informada y asistida por la administración tributaria sobre el ejercicio de sus derechos y el cumplimiento de sus obligaciones tributarias. Para lograrlo, es clave que la información proporcionada por la IA sea accesible y comprensible para todos.


Falta de transparencia:

Una preocupación de las administraciones tributarias es hasta qué punto el contribuyente tiene derecho a conocer los sistemas tecnológicos que procesan su información para determinar un riesgo de incumplimiento sin vulnerar cuestiones mínimas necesarias para no develar estrategias de fiscalización que podrían alentar a ciertos pícaros a buscar lagunas o formas de eludir las metodologías de control impositivas o aduaneras. Es claro que la falta de transparencia en los modelos de IA dificulta la comprensión de cómo se toman las decisiones. Sin embargo, se debe discutir sobre si las administraciones tributarias deberían revelar el código del algoritmo que genera la información. En el proceso de decisión mediante IA, a veces se conocen los insumos y los resultados, pero se ignora lo que ocurre en el proceso interno de decisión, el cual opera como una "caja negra" teñida de cierta opacidad.


Sesgos algorítmicos y discriminación:

Como regla general, las decisiones automatizadas por la IA no deben estar basadas en cuestiones como sexo, raza, religión, clase social o ideologías. Sin embargo, existe el riesgo de que, al elaborar algoritmos, se trasladen sesgos humanos al programa, generando discriminación al seleccionar qué contribuyentes serán auditados. Los datos sesgados pueden convertirse en discriminaciones jurídicas para ciertos colectivos. Es indispensable evitar sesgos o discriminaciones en el diseño, desarrollo, aplicación y auditoría de los algoritmos. 

Si te interesa el tema, puedes visitar el micrositio del CEAT - Centro de Estudios en Administración Tributaria FCE UBA en https://www.economicas.uba.ar/extension/ceat

O encontrar más publicaciones interesantes en: https://trabajodecenteinclusionsocial.blogspot.com

Comentarios