Cuestiones de Responsabilidad y Gobernanza
Como primer paso, antes de cualquier implementación, es necesario definir marcos de gobernanza para la utilización de tecnologías de inteligencia artificial en el ámbito de las administraciones tributarias.
Asimismo, si se van a implementar tecnologías de inteligencia artificial que participen en procesos de toma de decisiones es necesario definir sistemas de supervisión humana y deslindar responsabilidades.
Además de considerar cuestiones de privacidad, manejo de datos sensibles y observancia del instituto del secreto fiscal, se debe especificar quién asume los riesgos y responsabilidades ante fallos de los sistemas de IA, como podrían ser filtraciones de información.
Dependencia de la Calidad de los Datos
La calidad de los datos utilizados para entrenar los sistemas de inteligencia artificial es un factor crítico para el éxito de su implementación. Una arquitectura de información sólida y la interoperabilidad de los sistemas son requisitos previos indispensables.
La baja calidad de la información, como la duplicación de datos y formatos inconsistentes, puede afectar negativamente la efectividad de la IA.
Si no se efectúa una depuración de datos minuciosa, los conjuntos de datos pueden contener datos incompletos, ausentes, imprecisos o sesgados.
Falta de Adaptación Normativa
Se debe analizar el marco normativo de actuación de las administraciones tributarias para establecer si está adaptado a las particularidades y necesidades del uso de las tecnologías de inteligencia artificial o si se requiere una adaptación normativa.
Deben definirse medidas específicas que regulen el uso de las tecnologías de inteligencia artificial en la gestión tributaria, asegurando tanto su aplicación como la seguridad jurídica.
Integración y Validación
Las instituciones pueden necesitar desarrollar nuevos procedimientos para validar las aplicaciones de IA y garantizar que esos procesos se apliquen continuamente. Del mismo modo, las aplicaciones de IA deben ser auditadas de manera exhaustiva y continua.
La IA y las intervenciones basadas en datos también necesitan integrarse con los sistemas existentes, basándose en las tecnologías y prácticas tradicionales de los organismos para garantizar la eficacia.
Costos y Recursos
La implementación de desarrollos de inteligencia artificial requiere realizar una inversión elevada, por lo tanto se deben considerar con detenimiento los recursos necesarios y las fuentes de financiación de los proyectos de incorporación de tecnologías disruptivas.
Además se requiere personal capacitado en nuevas tecnologías, ya que muchas veces falta competencia y se produce analfabetismo en materia de datos.
Desafíos en la Interacción Humano-Máquina
El hecho de implementar tecnologías de inteligencia artificial no debe obturar la multicanalidad, ya que reducir otras vías de contacto con los contribuyentes, podría favorecer situaciones injustas con ciertos universos de sujetos.
Al respecto no se puede obviar la brecha digital como factor que genera desigualdad para acceder o usar las tecnologías.
No todo se resuelve con un chatbot disponible las 24 horas, los 7 días de la semana. Los asistentes virtuales conversacionales pueden tener dificultad para improvisar y pueden brindar respuestas erradas si se pierden en la conversación ("lost in translation"). También pueden tener dificultad para retener a ciertos usuarios.
Por otra parte, es importante que tanto el personal de la organización como los contribuyentes puedan comprender e interactuar con las aplicaciones de IA.
Sesgos Algorítmicos y Discriminación
Debe prestarse especial atención a la aparición de sesgos en la selección algorítmica de contribuyentes en procedimientos de inspección.
Los datos en los que se apoyan las tecnologías de inteligencia artificial pueden contener desviaciones, lo que lleva a que el modelo algorítmico también reproduzca esa misma desviación, seleccionando recurrentemente ciertas respuestas frente a otras.
Por tal motivo, la calidad de los datos utilizados para entrenar los sistemas de IA es un factor crítico, y la presencia de sesgos puede afectar negativamente a ciertos grupos de contribuyentes.
Pero además, los algoritmos en sí mismos pueden contener sesgos en la lógica de su diseño.
Las tecnologías de inteligencia artificial pueden generar discriminación algorítmica, que es un trato diferente y perjudicial debido a categorizaciones arbitrarias en un entorno de datos automatizado.
Existe el riesgo de que al desarrollar algoritmos se transfieran sesgos humanos al programa, reproduciendo asimetrías o generando discriminación, por ejemplo, en la selección de contribuyentes para inspecciones. Debe prestarse especial atención a la supervisión humana de estos proceso para evitar que los datos sesgados resulten en discriminaciones legales hacia ciertos grupos.
Al aplicar procesos lógicos que se retroalimentan, los algoritmos que motorizan a las tecnologías de inteligencia artificial pueden perpetuar e incluso agravar sesgos previamente existentes en los datos de entrenamiento (sesgos confirmatorios, búsquedas selectivas, interpretación errónea).
Problemas de Privacidad y Seguridad de los Datos
La utilización de mecanismos de IA por parte de las administraciones tributarias puede generar problemas de privacidad o, incluso, vulnerar el instituto del secreto fiscal.
Para el funcionamiento de la IA en el ámbito fiscal, es imprescindible la utilización de datos con trascendencia tributaria, lo que plantea interrogantes sobre su protección.
La recopilación y análisis de grandes cantidades de datos personales pueden generar problemas de privacidad.
La ciberseguridad de los datos, los mejores medios para asegurarlos, cómo y dónde se almacenarán, quién tendrá acceso y cómo se mantendrá la confidencialidad son preocupaciones importantes.
Transparencia y Explicabilidad
Conectado con el desafío previo se debe analizar el alcance de la transparencia en el uso de la IA por parte de las administraciones tributarias.
Los contribuyentes pueden cuestionar si tienen derecho a conocer cuáles han sido los sistemas tecnológicos que han procesado la información para determinar un riesgo de incumplimiento.
A menudo se conocen los insumos y resultados de los sistemas de IA, pero no el proceso de decisión ("problema de la caja negra"). Esto dificulta la comprensión y la auditoría de los algoritmos.
La falta de mecanismos de explicabilidad (XAI) puede generar desconfianza entre la ciudadanía y socavar la legitimidad de las decisiones automatizadas.
Lograr la transparencia total de la IA sigue siendo un desafío.
Reserva y Posibilidad de Burlar los Sistemas:
Si existe una transparencia excesiva sobre los parámetros que la agencia tributaria utiliza mediante sus sistemas de IA, podría permitir a los contribuyentes intentar burlar dichos sistemas y adoptar maniobras de elusión fiscal.
Es fundamental abordar estos problemas de manera proactiva mediante marcos éticos, normativas adecuadas, inversión en calidad de datos y capacitación del personal para aprovechar los beneficios de la IA de forma responsable y justa.
Si te interesa el tema, puedes visitar el micrositio del CEAT - Centro de Estudios en Administración Tributaria FCE UBA en https://www.economicas.uba.ar/extension/ceat
O encontrar más publicaciones interesantes en: https://trabajodecenteinclusionsocial.blogspot.com

Comentarios
Publicar un comentario