Big data e inteligencia artificial: una aproximación a los desafíos éticos y jurídicos de su implementación en las administraciones tributarias

bIG DATA AND ARTIFICIAL INTELLIGENCE: AN APPROACH TO
THE ETHICAL AND LEGAL CHALLENGES OF ITS IMPLEMENTATION
IN TAX ADMINISTRATIONS

Nora Libertad Rodríguez Peña

Universidad de Salamanca.

nrodriguezp@usal.es ORCID ID: 0000-0001-6282-7570 ABH-1372-2020

US ET SCIENTIA • 2021

Vol. 7 • Nº 1 • pp. 62 - 84

ISSN 2444-8478 • https://dx.doi.org/10.12795/IESTSCIENTIA.2021.i01.06

Recibido: 13 de abril 2021 | Aceptado: 07 de mayo 2021

RESUMEN

PALABRAS CLAVE

La generalización del uso de tecnologías basadas en sistemas de inteligencia artificial en manos de la administración pública –un destinatario más de las potencialidades que ofrece y los desafíos que deparan estas tecnologías aplicadas al servicio público– plantea la necesidad de reflexionar sobre los riesgos que supone la interacción entre la inteligencia artificial y los derechos de los ciudadanos. Principalmente en lo que respecta a la automatización de la administración, el tratamiento de datos personales y el perfilamiento de ciudadanos en sectores sensibles de la administración como es la hacienda pública. El presente estudio tiene como finalidad, identificar y analizar los desafíos éticos y jurídicos que se derivan de la utilización de las tecnologías disruptivas asociadas a la inteligencia artificial en manos de la administración pública en general y la tributaria en particular, sobre todo cuando se destina a la persecución del fraude fiscal; los daños “accidentales” que se pueden causar a los derechos y garantías del contribuyente, principalmente aquellos relacionados con el tratamiento de datos personales, y los sesgos y discriminaciones que puede ocasionar el uso de algoritmos entrenados en sistemas de big data; y la necesaria transparencia y rendición de cuentas asociada a la toma de decisiones automatizada por parte de la administración tributaria.

Inteligencia artificial

Big data

Administración tributaria

Contribuyentes

Protección de datos personales.

ABSTRACT

KEYWORDS

The generalization of the use of technologies based on artificial intelligence systems by the public administration, another recipient of the potentialities offered and the challenges arising by these technologies when applied to the public service, raises the need to reflect on the risks involved in the interaction between artificial intelligence and citizens’ rights. Mainly, as regard to the automation of the administration, the processing of personal data, and the profiling of citizens in sensitive sectors of the public administration such as public finances.

The purpose of this study is to identify and analyze the ethical and legal challenges arising from the use of disruptive technologies associated with artificial intelligence by public administration in general, and tax administration in particular, especially where it is intended for the prosecution of tax fraud; “accidental” damages which may be caused to the rights and guarantees of the taxpayer, in particular those relating to the processing of personal data, and the biases and discriminations that can be caused by the use of algorithms trained in big data systems; and the necessary transparency and accountability associated with automated decision-making by the tax administration.

Artificial intelligence

Big data

Tax administration

Tax payers

Personal data protection

“Con mucha diferencia, el mayor peligro de la inteligencia artificial es que las personas concluyen demasiado pronto que la entienden”

Eliezer Yudkowsky

I. Introducción

Hoy en día somos capaces de afirmar que la cuarta revolución industrial, la llamada revolución digital, representa un cambio disruptivo en nuestra sociedad con la introducción de la industria 4.0[ 1 ] y la inteligencia artificial[ 2 ] en la mayoría de las esferas de nuestra vida. Tanto es así, que nos encontramos inmersos en una revolución silenciosa y sin resistencia que ha cambiado radicalmente nuestra sociedad hasta alcanzar, de forma inevitable, la protección normativa que se exige a los Estados[ 3 ]. Por tanto, no es ajeno afirmar que el desarrollo tecnológico que viene de la mano de la inteligencia artificial, del procesamiento masivo de datos a través del big data, y de la desindustrialización desencadenada por la robotización y la automatización, están provocando dislocaciones sociales, sobre todo, nuevos conflictos sociales que demandan respuestas urgentes, y cuanto más aún, proteccionistas por parte de nuestro ordenamiento jurídico.

Vemos así como en el mercado laboral, por ejemplo, incrementa de forma acuciante el peligro de pérdida de puestos de trabajo en el sector industrial mediante la sustitución de trabajadores por robots inteligentes, mayoritariamente en aquellos puestos poco cualificados o sin cualificación. Sin embargo, de este peligro tampoco escapan otros sectores de nuestra economía que tradicionalmente han demandado mayor cualificación y formación profesional que el sector industrial. En el mercado financiero y en la medicina, por mencionar algunos, la utilización de algoritmos entrenados con sistemas de big data que están siendo capaces de decidir de forma autónoma sobre la compra y venta de activos financieros, o sobre el diagnóstico y tratamiento de enfermedades, nos demuestran que la gramática digital está conquistando y rompiendo las bases del statu quo de nuestra sociedad.

Tanto así, que ha llegado a afectar incluso la esfera política donde el escándalo de Cambridge Analytica, el referéndum que ocasionó el Brexit y la elección presidencial de Donald Trump han evidenciado que el uso intencionado de la inteligencia artificial en las redes sociales por operadores privados y orientados a los beneficios puede influir e incluso controlar el proceso de toma de decisiones políticas, cuestión que pone en peligro los cimientos de nuestro Estado Democrático. Mismo destino se vislumbra para el Estado de Derecho cuyas estelas se ven amenazadas por los retos que en materia de privacidad y seguridad desvelan estos nuevos escenarios digitales, que imponen necesariamente el establecimiento de controles y límites éticos[ 4 ] sobre el uso y el tratamiento de los datos de los ciudadanos, así como una regulación normativa proteccionista (Domínguez Álvarez, J.L., 2020) de los derechos fundamentales que eviten la implantación de la comodidad bajo el precio de la vigilancia total que ofrecen empresas como Facebook, Google[ 5 ], Amazon[ 6 ] o Huawei[ 7 ].

Incluso, superpotencias mundiales como China, Japón o Estados Unidos, que en la lucha por ganar el liderazgo mundial del mercado de la inteligencia artificial están dirigiendo sus estrategias nacionales (González de Frutos, U., 2020) hacia dos ejes centrales: aumentar de forma masiva la inversión pública y privada en I+D+i dirigida al desarrollo de inteligencia artificial; e instaurar un control inteligente en las administraciones públicas basado en la recopilación y el tratamiento automatizado de datos de los ciudadanos, circunstancia última que trae a la palestra, nuevamente, el debate sobre los límites legales del establecimiento de un Estado automatizado y vigilante (Rivero Ortega, R., 1999; Ding, J., 2018).

Lo cierto es, que la generalización del uso de tecnologías basadas en sistemas de inteligencia artificial en manos de la administración pública –un destinatario más de las potencialidades que ofrece y los desafíos que deparan estas tecnologías aplicadas al servicio público– plantea la necesidad de reflexionar sobre los riesgos que supone la interacción entre la inteligencia artificial y los derechos de los ciudadanos, principalmente en lo que respecta a la automatización de la administración, el tratamiento de datos personales y el perfilamiento de ciudadanos en sectores sensibles de la administración pública como es la hacienda pública (Cerrillo i Martínez, A., 2019; Rodríguez Ayuso, J.F., 2020).

El presente estudio tiene como finalidad, identificar y analizar los desafíos éticos y jurídicos que se derivan de la utilización de las tecnologías disruptivas asociadas a la inteligencia artificial en manos de la administración pública en general y la tributaria en particular, sobre todo cuando se destina a la persecución del fraude fiscal; los daños “accidentales” que se pueden causar a los derechos y garantías del contribuyente, principalmente aquellos relacionados con el tratamiento de datos personales, y los sesgos y discriminaciones que puede ocasionar el uso de algoritmos entrenados en sistemas de big data; y la necesaria transparencia y rendición de cuentas asociada a la toma de decisiones automatizada por parte de la administración tributaria. Concluiremos estas líneas, con unas reflexiones generales sobre los posibles mecanismos legales que los poderes públicos podrían articular para asegurar la implementación de una inteligencia artificial que respete los derechos y garantías de los contribuyentes, y los principios éticos establecidos por la UE para asegurar su aplicación fiable, robusta y centrada en el ser humano.

II. Breve reseña a las importantes singularidades que comporta la utilización de la Inteligencia Artificial en el ámbito de la administración pública en general y tributaria en particular

No pretendemos ocultar que el uso de la inteligencia artificial aplicada al sector público proporciona claramente nuevas oportunidades para las diferentes administraciones (Cerrillo i Martínez, A, 2019), entre las que sin duda destacan la optimización de los servicios públicos, la accesibilidad y simplificación de trámites administrativos, el ahorro de costes administrativos, la lucha contra la delincuencia, entre muchos otros (Merchán Arribas, M, 2020; Cotino Hueso, L. 2017). Sin embargo, no debemos perder de vista que también plantea retos y genera riesgos en lo concerniente a cuestiones tales como la seguridad y la responsabilidad del tratamiento de los datos personales de los ciudadanos, la transparencia en la aplicación de algoritmos y sistemas de big data, la protección de los datos personales frente a usos delictivos o ciberataques, la rendición de cuentas respecto a la adopción de decisiones basadas únicamente en el tratamiento automatizado de datos (incluyendo la elaboración de perfiles), y la posibilidad de incurrir en la aplicación masiva de sesgos y discriminaciones[ 8 ].

Como bien apunta la Agencia Española de Protección de Datos (AEPD), resulta necesario tener en cuenta que el uso y el tratamiento de datos personales en las administraciones públicas mediante la implementación de la inteligencia artificial, implica riesgos distintos frente a aquellos derivados de un tratamiento que pueda realizar cualquier otro responsable y que emanan del volumen de sujetos afectados, de la extensión de los datos recogidos, de la imposibilidad, en muchos casos, de oponerse al tratamiento, y del poder o asimetría inherente que existe en las relaciones entre la administración pública y los ciudadanos o interesados de los que se tratan los datos. Independientemente del hecho de que todos los tratamientos llevados a cabo por las diferentes administraciones públicas están guiados por un espíritu de servicio público, estos posibles riesgos podrían materializarse sobre los ciudadanos en determinadas situaciones, como, por ejemplo, situaciones de quiebras del Estado de Derecho, situaciones de abuso por parte de los responsables públicos, en circunstancias de filtrado masivo o selectivo de datos personales como consecuencia de brechas de seguridad, ante supuestos de posibles cambios legislativos incluso en terceros países a los que hubieran sido transferidos los datos, ante casos de corrupción, y en situaciones de emergencia fuera de control, entre otros(Agencia Española de Protección de Datos, 2020).

En este sentido, el desarrollo y la utilización de la inteligencia artificial en el ámbito de la fiscalidad ha alcanzado una gran notoriedad nacional e internacional (Oberson, X., 2017; 2018; 2019; Olbert, M. y Spengel, C., 2017; Vishnevsky, V. y Chekina, V., 2018), por el cambio de paradigma que supone para la relación tributaria tradicional la obtención y el análisis de datos de los contribuyentes a través de nuevas herramientas informáticas y técnicas de inteligencia artificial de las que se benefician las administraciones tributarias (Ribes Ribes, A., 2020; Álamo Cerrillo, R. y Lagos Rodríguez, G., 2015; Álvarez Martínez, J., 2021; Sánchez-Archidona Hidalgo, G., 2019; Oliver Cuello, R., 2018; Olivares Olivares, B., 2017). De entre todas las administraciones públicas, la administración tributaria ha sido y continúa siendo el laboratorio tradicional y el área propicia para que el sector público experimente con soluciones de digitalización y automatización administrativa.

En la actualidad, según informes de la OCDE, el 53% de las administraciones tributarias utilizan herramientas basadas en sistemas de inteligencia artificial (Ocde, 2018), principalmente con la finalidad de recopilar un volumen ingente y creciente de datos haciendo uso del big data (Mascitti, M., 2020), de algoritmos para procesarlos, y de la interconexión masiva de sistemas y dispositivos con otras Administraciones públicas –incluyendo no tributarias– a nivel nacional, comunitario e internacional (Hurtado Puerta, J., 2020; Cotino Hueso, L., 2019a).

Este poder de recopilación de datos de los contribuyentes ha aumentado exponencialmente debido a las distintas iniciativas que tanto a nivel internacional como europeo[ 9 ] abogan por la transparencia y la lucha contra el fraude fiscal, basadas en el intercambio de información entre jurisdicciones fiscales y en la utilización de algoritmos que implantan modelos predictivos destinados a anticipar posibles problemas de cumplimiento de las obligaciones tributarias (Serrano Antón, F., 2020; Oberson, X., 2018; Guervós Maíllo, M.A., 2020; Moreno González, S., 2016; López Espadafor, C., 2017). Todo ello, mediante la creación de perfiles de riesgo fiscal de los contribuyentes orientados a que la administración tributaria adopte las medidas correctoras y las modalidades de intervención necesarias para contrarrestar dichos riesgos –acciones de inspección[ 10 ]–, que si bien maximizan su función de control (González de Frutos, U., 2020; Serrano Antón, F., 2020), nos obligan a realizar una necesaria reflexión acerca de la idoneidad o no de realizar una reconfiguración de los derechos y garantías de los contribuyentes que reconoce el art. 34 de la Ley General Tributaria[ 11 ] (LGT) que deja fuera la protección de ciertos derechos de incuestionable relevancia en este nuevo escenario digital, como es el tratamiento seguro y transparente de sus datos personales, o la transparencia, la publicidad y el rendimiento de cuentas resultante del uso de herramientas de inteligencia artificial (Grau Ruiz, M.A., 2017; Oliver Cuello, R., 2018; Álamo Cerrillo, R., 2020; Álamo Cerrillo, R. y Lagos Rodríguez, G., 2015; Ruiz Zapatero, G., 2016; Olivares Olivares, B., 2020; Carreras Manero, O., 2016; García de Pablos, J.F., 2016).

La anterior preocupación cobra aún más sentido en nuestro ordenamiento jurídico con la reciente publicación de las directrices generales del Plan Anual de Control Tributario y Aduanero de 2021[ 12 ] de la Agencia Tributaria, que en aras de la consecución de sus dos objetivos estratégicos, fundamentales y permanentes –la prevención y la lucha contra el fraude fiscal– apuesta por el desarrollo de actuaciones de comprobación e investigación sobre los obligados tributarios en los que concurran perfiles de riesgo mediante la implementación de análisis de big data[ 13 ]. Así, por ejemplo, dentro del pilar de Asistencia e Información, la Agencia Tributaria pretende continuar e intensificar un nuevo modelo de asistencia al contribuyente mediante la implantación de análisis de big data en el ámbito del Impuesto sobre la Renta de las Personas Físicas (IRPF), para la puesta en marcha de un proyecto que trata de reducir los errores del contribuyente al presentar su declaración, en línea con las estrategias internacionales y técnicas “nudge” –dirigidas a alentar y fomentar un comportamiento fiscal correcto– basadas en el enfoque “behavioural insights” –enfoque hacia una mejor comprensión del comportamiento del contribuyente–. En concreto, mediante estas técnicas de análisis de big data la administración tributaria pretende obtener las características descriptivas que definen al contribuyente tipo que, en ejercicios anteriores, al presentar su declaración del IRPF no utilizó los datos fiscales que le fueron suministrados y se equivocó al hacerlo, definiéndose un perfil tipo.

Si bien es cierto, con lo anterior se pretende implantar sistemas de asistencia para alertar a los contribuyentes afectados de manera que se reduzcan los posibles errores en la presentación de la declaración anual del IRPF, cuestión que a priori podría resultar beneficiosa para los contribuyentes (González de Frutos, U., 2020)[ 14 ], no debemos perder de vista que con esta tecnología disruptiva y potente emergen con más frecuencia problemas de índole ética y jurídica que pueden conllevar a que la administración provoque daños “accidentales” a los derechos y garantías de los contribuyentes, relacionados por ejemplo, con la discriminación algorítmica, las pérdidas financieras derivadas de una conclusión o predicción algorítmica errónea, daños para la reputación del contribuyente, posibles pérdidas de confidencialidad de los datos sujetos al secreto profesional (Olivares Olivares, B., 2018; Calderón Carrero, J.M., 2010; Fernández Amor, J.A.; 2010), reversión no autorizada de la seudonimización, brechas en la seguridad digital como la usurpación de identidad, y lesiones al derecho a la intimidad y a la protección de datos personales (Moreno González, S., 2016)[ 15 ].

Nuestra preocupación aumenta aún más en lo que respecta a las líneas de actuación prioritaria que pretende acometer la Agencia Tributaria en el pilar de investigación y actuaciones de comprobación del fraude tributario y aduanero. En este particular, plantea la implementación de un análisis patrimonial de los contribuyentes enmarcado dentro de las actuaciones de comprobación en cuanto al control de tributos internos se refiere. La concurrencia de riesgos fiscales asociados a la titularidad y la capacidad de gestión de grandes patrimonios, especialmente cuando una parte de los mismos pueda estar ubicada en el exterior, o está amparada por el uso de figuras societarias interpuestas que favorecen la opacidad de rentas y patrimonios, ha constituido una referencia básica en el marco de los planes de control que viene desarrollando la Agencia Tributaria desde su creación. En este sentido pretende continuar estableciendo mecanismos de comprobación algorítmica que se puedan desarrollar sobre los obligados tributarios que se encuentren bajo ese perfil de riesgo. En los últimos años, la Agencia Tributaria ha impulsado la captación de nuevas fuentes de información, las cuales, unidas a herramientas masivas de tratamiento de datos han permitido determinar el patrimonio neto de los ciudadanos, sus flujos globales de renta y, lo que es más alarmante aún, sus relaciones familiares, económicas y societarias.

Desde el punto de vista de la administración tributaria, las especiales características de los grandes contribuyentes –entiéndase, grupos multinacionales, grandes empresas y grupos fiscales– requieren el uso de mecanismos de análisis sofisticado para investigar y comprender complejos entramados financieros y societarios controlados por los mismos, lo que ha supuesto un importante esfuerzo en el desarrollo de herramientas informáticas específicas. Estas herramientas, basadas en el procesamiento de big data, han hecho posible efectuar de manera sistemática el análisis de residencia sobre contribuyentes que figuran como no residentes en las bases de datos tributarias. Este análisis ha permitido obtener, en su caso, los indicios necesarios para poder determinar la presencia durante más de 183 días en territorio español, la existencia en nuestro país de un centro de intereses económicos relevante y operativo, así como la existencia de relaciones familiares que permitan inferir la residencia en España. El resultado de ello se plasma progresivamente en el desarrollo de expedientes de comprobación que se desarrollaran a partir de los datos anteriores, en la medida en que permitan efectuar una regularización de las diferentes contingencias fiscales detectadas.

Sin embargo, a pesar de que la administración tributaria ve en la inteligencia artificial una vía para incrementar la eficacia y la eficiencia del servicio público, distinta es la visión de los contribuyentes afectados por la toma automatizada de decisiones administrativas que pueden ocasionar agravios a sus derechos cuando una medida restrictiva o de control de la administración representa una intromisión a su intimidad, o ha sido fundada en un algoritmo no transparente, o en base a una categorización arbitraria o irrelevante y por tanto discriminatoria y perjudicial.

III. Encaje normativo de las nuevas garantías de los contribuyentes ante el avance de la Inteligencia Artificial en la administración tributaria

Ante este horizonte de cambio radical en la dinámica competitiva, industrial, económica y política que ha impuesto el uso de la inteligencia artificial, la UE se ha visto compelida a intervenir mediante la configuración de una estrategia de inteligencia artificial para Europa (Comisión Europea, 2018a; 2018b; Cotino Hueso, L., 2019b), dirigida no solo a impulsar la capacidad tecnológica e industrial de la UE mediante la adopción de la inteligencia artificial en toda su economía, sino también y más importante aún, a garantizar un marco ético y jurídico, sólido y equilibrado en relación con el desarrollo y la utilización de la inteligencia artificial centrada en el ser humano (Comisión Europea, 2019a ), dirigida a operadores privados y a los poderes públicos.

Así pues, los desafíos que supone la irrupción de la inteligencia artificial exigen a la UE y a sus Estados miembros el establecimiento de unas bases jurídicas fiables y garantistas de los derechos y libertades fundamentales, principalmente los concernientes al derecho a la intimidad y a la no discriminación que consagran los textos constitucionales nacionales y los Tratados fundacionales[ 16 ], y a la protección de los datos de carácter personal[ 17 ] que ha sido desarrollado jurisprudencialmente[ 18 ] y por el acervo Comunitario[ 19 ] y que sustentan los cimientos del concepto de ciudadanía europea fundamentada en los valores de respeto a la dignidad humana, la libertad, la democracia, la igualdad, el Estado de Derecho y el respeto de los derechos humanos[ 20 ].

En aras de garantizar dicha protección legal, la UE durante los últimos años ha venido construyendo un marco normativo sólido y proteccionista cuyo objetivo no es otro que garantizar un elevado nivel de protección de los datos de carácter personal que implique la implementación de medidas de protección de datos desde la fase de diseño y por defecto, y que permita aplicar las tecnologías basadas en sistemas de inteligencia artificial de forma reflexiva, transparente, segura y responsable, evitando así resultados problemáticos como, por ejemplo, la toma de decisiones automatizadas basadas en datos incompletos –y por tanto no fiables o equivocados– susceptibles de ser manipulados por ciberataques, por sesgos y discriminaciones, que no hacen más que contribuir a aumentar el rechazo y la desconfianza por parte de los ciudadanos (Cotino Hueso, L., 2017; Mascitti, M., 2020).

Sobre esta base y con ese ánimo proteccionista en el ordenamiento comunitario, se erigen el Reglamento General de Protección de Datos (RGPD)[ 21 ], el Reglamento para la libre circulación de datos no personales en la Unión Europea[ 22 ], el Reglamento sobre Ciberseguridad de las tecnologías de la información y la comunicación[ 23 ], la Directiva relativa a los datos abiertos y la reutilización de la información del sector público[ 24 ]; normativa toda que ha servido de base, en calve de Derecho interno, para la promulgación de la Ley Orgánica 3/2018 de Protección de Datos Personales y garantía de los derechos digitales[ 25 ] (LOPDGDD) cuya protección se interrelaciona y se proyecta en el resto de la normativa interna, en particular, para el tema que nos ocupa pero no de forma exclusiva, con la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno[ 26 ], que juntas justifican el necesario tratamiento transparente de datos personales por la administración pública y en clave con los arts. 5, 13, 14 y 30 del RGPD. Así, todos ellos conforman el ancla de confianza jurídica en el “mercado” de datos europeo y español, apostando por la introducción normativa de mecanismos proactivos y preventivos, en vez de reactivos, que garanticen la protección digital de los ciudadanos.

Así, todos ellos contribuyen a crear un espacio de datos europeo cuya finalidad debe ser la seguridad y la transparencia, elementos que resultan esenciales para el desarrollo de una inteligencia artificial fiable y respetuosa con los derechos y garantías de los ciudadanos en Europa, incluido el sector público que ha encontrado en la inteligencia artificial una herramienta crucial para la futura labor de las administraciones públicas en el contexto digital al que nos adentramos precipitadamente. Lo anterior suma mayor importancia en escenarios donde los Estados implementan las tecnologías basadas en sistemas de inteligencia artificial para garantizar la seguridad nacional y la aplicación de la ley, escenarios que arrojan, de un lado, desafíos legales para la administración pública en tanto ésta continúa compelida a la evaluación, gestión y minimización del riesgo para los derechos y libertades de los ciudadanos, a la motivación de sus decisiones, y a la sujeción de sus actos al control administrativo y judicial (García de Enterría, E. y Fernández, T.R., 2020); y de otro, desafíos éticos (Cotino Hueso, L., 2017).

Como respuesta a estos retos y riesgos tan cambiantes, la UE publicó las Directrices éticas (Comisión Europea, 2019b) y el Libro Blanco sobre la inteligencia artificial (Comisión Europea, 2020) –ambos textos también dirigidos y aplicables al uso de la inteligencia artificial por el sector público– juntos, articulan un marco común para lograr una inteligencia artificial ética y fiable basada en los derechos humanos consagrados en la Carta de los Derechos Fundamentales de la Unión Europea, así como en la pertinente legislación internacional de derechos humanos. En este sentido, se señala que una inteligencia artificial fiable debe estar sustentada en tres componentes: la licitud, la ética y la robustez. Sobre esa base nos presentan siete requisitos esenciales que deben ser aplicados a todos los sistemas de inteligencia artificial utilizados por las diferentes administraciones públicas: intervención y supervisión humanas, solidez y seguridad técnicas, gestión de la privacidad y de los datos, transparencia, inclusión de la diversidad, no discriminación y equidad, bienestar ambiental y social, y, la necesidad de rendición de cuentas (Grau Ruiz, M.A., 2017).

Así, Europa se reafirma en el compromiso de no considerar a la dimensión ética como supuesto accesorio al avance tecnológico, sino que ha de ser parte integrante del desarrollo de la inteligencia artificial. Por lo cual, debe estar dirigida no solo a salvaguardar el respeto de los valores esenciales de la sociedad europea, sino también a evitar la implantación de una dictadura de los datos (Mayer-Schönberger, V. y Cukier, K., 2013).

Por tanto, la utilización extensiva y exitosa de la inteligencia artificial requiere que los poderes públicos redefinan las estrategias basadas en el uso de las nuevas tecnologías y desarrollen una adecuada gobernanza de los datos en su poder. Es su deber garantizar un desarrollo sostenible e inclusivo de la inteligencia artificial que no cree o aumente las brechas de desigualdad en nuestra sociedad (Cotino Hueso, L., 2017), sino que reduzca las ya existentes mediante la implementación de la inteligencia artificial desde un enfoque de tecnología social, siguiendo el respeto de los derechos fundamentales de los ciudadanos (Agencia Española de Protección de Datos, 2021)[ 27 ].

IV. Algunos problemas que circundan el uso de la inteligencia artificial en manos de las administraciones tributarias: sesgos, discriminaciones y vulneraciones a la protección de datos de carácter personal de los contribuyentes. A propósito de la sentencia syri

Como hemos adelantado ya, el objetivo de los proyectos de inteligencia artificial y análisis de información desarrollados por la administración tributaria deben, ante todo, estar alineados con su doble misión, de un lado, ayudar a los contribuyentes a cumplir de forma voluntaria sus obligaciones tributarias mediante actividades de asistencia y de información[ 28 ], y de otro, a fortalecer la lucha contra el fraude fiscal (García-Herrera Blanco, C., 2020; Segarra, S., 2020; Borja Tomé, J., 2020). Si bien es cierto el uso de la inteligencia artificial en aras de la consecución de ambos objetivos juega un papel esencial en la transformación de las administraciones tributarias ante la nueva realidad fiscal a la que nos enfrentamos, es mandatorio prestar una especial consideración a cómo esta transformación de la administración puede afectar a la posición jurídica de los contribuyentes. Sobre todo, en lo que respecta a sus derechos y garantías en un contexto que, en un futuro cercano, puede ser muy diferente al que hoy conocemos y que hasta el momento regula nuestro ordenamiento jurídico (Grau Ruiz, M.A., 2020).

Como aventuramos líneas atrás, uno de los mayores riesgos e incertidumbres que depara el uso de la inteligencia artificial en manos de una administración tributaria es la comisión de errores en la toma de decisiones automatizadas, y la introducción de sesgos y discriminaciones algorítmicas estratégicas al conculcar derechos individuales de los contribuyentes reconocidos en la normativa vigente, cuyas implicaciones prácticas no están todavía suficientemente exploradas dada la novedad intrínseca a este tipo de tecnología (Terrón Santos, D. y Domínguez Álvarez, J.L., 2019).

Si bien es cierto, que el art. 34 LGT enuncia los derechos de los contribuyentes en su relación con la administración tributaria, expresamente se reclama que el derecho a la privacidad, a la confidencialidad de los datos de los contribuyentes y al correcto uso y tratamiento de mismos, sean garantías que se deben añadir y acompañar a cualquier actividad digital asociada a la administración tributaria, máxime cuando intervengan herramientas basadas en inteligencia artificial[ 29 ]. Cuanto más aún en el supuesto del fraude fiscal que se caracteriza por la existencia de una asimetría de información en favor del contribuyente que ocasiona la ambición de la administración tributaria en la acumulación de información veraz, situación que puede conllevar a una severa intromisión en la esfera de la intimidad de los contribuyentes.

Como bien apunta la doctrina, aunque nuestra Constitución preserva expresamente en el art. 18.4 el derecho a la privacidad de los ciudadanos dentro de la categoría de derechos fundamentales y libertades públicas, existe un sigiloso consenso sobre la legitimidad de la acumulación de datos de los contribuyentes por parte de la administración tributaria, desde información estructurada –que incluye el suministro de datos por los medios de intercambio de información entre administraciones–, hasta la no estructurada –derivada de nuestra presencia en las redes sociales o el comercio electrónico–, cuestión que nos reafirma en nuestro planteamiento inicial sobre la existencia de cuestionamientos éticos referentes a la cantidad, la calidad y el tipo de datos que la administración tributaria puede o debe introducir en los análisis de riesgo fiscal de los contribuyentes (González de Frutos, U., 2020). Desde luego, este es un problema pernicioso que descarta la posibilidad de admitir la estrategia de división de la información económica con trascendencia tributaria de aquella relacionada con la vida personal del contribuyente, práctica que resulta habitual en impuestos de carácter personal y directo como el IRPF que atiende a las circunstancias personales y familiares de los contribuyentes.

En este sentido, el cumplimiento de la normativa europea de protección de datos se ha hecho eco en la doctrina tributaria como uno de los principales retos jurídicos a los que se enfrenta la administración en la utilización de herramientas basadas en inteligencia artificial, ya no solo en lo referente a la falta de transparencia algorítmica imperante y los consiguientes riesgos discriminatorios que plantea, sino también en relación con la toma de decisiones administrativo-tributarias. Sobre todo, en lo relativo a la automatización de las actuaciones tributarias y su generalización como una ayuda de carácter técnico a la toma de decisión del funcionario, o como un supuesto absoluto de decisión automatizada. En particular en este último caso, se cuestiona ampliamente la compatibilidad o no de su encaje jurídico en el marco del ejercicio de potestades administrativo-tributarias, tanto regladas como discrecionales (Serrano Antón, F., 2020; Sierra, S., 2020). En cualquier caso, el resultado a perseguir por la administración tributaria en la implementación del big data y los correspondientes algoritmos de tratamiento de datos debe ser una mejora de la calidad de los actos tributarios, haciéndolos más objetivos y, en consecuencia, más justos, permitiendo así una mejor aplicación del sistema tributario.

Por tanto, resulta imperativo para los poderes públicos articular mecanismos para que la administración tributaria pueda hacer frente a los riesgos de privacidad de los datos de los contribuyentes, a los sesgos y discriminaciones que el uso de algoritmos entrenados sobre sistemas de big data puedan originar, y a la necesaria rendición de cuentas asociada con la toma de decisiones automatizadas (Grau Ruiz, M.A., 2020), con el fin de reforzar la confianza de los contribuyentes en la utilización de técnicas y sistemas sustentados en soluciones de inteligencia artificial, elemento esencial para garantizar la correcta implementación de su uso por parte del poder público (Agencia Española de Protección de Datos y Asociación Española para el Fomento de la Seguridad de la Información, 2018). Nos referimos en concreto a la necesidad de asegurar la calidad, la transparencia y la fiabilidad de los algoritmos que utiliza la administración, la necesaria supervisión humana de los mismos y su regulación, evitando así la instauración de la omnipotencia del algoritmo a la que ya hacía referencia décadas atrás TURING (Turing, A., 1950, p. 443).

Derivado de lo anterior, cuando hacemos hincapié en la necesidad de mejorar la calidad de los algoritmos en manos de la administración tributaria, nos referimos al diseño interno del algoritmo y a las posibles discriminaciones introducidas en su configuración que invaliden sus hipótesis y sus resultados por producir posibles discriminaciones entre contribuyentes como ha sucedido en otras jurisdicciones fiscales (García-Herrera Blanco, C., 2020; Schieck, A., 2017; Castellanos Claramunt, J. y Montero Caro, M.D., 2020). La administración tributaria debe ser especialmente cuidadosa al utilizar los resultados de modelos predictivos como indicadores de comportamiento futuro de un contribuyente. Estos modelos, que basan sus predicciones en un entrenamiento a partir de situaciones del pasado para inferir el comportamiento futuro del contribuyente, siempre tendrán un margen de error que viene dado por la imposibilidad material de la administración tributaria para captar todas las posibles fuentes de información que pueden afectar las decisiones y el comportamiento de un contribuyente (Castellanos Claramunt, J. y Montero Caro, M.D., 2020), que además puede no ser lineal, o aun suponiendo que las condiciones que afectan al comportamiento del contribuyente sean invariables en el tiempo (Borja Tomé, J., 2020).

A mayores, los datos empleados para el entrenamiento del modelo predictivo pueden incurrir en diversos sesgos que pueden dar lugar a discriminaciones entre contribuyentes, ya sea porque el entrenamiento de los algoritmos se haya basado en decisiones previas de funcionarios públicos quienes en un determinado procedimiento –de forma consciente o inconsciente– hayan incurrido en la toma de decisiones sesgadas que los algoritmos podrían limitarse a reproducir si no se supervisan y analizan cuidadosamente; o bien, porque los datos de entrenamiento del algoritmo estén sesgados por no ser una muestra suficientemente representativa. En este último caso, cuando se pretende entrenar un modelo predictivo para identificar el fraude fiscal a partir de casos de fraude previamente conocidos se debe tener en cuenta que en el ámbito tributario puede haber situaciones de fraude que queden sin identificar, más cuando tratamos con contribuyentes inmersos en la economía digital y transfronteriza. En las circunstancias antes descritas, tanto el algoritmo como el funcionario público encargado de la supervisión del tratamiento estarían “ciegos” frente a tipos de fraude fiscal no identificados hasta la fecha.

De ahí, que el resultado de modelos predictivos en el ámbito de la administración tributaria requiera, especialmente en la lucha contra el fraude fiscal, una necesaria supervisión humana de los algoritmos, no solo en su diseño sino también durante el uso del mismo (García-Herrera Blanco, C., 2020). En este sentido se confirma que la inteligencia artificial debe servir de herramienta de apoyo a la toma de decisiones relevantes de naturaleza tributaria, pero en última instancia siempre se debe garantizar como mínimo el derecho a obtener intervención humana por parte del responsable del tratamiento de los datos respecto a la toma decisiones individuales automatizadas, incluida la elaboración de perfiles, cuestión que además se erige como una exigencia del art. 22 RGPD[ 30 ].

Otro reto digno de mención supone la necesidad de incrementar la transparencia de los algoritmos en manos de la administración tributaria requisito que imponen los principios de transparencia y explicabilidad que recogen las Directrices éticas de la UE, los arts. 5, 7, 12 y ss. RGPD, la Ley 19/2013 de transparencia, acceso a la información pública y buen gobierno, y el art. 96.4 LGT. En particular este último, en lo que respecta a la utilización de tecnologías informáticas y telemáticas, obliga a la administración tributaria a establecer un procedimiento reglamentario de aprobación los programas y aplicaciones electrónicos, informáticos y telemáticos que vayan a ser utilizados por ésta, entre ellos los algoritmos y los sistemas de big data, que no ha sido aprobado aún, razón por la cual se desconoce cuáles son los órganos competentes para la programación y supervisión de los sistemas de información y los órganos competentes para resolver los recursos que puedan interponerse (Serrano Antón, F., 2020).

El principal problema al que nos enfrentamos en este particular es la llamada opacidad algorítmica o black box capaz de generar una alta dificultad, tanto para el contribuyente como para la propia Administración, para conocer el funcionamiento del algoritmo que está tomando una decisión[ 31 ]. La opacidad algorítmica, sin lugar a duda, puede llegar a ocasionar vulneraciones del derecho a la defensa del contribuyente y por consiguiente a su seguridad jurídica, aunque también conviene puntualizar que la transparencia temprana no es compatible con las primeras fases del proceso de comprobación tributaria donde el factor sorpresa es esencial para la persecución del fraude fiscal (García-Herrera Blanco, C., 2020; Castellanos Claramunt, J. y Montero Caro, M.D., 2020). Sin embargo, la opacidad de los algoritmos ha sido objeto reciente de fallo en los tribunales, en concreto, en Países Bajos donde se declaró contrario al art. 8 del Convenio Europeo de Derechos Humanos y por tanto ilegal, el uso de un algoritmo opaco diseñado y utilizado por la administración tributaria holandesa para combatir el fraude a la seguridad social por dar lugar a claras y graves discriminaciones entre contribuyentes, principalmente entre aquellos categorizados como inmigrantes, circunstancia que incluso ha ocasionado la dimisión en bloque del Gobierno holandés (Grau Ruiz, M.A., 2020)[ 32 ].

Nos referimos a la Sentencia histórica del Tribunal del Distrito de la Haya, de 5 de febrero de 2020, Caso C/09/550982[ 33 ], que ata en corto la implantación de modelos opacos de comportamiento predictivo. Se basa en una denuncia realizada por el Comité Jurídico de Derechos Humanos de los Países Bajos en conjunto con otros Asociaciones y dos ciudadanos particulares, en contra del Estado neerlandés por el uso de un sistema algorítmico de indicación de riesgos (System Risk Indication–SyRI). Dicho sistema era utilizado por la Seguridad Social Holandesa con el fin de predecir la probabilidad de que solicitantes de beneficios estatales defraudaran tanto en sus contribuciones a la seguridad social como en el pago de impuestos. SyRI permitía vincular y analizar datos de forma autónoma para poder generar informes de riesgo. Entendiendo como informe de riesgo la consideración de que una persona jurídica o física merecía ser investigada en relación con un posible fraude o incumplimiento de la legislación laboral o fiscal pertinente, circunscribiendo su aplicación exclusivamente a los barrios donde vivían personas con rentas bajas o zonas donde residían personas pertenecientes a minorías, principalmente inmigrantes.

La doctrina administrativa y tributaria se ha pronunciado respecto a las garantías que esta sentencia reconoce frente al uso de inteligencia artificial y la toma de decisiones automatizadas en el sector público en general afirmando que sin lugar a dudas supone un revés para una de las administraciones tributarias europeas más dinámicas, la holandesa, y para el resto de administraciones tributarias, al tratar de comprobar el correcto disfrute de beneficios fiscales mediante el uso de nuevas tecnologías aplicando una regla de selección en el módulo del impuesto sobre la renta que contenía el criterio de la nacionalidad, sin que hubiera un fundamento jurídico explícito para ello. Así, con una mirada crítica al papel otorgado a las tecnologías de la información y comunicación en la administración tributaria y aduanera, en los Países Bajos se han denunciado abusos que han destruido financieramente a receptores de beneficios fiscales por cuidado de hijos, o hasta un posible componente racista en la actuación administrativa al poner el foco de los procedimientos en determinados inmigrantes. Todo ello, en la medida en que tecnológicamente era posible aplicar filtros para detectar a contribuyentes que tuvieran una segunda nacionalidad, careciendo de suficiente cobertura normativa tal modo de proceder. La Sentencia declara así, a estas operaciones de tratamiento de datos como ilegitimas, discriminatorias y contrarias a los derechos humanos, analizando el funcionamiento automatizado, profundo y predictivo de SyRI sobre la base del art. 8 del Convenio Europeo de Derechos Humanos y no ―directamente― sobre el RGPD, afirmando que la falta de transparencia algorítmica intrínseca a SyRI y la falta de información a los interesados cuyos datos se trataban, violó los derechos de defensa y no discriminación de los contribuyentes (Grau Ruiz, M.A., 2020; Cotino Hueso, L., 2020).

V. Reflexiones finales

No podemos ocultar que la utilización de la inteligencia artificial computa a su favor claras y múltiples ventajas y beneficios para la eficiencia y la operatividad de las administraciones públicas. Sin embargo, la toma decisiones administrativas basadas preferentemente en los cálculos matemáticos que supone el uso de algoritmos y big data, pueden ocasionar severos y enormes daños a los derechos de los ciudadanos. Que la administración tributaria en sus planes de prevención y detección de fraude fiscal apueste y los condicione a la utilización de la inteligencia artificial, sin la existencia de una regulación algorítmica transparente, puede provocar la comisión de injusticias y la restricción de los derechos de los contribuyentes. Máxime cuando su utilización implica inherentemente la determinación de patrones de riesgo de los contribuyentes, lineamientos que han demostrado ser más que simples cálculos matemáticos capaces de reproducir sesgos e incurrir en discriminaciones ilegales.

En este particular no se debe perder de vista jamás, que si bien los sesgos de la inteligencia artificial se están convirtiendo rápidamente en uno de los temas más discutidos en relación con este tema, los algoritmos aún se perciben como instrumentos objetivos, inescrutables e incuestionables de las matemáticas que producen resultados racionales e imparciales. Por tanto, es importante recordar que los algoritmos son una creación de diseño humano que hereda nuestros prejuicios, de ahí que resulte necesaria la creación de mecanismos que garanticen la neutralidad de los algoritmos que permitan evitar la perpetuación de patrones discriminatorios.

Nos enfrentamos pues ante la imperiosa necesidad de regular normativamente el uso de la inteligencia artificial en manos de la administración tributaria, con el fin de prever de forma clara y exhaustiva que uso se puede dar a la misma y bajo qué condiciones, a efectos de que la injerencia que se produzca en la esfera privada del contribuyente sea leve y, en todo caso, proporcional al riesgo analizado.

Solo en la medida en que la administración tributaria garantice la licitud, la seguridad tecnológica y jurídica, y la calidad de los algoritmos que utiliza podremos ser capaces de reducir, identificar, simplificar e incluso evitar los sesgos y las discriminaciones ilegitimas e ilegales entre contribuyentes que puedan resultar del uso de la inteligencia artificial. Para ello resulta necesario que los poderes públicos en general y la administración tributaria en particular, impulsen mecanismos para canalizar y articular de forma segura, ética y responsable la gobernanza de los datos en su poder. Fortalecer la competencias técnicas y tecnológicas de la administración tributaria que supongan un mayor conocimiento del uso, diseño y manejo de la inteligencia artificial por los funcionarios de hacienda supondrá una mayor capacidad de respuesta para evitar las brechas de seguridad, los sesgos, las discriminaciones y los demás desafíos intrínsecos al desarrollo y potenciación de la inteligencia artificial en el sector público.

La final aprobación de la Carta de Derechos Digitales promovida por el gobierno supondrá, a nuestro parecer, una oportunidad única para reforzar la posición de los ciudadanos frente a los riesgos que puede entrañar para sus derechos y garantías el uso de la inteligencia artificial por las administraciones públicas. Lo anterior, unido a la creación de órganos de supervisión y control que supongan una formalización de una gobernanza de la inteligencia artificial que facilite su incorporación en las administraciones públicas y controle el impacto que supone su uso en la toma de decisiones administrativas constituye una imperiosa necesidad. En este sentido, ha de existir un mecanismo fácil y rápido que permita rendir cuentas a la administración y establezca con claridad y certeza quién es el responsable de las consecuencias que puedan resultar de la aplicación de decisiones administrativas tomadas por un sistema inteligente, así como los mecanismos efectivos de reparación para los ciudadanos cuyos derechos fundamentales sean infringidos por los sistemas automatizados de toma de decisiones.

Bibliografía

Agencia Española de Protección de Datos (2021). Pacto Digital para la protección de las personas. AEPD. https://bit.ly/3eUOySN

Agencia Española de Protección de Datos (2020). Tecnologías y Protección de datos en las Administraciones Públicas. AEPD. https://bit.ly/3h2xUmO

Agencia Española de Protección de Datos y Asociación Española para el Fomento de la Seguridad de la Información (2018). Código de buenas prácticas en protección de datos para proyectos Big data. AEPD. https://bit.ly/3h4z55w

Álamo Cerrillo, R. (2020). La necesidad de un cambio tributario en materia de economía digital. Ekonomiaz, (98), 108-125. https://bit.ly/3nSXZX9

Álamo Cerrillo, R. y Lagos Rodríguez, G. (2015). Necesidad de adaptación de los conceptos tributarios a la realidad económica digital. Quincena Fiscal, 3, 19-30.

Álvarez Martínez, J. (2021). Robótica y fiscalidad: unas breves consideraciones. Quincena Fiscal, (3), 123-128.

Borja Tomé, J. (2020). El uso de la Inteligencia artificial y el análisis de información en la Agencia Tributaria. En Serrano Antón, F. (Dir.), Fiscalidad e Inteligencia Artificial: Administración Tributaria y Contribuyentes en la era digital (pp. 203-220). Thomson Reuters Aranzadi.

Castellanos Claramunt, J. y Montero Caro, M.D. (2020). Perspectiva constitucional de las garantías de aplicación de la inteligencia artificial: la ineludible protección de los derechos fundamentales. IUS ET SCIENTIA, 6 (2), 72-82. https://dx.doi.org/10.12795/IETSCIENTIA

Calderón Carrero, J.M., (2010). El secreto tributario y su fundamentación constitucional. En Arrieta Martínez de Pisón, J., et. al (Dirs.), Tratado sobre la Ley General Tributaria, Homenaje a Álvaro Rodríguez Bereijo. Tomo II (pp. 161-194). Thomson Reuters-Aranzadi.

Carreras Manero, O. (2016). Alcance y límites del deber de información con trascendencia tributaria. A propósito de la Sentencia del Tribunal Supremo. Sala de lo Contencioso-Administrativo, Sección 2ª), de 30 de abril de 2015. Quincena Fiscal, (1-2).

Cerrillo i Martínez, A. (2019). El impacto de la inteligencia artificial en el derecho administrativo. ¿Nuevos conceptos para nuevas realidades técnicas?. Revista General de Derecho Administrativo, (50).

Comisión Europea (2018a). Inteligencia artificial para Europa. COM(2018) 237.

Comisión Europea (2018b). Plan coordinado sobre la inteligencia artificial. COM(2018) 795.

Comisión Europea (2019a). Generar confianza en la inteligencia artificial centrada en el ser humano. COM(2019) 168.

Comisión Europea (2019b). Directrices Éticas para una IA fiable. Comisión Europea. https://dx.doi.org/10.2759/14078

Comisión Europea (2020). Libro Blanco sobre la inteligencia artificial, un enfoque europeo orientado a la excelencia y la confianza. COM(2020) 65.

Cotino Hueso, L. (2017). Big data e inteligencia artificial. Una aproximación a su tratamiento jurídico desde los derechos fundamentales. Dilemata, (24), 131-150. https://bit.ly/33nbc0R

Cotino Hueso, L. (2019a). Riesgos e impactos del big data, la inteligencia artificial y la robótica. Enfoques, modelos y principios de la respuesta del Derecho. Revista General de Derecho Administrativo, (50).

Cotino Hueso, L. (2019b). Ética en el diseño para el desarrollo de una inteligencia artificial, robótica y big data confiables y su utilidad desde el derecho. Revista Catalana de Dret Públic, 58, 29-48. https://bit.ly/3un0B1M

Cotino Hueso, L. (2020). Holanda: “SyRI, ¿a quién sanciono?” Garantías frente al uso de inteligencia artificial y decisiones automatizadas en el sector público y la sentencia holandesa de febrero de 2020. Diario La Ley privacidad, (4). https://bit.ly/3h7duJE

Ding, J. (2018). Deciphering China’s AI Dream. The context, components, capabilities, and consequences of China’s strategy to lead the world in AI. Universidad de Oxford. https://bit.ly/3auFnrC.

Domínguez Álvarez, J.L. (2020). El papel de las fuerzas armadas en la seguridad de la información. En Terrón Santos, D. y Domínguez Álvarez, J.L. (Dirs.), Innovación y Defensa: Diferentes perspectivas de una misma realidad (pp. 25-54). Comares.

European Comission Article 29 Data Protection Working Part (2018). Guidelines on Automated Individual Decision-Making and Profiling for the Purpose of Regulation 2016/679.

Fernández Amor, J.A. (2010). El carácter reservado de los datos con trascendencia tributaria. En Arrieta Martínez De Pisón, J., et al. (Dirs.), Tratado sobre la Ley General Tributaria, Homenaje a Álvaro Rodríguez Bereijo. Tomo II (pp. 195-214). Thomson Reuters-Aranzadi.

García de Enterría, E. y Fernández, T.R. (2020). Curso de Derecho Administrativo I. Civitas-Thomson Reuters.

García-Herrera Blanco, C. (2020). El uso del big data y la inteligencia artificial por las Administraciones tributarias en la lucha contra el fraude fiscal. Particular referencia a los principios que han de regirla y a los derechos de los contribuyentes. En Serrano Antón, F. (Dir.), Fiscalidad e Inteligencia Artificial: Administración Tributaria y Contribuyentes en la era digital (pp. 297-317). Thomson Reuters Aranzadi.

García de Pablos, J.F. (2016). La transparencia tributaria y el derecho al acceso a la información fiscal. Quincena Fiscal, (19), 21-42.

González de Frutos, U. (2020). Inteligencia artificial y Administración Tributaria. En Serrano Antón, F. (Dir.), Fiscalidad e Inteligencia Artificial: Administración Tributaria y Contribuyentes en la era digital (pp. 135-166). Thomson Reuters Aranzadi.

Grau Ruiz, M.A. (2017). La adaptación de la fiscalidad ante los retos jurídicos, económicos, éticos y sociales planteados por la robótica. Nueva Fiscalidad, (4), 35-61.

Grau Ruiz, M.A. (2020). Riesgos y oportunidades en la creciente digitalización fiscal. Revista Técnica Tributaria, (30), 7-15.

Guervós Maíllo, M.A. (2020). Buenas prácticas y transparencia fiscal. Quincena Fiscal (22), 85-112.

Huawei (2016). Building the Future: New ICT Enables Smart City. IDC Government Insights White Paper. https://bit.ly/3h0odFH

Hurtado Puerta, J. (2020). Big Data y la gestión tributaria. En Serrano Antón, F. (Dir.), Fiscalidad e Inteligencia Artificial: Administración Tributaria y Contribuyentes en la era digital (pp.167-182). Thomson Reuters Aranzadi.

Iriarte Yanicelli, A. (2020). Derechos y garantías de los contribuyentes en la cuarta revolución industrial: Aproximación desde las transformaciones de la relación jurídica tributaria en la era de la inteligencia artificial. En Serrano Antón, F. (Dir.), Fiscalidad e Inteligencia Artificial: Administración Tributaria y Contribuyentes en la era digital (pp. 221-295). Thomson Reuters Aranzadi.

Kagermann, H., et al. (2013). Recommendations for implementing the strategic initiative Industrie 4.0. ACATECH (National Academy of Science and Engineering). https://bit.ly/3h5jSRl

López Espadafor, C. (2017). Globalización en el deber de cooperación entre administraciones tributarias ante la persistencia de los paraísos fiscales. Quincena Fiscal, (8), 75-104.

Mascitti, M. (2020). La función conjetural del Derecho reforzada por los algoritmos en la era de big data. IUS ET SCIENTIA, 6 (2), 162-185. https://dx.doi.org/10.12795/IETSCIENTIA

McCarthy, J., et al. (1955). A proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Standford.

Mayer-Schönberger, V. y Cukier, K. (2013). The Dictatorship of Data. MIT Technology Review.

Merchán Arribas, M. (2020). Guía de uso de la Inteligencia Artificial en el Sector Público. Digital Revolution.

Moreno González, S. (2016). El intercambio automático de información tributaria y la protección de datos personales en la Unión Europea. Reflexiones al hilo de los últimos progresos normativos y jurisprudenciales. Quincena Fiscal, (12), 39-70.

Oberson, X. (2017). Taxing Robots? From the Emergence of an Electronic Ability to Pay to a Tax on Robots or the Use of Robots. World Tax Journal, 9(2), 247-261.

Oberson, X. (2018). International Exchange of Information in Tax Matters: Towards Global Transparency. Edward Elgar Publishing. https://doi.org/10.4337/9781786434739.

Oberson, X. (2019). Taxing Robots: Helping the Economy to Adapt to the Use of Artificial Intelligence. Edward Elgar Publishing. https://doi.org/10.4337/9781788976527.

Ocde (2018). Tax challenges arising from digitalisation- Interim Report, 2018: Inclusive Framework on BEPS, OCDE/G20 Base Erosion and Profit Shifting Project. OCDE Publishing.

Ocde (2016). Advance Analytics for Better Tax Administration: Putting Data to Work. OCDE Publishing.

Olbert, M. y Spengel, C. (2017). International Taxation in the Digital Economy: Challenge Accepted?. World Tax Journal, 9(1), 3-46.

Olivares Olivares, B. (2017). Technological innovation within the Spanish Tax Administration and data subjects’s right to Access: An opportunity knocks. Computer Law & Security Review, 34(3), 628-639. http://dx.doi.org/10.1016/j.clsr.2017.11.012

Olivares Olivares, B. (2018). La captación de información personal de abogados y procuradores: ¿dónde quedan las garantías jurídicas?. Quincena Fiscal, (4), 21-46.

Olivares Olivares, B. (2020). Transparencia y aplicaciones informáticas en la Administración tributaria. Crónica Tributaria, (174), 89-112. https://bit.ly/3b6aeu1

Oliver Cuello, R. (2018). Análisis de los derechos de los contribuyentes en la Administración electrónica. Quincena Fiscal, (18), 15-50.

Orden PCI/487/2019, de 26 de abril, por la que se publica la Estrategia Nacional de Ciberseguridad 2019, aprobada por el Consejo de Seguridad Nacional. Boletín Oficial del Estado, 103, de 30 de abril de 2019, BOE-A-2019-6347. https://bit.ly/3ejWtde

Parlamento Europeo (2017). Resolución de 14 de marzo de 2017, sobre las implicaciones de los macrodatos en los derechos fundamentales: privacidad, protección de datos, no discriminación, seguridad y aplicación de la ley, (2016/2225(INI)). https://bit.ly/3h5iRZz

Ribes Ribes, A. (2020). La inteligencia artificial a servicio del «compliance tributario». Revista Española de Derecho Financiero, (188), 125-170.

Rivero Ortega, R. (1999). El Estado vigilante: consideraciones jurídicas sobre la función inspectora de la Administración. Tecnos.

Rodríguez Ayuso, J.F. (2020). Supervisión y control del tratamiento de datos personales en el ámbito de la administración tributaria: la figura del DPD. Quincena Fiscal, (12), 39-50.

Ruiz Zapatero, G. (2016). El TEDH y la protección de la privacidad de los datos tributarios. Quincena fiscal, (5), 157-168.

Sánchez-Archidona Hidalgo, G. (2019). La tributación de la robótica y la inteligencia artificial como límites del Derecho financiero y tributario. Quincena Fiscal, (12), 69-100.

Sierra, S. (2020). Inteligencia artificial y justicia administrativa: una aproximación desde la teoría del control de la administración pública. Revista General de Derecho Administrativo, (53).

Segarra, S. (2020). Algunas aplicaciones de la inteligencia artificial en la Administración Tributaria. En Serrano Antón, F. (Dir.), Fiscalidad e Inteligencia Artificial: Administración Tributaria y Contribuyentes en la era digital (pp. 183-202). Thomson Reuters Aranzadi.

Serrano Antón, F. (2020). Fiscalidad y Robótica: funcionalidades disruptivas en el Derecho tributario. En Serrano Antón, F. (Dir.), Fiscalidad e Inteligencia Artificial: Administración Tributaria y Contribuyentes en la era digital (pp. 19-55). Thomson Reuters Aranzadi.

Schieck, A. (2017). Big data: a framework for tax payer and IRS protection. Tax Notes, (21).

Terrón Santos, D. y Domínguez Álvarez, J.L. (2019). Nueva regulación de la Protección de Datos y su perspectiva digital. Comares.

Turing, A. (1936). On computable numbers, with an application to the Entscheidungs problem. Proc. London Math Society, 2(42), 230-265. https://bit.ly/3nOADla

Turing, A. (1950). Computing machinery and intelligence. Mind: A quarterly review of Psychology and Philosophy, LIX (236), 433–460. https://doi.org/10.1093/mind/LIX.236.433

Turing, A. (1951). Can Digital Computers Think?. En Shieber, S. (Ed). The Turing Test: Verbal Behavior as the Hallmark of Intelligence (pp.111-116). MIT Press.

Valdivia Jiménez, R. (2020). Ética e inteligencia artificial. Una discusión jurídica. IUS ET SCIENTIA, 6(2), 111-134. https://dx.doi.org/10.12795/IETSCIENTIA

Vishnevsky, V. y Chekina, V. (2018). Robots vs. tax inspector or how the fourth industrial revolution will change the tax system: a review of problems and solutions. Journal of Tax Reforms, 4(1), 6-26. https://doi.org/10.15829/jrt.2018.4.1.042

[ 1 ] Para profundizar sobre el origen del concepto “Industria 4.0” utilizado para denominar al conjunto de acciones dirigidas a lograr la denominada “fábrica inteligente”. (Kagermann, H., et al., 2013)

[ 2 ] Sobre el concepto de inteligencia artificial vid. (McCarthy, J. et al, 1955) quienes han trabajado sobre la base de los estudios realizados por (Turing, A., 1936; 1950; 1951).

[ 3 ] Esto es especialmente acuciante para evitar la concreción de la visión excesivamente fatalista, a nuestro entender, de autores como (Valdivia Jiménez, R., 2020, p. 118). Sobre la necesaria regulación del uso de la inteligencia artificial en nuestro Derecho administrativo (Cotino Hueso, L., 2017; 2019a), (Cerrillo i Martínez, A., 2019); entre otros.

[ 4 ] Sobre la recepción y proclamación internacional de la necesidad de una ética de la inteligencia artificial (Cotino Hueso, L., 2019b, pp. 32 y ss.).

[ 5 ] La información pública referente a la solicitud de las últimas patentes registradas por Google y Amazon respecto al desarrollo de sus dispositivos “Google Home” y “Amazon Eco” desvela que el objetivo principal de las mismas, además de “facilitar al usuario la realización de las tareas cotidianas más sencillas”, es obtener datos personales sobre el mismo con el fin último de usarlos para mostrarnos publicidad dirigida. Las patentes sugieren que estos dispositivos son capaces de conocer todo lo referente al usuario, desde el estado de ánimo de la o las personas que conviven con ellos, hasta sus problemas médicos o información demográfica. Los altavoces de Google y Amazon podrían escuchar –e interpretar– el “volumen de la voz del usuario, la frecuencia de respiración detectada y hasta el llanto”, además de la tos y los estornudos. Múltiples informes de organizaciones de defensa de los consumidores concluyen que “de la lectura del contenido de las aplicaciones [de las patentes], queda muy claro que se trata de un programa espía y un sistema de vigilancia destinado a mostrar anuncios […] Básicamente, van a descubrir cómo es nuestra vida hogareña de forma cualitativa”.

[ 6 ] En noviembre de 2016 Amazon puso en marcha en Seattle “Amazon Go” la primera tienda semi automatizada del planeta, evidenciando los peligros de un futuro sin colas ni cajas registradoras que ofrece al cliente comodidad total al realizar sus compras a cambio del uso de tecnología de inteligencia artificial (aprendizaje profundo “deep learning”) que genera ciertas inquietudes relacionadas con la privacidad de los usuarios. El sistema de seguimiento de cámaras y toma de fotos implantado en el techo del supermercado cuyo funcionamiento comienza en el momento en el que el cliente acceda a la tienda, incluye el reconocimiento facial, detalles de la altura, peso y color de piel, la biometría del cliente, usuario y contraseña, incluso el historial de compra del usuario, etc., a lo que se une la utilización de los micrófonos que pueden grabar sonidos y las conversaciones producidas por el usuario con el fin de ¿determinar su ubicación?, nos encontramos en realidad ante un trueque que ofrece comodidad a cambio de vigilancia total.

[ 7 ] El emporio tecnológico chino Huawei ha convertido su sede, el distrito de Longgang- Shenzhen, en una Smart City que apuesta por “sentir, procesar y tomar decisiones informadas que mejoran el entorno para sus habitantes”, adoptando las tecnologías TIC más recientes para construir un “sistema nervioso” mediante informes y análisis de datos en situación y tiempo real que combinan Cloud Computing, Internet de las cosas (IoT), Big Data e inteligencia artificial, abanderando así, una planificación urbana inteligente sobre la base del reconocimiento de imagen y la vigilancia total, situación que nos obliga a cuestionar la legitimidad de la intromisión en la esfera privada de los ciudadanos y que nos demuestra que la tendencia oriental apunta a difuminar aún más el sutil limite existente entre el derecho a la privacidad y la seguridad (Huawei, 2016).

[ 8 ] En este sentido se ha pronunciado el (Parlamento Europeo, 2017) que señala que la baja calidad de los datos y los procedimientos usados para su tratamiento “podrían dar lugar a algoritmos sesgados, correlaciones falsas, errores, una subestimación de las repercusiones éticas, sociales y legales, el riesgo de utilización de los datos con fines discriminatorios o fraudulentos y la marginación del papel de los seres humanos en esos procesos, lo que puede traducirse en procedimientos deficientes de toma de decisiones con repercusiones negativas en las vidas y oportunidades de los ciudadanos, en particular los grupos marginalizados, así como generar un impacto negativo en las sociedades y empresas”. En igual sentido (Castellanos Claramunt, J. y Montero Caro, M.D., 2020, p. 74).

[ 9 ] En este particular es de relevancia reseñar las obligaciones de intercambio de información entre Estados miembros de la OCDE derivadas de la Acción 12 y 13 del Proyecto BEPS relativas a: las estructuras transnacionales de planificación fiscal agresiva, al Country by Country Report y a los precios de transferencia; el Common Reporting Standard de la OCDE que establece la obligación de intercambio automático de información entre autoridades fiscales sobre rentas financieras; entre los Estados miembros de la UE con la Directiva (UE) 2018/822 referente al intercambio automático y obligatorio de información en el ámbito de la fiscalidad en relación con los mecanismos transfronterizos sujetos a comunicación de información; y el uso de las redes sociales y los nuevos modelos de negocios online como fuente de acopio de información (entre los que se encuentran los nuevos modelos de economía colaborativa), el auge de la criptomonedas, el Internet de las Cosas, aplicaciones para móviles inteligentes, entre otros. En igual sentido, vid. (Grau Ruiz, M.A., 2017).

[ 10 ] Vid. (Ocde, 2016, p. 20) donde este organismo internacional apunta que de entre las 16 Administraciones tributarias que a 2016 utilizaban métodos predictivos para el cálculo de riesgos fiscales de los contribuyentes, 15 de ellas lo hacen con el propósito de llevar a cabo la iniciación de un procedimiento de inspección tributaria. En igual sentido, (Serrano Antón, F., 2020, p. 44) donde el autor hace referencia a que entre estas Administraciones tributarias se encuentra la Agencia tributaria española que viene desarrollando una herramienta denominada Hermes para la gestión de los riesgos que se apoya en la información existente de los contribuyentes almacenada en data warehouses denominados Zújares.

[ 11 ] Ley 58/2003, de 17 de diciembre, General Tributaria, publicada en el BOE núm. 302 de 18 de diciembre de 2003.

[ 12 ] Resolución de 19 de enero de 2021, de la Dirección General de la Agencia Estatal de Administración Tributaria, por la que se aprueban las directrices generales del Plan Anual de Control Tributario y Aduanero de 2021, publicada en el BOE núm. 27 de 1 de febrero de 2021, que gira en torno a cinco grandes pilares: Información y asistencia; Prevención de los incumplimientos (fomento del cumplimiento voluntario y prevención del fraude); La investigación y las actuaciones de comprobación del fraude tributario y aduanero; El control del fraude en fase recaudatoria; y la colaboración entre la Agencia Tributaria y las administraciones tributarias de las comunidades autónomas.

[ 13 ] El Ministerio de Hacienda enfatiza en el Plan Anual de Control Tributario y Aduanero de 2021 que “[n]o debe obviarse, por su importancia, la incorporación a nuestro sistema tributario durante el año 2021 de nuevas figuras e instituciones tributarias que, sin duda, suponen un reto de cara a la asistencia, como también a la prevención y control de los incumplimientos. A las leyes 4/2020 y 5/2020 que aprueban, respectivamente, el Impuesto sobre Determinados Servicios Digitales y el Impuesto sobre Transacciones Financieras, se une la previsible incorporación a nuestro ordenamiento del paquete de comercio electrónico «e-commerce package» en materia de imposición indirecta, con importantes novedades gestoras en el pago del IVA de las plataformas de comercio electrónico. Todas estas novedades sin duda tendrán el debido protagonismo exigiendo de la Administración tributaria un esfuerzo de adaptación. De igual forma, hay que tener en cuenta que el reforzamiento de las medidas y actuaciones de prevención y lucha contra el fraude constituye uno de los componentes básicos de las reformas estructurales de apoyo al Plan Nacional de Recuperación, Transformación y Resiliencia. […]Todo ello en un contexto en el que la Agencia Tributaria, […] está adaptando su modelo organizativo a la nueva realidad con iniciativas como la creación de administraciones de asistencia Digital Integral (ADI)”.

[ 14 ] Donde el autor al desarrollar los riesgos que supone la utilización de la inteligencia artificial por la Administración tributaria apunta que “El sector civil fue pionero en alertar sobre los riesgos de la IA. […] Aunque sus advertencias tienen a veces un tono apocalíptico, la opinión pública comparte la preocupación por el uso ético de la tecnología en buena medida. Una reciente encuesta global expertos en TIC indica que el 43% alberga preocupaciones importantes o extremas sobre los riesgos de la IA. Encabezando la lista están las vulnerabilidades de ciberseguridad […] y el tomar decisiones equivocadas siguiendo las recomendaciones de la IA […]. Además, el 40% apunta al sesgo de las decisiones de IA como uno de los tres principales riesgos éticos. Con estos antecedentes, ha llegado el turno para que actúen los Gobiernos y las Organizaciones Internacionales. Más allá de su actividad de fomento, ejercida mediante las estrategias nacionales […] los retos que incumben a los gobiernos trascienden las fronteras de lo tecnológico y lo económico con un profundo desafío político: garantizar la confianza en las instituciones, lo cual exige asegurar la privacidad, la seguridad, la transparencia, la responsabilidad y el control de los sistemas de IA […]. De entrada, es esencial que las administraciones públicas respeten los derechos digitales de los ciudadanos y eviten cometer errores estratégicos, que pueden ocurrir incluso actuando de forma bienintencionada...”, pp. 153-154.

[ 15 ] Vid. art. 28.2 de la Ley orgánica 3/2018 de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales donde se identifican los mayores riesgos derivados de un inadecuado tratamiento de datos personales.

[ 16 ] Vid. arts. 14, 18.1, y en particular, el 18.4 de la Constitución Española (CE) que reza “La ley limitará el uso de la informática para garantizar el honor y la intimidad personal y familiar de los ciudadanos y el pleno ejercicio de sus derechos”; art. 2 del Tratado de la Unión Europea (TUE); y art. 7 de la Carta de Derechos Fundamentales de la Unión Europea (CDF)

[ 17 ] Esta creciente preocupación ha quedado reflejada en la Estrategia Nacional de Ciberseguridad donde se afirma que el ciberespacio es un “campo de batalla donde la información y la privacidad de los datos son activos de alto valor en un entorno de mayor competición geopolítica, reordenación del poder y empoderamiento del individuo. Así, la creciente conectividad y la mayor dependencia de las redes y sistemas, así como de componentes, objetos y dispositivos digitales, generan vulnerabilidades y dificultan la adecuada protección de la información”. Orden PCI/487/2019, de 26 de abril, por la que se publica la Estrategia Nacional de Ciberseguridad 2019.

[ 18 ] Vid. STC 292/2000 donde el alto Tribunal que reconoce el derecho a la protección de datos personales a partir de la interpretación del art. 18.4 CE.

[ 19 ] Vid. art. 16.1 del Tratado de Funcionamiento de la Unión Europea (TFUE) y el art. 8.1 CDF que disponen que “Toda persona tiene derecho a la protección de los datos de carácter personal que le conciernan”.

[ 20 ] Vid. art. 2 del TUE.

[ 21 ] Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos), publicado en el DOUE L-119/1 de 4 de mayo de 2016.

[ 22 ] Reglamento (UE) 2018/1807 del Parlamento Europeo y del Consejo de 14 de noviembre de 2018 relativo a un marco para la libre circulación de datos no personales en la Unión Europea, publicado en el DOUE L-303/59 de 28 de noviembre de 2018.

[ 23 ] Reglamento (UE) 2019/881 del Parlamento Europeo y del Consejo de 17 de abril de 2019 relativo a ENISA (Agencia de la Unión Europea para la Ciberseguridad) y a la certificación de la ciberseguridad de las tecnologías de la información y la comunicación y por el que se deroga el Reglamento (UE) núm. 526/2013 («Reglamento sobre la Ciberseguridad»), publicado en el DOUE L-151/15 de 7 de junio de 2019.

[ 24 ] Directiva (UE) 2019/1024 del Parlamento Europeo y del Consejo de 20 de junio de 2019 relativa a los datos abiertos y la reutilización de la información del sector público, publicada en el DOUE L-172/56 de 26 de junio de 2019.

[ 25 ] Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales, publicada en el BOE núm. 294, de 06 de diciembre de 2018.

[ 26 ] Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno, publicada en el BOE núm. 295, de 10 de diciembre de 2013.

[ 27 ] La AEPD ha puesto en marcha en España el Pacto Digital para la protección de las personas donde respecto del compromiso con la innovación, la protección de datos y la ética nos recuerda que la privacidad ha de entenderse como un valor, no como una mercancía que puede ser objeto de monetización, así señala que “La responsabilidad digital está estrechamente vinculada con el respeto por los derechos humanos. Así, respetar la privacidad, la intimidad y la confidencialidad de los datos personales, pero también promover la toma de decisiones libre e informada y la equidad, la transparencia y la rendición de cuentas son condiciones necesarias para evitar las prácticas discriminatorias, los usos no deseados (y también encubiertos), así como posibles asimetrías y vulnerabilidades, y en especial la toma de decisiones desde la opacidad”, p. 22. En igual sentido, vid. (Iriarte Yanicelli, A., 2020).

[ 28 ] El propio Plan Anual de Control Tributario y Aduanero de 2021 establece que la Agencia Tributaria tiene establecido como objetivo estratégico, además de la lucha contra el fraude fiscal, la prevención del mismo. Y ello exige el diseño de una estrategia de asistencia integral que consiga reducir las cargas administrativas a las que deben hacer frente los contribuyentes y favorecer el cumplimiento voluntario de las obligaciones tributarias y, con ello, prevenir el incumplimiento. Así, en 2021 se pretende continuar potenciando tanto la diversidad como la calidad de los servicios de información y asistencia prestados a los contribuyentes, priorizando el uso de las nuevas tecnologías frente a los medios tradicionales de asistencia presencial, para conseguir una mayor eficacia y permitir una asignación más eficiente de los recursos materiales y humanos disponibles. De este modo, se garantizará a los contribuyentes la realización de trámites de forma más ágil y eficaz, gracias a los sistemas telemáticos de asistencia y a la disponibilidad de medios de identificación y de comunicación electrónicos.

[ 29 ] En este sentido, en enero de 2021 la Secretaría de Estado de Digitalización e Inteligencia Artificial del Ministerio de Asuntos Económicos y Transformación Digital español ha sometido a consulta pública la Carta de Derechos Digitales. Como bien apunta, con este nuevo instrumento jurídico, no se pretende necesariamente descubrir derechos digitales pretendiendo que sean algo distinto de los derechos fundamentales ya reconocidos por la CE o los Tratados internacionales sobre derechos humanos, o de que las nuevas tecnologías y el ecosistema digital se erijan por definición en fuente de nuevos derechos. Por el contrario, la persona y su dignidad son la fuente permanente y única de los mismos y la clave de bóveda tanto para proyectar el ordenamiento vigente sobre la realidad tecnológica, como para que los poderes públicos definan normas y políticas públicas ordenadas a su garantía y promoción. Por tanto, su objetivo es sino de concretar los más derechos fundamentales más relevantes en el entorno y los espacios digitales o describir derechos instrumentales o auxiliares de los primeros.

[ 30 ] A mayores, el Grupo de Trabajo del Artículo 29 (GT Art. 29) ha concedido a este precepto dicho sentido, entendiendo que el mismo contiene una prohibición general de las decisiones basadas únicamente en un tratamiento informatizado. Vid. (European Comission Article 29 Data Protection Working Part, 2018)

[ 31 ] Vid. (González de Frutos, U., 2020, p. 168), quien al analizar la opacidad algorítmica señala que “La opacidad puede ser la diferencia entre un error subsanable y una crisis de confianza en el sistema, por eso una forma de combatirla es la auditoria algorítmica, vinculad con la rendición de cuentas. […] Los poderes públicos tienen que ser transparentes sobre la información que recopilan, cómo la gestionan, con quién la comparten y qué usos hacen de ella, aunque lógicamente caben excepciones a la transparencia siempre y cuando estén amparadas por las leyes. En igual sentido, vid (Serrano Antón, F., 2020, p. 52), donde el autor apunta que la clasificación en un algoritmo como black box “[…]imposibilita a la Administración a justificar el motivo que le ha llevado a adoptar una determinada decisión. Esta es una indeseable situación sobre la que ya alertó el Parlamento Europeo advirtiendo que «ha de ser posible justificar cualquier decisión que se haya adoptado con ayuda de la inteligencia artificial y que pueda tener un impacto significativo sobre la vida de una o varias personas» [Resolución de 16 de febrero de 2017 (2015/2103/INL)]. Así pues, recae sobre la Administración tributaria la obligación de ofrecer una explicación sobre el funcionamiento del sistema de forma comprensible al ciudadano que viene también exigida por lo dispuesto en los artículos 13, 14 y 15 del Reglamento de Protección de Datos. En caso de vulnerarse el estándar de debida diligencia en la comprensibilidad, cabría alegar por el contribuyente, la imposibilidad de cumplir los exigido (lo que haría la decisión administrativa imposible y/o irracional, según el artículo 47 de la ley 39/2015 para los actos y el artículo 9.3 de la Constitución española en general) y solicitar la anulación judicial de la decisión adoptada, así como en su caso, responsabilidad patrimonial por los daños que la actividad incomprensible de la Administración haya causado en el destinatario”.

[ 32 ] Es importante señalar que la autora al referirse al caso holandés apunta que “Una de las Administraciones tributarias europeas más dinámicas, la holandesa, ha experimentado recientemente un serio revés, al trata de comprobar el correcto disfrute de beneficios fiscales mediante el uso de nuevas tecnologías. Una regla de selección en el módulo del impuesto sobre la renta contenía el criterio de la nacionalidad, sin que hubiera un fundamento jurídico explícito para ello […] Con una mirada crítica al papel otorgado a las tecnologías de la información y comunicación en la Administración tributaria y aduanera, en los Países Bajos se han denunciado abusos que han destruido financieramente a receptores de beneficios fiscales por cuidado de hijos, o hasta un posible componente racista en la actuación administrativa al poner el foco de los procedimientos en determinados inmigrantes. Todo ello, en la medida en que tecnológicamente era posible aplicar filtros para detectar a contribuyentes que tuvieran una segunda nacionalidad, careciendo de suficiente cobertura normativa tal modo de proceder […] Estas operaciones de tratamiento de datos fueron ilegitimas, discriminatorias y violaron la legislación aplicable de protección de datos […] En definitiva, se hizo una distinción injustificada sobre la base de la nacionalidad, discriminatoria y prohibida”, p. 8.