Leonardo Cervera: “No puede ser que la gente no se atreva a manifestarse porque le puedan grabar la cara”
El alto cargo comunitario muestra su preocupación por el auge de los discursos extremos, los ‘deepfakes’ y el giro anti regulación en EE. UU. Defiende un enfoque “humanista” para controlar la IA

Leonardo Cervera (Málaga, 1970) es el español al frente del Supervisor Europeo de Protección de Datos, la autoridad independiente que vigila que la Unión Europea vele por la intimidad de los ciudadanos. Profesor y novelista, es además un férreo defensor de poner coto a la inteligencia artificial con una ley “humanista”, pues advierte que esta tecnología puede poner en riesgo los valores de la Unión. Por ello no disimula su preocupación por el ascenso de Trump, el auge de los discursos extremos en redes o el fenómeno de los videos manipulados o deepfakes. Desde su oficina de Bruselas, donde ha trabajado los últimos 26 años, charla con Cinco Días.
P. ¿Debemos temer a las máquinas?
R. Más que miedo, diría respeto y curiosidad. El enfoque tecnofóbico no suele dar resultado. El miedo lleva al rechazo y a la parálisis, hay que hacer lo contrario, hay que abrazar esta revolución tecnológica y reconducirla.
P. ¿Los europeos nos tomamos en serio la protección de datos?
R. Pasa un poco como con la salud, no te das cuenta de su importancia hasta que la pierdes. La importancia que se le da varía un poco dependiendo de las circunstancias de cada persona. También es un tema generacional, hay mayor concienciación en públicos sénior. Los millennials y las nuevas generaciones le dan menos importancia porque han crecido en un mundo muy tecnológico. Para ellos es algo desfasado.
P. Usted defiende que las leyes tecnológicas deben tener un enfoque humanista.
R. Toda persona tiene una dignidad universal. Desafortunadamente, últimamente ocurre que el usuario se convierte en objeto del mercado, algo a manipular, a influenciar, ya sea su voto, su hábito de compra... Puede parecer un poco abstracto o filosófico, pero esto puede explicar la mayor parte de los problemas que tenemos y por qué estamos tan polarizados, tan deshumanizados. Ocurre porque la tecnología no está respetando este enfoque humanista, tan europeo.
P. ¿Habla del auge de la desinformación?
R. El ser humano es un homínido social e influenciable. Vemos el mundo a través de la mirada de los demás con las redes sociales. No somos una isla. Si estas redes nos llevan por el camino de la viralidad, con contenidos agresivos y extremos, la manera que nosotros vemos el mundo será esa. Por eso tanta gente asume posicionamientos extremos. El algoritmo beneficia el contenido extremo y eso influye decisivamente en la sociedad. Y esto ocurre ya con un uso muy limitado de la inteligencia artificial (IA). Si lo permitimos, se causará mucho daño a la sociedad.
Si las redes nos llevan por el camino de la viralidad, con contenidos agresivos y extremos, la manera que nosotros vemos el mundo será esa.
P. Ahora existen ‘deepfakes’, que son videos manipulados con inteligencia artificial. ¿Cómo valora este fenómeno?
R. Es muy preocupante. Un ingeniero, cuando desarrolla una inteligencia artificial, debería comprometerse a no hacer nada que pueda perjudicar a los usuarios. Cada vez que ha habido disfuncionalidad social hemos terminado en revoluciones y guerras. Tenemos que aprender de la historia y reivindicar que cada profesional y cada persona se comporte con la ética debida. Es muy sencillo.
P. En este punto siempre surge el eterno debate: ¿libertad o control?
R. En deepfakes, por ejemplo, es urgente una legislación a nivel europeo que criminalice estas posturas. En aquellos casos donde ya exista regulación lo que hay que hacer es aplicarla bien, que no se hace desgraciadamente en muchos casos, porque o bien el organismo regulador carece de independencia o porque carece de los recursos necesarios. Hay casos excepcionales donde la regulación es excesiva, como las pymes. No es lo mismo aplicar una ley como el Reglamento General de Protección de Datos o de la Inteligencia Artificial a una corporación de miles de empleados que a una pequeña imprenta o a una clínica dental. Lógicamente a las pequeñas empresas hay que facilitarles el trabajo. Creo que Europa ha captado el mensaje y hará cosas. Pero, en general, esto de la desregulación es algo que utilizan como argumento, precisamente, las grandes empresas, que son a las que más hay que regular.
No es lo mismo aplicar una ley como el Reglamento General de Protección de Datos a una corporación de miles de empleados que a una pequeña imprenta o a una clínica dental.
P. En este sentido, ¿el ascenso de Trump le preocupa?
R. Las diferencias en el modelo de innovación de Estados Unidos, la Unión Europea y China son evidentes. Cuando estas diferencias son demasiado grandes existe un serio problema. Con Biden, la Unión Europea y Estados Unidos hacían muchos esfuerzos por reconciliar ambos modelos, y con la llegada de la nueva Administración eso se ha roto. El modelo estadounidense ahora es agresivamente de mercado. Prima la velocidad de innovación sobre la seguridad o el control. Como europeos es motivo de preocupación.
P. ¿Ve posible una carta global de derechos digitales?
R. Por el bien de la humanidad espero que sí. Hay usos de la IA que exigen control planetario. Se asimila mucho a los riesgos de la energía nuclear. El uso de la IA para finalidades armamentísticas es extremadamente peligroso.
P. En algunos países ya se utiliza IA para reconocer las caras de los manifestantes y tenerlos fichados. ¿Qué le parece?
R. Es algo incompatible con nuestro modo de vida europeo, con la manera en que nosotros entendemos el papel del Estado y los derechos de los individuos. Nuestra ley de inteligencia artificial directamente lo prohíbe. Este tipo de uso de la tecnología, que desgraciadamente está avanzando en el mundo, responde a planteamientos iliberales y antidemocráticos. No podemos ni debemos tolerarlo, porque es un torpedo a nuestro sistema de vida. No puede ser que la gente no se atreva a ir a una manifestación porque le pueden grabar la cara y meter en un fichero. O que el Estado espíe lo que pone la gente, los likes en redes sociales, para catalogarlo como de determinado partido, como acaba de anunciar la Administración estadounidense, o para decidir si recibe un visado o no. Es totalmente contrario a nuestros principios. Tenemos que ser muy firmes.
No puede ser que el Estado espíe lo que pone la gente, los likes en redes sociales, para catalogarlos como de determinado partido o para decidir si recibe un visado o no, como acaba de anunciar la Administración estadounidense
P. Y frente a esto, ¿qué hace la UE?
R. Creo que la UE está actuando de forma muy inteligente, con templanza y unidad. Hay que mantener la cabeza fría, desde el respeto y el diálogo. No quiere decir que no haya que ser firmes. La UE lo hará, pero no hay que entrar en una escalada de descalificaciones o términos irrespetuosos. Es la clave de la diplomacia, lo ha sido y lo será.