EUROPA ANTE LA CARRERA DE LA INTELIGENCIA ARTIFICIAL

(a partir de la transcripción de Isabel Paz Menéndez, miembro de la directiva de Europa +)

F1IA

«En primer lugar, me pregunto si la Inteligencia Artificial (IA) es verdaderamente inteligencia. Me planteo también otras dudas sobre su impacto ante la igualdad  social, así como ante las políticas para la transición climática y la cohesión territorial de la Unión Europea (UE). Y ahí surgen, casi escondidos», dijo el presidente de Europa en Suma al introducir el acto del 22 de enero, «ciertos conflictos geopolíticos del siglo XXI que se relacionan con disputas por recursos diversos y con el desarrollo de la IA».

Añadió que –por ejemplo– el agua en abundancia se convierte en un elemento vital para los centros de datos, un enorme consumo de agua, mientras sabemos que disminuye globalmente. «Y la necesitamos tanto para las ciudades como para la producción agraria y para el campo», añadió.

F5IA

Apuntó al momento en el que nos encontramos frente al desarrollo de la IA, pidiendo analizar las dependencias europeas y cómo continuar desarrollando su renovación tecnológica y digital, sin dañar su propia cohesión interna y la defensa de su soberanía –o por decirlo así– «la suma de sus soberanías territoriales».

Antes del debate como tal, los asistentes guardaron un minuto de silencio por las víctimas del accidente de tren del 26 de enero de 2026 en Ademuz (provincia de Córdoba). Precisamente por razones que tenían una relación indirecta con ese accidente, la ponente Carmela Ríos, periodista y analista de redes sociales, se excusó por no poder estar presente.

El moderador, Alejandro Sacristán (AS), dio la bienvenida a todos los asistentes, así como a las demás «personas humanas, artificales y robots, si hay alguno por aquí», ironizó. Presentó a los ponentes, Liubba El Haddi Hamed (LEHH) como ingeniera de telecomnicaciones, experta tecnóloga en redes móviles y consultora de la Comisión Europea (CE), así como a Rafael Martínez-Cortiña, economista y prospectivista estratégico, analista de modelos de gobernanza y estrategia de la IA de la CE, miembro del comité científico de la Fundación Telefónica (Telos) y autor de libros centrados en la IA.

Sacristán se refirió a los dilemas de Europa frente a la IA y a su propia imagen «reflejada en un espejo». Dejó claro que ese futuro no puede olvidar ni abandonar «los valores europeos»  porque lo que vemos fuera de Europa «no nos gusta», concluyó,  apuntando al desarrollo demasiado rápido de la implantación de la IA generativa.

 El futuro de la UE puede quedar condicionado –dijo Sacristán– por lo que hagan los Estados Unidos o China, con estrategias y modelos «a veces incompatibles». Pidió esclarecer los «múltiples marcos regulatorios».

Lógica de la IA, inversiones y soberanía digital

LEHH empezó declarándose europeísta y «defensora del modelo de una Europa federal». Respondió afirmativamente a la pregunta inicial del debate: «Sí, la IA es realmente inteligente». Citó al neurocientífico Manuel Matín Loeches para hablar de la posibilidad de superar las capacidades humanas, aunque precisó que no hay que identificar siempre inteligencia y lógica como términos sinónimos: «La inteligencia no es más que la capacidad de adaptarse a las situaciones estableciendo patrones que permitan conectar causa, consecuencia, etcétera».

Según LEHH, «el ser humano no es solo una inteligencia local, hay otras cosas que nos hacen humanos». Para responderse a sí misma, LEHH sugirió mirar hacia la posición de la UE desde «la

técnica de lo que es un software y un hardware, pero también su definición más amplia que es un dispositivo de interrelaciones humanas, múltiples capas que afectan por tanto a todos los niveles de la vida».

Como en la revolución industrial, se trata de crear máquinas y mecanismos de la IA que puedan encargarse de tareas humanas.

Para LEHH, el problema es que la IA actual parece tener «objetivos puramente comerciales sin tener en cuenta otras necesidades del ser humano». Estableció la necesidad de afrontar «la situación complicada»

en la que se encuentra la UE en estos momentos. «Pero no deja de ser una oportunidad», reflexionó, tras la disgregación paulatina del marco geopolítico heredado del final de la II Guerra Mundial. Hay que optar y aspirar, dijo LEHH, «a una soberanía digital y por tanto tecnológica, que conllevan todos los retos: inversión, modelos y adopción por parte de las empresas».

Porque «la inversión privada en IA en Estados Unidos fue en 2023 de 67.000 millones de dólares.  En Europa de 11.000, seis veces menos que EEUU, con menos población que la UE». El conjunto de la inversión europea es mayor, pero seis veces menor en IA y con un papel diferente de la inversión privada con relación a la pública. Y hay fuga de dinero europeo en forma de grandes inversiones de la UE en EEUU. Por otro lado, «¿Cuántos modelos notables según la clasificación del index de Stanford hay en Estados Unidos?  Unos cuarenta modelos: no está solo ChatGPT, Gemini, hay 40 modelos notables en EE.UU., en Europa tres, en China, quince».

Entre los riesgos acuciantes, dijo que está «el hecho de que las empresas sean mucho más pequeñas, más fragmentadas, porque somos 27 países y únicamente el 13% de las empresas de la UE, están por encima de los cien empleados».  Ante esa fragmentación empresarial, Microsoft, por ejemplo, adopta de manera muy rápida porque tiene departamentos de innovación para desarollar modelos propios de IA. «En España, el 98% del tejido empresarial  son pymes», una vulnerabilidad más, dijo LEHH.

F2IA

Las dependencias de la IA europea, el empleo y el control social

En su primera intervención, Rafael Martínez-Cortiña (RCC) empezó advirtiendo que la IA europea tiene una parte positiva (da seguridad jurídica) y otra negativa: «Imagínense ustedes que China tuviese que acordar su ley de IA con 27 estados para acordar exactamente la misma norma».  Sin embargo, en los EEUU se ha aprobado un centenar de normas de IA porque Donald Trump no quiere regularlo del todo, para beneficiar a las empresas.

En el caso de China, se regula para controlar la sociedad, la UE trata de hacerlo desde una cierta perspectiva humanista: para la libertad, igualdad, el estado de derecho, la democracia y el respeto a los derechos humanos.

En el lado negativo, debemos anotar que «según un reciente informe del Parlamento Europeo, nuestro déficit digital es de 263.000 millones de euros al año que van a crear empleo, investigación y desarrollo en EEUU. Si fuéramos capaces de bajar un 15% ese déficit crearíamos medio millón de puestos de trabajo en la UE relacionados con la IA.»

RCC hizo una pregunta retórica al público: «¿Quién de ustedes utiliza una IA generativa hecha en Europa?» Los europeos compraron el año pasado 163 millones de móviles, sólo el uno por ciento era de origen europeo. Los demás eran asiáticos y norteamericanos. Resaltó la dependencia digital de EEUU.

Y sin embargo, RCC destacó en el aspecto positivo de la UE «una gigantesca producción científica mejor en calidad y en cantidad que los EEUU», mediante una investigación científica universitaria sin precedentes, «como no lo han hecho nunca». ¿Negativo? No hay un enlace adecuado entre el laboratorio y la factoría. De ahí el impulso de un plan de acción contenido en el AI Continent Action Plan COM que establece «estrategias de inversión, miles de millones en giga factorías». Pasos para mejorar. Es una maratón, no una carrera de cien metros.

El moderador del acto dio entonces paso al vídeo de una entrevista con Ramón López de Mántaras Badía, sabio científico que lleva medio siglo dedicado al estudio de la IA, quien volvió a responder a la pregunta inicial del debate:

Tengo serias dudas que puedas llamar inteligente a algo que simplemente pues da la sensación de serlo. Detrás hay algoritmos muy complicados, desarrollados por gente realmente inteligente. Y sí, también millones de personas trabajando en condiciones deplorables para que la IA funcione.  No es inocuo, en absoluto, creer que estás conversando o interactuando con algo inteligente y consciente, no es inocuo, todo lo contrario. El titular:  OPEN IA, chat GPT,  la última versión 5 punto no sé cuánto ya es consciente. La gente se lo cree, todo el mundo se lo cree.

LEHH describió la IA desde su perspectiva feminista por un determinado «sentido ilustrado y muy masculino, como elemento omnicomprensivo de lo que es el ser humano, cuando el ser humano para mí es más y,  como madre lo entiendo perfectamente, hay unos instintos, un sistema límbico que está siendo muy estudiado, la conciencia obviamente no.  La IA no tiene conciencia porque no es un organismo vivo, sino un artificio creado por el ser humano».

LEHH asumió que la IA integra tecnologías ya presentes y computación cuántica, sin que llegue a superar «la capacidad de raciocinio y de lógica del ser humano». Sin embargo, añadió que los seres humanos son algo más que eso;  y por ello no es inocuo, porque supone riesgos: «Está por un lado el hecho de que puede pensar por nosotros, y además, que pueda actuar por nosotros en ámbitos profesionales o personales. El riesgo es esa creencia de que realmente puede sustituir al ser humano en toda su complejidad».

La IA: competición de velocidad o carrera de fondo

El moderador resumió lo hablado hasta ese momento, los dilemas de la UE ante la IA: «No son cien metros lisos, sino una maratón, una carrera que tiene sesgos fundamentalmente masculinos, así como sesgos racistas y machistas, sobre todo en la IA generativa (GPT, Gemini, Perplexity, etc) que nos llega de EEUU». Para ejemplificarlo, AS constató que «el 75% de los jóvenes en España, entre 16 y 24 años, utiliza estas herramientas de la IA generativa, la mayoría plataformas estadounidenses, pero también algunas chinas». Un éxito para algunos, un fracaso si recordamos la dependencia similar respecto a las redes sociales.

F4IA

Para RMC, ese porcentaje de uso por parte del 75% de nuestros jóvenes demuestra su interés hacia la IA, en principio un interés muy abierto, «pero también puede ser un fracaso estratégico porque a través de todas esas herramientas incorpora una serie de valores (señalados antes) que no son los de la UE. De modo que estamos exponiendo a esos jóvenes de entre 16 y 24 años, a contenidos y valores ajenos.¿Eso es un fracaso estratégico? Pienso que sí». Citó al senador estadounidense Bernie Sanders para alertar sobre las incertidumbres emocionales, psicológicas, de esa franja de la población. «Quizá esos espacios a los que acceden no son los más adecuados», concluyó RMC.

Para LEHH la conclusión que hay que extraer es que «hay que educar y alfabetizar sobre la IA, que lo que hace es decir lo que tú quieras, y por eso mismo tú tienes que entrenarla para que te diga lo que es verdad, no lo que tú quieras escuchar. El problema es que la población de 16 a 24 años no ha recibido esa educación para tratar la con un pensamiento crítico,  entendiendo muy bien lo que son esas IAs. Podrán grandes cosas si saben situarlo como una herramienta y no como elemento sustitutivo del ser humano».

En una segunda parte de su intervención, LEHH señaló que la ley europea sobre la IA (artículo 4) prevé que los empleadores tengan «la obligación de formar a sus empleados para que puedan manejar dichas herramientas conforme a los valores europeos, etcétera. Y no sólo referido a los jóvenes, sino también a los profesionales en general».

En el plano de los distintos niveles de esa normativa, LEHH distinguió tres niveles: el nivel profesional, el nivel de toma de decisiones (administraciones públicas) y el nivel o l ámbito de la educación de nuestros hijos». Habría que cambiar el currículum para que aprendieran o comprendieran los lenguajes de la programación: «Pensar en los algoritmos, abstraerlos y presentarlos en cachitos, en trozos muy pequeñitos, porque son problemas que pueden ofrecerse así en el ámbito digital, del cero al uno.  Los niños tienen que poder empezar, que eso sí se está haciendo muy bien en China, a pensar en el algoritmo como una una capacidad, una habilidad más». Añadió que para eso es preciso formar también al profesorado.

«La UE ya está pensando en el 2040», añadió RMC, mediante varios escenarios «desde el más distópico al más positivo», donde el sistema educativo apunta a la « ética y la diversidad en pensamiento crítico ». La CE ha publicado un informe (Empowernig Learners for Age of AI ) que  invita «a formar a niños desde primaria para cocrear con la IA. En China, los niños de primaria ya juegan a hacer algoritmos sin necesidad de pantallas».  Se trata de repensar el sistema educativo y toda la población, no únicamente las empresas.

En la proyección de un segundo vídeo suyo, Ramón López de Mántaras volvió a preguntarse:

–¿En qué medida es artificial? Bueno, las últimas tendencias en IA son los llamados ChatGPT, una palabra mágica, comodín. Los cuñados en las comidas de cumpleaños hablan de los ChatGPT. Bueno, una IA generativa es mucho más. Centrémonos en lo que la gente conoce más, los chatbots, que llaman también conversacionales. Puedes hacer preguntas y o decir ‘hazme un resumen de esto’ o de lo de más allá. Hay que reconocer que funcionan bien, siempre y cuando sepas del tema y seas capaz de hacer un análisis crítico de lo que te dicen. Errores factuales lo que llaman algunos “alucinaciones” que es otro término que a mí no me gusta usar, pero bueno, porque es muy antropomórfico. Son errores y ya está porque están basados en técnicas probabilísticas y hacen errores. No preservan la verdad. Para que funcionen mínimamente bien, lo que mucha gente no sabe es que hay millones y no digo millones por decir cualquier cosa, está comprobado: millones de personas que refinan, entrenan estos sistemas como ChatGPT. Solo en Filipinas, se calcula que hay por menos dos millones de jóvenes, no sé cuántos millones en Kenia, en Pakistán en India, explotados, dura mano de obra barata, baratísima 50/60 céntimos de dólar por hora. Y cuando cobran, porque con la excusa de que a lo mejor no han hecho muy bien su trabajo a veces ni reciben nada.  No hay contrato ni nada, se les paga muchas veces a través de PayPal y cosas de estas, estos sistemas. Ellos no pueden reclamar nada nunca a nadie porque no tienen acceso a nadie. Son gente muy joven que llena los cibercafés. The Washinton Post publicó una foto y un titular en portada de uno de esos cibercafés filipinos, repleto de estos jóvenes con los ordenadores, porque no tienen ni tan siquiera la capacidad económica de tener en casa su propio portátil, ni pagarse la conexión a internet. Tienen que ir a los cibercafés y ¿qué hacen están? Etiquetan imágenes para los para vehículos autónomos, por ejemplo. Esto es un árbol, esto es un peatón, están etiquetando imágenes continuamente que les van mostrando, desde donde sea. Luego les muestran también respuestas de ChatGPT y de otros sistemas y nos tienen que decir si la respuesta es correcta o no es correcta. Más de una vez se les proponen varias alternativas de respuesta a las preguntas que han recolectado antes de la gente. Cuando utilizamos estos sistemas, recolectamos todo eso, todo es en base a la información que hacen ellos, para que la siguiente versión funcione mejor. Quienes están haciendo eso son personas, no es una Inteligencia Artificial capaz de analizar nada ni de aprender por sí

misma.

La IA no siente, ni padece

El moderador hizo en ese momento un repaso de la figura de Ramón López de Mántaras (y agradeció los vídeos prestados por Vidas Ajenas), citando investigaciones sobre ordenadores emocionales, sobre «cómo introducir las emociones en los sistemas de la IA» y la experimentación paralela que llevan a cabo en China mediante robots. RMC hizo entonces un elogio del pensamiento y la trayectoria de Ramón López de Mántaras y lo llamó «Séneca del siglo XXI».

F6IA

LEHH se distanció del concepto ‘alucinaciones’, utilizado por determinados expertos en IA en estos casos, y dijo que «el término alucinaciones es demasiado antropomórfico. Hay que quitarle el sesgo humano porque precisamente, esas calificaciones hacen que nos creamos ese cuento, que nos creamos que realmente estamos hablando con una persona. No, la IA no es una persona, ni siente ni padece».

Al hablar de la IA, como software y hardware, LEHH recordó que «los chips que tienen teléfonos móviles, como IPhone, son altamente inteligentes y difíciles de construir. Y NVIDIA, que es una empresa estadounidense, es capaz de diseñarlo. Volvemos así al tema de la soberanía digital, que es una de uno de nuestros bottlenecks, de los cuellos de botella que tenemos los europeos».

Hay una cadena de valor asociada a los chips que necesita la IA y a la producción de los semiconductores. Silicon Valley lleva veinte años haciendo chips High Plattform Computing (HPC). En España, concretamente en Málaga, ya hay lanzado un proyecto del Gobierno para crear «una fábrica de chips para alta computación, de supercomputación, Europa está dando pasos».

Los ponentes concordaron que el ritmo europeo, más lento, puede ser mejor a medio plazo, porque ese avance lento puede acotar o limitar los sesgos de la tecnología. «China está interesada en nuestro software de IA», según precisó LEHH (quieren el Open-Source Software,  OSS, europeo).

¿Cuantos modelos de IA ?

Hay que puntualizar que hay tres modelos europeos en comparación con los cuarenta estadounidenses, que no tienen en cuenta el concepto ‘derechos humanos’. Hay que hacerse las preguntas pertinentes, ¿cuánto tiempo llevamos con Microsoft? OPEN AI ¿cuánto tiempo llevamos trabajando con Google? Gemini. Ellos ya están en nuestros ordenadores, el mercado estaba copado y entrar es ahora un reto complejo, no imposible.

Para RMC, la UE debe hacerse también otras preguntas: «¿Queremos llegar antes y mal? Porque, a lo mejor, lo que vamos a construir no es coherente con la dignidad humana, no es coherente con la democracia, es decir, queremos llegar antes y mal o es preferible ir más lentos y luego construir el tipo de sociedad que queremos. Quizá no tenemos por qué participar en una guerra tecnológica que a lo mejor no nos atañe  y podemos construir una alternativa nueva». Según el ponente, «se puede legislar (como la UE), pero a la vez innovar». Hay que transferir todo el conocimiento generado en nuestras universidades hacia las empresas. Ya hay planes para avanzar en ese sentido. No se trata de que hay que optar entre legislación e investigación, se pueden hacer ambas cosas a la vez.

Los ponentes estuvieron de acuerdo en que Europa legisla también para «generar el marco en el que poder innovar», de modo que consideraron falso el dilema legislar-o-innovar.

LEHH consideró posible que haya equivocaciones en la actual estrategia de la legislación europea, pero lo valoró con la perspectiva científica de los ensayos que sólo tienen éxito después de la sucesión prueba-error-prueba-error-prueba-éxito. «La tecnología está en continuo cambio por lo cual la regulación también lo ha de estar», concluyó. Desde su posición, involucrada en varios proyectos europeos (Digital Skills Academy, por ejemplo), hay que intentar «entender cómo el ser humano y la máquina pueden evolucionar juntos.» Puso ejemplos prácticos: un proyecto que se denomina tech connect que está conectando casos de uso en hospitales. «Un enfermero no tiene por qué saber cómo manejar con herramientas que de repente llegan a su departamento. Se trata de formarle y con él a toda la organización para que adopte la línea más adaptada a sus objetivos. Esto lo está haciendo ahora la UE». Citó su lectura de un artículo estadounidense reciente criticando la IA americana, publicado hace diez días.Tras leerlo, pensó ¡lo estamos haciendo bien!

Hay un calendario europeo para la IA

RMC explicó el calendario de desarrollo europeo de la IA, que tiene en cuenta los informes Letta y Draghi que hicieron recomendaciones diversas, precisamente para que Europa acelere y  genere mayor inversión. «Lo bueno es que de nuevo hay un nuevo acuerdo entre 27 países que comprenden que hay una parte de la ley que se puede prolongar hasta 2 de agosto del 27 y seguiremos viendo cosas porque acabamos de empezar el 26, pero estamos viendo que la Comisión reacciona, claro que reacciona».

LEHH habló de «los sistemas de alto riesgo, estrictamente regulados ,por leso la Ley les ha concedido un plazo mayor Precisamente para dejar que la innovación avance y no frenarla. «¿Qué hemos hecho? Todas las empresas que quieran diseñar un sistema de riesgos, por ejemplo, una aplicación que va a desarrollar una empresa para seleccionar los currículos para el departamento de Recursos Humanos. Eso es un sistema de alto riesgo porque entra en conflicto con varios derechos fundamentales ¿Qué hacemos?  Pues estamos diseñando laboratorios de prueba. En España lo está liderando la AESIA, dependiente del Ministerio de Transformación Digital. Yo tengo una aplicación que quiero vender a las empresas para hacer cribado currículos y que priorice, según sus necesidades la mejor manera posible. No estoy segura si cumplo con la Ley IA, pues me voy a la AESIA, su ventanilla única, funciona muy rápido y hasta 2027, podré estar tranquila porque no me van a sancionar, puedo probar y seguir innovando».

Tras esas amplias exposiciones, hubo un turno de preguntas de los asistentes en los que se debatieron asuntos como el impacto de la IA en las desigualdades, la justicia social y las derivas autoritarias en las sociedades democráticas. Sobre las capacidades de manipulación de las redes sociales y la IA para dañar o arañar en la privacidad.

RMC habló de esos problemas y de cómo los ha debatido en ámbitos científicos y/o universitarios: «En diciembre, distintos alumnos me decían que la IA era mi mejor amiga. Les expliqué las IA (s) pueden robar su atención, no curar sus posibles depresiones. No los curará. Tenderá a generarles niveles de dependencia como la droga, por que cuando una IA te da toda la razón durante demasiado tiempo, pierdes la capacidad de gestionar la complejidad humana y te retraes».

F3IA

Desigualdad, derechos de autor e IA

LEHH volvió a referirse a la idea de «contrarrestar la desigualdad» frente a la IA, planteado por el presidente de Europa en Suma, para mostrarse optimista: «Hace un siglo pocos podían ir a la universidad. No había estado del bienestar, ni oportunidades. Ahora para seguir esa vía será necesario el pensamiento crítico, la formación, aprender a diseñar algoritmos. Aprender a dialogar con estas herramientas. Y sobre la deriva autoritaria, aplicar el imperio de la ley, con mano dura si es preciso».

Ya casi al final del debate, Juan Villanueva, que se definió como periodista de formación, planteó una pregunta sobre la indefinición actual de los derechos de autoría en la normativa europea con relación a la IA, sin que quedara claro si eso está –por ahora– bien provisto jurídicamente a favor de los autores y de los medios de comunicación. Más bien lo contrario. AMC y el moderador citaron casos concretos de uso ilícito de artículos y trabajos periodísticos por parte de las plataformas digitales. Según ellos, el problema podría agravarse con la IA.

El moderador, explicó «una respuesta autorizada, del Club de Editores, que agrupa a más de 150 medios, se hacen eco del último informe de Reuters Institute. Destacan que la expectativa es que el tráfico desde buscadores caerá más del 40% en los próximos tres años, impulsado por la transformación de Google y otros motores de búsqueda, pero fundamentalmente los motores de Google de respuestas basadas en IA».

A una pregunta de Lola Albiac (vicepresidenta de Europa en Suma), sobre la disputa estratégica UE-China-EEUU y cómo una pequeña inversión china (Deep Seek) había podido hacer frente a una inversión extraordinaria de la administración Trump, LEHH contestó que «China es un gobierno, no 27.  En Europa no tenemos esa capacidad de empoderar así. Mistral ha hecho un poco, Francia lo ha acompañado, pero no deja de ser Francia contra China en cuanto a datos. La clave de la potencia de un modelo ETL es la cantidad de datos que tenga. Lo que estamos desarrollando ahora nosotros en Europa es el plan de la IA Federal, un campeón mundial, un modelo con datos de los 27 estados. Sería una IA federada con datos distribuidos, pero estamos construyéndolo.  No somos China y ministerio con una base de datos de mil cuatrocientos millones de personas».

Escéptico, Daniel Peral (socio de Europa en Suma), dijo que quizá Europa no había empezado aún la verdadera carrera de la IA. Le respondió RMC que el retraso de la UE es cierto y que hay que tomar decisiones para huir de los escenarios distópicos en los que los europeos permanecerían como «siervos digitales» de China y los EEUU. Sin embargo, estimó que aún no estamos ahí. «Para eso queda todavía muchísimo tiempo. Pienso que ya se ha comprendido perfectamente y ya se han empezado a dar los primeros pasos». Elogió el plan de construcción de gigafactorías de la UE.  Dijo que también hay elementos que no han hecho los demás y los europeos sí. «Hay muchísimos compromisos de todos los gobiernos de la Unión Europea, no hay ningún anti-IA, hay mucha cohesión y ya se sabe lo que se puede hacer. No conocemos el futuro».

A pesar del reto al que se enfrenta  la IA europea, no hay dilema alguno. Los ponentes se declararon optimistas con los planes de Bruselas y los acuerdos de los 27 sobre el futuro de la Inteligencia Artificial europea.

 

** Fotos de Jorge Juan Morante López, secretario de Europa en Suma