09/15/2025 | News release | Distributed by Public on 09/15/2025 06:02
La Universitat Polit�cnica de Val�ncia (UPV) est� trabajando en un proyecto europeo para proteger a los sistemas de inteligencia artificial de ciberataques. En concreto, el proyecto se centra en mejorar la seguridad de la IA frente a los llamados ataques adversarios (adversarial attacks). Estos ataques buscan enga�ar a la IA haci�ndole que interprete datos maliciosos como buenos.
Seg�n explica Salvador Cu�at, investigador del grupo SATRD de la Universitat Polit�cnica de Val�ncia, estos ataques son especialmente cr�ticos en �reas como la seguridad inform�tica, la visi�n por computador o el procesamiento de Lenguaje Natural (NLP).
Por ejemplo, estos ataques pueden modificar el c�digo de un malware para que el antivirus lo clasifique como inofensivo, crear correos electr�nicos con peque�os cambios para que los detectores de phishing o spam no los reconozcan, modificar huellas digitales sint�ticas para burlar sistemas de control de acceso; o modificar m�nimamente un texto (errores ortogr�ficos, s�mbolos invisibles) para enga�ar a un detector de discursos de odio o fake news. "
"Son ataques que pueden derivar en problemas leves (un modelo de IA que confunde un animal), pero tambi�n pueden provocar accidentes, fraudes, filtraciones de seguridad, de ah� la importancia de desarrollar nuevas herramientas para luchar contra ellos", apunta Salvador Cu�at.
As�, entre los objetivos del proyecto destaca el desarrollo de una nueva plataforma de seguridad que permitir� hacer m�s robustos los sistemas de IA frente a este tipo de ataues cibern�ticos. Adem�s, plantea tambi�n la puesta en marcha de la herramienta Cyber Ranges, para entrenar profesionales de IA en ciberseguridad.
El proyecto se dirige fundamentalmente a desarrolladores de IA y analistas de datos, empresas y organizaciones de todos los sectores que incorporan la inteligencia artificial en su d�a a d�a, asociaciones industriales y proveedores de ciberseguridad, as� como la comunidad cient�fica.
"Este proyecto busca ofrecer m�s protecci�n y resiliencia de los sistemas de IA frente a adversarial attacks y poner a su servicio nuevas herramientas para garantizar la seguridad y privacidad en la IA, pero tambi�n contribuir a una mayor confianza y a una adopci�n m�s amplia de la inteligencia artificial en Europa", concluye Cu�at.
Financiado por la Uni�n Europea, a trav�s del programa Horizon Europe (HORIZON-CL3-2023-CS-01, el proyecto CPAID est� coordinado por Uni Systems Luxembourg S�rl y concluir� en septiembre de 2027.