NP: Intel se une a Georgia Tech en el programa DARPA para mitigar los ataques engañosos del aprendizaje automático

Intel lanza los primeros retos globales y marca una nueva era de Responsabilidad Corporativa compartida

Hemos recibido una nota de prensa por parte de Intel, os la dejamos a continuación:

Intel se une a Georgia Tech en el programa DARPA para mitigar los ataques engañosos del aprendizaje automático

Intel y el Instituto de Tecnología de Georgia (Georgia Tech) anunciaron hoy que han sido seleccionados para dirigir un equipo del programa de Garantía de Inteligencia Artificial (AI) Robustez contra el Engaño (GARD) para la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA). Intel es el principal contratista en este esfuerzo conjunto de cuatro años y multimillonario para mejorar las defensas de seguridad cibernética contra los ataques de engaño en los modelos de aprendizaje automático (ML).

«Intel y Georgia Tech están trabajando juntos para avanzar en la comprensión colectiva del ecosistema y en la capacidad de mitigar las vulnerabilidades de la IA y el LD. Mediante una investigación innovadora en técnicas de coherencia, estamos colaborando en un enfoque para mejorar la detección de objetos y mejorar la capacidad de la IA y el ML para responder a los ataques adversos».
-Jason Martin, ingeniero principal de Intel Labs e investigador principal del programa DARPA GARD de Intel

Los miembros de Intel Labs muestran un ejemplo de inteligencia artificial que se confunde con una camiseta de su adversario. (Crédito: Intel Corporation)

Aunque son poco frecuentes, los ataques adversarios intentan engañar, alterar o corromper la interpretación de los datos del algoritmo de ML. Como los modelos de IA y ML se incorporan cada vez más en sistemas semiautónomos y autónomos, es fundamental mejorar continuamente la estabilidad, la seguridad y la protección de las interacciones inesperadas o engañosas. Por ejemplo, las clasificaciones e interpretaciones erróneas de la IA en cuanto a píxeles podrían dar lugar a una mala interpretación de la imagen y a escenarios de etiquetado erróneo, o las modificaciones sutiles de los objetos del mundo real podrían confundir los sistemas de percepción de la IA. El GARD ayudará a que las tecnologías de la IA y el ML estén mejor equipadas para defenderse de posibles ataques futuros.

Los actuales esfuerzos de defensa están diseñados para proteger contra ataques adversarios específicos predefinidos, pero siguen siendo vulnerables a los ataques cuando se prueban fuera de sus parámetros de diseño especificados. GARD pretende enfocar la defensa ML de manera diferente – desarrollando defensas de base amplia que aborden los numerosos ataques posibles en determinados escenarios que podrían hacer que un modelo ML clasifique o interprete mal los datos. Debido a su amplia huella arquitectónica y liderazgo en seguridad, Intel se encuentra en una posición única para ayudar a impulsar las innovaciones en la tecnología de IA y ML con una participación significativa en el resultado.

El objetivo del programa GARD es establecer los fundamentos teóricos del sistema ML que no solamente identificará las vulnerabilidades del sistema y caracterizará las propiedades para mejorar la robustez del sistema, sino que también promoverá la creación de defensas efectivas. A través de estos elementos del programa, GARD apunta a crear tecnologías ML resistentes al engaño con criterios rigurosos para evaluar su efectividad.

En la primera fase de GARD, Intel y Georgia Tech están mejorando las tecnologías de detección de objetos a través de la coherencia espacial, temporal y semántica tanto para las imágenes estáticas como para los vídeos. Intel está comprometida a impulsar la innovación de la IA y el ML y cree que trabajar con investigadores de seguridad capacitados en todo el mundo es una parte crucial para abordar las posibles vulnerabilidades de seguridad para la industria en general y nuestros clientes.

Sobre el autor