Un estudio de la Universidad Estatal de Carolina del Norte ha descubierto una vulnerabilidad en los chips de inteligencia artificial (IA) llamada GATEBLEED, que permite a los atacantes extraer información sobre los datos de entrenamiento utilizados por un modelo de IA. La vulnerabilidad se aprovecha de la característica de diseño de los chips conocida como power gating, que deja trazas medibles en los tiempos de ejecución. El ataque puede identificar qué submodelo o experto dentro de una arquitectura de IA tomó una decisión, lo que podría utilizarse para desarrollar ataques más sofisticados o manipular el comportamiento del sistema. La vulnerabilidad no puede ser abordada eficazmente con soluciones tradicionales de software, ya que el origen del problema está en el diseño físico del chip. El estudio será presentado oficialmente en la conferencia IEEE/ACM MICRO 2025.