Huawei ha presentado un avance tecnológico que reduce la dependencia de China de los chips de memoria HBM extranjeros. El algoritmo UCM, diseñado para acelerar la inferencia en IA, decide en qué tipo de memoria almacenar cada dato según los requisitos de latencia. Esto permite minimizar la latencia durante la inferencia, reduciéndola un 90%. El algoritmo UCM se comporta como una caché gigantesca que garantiza que cada dato irá a parar a la memoria adecuada, incluida la HBM3. Huawei planea hacer el algoritmo UCM de código abierto en septiembre. Los fabricantes chinos de chips de memoria no producen soluciones capaces de competir con las memorias más avanzadas de Samsung, SK Hynix o Micron Technology. El ancho de banda total de los chips de memoria HBM3 supera los 819 GB/s, mientras que las memorias DDR5 y GDDR6X alcanzan unos 70,4 GB/s y 96 GB/s. El Foro de Aplicaciones y Desarrollo de Razonamiento de IA Financiera 2025 se celebró en Shanghái, China.