
DeepSeek presentó DeepSeek R1, un modelo de razonamiento en inteligencia artificial que se equiparó a ChatGPT-4 utilizando menos recursos y hardware menos potente. Ahora, se rumorea que DeepSeek R2 está a la vuelta de la esquina, con 1,2 billones de parámetros, utilizando solo 78 mil millones de parámetros por token gracias a su arquitectura Mixture-of-Experts (MoE). El entrenamiento de R2 habría sido un 97,3% más barato que GPT-4, con costos de inferencia de $0,07 por cada millón de tokens de entrada y $0,27 por cada millón de tokens de salida. DeepSeek R2 tendrá capacidades multimodales avanzadas, procesando texto e imágenes de alta calidad.