El gigante chino de e-commerce
Alibaba se ha propuesto sacudir el mundo de la IA buscando hacerse con el anhelado puesto del 'OpenAI chino'. Y lo hace poniendo sobre la mesa su nuevo modelo QwQ-32B, un LLM 'open source' que promete desafiar a los titanes del sector, como
ChatGPT y
DeepSeek. Con una arquitectura optimizada y un consumo de recursos significativamente menor que el de sus competidores (y
DeepSeek ya destacaba con soltura en este apartado), QwQ-32B parece ser una IA de la que vamos a seguir oyendo hablar en próximas semanas.
QwQ-32B es un modelo de lenguaje de 32 mil millones de parámetros que destaca por su capacidad de razonamiento complejo (recurre al aprendizaje por refuerzo y destaca a la hora de dirigir tareas secuenciales y estructurar conocimientos de manera coherente).
"Espera un momento, 32 mil millones de parámetros... ¿eso son muchos o pocos?", te preguntarás; pues, para ponerlo en perspectiva, se estima que modelos como GPT-4 de
OpenAI tienen 1-1,8 billones de parámetros, mientras que DeepSeek-R1 cuenta con alrededor de 67 mil millones.
Golpe de
China a Estados Unidos en plena carrera por la IA: cada día de
ChatGPT cuesta ocho veces más que DeepSeek
Uno de los puntos clave que ha generado gran interés en la comunidad tecnológica es su eficiencia en el uso de recursos.