Radar IA Semanal: la semana que DeepSeek V4 se puso al día y Google aceleró
Qué pasó
DeepSeek V4 Pro se estabilizó. Después de semanas de rate limits y caídas, la API de DeepSeek V4 Pro ahora maneja tráfico serio sin 429s constantes. El modelo ya es estable en producción y su pricing ($0.55/$2.19) lo hace la opción por defecto para trabajo pesado.
Gemini 2.5 Flash llegó. Google lanzó Flash 2.5 como complemento a Pro: mismo contexto de 1M tokens, pero 3x más rápido y a 1/3 del precio. Para clasificación y extracción masiva, Flash > Pro. El problema: los mismos rate limits de siempre.
Claude Opus 4.7 se coronó en coding. Los benchmarks de SWE-bench confirmaron lo que muchos devs ya sabían: Opus 4.7 es el modelo más capaz para coding real. 83.5% en SWE-bench Verified. El gap con GPT-5 (~76%) es más grande de lo esperado.
Por qué importa
Los coding agents son ahora commodity. Claude Code, Codex CLI, Cursor, OpenCode, Aider — todos son buenos. La diferencia ya no está en el agent, está en el modelo que usa. Y eso cambia las reglas del juego: el routing de modelos importa más que la elección de agent.
El pricing de open-weights bajó un escalón más. DeepSeek V4 Pro a $0.55/1M input es 4x más barato que GPT-5. Para empresas que procesan millones de tokens diarios, la diferencia es de miles de euros al mes. La pregunta ya no es “¿los open-weights son suficientemente buenos?” sino “¿cuándo no son suficientes?”
Google tiene un problema de execution. Gemini 2.5 Pro y Flash son modelos excelentes. Pero los rate limits, los timeouts y la API errática impiden que los equipos los adopten como modelo principal. Es el mismo problema de hace 6 meses. Mientras tanto, Anthropic y OpenAI ganan mercado enterprise.
A quién afecta
- Devs que usan coding agents: Opus 4.7 es ahora la elección clara si tu presupuesto lo permite. Si no, DeepSeek V4 Pro + Claude Sonnet 4 es un combo potente.
- Equipos de infraestructura: El self-hosting de DeepSeek V4 Pro y Llama 4 Maverick ahora es viable y económico. 2×A100 sirven cualquiera de los dos.
- Startups con presupuesto ajustado: El routing inteligente (DeepSeek para lo rutinario, GPT-5 para lo importante) puede reducir costes en un 60-70% sin pérdida de calidad percibida.
Qué haría yo
- Si empiezo un proyecto nuevo hoy: Claude Code + Opus 4.7 para coding, DeepSeek V4 Pro para clasificación, GPT-5 para análisis y escritura.
- Si optimizo costes: Implementar un router que use DeepSeek V4 Pro como primer intento y escalar a GPT-5 u Opus solo cuando falle.
- Si necesito contexto largo: Gemini 2.5 Pro es la única opción real para >200K tokens. Pero con fallback a Opus 4.7 (200K) para la mayoría de casos.
Señales que estoy vigilando
- Claude Sonnet 4 con coding mejorado: Anthropic hinted que Sonnet 4 puede acercarse a Opus en coding. Si es cierto, el pricing de coding baja 5x.
- OpenAI GPT-5.5 general availability: Actualmente en preview limitada. Si el pricing es razonable, cambia las comparativas.
- Qwen 3 235B: El modelo de Alibaba sigue mejorando silenciosamente. Podría ser el “DeepSeek killer” en open-weights.
Próximo radar: 12 de mayo. Suscríbete al RSS para no perderte nada.