La carrera por liderar la Inteligencia Artificial se ha vuelto más competitiva que nunca. Mientras gigantes como Google, Microsoft, Anthropic u OpenAI siguen puliendo sus modelos cerrados, DeepSeek ha dado un golpe sobre la mesa con la llegada de DeepSeek V3.1, un modelo híbrido, rápido, de código abierto y con mejoras que marcan un antes y un después en la forma de trabajar con IA.
Esta nueva versión combina velocidad, flexibilidad y apertura, tres ingredientes que la convierten en una alternativa real en entornos donde se busca reducir costes sin perder potencia. En esta guía práctica explicamos sus novedades, cómo empezar a usarla y qué ejemplos concretos se pueden implementar hoy mismo.
1. ¿Qué trae de nuevo DeepSeek V3.1?
DeepSeek V3.1 llega con cambios clave respecto a la versión anterior (V3) y al modelo R1-0528, al que incluso supera en velocidad de razonamiento. Sus principales novedades son:
- Inferencia híbrida (Think / Non-Think):
- Non-Think: respuestas rápidas y directas, sin razonamiento largo. Perfecto para chat, redacciones simples y tareas cotidianas.
- Think: razonamiento profundo y por etapas, con mayor precisión en consultas complejas. Ideal para programación, cálculos avanzados o toma de decisiones.
- Más datos y entrenamiento:
- V3 se entrenó con 500.000 millones de tokens.
- V3.1 amplía a 840.000 millones de tokens.
- Mayor contexto:
- V3 tenía 64K tokens de ventana de contexto.
- V3.1 dobla hasta 128K tokens, lo que permite analizar documentos largos, proyectos completos de código o grandes datasets en una sola consulta.
- Agentes mejorados: integración más eficaz de herramientas externas, uso de razonamiento por pasos y mejores resultados en benchmarks como SWE o Terminal-Bench.
- API más flexible: dos endpoints separados (
deepseek-chat
ydeepseek-reasoner
), soporte para el formato de Anthropic, y compatibilidad con function calling estricto en beta. - Código abierto: los pesos están disponibles en Hugging Face, lo que refuerza la transparencia y la comunidad.
- Nuevos precios (desde 5 de septiembre de 2025):
- Input cache hit: 0,07 $/1M tokens.
- Input cache miss: 0,56 $/1M tokens.
- Output tokens: 1,68 $/1M tokens.
2. Cómo empezar con DeepSeek V3.1
La forma más sencilla de empezar es a través de la API oficial. Si ya trabajas con APIs de OpenAI o Anthropic, la integración te resultará familiar.
Paso 1: Obtener acceso
- Registrarse en la plataforma de DeepSeek.
- Crear una API Key desde el panel de usuario.
- Guardar esa clave en un entorno seguro (
.env
en proyectos locales, o gestores como Vault en producción).
Paso 2: Endpoints disponibles
- deepseek-chat → modo Non-Think (rápido, directo).
- deepseek-reasoner → modo Think (razonamiento avanzado).
Ambos soportan 128K tokens de contexto, lo que da mucho margen para trabajar con grandes volúmenes de datos.
3. Primeros ejemplos con la API (cURL)
Ejemplo básico en Non-Think
curl https://api.deepseek.com/v1/chat/completions \
-H "Authorization: Bearer $DEEPSEEK_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-chat",
"messages": [
{"role": "system", "content": "Eres un asistente útil."},
{"role": "user", "content": "Escribe un resumen de 3 frases sobre el cambio climático."}
]
}'
Lenguaje del código: PHP (php)
Ejemplo en modo Think
curl https://api.deepseek.com/v1/chat/completions \
-H "Authorization: Bearer $DEEPSEEK_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-reasoner",
"messages": [
{"role": "system", "content": "Eres un experto en matemáticas."},
{"role": "user", "content": "Resuelve paso a paso: 245 * 37"}
]
}'
Lenguaje del código: PHP (php)
4. Uso práctico con Python
import os
import requests
API_KEY = os.getenv("DEEPSEEK_API_KEY")
url = "https://api.deepseek.com/v1/chat/completions"
payload = {
"model": "deepseek-reasoner", # o "deepseek-chat"
"messages": [
{"role": "system", "content": "Eres un asistente que ayuda a programadores."},
{"role": "user", "content": "Escribe un script en Python que ordene una lista de números."}
]
}
headers = {
"Authorization": f"Bearer {API_KEY}",
"Content-Type": "application/json"
}
response = requests.post(url, headers=headers, json=payload)
print(response.json()["choices"][0]["message"]["content"])
Lenguaje del código: PHP (php)
Este ejemplo devuelve un script en Python ordenando números, con la ventaja de que V3.1 en modo Think explicará el razonamiento paso a paso antes de dar el resultado final.
5. Casos de uso prácticos
a) Redacción rápida de textos
Con el modo Non-Think se pueden generar artículos cortos, resúmenes o descripciones de producto en segundos. Ideal para equipos de marketing o para alimentar contenido en sitios web.
b) Análisis de grandes documentos
Gracias al contexto de 128K tokens, ahora es posible subir contratos legales completos, manuales técnicos o bases de datos en texto plano, y obtener un análisis coherente sin cortes.
c) Programación y depuración
El modo Think es útil para depuración de errores y explicación de código.
Ejemplo: subir un archivo de 500 líneas y pedirle que encuentre posibles bugs o que documente funciones críticas.
d) Creación de agentes inteligentes
Con function calling se puede integrar DeepSeek con APIs externas. Por ejemplo:
- Conectar con una API de clima.
- Pedir a DeepSeek que razone sobre si conviene organizar un evento al aire libre o no.
- Ejecutar la función externa automáticamente para obtener datos y combinarlos en la respuesta.
e) Análisis de datos y BI
Al poder procesar grandes CSV en texto plano, se puede pedir al modelo que identifique tendencias, realice comparativas o explique resultados.
6. Optimización de costes
Con el nuevo sistema de precios, conviene entender las diferencias:
- Cache hit (0,07 $/M tokens) → cuando el prompt o parte de él ya ha sido procesado antes.
- Cache miss (0,56 $/M tokens) → cuando el input es nuevo y debe calcularse desde cero.
- Output (1,68 $/M tokens) → siempre se paga por los tokens generados en la salida.
Consejos:
- Reutilizar prompts para aprovechar cache hits.
- Reducir la verbosidad en prompts repetitivos.
- Usar Non-Think en tareas simples para ahorrar.
- Reservar el modo Think para casos donde el razonamiento marque la diferencia.
7. DeepSeek V3.1 frente a la competencia
- Google Gemini / Microsoft Copilot → cerrados, integrados en sus ecosistemas, pero menos abiertos y más caros.
- Anthropic Claude → destaca en ética y seguridad, pero con menos flexibilidad en API.
- OpenAI GPT-4.1 → muy potente en creatividad, aunque más caro y cerrado.
- DeepSeek V3.1 → código abierto, precios más bajos y capacidad híbrida única.
El equilibrio entre velocidad, coste y apertura es su principal atractivo frente a los gigantes.
8. FAQ – Preguntas frecuentes
1. ¿Qué diferencia hay entre los modos Think y Non-Think en DeepSeek V3.1?
El modo Non-Think ofrece respuestas rápidas sin razonamiento extenso, ideal para tareas cotidianas. El modo Think desarrolla respuestas paso a paso y con mayor profundidad, recomendado para programación, cálculos o análisis complejos.
2. ¿Qué significa que DeepSeek V3.1 tiene 128K tokens de contexto?
Significa que puede procesar hasta 128.000 tokens en una sola consulta, lo que equivale a cientos de páginas de texto. Esto permite trabajar con documentos largos sin cortes ni pérdidas de coherencia.
3. ¿Cuánto cuesta usar la API de DeepSeek V3.1?
Desde el 5 de septiembre de 2025:
- 0,07 $/1M tokens (cache hit).
- 0,56 $/1M tokens (cache miss).
- 1,68 $/1M tokens de salida.
4. ¿Puedo usar DeepSeek V3.1 en proyectos propios?
Sí. Los pesos están disponibles en Hugging Face bajo licencia open source, lo que permite integrarlo en proyectos locales o en la nube, además de usar la API oficial.
👉 Con esta guía práctica, DeepSeek V3.1 se posiciona como una herramienta versátil para empresas, desarrolladores y usuarios que buscan una IA rápida, asequible y flexible.