En enero de 2025, una empresa china llamada DeepSeek publicó un modelo de inteligencia artificial que igualaba a GPT-4 en los benchmarks estándar. El dato que sacudió a Silicon Valley no era la calidad del modelo — era el costo: DeepSeek dijo haberlo entrenado con 6 millones de dólares, una fracción de los cientos de millones que OpenAI, Google y Meta gastan en sus modelos equivalentes. Las acciones de Nvidia cayeron 17% en un día. Era la primera vez que una empresa fuera de Estados Unidos publicaba un modelo de ese nivel.
Qué es DeepSeek exactamente
DeepSeek es una empresa de inteligencia artificial fundada en 2023 en Hangzhou, China, como subsidiaria de un fondo de inversión llamado High-Flyer. A diferencia de OpenAI o Anthropic, DeepSeek publica sus modelos como código abierto — cualquiera puede descargarlos, modificarlos y correrlos sin pagar licencia.
El modelo más conocido es DeepSeek-R1, publicado en enero de 2025. Es un modelo de razonamiento: antes de responder, "piensa en voz alta" escribiendo pasos intermedios, lo que mejora su desempeño en matemáticas, lógica y programación. En varias pruebas comparativas, supera a GPT-4o y Claude 3.5 Sonnet en tareas de razonamiento.
Por qué lo prohibieron en varios países
Italia fue el primer país en bloquear DeepSeek, en enero de 2025, por preocupaciones sobre el manejo de datos personales. El regulador de privacidad italiano pidió a DeepSeek que explicara qué datos recopila de los usuarios europeos, cómo los almacena y si los transfiere a China. DeepSeek no respondió en el plazo fijado y fue bloqueado preventivamente.
Australia prohibió DeepSeek en todos los dispositivos gubernamentales en febrero de 2025, siguiendo el mismo camino que había tomado con TikTok. El argumento oficial: riesgo de que los datos de usuarios lleguen al gobierno chino bajo la ley de ciberseguridad de ese país.
Estados Unidos no lo prohibió para el público general, pero varios estados y el Congreso restringieron su uso en dispositivos oficiales. El Ejército y la Marina emitieron directivas específicas prohibiéndolo.
La preocupación de fondo en todos los casos es la misma: la legislación china obliga a las empresas a cooperar con las agencias de inteligencia si se les solicita. Si DeepSeek almacena conversaciones en servidores chinos — lo que hace por defecto — esos datos podrían ser accesibles al gobierno chino.
Cómo usarlo sin mandar datos a China
La solución es correrlo localmente. DeepSeek publicó sus pesos de modelo bajo licencia MIT, lo que significa que cualquiera puede descargarlo y ejecutarlo en su propia computadora sin que ningún dato salga del dispositivo.
La forma más sencilla es con Ollama (que ya explicamos en otra guía). Una vez que tenés Ollama instalado, el comando es:
```
ollama run deepseek-r1:7b
```
Eso descarga la versión de 7 mil millones de parámetros, que ocupa unos 4 GB y funciona bien en computadoras con 8-16 GB de RAM. Hay versiones más grandes (14B, 32B, 70B) para hardware más potente.
También podés usar DeepSeek a través de servicios intermediarios que no almacenan en China: OpenRouter, Groq y Perplexity tienen versiones de DeepSeek en sus plataformas con sus propias políticas de privacidad, generalmente más estrictas que las del servicio original.
En qué es mejor que ChatGPT y en qué no
DeepSeek-R1 supera a GPT-4o en:
- Matemáticas y resolución de problemas formales
- Programación (benchmarks de código)
- Razonamiento lógico paso a paso
ChatGPT sigue siendo mejor en:
- Conversación natural y fluidez
- Instrucciones de seguimiento en conversaciones largas
- Contenido creativo abierto
- Temas relacionados con China (DeepSeek tiene restricciones programadas)
La restricción más conocida: si le preguntás a DeepSeek sobre Tiananmen, el Dalai Lama o la independencia de Taiwán, el modelo se niega a responder o da respuestas alineadas con la posición oficial del gobierno chino. Esto no ocurre en las versiones locales desconectadas de la censura del servidor.
Fuente original: Ver fuente