DeepSeek es una app/chatbot de inteligencia artificial de origen chino que escaló rápido en descargas globales por su promesa de rendimiento alto y coste bajo. El giro llegó cuando periodistas y reguladores revisaron su política de privacidad y hallaron que la compañía almacena la información de los usuarios en servidores ubicados en la República Popular China —incluyendo consultas, archivos subidos y metadatos—, lo que dispara preguntas sobre jurisdicción y acceso estatal bajo leyes chinas. Medios tecnológicos han señalado explícitamente esa cláusula y su implicancia para usuarios en EE. UU. y Europa.

Europa: Italia la bloqueó, Alemania pidió retirarla y el EDPB encendió alertas
El primer golpe regulatorio fuerte fue en Italia. El Garante per la Protezione dei Dati Personali ordenó bloquear el tratamiento de datos de italianos por parte de DeepSeek y abrió una investigación por posibles infracciones al GDPR. Tras ese pronunciamiento, la app desapareció de las tiendas de Apple y Google en Italia; el regulador cuestionó, entre otros puntos, si los datos se almacenaban en China y bajo qué base legal. La medida se mantiene mientras avanza la instrucción.
Luego, Berlín dio un paso público: la comisionada de protección de datos Meike Kamp solicitó formalmente a Apple y Google que retiren DeepSeek de las tiendas en Alemania por transferencias ilícitas de datos personales a China; el pedido siguió a requerimientos previos no atendidos por la empresa. A escala comunitaria, el European Data Protection Board (EDPB) advirtió que podrían venir nuevas acciones de autoridades nacionales si persisten los riesgos, mientras distintas agencias en la UE recaban información y abren pesquisas. No existe, de momento, una prohibición unificada en toda la UE, pero sí un patrón de medidas país por país y de coordinación entre reguladores.

Estados Unidos: vetos en ámbitos públicos y debate sobre un ban federal
En Estados Unidos no hay —por ahora— prohibición federal total. Sí existen restricciones sectoriales y estatales. Texas se convirtió en el primer estado en prohibir DeepSeek en dispositivos gubernamentales, junto con otras apps chinas, por motivos de seguridad. En paralelo, la Marina de EE. UU. comunicó internamente que el uso de apps de IA generativa de origen chino supone riesgos de seguridad y ética; algunas coberturas lo leyeron como un “veto” específico a DeepSeek y la propia Marina matizó que su política general de IA aplica de forma restrictiva a herramientas no aprobadas. El debate en Washington sigue abierto, con legisladores sopesando limitaciones a modelos de IA chinos en el ejecutivo y agencias.
¿Realmente envía datos a China? Lo que dicen los términos y los hallazgos técnicos
El núcleo técnico-jurídico es claro en las fuentes públicas: la política de privacidad de DeepSeek (versión en inglés revisada por la prensa especializada) declara que “almacena la información en servidores ubicados en China”. Informes adicionales describen colecta extensa de datos y, en casos analizados, envío de información a servicios chinos sin encriptado de extremo a extremo en ciertas rutas de red.
En el plano regulatorio, los estándares del GDPR exigen que cualquier transferencia internacional garantice niveles equivalentes de protección; los reguladores italianos y alemanes sostienen que no se cumple ese listón hoy. La compañía ha discutido la jurisdicción europea y ha respondido de forma insuficiente a los requerimientos, según constan en expedientes y notas oficiales.

Qué cambia para campañas, gobiernos y empresas (y qué no)
Para campañas y gobiernos, la consecuencia inmediata es de cumplimiento y riesgo operativo. En la UE, usar un chatbot que traslada datos a China sin salvaguardas adecuadas puede violar GDPR y exponer a sanciones; además, si se alimentan al modelo documentos internos o datos personales de ciudadanos, el riesgo de accesos no deseados se multiplica. En EE. UU., aunque no haya un ban federal, los regímenes de seguridad de agencias y estados ya restringen su uso en activos públicos; eso obliga a políticas internas que bloqueen instalaciones en dispositivos oficiales y definan canales permitidos de IA.
Para empresas y consultoras, la clave es la trazabilidad. Si un equipo usa IA para generar análisis, piezas creativas o informes con datos sensibles, debe documentar origen, base legal, finalidad, retención y transferencias; de lo contrario, cualquier auditoría (o filtración) abre un frente legal y reputacional. Y aun cuando DeepSeek siga disponible vía web en algunas jurisdicciones, eso no equivale a que su uso sea conforme a la normativa vigente.
Qué viene: escenarios regulatorios probables y señales a monitorear
En Europa, es probable que más autoridades emitan órdenes o medidas cautelares si DeepSeek no presenta garantías sólidas (p. ej., cambios en hosting, SCCs, evaluaciones de impacto, controles de acceso). El pedido de Berlín a Apple/Google en Alemania podría replicarse en otros mercados si se verifica la misma combinación de transferencia + falta de salvaguardas. En EE. UU., veremos más vetos en dispositivos de gobierno y posibles límites a proveedores de IA de países de riesgo, sobre todo en el ámbito federal y defensa. En los dos lados, la discusión dejará huella sobre cómo deben operar apps de IA extranjeras que procesan datos de ciudadanos locales.

Conclusiones
La frase “Estados Unidos y Europa están prohibiendo DeepSeek” simplifica en exceso. Lo que existe hoy es un mosaico: bloqueo en Italia, pedido de retirada en Alemania, advertencias del EDPB y vetos sectoriales en EE. UU. (Texas y restricciones en ámbitos públicos), todos motivados por el mismo vector de riesgo: transferencia de datos a China sin garantías equivalentes. No hay —de momento— prohibición total a nivel federal en EE. UU. ni ban comunitario en toda la UE, pero sí una tendencia a condicionar o impedir su uso cuando hay datos personales o información sensible.
Para equipos de consultoría política, gobiernos y empresas, la guía práctica es directa: si una IA declara que hospeda datos en China, evítala para material sensible; si por alguna razón se usa, limítala a prompts sin datos personales, define listas blancas de herramientas auditadas y registra cada flujo de información (quién, qué, para qué, dónde se guarda). En un entorno donde el regulador pide pruebas, la mejor defensa no es el eslogan, sino una bitácora de cumplimiento que aguante inspección.
