DeepSeek AI y sus modelos de lenguaje de código abierto generan preocupaciones sobre priv

Feb 4, 2025

Introducción a DeepSeek AI

La startup china DeepSeek AI y sus modelos de lenguaje de código abierto han dominado el ciclo de noticias esta semana. Además de ser comparables a modelos como Claude de Anthropic y o1 de OpenAI, los modelos han generado varias preocupaciones sobre la privacidad de los datos, la seguridad y la censura impuesta por el gobierno chino dentro de su entrenamiento.

Problemas de seguridad y censura

El modelo de inteligencia artificial de búsqueda Perplexity y el asistente de inteligencia artificial You.com han encontrado una forma de sortear estos problemas, aunque con algunas limitaciones. El modelo de inteligencia artificial de DeepSeek, alimentado por sus modelos V3 y R1, es accesible a través de un navegador o aplicación, pero requiere comunicación con los servidores de la empresa en China, lo que crea un riesgo de seguridad. Los usuarios que descargan R1 y lo ejecutan localmente en sus dispositivos evitarán este problema, pero aún se enfrentarán a la censura de ciertos temas determinados por el gobierno chino, ya que está integrada por defecto.

Soluciones de Perplexity y You.com

Perplexity ha afirmado que ha eliminado al menos parte de la censura integrada en el modelo. El CEO de Perplexity, Aravind Srinivas, publicó una captura de pantalla en X de los resultados de una consulta que reconoce al presidente de Taiwán. Sin embargo, cuando se le preguntó a R1 sobre la Plaza de Tiananmen utilizando Perplexity, el modelo se negó a responder.
– Perplexity ofrece un plan gratuito que permite a los usuarios realizar tres consultas de nivel Pro por día, que se pueden utilizar con R1, pero se requiere el plan Pro de $20 por mes para acceder a él más de tres veces.
– El plan Pro de Perplexity incluye la ejecución de R1 en centros de datos de EE. UU. y la Unión Europea, lo que garantiza que los datos de los usuarios no salgan de los servidores occidentales.
– You.com ofrece tanto V3 como R1, solo a través de su nivel Pro, que cuesta $15 por mes (con descuento desde los $20 habituales) y no incluye consultas gratuitas.
– El plan Pro de You.com incluye la carga de archivos de hasta 25 MB por consulta, una ventana de contexto máxima de 64k y acceso a agentes de investigación y personalizados.

Características de You.com

Bryan McCann, cofundador y CTO de You.com, explicó que los usuarios pueden acceder a R1 y V3 a través de la plataforma de tres maneras, todas las cuales utilizan una versión sin modificar y de código abierto de los modelos de DeepSeek alojados entirely en los Estados Unidos para garantizar la privacidad del usuario.
– La primera forma es utilizar estos modelos dentro del contexto de la capa de confianza propia. Esto da a los modelos acceso a fuentes web públicas, un sesgo hacia la citación de esas fuentes y una inclinación a respetar esas fuentes al generar respuestas.
– La segunda forma es para que los usuarios desactiven el acceso a fuentes web públicas dentro de sus controles de origen o utilizando los modelos como parte de agentes personalizados. Esta opción permite a los usuarios explorar las capacidades y el comportamiento únicos de los modelos cuando no se basan en la web pública.
– La tercera forma es para que los usuarios prueben los límites de estos modelos como parte de un agente personalizado agregando sus propias instrucciones, archivos y fuentes.

Conclusión

En resumen, aunque los modelos de DeepSeek AI han generado preocupaciones sobre la privacidad de los datos y la censura, las plataformas de inteligencia artificial como Perplexity y You.com han encontrado formas de sortear estos problemas. Al ofrecer planes de suscripción que incluyen la ejecución de los modelos en centros de datos seguros y la eliminación de la censura integrada, estas plataformas proporcionan a los usuarios una forma de acceder a los modelos de DeepSeek de manera segura y privada. Sin embargo, es importante tener en cuenta que los modelos de inteligencia artificial aún pueden tener sesgos y limitaciones, y es fundamental evaluar cuidadosamente sus capacidades y comportamiento antes de utilizarlos.