Viernes 31 de Enero de 2025 | Aguascalientes.
internacionales

Preocupa privacidad de datos en DeepSeek

Agencia Reforma | 31/01/2025 | 11:15

La Inteligencia Artificial (IA) china DeepSeek presenta diversos riesgos en el uso de datos y la transparencia con la que opera, alertaron empresas de tecnología.

Guillermo Varela, director general de la consultora GCG, afirmó que existen muchas dudas sobre cómo ésta IA maneja la confidencialidad de la información que comparten sus usuarios.

"Su política menciona reglas estrictas respecto a manejar solamente datos anónimos y no almacenar la información ni las conversaciones directamente en sus servidores, pero al ser una plataforma 'inmadura' aún hay cuestionamientos y cautela respecto a su uso en escenarios empresariales o de investigación", aseveró.

Otro riesgo a tomar en cuenta es que el Gobierno de China impone prácticas que controlan el acceso a la información tanto en medios masivos como en filtraciones de datos, señaló Varela.

"Cualquier cosa que vaya en contra de los ideales de su sistema se ha podido comprobar que las respuestas que brinda Deepseek respecto a temas políticos o polémicos es claramente filtrada y/o censurada", dijo en entrevista reciente.

Además está el hecho de que DeepSeek afirma en sus propios términos de privacidad que recopila y almacena datos en servidores en China, por lo que cualquier disputa sobre el tema se regirá por la ley del Gobierno chino.

DeepSeek opera con el denominado código abierto, es decir, un software que permite que cualquier persona pueda acceder, modificar, y distribuirlo.

Esto también implica un riesgo, alertó Robert Calva, líder de Soluciones del Ecosistema para Latinoamérica en Red Hat.

"Lo ideal es que el software pase por un modelo de auditoría y revisiones constantes del código para que se le dé soporte. 

"El código abierto es bueno porque evoluciona, pero si estos datos son comunitarios, se corre el riesgo del uso que le dan terceras personas o compañías", añadió en entrevista.

Advirtió que los sesgos en el uso de datos particulares pueden causar errores en la información para el usuario final.

"La falta de transparencia de cómo fueron entrenados los modelos tecnológicos generará sesgos informativos, lo que a su vez provocará que existan alucinaciones dentro de la IA, que es básicamente que los datos e información al usuario final sean incorrectos", explicó.

Restringen acceso

Empresas y agencias gubernamentales de todo el mundo están tomando medidas para restringir el acceso de sus empleados a las herramientas lanzadas recientemente por DeepSeek.

La empresa cibernética Armis dijo que 70 por ciento de sus clientes han solicitado bloqueos.

En tanto que 52 por ciento de los clientes de la firma de ciberseguridad Netskope están bloqueando el acceso al sitio por completo para sus empleados.

"La mayor preocupación es la posible filtración de datos del modelo de IA al Gobierno chino.

"No sabes a dónde va tu información", dijo Nadir Izrael, director de Tecnología de Armis.

DeepSeek no respondió a una solicitud de comentarios.