En el mundo de la inteligencia artificial (IA), DeepSeek ha emergido como una startup china que está generando tanto admiración como preocupación. Su chatbot gratuito y de código abierto ha alcanzado una rápida expansión global, posicionándose como una alternativa poderosa a modelos establecidos como los de OpenAI o Google. Sin embargo, su meteórico ascenso ha desatado comparaciones con la popular plataforma TikTok, sobre todo por los riesgos asociados a la privacidad, la seguridad de los datos y la posible censura.
¿QUIÉN ES DEEPSEEK Y QUÉ LO HACE TAN CONTROVERSIAL?
Fundada en 2023 por Liang Wenfeng, DeepSeek ha desarrollado modelos de lenguaje de gran tamaño (LLM) que han logrado avances significativos en áreas como matemáticas, codificación y razonamiento natural. Su chatbot ha superado en descargas a ChatGPT tanto en China como en Estados Unidos, destacando por su impresionante rendimiento y accesibilidad. Sin embargo, su éxito ha venido acompañado de serias preocupaciones.
Uno de los aspectos más controvertidos de DeepSeek es su origen chino. Al igual que TikTok, la empresa ha sido señalada por su capacidad para recopilar grandes cantidades de datos de usuarios, lo que genera interrogantes sobre cómo se protegen esos datos y si podrían ser compartidos con el gobierno chino.
Aunado a esto, se teme que la IA de DeepSeek pueda ser utilizada para promover intereses geopolíticos, lo que aumenta la desconfianza en la plataforma.
RIESGOS DE PRIVACIDAD Y CENSURA EN DEEPSEEK
A pesar de su éxito, el modelo de negocio de DeepSeek ha generado serias preocupaciones sobre la privacidad de los usuarios. La empresa establece en sus términos de servicio que las entradas y salidas de los usuarios pueden ser utilizadas para mejorar sus sistemas, lo que podría poner en riesgo la confidencialidad de los datos personales.
Además, los usuarios asumen la responsabilidad de cualquier contenido sensible que ingresen, exponiéndolos a posibles riesgos legales.
La censura es otro tema delicado, y los expertos han observado que DeepSeek evita responder a preguntas sobre temas sensibles para el gobierno chino, como la situación de los uigures en Xinjiang o la soberanía de Taiwán. Esta limitación refleja la narrativa oficial de China y pone en duda la imparcialidad de la IA, lo que podría tener implicaciones serias en términos de manipulación de la información.
VULNERABILIDADES DE SEGURIDAD Y POSIBLES RIESGOS GLOBALES
El lanzamiento de DeepSeek ha revelado vulnerabilidades en su sistema, por ejemplo, en diciembre de 2024, se descubrió un fallo de seguridad que permitía a los atacantes tomar el control de las cuentas de usuario, lo que subraya los riesgos de seguridad asociados a la plataforma.
La proliferación de modelos clonados también podría facilitar suplantaciones de identidad y fraudes, lo que representa una amenaza para la seguridad global.
UN DESAFÍO PARA LA REGULACIÓN INTERNACIONAL
El rápido ascenso de DeepSeek plantea grandes desafíos en términos de regulación. En China, el gobierno supervisa estrictamente el desarrollo de la IA bajo políticas de seguridad nacional, lo que ha generado dudas sobre la independencia de la empresa. En Estados Unidos, existe un debate sobre si se deberían restringir las tecnologías de código abierto como las de DeepSeek para evitar que se conviertan en herramientas de desinformación y manipulación.
DEEPSEEK Y EL FUTURO DE LA INTELIGENCIA ARTIFICIAL
Aunque DeepSeek ofrece un enorme potencial para diversas aplicaciones, también resalta los peligros inherentes a la inteligencia artificial, especialmente cuando se desarrolla sin un marco ético y regulatorio sólido.
La necesidad de una regulación internacional que promueva el uso responsable de la IA es más urgente que nunca. Si no se abordan adecuadamente los riesgos relacionados con la privacidad, la seguridad y la censura, tecnologías como DeepSeek podrían tener repercusiones más amplias en la sociedad global.
DeepSeek representa un avance significativo en el campo de la inteligencia artificial, pero también plantea serias preguntas sobre cómo se manejarán los datos, la influencia geopolítica y los riesgos de desinformación.
Es crucial que los gobiernos y las organizaciones internacionales colaboren para establecer normas y regulaciones que garanticen que la IA se desarrolle de manera responsable, ética y segura para todos.