(Demasiado) Deepseek: sobre los desafíos de privacidad que plantea el modelo de IA 2025
Artículos

(Demasiado) Deepseek: sobre los desafíos de privacidad que plantea el modelo de IA 2025

April 24, 2025
Impresión
PDF

En el libro de Carlo Collodi de 1883 Las aventuras de Pinocho, Pinocho llega a Pleasure Island solo para descubrir que detrás de la apariencia de un parque de diversiones se esconde un siniestro plan para convertir a los niños en burros y hacer una fortuna vendiéndolos. 142 años después, en 2025, se dio a conocer un nuevo modelo de inteligencia artificial (IA) llamado Deep Seek-R1.  que, según sus desarrolladores, pretende, entre otras cosas, ofrecer capacidades similares a los modelos occidentales, y a costos significativamente más bajos.  Por desgracia, el zumbido silenció las voces de los juristas, quienes, como Géminis el Grillo 142 años antes, trataron de advertir de los peligros que acechaban.

Así, a diferencia de Chat GPT, no es posible utilizar el modelo sin identificación o en  modo incógnito, y no existe la posibilidad de impedir la recopilación de información.  Una revisión de la política de (no) privacidad enciende luces de advertencia cegadoras adicionales.  Así, por ejemplo, se observa que se recogen datos de localización, datos identificativos y, sobre todo, bajo la inocente frase "entrada de texto", toda la información que el usuario introduce mientras lo utiliza.  A esto se suma la "cereza" de almacenar la información en servidores en China y especificar que la empresa compartirá la información recopilada con las autoridades o cualquier tercero si se trata (entre otras cosas) de una solicitud gubernamental.

Contrariamente a su voluntad de compartir la información de los usuarios, la empresa no cooperó lo suficiente con una investigación realizada por la Agencia Italiana de Protección de la Privacidad (Garante) en relación con la recopilación y el almacenamiento de la información.  Además, la empresa insiste en que las leyes de privacidad de la Unión Europea (GDPR) no se le aplican porque no tiene un representante en la Unión Europea, una posición que contradice directamente la posición tradicional de la Unión Europea, de que las leyes GDPR se aplican a la información de sus residentes.  Mientras que Italia ha bloqueado por completo el uso del modelo y otros países como Canadá y Australia lo han restringido, las autoridades israelíes han optado, hasta ahora, por ignorar al dragón chino en la habitación.  Pero, ¿cuál es la posición de la ley israelí en relación con las cuestiones mencionadas?

Dos de los principios que subyacen a las leyes de protección de la privacidad en Israel son: el principio de consentimiento (y el requisito de transparencia que lo acompaña), que requiere que el recopilador especifique al proveedor de la información toda la información relevante para obtener su consentimiento para compartir información, incluido lo que se recopiló, cuáles fueron los usos, a quién se proporcionó,  y con qué propósito; y el principio de conjugación de la finalidad, que exige que la información se utilice únicamente para el fin para el que fue recopilada.  En la información recopilada y procesada por la IA, existe una dificultad inherente para mantener estos principios, debido a la incapacidad de sus operadores para explicar cómo se llegó a una determinada conclusión, es decir, el uso exacto (si lo hay) hecho (y mucho menos se hará) de la información específica recopilada.  Sin embargo, la imprecisión de la política de privacidad de la modelo china y la forma en que se opera la modelo, incluida la imposibilidad de restringir la identificación, la recopilación y el procesamiento de información, o su eliminación, conducen a la exacerbación de estos problemas, contradicen la política del regulador israelí de limitar la recopilación de información privada y, en la práctica, socavan la capacidad del sujeto de la recopilación para reducir el daño que se le da.

Cabe señalar que, si bien las autoridades se centran en la información personal de las personas, también existe preocupación por la información de las empresas.  Así, como hemos escrito en el pasado, la revolución de la inteligencia artificial conlleva, junto con una enorme promesa, múltiples peligros para el individuo y para la corporación.  Por lo tanto, es vital estar acompañado de un abogado conocedor de la materia antes de utilizar estas herramientas y sus productos.