En la segunda parte de la serie de libros Crónicas de Ámbar (que comienza con el libro "Trumps of Doom" de 1985) de Roger Zelazny, uno de los más grandes escritores de fantasía y ciencia ficción, el protagonista desarrolla "Ghostwheel", un sistema de inteligencia artificial capaz de autoaprendizaje, que en algún momento también desarrolla autoconciencia, y una impresionante capacidad para protegerse de los intentos del héroe por desconectarlo. Mientras que los diálogos de Ghostwheel son entretenidos y están bien guionizados, la película "Terminator", protagonizada por Arnold Schwarzenegger y estrenada un año antes, trata de un futuro apocalíptico en el que la inteligencia artificial se apodera del mundo con un talante algo menos alegre.
Unos 25 años más tarde, OPEN AI lanzó el sistema ChatGPT, un mecanismo de correspondencia informatizada que, cuando se le solicita, devuelve una respuesta detallada basada en enormes cantidades de datos de la red junto con la capacidad de "producir" nueva información. El sistema plantea muchas cuestiones, éticas y jurídicas, sobre la naturaleza de los datos que proporciona, el plagio y la aprensión a crear datos infundados al extraer conclusiones basadas en información parcial.
Esta cuestión fue abordada en junio de 2023 por una proyecto de ley del Parlamento de la UE que regula el uso de la inteligencia artificial y se aplica tanto a entidades gubernamentales como a empresas comerciales. La legislación define entre tres niveles de riesgo: inaceptable, alto y limitado. El riesgo inaceptable, que hace que el sistema quede prohibido, son los sistemas que pueden afectar al comportamiento humano, como los juegos que pueden fomentar conductas de riesgo en los niños o la clasificación social basada en el comportamiento, el estatus socioeconómico o los rasgos de personalidad. El riesgo alto se define como los sistemas biométricos, de aplicación de la ley y de infraestructuras críticas, cuyos sistemas requieren una licencia reglamentaria. Otros sistemas se definen como de riesgo limitado y sólo requieren el cumplimiento de normas para garantizar la transparencia y la posibilidad de que los usuarios tomen una decisión con conocimiento de causa.
Para tratar de evitar el uso de información producida por inteligencia artificial con el fin de difundir datos falsos o reescribir información real en información inexacta, la nueva legislación define ChatGPT y sus equivalentes como una categoría separada de inteligencia artificial productiva. En tales sistemas se exige: un descargo de responsabilidad de que la información es creada por un sistema de inteligencia artificial, la configuración del sistema debe impedir la creación de datos falsos, y otros requisitos previos. La parte más compleja de la legislación no es necesariamente su aplicación a las empresas dedicadas al desarrollo de inteligencia artificial productiva, sino más bien a las empresas que utilizan tales productos (fabricados por terceros) para la comercialización y el funcionamiento de sus sistemas. Según la nueva legislación, esto también requiere una licencia reglamentaria en el país de destino en la Unión Europea.
Así, por ejemplo, las instituciones financieras que utilizan la inteligencia artificial para catalogar a los clientes en grupos de riesgo, las empresas de scraping que procesan la información recogida mediante inteligencia artificial, e incluso las empresas de biotecnología que intentan predecir enfermedades o alertar mediante inteligencia artificial sobre el deterioro médico, todas ellas deben ahora cumplir las normas europeas si operan en Europa o permiten el acceso a sus sistemas desde Europa. Por lo tanto, es importante que cualquier empresa de este tipo reciba el asesoramiento jurídico adecuado de un bufete de abogados especializado en legislación europea en general y en el ámbito de la tecnología en particular.