La inteligencia artificial, según se define en la página web del parlamento europeo, es la habilidad de una máquina de presentar las mismas capacidades que los seres humanos, como el razonamiento, el aprendizaje, la creatividad y la capacidad de planear.
Los sistemas de IA son capaces de adaptar su comportamiento, analizar los efectos de acciones previas y de trabajar de manera autónoma.
La inteligencia artificial, actualmente, tiene un papel determinante en la transformación digital de la sociedad que, bien utilizada, puede resultar de gran provecho para agilizar procesos y toma de decisiones, tanto de la vida diaria como de la profesional.
Las empresas utilizan la IA para mejorar la eficiencia y productividad de sus equipos, permitiendo que los empleados puedan dejar en manos de las IAs labores repetitivas, para poder centrarse en otras tareas más creativas. También puede ayudar para elaborar estrategias empresariales y nuevas búsquedas de negocio.
El Parlamento Europeo ha desarrollado un reglamento dirigido a todas aquellas personas, físicas o jurídicas, que desarrollen un sistema o modelo de IA de uso general y lo introduzcan en el mercado, o pongan en servicio el sistema de IA con su propio nombre o marca comercial, previo pago o gratuitamente.
El Reglamento se ha elaborado para que los usuarios finales puedan confiar en los sistemas de Inteligencia Artificial, garantizando la protección de la salud, seguridad y derechos fundamentales de todos los usuarios.
Se pretende lograr una IA fiable. Para ello, el Reglamento clasifica las aplicaciones de IA dependiendo del riesgo para los humanos o para el medio ambiente:
Los GPT, sistemas capaces de crear contenido general en diversos formatos, incluidos modelos de lenguaje de propósito general son sistemas muy avanzados en capacidades similares al pensamiento humano.
Con independencia de si son clasificados como de alto riesgo o no, el uso de estos sistemas debe estar sujeto a obligaciones de transparencia específicas. En particular, es preciso notificar a los usuarios que están interactuando con un sistema de IA, salvo que sea evidente por las circunstancias y el contexto de uso, e informarlas cuando estén expuestas a un sistema de reconocimiento de emociones o a un sistema de categorización biométrica.
Además, los usuarios que utilicen un sistema de IA para generar o manipular imágenes, archivos de audio o vídeos que se asemejen a personas, lugares o sucesos reales y, puedan hacer creer a una persona son reales, deben comunicar que estos han sido creados o manipulados de manera artificial, etiquetando el contenido generado por la inteligencia artificial como corresponda e indicando su origen artificial.
Los ChatBots deben ser explícitos y tienen que informar al usuario que está hablando con una IA y no con una persona.
Los usuarios deben poder discernir el origen del contenido, para evitar desinformación y engaños.
Los GPT no van a ser prohibidos, simplemente tendrán que adaptarse al reglamento, como ya hizo ChatGPT cuando el 31 de marzo de 2023 fue bloqueado en Italia por posible incumplimiento de la normativa de Protección de Datos. ChatGPT estableció una serie de medidas que le permitieron conseguir el levantamiento del bloqueo.
Se trata de proteger al usuario para que no se vulneren sus derechos fundamentales, como el derecho a la intimidad. Las herramientas de IA tendrán que informar al usuario de todas las consecuencias que puedan darse utilizando la Inteligencia Artificial. Los usuarios tienen derecho a ser informados sobre si una herramienta de IA va a darnos resultados verdaderos o si, por el contrario, los resultados no tienen sustento alguno y pueden resultar falsos.
Pongamos un ejemplo de utilización de una IA que genera modelos de recursos de multas. Esa herramienta tiene que informarnos sobre si la aplicación de IA analiza la legislación, doctrina, jurisprudencia y, como consecuencia, puede tener un resultado positivo en la reclamación realizada por el usuario. Esta IA no puede manipular al usuario e influirlo para que recurra, simplemente tiene que darle los datos y fundamentos para justificar su reclamación, además de informar del procedimiento a seguir.
Con la regulación de la IA, se intenta desarrollar legalmente la innovación (y no frenarla). Antes del lanzamiento al mercado las empresas pueden probar sus sistemas en un entorno controlado de pruebas. Para ello, entra en acción el Sandbox.
En este artículo explicábamos en qué consistía el Sandbox y cómo se regulaba en España: “¿Qué es una Fintech y por qué es importante el Sandbox?”
España está invitando a las empresas a que utilicen el Sandbox regulatorio para desarrollar, entrenar, probar y validar sistemas IA bajo su guía, supervisión y soporte.
Nota: este artículo no ha sido redactado con IA, sino por un abogado experto en la materia que ha revisado la legislación previamente.
Son muchas las personas a las que siendo empleados les surge la oportunidad de embarcarse…
¿Puede deducirse un gasto proveniente de un ejercicio prescrito? La Ley del Impuesto sobre Sociedades…
La Ley 27/2014, de 27 de noviembre, del Impuesto sobre Sociedades (en adelante, LIS), en…
Cada vez son más comunes los casos de estafas electrónicas, a través del teléfono móvil,…
El 2 de mayo de 2024, ha entrado en vigor el Real Decreto 444/2024, de…
¿Cómo me afecta la Ley de Inteligencia Artificial? ¿Qué pasará con ChatGPT, Gemini, BarGPT…? Detallamos…