¿Cómo me afecta la Ley de Inteligencia Artificial? ¿Qué pasará con ChatGPT, Gemini, BarGPT…?

¿Qué es la inteligencia artificial?

La inteligencia artificial, según se define en la página web del parlamento europeo, es la habilidad de una máquina de presentar las mismas capacidades que los seres humanos, como el razonamiento, el aprendizaje, la creatividad y la capacidad de planear.

Los sistemas de IA son capaces de adaptar su comportamiento, analizar los efectos de acciones previas y de trabajar de manera autónoma.

¿Por qué es importante la IA?

La inteligencia artificial, actualmente, tiene un papel determinante en la transformación digital de la sociedad que, bien utilizada, puede resultar de gran provecho para agilizar procesos y toma de decisiones, tanto de la vida diaria como de la profesional.

Las empresas utilizan la IA para mejorar la eficiencia y productividad de sus equipos, permitiendo que los empleados puedan dejar en manos de las IAs labores repetitivas, para poder centrarse en otras tareas más creativas. También puede ayudar para elaborar estrategias empresariales y nuevas búsquedas de negocio.

¿A quiénes van dirigidas las normas del Reglamento de Inteligencia Artificial?

El Parlamento Europeo ha desarrollado un reglamento dirigido a todas aquellas personas, físicas o jurídicas, que desarrollen un sistema o modelo de IA de uso general y lo introduzcan en el mercado, o pongan en servicio el sistema de IA con su propio nombre o marca comercial, previo pago o gratuitamente.

Clasificación según el riesgo de la IA

El Reglamento se ha elaborado para que los usuarios finales puedan confiar en los sistemas de Inteligencia Artificial, garantizando la protección de la salud, seguridad y derechos fundamentales de todos los usuarios.

Se pretende lograr una IA fiable. Para ello, el Reglamento clasifica las aplicaciones de IA dependiendo del riesgo para los humanos o para el medio ambiente:

RIESGO INACEPTABLE:

  • No habrá en Europa IAs que manipulen el comportamiento humano, tampoco se permitirán IAs consistentes en sistemas de puntuación social (social scoring usado en China y objeto de un capítulo de Black Mirror S03E01); sistemas predictivos de vigilancia policial (anticipar la comisión de delitos basándose en perfiles de personas reales y su personalidad); categorización biométrica para inferir sus características sensibles (raza, opiniones políticas, orientación sexual, falta de dinero… algo que se explica perfectamente en la tercera temporada de la serie Westworld), monitorización de emociones en entorno laboral y educativo. También estarán prohibidos los sistemas de reconocimiento facial.

ALTO RIESGO:

  • Sistemas de IA cuya utilización pudiera tener importantes implicaciones en derechos fundamentales de los ciudadanos, en particular las IAs que puedan influir en el resultado de la toma de decisiones. Estos sistemas deberán cumplir una serie de requisitos para que puedan operar en Europa.

RIESGO LIMITADO:

  • Únicamente se imponen requisitos de transparencia. Si un sistema de IA toma decisiones o genera contenido que pueda incidir en una persona, esta debe ser informada de que la decisión o contenido ha sido producida por IA. Por ejemplo, los chats bots deberán informar al usuario que todo el contenido generado no está elaborado ni contrastado por un humano.

RIESGO MÍNIMO O NULO:

  • No impone requisitos regulatorios: filtros de spam, recomendación de contenido en plataformas (esto, en nuestra opinión, podría tener riesgo, ya que se recaban datos que afectan a la privacidad), procesadores de texto, motores de videojuego…

¿Qué ocurre con las IAs Generativas: los GPT?

Los GPT, sistemas capaces de crear contenido general en diversos formatos, incluidos modelos de lenguaje de propósito general son sistemas muy avanzados en capacidades similares al pensamiento humano.

Con independencia de si son clasificados como de alto riesgo o no, el uso de estos sistemas debe estar sujeto a obligaciones de transparencia específicas. En particular, es preciso notificar a los usuarios que están interactuando con un sistema de IA, salvo que sea evidente por las circunstancias y el contexto de uso, e informarlas cuando estén expuestas a un sistema de reconocimiento de emociones o a un sistema de categorización biométrica.

Además, los usuarios que utilicen un sistema de IA para generar o manipular imágenes, archivos de audio o vídeos que se asemejen a personas, lugares o sucesos reales y, puedan hacer creer a una persona son reales, deben comunicar que estos han sido creados o manipulados de manera artificial, etiquetando el contenido generado por la inteligencia artificial como corresponda e indicando su origen artificial.

Los ChatBots deben ser explícitos y tienen que informar al usuario que está hablando con una IA y no con una persona.

Los usuarios deben poder discernir el origen del contenido, para evitar desinformación y engaños.

Los GPT no van a ser prohibidos, simplemente tendrán que adaptarse al reglamento, como ya hizo ChatGPT cuando el 31 de marzo de 2023 fue bloqueado en Italia por posible incumplimiento de la normativa de Protección de Datos. ChatGPT estableció una serie de medidas que le permitieron conseguir el levantamiento del bloqueo.

Se trata de proteger al usuario para que no se vulneren sus derechos fundamentales, como el derecho a la intimidad. Las herramientas de IA tendrán que informar al usuario de todas las consecuencias que puedan darse utilizando la Inteligencia Artificial. Los usuarios tienen derecho a ser informados sobre si una herramienta de IA va a darnos resultados verdaderos o si, por el contrario, los resultados no tienen sustento alguno y pueden resultar falsos.

Pongamos un ejemplo de utilización de una IA que genera modelos de recursos de multas. Esa herramienta tiene que informarnos sobre si la aplicación de IA analiza la legislación, doctrina, jurisprudencia y, como consecuencia, puede tener un resultado positivo en la reclamación realizada por el usuario. Esta IA no puede manipular al usuario e influirlo para que recurra, simplemente tiene que darle los datos y fundamentos para justificar su reclamación, además de informar del procedimiento a seguir.

Importancia del Sandbox

Con la regulación de la IA, se intenta desarrollar legalmente la innovación (y no frenarla). Antes del lanzamiento al mercado las empresas pueden probar sus sistemas en un entorno controlado de pruebas. Para ello, entra en acción el Sandbox.

En este artículo explicábamos en qué consistía el Sandbox y cómo se regulaba en España: “¿Qué es una Fintech y por qué es importante el Sandbox?”

España está invitando a las empresas a que utilicen el Sandbox regulatorio para desarrollar, entrenar, probar y validar sistemas IA bajo su guía, supervisión y soporte.

 

Nota: este artículo no ha sido redactado con IA, sino por un abogado experto en la materia que ha revisado la legislación previamente.

Resumen
¿Cómo me afecta la Ley de Inteligencia Artificial? ¿Qué pasará con ChatGPT, Gemini, BarGPT…?
Título del post
¿Cómo me afecta la Ley de Inteligencia Artificial? ¿Qué pasará con ChatGPT, Gemini, BarGPT…?
Descripción
Detallamos el impacto del Reglamento de Inteligencia Artificial en Europa, clasificando la IA por riesgos, desde inaceptable hasta mínimo, y estableciendo normas específicas para sistemas como los GPT, incluyendo requisitos de transparencia y protección de derechos fundamentales.
Autor
Editor
Ruiz Ballesteros
Logo editor

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.