05/11/2025

La Unión Europea ya no sabe que hacer con ChatGPT

Con 120 millones de usuarios mensuales, el modelo de IA supera el umbral de gran plataforma, pero la Comisión aún debate si regular solo esa función o todo el servicio. Entre otras cosas, OpenAI reconoció que 1,2 millones de personas cada semana mantienen conversaciones con su chat virtual que sugieren que están planeando quitarse la vida, y que “en algunos casos excepcionales, el modelo puede no comportarse como se espera”.

La Unión Europea tardará al menos otro año en determinar cómo utilizar su poderosa legislación digital para controlar los riesgos de ChatGPT.

El uso del chatbot de inteligencia artificial se ha disparado en Europa, y OpenAI declaró este mes que ha superado un umbral importante para la supervisión regulatoria. La noticia de que más de 120 millones de personas utilizan la función de búsqueda de ChatGPT cada mes no sorprendió a la Comisión Europea, según informaron dos funcionarios a POLITICO.

Sin embargo, los reguladores aún no han determinado cómo regular ChatGPT en el marco de la Ley de Servicios Digitales de la UE , vigente desde principios de 2024, para garantizar que las plataformas minimicen sus riesgos. Según un alto funcionario de la Comisión, no se espera una decisión hasta mediados de 2026. 

Se trata de una prueba para poner a prueba la capacidad de la UE para gestionar los riesgos que plantean los grandes modelos lingüísticos, que se están volviendo tan omnipresentes en la vida de las personas como los motores de búsqueda tradicionales.  

La lentitud refleja el hecho de que la ley digital emblemática se diseñó antes de que ChatGPT se popularizara, y sus definiciones no abarcan claramente los chatbots de IA, lo que deja a Bruselas en riesgo de quedarse rezagada a la hora de abordar estos riesgos, incluso a medida que se vuelven más evidentes.  

OpenAI reconoció recientemente que 1,2 millones de personas cada semana mantienen conversaciones con ChatGPT que sugieren que están planeando quitarse la vida, y que “en algunos casos excepcionales, el modelo puede no comportarse como se espera en estas situaciones delicadas”. 

“Para una industria acostumbrada a marcos de seguridad de IA voluntarios y a puntos de referencia autodefinidos, el régimen de diligencia debida jurídicamente vinculante de la DSA podría suponer un duro baño de realidad”, afirmó Mathias Vermeulen, director del bufete de abogados y consultora AWO Agency de Bruselas.  

“OpenAI tendrá que mejorar significativamente y no podrá seguir haciendo simplemente copiar y pegar lo que está haciendo actualmente”, dijo. 

La empresa no respondió a las críticas, sino que remitió a sus páginas de ayuda en línea para obtener información sobre cómo cumple con la DSA. También aclaró que la cifra de 120 millones se refiere a las personas que utilizan las funciones de búsqueda de ChatGPT y no al servicio en su totalidad.

¿Qué tan ancho ir? 

ChatGPT ya está regulada por la Ley de IA de la UE . Desde agosto, debe evaluar los riesgos y mitigarlos, arriesgándose a multas de hasta 15 millones de euros en caso de incumplimiento. Pero las cifras de usuarios ahora sitúan al chatbot en la primera división, superando con creces el umbral de 45 millones de usuarios mensuales establecido por la DSA para las grandes plataformas y motores de búsqueda.  Una vez que se acoge a la DSA, se arriesga a multas de hasta el 6 por ciento de su facturación global anual.  

ChatGPT no fue “previsto” por la DSA, pero “se ajusta al lenguaje de la ley”, dijo Martin Husovec, profesor de derecho en la London School of Economics.  Según la estructura de la ley, la UE designa los sitios como plataformas en línea y motores de búsqueda muy grandes —denominados VLOP o VLOSE— que deben cumplir las normas más estrictas.  “Una cuestión fundamental” es el alcance de la designación para ChatGPT, dijo Joris Van Hoboken, profesor de derecho especializado en gobernanza de la IA en la Universidad Libre de Bruselas.  

La Comisión podría limitar su aplicación a las funcionalidades de búsqueda de ChatGPT, para clasificarlo como un motor de búsqueda, o ampliarla a toda la oferta, ya sea como plataforma o servicio. 

Los requisitos que se impongan a OpenAI y cómo pueda cumplirlos dependen en gran medida de lo que decida la Comisión.  OpenAI tendrá que determinar la gravedad de los riesgos que plantea su chatbot, incluidos los relacionados con las elecciones y la salud pública. Deberá mitigarlos e informar a la Comisión mediante un extenso informe de cumplimiento. Cuanto más amplia sea la designación, más extenso deberá ser dicho informe. 

Estas evaluaciones de riesgo incluyen «el diseño de sus sistemas de recomendación y cualquier otro sistema algorítmico relevante», según la ley DSA. Esto podría resultar difícil si la Comisión se centra en todo el modelo lingüístico subyacente a ChatGPT y sus respuestas, en lugar de enfocarse en el contenido de búsqueda que se muestra a los usuarios. 

Una definición más estricta también podría eximir a OpenAI de un compromiso: como motor de búsqueda, no tendría que proporcionar un mecanismo de notificación y acción que permita a los usuarios denunciar contenido para su eliminación.   Si se realiza una designación a mediados de 2026, eso significa que los requisitos de DSA afectarían a OpenAI en el último trimestre del próximo año.

OpenAI también podría impugnar la designación, como ya lo han hecho sin éxito otras plataformas en el pasado, según João Pedro Quintais, profesor asociado de derecho de la información en la Universidad de Ámsterdam. Cualquier desacuerdo prolongaría aún más el proceso.

¿Demasiadas leyes?

Quedan preguntas clave sobre cómo se superponen las dos leyes principales que abordan la IA y las plataformas.

Según Quintais, la Ley de IA y la DSA se diseñaron para coexistir en casos donde la IA se integra en servicios digitales, como las Vistas Generales de IA de Google. No se diseñaron pensando en los proveedores de IA verticalmente integrados, como OpenAI.

Las dos leyes se basan en dos marcos de riesgo diferentes. Las plataformas deben evaluar en qué categorías de riesgo se encuentran y ajustar sus servicios en consecuencia.

Estos marcos de evaluación de riesgos no están perfectamente alineados; la Ley de IA establece que los modelos deben clasificarse como de riesgo inaceptable, alto, limitado, mínimo o nulo. Las plataformas y los motores de búsqueda deben determinar y mitigar cuatro tipos de «riesgos sistémicos», como la integridad cívica, las elecciones, la salud pública y los derechos fundamentales.   

Pero según la Ley de IA, se supone que las funciones integradas en VLOPSE, como las descripciones generales de IA de Google, cumplen con las normas de IA si presentan evaluaciones DSA.  

Eso significa que algunos aspectos de la regulación —por ejemplo, la desinformación y los deepfakes— son “asumidos por la DSA”, dijo Quintais, mientras que otros riesgos, por ejemplo, el uso de ChatGPT en los procesos de contratación, permanecen dentro de la Ley de IA.  

Quintais afirmó que podrían existir lagunas en la forma en que la empresa evalúa el riesgo de sus servicios debido a que los dos marcos no coinciden perfectamente.  La empresa también podría beneficiarse de las llamadas leyes de puerto seguro, según las cuales las plataformas y los motores de búsqueda no son responsables del contenido publicado en ellos, añadió. 

Compartir:

Más publicaciones