top of page

El ChatGPT podría dejar de estar disponible en Europa


Los riesgos de las herramientas basadas en inteligencia artificial generativa como ChatGPT han comenzado a pesar más que sus ventajas.
 

En las compañías tecnológicas más importantes del mundo, incluida Apple, mientras sean de terceros, este tipo de soluciones no son bienvenidas internamente, y en la Unión Europea también las observan.


Según una publicación compartida desde Apple Insider,OpenAI podría abandonar Europa debido a las estrictas regulaciones que se planean en el proyecto de Ley de IA, que entre varios objetivos, busca garantizar que se pueda confiar en la inteligencia artificial.


El futuro de OpenAI en Europa no es claro

Tras reunirse con autoridades de España, Francia y el Reino Unido para abordar el tema de la regulación de la inteligencia artificial (IA), el CEO de Open AI, Sam Altman, ha expresado su preocupación por ciertos aspectos de la iniciativa de ley sobre IA que está siendo preparada por la Unión Europea (UE).


Según sus declaraciones, algunas disposiciones planteadas en la propuesta podrían tener un impacto negativo en las operaciones de OpenAI en la región, representando posibles obstáculos para el cumplimiento de la nueva normativa que se espera entre en vigencia en algún momento de 2025.

El borrador actual de la Ley de IA de la UE estaría sobrerregulando, pero hemos escuchado que será retirado... Hay tantas cosas que podrían hacer como cambiar la definición de los sistemas de IA de propósito general.

Asimismo, Altman compartió la postura de OpenAI ante el proyecto de ley para regular la IA en territorio europeo y aseguró que

“si podemos cumplir, lo haremos, y si no podemos, dejaremos de operar. Lo intentaremos, pero hay límites técnicos a lo que es posible".

El creador de ChatGPT Sam Altman amenaza con irse de Europa si le ponen demasiadas trabas

Para el ejecutivo, una de sus principales preocupaciones se relaciona con el sistema de categorización propuesto por la Comisión Europea en el que las plataformas IA se clasificarían en función del “riesgo potencial” que suponen para el bienestar social.


El sistema de calificación propuesto establece cuatro niveles: riesgo mínimo, riesgo limitado, alto riesgo y riesgo inaceptable.


Dependiendo de la categoría de riesgo asignada a cada proyecto de IA, las empresas responsables de dichos desarrollos deberán cumplir requisitos rigurosos para poder operar en la Unión Europea.


Estos requisitos estarán en consonancia con el nivel de riesgo identificado y tienen como objetivo garantizar la seguridad, ética y transparencia en el uso de la inteligencia artificial en la región.


Según las características de cada categoría descritas en el proyecto de ley, ChatGPT y modelos como GPT-4 tendría una calificación de “alto riesgo”. Con lo cual OpenAI deberá cumplir con los requisitos más estrictos para poder operar en la región y que a su vez representan costos más altos para la compañía.


Estos requisitos incluyen establecer sistemas de seguridad elevados para los usuarios, contar con supervisión humana comprobable, alimentar la base de datos con información de alta calidad para evitar sesgos y registrar la actividad de los usuarios para rastrearlos en caso de que sea necesario.


La Ley de Inteligencia Artificial fue propuesta por primera vez por la Comisión en abril de 2021, cuando no imaginábamos que faltaba poco para que los modelos basados en IA de OpenAI y Google fueran protagonistas, y se espera que se apruebe este 2023.

Comments


bottom of page