Estados Unidos desea regular herramientas de IA

Estados Unidos desea regular ChatGPT y herramientas similares

El gobierno de Estados Unidos está dando sus primeros pasos para regular ChatGPT. Se está comenzando a analizar cuáles son las medidas que tendrán que tomarse para lograr una regular herramienta tan poderosa como ChatGPT y otras similares.

Esto es algo que ya se venía planteando desde hace algún tiempo y que varios expertos alrededor del mundo estaban pidiendo a gritos. Por lo que podemos ver desde The Wall Street Journal, El Departamento de Comercio envío una solicitud pública de “Medidas de responsabilidad”.

La solicitud estará abierta durante dos meses, la idea es conseguir comentarios y consejos sobre cómo es que los legisladores tienen que hacerle frente a toda esta nueva tecnológica de inteligencia artificial.

Sin embargo, EE. UU. no cuenta con un marco regulatorio para esta clase de herramientas. Pero deja en claro que la administración actual no va a dejar pasar la IA como si nada y no está dispuesta a arriesgarse sobre las consecuencias y posibilidades que esta clase de herramientas tendrá.

Evidentemente, esto nace por el miedo (totalmente justificado) del uso de la inteligencia artificial para llevar a cabo crímenes y difundir información falsa. Hace poco, vimos como un hombre, en pocas horas lograba crear un virus muy peligroso gracias a ChatGPT. El cual, sin la inteligencia artificial, le hubiera requerido varias semanas (o meses) y un equipo de, aunque sea, 10 personas.

La idea detrás de esta solicitud es para tomar la decisión si todos los modelos de IA tienen que estar regulados, pasar por un proceso de verificación antes de que puedan ser publicados.

Estados Unidos quiere dar el primer paso para regular herramientas como ChatGPT

Como mencionamos anteriormente, son muchas las personas que están demasiado preocupadas por el desarrollo de esta clase de herramientas y la falsa de regulación. Sin embargo, el mismo CEO de OpenIA, Sam Altman, asegura que es fundamental que las personas tengan acceso a esta tecnología para que se puedan desarrollar las medidas de seguridad necesarias para evitar situaciones como la que comentamos más arriba.

Sam Altman comentó: “No podemos desarrollar esto en nuestro laboratorio sin que nadie lo sepa. Imagina que creamos una inteligencia artificial y la publicamos al mundo, nos encontraríamos con muchos problemas. Las personas deben disponer de tiempo para acostumbrarse, tienen que adaptarse a esta tecnología. Es importante que comprendan las ventajas y desventajas que tendrá”.

También añadió que una de las cosas que más le preocupa es el simple hecho de que existen otras compañías que están llevando adelante herramientas de inteligencia artificial que no están dispuestas a implementar las medidas de seguridad que ChatGPT si tiene.

Elon Musk desea que paren con el desarrollo de la IA

Por otro lado, nos encontramos a personas como Elon Musk y más de 1100 expertos en el campo que están solicitando que se detenga el desarrollo de esta tecnología, aunque sea por seis meses.

Musk aseguro que es fundamental que se cree un marco regulatorio para esta tecnología. No se puede establecer una regulación como una reacción cuando sucede algo malo. En este caso, si ocurren cosas malas con la IA, las cuales sin regulaciones seguramente ocurrirán, la reacción desde un marco regulatorio, será demasiado lenta.

Recordemos que Baidu, el gigante chino, también se encuentra desarrollando su propia inteligencia artificial (y no es el único en este país) que incluso llego a demandar a Apple debido a la cantidad de aplicaciones falsas que aseguran ser la herramienta oficial, la cual ni siquiera tiene una beta pública.


Deja un comentario