Para el CEO de OpenAI, para regular la IA se debe lincenciar.

CEO de OpenAI: para regular la IA se tiene que licenciar

¿Qué sería de un día sin hablar de la inteligencia artificial? Sí, esa “nueva” tecnología que se está volviendo increíblemente popular. La misma que hace que Microsoft nos deje un bonito mensaje en su navegador, esa que ahora tenemos está en la sopa y que, incluso, preocupa al padrino de la inteligencia artificial, que tuvo que dejar Google para intentar concientizar a la gente sobre sus peligros. Ahora resulta, que el CEO de OpenAI, Sam Altman, dice que para regular la IA se debe licenciar.

Sam Altman estuvo ante el Congreso de los Estados Unidos y explicó a los políticos cuál es para él la mejor forma de seguir adelante con la regulación de la IA. Altman, sabe muy bien que la inteligencia artificial está revolucionando el mundo como lo conocemos y que las personas no únicamente están ansiosas por hacer uso de esta, también nos encontramos con ciertas preocupaciones sobre los peligros que supone en una gran variedad de sentidos.

CEO de OpenAI asegura que, para regular la IA, se debe licenciar

Lo que debemos considerar es que, muchas de las mentes más brillantes del mundo y que tienen una enorme cantidad de experiencia con IA. Ya han advertido sobre los riesgos de la inteligencia artificial, como el padrino de la IA, que decidió abandonar Google. O las posibilidades que brinda de crear un virus muy peligroso solo con ChatGPT.

El mismo CEO de OpenAI, reconoció que este peligro existe y que representa una amenaza para la humanidad. Afirmando que “Si dicha tecnología se equivoca, entonces podría equivocarse demasiado”.

Una agencia enfocada en controlar la inteligencia artificial

En este sentido, la idea de Altman es crear una agencia internacional que estaría encargada de administrar cómo se utilizan estos sistemas, restringir su uso en caso de ser necesario, etc. Lo que afirma el CEO de OpenAI es que hace falta licenciar esta tecnología para conseguirlo.

Por lo tanto, dicha agencia tendría la capacidad de controlar el desarrollo y el uso que se le daría a la misma, imponiendo limites que conseguirían que se bloqueen los modelos de IA para que sean incapaces de autorreplicarse y autoimplantarse.

Evidentemente, un modelo de licencias, ya sabemos muy bien a quién beneficia más ¿Cierto? A las grandes compañías como OpenAI o Google, por mencionar un par. Las cuales invierten una enorme cantidad de dinero en el desarrollo de esta tecnología y después pueden vender el acceso a su API.

La IA open source representa un peligro para las Big Tech

Esto llega en un momento en donde se filtra un documento, en el cual podemos ver como un experto en el campo, afirma que la inteligencia artificial de código abierto puede ganarle las propuestas de Google y OpenAI. En pocas palabras, podríamos hasta decir que se trata de una idea elaborada con toda la intención de frenar a la competencia open source que se los podría comer con palomitas.

La IA open source está siendo desarrollada de manera más rápida que las propuestas de las grandes empresas, logrando poco a poco alcanzar lo que se supone será GPT-4 y eso no es decir, poca cosa honestamente. Se trata de una situación compleja, debido a que, al tratarse de código abierto, no podrían limitar el uso que se le hace a dicha tecnología debido a que cualquiera puede modificar el código.

Lo que nos deja en claro la situación actual es que ningún gobierno sabe bien cómo regular a la inteligencia artificial. Se trata de una tecnología completamente “nueva” e innovadora que por ahora se puede “controlar”, pero que representa una enorme serie de desafíos en un futuro no tan lejano cuando su desarrollo avance más y más.


Deja un comentario