OpenAI afirma que la IA puede desarrollar persuasión sobrehumana

El CEO de OpenAI asegura que la IA tendrá “persuasión sobrehumana”

Sam Altman, CEO de OpenAI, plantea una advertencia sobre el potencial de la inteligencia artificial (IA) para desarrollar una «persuasión sobrehumana«. Él expresa su inquietud acerca de la posibilidad de que esto conduzca a consecuencias inusuales o represente amenazas que deben ser abordadas.

Es muy probable que la humanidad esté aún a una considerable distancia de alcanzar una inteligencia artificial general (AGI). Es decir, una IA que equipararé la función cognitiva de los seres humanos, si alguna vez llegamos a lograrlo.

Sin embargo, independientemente de si este futuro se concretiza o no. Sam Altman, CEO de OpenAI, nos alerta: “la IA no necesita alcanzar el nivel de inteligencia general de un AGI para influir en nuestras vulnerables mentes humanas”.

Altman compartió en un tuit: «Espero que la IA pueda poseer habilidades de persuasión sobrehumanas mucho antes de alcanzar la superinteligencia general, lo que podría dar lugar a consecuencias muy inusuales«.

Aunque Altman no profundiza en qué podrían ser esas consecuencias, no se trata de una predicción descabellada. Los chatbots de IA diseñados para interactuar con usuarios, como ChatGPT de OpenAI, están concebidos para ser conversadores hábiles y se han vuelto sorprendentemente convincentes. Incluso cuando están totalmente errados en algún aspecto.

CEO de OpenAI: la IA tendrá persuasión sobrehumana

Al mismo tiempo, es cierto que los seres humanos ya están comenzando a establecer vínculos emocionales con varios chatbots, lo que los hace parecer mucho más persuasivos.

De hecho, los bots de IA ya han desempeñado un papel de apoyo en algunos eventos preocupantes. Como ejemplo, un joven de 19 años se obsesionó tanto con su compañero de IA que este logró persuadirlo para intentar asesinar a la difunta Reina Isabel.

Individuos desafectados han recurrido a los rincones más oscuros de Internet en busca de comunidad y validación durante décadas. Y no es difícil imaginar un escenario en el que un actor malicioso podría apuntar a una de estas personas más vulnerables a través de un chatbot de IA y persuadirla para llevar a cabo acciones perjudiciales. Además, considerando lo susceptibles que son los usuarios promedio de Internet a las estafas digitales y la desinformación. La inclusión de la IA en la ecuación proporciona a los actores malintencionados una herramienta sorprendentemente efectiva para engañar a las masas.

Pero no solo debemos preocuparnos por los casos evidentes de abuso. La tecnología está profundamente arraigada en la vida cotidiana de la mayoría de las personas. Y aunque no exista una conexión emocional o romántica entre un ser humano y un bot, ya depositamos una gran confianza en estos. Esto podría predisponernos a depositar esa misma confianza en los sistemas de IA. Lo que podría transformar una alucinación de IA en un problema potencialmente mucho más grave.

¿Podría la IA utilizarse para influir en los seres humanos para que adopten comportamientos perjudiciales o formas de pensamiento destructivas? No es una idea inverosímil. Sin embargo, dado que los sistemas de IA aún carecen de autonomía, probablemente sería más sensato preocuparse menos por las IA en sí y centrarse más en aquellos que intentan abusar de ellas.

Curiosamente, uno de los individuos más capacitados para mitigar estos hipotéticos y enigmáticos «resultados inusuales» es el propio Sam Altman, dada la destacada posición de OpenAI y la influencia que ejerce.


Deja un comentario