empresas prohibiendo ChatGPT

Las empresas están prohibiendo ChatGPT pero, ¿por qué?

  • Estudios indican hasta un 75% de las firmas están prohibiendo o considerando prohibir ChatGPT
  • No es que duden de sus capacidades, sino que tienen incertidumbre relacionada con la seguridad
  • ¿Por qué los empresarios se están resistiendo a utilizar ChatGPT? ¿Cuáles son los riesgos reales?

A estas alturas, si sueles leernos lo sabes, es evidente que las empresas están prohibiendo el uso de ChatGPT. ¿Cuáles son las explicaciones que dan las compañías y qué podría implicar esto para el desarrollo de la IA?

Diversos estudios indican que hasta un 75% de las firmas están prohibiendo, o considerando prohibir, ChatGPT. Luego de eso, siempre según ZDNet, se muestran a favor de la adoptar otras soluciones de Inteligencia Artificial.

¿Por qué los empresarios se resisten a utilizar ChatGPT?

Lo primero que hay que aclarar es que no es que los empresarios duden de sus capacidades, sino que tienen cierta incertidumbre relacionada con posibles riesgos de ciberseguridad. Por eso hay que analizar qué tan probable es encontrarse con estas situaciones, y qué es lo que dicen los expertos especializados en ciberseguridad.

La clave está en que las herramientas de IA generativa están diseñadas para aprender de cada interacción. Cuantos más datos les proporcionamos, más inteligentes se volverán. Eso suena bien, pero no todo es positivo. Lamentablemente, seguimos conviviendo con área gris en la que nadie sabe muy bien dónde están los datos.

¿Cuáles son los riesgos reales de ChatGPT?

Un informe de Cyberhaven afirma que, para el 1 de junio, el 10,8% de los empleados utilizaban ChatGPT incluso dentro del ámbito trabajo. Pero lo preocupante es que el 4,7% han ingresado información confidencial en ChatGPT.

A pesar de que recientemente OpenAI ha sumado una opción de exclusión voluntaria por la cual los datos ya no serán utilizados para su explotación en el futuro, la mayoría de los empleados no tenía acceso a esta función. También hay que tener en cuenta que la exclusión voluntaria no es la configuración predeterminada.

Lo grave del asunto es que, aún cuando ahora intenten recuperar los datos, ya están en las bases de ChatGPT. Open AI y sus responsables aseguran que gestionan la información de forma consciente, pero nunca sabemos efectivamente cuál es el alcance de estas tocologías ni cómo fluyen los datos dentro de sus circuitos internos.

No podemos olvidar que el pasado 21 de marzo de 2023, OpenAI cerró ChatGPT debido a una falla que difundió incorrectamente los historiales de chat con nombres de diferentes usuarios. Si estos títulos contenían detalles privados o confidenciales, es posible que otros usuarios de ChatGPT los hayan visto. Si estos riesgos son insolucionables para los desarrollados, con el menor interés del público, la IA estaría en serias dudas.

La falta de regulaciones claras, otro de los inconvenientes

Amén de los problemas específicos que hemos descrito, la rápida evolución de estas herramientas de IA generativa ha dejado a los organismos reguladores tratando de ponerse al día. Las regulaciones, si las hay, no son claras.

Ésta es otra de las causas por las que las empresas están prohibiendo ChatGPT. Las grandes multinacionales no coinciden en todos los casos sobre cómo debería abordarse la cuestión de la Inteligencia Artificial. Y esto no es menor, porque muchas veces la adopción de una tecnología por parte de un gigante representa un aval.

La propia Microsoft ha sido bastante contradictoria a la hora de referirse a ChatGPT, y las repercusiones, fueron, como cabría esperarse, de mayor incredulidad para los usuarios que guardaban por una opinión contundente.

En enero, los de Redmond advirtieron a sus empleados que no compartieran «datos confidenciales» con ChatGPT. Paradójicamente, no dejan de alabar su versión de la Inteligencia Artificial: Azure ChatGPT. Dicha iteración nos promete un entorno más seguro y controlado para los usuarios corporativos. Pero, claro, eso está por verse.

Conclusiones

Al evaluar la adopción de cualquier tecnología nueva, las compañías a menudo se ven atrapadas en un tira y afloja entre las posibles ventajas y desventajas. Con ChatGPT, parecen estar adoptando una posición conservadora.

El caso es que así como ChatGPT es un instrumento sumamente útil para los usuarios particulares, en el ámbito empresarial aún no ha terminado de conquistar a los profesionales. Sin embargo, a medida que la tecnología evolucione, la esperanza es que se pueda incluir en las corporaciones más seguro y transparente.

¿Crees que las empresas que están prohibiendo ChatGPT aciertan o exageran con los riesgos de ciberseguridad?


Deja un comentario