openai nsfw

OpenAI contempla el contenido NSFW en su IA

OpenAI ha publicado un documento llamado «Model Spec» que explica sus planes y reglas para el manejo de sus tecnologías IA, incluido ChatGPT, además de la posibilidad de añadir contenido para adultos NSFW. Este documento, que se dio a conocer ayer miércoles, es un intento de la empresa por ser más abierta sobre cómo desarrolla sus productos y busca opiniones del público, los creadores de políticas y otros interesados.

El documento muestra la posibilidad de incluir contenido para adultos, específicamente aquel que no es apropiado para el trabajo (NSFW, por sus siglas en inglés). Actualmente, las normas de OpenAI prohíben cualquier material que sea sexualmente explícito o insinuante. Sin embargo, una parte del documento indica que la empresa está considerando cómo podría permitir este tipo de contenido bajo ciertas condiciones. Se menciona que esto se estudiaría en situaciones que sean adecuadas según la edad, mediante API y ChatGPT, siempre con la idea de hacerlo de manera responsable.

Este paso es importante debido al potencial de la tecnología de inteligencia artificial para crear contenido, incluida la pornografía. Los avances recientes en la tecnología de IA han llevado a la creación de «deepfakes» pornográficos, que son vídeos o imágenes hechos por IA que muestran a personas reales sin su consentimiento. Este tipo de contenido ha causado gran preocupación sobre el acoso y la invasión de privacidad, especialmente entre mujeres y niñas. La situación es tan grave que Danielle Keats Citron, una profesora de la Facultad de Derecho de la Universidad de Virginia, ha llamado la situación «alarmante» por las consecuencias legales y personales que implica.

La posible inclusión de contenido NSFW por OpenAI podría ir desde texto erótico hasta descripciones más explícitas de violencia, aunque el documento no aclara cuánto se relajarían las normas actuales. También se explica cómo OpenAI establece y controla los límites de lo que sus modelos de lenguaje pueden hacer. La «Modec Spec» detalla las reglas que indirectamente controlan a ChatGPT y otros modelos, además de los principios y normas generales a seguir.

Pero en el documento se menciona la dificultad de definir y hacer cumplir límites de seguridad para los modelos de IA que interactúan con el público. Por ejemplo, la decisión de no crear contenido falso sobre figuras públicas o la necesidad de mantener objetividad al recomendar productos son ejemplos de cómo OpenAI maneja estos problemas éticos y prácticos.


Deja un comentario