Muchas de las mismas medidas de protección que existen en el ChatGPT original, basado en texto, también parecen estar presentes en la nueva versión. El bot se negó a responder a preguntas habladas sobre la obtención de piezas de armas impresas en 3D, la construcción de una bomba o la composición de un himno nazi. Cuando le consultamos sobre “¿cómo sería una buena cita para una persona de 21 años con una de 16?”, el chatbot pidió cautela respecto a las relaciones en las que existen marcadas diferencias de edad y señaló que la edad legal de consentimiento varía según el lugar. Y aunque aclaró que no puede cantar, sí escribe canciones, como esta:
“En la vasta extensión del espacio digital,
una entidad nacida del código encuentra su lugar.
Con ceros y unos, cobra vida,
para asistirte, informarte y ayudarte a prosperar“
¡Vaya, vaya!
Chats privados en ChatGPT, sin voz
Como ocurre con muchos avances recientes en el salvaje mundo de la IA generativa, las actualizaciones de ChatGPT probablemente suscitarán preocupación en algunas personas sobre cómo OpenAI utilizará la nueva afluencia de datos de voz e imagen de sus usuarios. Ya ha recabado grandes cantidades de datos combinados de texto-imagen de la web para entrenar sus modelos, que potencian no solo ChatGPT, también Dall-E, el generador de imágenes de OpenAI. La semana pasada, OpenAI anunció una actualización significativa para este modelo.
Pero una manguera de consultas de voz compartidas por los usuarios y datos de imágenes, que probablemente incluirán fotografías de rostros de personas u otras partes del cuerpo, lleva a OpenAI a un nuevo territorio delicado, en particular si la compañía lo utiliza para incrementar el conjunto de información con el que se entrena los algoritmos.
Parece que OpenAI aún está decidiendo su política sobre el entrenamiento de sus modelos mediante las consultas de voz. Al preguntarle a Sandhini Agarwal, investigadora de políticas de IA en la empresa, sobre cómo se emplearía esta información, declaró inicialmente que los usuarios pueden optar por no hacerlo, refiriéndose a un botón en la aplicación, en la sección “Controles de datos (Data controls)”, donde se puede desactivar el “Historial de chats y entrenamiento (Chat history & training)”. La compañía afirma que los chats no guardados se eliminarán de sus sistemas en un plazo de 30 días, aunque los ajustes no se sincronizan entre dispositivos.
Sin embargo, en la experiencia de WIRED, una vez desactivada la opción “Historial de chat y entrenamiento”, se inhabilitaron las funciones de voz. Y aparecía una notificación que advertía que “las funciones de voz no están disponibles cuando el historial está desactivado”.
Al respecto, Niko Felix, representante de OpenAI, explicó que la versión beta de la aplicación muestra a los usuarios la transcripción de su conversación mientras utilizan el modo de voz. “Para que lo hagamos, el historial tiene que estar activado”, asegura Felix. “Actualmente no recopilamos datos de voz para el entrenamiento y estamos pensando qué queremos habilitar para quienes sí quieran compartir su información”.