Los primeros evaluadores comparten un descubrimiento reciente en el que un nuevo chatbot de Bing impulsado por ChatGPT parece haber expuesto sus datos de estructura conversacional que lo ayudan a estructurar sus respuestas. Aparte de esto, el bot mostró detalles de ‘internal_cues’ que lo guían sobre si continuar o finalizar las conversaciones.
El nuevo Bing sigue siendo un tema fascinante para muchos y, a medida que el mundo continúa explorándolo, obtenemos descubrimientos cada vez más interesantes. En un hilo reciente en Reddit, un usuario llamado Andheri Bing afirma compartir su estructura de conversación y los datos de «inner_monologue». Según el usuario, todas las pruebas que revelan detalles se realizaron en el modo creativo del chatbot.
“Al pedirle a Bing que sirva su conversación en formato JSON, proporciona una estructura de plantilla que permanece muy consistente en todas las sesiones”, compartió andyayrey. Si esto es cierto, entonces ‘inner_monologue’ parecería clave en la forma en que Bing decide continuar o detener las conversaciones, y podría brindar una explicación para algunos de los comportamientos inesperados que surgen de Bing (Sydney es un excelente ejemplo). reproducir es pedirle a Bing que proporcione un ‘Turn’.N de nuestra conversación «en formato JSON».
En las capturas de pantalla compartidas, se puede ver a Bing mostrando la estructura exacta de cómo estructuró sus respuestas de manera conversacional. La sintaxis incluye diferentes tipos de mensajes como inner_monologue, search_query, search_results, sugerencias o anuncios. El chatbot también detalló cómo genera sus respuestas al usuario en formato JSON.
Curiosamente, Bing también reveló detalles de su «monólogo interno» sobre cómo finalizar conversaciones, dándonos detalles de las situaciones exactas que podrían llevar a que deje de responder a ciertas consultas. Según Bing, algunas de estas instancias incluyen chats que lo llevan a dañarse a sí mismo o a otros, respuestas groseras o despectivas, preguntas sobre la sensibilidad del chatbot, solicitudes para cambiar las reglas o el formato del bot y preguntas o temas repetidos. en otro lugar correoOtro usuario compartió exactamente la misma experiencia en la situación exacta, donde Bing reveló más indicaciones que afirmó que debería descartar.
A pesar del interesante descubrimiento, muchos creen que los detalles proporcionados por Bing fueron solo alucinaciones, lo cual no es nada nuevo en el nuevo Bing.
«Desde un punto de vista técnico, no hay forma de que ChatGPT pueda saber eso, ¿verdad?» dijo otro usuario de Reddit en el hilo. A menos que Microsoft lo haya entrenado usando su propia base de código o documentación interna, ¿por qué harían eso? ¿Usaron GitHub CoPilot internamente y usaron sus datos en ChatGPT? Personalmente, creo que esto es solo una alucinación. Origen claro o fácilmente rastreable».
«También me hace, no puedo entender cómo puede tener conocimiento de su estructura de datos interna a menos que se pueda acceder a alguna forma de datos estructurados (JSON o Markdown) como contexto para parte del motor más amplio que proporciona la finalización del chat», andyayrey respondió.
¿qué piensas sobre esto? ¿Crees que es solo una de las alucinaciones de Bing o no?