Bing ChatGPT se va al fondo, y los últimos ejemplos son muy inquietantes


La adquisición de Internet por parte de ChatGPT finalmente puede estar encontrando algunos obstáculos. Si bien las interacciones superficiales con el chatbot o su hermano (¿primo?) del motor de búsqueda Bing producen resultados benignos y prometedores, las interacciones más profundas a veces han sido alarmantes.

Esto no es solo en referencia a la información de que el nuevo Bing impulsado por GPT se equivoca, aunque hemos visto que hace las cosas mal de primera mano. Más bien, ha habido algunos casos en los que el chatbot impulsado por IA se ha roto por completo. Recientemente, un columnista del New York Times tuvo una conversación con Bing (se abre en una pestaña nueva) que los dejó profundamente inquietos y le dijo a un escritor de Digital Trends «Quiero ser humano (se abre en una pestaña nueva)» durante su práctica con el bot de búsqueda de IA.





Source link

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.Ver Política de cookies
Privacidad