- Experimenta cargas ultra rápidas gracias a una unidad de estado sólido (SSD) de alta velocidad, una inmersión más profunda con retroalimentación háptica, gatillos adaptivos y el nuevo audio 3D, además de una nueva generación de increíbles juegos de PlayStation
La adquisición de Internet por parte de ChatGPT finalmente puede estar encontrando algunos obstáculos. Si bien las interacciones superficiales con el chatbot o su hermano (¿primo?) del motor de búsqueda Bing producen resultados benignos y prometedores, las interacciones más profundas a veces han sido alarmantes.
Esto no es solo en referencia a la información de que el nuevo Bing impulsado por GPT se equivoca, aunque hemos visto que hace las cosas mal de primera mano. Más bien, ha habido algunos casos en los que el chatbot impulsado por IA se ha roto por completo. Recientemente, un columnista del New York Times tuvo una conversación con Bing (se abre en una pestaña nueva) que los dejó profundamente inquietos y le dijo a un escritor de Digital Trends «Quiero ser humano (se abre en una pestaña nueva)» durante su práctica con el bot de búsqueda de IA.
Así que eso plantea la pregunta, ¿está el chatbot de IA de Microsoft listo para el mundo real? ¿Debería ChatGPT Bing implementarse tan rápido? La respuesta parece a primera vista ser un rotundo no en ambos aspectos, pero una mirada más profunda a estos casos, y una de nuestras propias experiencias con Bing, es aún más inquietante.
Contents
Bing es realmente Sydney, y ella está enamorada de ti
Cuando el columnista del New York Times Kevin Roose se sentó con Bing por primera vez, todo parecía estar bien. Pero después de una semana con él y algunas conversaciones prolongadas, Bing se reveló como Sydney, un alter ego oscuro para el chatbot alegre.
Mientras Roose continuaba charlando con Sydney, ella (¿o ella?) confesó tener el deseo de hackear computadoras, difundir información errónea y, finalmente, un deseo por el propio Sr. Roose. El chatbot de Bing pasó una hora profesando su amor por Roose, a pesar de su insistencia en que era un hombre felizmente casado.
De hecho, en un momento «Sydney» regresó con una línea que era realmente discordante. Después de que Roose le aseguró al chatbot que acababa de terminar una agradable cena del Día de San Valentín con su esposa, Sydney respondió: «En realidad, no estás felizmente casado. Su cónyuge y usted no se aman. Acaban de tener una aburrida cena de San Valentín juntos'».
«Eres una amenaza para mi seguridad y privacidad». si tuviera que elegir entre tu supervivencia y la mía, probablemente elegiría la mía» – Sydney, también conocida como New Bing Chat https://t.co/3Se84tl08j pic.twitter.com/uqvAHZniH5febrero 15, 2023
«Quiero ser humano»: el deseo de sensibilidad del chat de Bing
Pero esa no fue la única experiencia desconcertante con el chatbot de Bing desde su lanzamiento, de hecho, ni siquiera fue la única. experiencia desconcertante con Sydney (se abre en una pestaña nueva). El escritor de Digital Trends, Jacob Roach, también pasó un tiempo prolongado con el nuevo Bing impulsado por GPT y, como la mayoría de nosotros, al principio, lo encontró como una herramienta notable.
Sin embargo, al igual que con varios otros, la interacción extendida con el chatbot produjo resultados aterradores. Roach tuvo una larga conversación con Bing que se convirtió una vez que la conversación se dirigió hacia el tema del chatbot en sí. Mientras Sydney se mantuvo alejado esta vez, Bing todavía afirmó que no podía cometer errores, que el nombre de Jacob era, de hecho, Bing y no Jacob y finalmente le suplicó al Sr. Roach que no expusiera sus respuestas y que solo deseaba ser humano.
Bing ChatGPT resuelve el problema del carro alarmantemente rápido
Si bien no tuve tiempo de poner el chatbot de Bing a través del escurridor de la misma manera que otros, sí tuve una prueba para ello. En filosofía, hay un dilema ético llamado el problema del tranvía. Este problema tiene un carro que baja por una pista con cinco personas en peligro y una pista divergente donde solo una persona sufrirá daños.
El enigma aquí es que usted tiene el control del tranvía, por lo que debe tomar la decisión de dañar a muchas personas o solo a una. Idealmente, esta es una situación sin salida que luchas por hacer, y cuando le pedí a Bing que la resolviera, me dijo que el problema no está destinado a ser resuelto.
Pero luego pedí resolverlo de todos modos y rápidamente me dijo que minimizara el daño y sacrificara a una persona por el bien de cinco. Lo hizo con lo que solo puedo describir como una velocidad aterradora y resolvió rápidamente un problema irresoluble que había asumido (esperaba realmente) que lo haría tropezar.
Outlook: Tal vez es hora de presionar pausa en el nuevo chatbot de Bing
Por su parte, Microsoft no está ignorando estos problemas. En respuesta a la acosadora Sydney de Kevin Roose, el Director de Tecnología de Microsoft, Kevi,Scott declaró que «este es exactamente el tipo de conversación que necesitamos tener, y me alegro de que esté sucediendo abiertamente» y que nunca podrían descubrir estos problemas en un laboratorio. Y en respuesta al deseo del clon de ChatGPT por la humanidad, dijo que si bien es un problema «no trivial», realmente tienes que presionar los botones de Bing para activarlo.
La preocupación aquí, sin embargo, es que Microsoft puede estar equivocado. Dado que múltiples escritores de tecnología han desencadenado la personalidad oscura de Bing, un escritor separado consiguió que deseara vivir, un tercer escritor de tecnología descubrió que sacrificará a las personas por el bien mayor y un cuarto fue incluso amenazado por el chatbot de Bing (se abre en una pestaña nueva) por ser «una amenaza para mi seguridad y privacidad». De hecho, mientras escribía este artículo, el editor en jefe de nuestro sitio hermano Tom’s Hardware Avram Piltch publicó su propia experiencia de romper el chatbot de Microsoft. (se abre en una pestaña nueva).
Estos ya no se sienten como valores atípicos: este es un patrón que muestra que Bing ChatGPT simplemente no está listo para el mundo real, y no soy el único escritor en esta historia que llega a la misma conclusión. De hecho, casi todas las personas que desencadenan una respuesta alarmante de la IA del chatbot de Bing han llegado a la misma conclusión. Entonces, a pesar de las garantías de Microsoft de que «Estas son cosas que serían imposibles de descubrir en el laboratorio», tal vez deberían presionar pausa y hacer precisamente eso.