- Experimenta cargas ultra rápidas gracias a una unidad de estado sólido (SSD) de alta velocidad, una inmersión más profunda con retroalimentación háptica, gatillos adaptivos y el nuevo audio 3D, además de una nueva generación de increíbles juegos de PlayStation
¿Cómo podría ser un futuro sin pantalla? Humane, la compañía fundada por ex ejecutivos de Apple hace cinco años, puede habernos dado un vistazo de su primer producto, ya que los clips de una próxima demostración de TED talk se han filtrado antes de lo previsto.
Los extractos de la charla, pronunciados por el presidente de Humane y ex director de diseño de Apple en el equipo de interfaz humana, Imran Chaudhri, han estado en todo Twitter, y los hemos incrustado a lo largo de esta pieza para disfrutar.
Al igual que los comunicadores de Star Trek, el dispositivo portátil se muestra unido al pecho para interactuar con él a través de toques y voz.
«Es un nuevo tipo de dispositivo y plataforma portátil que se construye completamente desde cero para la inteligencia artificial», explica Chaudhri en comentarios transcritos por Inverse. (se abre en una pestaña nueva), que ha visto la grabación completa. «Y es completamente independiente. No necesitas un teléfono inteligente ni ningún otro dispositivo para emparejarlo».
¿Qué significa eso en la práctica? En primer lugar, parece funcionar como una especie de Alexa portátil o Google Assistant, capaz de acceder a «correo electrónico, invitaciones de calendario y mensajes» para extraer contexto de manera inteligente y responder preguntas, como en el clip a continuación.
«Ponte al día», un resumen de información crucial que puedes haber pasado por alto mientras estabas ocupado, en el dispositivo de @humane. pic.twitter.com/AAIfh2Chfmabril 21, 2023
Al igual que el Asistente de Google, también se muestra proporcionando traducciones sobre la marcha, pero con una diferencia importante. Chaudhri mantiene presionado un botón en el dispositivo y pronuncia una frase razonablemente complicada: «Los dispositivos invisibles deberían sentirse tan naturales de usar que casi te olvidas de su existencia».
Después de una pausa de tres segundos, el dispositivo repite la frase en francés. Es algo pequeño, pero está usando inequívocamente la propia voz de Chaudhri, en lugar de los tonos robóticos de un asistente virtual genérico.
El @Humane ponible haciendo traducción de IA inglés->francés en tu propia voz… uau. (SONIDO ACTIVADO) Crédito del video @ZarifAli9 Lea la exclusiva sobre las características del dispositivo portátil Humane: https://t.co/TYRmtYPSYI pic.twitter.com/cmAWEU8DFSabril 21, 2023
El dispositivo también parece tener una cámara incorporada. En un momento de la charla, capturada en Twitter, Chaudhri saca una barra lechosa de su bolsillo, la pone frente al dispositivo y dice «¿Puedo comer esto?» Después de otra pausa de tres segundos, la IA responde: «Una barra lechosa contiene manteca de cacao. Dada tu intolerancia, es posible que desees evitarla».
@humane dispositivo de la OMS que le ayuda a decidir lo que puede y no puede comer en función de conocer sus preferencias y restricciones dietéticas. pic.twitter.com/PFwEAsNxDIabril 21, 2023
«Voy a comerlo de todos modos», le dice Chaudhri al dispositivo. «Disfrútalo», responde.
El último truco de fiesta filtrada del dispositivo es cómo maneja los momentos en que realmente necesita ver algo, en este caso, una llamada entrante de la esposa de Chaudhri: la CEO de Humane, Bethany Bongiorno (ex directora de ingeniería de software de Apple). La información de la llamada se proyecta en la mano de Chaudhri.
Primera demostración del @Humane próximo dispositivo portátil impulsado por IA. Una llamada telefónica. ¡Gracias @ZarifAli9 por compartir! pic.twitter.com/7qyDScPkOhabril 21, 2023
¿Es la IA portátil el futuro?
Humane ciertamente tiene grandes esperanzas en el potencial de esta tecnología. Es algo que teóricamente podría brindarle toda la asistencia de su teléfono inteligente, sin resultar tan enloquecedoramente molesto.
Como dice Chaudhr: «Nos gusta decir que la experiencia es sin pantalla, perfecta y sensorial, lo que le permite acceder al poder de la computación mientras permanece presente en su entorno, arreglando un equilibrio que se siente fuera de lugar desde hace algún tiempo».
Pero antes de emocionarnos demasiado, vale la pena detenerse a reflexionar sobre un par de cosas. En primer lugar, esta es una demostración de etapa controlada, por lo que es cuestionable cuánto de lo que estamos viendo aquí se hace realmente en tiempo real en lugar de preprogramado.
En particular, la parte de traducción parece demasiado buena para ser verdad: ¿Cómo sabe el dispositivo que está traduciendo con una sola pulsación del botón? E incluso si lo hace, ¿cómo sabe traducir al francés en lugar del español o japonés?
Incluso si todo esto es alcanzable y lanzado en los próximos años, hay preguntas sobre si en realidad es más práctico que los teléfonos inteligentes que llevamos hoy en día, también. Hablar con tu pecho en público es mucho menos privado que tocar furtivamente tu pantalla, por un lado.
Y eso es descontar el factor moda. A menos que tal tecnología iSi se adopta en masa, siempre habrá nerd asociado con él, sin importar cuán útil pueda o no ser en la práctica.
Hay razones para ser escéptico, entonces. Pero a pesar de todo esto, no podemos esperar a ver la charla TED completa cuando se lance.
No está claro cuándo será. El periodista Zarif Ali dijo 22 de abril (se abre en una pestaña nueva), pero en el momento de escribir este artículo, todavía no está en el sitio de TED (se abre en una pestaña nueva) o canal de YouTube (se abre en una pestaña nueva). Mira este espacio.