“Leer, mirar y tocar”: noticias en un único dispositivo

Un prototipo, una idea de dispositivo. Quizá un papel electrónico. Pantallas plegables que entren en el bolsillo y se expandan como un televisor. Como una tablet o un teléfono.

Fue presentado en la última reunión de la Asociación Mundial de Periódicos en Viena.

Visto en Contectados donde hay más videos con prototipos.

Un futuro del libro

El libro como objeto mutará, está mutando. Respira bits, se digitaliza, cambia de soporte, modifica su creación, se convierte. También cambia la experiencia: ahora genera comunidad entorno a ese objeto literario, dispone funciones de interacción, enriquece la lectura y la ubica en un entorno de referencias instantáneas.

Todo esto se desprende de un prototipo que presentó IDEO. Una propuesta más que interesantes de las muchas que seguro llegarán. Vean:

Lo vi en varios blogs, entre ellos: QLPL y eBlog.

Un puesto de revistas digitales

Ok, soy fanático de los puestos de revistas: en cualquier lugar del mundo donde me encuentre recorro los que más pueda para descubrir nuevas publicaciones. Ojo que a veces compro!

Así que mi máxima preocupación desde el anuncio del iPad es que desaparezcan mis queridos y preciados puestos de revistas.

Pero atención que al parecer hay una posible solución a esas casitas de chapa verde porteñas: una mesa tipo la de Surface de Microsoft que permite arrastrar la publicación y llevarnos en nuestra tablet la revista digital. Vean:

Está bien, es más fría e impersonal que el puesto de revistas. Además falta el señor que puede responderte dónde tomarte el colectivo o que te de cambio. Pero algo es algo…

Vía

La aplicación para Tablet de Wired

La gente de Wired presentó hace unos días una aplicación sobre Adobe para correr en Tablets. El video que ven arriba muestra su funcionamiento y la verdad es que parece alucinante. Los contenidos que vemos son de Wired.com, noticias que el medio produce de manera independiente a la revista.

Además de quedar perplejo por la navegación que propone esta aplicación, me quedé pensando sobre el delay que existe entre el surgimiento de los nuevos dispositivos y la ‘adaptación’ de los medios de comunicación a estas experiencias. Como si la curva de innovación tecnológica estuviera muy lejana a la adaptación de los medios a esas nuevos gadgets. Es una sensación.

Porque como se ve en el video, no es cuestión de ‘colgar’ las noticias y ya. Hay un planeamiento y un desarrollo que busca explotar las potencialidades del dispositivo. Se necesita tiempo, recursos (claro está) y una nueva manera de pensar al momento de crear contenidos. Y surge, como siempre en casos similares, si estamos preparados los periodistas a contar historias para las diferentes experiencias de navegación.

Realidad Aumentada en móviles

“La realidad aumentada consiste en un conjunto de dispositivos que añaden información virtual a la información física ya existente” Wikipedia.

Me dejan fascinado las aplicaciones que están saliendo para móviles que permiten darle contexto en tiempo real a aquello que estamos viendo. En estos días se dio a conocer Layar, que se promociona como “the world’s first Augmented Reality browser.” Al encender la app, se activa la cámara automáticamente, el GPS brinda la ubicación del teléfono y la brújula determina la dirección. Las capas de información.

Mejor vean el video:

Estará disponible para celulares con sistema operativo Android, G1 y HTC Magic.

Recuerdo que hace un tiempo vi este otro video de un prototipo que maneja un concepto similar pero en un iPhone:

Mauro publicó otra experiencia de realidad aumentada pero en ¡video juegos!

Si quieren conocer más sobre esta tendencia (¡lo quiero aplicado en anteojos!) vayan a Youtube que se van a sorprender.

Viaje al centro del Research & Development Group del NYT | Parte II

Segundo video de The Nieman Journalism Lab titulado algo así como ‘preparando el futuro a través de todas las plataformas’.

En esta ocasión vemos la interacción de una Samsung tablet, un iPhone, un Sony Bravia TV y una aplicación llamada CustomTimes. El concepto que están trabajando, y veíamos en el video de ayer, es acceder al contenido del sitio desde cualquier dispositivo y en cualquier lugar. Un televisor, un smartphone, desde el coche… da igual, la intención es mejorar la experiencia del usuario desde donde se conecte. Para esto introducen el concepto que llaman “Plataforma agnóstica”.

Es genial como los distintos dispositivos se detectan entre sí y permite que podamos acceder a su visualización con sólo arrastrar y soltar sobre el aparato deseado. La prueba la realizan con un video de George Clooney, de la tablet al televisor o al iPhone. La misma interactividad ocurre con la publicidad. WoW!

Relacionado: Viaje al centro del Research & Development Group del NYT | Parte I

El “scanner” de Google

Los discos rígidos de Google no dan a basto. Deben guardar miles de videos cada día, cuentas de correo electrónico “ilimitadas” y miles de páginas de libros, entre otras toneladas de terabytes. Pero eso no nos preocupa, mejor ni preguntar 😀

El tema que quería comentar es sobre esa cámara que ven en la imagen, a simple vista, traída del siglo pasado; y la ambición desmesurada y constante de Google por recolectar toda la información del mundo posible y ofrecerla en sus sitios.

La cámara es una Elphel 323 creada para escanear documentos en alta resolución, 11 megapíxeles. Este gadget es el que utiliza Google para tomar capturas de libros y ponerlas a disposición en Google Books. Al parecer está llegando a distintos acuerdos con editoriales para acumular más y más. En los casos en que no pueda ofrecer libros completos, lo hará con algunas páginas o sólo para visualizar (sin opción de descarga).

La particularidad que tiene la cámara es que no daña la encuadernación. La técnica ya tiene patente, obvio, porque además tiene algunas particularidades. Copio de Gadgetoblog: “una fuente de luz infrarroja y un sensor para calcular la curvatura de cada página en el espacio —los libros se escanean sobre un atril-. Estos datos se usan luego en el programa de reconocimiento óptico de caracteres para detectar con mayor precisión las letras del texto. Incluso en libros gruesos en los que las páginas tienen gran curvatura, Google puede escanear los textos con la misma efectividad que si se escaneara la página sobre una superficie plana“.

La patente muestra un dibujo que puede graficar lo que se acaba de detallar:

patente-google-scanner

Internet, el sexto sentido

Unos estudiantes del MIT desarrollaron un prototipo al que han definido como nuestro “sexto sentido”. Se llama “Fluid Interfaces” y permite crear una pantalla interactiva sobre cualquier superficie. La conexión a internet hace lo suyo para que la información proyectada tenga su respectivo contexto.

Lo que plantean es que mucha de la información que nos rodea y nos ayuda a comprender el mundo, proviene de las computadoras y de internet. Un plus que se suma a nuestros 5 sentidos conocidos y ‘nos completa’.

El proyecto es muy interesante, se te cae la mandíbula con sólo verlo en acción. Algunas de las funciones que llamaron mi atención:

Es móvil. Parece un dato menor, pero no lo es. Imaginen que si el prototipo requería un gran equipo para que funcione, no se podría sacar a la calle y en consecuencia sería dificultoso interactuar con la Vida Real. Elementos utilizados: una cámara web, un proyector 3M a batería, un espejo y un teléfono móvil con conexión a internet. Costo total: 350 dólares. (En el video se puede ver el equipo colgado de su cuello).

Se proyecta sobre cualquier superficie: pared, el cuerpo de otra persona, la mano, objetos, etc.

Se manipula con gestos. Como se ve en el video, el chabón lleva unos ‘dedales’ de colores con los cuales realiza los movimientos para que el software reconozca la acción. Ejemplos: si pone los dedos en ‘marco’, saca una foto; si ‘dibuja’ un círculo en su muñeca, aparece un reloj; si ‘dibuja’ un @, es porque quiere leer sus mails… y así.

Lee tags de la personas. Lo van a ver en el video: se encuentra con alguien y ve sobre el cuerpo las etiquetas que definen esa persona: quién es, qué hace, cuales son sus gustos, etc. La pregunta que me queda es quién realiza el etiquetado… ¡danger!

Vean los videos que son más que explicativos de este prototipo de “Interfaces fluidas”. A mí me dejaron impresionado, estupefacto, sin aliento, flipeado, anonadado y con un deseo puntual: quiero uno de esos 🙂

Visto en Wired.

iPhone para ciegos

Realmente nunca me había puesto a pensar: qué pasa con los no videntes, o de escasa capacidad visual, para utilizar todos estos gadgets lindos y modernos con interfaz táctil. En realidad, confieso, rara vez me pongo a pensar en qué haría una persona con una discapacidad motriz, por ejemplo, en determinadas situaciones. De alguna manera creo que eso lo debe pensar la persona que diseña, construye o hace algo. No sé si es un error pero me pasa (y tampoco sabría qué hacer si descubro que algo es un obstáculo para alguien con capacidades reducidas).

iphone case

Sí pensé en esto al ver la carcasa para el iPhone diseñada por Bruno Fosi cuyo objetivo es darle la posibilidad de utilizar el smartphone por personas ciegas. La idea es que con los iconos dispuestos en relieve, más la aplicación de Google por voz y el alfabeto Moon; facilite su uso sin necesidad de un reconocimiento visual.

iphone case

Por lo que tengo entendido es sólo un prototipo.

Vía: YakoDesign

Actualización: acabo de leer en Mashable de una nueva aplicación que permite acceder mediante voz a distintas aplicaciones como: búsquedas, Google Maps, Facebook, Twitter, entre otras. Suena interesante. Se llama Vlingo.

¿Cuánta energía consume tu gadget?

Interesante gráfico que muestra el consumo de energía de los dispositivos que tenemos en casa (bueno, algunos de ellos). Lo hizo GOOD 008 y se basa sólo en usuarios de Estado Unidos durante 1 año. ¿El costo anual de todo esto? 3 mil millones de dólares.

Vía: Después de Google