La Psicología de los Wearables y La Tecnología Usable

0
24
Compartir

BY ANTONIO AUTIERO – DESIGNER @ TOPTAL

En los últimos años, hemos visto innovaciones disruptivas en el mundo de la tecnología portátil; avances que potencialmente transformarán la vida, los negocios y la economía global.

Productos como Google Glass, Apple Watch y Oculus Rift promete no solo cambiar la forma en que enfocamos la información, sino también nuestros patrones establecidos de interacción social.

De hecho, estamos asistiendo al advenimiento de un género completamente nuevo de mecanismos de interfaz que trae consigo un cambio de paradigma fundamental en la forma en que vemos e interactuamos con la tecnología. Reconocer, comprender y aprovechar eficazmente el creciente panorama de wearables de hoy es cada vez más esencial para el éxito de una amplia gama de empresas.

En este artículo discutimos las formas en que el diseño de la interfaz efectiva tendrá que adaptarse, de alguna manera dramáticamente, para abordar la nueva psicología de la tecnología portátil.

Ingresa el enfoque neurocientífico

La neurociencia cognitiva es una rama de la psicología y la neurociencia, que se superpone con disciplinas como la psicología fisiológica, la psicología cognitiva y la neuropsicología. La neurociencia cognitiva se basa en las teorías de la ciencia cognitiva unidas a la evidencia de la neuropsicología y el modelado computacional.

En el contexto del diseño de interfaz, un enfoque neurocientífico es aquel que tiene en cuenta, o más precisamente, se centra en la forma en que los usuarios procesan la información.

Wearables y tecnología usable

La forma en que las personas interactúan con las nuevas tecnologías no vistos anteriormente está más vinculada a sus procesos cognitivos que a la capacidad de tu diseñador para crear UI más deslumbrante. Patrones nuevos, a menudo impredecibles, surgen cada vez que a una persona se le presenta una herramienta, un software o una acción que nunca antes había visto.

En consecuencia, en lugar de utilizar enfoques más tradicionales (como el wireframing, etc.), en su lugar te centrarás en el único objetivo de tu producto, el resultado final que deseas que el usuario logre. A partir de ahí, volverás a trabajar, creando un viaje para el usuario al evaluar la mejor forma de alinear la percepción intuitiva del usuario de tu producto y su interacción con la tecnología utilizada. Al crear imágenes mentales, no necesitarás diseñar cada paso que el usuario debe realizar para realizar una acción, ni deberás evaluar todas las características posibles que podría o no incluir en el producto.

Considere, por ejemplo, Google Glass Mini Games. En estos 5 juegos simples realizados por Google para inspirar a los diseñadores y desarrolladores, puede ver exactamente cómo las imágenes mentales juegan un papel importante en el compromiso del usuario con el producto. En particular, la anticipación de una acción futura llega al usuario sin necesidad de una curva de aprendizaje. Cuando los elementos activos del juego aparecen, el usuario ya sabe cómo reaccionar ante ellos y por lo tanto, forma una representación activa del entorno de juego sin la necesidad de tener uno para ver. No solo se ha reducido al mínimo la curva de aprendizaje, sino que las imágenes mentales ponen al usuario a cargo de la acción de inmediato, anticipándose a lo que hará el usuario y simplemente dejar que el usuario lo haga.

Ten en cuenta que es posible identificar tres tipos diferentes de imágenes que se forman en el cerebro en el momento de la interacción del usuario, todas las cuales deben considerarse y abordarse adecuadamente para lograr una interfaz efectiva y suficientemente intuitiva.

Éstas incluyen:

  1. imágenes mentales que representan el presente
  2. imágenes mentales que representan el pasado
  3. imágenes mentales relacionadas con un futuro potencial proyectado

Y no te preocupes No necesita ejecutar una resonancia magnética completa en sus usuarios para probar lo que está sucediendo en su cerebro para llegar a estas imágenes mentales. Más bien, simplemente puede probar la efectividad y la universalidad de las imágenes mentales que ha creado.

Usuarios hacen lo que hacen los usuarios

Al abordar una nueva tecnología, es vital comprender cómo los usuarios experimentan y se relacionan con esa tecnología. En particular, a menudo se necesita un control de la realidad para reconocer cómo los usuarios realmente usan la tecnología a pesar de cómo se supone que deben (o se espera que la usen). Demasiadas veces hemos visto grandes productos fallar porque las empresas esperaban que los usuarios interactuaran con ellos de una manera que en realidad nunca ocurrió. No debes utilizar la última tecnología más sofisticada ni crear (o, peor aún, ¡modificar la forma!) de tu producto para esa tecnología sin saber si realmente será útil y adaptada por sus usuarios. Este es un error fácil y es bastante revelador ver la frecuencia con la que ocurre.

Aprovechando Múltiples Sentidos en Wearables

Los wearables brindan la gran ventaja de estar mucho más conectados al cuerpo físico del usuario de lo que cualquier teléfono inteligente o dispositivo móvil podría esperar. Debes comprender esto desde la etapa inicial del desarrollo de tu producto y dejar de centrarte solo en la interacción de la mano. Toma los ojos, por ejemplo. Los estudios realizados con dispositivos portátiles en un entorno de manos libres han demostrado que las rutas que siguen los usuarios, cuando sus capacidades ópticas están a cargo, son diferentes de las que cabría esperar. Las personas tienden a organizarse y moverse de maneras que se deben a su comportamiento instintivo a pesar de las lógicas. Tienden a moverse instintivamente hacia los caminos más fáciles y rápidos para lograr esa acción y esos caminos nunca son líneas rectas.

Una aplicación que aprovecha múltiples sentidos es la aplicación Evernote para Apple Watch. Las acciones en la versión Watch de la aplicación tienen los mismos objetivos que sus contrapartes de escritorio/móvil, pero se presentan y se logran de maneras totalmente diferentes. Con un simple clic de botón, puedes acceder automáticamente a todas las funciones de la aplicación: no necesitas menús múltiples ni diferenciación. Si comienzas a hablar, la aplicación crea inmediatamente una nueva nota con lo que estás dictando y la sincroniza con su calendario. Como usuario, estás inmerso en una experiencia intuitiva que te permite estar a cargo de lo que hace, mientras te presenta un entorno casi sin GUI.

¿Y qué hay de nuestros sentidos más sutiles y cognitivos? Los wearables tienen más en cuenta la parte humana de la ecuación con una conexión emocional más profunda: el estrés, el miedo y la felicidad se amplifican en este entorno. Debe comprender cómo su producto afecta esas sensaciones y cómo evitar o aprovechar esos efectos.

Solo recuerda: permita que los procesos cognitivos de los usuarios lideren y no al revés.

Interfaz de usuario de voz (VUI)

En el pasado, el diseño de una Interfaz de usuario de voz (VUI) era particularmente difícil. Además de todos los desafíos en el pasado con el software de reconocimiento de voz, los VUI también presentan un desafío debido a su naturaleza transitoria e invisible. A diferencia de las interfaces visuales, una vez que los comandos y acciones verbales se comunicaron al usuario, ya no están allí. Un enfoque que se ha empleado con éxito moderado es dar una salida visual en respuesta a la entrada vocal. Sin embargo, el diseño de la experiencia del usuario para este tipo de dispositivos presenta las mismas limitaciones y desafíos del pasado, por lo que trataremos de ofrecer una breve descripción general de lo que a las personas les gusta y no les gusta de los sistemas VUI y algunos patrones de diseños útiles.

Para empezar, a la gente en general no le gusta hablarle a las máquinas. Esta podría ser una suposición general, pero es aún más cierto si consideramos de qué se trata el hablar. Interactuamos con alguien teniendo en cuenta que la persona puede entender lo que estamos diciendo o al menos tiene las “herramientas” y “habilidades” para hacerlo. Pero incluso eso no es generalmente suficiente. Por el contrario, hablar con alguien normalmente implica un ciclo de retroalimentación: envías un mensaje (usando cuidadosamente palabras, sonidos y tonos para ayudar a garantizar que lo que dice se comprenda de la manera que se pretendía). Luego, la otra persona recibe el mensaje y con un poco de suerte, te brinda algún tipo de feedback que, con suerte, confirma la comprensión adecuada.

Sin embargo, con las máquinas, no tienes nada de esto. Intentarás dar un comando o pedir algo (¡típicamente en la voz más robótica que puedas tener!) y esperar que la máquina entienda lo que estás diciendo y te dé información valiosa a cambio.

Además, el habla como un medio para presentar al usuario información suele ser altamente ineficiente. El tiempo que toma presentar verbalmente un menú de opciones es muy alto. Además, los usuarios no pueden ver la estructura de los datos y deben recordar el camino hacia su objetivo.

La conclusión es que estos desafíos son reales y aún no se han presentado soluciones de “bala de plata”. En la mayoría de los casos, lo que se ha comprobado que es más eficaz es incorporar soporte para la interacción de voz, pero limitar su uso a aquellos lugares donde es más efectivo, de lo contrario aumentarlo con mecanismos de interfaz que emplean los otros sentidos. Aceptar las aportaciones verbales y proporcionar comentarios verbales son las dos formas más efectivas de incorporar una VUI en la experiencia general del usuario.

Via:@toptal.com

Dejar respuesta

Please enter your comment!
Please enter your name here