SkillShared: Interacción sin pantalla
Para hacer el prototipo del reto 4, he querido partir de la app funcional desarrollada previamente en el reto 2 (SkillShared), un sistema basado en el intercambio de conocimientos entre usuarios que creaban «hitos». En este caso en concreto, he replanteado el proyecto desde una perspectiva crítica eliminando la interfaz visual con el objetivo de explorar cómo se puede sostener la interacción sin la orientación de la pantalla.
En el sistema he querido mantener la lógica original: se inicia una solicitud, se recibe una respuesta y se genera conocimiento; sin embargo, he querido trasladar toda esta experiencia a un entorno no visual que se base en la voz, el gesto y las señales físicas.
¿Cómo funciona la interacción?
En general, la he articulado como un flujo bidireccional entre usuarios que está mediado por un sistema «invisible».
En primer lugar, el usuario inicia la acción activando la interfaz mediante la voz que establece un diálogo conversacional con el sistema. A partir de ahí, la selección de contactos y creación del mensaje, se realizan sin ningún apoyo visual.
El sistema traduce esta acción en una notificación para el otro usuario que se manifiesta con tres señales: vibración, sonido y una secuencia lumínica breve. Con estas señales, he querido sustituir los elementos gráficos más habituales y que funcionen como indicadores de estado y de activación.
Este segundo usuario accede al mensaje y acepta o rechaza a través de una interacción gestual clásica (swipe) y, en caso de que acepte, comienza a grabar (y también termina) usando un estilo embodied interaction.
De este modo, la interacción no se presenta como evento aislado, sino como ciclo continuo que puede reactivarse en cualquier momento, estableciendo una lógica de comunicación persistente.
Tipo de interacción:
Predomina el conversing, ya que la relación con el sistema se establece como un diálogo continuo usuario-tecnología. También se integra el instructing en acciones concretas como confirmación mediante gestos o activación de funciones.
Estilo de interacción:
Es multimodal y he combinado:
- Voz (speech) como canal principal.
- Gestos (gesture interaction – embodied interaction) para activar y confirmar acciones.
- Feedback sensorial (sonido, vibración y luz) como sustituto de interfaz visual.
Contexto:
Se desarrolla en un contexto cotidiano, distribuido y no visual. Los usuarios interactúan desde diferentes espacios sin necesidad de atención constante a una pantalla, integrando así la tecnología en la actividad diaria.
Prototipo
Para representar mi propuesta, he optado por desarrollar el prototipo en formato de vídeo que muestre el flujo completo de la interacción entre dos usuarios. Con el vídeo no busco simular una interfaz gráfica sino evidenciar cómo la interacción se puede sostener a través de voz, gestos y señales físicas.
Mi crítica, en definitiva, no se centra en querer eliminar la interfaz visual como solución definitiva, sino cuestionar su centralidad dentro de los sistemas digitales actuales. Al desplazar la interacción hacia el cuerpo y la percepción, quiero abrir la posibilidad de pensar en sistemas donde la experiencia no dependa exclusivamente de lo que se ve, sino de lo que se hace.
Por si alguien tiene algún problema en visualizarlo, también lo he subido a Drive junto con las capturas de la conversación con la IA (primera parte de este reto), dejo por aquí el enlace:



Este es un espacio de trabajo personal de un/a estudiante de la Universitat Oberta de Catalunya. Cualquier contenido publicado en este espacio es responsabilidad de su autor/a.