08 May 2024

Blog

Ver, oír, tocar y oler los datos
NOTICIAS

Ver, oír, tocar y oler los datos 

Jeff Benefit / Telos

“Aplanar la curva” fue una de las representaciones visuales más comunes que circulaban diariamente en la prensa para explicar la evolución de la covid-19 en todo el mundo. También es un concepto de salud pública que, además de representar la cantidad de personas infectadas durante un largo período de tiempo, reflejó la respuesta necesaria para combatir la propagación del virus.

Si bien muchos gráficos ayudaron a explicar la evolución de la pandemia y aportaron soluciones para prevenir el contagio, paralelamente ignoraron a una audiencia muy importante: las personas con discapacidad visual.

Según la Organización Mundial de la Salud (OMS), la ceguera y baja visión afectan al menos a 2 200 millones de personas. En España, 979 200 personas padecen alguna discapacidad visual (2,2 por ciento de la población española), de las que 58 000 son ciegas, de acuerdo con el Instituto Nacional de Estadística (INE, 2008). Es un problema de salud que probablemente empeorará en las próximas décadas con el envejecimiento de la población y el uso prolongado de las pantallas.

En ese contexto, las personas con ceguera y baja visión no pueden aprovechar el potencial de la visualización de datos como herramienta informativa, educativa y de compromiso público para explicar en un solo impacto el contenido necesario para comprender bases de datos complejas. Como consecuencia, esta es una audiencia vulnerable ante el contenido dudoso y la desinformación.

Para hacer posible que este público tenga acceso a la información gráfica, los científicos han estado trabajando en soluciones prácticas. Aunque estas iniciativas resultan incipientes y complejas ante la expansión de una cultura cada vez más visual en las redes sociales. Según el Digital News Report de 2022, en el último año se ha producido un descenso en el consumo de noticias a través de redes sociales, excepto en dos casos: TikTok e Instagram.

Tecnologías de apoyo

En los últimos 30 años, hemos sido testigos de un interés acentuado por las formas de presentación no visuales gracias a las tecnologías de apoyo o tecnologías de asistencia. Estas incluyen muchos de los dispositivos y software que se utilizan para mantener o mejorar las capacidades funcionales de las personas con discapacidad. Cuando hablamos de tecnologías para personas con discapacidad visual, lo llamamos tiflotecnología (del griego tiflos, que significa ciego).

Los lectores de pantalla son las tecnologías de asistencia más populares para usuarios invidentes. Estos programas de inteligencia artificial proporcionan voz sintetizada, representando lo que aparece en pantalla y el texto alternativo proporcionado por la aplicación. Entre los ejemplos más conocidos destacan JAWS –para ordenadores– y VoiceOver y TalkBack –para dispositivos móviles–.

Aunque funcionan correctamente para leer textos, no son perfectos: dependen mucho de terceros para describir imágenes y gráficos, y este hándicap se relaciona con la conciencia y la responsabilidad ética de las personas al proporcionar texto descriptivo para las imágenes.

Datos a través de vibraciones y olores

Para amplificar la respuesta sensorial del contacto de las personas con las visualizaciones, los ingenieros han estado trabajando con tecnología háptica, que implica dispositivos con retroalimentación de fuerza (como la vibración que hace el móvil cuando llega una notificación). Muchos estudios utilizan PHANTOM, por ejemplo, para que las personas ciegas puedan explorar visualizaciones y diferenciar líneas, puntos y texturas con la vibración que posibilita el dispositivo, facilitando la accesibilidad de gráficos, símbolos, mapas e ilustraciones.

La tecnología háptica también ha posibilitado crear visualizaciones táctiles, construidas a partir de tecnología de impresión 3D. Simultáneamente, se recurrió a otros sentidos para reforzar la accesibilidad, como la sonificación –en la que la información gráfica se convierte en respuesta sonora– y, más recientemente, el olfato.

Investigadores de la Universidad de Maryland han desarrollado un dispositivo llamado VISCENT capaz de emitir hasta seis olores diferentes cuando un usuario interactúa con gráficos en 2D y 3D, mientras usa gafas de realidad virtual adheridas a los tubos olfativos. Sus inventores acuñaron el concepto de “olfato de información”.


Jeff Benefit / Telos

Barreras para la visualización inclusiva

Si bien existen algunos avances en las tecnologías de apoyo, la gran preocupación sigue siendo el acceso a ellas. Muchos de estos dispositivos, incluidos los que utilizan Braille, poseen precios elevados tanto para comprarlos como para realizar más investigaciones. Las barreras para la visualización inclusiva son evidentes, pero se podrán romper cuando se incremente la conversación interdisciplinar entre las comunidades de investigadores.

La visualización inclusiva de datos es un avance necesario que debe acompañar a una sociedad marcada por el big data. Por ello despierta el interés de los expertos en visualización, accesibilidad y otros perfiles que dominan la interacción humano-computadora especializados en el caso concreto de las personas con discapacidades.

Las soluciones pueden partir de estándares de accesibilidad existentes –como los del consorcio W3C, World Wide Web Consortium– y fusionar sentidos como el audio y el tacto para comunicar los gráficos. El uso de dispositivos que están más extendidos entre el público, como los teléfonos móviles o las tabletas, también se consideran ideales para acelerar su implantación.

En el periodismo, la visualización de datos inclusiva también requiere de la creación de herramientas funcionales para que periodistas y diseñadores puedan producir y aplicar dicha accesibilidad en sus gráficos. Décadas de desarrollo de los lenguajes de programación para web han hecho posible crear gráficos cada vez más interactivos y complejos y, en consecuencia, más inaccesibles.

En busca de la simplicidad

Para los investigadores y expertos en esta área, la cuestión clave es comprender cómo las personas con ceguera y baja visión leen e interpretan los datos. No tiene sentido desarrollar nuevos procesos y tecnologías que puedan frustrarles aún más.

Además, es importante incluirlas en un proceso participativo, integrarlas en el proceso de desarrollo de nuevas tecnologías. Esto enfatiza el empoderamiento de las personas con discapacidad visual, pero también favorece el surgimiento de herramientas que sean realmente útiles para que esta audiencia no solo pueda acceder a información gráfica, sino que también les permita crear visualizaciones.

El poder de las visualizaciones consiste en aprovechar la percepción visual para procesar información que sería imposible o menos eficiente de entender en otros formatos. En cierto modo, es una fórmula que simplifica el estado de infodemia actual. Cuando pensamos en visualización inclusiva, el diseño permite percibir nuevas capas de información, que son completamente sensoriales e invisibles. El desafío consiste por tanto en lograr un equilibrio entre simplificar y manejar más información.

Según refleja el profesor e investigador Alberto Cairo en su libro The Truthful Art (New Riders, 2016), toda visualización es un modelo. Por lo tanto, también le corresponde al diseñador proporcionar un modelo preliminar sencillo para aquellos usuarios que necesitan otros sentidos. La sencillez es la clave para que las personas puedan alcanzar y producir la comprensión de lo que se comunica, sin generar estrés en la generación de su propio modelo mental y evitando las interpretaciones erróneas de la información. Este es un reto clave cuando se desea crear una comunicación no visual en un contexto de desconfianza influido por los desórdenes informativos.

Aunque ya podemos escuchar, tocar y oler los datos, aún existen algunos frenos para su expansión que podrían solventarse trazando puentes entre las comunidades de periodistas, diseñadores, ingenieros e investigadores en accesibilidad. Y ese futuro no está tan lejos. Los próximos pasos serán impresionantes y el impacto, extraordinario.

Este artículo fue publicado originalmente en el número 121 la revista Telos de Fundación Telefónica.

Rodrigo Cunha es colaborador de la revista Telos, de la Fundación Telefónica. El artículo es parte de la investigación contemplada por las Ayudas para la Recualificación del Sistema Universitario Español para 2021-2023 del Ministerio de Universidades y está financiada por la Unión Europea–NextGenerationEU.