O acceso multimodal defínese como a interoperabilidad múltiple cun sistema. Nos computadores convencionais utilízanse habitualmente o teclado e o rato, pero existen outros medios como os mandos a distancia, as pantallas táctiles, a voz... E a nivel de investigación hai outros movementos oculares, mentais e corporais, linguaxe de signos, sinais eléctricos cerebrais...
Estes modos de captura a miúdo melloran a usabilidad: por exemplo, paira interactuar desde o sofá cun videograbador é máis apropiado utilizar o mando a distancia que un teclado e un rato; ou paira operar nun teléfono móbil só estes pequenos teclados poden dar ordes por voz. Pero tamén serven paira mellorar a accesibilidade en casos de discapacidade ou discapacidade: a través de una interfaz de voz, o cego pode utilizar un computador; ou en casos de minusvalías profundas, pódense utilizar os movementos oculares ou os sinais eléctricos cerebrais como interfaz.
Hai dispositivos que implementan este tipo de interfaces, pero necesitan un software especial paira interpretar e enviar nosas ordes, que non é válido paira todos os sistemas. Por iso, W3C está a tratar de estandarizar protocolos paira certos modos de acceso para que os navegadores poidan implementar estes protocolos estándar e así poder utilizar estes novos tipos de acceso cando naveguen en calquera dispositivo.
Paira interactuar cun teléfono móbil e poder navegar por Internet, é moi apropiado dar ordes a través da voz. Por unha banda, todos os teléfonos teñen micrófono e estamos afeitos usar a voz con el. Doutra banda, trátase de dispositivos pequenos con pequenos teclados, ou simplemente teclados numéricos, nos que hai que pulsar moitas teclas paira escribir una soa letra, ou os teclados que se solapan na pantalla táctil son pequenos e incómodos (paira letras, números e símbolos hai que cambiar dun teclado a outro). Por último, os dispositivos máis avanzados tamén dispoñen de aplicacións tipo GPS, onde é imprescindible ter as mans libres.
O W3C ten un estándar chamado VoiceXML que serve paira aplicacións de voz e que se interpreta a través dun navegador de voz. Ten moitas aplicacións: call-center, seguimento de paquetes en empresas de transporte, correo electrónico por voz... Pero este estándar só utiliza voz, as ordes danse con recoñecemento de voz e as respostas con sínteses de voz.
Baseándose nun subconjunto deste VoiceXML e no HTML, IBM, Motorola e Opera definiron o protocolo XHTML+Voice paira poder realizar aplicacións web visuais e de voz e enviárono á organización W3C paira a súa aprobación como estándar. Polo momento non está aprobado, pero dado que con HTML5 as aplicacións web van máis aló do campo da visión, é posible que se acepten no futuro. En calquera caso, o navegador Opera teno implementado, polo que xa é posible realizar aplicacións web que integren visión e voz paira teléfonos móbiles ou computadores que utilizan este navegador.
Doutra banda, os dispositivos móbiles tamén introduciron novas formas de navegación táctil. Até o momento as accións que se levaron a cabo co rato consistiron basicamente en facer clic, facer dobre click e arrastrar e soltar. A maioría de pantallas táctiles interpretan estas mesmas accións. Pero o iPhone popularizou as chamadas chiscadelas de man: poder realizar diferentes accións en función do movemento dos dedos, como virar una foto, e poder utilizar máis dun dedo, por exemplo a repartición de dous dedos xuntos paira facer zoom. Dado que a maioría dos dispositivos móbiles que permiten navegar por Internet dispoñen de pantalla táctil e cada vez ven máis en computadores domésticos ou outros aparellos de lecer, sería moi interesante utilizar este tipo de xestos en aplicacións web. Tamén se poden usar xestos manuais dun só dedo co rato.
O W3C ten un estándar chamado InkML. É o idioma no que se describe a introdución das tablets paira debuxar en orixe, pero tamén serve paira describir os xestos e movementos realizados nunha pantalla táctil, paira logo interpretalos e convertelos en accións. Aínda que aínda non se desenvolveu o suficiente, ao tratarse dun estándar de W3C, é lóxico que no futuro este estándar poida ser utilizado tamén na navegación e, por tanto, tamén nos navegadores póidanse utilizar xestos manuais.
Á vista das liñas de traballo do W3C, parece que no futuro vanse a ver cada vez máis nos navegadores de Internet as tendencias que proveñen da web móbil, a navegación por voz e os xestos manuais. Cando isto ocorra, a experiencia de Internet será similar á que se ve en Minority report.