Atzipen multimodala deritzo sistema batekin modu askotara elkarrekintzan aritu ahal izateari. Ordenagailu arruntetan teklatua eta sagua erabiltzen dira normalean, baina badira beste baliabide batzuk ere, hala nola urrutiko aginteak, ukipen-pantailak, ahotsa... Eta ikerketa-mailan badira beste batzuk ere: begien, buruaren nahiz gorputzaren mugimenduak, zeinu-hizkuntza, burmuineko seinale elektrikoak...
Atzipen-modu horiek, sarritan, erabilgarritasuna hobetzen dute: adibidez, sofatik bideo-grabagailu batekin elkarrekintzan aritzeko, egokiagoa da urrutiko agintea teklatu eta sagu bat erabiltzea baino; edo telefono mugikor batean aritzeko teklatu txiki horiek baino egokiagoa izan daiteke ahotsaren bidez aginduak ematea. Baina urritasun edo minusbaliotasun kasuetan irisgarritasuna hobetzeko ere balio dute: ahots bidezko interfaze baten bidez, itsuak ordenagailu bat erabil dezake; edo elbarritasun sakonen kasuetan, begien mugimenduak edo burmuineko seinale elektrikoak erabil daitezke interfaze gisa.
Egon badaude gailuak horrelako interfazeak inplementatzen dituztenak, baina software berezia behar izaten dute gure aginduak interpretatu eta bidaltzeko, eta software horrek ez du sistema guztietarako balio. Horregatik ari da W3C atzipen-modu batzuentzat protokoloak estandarizatu nahian, nabigatzaileek protokolo estandar horiek inplementatu ahal izateko eta, hala, edozein gailutan nabigatzean atzipen-mota berri horiek erabili ahal izateko.
Telefono mugikor batekin elkarrekintzan aritzeko eta Interneten nabigatu ahal izateko, oso egokia izan daiteke ahotsaren bidez aginduak ematea. Batetik, telefono guztiek badute mikrofonoa, eta berarekin ahotsa erabiltzera ohituta gaude. Bestetik, gailu txikiak dira eta teklatu txikiak dituzte; edo zenbakizko teklatuak soilik, eta tekla asko zapaldu behar dira letra bakarra idazteko; edo ukipen-pantailan gainjartzen diren teklatuak txikiak eta ezerosoak dira (letrentzat, zenbakientzat eta ikurrentzat teklatu batetik bestera aldatzen ibili behar da). Azkenik, gailu aurreratuenek GPS moduko aplikazioak ere badituzte, non nahitaezkoa den eskuak libre izatea.
W3Ck badu estandar bat, VoiceXML deritzona, ahotsezko aplikazioetarako balio duena eta ahots-nabigatzaile baten bidez interpretatzen dena. Aplikazio asko ditu: call-center ak, garraio-enpresetako paketeen segimendua, ahots bidezko posta elektronikoa... Baina estandar horrek soilik ahotsa erabiltzen du, ahots-ezagutzarekin ematen dira aginduak eta ahots-sintesiarekin erantzunak.
VoiceXML horren azpimultzo batean eta HTMLn oinarrituta, XHTML+Voice protokoloa definitu zuten IBMk, Motorolak eta Operak, ikusmenezko eta ahotsezko web-aplikazioak egin ahal izateko, eta W3C erakundeari bidali zioten, estandar gisa onartzeko. Oraingoz ez dago onartuta, baina ikusita HTML5-ekin web-aplikazioak ikusmenaren eremutik haratago doazela, baliteke etorkizunean onartzea. Edonola ere, Opera nabigatzaileak inplementatuta dauka; beraz, jada, posible da nabigatzaile hori darabilten telefono mugikor edo ordenagailuentzat ikusmena eta ahotsa integratzen duten web-aplikazioak egitea.
Bestalde, gailu mugikorrek ukipen bidez nabigatzeko modu berriak ere ekarri dituzte. Orain arte, saguarekin egin izan diren ekintzak, funtsean, klik egitea, klik bikoitza egitea eta arrastatu eta askatzea izan dira. Eta ukipenezko pantaila gehienek ekintza horiek berak interpretatzen dituzte. Baina iPhone-ak esku-keinu deritzenak jendarteratu zituen: atzamarren mugimenduaren arabera ekintza desberdinak egin ahal izatea, hala nola argazki bat biratu; eta atzamar bat baino gehiago erabili ahal izatea, adibidez batera dauden bi atzamar banatzen joatea zoom egiteko. Interneten nabigatzeko balio duten gailu mugikor gehienek ukipen-pantaila dutenez, eta etxeko ordenagailuetan edo aisiarako bestelako aparailuetan ere gero eta gehiago ikusten direnez, oso interesgarria litzateke web-aplikazioetan horrelako keinuak erabiltzea. Bestalde, saguarekin ere erabil daitezke atzamar bakarreko esku-keinuak.
W3Ck badu estandar bat InkML deitzen dena. Jatorrian marrazteko tableten sarrera deskribatzeko hizkuntza da, baina ukipen-pantaila batean egindako keinu eta mugimenduak deskribatzeko ere balio du, gero mugimendu horiek interpretatu eta ekintza bihurtzeko. Oraindik behar adina garatu ez bada ere, W3Cren estandar bat denez, logikoa da etorkizunean estandar hori nabigatzean ere erabili ahal izatea, eta, beraz, nabigatzaileetan ere esku-keinuak erabili ahal izatea.
W3Cren lan-ildoak ikusita, badirudi etorkizunean gero eta gehiago ikusiko ditugula Interneteko nabigatzaileetan web mugikorretik etorri diren joera horiek, ahots bidezko nabigazioa eta esku-keinuak alegia. Hori gertatzean, Interneten ibiltzeko esperientzia Minority report filmean ikusten denaren antzekoa izango da.