Tiden med fedtede fingre på smartphone er snart forbi. Inden for en nær fremtid kommer vi til at tale, tænke og gestikulere, når vi skal styre vores dimser. Læs her hvordan
*Klap* lyset tænder. *Klap klap* lyset slukker.
Engang var klap-lamper den vildeste måde at interagere med teknologi på. Siden da er vi nået langt.
I dag taler mange af vores digitale dimser med hinanden på Tingenens Internet, og vores egen kommunikation med teknologien er i mange tilfælde kogt ned til nogle tryk og swipes med tommelfingeren på en skærm vi holder i håndfladen.
Men det stopper ikke her. For sidste år begyndte snakken for alvor at gå. Skærme er måske ikke så praktiske endda. Og flere af de førende internetgiganter er i stigende grad henimod produkter, der frigør vores fingre fra de mange swipes på skærmene.
Vi kigger her på nogle af de mest fremtrædende touch-fri produkter, der er på tech-tegnebrættet, eller som allerede nu eksisterer rundt omkring på markedet.
Stemmestyring
Vi taler allerede med – eller i hvert fald til – vores gadgets. Apples Siri kan endda svare dig tilbage, men med begrænsede færdigheder. I den nære fremtid tyder det på, at stemmestyring vil vinde endnu mere indpas herhjemme, med teknologier der både kan aktiveres med stemmen, og ‘intelligent’ bearbejde hvad du fortæller.
Samsung har fundet den perfekte add-on for dovne tv-seere, nemlig en stemmestyring der betyder, at du ikke behøver at række armen ud og gribe efter fjernbetjeningen. Med stemmen kan du nu bare skifte kanal og justere lydniveau.
Læs også: Vi vil allerhelst snakke med vores ting
Der er selvfølgelig bare lige dét, at for at kunne ‘forstå’ dine kommandoer skal fjernsynet lytte med under din fjernsynskigning. Det har bragt producenten i den varme stol, da systemet jo indebærer, at en tredjepart skal sidde og høre med, når man taler sammen i dagligstuen om private sager.
Helt store spillere som Amazon og Google er også rykket ind i hjemmet med stemmestyrede gadgets, som de digitale assistenter Echo og Home, der fungerer som alt fra meteorolog til streamingtjeneste og digital huskeliste.
Læs også: Apps er for bøvlede – nu vil vi have lommebutlere
Kropsstyring
Lidt ligesom stemmestyring er bevægelsesstyring også så småt på vej. Virtual- og augmented reality virker ved at tage udgangspunkt i dine fysiske bevægelser og navigerer i takt med, at du flytter dig rundt i rummet både indenfor og udenfor.
Et par trådløse hørertelefoner fra Bragi markedsfører sig som verdens første intelligente in-ear høretelefoner. Foruden at kunne afspille musik kan høretelefonerne tale sammen med din mobiltelefons styresystem, monitorere din hjernerytme og give dig vejrudsigten automatisk, når bevægelsessensorene kan fornemme, at du kigger op mod himlen.
I innovationshuset Epicenter i Stockholm er medarbejdere hverken udstyret med et smart nøglekort eller armbånd, der kan give adgang til bygningen. I stedet har de fået en chip implanteret i hånden, der bogstavelig talt åbner de rigtige døre for dem. Den 12 mm lange chip sprøjtes ind under huden gennem en kanyle og består af et glashylster, der indeholder en antenne og en mikrochip. Chippen bruges som et personligt ID-kort, der både kan låse døre op, give adgang til printeren og tale sammen med mobilen.
NFC (Near Field Communication)-teknologien, der muliggør chippens interaktion med omkringliggende objekter, er som sådan ikke noget nyt, men er i stigende grad blevet integreret i vores omgivelser i forbindelse med eksempelvis kontaktløse betalingskort. Inden længe kan man måske forestille sig, at bekymringer om tabt Dankort er et fortidslevn, da betalingschippen sidder i armen.
Læs også: Derfor skal sløjd omdøbes til 3D-print
Gestikstyring
Men behøver man en wearable eller et implantat til at få kroppen til at styre teknologien? Ikke ifølge Google, der med Project Soli er gået helt anti-interface. I stedet for at bruge et stykke tech (fx en fjernbetjening, en app, en klikker) til at tale sammen med et andet stykke tech, vil Soli sikre, at dine hænder fremover er det eneste, du skal bruge for at kontrollere dine apparater.
Det lyder måske som et fjernt fremtidsscenarie, men Soli bruger en sensor, der er udstyret med en radar, til at oversætte dine gestikulationer til kommandoer. Det betyder fremover, at du ikke behøver at dreje eller trykke på knapper, men blot kan bevæge hånden for at justere lydniveauet eller gå til næste dias under præsentationen. Tanken er, at interaktionen skal blive mere intuitiv med de naturlige håndbevægelser.
Læs også: Selv du kan styre fremtidens robotter
Øjestyring
Man behøver ikke nødvendigvis at rykke væk fra tablets og skærme, for at rykke sig væk fra touch. Det er den israelske startup Umoove et glimrende eksempel på.
Umoove benytter ansigtsgenkendelse og eyetracking til at give brugere forskellige typer apps, der kan styres med øjnene. Eyetracking følger din øjenbevægelse rundt på skærmen og kan bruges i alt fra spil til helbredstjek, forklarer Umoove til Bloomberg. Blandt de mere seriøse muligheder er en app, der kan teste, om du har hjernerystelse. Det foregår ved at følge et lyspunkt med øjnene rundt på skærmen. De videnskabelige apps, der har applikationsmuligheder, der rækker ud over blot underholdning, kan være med til at drive øjenstyret teknologi frem ad de kommende år.
Nogle af de helt store tech-spillere er også interesseret i teknologier, der styres gennem øjnene.
Sony har blandt andet taget patent på en kontaktlinse, der i virkeligheden er et videokamera. Ifølge patentet vil apparatet blive styret gennem blink. Det er et overvågningssystem, som dem man kender allerbedst fra science fiction, men har både chancer for at blive det nye Kodak for forbrugere, eller et intelligent værktøj for eksempelvis politimænd, hvor blot tilstedeværelse senere kan bruges som bevismateriale.
Læs også: Virtual reality er mere end porno
Hjernestyring
Den umiddelbart mest overnaturlige post på denne liste er hjernestyring. Det vækker associationer til ondartet hjernevask og overnaturlig telekinesis, men i virkeligheden er der allerede en række teknologier, der bruger vores tanker – eller rettere, vores elektriske hjerneaktivitet – til at styre diverse dimser.
I 2014 lavede et London-baseret startup et hack på Google Glass. Hacket bestod i, at man kombinerede brillerne med et EEG (elektroencefalografi)-headset, der gjorde det muligt at styre brillens kamera uden at skulle røre på sig. Headsettet aflæser høj hjerneaktivitet og oversætter det til en kommando om at tage et billede med brillen. På den måde kan brugere i situationer, hvor de har højt koncentrationsniveau og ingen ledige hænder – som eksempelvis en læge under kirurgiske indgreb – bruge hjernen i stedet.
DARPA (det amerikanske Defense Advanced Research Projects Agency) har desuden arbejdet på et projekt, der kobler teknologien direkte ind i hjernen. Ved hjælp af ledninger, der leder ind i hjernens motoriske center, kan DARPA give brugere kontrol til kunstige lemmer. Andre ledninger fører ind i hjernens sensoriske center og kan derfor endda give følelse til proteserne.
Læs også: Ekspert: Følelsesdata bliver større end internettet
Er alle disse ting bevis på touch endeligt?
Med alle de forskellige fremtidsteknologier, der allerede er i deres spæde opstart tyder meget på, at touch – ligesom skærmen – er på vej ud. Men det kan stadig gå mange veje, måske endda i den helt modsatte retning.
Projekter som Microsofts HoloLens og Sonys Interactive Tabletop gør potentielt alle overflader til touchskærme. Det kan være at fremtiden ikke byder på færre skærme som interfaces, men i steder gør alt fysisk rum til interface, gennem en kombination af virtual reality, augmented reality og Tingenes Internet. Sådan et fremtidsscenarie forestiller den London-baserede designer Kaiichi Matsuda sig i kortfilmen ‘Hyper-Reality’ her: