Projekt BlindTech: Afgørende skridt skal ske i 2021

25/02/2021

Projekt BlindTech undersøger blindes brug af kunstig intelligens (AI) i deres hverdag. I 2021 vil Ph.d.-projektet og dataindsamlingen fortsætte, der vil blive testet flere AI-produkter, og projektet skal i gang med at udvikle en prototype til et nyt læringsmateriale, som skal komme synsprofessionelle til gavn.

Projektet har nu igennem et år indsamlet viden om mennesker med synsnedsættelse og deres brug af kunstig intelligens med metoden videoetnografi. Meget forenklet og kort fortalt, har projektgruppen lavet videooptagelser af en udvalgt gruppe deltagere og deres samspil med forskellige AI-produkter i hverdagen. Der er også lavet optagelser, hvor deltagere har afprøvet AI-produktet med instruktion fra en synsprofessionel på arrangerede demonstrationsdage.

- Videoetnografi er enormt givende. Det er ikke nødvendigvis ny viden der kommer frem, men vi har fået adgang til en anden måde at dokumentere det faglige arbejde på. Vi får mulighed for at se også små, men vigtige detaljer i samspillet mellem bruger, teknologi og instruktør. Derfor står vi med et andet udgangspunkt, når vi skal afdække behov, se muligheder og nye vinkler på instruktionssituationerne. Vi tror på, at det vil give gode input når vi skal til at udarbejde det instruktionsmateriale, som vi ved bliver efterspurgt hos fagpersoner rundt i landet, siger IKT-konsulent Birgit Christensen.

Udvikling af nyt læringsmateriale

Et af succeskriterierne for projektet er, at IBOS, i samarbejde med Københavns Universitet, skal udvikle et læringsmateriale. IBOS’ specialkonsulent Lea Johanne Sarfelt fortæller:

- Det store i 2021 vil være at kigge på: Hvilken type læringsmateriale kan vi udvikle? Hvad er det, vi kan komme frem til, som kan komme fagpersoner i hele Danmark til gavn? Vi kender ikke formen, men vi skal finde en prototype ud fra det videomateriale, vi har optaget. Vi kigger materialet igennem nu, og ser på hvordan fagpersoner instruerer deltagere i brug af kunstig intelligens. Hvad er på spil? Hvordan får vi deltagerne til at forstå fx Google Assistenten? I løbet af 2021 vil vi også lave workshops, hvor vi sammen med fagpersoner ser materialet igennem og får reflekteret over indholdet. Hvad fungerede godt? Hvad kan vi lære af det? Hvad kom der ud af det?

Tidlige resultater viser stor kompleksitet i Google Assistenten

Københavns Universitet forestår dataindsamlingen og analysearbejdet i samarbejde med IBOS, og har i hele projektperioden fokus på at udgive videnskabelige artikler og formidle projektet og dets fund på konferencer.

Noget af analysearbejdet er gået i gang og Lea Johanne Sarfelt har sammen med Ph.d. studerende Louise Lüchow præsenteret nogle af de tidlige fund fra interaktion mellem brugerne, Google Assistenten og OrCam- brillen på de årlige synsfaglige netværksdage.

- Vi oplever, at Smart højtaleren Google Home kan være kompliceret at benytte korrekt. Vi kan derfor risikere at miste mange mulige brugere, og vi ser vigtigheden i, at fagpersoner skal kunne instruere og identificere behov, så brugerne føler sig trygge. En anden pointe, ift. Google Assistenten, er, at fagpersoner ved meget, men hvad er ’nice to know og ’need to know’? Vi skal kunne finde brugernes nærmeste udviklingszone, så vi kan få så mange som muligt med, fortæller Lea Johanne Sarfelt, og fortsætter med at fortælle om OrCam-brillen:

- Hvorimod vi, i optagelserne fra demonstrationsdagene med OrCam-brillen, ser, at den er mere intuitivt. Brillen opleves mere simpel, og man kan nå at lære at bruge den på én afprøvning.

Birgit Christensen supplerer: - I brugen af Google Home Smart højtaleren kan vi også allerede se et behov for at forstå Google Assistentens grammatikregler. Man kan ikke bare kommunikere med assistenten naturligt, på samme måde, som man ville tale med et menneske. Hvis deltagerne ikke får instruktion i den lidt særlige sætningsopbygning, kan vi se, at man hurtig vil kunne miste gejsten. 

Smart Home kommer i spil

Der er mange produkter på markedet, men indtil videre har projektet fokuseret på teknologierne Google Assistent, Seeing AI, robothunden SPOT og OrCam-brillen.

- Kunstig intelligens er meget bredt. Vi har i BlindTech-projektet sidste år primært haft fokus på Smart højtaleren Google Home, OrCam-brillen, SPOT og appen Seeing AI. I 2021 skal vi se mere på Smart Home teknologier og mulighederne for at styre fx sin belysning og sine hårde hvidevarer, som alle er AI-produkter, der kan være meget relevante for målgruppen” siger IKT-konsulent Birgit Christensen afsluttende.

Fakta om projekt BlindTech:

  • Projektet BlindTech undersøger blindes brug af kunstig intelligens i hverdagen, og er et samarbejde mellem København Universitet og IBOS.
  • Projektgruppen består af: Projektleder, lektor, Brian Lystgaard Due, forskningsassistent Rikke Nielsen, og Ph.d.-studerende Louise Lüchow, alle fra Københavns Universitet. Fra IBOS deltager IKT-konsulent Birgit Christensen og Specialkonsulent Lea Sarfelt.
  • BlindTech er støttet af Velux Fondens HUMpraxis-program.
  • Projektet løber fra 2020-2022
  • Specialkonsulent og projektmedarbejder Lea Sarfelt vil fra 1. marts blive erstattet af IKT-konsulent Bo Schack Larsen i projektgruppen.

Nyhedsbreve

Vil du have IBOS' nyhedsbrev tilsendt som mail?

Så klik her for at tilmelde dig nyhedsbrevet