Nyt fra CSUN i San Diego dag 2

Foto af en handske, der er udviklet til at tage i mod haptisk information fra førerhunden til bruger

Så er vi nået til dag 2 på CSUN og der har været mange spændende oplæg om alt fra førerhunde til crowdfunding. 

Der forskes i øgede kommunikationsmuligheder mellem bruger og førerhund

Kan førerhunde give os flere og mere detaljerede informationer om forhindringer i trafikken?
Det har Bum Jun, master student fra Georgia Institute of Technology, beskæftiget sig. Projektet tog sit udgangspunkt i en historie fra det virkelige liv om Vincent Martin, en førerhundebruger, der ved en fejl kom til at gå med hunden ud i våd beton, da førerhunden ikke kunne kommunikere det og han ikke kunne mærke det med stokken.

Det gav Bum Jun idéen til at udvikle flere muligheder for førerhunde at kunne kommunikere med sin bruger. Bum Jun har siden udviklet forskellige enheder til haptisk feedback, da vibration er den mindst forstyrrende kommunikationsform i trafikken. Der er tale om et svedbånd, cykelhandske, smartwatch og selve førerbøjlen med vibratorer indbygget. Bum Juns mål er at finde den bedste måde at overføre vibration til brugeren. Så måske, i den ikke så fjerne fremtid, kan førerhunde kommunikere mere selektivt og effektivt om forhindringer i trafikken til sin bruger.
 

Google docs nu tilgængelig med JAWS

Eric Damery fra Freedom Scientific, firmaet bag JAWS, præsenterer nye muligheder for at bruge Google Docs med JAWS. Google Docs bruges meget af studerende, og udmærker sig ved, at man kan samarbejde om dokumenter. Den gode nyhed er, at Google Docs er blevet tilgængeligt med JAWS.

For at opnå en tilgængelig version, er der et par indstillinger:

1. Slå skærmlæserindstillingen til i browseren (Chrome, Firefox og IE11)
2. Braillesupport slås til i JAWS, også selv om man ikke bruger braille.

Herefter kan man navigere på sædvanlig vis i Google Docs, herunder også i tabeller. Også simultan redigering af flere brugere i et dokument understøttes. Google Docs og browserne udvikles hele tiden på dette område, så det er super vigtigt at have den nyeste version liggende af JAWS.

Nyt syn til RP'ere I slutstadiet.

Cynthia Cruz fra firmaet Second sight præsenterede deres seneste udgave af Argus II.
Argus II består af en chip i øjet, som stimulerer nethinden elektrisk. Systemet fungerer ved, at et videokamera på brugerens brille sender et videosignal til en processor i en separat lille boks på størrelse med en æske tændstikker. Herfra sendes billedinformationen tilbage til brillen, hvorfra den overføres trådløst til chippen i øjet. Siden 2004 er opløsningen steget fra 16 pixels på chippen til 60 pixels. Umiddelbart lyder 60 pixels ikke af meget, men som brugeren Terry fortalte, så er det en verden til for-skel fra total mørke, han kan nu skelne omridset af en dør og navigere igennem den.
På verdensplan er der 260 brugere, endnu ingen i Danmark.

Læs mere om Argus II her  

Dictation Bridge

Lucy Greco og Sue Martin fortalte om deres erfaringer med at udvikle Dictation Bridge, som er en talegenkendelse til at styre en computer med skærmlæser, herunder også redigere en tekst. De fortalte om den svære, men givende, crowdfundingproces, hvor det på trods af overvældende interesse og moralsk støtte fra brugerne, var sparsomt med donorer. I sidste øjeblik lykkedes det dog at rejse midler til en version af Dictation Bridge til NVDA, JAWS og Window-eyes. Vi talte med en af programmørerne, som kunne fortælle, at de efter frigivelsen overvejer at lokalisere den på andre sprog.

De er ved at lægge sidste hånd på programmet, men har du lyst til at prøve det allerede nu, så download betaversionen af Dictation Bridge her og du kan se Sue demonstrere Dictation Bridge her

Nye funktioner og muligheder i ZoomText 11

Scott Moore fra Ai Squared, firmaet bag zoomtekst, fortalte om nyhederne i ZoomText 11. Alle genvejstaster er ændret siden sidste version, årsagen er, at man vil skabe kompatibilitet med andre programmers genvejstaster og derved få en mere flydende rytme ved brug af tastaturet. Bogstaverne er det samme.

Andre væsentlige nyheder er, at brugerinterfacet er forenklet og moderniseret og nu fuldt tilgængeligt med tastaturet.
Nyt er også, at ZoomText nu kan lave geometrisk udglatning på tekst i pdf-dokumenter og hjemmesider, som tidligere har pixeleret selvom ZoomText var tændt. AppReader, DocReader og LæsDet-værktøjet kombineres til et læseværktøj AppReader, hvor man kan skifte flydende mellem visningerne. Bagrundslæseren bibeholdes. En ny funktion er også, at billeder ikke inverteres til et negativ, når man bruger inverteret lysstyrke eller inverterede farver. Der arbejdes på support af Edge Browseren i Windows.

Du kan læse mere om Zoomtekst 11 her

Microsoft hjælper med at skabe tilgængeligt indhold

Elise Livingston og Seth Fox fra Microsoft arbejder med tilgængelighed I Office 365. Oplægget handlede om, hvordan man ved arbejde i bl.a. Word, PowerPoint og Outlook har flere indbyggede værktøjer i Office 365 til at sikre et tilgængeligt dokument, dias og mail. Microsoft arbejder hen i mod et mål om, at tilgængelighed sker ved automatiserede værktøjer indbygget i Office, eksempelvis er der kommet automatiske alternative billedtekster og linkbenævnelser. En funktion der har overlevet fra tidligere Office-udgaver er den automatiske tilgængelighedskontrol, som kommer med gode råd til, hvad der kan gøres for at forbedre tilgængeligheden I dokumentet.

Det var alt for nu.

I næste uge får I et blogindlæg fra sidstedagen på konferencen, og derudover får I også et blogindlæg om udstillingen vi har besøgt hen over de tre dage konferencen har varet.

På gensyn.

Send en kommentar:

entryid
blogid
proved

Din kommentar bliver synlig efter godkendelse

 

Blogger

Bo Alstrup

Bo Alstrup er IKT-konsulent på IBOS.

RSS Feed

Få alle blogindlæg som RSS Feed her

Logo af Københavns Kommune