HAUPTBEITRAG / WENN DIE HAND ZUM AUGE WIRD
}
Wenn die Hand zum Auge wird Taktile Benutzungsoberflächen für blinde Menschen Denise Bornschein · Jens Bornschein
Einleitung Für den Zugang zu grafischen Benutzungsoberflächen (GUIs) verwenden blinde Benutzer sogenannte Screenreader [7]. Diese spezielle Software bereitet alle Inhalte und Interaktionsobjekte in eine linearisierte Form auf und gibt die Informationen auditiv über die Sprachausgabe und taktil über eine Braillezeile (vgl. Abb. 1) aus. Zudem sind in der Regel zusätzliche Navigationsmöglichkeiten verfügbar, die ein effizienteres Arbeiten ermöglichen. Beispielsweise kann ein gezieltes Anspringen von Überschriften oder Links dem Benutzer einen schnelleren Überblick über ein Dokument erlauben. Textuelle Inhalte sind auf diese Weise effektiv nutzbar. In modernen Benutzungsoberflächen spielen allerdings auch immer mehr grafische Elemente eine Rolle. Damit diese für blinde Menschen wahrnehmbar sind, müssen sie ebenfalls verbalisiert werden. Während die Verbalisierung von grafischen Schaltflächen oder Ähnlichem trivial ist, da hier lediglich die zugeordnete Funktion bzw. Beschriftung wiedergegeben werden muss, stellen insbesondere komplexe Informationsgrafiken eine große Hürde dar. Eine textuelle Beschreibung der Bildinhalte kann Abhilfe schaffen. Derartige Bildbeschreibungen können allerdings nicht nur sehr lang werden, sondern liefern immer auch eine bereits interpretierte Auffassung der Abbildung. Tastbare (taktile) Grafiken stellen für blinde Menschen eine geeignete Möglichkeit dar, flächige Merkmale eigenständig zu erkunden. Die Umsetzung taktiler Grafiken ist meist zeit- und kostenintensiv. Zudem erlauben herkömmliche Verfahren wie zum Beispiel Ausdrucke mit speziellen Brailledruckern nur einen statischen Zugang zu grafischen Informationen. Ändern sich Teile
Abb. 1 Braillezeile mit integrierter Tastatur
der Abbildung, so muss erst ein neuer Ausdruck erstellt werden. Um blinden Menschen einen selbstbestimmten Zugang zu Grafiken zu ermöglichen, ist eine interaktive Erkundung notwendig. Diese kann mithilfe von neuartigen taktilen Flächendisplays realisiert werden. Im Gegensatz zu herkömmlichen Braillezeilen, welche jeweils nur eine Textzeile in Blindenschrift (Braille) ausgeben können, bieten taktile Flächendisplays eine deutlich größere Ausgabefläche. Die BrailleDis-Geräte der Firma Metec AG bestehen beispielsweise aus 7200 taktil wahrnehmbaren Einzelpunkten. Diese sind in 60 Reihen zu je 120 Stiften in einer Matrix angeordnet. Dargestellte Inhalte lassen sich mit einer Wiederholrate von bis zu 20 Hz verändern. Der Abstand zwischen den einzelnen Darstellungspunkten entspricht mit 2,5 mm genau DOI 10.1007/s00287-017-1067-9 © Springer-Verlag Berlin Heidelberg 2017 Denise Bornschein · Jens Bornschein Technische Universität Dresden, Fakultät Informatik, Institut Für Angewandte Informatik, Nöthnitzer Straße 46, 01187 Dresden E-Mails: {denise.bornschein, jens.bornschein} @tu-dresden.de
Informatik_Spektrum_40_6_2017
573
{ WENN DIE HAND ZUM AUGE WIRD
Zusammenfassung Blinden Menschen einen selbstbestimmten und unmittelbaren Zugang zu Informationen zu gewähren ist Ziel vieler Lösungen für PC-Arbeitsplätze. In diesem Artikel wird der Zugang zu grafischen Benutzungsoberflächen (GUIs) mithilfe eines berührungsempfindlichen taktilen Flächendisplays vorgestellt. Die Anzeige auf dem Display erfolgt dabei über vier spezialisierte, an verschiedene Aufgaben angepasste taktile Darstellungsweisen zur Präsentation von GUIs. Gerade die flächige und teils grafische Präsentation soll auch die Kooperation und Kollaboration mit sehenden Menschen erleichtern. Ein besonderes Merkmal der Interaktion auf derartigen Displays sind die Handund Lesebewegungen des Benutzers. Zur Evaluation solch einer taktilen Interaktion werden, angelehnt an die Visualisierung von Augenbewegungen, Heatmaps zur Verbildlichung von Berührungsdaten vorgestellt und diskutiert.
Abb. 2 BrailleDis 7200
dem Normabstand von Braille. Somit ergibt sich eine Darstellungsauflösung von ca. 10 dpi. Die Geräte der BrailleDis-Serie sind zusätzlich mit einer integrierten Berührungserkennung ausgestattet, welche es erlaubt, Gesteneingaben direkt auf der taktilen Darstellungsfläche auszuführen. Die Auflösung der Sensorik liegt beim BrailleDis 7200 (Abb. 2) bei etwa 5 dpi. Im Folgenden wird dieses Gerät auch als Stiftplatte bezeichnet. Wie bei klassischen Hilfsmitteln für den nicht-visuellen Zugang zu grafischen Benutzungsoberflächen ist eine Multimodalität, also das gleichzeitige Ansprechen mehrerer Sinnesmodalitäten, ebenso für die Verwendung taktiler Flächendisplays wichtig. Das heißt, neben der taktilen Ausgabe spielt auch die zusätzliche Bereitstellung auditiver Infor-
574
Informatik_Spektrum_40_6_2017
mationen eine große Rolle, um eine Anpassung an verschiedene Arbeitsbedingungen zu ermöglichen. Auf diese Weise können zum Beispiel zusätzliche Informationen über die Sprachausgabe realisiert werden, um die taktilen Ausgaben zu bereichern. Zudem können redundante Eingabemodalitäten die Effektivität und Effizienz der Interaktion positiv beeinflussen. Neben der üblichen Eingabe über eine externe Tastatur können beim BrailleDis 7200 Eingaben auch über intuitive Bedienelemente am Gerät sowie über Gesten getätigt werden. Zur Unterstützung der Kollaboration mit sehenden Personen ist es wichtig, dass sich blinde Menschen eine ähnliche mentale Vorstellung über eine Anwendung bilden können wie ihre sehenden Kollegen. Komplett linearisierte Ausgaben, wie sie durch herkömmliche Screenreader bereitgestellt werden, können die Kommunikation zwischen den beiden Benutzergruppen erschweren. Beispiele hierfür finden sich insbesondere bei Anwendungen mit mehreren Interaktionsbereichen, wie bei Microsoft PowerPoint, Programmierumgebungen oder komplexen Webseiten. Dabei erschließt sich weder dem sehenden Nutzer, wie die Anwendung linearisiert aussieht, noch dem blinden Benutzer, wie der visuelle Aufbau ist. Der Grund hierfür liegt darin, dass beide auf einer unterschiedlichen Erfahrungsgrundlage aufbauen und keinen Einblick in die Welt des jeweils anderen besitzen. Im Folgenden werden verschiedene taktile Darstellungsarten an konkreten Anwendungsbeispielen vorgestellt. Neben klassischen textbasierten Ausgaben ermöglicht die Stiftplatte auch taktil-grafische Präsentationsformen, welche die Kollaboration mit sehenden Menschen auf neuartige Weise unterstützen können. Bei der Validierung der Interaktion spielt unter anderem auch die Position der Finger auf der taktilen Anzeigefläche eine wichtige Rolle. Speziell zur Analyse von Handinteraktionen wird deshalb abschließend eine mögliche Methode zur Visualisierung diskutiert.
Anwendungsbeispiele für die flächig-taktile Informationsausgabe Klassische Screenreader unterstützen bisher keine taktilen Flächendisplays. Im Projekt HyperBraille wurde daher ein entsprechender Screenreader für den zweidimensionalen Zugang zu GUIs, der sogenannte HyperReader [15], entwickelt. Im Vergleich zu einer herkömmlichen Braillezeile ermöglichen
Abstract Several systems exist to provide blind computer users a direct and independent access to information and software. In this article we present a system utilizing a touch-sensitive dynamic tactile pin-matrix display to access graphical user interfaces. The tactile output on the display is realized as four different view types to present visual information in a task-appropriate manner. The spatial and semi-graphical presentation should also support the cooperation and collaboration between a blind user and his sighted peers. When evaluating such a system, hand movements for reading or interacting are important to monitor. Inspired by the visualization for gaze interaction, we propose and discuss heat maps for visualizing and analyzing touch-data.
taktile Flächendisplays nicht nur die Ausgabe von Text, sondern auch von taktilen Grafiken. Zudem ist die gleichzeitig wahrnehmbare Informationsmenge deutlich größer als bei einzeiligen Displays. Aus diesem Grund wurde die Ausgabefläche in mehrere disjunkte Bereiche unterteilt, welche jeweils spezielle Informationen bereitstellen (siehe auch [13] und [14]). So gibt es beispielsweise am oberen Rand einen Kopfbereich zur Anzeige des Fenstertitels und am unteren Rand einen Detailbereich zur Bereitstellung von Statusmeldungen und Zusatzinformationen. Um darüber hinaus die Ausgabe an unterschiedliche Arbeitssituationen anzupassen und verschiedenartige Sichtweisen auf die Inhalte zu ermöglichen, haben Schiewe et al. [14] die Verwendung von verschiedenen Darstellungsarten im HyperReader vorgeschlagen. Neben der textuellen Ausgabe haben blinde Anwender nun auch Zugriff auf grafische und semigrafische Präsentationsformen. Die trivialste Ansichtsart ist dabei eine textuell-linearisierte Form, bei der mehrere Zeilen in Brailleschrift ausgegeben werden. Diese Ausgabe wird im Folgenden als ,,Arbeitsansicht“ bezeichnet, da sie den üblichen Bedienstrategien blinder Screenreadernutzer entspricht und somit einen effizienten Zugang zu textuellen Informationen ermöglicht. Konkrete Anwendungsbeispiele für diese Ansichtsart sind demzufolge das Lesen von Fließtexten sowie
der Zugang zu Anwendungen, bei denen das Layout sowie das Erkunden von grafischen Inhalten keine Rolle spielen. Für andere Anwendungsfälle können jeweils auch andere Arten der Darstellung auf der Stiftplatte notwendig sein. Aus diesem Grund sind neben der Arbeitsansicht drei weitere Präsentationsformen im HyperReader verfügbar – die Symbol-, Original- und Überblicksansicht. Im Folgenden werden konkrete Szenarien für die Verwendung taktiler Flächendisplays und wie sie im HyperReader mittels der verschiedenen Ansichtsarten umgesetzt wurden vorgestellt.
Interaktiver Zugang zu PDF-Formularen Der Zugang zu PDF-Dokumenten kann für blinde Menschen eine große Barriere darstellen. Insbesondere Formulare werden jedoch häufig in diesem Format im Internet bereitgestellt. Selbst für Dokumente, bei denen eine Dokumentenstruktur für Zugänglichkeit hinterlegt wurde, kann das Ausfüllen mithilfe eines herkömmlichen Screenreaders zu Problemen führen, falls die Zuordnung von Beschriftung und Eingabefeld nicht eindeutig ist. Taktile Flächendisplays können durch eine flächige Anordnung der Interaktionsobjekte die Zuordnung unterstützen. Anstatt der oben vorgestellten Arbeitsansicht kann hierfür die sogenannte ,,Symbolansicht“ hilfreich sein. In dieser semigrafischen Darstellungsart werden Texte zwar weiterhin in Brailleschrift ausgegeben, allerdings bleibt die räumliche Struktur der Anwendung weitestgehend erhalten und es werden zusätzlich taktile Symbole für verschiedenartige Interaktionsobjekte verwendet. Die Symbole geben dabei Aufschluss über die Art des Elements sowie über dessen Status. Beispielsweise werden Radiobuttons angelehnt an die visuelle Präsentation als kleine Kreise dargestellt. Ein aktivierter Radiobutton wird dabei als gefülltes Symbol präsentiert, während ein nicht aktivierter Radiobutton unausgefüllt ist (Abb. 3). In einer Untersuchung mit blinden Benutzern konnte gezeigt werden, dass selbst schlecht zugängliche PDF-Formulare mit Hilfe der Symbolansicht fehlerfrei ausgefüllt werden können [13]. Die flächige Ausgabe ermöglicht dabei das gleichzeitige Lesen von Formularfeld und Beschriftung. Herkömmliche Screenreader geben diese hingegen nacheinander aus, sodass der Benutzer bei fehlender Auszeichnung der Zugehörigkeit selbst entscheiden muss, ob die Beschriftung zum vorherigen oder zum Informatik_Spektrum_40_6_2017
575
{ WENN DIE HAND ZUM AUGE WIRD
Abb. 3 Fragebogen in Symbolansicht (Ausschnitt)
Abb. 4 Taktile Schwarzschrift in der Originalansicht
nächsten Bedienelement gehört. Die Layout-getreue flächige Darstellung auf der Stiftplatte kann hingegen einen Hinweis über die Zusammengehörigkeit von Formularelementen liefern.
Erkundung und Bearbeitung von taktilen Grafiken Für den Zugang zu Grafiken eignet sich eine pixelbasierte Darstellungsform, bei der das Pixelbild direkt in eine Stiftplattenmatrix überführt wird, im Folgenden als ,,Originalansicht“ bezeichnet. Dunkle Farbwerte werden dabei als erhabene Punkte dargestellt und helle Farbwerte als gesenkte Punkte. Im Vergleich zur visuellen Vorlage besitzt die Ausgabe auf der Stiftplatte allerdings eine deutlich geringere Auflösung. Einerseits ist die Punktdichte mit 10 dpi, andererseits auch die Anzahl der insgesamt zur Verfügung stehenden Punkte sehr klein. Zur Erkundung von taktilen Grafiken auf der Stiftplatte sind somit insbesondere Zooming- und Panningfunktionalitäten notwendig. Im Gegensatz zu den bisher vorgestellten Ansichtsarten des HyperReaders wird Text in dieser Ansicht nicht als Brailleschrift, sondern in Form taktiler Schwarzschrift ausgegeben. Das heißt, die Buchstaben entsprechen den normalen Zeichen wie sie auf dem Bildschirm erscheinen (vgl. Abb. 4). Viele blinde Menschen
576
Informatik_Spektrum_40_6_2017
Abb. 5 Tangram Zeichenarbeitsplatz mit dem BrailleDis 7200 (Vordergrund), der grafischen Repräsentation des nicht-visuellen Interface (linker Bildschirm) und der Zeichenanwendung LibreOffice Draw (rechter Bildschirm)
kennen Schwarzschriftbuchstaben und können diese taktil erkennen, wenn sie groß genug dargestellt werden und die Schriftart möglichst schlicht gestaltet ist. In Abb. 5 ist der im Projekt Tangram entwickelte Zeichenarbeitsplatz dargestellt. Dieser ermöglicht über die Funktionen des HyperReaders hinaus einem Team aus sehendem und blindem Benutzer das kollaborative Editieren von taktilen Grafiken (siehe auch [1]). Während der sehende Nutzer die grafische Benutzungsoberfläche der OpenSource-Zeichenanwendung LibreOffice Draw [16] verwendet, kann der blinde Partner mithilfe eines nicht visuellen Interfaces die vorhandenen Grafikobjekte auf der Stiftplatte erkunden und selbstständig editieren. Um das Lesen von Texten in einer Grafik zu erleichtern, ermöglicht der Tangram-Arbeitsplatz im Gegensatz zur Originalansicht des HyperReaders auch die Anzeige von Braille. Da Brailleschrift aufgrund der definierten Größe allerdings nicht zoombar ist, wird eine Brailleschriftersetzung nur im sogenannten Druckzoom unterstützt. Die Ausgabe in dieser speziellen Zoomstufe entspricht der auflösungsbereinigten Größe der Objekte – z. B. der realen Größe auf einem DIN-A4-Zeichenblatt. Es hat sich gezeigt, dass die Zusammenarbeit zwischen sehendem und blindem Benutzer unterstützt werden kann, indem nicht nur die jeweiligen Foki miteinander kommuniziert werden können, sondern indem der sehende Partner auch einen Einblick in die aktuelle Handposition des blinden Partners gewinnen kann. Da die Hände die eigentlichen Kontaktpunkte auf der Stiftplatte verdecken, erwies sich hierfür eine separate Visualisierung auf dem Monitor des Sehenden als sehr hilfreich (vgl. Abb. 5 oben links).
Abb. 6 Beispielhafte PowerPoint Präsentation (links) sowie deren Repräsentation in der Überblicksansicht (rechts)
Taktiler Zugang zum Layout einer Anwendung In Nutzungsszenarien, bei denen der Inhalt einer Anwendung eine untergeordnete Rolle spielt und stattdessen der allgemeine Aufbau von Interesse ist, kann eine abstraktere Darstellungsform geeigneter sein. Auf der Stiftplatte ist dies die sogenannte Überblicksansicht. Dabei werden GUI-Elemente lediglich in Form ihrer Boundingbox, d. h. ihres umschließenden Rechtecks, repräsentiert (Abb. 6). Diese sehr vereinfachte Ausgabe ermöglicht es blinden Benutzern, die Lage einzelner Objekte zueinander und somit auch das Layout einer Anwendung zu erkennen. Da sich in dieser Ansicht keine Inhalte in textueller oder grafischer Form erkennen lassen, ist ein anderweitiger Zugang notwendig. Hier kommt der multimodale Ansatz des HyperReaders zum Tragen. Durch ein direktes Anwählen von Elementen via Geste kann sich der Nutzer mittels auditiver Rückmeldung Zustand und Inhalt einzelner Elemente erschließen. Am Beispiel von Microsoft PowerPoint wurde deutlich, dass blinden Anwendern oft die Interaktionskonzepte hinter einer Anwendung nicht ersichtlich sind, wenn ihr Screenreader lediglich eine linearisierte Ausgabe erzeugt. Die Anordnung bzw. das Vorhandensein von konkreten Arbeitsbereichen (z. B. Werkzeugleisten, Miniaturansichten oder Inhaltsbereiche) bleibt dann häufig unklar. Die grafisch-abstrakte Überblicksansicht kann den Zugang zu derartigen Informationen ermöglichen und somit blinden Benutzern nicht nur das Erlernen neuer Anwendungen, sondern auch die Kooperation mit sehenden Kollegen erleichtern.
Validierung der taktilen Interaktion auf der Stiftplatte In den vorherigen Abschnitten wurden verschiedene Ansichtsarten auf der Stiftplatte anhand konkreter Anwendungsfälle vorgestellt. Eine systematische Validierung der Gebrauchstauglichkeit dieser Konzepte kann unter Zuhilfenahme der folgenden Taxonomie zur taktilen Interaktion erfolgen. Der Gestaltungsraum der Interaktion auf einem taktilen Display ergibt sich zum einen aus der Intention des Benutzers und zum anderen aus der Art der Interaktion [13]. Die Intention kann dabei durch taktile Elementaraufgaben beschrieben werden, die auf den haptischen Elementaraufgaben der ISO 9241-910 [9] basieren (y-Achse in Abb. 7). Die Interaktion selber kann in Eingabe, Handbewegung und Ausgabe unterteilt werden (x-Achse in Abb. 7). Im Rahmen der oben angesprochenen Projekte HyperBraille und Tangram wurden zahlreiche Untersuchungen mit blinden und sehbehinderten Probanden durchgeführt, um die taktile Interaktion auf der Stiftplatte anhand unterschiedlicher Aspekte der taktilen Interaktion zu validieren. Als Bewertungsgrundlage wurden dabei insbesondere die Maße der Gebrauchstauglichkeit nach ISO 9241-11 [8], d. h. Effektivität, Effizienz und Zufriedenstellung, verwendet (vgl. Abb. 7). Eine ausführliche Darstellung der einzelnen Untersuchungen findet sich in [13].
Visualisierung von Handbewegungen Wie die obigen Beispiele gezeigt haben, spielt die Handposition bei der Interaktion auf der StiftInformatik_Spektrum_40_6_2017
577
{ WENN DIE HAND ZUM AUGE WIRD
Abb. 7 Übersicht über durchgeführte Benutzerstudien im Gestaltungsraum der taktilen Interaktion (die in Klammern dargestellten Zahlen geben die Anzahl der Probanden an, welche an der jeweiligen Untersuchung teilgenommen haben)
platte nicht nur für die Kooperation mit sehenden Menschen, sondern auch für die multimodale Einund Ausgabe von Informationen eine wesentliche Rolle. Die Analyse von Handpositionen kann beispielsweise dabei helfen, wichtige Referenzpunkte in der taktilen Ausgabe oder von blinden Benutzern angewendete Erkundungsstrategien zu identifizieren. Die verschiedenen Darstellungsarten der Stiftplatte können dabei zu unterschiedlichen Interaktions- und Erkundungskonzepten führen. Um den Einfluss sowie die Effektivität der jeweiligen Interaktionsmetapher zu bewerten, kann ein geeignetes Visualisierungswerkzeug hilfreich sein. Ähnliche Fragestellungen für visuelle Benutzungsoberflächen finden sich bei der Blickbewegungsanalyse. Hierbei werden Augenbewegungen zwischen Elementen, Verweildauer, Aufmerksamkeit oder Erkundungsstrategien eines Betrachters analysiert. Dabei werden die Geräte zur Bestimmung des Betrachtungsbereiches meist auf den zentral von beiden Augen fokussierten Punkt geeicht [4]. So ergibt sich ein eindeutiger Pfad. Eine Einbeziehung des peripheren Wahrnehmungsraums findet nicht statt. Zur Visualisierung der gewonnenen Blickbewegungsdaten werden häufig Heatmaps verwendet [2, 12]. Im Folgenden werden geeignete Möglichkeiten der Visualisierung und Analyse von Handbewegungen diskutiert.
578
Informatik_Spektrum_40_6_2017
Besonderheiten bei der Analyse von Handbewegungen Für die taktile Erkundung spielen, je nach Übung und Fähigkeiten des Lesers, unterschiedliche Bereiche der Hände eine Rolle. Oft übernehmen wenige Finger, meist die Zeigefinger, die Hauptrolle beim detaillierten Erkunden, Identifizieren, Bewerten und Lesen von Inhalten. Neben den lesenden Fingern benutzen sehr geübte Brailleleser bis zu acht Finger gleichzeitig, um ihre Lesegeschwindigkeit zu erhöhen [11]. Dabei nehmen umliegende Finger meist eine Vor- bzw. Nachbewertung des Wahrgenommen vor, um so zu einer deutlich schnelleren und fehlerrobusteren Erkennung zu führen [5]. Das taktile Kurzzeitgedächtnis kann somit Einfluss darauf haben, ob eine Information im Nachgang als relevant oder korrekt erachtet wird oder nicht. Umliegende Berührungen können demzufolge nicht klar von der erkennenden Berührung abgegrenzt werden. Eine Betrachtung von peripheren Berührungen ist somit als essenziell anzusehen. Zudem tragen auch Berührungen mit anderen Flächen der Hände jenseits der Fingerspitzen zur taktilen Wahrnehmung bei. So ist das Überfahren der taktilen Darstellungsfläche mit den gesamten Handflächen ein effektives Mittel, um sich einen groben Überblick über die Informationsverteilung im Darstellungsraum zu verschaffen und darauf aufbauend eine Erkundungsstrategie anzuwenden.
Abb. 8 Heatmaps zur Visualisierung der Berührungshäufigkeiten auf der Stiftplatte
In diesem Zusammenhang ist es ebenfalls vorstellbar, dass die Handballen als paralleler Wahrnehmungsbereich genutzt werden können. Die Nachverfolgung von Berührungen mit den Handballen wird jedoch durch moderne Touchsensoren erschwert, da sie den Handballen meist schon selbständig als invalide Berührung herausfiltern. Ein ungefilterter Zugang zu Sensorwerten könnte hier Abhilfe schaffen. Dies birgt jedoch die Gefahr, dass ungefiltertes Sensorrauschen mit in die Analyse einfließt und diese verfälschen kann. Ein direktes und eindeutiges Fingertracking könnte die Interpretation erleichtern, ist aber heute nur schwer zu realisieren, z. B. durch zusätzlich an den Fingern montierte Sensorik oder Marker [3]. Kamerabasierte Methoden können hier helfen, haben allerdings andere Nachteile wie Verdeckung oder teilweise unzureichende Erkennung von tatsächlichen Berührungen. Auch wenn alle Berührungen bestimmt und protokolliert werden, ist immer noch unklar, welche Berührung durch welche Intention gesteuert ist. Rein auf den Sensordaten basierend kann nicht bestimmt werden, ob auch die Aufmerksamkeit des Benutzers auf den Punkt gerichtet war. Dies ist dem sogenannten Midas-Touch-Problem [10] gleichzusetzen, welches ohne eine klare Unterscheidung zwischen Erkundung und Aktivierung zu unbeabsichtigten Eingaben führt.
Bei der Blickanalyse kann die Verweildauer auf einem Objekt als eine positive Maßzahl für die Aufmerksamkeit angesehen werden (Fixationen). Die schnellen Bewegungen zwischen den Fixationen, welche als Sakkaden bezeichnet werden, gelten meist als Zeiträume geringer Aufmerksamkeit [6]. Bei der taktilen Erkundung ist dies tendenziell eher umgekehrt – insbesondere wenn sie auf einem Display stattfindet, welches die aktive taktile Wahrnehmung unterstützt. Wahrnehmung und Erkundung basieren dabei auf dem Abtasten eines Objektes, was meist durch eine Bewegung gekennzeichnet ist. Je besser ein Objekt taktil erkennbar ist und je intuitiver es seine Bedeutung zu vermitteln vermag, umso kürzer sollte der Leser an ein und derselben Stelle verweilen. Eine lange Verweildauer an ein und demselben Ort deutet eher auf eine Ruhepause oder Probleme bei der Erkennung hin, beispielsweise bei zu kleinen, undifferenzierten taktilen Merkmalen. Beim Ertasten kann die Bewegung an sich als das eigentliche Erkunden angesehen werden.
Heatmaps zur Visualisierung von Berührungshäufigkeiten Abbildung 8 zeigt zwei Heatmaps, welche die Berührungen jeweils eines blinden Benutzers auf der Stiftplatte visualisieren. Dazu wurde zu jedem taktilen Darstellungspunkt die Häufigkeit von Informatik_Spektrum_40_6_2017
579
{ WENN DIE HAND ZUM AUGE WIRD
Berührungen über die Gesamtlaufzeit unter Zuhilfenahme der Formel zur Berechnung der einzelnen Heatmapwerte aufsummiert. Berührungsdaten wurden für die gesamte Darstellungsfläche mit einer Frequenz von 20 Hz erhoben, wobei der Schwellwert für eine Registrierung als Berührung durch die Geräteschnittstelle selbst festgelegt ist und damit bei 0 liegt: ⎧ ⎨1, Sensorwert x,y,t > Schwellwert h(x, y, t) := ⎩0, sonst h(x, y) :=
t max
h(x, y, t)
t =0
Mithilfe derartiger Heatmaps soll eine Abschätzung erfolgen, wie häufig Displayregionen durch den Benutzer betrachtet werden, um deren Nutzen zu bewerten. In den hier gezeigten Beispielen sind die Berührungen über einen Zeitraum von sechs (untere Heatmap) bzw. sieben Minuten (obere Heatmap) abgebildet. Bei der oberen Heatmap ist deutlich zu sehen, dass der Leser mehrfach am unteren rechten Displayrand seine Hände in eine Ruheposition abgelegt hat. Unklar ist, ob er in der Zwischenzeit mit der zweiten Hand Eingaben oder weitere Erkundungsoperationen durchgeführt hat. Die untere Heatmap zeigt, dass sich der Leser fast ausschließlich in den mittleren Zeilen des Displays bewegt hat. Werden die Heatmaps zur Bewertung der Displaybereiche an sich herangezogen, so kann festgestellt werden, dass der Bereich am oberen linken Displayrand, welcher zur Ausgabe des aktuellen Dokumententitels dient, im aufgezeichneten Szenario wenig Beachtung durch die Benutzer erfährt. Im Darstellungsbereich, der den mittleren und damit größten Displaybereich einnimmt, fanden hingegen die zeitmäßig häufigsten Interaktionen statt. Hierbei ist weiterhin zu erkennen, dass der linke Displayrand durch beide Benutzer als Referenzpunkt genutzt wurde, da sich dort deutliche Häufungen von Sensorenaktivitäten befinden. Der untere Bereich, in welchem detaillierte Informationen zu angewählten Objekten, getätigten Eingaben oder Statusänderungen des Systems präsentiert werden, wurde zumindest von Benutzer 1 regelmäßig erkundet. Die Heatmaps können darüber hinaus auch für andere Fragestellungen hinzugezogen werden. Beispielsweise lassen sich in Kombination mit Videoauswertungen oder Beobachtungsprotokollen
580
Informatik_Spektrum_40_6_2017
Rückschlüsse auf bestimmte Charakteristiken in der Erkundung eines Benutzers ziehen. Dies umfasst nicht nur Displayregionen, auf die der Nutzer für einen längeren Zeitraum seine Hände abgelegt hat (vgl. obere Heatmap in Abb. 8), sondern auch verwendete Scrolloperationen oder Lesestrategien. In einer Heatmap sind derartige Aspekte zum Beispiel durch die Anhäufung sowie die allgemeine Verteilung von Berührungen erkennbar. Im Fall der unteren Heatmap in Abb. 8 deutet die Verteilung der dunkleren Bereiche auf eher kleine Scrollschritte hin, da die Berührungen ansonsten gleichmäßiger auf die einzelnen Textzeilen des Displays verteilt wären.
Zusammenfassung und Ausblick Herkömmliche Hilfsmittel wie Screenreader und Braillezeile ermöglichen blinden Menschen einen effektiven Zugang zu den textuellen Informationen grafischer Benutzungsoberflächen. Um Grafiken selbstbestimmt zu erkunden, eignen sie sich allerdings nicht. Taktile Flächendisplays können hierfür eine adäquate Lösung darstellen, da sie einen interaktiven Umgang mit grafischen Darstellungen erlauben. Im Rahmen dieses Artikels wurden verschiedenartige taktile Darstellungsformen vorgestellt, die unterschiedliche Anwendungsszenarien auf dem BrailleDis 7200 unterstützen. Es konnte zudem gezeigt werden, dass dadurch auch die Zusammenarbeit mit sehenden Menschen erleichtert werden kann. Zur Visualisierung von Berührungen auf der taktilen Ausgabefläche wurde die Verwendung von Heatmaps vorgestellt. Wie dies bei Heatmaps in der Blickbewegungsanalyse üblich ist, müssen zukünftig auch hier die Bewegungsdaten der Hände mit dem dargestellten Inhalt verknüpft werden, um konkrete Aussagen über die taktile Interaktion auf der Stiftplatte machen zu können. Hierzu ist es notwendig, den Inhalt zusammen mit den Touchdaten zu betrachten. In Zusammenhang mit der Analyse von Erkundungsstrategien spielt zudem auch der zeitliche Verlauf der Berührungen eine wichtige Rolle. Geeignete Visualisierungs- und Analysemethoden können zukünftig dabei helfen, die Darstellungs- und Interaktionstechniken auf taktilen Flächendisplays weiter zu optimieren.
Literatur 1. Bornschein J, Prescher D, Weber G (2015) Collaborative Creation of Digital Tactile Graphics. Proceedings of the 17th International ACM SIGACCESS Conference on Computers and Accessibility, pp 117–126
2. Buscher G, Biedert R, Heinesch D, Dengel A (2010) Eye tracking analysis of preferred reading regions on the screen. CHI’10 Extended Abstracts on Human Factors in Computing Systems, pp 3307–3312, ACM 3. Chang R, Wang F, You P (2010) A Survey on the Development of Multi-touch Technology. IEEE Asia-Pacific Conference on Wearable Computing Systems, pp 363–366 4. Duchowski A (2007) Eye tracking methodology: Theory and practice. Springer Science & Business Media, Berlin, Heidelberg 5. Fertsch P (1947) Hand dominance in reading braille. Am J Psychol 60(3):335–349 6. Goldstein EB (1989) Sensation and perception. Thomson Learning, Wadsworth 7. Graziani P, Breschi B (1994) Screen reader for windows based on speech output. In: Zagler W, Busby G, Wagner R (Hrsg) Computers for Handicapped Persons. Lecture Notes in Computer Science 860. Springer, Berlin, Heidelberg, pp 96–100 8. ISO (the International Organization for Standardization) (1998) Ergonomische Anforderungen für Bürotätigkeiten mit Bildschirmgeräten – Teil 11: Anforderungen an die Gebrauchstauglichkeit – Leitsätze (Deutsche Fassung EN ISO 9241-11:1998) / DIN Deutsches Institut für Normung e. V. 9. ISO (the International Organization for Standardization) (2011) Ergonomie der Mensch-System-Interaktion – Teil 910: Rahmen für taktile und haptische Interaktion (Deutsche Fassung EN ISO 9241-910:2011) / DIN Deutsches Institut für Normung e. V.)
10. Jacob RJ (1991) The use of eye movements in human-computer interaction techniques: what you look at is what you get. ACM TransInf Syst 9(2):152–169 11. Morash VS, Pensky AEC, Tseng ST, Miele JA (2014) Effects of using multiple hands and fingers on haptic performance in individuals who are blind. Perception 43(6):569–588 12. Pohl M, Schmitt M, Diehl S (2009) Comparing the Readability of Graph Layouts using Eyetracking and Task-oriented Analysis. In: Proceedings of the Fifth Eurographics Conference on Computational Aesthetics in Graphics, Visualization and Imaging, pp 49–56 13. Prescher D (2016) Taktile Interaktion auf flächigen Brailledisplays. Dissertation, Universität Dresden, Fakultät Informatik 14. Schiewe M, Köhlmann W, Nadig O, Weber G (2009) What you feel is what you get: Mapping GUIs on planar tactile displays. Universal Access in HumanComputer Interaction – Intelligent and Ubiquitous Interaction Environments. Lecture Notes in Computer Science 5615. Springer, Berlin, Heidelberg, pp 564–573 15. Spindler M, Kraus M, Weber G (2010) A graphical tactile screenexplorer. In: Miesenberger K, Klaus J, Zagler W, Karshmer A (Hrsg.) Computers Helping People with Special Needs. Lecture Notes in Computer Science 6180. Springer, Berlin, Heidelberg, pp 474–481 16. The Document Foundation (o. J.) LibreOffice Homepage, http://www.libreoffice.org, letzter Zugriff: 6.1.2017
Informatik_Spektrum_40_6_2017
581