Sankt Augustin (ots) –

Quelle: (ots/Hochschule Bonn-Rhein-Sieg)

Eine dehnbare und flexible Folie, mit etwas Abstand zum Display
eines Tablets, ermöglicht es, zweidimensionale Abbildungen mit Hilfe
eines Stiftes auf dem Tablet dreidimensional spürbar zu machen. Diese
Entwicklung ist das Ergebnis einer mehrjährigen Forschungsarbeit von
Dr. Ernst Kruijff vom Institute of Visual Computing (IVC) der
Hochschule Bonn-Rhein-Sieg (H-BRS). Kruijff wird das „Multilayer
Haptic Feedback“-System – genannt FleXuface – zusammen mit seinem
Team vom IVC sowie Kollegen der Brunel University London und der
Simon Fraser University in Vancouver bei der ACM Conference on Human
Factors in Computing Systems (CHI) vorstellen. Diese weltweit
wichtigste Konferenz für das Thema Mensch-Maschine-Interaktion findet
vom 4. bis 9. Mai 2019 in Glasgow statt.

Im realen Leben explorieren und interagieren wir vielfach mit
verschiedenen festen und flexiblen Eigenschaften: feste und weiche
Materialen, Umrisse oder sogenannte Texturen, also uneinheitliche
Oberflächen. Wir berühren sie mit den Fingern, interagieren aber auch
mittels Werkzeugen wie Stift oder Pinsel mit ihnen. Solche
Eigenschaften sind allerdings schwierig zu simulieren auf
herkömmlichen interaktiven Systemen wie Handy oder Tablet.

Durch den neuartigen Aufbau von FleXurface wird die Stifteingabe
auf ein Tablet nun spürbar gemacht, sowohl zweidimensional auf dem
Tablet selbst, als auch in 3D, in dem Raum darüber. Somit kann der
Nutzer die verschiedenen Texturen und Materialeigenschaften wie etwa
durch einen Zeichenstift auf Papier oder den Druck eines Pinsels
erleben. Es gibt aber auch weitere Einsatzmöglichkeiten. Ein
naheliegendes Beispiel für die Anwendung ist eine Präsentation für
eine Gruppe Menschen. Der Redner kann sich auf die Zuhörer und die
Leinwand konzentrieren, während er die Bedienknöpfe oder
Befehlstasten auf dem Touchscreen seines Tablets fühlen kann, ohne
sie unmittelbar in den Blick nehmen zu müssen.

Die motorgesteuerte Oberflächenspannung der Folie spielt bei den
unterschiedlichen Arten von Simulationen in mehrfacher Hinsicht eine
zentrale Rolle. In Abhängigkeit von der Spannung werden zunächst
Erhebungen der Abbildungen auf dem Tablet spürbar – aus einer
zweidimensionalen Darstellung wird gefühlt eine dreidimensionale
Erfahrung. Zudem kann durch Adaption der Oberfläche der Stift leicht
bewegt werden, um beispielsweise die Nutzereingabe zu unterstützen
oder zu korrigieren. Somit könnten auch Nutzer zukünftiger Versionen
des Systems beim Schreiben lernen, auf der Linie zu bleiben.

Das Material, aus dem abgebildete Dinge bestehen, kann ebenfalls
erfühlt werden, denn die Oberfläche vibriert entsprechend der
Schwingungen bei der Übertragung in die Textur. Dies kann in
Zusammenhang mit Audio geschehen, um Texturen wie Papier nicht nur zu
sehen und zu hören, sondern auch zu spüren. Die bisherigen Ergebnisse
gehen über den aktuellen Stand der Wissenschaft hinaus, indem
zusätzlich untersucht wurde, wie taktile und audiotaktile Signale mit
einer flexiblen Nutzeroberfläche kombiniert werden können. Das
Besondere ist, dass das System in beide Richtungen, also sowohl in
Eingabe wie in Ausgabe funktioniert. Anwender können, so Kruijff,
Tasten fühlen und bedienen, Schieberegler bedienen und genau spüren,
was eingestellt wird – und alles auch, ohne hinzuschauen. Denkbar ist
das System somit auch als Unterstützung für Blinde oder
Sehbehinderte.

https://doi.org/10.1145/3290605.3300383 (in: 2019 CHI Conference
on Human Factors in Computing Systems Proceedings. ACM, New York, NY,
USA)

Pressekontakt:
Dr. Ernst Kruijff
Institute of Visual Computing, Hochschule Bonn-Rhein-Sieg
Tel. 02241/865-9616
E-Mail: ernst.kruijff@h-brs.de

Original-Content von: Hochschule Bonn-Rhein-Sieg, übermittelt durch news aktuell

Quelle: https://www.presseportal.de/pm/75213/4258875