Personal Photonics

Personal Photonics: Neue Benutzerschnittstellen für Open Innovation mit Photonik-Werkzeugen

„Haptisches Sehen” und mobiles 3D-Modellieren für Maker mit Tiefenkameras

Damit Technologien und Werkzeuge der Photonik wirklich für offene Innovation und Maker-Projekte zugänglich werden, brauchen sie neuartige, viel einfachere Benutzer- und Programmier-schnittstellen. Personal Photonics nimmt sich dieser Aufgabe für Tiefenkameras an. Diese Photonik-Technologie liefert 3D-Bilder der Umgebung, die für eine Vielzahl innovativer Projekte als Eingabedaten dienen können — insbesondere, wenn die Ausgabe nicht nur wieder visuell, sondern auf anderen Kanälen wie zum Beispiel dem Tastsinn erfolgt. Eine Weste mit Tiefenkamera und einer Matrix von Vibrationsmotoren z.B. kann Blinden helfen, Hindernisse vor ihnen rechtzeitig zu spüren, um ihnen auszuweichen. Der Fahrersitz im Auto könnte über eine Vibration an der richtigen Stelle im Rücken signalisieren, dass sich im toten Winkel ein über eine Tiefenkamera erkannter Wagen befindet.

Tiefenkameras sind aber nicht nur für Produktideen in der Open Innovation interessant. Sie können auch als Werkzeughelfen, schnell und einfach von einer Idee zu einem 3D-Modell und damit zu einem 3D-druckbaren Prototypen zu kommen. Der Getränkehalter im Auto ist so groß, dass die Lieblingstrinkflasche immer umfällt? Idealerweise sollten ein paar Schnappschüsse des Getränkehalters im Auto sowie ein paar Angaben zu Maßen und Materialeigenschaften („elastisch“) ausreichen, um einen passenden Adapter für die Trinkflasche zu erhalten: 3D-Design vor Ort.

Haptic Toolkit und iWand: Open-Source-Toolkits erleichtern die Nutzung in eigenen Projekten

Bei der Abbildung von Tiefenkamerabildern auf haptische Signale sind Unmengen von Parametern zu wählen. Welcher Bildabstand soll welcher Vibrationsstärke entsprechen? Was empfinden Menschen hier als angenehm und verständlich? Wie ändern sich die Ansteuerungsmuster, wenn sich die Brennweite der Kamera ändert oder Tiefeninformationen an anderer Stelle signalisiert werden sollen — beispielsweise an einem Armband? Im Projekt Personal Photonics werden diese Fragen untersucht und die Erkenntnisse in ein Haptic Toolkit gegossen, mit dem die Maker-Gemeinde ihre eigenen, neuen Produktideen und Experimente entwickeln kann.

Gute Beispiele sind bei Toolkits der Schlüssel zum Erfolg. Als Startpunkte für eigene Projekte mit dem Haptic Toolkit werden deshalb drei konkrete Anwendungen entwickelt und ebenfalls als Open Source zur Verfügung gestellt: (1) die oben beschriebene haptische Weste mit Tiefenkamera und einer Matrix aus Vibrationsmotoren am Torso, (2) die ebenfalls beschriebene Rückfahr-Tiefenkamera mit haptischem Feedback im Fahrersitz und (3) eine mobile Tiefenkamera im Formfaktor einer Taschenlampe, die in Kombination mit einem vibrotaktilen Armband die Übersetzung visueller Informationen in haptische Signale aus beliebigen Blickwinkeln erlaubt. Schließlich wird das Haptic Toolkit so erweitert, dass die Bilder mehrerer Tiefenkameras verschmolzen werden können. Hiermit kann die DIY-Gemeinde ein breites Spektrum eigener Anwendungen entwickeln, in denen photonische Tiefeninformationen in haptische Signale umgewandelt werden.

Mit dem iWand liefert Personal Photonics Makern ein zweites Toolkit, diesmal als Werkzeug für eigene Projekte: eine 3D-Modellierungsumgebung auch für Nichtingenieure auf Basis von Tiefenkamera-Technologie. Der iWand ist ein Stift, der im Raum von einem Smartphone, einer AR-Brille oder einer Tiefenkamera verfolgt werden kann. Mit ihm kann der Maker im Beispiel des Getränkehalters direkt vor Ort im Auto die vorhandene Öffnung nachzeichnen, damit vermessen und daraus automatisch einen 3D-Rohling für den gewünschten Adapter im Computer generieren. Zusätzliche eingebaute Tiefensensorik im Stift selbst ermöglicht dem iWand auch die „Ausleuchtung“ und Vermessung unzugänglicher Stellen. Der 3D-Rohling kann anschließend in Software mit weiteren Angaben zu Materialeigenschaften, mechanischen Funktionen wie beispielsweise Scharnieren und sogar photonischen Ausgabekomponenten wie z.B. Glasfaserbahnen und LEDs versehen werden.

Projektdetails

Koordination

Prof. Dr.Jan Borchers
Rheinisch-Westfälische Technische Hochschule Aachen - Lehrstuhl für Informatik 10 - Human-Computer Interaction Center
Ahornstr. 55, 52074Aachen
+49 241 80-21050

Projektvolumen

1,1 Mio € (100% Förderanteil durch das BMBF)

Projektdauer

01.06.2016 - 31.12.2019

Projektpartner

Rheinisch-Westfälische Technische Hochschule Aachen - Lehrstuhl für Informatik 10 - Human-Computer Interaction CenterAachen