3. ai-SLAM (WS 18/19)

Der dritte Wettbewerb dieser Reihe fand am 7. Januar 2019 statt. Die Sieger forschen auf den Gebieten Augmented und Virtual Reality sowie Echtzeit-Computing. Es war wieder eine enge Entscheidung - eine Teilnehmerin verpasste das Podium nur knapp.

 

1. Simon Bahr: Entwurf und Entwicklung eines Augmented Reality Autorensystems

Die Technologie Augmented Reality wird dazu verwendet, die Realität um digitale Inhalte wie Bilder, Audio, Video oder 3D-Modelle zu erweitern. Dafür werden mobile Endgeräte genutzt, die immer leistungsstärker und somit immer bessere AR-Erfahrungen bieten.

Um die Erstellung solcher Augmented-Reality-Erfahrungen zu vereinfachen, wird im Rahmen des Forschungsprojektes ein Prototyp eines Autorensystems entwickelt. Dafür wurde im ersten Teil des Projekts eine Unity-Anwendung und ein Content Management System implementiert. Die Unity-Anwendung ermöglicht es, die im CMS gespeicherten Augmented-Reality-Projekte zu laden, anzusehen und zu bearbeiten.

Da die Vorschau der Projekte am Computer immer eine perfekte, störungsfreie Ansicht darstellt, kann die reale Erfahrung an einem Mobilgerät abweichen. Um die gespeicherten Augmented Reality-Projekte auch auf einem Mobilgerät betrachten zu können, wird im zweiten Teil des Forschungsprojekt eine Android-Applikation entwickelt, die unter Verwendung von ARCore die Projekte darstellen kann.

Das Ziel ist es, dass man zur Laufzeit der mobilen Applikation die AR-Projekte im Autorensystem bearbeiten kann und dass die Änderungen direkt in der Android-App übernommen werden. Nutzer sollen stets und ohne zusätzliche Interaktion von Weiterentwicklungen profitieren.

2. Patrick Fehling: Benutzerzentrierter Entwurf von kollaborativen Interaktionstechniken für das immersive 3D-Skizzieren

Virtual Reality ist spätestens seit der Vorstellung der Oculus Rift und der HTC Vive sehr bekannt. Jedoch sehen die meisten Personen diese eher als Spielgeräte an. Aber Virtual Reality kann auch in seriösen Anwendungen sinnvoll sein. Eine Anwendung, in der man immersiv im dreidimensionalen, virtuellen Raum skizzieren kann, "hat Potenzial, zu neuen Formen, zu neuen Objekten [zu] inspirieren“. So äußerte sich ein Produktdesigner in einem Interview, welches für dieses Projekt durchgeführt wurde.

In diesem Forschungsprojekt werden zunächst Anforderungen an Nutzerinteraktionen in einer Software für verteiltes (immersives) 3D-Skizzieren ermittelt und analysiert. Dabei geht es vor allem um kollaborative Interaktionstechniken, Kommunikation und Visualisierung der Kommunikationspartner. Im Anschluss werden ausgewählte Anforderungen mithilfe des Leap-Motion-Sensors umgesetzt. Dieser trackt die Handbewegungen des Nutzers, welche dann auf virtuelle Handmodelle abgebildet werden können. Statt der Hände soll in diesem Projekt jedoch ein Stift als Eingabegerät verwendet und getrackt werden.

Das Tracken des Stiftes wurde zunächst über einen älteren Treiber der Leap Motion realisiert. In einem zweiten Anlauf soll das Tracking auf Basis der Rohdaten des Sensors umgesetzt werden. Durch die stereoskopischen Bilder kann nach Erkennung des Stiftes die Position und möglicherweise auch die Orientierung des Stiftes ermittelt und abgebildet werden.

 

3. Khanh Vu Nguyen: Erweiterung von SuperCollider um eine 3D-Schnittstelle

Dank der rasanten Fortschritte im IT-Bereich kann ein Rechner heutzutage diverse komplexe Aufgaben bewältigen. Unter anderem besteht die Möglichkeit, Musik zu komponieren oder Toneffekte zu generieren. Eine Open-Source-Softwarelösung mit umfangreichen Funktionalitäten steht unter dem Namen SuperCollider zur Verfügung. SuperCollider kann Audio-Signale generieren, erlaubt jedoch keine Visualisierung der Tonausgabe. Dafür ist eine zusätzliche Komponente nötig.

Die Open-Source-Lösung SCGraph ermöglicht es mittels eines eigenen Grafik-Servers, 2D-Visualisierungen für SuperCollider in Echtzeit zu realisieren. Leider wird diese Lösung seit Jahren nicht mehr weiterentwickelt. Zudem existiert keine Unterstützung für 3D-Visualisierung.

Das Ziel des Forschungsprojekts ist, eine 3D-Schnittstelle für SuperCollider zu konzipieren. Das System soll aus einem Audio-Server, einem 3D-Grafik-Server, einem Master-Server und einer Steuerungs-GUI bestehen. Auf dem Audio-Server läuft SuperCollider, und auf dem Grafik-Server befindet sich eine Komponente zur Erzeugung von 3D-Grafiken. Der Master-Server dient als Vermittler für die Kommunikation zwischen Audio- und Grafik-Server. Zudem soll eine Steuerungs-GUI sowohl für Audio als auch Grafik vorhanden sein, mit der sich das System beispielsweise auf einem Tablet fernsteuerm lässt. Das angestrebte System-Design soll das Pflegen bzw. Ändern von einzelnen Komponenten vereinfachen sowie eine künftige Parallelisierung des Grafik-Servers ermöglichen.

 

Simon Bahr, Gewinner

Patrick Fehling, 2. Platz

Khanh Vu Nguyen, 3. Platz