2. ai-SLAM (SS 18)

Die Bandbreite der Themen des 2. ai-SLAM-Wettbewerbs war wiederum groß: Medizin-Informatik, freihändiges und 3D-Skizzieren, Augmented Reality bis hin zu Big Data und maschinelles Lernen. Insgesamt 12 Teilnehmer berichteten am 18. Juni 2018 über den Stand ihrer Forschungsprojekte. Die Sieger wurden in einem spannenden Fotofinish ermittelt: Sie waren jeweils nur einen Punkt voneinander getrennt, aufgrund von Punktgleichheit gab es sogar zwei 2. Plätze.

 

1. Tobias Dumke, Pascal Helbig, Nick Zimmermann: Kollaborationsplattform für internationale Zusammenarbeit

Was sind die wichtigsten Dinge im Leben? Auf diese Frage gibt es viele verschiedene Antworten. Eine davon ist unsere Gesundheit. Wir können heutzutage viel für unsere Gesundheit tun, darunter fallen gesunde Ernährung, Sport, frische Luft und vieles mehr. Aber was machen wir, wenn wir doch krank werden? Viele Krankheiten lassen sich durch die Einnahme von Medikamente schnell behandeln. Eine der Krankheiten, die sich nicht schnell bzw. in einigen Fällen sogar nicht behandeln lassen, ist Krebs. Es gibt viele verschiedene Krebsarten, die jeden Teil unseres Körpers befallen können. In den Forschungsprojekten an der Charité Berlin geht es darum, eine Plattform zu entwickeln, die Pathologen hilft, eine Zweitmeinung zu einem bestimmten Fall zu einholen zu können. Dadurch müssen Gewebeproben nicht mehr von einem Institut an das Nächste versendet werden, und die Patienten gewinnen wertvolle Zeit. Aus dieser Grundidee sind drei Forschungsprojekte entstanden. In dem ersten Projekt, geht es darum eine Kommunikationsplattform zu entwickeln, auf der sich Ärzte über einen bestimmten Fall austauschen können, dazu müssen alle wichtigen und notwendigen Daten der Patienten, des Falls und auch der Ärzte erfasst werden. Das zweite Projekt beschäftigt sich mit der Frage: Wie werden die erfassten Bilddaten gespeichert und wie könnten diese Daten transportiert werden? Die Bilddaten sind je nach Gewebeschnitt bis zu mehreren hundert Gigabyte groß. Das dritte aus dem Thema entstandene Projekt befasst sich damit: Wie können diese speziellen Bilddaten auf der Plattform dargestellt werden und welche Möglichkeiten gibt es, bestimmte Bereiche der Bildausschnitte digital zu markieren?

Durch das Zusammenführen dieser drei und potenziell weiteren Forschungsprojekten soll die Plattform SecOpinion entstehen. Die Projekte werden von Prof. Hufnagl betreut, der auch Leiter der Digitalen Pathologie an der Charité ist und dort eine entsprechende Plattform etablieren möchte.

 

2. Elisabeth Thielen: Augmented Reality für Kunst und Kultur

Augmented Reality ist eine Technologie, die besonders in den letzten Jahren durch den technischen Fortschritt von Mobilgeräten immer beliebter wird. Sie bezeichnet die Erweiterung der Realität um computergenerierte Inhalte, wie etwa Audio, Video oder 3D-Objekte.

Das AR-Projekt „Virtuelles Quartett“ nutzt vier verschiedene Marker, welche durch Bilderkennungsalgorithmen von dem Augmented Reality SDK „Vuforia“ erkannt werden. Die einzelnen Marker repräsentieren jeweils einen der vier Musiker des Quartetts. Die analogen Marker können verschoben oder aus dem Blickfeld der Kamera entfernt werden, sodass Nutzer sich einzelne Stimmen und verschiedene Kombinationen der Musiker anhören und -sehen können. Dies erlaubt ein völlig neues Musikerlebnis im Vergleich zum Besuch eines Quartett-Konzerts, bei dem die Musiker ihre Stimmen alle gemeinsam spielen.

Die Anwendung verbindet spielerisch die analoge Welt (physische Marker) mit der digitalen Welt (Audio und Video) und bietet so eine neue Art von Interaktion mit Musik. Durch die physischen Marker fällt es leichter, das Prinzip von Augmented Reality zu begreifen. Die Repräsentation der Musiker in der Anwendung wurde durch Videos realisiert, welche sich stets zum Nutzer hin ausrichten. Bei den Videos handelt es sich um Greenscreen-Videos, deren Hintergrund später durch Shader in Unity transparent gerendert wird. Die Audiospuren wurden zudem separat für jeden Musiker einzeln in einem schallfreien Raum der TU Berlin aufgenommen, damit einzelne Musiker stummgeschaltet werden können, wenn deren Marker nicht im Kamerabild zu sehen ist.

Bei dem virtuellen Quartett handelt es sich um eine Arbeit in Kooperation mit dem Konzerthaus Berlin, die Teil einer Augmented Reality Ausstellung im Vestibül des Konzerthauses ist. Das Virtuelle Quartett ist Teil der "Konzerthaus Plus" App und kann über den Apple App- und Android PlayStore heruntergeladen und getestet werden.

 

2. Ghino Kenstel: Anwendung für Objekterkennung und Objektklassifikation für AR

Augmented Reality (AR) wird immer gefragter und damit steigt auch die Nachfrage einer Software für AR. Eines der  Hauptprobleme einer solchen Software stellt die Objekterkennung dar. Hierfür wird im Rahmen des Forschungsprojektes ein Prototyp entstehen, welcher die Grundzüge einer Objekterkennung enthalten soll. Es soll einem Benutzer ermöglicht werden, mit einem Smartphone ein Objekt zu filmen und zur Laufzeit mit Informationen zu diesem Objekt versorgt zu werden. Simpel beschrieben soll die App in der Lage sein, einen Stuhl vor der Kameralinse zu erkennen und das Wort "Stuhl" auszugeben. Das Objekt muss hierfür zunächst erkannt und anschließend klassifiziert werden. Aus einem Frame des Objektes müssen Merkmale extrahiert werden, welche eine hohe Wiederfindbarkeit aufweisen (Kanten, Ecken, Rundungen,...). Bei einem Stuhl beispielsweise 4 Beine und eine Sitzfläche. Nachdem solche Merkmale gefunden wurden, müssen diese manuell betitelt und persistiert werden. Beim erneuten Scannen werden die gefundenen Merkmale mit den Merkmalen aus der Datenbank verglichen. Werden die Merkmale wieder gefunden (4 Beine und eine Sitzfläche), so handelt es sich bei dem gezeigten Objekt mit hoher Wahrscheinlichkeit um einen Stuhl. Handelt es sich jedoch zum Beispiel um einen Bürostuhl mit einem Bein und 5 Füßen, so wird das Objekt nicht als Stuhl erkannt werden. Die Variationen des gleichen Objektypens müssen zur entsprechenden Gruppe, in diesem Beispiel zur Gruppe "Stuhl", hinzugefügt werden.

 

3. Tom Bisson: 3D-Modellierung der Prostata

Im Zeitalter der Digitalisierung werden Dinge des alltäglichen Lebens miteinander vernetzt, den Alltag und die Arbeit unterstützende Programme entwickelt und die Unterhaltungsbranche um vielfältige Angebote erweitert. Doch auch auch die Forschung profitiert vom Fortschritt der Technologie. Mit den heute verfügbaren Rechenleistungen kann mit hochdimensionalen Daten gerechnet sowie komplexe Modelle und Simulationen generiert werden.


In der Medizin sind solche Methoden besonders vielversprechend. So lassen sich beispielsweise mittels Deep Learning automatisiert Diagnosen erstellen. Ebenso erlauben 3D-Modelle tiefergehende Einblicke in organische Strukturen. Seit 2010 arbeiten Wissenschaftler des gesamten Landes an einem systembiologischen Modell der menschlichen Leber.

In dem Projekt „3D-Modellierung der Prostata“ wird  ein Modell der menschlichen Prostata entwickelt. Zunächst wurden mögliche Modellierungswerkzeuge zusammengetragen und erste Prototypen entwickelt. Durch stetige Zusammenarbeit mit dem Pathologenteam der Charité Berlin wurden die Prototypen evaluiert und mögliche Weiterentwicklungen besprochen. Im weiteren Verlauf des Projekts wird der Fokus auf das Wachstumsverhalten der Prostata gelegt. Ziel des Projekts ist es, Parameter für die Entstehung von Prostatakarzinomen und anderen Erkrankungen zu finden und diese zu simulieren.

 

 

 

(Foto: Privat)
Tobias Dumke, Gewinner

(Foto: Privat)
Elisabeth Thielen, 2. Platz

(Foto: Privat)
Ghino Kenstel, 2. Platz