1. ai-SLAM (WS 17/18)

Am 22. Januar 2018 fand der 1. ai-SLAM-Wettbewerb statt. Insgesamt 15 Teilnehmer berichteten über den Stand ihres Forschungsprojekts. Die Bandbreite der Themen war groß: Sie reichte von Medizin-Informatik, Multimedia, Virtual Reality über E-Learning und Smart-Home-Steuerung, bis hin zu Big Data und maschinelles Lernen. Trotz der engen Zeitvorgabe gelang es den Vortragenden, in engagierten Darbietungen interessante Einblicke in ihre Forschungsvorhaben zu geben. Die Vorträge der Sieger stachen heraus und waren auf besondere Weise „knackig“.

 

1. Nina Zimmermann: Vorhersage von Datenzugriffen in föderierten Systemen

Im Bereich Big Data wird der größte Teil der Daten auf Magnetbändern gespeichert, die in weltweit verteilten Rechenzentren vorgehalten werden. Es dauert eine erhebliche Zeit, bis eine konkrete Datei von einem Magnetband gelesen werden kann. Ist es möglich, einen Algorithmus zu entwerfen, der die Datei ermittelt, die wahrscheinlich als nächste angefragt wird? Diese Datei könnte schon vor der Anfrage durch einen Nutzer in einen schnellen Speicher geladen werden, wodurch sich die Zugriffszeit erheblich reduzieren liesse. Die Arbeitsgruppe von Prof. Heßling arbeitet zusammen mit CERN und DESY an dieser Fragestellung. Dazu hat das CERN-Experiment ATLAS seine Logdateien über die Datenzugriffe des Jahres 2017 zur Verfügung gestellt. ATLAS ist bekannt für die Mitentdeckung des Higgs-Teilchens im Jahr 2012.

Frau Zimmermann untersucht im Rahmen ihres Forschungsprojekts, wie sich Logdateien mit Methoden des maschinellen Lernens analysieren lassen. Eine besondere Herausforderung liegt in der schieren Größe der Logdateien: Sie sind um vieles umfangreicher als handelsübliche Festplatten, weshalb die Analysen parallel auf einem Cluster von Rechnern durchzuführen sind. Dabei kommen vielfältige Techniken zum Einsatz, angefangen bei den Big-Data-Werkzeugen Hadoop und Apache Spark, über Virtualisierungslösungen wie Docker und Rancher, bis hin zu Googles TensorFlow, einem Framework für maschinelles Lernen. Zur Bewertung der vielfältigen Performanceuntersuchungen sind Methoden der Wahrscheinlichkeitsrechnung und Statistik zu verwenden. Sie kann dabei auf Ergebnisse zurückgreifen, die innerhalb der Arbeitsgruppe im Rahmen von anderen Forschungsprojekten, sowie Bachelor- und Masterarbeiten erzielt wurden und werden.

 

2. Jonas Demuth: Deep Learning zur Informationsextraktion

Durch das Informationszeitalter sah der Medienwissenschaftler Neil Postman im Jahr 1992 die Menschen mit einer „Informationsexplosion“ konfrontiert. Heutzutage können Anwendungen der Informationsextraktion aus den exponentiell wachsenden und unstrukturierten Datenmengen automatisch Wissen gewinnen.

Eine grundlegende Aufgabe der Informationsextraktion ist die Identifizierung und Klassifizierung von Eigennamen, die einzelne Entitäten benennen und deswegen oftmals von besonderer Bedeutung sind. Doch sprachliche Mehrdeutigkeiten erschweren die Eigennamenerkennung (Named Entity Recognition) und können nur mit dem Kontext aufgelöst werden. Beispielsweise lässt sich das Wort „Berlin“ für Deutschlands Hauptstadt als Ortsangabe klassifizieren. Dasselbe Wort in dem Satz „Studieren an der HTW Berlin“ gehört jedoch zu einer  Organisation.

Wie den Schwierigkeiten der natürlichen Sprache mit maschinellem Lernen begegnet werden kann, wird in mehreren Forschungsprojekten zu dem übergeordneten Thema „Deep Learning zur Informationsextraktion“ unter der Betreuung von Prof. Dr. Christian Herta untersucht. Dazu werden tiefe rekurrente neuronale Netze (z.B. mit dem Open-Source-Framework TensorFlow) implementiert, auf speziellen Servern des Fachbereichs mit großen Datensätzen trainiert und anschließend hinsichtlich ihrer Güte evaluiert. Derzeit werden Erkennungsraten von bis zu 90 % erreicht – mit 97 % ist noch der Mensch das Maß der Eigennamenerkennung.

 

3. Ruben Ahlhelm:  Ein Audiorenderingsystem für die CAVE

Die HTW Berlin verfügt über eine CAVE, die Nutzern virtuelle 3D-Räume zugänglich macht. Gegenwärtig beschränkt sich die CAVE auf das Visuelle, weshalb der Wunsch nach einer auditiven Ergänzung groß ist. Das Forschungsvorhaben untersucht verschiedene Methoden zur Virtualisierung von Audio. Der Nutzer, der sich in einem realen Raum befindet, soll in eine virtuelle Welt eintauchen können. Es werden insbesondere die Wellenfeldsynthese und das Binauralaudio betrachtet.

Die CAVE kann mit der Game Engine „Unity3D“ betrieben werden, wodurch sich neue Möglichkeiten zur Audioerzeugung ergeben. Interaktionen innerhalb der Anwendung sollen einhergehen mit einer Anpassung von Klängen. Audiodateien haben je nach Qualität und Dauer eine Größe von mehreren Megabyte. Deren direkte Verarbeitung verlangt erhebliche Rechenleistungen. Innerhalb des Forschungsprojektes wird deshalb die Methode „Procedural Audio“ betrachtet. Sie ermöglicht es, alle Töne und Klänge für die Anwendung maßgeschneidert per Code zu generieren. Dies kann so programmiert werden, dass die Generierung von Umgebungsvariablen abhängt, wie bspw. die Geschwindigkeit eines Objektes. Code, auch wenn er aus vielen Zeilen besteht, verbraucht deutlich weniger Speicherplatz als Audiodateien. Insgesamt ergeben sich interessante Möglichkeiten, die CAVE um Audio zu erweitern.

 

 

 

(Foto: Lena Meyer)
Nina Zimmermann, Gewinnerin

(Foto: Jil Lohse, hauptstadtfotografen.de)
Jonas Demuth, 2. Platz

(Foto: Privat)
Ruben Ahlhelm, 3. Platz