Start-up: Weiterentwicklung der "Matrix"-Spezialeffekte

7. August 2017, 10:00

Start-up-Projekt von St. Pöltner FH-Studenten arbeitet an interaktiver Videotechnologie

St. Pölten – Es ist ein bisschen wie im Film Matrix: Die dort eingesetzte sogenannte Bullet-Time-Technik zeigt eine Kamerafahrt rund um eine in der Zeit eingefrorene Szene – beispielsweise Hauptfigur Neo bei einer besonders coolen Kampfbewegung. Bei diesem Spezialeffekt liefert eine Vielzahl von Fotokameras Bilder, die das Objekt im Zentrum von allen Seiten zeigen.

Drei Medientechnik-Studenten der Fachhochschule St. Pölten haben diese Technik zum Ausgangspunkt für ihr Projekt namens "A slice of reality" genommen. Felix Blasinger, Max Heil und Johannes Traun vom angehenden Start-up "We need light" wollen die Fotokameras der Bullet-Time-Technik mit Videokameras ersetzen. Das beabsichtigte Ergebnis: Der Videokonsument soll auf einem Bildschirm eine sich bewegende Szene interaktiv von allen Seiten betrachten können.

Vom Silicon Valley nach St. Pölten

Was als Studienprojekt begann, führte bereits vergangenes Jahr zu einem ersten Prototypen. Ende des Jahres soll ein zweiter fertig sein und ein Unternehmen gegründet werden, sagt Max Heil. Dazwischen steht noch ein Ausflug nach Kalifornien auf dem Programm. Nach einem erfolgreichen Pitchingevent schicken die Technologieagentur Tecnet und das Gründerservice Accent zwei der Erfinder an die Berkeley Entrepreneurship Summer School, wo sie in die US-Gründerszene eintauchen und entsprechendes "Start-up-Feeling" aus dem Silicon Valley nach St. Pölten holen sollen.

Die Kameras, die die Erfinder rund um einen Ort der Handlung – im Test etwa um einen Tischtennisspieler – platzieren, werden von einem zentralen Auslösersystem kontrolliert, um möglichst synchrone Aufnahmen der Szene zu liefern. "Je mehr Kameras ich aneinanderreihe, desto besser sind später die Übergänge zwischen den Perspektiven", sagt Johannes Traun. Schaltet man auf diese Art 30 Kameras zusammen, entstehen große Datenmengen. Es gilt, eine geeignete digitale Kodierung und eine Wiedergabesoftware zu entwickeln, die je nach Nutzereingabe nahtlose Übergänge zwischen den Perspektiven managt.

Perspektivenwechsel

Erste Anwendungen könnte die Technologie auf Messen und in Museen finden, sagt Felix Blasinger. Eine entsprechende Sensorik könnte die Bewegung eines Menschen tracken und davon abhängig die im Bild gezeigte Perspektive verändern. "Auf diese Art könnte man den Bildinhalt steuern, indem man sich vor einer Leinwand hin- und herbewegt."

Kunst- und Sportperformances, Aufzeichnungen von Tanzeinlagen oder Produktpräsentationen könnten gezeigt werden. In fernerer Zukunft könnten die interaktiven Videos auch auf Smartphones und Wohnzimmerbildschirmen wiedergegeben werden. Eine offene Frage dabei: Wie transportiert man die anfallenden riesigen Datenmengen über das Internet?

Der erste Prototyp habe gezeigt, dass die Sache grundsätzlich funktioniert, nun arbeiten die drei gemeinsam mit Freunden an der Verfeinerung. Mit 360-Grad-Videos, die man mit Virtual-Reality-Brillen konsumiert, sollen die neuartigen Inhalte nicht konkurrieren. "Die Technik bringt nicht in jedem Bereich einen Mehrwert", betont Blasinger. In speziellen Anwendungen könne sie aber durchaus reüssieren. (pum, 7.8.2017)