Das Steinbeis-Forschungszentrum Design und Systeme entwickelt schon seit Jahren interaktive Anwendungen im Bereich der virtuellen und erweiterten Realität. Zukünftig wird am daraus hervorgehenden und zwischenzeitlich gegründeten Hochschulinstitut »Design und Informationssysteme« (IDIS) der Hochschule Würzburg-Schweinfurt auch die Forschung webbasierter, echtzeitfähiger 3D-Anwendungen eine große Rolle spielen. Mangelnde Leistungsfähigkeit von Bandbreiten und Grafikkarten, die Notwendigkeit von Plugins und letztlich der fehlende breite Anwendungsbereich der dritten Dimension im Web überließen das Thema 3D im Internet bisher meist einem spezifischen Kreis von Fachleuten. Das gerade heiß diskutierte Thema WebGL, welches insbesondere auf Embedded-Systems, aber auch Smartphones abzielt, könnte hier ganz neue Möglichkeiten bieten. Neben diesen Optionen unterliegt das Thema »Visual-3D«, im Gegensatz zur etablierten Gestaltung von Informationssystemen auf zweidimensionaler Ebene, allerdings ganz anderen Anforderungen und Gesetzmäßigkeiten.
Forschungsfeld »Virtual Reality«
Forschungsbereich VR
Wie vermittelt man Prozesse, die in der Realität kaum oder nicht sichtbar sind? Wie wird die Kompetenz eines Unternehmens deutlich, wenn das eigentliche Know-how im Verborgenen liegt? Wie lassen sich komplexe Vorgänge, Strukturen oder Zusammenhänge am besten vermitteln? Die virtuelle und erweiterte Realität bietet für viele dieser Fragestellungen innovative Antworten. Die Darstellung von Informationen oder auch die Simulation von Prozessen im dreidimensionalen virtuellen Raum stellt allerdings besondere Anforderung an Informations- und Interaktionsdesign sowie an die Navigationsstrukturen. Für die Orientierung und Steuerung im virtuellen Raum gibt es bisher nämlich wenige gute Lösungen oder etablierte Konventionen. Die Vielzahl an möglichen Bedienmustern, Gesten und Freiheitsgraden stellt zudem einen hohen Anspruch an die Entwicklung einer eingängigen Steuerung und Bedienung. Ein zentrales Forschungsfeld des Institutes ist daher die Schaffung neuer, innovativer Interaktionsformen. Etablierte Interfaces sind in ihren Möglichkeiten beschränkt und schöpfen die Leistungsfähigkeit vieler digitaler Medien oft nicht aus. Daher ist es nötig, nach anwendungsspezifischen Resultaten zu suchen und auch neue Gestenprotokolle zu entwickeln.
»Virtual Reality« in der Anwendung
Ein aktuelles Beispiel für die Entwicklung einer individuellen Interaktionsplattform ist eine »multimediale Panoramawand«, die für das »Informationszentrum Naturpark Altmühltal« in Eichstätt entwickelt wurde. Die Installation besteht aus einer 8 x 2,5 Meter großen gebogenen Rückprojektionswand, die interaktiv gesteuert werden kann. Es entstand eine Echtzeit-3D-Anwendung, mit der sich der Besucher bei einem virtuellen Flug über den Naturpark über die Landschaft und ihre Besonderheiten informieren kann. Die Installation ist als »Multi-User-Anwendung« konzipiert, bei der die Betrachter entsprechend ihrer Position im Raum Informationen aktivieren können. Zur Steuerung wurde ein »Face-Tracking« in die VR-Anwendung integriert. Das Tracking referenziert die Benutzer vor der Wand und bietet diesen so eine Steuerungsmöglichkeit anhand ihrer Positionen im Raum – eine komplett berührungslose Interaktion der virtuellen Szene wird somit möglich.
Technisch war neben der Interaktionslogik vor allem die große Detaildichte der virtuellen Landschaft und das »Large Terrain Rendering« eine zentrale Herausforderung. Die Flugroute führt über ein 120 Quadratkilometer großes Areal, welches in Echtzeit berechnet und dargestellt werden musste. Umgesetzt wurde dieses Projekt in Extensible 3D (X3D), der derzeit wohl führenden Beschreibungssprache für 3D-Modelle und virtuelle Szenen. Das web3D-Konsortium hat 2004 Extensible 3D auch als offiziellen ISO-Standard für webbasierten 3D-Content verabschiedet. Mit X3D hat man die Möglichkeit, derartig komplexe und interaktive Echtzeit-Szenen zu erstellen. Als Player wird das InstantReality-Framework von einem institutsnahen Technologiepartner (Fraunhofer IGD in Darmstadt: http://www.instantreality.org/exhibition/) verwendet.
»Mixed Reality«
Ein zukunftsweisendes Forschungsfeld im Bereich der virtuellen Realität ist die »Augmented-Reality« oder auch »Mixed-Reality«.
Paradigmenwechsel in der Mensch-Maschine-Interaktion gab es seit der Entstehung der digitalen Daten- und Informationsverarbeitung nur sehr wenige. Die Mischung virtueller Informationen mit realen Kulissen kann hier einen wesentlichen Beitrag leisten. Durch »Mixed-Reality« können in allen Bereichen unseres Alltags innovative Anwendungen entstehen, die eine komplett neuartige Möglichkeit der Informationsvermittlung erlauben. Ein aktuelles Anwendungsbeispiel ist das Projekt »SpaceViewer«, das das Institut für die Coperion GmbH entwickelt hat (http://www.coperion.com). Dieser »Viewer« ist ein Fenster in die erweiterte Realität, in dem ein Kamerabild mit virtuellen 3D-Objekten überlagert wird. Durch Drehen und Neigen des »Viewers« wird dem Betrachter der Blick auf eine zusätzliche Informationsebene eröffnet. Mit diesem Tool kann der User eine virtuelle Fabrik mit all ihren Funktionen erkunden. Nur durch eine solche virtuelle Simulation können die komplexen Prozesse innerhalb einer derartigen Anlage dargestellt und sichtbar gemacht werden – ein echter Mehrwert, der zudem auf individuelle Bedürfnisse zugeschnitten werden kann.
Noch direkter als mit rein virtuellen Simulationen bietet die erweiterte Realität die Möglichkeit einer guten räumlichen Vorstellung mit klarer, verständlicher Zuordnung. »Mixed-Reality« bietet durch die Verortung virtueller Objekte und Simulationen im realen Bild die wohl direkteste Form der Vermittlung von Information, weil direkt am »Point of Interest« Unsichtbares sichtbar gemacht wird. Komplexe Vorgänge können durch dieses Verfahren an »Ort und Stelle« präsentiert und erklärt werden. Wichtig hierbei ist die intuitive Bedienbarkeit, was somit auch zum wesentlichen Kriterium bei der Wahl und/oder Entwicklung eines innovativen Präsentationsmediums wird.
Bislang wurden »AR-Techologien« häufig für die virtuelle Erweiterung eines »analogen« Produktkataloges eingesetzt. Inzwischen mischen sich leistungsfähige Applikationen aber auch in museale Bereiche, Service-Anwendungen der Automobilindustrie oder Tools in der Medizin. Die Möglichkeiten und die Einsatzgebiete wachsen mit der Entwicklung neuer Interface-Technologien (UMPCs, Smartphones, …) zunehmend. Zukünftig wird »Mixed-Reality« deshalb sicher auch im Umfeld webbasierter Präsentationen in unterschiedlichen Ausprägungen eine große Rolle spielen.
Web3D
Vor allem durch immer leistungsfähigere Computer und Grafikkarten sowie die nach und nach flächendeckend zur Verfügung stehenden breitbandigen Datenübertragungsraten werden die Wege für 3D-Applikationen (AR und VR) im Internet realistisch. Die seit Beginn des Webs bestehende seitenorientierte Struktur des www könnte durch die zusätzliche Dimension dreidimensionaler Anwendungen komplett aufgebrochen werden. Lösungsansätze, echtzeitbasiertes 3D für das Web zu entwickeln, gibt es schon seit Jahren. Die meisten Versuche sind und waren allerdings pluginbasierte Insellösungen oder isolierte Datenmodelle, welche sich in der Breite nie wirklich durchsetzen konnten. Da interaktive Echtzeitformate grundsätzlich eine hohe Rechenleistung erfordern, steht man mit einer webbasierten Anwendung vor einer noch größeren Herausforderung. Nur mit hardwarebeschleunigten Lösungen (z. B. WebGL), wird die Realisierung solch komplexer Szenen kurzfristig möglich sein (in GoogleChrome und FireFox 4.x ist WebGL schon nativ implementiert). Aber noch sind die Darstellungsmöglichkeiten von echtzeitbasierten Renderings eingeschränkt und zur Erstellung eines entsprechenden »Look and Feel« bedarf es im Moment noch etwas Fingerspitzengefühls, um die Möglichkeiten umfassend auszuschöpfen. Von einer Qualität, wie sie der Betrachter eines 3D-Animationsfilms gewohnt ist, sind wir noch weit entfernt. Die Forschungsaktivitäten aber schreiten rasch voran, weil das Thema für Entwickler, Designer und Endkunden immer interessanter wird. Sollte sich X3d als klar definierter ISO-Standard durchsetzen, könnten schon bald viele der Möglichkeiten interaktiver 3D-Tools ins Web übertragen werden. Das Fraunhofer IGD in Darmstadt ist hier als Mitglied im Web3D-Konsortium bei der Entwicklung federführend beteiligt und hat mit x3dom (http://www.x3dom.org) und mit der Option, ohne Plugins x3d-Content in den HTML5-Standard zu integrieren, schon einen großen Beitrag auf dem Weg zum dreidimensionalen Web geleistet. Dieses Open-Source-System ist eine vielversprechende Test-Implementierung, aber noch sind die Möglichkeiten überschaubar.
Sind dann die technischen Hürden genommen, warten im Bereich der Visualisierung von 3D-Informationen aufregende Möglichkeiten, beispielsweise auch durch stereovisuelle Darstellungen. Technologisch führt die bereits vorhandene Hardware zu immer eindrucksvolleren Ergebnissen. Auch die preisliche Entwicklung lässt erahnen, dass sich hier ein ausgesprochen innovatives Marktsegment zu bewegen scheint. Allerdings benötigt es für die Zukunft noch weiterer und modernerer Konzepte für die richtige Darstellung, Steuerung und Navigation von 3D-Szenen, denn Tastatur und Maus haben an dieser Stelle ausgedient.
Das Institut
Das Würzburger Institut ist eine an der Hochschule Würzburg-Schweinfurt angesiedelte Einrichtung, die sich mit der angewandten, interdisziplinären Forschung und Entwicklung im Bereich der digitalen Informations- und Kommunikationsmedien beschäftigt. Das Institut greift inter- und transdisziplinäre Fragestellungen im Umfeld von Informatik und Kommunikationsdesign auf, um innovative Produkte, Ausstellungs- und Präsentationssysteme zu entwickeln. Informatiker und Designer werden hier zu multimedialen Übersetzern von Impulsen und Codes, die gesellschaftliches und ökonomisches Handeln verständlich machen, interpretieren und auch steuern. Dazu gehören vor allem neue Wissenstechnologien und die Erforschung und Entwicklung individueller Konzepte zur Optimierung von Aufgaben in Industrie und Gesellschaft.