Virtuelle Trainings so einfach erstellen wie eine Bildschirmpräsentation
Mit VR-Brille und der entsprechenden virtuellen Welt wirken nicht nur Quests eines Computerspiels nahezu realistisch. Das immersive Erleben virtueller Räume bietet auch der Berufsausbildung und Trainings-on-the-Job richtungsweisendes Potenzial, und das reicht von der Einübung von Routinen bei der Bedienung von Maschinen bis zum lebensrettenden Verhalten in Gefahrensituationen. Noch sind VR-Trainings allerdings selten. Der Grund: Bisher war das Erstellen virtueller Trainingsszenarien Aufgabe von extra dafür geschulten Spezialist*innen. Das aber hat sich jetzt geändert.
Übung macht den Meister. Die von Pädagog*innen und Lehrenden häufig und meist mit einem ermahnenden Unterton geäußerte Lebensweisheit besaß bei seinem Ursprung vor weit über 150 Jahren aber noch einen vorgestellten Halbsatz: »Lehre bildet Geister, doch Uebung macht den Meister.« Die Sinnhaftigkeit des Satzes ist zeitlos. Heute aber fasst er kurz und prägnant die Quintessenz dessen zusammen, warum und wozu Mario Aehnelt und seine Forscherkolleg*innen am Fraunhofer-Institut für Graphische Datenverarbeitung IGD das Virtual Reality-System »Machine@Hand« entwickelt haben. Denn sie wollen damit gleichzeitig zwei Dinge erreichen: Erstens, dass Lernende theoretisches Wissen leichter verinnerlichen können. Und sie wollen ihnen zweitens neue Möglichkeiten eröffnen, das Erlernte praktisch anzuwenden und dadurch den Weg ebnen, in ihrem Tätigkeitsbereich meisterlich zu werden.
Eingesetzt wird das System unter anderem für die Ausbildung von Drucktechniker*innen in der die Lehre, etwa um das komplexe Zusammenspiel der Mechaniken während eines Druckprozesses verstehen zu lernen. Und das entweder mit einer VR-Brille oder auch 3D-Animation am Bildschirm. »Statt nur Abbildungen und Beschreibungen anhand eines Handbuches oder einer Bildschirmpräsentation zu studieren, ermöglicht ›Machine@Hand‹, die Funktionsweisen der Maschinenkomponenten in Aktion zu erleben – vor allem auch all die Vorgänge, die in der Realität entweder hinter den Maschinenklappen verborgen sind oder die so schnell ablaufen, dass sie kaum beobachtet werden können«, sagt Aehnelt. Die Auszubildenden können die virtuellen Prozesse langsamer ablaufen lassen, sich in einzelne Prozessabschnitte hineinzoomen oder die Funktionsweise der Technik aus verschiedensten Blickwinkeln betrachten.
Darüber hinaus ist Machine@Hand auch Trainingsumgebung für den Umgang mit der Maschine – von der Vorbereitung und Durchführung von Druckprozessen bis zu verschiedensten Wartungsarbeiten. »Unser Digitaler Zwilling erlaubt es, Handgriffe und Vorgehensweisen virtuell einzuüben, ohne dass dafür eine reale Anlage verfügbar sein muss. Aus dem Feedback von Trainer*innen und Übenden wissen wir, wie wichtig und erfolgsfördernd das ist.«, sagt Aehnelt. Und das bedeute beispielsweise auch, dass selbst Anfänger und Anfängerinnen einzelne Aufgaben eigenständig ausführen können, ohne dass Bildungseinrichtungen und Unternehmen befürchten müssen, gegen Sicherheitsbestimmungen zu verstoßen oder eine möglicherweise teure Reparatur der Maschine einzukalkulieren. »Hantieren« beziehungsweise Steuern können die Trainierenden über einen klassischen VR-Controller.
VR-Contents selbst erstellen
Doch die Vorteile eines VR-Systems zur Berufsvorbereitung oder Weiterbildung kommen nur dann zum Tragen, wenn das System nicht starr auf ein spezifisches Equipment ausgerichtet ist, sondern die Digitalen Zwillinge flexibel an Prozesse und unterschiedliche Maschinentypen angepasst werden können. Aehnelt und sein Team haben ihr Augenmerk deshalb nicht auf die Visualisierung und Animation einzelner VR-Inhalte gelegt, sondern auf die Entwicklung eines umfassenden Baukastens für Autoren und Autorinnen, die damit – selbst ohne Programmierkenntnisse – ihre spezifischen Prozesse, Maschinen, Werkzeuge und Produkte in die dreidimensionale VR-Welt bringen können. »Machine@Hand gibt Lehrerinnen und Lehrern oder Ausbilderinnen und Ausbildern das Werkzeug in die Hand, mit einfachen Mitteln eigene VR-Trainingssequenzen zu erstellen«, betont Aehnelt. Das Vorgehen sei ähnlich unkompliziert wie das Erstellen einer Powerpoint-Präsentation. So können beispielsweise 3D-Modelle des Innenlebens der Maschinen Schritt für Schritt animiert und mit interaktiven Aktionen verknüpft werden. Oder es kann ein Arbeitsplatz in der Automobilproduktion inklusive der auszuführenden Tätigkeiten virtuell abgebildet werden. Die 3D-Modelle selbst – beziehungsweise die Konstruktionsdaten ihrer Bestandteile – sind bei modernen Maschinen in der Regel bereits vorhanden oder können vom Hersteller zur Verfügung gestellt werden. Die Software »versteht« die dabei gängigen Formate. So ist das Einlesen der Daten und die Übernahme in Machine@Hand in der Regel problemlos möglich.
»Wie gut Machine@Hand bereits angenommen wird, zeigt unter anderem die Evaluation an der Berufsschule Müritz, die für ihre wegweisenden Lehrmethoden zur Berufsschule des Jahres 2022 gekürt wurde«, sagt Aehnelt. Hier waren nicht nur die Lehrer*innen in der Verwendung des Systems sehr erfolgreich, sondern auch die Auszubildenden, die neben den Trainings auch selbst die Autorenumgebung des Programms nutzen, um die Mechanik ihrer im Unterricht erstellten CAD-Modelle virtuell zum Leben zu erwecken.
Von Handling bis Lebensrettung
Weitere Bewährungsproben hat Machine@Hand inzwischen auch in vielen anderen Anwendungsbereichen absolviert: im Bereich des Rettungswesens zum Beispiel. Hier wurde das System genutzt, um den Innenraum eines Rettungswagens inklusive des gesamten Equipments virtuell nachzubauen. Richtungsweisend sind Angebote wie diese auch, weil die echten Rettungswagen in der Regel in Bereitschaft stehen und nicht für dezidierte Übungen genutzt werden können.
Ähnlich ist das bei Notfall-Übungen zur Selbstbefreiung von Hubschrauberbesatzungen, beispielsweise bei einem Absturz ins Meer. In der herkömmlichen Ausbildung können solche Extreme nur in einem Hubschrauber trainiert werden, der in einem Wasserbassin versenkt ist. Die Übenden müssen dabei bis an ihre physischen und psychischen Belastungsgrenzen gehen und Panikreaktionen des Körpers überwinden – ohne sich Schritt für Schritt an die Situation zu gewöhnen. Die Abbrecherquoten sind deshalb hoch. In der VR-Umgebung ist das nicht nur anders, die Forscher*innen haben das System zusätzlich noch mit Vitaldatensensoren verknüpft, die die körperliche Verfassung der Übenden überwachen. So können die Trainings individuell an die Belastungsgrenzen der einzelnen Person angepasst und der Schwierigkeitsgrad allmählich gesteigert werden.
Neue Features für neue Trainingsbereiche
»Machine@Hand ist in der Praxis angekommen«, sagt Aehnelt. Fertig mit der Forschung sei sein Team allerdings längst noch nicht. Dafür seien die Möglichkeiten, die eine VR-Trainingsumgebung bietet, zu vielfältig. Es gebe noch zahlreiche zusätzliche Features, die sich sinnvollerweise mit dem System verknüpfen lassen. So entwickelt das Forscher*innenteam aktuell zum Beispiel auch VR-Trainings, bei denen nicht oder nicht nur eine Maschine oder ein Fahrzeug im Zentrum stehen, sondern Avatare. Lernziel ist hier zum einen kooperatives Zusammenarbeiten und zum anderen die Kommunikation mit einem virtuellen, aber KI-gesteuerten »menschlich reagierenden« Gegenüber. Auch beim technischen Equipment des VR-Systems blicken und forschen die Entwickler*innen bereits voraus: Etwa indem sie kamerabestückte VR-Brillen verwenden, um ein Hantieren in der virtuellen Umgebung vollständig ohne Handcontroller zu ermöglichen. Oder sie integrieren Handschuhe und intelligente Kleidungsstücke in das System, die den Übenden haptisches Feedback geben. Oder sie bestücken Werkzeuge oder Werkzug-Dummies – zum Beispiel einen Schraubenschlüssel – mit Sensorik und ermöglichen damit ein nahezu realitätsgleiches Agieren.
(stw)
Experte
Dr. Mario Aehnelt
Fraunhofer-Institut für Graphische Datenverarbeitung IGD