Springe zum Inhalt

Unity

Augmented Reality-Tracking-Methoden

Erstellung verschiedener Anwendungen für die Vuzix M300 und die Microsoft HoloLens 1

“Wie kann ich für eine Augmented-Reality-Brille eine App entwickeln und welche Brille eignet sich für welche Anwendungszwecke?” Hier geht es zur Webseite!

Sind wir ehrlich – Anleitungen und Pläne auf Papier sind nicht mehr ganz zeitgemäß. Der Trend geht dahin, Gebrauchsanweisungen multimedial aufzubereiten und perfekt an die Zielgruppe anzupassen. Durch Augmented-Reality lässt sich die Realität geschickt zu unserem Vorteil erweitern. Daraus ergeben sich auch neue Möglichkeiten für den Bereich der Technischen Redaktion. „Augmented Reality schlägt eine Brücke zwischen der Online- und Offline-Welt. Mit Tablets, Smartphones und Wearables wird die Technologie praxistauglich.“ (TWT Interactive GmbH 2021)

Schon jetzt gibt es diverse Anwendungsbeispiele der AR-Technologie wie z. B. das künstliche Einrichten von Wohnungen, die Darstellung dreidimensionaler Animationen oder die Verwendung virtueller Montageanleitungen.
Für die Projektarbeit der Veranstaltung T3B731 Multimedia werden mithilfe von Unity verschiedene Augmented-Reality-Applikationen entwickelt. Diese werden auf zwei unterschiedliche Augmented-Reality-Brillen gespielt. Somit kann der/die Nutzer:in diese Applikationen auf der Vuzix M300 oder der Microsoft HoloLens 1 anwenden.

Betrachtung durch die Vuzix M300: QR-Code wird getrackt und ein Würfel wird virtuell eingesetzt

Projektziel

Ziel der Projektarbeit war es, die Anwendungsentwicklung für die beiden Brillen zu untersuchen. Zu Beginn des Projektes wurden Grundfunktionalitäten festgelegt, auf die wir die Brillen untersuchen wollen. Je nach Projektfortschritt wurde der App-Umfang iterativ um Funktionalitäten erweitert.

Das Trackingobjekt „Viking Lander“ wird mit der Microsoft HoloLens 1 betrachtet

Die Erkenntnisse aus der Applikationsentwicklung wurden über Lernmaterialien zugänglich gemacht. Somit profitieren nicht nur wir, sondern auch zukünftige Lernende und Anwender:innen von unserer Arbeit. Um die Arbeitsschritte nachvollziehen zu können wurde eine Webseite erstellt, welche die gesamte Vorgehensweise abbildet und zum Nachahmen auffordert. Die Webseite wurde mit dem Web-Content-Management-System WordPress erstellt.

Das Trackingobject „Drehleiter“ wird gescannt und mit der Vuzix M300 betrachtet.
  • Zeitraum: Wintersemester 2021/2022
  • Tools: Vuforia, Unity, c#, Vuzix M300, Microsoft HoloLens 1
  • Personen: Patrick Rannacher, Marthe Schlösser, Julia Telatinski, Luca Weishäupl

Hier geht es zur Webseite!

Virtuelle Planeten Tour

In der Planeten-Tour sind die folgenden Himmelskörper dargestellt: Sonne, Merkur, Venus, Erde, Erdmond, Mars, Jupiter, Saturn, Uranus, Neptun und ein schwarzes Loch. Die Planeten stehen in korrektem Größenverhältnis und korrekter Distanz zueinander und rotieren in entsprechender Geschwindigkeit um ihre eigene Achse.

Die Planeten-Tour startet mit einer kurzen Einführung zur Bedienung der Controller. Mit einem Klick auf den Start-Button kann die Tour dann gestartet werden. Der Spieler befindet sich im Weltall. Vor sich sieht er eine Art Laufsteg, den er entlanglaufen kann. Rechts und links befinden sich in korrekter Reihenfolge die Planeten unseres Sonnensystems. Hinter dem Spieler befindet sich die Sonne. Mit Hilfe eines Teleports kann sich der Spieler entlang der Planeten auf dem festgelegten Laufsteg fortbewegen.

Erstellung der Infopanels und interaktiven Buttons

Jeder Himmelskörper hat ein Namenslabel und darunter ein Button, mit welchem per Klick des Controllers ein Informationspanel geöffnet wird. Auf dem Panel lassen sich Informationen sowie je ein Funfact zum jeweiligem Himmelskörper lesen. Mit einem weiteren Klick auf den Button schließt sich das Panel wieder. Zudem wird die Atmosphäre durch entsprechende Musik unterstützt.

Erzeugen des Spielerumfelds in der Spiele-Engine Unity
  • Zeitraum: Wintersemester 2021/2022
  • Tools: Oculus Quest 2, Unity, c#
  • Personen: Nadine Blinzler, Cecile Boschert, Victoria Hermann, Antonia Kritzer

Erste-Hilfe-Handlung in einer VR-Anwendung als Serious Game darstellen

Mit dieser VR-Anwendung soll das Erlernen einer korrekten Durchführung der Stabilen Seitenlage ohne Kontaktaufnahme erleichtern und dabei spannend und langfristiges Wissen vermitteln. Die Umsetzung der VR-Anwendung ist hier zu sehen.

Auch virtuell können den Nutzern die Handgriffe der stabilen Seitenlage gezeigt und beigebracht werden. Durch die digitale Darstellung ist das Erste-Hilfe-Training nicht örtlich gebunden, erfordert keine feste Terminbuchung und kommt ohne begrenzte Teilnehmeranzahl daher. Des Weiteren werden weder Dummies noch weitere freiwillige Personen benötigt.

Startleinwand aus der Perspektive des Spielers

Die digitale Darstellung erlaubt eine Erweiterung und Aktualisierung, sollten sich Gesetze ändern und neue Schulungsinformationen veröffentlicht werden. Das realistische Szenario kann spielerisch in einem Serious Game erfahrbar gemacht werden. Die Interaktivität soll dabei helfen, sich die Schritte besser merken zu können.

Das Serious Game kann jeder Zeit pausiert oder unterbrochen werden und dann weitergeführt werden, wenn der Spieler wieder neue Informationen aufnehmen möchte.

Erstellung der Animation, einzelne Gelenke durch „Blasen“ dargestellt sind ansteuerbar

Die VR-Anwengung wurde mittels Spieleengine Unity erstellt. Damit das Model eine realistische Physik besitzt, wurde der in Unity eingebaute „Ragdoll Wizard” benutzt. Mit dem „Ragdoll Wizard” werden die einzelnen Gliedmaßen/Bones des Models ausgewählt und Unity belegt diese dann mit den „Rigidbody”, „Collider” und „Character Joint”-Komponenten.

  • Zeitraum: Wintersemester 2021/2022
  • Tools: Unity, Oculus Rift
  • Programmiersprache: c#
  • Personen: Aaren McCall, Alicia Rieger, Birte Schönhals, Bryan Teubner

Die Umsetzung der VR-Anwendung ist hier zu sehen.

Consent Management Platform von Real Cookie Banner