DE102023108376A1 - Verfahren und Vorrichtung zur audiovisuellen Manipulation einer Umgebung, insbesondere einer extraterrestrischen Umgebung - Google Patents

Verfahren und Vorrichtung zur audiovisuellen Manipulation einer Umgebung, insbesondere einer extraterrestrischen Umgebung Download PDF

Info

Publication number
DE102023108376A1
DE102023108376A1 DE102023108376.7A DE102023108376A DE102023108376A1 DE 102023108376 A1 DE102023108376 A1 DE 102023108376A1 DE 102023108376 A DE102023108376 A DE 102023108376A DE 102023108376 A1 DE102023108376 A1 DE 102023108376A1
Authority
DE
Germany
Prior art keywords
environment
objects
acoustic
audiovisual
extraterrestrial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102023108376.7A
Other languages
English (en)
Inventor
Tobias Schwandt
Annika Neidhardt
Stephan Werner
Florian KLEIN
Wolfgang BROLL
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Technische Univ Ilmenau Koerperschaft Des Oeffentlichen Rechts
Technische Universitaet Ilmenau Koerperschaft Des Oeffentlichen Rechts
Original Assignee
Technische Univ Ilmenau Koerperschaft Des Oeffentlichen Rechts
Technische Universitaet Ilmenau Koerperschaft Des Oeffentlichen Rechts
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Technische Univ Ilmenau Koerperschaft Des Oeffentlichen Rechts, Technische Universitaet Ilmenau Koerperschaft Des Oeffentlichen Rechts filed Critical Technische Univ Ilmenau Koerperschaft Des Oeffentlichen Rechts
Publication of DE102023108376A1 publication Critical patent/DE102023108376A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Stereophonic System (AREA)

Abstract

Mit der vorliegenden Erfindung wird vorgeschlagen, mit Hilfe verschiedener Sensoren Parameter einer realen Umgebung zu sammeln, zusammenzuführen, durch eine extraterrestrische Umgebungsrekonstruktion zu einem virtuellen Abbild zu verarbeiten und durch eine funktionelle und akustische Augmentierung der realen Umgebung eine zur realen Umgebung widerspruchsfrei audiovisuell augmentierte Umgebung zu realisieren. Verwendung findet die vorgeschlagene Lösung beispielsweise bei der Wartung, der Instandhaltung und der Fernsteuerung von Maschinen sowie bei der Exploration der Umgebung durch Astronauten außerhalb von (Raum-)Fahrzeugen.

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Manipulation einer Umgebung, insbesondere einer extraterrestrischen Umgebung.
  • Es wird ein Verfahren zur akustischen und optischen Anreicherung/Augmentierung der durch verschiedene Sensoren erfassten Umgebung und der darin befindlichen Objekte für extraterrestrische Einsätze vorgeschlagen. Ein wesentlicher Aspekt dabei ist die Zusammenführung von Sensordaten zur ganzheitlichen Beschreibung und Rekonstruktion einer Umgebung mit darin befindlichen Objekten.
  • Aufgrund des Fehlens einer Atmosphäre im freien Weltraum oder aufgrund von Unterschieden in der Zusammensetzung der Atmosphäre auf einem anderen Himmelskörper, z. B. dem Mars, im Vergleich zur Erde, findet in extraterrestrischen Umgebungen keine oder eine andersartige Übertragung von akustischen Schallereignissen statt. Dies führt dazu, dass die physikalische Umgebung eines Astronauten von dem Astronauten eingeschränkt wahrgenommen wird, da wichtige akustische Rückmeldungen entweder nicht vorhanden oder stark limitiert sind. Dies bezieht sich auf die Wahrnehmung der Umwelt, auf die Wahrnehmung von Objekten und Strukturen sowie auf die Wahrnehmung von anderen Personen in dieser Umgebung.
  • Zudem wirkt die Benutzung von Raumanzügen oder ähnlichen notwendigen Hilfsmitteln limitierend, da neben der Einschränkung der Bewegungsfreiheit auch das Sichtfeld und die räumlichen akustischen Darbietungsmöglichkeiten gegenüber erdgebundenen Tätigkeiten erheblich eingeschränkt sind. Extraterrestrische Umgebungen sind auch durch einen im Vergleich zur Erde verstärkten Hell-Dunkel-Kontrast gekennzeichnet, da kontrastminderndes Streulicht nur in reduziertem Umfang vorhanden ist. Das führt zu einer verzögerten Helligkeitsadaptation beim Wechsel von Licht zu Schatten und zu einer schnelleren Ermüdung. Dies wirkt sich nachteilig auf das situative Bewusstsein und auf die Wahrnehmung der extraterrestrischen Umgebung aus.
  • Ein nicht-technisches Problem ist der Umstand, dass Astronauten verstärkt unter Stress, Angst und Unwohlsein sowie unter Einsamkeit leiden können, was vor allem auch durch die akustische Isolation gegenüber der Außenwelt verstärkt wird.
  • Stand der Technik
  • Obwohl die Lösung der oben genannten Probleme ausschlaggebend für den Erfolg einer bemannten Weltraumexpedition sein kann, wird bisher nur in geringem Umfang an solchen Lösungen gearbeitet.
  • Methoden zur Anreicherung/Augmentierung der Umgebung eines Astronauten sind entweder nicht bekannt oder es werden Ansätze angewendet, bei denen Zustandsänderungen und Informationen durch eine nicht nahtlos in die Umwelt eingebettete audiovisuelle Darstellung erfolgen (bspw. Informationsanzeigen, Pieptöne, Ansagen). Aus dem Stand der Technik sind keine Lösungen bekannt, die eine akustische Anreicherung der Umwelt mit dem Anspruch der nahtlosen Einbettung von virtuellen Objekten in die reale Umgebung adressieren.
  • Die Navigation eines Astronauten erfolgt mittels digitaler 2D-Karten, welche im Helm eingeblendet werden, wobei weitere Parameter und Messwerte zur Überwachung am Display angezeigt werden können. Eine räumliche visuelle Darstellung von Informationen, eingebettet in das Sichtfeld des Astronauten, findet keine Anwendung.
  • Bei den bekannten Lösungen sind akustische Informationen aus der Umgebung nicht verfügbar. Eine Kommunikation findet nur auf klassische Weise statt, ohne die Möglichkeit einer räumlichen akustischen Darstellung von anderen Astronauten.
  • Soweit bekannt, werden keine modernen Darstellungsmöglichkeiten sowie intuitiven Interaktionskonzepte genutzt, sondern konservative Ansätze wie bspw. 2D-Darstellungen, die jedoch den Astronauten die Arbeit erschweren können. Das Hören wird lediglich rudimentär und nicht unter Anwendung des räumlichen Hörens als Informationskanal genutzt: Keine Hörbarkeit der Außenwelt, keine Hörbarkeit von Objekten. Es finden nur unnatürliche Kommunikationslösungen eine Anwendung. Weiterhin wird eine psychische Belastung, welche durch die akustische Isolation des Astronauten von seiner Umwelt hervorgerufen wird, nicht berücksichtigt.
  • Aufgabe der Erfindung
  • Aufgabe der vorliegenden Erfindung ist es deshalb, die reduzierten audiovisuellen Eindrücke, die von einem Astronauten wahrgenommen werden, so aufzubereiten und anzureichern, dass ihm die extraterrestrische Umgebung näherungsweise wie eine erdähnliche Umgebung erscheint, in der er mit anderen Astronauten und Komponenten in gewohnter Weise kommunizieren bzw. interagieren kann. Ferner ist es Aufgabe der vorliegenden Erfindung, die Wartung, die Instandhaltung und teilweise die Fernsteuerung von Maschinen sowie die Exploration der Umgebung durch Astronauten außerhalb von (Raum-)Fahrzeugen durch Bereitstellung der jeweils benötigten Zusatzinformationen effizienter zu machen.
  • Lösung der Aufgabe
  • Die Aufgabe der Erfindung wird gelöst, indem mit Hilfe von Technologien der audiovisuellen Mediated Reality dem Astronauten audiovisuelle Informationen von seiner realen Umgebung, d. h. von der Außenwelt, von Objekten und von anderen Personen als künstlich/virtuell hinzugefügte/augmentierte Informationen bereitgestellt werden. Aufgrund der physikalischen Andersartigkeit der Umwelt des Astronauten im Vergleich zur Erde erfolgt eine technisch vermittelte Darstellung unter Verwendung von Methoden der virtuellen und augmentierten Realität. Die künstliche audiovisuelle Darstellung erfolgt so, dass virtuelle Objekte sich nahtlos/übergangsfrei in die reale Umgebung einbetten. Die so augmentierte Umgebung ist für den Astronauten als eine plausible Einheit wahrnehmbar.
  • Das erfindungsgemäße Verfahren zur audiovisuellen, d. h. akustischen und optischen, Anreicherung/Augmentierung einer realen Umgebung umfasst folgende Schritte:
    1. a) Sensorgestützte Erfassung und Zusammenführung von akustischen und optischen Parametern einer realen Umgebung mit darin befindlichen Objekten und/oder Personen,
    2. b) Akustische und optische Rekonstruktion der realen Umgebung zu einem virtuellen audiovisuellen Abbild,
    3. c) Visuelle und akustische Augmentierung der realen Umgebung zur Realisierung einer zur realen Umgebung widerspruchsfreien audiovisuellen Umgebung.
  • Detaillierte Beschreibung der Lösung
  • Erfindungsgemäß wird vorgeschlagen, mit Hilfe verschiedener Sensoren Parameter einer realen Umgebung, wobei die reale Umgebung eine extraterrestrische Umgebung ist, zu sammeln, zusammenzuführen und durch eine extraterrestrische Umgebungsrekonstruktion (engl.: Extraterrestrial Environment Reconstruction; kurz: EER) zu einem virtuellen Abbild zu verarbeiten.
    • 1 zeigt eine schematische Darstellung der extraterrestrischen Aktivität EA zur Verdeutlichung der Lage eines Moduls zur extraterrestrischen Umgebungsrekonstruktion EER als Bindeglied zwischen dem Astronauten U und seinen Interaktionspartnern I. Der Astronaut interagiert beispielsweise mit baulichen Strukturen (taktile Interaktion) 11, bedient ein Gerät (taktile Interaktion) I2, analysiert die Umgebung I3 oder kommuniziert mit Personen (kommunikative Interaktion) I4 und diese Aktionen werden durch das Modul zur extraterrestrischen Umgebungsrekonstruktion EER registriert und verarbeitet. Auf diese Interaktionen erwartet der Astronaut eine akustische und/oder optische Rückmeldung F1, welche je nach Art der extraterrestrischen Umgebung (z. B. Atmosphäre vorhanden oder nicht) physikalisch nicht existent oder gegenüber der Erwartung von ähnlichen Aktionen auf der Erde verändert ist. Der Astronaut kann daraufhin mit der erweiterten Realität (engl.: Augmented Reality) interagieren und Aktionen F2 ausführen. Durch das Modul zur extraterrestrischen Umgebungsrekonstruktion EER wird dann eine Rückmeldung auf registrierte Aktionen generiert und augmentiert, um den audiovisuellen Erwartungen gerecht zu werden.
    • 2 veranschaulicht die Eingabe, Ausgabe und die Module der extraterrestrischen Umgebungsrekonstruktion für die audiovisuelle Erweiterung in extraterrestrischen Umgebungen.
  • Mit dieser Rekonstruktion können anschließend akustische Umgebungen realisiert, Augmentierungen von virtuellen Objekten ermöglicht oder Umgebungen audiovisuell manipuliert werden.
  • Die oben genannten, für die audiovisuelle Anreicherung/Augmentierung einer realen Umgebung notwendigen, Verfahrensschritte werden nachfolgend anhand von 2 detailliert erläutert.
  • Schritt a): Akustische und optische Parameter einer realen Umgebung und darin befindlicher Objekte und/oder Personen werden mit Hilfe von geeigneten Sensoren erfasst. Die Sensoren umfassen, wie 2 zeigt, optische Tracker I1, RGB-D Kameras (Inside-Out + Outside-In) I2, Mikrofone I3, sowie Drucksensoren, Beschleunigungssensoren und mechanische Tracker, die durch das Symbol „ ... " umfasst werden. Diese Aufzählung ist nicht abschließend. Abhängig von der zu lösenden Aufgabe können weitere Sensoren, z. B. Thermometer und Körperschallsensoren, hinzukommen. Die Erfassung von Objekten umfasst deren Position und Lage, den Zustand (wie bspw. aus-/eingeschaltet, Akkustand, Kraft), deren Luftschallaussendung, Körpervibrationen, die Objektart, ihre Geometrie und Materialart. Dahingegen umfasst die sensorische Erfassung der realen Umgebung den Luftschall, den Luftdruck, die Temperatur und die Umgebungsart (wie bspw. Wüste, Wald, offene Umgebung, geschlossene Umgebung), die Umgebungsbedingungen (wie bspw. Wetter, Wind), eine 3D-Rekonstruktion, Materialeigenschaften, vorhandene Lichtquellen (Punkt- und Flächenlichtquellen), Schatten und Verdeckungen. Dabei können die hierfür erforderlichen Sensoren an den Raumanzügen der Astronauten vor Ort sowie an Objekten in der unmittelbaren Umgebung der Astronauten sowie in oder an anderen Objekten in größerer Entfernung zum Einsatzort (bspw. Satelliten, Drohnen, Gebäuden) platziert sein. Die sensorische Erfassung aller Parameter erfolgt kontinuierlich, sodass nicht nur ein statischer Zustand, sondern dynamische Zustandsänderungen in der realen Umgebung erfasst werden. In der realen Umgebung ablaufende Vorgänge werden somit als Funktion der Zeit erfasst.
  • Die erfassten akustischen und optischen Parameter sowie weitere erfasste Parameter, z. B. Windstärke, Luftdruck, Temperatur, werden computergestützt in einem Datenmanager IM zusammengeführt. Der Datenmanager IM wird durch ein Embedded System D1 betrieben, welches Teil des Raumanzugs ist und eine kontinuierliche Verbindung zu den Sensoren aufrechterhält. Seitens der Hardware ist dies ein Einplatinencomputer, der nicht größer als eine Kreditkarte ist, mit Schnittstellen für die Sensoren. Seitens der Software werden über die Schnittstellen die Daten empfangen, vorverarbeitet, komprimiert und über eine kabellose Verbindung F1 an ein computergestütztes Modul zur extraterrestrischen Umgebungsrekonstruktion EER übertragen.
  • Schritt b): Mittels des computergestützten Moduls zur extraterrestrischen Umgebungsrekonstruktion EER, das mit dem Datenmanager IM verbunden ist, erfolgt die akustische und optische Rekonstruktion der realen Umgebung zu einem virtuellen audiovisuellen Abbild.
  • Das Modul zur extraterrestrischen Umgebungsrekonstruktion EER ist eine Workstation mit ausreichend Leistung für die Berechnung und Verarbeitung der von den Sensoren gelieferten Daten. Durch die Nutzung leistungsstarker CPUs und Grafikkarten werden die Daten verarbeitet und u. a. zur Erstellung einer Szenenbeschreibung C1, einer 3D-Rekonstruktion C2, zur Analyse von Lichtquellen C3 oder zur Zustandsdetektion von Geräten genutzt. Diese Liste ist nicht abschließend und kann beliebig erweitert werden.
  • Auf der Workstation sind in einer Datenbank D2 Massendaten gespeichert, welche nutzbare Daten (Töne, 3D-Modelle, Materialien, Anleitungen u. a.) umfassen mit typischen terrestrischen Audio- und Videosignalen für alle in der realen Umgebung vorhandenen Objekte und Personen sowie für die ablaufenden Vorgänge für eine audiovisuelle Visualisierung zur Unterstützung des Nutzers. In Abhängigkeit von den gemessenen Parametern werden den Objekten, Personen und Vorgängen akustische und optische Signale aus der Datenbank zugeordnet oder synthetisiert, wie sie in einer terrestrischen Umgebung zu erwarten wären. Daraus resultiert ein virtuelles audiovisuelles Abbild der realen Umgebung, das als Grundlage für die akustische und optische Augmentierung der realen Umgebung dient.
  • Schritt c): Verarbeitete Daten vom Modul zur extraterrestrischen Umgebungsrekonstruktion EER werden dann zurück zum Astronauten übertragen und unterliegen dort einer visuellen Aufbereitung F2 und Verräumlichung F3. Bei der visuellen und akustischen Augmentierung der realen Umgebung zur Realisierung einer zur realen Umgebung widerspruchsfreien audiovisuell augmentierten Umgebung werden die im vorangehenden Schritt zugeordneten akustischen und optischen Signale nun in der realen Umgebung reproduziert, sodass eine zur realen Umgebung widerspruchsfrei audiovisuell augmentierte Umgebung realisiert wird.
  • Die optische Reproduktion der augmentierten Umgebung sowie der augmentierten Objekte in der Umgebung wird mit Hilfe einer stereoskopischen 3D-Wiedergabe unter Anwendung von display- oder projektionsbasierter Videowiedergabe realisiert. Dies erfolgt durch ein im Helm integriertes Head-Mounted Display D3, welches die Sicht des Astronauten durch virtuelle Einbettungen erweitert, wodurch ein visuelles AR V1 entsteht.
  • Die akustische Reproduktion der augmentierten Umgebung sowie der augmentierten Objekte in der Umgebung wird mit Hilfe einer binauralen Audiowiedergabe unter Anwendung von Kopfhörern oder Lautsprechern D4 realisiert. Durch die Verräumlichung der Töne entsteht ein auditives AR V2. AR steht in beiden Fällen für Augmented Reality.
  • Für die funktionelle Augmentierung der Umgebung wurden aufgabengetriebene Szenarien O1, O2, O3, ... entwickelt. Diese umfassen eine 3D-Navigation O1, eine Darstellung eines oder mehrerer virtueller Begleiter (Companions) O2, eine Augmentierung von Geräten und Gerätezuständen, Maschinen sowie Strukturen O3 und/oder eine Darstellung von Umwelteigenschaften, wobei diese Liste nicht abschließend ist.
  • Die akustische Augmentierung in einer extraterrestrischen Umgebung wird mittels einer auf Rekonstruktion basierenden Sonifikation (Hörbarmachung) von nicht vorhandenem Schall (im Weltall) oder aufgrund des Raumanzugs nicht hörbaren Schalls realisiert. Entsprechend der Objektart werden den Objekten Audiosignale aus einer Datenbank zugeordnet oder vom System synthetisiert. Entsprechend dem Objektstatus (Ort, Bewegungsgeschwindigkeit, Vibrationen oder Schall, aufgenommen durch Sensoren, direkt übertragene Information vom Objekt usw.) werden die Audiosignale moduliert. Zusätzlich wird eine Sonifikation auch für die Kollision von Objekten durchgeführt, um beispielsweise Schritte oder Berührungen mit einem Audiosignal zu versehen. Darüber hinaus werden je nach Aufgabe des Astronauten auch Ereignisse und Objekte akustisch synthetisiert, welche keinen Schall im hörbaren Frequenz- und Pegelbereich erzeugen, um die Orientierung und das Situationsbewusstsein zu verbessern.
  • Vorteile der Erfindung
  • Die Erfindung erlaubt es, folgende vorteilhafte Wirkungen zu realisieren:
    • • Sonifikation (Hörbarmachung) von Geräten und Gerätezuständen oder anderen informationstragenden Ereignissen (z. B.: Positionen und Bewegung von Objekten, Kollision von Objekten, potentiell gefährliche Situationen). Durch die Sonifikation von real nicht hörbaren Ereignissen, wie z. B. aktuell nicht sichtbare Objekte oder Vibrationen/Schwingungen außerhalb des menschlichen Hörbereichs (aufgenommen beispielsweise durch Sensoren in den Schuhen), können Fehler und Gefahren vermieden werden sowie neue Wege der Exploration erschlossen werden.
    • • Verbesserte Kommunikation von Astronauten in der Nähe durch korrekte Lokalisation
    • • Visuelle Darstellung von Informationen im 3D-Raum z. B. in Form eines digitalen Kompasses zur Navigation oder in Form visueller Hervorhebungen bestimmter Bauteile und Aufgaben
    • • Audiovisuelle Darstellung von Avataren, gesteuert durch entfernte Personen und/oder durch rechnergestützte Automatisierungen
  • Die Vorteile der Erfindung werden nachfolgend mit Hilfe von Anwendungsbeispielen verdeutlicht:
    • Ein virtueller Avatar (z. B. als Verkörperung eines physisch entfernten Mitarbeiters aus dem Kontrollzentrum) wird eingeblendet und entsprechend seiner Richtung und Distanz visualisiert und auralisiert, um gemeinsam ein Problem zu beheben; Durch die Rekonstruktion der Umgebung durch das Modul zur extraterrestrischen Umgebungsrekonstruktion EER in Form einer virtuellen Szene mit 3D-Geometrien (3D-Modelle), Materialien für Physically Based Rendering (PBR) - einer Technik zur Erzeugung fotorealistischer 3D-Grafiken - und Beleuchtungsdaten (Lichtstärke, Umgebungslicht, Lichtquellen) und Umgebungsdaten (Innenraum, Außenraum, Halligkeit, ...), können Avatare realistisch audiovisuell in die Umgebung eingefügt werden; Vorteil: Die Person vor Ort fühlt sich nicht allein und kann auf Expertise einer entfernten Person und/oder auf rechnergestützte Informationen zurückgreifen.
  • Bei der Reparatur einer Maschine (z. B. eines Mars Rovers) werden die Zustände der verwendeten Werkzeuge (z. B. Drehzahl eines Akkuschraubers) und Maschinen dargestellt und hörbar gemacht; Die Daten werden vom Gerät übermittelt oder wenn notwendig durch eine Analyse des Videostreams durch die Nutzung von Computer-Vision-basierten Ansätzen ermittelt; Vorteil: Es können Fehler bei der Reparatur vermieden werden und Geräusche, welche auf eine Fehlfunktion von Bauteilen oder Maschinen zurückzuführen sind, können beurteilt werden.
  • Eine reale visuelle Szene wird mit virtuellen Informationen perspektivisch korrekt angereichert; Vorteil: direkte Darstellung von Problemen am Punkt des Problems durch eine geometrische Registrierung virtueller Objekte.
  • Durch die Verwendung zahlreicher Sensordaten (Tiefenkameras, Körperschallmikrofone, Beschleunigungssensoren u. v. m.) wird eine virtuelle Simulation akustisch und visuell aufbereitet (mittels EER) um den Wahrnehmungshorizont eines Astronauten zu erweitern und diesen so bei seinen Aufgaben zu unterstützen (siehe 1 und 2). Diese Simulation ist speziell für den Einsatz in extraterrestrischen Umgebungen konzipiert. Wesentlich dabei ist auch die Generierung von Geräuschen (z. B. Umgebungsgeräuschen), welche das Wohlbefinden der Astronauten verbessern und deren Einsamkeit vermindern sollen.
  • Die Erfindung unterstützt ein sicheres und intuitives Arbeiten durch Reduktion der Komplexität (Informationen sind in die reale Szene eingebettet und werden nicht auf einem separaten Monitor/Audiokanal wiedergegeben). Das situative Bewusstsein (situational awareness) wird verbessert und Stress sowie Ängste werden reduziert.
  • Die Erfindung ist nicht auf den Einsatz in extraterrestrischen Umgebungen beschränkt. Auch auf der Erde existieren, permanent oder temporär, eine Vielzahl von Umgebungen, die ähnlich lebensfeindlich wie extraterrestrische Umgebungen sind und als kritische Umgebungen bezeichnet werden können. Unter einer kritischen Umgebung wird hier eine Umgebung verstanden, in welcher ein menschlicher Akteur ohne eine hermetische oder teilweise hermetische Abschirmung mittels einer Schutzausrüstung nicht überleben kann oder zumindest einem erheblichen Risiko für Gesundheit und Leben ausgesetzt ist.
  • Beispiele für solche Umgebungen und damit verbundene Aktivitäten sind:
    • • atmosphärische Umgebungen in großer Höhe (Höhenbergsteigen),
    • • unterseeische Umgebungen (Tauchen in Tiefen jenseits der Grenze, die von einem Apnoe-Taucher erreichbar ist, d. h. Tiefen von mehr als 100 m),
    • • Umgebungen in einer Ausnahmesituation (z. B. Vor-Ort-Rettungseinsätze bei Chemie-Unfällen, Großfeuern in Gebäuden, Industrieanlagen, großflächigen Waldbränden).
  • Der Fachmann kann diese nicht abschließende Liste beliebig erweitern.
  • Das erfindungsgemäße Verfahren zur audiovisuellen Manipulation und Augmentierung einer extraterrestrischen Umgebung und die zugehörige Vorrichtung können durch den Fachmann problemlos für den Einsatz in solchen kritischen Umgebungen angepasst werden.

Claims (10)

  1. Verfahren zur audiovisuellen Manipulation und Augmentierung einer Umgebung umfassend folgende Schritte: • Erfassung und Zusammenführung von akustischen und optischen Parametern einer realen Umgebung mit darin befindlichen Objekten und/oder Personen, • Akustische und optische Rekonstruktion der realen Umgebung zu einem virtuellen audiovisuellen Abbild, • Visuelle und akustische Augmentierung der realen Umgebung zur Schaffung einer zur ersten Umgebung widerspruchsfreien audiovisuellen Umgebung.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die audiovisuell augmentierte Umgebung eine an die jeweils zu lösende Aufgabe angepasste Modifikation der realen Umgebung ist, bei der die audiovisuelle Darstellung von Objekten oder Ereignissen gezielt hervorgehoben oder vereinfacht wird.
  3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die reale Umgebung eine extraterrestrische Umgebung ist.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die akustische Augmentierung mittels einer auf Rekonstruktion basierenden Sonifikation von nicht vorhandenem oder nicht hörbarem Schall realisiert wird, wobei einzelnen Objekten in der Umgebung in Abhängigkeit von der Umgebungs- und Objektart Audiosignale aus bestehenden Datenbanken zugeordnet und moduliert werden.
  5. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die funktionelle Augmentierung der Umgebung sowie der Objekte zur 3D-Navigation in der Umgebung aufgabenbasiert realisiert wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die augmentierte Umgebung sowie die augmentierten Objekte in der Umgebung mit Hilfe einer binauralen Audiowiedergabe unter Verwendung von Kopfhörern oder Lautsprechern akustisch reproduziert werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die augmentierte Umgebung sowie die augmentierten Objekte in der Umgebung mit Hilfe einer stereoskopischen 3D-Wiedergabe unter Anwendung von display- oder projektionsbasierter Videowiedergabe optisch reproduziert werden.
  8. Vorrichtung zur Durchführung eines Verfahrens nach Anspruch 1 bis 7, aufweisend: • eine Anordnung von in einer realen Umgebung positionierten Sensoren (I1, I2, I3, ...) zur kontinuierlichen Erfassung der Art der Umgebung, der Umgebungsbedingungen und der in der Umgebung agierenden Objekte und Personen, • Mittel zur, vorzugsweise drahtlosen, Übermittlung von Sensordaten an einen computergestützten Datenmanager (IM), • einen computergestützten Datenmanager (IM), der von einem Embedded System (D1) betrieben wird, welches Teil eines Raumanzugs ist, und der zum Empfang, zur Zusammenführung und zur Weiterleitung der Sensordaten an ein Modul zur extraterrestrischen Umgebungsrekonstruktion (EER) ausgelegt ist, • ein Modul zur extraterrestrischen Umgebungsrekonstruktion (EER), ausgestaltet als Workstation, aufweisend eine Datenbank (D2), die terrestrische akustische und visuelle Signale für in einer realen Umgebung ablaufende Vorgänge enthält, das zum Empfang und zur Verarbeitung der Sensordaten und zur Auswahl geeigneter Signale aus der Datenbank (D2) für eine akustische und optische Rekonstruktion der realen Umgebung zu einem virtuellen audiovisuellen Abbild ausgelegt ist, • Mittel zur Übertragung des mit terrestrischen Signalen aus der Datenbank (D2) oder synthetisierten Signalen angereicherten virtuellen audiovisuellen Abbilds an einen menschlichen Akteur, sodass diesem ein vertrauter terrestrischer Eindruck von der realen Umgebung vermittelt wird und er in die Lage versetzt wird, in aufgabengetriebenen Szenarien (O1, O2, O3, ...) zu agieren.
  9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die Mittel zur Übertragung des mit terrestrischen Signalen aus der Datenbank oder synthetisierten Signalen angereicherten virtuellen audiovisuellen Abbildes Head-Mounted-Displays (D3), Kopfhörer und/oder Lautsprecher (D4) sind, die zur stereoskopischen 3D-Wiedergabe bzw. zur binauralen Audiowiedergabe ausgelegt sind.
  10. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die aufgabengetriebenen Szenarien eine 3D-Navigation (O1), eine Darstellung eines oder mehrerer virtueller Begleiter (O2), eine Augmentierung von Geräten und Gerätezuständen, Maschinen sowie Strukturen (O3) und/oder eine Darstellung von Umwelteigenschaften umfassen.
DE102023108376.7A 2022-03-31 2023-03-31 Verfahren und Vorrichtung zur audiovisuellen Manipulation einer Umgebung, insbesondere einer extraterrestrischen Umgebung Pending DE102023108376A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022107728 2022-03-31
DE102022107728.4 2022-03-31

Publications (1)

Publication Number Publication Date
DE102023108376A1 true DE102023108376A1 (de) 2023-10-05

Family

ID=88018887

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023108376.7A Pending DE102023108376A1 (de) 2022-03-31 2023-03-31 Verfahren und Vorrichtung zur audiovisuellen Manipulation einer Umgebung, insbesondere einer extraterrestrischen Umgebung

Country Status (1)

Country Link
DE (1) DE102023108376A1 (de)

Similar Documents

Publication Publication Date Title
EP1451652B1 (de) System und verfahren zur erstellung einer dokumentation von arbeitsvorgängen zur darstellung in einem augmented-reality-system
DE10063089C1 (de) Anwendergesteuerte Verknüpfung von Informationen innerhalb eines Augmented-Reality-Systems
Vince Essential virtual reality fast: how to understand the techniques and potential of virtual reality
US20180324229A1 (en) Systems and methods for providing expert assistance from a remote expert to a user operating an augmented reality device
DE60225933T2 (de) Tragbare virtuelle realität
CN112150885B (zh) 基于混合现实的驾驶舱系统及场景构建方法
DE112016004640T5 (de) Filmische bearbeitung für virtuelle realität und erweiterte realität
DE102005011126A1 (de) Generierung virtueller Welten auf Basis einer realen Umgebung
KR102032831B1 (ko) 낙하산을 이용한 항공기 조종사 비상탈출 훈련용 시뮬레이터 시스템
CN108268128A (zh) 一种安全生产应急预案3dvr虚拟现实演练系统
US9076345B2 (en) Apparatus and method for tutoring in convergence space of real and virtual environment
DE112018006666T5 (de) Informationsverarbeitungsgerät, informationsverarbeitungsverfahren und programm
DE102016206154A1 (de) Verfahren und Vorrichtung zum Generieren eines Bildsignals und Anzeigesystem für ein Fahrzeug
DE102018106108A1 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE19731724A1 (de) Verfahren zum Kontrollieren eines unbemannten Fortbewegungsmittels und unbemanntes Fortbewegungsmittelsystem zum Durchführen dieses Verfahrens
CN108492633A (zh) 一种利用ar实现儿童辅助教育的方法
DE102023108376A1 (de) Verfahren und Vorrichtung zur audiovisuellen Manipulation einer Umgebung, insbesondere einer extraterrestrischen Umgebung
EP1262213A1 (de) Verfahren zur Ortung eines Gegenstandes, einer Person und/oder eines Teiles davon
DE102004021379B4 (de) Bedien- und Beobachtungssystem für industrielle Anlagen und Verfahren
US20050201576A1 (en) Mars suit external audion system
Wenzel et al. Spatial auditory displays: Substitution and complementarity to visual displays
EP3649539A1 (de) Visuelles ausgabegerät mit einer kamera und präsentations-verfahren
Godfroy et al. Human dimensions in multimodal wearable virtual simulators for extra vehicular activities
KR20190036368A (ko) 가상현실과 상호작용되는 사운드 시각화 시스템 및 방법
DE102022108224A1 (de) Verfahren, computerprogramm und vorrichtung zum vermitteln von umgebungsinformationen an einen nutzer, sowie nutzergerät

Legal Events

Date Code Title Description
R086 Non-binding declaration of licensing interest
R012 Request for examination validly filed