DE102020101746A1 - Verfahren zur Nutzerinteraktionserfassung von einem Nutzer in einer virtuellen Umgebung - Google Patents

Verfahren zur Nutzerinteraktionserfassung von einem Nutzer in einer virtuellen Umgebung Download PDF

Info

Publication number
DE102020101746A1
DE102020101746A1 DE102020101746.4A DE102020101746A DE102020101746A1 DE 102020101746 A1 DE102020101746 A1 DE 102020101746A1 DE 102020101746 A DE102020101746 A DE 102020101746A DE 102020101746 A1 DE102020101746 A1 DE 102020101746A1
Authority
DE
Germany
Prior art keywords
user
indicative
value
probability
virtual environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020101746.4A
Other languages
English (en)
Inventor
Turgay Isik Aslandere
Ke Fan
Frederik De Smet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Priority to DE102020101746.4A priority Critical patent/DE102020101746A1/de
Priority to US17/149,035 priority patent/US20210232289A1/en
Priority to CN202110068381.7A priority patent/CN113176822A/zh
Publication of DE102020101746A1 publication Critical patent/DE102020101746A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Einlesen von einer Mehrzahl von Trainings-Datensätzen (TDS) repräsentativ für Nutzerinteraktionen des Nutzers (4) in einer realen Umgebung (8),
Trainieren eines künstlichen neuronalen Netzes (14) mit den Trainings-Datensätzen (TDS) ,
Beaufschlagen des trainierten künstlichen neuronalen Netzes (14) mit einem Nutzer-Datensatz (NDS) repräsentativ für eine Nutzerinteraktion des Nutzers (4) in der virtuellen Umgebung (6) um einen Wert (W1, W2, W3, W4, W5, W6) indikativ für eine Wahrscheinlichkeit für ein ausgewähltes Objekt (12a, 12b, 12c, 12d, 12e, 12f) in der virtuellen Umgebung (6) bestimmen,
Bestimmen eines durch die Nutzerinteraktion ausgewählten Objektes (12a, 12b, 12c, 12d, 12e, 12f) in der virtuellen Umgebung (6) durch Auswerten zumindest des Wertes (W1, W2, W3, W4, W5, W6) indikativ für eine Wahrscheinlichkeit, und
Bestimmen eine Manipulation des Objektes (12a, 12b, 12c, 12d, 12e, 12f) durch den Nutzer (4).

Description

  • Die Erfindung betrifft ein Verfahren zur Nutzerinteraktionserfassung von einem Nutzer in einer virtuellen Umgebung. Ferner betrifft die Erfindung ein Computerprogrammprodukt und ein System für eine derartige N utzerinteraktionserfassu ng.
  • Als virtuelle Realität, kurz VR, wird die Darstellung und gleichzeitige Wahrnehmung der Wirklichkeit und ihrer physikalischen Eigenschaften in einer in Echtzeit computergenerierten, interaktiven virtuellen Umgebung bezeichnet.
  • Die virtuelle Umgebung wird von einer Echtzeit-Rendering-Engine bereitgestellt, die einen auf Rasterung (Tiefenpuffer) basierenden Rendering-Ansatz wie OpenGL oder einen auf Raytracing basierenden Ansatz zur Erstellung der virtuellen Umgebung verwendet. Dies kann z.B. in eine Game Engine wie Unity3d oder Unreal eingebettet sein.
  • Die virtuelle Umgebung kann mit verschiedenen Anzeigesystemen, wie z.B. Head Mounted Displays (HMD) oder projektionsbasierten Systemen (z.B. CAVEs) einem Nutzer visualisiert werden. Je nach visueller Ausgabe kann die virtuelle Umgebung in verschiedenen Computerumgebungen (GPU-Cluster, Einzelarbeitsplatz mit mehreren GPUs oder ein Laptop) erfolgen. Parallel werden Tracking-Daten von Körperteilen eines Nutzers, wie seines Kopfes und/oder seiner Hände bzw. Finger, z.B. von einem Infrarot-Tracking-System wie Leap Motion, HTC Vive-Sensoren oder Intel RealSense erfasst. Die Tracking-Daten können die Position des Nutzers und seiner Körperteile umfassen.
  • Mit einem derartigen Infrarot-Tracking-System ist ein markierungsfreies Finger-Tracking möglich, so dass der Nutzer keine zusätzliche Hardware, wie z.B. einen Datenhandschuh, tragen muss.
  • Nutzerinteraktionen von einem Nutzer mit virtuellen Objekten in der virtuellen Umgebung sind notwendig, wenn nicht alle Objekte durch ein Mock-up dargestellt werden können. Eine der gängigsten und natürlichsten Methoden zur Nutzerinteraktion mit den virtuellen Objekten ist die virtuelle Handmetapher. Allerdings sind Nutzerinteraktionen von einem Nutzer mit den virtuellen Objekten in der virtuellen Umgebung, die die virtuelle Handmetapher verwenden, schwierig, insbesondere wenn in der virtuellen Umgebung Verkehrssituationen simuliert werden. Dies liegt daran, dass die virtuellen Objekte meist nicht mit einem physischen Objekt oder Mock-up dargestellt werden und es daher an natürlicher Rückmeldung und eingeschränkter Sicht in der virtuellen Umgebung fehlt. Bekannte Verfahren zur Nutzerinteraktion bieten jedoch keine sehr genauen Interaktionen.
  • Aus der US 2017 0161555 A1 ist ein Verfahren zur Nutzerinteraktionserfassung von einem Nutzer in einer virtuellen Umgebung bekannt, bei dem ein rekurrentes neuronales Netz verwendet wird, das mit Trainings-Datensätzen repräsentativ für Nutzerinteraktionen des Nutzers in einer realen Umgebung trainiert wurde.
  • Aus der CN 109 766 795 A und der US 10 482 575 B2 sind weitere Verfahren zur Nutzerinteraktionserfassung von einem Nutzer in einer virtuellen Umgebung bekannt.
  • Es besteht Bedarf daran, Wege aufzuzeigen, wie eine Nutzerinteraktionserfassung von einem Nutzer in einer virtuellen Umgebung verbessert werden kann.
  • Die Aufgabe der Erfindung wird gelöst durch ein Verfahren zur Nutzerinteraktionserfassung von einem Nutzer in einer virtuellen Umgebung, mit den Schritten:
    • Einlesen von einer Mehrzahl von Trainings-Datensätzen repräsentativ für Nutzerinteraktionen des Nutzers in einer realen Umgebung,
    • Trainieren eines künstlichen neuronalen Netzes mit den Trainings-Datensätzen,
    • Beaufschlagen des trainierten künstlichen neuronalen Netzes mit einem Nutzer-Datensatz repräsentativ für eine Nutzerinteraktion des Nutzers in der virtuellen Umgebung um einen Wert indikativ für eine Wahrscheinlichkeit für ein ausgewähltes Objekt in der virtuellen Umgebung bestimmen,
    • Bestimmen eines durch die Nutzerinteraktion ausgewählten Objektes in der virtuellen Umgebung durch Auswerten zumindest des Wertes indikativ für eine Wahrscheinlichkeit, und
    • Bestimmen eine Manipulation des Objektes durch den Nutzer.
  • Mit anderen Worten, es wird ein trainiertes künstliches neuronales Netz verwendet, das in einer vorgeschalteten Trainingsphase mit in einer realen Umgebung gewonnenen Trainings-Datensätzen trainiert wurde. Dabei stellt das trainierte künstliche neuronale Netz einen Wert indikativ für eine Wahrscheinlichkeit für eine Auswahl eines Objektes in der virtuellen Umgebung durch den Nutzer bereit. Die eigentliche Bestimmung des ausgewählten Objektes erfolgt erst in einem weiteren Schritt durch Auswertung des Wertes für die Wahrscheinlichkeit. Eine Manipulation des Objektes durch den Nutzer erfolgt dann in einem weiteren Schritt. Es wird also das trainierte künstliche neuronale Netz genutzt um vorab eine Bestimmung eines ausgewählten Objektes durchzuführen bevor eine Manipulation des Objektes durch den Nutzer erfasst wird. So wird durch den Einschub von Zwischenschritten, die ein trainiertes künstliches neuronales Netz in das Verfahren einbinden einen Nutzerinteraktionserfassung von einem Nutzer in einer virtuellen Umgebung verbessert.
  • Gemäß einer Ausführungsform wird als künstliches neuronales Netz ein rekurrentes neuronales Netz verwendet. Dabei werden unter rekurrenten bzw. rückgekoppelten neuronalen Netzen neuronale Netze verstanden, die sich im Gegensatz zu Feedforward-Netzen durch Verbindungen von Neuronen einer Schicht zu Neuronen derselben oder einer vorangegangenen Schicht auszeichnen. Beispiele für solche rekurrente neuronale Netze sind das Elman-Netz, das Jordan-Netz, das Hopfield-Netz, sowie das vollständig verschaltete neuronale Netz und das LSTMs (long short-term memory, deutsch: langes Kurzzeitgedächtnis). Mit derartigen rekurrenten neuronalen Netzen können besonders gut Sequenzen, wie Bewegungsabläufen- bzw. -sequenzen von Gesten, wie z.B. Handbewegungen eines Nutzers, ausgewertet werden.
  • Gemäß einer weiteren Ausführungsform sind die Mehrzahl von Trainings-Datensätzen Trajektorie-Daten indikativ für Kopf- und/oder Handpositionen und/oder -orientierungen. Kopfpositionen und -orientierungen werden dabei als Indikativ für eine Blickrichtung des Nutzers angesehen. Die Erfassung der Kopfpositionen und -orientierungen kann mit einem HMI erfolgen, das z.B. als Virtual-Reality-Headset ausgebildet ist. Die Handpositionen und/oder - orientierungen hingegen werden als indikativ für Gesten, wie z.B. Greifbewegungen oder Berührvorgänge zum Betätigen von Schaltern oder Schaltflächen angesehen. Die Erfassung der Handpositionen und/oder - orientierungen kann z.B. mit einem Infrarot-Tracking-System erfolgen, das zudem ein markierungsfreies Finger-Tracking ermöglicht. Gerade eine kombinierte Auswertung von Blickrichtung und Gesten eines Nutzers erlaubt eine besonders zuverlässige Bestimmung eines ausgewählten Objektes.
  • Gemäß einer weiteren Ausführungsform wird der Wert indikativ für eine Wahrscheinlichkeit mit einem Schwellwert verglichen und das Objekt wird ausgewählt, wenn der Wert indikativ für eine Wahrscheinlichkeit größer als der Schwellwert ist. Mit anderen Worten, es wird ein Schwellwertvergleich durchgeführt. So wird sichergestellt, dass lediglich als ausgewählte Objekte diejenigen bestimmt werden, für die tatsächlich eine erhöhte Wahrscheinlichkeit von z.B. 0,8 oder 0,9 gegeben ist. So wird die Zuverlässigkeit des Verfahrens gesteigert.
  • Gemäß einer weiteren Ausführungsform wird zumindest ein Wert indikativ für eine Wahrscheinlichkeit eines ersten Objektes mit einem Wert indikativ für eine Wahrscheinlichkeit eines zweiten Objektes verglichen, und es wird das Objekt mit dem höheren Wert ausgewählt. Mit anderen Worten, es erfolgt ein Vergleich von zwei Wahrscheinlichkeitswerten, die verschiedenen Objekten zugeordnet sind. Auch so kann die Zuverlässigkeit des Verfahrens gesteigert werden.
  • Gemäß einer weiteren Ausführungsform werden aus Sensordaten indikativ für eine Nutzerinteraktion des Nutzers eine Mehrzahl von Nutzer-Datensätzen mit jeweils einer vorbestimmten Zeitdauer gebildet. Mit anderen Worten, die Sensordaten stellen einen Datenstrom dar, der z.B. Daten indikativ für die Kopf- und/oder Handpositionen und/oder -orientierungen des Nutzers enthält. Dieser Datenstrom wird in Nutzer-Datensätze geteilt, die repräsentativ für Bewegungssequenzen sind, die z.B. Gesten des Nutzers umfassen. Die vorbestimmte Zeitdauer kann einen festen Wert aufweisen, oder die Sensordaten werden vorab ausgewertet um einen Anfang und ein Ende einer möglichen Geste zu bestimmen, so dass dann die vorbestimmte Zeitdauer eine jeweils angepassten Wert aufweist. So kann die Zuverlässigkeit des Verfahrens gesteigert werden.
  • Ferner gehören zur Erfindung ein Computerprogrammprodukt und ein System für eine derartige Nutzerinteraktionserfassung.
  • Es wird nun die Erfindung anhand einer Zeichnung erläutert. Es zeigen:
    • 1 in schematischer Darstellung einen Nutzer einer virtuellen Umgebung sowie Komponenten der virtuellen Umgebung.
    • 2 in schematischer Darstellung einen Trainings- und einen Auswertevorgang eines Systems zur Nutzerinteraktionserfassung von einem Nutzer in der virtuellen Umgebung.
    • 3 in schematischer Darstellung weitere Details des Trainings- und des Auswertevorgangs.
    • 4 in schematischer Darstellung einen Verfahrensablauf zum Betrieb des in 2 gezeigten System.
  • Es wird zunächst auf 1 Bezug genommen.
  • Dargestellt ist eine virtuelle Umgebung 6, in der ein Nutzer 4 eine Nutzerinteraktion ausführt.
  • Als virtuelle Realität, kurz VR, wird die Darstellung und gleichzeitige Wahrnehmung der Wirklichkeit und ihrer physikalischen Eigenschaften in einer in Echtzeit computergenerierten, interaktiven virtuellen Umgebung bezeichnet.
  • Für die Erzeugung einer virtuellen Umgebung ist ferner eine speziell für diesen Zweck entwickelte Software erforderlich. Die Software muss komplexe dreidimensionale Welten in Echtzeit, d.h. mit mindestens 25 Bildern pro Sekunde, in Stereo getrennt für linkes und rechtes Auge des Nutzers 8 berechnen können. Dieser Wert variiert je nach Anwendung - eine Fahrsimulation beispielsweise erfordert mindestens 60 Bilder pro Sekunde, um Übelkeit (Simulatorkrankheit) zu vermeiden.
  • Um ein Gefühl der Immersion zu erzeugen werden zur Darstellung der virtuellen Umgebung spezielle HMIs 16, wie z.B. Virtual-Reality-Headsets, verwendet, die der Nutzer 4 auf seinem Kopf trägt. Um einen räumlichen Eindruck zu vermitteln, werden zwei Bilder aus unterschiedlichen Perspektiven erzeugt und dargestellt (Stereoprojektion).
  • Für eine Nutzerinteraktion mit der virtuellen Welt werden Tracking-Daten von Körperteilen des Nutzers 4, wie seines Kopfes und/oder seiner Hände bzw. Finger von einem Tracking-System 18, im vorliegenden Ausführungsbeispiel einem Infrarot-Tracking-System, wie Leap Motion, HTC Vive-Sensoren oder Intel RealSense, erfasst.
  • Bei der Nutzerinteraktion handelt es sich im vorliegenden Ausführungsbeispiel um die Auswahl und Betätigung von einem ausgewählten Objekt 12a, 12b, 12c, 12d, 12e, 12f in der virtuellen Umgebung 6 mittels in der virtuellen Umgebung dargestellten Handmetaphern 10a, 10b. Die Auswahl und Betätigung betrifft dabei im vorliegenden Ausführungsbeispiel die Auswahl und Betätigung von als Schaltflächen ausgebildeten Objekten 12a, 12b, 12c, 12d, 12e, 12f in der virtuellen Umgebung 6 mittels der Handmetapher 10a, 10b durch den Nutzer 4. In dem in 1 dargestellten Szenario will der Nutzer 4 das Objekt 12b auswählen um es zu betätigen. Im vorliegenden Ausführungsbeispiel wird für alle Objekte 12a, 12b, 12c, 12d, 12e, 12f, ob sie das vom Nutzer 4 ausgewählte Objekt 12b sind. Es kann aber auch vorgesehen sein, das eine Vorauswahl aus der Gesamtheit der Objekte 12a, 12b, 12c, 12d, 12e, 12f getroffen wird. Z.B. können die Objekte 12a, 12b im Rahmen der Vorauswahl ausgewählt sein.
  • Es wird nun unter zusätzlicher Bezugnahme auf 2 ein System 2 zur Nutzerinteraktionserfassung von einem Nutzer 4 in der virtuellen Umgebung 6 erläutert. Dabei kann das System 2 und seine nachfolgend beschriebenen Komponenten Hard- und/oder Software-Komponenten aufweisen, die für die jeweiligen Aufgaben und/oder Funktionen ausgebildet sind.
  • Das System 2 ist zum maschinellen Lernen ausgebildet, wie dies später noch detailliert erläutert wird. Hierzu ist das System 2 dazu ausgebildet eine Mehrzahl von Trainings-Datensätzen TDS einzulesen. Die Trainings-Datensätze TDS werden gewonnen, indem Daten repräsentativ für Nutzerinteraktionen des Nutzers 4 in einer realen Umgebung 8 erfasst werden. Mit anderen Worten, die Daten werden aufgezeichnet, wenn der Nutzer z.B. eine reale Schaltfläche betätigt.
  • Die Trainings-Datensätze TDS enthalten im vorliegenden Ausführungsbeispiel Daten, die indikativ für Kopf- und/oder Handpositionen und/oder - orientierungen zu verschiedenen Zeitpunkten t0, t1, t2, ... tn einer Bewegungssequenz des Nutzers 4 sind. Die Erfassung der Kopfpositionen und -orientierungen kann mit dem HMI 16 erfolgen, das z.B. als Virtual-Reality-Headset ausgebildet ist, während die Handpositionen und/oder - orientierungen mit einem Tracking-System 18 erfasst werden.
  • Mit den Trainings-Datensätzen TDS wird ein künstliches neuronales Netz 14 während einer Trainingsphase trainiert um ein ausgewähltes Objekt 12a, 12b, 12c, 12d, 12e, 12f bestimmen zu können. Später im Betrieb während eines Auswertevorganges wird das trainierte künstliche neuronale Netz 14 mit einem Nutzer-Datensatz NDS repräsentativ für eine Nutzerinteraktion des Nutzers 4 in der virtuellen Umgebung 6 beaufschlagt.
  • Der Nutzer-Datensatz NDS enthält wie die Trainings-Datensätze TDS im vorliegenden Ausführungsbeispiel Daten, die indikativ für Kopf- und/oder Handpositionen und/oder -orientierungen zu verschiedenen Zeitpunkten t0, t1, t2, ... tn einer Bewegungssequenz des Nutzers 4 sind. Die Erfassung der Kopfpositionen und -orientierungen kann ebenfalls mit dem HMI 16 erfolgen, das z.B. als Virtual-Reality-Headset ausgebildet ist, während die Handpositionen und/oder -orientierungen ebenfalls mit dem Tracking-System 18 erfasst werden.
  • Das trainierte künstliche neuronale Netz 14 stellt auf das Beaufschlagen mit dem Nutzer-Datensatz NDS hin einen Wert W1, W2, W3, W4, W5, W6 als Ausgang bereit, der indikativ für eine jeweilige Wahrscheinlichkeit für ein ausgewähltes Objekt 12a, 12b, 12c, 12d, 12e, 12f ist. Im vorliegenden Ausführungsbeispiel ist das künstliche neuronale Netz 14 ein rekurrentes neuronales Netz. Ferner weist das künstliche neuronale Netz 14 im vorliegenden Ausführungsbeispiel eine many-to-one-Achritektur auf, d.h. das künstliche neuronale Netz 14 weist eine Mehrzahl von Eingängen, aber nur einen einzigen Ausgang auf.
  • Ferner ist das System 2 dazu ausgebildet, den Wert W1, W2, W3, W4, W5, W6 indikativ für eine Wahrscheinlichkeit auszuwerten um ein durch die Nutzerinteraktion ausgewähltes Objekt 12a, 12b in der virtuellen Umgebung 6 zu bestimmen.
  • Hierzu kann das System 2 dazu ausgebildet sein, in einer Auswerteeinheit 20 z.B. den Wert W2 indikativ für eine Wahrscheinlichkeit mit einem Schwellwert SW zu vergleichen und das Objekt 12b auszuwählen, wenn der Wert W2 indikativ für eine Wahrscheinlichkeit größer als der Schwellwert SW ist.
  • Alternativ oder zusätzlich kann das System 2 dazu ausgebildet sein, in der Auswerteeinheit 20 eine Auswahl aus zwei Objekten 12a, 12b durchzuführen. Hierzu kann das System 2 einen Wert W1 indikativ für eine Wahrscheinlichkeit eines ersten Objektes 12a und einen Wert W2 indikativ für eine Wahrscheinlichkeit eines zweiten Objektes 12b bestimmen, die beiden Werte W1, W2 miteinander vergleichen, und das Objekt 12a, 12b mit dem höheren Wert W1, W2 auszuwählen.
  • In beiden Fällen stellt das System 2 bzw. die Auswerteeinheit 20 einen Ausgangs-Datensatz ADS bereit, der das ausgewählte Objekt 12a, 12b, 12c, 12d, 12e, 12f kennzeichnet.
  • Des Weiteren ist das System 2 dazu ausgebildet eine Manipulation des bestimmten Objektes 12a, 12b, 12c, 12d, 12e, 12f durch den Nutzer 4 zu bestimmen. Hierzu können Algorithmen Verwendung finden, die auf einer Kollisionsbestimmung von Objekten in der virtuellen Umgebung 4 beruhen oder auf Gestenerkennung. Zur Manipulation des bestimmten Objektes 12a, 12b, 12c, 12d, 12e, 12f kann sich der Nutzer 4 zusätzlich Eingabegeräten (nicht dargestellt) bedienen, wie z.B. einer 3D-Maus, einem Joystick oder einem Flystick.
  • Es werden nun unter zusätzlicher Bezugnahme auf 3 weitere Details des in 2 gezeigten Systems 2 erläutert.
  • Zum Trainieren des künstlichen neuronalen Netzes 14 werden mit dem HMI 16 bzw. dem Tracking-System 18 Kopf- und/oder Handpositionen und/oder - orientierungen in Form von Trajektorie-Daten TS erfasst. Bei den Trajektorie-Daten TD handelt es sich um Datenströme. Von dem System 2 werden die Trajektorie-Daten TD in Zwischen-Datensätze ZDS für verschiedene Zeitpunkte t0, t1, t2, ... tn einer Bewegungssequenz des Nutzers 4 und dann in die Trainings-Datensätze TDS umgewandelt, die jeweils eine vorbestimmte Zeitdauer aufweisen.
  • Jedem Trainings-Datensatz TDS ist auch eine Statusinformation S zugeordnet, welches Objekt 12a, 12b, 12c, 12d, 12e, 12f ausgewählt wurde bzw. ob es nicht von dem Nutzer 4 in der realen Umgebung 8 ausgewählt wurde. Mit anderen Worten, das künstliche neuronale Netz 14 wird mittels überwachtem Lernen (englisch supervised learning) trainiert.
  • Nach dem Trainieren des künstlichen neuronalen Netzes 14 während der Trainingsphase werden später im Betrieb während eines Auswertevorganges die Sensordaten SD analog mit dem HMI 16 bzw. dem Tracking-System 18 Kopf- und/oder Handpositionen und/oder -orientierungen erfasst. Des Weiteren werden von dem System 2 die Sensordaten SD in Form eines Datenstromes in die Nutzer-Datensätze NDS umgewandelt, die jeweils eine vorbestimmte Zeitdauer aufweisen.
  • Wie schon erwähnt stellt das trainierte künstliche neuronale Netz 14 auf das Beaufschlagen mit dem Nutzer-Datensatz NDS hin einen Wert W1, W2, W3, W4, W5, W6 als Ausgang bereit, der indikativ für eine Wahrscheinlichkeit für ein ausgewähltes Objekt 12 ist.
  • Es wird nun unter zusätzlicher Bezugnahme auf 4 ein Verfahrensablauf zum Betrieb des Systems 2 mit einem bereits trainierten künstlichen neuronalen Netz 14 erläutert.
  • Das Verfahren startet mit einem ersten Schritt S100.
  • In einem weiteren Schritt S200 liest das System 2 den Nutzer-Datensatz NDS ein.
  • In einem weiteren Schritt S300 wird das trainierte künstliche neuronale Netz 14 mit dem Nutzer-Datensatz NDS beaufschlagt und liefert den Wert W1, W2, W3, W4, W5, W6 indikativ für eine Wahrscheinlichkeit für das jeweilige ausgewählte Objekt 12a, 12b, 12c, 12d, 12e, 12f.
  • In einem weiteren Schritt S400 vergleicht das System 2 im vorliegenden Ausführungsbeispiel z.B. den Wert W2 mit einem vorbestimmten Schwellwert SW. Ist der Wert W2 kleiner als der Schwellwert SW (false) wird das Verfahren mit einem weiteren Schritt S600 fortgesetzt, um dann wieder mit dem ersten Schritt S100 erneut gestartet zu werden. Ist hingegen der Wert W2 größer oder gleich dem Schwellwert (true) wird das Verfahren mit einem weiteren Schritt S700 fortgesetzt.
  • Angemerkt sei, dass abweichend vom vorliegenden Ausführungsbeispiel statt oder zusätzlich zu dem beschriebenen Schwellwertvergleich ein Vergleich zweier Werte W1, W2 erfolgen kann, die zwei Objekten 12a, 12b zugeordnet sind.
  • Mit anderen Worten, es wird zyklisch die virtuelle Umgebung 4 nach Objekten 12a, 12b, 12c, 12d, 12e, 12f mit einer vorbestimmten Periodendauer bzw. Zeitdauer von z.B. 3 Sekunden abgesucht, die Gegenstand einer Nutzerinteraktion sein könnten. Im Rahmen dieser Suche werden vorab die Sensordaten SD in die Mehrzahl der Nutzer-Datensätze NDS unterteilt. Wenn eine Mehrzahl von Objekten 12a, 12b, 12c, 12d, 12e, 12f sich in der virtuellen Umgebung 4 befinden kann vorgesehen sein, die Anzahl der Objekte 12a, 12b, 12c, 12d, 12e, 12f durch einen Hüllkörper-Algorithmus (minimum bounding box-algorithmus) zu reduzieren, z.B. auf die beiden Objekte 12a, 12b. So kann der Bedarf an Rechnerressourchen reduziert werden.
  • In einem weiteren Schritt S700 erfolgt dann die Bestätigung der Auswahl des Objektes 12a, 12b, 12c, 12d, 12e, 12f, z.B. durch den Nutzer 14. Wenn aber das Objekt 12a, 12b, 12c, 12d, 12e, 12f nicht das vom Nutzer 14 ausgewählte Objekt 12a, 12b, 12c, 12d, 12e, 12f ist (false) wird das Verfahren mit einem weiteren Schritt S900 fortgesetzt, um dann eine weitere Auswahl zu ermöglichen und um mit dem ersten Schritt S100 erneut gestartet zu werden. Wenn hingegen das Objekt 12a, 12b, 12c, 12d, 12e, 12f das vom Nutzer 14 ausgewählte Objekt 12a, 12b, 12c, 12d, 12e, 12f ist (true) wird das Verfahren mit einem weiteren Schritt S1100 fortgesetzt.
  • In dem weiteren Schritt S1100 erfolgt dann die eigentliche Manipulation des Objektes 12a, 12b, 12c, 12d, 12e, 12f durch den Nutzer 4 in der virtuellen Umgebung 6, wie ein Betätigen einer Schaltfläche.
  • Kann von dem System 2 keine direkte Manipulation des Objektes 12a, 12b, 12c, 12d, 12e, 12f durch den Nutzer 4 erfasst werden (false) wird das Verfahren mit einem weiteren Schritt S1300 fortgesetzt.
  • In dem Schritt S1300 wird eine Gestenerkennung durchgeführt um eine direkte Manipulation des Objektes 12a, 12b, 12c, 12d, 12e, 12f durch den Nutzer 4 zu erfassen.
  • Wenn hingegen eine direkte Manipulation des Objektes 12a, 12b, 12c, 12d, 12e, 12f durch den Nutzer 4 erfasst werden kann (true) wird das Verfahren mit einem weiteren Schritt S1400 fortgesetzt
  • In dem Schritt S1400 wird die direkte Manipulation des Objektes 12a, 12b, 12c, 12d, 12e, 12f durch den Nutzer 4 umgesetzt.
  • Abweichend vom vorliegenden Ausführungsbeispiel kann die Reihenfolge der Schritte auch eine andere sein. Ferner können mehrere Schritte auch zeitgleich bzw. simultan ausgeführt werden. Des Weiteren können auch abweichend vom vorliegenden Ausführungsbeispiel einzelne Schritte übersprungen oder ausgelassen werden.
  • So kann durch den Einschub von Zwischenschritten, die das trainierte künstliche Netz 14 in das Verfahren einbinden eine Nutzerinteraktionserfassung von einem Nutzer 4 in einer virtuellen Umgebung 6 verbessert werden.
  • Bezugszeichenliste
  • 2
    System
    4
    Nutzer
    6
    virtuelle Umgebung
    8
    reale Umgebung
    10a
    Handmetapher
    10b
    Handmetapher
    12a
    Objekt
    12b
    Objekt
    12c
    Objekt
    12d
    Objekt
    12e
    Objekt
    12f
    Objekt
    14
    künstliches neuronales Netz
    16
    HMI
    18
    Tracking-System
    20
    Auswerteinheit
    ADS
    Ausgangs-Datensatz
    NDS
    Nutzer-Datensatz
    S
    Statusinformation
    SD
    Sensordaten
    SW
    Schwellwert
    t0
    Zeitpunkt
    t1
    Zeitpunkt
    t2
    Zeitpunkt
    tn
    Zeitpunkt
    TD
    Trajektorie-Daten
    TDS
    Trainings-Datensatz
    W1
    Wert
    W2
    Wert
    W3
    Wert
    W4
    Wert
    W5
    Wert
    W6
    Wert
    ZDS
    Zwischen-Datensätze
    S100
    Schritt
    S200
    Schritt
    S300
    Schritt
    S400
    Schritt
    S500
    Schritt
    S600
    Schritt
    S700
    Schritt
    S800
    Schritt
    S900
    Schritt
    S1000
    Schritt
    S1100
    Schritt
    S1200
    Schritt
    S1300
    Schritt
    S1400
    Schritt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 20170161555 A1 [0007]
    • CN 109766795 A [0008]
    • US 10482575 B2 [0008]

Claims (13)

  1. Verfahren zur Nutzerinteraktionserfassung von einem Nutzer (4) in einer virtuellen Umgebung (6), mit den Schritten: Einlesen von einer Mehrzahl von Trainings-Datensätzen (TDS) repräsentativ für Nutzerinteraktionen des Nutzers (4) in einer realen Umgebung (8), Trainieren eines künstlichen neuronalen Netzes (14) mit den Trainings-Datensätzen (TDS), Beaufschlagen des trainierten künstlichen neuronalen Netzes (14) mit einem Nutzer-Datensatz (NDS) repräsentativ für eine Nutzerinteraktion des Nutzers (4) in der virtuellen Umgebung (6) um einen Wert (W1, W2, W3, W4, W5, W6) indikativ für eine Wahrscheinlichkeit für ein ausgewähltes Objekt (12a, 12b, 12c, 12d, 12e, 12f) in der virtuellen Umgebung (6) bestimmen, Bestimmen eines durch die Nutzerinteraktion ausgewählten Objektes (12a, 12b, 12c, 12d, 12e, 12f) in der virtuellen Umgebung (6) durch Auswerten zumindest des Wertes (W1, W2, W3, W4, W5, W6) indikativ für eine Wahrscheinlichkeit, und Bestimmen eine Manipulation des Objektes (12a, 12b, 12c, 12d, 12e, 12f) durch den Nutzer (4).
  2. Verfahren nach Anspruch 1, wobei als künstliches neuronales Netz (14) ein rekurrentes neuronales Netz verwendet wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei die Mehrzahl von Trainings-Datensätzen (TDS) Trajektorie-Daten (TD) indikativ für Kopf- und/oder Handpositionen und/oder -orientierungen sind.
  4. Verfahren nach Anspruch 1, 2 oder 3, wobei der Wert (W1, W2, W3, W4, W5, W6) indikativ für eine Wahrscheinlichkeit mit einem Schwellwert (SW) verglichen wird, und das Objekt (12a, 12b, 12c, 12d, 12e, 12f) ausgewählt wird, wenn der Wert (W1, W2, W3, W4, W5, W6) indikativ für eine Wahrscheinlichkeit größer als der Schwellwert (SW) ist.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei zumindest ein Wert (W1) indikativ für eine Wahrscheinlichkeit eines ersten Objektes (12a) mit einem Wert (W2) indikativ für eine Wahrscheinlichkeit eines zweiten Objektes (12b) verglichen wird, und das Objekt (12a, 12b) mit dem höheren Wert (W1, W2) ausgewählt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei aus Sensordaten (SD) indikativ für eine Nutzerinteraktion des Nutzers (4) eine Mehrzahl von Nutzer-Datensätzen (NDS) mit jeweils einer vorbestimmten Zeitdauer gebildet werden.
  7. Computerprogrammprodukt, ausgebildet zum Ausführen eines Verfahrens nach einem der Ansprüche 1 bis 6.
  8. System (2) zur Nutzerinteraktionserfassung von einem Nutzer (4) in einer virtuellen Umgebung (6), wobei das System (2) dazu ausgebildet ist eine Mehrzahl von Trainings-Datensätzen (TDS) repräsentativ für Nutzerinteraktionen des Nutzers (4) in einer realen Umgebung (8) einzulesen, ein künstliches neuronales Netz (14) mit den Trainings-Datensätzen (TDS) zu trainieren, das trainierte künstliche neuronale Netz (14) mit einem Nutzer-Datensatz (NDS) repräsentativ für eine Nutzerinteraktion des Nutzers (4) in der virtuellen Umgebung (6) zu beaufschlagen um einen Wert (W1, W2, W3, W4, W5, W6) indikativ für eine Wahrscheinlichkeit für ein ausgewähltes Objekt (12a, 12b, 12c, 12d, 12e, 12f) in der virtuellen Umgebung (6) bestimmen, ein durch die Nutzerinteraktion ausgewähltes Objekt (12a, 12b, 12c, 12d, 12e, 12f) in der virtuellen Umgebung (6) durch Auswerten zumindest des Wertes (W1, W2, W3, W4, W5, W6) indikativ für eine Wahrscheinlichkeit zu bestimmen, und eine Manipulation des Objektes (12a, 12b, 12c, 12d, 12e, 12f) durch den Nutzer (4) zu bestimmen.
  9. System (2) nach Anspruch 8, wobei das künstliche neuronale Netz (14) ein rekurrentes neuronales Netz ist.
  10. System (2) nach Anspruch 8 oder 9, wobei die Mehrzahl von Trainings-Datensätzen (TDS) Trajektorie-Daten (TD) indikativ für Kopf- und/oder Handpositionen und/oder -orientierungen sind.
  11. System (2) nach Anspruch 8, 9 oder 10, wobei das System (2) dazu ausgebildet ist, den Wert (W1, W2, W3, W4, W5, W6) indikativ für eine Wahrscheinlichkeit mit einem Schwellwert (SW) zu vergleichen und das Objekt (12a, 12b, 12c, 12d, 12e, 12f) auszuwählen, wenn der Wert (W1, W2, W3, W4, W5, W6) indikativ für eine Wahrscheinlichkeit größer als der Schwellwert (SW) ist.
  12. System (2) nach einem der Ansprüche 8 bis 11, wobei das System (2) dazu ausgebildet ist, zumindest einen Wert (W1) indikativ für eine Wahrscheinlichkeit eines ersten Objektes (12a) mit einem Wert (W2) indikativ für eine Wahrscheinlichkeit eines zweiten Objektes (12b) zu vergleichen und das Objekt (12a, 12b) mit dem höheren Wert (W1, W2) auszuwählen.
  13. System (2) nach einem der Ansprüche 8 bis 12, wobei das System (2) dazu ausgebildet ist aus Sensordaten (SD) indikativ für eine Nutzerinteraktion des Nutzers (4) eine Mehrzahl von Nutzer-Datensätzen (NDS) mit jeweils einer vorbestimmten Zeitdauer zu bilden.
DE102020101746.4A 2020-01-24 2020-01-24 Verfahren zur Nutzerinteraktionserfassung von einem Nutzer in einer virtuellen Umgebung Pending DE102020101746A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102020101746.4A DE102020101746A1 (de) 2020-01-24 2020-01-24 Verfahren zur Nutzerinteraktionserfassung von einem Nutzer in einer virtuellen Umgebung
US17/149,035 US20210232289A1 (en) 2020-01-24 2021-01-14 Virtual user detection
CN202110068381.7A CN113176822A (zh) 2020-01-24 2021-01-19 虚拟用户检测

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020101746.4A DE102020101746A1 (de) 2020-01-24 2020-01-24 Verfahren zur Nutzerinteraktionserfassung von einem Nutzer in einer virtuellen Umgebung

Publications (1)

Publication Number Publication Date
DE102020101746A1 true DE102020101746A1 (de) 2021-07-29

Family

ID=76753535

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020101746.4A Pending DE102020101746A1 (de) 2020-01-24 2020-01-24 Verfahren zur Nutzerinteraktionserfassung von einem Nutzer in einer virtuellen Umgebung

Country Status (3)

Country Link
US (1) US20210232289A1 (de)
CN (1) CN113176822A (de)
DE (1) DE102020101746A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111552429B (zh) * 2020-04-29 2021-07-23 杭州海康威视数字技术股份有限公司 一种图形选中方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170161555A1 (en) 2015-12-04 2017-06-08 Pilot Ai Labs, Inc. System and method for improved virtual reality user interaction utilizing deep-learning
CN109766795A (zh) 2018-12-25 2019-05-17 同济大学 基于循环神经网络的虚拟现实场景下人机交互方法及系统
US10482575B2 (en) 2017-09-28 2019-11-19 Intel Corporation Super-resolution apparatus and method for virtual and mixed reality

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170161555A1 (en) 2015-12-04 2017-06-08 Pilot Ai Labs, Inc. System and method for improved virtual reality user interaction utilizing deep-learning
US10482575B2 (en) 2017-09-28 2019-11-19 Intel Corporation Super-resolution apparatus and method for virtual and mixed reality
CN109766795A (zh) 2018-12-25 2019-05-17 同济大学 基于循环神经网络的虚拟现实场景下人机交互方法及系统

Also Published As

Publication number Publication date
US20210232289A1 (en) 2021-07-29
CN113176822A (zh) 2021-07-27

Similar Documents

Publication Publication Date Title
US9652032B2 (en) Simulated training environments based upon fixated objects in specified regions
DE69634913T2 (de) Schnittstellenvorrichtung
US8721341B2 (en) Simulated training environments based upon foveated object events
EP3067874A1 (de) Verfahren und vorrichtung zum testen eines in einem luftfahrzeug zu bedienenden geräts
DE102009034413A1 (de) Erkennung zusammengesetzter Gesten
DE102013207528A1 (de) Verfahren zum Interagieren mit einem auf einer Datenbrille angezeigten Objekt
WO2017153305A1 (de) Simulator zum training eines teams einer hubschrauberbesatzung
WO2019105600A1 (de) Avataranimation
DE102015208804A1 (de) Vorrichtung und Verfahren zum rechnergestützten Simulieren von chirurgischen Eingriffen
US20170329401A1 (en) Simulated training environments based upon fixated objects in specified regions
DE102020101746A1 (de) Verfahren zur Nutzerinteraktionserfassung von einem Nutzer in einer virtuellen Umgebung
CN107340863B (zh) 一种基于emg的交互方法
Abdulali et al. Visually guided acquisition of contact dynamics and case study in data-driven haptic texture modeling
EP3904984B1 (de) Verfahren für eine immersive mensch-maschine-interaktion
CN107272905A (zh) 一种基于eog和emg的交互方法
DE102004061841A1 (de) Markerloses Tracking System für Augmented Reality Anwendungen
DE112019006107T5 (de) Authoring-Vorrichtung, Authoring-Verfahren und Authoring-Programm
EP1487616A2 (de) Automatische prozesskontrolle
DE102020121937A1 (de) Verfahren zur computerimplementierten Simulation einer virtuellen Hand
EP3534240A1 (de) Verfahren und vorrichtung zur daten-annotation
DE102021104110A1 (de) Verfahren zur Parametrierung einer Bildsynthese aus einem 3D-Modell
DE102020123307A1 (de) Verfahren zur Interaktion in einer virtuellen Realität
Griffin A conceptual and graphical method for converging multisubject behavioral observational data into a single process indicator
DE102018106731A1 (de) Militärisches Gerät und Verfahren zum Betreiben eines militärischen Gerätes
DE102019126401A1 (de) Verfahren zum Durchführen von Tests in einer virtuellen Umgebung