DE08713892T1 - System und verfahren zur durchführung von mehreren simultanen, unabhängigen simulationen in einer bewegungserfassungsumgebung - Google Patents

System und verfahren zur durchführung von mehreren simultanen, unabhängigen simulationen in einer bewegungserfassungsumgebung Download PDF

Info

Publication number
DE08713892T1
DE08713892T1 DE08713892T DE08713892T DE08713892T1 DE 08713892 T1 DE08713892 T1 DE 08713892T1 DE 08713892 T DE08713892 T DE 08713892T DE 08713892 T DE08713892 T DE 08713892T DE 08713892 T1 DE08713892 T1 DE 08713892T1
Authority
DE
Germany
Prior art keywords
simulation
tracked objects
environment
concerning
client
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE08713892T
Other languages
English (en)
Inventor
George Steven Alvarado Lewis
Christopher Michael Grapevine Bothwell
John Hurst Valentino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bell Helicopter Textron Inc
Original Assignee
Bell Helicopter Textron Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bell Helicopter Textron Inc filed Critical Bell Helicopter Textron Inc
Publication of DE08713892T1 publication Critical patent/DE08713892T1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Eine Motion-Capture-Umgebung, welche folgendes umfasst:
eine Vielzahl von Verfolger-Sensoren zur Verfolgung von physikalischen Orten einer Vielzahl verfolgter Objekte betreffend eine erste Simulation innerhalb der Motion-Capture-Umgebung und zur Verfolgung der physikalischen Orte einer Vielzahl verfolgter Objekte betreffend eine zweite Simulation, die sich von der ersten Simulation unterscheidet, innerhalb der Motion-Capture-Umgebung;
einen oder mehrere Computer, die zusammen eine erste Umgebung virtueller Realität bilden können, die der ersten Simulation entspricht und eine zweite Umgebung virtueller Realität bilden können, die der zweiten Simulation entspricht.

Claims (15)

  1. Eine Motion-Capture-Umgebung, welche folgendes umfasst: eine Vielzahl von Verfolger-Sensoren zur Verfolgung von physikalischen Orten einer Vielzahl verfolgter Objekte betreffend eine erste Simulation innerhalb der Motion-Capture-Umgebung und zur Verfolgung der physikalischen Orte einer Vielzahl verfolgter Objekte betreffend eine zweite Simulation, die sich von der ersten Simulation unterscheidet, innerhalb der Motion-Capture-Umgebung; einen oder mehrere Computer, die zusammen eine erste Umgebung virtueller Realität bilden können, die der ersten Simulation entspricht und eine zweite Umgebung virtueller Realität bilden können, die der zweiten Simulation entspricht.
  2. Die Motion-Capture-Umgebung gemäß Anspruch 1, wobei: der eine oder die mehreren Computer die physikalischen Orte der Vielzahl von verfolgten Objekten betreffend die erste Simulation zu einem ersten Client senden und der eine oder die mehreren Computer die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation an einen zweiten Client senden; und der erste Client die erste Simulation durchführt und der zweite Client die zweite Simulation durchführt.
  3. Die Motion-Capture-Umgebung gemäß Anspruch 1, wobei: der eine oder die mehreren Computer die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation und die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation an den ersten und den zweiten Client senden; und der erste Client die erste Simulation durchführt und der zweite Client die zweite Simulation durchführt.
  4. Die Motion-Capture-Umgebung gemäß Anspruch 1, wobei die physikalischen Orte der Vielzahl der verfolgten Objekte in die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation und in die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation durch Verwendung von Umgebungsregeln eingeordnet wird.
  5. Die Motion-Capture-Umgebung gemäß Anspruch 1, wobei sich die Vielzahl der verfolgten Objekte betreffend die erste Simulation auf einen Darsteller bezieht und sich die Vielzahl der verfolgten Objekte betreffend die zweite Simulation auf einen zweiten Darsteller bezieht.
  6. Ein Verfahren zur Durchführung vieler, gleichzeitiger, unabhängiger Simulationen in einer Motion-Capture-Umgebung, wobei das Verfahren folgendes umfasst: Verfolgen physikalischer Orte einer Vielzahl verfolgter Objekte betreffend eine erste Simulation innerhalb der Motion-Capture-Umgebung; Verfolgen physikalischer Orte einer Vielzahl verfolgter Objekte betreffend eine zweite Simulation, die sich von der ersten Simulation unterscheidet, innerhalb der Motion-Capture-Umgebung; Erzeugen einer ersten Umgebung virtueller Realität, die der ersten Simulation entspricht; und Erzeugen einer zweiten Umgebung virtueller Realität, die der zweiten Simulation entspricht.
  7. Das Verfahren nach Anspruch 6, wobei: das Erzeugen der ersten Umgebung virtueller Realität durch Senden der physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation an einen ersten Client erfolgt, der die erste Simulation durchführt; und das Erzeugen der zweiten Umgebung virtueller Realität durch Senden der physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation an einen zweiten Client erfolgt, der die zweite Simulation durchführt.
  8. Das Verfahren nach Anspruch 6, wobei: das Erzeugen der ersten Umgebung virtueller Realität durch Senden der physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation an einen ersten Client und einen zweiten Client erfolgt, wobei der erste Client die erste Simulation durchführt; und das Erzeugen der zweiten Umgebung virtueller Realität durch Senden der physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation an einen ersten und einen zweiten Client erfolgt, wobei der zweite Client die zweite Simulation durchführt.
  9. Das Verfahren nach Anspruch 6, wobei das Verfolgen der physikalischen Orte einer Vielzahl verfolgter Objekte betreffend die erste Simulation innerhalb der Motion-Capture-Umgebung und das Verfolgen der Orte einer Vielzahl verfolgter Objekte betreffend eine zweite Simulation, die sich von der ersten Simulation unterscheidet, innerhalb der Motion-Capture-Umgebung durch Verwendung von Umgebungsregeln erfolgen.
  10. Das Verfahren nach Anspruch 6, wobei sich die Vielzahl verfolgter Objekte betreffend die erste Simulation auf einen ersten Darsteller bezieht und sich die Vielzahl verfolgter Objekte betreffend die zweite Simulation auf einen zweiten Darsteller bezieht.
  11. Computerprogramm zur Durchführung vieler, gleichzeitiger, unabhängiger Simulationen in einer Motion-Capture-Umgebung, wobei sich das Computerprogramm auf einem computerlesbaren Medium befindet und im Falle seiner Ausführung ausgebildet ist zum: Verfolgen physikalischer Orte einer Vielzahl verfolgter Objekte betreffend eine erste Simulation innerhalb der Motion-Capture-Umgebung; Verfolgen physikalischer Orte einer Vielzahl verfolgter Objekte betreffend eine zweite Simulation, die sich von der ersten Simulation unterscheidet, innerhalb der Motion-Capture-Umgebung; Erzeugen einer ersten Umgebung virtueller Realität, die der ersten Simulation entspricht; und Erzeugen einer zweiten Umgebung virtueller Realität, die der zweiten Simulation entspricht.
  12. Das Computerprogramm nach Anspruch 11, wobei die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation an einen ersten Client gesendet werden und die physikalischen Orte der Vielzahl verfolgter Objekte betreffend die zweite Simulation an einen zweiten Client gesendet werden; und wobei der erste Client die erste Simulation durchführt und der zweite Client die zweite Simulation durchführt.
  13. Das Computerprogramm nach Anspruch 11, wobei: die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation und die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation sowohl an den ersten Client als auch an den zweiten Client gesendet werden; wobei der erste Client die erste Simulation durchführt und der zweite Client die zweite Simulation durchführt.
  14. Das Computerprogramm nach Anspruch 11, wobei die physikalischen Orte der Vielzahl der verfolgten Objekte in physikalische Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation und in die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation durch Verwendung von Umgebungsregeln eingeordnet werden.
  15. Das Computerprogramm nach Anspruch 11, wobei sich die Vielzahl der verfolgten Objekte betreffend die erste Simulation sich auf einen ersten Darsteller bezieht und sich die Vielzahl der verfolgten Objekte betreffend die zweite Simulation auf einen zweiten Darsteller bezieht.
DE08713892T 2007-01-22 2008-01-22 System und verfahren zur durchführung von mehreren simultanen, unabhängigen simulationen in einer bewegungserfassungsumgebung Pending DE08713892T1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US88605307P 2007-01-22 2007-01-22
US886053P 2007-01-22
PCT/US2008/051651 WO2008091861A2 (en) 2007-01-22 2008-01-22 Performing multiple, simultaneous, independent simulations in a motion capture environment

Publications (1)

Publication Number Publication Date
DE08713892T1 true DE08713892T1 (de) 2010-02-11

Family

ID=39645120

Family Applications (1)

Application Number Title Priority Date Filing Date
DE08713892T Pending DE08713892T1 (de) 2007-01-22 2008-01-22 System und verfahren zur durchführung von mehreren simultanen, unabhängigen simulationen in einer bewegungserfassungsumgebung

Country Status (5)

Country Link
US (1) US8615714B2 (de)
EP (1) EP2106572B1 (de)
CA (1) CA2675995C (de)
DE (1) DE08713892T1 (de)
WO (1) WO2008091861A2 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10286308B2 (en) * 2014-11-10 2019-05-14 Valve Corporation Controller visualization in virtual and augmented reality environments
US9489045B2 (en) * 2015-03-26 2016-11-08 Honeywell International Inc. Methods and apparatus for providing a snapshot truthing system for a tracker

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999185A (en) 1992-03-30 1999-12-07 Kabushiki Kaisha Toshiba Virtual reality control using image, model and control data to manipulate interactions
US6437771B1 (en) 1995-01-18 2002-08-20 Immersion Corporation Force feedback device including flexure member between actuator and user object
KR100584706B1 (ko) 1997-08-29 2006-05-30 가부시키가이샤 세가 화상 처리 시스템 및 화상 처리 방법
RU2161871C2 (ru) 1998-03-20 2001-01-10 Латыпов Нурахмед Нурисламович Способ и система для создания видеопрограмм
US7084884B1 (en) 1998-11-03 2006-08-01 Immersion Corporation Graphical object interactions
US6798407B1 (en) 2000-11-28 2004-09-28 William J. Benman System and method for providing a functional virtual environment with real time extracted and transplanted images
US20020010734A1 (en) 2000-02-03 2002-01-24 Ebersole John Franklin Internetworked augmented reality system and method
US6474159B1 (en) 2000-04-21 2002-11-05 Intersense, Inc. Motion-tracking
WO2002021451A1 (en) 2000-09-07 2002-03-14 Neochi Llc Method and system for simultaneously creating and using multiple virtual reality programs
DE10045117C2 (de) 2000-09-13 2002-12-12 Bernd Von Prittwitz Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung
US7538764B2 (en) 2001-01-05 2009-05-26 Interuniversitair Micro-Elektronica Centrum (Imec) System and method to obtain surface structures of multi-dimensional objects, and to represent those surface structures for animation, transmission and display
US20040104935A1 (en) 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
US7215322B2 (en) 2001-05-31 2007-05-08 Siemens Corporate Research, Inc. Input devices for augmented reality applications
US7269632B2 (en) 2001-06-05 2007-09-11 Xdyne, Inc. Networked computer system for communicating and operating in a virtual reality environment
US7468778B2 (en) 2002-03-15 2008-12-23 British Broadcasting Corp Virtual studio system
US20040106504A1 (en) 2002-09-03 2004-06-03 Leonard Reiffel Mobile interactive virtual reality product
US7106358B2 (en) 2002-12-30 2006-09-12 Motorola, Inc. Method, system and apparatus for telepresence communications
US7755608B2 (en) 2004-01-23 2010-07-13 Hewlett-Packard Development Company, L.P. Systems and methods of interfacing with a machine
US7937253B2 (en) 2004-03-05 2011-05-03 The Procter & Gamble Company Virtual prototyping system and method
US7372463B2 (en) 2004-04-09 2008-05-13 Paul Vivek Anand Method and system for intelligent scalable animation with intelligent parallel processing engine and intelligent animation engine
US7070541B2 (en) * 2004-04-15 2006-07-04 Stephen Joseph Madigan Educational tracks and apparatuses
WO2005116939A1 (en) 2004-05-27 2005-12-08 Canon Kabushiki Kaisha Information processing method, information processing apparatus, and image sensing apparatus
US7724258B2 (en) 2004-06-30 2010-05-25 Purdue Research Foundation Computer modeling and animation of natural phenomena
US7743348B2 (en) 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US7542040B2 (en) * 2004-08-11 2009-06-02 The United States Of America As Represented By The Secretary Of The Navy Simulated locomotion method and apparatus
US20060192852A1 (en) 2005-02-09 2006-08-31 Sally Rosenthal System, method, software arrangement and computer-accessible medium for providing audio and/or visual information
GB2438783B8 (en) * 2005-03-16 2011-12-28 Lucasfilm Entertainment Co Ltd Three-dimensional motion capture
US8018579B1 (en) 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system
US8241118B2 (en) * 2006-01-27 2012-08-14 Great Play Holdings Llc System for promoting physical activity employing virtual interactive arena
US7885732B2 (en) 2006-10-25 2011-02-08 The Boeing Company Systems and methods for haptics-enabled teleoperation of vehicles and other devices

Also Published As

Publication number Publication date
EP2106572B1 (de) 2014-05-07
WO2008091861A3 (en) 2008-10-30
CA2675995A1 (en) 2008-07-31
US20100050094A1 (en) 2010-02-25
CA2675995C (en) 2014-11-04
WO2008091861A2 (en) 2008-07-31
EP2106572A4 (de) 2010-10-27
US8615714B2 (en) 2013-12-24
EP2106572A2 (de) 2009-10-07

Similar Documents

Publication Publication Date Title
Guo et al. Deep learning for real-time Atari game play using offline Monte-Carlo tree search planning
US8756183B1 (en) System for representing, storing, and reconstructing an input signal
Lautenschlager Estimating cranial musculoskeletal constraints in theropod dinosaurs
CN108052004A (zh) 基于深度增强学习的工业机械臂自动控制方法
DE592421T1 (de) Vergleichende molekulare feldzerlegung.
EP2584493A3 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
CN104299245A (zh) 基于神经网络的增强现实跟踪方法
DE08713892T1 (de) System und verfahren zur durchführung von mehreren simultanen, unabhängigen simulationen in einer bewegungserfassungsumgebung
Mizutani et al. Whole brain connectomic architecture to develop general artificial intelligence
DE60211827T2 (de) Aufzeichnungsmedium für Programm zur Verformung von 3D Modellen, Programm zur Verformung von 3D Modellen, 3D Verformungsverfahren und Videospielvorrichtung
Metzner et al. Virtual training and commissioning of industrial bin picking systems using synthetic sensor data and simulation
CN103578120B (zh) 保持时序平稳与低秩结构特性的三维人体运动数据补全方法
Hertzmann et al. Physics-based characters
CN108108475B (zh) 一种基于深度受限玻尔兹曼机的时间序列预测方法
Luo et al. Applied Automatic Machine Learning Process for Material Computation
Larbi et al. Developing a neural network algorithm as an additional online controller to the PID controller
Mosleh Positivity Preserving Explicit Discrete Model for Malaria Propagation
Gholami et al. Middle-Class Housing Analysis in the Second Pahlavi Period Based on the Shape Grammar (Case Study: Narmak Neighborhood and Ekbatan Town of Tehran)
Nabahat Two-stage DEA with fuzzy data
Liao et al. A robust physics-based 3D soft tissue parameters estimation method for warping dynamics simulation
Lara et al. Wave and current interaction with moored floating bodies using overset method
Itoh et al. Exercise classification using CNN with image frames produced from time-series motion data
Donges Functional network macroscopes for probing past and present earth system dynamics: complex hierarchical interactions, tipping points, and beyond
Pax et al. A greedy algorithm for reproducing crowds
Gu et al. Object detection using unit-linking PCNN image icons