DE08713892T1 - System und verfahren zur durchführung von mehreren simultanen, unabhängigen simulationen in einer bewegungserfassungsumgebung - Google Patents
System und verfahren zur durchführung von mehreren simultanen, unabhängigen simulationen in einer bewegungserfassungsumgebung Download PDFInfo
- Publication number
- DE08713892T1 DE08713892T1 DE08713892T DE08713892T DE08713892T1 DE 08713892 T1 DE08713892 T1 DE 08713892T1 DE 08713892 T DE08713892 T DE 08713892T DE 08713892 T DE08713892 T DE 08713892T DE 08713892 T1 DE08713892 T1 DE 08713892T1
- Authority
- DE
- Germany
- Prior art keywords
- simulation
- tracked objects
- environment
- concerning
- client
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Eine Motion-Capture-Umgebung, welche folgendes umfasst:
eine Vielzahl von Verfolger-Sensoren zur Verfolgung von physikalischen Orten einer Vielzahl verfolgter Objekte betreffend eine erste Simulation innerhalb der Motion-Capture-Umgebung und zur Verfolgung der physikalischen Orte einer Vielzahl verfolgter Objekte betreffend eine zweite Simulation, die sich von der ersten Simulation unterscheidet, innerhalb der Motion-Capture-Umgebung;
einen oder mehrere Computer, die zusammen eine erste Umgebung virtueller Realität bilden können, die der ersten Simulation entspricht und eine zweite Umgebung virtueller Realität bilden können, die der zweiten Simulation entspricht.
eine Vielzahl von Verfolger-Sensoren zur Verfolgung von physikalischen Orten einer Vielzahl verfolgter Objekte betreffend eine erste Simulation innerhalb der Motion-Capture-Umgebung und zur Verfolgung der physikalischen Orte einer Vielzahl verfolgter Objekte betreffend eine zweite Simulation, die sich von der ersten Simulation unterscheidet, innerhalb der Motion-Capture-Umgebung;
einen oder mehrere Computer, die zusammen eine erste Umgebung virtueller Realität bilden können, die der ersten Simulation entspricht und eine zweite Umgebung virtueller Realität bilden können, die der zweiten Simulation entspricht.
Claims (15)
- Eine Motion-Capture-Umgebung, welche folgendes umfasst: eine Vielzahl von Verfolger-Sensoren zur Verfolgung von physikalischen Orten einer Vielzahl verfolgter Objekte betreffend eine erste Simulation innerhalb der Motion-Capture-Umgebung und zur Verfolgung der physikalischen Orte einer Vielzahl verfolgter Objekte betreffend eine zweite Simulation, die sich von der ersten Simulation unterscheidet, innerhalb der Motion-Capture-Umgebung; einen oder mehrere Computer, die zusammen eine erste Umgebung virtueller Realität bilden können, die der ersten Simulation entspricht und eine zweite Umgebung virtueller Realität bilden können, die der zweiten Simulation entspricht.
- Die Motion-Capture-Umgebung gemäß Anspruch 1, wobei: der eine oder die mehreren Computer die physikalischen Orte der Vielzahl von verfolgten Objekten betreffend die erste Simulation zu einem ersten Client senden und der eine oder die mehreren Computer die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation an einen zweiten Client senden; und der erste Client die erste Simulation durchführt und der zweite Client die zweite Simulation durchführt.
- Die Motion-Capture-Umgebung gemäß Anspruch 1, wobei: der eine oder die mehreren Computer die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation und die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation an den ersten und den zweiten Client senden; und der erste Client die erste Simulation durchführt und der zweite Client die zweite Simulation durchführt.
- Die Motion-Capture-Umgebung gemäß Anspruch 1, wobei die physikalischen Orte der Vielzahl der verfolgten Objekte in die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation und in die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation durch Verwendung von Umgebungsregeln eingeordnet wird.
- Die Motion-Capture-Umgebung gemäß Anspruch 1, wobei sich die Vielzahl der verfolgten Objekte betreffend die erste Simulation auf einen Darsteller bezieht und sich die Vielzahl der verfolgten Objekte betreffend die zweite Simulation auf einen zweiten Darsteller bezieht.
- Ein Verfahren zur Durchführung vieler, gleichzeitiger, unabhängiger Simulationen in einer Motion-Capture-Umgebung, wobei das Verfahren folgendes umfasst: Verfolgen physikalischer Orte einer Vielzahl verfolgter Objekte betreffend eine erste Simulation innerhalb der Motion-Capture-Umgebung; Verfolgen physikalischer Orte einer Vielzahl verfolgter Objekte betreffend eine zweite Simulation, die sich von der ersten Simulation unterscheidet, innerhalb der Motion-Capture-Umgebung; Erzeugen einer ersten Umgebung virtueller Realität, die der ersten Simulation entspricht; und Erzeugen einer zweiten Umgebung virtueller Realität, die der zweiten Simulation entspricht.
- Das Verfahren nach Anspruch 6, wobei: das Erzeugen der ersten Umgebung virtueller Realität durch Senden der physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation an einen ersten Client erfolgt, der die erste Simulation durchführt; und das Erzeugen der zweiten Umgebung virtueller Realität durch Senden der physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation an einen zweiten Client erfolgt, der die zweite Simulation durchführt.
- Das Verfahren nach Anspruch 6, wobei: das Erzeugen der ersten Umgebung virtueller Realität durch Senden der physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation an einen ersten Client und einen zweiten Client erfolgt, wobei der erste Client die erste Simulation durchführt; und das Erzeugen der zweiten Umgebung virtueller Realität durch Senden der physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation an einen ersten und einen zweiten Client erfolgt, wobei der zweite Client die zweite Simulation durchführt.
- Das Verfahren nach Anspruch 6, wobei das Verfolgen der physikalischen Orte einer Vielzahl verfolgter Objekte betreffend die erste Simulation innerhalb der Motion-Capture-Umgebung und das Verfolgen der Orte einer Vielzahl verfolgter Objekte betreffend eine zweite Simulation, die sich von der ersten Simulation unterscheidet, innerhalb der Motion-Capture-Umgebung durch Verwendung von Umgebungsregeln erfolgen.
- Das Verfahren nach Anspruch 6, wobei sich die Vielzahl verfolgter Objekte betreffend die erste Simulation auf einen ersten Darsteller bezieht und sich die Vielzahl verfolgter Objekte betreffend die zweite Simulation auf einen zweiten Darsteller bezieht.
- Computerprogramm zur Durchführung vieler, gleichzeitiger, unabhängiger Simulationen in einer Motion-Capture-Umgebung, wobei sich das Computerprogramm auf einem computerlesbaren Medium befindet und im Falle seiner Ausführung ausgebildet ist zum: Verfolgen physikalischer Orte einer Vielzahl verfolgter Objekte betreffend eine erste Simulation innerhalb der Motion-Capture-Umgebung; Verfolgen physikalischer Orte einer Vielzahl verfolgter Objekte betreffend eine zweite Simulation, die sich von der ersten Simulation unterscheidet, innerhalb der Motion-Capture-Umgebung; Erzeugen einer ersten Umgebung virtueller Realität, die der ersten Simulation entspricht; und Erzeugen einer zweiten Umgebung virtueller Realität, die der zweiten Simulation entspricht.
- Das Computerprogramm nach Anspruch 11, wobei die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation an einen ersten Client gesendet werden und die physikalischen Orte der Vielzahl verfolgter Objekte betreffend die zweite Simulation an einen zweiten Client gesendet werden; und wobei der erste Client die erste Simulation durchführt und der zweite Client die zweite Simulation durchführt.
- Das Computerprogramm nach Anspruch 11, wobei: die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation und die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation sowohl an den ersten Client als auch an den zweiten Client gesendet werden; wobei der erste Client die erste Simulation durchführt und der zweite Client die zweite Simulation durchführt.
- Das Computerprogramm nach Anspruch 11, wobei die physikalischen Orte der Vielzahl der verfolgten Objekte in physikalische Orte der Vielzahl der verfolgten Objekte betreffend die erste Simulation und in die physikalischen Orte der Vielzahl der verfolgten Objekte betreffend die zweite Simulation durch Verwendung von Umgebungsregeln eingeordnet werden.
- Das Computerprogramm nach Anspruch 11, wobei sich die Vielzahl der verfolgten Objekte betreffend die erste Simulation sich auf einen ersten Darsteller bezieht und sich die Vielzahl der verfolgten Objekte betreffend die zweite Simulation auf einen zweiten Darsteller bezieht.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US88605307P | 2007-01-22 | 2007-01-22 | |
US886053P | 2007-01-22 | ||
PCT/US2008/051651 WO2008091861A2 (en) | 2007-01-22 | 2008-01-22 | Performing multiple, simultaneous, independent simulations in a motion capture environment |
Publications (1)
Publication Number | Publication Date |
---|---|
DE08713892T1 true DE08713892T1 (de) | 2010-02-11 |
Family
ID=39645120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE08713892T Pending DE08713892T1 (de) | 2007-01-22 | 2008-01-22 | System und verfahren zur durchführung von mehreren simultanen, unabhängigen simulationen in einer bewegungserfassungsumgebung |
Country Status (5)
Country | Link |
---|---|
US (1) | US8615714B2 (de) |
EP (1) | EP2106572B1 (de) |
CA (1) | CA2675995C (de) |
DE (1) | DE08713892T1 (de) |
WO (1) | WO2008091861A2 (de) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10286308B2 (en) * | 2014-11-10 | 2019-05-14 | Valve Corporation | Controller visualization in virtual and augmented reality environments |
US9489045B2 (en) * | 2015-03-26 | 2016-11-08 | Honeywell International Inc. | Methods and apparatus for providing a snapshot truthing system for a tracker |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5999185A (en) | 1992-03-30 | 1999-12-07 | Kabushiki Kaisha Toshiba | Virtual reality control using image, model and control data to manipulate interactions |
US6437771B1 (en) | 1995-01-18 | 2002-08-20 | Immersion Corporation | Force feedback device including flexure member between actuator and user object |
KR100584706B1 (ko) | 1997-08-29 | 2006-05-30 | 가부시키가이샤 세가 | 화상 처리 시스템 및 화상 처리 방법 |
RU2161871C2 (ru) | 1998-03-20 | 2001-01-10 | Латыпов Нурахмед Нурисламович | Способ и система для создания видеопрограмм |
US7084884B1 (en) | 1998-11-03 | 2006-08-01 | Immersion Corporation | Graphical object interactions |
US6798407B1 (en) | 2000-11-28 | 2004-09-28 | William J. Benman | System and method for providing a functional virtual environment with real time extracted and transplanted images |
US20020010734A1 (en) | 2000-02-03 | 2002-01-24 | Ebersole John Franklin | Internetworked augmented reality system and method |
US6474159B1 (en) | 2000-04-21 | 2002-11-05 | Intersense, Inc. | Motion-tracking |
WO2002021451A1 (en) | 2000-09-07 | 2002-03-14 | Neochi Llc | Method and system for simultaneously creating and using multiple virtual reality programs |
DE10045117C2 (de) | 2000-09-13 | 2002-12-12 | Bernd Von Prittwitz | Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung |
US7538764B2 (en) | 2001-01-05 | 2009-05-26 | Interuniversitair Micro-Elektronica Centrum (Imec) | System and method to obtain surface structures of multi-dimensional objects, and to represent those surface structures for animation, transmission and display |
US20040104935A1 (en) | 2001-01-26 | 2004-06-03 | Todd Williamson | Virtual reality immersion system |
US7215322B2 (en) | 2001-05-31 | 2007-05-08 | Siemens Corporate Research, Inc. | Input devices for augmented reality applications |
US7269632B2 (en) | 2001-06-05 | 2007-09-11 | Xdyne, Inc. | Networked computer system for communicating and operating in a virtual reality environment |
US7468778B2 (en) | 2002-03-15 | 2008-12-23 | British Broadcasting Corp | Virtual studio system |
US20040106504A1 (en) | 2002-09-03 | 2004-06-03 | Leonard Reiffel | Mobile interactive virtual reality product |
US7106358B2 (en) | 2002-12-30 | 2006-09-12 | Motorola, Inc. | Method, system and apparatus for telepresence communications |
US7755608B2 (en) | 2004-01-23 | 2010-07-13 | Hewlett-Packard Development Company, L.P. | Systems and methods of interfacing with a machine |
US7937253B2 (en) | 2004-03-05 | 2011-05-03 | The Procter & Gamble Company | Virtual prototyping system and method |
US7372463B2 (en) | 2004-04-09 | 2008-05-13 | Paul Vivek Anand | Method and system for intelligent scalable animation with intelligent parallel processing engine and intelligent animation engine |
US7070541B2 (en) * | 2004-04-15 | 2006-07-04 | Stephen Joseph Madigan | Educational tracks and apparatuses |
WO2005116939A1 (en) | 2004-05-27 | 2005-12-08 | Canon Kabushiki Kaisha | Information processing method, information processing apparatus, and image sensing apparatus |
US7724258B2 (en) | 2004-06-30 | 2010-05-25 | Purdue Research Foundation | Computer modeling and animation of natural phenomena |
US7743348B2 (en) | 2004-06-30 | 2010-06-22 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
US7542040B2 (en) * | 2004-08-11 | 2009-06-02 | The United States Of America As Represented By The Secretary Of The Navy | Simulated locomotion method and apparatus |
US20060192852A1 (en) | 2005-02-09 | 2006-08-31 | Sally Rosenthal | System, method, software arrangement and computer-accessible medium for providing audio and/or visual information |
GB2438783B8 (en) * | 2005-03-16 | 2011-12-28 | Lucasfilm Entertainment Co Ltd | Three-dimensional motion capture |
US8018579B1 (en) | 2005-10-21 | 2011-09-13 | Apple Inc. | Three-dimensional imaging and display system |
US8241118B2 (en) * | 2006-01-27 | 2012-08-14 | Great Play Holdings Llc | System for promoting physical activity employing virtual interactive arena |
US7885732B2 (en) | 2006-10-25 | 2011-02-08 | The Boeing Company | Systems and methods for haptics-enabled teleoperation of vehicles and other devices |
-
2008
- 2008-01-22 US US12/522,620 patent/US8615714B2/en active Active
- 2008-01-22 DE DE08713892T patent/DE08713892T1/de active Pending
- 2008-01-22 WO PCT/US2008/051651 patent/WO2008091861A2/en active Search and Examination
- 2008-01-22 EP EP08713892.1A patent/EP2106572B1/de active Active
- 2008-01-22 CA CA2675995A patent/CA2675995C/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP2106572B1 (de) | 2014-05-07 |
WO2008091861A3 (en) | 2008-10-30 |
CA2675995A1 (en) | 2008-07-31 |
US20100050094A1 (en) | 2010-02-25 |
CA2675995C (en) | 2014-11-04 |
WO2008091861A2 (en) | 2008-07-31 |
EP2106572A4 (de) | 2010-10-27 |
US8615714B2 (en) | 2013-12-24 |
EP2106572A2 (de) | 2009-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guo et al. | Deep learning for real-time Atari game play using offline Monte-Carlo tree search planning | |
US8756183B1 (en) | System for representing, storing, and reconstructing an input signal | |
Lautenschlager | Estimating cranial musculoskeletal constraints in theropod dinosaurs | |
CN108052004A (zh) | 基于深度增强学习的工业机械臂自动控制方法 | |
DE592421T1 (de) | Vergleichende molekulare feldzerlegung. | |
EP2584493A3 (de) | Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess | |
CN104299245A (zh) | 基于神经网络的增强现实跟踪方法 | |
DE08713892T1 (de) | System und verfahren zur durchführung von mehreren simultanen, unabhängigen simulationen in einer bewegungserfassungsumgebung | |
Mizutani et al. | Whole brain connectomic architecture to develop general artificial intelligence | |
DE60211827T2 (de) | Aufzeichnungsmedium für Programm zur Verformung von 3D Modellen, Programm zur Verformung von 3D Modellen, 3D Verformungsverfahren und Videospielvorrichtung | |
Metzner et al. | Virtual training and commissioning of industrial bin picking systems using synthetic sensor data and simulation | |
CN103578120B (zh) | 保持时序平稳与低秩结构特性的三维人体运动数据补全方法 | |
Hertzmann et al. | Physics-based characters | |
CN108108475B (zh) | 一种基于深度受限玻尔兹曼机的时间序列预测方法 | |
Luo et al. | Applied Automatic Machine Learning Process for Material Computation | |
Larbi et al. | Developing a neural network algorithm as an additional online controller to the PID controller | |
Mosleh | Positivity Preserving Explicit Discrete Model for Malaria Propagation | |
Gholami et al. | Middle-Class Housing Analysis in the Second Pahlavi Period Based on the Shape Grammar (Case Study: Narmak Neighborhood and Ekbatan Town of Tehran) | |
Nabahat | Two-stage DEA with fuzzy data | |
Liao et al. | A robust physics-based 3D soft tissue parameters estimation method for warping dynamics simulation | |
Lara et al. | Wave and current interaction with moored floating bodies using overset method | |
Itoh et al. | Exercise classification using CNN with image frames produced from time-series motion data | |
Donges | Functional network macroscopes for probing past and present earth system dynamics: complex hierarchical interactions, tipping points, and beyond | |
Pax et al. | A greedy algorithm for reproducing crowds | |
Gu et al. | Object detection using unit-linking PCNN image icons |