KR20100084597A - Immersive collaborative environment using motion capture, head mounted display, and cave - Google Patents

Immersive collaborative environment using motion capture, head mounted display, and cave Download PDF

Info

Publication number
KR20100084597A
KR20100084597A KR20090043446A KR20090043446A KR20100084597A KR 20100084597 A KR20100084597 A KR 20100084597A KR 20090043446 A KR20090043446 A KR 20090043446A KR 20090043446 A KR20090043446 A KR 20090043446A KR 20100084597 A KR20100084597 A KR 20100084597A
Authority
KR
South Korea
Prior art keywords
virtual reality
simulation
motion capture
users
design
Prior art date
Application number
KR20090043446A
Other languages
Korean (ko)
Inventor
마이클 케이. 두빈
파스케일 론도트
에릭 디. 숀
마이클 알. 요켈
케빈 제이. 압쉬어
앤서티 레이 에스알. 하버
스콧 러벨
마이클 케이. 배런
Original Assignee
록히드 마틴 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/355,771 external-priority patent/US8615383B2/en
Application filed by 록히드 마틴 코포레이션 filed Critical 록히드 마틴 코포레이션
Publication of KR20100084597A publication Critical patent/KR20100084597A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/02CAD in a network environment, e.g. collaborative CAD or distributed simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A collaborative immersive environment using motion capture, an HMD and a CAVE is provided to evaluate a design while not constituting a prototype and to perform individual training without the prototype or location movement. CONSTITUTION: A motion capture system receives CAD(computer-aided design) data and is a VR simulator generating 3D(Dimensional) VR(Virtual Reality) simulation of a real size from the CAD data. The 3D VR simulation is indicated on a 3D HMD(Head Mount Display)(40) as a different projected figure. An observation system makes a user look at the VR simulation in three dimensions and in real time. The observation system makes the user form a collaborative immersive environment and makes other user evaluate a CAD design.

Description

모션 캡쳐, 헤드 마운트 디스플레이 및 CAVE를 사용하는 협업형 실감 환경{Immersive Collaborative Environment Using Motion Capture, Head Mounted Display, and CAVE}Immersive Collaborative Environment Using Motion Capture, Head Mounted Display, and CAVE}

본 발명은 넓게는 가상 현실 및 모션 캡쳐(motion capture)에 관한 것으로, 더 구체적으로는 모션 캡쳐를 이용하여 실제 및 가상 환경에서 사람이 상호 작용하도록 하는 시스템 및 프로그램에 관한 것이다.TECHNICAL FIELD The present invention relates generally to virtual reality and motion capture, and more particularly to systems and programs that enable human interaction in real and virtual environments using motion capture.

사용자가 상호 작용(interact)하거나 환경을 분석할 수 있도록 하는 다양한 기술이 존재한다. 예를 들어, 모션 캡쳐 기술은 스포츠, 의료 및 엔터테인먼트(특히, 비디오 게임 및 애니메이션) 분야에서 사용된다. 스포츠에서, 예를 들어 모션 캡쳐는 골퍼의 스윙 분석을 위해 디지털 방식으로 기록할 수 있도록 해준다. 의료 분야에서는, 정형 외과 재활 훈련시 모션 캡쳐를 이용하여 환자에게 피드백을 줄 수 있다. 예를 들면, 걷기 중인 환자의 움직임을 이용하여 정확한 또는 부정확한 테크닉을 나타낸다. 애니메이션 분야에서, 모션 캡쳐는 배우의 움직임 및 표정 표현까지도 컴퓨터 모델에 디지털 방식으로 기록될 수 있게 한다. 이후에, 애니메이터가 배우의 기록된 동작을 컴퓨터-생성 캐릭터의 움직임에 대한 근거로 이용한다. 이와 같이, 비디오 게임은 게임 내에서 살아 있는 것 같은 캐릭터의 애니메이션을 용이하게 표현하기 위해 모션 캡쳐를 사용한다.There are a variety of technologies that allow users to interact or analyze the environment. For example, motion capture technology is used in sports, medical and entertainment (especially video games and animation). In sports, for example, motion capture enables digital recording for golfer's swing analysis. In the medical field, motion capture can be used to provide feedback to patients during orthopedic rehabilitation training. For example, the movement of a walking patient is used to represent an accurate or inaccurate technique. In the field of animation, motion capture enables digital recording of actors' movements and facial expressions into computer models. The animator then uses the actor's recorded movement as the basis for the movement of the computer-generated character. As such, video games use motion capture to facilitate the animation of animated characters in the game.

가상 현실 기술(virtual reality technologies)은 사용자가 컴퓨터-시뮬레이션 환경에서 반응할 수 있도록 한다. 대부분의 가상 현실 환경은 컴퓨터 스크린 또는 입체적인 디스플레이에 의존하며, 주로 시각적인 경험이다. 가상 현실 기술의 대중적인 예는 비행 시뮬레이터 비디오 게임이다. 여기서 플레이어는 컴퓨터 시뮬레이션 환경에서 가상 항공기를 조종한다.Virtual reality technologies allow the user to react in a computer-simulated environment. Most virtual reality environments rely on computer screens or stereoscopic displays and are primarily visual experiences. A popular example of virtual reality technology is a flight simulator video game. Here the player controls a virtual aircraft in a computer simulation environment.

텔레프레즌스(Telepresence, 원격 현존감)는 사용자게 원거리를 경험하게 하거나 원거리에 존재하는 듯한 느낌을 주는 기술을 일컫는다. 예를 들어, 사용자가 원거리에 존재하는 것으로 느끼기에 충분한 크기 및 질의 디스플레이인 경우에, 텔레프레즌스는 사용자가 팬(pan), 기울임(tilt) 및 줌(zoom)을 사용할 수 있는 원격 비디오 카메라를 포함한다.Telepresence refers to a technology that allows users to experience distance or feel as if they are remote. For example, if the display is of sufficient size and quality to make the user feel remote, telepresence includes a remote video camera that the user can use pan, tilt and zoom. .

이러한 기술들 어느 것도 단독으로는, 인터액션(interaction, 상호 작용), 작업에 대한 가상 트레이닝, 그리고 생동감 있는 비디오를 이용한 시뮬레이션 확인을 통해 디자인을 평가하기 위한 협업형 실감 환경(collaborative immersive environment)을 제공하지 못한다.None of these technologies alone provide a collaborative immersive environment for evaluating designs through interactions, virtual training of tasks, and simulation validation using live video. can not do it.

위와 같은 문제를 해결하기 위해, 본 발명의 실시예는 예를 들면, 협업형 시각화 시스템을 제공한다. 이는 특히 디자인을 평가할 목적으로, 운동학 및 캐 드(CAD:computer aided design)과 함께 모션 캡쳐 및 가상 현실을 결합한다. In order to solve the above problem, an embodiment of the present invention provides, for example, a collaborative visualization system. It combines motion capture and virtual reality with kinematics and CAD (computer aided design), especially for the purpose of evaluating designs.

또한 본 발명의 실시예는 예를 들어, 실제 및 가상 환경에서 한 명 이상의 사람이 반응할 수 있도록 하는 휴대용 모션 캡쳐 시스템, 그리고 디자인 평가, 작업에 대한 가상 트레이닝, 및 무엇보다도 실사 비디오를 이용하여 시뮬레이션을 검증하는 헤드 마운트 디스플레이(HMD:head mounted display)를 제공한다. 나아가 본 발명의 실시예는 모션 캡쳐 시스템에 의해 추적되고 가상 현실 시뮬레이션에 포함될 객체(오브젝트, object)를 제공한다. 협업형 시각화 시스템의 실시예를 예를 들어 설명하면, 한 명 이상의 동시 사용자와, 한 명 이상의 외부 관찰자가 함께하며, 실시간 인터액션(interaction) 및 크기조절(스케일링)이 가능하고, 시뮬레이션 및 델레프레즌스 보기 사이의 전환을 가능하게 하는 실감 환경을 포함할 수 있다. 실감 환경은 예를 들면, 뷰어(viewer)를 둘러싸는 것처럼 보이는 3차원 또는 입체 이미지를 생성할 수 있다. 즉, 뷰어가 가상 환경에 "몰입(immersed)"된다.Embodiments of the present invention are also simulated using, for example, portable motion capture systems that allow one or more people to respond in real and virtual environments, and design evaluation, virtual training of tasks, and, above all, live video. It provides a head mounted display (HMD) that verifies. Further embodiments of the present invention provide an object (object) to be tracked by the motion capture system and to be included in the virtual reality simulation. An example of a collaborative visualization system is described using one or more concurrent users, one or more external observers, real-time interaction and scaling (scaling), simulation and depresence views. It may include a sensational environment that enables a transition between them. The sensational environment may, for example, generate three-dimensional or three-dimensional images that appear to surround the viewer. That is, the viewer is "immersed" in the virtual environment.

본 발명의 실시예는 예를 들면 가상 현실 시뮬레이터를 포함한다. 가상 현실 시뮬레이터는 CAD 디자인으로부터 데이터를 수신하고 데이터로 구성된 시뮬레이션을, 예를 들어 헤드 마운트 디스플레이(HMD: head mounted display)를 거쳐 사용자에게 디스플레이하고, 이로써 실제 크기(full-scale)의 입체 영상(이미지)이 생성된다. 예를 들어 이미지는 사용자가 시뮬레이션 내의 작업 손잡이(working knob) 및 스위치 상의 단어를 읽을 수 있을 만큼 상세하게 표현될 수 있다.Embodiments of the invention include, for example, a virtual reality simulator. The virtual reality simulator receives data from the CAD design and displays a simulation of the data, for example, to the user via a head mounted display (HMD), thereby producing a full-scale stereoscopic image (image). ) Is generated. For example, the image can be represented in detail so that the user can read the words on the working knob and switch in the simulation.

본 발명의 실시예는 나아가, 가상 현실 시뮬레이터에 삽입된 모션 캡쳐 시스 템을 포함한다. 예를 들어, 모션 캡쳐 시스템은 가상 현실 시뮬레이션 내에서 사용자의 운동 및 반응을 추적할 수 있다. 이에 따라 사용자(머리부터 전체 바디 수트 및 장갑까지, 유연하고 조절가능한 레벨의 세부 장치를 포함한, 모션 캡쳐 앙상블(한 벌의 옷)을 입고 있음)의 머리가 회전하거나 기울어질 때, 헤드 마운트 디스플레이(HMD)에 제공된 시뮬레이션의 영상이 상응하게 변화한다. 모션 캡쳐 시스템은 예를 들어, 트레이닝 또는 디자인 평가 목적을 포함하는 후속 사용을 위해 추적된 사용자의 움직임 및 인터액션을 저장할 수 있다. 또한, 모션 캡쳐 시스템은 가상 현실 시뮬레이션 내의 여러 사용자의 움직임 및 인터액션을 추적하여, 여러 사용자가 시뮬레이션 내에서 실시간으로 아바타(avatar)로 표현되도록 한다. 따라서, 여러 사용자는 시뮬레이션 내에서 조정된 활동(예를 들면, 항공기에서 일상적인 정비 수행)을 시뮬레이션할 수 있다. 추가로, 모션 캡쳐 시스템은 예를 들어, 사용자에 의해 사용되는 도구 및 프롭(prop)을 포함하는 대상물의 움직임 및 인터액션을 추적할 수 있다.Embodiments of the present invention further include a motion capture system embedded in a virtual reality simulator. For example, a motion capture system can track a user's movements and reactions within a virtual reality simulation. This allows the head-mounted display (when the head of the user (wearing a suit of motion capture ensemble, including a flexible and adjustable level of detail device, from head to full bodysuit and gloves) rotates or tilts). The image of the simulation provided in HMD) changes correspondingly. The motion capture system can store tracked user movements and interactions for subsequent use, including, for example, for training or design evaluation purposes. In addition, the motion capture system tracks the movements and interactions of multiple users in the virtual reality simulation, allowing multiple users to be represented as avatars in real time within the simulation. Thus, several users can simulate coordinated activities (eg, performing routine maintenance on an aircraft) within a simulation. In addition, the motion capture system can track the movement and interaction of the object, including, for example, tools and props used by the user.

본 발명의 실시예는 예를 들어, CAD 디자인을 평가하기 위해 공통적인, 실감 환경에서 아바타의 인터액션을 포함하는 가상 현실 시뮬레이션을 다수의 관찰자가 실시간으로 볼 수 있는, 실감형 관찰 시스템을 포함할 수 있다. 실감형 관찰 시스템은, 세 개의 벽과 바닥에 대한 디스플레이를 이용하여, 8-피트-높이 X 10-피트-폭 X 10-피트-길이의 룸과 같은 CAVE(Cave Automatic Virtual Environment)를 포함할 수 있다. 여기서, 한 명 이상의 관찰자는 실감형 및 인터액션 방식으로, 입체인 풀-스케일(실제 크기)의 영상을 포함하는 공유 환경을 본다. 효과적인 것은, CAVE 를 사용하여 CAD 디자인의 디자이너가, 비용이 많이 드는 프로토타입(prototype, 모델)을 형성할 필요 없이, 디자인을 분석 및 평가하기 위해, 시뮬레이터에 제안된 디자인과 광범위하게 인터액션하는 최종 사용자를 관찰할 수 있다는 것이다. 예를 들어, 관찰자는 항공기에 대한 정례적인 정비 동작을 수행하는 시뮬레이션 내의 사용자를 볼 수 있다. 또한, 예를 들어 훈련생이 기록된 모션 캡쳐 데이터에 반응하는 트레이너의 아바타를 봄으로써 다양한 작업을 수행하는 트레이너를 관찰할 수 있다. Embodiments of the present invention may include an immersive observation system that allows multiple observers to view, in real time, virtual reality simulations involving interaction of avatars in a common, immersive environment for evaluating CAD designs. have. An immersive viewing system can include a CAVE (Cave Automatic Virtual Environment), such as an 8-foot-height X 10-foot-width X 10-foot-length room, with a display on three walls and floors. have. Here, one or more observers view a shared environment that includes stereoscopic full-scale (actual size) images in a realistic and interactive manner. Effectively, CAVE enables designers of CAD designs to interact extensively with the proposed design in the simulator to analyze and evaluate the design without having to create costly prototypes. Can be observed. For example, an observer can see a user in a simulation performing regular maintenance operations on an aircraft. In addition, the trainer can observe the trainer performing various tasks, for example, by looking at the avatar of the trainer in response to the recorded motion capture data.

본 발명의 실시예에 따르면, 가상 현실 시뮬레이터는 실시간으로 각 아바타의 크기를 조절할 수 있다. 즉, 시뮬레이션 내의 5'4"의 사용자가 시뮬레이션 내에서 6'2"의 아바타가 되도록 실시간으로 조절할 수 있다. 5'4"의 사용자의 헤드 마운트 디스플레이(HMD)에 제공된 영상은 6'2"의 누군가에 의해 예기된 투시도에 대응한다. 시뮬레이션의 관찰자는 6'2"의 아바타를 볼 것이다. 크기 조절(스케일링)은 모션 캡쳐 데이터로부터 시뮬레이션 데이터로의 변화시 데이터의 각 면(aspect)에 대해 비율을 부가함으로써 이루질 수 있다. 선택적으로, 운동학 소프트웨어가 나머지 관절부위에 대한 문제를 해결하도록 정확한 위치에 아바타의 머리, 팔, 다리를 배치함으로써 실시간으로 크기 조절이 이루어질 수 있다. 또한, 스케일링은 실시간과 반대로, 후속 처리에 의해 이루어질 수도 있다.According to an embodiment of the present invention, the virtual reality simulator may adjust the size of each avatar in real time. In other words, the user of 5'4 "in the simulation can be adjusted in real time to be the avatar of 6'2" in the simulation. The image provided on the user's head mounted display (HMD) of 5'4 "corresponds to the perspective view anticipated by someone of 6'2". The observer of the simulation will see an avatar of 6'2 ". Scaling can be accomplished by adding a ratio for each aspect of the data upon change from motion capture data to simulation data. Scaling can be done in real time by placing the avatar's head, arms and legs in the correct position so that the kinematics software solves the problem of the remaining joints.Scaling can also be done by subsequent processing, as opposed to real time. .

본 발명의 실시예에 따르면, 가상 현실 시뮬레이터가 시뮬레이션 된 환경과의 인터액션을 포함할 수 있다. 이러한 일 예에서, 가상 현실 시뮬레이터는 시뮬레이션 내에 피드백을 제공하도록 충돌 검출 소프트웨어를 포함할 수 있다. 사용자가 시뮬레이션이 벽으로 나타낸 곳을 그의 손으로 미는 경우에, 예를 들면 가상 충돌이 검출된다. 손의 움직임은 충돌시 멈추거나 또는 사용자의 시야에서 사라지도록 설정되고, 벽의 패널은 피드백을 제공하고 충돌이 일어났음을 나타내기 위해, 색을 변경하도록 (또는 그 외의 다른 동작) 설정될 수 있다. 바람직한 구성에 따르면, 벽이 붉게 변한다. 이와 유사하게, 무릎이 시뮬레이션에서 툴 박스와 "충돌"하는 경우에, 툴 박스가 붉게 변한다. 구성 예에서, 충돌에 의해 소리가 나도록 하며, 소리는 사용자나 관찰자에 대해 충돌의 방향을 나타내는 방향성 있는 소리일 수 있다. 다양한 유형의 소리가 추가로 충돌의 격렬함 또는 충돌에 관련된 대상물(또는 물체)과 같은, 충돌 관련 정보를 제공할 수 있다. 예를 들어, 항공기의 일부에 머리가 부딪힌 사용자는 바닥과 충돌한 물체와 다른 소리를 낼 수 있다. 또한, 시뮬레이션은 예를 들어 문 또는 패널을 개방함으로써 검출된 충돌에 근거하여 동작을 변경할 수 있다.According to an embodiment of the invention, the virtual reality simulator may include interaction with the simulated environment. In one such example, the virtual reality simulator may include collision detection software to provide feedback within the simulation. If the user pushes with his hands where the simulation is represented by the wall, for example a virtual collision is detected. The movement of the hand may be set to stop in a collision or disappear from the user's field of view, and the panel of the wall may be set to change color (or any other action) to provide feedback and indicate that a collision has occurred. . According to a preferred configuration, the wall turns red. Similarly, if the knee "collides" with the toolbox in the simulation, the toolbox turns red. In the configuration example, the sound is caused by the collision, and the sound may be a directional sound indicating the direction of the collision for the user or observer. Various types of sounds may further provide collision related information, such as the intensity of the collision or the object (or object) involved in the collision. For example, a user whose head hits a portion of the aircraft may make a different sound than objects that hit the floor. The simulation can also change behavior based on collisions detected, for example by opening a door or panel.

또한, 본 발명의 실시예는 현장에서 작업을 캡쳐하기 위한 휴대용 모션 캡쳐를 포함할 수 있다. 이러한 시스템은 모션 추적 마커(수트, 몸체 또는 그 외의 옷상에 존재할 수 있음), 삼각대 상에 설치되거나 단단한 구조물 상에 고정된 복수의 카메라를 포함하여, 카메라가 모션 캡쳐 마커를 입고 있는 사용자의 움직임을 추적하고, 컴퓨터가 카메라로부터의 영상을 기록한다. 휴대용 모션 캡쳐 시스템은 원격 절차(예를 들어 필드 보존 동작: field maintenace operation)가 기록되도록 한다. 본 발명의 실시예에 따라 제공된 가상 현실 시뮬레이터 및 모션 캡쳐 시스템에 내제된 속성 때문에, 현존하는 디자인에 대한 동작 시퀀스 또는 현존하는 디자인의 실시간 평가를 위해, 또는 새로운 디자인과의 인터액션을 위해, 가상 현실 시뮬레이터에서 필드 보존 동작으로부터의 데이터가 이후에 연구될 수 있다. 나아가, 본 발명의 실시예에 따르면, 휴대용 모션 캡쳐 시스템은 현장에서 실시간 디자인 평가, 디자인 표현 및 원거리 위치에서의 훈련을 위해 유용하게 사용될 수 있다. 디자인의 평가는 예를 들면, 환경에 대한 디자인 평가, 디자인의 생명 공학적 측면에 대한 분석, 디자인과 관련된 작업에 대한 연구 및 본 발명이 속하는 분야의 기술자가 할 수 있는 그 이외의 사항을 포함할 수 있다.Embodiments of the invention may also include portable motion capture for capturing work in the field. Such systems include motion tracking markers (which may be present on suits, bodies, or other clothing), and multiple cameras mounted on tripods or fixed on rigid structures, so that the cameras can be moved by a user wearing a motion capture marker. Tracking, and the computer records the image from the camera. Portable motion capture systems allow remote procedures (eg field maintenace operations) to be recorded. Due to the inherent properties of the virtual reality simulator and motion capture system provided in accordance with an embodiment of the present invention, for the real-time evaluation of an existing design or for a sequence of motions for an existing design, or for interaction with a new design, a virtual reality simulator The data from the field preservation operation can then be studied. Further, according to an embodiment of the present invention, the portable motion capture system can be usefully used for real-time design evaluation, design representation, and training at remote locations in the field. Evaluation of a design may include, for example, an evaluation of the design of the environment, an analysis of the biotechnological aspects of the design, a study of work related to the design, and anything else that a person skilled in the art can do. have.

나아가, 본 발명의 실시예는 실감형 기술을 사용하는 실사 비디오를 이용하여 시뮬레이션을 검증하는 방법을 포함한다. 예를 들어, 이러한 방법의 실시예에 따르면, 구면(spherical) 카메라가 실사 비디오 또는 실사 스틸 사진을 원거리 위치에서 캡쳐한다. 이후에, 비디오 또는 사진이 헤드 마운트 디스플레이(HMD)에 제공된다. 모션 캡쳐 시스템은 사용자의 머리 회전 정보를 수집하고, 이는 비디오의 팬(pan), 기울임(tilt), 및 줌(zoom)을 제어하는 데 사용된다. 그리고나서 사용자는 시뮬레이션을 검증하는 방식으로, 실사 비디오의 디스플레이와 시뮬레이션을 전환할 수 있다. 또한, 비디오가 데스크 톱이나 CAVE에 디스플레이될 수 있다. 일 예로, 항공기 캐리어의 테크로부터 실사 영상을 캡쳐하기 위해 구면 카메라를 사용하는 것은 그러한 환경의 시뮬레이션을 검증하는데 사용될 수 있다.Furthermore, embodiments of the present invention include a method for verifying a simulation using live video using immersive techniques. For example, according to an embodiment of this method, a spherical camera captures live video or live still pictures at remote locations. Thereafter, a video or photo is provided to the head mounted display HMD. The motion capture system collects the user's head rotation information, which is used to control the pan, tilt, and zoom of the video. The user can then switch the display and simulation of the live video by verifying the simulation. Video can also be displayed on the desktop or CAVE. For example, using a spherical camera to capture live-action images from the tech of an aircraft carrier can be used to verify simulation of such an environment.

본 발명의 실시예는 본 발명이 속하는 분야의 기술자가 알 수 있는 바와 같이, 예를 들어, 여러 명의 동시 사용자 및 외부 관찰자를 포함하고, 실시간 인터액션 및 크기 조절(스케일링)을 이용하며, 시뮬레이션과 텔레프레즌스 보기 사이의 전환 능력을 이용하여, 실감 환경을 제공하는 시스템 및 방법을 포함한다. Embodiments of the invention, as will be appreciated by those skilled in the art, include, for example, multiple concurrent users and external observers, use real-time interaction and scaling (scaling), simulation and telepresence. Systems and methods that provide a sensory environment using the ability to switch between views.

이와 같은 본 발명의 실시예에 따르면, 프로토타입을 구성하지 않고 디자인을 평가하고, 프로토타입이나 위치 이동 없이 개인적인 훈련을 시킬 수 있는 향상된 방법을 제공한다. According to this embodiment of the present invention, there is provided an improved method for evaluating a design without constructing a prototype, and for personal training without prototyping or repositioning.

이하에서, 첨부된 도면 및 실시예와 함께 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail with the accompanying drawings and examples.

다르게 정의되었더라도, 이 명세서에 사용된 모든 기술적 및 과학적 용어는, 본 발명이 속하는 분야의 일반적인 기술자가 공통적으로 이해하는 의미와 동일하다. 이 명세서에 설명된 바와 동일하거나 유사한 방법이 실제로 사용되거나 본 발명을 테스트하는 데 사용될 수 있으나, 적합한 방법이 이 명세서에 기술된다.Although defined differently, all technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Although the same or similar methods as described herein can be used in practice or to test the invention, suitable methods are described herein.

상술한 본 발명의 실시예들은 단지 예시와 설명을 위한 것일 뿐이며, 본 발명을 설명된 형태로 한정하려는 것이 아니다. 따라서, 다양한 변화 및 변경을 할 수 있음은 본 발명이 속하는 분야의 당업자에게 자명하다. 또한, 이 명세서의 상세한 설명이 본 발명의 범위를 제한하는 것은 아니다. 명세서 전체에 걸쳐 동일한 도면부호는 동일한 구성요소를 나타낸다.The above-described embodiments of the present invention are for illustration and description only, and are not intended to limit the present invention to the described form. Accordingly, various changes and modifications can be made to those skilled in the art to which the present invention pertains. In addition, the detailed description of this specification does not limit the scope of the present invention. Like reference numerals denote like elements throughout the specification.

도 1 및 10에 도시된 바와 같이, 본 발명의 실시예는 협업형 시각화 시스템(collaborative visualization system, 20)을 포함한다. 이는 무엇보다도 디자인 평가, 작업에 대한 가상 훈련, 그리고 실사 비디오를 이용하여 시뮬레이션을 검증할 목적으로, 운동학 및 CAD와 함께 모션 캡쳐 및 가상 현실 기술을 통합한다. 또 한, 본 발명의 실시예는 예를 들어, 실감형 관찰 환경을 포함한다.As shown in FIGS. 1 and 10, an embodiment of the present invention includes a collaborative visualization system 20. It integrates motion capture and virtual reality technology with kinematics and CAD, first and foremost, to validate simulations using design evaluations, virtual training of tasks, and live action video. In addition, embodiments of the present invention include, for example, a realistic viewing environment.

본 발명의 실시예는, 예를 들면 가상 현실 환경을 생성하기 위한 가상 현실 시뮬레이터(58)를 포함한다. 가상 현실 시뮬레이터는 CAD 프로그램으로부터 데이터를 수신하고, 도 1, 2 및 5에 도시된 바와 같이 헤드 마운트 디스플레이(40)를 통해 사용자에게 투사된 디자인의 가상 현실 시뮬레이션을 생성할 수 있다. 또한, 시뮬레이션은 데스크 톱 또는 CAVE(44)를 통해 디스플레이될 수 있다. 가상 현실 시뮬레이션은 3차원이고, 사용자가 CAD 디자인을 조사, 평가하며 이와 인터액션할 수 있도록 한다. 시뮬레이션 환경은 실감형으로 분류된다. 왜냐하면 시뮬레이션이 3D이고 풀-스케일이기 때문이다. 사용자의 시야는 시뮬레이션 전체에 걸쳐 회전할 수 있으므로 사용자는 시뮬레이션에 몰두하게 된다.Embodiments of the present invention include, for example, a virtual reality simulator 58 for creating a virtual reality environment. The virtual reality simulator may receive data from the CAD program and generate a virtual reality simulation of the design projected to the user via the head mounted display 40 as shown in FIGS. 1, 2 and 5. In addition, the simulation can be displayed via the desktop or CAVE 44. Virtual reality simulation is three-dimensional and allows users to investigate, evaluate, and interact with CAD designs. Simulation environments are classified as realistic. Because the simulation is 3D and full-scale. The user's field of view can be rotated throughout the simulation, leaving the user immersed in the simulation.

항공기, 스페이스 시스템, 우주선, 선박 및 마사일 시스템에 대한 디자인 평가를 위해 실시예가 제공된다. 이는 종종 예를 들면 값비싼 실물 크기의 모형 및 프로토타입(모델)을 전형적으로 필요로 하는 고비용 평가 프로세스를 사용한다. 본 발명이 속하는 분야의 기술자가 알 수 있는 바와 같이, 고비용 평가 프로세스는 인간 공학적 분석 그리고, 동작 및 정비 작업을 위해 작업 분석을 포함할 수 있다. Embodiments are provided for design evaluation of aircraft, space systems, spacecraft, ships, and missile systems. It often uses a costly evaluation process that typically requires, for example, expensive full-scale models and prototypes (models). As will be appreciated by those skilled in the art, the high cost evaluation process may include ergonomic analysis and task analysis for operation and maintenance work.

본 발명의 실시예에 따르면, 사용된 가상 현실 소프트웨어는 DELMIA의 ENVISION(D5)을 포함한다. 본 발명이 속하는 분야의 기술자가 알 수 있는 바와 같이, 이러한 소프트웨어는 물리학-기반의, 3D 환경, 특히 설계, 검증, 그리고 구조물, 기계적 시스템 및 인간을 포함하는 개념 디자인의 신속한 모델화를 위한 3D 환경을 제공한다. 본 발명이 속하는 분야의 당업자가 알 수 있는 바와 같이, 소프트 웨어는 시스템 및 서브 시스템 레벨 모델을, 물리학-기반 운동, 가상 현실 실감, 및 고도로 정확한 3D 시뮬레이션과, 분석과 시각화에 대한 인간 공학적 평가 능력을 이용하여 강화한다. 또한, 본 발명의 실시예에 따르면, 가상 현실 환경을 생성하는데 사용된 그 이외의 소프트웨어 구성요소로는, 포인트 클라우드 데이터를 다각형으로 전환하는 데 사용된 소프트웨어 도구인, InnovMetric Software 사의 PolyWorks; 다각형 변환 및 축소 도구인, Okino Computer Graphics의 NuGraf; 다각현 변환 및 축소 도구인, Right Hemisphere의 Deep Exploration 또는 Deep Server; 그리고 코드 개발 스위트인 Microshoft의 MS Visula Studio가 있다. 본 발명의 실시예에 따르면, 이러한 소프트웨어를 지원하는 하드웨어는, 4 Dell Precision Workstations 670, 16x DVD-ROM, 48/32 CDRW, 2 MB L2 캐쉬를 포함한 Dual 3.0 Ghz Xeon, 800 FSB 4 GB RAM, n Vidia Quadro FX3400 256 MB, 136 GB HD를 포함한다. 본 발명이 속하는 분야의 기술자가 알 수 있는 것과 같이, 가상 현실 시뮬레이터는 하나 이상의 컴퓨터로 판독 가능한 매체에 저장되며, 컴퓨터에 의해 판독될 수 있는 컴퓨터 프로그램을 포함하며, 이에 따라 이하에 설명할 바와 같이 컴퓨터에 의해 판독될 때, 컴퓨터 프로그램은 다양한 명령을 수행하도록 동작한다.According to an embodiment of the present invention, the virtual reality software used comprises ENVISION D5 of DELMIA. As will be appreciated by those skilled in the art, this software creates a 3D environment for physics-based, 3D environments, in particular design, verification, and rapid modeling of conceptual designs involving structures, mechanical systems and humans. to provide. As will be appreciated by those skilled in the art, the software has the ability to evaluate system and subsystem level models, including physics-based motion, virtual reality, and highly accurate 3D simulation, and ergonomic evaluation of analysis and visualization. Enhance using. Further, according to an embodiment of the present invention, other software components used to create a virtual reality environment include PolyWorks of InnovMetric Software, a software tool used to convert point cloud data into polygons; NuGraf of Okino Computer Graphics, polygon transformation and reduction tool; Deep Exploration or Deep Server from Right Hemisphere, a polygon transform and collapse tool; And Microsoft Visula Studio from Microshoft, a code development suite. According to an embodiment of the present invention, the hardware supporting this software includes: 4 Dell Precision Workstations 670, 16 x DVD-ROM, 48/32 CDRW, Dual 3.0 Ghz Xeon, 2 MB L2 cache, 800 FSB 4 GB RAM, n Vidia Quadro FX3400 Includes 256 MB, 136 GB HD. As will be appreciated by those skilled in the art, a virtual reality simulator includes a computer program that is stored on one or more computer readable media and can be read by a computer, as described below. When read by a computer, the computer program operates to perform various instructions.

도 1, 2 및 3에 도시된 바와 같이, 본 발명의 실시예에 따르면, 모션 캡쳐 시스템(30)은 예를 들어 수트 상의 알려진 위치(예를 들면, 무릎, 허리 및 어깨 윗 부분)에 마커(52)를 가지는, 바디수트(32), 장갑(34), 및 헤드기어(36)를 착용한 사용자를 포함한다. 모션 캡쳐 시스템은 나아가 마찬가지로 가상 현실 시뮬레이터 에 표현될 마커를 가지는 실제 객체 또는 프랍(prop)을 포함할 수 있다. 카메 라(54)(도 8B에 도시됨)는, 사용자가 주변을 움직이거나 시뮬레이션과 인터액션함에 따라 마커의 위치를 디지털 방식으로 기록하고, 데이터 세트를 캡쳐한다. 이러한 모션 캡쳐 데이터는 실시간으로 가상 현실 시뮬레이터(58)에서 이용될 수 있으며, 이에 따라 사용자 및 이들의 움직임이 시뮬레이션 내에서 아바타(56)로 모델화되고, 피드백이 사용자에게 제공된다. 아바타는 전자 이미지이며, 이는 컴퓨터 게임이나 다른 가상 현실 설정에서 일반적으로 사람의 형태로 실현됨으로써 표현되고 컴퓨터 사용자에 의해 조작 및 구동된다.1, 2 and 3, in accordance with an embodiment of the present invention, motion capture system 30 may, for example, display markers at known locations on the suit (e.g., above the knee, waist and shoulders). 52, a user wearing a bodysuit 32, gloves 34, and a headgear 36. The motion capture system may further include a real object or prop with markers to be represented in the virtual reality simulator as well. Camera 54 (shown in FIG. 8B) digitally records the position of the marker and captures a data set as the user moves around or interacts with the simulation. This motion capture data can be used in the virtual reality simulator 58 in real time, such that the user and their movements are modeled into the avatar 56 in the simulation, and feedback is provided to the user. An avatar is an electronic image, which is represented by being realized in the form of a person, generally in a computer game or other virtual reality setting, and manipulated and driven by a computer user.

본 발명의 실시예에 따르면, 모션 캡쳐 시스템(30)은 카메라(54)(예, Motion Analysis Corporation의 12 Eagle-i 및 12 Hawk-i, 도 8B에 도시됨)로서, 헤드 마운트 디스플레이(40), 장갑(34)(예, Motion Analysis Corporation의 TALON 장갑) 및 바디 수트(32)를 착용한 6명의 공동 사용자를 이동하며 촬영하는 데 사용되는 트러스(38)(예, LxWxH가 20'x15'x10'임)에 장착된 카메라를 24개까지 포함한다. 본 발명의 실시예에 따르면, 모션 캡쳐 시스템(30)은 Motion Analysis Corporation의 소프트웨어를 사용하며, 다음의 플러그-인을 포함한다. 즉, Animation Plugins, RT2 Animation Plugins, Calcium 4, Talon Streaming 4, Talon Viewer 4, 및 EVaRT5를 포함한다. 본 발명에 속하는 분야의 기술자가 알 수 있는 바와 같이, 이러한 소프트웨어는 템플릿 및 프랍이 생성되도록 하고, 물리적 모형부터 사람의 전신에 이르기까지 모든 것을 추적하도록 특화된다. 또한, VRSim'의 SimIO 모듈이 시뮬레이션 엔진 소프트웨어 ENVISION D5에 의해 사용될 EVaRT에 의해 수집된 데이터를 멀티캐스트 하는데 사용될 수 있다. 당업자에게 이해될 수 있는 바와 같이, 예 를 들어 실시예에서 다른 개수의 카메라가 포함될 수 있다.According to an embodiment of the present invention, motion capture system 30 is a camera 54 (eg, 12 Eagle-i and 12 Hawk-i from Motion Analysis Corporation, shown in FIG. 8B), head mounted display 40. Truss 38 (e.g., LxWxH is 20'x15'x10) used to move and shoot six co-users wearing gloves 34 (e.g., TALON gloves from Motion Analysis Corporation) and body suit 32 It includes up to 24 cameras mounted in 'im). According to an embodiment of the present invention, motion capture system 30 uses the software of Motion Analysis Corporation and includes the following plug-ins. That is, it includes Animation Plugins, RT2 Animation Plugins, Calcium 4, Talon Streaming 4, Talon Viewer 4, and EVaRT5. As will be appreciated by those skilled in the art, this software is specialized to allow templates and props to be created and to track everything from physical models to the human body. In addition, VRSim's SimIO module can be used to multicast data collected by EVaRT for use by simulation engine software ENVISION D5. As will be appreciated by those skilled in the art, other numbers of cameras may be included, for example, in embodiments.

본 발명의 일 실시예에 따르면, 가상 현실 시뮬레이터는 예를 들어, 실시간으로 각 아바타의 크기를 조절할 수 있다. 즉, 시뮬레이션 내의 5'4"의 사용자가 실시간으로 시뮬레이션 내의 6'2"의 아바타로 크기 조절될 수 있다. 5'4"의 사용자의 헤드 마운트 디스플레이에 제공된 영상이 누군가에 의해 의도된 6'2" 투시도에 대응한다. 시뮬레이션의 관찰자는 6'2"의 아바타를 보게 될 것이며, 아바타의 포즈는 사용자의 포즈와 일치한다. 크기조절(스케일링)은 모션 캡쳐 데이터로부터 시뮬레이션 데이터로의 전환시 데이터의 각 면(aspect)에 대해 비율을 적용함으로써 일어진다. 선택적으로, 크기조절은 정확한 위치에 아바타의 머리, 손 및 발을 위치시킴으로써 운동학적 소프트웨어가 다른 결합부(관절 부분)에 대한 문제를 처리하도록 함으로써 이루어진다. 도 9는 서로 다른 크기로 조절된 4 개의 아바타(모두 동일한 사용자에 의해 구동됨)를 도시하며, 따라서 모두가 동일한 포즈(또는 자세)를 취한다. 크기조절은 실시간과 반대로, 후속 처리 동작시 이루어질 수도 있음에 주의한다. 즉, 예를 들어 6'2"의 제 1 크기를 가진 사용자(훈련생)를 원거리 트레이닝하기 위해, 제 1 크기(예, 6'2")의 아바타가, 제 1 사이즈와 다른 제 2 사이즈(예, 5'4")의 사용자(트레이너)로부터의 모션 캡쳐 데이터에 응답하여 디스플레이 될 수 있다. According to an embodiment of the present invention, the virtual reality simulator may adjust the size of each avatar in real time, for example. That is, a 5'4 "user in the simulation can be scaled to a 6'2" avatar in the simulation in real time. An image provided on a 5'4 "user's head mounted display corresponds to a 6'2" perspective intended by someone. The observer of the simulation will see an avatar of 6'2 ", and the pose of the avatar matches the pose of the user. Scaling is applied to each aspect of the data when switching from motion capture data to simulation data. Optionally, scaling is accomplished by having the kinematic software address the problem with other joints (joints) by placing the avatar's head, hands, and feet in the correct position. It shows four avatars scaled to different sizes (all driven by the same user), and therefore all take the same pose (or pose). Be careful. That is, for example, to distance train a user (trainee) with a first size of 6'2 ", the first size (eg 6'2"). The avatar may be displayed in a first size and a second, different size (e.g., 5'4 ") user in response to the motion capture data from the (trainer) of.

도 1, 2 및 5에 도시된 바와 같이, 본 발명의 실시예에 따르면, 사용자는 헤드 마운트 디스플레이(40)를 통해 시각적으로 가상 현실 환경을 경험하고, 헤드 마운트 디스플레이의 각각은 다르게 투시된 가상 현실 시뮬레이션을 포함할 수 있다. 풀 스케일 데이터의 실감형 시각화를 위해 사용자가 착용한 스테레오 디스플레이 헬멧을 포함할 수 있다. 본 발명이 속하는 분야의 당업자에게 이해될 수 있는 바와 같이, 헤드 마운트 디스플레이(40)의 한 유형인, Virtual Research의 VR1280은 모노 또는 스테레오의 60Hz, 1280x1204의 디스플레이 성능을 가진다. 당업자에 의해 이해될 수 있는 바와 같이 헤드 마운트 디스플레이는 서로 다른 영상으로 왼쪽 눈과 오른쪽 눈 디스플레이를 개별화하여, 사용자가 헤드 마운트 디스플레이에서 영상을 입체적으로 보도록 한다.1, 2 and 5, according to an embodiment of the present invention, the user visually experiences a virtual reality environment through the head mounted display 40, and each of the head mounted displays is viewed in different perspectives. It can include a simulation. It may include a stereo display helmet worn by the user for tangible visualization of the full scale data. As will be appreciated by those skilled in the art, Virtual Research's VR1280, a type of head mounted display 40, has a display performance of 60Hz, 1280x1204 in mono or stereo. As will be appreciated by those skilled in the art, the head mounted display individualizes the left eye and right eye displays into different images, allowing the user to view images in three dimensions on the head mounted display.

본 발명의 일 실시예에서, 3D 장면을 디스플레이하는데 사용되는 소프트웨어는 OpenSceneGraph 3D 그래픽스 툴 키트(toolkit)에 근거할 수 있다. VRSim의 MiniViz는 사용자가 동작중인 ENVISION (D5) 시뮬레이션을 볼 수 있도록 하는 뷰어이다. 이 뷰어는 환경 내의 모델을 로드하고, 이 모델의 위치에 대한 ENVISION (D5) 시뮬레이션 및 추적된 뷰 포인트(viewpoint)를 참조한다.In one embodiment of the invention, the software used to display the 3D scene may be based on the OpenSceneGraph 3D graphics toolkit. VRSim's MiniViz is a viewer that allows users to see running ENVISION (D5) simulations. This viewer loads the model in the environment and references the ENVISION (D5) simulation and tracked viewpoints for the model's location.

본 발명의 실시예는 헤드 마운트 디스플레이를 지원하는 컴퓨터 워크스테이션을 제공한다. 본 발명의 일 실시예에서, 네 개의 헤드 마운트 디스플레이를 지원하는데 사용된 하드웨어에는, 4 Dell Precision Workstation 670, 16x DVD-ROM 48/32 CDRW, 2MB L2 캐시를 포함한 Dual 3.0 Ghz Xeon, 800 FSB, 4GB RAM, nVidia Quadro FX3400 256 MB, 136 GB HD가 포함된다. 편의를 위해 그리고 당업자가 이해할 수 있는 바와 같이, Hergo Easy Mount Mobile Computer Cart - Star Base 42(도 4에 도시됨)는 본 발명의 실시예에 따라, 각 세트의 장치(컴퓨터, 키보드, 마우스, 헤드 마운트 디스플레이(40), 탈론 글로브(34) 및 Hergo의 평판 모니터 포함)를 장 착하는데 사용될 수 있다.Embodiments of the present invention provide a computer workstation that supports a head mounted display. In one embodiment of the invention, the hardware used to support four head mounted displays includes 4 Dell Precision Workstation 670, 16x DVD-ROM 48/32 CDRW, Dual 3.0 Ghz Xeon, 800 FSB, 4GB with 2MB L2 cache. RAM, nVidia Quadro FX3400 256 MB, 136 GB HD. For convenience and as will be appreciated by one of ordinary skill in the art, Hergo Easy Mount Mobile Computer Cart-Star Base 42 (shown in FIG. 4), according to an embodiment of the present invention, comprises a set of devices (computer, keyboard, mouse, head). Mount display 40, including Talon glove 34 and Hergo's flat panel monitor).

본 발명의 실시예에 따르면, 가상 현실 시뮬레이터는 에를 들어 시뮬레이션 된 환경과의 인터액션을 포함할 수 있다. 이러한 예에서, 가상 현실 시뮬레이터는 충돌 검출 소프트웨어를 포함하여 시뮬레이션 내에서 피드백을 제공할 수 있다. 시뮬레이션이 벽이 존재하는 것을 나타내는 곳에 사용자가 손을 찌르는 경우에, 가상 충돌이 검출된다. 손은 충돌 시간에 멈춰지거나 사용자의 시야에서 사라질 수 있으며, 벽의 패널 색이 변경되어(또는 다른 동작이 일어남) 피드백을 제공하고 충돌이 발생했음을 표시한다. 바람직한 구성에서, 벽은 붉은 색으로 변한다. 유사하게, 무릎이 시뮬레이션 내의 폭탄과 "충돌"하면, 폭탄이 붉은 색으로 변한다. 일 실시예에서, 객체의 외관이 충돌에 반응하여 변경된다. 일 실시예에서는, 충돌에 의해 소리가 난다. 소리는 사용자 또는 관찰자에 대한 충돌의 방향을 표시하는 방향성 있는 소리이다. 다양한 유형의 소리가, 격렬함과 같은 충돌에 관한 정보 또는 충돌에 관련된 객체에 관한 정보를 추가로 제공할 수 있다. 예를 들어, 항공기의 일부에 사용자가 머리를 부딪치는 것은 바닥과 충돌하는 객체와 다른 소리를 낸다. 추가로, 시뮬레이션은, 예를 들어 문이나 패널을 염으로써, 검출된 충돌에 근거하여 그 동작을 변경한다. 또한, 이러한 충돌 검출 특성은 시뮬레이션 내에서 가상 객체를 잡는것을 용이하게 하는 데 사용될 수 있으며, 이로써 가상 환경에서 객체가 이동되거나 조작되도록 할 수 있다. 충돌은 또한 아바타 사이에서 그리고 시뮬레이션 된 핸드 툴 및 시뮬레이션 된 벽 사이와 같은 시뮬레이션 된 객체 사이에서 일어날 수 있다.According to an embodiment of the present invention, the virtual reality simulator may include, for example, interaction with a simulated environment. In this example, the virtual reality simulator may include collision detection software to provide feedback within the simulation. If the user stabs his hand where the simulation indicates that the wall is present, a virtual collision is detected. The hand may stop at crash time or disappear from the user's field of view, and the panel color of the wall changes (or other actions take place) to provide feedback and indicate that a collision has occurred. In a preferred configuration, the walls turn red. Similarly, when the knee "collides" with the bomb in the simulation, the bomb turns red. In one embodiment, the appearance of the object is changed in response to the collision. In one embodiment, the sound is caused by the collision. Sound is a directional sound that indicates the direction of the collision for the user or observer. Various types of sounds may further provide information about the collision, such as the intensity, or information about the objects involved in the collision. For example, a user's head hitting a part of an aircraft sounds different from objects colliding with the floor. In addition, the simulation changes its behavior based on the detected collision, for example by salting a door or panel. This collision detection feature can also be used to facilitate grabbing the virtual object within the simulation, thereby allowing the object to be moved or manipulated in the virtual environment. Collisions can also occur between avatars and between simulated objects such as between simulated hand tools and simulated walls.

본 발명의 실시예는 또한, 실감형 관찰 환경을 포함할 수 있다. 관찰 환경은 디자이너가 아바타(56, 도 9 참조)를 포함하는 가상 현실 시뮬레이션을 관찰하고 이와 인터액션할 수 있게 하며, 사용자로부터의 모션 캡쳐 데이터에 의해 실시간으로 구동될 수 있다. 도 1에 도시된 바와 같이, 관찰 환경은 CAVE(Cave Automatic Virtual Environment)(44)인, 세 개의 벽과 바닥 상의 디스플레이를 이용하여, 예를 들면 8피트 높이 x 10피트 폭 x 10피트 길이의 재구성 가능한 룸을 포함할 수 있다. 이 룸에서 한 명 이상의 관찰자가, 입체 및 풀 스케일 영상을 포함하는 실감형 방식으로 공통 환경을 볼 수 있다. 당업자가 이해할 수 있는 바와 같이, Mechdyne의 CAVE(44)는 96Hz에서 1280 x 1024 x 96의 해상도를 디스플레이한다. 따라서, 디자이너 및 다른 관찰자는 시뮬레이션 내의 사용자의 상세한 인터액션을 실시간으로 볼 수 있다. 구성 예에서, CAVE(44)의 하나의 벽은 전체 광경을 디스플레이하는 데 사용될 CAVE(44)의 나머지 두 개의 벽과 바닥으로 모든 개별적인 뷰 포인트를 디스플레이하는데 사용될 수 있다. 이러한 구성 예에서, 시뮬레이션 몰입된 관찰자가 아바타(56) 포즈 및 아바타 뷰 포인트를 동시에 볼 수 있다. 다른 가용 데이터(가령 온도, 거리 측정, 시간 등)는 볼 수 있거나 없거나 간에, 이 구성 예에 따라 CAVE(44)의 하나의 벽 상에 디스플레이될 수도 있다.Embodiments of the invention may also include an immersive viewing environment. The viewing environment allows the designer to observe and interact with the virtual reality simulation including the avatar 56 (see FIG. 9) and may be driven in real time by motion capture data from the user. As shown in FIG. 1, the viewing environment is a Cave (Cave Automatic Virtual Environment) 44, using a display on three walls and floors, for example, 8 feet high x 10 feet wide x 10 feet long. Possible rooms may include. In this room, one or more observers can view a common environment in a realistic way, including stereoscopic and full-scale images. As will be appreciated by those skilled in the art, Mechdyne's CAVE 44 displays a resolution of 1280 x 1024 x 96 at 96 Hz. Thus, designers and other observers can see detailed interactions of users in the simulation in real time. In a configuration example, one wall of CAVE 44 can be used to display all individual view points with the other two walls and floor of CAVE 44 that will be used to display the entire scene. In this configuration example, the simulated immersive observer can simultaneously view the avatar 56 pose and avatar view point. Other available data (such as temperature, distance measurement, time, etc.) may be displayed or displayed on one wall of CAVE 44 according to this configuration example, whether viewed or not.

본 발명의 일 실시예에서, 3D 광경을 디스플레이하는 데 사용된 소프트웨어는 3D 그래픽 오픈 소스 툴 키트인, OpenSceneGraph에 기반한다. 헤드 마운트 디스플레이에 대한 독립형 뷰어와 매우 유사하게, CAVE(44)는 MiniViz 소프트웨어 프로그램을 사용할 수 있다. 그러나, 각 스크린의 투영도는 Mechdyne의 CAVELib라 불리 는 응용 프로그램 인터페이스(API:application programmer's interpace)를 이용하여 매핑될 수 있다. 또한 CAVE(44)를 동작시키는 것은, 본 발명의 실시예에 따라 Vega, Vega Prime, 및 Ensight Gold와 같은 다른 프로그램을 포함할 수 있다. In one embodiment of the invention, the software used to display the 3D scene is based on OpenSceneGraph, a 3D graphics open source tool kit. Much like a standalone viewer for a head mounted display, CAVE 44 can use a MiniViz software program. However, the projection of each screen can be mapped using Mechdyne's application programmer's interface (API) called CAVELib. Operating CAVE 44 may also include other programs, such as Vega, Vega Prime, and Ensight Gold, in accordance with embodiments of the present invention.

본 발명의 실시예는, 시뮬레이션 내에서 관찰자가 주위를 쉽게 이동할 수 있도록 하는 헤드 추적 장치(46, 도 6 참조) 및 완드 하드웨어(48, 도 7 참조)를 포함할 수 있다. 본 발명의 일 실시예에 따르면, InterSense Is-900은 관성 및 초음파 센서의 조합을 사용하여 헤드 추적 장치 및 완드(wand)의 위치를 결정한다. 헤드 추적 장치 및 완드를 동작시키는 소프트웨어는 VRCO의 Trackd 5.5라 불리는 프로그램을 포함한다. 당업자가 알 수 있는 바와 같이, Trackd 애플리케이션은 헤드 추적 장치 및 완드로부터 정보를 받아 이 정보가 CAVELib 또는 ENVISION (D5) 시뮬레이션에서 이용되게 한다. 이러한 추적 정보는 CAVE(44)의 벽 및 바닥 상의 투영도를 수정하는데 적용될 수 있다.Embodiments of the present invention may include head tracking devices 46 (see FIG. 6) and wand hardware 48 (see FIG. 7) that allow the observer to easily move around in the simulation. According to one embodiment of the invention, the InterSense Is-900 uses a combination of inertial and ultrasonic sensors to determine the position of the head tracking device and wand. The software that runs the head tracking device and wands includes a program called VRCO's Trackd 5.5. As will be appreciated by those skilled in the art, the Trackd application receives information from the head tracking device and wands and makes this information available to the CAVELib or ENVISION (D5) simulation. This tracking information can be applied to modify the projections on the walls and floor of the CAVE 44.

또한 본 발명의 실시예는 예를 들어 시뮬레이션 및 텔레프레즌스 보기(view)를 전환하는 성능을 가지는 실감 환경을 포함할 수 있다. 텔레프레즌스 보기는 CAVE(44), 헤드 마운트 장치(40) 또는 데스크 톱 디스플레이를 통해 가능하다. 텔레프레즌스 보기에 대한 내용은 원거리 위치(예를 들면, 항공기 캐리어의 표면)에서 구면 카메라(50, 도 8A 참조)를 통해 수집된다. 본 발명의 실시예에 따르면, 구면 카메라(50)는 구의 75%를 캡쳐하는 하나의 장치에 내장된 6 개의 디지털 카메라 세트를 포함한다. 헤드 마운트 디스플레이(40) 또는 CAVE(44)에 동적 장면이 디스플레이될 수 있다. 여기서 사용자는 시뮬레이션 검증을 돕는 실사 비디오 정보를 실감할 수 있다. 당업자가 알 수 있는 바와 같이, Ladybug2는 6 개의 1024x768 CCD를 사용하는 4.7 메가픽셀(MegaPixel) 비디오 캡쳐 장치이다. 본 발명의 실시예에 다르면, Point Grey Reserach의 Ladybug2에는 소프트웨어 개발 환경인 Ladybug2 SDK와 컨텐츠 캡쳐를 가능하게 하는 LadybugCap이라 불리는 도구가 딸려 있다. 이러한 소프트웨어는 당업자가 이해할 수 있는 바와 같이, 재생(playback)을 위한 구면 avi 파일을 생성한다. 일 실시예에서, Ladybug 3은 더 좋은 해상도를 얻기 위해 사용되나 프레임 속도가 낮다. Embodiments of the present invention may also include a sensational environment having the ability to switch simulation and telepresence views, for example. Telepresence view is possible via the CAVE 44, the head mounted device 40 or the desktop display. Information about the telepresence view is collected through a spherical camera 50 (see FIG. 8A) at a remote location (eg, surface of the aircraft carrier). According to an embodiment of the invention, the spherical camera 50 comprises a set of six digital cameras built into one device that captures 75% of the sphere. Dynamic scenes may be displayed on the head mounted display 40 or CAVE 44. Here, the user can feel the live video information to help verify the simulation. As will be appreciated by those skilled in the art, Ladybug2 is a 4.7 MegaPixel video capture device using six 1024x768 CCDs. According to an embodiment of the present invention, Ladybug2 of Point Gray Reserach comes with a ladybug2 SDK, a software development environment, and a tool called LadybugCap, which enables content capture. Such software creates spherical avi files for playback, as will be appreciated by those skilled in the art. In one embodiment, Ladybug 3 is used to obtain better resolution but with a lower frame rate.

당업자가 알 수 있는 바와 같이, 구면 카메라(50)는 1GB 증가하는 데이터 파일(이는 2 초 또는 2 분일 수 있음)을 생성한다. 따라서, 30초의 비디오 캡쳐가 1GB 마다 15개의 파일로 바뀐다. 이러한 파일은 보기 가능한 포맷으로 변환될 것을 요한다. 다른 해결방법은 비디오 편집기를 사용하며, 더 작은 제 2 레벨 비디오 파일을 생성하기 위해 질을 감소시키는 프로세스에서, 단일 비디오 파일을 형성하기 위해 제 1 보기 가능 파일을 서로 붙이기 한다. 대조적으로, 본 발명의 실시예는 제 1 레벨 비디오 파일을 버퍼로 판독하고, 제 1 파일, 최종(last), 현재(current), 현재 파일 이전 파일(the file before the current) 및 현재 파일 이후 파일(the file after the current)과 같은 인덱스를 제공한다. 이는 마치 이들이 단일 비디오 파일인 것과 같이 많은 파일을 가지는 비디오 그룹이 재생되도록 한다.As will be appreciated by those skilled in the art, spherical camera 50 generates a 1GB incremental data file (which can be 2 seconds or 2 minutes). Thus, 30 seconds of video capture translates into 15 files per GB. These files need to be converted into a viewable format. Another solution uses a video editor, in which the first viewable file is pasted together to form a single video file, in a process of decreasing quality to produce a smaller second level video file. In contrast, an embodiment of the present invention reads a first level video file into a buffer and stores the first file, the last, current, the file before the current and the file after the current file. Provide an index such as (the file after the current). This allows a video group with many files to be played as if they were a single video file.

본 발명의 실시예에 따르면, 실사 객체(object)가 가상 현실 시뮬레이터를 위한 모델을 생성하도록 스캔될 수 있다. 본 발명의 일 실시예에서, Creatform Handy Scan EXAscan이 이용될 수 있다. 본 발명의 일 실시예에서, Lecica HDS 3000이 사용된다. Lecica HDS 3000은 3D 모델이 아직 존재하지 않는 곳에 고품질 3D 모델을 빠르게 생성하도록 장치를 스캔하는 레이저 기반 장치이다. 당업자가 알 수 있는 바와 같이, 실제에서, 스캐너의 실 해상도는 모델화되지 않은 데이터에 대해 1/4"의 포인트 정밀도 그리고 포인트 클라우드(point cloud)로부터의 다중 포인트에 기반하여 모델화된 데이터에 대해 1/8"의 포인트 정밀도이다. 본 발명의 실시예에 따르면, 영역을 캡쳐하고, 해상도를 설정하며, 포인트 클라우드를 등록하는데 사용된 소프트웨어는 Cyclone이다. 또한 클라우드를 등록하고 시뮬레이션에 삽입될 다각형 도형을 생성하는 데 PolyWorks가 사용된다. 본 발명의 실시예에 따르면, 장치를 지원하는 하드웨어는 Dell Precision M70 Laptop, 1.86GHz, 1GB RAM 및 Nvidia Quadro FX Go 1400일 수 있다.In accordance with an embodiment of the invention, a photorealistic object may be scanned to create a model for a virtual reality simulator. In one embodiment of the present invention, Creatform Handy Scan EXAscan may be used. In one embodiment of the invention, Lecica HDS 3000 is used. The Lecica HDS 3000 is a laser-based device that scans devices to quickly create high quality 3D models where 3D models do not yet exist. As will be appreciated by those skilled in the art, in practice, the actual resolution of a scanner is 1/1 for data modeled based on 1/4 "point precision for unmodeled data and multiple points from a point cloud. 8 "point precision. According to an embodiment of the invention, the software used to capture the area, set the resolution, and register the point cloud is Cyclone. PolyWorks is also used to register the cloud and generate polygonal shapes that will be inserted into the simulation. According to an embodiment of the invention, the hardware supporting the device may be a Dell Precision M70 Laptop, 1.86 GHz, 1 GB RAM and Nvidia Quadro FX Go 1400.

본 발명의 실시예는 예를 들어 현장에서 작업을 캡쳐하기 위한 휴대용 모션 캡쳐 시스템을 포함할 수 있다. 휴대용 모션 캡쳐 시스템의 실시예에 따르면, 시스템은 사전 지정된 위치의 마커와, 모션 캡쳐 수트, 삼각대(tripod)에 설치된 복수의 카메라를 포함하여, 카메라가 모션 캡쳐 수트를 입은 사용자의 움직임을 추적하고, 카메라로부터의 영상을 기록한 컴퓨터나 그 외의 저장 매체를 포함한다. 현장에서 작업(task)을 캡쳐하기 위한 휴대용 모션 캡쳐 시스템의 다른 실시예에 따르면, 시스템은 사전 지정된 위치의 마커와, 모션 캡쳐 수트를 포함하고, 단단한 구조물에 고정된 복수의 카메라를 포함하여 모션 캡쳐 수트를 착용한 사용자의 움직임을 추적하며, 그리고 카메라로부터의 영상을 기록하고, 복수의 카메라로부터 기 록된 영상에 응답하여 바디 수트에 연결된 마커의 위치를 디지털 방식으로 기록하는 컴퓨터 또는 다른 매체를 포함한다. 트레이닝 애플리케이션에서, 예를 들면 제 1 위치에 존재하는 원격 트레이너의 움직임이 제 2 위치에 있는 훈련생의 트레이닝을 위해 뒤에 또는 실시간으로 추적 및 캡쳐될 수 있다. 또한, 한 명 이상의 사용자의 움직임이 작업 분석(예를 들면, 인간 공학상 및 효율 분석을 포함함)을 위해 추적 및 캡쳐될 수 있다. 예를 들어 다른 실시예에서, 휴대용 모션 캡쳐 시스템은 필드(현장)에서의 실시간 디자인 평가를 위해 그리고 예를 들면 새로운 디자인을 포함하는 디자인 발표 또는 실연을 위해 사용될 수 있다.Embodiments of the invention may include, for example, a portable motion capture system for capturing work in the field. According to an embodiment of a portable motion capture system, the system includes a marker at a predetermined location, a motion capture suit, a plurality of cameras mounted on a tripod, so that the camera tracks the movement of a user wearing a motion capture suit, A computer or other storage medium that records an image from a camera is included. According to another embodiment of a portable motion capture system for capturing tasks in the field, the system includes a plurality of cameras including a marker at a predetermined location, a motion capture suit, and fixed to a rigid structure. A computer or other medium that tracks the movement of a user wearing the suit and records images from a camera and digitally records the position of a marker connected to the body suit in response to images recorded from the plurality of cameras. . In a training application, for example, the movement of the remote trainer present at the first location can be tracked and captured behind or in real time for the training of the trainee at the second location. In addition, the movement of one or more users can be tracked and captured for task analysis (including, for example, ergonomic and efficiency analysis). For example, in another embodiment, a portable motion capture system can be used for real-time design evaluation in the field and for example design presentations or demonstrations involving new designs.

본 발명의 실시예는 도 11에 도시된 바와 같은, 공학 디자인을 평가하는 방법을 포함한다. 이 방법은 가상 현실 환경에서 CAD 디자인을 시뮬레이션하는 단계(단계 80) 및 가상 현실 시뮬레이션과 인터액션하는 사용자로부터 획득된 모션 캡쳐 데이터를 사용하여 가상 현실 시뮬레이션 내에 하나 이상의 아바타를 구동하는 단계(단계 81)를 포함한다. 이 방법은 계속하여 CAD 디자인을 평가하기 위해 협업형 실감 환경 내의 다수의 관찰자에 대해 하나 이상의 아바타의 인터액션을 포함하는 가상 현실 시뮬레이션을 디스플레이하고(단계 82), 이로써 CAD 디자인에 따라 구현된 제품(product)과 관련된 작업이 사전 지정된 범위의 사용자 사이즈(size)로 수행될 수 있다는 것을 검증한다.Embodiments of the present invention include a method of evaluating engineering design, as shown in FIG. The method includes simulating a CAD design in a virtual reality environment (step 80) and driving one or more avatars within the virtual reality simulation using motion capture data obtained from a user interacting with the virtual reality simulation (step 81). Include. The method continuously displays a virtual reality simulation that includes the interaction of one or more avatars for multiple observers in the collaborative sensory environment to evaluate the CAD design (step 82), thereby implementing the product according to the CAD design. ) Can be performed with a user size of a predetermined range.

본 발명의 실시예는 도 12에 도시된 바와 같이, 실감 기술을 사용하여 실사 비디오를 이용한 시뮬레이션을 검증하는 방법을 포함한다. 이 방법은 원거리에 위치한 구면 카메라로 실시 비디오를 캡쳐하는 단계(단계 90)와, 헤드 마운트 디스플 레에 비디오를 제공하는 단계(단계 91)를 포함한다. 계속하여 이 방법은 모션 캡쳐 시스템에 의해 사용자의 머리 회전 정보를 캡쳐하는 단계(단계 92)와 사용자의 머리 회전 정보에 의해 비디오의 팬(pan), 기울임(tilt) 및 줌(zoom)을 제어하는 단계(단계 93)를 포함한다. 이 방법은 또한, 실사 비디오 디스플레이 및 시뮬레이션(단계 94)을, 사용자의 제어하에, 전환하는 단계(단계 94)를 포함할 수 있다.An embodiment of the present invention includes a method for verifying a simulation using live video using sensory techniques, as shown in FIG. 12. The method includes capturing live video with a spherical camera located remotely (step 90) and providing video to a head mounted display (step 91). The method continues by capturing the user's head rotation information by the motion capture system (step 92) and controlling the pan, tilt and zoom of the video by the user's head rotation information. Step 93 (step 93). The method may also include switching live video display and simulation (step 94), under the control of the user (step 94).

본 발명의 실시예는 또한 실제 컴퓨터 메모리 매체에 저장되며, 컴퓨터에서 동작하는 컴퓨터 프로그램 (제품)을 포함한다. 이 컴퓨터 프로그램은 한 세트의 명령을 포함하며, 이는 컴퓨터에 의해 수행될 때, 컴퓨터가 다양한 동작을 수행하도록 한다. 예를 들어, 이러한 동작은 CAD 데이터를 수신, CAD 데이터로부터 가상 현실 디자인의 시뮬레이션을 위한 비디오 신호 발생, 서로 및 시뮬레이션과 인터액션하는 여러 사용자를 추적하기 위한 제공, 시뮬레이션과 인터액션하는 객체를 추적하기 위한 제공, 시뮬레이션 내의 크기 조절된 아바타 생성, 공통 실감 환경을 위한 비디오 신호 생성, 그리고 비디오, 그래픽 또는 이들 모두 중 어느 하나를 선택하기 위한 사용자 입력 수신을 포함한다. Embodiments of the invention also include computer programs (products) that are stored on actual computer memory media and that operate on a computer. This computer program includes a set of instructions that, when executed by a computer, cause the computer to perform various operations. For example, these actions may be provided to receive CAD data, generate video signals from the CAD data for simulation of a virtual reality design, to track each other and multiple users interacting with the simulation, and to track objects interacting with the simulation. Generating a scaled avatar in the simulation, generating a video signal for a common sensory environment, and receiving user input to select either video, graphics, or both.

또한, 실시예는 하나 이상의 컴퓨터 판독 매체에 저장되고 컴퓨터에 의해 판독가능한 컴퓨터 프로그램을 포함할 수 있으며, 이에 따라 컴퓨터 프로그램이 컴퓨터에 의해 판독될 때, 이 명세서에 설명된 명령을 수행하도록 동작한다. 명령은 휴대용 모션 캡쳐 시스템에 의해 하나 이상의 작업을 수행하는 한 명 이상의 트레이너에 대해 제 1 위치에서 실물 크기의 모션 캡쳐 데이터를 기록하는 동작을 포함한다. 명령은 제 1 위치에서 한 명 이상의 트레이너에 대해 기록된 모션 캡쳐 데이 터에 응답하여, 제 2 위치에서 가상 현실 시뮬레이터에 의한 가상 현실 시뮬레이션 내의 하나 이상의 아바타를 움직이게 함으로써, 한 명 이상의 트레이너 각각이 하나 이상의 아바타 중 하나에 대응하도록 하는 동작을 포함한다. 이 명령은, 하나 이상의 헤드 마운트 디스플레이를 이용하여 공통 실감 환경을 정의하기 위해 한 명 이상의 훈련생 주위로 보이는 3차원 영상으로서, 하나 이상의 움직이는 아바타를 포함하는, 가상 현실 시뮬레이션을 디스플레이하는 동작을 포함한다. 이에 따라, 한 명 이상의 훈련생은 수행된 하나 이상의 작업을 분석할 수 있다. 또한, 이 명령은 모션 캡쳐 시스템을 통해 가상 현실 시뮬레이션과 인터액션하는 한 명 이상의 훈련생에 대한 모션 캡쳐 데이터를 획득하는 동작; 제 2 위치에서 한 명 이상의 훈련생에 대한 모션 캡쳐 데이터에 응답하여, 실시간으로 가상 현실 시뮬레이터에 의한 가상 현실 시뮬레이션 내에 하나 이상의 아바타를 움직이게 하는 동작; 훈련생에 의해 움직이는 아바타와 가상 현실 시뮬레이터에 의한 가상 현실 시뮬레이션의 시뮬레이션 객체 사이의 충돌을 감지하는 동작; 그리고 검출된 충돌에 대한 피드백을 제공하도록 가상 현실 시뮬레이터에 의한 가상 현실 시뮬레이션의 시뮬레이션 객체의 색을 변경하는 동작을 포함한다.In addition, an embodiment may include a computer program stored on one or more computer readable media and readable by a computer, such that when the computer program is read by the computer, it operates to perform the instructions described herein. The instructions include the operation of recording full-scale motion capture data at the first location for one or more trainers performing one or more tasks by the portable motion capture system. The instruction responds to motion capture data recorded for one or more trainers in the first position, thereby moving the one or more avatars in the virtual reality simulation by the virtual reality simulator in the second position, such that each of the one or more trainers has one or more. An action to correspond to one of the avatars. The command includes displaying a virtual reality simulation, including three or more moving avatars, as a three-dimensional image viewed around one or more trainees to define a common sensory environment using one or more head mounted displays. Accordingly, one or more trainees can analyze one or more tasks performed. The command may further include obtaining motion capture data for one or more trainees interacting with the virtual reality simulation via the motion capture system; In response to motion capture data for one or more trainees at the second location, moving the one or more avatars within the virtual reality simulation by the virtual reality simulator in real time; Detecting a collision between the avatar moving by the trainee and the simulation object of the virtual reality simulation by the virtual reality simulator; And changing the color of the simulation object of the virtual reality simulation by the virtual reality simulator to provide feedback on the detected collision.

본 발명의 실시예는 예를 들면 항공기의 동작 또는 정비에 관련된 작업을 원거리 위치에서 훈련하는 시스템을 포함한다. 마찬가지로, 작업은 항공기, 스페이스 시스템, 우주선, 선박 또는 미사일 시스템의 동작 또는 정비에 관련된 것일 수 있다.Embodiments of the present invention include systems for training in remote locations, for example, tasks related to the operation or maintenance of an aircraft. Similarly, the work may relate to the operation or maintenance of an aircraft, space system, spacecraft, ship or missile system.

본 발명의 실시예는 추가로 작업을 시뮬레이션하는 방법을 포함한다. 이 방 법은 휴대용 모션 캡쳐 시스템에 의해 하나 이상의 작업을 수행하는 한 명 이상의사용자에 대한 실물 크기의 모션 캡쳐 데이터를 기록하는 단계를 포함한다. 이 방법은 한 명 이상의 사용자에 대한 모션 캡쳐 데이터에 응답하여 가상 현실 시뮬레이터에 의한 가상 현실 시뮬레이션 내의 하나 이상의 아바타를 움직이게 함으로써, 한 명 이상의 사용자 각각이 하나 이상의 아바타 중 하나에 대응하게 하는 단계를 포함한다. 이 방법은 하나 이상의 헤드 마운트 디스플레이를 이용한 삼차원 영상으로, 하나 이상의 움직이는 아바타를 포함하는 가상 현실 시뮬레이션을 디스플레이하여 하나 이상의 헤드 마운트 디스플레이 각각이 가상 현실 시뮬레이션에 대한 서로 다른 투영도를 제공하도록 하는 단계를 포함한다.Embodiments of the present invention further include a method of simulating a task. The method includes recording full-scale motion capture data for one or more users performing one or more tasks by a portable motion capture system. The method includes the step of causing each of the one or more users to correspond to one of the one or more avatars by moving one or more avatars in the virtual reality simulation by the virtual reality simulator in response to motion capture data for the one or more users. . The method includes displaying a virtual reality simulation that includes one or more moving avatars as a three-dimensional image using one or more head mounted displays, such that each of the one or more head mounted displays provides different projections for the virtual reality simulation. .

본 발명의 시스템은 한 명 이상의 사용자(예, 트레이너)의 움직임을 추적하고 하나 이상의 작업을 수행하는 한 명 이상의 사용자(예, 트레이너)에 대한 실물 크기의 모션 캡쳐 데이터를 기록하도록 배치된 제 1 위치에 휴대용 모션 캡쳐 시스템(30, 42)를 포함한다. 이 시스템은 제 1 위치로부터 기록된 모션 캡쳐 데이터를 수신하도 배치되고, 기록된 모션 캡쳐 데이터에 응답하여 제 2의 다른 위치에서 3차원 가상 현실 시뮬레이션 내에 하나 이상의 아바타(56)를 움직이게 할는 가상 현실 시뮬레이터(58)를 포함할 수 있다. 시스템은 3 차원 영상으로서 하나 이상의 움직이는 아바타(56)를 포함하는 가상 현실 시뮬레이션을 디스플레이하기 위한 실감형 관찰 시스템을 포함할 수 있으며, 3차원 영상은 한 이상의 훈련생 주위를 둘러싸는 것으로 보이며, 이로써 하나 이상의 헤드 마운트 디스플레이(40)를 사용한 공통 실감형 환경(20)을 정의한다. 따라서 하나 이상의 헤드 마운트 디스플레이(40) 각각은 서로 다른 가상 현실 시뮬레이션을 갖게 되며, 한 명 이상의 훈련생이 하나 이상의 수행된 작업을 분석할 수 있다.The system of the present invention is a first location arranged to track movement of one or more users (eg trainers) and record life-size motion capture data for one or more users (eg trainers) performing one or more tasks. In the handheld motion capture system 30, 42. The system is arranged to receive recorded motion capture data from a first location and to move one or more avatars 56 in the three-dimensional virtual reality simulation at a second, different location in response to the recorded motion capture data. (58). The system may include an immersive observation system for displaying a virtual reality simulation that includes one or more moving avatars 56 as three-dimensional images, wherein the three-dimensional images appear to surround around one or more trainees, thereby providing one or more trainees. A common sensory environment 20 is defined using the head mounted display 40. Thus, each of the one or more head mounted displays 40 will have different virtual reality simulations, and one or more trainees can analyze one or more performed tasks.

본 발명에 따른 실시예가 완전한 기능성 시스템으로 설명되었으나, 본 발명이 속하는 분야의 기술자(당업자)는, 본 발명의 일부 이상의 메커니즘 및/또는 본 발명의 여러 측면이 프로세서에서 수행되는 다양한 형태의 명령을 기록한 컴퓨터 판독 가능한 매체 형식으로 분산될 수 있으며, 본 발명이 분산 동작을 실제로 수행하는데 사용된 매체를 만들어낸 신호의 특정한 타입에 관계없이 동일하게 적용한다는 것을 쉽게 이해할 수 있다. 컴퓨터 판독 매체의 예로는, 비휘발성, 하드-코드 타입 매체(예 ROM, CD-ROM 및 DVDD-ROM) 또는 전기적으로 프로그램 가능한 리드 온리 메모리(EEPROM), 기록 가능한 매체(예, 플로피 디스크, 하드 디스크 드라이브, CD-R/RW, DVD-R/RW, DVD+R/RW, 플래시 드라이브 및 그 이외의 새로운 형식의 메모리), 그리고 디지털 및 아날로그 통신 링크와 같은 전송 타입 매체가 포함된다. 그러나 이에 한정되는 것은 아니다. 예를 들어, 이러한 매체는 동작 명령 및 디자인 및 평가 프로그램 (제품)에 관련된 동작 명령, 그리고 위에 설명된 방법 단계를 포함할 수 있다.Although embodiments in accordance with the present invention have been described as fully functional systems, those skilled in the art will appreciate that some or more mechanisms of the present invention and / or various aspects of the present invention may be written with various forms of instructions executed on a processor. It may be distributed in a computer readable medium format, and it is readily understood that the present invention applies equally regardless of the specific type of signal that produced the medium used to actually perform the distributed operation. Examples of computer readable media include, but are not limited to, nonvolatile, hard-coded media (such as ROM, CD-ROM, and DVDD-ROM) or electrically programmable read only memory (EEPROM), recordable media (such as floppy disk, hard disk). Drives, CD-R / RW, DVD-R / RW, DVD + R / RW, flash drives and other new types of memory), and transmission type media such as digital and analog communication links. However, the present invention is not limited thereto. For example, such media may include operational instructions and operational instructions related to the design and evaluation program (product) and the method steps described above.

상술한 본 발명의 실시예들은 단지 예시와 설명을 위한 것일 뿐이며, 본 발명을 설명된 형태로 한정하려는 것이 아니다. 또한, 이 명세서의 상세한 설명이 본 발명의 범위를 제한하는 것은 아니다. 위의 상세한 설명에 설명되며 첨부된 청구항에 의해 정의된 발명의 사상 및 범위 내에서, 다양한 변화 및 변경을 할 수 있음은 본 발명이 속하는 분야의 당업자에게 자명하다. The above-described embodiments of the present invention are for illustration and description only, and are not intended to limit the present invention to the described form. In addition, the detailed description of this specification does not limit the scope of the present invention. It is apparent to those skilled in the art that various changes and modifications can be made within the spirit and scope of the invention as described in the detailed description above and defined by the appended claims.

본 발명이 온전히 이해되고 실질적인 효과를 내기 위해, 본 발명의 바람직한 실시예(이에 제한되는 것은 아님)를 첨부된 도면을 참조하여, 이하에서 설명한다.BRIEF DESCRIPTION OF THE DRAWINGS In order for the present invention to be fully understood and to have substantial effect, preferred embodiments of the present invention, but not limited thereto, are described below with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따라 공학 디자인을 평가하기 위한 협업형 실감 환경을 제공하는 시스템을 나타내는 도면이다.1 is a diagram illustrating a system that provides a collaborative sensory environment for evaluating engineering design in accordance with an embodiment of the present invention.

도 2는 본 발명의 실시예에 따라, 가상 현실 시뮬레이션과 인터액션하는 모션 캡쳐 장치를 입은 네 명의 사용자의 환경을 나타내는 도면이다.FIG. 2 illustrates an environment of four users wearing a motion capture device that interacts with a virtual reality simulation, in accordance with an embodiment of the invention.

도 3은 본 발명의 실시예에 따라, 모션 캡쳐 장갑의 주변을 나타내는 도면이다. 3 is a diagram illustrating the periphery of a motion capture glove, in accordance with an embodiment of the invention.

도 4는 본 발명의 실시예에 따라 헤르고 이지 마운트 모바일 컴퓨터 카트-스타 베이스를 나타내는 투시도이다. 4 is a perspective view illustrating a hergo easy mount mobile computer cart-star base in accordance with an embodiment of the present invention.

도 5는 본 발명의 실시예에 따라 헤드 마운트 디스플레이(HMD)를 나타내는 투시도이다.5 is a perspective view illustrating a head mounted display HMD according to an embodiment of the present invention.

도 6은 본 발명의 실시예에 따라 CAVE에 연결하여 사용되는 헤드 추적 장치(head tracker)를 나타내는 투시도이다.6 is a perspective view showing a head tracker used in connection with a CAVE according to an embodiment of the present invention.

도 7은 본 발명의 실시예에 따라 CAVE에 연결하여 사용될 완드 하드웨어(wand hardware)를 나타내는 도면이다.7 illustrates wand hardware to be used in connection with a CAVE according to an embodiment of the present invention.

도 8A는 본 발명의 실시예에 따라 구면 카메라를 나타내는 투시도이다. 8A is a perspective view illustrating a spherical camera according to an embodiment of the present invention.

도 8B는 본 발명의 실시예에 따라 모션 캡쳐 카메라를 나타내는 투시도이다.8B is a perspective view of a motion capture camera in accordance with an embodiment of the invention.

도 9는 본 발명의 실시예에 따라 가상 현실 시뮬레이션 내의 아바타를 나타 내는 투시도이다.9 is a perspective view illustrating an avatar in a virtual reality simulation in accordance with an embodiment of the present invention.

도 10은 본 발명의 실시예에 따라 협업형 시각화 시스템을 나타내는 블록도이다.10 is a block diagram illustrating a collaborative visualization system according to an embodiment of the present invention.

도 11은 본 발명의 실시예에 따라 공학 디자인의 평가를 위한 협업형 실감 환경을 제공하는 방법을 나타내는 흐름도이다.11 is a flowchart illustrating a method of providing a collaborative sensory environment for evaluation of engineering design in accordance with an embodiment of the present invention.

도 12는 본 발명의 실시예에 따라 실감형 기술을 사용하는 실사 비디오를 이용하여 시뮬레이션을 검증하는 방법을 나타내는 흐름도이다.12 is a flowchart illustrating a method of verifying a simulation using photorealistic video using immersive techniques in accordance with an embodiment of the present invention.

Claims (15)

공학 디자인을 평가하기 위한 시스템에 있어서, 상기 시스템은:In a system for evaluating engineering design, the system is: CAD(computer-aided design) 디자인에 대한 CAD 데이터를 수신하도록 배치되며, 상기 CAD 데이터로부터 실물 크기의, 3차원 가상 현실 시뮬레이션을 생성하도록 배치된 가상 현실 시뮬레이터로서, 상기 3차원 가상 현실 시뮬레이션은 하나 이상의 입체 헤드 마운트 디스플레이가 각각 가상 현실 시뮬레이션의 서로 다른 투영도를 가지도록, 하나 이상의 입체 헤드 마운트 디스플레이에 디스플레이되는 것이 특징인 가상 현실 시뮬레이터;A virtual reality simulator arranged to receive CAD data for a computer-aided design (CAD) design, the virtual reality simulator arranged to generate a full-scale, three-dimensional virtual reality simulation from the CAD data, wherein the three-dimensional virtual reality simulation is one or more. A virtual reality simulator characterized by being displayed on one or more stereoscopic head mounted displays such that the stereoscopic head mounted displays each have a different degree of projection of the virtual reality simulation; 상기 가상 현실 시뮬레이터에 삽입되고 상기 가상 현실 시뮬레이션 내에서 하나 이상의 사용자의 움직임을 동시에 추적하도록 배치된 모션 캡쳐 시스템; 그리고 A motion capture system inserted into the virtual reality simulator and arranged to simultaneously track movement of one or more users in the virtual reality simulation; And 상기 한 명 이상의 사용자가 입체적으로 그리고 실시간으로 상기 가상 현실 시뮬레이션을 보고 협업형 실감 환경을 형성함으로써, 상기 한 명 이상의 사용자가 CAD 디자인을 평가하는 실감 관찰 시스템을 포함하되,Wherein the one or more users view the virtual reality simulation in three dimensions and in real time to create a collaborative sensory environment, wherein the one or more users includes a sensory observation system for evaluating the CAD design, 상기 가상 현실 시뮬레이터는, 시뮬레이션 내의 아바타가 한 명 이상의 사용자를 대표하도록 그리고 하나 이상의 아바타 각각이 독립적 및 실시간으로 크기조절되도록 배치되어, 사전 지정된 범위의 사용자의 사이즈만큼 상기 CAD 디자인에 따른 제품 구성과 관련된 작업이 수행될 수 있는지를 검증하며, 그리고The virtual reality simulator is arranged such that the avatars in the simulation represent one or more users and that each of the one or more avatars is scaled independently and in real time, associated with the product configuration according to the CAD design by a predetermined range of users' sizes. Verifying that work can be performed, and 상기 가상 현실 시뮬레이터는 상기 가상 현실 시뮬레이션 내의 사용자 및 시 뮬레이션 객체 사이의 충돌을 검출하도록 그리고 충돌이 검출되면 이에 대한 피드백을 제공하도록 배치되는 것을 특징으로 하는 공학 디자인 검증 시스템. The virtual reality simulator is arranged to detect a collision between a user and a simulation object in the virtual reality simulation and to provide feedback for the collision if detected. 제 1 항에 있어서,The method of claim 1, 상기 검출된 충돌에 대한 피드백은 상기 객체의 외관을 변경하고 방향성 있는 소리를 내는 것을 포함하는 것을 특징으로 하는 공학 디자인 검증 시스템.Feedback for the detected collision comprises modifying the appearance of the object and producing a directional sound. 제 1 항에 있어서,The method of claim 1, 상기 모션 캡쳐 시스템은 추가로 상기 한 명 이상의 사용자에 의해 사용된 하나 이상의 실제 객체의 움직임을 추적하도록 배치되며, 그리고The motion capture system is further arranged to track the movement of one or more real objects used by the one or more users, and 상기 가상 현실 시뮬레이터는 추가로 상기 하나 이상의 실제 객체의 추적된 움직임에 응답하여 시뮬레이션 내에서 상기 하나 이상의 실제 객체를 표현하고, 상기 가상 현실 시뮬레이션 내의 둘 이상의 시뮬레이션 객체 사이의 충돌을 검색하며, 상기 검출된 충돌에 대한 피드백을 제공하도록 배치되는 것을 특징으로 하는 공학 디자인 검증 시스템. The virtual reality simulator further represents the one or more real objects in a simulation in response to the tracked movement of the one or more real objects, retrieves a collision between two or more simulation objects in the virtual reality simulation, and detects the detected Engineering design validation system, arranged to provide feedback about a collision. 제 1 항에 있어서, 상기 모션 캡쳐 시스템은:The system of claim 1, wherein the motion capture system is: 사전 지정된 위치에 마커를 가지는 하나 이상의 모션 캡쳐 바디 수트, 장갑 및 헤드 기어; One or more motion capture bodysuits, gloves and headgear having markers in predetermined locations; 상기 모션 캡쳐 바디 수트, 장갑 및 헤드 기어를 착용한 한 명 이상의 사용 자의 움직임을 캡쳐한 영상을 기록하도록 사전 선택된 위치에 배치되는 복수의 카메라; 그리고A plurality of cameras disposed in a preselected position to record an image capturing the movement of one or more users wearing the motion capture bodysuit, gloves and headgear; And 상기 한 명 이상의 사용자가 상기 복수의 카메라로부터의 기록된 영상에 응답하여, 시뮬레이션 내에서 인터액션함에 따라, 상기 모션 캡쳐 바디 수트, 장갑 및 헤드 기어와 관련된 마커의 위치를 디지털 방식으로 기록하는 하나 이상의 컴퓨터One or more computers that digitally record the position of the marker relative to the motion capture bodysuit, gloves and headgear as the one or more users interact in the simulation in response to recorded images from the plurality of cameras. 를 포함하는 것을 특징으로 하는 공학 디자인 검증 시스템. Engineering design verification system comprising a. 제 1 항에 있어서,The method of claim 1, 상기 실감 관찰 시스템은 세 개의 벽과 바닥을 포함하는 설정가능한 디스플레이 유닛을 포함하고,The sensory observation system comprises a configurable display unit comprising three walls and a floor, 상기 디스플레이 유닛은 상기 한 명 이상의 사용자에 대해 입체인 실물 크기의 영상을 제공하여, CAVE(Cave Automatic Virtual Environment)를 정의하는 것을 특징으로 하는 공학 디자인 검증 시스템.The display unit provides a three-dimensional life-size image for the one or more users, the engineering design verification system, characterized in that to define the CAVE (Cave Automatic Virtual Environment). 제 1 항에 있어서,The method of claim 1, 상기 CAD 디자인 데이터는 항공기용인 것을 특징으로 하는 공학 디자인 검증 시스템.The CAD design data is an engineering design verification system, characterized in that for the aircraft. 제 1 항에 있어서,The method of claim 1, 상기 CAD 디자인 데이터는 우주선용인 것을 특징으로 하는 공학 디자인 검증 시스템. The CAD design data is an engineering design verification system, characterized in that for spacecraft. 제 1 항에 있어서,The method of claim 1, 상기 CAD 디자인 데이터는 선박용인 것을 특징으로 하는 공학 디자인 검증 시스템.Engineering design verification system, characterized in that the CAD design data is for ships. 제 1 항에 있어서,The method of claim 1, 상기 CAD 디자인 데이터는 미사일 시스템용인 것을 특징으로 하는 공학 디자인 검증 시스템. Engineering design verification system, characterized in that the CAD design data is for a missile system. 제 1 항에 있어서,The method of claim 1, 상기 모션 캡쳐 시스템은 제 1 위치에 배치된 휴대용 모션 캡쳐 시스템이고,The motion capture system is a portable motion capture system disposed in a first position, 상기 가상 현실 시뮬레이터 및 실감 관찰 시스템은 제 2 위치에 배치되며, The virtual reality simulator and sensory observation system are arranged in a second position, 상기 제 2 위치는 상기 제 1 위치로부터 원거리에 있음을 특징으로 하는 공학 디자인 검증 시스템.And the second position is remote from the first position. 컴퓨터에 의해 판독될 때 다음의 명령을 실행하도록 동작하는 컴퓨터 프로그램을 기록한 컴퓨터로 판독가능한 매체에 있어서, 상기 명령은:A computer readable medium having recorded thereon a computer program operative to execute the following instructions when read by a computer, the instructions comprising: 가상 현실 시뮬레이터에 의해 CAD(computer-aided design) 데이터를 수신하 는 명령;Receiving computer-aided design (CAD) data by a virtual reality simulator; CAD 데이터 디스플레이로부터의 디자인을 가상 현실에서 시뮬레이션하도록 상기 가상 현실 시뮬레이터에 의해 비디오 신호를 발생하는 단계로서, 상기 비디오 신호는, 하나 이상의 헤드 마운트 디스플레이가 각각 가상 현실 시뮬레이션의 다른 투영도를 가지도록 상기 하나 이상의 헤드 마운트 디스플레이로 전송되고, 상기 헤드 마운트 디스플레이는 각각 서로 다른 신호를 가지는 분리된 왼쪽 눈 디스플레이와 오른쪽 눈 디스플레이를 포함하여 사용자가 상기 헤드 마운트 디스플레이에서 입체적으로 영상을 보도록 하는 것이 특징인 비디오 신호 발생 명령;Generating a video signal by the virtual reality simulator to simulate a design from a CAD data display in virtual reality, wherein the video signal is generated such that one or more head mounted displays each have a different projection of virtual reality simulation. A video signal generation instruction characterized in that the head mounted display includes a separate left eye display and a right eye display each having a different signal, thereby allowing the user to view a stereoscopic image on the head mounted display. ; 상기 가상 현실 시뮬레이션과 인터액션하는 한 명 이상의 사용자의 움직임을 추적하는 명령;Instructions for tracking movement of one or more users interacting with the virtual reality simulation; 상기 한 명 이상의 사용자의 추적된 움직임에 응답하여 상기 한 명 이상의 사용자에 대한 모션 캡쳐 데이터를 생성하는 명령; 그리고Generating motion capture data for the one or more users in response to the tracked movement of the one or more users; And 상기 한 명 이상의 사용자가 각각 하나 이상의 아바타 중 하나에 대응하고, 제 1 사이즈의 사용자가 상기 제 1 사이즈와 다른 제 2 사이즈의 아바타를 시뮬레이션하며, 상기 한 명 이상의 사용자가 상기 CAD 디자인을 평가하도록 상기 한 명 이상의 사용자에 대해 모션 캡쳐 데이터를 이용하는 상기 가상 현실 시뮬레이터에 의해, 시뮬레이션 내에서 상기 하나 이상의 크기 조절된 아바타를 실시간으로 구동하는 명령;Wherein the one or more users each correspond to one of one or more avatars, the first sized user simulates a second sized avatar different from the first size, and wherein the one or more users evaluate the CAD design. Instructions for real time driving the one or more scaled avatars in a simulation by the virtual reality simulator using motion capture data for one or more users; 상기 가상 현실 시뮬레이터에 의해 사용자와 상기 가상 현실 시뮬레이션 내의 시뮬레이션 객체 사이의 충돌을 검출하는 명령; 그리고Instructions for detecting, by the virtual reality simulator, a collision between a user and a simulation object in the virtual reality simulation; And 상기 검출된 충돌에 대한 피드백을 제공하도록 상기 가상 현실 시뮬레이터에 의해 상기 가상 현실 시뮬레이션 내의 객체 외관을 변경하는 명령Modify an object appearance in the virtual reality simulation by the virtual reality simulator to provide feedback for the detected collision 을 포함하는 것을 특징으로 하는 컴퓨터 프로그램을 기록한 컴퓨터로 판독가능한 매체.And a computer readable medium having recorded thereon a computer program. 제 11 항에 있어서, 상기 컴퓨터 프로그램은, The computer program of claim 11, wherein the computer program comprises: 상기 검출된 충돌에 응답하여 방향성 있는 소리를 제공하는 명령을 추가로 실행하도록 동작하는 것을 특징으로 하는 컴퓨터 프로그램을 기록한 컴퓨터로 판독가능한 매체.And further execute instructions to provide a directional sound in response to the detected collision. 제 11 항에 있어서, 상기 컴퓨터 프로그램은,The computer program of claim 11, wherein the computer program comprises: 상기 한 명 이상의 사용자에 의해 사용된 하나 이상의 실제 객체의 움직임을 추적하는 명령;Instructions for tracking movement of one or more real objects used by the one or more users; 상기 하나 이상의 실제 객체의 추적된 움직임에 응답하여 하나 이상의 실제 객체에 대해 모션 캡쳐 데이터를 생성하는 명령;Generating motion capture data for one or more real objects in response to the tracked movement of the one or more real objects; 상기 모션 캡쳐 데이터에 응답하여 상기 가상 현실 시뮬레이터에 의해 시뮬레이션 내에서 상기 하나 이상의 실제 객체를 표현하는 명령;Expressing the one or more real objects in a simulation by the virtual reality simulator in response to the motion capture data; 상기 가상 현실 시뮬레이터에 의해 가상 현실 시뮬레이션 내에서 시뮬레이션 된 둘 이상의 객체 사이에 충돌을 검출하는 명령; 그리고Instructions for detecting a collision between two or more objects simulated in a virtual reality simulation by the virtual reality simulator; And 상기 검출된 충돌에 대한 피드백을 제공하도록 상기 가상 현실 시뮬레이터에 의해 상기 가상 현실 시뮬레이션 내의 객체의 외관을 변경하는 명령을 추가로 실행하도록 동작하는 것을 특징으로 하는 컴퓨터 프로그램을 기록한 컴퓨터로 판독가능한 매체.And further execute, by the virtual reality simulator, instructions to change the appearance of an object in the virtual reality simulation to provide feedback for the detected collision. 컴퓨터로 실행되는 공학 디자인 평가 방법에 있어서, 상기 방법은:In a computer-implemented engineering design evaluation method, the method is: CAD(computer-aided design) 디자인으로부터의 CAD 데이터에 응답하여, 가상 현실 시뮬레이터에 의해 3차원 가상 현실 시뮬레이션을 생성하는 단계;In response to CAD data from a computer-aided design (CAD) design, generating a three-dimensional virtual reality simulation by a virtual reality simulator; 가상 현실 시뮬레이션과 동시에 인터액션 하는 한 명 이상의 사용자로부터 획득된 모션 캡쳐 데이터에 응답하여, 상기 가상 현실 시뮬레이터에 의해 상기 가상 현실 시뮬레이션 내에서 하나 이상의 아바타를 실시간으로 움직이게 함으로써, 상기 한 명 이상의 사용자가 각각 상기 하나 이상의 아바타 중 하나에 대응하도록 하는 단계;In response to motion capture data obtained from one or more users interacting simultaneously with the virtual reality simulation, the one or more users each move the one or more avatars in real time within the virtual reality simulation by the virtual reality simulator. Corresponding to one of the one or more avatars; 실시간으로 한 명 이상의 사용자 주위에 보이는 3차원 영상으로, 상기 하나 이상의 아바타의 인터액션을 포함하는 가상 현실 시뮬레이션을 디스플레이하여, 하나 이상의 헤드 마운트 디스플레를 사용하는 공통 실감 환경을 형성하고, 이로써 상기 한명 이상의 사용자가 상기 모션 캡쳐 데이터에 응답하여 상기 가상 현실 시뮬레이션의 서로 다른 투영도를 가지도록 하는 단계;A virtual reality simulation including interactions of the one or more avatars is displayed in real time with three-dimensional images visible around one or more users to form a common sensory environment using one or more head mounted displays, thereby enabling the one or more users. Has different projections of the virtual reality simulation in response to the motion capture data; 상기 가상 현실 시뮬레이터에 의해 상기 가상 현실 시뮬레이션 내의 사용자 및 시뮬레이션 객체 사이의 충돌을 검출하는 단계; 그리고Detecting a collision between a user and a simulation object in the virtual reality simulation by the virtual reality simulator; And 상기 검출된 충돌에 대한 피드백을 제공하는 단계Providing feedback on the detected collision 를 포함하는 것을 특징으로 하는 공학 디자인 평가 방법.Engineering design evaluation method comprising a. 제 14 항에 있어서,The method of claim 14, 상기 검출된 충돌에 대한 피드백은 상기 객체의 외관 병경 및 방향성 있는 소리 중 하나 이상을 포함하는 것을 특징으로 하는 공학 디자인 평가 방법. And wherein said feedback for the detected collision comprises at least one of an appearance condition of the object and a directional sound.
KR20090043446A 2009-01-17 2009-05-19 Immersive collaborative environment using motion capture, head mounted display, and cave KR20100084597A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/355,771 2009-01-17
US12/355,771 US8615383B2 (en) 2008-01-18 2009-01-17 Immersive collaborative environment using motion capture, head mounted display, and cave

Publications (1)

Publication Number Publication Date
KR20100084597A true KR20100084597A (en) 2010-07-27

Family

ID=42357641

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20090043446A KR20100084597A (en) 2009-01-17 2009-05-19 Immersive collaborative environment using motion capture, head mounted display, and cave

Country Status (5)

Country Link
KR (1) KR20100084597A (en)
CA (1) CA2662318C (en)
DK (1) DK177693B1 (en)
NL (1) NL2002841C2 (en)
TR (1) TR200903142A1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101389894B1 (en) * 2012-07-18 2014-04-29 주식회사 도담시스템스 Virtual reality simulation apparatus and method using motion capture technology and
KR101493614B1 (en) * 2013-11-01 2015-02-13 (주)세이프텍리서치 Ship Navigation Simulator and Design Method by using Augmented Reality Technology and Virtual Bridge System
KR101495673B1 (en) * 2013-08-14 2015-02-25 한국항공우주연구원 Spacecraft take off and landing experience system
KR20150030993A (en) * 2013-09-13 2015-03-23 한국전자통신연구원 Apparatus and method for providing contents experience service
KR20160018436A (en) * 2014-08-08 2016-02-17 그렉 반 쿠렌 Virtual reality system and audition game system using the same
KR20160086226A (en) * 2015-01-09 2016-07-19 한국과학기술원 Method for providing telepresence using avatars, and system and computer-readable recording medium using the same
US9870644B2 (en) 2011-06-14 2018-01-16 Samsung Electronics Co., Ltd. Apparatus and method for image processing
KR20180064850A (en) * 2016-12-06 2018-06-15 주식회사 상화 Experience apparatus
CN110267028A (en) * 2019-06-24 2019-09-20 中冶智诚(武汉)工程技术有限公司 A kind of signal synchronous display system for five face LED-CAVE
KR20220009836A (en) * 2020-07-16 2022-01-25 (주)코어센스 Motion capture system for virtual fire fighting and motion capture method using the same
KR20220010335A (en) * 2020-07-17 2022-01-25 (주)코어센스 Ratio correction method between a real model and virtual model
KR102447171B1 (en) * 2022-03-18 2022-09-27 헬리오센 주식회사 Building touring guide marking system for metaverse
KR20240006373A (en) 2022-07-06 2024-01-15 주식회사 와플코퍼레이션 Method of managing audition and apparatus performing the same

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016144279A1 (en) 2015-03-06 2016-09-15 Ors Filiz Mujdehan Virtual reality based remote learning system and method
US10043311B2 (en) * 2015-09-16 2018-08-07 The Boeing Company Immersive design management system
CN106409053A (en) * 2016-11-24 2017-02-15 四川艾瑞智信科技有限公司 Portable simulation teaching device based on virtual reality
FR3062488B1 (en) * 2017-02-01 2020-12-25 Peugeot Citroen Automobiles Sa ANALYSIS DEVICE FOR DETERMINING A LATENCY TIME OF AN IMMERSIVE SYSTEM OF VIRTUAL REALITY
FR3062489B1 (en) * 2017-02-01 2020-12-25 Peugeot Citroen Automobiles Sa ANALYSIS DEVICE FOR DETERMINING A DETECTION PERIOD CONTRIBUTING TO A LATENCY TIME WITHIN AN IMMERSIVE SYSTEM OF VIRTUAL REALITY
CN112288880A (en) * 2020-10-29 2021-01-29 重庆建工住宅建设有限公司 Building assembled fitment design system based on AR technique

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7761269B1 (en) * 2000-04-14 2010-07-20 Ford Global Technologies, Llc System and method of subjective evaluation of a vehicle design within a virtual environment using a virtual reality
ES2233201B1 (en) * 2003-11-21 2006-07-16 Seat, S.A. MIXED REALITY SIMULATION SYSTEM.

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9870644B2 (en) 2011-06-14 2018-01-16 Samsung Electronics Co., Ltd. Apparatus and method for image processing
KR101389894B1 (en) * 2012-07-18 2014-04-29 주식회사 도담시스템스 Virtual reality simulation apparatus and method using motion capture technology and
KR101495673B1 (en) * 2013-08-14 2015-02-25 한국항공우주연구원 Spacecraft take off and landing experience system
US9236032B2 (en) 2013-09-13 2016-01-12 Electronics And Telecommunications Research Institute Apparatus and method for providing content experience service
KR20150030993A (en) * 2013-09-13 2015-03-23 한국전자통신연구원 Apparatus and method for providing contents experience service
KR101493614B1 (en) * 2013-11-01 2015-02-13 (주)세이프텍리서치 Ship Navigation Simulator and Design Method by using Augmented Reality Technology and Virtual Bridge System
KR20160018436A (en) * 2014-08-08 2016-02-17 그렉 반 쿠렌 Virtual reality system and audition game system using the same
KR20160086226A (en) * 2015-01-09 2016-07-19 한국과학기술원 Method for providing telepresence using avatars, and system and computer-readable recording medium using the same
US9843772B2 (en) 2015-01-09 2017-12-12 Korea Advanced Institute Of Science And Technology Method for providing telepresence using avatars, and system and computer-readable recording medium using the same
KR20180064850A (en) * 2016-12-06 2018-06-15 주식회사 상화 Experience apparatus
CN110267028A (en) * 2019-06-24 2019-09-20 中冶智诚(武汉)工程技术有限公司 A kind of signal synchronous display system for five face LED-CAVE
CN110267028B (en) * 2019-06-24 2021-04-30 中冶智诚(武汉)工程技术有限公司 Signal synchronous display system for five-surface LED-CAVE
KR20220009836A (en) * 2020-07-16 2022-01-25 (주)코어센스 Motion capture system for virtual fire fighting and motion capture method using the same
KR20220010335A (en) * 2020-07-17 2022-01-25 (주)코어센스 Ratio correction method between a real model and virtual model
KR102447171B1 (en) * 2022-03-18 2022-09-27 헬리오센 주식회사 Building touring guide marking system for metaverse
KR20240006373A (en) 2022-07-06 2024-01-15 주식회사 와플코퍼레이션 Method of managing audition and apparatus performing the same

Also Published As

Publication number Publication date
NL2002841C2 (en) 2014-10-20
CA2662318A1 (en) 2010-07-17
DK177693B1 (en) 2014-03-10
DK200900534A (en) 2010-07-18
TR200903142A1 (en) 2010-08-23
CA2662318C (en) 2014-12-02
NL2002841A (en) 2010-07-20

Similar Documents

Publication Publication Date Title
US8624924B2 (en) Portable immersive environment using motion capture and head mounted display
US8615383B2 (en) Immersive collaborative environment using motion capture, head mounted display, and cave
CA2662318C (en) Immersive collaborative environment using motion capture, head mounted display, and cave
CN107667331B (en) Shared haptic interaction and user safety in shared space multi-person immersive virtual reality
KR101748593B1 (en) Capturing views and movements of actors performing within generated scenes
US20030227453A1 (en) Method, system and computer program product for automatically creating an animated 3-D scenario from human position and path data
TWI567659B (en) Theme-based augmentation of photorepresentative view
KR101334637B1 (en) Simulating performance of virtual camera
Němec et al. Using virtual reality in education
Zhang et al. KaraKter: An autonomously interacting Karate Kumite character for VR-based training and research
JP2010257081A (en) Image procession method and image processing system
US11393153B2 (en) Systems and methods performing object occlusion in augmented reality-based assembly instructions
Song et al. An immersive VR system for sports education
WO2021230101A1 (en) Information processing device, information processing method, and program
Rodrigue et al. Mixed reality simulation with physical mobile display devices
Zhang et al. Application of simulation and virtual reality to physical education and athletic training
Lyne Development of virtual reality applications for the construction industry using the Oculus Rift head mounted display
Thalmann et al. Virtual reality software and technology
Onyesolu et al. A survey of some virtual reality tools and resources
Bernal A system for immersive medical and engineering training based on serious games
KR102495213B1 (en) Apparatus and method for experiencing augmented reality-based screen sports
Li Development of immersive and interactive virtual reality environment for two-player table tennis
Sato et al. Using motion capture for real-time augmented reality scenes.
JP2023057498A (en) Motion attitude evaluating system by overlapping comparison of images
Akinjala et al. Animating human movement & gestures on an agent using Microsoft kinect

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
E801 Decision on dismissal of amendment
J301 Trial decision

Free format text: TRIAL NUMBER: 2016101002072; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20160405

Effective date: 20171120