KR20100084597A - Immersive collaborative environment using motion capture, head mounted display, and cave - Google Patents
Immersive collaborative environment using motion capture, head mounted display, and cave Download PDFInfo
- Publication number
- KR20100084597A KR20100084597A KR20090043446A KR20090043446A KR20100084597A KR 20100084597 A KR20100084597 A KR 20100084597A KR 20090043446 A KR20090043446 A KR 20090043446A KR 20090043446 A KR20090043446 A KR 20090043446A KR 20100084597 A KR20100084597 A KR 20100084597A
- Authority
- KR
- South Korea
- Prior art keywords
- virtual reality
- simulation
- motion capture
- users
- design
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/15—Vehicle, aircraft or watercraft design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/02—CAD in a network environment, e.g. collaborative CAD or distributed simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 넓게는 가상 현실 및 모션 캡쳐(motion capture)에 관한 것으로, 더 구체적으로는 모션 캡쳐를 이용하여 실제 및 가상 환경에서 사람이 상호 작용하도록 하는 시스템 및 프로그램에 관한 것이다.TECHNICAL FIELD The present invention relates generally to virtual reality and motion capture, and more particularly to systems and programs that enable human interaction in real and virtual environments using motion capture.
사용자가 상호 작용(interact)하거나 환경을 분석할 수 있도록 하는 다양한 기술이 존재한다. 예를 들어, 모션 캡쳐 기술은 스포츠, 의료 및 엔터테인먼트(특히, 비디오 게임 및 애니메이션) 분야에서 사용된다. 스포츠에서, 예를 들어 모션 캡쳐는 골퍼의 스윙 분석을 위해 디지털 방식으로 기록할 수 있도록 해준다. 의료 분야에서는, 정형 외과 재활 훈련시 모션 캡쳐를 이용하여 환자에게 피드백을 줄 수 있다. 예를 들면, 걷기 중인 환자의 움직임을 이용하여 정확한 또는 부정확한 테크닉을 나타낸다. 애니메이션 분야에서, 모션 캡쳐는 배우의 움직임 및 표정 표현까지도 컴퓨터 모델에 디지털 방식으로 기록될 수 있게 한다. 이후에, 애니메이터가 배우의 기록된 동작을 컴퓨터-생성 캐릭터의 움직임에 대한 근거로 이용한다. 이와 같이, 비디오 게임은 게임 내에서 살아 있는 것 같은 캐릭터의 애니메이션을 용이하게 표현하기 위해 모션 캡쳐를 사용한다.There are a variety of technologies that allow users to interact or analyze the environment. For example, motion capture technology is used in sports, medical and entertainment (especially video games and animation). In sports, for example, motion capture enables digital recording for golfer's swing analysis. In the medical field, motion capture can be used to provide feedback to patients during orthopedic rehabilitation training. For example, the movement of a walking patient is used to represent an accurate or inaccurate technique. In the field of animation, motion capture enables digital recording of actors' movements and facial expressions into computer models. The animator then uses the actor's recorded movement as the basis for the movement of the computer-generated character. As such, video games use motion capture to facilitate the animation of animated characters in the game.
가상 현실 기술(virtual reality technologies)은 사용자가 컴퓨터-시뮬레이션 환경에서 반응할 수 있도록 한다. 대부분의 가상 현실 환경은 컴퓨터 스크린 또는 입체적인 디스플레이에 의존하며, 주로 시각적인 경험이다. 가상 현실 기술의 대중적인 예는 비행 시뮬레이터 비디오 게임이다. 여기서 플레이어는 컴퓨터 시뮬레이션 환경에서 가상 항공기를 조종한다.Virtual reality technologies allow the user to react in a computer-simulated environment. Most virtual reality environments rely on computer screens or stereoscopic displays and are primarily visual experiences. A popular example of virtual reality technology is a flight simulator video game. Here the player controls a virtual aircraft in a computer simulation environment.
텔레프레즌스(Telepresence, 원격 현존감)는 사용자게 원거리를 경험하게 하거나 원거리에 존재하는 듯한 느낌을 주는 기술을 일컫는다. 예를 들어, 사용자가 원거리에 존재하는 것으로 느끼기에 충분한 크기 및 질의 디스플레이인 경우에, 텔레프레즌스는 사용자가 팬(pan), 기울임(tilt) 및 줌(zoom)을 사용할 수 있는 원격 비디오 카메라를 포함한다.Telepresence refers to a technology that allows users to experience distance or feel as if they are remote. For example, if the display is of sufficient size and quality to make the user feel remote, telepresence includes a remote video camera that the user can use pan, tilt and zoom. .
이러한 기술들 어느 것도 단독으로는, 인터액션(interaction, 상호 작용), 작업에 대한 가상 트레이닝, 그리고 생동감 있는 비디오를 이용한 시뮬레이션 확인을 통해 디자인을 평가하기 위한 협업형 실감 환경(collaborative immersive environment)을 제공하지 못한다.None of these technologies alone provide a collaborative immersive environment for evaluating designs through interactions, virtual training of tasks, and simulation validation using live video. can not do it.
위와 같은 문제를 해결하기 위해, 본 발명의 실시예는 예를 들면, 협업형 시각화 시스템을 제공한다. 이는 특히 디자인을 평가할 목적으로, 운동학 및 캐 드(CAD:computer aided design)과 함께 모션 캡쳐 및 가상 현실을 결합한다. In order to solve the above problem, an embodiment of the present invention provides, for example, a collaborative visualization system. It combines motion capture and virtual reality with kinematics and CAD (computer aided design), especially for the purpose of evaluating designs.
또한 본 발명의 실시예는 예를 들어, 실제 및 가상 환경에서 한 명 이상의 사람이 반응할 수 있도록 하는 휴대용 모션 캡쳐 시스템, 그리고 디자인 평가, 작업에 대한 가상 트레이닝, 및 무엇보다도 실사 비디오를 이용하여 시뮬레이션을 검증하는 헤드 마운트 디스플레이(HMD:head mounted display)를 제공한다. 나아가 본 발명의 실시예는 모션 캡쳐 시스템에 의해 추적되고 가상 현실 시뮬레이션에 포함될 객체(오브젝트, object)를 제공한다. 협업형 시각화 시스템의 실시예를 예를 들어 설명하면, 한 명 이상의 동시 사용자와, 한 명 이상의 외부 관찰자가 함께하며, 실시간 인터액션(interaction) 및 크기조절(스케일링)이 가능하고, 시뮬레이션 및 델레프레즌스 보기 사이의 전환을 가능하게 하는 실감 환경을 포함할 수 있다. 실감 환경은 예를 들면, 뷰어(viewer)를 둘러싸는 것처럼 보이는 3차원 또는 입체 이미지를 생성할 수 있다. 즉, 뷰어가 가상 환경에 "몰입(immersed)"된다.Embodiments of the present invention are also simulated using, for example, portable motion capture systems that allow one or more people to respond in real and virtual environments, and design evaluation, virtual training of tasks, and, above all, live video. It provides a head mounted display (HMD) that verifies. Further embodiments of the present invention provide an object (object) to be tracked by the motion capture system and to be included in the virtual reality simulation. An example of a collaborative visualization system is described using one or more concurrent users, one or more external observers, real-time interaction and scaling (scaling), simulation and depresence views. It may include a sensational environment that enables a transition between them. The sensational environment may, for example, generate three-dimensional or three-dimensional images that appear to surround the viewer. That is, the viewer is "immersed" in the virtual environment.
본 발명의 실시예는 예를 들면 가상 현실 시뮬레이터를 포함한다. 가상 현실 시뮬레이터는 CAD 디자인으로부터 데이터를 수신하고 데이터로 구성된 시뮬레이션을, 예를 들어 헤드 마운트 디스플레이(HMD: head mounted display)를 거쳐 사용자에게 디스플레이하고, 이로써 실제 크기(full-scale)의 입체 영상(이미지)이 생성된다. 예를 들어 이미지는 사용자가 시뮬레이션 내의 작업 손잡이(working knob) 및 스위치 상의 단어를 읽을 수 있을 만큼 상세하게 표현될 수 있다.Embodiments of the invention include, for example, a virtual reality simulator. The virtual reality simulator receives data from the CAD design and displays a simulation of the data, for example, to the user via a head mounted display (HMD), thereby producing a full-scale stereoscopic image (image). ) Is generated. For example, the image can be represented in detail so that the user can read the words on the working knob and switch in the simulation.
본 발명의 실시예는 나아가, 가상 현실 시뮬레이터에 삽입된 모션 캡쳐 시스 템을 포함한다. 예를 들어, 모션 캡쳐 시스템은 가상 현실 시뮬레이션 내에서 사용자의 운동 및 반응을 추적할 수 있다. 이에 따라 사용자(머리부터 전체 바디 수트 및 장갑까지, 유연하고 조절가능한 레벨의 세부 장치를 포함한, 모션 캡쳐 앙상블(한 벌의 옷)을 입고 있음)의 머리가 회전하거나 기울어질 때, 헤드 마운트 디스플레이(HMD)에 제공된 시뮬레이션의 영상이 상응하게 변화한다. 모션 캡쳐 시스템은 예를 들어, 트레이닝 또는 디자인 평가 목적을 포함하는 후속 사용을 위해 추적된 사용자의 움직임 및 인터액션을 저장할 수 있다. 또한, 모션 캡쳐 시스템은 가상 현실 시뮬레이션 내의 여러 사용자의 움직임 및 인터액션을 추적하여, 여러 사용자가 시뮬레이션 내에서 실시간으로 아바타(avatar)로 표현되도록 한다. 따라서, 여러 사용자는 시뮬레이션 내에서 조정된 활동(예를 들면, 항공기에서 일상적인 정비 수행)을 시뮬레이션할 수 있다. 추가로, 모션 캡쳐 시스템은 예를 들어, 사용자에 의해 사용되는 도구 및 프롭(prop)을 포함하는 대상물의 움직임 및 인터액션을 추적할 수 있다.Embodiments of the present invention further include a motion capture system embedded in a virtual reality simulator. For example, a motion capture system can track a user's movements and reactions within a virtual reality simulation. This allows the head-mounted display (when the head of the user (wearing a suit of motion capture ensemble, including a flexible and adjustable level of detail device, from head to full bodysuit and gloves) rotates or tilts). The image of the simulation provided in HMD) changes correspondingly. The motion capture system can store tracked user movements and interactions for subsequent use, including, for example, for training or design evaluation purposes. In addition, the motion capture system tracks the movements and interactions of multiple users in the virtual reality simulation, allowing multiple users to be represented as avatars in real time within the simulation. Thus, several users can simulate coordinated activities (eg, performing routine maintenance on an aircraft) within a simulation. In addition, the motion capture system can track the movement and interaction of the object, including, for example, tools and props used by the user.
본 발명의 실시예는 예를 들어, CAD 디자인을 평가하기 위해 공통적인, 실감 환경에서 아바타의 인터액션을 포함하는 가상 현실 시뮬레이션을 다수의 관찰자가 실시간으로 볼 수 있는, 실감형 관찰 시스템을 포함할 수 있다. 실감형 관찰 시스템은, 세 개의 벽과 바닥에 대한 디스플레이를 이용하여, 8-피트-높이 X 10-피트-폭 X 10-피트-길이의 룸과 같은 CAVE(Cave Automatic Virtual Environment)를 포함할 수 있다. 여기서, 한 명 이상의 관찰자는 실감형 및 인터액션 방식으로, 입체인 풀-스케일(실제 크기)의 영상을 포함하는 공유 환경을 본다. 효과적인 것은, CAVE 를 사용하여 CAD 디자인의 디자이너가, 비용이 많이 드는 프로토타입(prototype, 모델)을 형성할 필요 없이, 디자인을 분석 및 평가하기 위해, 시뮬레이터에 제안된 디자인과 광범위하게 인터액션하는 최종 사용자를 관찰할 수 있다는 것이다. 예를 들어, 관찰자는 항공기에 대한 정례적인 정비 동작을 수행하는 시뮬레이션 내의 사용자를 볼 수 있다. 또한, 예를 들어 훈련생이 기록된 모션 캡쳐 데이터에 반응하는 트레이너의 아바타를 봄으로써 다양한 작업을 수행하는 트레이너를 관찰할 수 있다. Embodiments of the present invention may include an immersive observation system that allows multiple observers to view, in real time, virtual reality simulations involving interaction of avatars in a common, immersive environment for evaluating CAD designs. have. An immersive viewing system can include a CAVE (Cave Automatic Virtual Environment), such as an 8-foot-height X 10-foot-width X 10-foot-length room, with a display on three walls and floors. have. Here, one or more observers view a shared environment that includes stereoscopic full-scale (actual size) images in a realistic and interactive manner. Effectively, CAVE enables designers of CAD designs to interact extensively with the proposed design in the simulator to analyze and evaluate the design without having to create costly prototypes. Can be observed. For example, an observer can see a user in a simulation performing regular maintenance operations on an aircraft. In addition, the trainer can observe the trainer performing various tasks, for example, by looking at the avatar of the trainer in response to the recorded motion capture data.
본 발명의 실시예에 따르면, 가상 현실 시뮬레이터는 실시간으로 각 아바타의 크기를 조절할 수 있다. 즉, 시뮬레이션 내의 5'4"의 사용자가 시뮬레이션 내에서 6'2"의 아바타가 되도록 실시간으로 조절할 수 있다. 5'4"의 사용자의 헤드 마운트 디스플레이(HMD)에 제공된 영상은 6'2"의 누군가에 의해 예기된 투시도에 대응한다. 시뮬레이션의 관찰자는 6'2"의 아바타를 볼 것이다. 크기 조절(스케일링)은 모션 캡쳐 데이터로부터 시뮬레이션 데이터로의 변화시 데이터의 각 면(aspect)에 대해 비율을 부가함으로써 이루질 수 있다. 선택적으로, 운동학 소프트웨어가 나머지 관절부위에 대한 문제를 해결하도록 정확한 위치에 아바타의 머리, 팔, 다리를 배치함으로써 실시간으로 크기 조절이 이루어질 수 있다. 또한, 스케일링은 실시간과 반대로, 후속 처리에 의해 이루어질 수도 있다.According to an embodiment of the present invention, the virtual reality simulator may adjust the size of each avatar in real time. In other words, the user of 5'4 "in the simulation can be adjusted in real time to be the avatar of 6'2" in the simulation. The image provided on the user's head mounted display (HMD) of 5'4 "corresponds to the perspective view anticipated by someone of 6'2". The observer of the simulation will see an avatar of 6'2 ". Scaling can be accomplished by adding a ratio for each aspect of the data upon change from motion capture data to simulation data. Scaling can be done in real time by placing the avatar's head, arms and legs in the correct position so that the kinematics software solves the problem of the remaining joints.Scaling can also be done by subsequent processing, as opposed to real time. .
본 발명의 실시예에 따르면, 가상 현실 시뮬레이터가 시뮬레이션 된 환경과의 인터액션을 포함할 수 있다. 이러한 일 예에서, 가상 현실 시뮬레이터는 시뮬레이션 내에 피드백을 제공하도록 충돌 검출 소프트웨어를 포함할 수 있다. 사용자가 시뮬레이션이 벽으로 나타낸 곳을 그의 손으로 미는 경우에, 예를 들면 가상 충돌이 검출된다. 손의 움직임은 충돌시 멈추거나 또는 사용자의 시야에서 사라지도록 설정되고, 벽의 패널은 피드백을 제공하고 충돌이 일어났음을 나타내기 위해, 색을 변경하도록 (또는 그 외의 다른 동작) 설정될 수 있다. 바람직한 구성에 따르면, 벽이 붉게 변한다. 이와 유사하게, 무릎이 시뮬레이션에서 툴 박스와 "충돌"하는 경우에, 툴 박스가 붉게 변한다. 구성 예에서, 충돌에 의해 소리가 나도록 하며, 소리는 사용자나 관찰자에 대해 충돌의 방향을 나타내는 방향성 있는 소리일 수 있다. 다양한 유형의 소리가 추가로 충돌의 격렬함 또는 충돌에 관련된 대상물(또는 물체)과 같은, 충돌 관련 정보를 제공할 수 있다. 예를 들어, 항공기의 일부에 머리가 부딪힌 사용자는 바닥과 충돌한 물체와 다른 소리를 낼 수 있다. 또한, 시뮬레이션은 예를 들어 문 또는 패널을 개방함으로써 검출된 충돌에 근거하여 동작을 변경할 수 있다.According to an embodiment of the invention, the virtual reality simulator may include interaction with the simulated environment. In one such example, the virtual reality simulator may include collision detection software to provide feedback within the simulation. If the user pushes with his hands where the simulation is represented by the wall, for example a virtual collision is detected. The movement of the hand may be set to stop in a collision or disappear from the user's field of view, and the panel of the wall may be set to change color (or any other action) to provide feedback and indicate that a collision has occurred. . According to a preferred configuration, the wall turns red. Similarly, if the knee "collides" with the toolbox in the simulation, the toolbox turns red. In the configuration example, the sound is caused by the collision, and the sound may be a directional sound indicating the direction of the collision for the user or observer. Various types of sounds may further provide collision related information, such as the intensity of the collision or the object (or object) involved in the collision. For example, a user whose head hits a portion of the aircraft may make a different sound than objects that hit the floor. The simulation can also change behavior based on collisions detected, for example by opening a door or panel.
또한, 본 발명의 실시예는 현장에서 작업을 캡쳐하기 위한 휴대용 모션 캡쳐를 포함할 수 있다. 이러한 시스템은 모션 추적 마커(수트, 몸체 또는 그 외의 옷상에 존재할 수 있음), 삼각대 상에 설치되거나 단단한 구조물 상에 고정된 복수의 카메라를 포함하여, 카메라가 모션 캡쳐 마커를 입고 있는 사용자의 움직임을 추적하고, 컴퓨터가 카메라로부터의 영상을 기록한다. 휴대용 모션 캡쳐 시스템은 원격 절차(예를 들어 필드 보존 동작: field maintenace operation)가 기록되도록 한다. 본 발명의 실시예에 따라 제공된 가상 현실 시뮬레이터 및 모션 캡쳐 시스템에 내제된 속성 때문에, 현존하는 디자인에 대한 동작 시퀀스 또는 현존하는 디자인의 실시간 평가를 위해, 또는 새로운 디자인과의 인터액션을 위해, 가상 현실 시뮬레이터에서 필드 보존 동작으로부터의 데이터가 이후에 연구될 수 있다. 나아가, 본 발명의 실시예에 따르면, 휴대용 모션 캡쳐 시스템은 현장에서 실시간 디자인 평가, 디자인 표현 및 원거리 위치에서의 훈련을 위해 유용하게 사용될 수 있다. 디자인의 평가는 예를 들면, 환경에 대한 디자인 평가, 디자인의 생명 공학적 측면에 대한 분석, 디자인과 관련된 작업에 대한 연구 및 본 발명이 속하는 분야의 기술자가 할 수 있는 그 이외의 사항을 포함할 수 있다.Embodiments of the invention may also include portable motion capture for capturing work in the field. Such systems include motion tracking markers (which may be present on suits, bodies, or other clothing), and multiple cameras mounted on tripods or fixed on rigid structures, so that the cameras can be moved by a user wearing a motion capture marker. Tracking, and the computer records the image from the camera. Portable motion capture systems allow remote procedures (eg field maintenace operations) to be recorded. Due to the inherent properties of the virtual reality simulator and motion capture system provided in accordance with an embodiment of the present invention, for the real-time evaluation of an existing design or for a sequence of motions for an existing design, or for interaction with a new design, a virtual reality simulator The data from the field preservation operation can then be studied. Further, according to an embodiment of the present invention, the portable motion capture system can be usefully used for real-time design evaluation, design representation, and training at remote locations in the field. Evaluation of a design may include, for example, an evaluation of the design of the environment, an analysis of the biotechnological aspects of the design, a study of work related to the design, and anything else that a person skilled in the art can do. have.
나아가, 본 발명의 실시예는 실감형 기술을 사용하는 실사 비디오를 이용하여 시뮬레이션을 검증하는 방법을 포함한다. 예를 들어, 이러한 방법의 실시예에 따르면, 구면(spherical) 카메라가 실사 비디오 또는 실사 스틸 사진을 원거리 위치에서 캡쳐한다. 이후에, 비디오 또는 사진이 헤드 마운트 디스플레이(HMD)에 제공된다. 모션 캡쳐 시스템은 사용자의 머리 회전 정보를 수집하고, 이는 비디오의 팬(pan), 기울임(tilt), 및 줌(zoom)을 제어하는 데 사용된다. 그리고나서 사용자는 시뮬레이션을 검증하는 방식으로, 실사 비디오의 디스플레이와 시뮬레이션을 전환할 수 있다. 또한, 비디오가 데스크 톱이나 CAVE에 디스플레이될 수 있다. 일 예로, 항공기 캐리어의 테크로부터 실사 영상을 캡쳐하기 위해 구면 카메라를 사용하는 것은 그러한 환경의 시뮬레이션을 검증하는데 사용될 수 있다.Furthermore, embodiments of the present invention include a method for verifying a simulation using live video using immersive techniques. For example, according to an embodiment of this method, a spherical camera captures live video or live still pictures at remote locations. Thereafter, a video or photo is provided to the head mounted display HMD. The motion capture system collects the user's head rotation information, which is used to control the pan, tilt, and zoom of the video. The user can then switch the display and simulation of the live video by verifying the simulation. Video can also be displayed on the desktop or CAVE. For example, using a spherical camera to capture live-action images from the tech of an aircraft carrier can be used to verify simulation of such an environment.
본 발명의 실시예는 본 발명이 속하는 분야의 기술자가 알 수 있는 바와 같이, 예를 들어, 여러 명의 동시 사용자 및 외부 관찰자를 포함하고, 실시간 인터액션 및 크기 조절(스케일링)을 이용하며, 시뮬레이션과 텔레프레즌스 보기 사이의 전환 능력을 이용하여, 실감 환경을 제공하는 시스템 및 방법을 포함한다. Embodiments of the invention, as will be appreciated by those skilled in the art, include, for example, multiple concurrent users and external observers, use real-time interaction and scaling (scaling), simulation and telepresence. Systems and methods that provide a sensory environment using the ability to switch between views.
이와 같은 본 발명의 실시예에 따르면, 프로토타입을 구성하지 않고 디자인을 평가하고, 프로토타입이나 위치 이동 없이 개인적인 훈련을 시킬 수 있는 향상된 방법을 제공한다. According to this embodiment of the present invention, there is provided an improved method for evaluating a design without constructing a prototype, and for personal training without prototyping or repositioning.
이하에서, 첨부된 도면 및 실시예와 함께 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail with the accompanying drawings and examples.
다르게 정의되었더라도, 이 명세서에 사용된 모든 기술적 및 과학적 용어는, 본 발명이 속하는 분야의 일반적인 기술자가 공통적으로 이해하는 의미와 동일하다. 이 명세서에 설명된 바와 동일하거나 유사한 방법이 실제로 사용되거나 본 발명을 테스트하는 데 사용될 수 있으나, 적합한 방법이 이 명세서에 기술된다.Although defined differently, all technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Although the same or similar methods as described herein can be used in practice or to test the invention, suitable methods are described herein.
상술한 본 발명의 실시예들은 단지 예시와 설명을 위한 것일 뿐이며, 본 발명을 설명된 형태로 한정하려는 것이 아니다. 따라서, 다양한 변화 및 변경을 할 수 있음은 본 발명이 속하는 분야의 당업자에게 자명하다. 또한, 이 명세서의 상세한 설명이 본 발명의 범위를 제한하는 것은 아니다. 명세서 전체에 걸쳐 동일한 도면부호는 동일한 구성요소를 나타낸다.The above-described embodiments of the present invention are for illustration and description only, and are not intended to limit the present invention to the described form. Accordingly, various changes and modifications can be made to those skilled in the art to which the present invention pertains. In addition, the detailed description of this specification does not limit the scope of the present invention. Like reference numerals denote like elements throughout the specification.
도 1 및 10에 도시된 바와 같이, 본 발명의 실시예는 협업형 시각화 시스템(collaborative visualization system, 20)을 포함한다. 이는 무엇보다도 디자인 평가, 작업에 대한 가상 훈련, 그리고 실사 비디오를 이용하여 시뮬레이션을 검증할 목적으로, 운동학 및 CAD와 함께 모션 캡쳐 및 가상 현실 기술을 통합한다. 또 한, 본 발명의 실시예는 예를 들어, 실감형 관찰 환경을 포함한다.As shown in FIGS. 1 and 10, an embodiment of the present invention includes a
본 발명의 실시예는, 예를 들면 가상 현실 환경을 생성하기 위한 가상 현실 시뮬레이터(58)를 포함한다. 가상 현실 시뮬레이터는 CAD 프로그램으로부터 데이터를 수신하고, 도 1, 2 및 5에 도시된 바와 같이 헤드 마운트 디스플레이(40)를 통해 사용자에게 투사된 디자인의 가상 현실 시뮬레이션을 생성할 수 있다. 또한, 시뮬레이션은 데스크 톱 또는 CAVE(44)를 통해 디스플레이될 수 있다. 가상 현실 시뮬레이션은 3차원이고, 사용자가 CAD 디자인을 조사, 평가하며 이와 인터액션할 수 있도록 한다. 시뮬레이션 환경은 실감형으로 분류된다. 왜냐하면 시뮬레이션이 3D이고 풀-스케일이기 때문이다. 사용자의 시야는 시뮬레이션 전체에 걸쳐 회전할 수 있으므로 사용자는 시뮬레이션에 몰두하게 된다.Embodiments of the present invention include, for example, a
항공기, 스페이스 시스템, 우주선, 선박 및 마사일 시스템에 대한 디자인 평가를 위해 실시예가 제공된다. 이는 종종 예를 들면 값비싼 실물 크기의 모형 및 프로토타입(모델)을 전형적으로 필요로 하는 고비용 평가 프로세스를 사용한다. 본 발명이 속하는 분야의 기술자가 알 수 있는 바와 같이, 고비용 평가 프로세스는 인간 공학적 분석 그리고, 동작 및 정비 작업을 위해 작업 분석을 포함할 수 있다. Embodiments are provided for design evaluation of aircraft, space systems, spacecraft, ships, and missile systems. It often uses a costly evaluation process that typically requires, for example, expensive full-scale models and prototypes (models). As will be appreciated by those skilled in the art, the high cost evaluation process may include ergonomic analysis and task analysis for operation and maintenance work.
본 발명의 실시예에 따르면, 사용된 가상 현실 소프트웨어는 DELMIA의 ENVISION(D5)을 포함한다. 본 발명이 속하는 분야의 기술자가 알 수 있는 바와 같이, 이러한 소프트웨어는 물리학-기반의, 3D 환경, 특히 설계, 검증, 그리고 구조물, 기계적 시스템 및 인간을 포함하는 개념 디자인의 신속한 모델화를 위한 3D 환경을 제공한다. 본 발명이 속하는 분야의 당업자가 알 수 있는 바와 같이, 소프트 웨어는 시스템 및 서브 시스템 레벨 모델을, 물리학-기반 운동, 가상 현실 실감, 및 고도로 정확한 3D 시뮬레이션과, 분석과 시각화에 대한 인간 공학적 평가 능력을 이용하여 강화한다. 또한, 본 발명의 실시예에 따르면, 가상 현실 환경을 생성하는데 사용된 그 이외의 소프트웨어 구성요소로는, 포인트 클라우드 데이터를 다각형으로 전환하는 데 사용된 소프트웨어 도구인, InnovMetric Software 사의 PolyWorks; 다각형 변환 및 축소 도구인, Okino Computer Graphics의 NuGraf; 다각현 변환 및 축소 도구인, Right Hemisphere의 Deep Exploration 또는 Deep Server; 그리고 코드 개발 스위트인 Microshoft의 MS Visula Studio가 있다. 본 발명의 실시예에 따르면, 이러한 소프트웨어를 지원하는 하드웨어는, 4 Dell Precision Workstations 670, 16x DVD-ROM, 48/32 CDRW, 2 MB L2 캐쉬를 포함한 Dual 3.0 Ghz Xeon, 800 FSB 4 GB RAM, n Vidia Quadro FX3400 256 MB, 136 GB HD를 포함한다. 본 발명이 속하는 분야의 기술자가 알 수 있는 것과 같이, 가상 현실 시뮬레이터는 하나 이상의 컴퓨터로 판독 가능한 매체에 저장되며, 컴퓨터에 의해 판독될 수 있는 컴퓨터 프로그램을 포함하며, 이에 따라 이하에 설명할 바와 같이 컴퓨터에 의해 판독될 때, 컴퓨터 프로그램은 다양한 명령을 수행하도록 동작한다.According to an embodiment of the present invention, the virtual reality software used comprises ENVISION D5 of DELMIA. As will be appreciated by those skilled in the art, this software creates a 3D environment for physics-based, 3D environments, in particular design, verification, and rapid modeling of conceptual designs involving structures, mechanical systems and humans. to provide. As will be appreciated by those skilled in the art, the software has the ability to evaluate system and subsystem level models, including physics-based motion, virtual reality, and highly accurate 3D simulation, and ergonomic evaluation of analysis and visualization. Enhance using. Further, according to an embodiment of the present invention, other software components used to create a virtual reality environment include PolyWorks of InnovMetric Software, a software tool used to convert point cloud data into polygons; NuGraf of Okino Computer Graphics, polygon transformation and reduction tool; Deep Exploration or Deep Server from Right Hemisphere, a polygon transform and collapse tool; And Microsoft Visula Studio from Microshoft, a code development suite. According to an embodiment of the present invention, the hardware supporting this software includes: 4 Dell Precision Workstations 670, 16 x DVD-ROM, 48/32 CDRW, Dual 3.0 Ghz Xeon, 2 MB L2 cache, 800
도 1, 2 및 3에 도시된 바와 같이, 본 발명의 실시예에 따르면, 모션 캡쳐 시스템(30)은 예를 들어 수트 상의 알려진 위치(예를 들면, 무릎, 허리 및 어깨 윗 부분)에 마커(52)를 가지는, 바디수트(32), 장갑(34), 및 헤드기어(36)를 착용한 사용자를 포함한다. 모션 캡쳐 시스템은 나아가 마찬가지로 가상 현실 시뮬레이터 에 표현될 마커를 가지는 실제 객체 또는 프랍(prop)을 포함할 수 있다. 카메 라(54)(도 8B에 도시됨)는, 사용자가 주변을 움직이거나 시뮬레이션과 인터액션함에 따라 마커의 위치를 디지털 방식으로 기록하고, 데이터 세트를 캡쳐한다. 이러한 모션 캡쳐 데이터는 실시간으로 가상 현실 시뮬레이터(58)에서 이용될 수 있으며, 이에 따라 사용자 및 이들의 움직임이 시뮬레이션 내에서 아바타(56)로 모델화되고, 피드백이 사용자에게 제공된다. 아바타는 전자 이미지이며, 이는 컴퓨터 게임이나 다른 가상 현실 설정에서 일반적으로 사람의 형태로 실현됨으로써 표현되고 컴퓨터 사용자에 의해 조작 및 구동된다.1, 2 and 3, in accordance with an embodiment of the present invention,
본 발명의 실시예에 따르면, 모션 캡쳐 시스템(30)은 카메라(54)(예, Motion Analysis Corporation의 12 Eagle-i 및 12 Hawk-i, 도 8B에 도시됨)로서, 헤드 마운트 디스플레이(40), 장갑(34)(예, Motion Analysis Corporation의 TALON 장갑) 및 바디 수트(32)를 착용한 6명의 공동 사용자를 이동하며 촬영하는 데 사용되는 트러스(38)(예, LxWxH가 20'x15'x10'임)에 장착된 카메라를 24개까지 포함한다. 본 발명의 실시예에 따르면, 모션 캡쳐 시스템(30)은 Motion Analysis Corporation의 소프트웨어를 사용하며, 다음의 플러그-인을 포함한다. 즉, Animation Plugins, RT2 Animation Plugins, Calcium 4, Talon Streaming 4, Talon Viewer 4, 및 EVaRT5를 포함한다. 본 발명에 속하는 분야의 기술자가 알 수 있는 바와 같이, 이러한 소프트웨어는 템플릿 및 프랍이 생성되도록 하고, 물리적 모형부터 사람의 전신에 이르기까지 모든 것을 추적하도록 특화된다. 또한, VRSim'의 SimIO 모듈이 시뮬레이션 엔진 소프트웨어 ENVISION D5에 의해 사용될 EVaRT에 의해 수집된 데이터를 멀티캐스트 하는데 사용될 수 있다. 당업자에게 이해될 수 있는 바와 같이, 예 를 들어 실시예에서 다른 개수의 카메라가 포함될 수 있다.According to an embodiment of the present invention,
본 발명의 일 실시예에 따르면, 가상 현실 시뮬레이터는 예를 들어, 실시간으로 각 아바타의 크기를 조절할 수 있다. 즉, 시뮬레이션 내의 5'4"의 사용자가 실시간으로 시뮬레이션 내의 6'2"의 아바타로 크기 조절될 수 있다. 5'4"의 사용자의 헤드 마운트 디스플레이에 제공된 영상이 누군가에 의해 의도된 6'2" 투시도에 대응한다. 시뮬레이션의 관찰자는 6'2"의 아바타를 보게 될 것이며, 아바타의 포즈는 사용자의 포즈와 일치한다. 크기조절(스케일링)은 모션 캡쳐 데이터로부터 시뮬레이션 데이터로의 전환시 데이터의 각 면(aspect)에 대해 비율을 적용함으로써 일어진다. 선택적으로, 크기조절은 정확한 위치에 아바타의 머리, 손 및 발을 위치시킴으로써 운동학적 소프트웨어가 다른 결합부(관절 부분)에 대한 문제를 처리하도록 함으로써 이루어진다. 도 9는 서로 다른 크기로 조절된 4 개의 아바타(모두 동일한 사용자에 의해 구동됨)를 도시하며, 따라서 모두가 동일한 포즈(또는 자세)를 취한다. 크기조절은 실시간과 반대로, 후속 처리 동작시 이루어질 수도 있음에 주의한다. 즉, 예를 들어 6'2"의 제 1 크기를 가진 사용자(훈련생)를 원거리 트레이닝하기 위해, 제 1 크기(예, 6'2")의 아바타가, 제 1 사이즈와 다른 제 2 사이즈(예, 5'4")의 사용자(트레이너)로부터의 모션 캡쳐 데이터에 응답하여 디스플레이 될 수 있다. According to an embodiment of the present invention, the virtual reality simulator may adjust the size of each avatar in real time, for example. That is, a 5'4 "user in the simulation can be scaled to a 6'2" avatar in the simulation in real time. An image provided on a 5'4 "user's head mounted display corresponds to a 6'2" perspective intended by someone. The observer of the simulation will see an avatar of 6'2 ", and the pose of the avatar matches the pose of the user. Scaling is applied to each aspect of the data when switching from motion capture data to simulation data. Optionally, scaling is accomplished by having the kinematic software address the problem with other joints (joints) by placing the avatar's head, hands, and feet in the correct position. It shows four avatars scaled to different sizes (all driven by the same user), and therefore all take the same pose (or pose). Be careful. That is, for example, to distance train a user (trainee) with a first size of 6'2 ", the first size (eg 6'2"). The avatar may be displayed in a first size and a second, different size (e.g., 5'4 ") user in response to the motion capture data from the (trainer) of.
도 1, 2 및 5에 도시된 바와 같이, 본 발명의 실시예에 따르면, 사용자는 헤드 마운트 디스플레이(40)를 통해 시각적으로 가상 현실 환경을 경험하고, 헤드 마운트 디스플레이의 각각은 다르게 투시된 가상 현실 시뮬레이션을 포함할 수 있다. 풀 스케일 데이터의 실감형 시각화를 위해 사용자가 착용한 스테레오 디스플레이 헬멧을 포함할 수 있다. 본 발명이 속하는 분야의 당업자에게 이해될 수 있는 바와 같이, 헤드 마운트 디스플레이(40)의 한 유형인, Virtual Research의 VR1280은 모노 또는 스테레오의 60Hz, 1280x1204의 디스플레이 성능을 가진다. 당업자에 의해 이해될 수 있는 바와 같이 헤드 마운트 디스플레이는 서로 다른 영상으로 왼쪽 눈과 오른쪽 눈 디스플레이를 개별화하여, 사용자가 헤드 마운트 디스플레이에서 영상을 입체적으로 보도록 한다.1, 2 and 5, according to an embodiment of the present invention, the user visually experiences a virtual reality environment through the head mounted
본 발명의 일 실시예에서, 3D 장면을 디스플레이하는데 사용되는 소프트웨어는 OpenSceneGraph 3D 그래픽스 툴 키트(toolkit)에 근거할 수 있다. VRSim의 MiniViz는 사용자가 동작중인 ENVISION (D5) 시뮬레이션을 볼 수 있도록 하는 뷰어이다. 이 뷰어는 환경 내의 모델을 로드하고, 이 모델의 위치에 대한 ENVISION (D5) 시뮬레이션 및 추적된 뷰 포인트(viewpoint)를 참조한다.In one embodiment of the invention, the software used to display the 3D scene may be based on the OpenSceneGraph 3D graphics toolkit. VRSim's MiniViz is a viewer that allows users to see running ENVISION (D5) simulations. This viewer loads the model in the environment and references the ENVISION (D5) simulation and tracked viewpoints for the model's location.
본 발명의 실시예는 헤드 마운트 디스플레이를 지원하는 컴퓨터 워크스테이션을 제공한다. 본 발명의 일 실시예에서, 네 개의 헤드 마운트 디스플레이를 지원하는데 사용된 하드웨어에는, 4 Dell Precision Workstation 670, 16x DVD-ROM 48/32 CDRW, 2MB L2 캐시를 포함한 Dual 3.0 Ghz Xeon, 800 FSB, 4GB RAM, nVidia Quadro FX3400 256 MB, 136 GB HD가 포함된다. 편의를 위해 그리고 당업자가 이해할 수 있는 바와 같이, Hergo Easy Mount Mobile Computer Cart - Star Base 42(도 4에 도시됨)는 본 발명의 실시예에 따라, 각 세트의 장치(컴퓨터, 키보드, 마우스, 헤드 마운트 디스플레이(40), 탈론 글로브(34) 및 Hergo의 평판 모니터 포함)를 장 착하는데 사용될 수 있다.Embodiments of the present invention provide a computer workstation that supports a head mounted display. In one embodiment of the invention, the hardware used to support four head mounted displays includes 4 Dell Precision Workstation 670, 16x DVD-
본 발명의 실시예에 따르면, 가상 현실 시뮬레이터는 에를 들어 시뮬레이션 된 환경과의 인터액션을 포함할 수 있다. 이러한 예에서, 가상 현실 시뮬레이터는 충돌 검출 소프트웨어를 포함하여 시뮬레이션 내에서 피드백을 제공할 수 있다. 시뮬레이션이 벽이 존재하는 것을 나타내는 곳에 사용자가 손을 찌르는 경우에, 가상 충돌이 검출된다. 손은 충돌 시간에 멈춰지거나 사용자의 시야에서 사라질 수 있으며, 벽의 패널 색이 변경되어(또는 다른 동작이 일어남) 피드백을 제공하고 충돌이 발생했음을 표시한다. 바람직한 구성에서, 벽은 붉은 색으로 변한다. 유사하게, 무릎이 시뮬레이션 내의 폭탄과 "충돌"하면, 폭탄이 붉은 색으로 변한다. 일 실시예에서, 객체의 외관이 충돌에 반응하여 변경된다. 일 실시예에서는, 충돌에 의해 소리가 난다. 소리는 사용자 또는 관찰자에 대한 충돌의 방향을 표시하는 방향성 있는 소리이다. 다양한 유형의 소리가, 격렬함과 같은 충돌에 관한 정보 또는 충돌에 관련된 객체에 관한 정보를 추가로 제공할 수 있다. 예를 들어, 항공기의 일부에 사용자가 머리를 부딪치는 것은 바닥과 충돌하는 객체와 다른 소리를 낸다. 추가로, 시뮬레이션은, 예를 들어 문이나 패널을 염으로써, 검출된 충돌에 근거하여 그 동작을 변경한다. 또한, 이러한 충돌 검출 특성은 시뮬레이션 내에서 가상 객체를 잡는것을 용이하게 하는 데 사용될 수 있으며, 이로써 가상 환경에서 객체가 이동되거나 조작되도록 할 수 있다. 충돌은 또한 아바타 사이에서 그리고 시뮬레이션 된 핸드 툴 및 시뮬레이션 된 벽 사이와 같은 시뮬레이션 된 객체 사이에서 일어날 수 있다.According to an embodiment of the present invention, the virtual reality simulator may include, for example, interaction with a simulated environment. In this example, the virtual reality simulator may include collision detection software to provide feedback within the simulation. If the user stabs his hand where the simulation indicates that the wall is present, a virtual collision is detected. The hand may stop at crash time or disappear from the user's field of view, and the panel color of the wall changes (or other actions take place) to provide feedback and indicate that a collision has occurred. In a preferred configuration, the walls turn red. Similarly, when the knee "collides" with the bomb in the simulation, the bomb turns red. In one embodiment, the appearance of the object is changed in response to the collision. In one embodiment, the sound is caused by the collision. Sound is a directional sound that indicates the direction of the collision for the user or observer. Various types of sounds may further provide information about the collision, such as the intensity, or information about the objects involved in the collision. For example, a user's head hitting a part of an aircraft sounds different from objects colliding with the floor. In addition, the simulation changes its behavior based on the detected collision, for example by salting a door or panel. This collision detection feature can also be used to facilitate grabbing the virtual object within the simulation, thereby allowing the object to be moved or manipulated in the virtual environment. Collisions can also occur between avatars and between simulated objects such as between simulated hand tools and simulated walls.
본 발명의 실시예는 또한, 실감형 관찰 환경을 포함할 수 있다. 관찰 환경은 디자이너가 아바타(56, 도 9 참조)를 포함하는 가상 현실 시뮬레이션을 관찰하고 이와 인터액션할 수 있게 하며, 사용자로부터의 모션 캡쳐 데이터에 의해 실시간으로 구동될 수 있다. 도 1에 도시된 바와 같이, 관찰 환경은 CAVE(Cave Automatic Virtual Environment)(44)인, 세 개의 벽과 바닥 상의 디스플레이를 이용하여, 예를 들면 8피트 높이 x 10피트 폭 x 10피트 길이의 재구성 가능한 룸을 포함할 수 있다. 이 룸에서 한 명 이상의 관찰자가, 입체 및 풀 스케일 영상을 포함하는 실감형 방식으로 공통 환경을 볼 수 있다. 당업자가 이해할 수 있는 바와 같이, Mechdyne의 CAVE(44)는 96Hz에서 1280 x 1024 x 96의 해상도를 디스플레이한다. 따라서, 디자이너 및 다른 관찰자는 시뮬레이션 내의 사용자의 상세한 인터액션을 실시간으로 볼 수 있다. 구성 예에서, CAVE(44)의 하나의 벽은 전체 광경을 디스플레이하는 데 사용될 CAVE(44)의 나머지 두 개의 벽과 바닥으로 모든 개별적인 뷰 포인트를 디스플레이하는데 사용될 수 있다. 이러한 구성 예에서, 시뮬레이션 몰입된 관찰자가 아바타(56) 포즈 및 아바타 뷰 포인트를 동시에 볼 수 있다. 다른 가용 데이터(가령 온도, 거리 측정, 시간 등)는 볼 수 있거나 없거나 간에, 이 구성 예에 따라 CAVE(44)의 하나의 벽 상에 디스플레이될 수도 있다.Embodiments of the invention may also include an immersive viewing environment. The viewing environment allows the designer to observe and interact with the virtual reality simulation including the avatar 56 (see FIG. 9) and may be driven in real time by motion capture data from the user. As shown in FIG. 1, the viewing environment is a Cave (Cave Automatic Virtual Environment) 44, using a display on three walls and floors, for example, 8 feet high x 10 feet wide x 10 feet long. Possible rooms may include. In this room, one or more observers can view a common environment in a realistic way, including stereoscopic and full-scale images. As will be appreciated by those skilled in the art, Mechdyne's
본 발명의 일 실시예에서, 3D 광경을 디스플레이하는 데 사용된 소프트웨어는 3D 그래픽 오픈 소스 툴 키트인, OpenSceneGraph에 기반한다. 헤드 마운트 디스플레이에 대한 독립형 뷰어와 매우 유사하게, CAVE(44)는 MiniViz 소프트웨어 프로그램을 사용할 수 있다. 그러나, 각 스크린의 투영도는 Mechdyne의 CAVELib라 불리 는 응용 프로그램 인터페이스(API:application programmer's interpace)를 이용하여 매핑될 수 있다. 또한 CAVE(44)를 동작시키는 것은, 본 발명의 실시예에 따라 Vega, Vega Prime, 및 Ensight Gold와 같은 다른 프로그램을 포함할 수 있다. In one embodiment of the invention, the software used to display the 3D scene is based on OpenSceneGraph, a 3D graphics open source tool kit. Much like a standalone viewer for a head mounted display,
본 발명의 실시예는, 시뮬레이션 내에서 관찰자가 주위를 쉽게 이동할 수 있도록 하는 헤드 추적 장치(46, 도 6 참조) 및 완드 하드웨어(48, 도 7 참조)를 포함할 수 있다. 본 발명의 일 실시예에 따르면, InterSense Is-900은 관성 및 초음파 센서의 조합을 사용하여 헤드 추적 장치 및 완드(wand)의 위치를 결정한다. 헤드 추적 장치 및 완드를 동작시키는 소프트웨어는 VRCO의 Trackd 5.5라 불리는 프로그램을 포함한다. 당업자가 알 수 있는 바와 같이, Trackd 애플리케이션은 헤드 추적 장치 및 완드로부터 정보를 받아 이 정보가 CAVELib 또는 ENVISION (D5) 시뮬레이션에서 이용되게 한다. 이러한 추적 정보는 CAVE(44)의 벽 및 바닥 상의 투영도를 수정하는데 적용될 수 있다.Embodiments of the present invention may include head tracking devices 46 (see FIG. 6) and wand hardware 48 (see FIG. 7) that allow the observer to easily move around in the simulation. According to one embodiment of the invention, the InterSense Is-900 uses a combination of inertial and ultrasonic sensors to determine the position of the head tracking device and wand. The software that runs the head tracking device and wands includes a program called VRCO's Trackd 5.5. As will be appreciated by those skilled in the art, the Trackd application receives information from the head tracking device and wands and makes this information available to the CAVELib or ENVISION (D5) simulation. This tracking information can be applied to modify the projections on the walls and floor of the
또한 본 발명의 실시예는 예를 들어 시뮬레이션 및 텔레프레즌스 보기(view)를 전환하는 성능을 가지는 실감 환경을 포함할 수 있다. 텔레프레즌스 보기는 CAVE(44), 헤드 마운트 장치(40) 또는 데스크 톱 디스플레이를 통해 가능하다. 텔레프레즌스 보기에 대한 내용은 원거리 위치(예를 들면, 항공기 캐리어의 표면)에서 구면 카메라(50, 도 8A 참조)를 통해 수집된다. 본 발명의 실시예에 따르면, 구면 카메라(50)는 구의 75%를 캡쳐하는 하나의 장치에 내장된 6 개의 디지털 카메라 세트를 포함한다. 헤드 마운트 디스플레이(40) 또는 CAVE(44)에 동적 장면이 디스플레이될 수 있다. 여기서 사용자는 시뮬레이션 검증을 돕는 실사 비디오 정보를 실감할 수 있다. 당업자가 알 수 있는 바와 같이, Ladybug2는 6 개의 1024x768 CCD를 사용하는 4.7 메가픽셀(MegaPixel) 비디오 캡쳐 장치이다. 본 발명의 실시예에 다르면, Point Grey Reserach의 Ladybug2에는 소프트웨어 개발 환경인 Ladybug2 SDK와 컨텐츠 캡쳐를 가능하게 하는 LadybugCap이라 불리는 도구가 딸려 있다. 이러한 소프트웨어는 당업자가 이해할 수 있는 바와 같이, 재생(playback)을 위한 구면 avi 파일을 생성한다. 일 실시예에서, Ladybug 3은 더 좋은 해상도를 얻기 위해 사용되나 프레임 속도가 낮다. Embodiments of the present invention may also include a sensational environment having the ability to switch simulation and telepresence views, for example. Telepresence view is possible via the
당업자가 알 수 있는 바와 같이, 구면 카메라(50)는 1GB 증가하는 데이터 파일(이는 2 초 또는 2 분일 수 있음)을 생성한다. 따라서, 30초의 비디오 캡쳐가 1GB 마다 15개의 파일로 바뀐다. 이러한 파일은 보기 가능한 포맷으로 변환될 것을 요한다. 다른 해결방법은 비디오 편집기를 사용하며, 더 작은 제 2 레벨 비디오 파일을 생성하기 위해 질을 감소시키는 프로세스에서, 단일 비디오 파일을 형성하기 위해 제 1 보기 가능 파일을 서로 붙이기 한다. 대조적으로, 본 발명의 실시예는 제 1 레벨 비디오 파일을 버퍼로 판독하고, 제 1 파일, 최종(last), 현재(current), 현재 파일 이전 파일(the file before the current) 및 현재 파일 이후 파일(the file after the current)과 같은 인덱스를 제공한다. 이는 마치 이들이 단일 비디오 파일인 것과 같이 많은 파일을 가지는 비디오 그룹이 재생되도록 한다.As will be appreciated by those skilled in the art,
본 발명의 실시예에 따르면, 실사 객체(object)가 가상 현실 시뮬레이터를 위한 모델을 생성하도록 스캔될 수 있다. 본 발명의 일 실시예에서, Creatform Handy Scan EXAscan이 이용될 수 있다. 본 발명의 일 실시예에서, Lecica HDS 3000이 사용된다. Lecica HDS 3000은 3D 모델이 아직 존재하지 않는 곳에 고품질 3D 모델을 빠르게 생성하도록 장치를 스캔하는 레이저 기반 장치이다. 당업자가 알 수 있는 바와 같이, 실제에서, 스캐너의 실 해상도는 모델화되지 않은 데이터에 대해 1/4"의 포인트 정밀도 그리고 포인트 클라우드(point cloud)로부터의 다중 포인트에 기반하여 모델화된 데이터에 대해 1/8"의 포인트 정밀도이다. 본 발명의 실시예에 따르면, 영역을 캡쳐하고, 해상도를 설정하며, 포인트 클라우드를 등록하는데 사용된 소프트웨어는 Cyclone이다. 또한 클라우드를 등록하고 시뮬레이션에 삽입될 다각형 도형을 생성하는 데 PolyWorks가 사용된다. 본 발명의 실시예에 따르면, 장치를 지원하는 하드웨어는 Dell Precision M70 Laptop, 1.86GHz, 1GB RAM 및 Nvidia Quadro FX Go 1400일 수 있다.In accordance with an embodiment of the invention, a photorealistic object may be scanned to create a model for a virtual reality simulator. In one embodiment of the present invention, Creatform Handy Scan EXAscan may be used. In one embodiment of the invention, Lecica HDS 3000 is used. The Lecica HDS 3000 is a laser-based device that scans devices to quickly create high quality 3D models where 3D models do not yet exist. As will be appreciated by those skilled in the art, in practice, the actual resolution of a scanner is 1/1 for data modeled based on 1/4 "point precision for unmodeled data and multiple points from a point cloud. 8 "point precision. According to an embodiment of the invention, the software used to capture the area, set the resolution, and register the point cloud is Cyclone. PolyWorks is also used to register the cloud and generate polygonal shapes that will be inserted into the simulation. According to an embodiment of the invention, the hardware supporting the device may be a Dell Precision M70 Laptop, 1.86 GHz, 1 GB RAM and Nvidia Quadro FX Go 1400.
본 발명의 실시예는 예를 들어 현장에서 작업을 캡쳐하기 위한 휴대용 모션 캡쳐 시스템을 포함할 수 있다. 휴대용 모션 캡쳐 시스템의 실시예에 따르면, 시스템은 사전 지정된 위치의 마커와, 모션 캡쳐 수트, 삼각대(tripod)에 설치된 복수의 카메라를 포함하여, 카메라가 모션 캡쳐 수트를 입은 사용자의 움직임을 추적하고, 카메라로부터의 영상을 기록한 컴퓨터나 그 외의 저장 매체를 포함한다. 현장에서 작업(task)을 캡쳐하기 위한 휴대용 모션 캡쳐 시스템의 다른 실시예에 따르면, 시스템은 사전 지정된 위치의 마커와, 모션 캡쳐 수트를 포함하고, 단단한 구조물에 고정된 복수의 카메라를 포함하여 모션 캡쳐 수트를 착용한 사용자의 움직임을 추적하며, 그리고 카메라로부터의 영상을 기록하고, 복수의 카메라로부터 기 록된 영상에 응답하여 바디 수트에 연결된 마커의 위치를 디지털 방식으로 기록하는 컴퓨터 또는 다른 매체를 포함한다. 트레이닝 애플리케이션에서, 예를 들면 제 1 위치에 존재하는 원격 트레이너의 움직임이 제 2 위치에 있는 훈련생의 트레이닝을 위해 뒤에 또는 실시간으로 추적 및 캡쳐될 수 있다. 또한, 한 명 이상의 사용자의 움직임이 작업 분석(예를 들면, 인간 공학상 및 효율 분석을 포함함)을 위해 추적 및 캡쳐될 수 있다. 예를 들어 다른 실시예에서, 휴대용 모션 캡쳐 시스템은 필드(현장)에서의 실시간 디자인 평가를 위해 그리고 예를 들면 새로운 디자인을 포함하는 디자인 발표 또는 실연을 위해 사용될 수 있다.Embodiments of the invention may include, for example, a portable motion capture system for capturing work in the field. According to an embodiment of a portable motion capture system, the system includes a marker at a predetermined location, a motion capture suit, a plurality of cameras mounted on a tripod, so that the camera tracks the movement of a user wearing a motion capture suit, A computer or other storage medium that records an image from a camera is included. According to another embodiment of a portable motion capture system for capturing tasks in the field, the system includes a plurality of cameras including a marker at a predetermined location, a motion capture suit, and fixed to a rigid structure. A computer or other medium that tracks the movement of a user wearing the suit and records images from a camera and digitally records the position of a marker connected to the body suit in response to images recorded from the plurality of cameras. . In a training application, for example, the movement of the remote trainer present at the first location can be tracked and captured behind or in real time for the training of the trainee at the second location. In addition, the movement of one or more users can be tracked and captured for task analysis (including, for example, ergonomic and efficiency analysis). For example, in another embodiment, a portable motion capture system can be used for real-time design evaluation in the field and for example design presentations or demonstrations involving new designs.
본 발명의 실시예는 도 11에 도시된 바와 같은, 공학 디자인을 평가하는 방법을 포함한다. 이 방법은 가상 현실 환경에서 CAD 디자인을 시뮬레이션하는 단계(단계 80) 및 가상 현실 시뮬레이션과 인터액션하는 사용자로부터 획득된 모션 캡쳐 데이터를 사용하여 가상 현실 시뮬레이션 내에 하나 이상의 아바타를 구동하는 단계(단계 81)를 포함한다. 이 방법은 계속하여 CAD 디자인을 평가하기 위해 협업형 실감 환경 내의 다수의 관찰자에 대해 하나 이상의 아바타의 인터액션을 포함하는 가상 현실 시뮬레이션을 디스플레이하고(단계 82), 이로써 CAD 디자인에 따라 구현된 제품(product)과 관련된 작업이 사전 지정된 범위의 사용자 사이즈(size)로 수행될 수 있다는 것을 검증한다.Embodiments of the present invention include a method of evaluating engineering design, as shown in FIG. The method includes simulating a CAD design in a virtual reality environment (step 80) and driving one or more avatars within the virtual reality simulation using motion capture data obtained from a user interacting with the virtual reality simulation (step 81). Include. The method continuously displays a virtual reality simulation that includes the interaction of one or more avatars for multiple observers in the collaborative sensory environment to evaluate the CAD design (step 82), thereby implementing the product according to the CAD design. ) Can be performed with a user size of a predetermined range.
본 발명의 실시예는 도 12에 도시된 바와 같이, 실감 기술을 사용하여 실사 비디오를 이용한 시뮬레이션을 검증하는 방법을 포함한다. 이 방법은 원거리에 위치한 구면 카메라로 실시 비디오를 캡쳐하는 단계(단계 90)와, 헤드 마운트 디스플 레에 비디오를 제공하는 단계(단계 91)를 포함한다. 계속하여 이 방법은 모션 캡쳐 시스템에 의해 사용자의 머리 회전 정보를 캡쳐하는 단계(단계 92)와 사용자의 머리 회전 정보에 의해 비디오의 팬(pan), 기울임(tilt) 및 줌(zoom)을 제어하는 단계(단계 93)를 포함한다. 이 방법은 또한, 실사 비디오 디스플레이 및 시뮬레이션(단계 94)을, 사용자의 제어하에, 전환하는 단계(단계 94)를 포함할 수 있다.An embodiment of the present invention includes a method for verifying a simulation using live video using sensory techniques, as shown in FIG. 12. The method includes capturing live video with a spherical camera located remotely (step 90) and providing video to a head mounted display (step 91). The method continues by capturing the user's head rotation information by the motion capture system (step 92) and controlling the pan, tilt and zoom of the video by the user's head rotation information. Step 93 (step 93). The method may also include switching live video display and simulation (step 94), under the control of the user (step 94).
본 발명의 실시예는 또한 실제 컴퓨터 메모리 매체에 저장되며, 컴퓨터에서 동작하는 컴퓨터 프로그램 (제품)을 포함한다. 이 컴퓨터 프로그램은 한 세트의 명령을 포함하며, 이는 컴퓨터에 의해 수행될 때, 컴퓨터가 다양한 동작을 수행하도록 한다. 예를 들어, 이러한 동작은 CAD 데이터를 수신, CAD 데이터로부터 가상 현실 디자인의 시뮬레이션을 위한 비디오 신호 발생, 서로 및 시뮬레이션과 인터액션하는 여러 사용자를 추적하기 위한 제공, 시뮬레이션과 인터액션하는 객체를 추적하기 위한 제공, 시뮬레이션 내의 크기 조절된 아바타 생성, 공통 실감 환경을 위한 비디오 신호 생성, 그리고 비디오, 그래픽 또는 이들 모두 중 어느 하나를 선택하기 위한 사용자 입력 수신을 포함한다. Embodiments of the invention also include computer programs (products) that are stored on actual computer memory media and that operate on a computer. This computer program includes a set of instructions that, when executed by a computer, cause the computer to perform various operations. For example, these actions may be provided to receive CAD data, generate video signals from the CAD data for simulation of a virtual reality design, to track each other and multiple users interacting with the simulation, and to track objects interacting with the simulation. Generating a scaled avatar in the simulation, generating a video signal for a common sensory environment, and receiving user input to select either video, graphics, or both.
또한, 실시예는 하나 이상의 컴퓨터 판독 매체에 저장되고 컴퓨터에 의해 판독가능한 컴퓨터 프로그램을 포함할 수 있으며, 이에 따라 컴퓨터 프로그램이 컴퓨터에 의해 판독될 때, 이 명세서에 설명된 명령을 수행하도록 동작한다. 명령은 휴대용 모션 캡쳐 시스템에 의해 하나 이상의 작업을 수행하는 한 명 이상의 트레이너에 대해 제 1 위치에서 실물 크기의 모션 캡쳐 데이터를 기록하는 동작을 포함한다. 명령은 제 1 위치에서 한 명 이상의 트레이너에 대해 기록된 모션 캡쳐 데이 터에 응답하여, 제 2 위치에서 가상 현실 시뮬레이터에 의한 가상 현실 시뮬레이션 내의 하나 이상의 아바타를 움직이게 함으로써, 한 명 이상의 트레이너 각각이 하나 이상의 아바타 중 하나에 대응하도록 하는 동작을 포함한다. 이 명령은, 하나 이상의 헤드 마운트 디스플레이를 이용하여 공통 실감 환경을 정의하기 위해 한 명 이상의 훈련생 주위로 보이는 3차원 영상으로서, 하나 이상의 움직이는 아바타를 포함하는, 가상 현실 시뮬레이션을 디스플레이하는 동작을 포함한다. 이에 따라, 한 명 이상의 훈련생은 수행된 하나 이상의 작업을 분석할 수 있다. 또한, 이 명령은 모션 캡쳐 시스템을 통해 가상 현실 시뮬레이션과 인터액션하는 한 명 이상의 훈련생에 대한 모션 캡쳐 데이터를 획득하는 동작; 제 2 위치에서 한 명 이상의 훈련생에 대한 모션 캡쳐 데이터에 응답하여, 실시간으로 가상 현실 시뮬레이터에 의한 가상 현실 시뮬레이션 내에 하나 이상의 아바타를 움직이게 하는 동작; 훈련생에 의해 움직이는 아바타와 가상 현실 시뮬레이터에 의한 가상 현실 시뮬레이션의 시뮬레이션 객체 사이의 충돌을 감지하는 동작; 그리고 검출된 충돌에 대한 피드백을 제공하도록 가상 현실 시뮬레이터에 의한 가상 현실 시뮬레이션의 시뮬레이션 객체의 색을 변경하는 동작을 포함한다.In addition, an embodiment may include a computer program stored on one or more computer readable media and readable by a computer, such that when the computer program is read by the computer, it operates to perform the instructions described herein. The instructions include the operation of recording full-scale motion capture data at the first location for one or more trainers performing one or more tasks by the portable motion capture system. The instruction responds to motion capture data recorded for one or more trainers in the first position, thereby moving the one or more avatars in the virtual reality simulation by the virtual reality simulator in the second position, such that each of the one or more trainers has one or more. An action to correspond to one of the avatars. The command includes displaying a virtual reality simulation, including three or more moving avatars, as a three-dimensional image viewed around one or more trainees to define a common sensory environment using one or more head mounted displays. Accordingly, one or more trainees can analyze one or more tasks performed. The command may further include obtaining motion capture data for one or more trainees interacting with the virtual reality simulation via the motion capture system; In response to motion capture data for one or more trainees at the second location, moving the one or more avatars within the virtual reality simulation by the virtual reality simulator in real time; Detecting a collision between the avatar moving by the trainee and the simulation object of the virtual reality simulation by the virtual reality simulator; And changing the color of the simulation object of the virtual reality simulation by the virtual reality simulator to provide feedback on the detected collision.
본 발명의 실시예는 예를 들면 항공기의 동작 또는 정비에 관련된 작업을 원거리 위치에서 훈련하는 시스템을 포함한다. 마찬가지로, 작업은 항공기, 스페이스 시스템, 우주선, 선박 또는 미사일 시스템의 동작 또는 정비에 관련된 것일 수 있다.Embodiments of the present invention include systems for training in remote locations, for example, tasks related to the operation or maintenance of an aircraft. Similarly, the work may relate to the operation or maintenance of an aircraft, space system, spacecraft, ship or missile system.
본 발명의 실시예는 추가로 작업을 시뮬레이션하는 방법을 포함한다. 이 방 법은 휴대용 모션 캡쳐 시스템에 의해 하나 이상의 작업을 수행하는 한 명 이상의사용자에 대한 실물 크기의 모션 캡쳐 데이터를 기록하는 단계를 포함한다. 이 방법은 한 명 이상의 사용자에 대한 모션 캡쳐 데이터에 응답하여 가상 현실 시뮬레이터에 의한 가상 현실 시뮬레이션 내의 하나 이상의 아바타를 움직이게 함으로써, 한 명 이상의 사용자 각각이 하나 이상의 아바타 중 하나에 대응하게 하는 단계를 포함한다. 이 방법은 하나 이상의 헤드 마운트 디스플레이를 이용한 삼차원 영상으로, 하나 이상의 움직이는 아바타를 포함하는 가상 현실 시뮬레이션을 디스플레이하여 하나 이상의 헤드 마운트 디스플레이 각각이 가상 현실 시뮬레이션에 대한 서로 다른 투영도를 제공하도록 하는 단계를 포함한다.Embodiments of the present invention further include a method of simulating a task. The method includes recording full-scale motion capture data for one or more users performing one or more tasks by a portable motion capture system. The method includes the step of causing each of the one or more users to correspond to one of the one or more avatars by moving one or more avatars in the virtual reality simulation by the virtual reality simulator in response to motion capture data for the one or more users. . The method includes displaying a virtual reality simulation that includes one or more moving avatars as a three-dimensional image using one or more head mounted displays, such that each of the one or more head mounted displays provides different projections for the virtual reality simulation. .
본 발명의 시스템은 한 명 이상의 사용자(예, 트레이너)의 움직임을 추적하고 하나 이상의 작업을 수행하는 한 명 이상의 사용자(예, 트레이너)에 대한 실물 크기의 모션 캡쳐 데이터를 기록하도록 배치된 제 1 위치에 휴대용 모션 캡쳐 시스템(30, 42)를 포함한다. 이 시스템은 제 1 위치로부터 기록된 모션 캡쳐 데이터를 수신하도 배치되고, 기록된 모션 캡쳐 데이터에 응답하여 제 2의 다른 위치에서 3차원 가상 현실 시뮬레이션 내에 하나 이상의 아바타(56)를 움직이게 할는 가상 현실 시뮬레이터(58)를 포함할 수 있다. 시스템은 3 차원 영상으로서 하나 이상의 움직이는 아바타(56)를 포함하는 가상 현실 시뮬레이션을 디스플레이하기 위한 실감형 관찰 시스템을 포함할 수 있으며, 3차원 영상은 한 이상의 훈련생 주위를 둘러싸는 것으로 보이며, 이로써 하나 이상의 헤드 마운트 디스플레이(40)를 사용한 공통 실감형 환경(20)을 정의한다. 따라서 하나 이상의 헤드 마운트 디스플레이(40) 각각은 서로 다른 가상 현실 시뮬레이션을 갖게 되며, 한 명 이상의 훈련생이 하나 이상의 수행된 작업을 분석할 수 있다.The system of the present invention is a first location arranged to track movement of one or more users (eg trainers) and record life-size motion capture data for one or more users (eg trainers) performing one or more tasks. In the handheld
본 발명에 따른 실시예가 완전한 기능성 시스템으로 설명되었으나, 본 발명이 속하는 분야의 기술자(당업자)는, 본 발명의 일부 이상의 메커니즘 및/또는 본 발명의 여러 측면이 프로세서에서 수행되는 다양한 형태의 명령을 기록한 컴퓨터 판독 가능한 매체 형식으로 분산될 수 있으며, 본 발명이 분산 동작을 실제로 수행하는데 사용된 매체를 만들어낸 신호의 특정한 타입에 관계없이 동일하게 적용한다는 것을 쉽게 이해할 수 있다. 컴퓨터 판독 매체의 예로는, 비휘발성, 하드-코드 타입 매체(예 ROM, CD-ROM 및 DVDD-ROM) 또는 전기적으로 프로그램 가능한 리드 온리 메모리(EEPROM), 기록 가능한 매체(예, 플로피 디스크, 하드 디스크 드라이브, CD-R/RW, DVD-R/RW, DVD+R/RW, 플래시 드라이브 및 그 이외의 새로운 형식의 메모리), 그리고 디지털 및 아날로그 통신 링크와 같은 전송 타입 매체가 포함된다. 그러나 이에 한정되는 것은 아니다. 예를 들어, 이러한 매체는 동작 명령 및 디자인 및 평가 프로그램 (제품)에 관련된 동작 명령, 그리고 위에 설명된 방법 단계를 포함할 수 있다.Although embodiments in accordance with the present invention have been described as fully functional systems, those skilled in the art will appreciate that some or more mechanisms of the present invention and / or various aspects of the present invention may be written with various forms of instructions executed on a processor. It may be distributed in a computer readable medium format, and it is readily understood that the present invention applies equally regardless of the specific type of signal that produced the medium used to actually perform the distributed operation. Examples of computer readable media include, but are not limited to, nonvolatile, hard-coded media (such as ROM, CD-ROM, and DVDD-ROM) or electrically programmable read only memory (EEPROM), recordable media (such as floppy disk, hard disk). Drives, CD-R / RW, DVD-R / RW, DVD + R / RW, flash drives and other new types of memory), and transmission type media such as digital and analog communication links. However, the present invention is not limited thereto. For example, such media may include operational instructions and operational instructions related to the design and evaluation program (product) and the method steps described above.
상술한 본 발명의 실시예들은 단지 예시와 설명을 위한 것일 뿐이며, 본 발명을 설명된 형태로 한정하려는 것이 아니다. 또한, 이 명세서의 상세한 설명이 본 발명의 범위를 제한하는 것은 아니다. 위의 상세한 설명에 설명되며 첨부된 청구항에 의해 정의된 발명의 사상 및 범위 내에서, 다양한 변화 및 변경을 할 수 있음은 본 발명이 속하는 분야의 당업자에게 자명하다. The above-described embodiments of the present invention are for illustration and description only, and are not intended to limit the present invention to the described form. In addition, the detailed description of this specification does not limit the scope of the present invention. It is apparent to those skilled in the art that various changes and modifications can be made within the spirit and scope of the invention as described in the detailed description above and defined by the appended claims.
본 발명이 온전히 이해되고 실질적인 효과를 내기 위해, 본 발명의 바람직한 실시예(이에 제한되는 것은 아님)를 첨부된 도면을 참조하여, 이하에서 설명한다.BRIEF DESCRIPTION OF THE DRAWINGS In order for the present invention to be fully understood and to have substantial effect, preferred embodiments of the present invention, but not limited thereto, are described below with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따라 공학 디자인을 평가하기 위한 협업형 실감 환경을 제공하는 시스템을 나타내는 도면이다.1 is a diagram illustrating a system that provides a collaborative sensory environment for evaluating engineering design in accordance with an embodiment of the present invention.
도 2는 본 발명의 실시예에 따라, 가상 현실 시뮬레이션과 인터액션하는 모션 캡쳐 장치를 입은 네 명의 사용자의 환경을 나타내는 도면이다.FIG. 2 illustrates an environment of four users wearing a motion capture device that interacts with a virtual reality simulation, in accordance with an embodiment of the invention.
도 3은 본 발명의 실시예에 따라, 모션 캡쳐 장갑의 주변을 나타내는 도면이다. 3 is a diagram illustrating the periphery of a motion capture glove, in accordance with an embodiment of the invention.
도 4는 본 발명의 실시예에 따라 헤르고 이지 마운트 모바일 컴퓨터 카트-스타 베이스를 나타내는 투시도이다. 4 is a perspective view illustrating a hergo easy mount mobile computer cart-star base in accordance with an embodiment of the present invention.
도 5는 본 발명의 실시예에 따라 헤드 마운트 디스플레이(HMD)를 나타내는 투시도이다.5 is a perspective view illustrating a head mounted display HMD according to an embodiment of the present invention.
도 6은 본 발명의 실시예에 따라 CAVE에 연결하여 사용되는 헤드 추적 장치(head tracker)를 나타내는 투시도이다.6 is a perspective view showing a head tracker used in connection with a CAVE according to an embodiment of the present invention.
도 7은 본 발명의 실시예에 따라 CAVE에 연결하여 사용될 완드 하드웨어(wand hardware)를 나타내는 도면이다.7 illustrates wand hardware to be used in connection with a CAVE according to an embodiment of the present invention.
도 8A는 본 발명의 실시예에 따라 구면 카메라를 나타내는 투시도이다. 8A is a perspective view illustrating a spherical camera according to an embodiment of the present invention.
도 8B는 본 발명의 실시예에 따라 모션 캡쳐 카메라를 나타내는 투시도이다.8B is a perspective view of a motion capture camera in accordance with an embodiment of the invention.
도 9는 본 발명의 실시예에 따라 가상 현실 시뮬레이션 내의 아바타를 나타 내는 투시도이다.9 is a perspective view illustrating an avatar in a virtual reality simulation in accordance with an embodiment of the present invention.
도 10은 본 발명의 실시예에 따라 협업형 시각화 시스템을 나타내는 블록도이다.10 is a block diagram illustrating a collaborative visualization system according to an embodiment of the present invention.
도 11은 본 발명의 실시예에 따라 공학 디자인의 평가를 위한 협업형 실감 환경을 제공하는 방법을 나타내는 흐름도이다.11 is a flowchart illustrating a method of providing a collaborative sensory environment for evaluation of engineering design in accordance with an embodiment of the present invention.
도 12는 본 발명의 실시예에 따라 실감형 기술을 사용하는 실사 비디오를 이용하여 시뮬레이션을 검증하는 방법을 나타내는 흐름도이다.12 is a flowchart illustrating a method of verifying a simulation using photorealistic video using immersive techniques in accordance with an embodiment of the present invention.
Claims (15)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/355,771 | 2009-01-17 | ||
US12/355,771 US8615383B2 (en) | 2008-01-18 | 2009-01-17 | Immersive collaborative environment using motion capture, head mounted display, and cave |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20100084597A true KR20100084597A (en) | 2010-07-27 |
Family
ID=42357641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20090043446A KR20100084597A (en) | 2009-01-17 | 2009-05-19 | Immersive collaborative environment using motion capture, head mounted display, and cave |
Country Status (5)
Country | Link |
---|---|
KR (1) | KR20100084597A (en) |
CA (1) | CA2662318C (en) |
DK (1) | DK177693B1 (en) |
NL (1) | NL2002841C2 (en) |
TR (1) | TR200903142A1 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101389894B1 (en) * | 2012-07-18 | 2014-04-29 | 주식회사 도담시스템스 | Virtual reality simulation apparatus and method using motion capture technology and |
KR101493614B1 (en) * | 2013-11-01 | 2015-02-13 | (주)세이프텍리서치 | Ship Navigation Simulator and Design Method by using Augmented Reality Technology and Virtual Bridge System |
KR101495673B1 (en) * | 2013-08-14 | 2015-02-25 | 한국항공우주연구원 | Spacecraft take off and landing experience system |
KR20150030993A (en) * | 2013-09-13 | 2015-03-23 | 한국전자통신연구원 | Apparatus and method for providing contents experience service |
KR20160018436A (en) * | 2014-08-08 | 2016-02-17 | 그렉 반 쿠렌 | Virtual reality system and audition game system using the same |
KR20160086226A (en) * | 2015-01-09 | 2016-07-19 | 한국과학기술원 | Method for providing telepresence using avatars, and system and computer-readable recording medium using the same |
US9870644B2 (en) | 2011-06-14 | 2018-01-16 | Samsung Electronics Co., Ltd. | Apparatus and method for image processing |
KR20180064850A (en) * | 2016-12-06 | 2018-06-15 | 주식회사 상화 | Experience apparatus |
CN110267028A (en) * | 2019-06-24 | 2019-09-20 | 中冶智诚(武汉)工程技术有限公司 | A kind of signal synchronous display system for five face LED-CAVE |
KR20220009836A (en) * | 2020-07-16 | 2022-01-25 | (주)코어센스 | Motion capture system for virtual fire fighting and motion capture method using the same |
KR20220010335A (en) * | 2020-07-17 | 2022-01-25 | (주)코어센스 | Ratio correction method between a real model and virtual model |
KR102447171B1 (en) * | 2022-03-18 | 2022-09-27 | 헬리오센 주식회사 | Building touring guide marking system for metaverse |
KR20240006373A (en) | 2022-07-06 | 2024-01-15 | 주식회사 와플코퍼레이션 | Method of managing audition and apparatus performing the same |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016144279A1 (en) | 2015-03-06 | 2016-09-15 | Ors Filiz Mujdehan | Virtual reality based remote learning system and method |
US10043311B2 (en) * | 2015-09-16 | 2018-08-07 | The Boeing Company | Immersive design management system |
CN106409053A (en) * | 2016-11-24 | 2017-02-15 | 四川艾瑞智信科技有限公司 | Portable simulation teaching device based on virtual reality |
FR3062488B1 (en) * | 2017-02-01 | 2020-12-25 | Peugeot Citroen Automobiles Sa | ANALYSIS DEVICE FOR DETERMINING A LATENCY TIME OF AN IMMERSIVE SYSTEM OF VIRTUAL REALITY |
FR3062489B1 (en) * | 2017-02-01 | 2020-12-25 | Peugeot Citroen Automobiles Sa | ANALYSIS DEVICE FOR DETERMINING A DETECTION PERIOD CONTRIBUTING TO A LATENCY TIME WITHIN AN IMMERSIVE SYSTEM OF VIRTUAL REALITY |
CN112288880A (en) * | 2020-10-29 | 2021-01-29 | 重庆建工住宅建设有限公司 | Building assembled fitment design system based on AR technique |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7761269B1 (en) * | 2000-04-14 | 2010-07-20 | Ford Global Technologies, Llc | System and method of subjective evaluation of a vehicle design within a virtual environment using a virtual reality |
ES2233201B1 (en) * | 2003-11-21 | 2006-07-16 | Seat, S.A. | MIXED REALITY SIMULATION SYSTEM. |
-
2009
- 2009-04-09 CA CA 2662318 patent/CA2662318C/en not_active Expired - Fee Related
- 2009-04-22 TR TR200903142A patent/TR200903142A1/en unknown
- 2009-04-24 DK DK200900534A patent/DK177693B1/en not_active IP Right Cessation
- 2009-05-05 NL NL2002841A patent/NL2002841C2/en not_active IP Right Cessation
- 2009-05-19 KR KR20090043446A patent/KR20100084597A/en active Search and Examination
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9870644B2 (en) | 2011-06-14 | 2018-01-16 | Samsung Electronics Co., Ltd. | Apparatus and method for image processing |
KR101389894B1 (en) * | 2012-07-18 | 2014-04-29 | 주식회사 도담시스템스 | Virtual reality simulation apparatus and method using motion capture technology and |
KR101495673B1 (en) * | 2013-08-14 | 2015-02-25 | 한국항공우주연구원 | Spacecraft take off and landing experience system |
US9236032B2 (en) | 2013-09-13 | 2016-01-12 | Electronics And Telecommunications Research Institute | Apparatus and method for providing content experience service |
KR20150030993A (en) * | 2013-09-13 | 2015-03-23 | 한국전자통신연구원 | Apparatus and method for providing contents experience service |
KR101493614B1 (en) * | 2013-11-01 | 2015-02-13 | (주)세이프텍리서치 | Ship Navigation Simulator and Design Method by using Augmented Reality Technology and Virtual Bridge System |
KR20160018436A (en) * | 2014-08-08 | 2016-02-17 | 그렉 반 쿠렌 | Virtual reality system and audition game system using the same |
KR20160086226A (en) * | 2015-01-09 | 2016-07-19 | 한국과학기술원 | Method for providing telepresence using avatars, and system and computer-readable recording medium using the same |
US9843772B2 (en) | 2015-01-09 | 2017-12-12 | Korea Advanced Institute Of Science And Technology | Method for providing telepresence using avatars, and system and computer-readable recording medium using the same |
KR20180064850A (en) * | 2016-12-06 | 2018-06-15 | 주식회사 상화 | Experience apparatus |
CN110267028A (en) * | 2019-06-24 | 2019-09-20 | 中冶智诚(武汉)工程技术有限公司 | A kind of signal synchronous display system for five face LED-CAVE |
CN110267028B (en) * | 2019-06-24 | 2021-04-30 | 中冶智诚(武汉)工程技术有限公司 | Signal synchronous display system for five-surface LED-CAVE |
KR20220009836A (en) * | 2020-07-16 | 2022-01-25 | (주)코어센스 | Motion capture system for virtual fire fighting and motion capture method using the same |
KR20220010335A (en) * | 2020-07-17 | 2022-01-25 | (주)코어센스 | Ratio correction method between a real model and virtual model |
KR102447171B1 (en) * | 2022-03-18 | 2022-09-27 | 헬리오센 주식회사 | Building touring guide marking system for metaverse |
KR20240006373A (en) | 2022-07-06 | 2024-01-15 | 주식회사 와플코퍼레이션 | Method of managing audition and apparatus performing the same |
Also Published As
Publication number | Publication date |
---|---|
NL2002841C2 (en) | 2014-10-20 |
CA2662318A1 (en) | 2010-07-17 |
DK177693B1 (en) | 2014-03-10 |
DK200900534A (en) | 2010-07-18 |
TR200903142A1 (en) | 2010-08-23 |
CA2662318C (en) | 2014-12-02 |
NL2002841A (en) | 2010-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8624924B2 (en) | Portable immersive environment using motion capture and head mounted display | |
US8615383B2 (en) | Immersive collaborative environment using motion capture, head mounted display, and cave | |
CA2662318C (en) | Immersive collaborative environment using motion capture, head mounted display, and cave | |
CN107667331B (en) | Shared haptic interaction and user safety in shared space multi-person immersive virtual reality | |
KR101748593B1 (en) | Capturing views and movements of actors performing within generated scenes | |
US20030227453A1 (en) | Method, system and computer program product for automatically creating an animated 3-D scenario from human position and path data | |
TWI567659B (en) | Theme-based augmentation of photorepresentative view | |
KR101334637B1 (en) | Simulating performance of virtual camera | |
Němec et al. | Using virtual reality in education | |
Zhang et al. | KaraKter: An autonomously interacting Karate Kumite character for VR-based training and research | |
JP2010257081A (en) | Image procession method and image processing system | |
US11393153B2 (en) | Systems and methods performing object occlusion in augmented reality-based assembly instructions | |
Song et al. | An immersive VR system for sports education | |
WO2021230101A1 (en) | Information processing device, information processing method, and program | |
Rodrigue et al. | Mixed reality simulation with physical mobile display devices | |
Zhang et al. | Application of simulation and virtual reality to physical education and athletic training | |
Lyne | Development of virtual reality applications for the construction industry using the Oculus Rift head mounted display | |
Thalmann et al. | Virtual reality software and technology | |
Onyesolu et al. | A survey of some virtual reality tools and resources | |
Bernal | A system for immersive medical and engineering training based on serious games | |
KR102495213B1 (en) | Apparatus and method for experiencing augmented reality-based screen sports | |
Li | Development of immersive and interactive virtual reality environment for two-player table tennis | |
Sato et al. | Using motion capture for real-time augmented reality scenes. | |
JP2023057498A (en) | Motion attitude evaluating system by overlapping comparison of images | |
Akinjala et al. | Animating human movement & gestures on an agent using Microsoft kinect |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
J201 | Request for trial against refusal decision | ||
E801 | Decision on dismissal of amendment | ||
J301 | Trial decision |
Free format text: TRIAL NUMBER: 2016101002072; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20160405 Effective date: 20171120 |