KR101638550B1 - Virtual Reality System using of Mixed reality, and thereof implementation method - Google Patents

Virtual Reality System using of Mixed reality, and thereof implementation method Download PDF

Info

Publication number
KR101638550B1
KR101638550B1 KR1020140078406A KR20140078406A KR101638550B1 KR 101638550 B1 KR101638550 B1 KR 101638550B1 KR 1020140078406 A KR1020140078406 A KR 1020140078406A KR 20140078406 A KR20140078406 A KR 20140078406A KR 101638550 B1 KR101638550 B1 KR 101638550B1
Authority
KR
South Korea
Prior art keywords
hmd
virtual reality
input
user
reality
Prior art date
Application number
KR1020140078406A
Other languages
Korean (ko)
Other versions
KR20160000986A (en
Inventor
윤병주
이상훈
김동현
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020140078406A priority Critical patent/KR101638550B1/en
Publication of KR20160000986A publication Critical patent/KR20160000986A/en
Application granted granted Critical
Publication of KR101638550B1 publication Critical patent/KR101638550B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Abstract

본 발명은 혼합현실을 이용한 가상현실 시스템 및 그 구현방법에 관한 것으로, 크로마키 스크린; 상기 크로마키 스크린 어느 일측에 위치하여 사용자의 동작을 인식하는 동작인식 카메라; 가상현실에 실환경이 혼합된 혼합현실에 입력 또는 출력을 처리하는 입/출력 임베디드 장치; 상기 사용자 헤드에 착용되고, 상기 입/출력 임베디드 장치와 연결되어 상기 혼합현실을 디스플레이하는 HMD; 상기 입/출력 임베디드 장치와 연결되어 상기 HMD 장치가 상기 크로마키 스크린에 투영되어 상기 HMD 장치에 상기 가상현실 구현하는 가상현실 구현 PC를 포함하되, 상기 크로마키 스크린을 통한 월드좌표와, 사용자의 HMD 방향좌표 및 상기 동작인식 카메라에서 획득한 동작 인식정보를 매칭하고 렌더링시켜 상기 가상현실과 사용자의 모션을 포함하는 상기 혼합현실을 상기 HMD에 구현하여 디스플레이되는 것을 특징으로 한다.
이와 같은 본 발명은 가상현실과 실환경을 혼합하여 사용자로 하여금 몰입감 및 조작감이 높은 가상체험을 제공할 수 있는 시스템 및 그 방법을 제공한다.
The present invention relates to a virtual reality system using mixed reality and a method of implementing the same, and more particularly, to a chromatic key screen. An operation recognition camera positioned at one side of the chroma key screen to recognize the operation of the user; An input / output embedded device for processing input or output to a mixed reality in which a virtual environment and a real environment are mixed; An HMD worn on the user head and connected to the input / output embedded device to display the mixed reality; And a virtual reality realization PC connected to the input / output embedded device and implemented by the HMD device on the chroma key screen to implement the virtual reality in the HMD device, wherein the world coordinates through the chroma key screen and the user's HMD The mixed reality including the virtual reality and the motion of the user is implemented in the HMD and displayed by matching and rendering the motion recognition information obtained by the motion recognition camera.
The present invention provides a system and method for mixing a virtual reality and a real environment so that a user can provide a virtual experience with a high sense of immersion and operation.

Description

혼합현실을 이용한 가상현실 시스템 및 그 구현방법{Virtual Reality System using of Mixed reality, and thereof implementation method}Technical Field [0001] The present invention relates to a virtual reality system using mixed reality,

혼합현실을 이용한 가상현실 시스템 및 그 구현방법에 관한 것으로, 보다 상세하게는 가상환경과 실환경을 혼합하여 유저로 하여금 몰입감 있는 가상체험을 제공하는 혼합현실을 이용한 가상현실 시스템 및 그 구현방법에 관한 것이다.The present invention relates to a virtual reality system using mixed reality, and more particularly, to a virtual reality system using a mixed reality that provides a user with immersive virtual experience by mixing a virtual environment and a real environment, and an implementation method thereof will be.

최근 디지털 정보를 볼 수 있는 언제 어디서나 볼 수 있는 착용형 안경(도 2의 (a))이 경량화되면서 이를 활용하여 가상공간의 디지털 정보들 (예. 지역 정보, 사진, 트윗, 지도, 광고, 숙박, 식당, 위키피디아 등)을 현장에서 즉시적으로 사용자에게 제공하고자 하는 시도가 많은 주목을 받고 있다. 이는 기존의 정보 획득의 미디어로서 사용되고 있는 휴대용 인터넷 단말기 (예. 스마트 폰, 노트북)를 대체할 수 있는 뉴 미디어로의 역할을 할수 있다. 2. Description of the Related Art [0002] Wearable glasses (see Fig. 2 (a)), which can be viewed anytime and anywhere in recent digital information, are reduced in weight and utilized to provide digital information (e.g., local information, photographs, , Restaurants, wikipedia, etc.) on the spot are immediately attracting much attention. This can serve as a new media that can replace portable Internet terminals (eg, smart phones, notebooks) used as media for acquiring existing information.

즉, 현장의 사용자에게 관심 정보를 즉시적으로 제공할 수 있으며 기존의 페이스 북/트위터/유투브와 같은 라이프 로깅 서비스를 언제 어디서나 즉각적으로 수행할 수 있으며, 다양한 정보를 손쉽게 획득 할 수 있을 것이다. 이는 사회/문화/경제/산업적으로 다양한 파급효과를 가져올 것이다.In other words, it is possible to instantly provide information of interest to users in the field, and it is possible to instantly perform life logging services such as existing Facebook / Twitter / YouTube, and to acquire various information easily. This will have various ripple effects in social / cultural / economic / industrial aspects.

(1) 증강현실 저작 인터페이스(1) augmented reality authoring interface

기존의 증강현실 저작방법은 일반적으로 프로그래밍 기반의 저 차원 저작 방법과 비 프로그래밍 기반의 고 차원 저작 방법으로 분류할 수 있다. 프로그래밍 기반 저작 방법 (ARToolKit, osgART, Goblin XNA 등)은 프로그래밍을 통해서 성능을 최적화할 수 있는 장점이 있지만, 컴퓨터 비전과 3D 그래픽스에 대한 전문적인 지식이 있는 기술 개발자들을 대상으로 하기 때문에 일반 사용자는 사용하기 어렵다는 단점이 있다.Conventional augmented reality authoring methods can be generally classified into programming based low dimensional authoring methods and non - programming based high dimensional authoring methods. Programming-based authoring methods (such as ARToolKit, osgART, and Goblin XNA) have the advantage of being able to optimize performance through programming, but for technical developers who have expertise in computer vision and 3D graphics, It is difficult to do.

비 프로그래밍 기반의 저작 방법은 그래피컬 사용자 인터페이스 (GUI: Graphical User Interface) 기반의 비주얼 프로그래밍을 기반으로 상대적으로 비전문가도 사용할 수 있다는 장점이 있다 (ComposAR, CATOMIR, Metaio등). 하지만 기존의 GUI기반의 2차원 인터페이스는 본 연구에서 다루는 3차원 공간 조작에 적용하기 어렵다. The non-programming based authoring method is based on graphical user interface (GUI) -based visual programming, and can be used by relatively unprofessional (ComposAR, CATOMIR, Metaio, etc.). However, it is difficult to apply the existing GUI based 2D interface to 3D space manipulation discussed in this study.

한편, 감각형 사용자 인터페이스 (TUI: Tangible User Interface) 기반의 저작 방법은 GUI 방법 보다 좀 더 추상적이고 쉬운 저작을 가능하게 하며 3차원 조작이 가능하다 (iaTAR, ARtalet 등). 하지만, TUI 는 주로 근거리에 있는 3D 객체를 직접 조작하는 데 유용하다.On the other hand, a tangible user interface (TUI) based authoring method enables a more abstract and easy authoring than a GUI method, and can be operated in three dimensions (iaTAR, ARtalet, etc.). However, TUI is mainly useful for manipulating 3D objects in close proximity.

(2) 증강현실 저작을 위한 정합 방법(2) Matching method for augmented reality authoring

가장 단순한 정합 방법은 GPS/나침반 센서를 기반으로 미러월드를 정합하는 방법으로 대부분의 모바일 증강현실 응용에서 사용하는 방법이다(Layar, Wikitude AR, Junaio, Sekai 카메라). 실외 환경에서 작동이 가능하며, GPS/나침반 센서 정보의 오차로 인해 정합의 정밀도가 매우 낮다.The simplest matching method is to match the mirror world based on GPS / compass sensor and is used in most mobile augmented reality applications (Layar, Wikitude AR, Junaio, Sekai camera). It is possible to operate in outdoor environment, and accuracy of matching is very low due to error of GPS / compass sensor information.

좀 더 정밀한 정합을 위해서는 2D 객체를 사용하는 방법이 있다. 색상 대비가 분명한 정사각형의 마커를 이용하여 카메라 트래킹을 수행하고 가상 객체를 정합한다 (ARToolKit, ARToolKit Plus, 2D 바코드 마커). 또는 자연 이미지의 2D 객체를 대상으로 정합하는 방법도 있다 (BazAR, Qualcomm AR SDK). 또는 상용 소프트웨어(Virtools, Max/Maya, Unity3D, RhinoAR, Autodesk 3DS Max, Flash)에 증강현실 플러그인을 적용하여, 소프트웨어로 제작한 3D 모델들을 2D 객체에 정합하기도 한다. 하지만, 이러한 방법은 정합의 대상이 2차원 평면에 국한되는 단점이 있다.For more precise matching, there is a way to use 2D objects. Perform camera tracking and match virtual objects (ARToolKit, ARToolKit Plus, 2D barcode markers) using square markers with clear color contrast. Alternatively, there is a method of matching a 2D object of a natural image to a target (BazAR, Qualcomm AR SDK). You can also apply augmented reality plug-ins to commercial software (Virtools, Max / Maya, Unity3D, RhinoAR, Autodesk 3DS Max, Flash) to match software 3D models to 2D objects. However, this method has a disadvantage in that the object to be matched is limited to a two-dimensional plane.

(3) 웨어러블 증강현실 환경에서 모바일 입력 장치 기반 3D 객체 조작 방법 모바일 입력 장치를 활용하여 3D 객체를 조작하는 가장 단순한 방법은, 모바일 장치의 버튼 장치를 누르는 방법이다. 하지만 이러한 이산적인 (Discrete) 사용자 입력은 3D 공간에서 고차원의 동시조작 (3차원 이동, 3차원 회전)이 불가능하며 시간이 많이 지연된다. 이의 연장선으로 조이스틱 또는 터치 기반의 입력을 사용하는 2 자유도의 입력방식 역시 높은 자유도의 조작을 수행하는 것은 불가능하다. 모바일 입력 장치의 내장 센서 (예, 기울기, 가속도계, 자이로, 나침반 센서 등)를 사용하면 3D 자유도의 조작이 가능하며, 자이로 마우스, 게임 컨트롤러, 메뉴 선택, 텍스트 입력, 스크롤 제스처, 3D 객체 회전을 위해서 사용되었다. 하지만, 이들 또한 3D 공간에서 자유로운 조작 (6 자유도의 이동/회전)이 불가능하다. 일반적으로는 6 자유도의 3D 객체 조작을 위해서는 외부에 설치된 트래킹 장치가 입력 장치의 위치/회전을 인식/추적해야한다.(3D 게임 컨트롤러, uWand, VR Wand등) (3) Manipulation of a 3D object based on a mobile input device in a wearable augmented reality environment The simplest method of manipulating a 3D object using a mobile input device is a method of pressing a button device of a mobile device. However, such discrete user input is not possible to perform high dimensional simultaneous manipulation (three dimensional movement, three dimensional rotation) in 3D space and time delay. As an extension of this, it is also impossible to perform operations with a high degree of freedom in a two-degree-of-freedom input method using a joystick or touch-based input. Using the built-in sensors of the mobile input device (eg, tilt, accelerometer, gyro, compass sensor, etc.) allows manipulation of 3D degrees of freedom and allows for gyroscopes, game controllers, menu selection, text input, scroll gestures, Respectively. However, they also can not be manipulated freely (movement / rotation of 6 degrees of freedom) in 3D space. Generally, an external tracking device must recognize / track the position / rotation of the input device (3D game controller, uWand, VR Wand, etc.) for 3D object manipulation of 6 degrees of freedom.

종래 대부분의 증강현실(실환경 위에 가상환경을 삽입하는 기술)은 실환경 속에서 가상현실을 통해서 도움을 받는 것을 목적으로 하기 때문에 확실히 가상현실을 체험(완전히 다른 환경에 놓이는것, 예로 판타지 세상 등)하는 것과는 구별되며, 대부분의 가상현실 내에서의 상호작용은 손과 발을 재구성(reconstruction) 하여 가상환경의 손(또는 발 등)에 해당하는 물체를 삽입하는 방식이 적용된다. 그러나, 이는 몰입감이 떨어지며, 현재의 재구성(reconstruction) 기술 또한 정확도에서 실재 화면을 크로마키하여 사용하는 것에 비해 떨어지는 문제점이 있다.Most augmented reality (technology for inserting virtual environment on virtual environment) is aimed at getting help through virtual reality in actual environment, so experience virtual reality (such as putting it in completely different environment, ). In most virtual reality interactions, a method of reconstructing hands and feet and inserting objects corresponding to the hands (or feet, etc.) of a virtual environment is applied. However, this has the problem that the immersion feeling is low and the present reconstruction technique is also inferior to the use of chroma key in the real screen in accuracy.

이처럼, 종래의 실환경과 가상환경이 혼합된 증강현실에서 3D 객체의 조작을 위한 시스템 및 장치의 구현이 어렵고, 종래에 사용되어 지는 시스템은 실환경내에 가상환경을 추가하는 증강현실내에서 웨어러블 장치에 의해 가상환경의 3D 객체를 조작하는 시스템 및 방법을 제공하고 있기 때문에, 실환경 및 가상환경이 육안으로 확연하 차이를 보이고 상대적인 모션에 대한 환경 매칭이 어려워 이질감이 높아지고, 상대적 조작감 및 몰입도가 매우 떨어지는 문제점이 있다.As described above, it is difficult to implement a system and an apparatus for manipulating a 3D object in augmented reality in which a real environment and a virtual environment are mixed, and the system used in the past is difficult to implement in augmented reality, The 3D environment of the virtual environment is manipulated by the virtual environment and the 3D environment of the virtual environment is manipulated so that the actual environment and the virtual environment are visually distinguished and the environment is hardly matched with the relative motion. There is a problem of falling very much.

대한민국 공개특허 제10-2014-0001167호(공개일자:2014년01월06일)Korean Patent Laid-Open No. 10-2014-0001167 (published on January 06, 2014) 대한민국 공개특허 제10-2013-0137692호(공개일자:2013년12월17일)Korean Patent Publication No. 10-2013-0137692 (public date: December 17, 2013)

상술한 문제를 해결하고자 하는 본 발명의 과제는 가상현실과 실환경을 혼합하여 사용자로 하여금 몰입감 및 조작감이 높은 가상체험을 제공할 수 있는 시스템 및 그 방법을 제공하고자 함이다.An object of the present invention is to provide a system and a method for providing a virtual experience with a high sense of immersion and operation by mixing a virtual reality and a real environment.

상술한 과제를 해결하고자 하는 본 발명의 제1 특징은 크로마키 스크린; 상기 크로마키 스크린 어느 일측에 위치하여 사용자의 동작을 인식하는 동작인식 카메라; 가상현실에 실환경이 혼합된 혼합현실에 입력 또는 출력을 처리하는 입/출력 임베디드 장치; 상기 사용자 헤드에 착용되고, 상기 입/출력 임베디드 장치와 연결되어 상기 혼합현실을 디스플레이하는 HMD; 상기 입/출력 임베디드 장치와 연결되어 상기 HMD 장치가 상기 크로마키 스크린에 투영되어 상기 HMD 장치에 상기 가상현실 구현하는 가상현실 구현 PC를 포함하되, 상기 크로마키 스크린을 통한 월드좌표와, 사용자의 HMD 방향좌표 및 상기 동작인식 카메라에서 획득한 동작 인식정보를 매칭하고 렌더링시켜 상기 가상현실과 사용자의 모션을 포함하는 상기 혼합현실을 상기 HMD에 구현하여 디스플레이되는 것을 특징으로 한다.A first aspect of the present invention to solve the above problems is a chroma key screen. An operation recognition camera positioned at one side of the chroma key screen to recognize the operation of the user; An input / output embedded device for processing input or output to a mixed reality in which a virtual environment and a real environment are mixed; An HMD worn on the user head and connected to the input / output embedded device to display the mixed reality; And a virtual reality realization PC connected to the input / output embedded device and implemented by the HMD device on the chroma key screen to implement the virtual reality in the HMD device, wherein the world coordinates through the chroma key screen and the user's HMD The mixed reality including the virtual reality and the user's motion is displayed on the HMD by matching and rendering the motion recognition information acquired by the motion recognition camera.

여기서, 상기 동작인식 카메라는, 사용자의 동작을 인식할 수 있는 깊이 카메라(Depth Camera)인 것이 바람직하고, 상기 HMD는, 위치추적 센서, 자이로 센서 및 스테레오 스코핑 RGB 카메라가 부착된 것이 바람직하다.Preferably, the motion recognition camera is a depth camera capable of recognizing the motion of the user, and the HMD is equipped with a position tracking sensor, a gyro sensor, and a stereo scoping RGB camera.

또는, 바람직하게는 상기 위치추적 센서는 가속도계를 이용하여 HMD의 위치를 추적할 수 있는 센서인 것일 수 있고, 상기 자이로 센서는 6축 자이로 센서인 것일 수 있으며, 상기 크로마키 스크린에 조명광을 조사하는 조명시스템을 더 포함하는 것일 수 있다.Alternatively, the position tracking sensor may be a sensor capable of tracking the position of the HMD using an accelerometer. The gyro sensor may be a six-axis gyro sensor, And may further include an illumination system.

더하여, 상기 임베디드 입/출력 장치는, 모바일 PC, 스마트폰, 테블릿 PC 및 PDA 중 어느 하나인 것이 바람직하다.
In addition, the embedded input / output device may be any one of a mobile PC, a smart phone, a tablet PC, and a PDA.

그리고 본 발명의 제2 특징은 상기 제1항의 시스템을 이용하여 가상현실 구현방법에 있어서, (a) 상기 입출력 임베디드 장치가 좌표를 보정하고 시스템 셋업하는 단계; (b) 상기 입출력 임베디드 장치가 상기 동작인식 카메라에서 상기 HMD의 깊이정보를 수신받아 가상현실내 깊이정보로 입력처리 하는 단계; (c) 상기 입출력 임베디드 장치가 HMD에 설치된 센서에 의해 추출된 정보를 통해 HMD 3차원 위치좌표 및 방향좌표를 포함하는 HMD 좌표정보를 추출하는 단계; (d) 상기 가상현실 구현 PC가 상기 HMD 좌표정보를 바탕으로 상기 HMD에 가상현실을 렌더링하는 단계; 및 (e) 상기 렌더링된 이미지를 상기 HMD의 출력장치를 통해 표시하는 단계를 포함한다.According to a second aspect of the present invention, there is provided a virtual reality realization method using the system of the first aspect, comprising: (a) correcting coordinates and setting up a system by the input / output embedded device; (b) the input / output embedded device receiving depth information of the HMD from the motion recognition camera and inputting depth information in the virtual reality; (c) extracting HMD coordinate information including HMD three-dimensional position coordinates and direction coordinates from the information extracted by the sensor installed in the HMD of the input / output embedded device; (d) rendering the virtual reality on the HMD based on the HMD coordinate information; And (e) displaying the rendered image through an output device of the HMD.

여기서, 상기 (c) 단계에서, 상기 깊이정보와 상기 HMD에 설치된 센서에서 획득한 상기 HMD의 위치정보를 바탕으로 상기 HMD의 3차원 위치좌표를 설정하는 것이 바람직하고, 상기 HMD의 위치좌표는 사용자의 가슴을 중심축으로 방향과 위치를 상대좌표로 산출되고, 상기 가상환현실내의 월드좌표계에서 상대적으로 설정되는 것이 바람직하다.In the step (c), it is preferable to set the 3D position coordinates of the HMD based on the depth information and the position information of the HMD acquired by the sensor installed in the HMD. And the relative position in the world coordinate system of the virtual expression room is relatively set.

또한, 바람직하게는 상기 동작인식 카메라에 의해 획득한 상기 사용자의 모션 데이터는 상기 월드좌표계에서 상대적으로 방향 및 위치가 산출되어 상기 가상현실내의 물체와 반응하도록 설정되는 것일 수 있다.Preferably, the motion data of the user acquired by the motion recognition camera is set such that a direction and a position are relatively calculated in the world coordinate system and reacted with an object in the virtual reality.

이와 같은 본 발명은 가상현실을 통한 체험을 목적으로 하는 환경에서 장치를 부착하지 않고 또는 장치를 활용하지 않고 체험자의 몸(손, 또는 발, 다리 등)을 통해서 가상의 물체와 상호작용을 하도록 함으로써, 몰입감을 높일 수 있고, 상호작용을 위해서는 상호작용을 하는 자신의 신체를 자신의 눈으로 볼 수 있도록 하여 조작감을 높일 수 있을 뿐만 아니라, 이를 구현할 수 있는 시스템 구축 비용이 매우 저렴하다는 장점이 있다.The present invention can be applied to a virtual reality environment in which an object is interacted with a virtual object through the body (hands, feet, legs, etc.) , The feeling of immersion can be increased, and the interacting body can be viewed with the user's own eyes to enhance the operation feeling, and the system construction cost for implementing the system is very low.

또한, 실환경의 카메라의 스펙과 가상현실 내의 카메라의 스펙( FOV, Eye offset 등)을 동일하게 구성(가상현실의 Rendering 타임, Chromakey 후 Overlap 처리 또한 거의 실시간으로 처리)할 경우 실제 나의 몸이 가상현실 안에 있다고 사용자는 느낄 수 있을 정도의 현실감 및 몰입감을 높일 수 있는 큰 장점이 있다.In addition, when the specification of the camera in the real environment and the specification of the camera in the virtual reality (FOV, eye offset, etc.) are configured to be the same (Rendering time of virtual reality, Overlap processing after Chromakey is also processed in almost real time) There is a great advantage that the user can feel the reality and immersion feeling that he is in reality.

도 1은 본 발명의 실시예에 따른 혼합현실을 이용한 가상현실 시스템의 블록 구성을 나타낸 도면이고,
도 2는 본 발명의 실시예에 따른 혼합현실을 이용한 가상현실 시스템의 사용 모식도이고,
도 3은 본 발명의 또 다른 실시예로서, 혼합현실을 이용한 가상현실 시스템을 이용한 가상현실 구현방법의 흐름을 나타낸 도면이고,
도 4는 본 발명의 실시예에 따른 혼합현실을 이용한 가상현실 구현방법에서 좌표체계 구현하여 적용하는 흐름을 나타낸 도면이다.
FIG. 1 is a block diagram of a virtual reality system using mixed reality according to an embodiment of the present invention, and FIG.
FIG. 2 is a usage diagram of a virtual reality system using mixed reality according to an embodiment of the present invention,
3 is a flowchart illustrating a method for implementing a virtual reality using a virtual reality system using mixed reality according to another embodiment of the present invention,
4 is a flowchart illustrating a method of implementing a coordinate system in a virtual reality realizing method using mixed reality according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 통해 설명될 것이다. 그러나 본 발명은 여기에서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 단지, 본 실시예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여 제공되는 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and how to accomplish it, will be described with reference to the embodiments described in detail below with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. The embodiments are provided so that those skilled in the art can easily carry out the technical idea of the present invention to those skilled in the art.

도면들에 있어서, 본 발명의 실시예들은 도시된 특정 형태로 제한되는 것이 아니며 명확성을 기하기 위하여 과장된 것이다. 또한 명세서 전체에 걸쳐서 동일한 참조번호로 표시된 부분들은 동일한 구성요소를 나타낸다.In the drawings, embodiments of the present invention are not limited to the specific forms shown and are exaggerated for clarity. Also, the same reference numerals denote the same components throughout the specification.

본 명세서에서 "및/또는"이란 표현은 전후에 나열된 구성요소들 중 적어도 하나를 포함하는 의미로 사용된다. 또한, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 또한, 명세서에서 사용되는 "포함한다" 또는 "포함하는"으로 언급된 구성요소, 단계, 동작 및 소자는 하나 이상의 다른 구성요소, 단계, 동작, 소자 및 장치의 존재 또는 추가를 의미한다.
The expression "and / or" is used herein to mean including at least one of the elements listed before and after. Also, singular forms include plural forms unless the context clearly dictates otherwise. Also, components, steps, operations and elements referred to in the specification as " comprises "or" comprising " refer to the presence or addition of one or more other components, steps, operations, elements, and / or devices.

이하에서 본 발명의 바람직한 실시예를 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 실시예에 따른 혼합현실을 이용한 가상현실 시스템의 블록 구성을 나타낸 도면이다. 도 1에 나타낸 바와 같이, 본 발명의 실시예에 따른 혼합현실을 이용한 가상현실 시스템은, 크로마키 스크린(100); 상기 크로마키 스크린(100) 어느 일측에 위치하여 사용자의 동작을 인식하는 동작인식 카메라(200); 가상현실에 실환경이 혼합된 혼합현실에 입력 또는 출력을 처리하는 입/출력 임베디드 장치(450); 상기 사용자 헤드에 착용되고, 상기 입/출력 임베디드 장치(450)와 연결되어 상기 혼합현실을 디스플레이하는 HMD; 상기 입/출력 임베디드 장치(450)와 연결되어 상기 HMD 장치가 상기 크로마키 스크린(100)에 투영되어 상기 HMD 장치에 상기 가상현실 구현하는 가상현실 구현 PC(400)를 포함하되, 상기 크로마키 스크린(100)을 통한 월드좌표와, 사용자의 HMD 방향좌표 및 상기 동작인식 카메라(200)에서 획득한 동작 인식정보를 매칭하고 렌더링시켜 상기 가상현실과 사용자의 모션을 포함하는 상기 혼합현실을 상기 HMD에 구현하여 디스플레이되는 것을 특징으로 한다.1 is a block diagram of a virtual reality system using mixed reality according to an embodiment of the present invention. As shown in FIG. 1, a virtual reality system using mixed reality according to an embodiment of the present invention includes a chroma key screen 100; An operation recognition camera 200 located at one side of the chroma key screen 100 and recognizing the operation of the user; An input / output embedded device 450 for processing input or output to a mixed reality in which a virtual environment is mixed with a real environment; An HMD mounted on the user head and connected to the input / output embedded device 450 to display the mixed reality; And a PC (400) connected to the input / output embedded device (450) for realizing the virtual reality by being projected on the chroma key screen (100) by the HMD device and implementing the virtual reality on the HMD device, Matching the HMD direction coordinate of the user with the motion recognition information obtained by the motion recognition camera 200 and outputting the mixed reality including the virtual reality and the motion of the user to the HMD And displayed.

이와 같은 본발의 실시예에 따른 혼합현실을 이용한 가상현실 시스템은 실환경에 가상환경을 추가하는 증강현실 시스템이 아니라, 가상환경내에 실환경을 구현하고, 동작인식 카메라(200), HMD 및 가상현실 구현 PC(400) 등을 이용하여 가상현실내의 월드자표계로 매칭시켜 객체의 상대적인 조작감을 높이고, 사용자의 체험 몰입도를 높일 수 있는 시스템을 제공한다.The virtual reality system using the mixed reality according to this embodiment of the present invention is not an augmented reality system that adds a virtual environment to a real environment, but implements a real environment in a virtual environment, and includes a motion recognition camera 200, And provides a system capable of enhancing the relative operation feeling of an object by matching with a world index system in a virtual reality by using an implementation PC 400 or the like, and enhancing a user's experience immersion degree.

여기서, 크로마키 스크린(100)은 Blue Screen Zone을 형상하는 스크린으로, 크로마키(chroma-key)란 라이트블루의 스크린 앞에 인물이나 물체를 배치하고 컬러 카메라로 촬영하여 이 피사체상(被寫體像)을 아주 다른 화면에 끼워 맞추는 방법을 의미한다. 끼워 맞춰지는 피사체에는 블루 계통의 색을 사용하면 잘 안되지만 반대로 블루 계통의 색을 의식적으로 사용해서 특수한 효과를 낼 수도 있다. 이 기술과정은 모두 전자회로(電子回路)에서 행하여지므로 스위치 조작만으로 순간적으로 합성할 수 있다는 점에서 혼합현실 구현에 적합하다.Here, the chroma key screen 100 is a screen that forms a blue screen zone. A person or an object is placed in front of a light blue screen, which is a chroma key, and is photographed with a color camera, ) To a very different screen. It is not easy to use a blue system color for a subject to be fitted, but it can also produce a special effect by consciously using a blue system color on the contrary. This technology process is carried out in an electronic circuit (electronic circuit), so that it can be instantaneously synthesized only by a switch operation.

이와 같이 본 발명의 실시예에서 적용되는 크로마키 스크린(100)은 모든 벽면 및 천정, 바닥이 균일한 파란색으로 채색된 공간으로, 사람 또는 객체가 그 공간내에서 모션을 취할 수 있을 정도의 공간이 확보된다. 또한 상기 크로마키 스크린(100) 주변에 카메라에 색이 균일하게 들어올 수 있도록 조명광을 형성하는 조명 시스템을 설치하는 것도 바람직하다.As described above, the chromakey screen 100 applied in the embodiment of the present invention is a space in which all the walls, the ceiling, and the floor are painted with a uniform blue color, and a space where a person or an object can take motion within the space . It is also preferable to provide an illumination system for forming illumination light so that colors can uniformly enter the camera around the chroma key screen 100.

그리고, 동작인식 카메라(200)는 전방에 촬영되는 물체의 동작을 인식할 수 있는 깊이 카메라(Depth Camera)를 의미하여, 키넥트 장치가 그 예로서, 별도의 컨트롤러 없이 사람의 신체와 음성을 감지해 모니터 화면 안에 그대로 반영하는 신개념 동작인식 카메라(200)에 해당한다. 본 발명의 실시예에서는 이와 같은 동작인식 카메라(200)를 통해 HMD를 착용한 사용자의 동작을 3차원으로 인식하고 영상화하여 가상현실내의 월드좌표계와 매칭 시킬 수 있는 좌표 데이터를 제공하게 된다.The motion recognition camera 200 means a depth camera capable of recognizing the motion of an object to be photographed in front. The Kinect device detects, for example, a body and a voice of a person without a separate controller And is reflected in the monitor screen as it is. In the embodiment of the present invention, the motion of the user wearing the HMD is recognized and visualized in three dimensions through the motion recognition camera 200 to provide coordinate data that can be matched with the world coordinate system in the virtual reality.

HMD(Head Mounted Display)는 사람의 머리에 착용하는 디스플레이 장치를 말하는 것으로, 본 발명의 실시예에서는 사용자의 머리에 착용되어 실환경 및 가상현실이 혼합된 혼합현실을 디스플레이하게 된다. An HMD (Head Mounted Display) refers to a display device worn on a person's head. In the embodiment of the present invention, mixed reality worn on a user's head and mixed with a real environment and a virtual reality is displayed.

그리고, HMD 장치에는 위치추적 센서, 자이로 센서 및 스테레오 스코픽 RGB 카메라가 설치되는 것이 바람직한데, 위치추적 센서는 가속도계를 이용하여 현재 HMD의 위치를 추적할 수 있고, 6축의 자이로 센서를 이용하여 현재 HMD의 기울기를 측정할 수 있으며, 스테레오 스코픽 RGB 카메라에 의하여 HMD 착용자의 전방 영상을 캡쳐하여 획득할 수 있게 된다.In addition, it is preferable that a position tracking sensor, a gyro sensor, and a stereoscopic RGB camera are installed in the HMD device. The position tracking sensor can track the position of the current HMD using an accelerometer, And the front image of the wearer of the HMD can be captured and acquired by the stereoscopic RGB camera.

이처럼 본 발명의 실시예는 이와 같은 구성을 통해 상기 크로마키 스크린(100)을 통한 월드좌표와, 사용자의 HMD 방향좌표 및 상기 동작인식 카메라(200)에서 획득한 동작 인식정보를 매칭하고 렌더링시켜 상기 가상현실과 사용자의 모션을 포함하는 상기 혼합현실을 상기 HMD에 구현하여 디스플레이하게 된다.
As described above, according to the embodiment of the present invention, the world coordinate through the chroma key screen 100, the HMD direction coordinate of the user, and the motion recognition information acquired by the motion recognition camera 200 are matched and rendered, The mixed reality including the virtual reality and the user's motion is implemented in the HMD and displayed.

도 2는 본 발명의 실시예에 따른 혼합현실을 이용한 가상현실 시스템의 사용 모식도를 나타낸다. 도 2에 나타낸 바와 같이, 본 발명의 실시예에 따른 시스템을 사용하게 되면, 동작인식 카메라(200)를 통하여 손의 움지임을 HMD 정면에 부착된 스테레오 스코픽 RGB 카메라를 통해 된 자신의 손(신체)를 가상환경 안에서 볼 수 있게 된다. 이를 가상의 오브젝트와 상호작용하고, 실제로는 동작인식 카메라(200)를 통해 얻은 손의 위치와 가상환경의 오브젝트의 위치를 고려하여 상호작용하는 조작 체험(touch, drag 등)을 제공할 수 있게 된다.
2 is a schematic diagram illustrating a use of a virtual reality system using mixed reality according to an embodiment of the present invention. 2, when the system according to the embodiment of the present invention is used, the hand movement of the hand is detected through the motion recognition camera 200 by the user's hand (body) through the stereoscopic RGB camera attached to the front of the HMD, In the virtual environment. It is possible to interact with a virtual object and actually provide an operation experience (touch, drag, etc.) that interacts with the position of the hand obtained through the motion recognition camera 200 and the position of the object in the virtual environment .

도 3은 본 발명의 또 다른 실시예로서, 혼합현실을 이용한 가상현실 시스템을 이용한 가상현실 구현방법의 흐름을 나타낸 도면이다. 도 3에 나타낸 바와 같이, 본 발명의 실시예에 따른 가상현실 구현방법은, 상술한 시스템을 이용하여, (a) 상기 입출력 임베디드 장치가 좌표를 보정하고 시스템 셋업(Set Up)하는 단계(S100); (b) 상기 입출력 임베디드 장치가 상기 동작인식 카메라(200)에서 상기 HMD의 깊이정보를 수신받아 가상현실내 깊이정보로 입력처리 하는 단계(S200); (c) 상기 입출력 임베디드 장치가 HMD에 설치된 센서에 의해 추출된 정보를 통해 HMD 3차원 위치좌표 및 방향좌표를 포함하는 HMD 좌표정보를 추출하는 단계(S300); (d) 상기 가상현실 구현 PC(400)가 상기 HMD 좌표정보를 바탕으로 상기 HMD에 가상현실을 렌더링하는 단계(S400); 및 (e) 상기 렌더링된 이미지를 상기 HMD의 출력장치를 통해 표시하는 단계(S500) 포함하여 구성된다.3 is a flowchart illustrating a method for implementing a virtual reality using a virtual reality system using mixed reality according to another embodiment of the present invention. As shown in FIG. 3, the virtual reality realizing method according to the embodiment of the present invention includes: (a) a step S100 of correcting coordinates and setting up a system by the input / output embedded device, ; (b) receiving the depth information of the HMD from the motion recognition camera (200) and inputting depth information of the HMD to the input / output embedded device (S200); (c) extracting HMD coordinate information including the HMD three-dimensional position coordinates and direction coordinates from the information extracted by the sensor installed in the HMD of the input / output embedded device (S300); (d) rendering virtual reality on the HMD based on the HMD coordinate information (S400); And (e) displaying the rendered image through an output device of the HMD (S500).

이처럼, 본 발명의 실시예는 상술한 혼합현실을 이용한 가상현실 시스템을 이용하여 가상현실을 구현하는 방법으로, 동작인식 카메라(200)에서 획득한 HMD의 3차원 위치좌표와 HMD에 설치된 각종의 센서를 통해 획득한 위치 및 방향좌표를 가상현실 구현 PC(400)에서 추출된 가상현실의 월드좌표와 매칭시켜 HMD를 통해 실환경과 가상현실이 혼합된 혼합현실 영상을 디스플레이하여 구현하는 방법을 제공한다.As described above, the embodiment of the present invention realizes a virtual reality by using the virtual reality system using the mixed reality, and is a method for realizing the virtual reality by using the three-dimensional position coordinates of the HMD acquired by the motion recognition camera 200, And the world coordinates of the virtual reality extracted from the virtual reality realization PC 400, and displays the mixed reality image mixed with the real environment and the virtual reality through the HMD .

도 3에 나타낸 바와 같이, 프로그램이 시작되면, 가상현실 구현 PC(400)에서 동작인식 카메라(200)의 동작을 제어하고, 캘리브레이션 과정을 통해 시스템 셋업하고 프로그램 수행을 준비한다. 크로마키 스크린(100) 상단에 위치한 동작인식 카메라(200)에서 촬영된 동작인식 정보(Depth Map)는 상기 가상현실 구현 PC(400)로 전달되고, 가상현실 구현 PC(400)는 이 동작인식 정보를 분석하여 가상현실내 입력을 처리하게 된다.As shown in FIG. 3, when the program is started, the operation of the motion recognition camera 200 is controlled by the virtual reality realization PC 400, and the system is set up through the calibration process and prepared for program execution. The motion recognition information (Depth Map) photographed by the motion recognition camera 200 located at the upper end of the chroma key screen 100 is transmitted to the virtual reality implementation PC 400, And processes the input in the virtual reality.

상기 입출력 임베디드 장치가 HMD에 설치된 센서에 의해 추출된 정보를 통해 HMD 3차원 위치좌표 및 방향좌표를 포함하는 HMD 좌표정보를 추출하고, 상기 가상현실 구현 PC(400)가 상기 HMD 좌표정보를 바탕으로 상기 HMD의 카메라 뷰포트(camera viewport)에 가상현실을 렌더링하게 된다.The input / output embedded device extracts HMD coordinate information including HMD three-dimensional position coordinates and direction coordinates from the information extracted by the sensor installed in the HMD, and the virtual reality implementing PC 400 extracts, based on the HMD coordinate information The virtual reality is rendered in the camera viewport of the HMD.

그리고 나서, 상기 렌더링 된 이미지를 출력하 상기 입출력 임베디드 장치에 보내고, 상기 입출력 임베디드 장치에 연결된 HMD 장치에 의해 상기 렌더링 된 이미지를 디스플레이하게 된다.Then, the rendered image is output to the input / output embedded device, and the rendered image is displayed by the HMD device connected to the input / output embedded device.

이처럼 본 발명의 실시예에 따른 가상현실 구현방법은 가상현실을 통한 체험을 목적으로 하는 환경에서 장치를 부착하지 않고 또는 장치를 활용하지 않고 체험자의 몸(손, 또는 발, 다리 등)을 통해서 가상의 물체와 상호작용을 하도록 함으로써, 몰입감을 높일 수 있고, 상호작용을 위해서는 상호작용을 하는 자신의 신체를 자신의 눈으로 볼 수 있도록 하여 조작감을 높일 수 있을 뿐만 아니라, 이를 구현할 수 있는 시스템 구축 비용이 매우 저렴하다는 장점이 있다..As described above, the virtual reality realizing method according to the embodiment of the present invention is a virtual reality realizing method in which virtual reality is created through virtual (virtual) So that it is possible to increase the feeling of immersion and to enhance the feeling of operation by allowing the user to see his or her own body interacting with his or her own eyes in order to interact with the user, This is very cheap.

또한, 본 발명의 실시예에 따른 가상현실 구현방법을 제공하면, 실환경의 카메라의 스펙과 가상현실 내의 카메라의 스펙( FOV, Eye offset 등)을 동일하게 구성(가상현실의 Rendering 타임, Chromakey 후 Overlap 처리 또한 거의 실시간으로 처리)할 경우 실제 나의 몸이 가상현실 안에 있다고 사용자는 느낄 수 있을 정도의 현실감 및 몰입감을 높일 수 있는 큰 장점이 있다.
In addition, by providing the method of realizing the virtual reality according to the embodiment of the present invention, the specifications of the camera in the real environment and the specifications (FOV, eye offset, etc.) of the cameras in the virtual reality are configured to be the same (Rendering time of the virtual reality, Overlap processing is almost real-time processing), there is a great advantage that the user can feel realistic feeling and immersion feeling that my body is in the virtual reality.

도 4는 본 발명의 실시예에 따른 혼합현실을 이용한 가상현실 구현방법에서 좌표체계 구현하여 적용하는 흐름을 나타낸 도면이다. 도 2 및 도 4에 나타낸 바와 같이, 모든 행위의 원점은 실험자의 가슴을 중심축으로 하며 그에 따른 상대좌표로 손(상호작용을 하는 신체)의 위치를 트랙킹(Tracking) 하고, HMD의 방향과 위치 또한 가슴을 중심축으로 상대좌표로 구해진다. 사용자의 중심축은 가상환경내의 월드좌표계에서 상대적으로 구해진다.4 is a flowchart illustrating a method of implementing a coordinate system in a virtual reality realizing method using mixed reality according to an embodiment of the present invention. As shown in FIGS. 2 and 4, the origin of all the actions is the center axis of the experimenter's chest, tracking the position of the hand (the interacting body) with the relative coordinates thereof, It is also found in relative coordinates with the chest as the central axis. The center axis of the user is obtained relatively in the world coordinate system in the virtual environment.

손(상호작용을 하는 신체)은 다시 월드좌표계의 위치로 계산 되어지고, 가상환경내의 객체(Object)들과 반응을 하고 HMD의 방향좌표는 월드좌표계로 변환되어져 렌더링(Rendering)시 카메라의 위치와 방향을 정한다. 즉, 테스트베드(TestBed) 내에서 HMD 방향, 위치와 신체의 좌표는 월드좌표계와 독립적으로 테스트베드(TestBed) 기본 좌표에서 입력되어진다. The hand (the interacting body) is calculated by the position of the world coordinate system again, reacts with the objects in the virtual environment, and the direction coordinate of the HMD is converted into the world coordinate system, Direction. That is, in the test bed (TestBed), the HMD direction, position, and body coordinates are input in the TestBed basic coordinates independently of the world coordinate system.

위와 같은 시스템 및 구현방법의 장점은 가상환경내에서 아바타(사용자의 가상환경 인물)의 몸의 방향(이동방향등과 연관)과 머리 회전의 독립성을 보장하며 머리 회전에 따른 출력화면과 상호작용의 독립성을 보장한다.(즉, 보지 않고 물건을 집거나 터치하거나 하는 행위가 가능) The advantage of the above system and implementation method is that it guarantees the independence of head rotation (related to the direction of movement of the body) of the avatar (the user's virtual environment figure) in the virtual environment and the output screen and interaction Ensuring independence (that is, it is possible to pick up or touch something without looking at it)

또한, 상호작용을 하는 신체(손)가 실/가상의 카메라의 동일한 세팅값을 가지고 크로마키 되어 HMD에 출력될 경우 가상환경과 이질감을 줄일 수 있다. 즉,실제 카메라와 가상현실 렌더링 용 카메라의 설정이 동일하고 충분히 빠른 크로마키 프로세싱이 이루어질 경우, 가상현실 Frame rate 내에서의 처리할 수 있게 된다.Also, when the interacting body (hand) is chroma-keyed with the same setting value of the real / virtual camera and output to the HMD, the virtual environment and heterogeneity can be reduced. In other words, when the real camera and the camera for virtual reality rendering are the same and the chroma key processing is performed fast enough, the processing within the virtual reality frame rate becomes possible.

도 4를 참조하여 좌표계 처리 프로세스를 살펴보면, 가상현실 구현 PC(400)는 시스템 셋업 단계에서 HMD에 설치된 카메라의 영상 이미지를 바탕으로 크로마키 벡터를 추출 처리하고, 처리된 후, HMD의 카메라에서 획득한 카메라 프레임 이미지로부터 실환경 이미지 프레임을 추출하여 가상현실 이미지 및 상기 추출된 실환경 이미지를 혼합하여 혼합현실 프레임 이미지를 생성하게 된다. Referring to FIG. 4, the virtual reality PC 400 extracts a chroma key vector based on an image of a camera installed in the HMD in the system setup step, processes the extracted chroma key vector, A real environment image frame is extracted from a camera frame image, and a virtual reality image and the extracted real environment image are mixed to generate a mixed reality frame image.

생성된 혼합현실 프레임 이미지는 HMD 장치에 입/출력 임베디드 장치(450)를 통해 전송되고, HMD 장치에서 상기 혼합현실 이미지를 디스플레이하게 된다. 여기서 혼합현실 프레임 이미지는 HMD의 3차원 위치좌표 및 방향좌표와 함께 HMD에 설치된 카메라 및 각종의 센서를 통해 산출된 좌표 데이터를 분석하여 가상현실내의 월드좌표계에 대응되는 3차원 위치좌표 및 방황좌표로 변환 또는 산출한 좌표를 기준으로 생성된 이미지이다.
The generated mixed reality frame image is transmitted to the HMD device through the input / output embedded device 450, and the HMD device displays the mixed reality image. Here, the hybrid reality frame image analyzes coordinate data calculated by a camera installed in the HMD and various sensors together with three-dimensional position coordinates and direction coordinates of the HMD, and obtains three-dimensional position coordinate and wander coordinate corresponding to the world coordinate system in the virtual reality Transformed, or computed coordinates.

이상의 설명에서 본 발명은 특정의 실시 예와 관련하여 도시 및 설명하였지만, 특허청구범위에 의해 나타난 발명의 사상 및 영역으로부터 벗어나지 않는 한도 내에서 다양한 개조 및 변화가 가능 하다는 것을 당 업계에서 통상의 지식을 가진 자라면 누구나 쉽게 알 수 있을 것이다.
While the invention has been shown and described with respect to the specific embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention as defined by the appended claims. Anyone with it will know easily.

100: 크로마키 스크린, 200: 동작인식 카메라, 300: HMD,
450: 입/출력 임베디드 장치, 400: 가상현실 구현 PC
100: chroma key screen, 200: motion recognition camera, 300: HMD,
450: Input / output embedded device, 400: Virtual reality PC

Claims (11)

크로마키 스크린;
상기 크로마키 스크린에 조명광을 조사하는 조명시스템;
상기 크로마키 스크린 어느 일측에 위치하여 사용자의 동작을 인식하는 동작인식 카메라;
가상현실에 실환경이 혼합된 혼합현실에 입력 또는 출력을 처리하는 입/출력 임베디드 장치;
사용자 헤드에 착용되고, 상기 입/출력 임베디드 장치와 연결되어 상기 혼합현실을 디스플레이하는 HMD;
상기 입/출력 임베디드 장치와 연결되어 상기 HMD가 상기 크로마키 스크린에 투영되어 상기 HMD에 상기 가상현실을 구현하는 가상현실 구현 PC를 포함하되,
상기 크로마키 스크린을 통한 월드좌표와, 사용자의 HMD 방향좌표 및 상기 동작인식 카메라에서 획득한 동작 인식정보를 매칭하고 렌더링시켜 상기 가상현실과 사용자의 모션을 포함하는 상기 혼합현실을 상기 HMD에 구현하여 디스플레이되는 것을 특징으로 하는 혼합현실을 이용한 가상현실 시스템.
Chromakey screen;
An illumination system for illuminating the chroma key screen with illumination light;
An operation recognition camera positioned at one side of the chroma key screen to recognize the operation of the user;
An input / output embedded device for processing input or output to a mixed reality in which a virtual environment and a real environment are mixed;
An HMD that is worn on a user's head and is connected to the input / output embedded device to display the mixed reality;
And a virtual reality PC connected to the input / output embedded device and configured to implement the virtual reality in the HMD by being projected on the chroma key screen by the HMD,
The mixed reality including the virtual reality and the motion of the user is implemented in the HMD by matching and rendering the world coordinate through the chroma key screen, the user's HMD direction coordinate, and the motion recognition information acquired by the motion recognition camera And a virtual reality system using the mixed reality.
제1항에 있어서,
상기 동작인식 카메라는,
사용자의 동작을 인식할 수 있는 깊이 카메라(Depth Camera)인 것을 특징으로 하는 혼합현실을 이용한 가상현실 시스템.
The method according to claim 1,
The motion recognition camera comprises:
And a depth camera for recognizing the motion of the user.
제1항에 있어서,
상기 HMD는,
위치추적 센서, 자이로 센서 및 스테레오 스코픽 RGB 카메라가 부착된 것을 특징으로 하는 혼합현실을 이용한 가상현실 시스템.
The method according to claim 1,
In the HMD,
A position sensor, a gyro sensor, and a stereoscopic RGB camera.
제3항에 있어서,
상기 위치추적 센서는 가속도계를 이용하여 상기 HMD의 위치를 추적할 수 있는 센서인 것을 특징으로 혼합현실을 이용한 가상현실 시스템.
The method of claim 3,
Wherein the position tracking sensor is a sensor capable of tracking the position of the HMD using an accelerometer.
제3항에 있어서,
상기 자이로 센서는 6축 자이로 센서인 것을 특징으로 하는 혼합현실을 이용한 가상현실 시스템.
The method of claim 3,
Wherein the gyro sensor is a six-axis gyro sensor.
제1항에 있어서,
상기 입/출력 임베디드 장치는,
모바일 PC, 스마트폰, 테블릿 PC 및 PDA 중 어느 하나인 것을 특징으로 하는 혼합현실을 이용한 가상현실 시스템.
The method according to claim 1,
The input / output embedded device includes:
A mobile PC, a smart phone, a tablet PC, and a personal digital assistant (PDA).
상기 제1항의 시스템을 이용한 가상현실 구현방법에 있어서,
(a) 상기 입/출력 임베디드 장치가 좌표를 보정하고 시스템 셋업하는 단계;
(b) 상기 입/출력 임베디드 장치가 상기 동작인식 카메라에서 상기 HMD의 깊이정보를 수신받아 가상현실 내 깊이정보로 입력처리 하는 단계;
(c) 상기 입/출력 임베디드 장치가 상기 HMD에 설치된 센서에 의해 추출된 정보를 통해 HMD 3차원 위치좌표 및 방향좌표를 포함하는 HMD 좌표정보를 추출하는 단계;
(d) 상기 가상현실 구현 PC가 상기 HMD 좌표정보를 바탕으로 상기 HMD에 가상현실을 렌더링하는 단계; 및
(e) 상기 렌더링된 이미지를 상기 HMD의 출력장치를 통해 표시하는 단계를 포함하고,
상기 (c) 단계에서, 상기 깊이정보와 상기 HMD에 설치된 센서에서 획득한 상기 HMD의 위치정보를 바탕으로 상기 HMD의 3차원 위치좌표를 설정하는 것을 특징으로 하는 혼합현실을 이용한 가상현실 구현방법.
A method for implementing a virtual reality using the system of claim 1,
(a) the input / output embedded device corrects coordinates and sets up a system;
(b) the input / output embedded device receives the depth information of the HMD from the motion recognition camera and inputs the depth information in the virtual reality;
(c) extracting HMD coordinate information including HMD three-dimensional position coordinates and direction coordinates from the information extracted by the sensor installed in the HMD, by the input / output embedded device;
(d) rendering the virtual reality on the HMD based on the HMD coordinate information; And
(e) displaying the rendered image through an output device of the HMD,
Wherein the 3D position coordinates of the HMD are set based on the depth information and the position information of the HMD acquired by the sensor installed in the HMD in the step (c).
제7항에 있어서,
상기 HMD의 위치좌표는 사용자의 가슴을 중심축으로 방향과 위치를 상대좌표로 산출되고, 상기 가상현실 내의 월드좌표계에서 상대적으로 설정되는 것을 특징으로 하는 혼합현실을 이용한 가상현실 구현방법.
8. The method of claim 7,
Wherein the position coordinates of the HMD are calculated relative to a direction and a position with respect to a center axis of the user's chest and are relatively set in a world coordinate system in the virtual reality.
제8항에 있어서,
상기 동작인식 카메라에 의해 획득한 상기 사용자의 모션 데이터는 상기 월드좌표계에서 상대적으로 방향 및 위치가 산출되어 상기 가상현실내의 물체와 반응하도록 설정되는 것을 특징으로 혼합현실을 이용한 가상현실 구현방법.
9. The method of claim 8,
Wherein the motion data of the user acquired by the motion recognition camera is set so that a direction and a position are relatively calculated in the world coordinate system and reacted with an object in the virtual reality.
삭제delete 삭제delete
KR1020140078406A 2014-06-25 2014-06-25 Virtual Reality System using of Mixed reality, and thereof implementation method KR101638550B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140078406A KR101638550B1 (en) 2014-06-25 2014-06-25 Virtual Reality System using of Mixed reality, and thereof implementation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140078406A KR101638550B1 (en) 2014-06-25 2014-06-25 Virtual Reality System using of Mixed reality, and thereof implementation method

Publications (2)

Publication Number Publication Date
KR20160000986A KR20160000986A (en) 2016-01-06
KR101638550B1 true KR101638550B1 (en) 2016-07-12

Family

ID=55164940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140078406A KR101638550B1 (en) 2014-06-25 2014-06-25 Virtual Reality System using of Mixed reality, and thereof implementation method

Country Status (1)

Country Link
KR (1) KR101638550B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101696243B1 (en) 2016-07-22 2017-01-13 김계현 Virtual reality system and method for realizing virtual reality therof

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101822471B1 (en) 2016-05-26 2018-01-29 경북대학교 산학협력단 Virtual Reality System using of Mixed reality, and thereof implementation method
EP3602242A1 (en) * 2017-04-27 2020-02-05 Siemens Aktiengesellschaft Authoring augmented reality experiences using augmented reality and virtual reality
US10304207B2 (en) 2017-07-07 2019-05-28 Samsung Electronics Co., Ltd. System and method for optical tracking
KR102405416B1 (en) * 2019-11-25 2022-06-07 한국전자기술연구원 Method for posture estimation of user wearing Head Mounted Display

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101002785B1 (en) * 2009-02-06 2010-12-21 광주과학기술원 Method and System for Spatial Interaction in Augmented Reality System
KR20100118943A (en) * 2009-04-29 2010-11-08 주식회사 아코엔터테인먼트 Augmented reality studio foreign language study system
KR101390383B1 (en) * 2010-11-16 2014-04-29 한국전자통신연구원 Apparatus for managing a reconfigurable platform for virtual reality based training simulator
WO2012135553A1 (en) 2011-03-29 2012-10-04 Qualcomm Incorporated Selective hand occlusion over virtual projections onto physical surfaces using skeletal tracking
KR101546654B1 (en) 2012-06-26 2015-08-25 한국과학기술원 Method and apparatus for providing augmented reality service in wearable computing environment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101696243B1 (en) 2016-07-22 2017-01-13 김계현 Virtual reality system and method for realizing virtual reality therof
WO2018016928A1 (en) * 2016-07-22 2018-01-25 김계현 Virtual reality implementation system and virtual reality implementation method thereof

Also Published As

Publication number Publication date
KR20160000986A (en) 2016-01-06

Similar Documents

Publication Publication Date Title
CN113168007B (en) System and method for augmented reality
US10764565B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
KR101546654B1 (en) Method and apparatus for providing augmented reality service in wearable computing environment
JP5936155B2 (en) 3D user interface device and 3D operation method
US20180190022A1 (en) Dynamic depth-based content creation in virtual reality environments
US11755122B2 (en) Hand gesture-based emojis
EP2434458A2 (en) Image processing program, apparatus, system, and method for mixed reality
US11217024B2 (en) Artificial reality system with varifocal display of artificial reality content
KR101638550B1 (en) Virtual Reality System using of Mixed reality, and thereof implementation method
EP3262505B1 (en) Interactive system control apparatus and method
KR20230044041A (en) System and method for augmented and virtual reality
JP2015114818A (en) Information processing device, information processing method, and program
TW201447375A (en) Head wearable electronic device and method for augmented reality
US8952956B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JPWO2014016992A1 (en) 3D user interface device and 3D operation method
KR20110099176A (en) Pointing device of augmented reality
TW202105129A (en) Artificial reality systems with personal assistant element for gating user interface elements
CN115335894A (en) System and method for virtual and augmented reality
US11195341B1 (en) Augmented reality eyewear with 3D costumes
KR101770188B1 (en) Method for providing mixed reality experience space and system thereof
US20240077935A1 (en) Virtual interfaces for controlling iot devices
US20240077934A1 (en) Virtual ar interfaces for controlling iot devices using mobile device orientation sensors
CN115004132A (en) Information processing apparatus, information processing system, and information processing method
KR20230070308A (en) Location identification of controllable devices using wearable devices
JP2024047006A (en) Information processing system and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190627

Year of fee payment: 4