KR102234646B1 - Apparatus and method for experience of virtual reality - Google Patents
Apparatus and method for experience of virtual reality Download PDFInfo
- Publication number
- KR102234646B1 KR102234646B1 KR1020200101433A KR20200101433A KR102234646B1 KR 102234646 B1 KR102234646 B1 KR 102234646B1 KR 1020200101433 A KR1020200101433 A KR 1020200101433A KR 20200101433 A KR20200101433 A KR 20200101433A KR 102234646 B1 KR102234646 B1 KR 102234646B1
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- data
- user
- coordinates
- virtual character
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
Abstract
Description
본 발명의 가상 현실 체험 장치 및 방법에 관한 것으로 보다 상세하게는 딥러닝 알고리즘을 통해서 상이한 각도로 이용자를 촬영하는 복수의 카메라로부터 촬영된 영상 데이터를 병합하여 이용자의 모션과 동일한 모션을 취하는 캐릭터를 생성하여 이용자가 가상 현실 체험을 하도록 하는 가상 현실 체험 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for experiencing virtual reality, and more specifically, through a deep learning algorithm, a character that takes the same motion as the user's motion is created by merging image data taken from a plurality of cameras that photograph the user at different angles. Thus, it relates to a virtual reality experience device and method for allowing a user to experience virtual reality.
가상현실(VR)이란 컴퓨터가 만든 가상세계 속에서 이용자가 실제로 상호작용을 하는 것처럼 만들어주는 기술을 뜻한다. 가상현실 시장이 무르익으면서, 새롭게 떠오르고 있는 가상현실 게임 시장을 선점하기 위한 글로벌 정 보통신기술(ICT) 업체들의 경쟁도 뜨겁다. 일반적으로 가상현실 게임은 가상공간에서 게임 이용자가 직접 가상 현실 속의 캐릭터가 되어, 실제 상황처럼 게임을 즐길 수 있도록 개발된다. Virtual reality (VR) refers to a technology that makes users feel as if they are actually interacting in a virtual world created by a computer. As the virtual reality market matures, competition among global ICT companies to preoccupy the emerging virtual reality game market is also fierce. In general, virtual reality games are developed so that game users can directly become characters in virtual reality in a virtual space and enjoy the game like a real situation.
본 명세서에서는 이러한 가상 현실을 딥러닝 알고리즘을 이용해서 구현하는 방법을 소개하고자 한다.In this specification, we will introduce a method of implementing such a virtual reality using a deep learning algorithm.
[선행문헌] [Prior literature]
공개 특허 10-2018-0086938Publication Patent 10-2018-0086938
본 발명의 가상 현실 체험 장치 및 방법에 관한 것으로 보다 상세하게는 딥러닝 알고리즘을 통해서 상이한 각도로 이용자를 촬영하는 복수의 카메라로부터 촬영된 영상 데이터를 병합하여 이용자의 모션과 동일한 모션을 취하는 캐릭터를 생성하여 이용자가 가상 현실 체험을 하도록 하는 가상 현실 체험 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for experiencing virtual reality, and more specifically, through a deep learning algorithm, a character that takes the same motion as the user's motion is created by merging image data taken from a plurality of cameras that photograph the user at different angles. Thus, it relates to a virtual reality experience device and method for allowing a user to experience virtual reality.
본 발명의 일 실시예에 따른 시뮬레이션 공간에서 HMD(Head Mount Display)를 착용하고 있는 이용자의 모션을 인식하여 상기 이용자에게 가상 현실 체험을 제공하는 가상 현실 체험 장치는 복수의 카메라 모듈로부터 상기 이용자의 모션을 상이한 각도에서 촬영한 복수의 모션 데이터를 수신하는 모션 데이터 수신부, 상기 복수의 모션 데이터 각각으로부터 상기 이용자의 머리 부분을 제외한 신체를 추출하여 복수의 신체 데이터를 생성하는 신체 데이터 생성부, 상기 복수의 신체 데이터를 신체 부위 별로 분할하여 복수의 후보 영역을 생성하고, 딥러닝 알고리즘을 이용하여 해당 후보 영역 각각에 대한 특징을 추출하여 해당 후보 영역에 포함되어 있는 관절 포인트를 인식하고, 해당 관절 포인트를 기준으로 상기 이용자의 모션을 인식하는 모션 인식부, 모션이 인식된 상기 복수의 모션 데이터를 동일한 신체 부위 및 관절 포인트를 근거로 하여 병합하여 3차원 데이터를 생성하는 3차원 데이터 생성부, 상기 3차원 데이터의 좌표를 상기 시뮬레이션 공간의 좌표에 매칭되도록 변환하는 좌표 변환부, 및 좌표가 변환된 상기 3차원 데이터를 근거로 하여 상기 시뮬레이션 공간에 가상 캐릭터를 생성하는 가상 캐릭터 생성부를 포함하고, 상기 가상 캐릭터는 상기 이용자의 모션에 대응하여 실시간으로 동일한 모션을 취하는 것을 특징으로 한다.A virtual reality experience device for providing a virtual reality experience to the user by recognizing the motion of a user wearing a head mount display (HMD) in a simulation space according to an embodiment of the present invention is a motion of the user from a plurality of camera modules. A motion data receiving unit receiving a plurality of motion data photographed at different angles, a body data generating unit generating a plurality of body data by extracting a body excluding the user's head from each of the plurality of motion data, the plurality of The body data is divided by body part to generate a plurality of candidate regions, and a feature for each of the candidate regions is extracted using a deep learning algorithm to recognize joint points included in the candidate region, and the joint points are referenced. A motion recognition unit that recognizes the user's motion, a three-dimensional data generation unit that generates three-dimensional data by merging the plurality of motion data on which the motion is recognized based on the same body part and joint point, and the three-dimensional data A coordinate conversion unit that converts the coordinates of to match the coordinates of the simulation space, and a virtual character generation unit that generates a virtual character in the simulation space based on the three-dimensional data whose coordinates are converted, wherein the virtual character is It is characterized in that the same motion is taken in real time in response to the motion of the user.
본 발명의 일 실시예에 따른 가상 현실 체험 장치는 상기 HMD의 좌표를 상기 가상 캐릭터의 머리 부분의 좌표에 매칭시키는 HMD 좌표 매칭부를 더 포함하고, 상기 복수의 카메라 모듈은 적어도 4개이다.The virtual reality experience apparatus according to an embodiment of the present invention further includes an HMD coordinate matching unit for matching the coordinates of the HMD to the coordinates of the head of the virtual character, and the plurality of camera modules is at least four.
상기 가상 캐릭터 생성부는 좌표가 변환된 상기 3차원 데이터의 신체 부위 별 좌표들 각각에 대응하도록 상기 가상 캐릭터를 생성하고, 상기 가상 캐릭터는 상기 이용자의 신체 부위 각각의 모션에 따라 실시간으로 동일한 모션을 취하는 것을 특징으로 한다.The virtual character generation unit generates the virtual character to correspond to each of the coordinates of each body part of the 3D data whose coordinates are converted, and the virtual character takes the same motion in real time according to the motion of each body part of the user. It is characterized by that.
상기 3차원 데이터 생성부는 모션이 인식된 상기 복수의 모션 데이터 각각에 대해서 후보 영역 간의 경계 좌표를 동기화한 후, 상기 관절 포인트에 대응하는 좌표를 중첩시켜 3차원 데이터를 생성한다.The 3D data generator generates 3D data by synchronizing boundary coordinates between candidate regions with respect to each of the plurality of motion data for which motion is recognized, and then overlapping coordinates corresponding to the joint points.
본 발명의 일 실시예에 따른 시뮬레이션 공간에서 HMD(Head Mount Display)를 착용하고 있는 이용자의 모션을 인식하여 상기 이용자에게 가상 현실 체험을 제공하는 가상 현실 체험 장치를 이용하는 가상 현실 체험 방법은 모션 데이터 수신부가 복수의 카메라 모듈로부터 상기 이용자의 모션을 상이한 각도에서 촬영한 복수의 모션 데이터를 수신하는 단계, 신체 데이터 생성부가 상기 복수의 모션 데이터 각각으로부터 상기 이용자의 머리 부분을 제외한 신체를 추출하여 복수의 신체 데이터를 생성하는 단계, 모션 인식부가 상기 복수의 신체 데이터를 신체 부위 별로 분할하여 복수의 후보 영역을 생성하고, 딥러닝 알고리즘을 이용하여 해당 후보 영역 각각에 대한 특징을 추출하여 해당 후보 영역에 포함되어 있는 관절 포인트를 인식하고, 해당 관절 포인트를 기준으로 상기 이용자의 모션을 인식하는 단계, 좌표 변환부가 상기 3차원 데이터의 좌표를 상기 시뮬레이션 공간의 좌표에 매칭되도록 변환하는 단계, 및 가상 캐릭터 생성부가 좌표가 변환된 상기 3차원 데이터를 근거로 하여 상기 시뮬레이션 공간에 가상 캐릭터를 생성하는 단계를 포함하고, 상기 가상 캐릭터는 상기 이용자의 모션에 대응하여 실시간으로 동일한 모션을 취하는 것을 특징으로 한다.A virtual reality experience method using a virtual reality experience device that provides a virtual reality experience to the user by recognizing the motion of a user wearing a head mount display (HMD) in a simulation space according to an embodiment of the present invention is a motion data receiving unit. Receiving a plurality of motion data photographing the motion of the user at different angles from a plurality of camera modules, a body data generation unit extracting a body other than the user's head from each of the plurality of motion data Generating data, the motion recognition unit generates a plurality of candidate regions by dividing the plurality of body data for each body part, and extracts features for each of the candidate regions using a deep learning algorithm, and is included in the candidate region. Recognizing an existing joint point, recognizing the motion of the user based on the corresponding joint point, converting the coordinates of the 3D data to match the coordinates of the simulation space by a coordinate conversion unit, and the coordinates of the virtual character generation unit And generating a virtual character in the simulation space based on the converted 3D data, wherein the virtual character takes the same motion in real time in response to the motion of the user.
본 발명의 일 실시예에 따른 가상 현실 체험 방법은 HMD 좌표 매칭부가 상기 HMD의 좌표를 상기 가상 캐릭터의 머리 부분의 좌표에 매칭시키는 단계를 더 포함하고, 상기 복수의 카메라 모듈은 적어도 4개이다.The virtual reality experience method according to an embodiment of the present invention further includes the step of matching, by an HMD coordinate matching unit, the coordinates of the HMD with the coordinates of the head of the virtual character, and the plurality of camera modules is at least four.
상기 가상 캐릭터를 생성하는 단계에서 상기 가상 캐릭터 생성부는 좌표가 변환된 상기 3차원 데이터의 신체 부위 별 좌표들 각각에 대응하도록 상기 가상 캐릭터를 생성하고, 상기 가상 캐릭터는 상기 이용자의 신체 부위 각각의 모션에 따라 실시간으로 동일한 모션을 취하고, 상기 3차원 데이터를 생성하는 단계에서 상기 3차원 데이터 생성부는 모션이 인식된 상기 복수의 모션 데이터 각각에 대해서 후보 영역 간의 경계 좌표를 동기화한 후, 상기 관절 포인트에 대응하는 좌표를 중첩시켜 3차원 데이터를 생성한다.In the step of creating the virtual character, the virtual character generation unit generates the virtual character to correspond to each of the coordinates of each body part of the 3D data whose coordinates have been converted, and the virtual character is a motion of each body part of the user. In the step of taking the same motion in real time according to and generating the 3D data, the 3D data generator synchronizes boundary coordinates between candidate regions for each of the plurality of motion data for which motion is recognized, and then the joint point 3D data is created by overlapping the corresponding coordinates.
본 발명에 따른 가상 현실 체험 장치는 복수의 카메라 모듈을 통해서 이용자를 전 방향에서 촬영하여 모션 데이터를 생성하고, 딥러닝 알고리즘을 통해서 해당 모션 데이터를 병합하고 3차원 데이터를 통해서 이용자의 모션을 취하는 가상의 캐릭터를 생성함으로서, 이용자가 더 생동감 있는 가상 현실 체험을 할 수 있도록 한다.The virtual reality experience device according to the present invention creates motion data by photographing a user from all directions through a plurality of camera modules, merges the motion data through a deep learning algorithm, and takes the user's motion through 3D data. By creating a character of, it allows users to experience a more vibrant virtual reality.
도 1은 본 발명의 일 실시예에 따른 가상 현실 체험 시스템의 개략도이다.
도 2는 본 발명의 일 실시예에 따른 가상 현실 체험 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 가상 현실 체험 방법의 순서도이다.1 is a schematic diagram of a virtual reality experience system according to an embodiment of the present invention.
2 is a block diagram of a virtual reality experience device according to an embodiment of the present invention.
3 is a flowchart of a virtual reality experience method according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are attached to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Throughout the specification, when a part is said to be "connected" with another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. Refer to the accompanying drawings. Hereinafter, the present invention will be described in detail.
도 1은 본 발명의 일 실시예에 따른 가상 현실 체험 시스템(1000)의 개략도이다.1 is a schematic diagram of a virtual
도 1을 참조하면, 본 발명의 일 실시예에 따른 가상 현실 체험 시스템(1000)은 카메라 모듈(100), 표시 단말(300), 및 이와 네트워크(400)로 연계되는 가상 현실 체험 장치(200)를 포함할 수 있다.Referring to FIG. 1, a virtual
카메라 모듈(100)은 이용자가 가상 현실 체험을 하고 있는 시뮬레이션 공간에 설치되어 있는 모듈일 수 있다. 카메라 모듈(100)은 복수개로 구성될 수 있다. 복수의 카메라 모듈(100)은 각각 이용자를 상이한 각도로 촬영하여 이용자의 모션 데이터를 생성할 수 있다. 이에 대해서는 도 2에서 좀 더 자세히 설명하도록 한다.The
가상 현실 체험 장치(200)는 네트워크(400)를 통해서 카메라 모듈(100)로부터 데이터를 수신하고 이를 가공한 결과 데이터를 표시 단말(300)에 출력할 수 있다. 가상 현실 체험 장치(200)는 서버일 수 있다.The virtual
표시 단말(300)은 시뮬레이션 공간 내에 설치되어 있는 단말일 수 있다. 이용자는 표시 단말(300)에서 나오는 영상을 통해서 가상 체험을 할 수 있다.The
표시 단말(300)은 TV와 같은 표시부의 크기가 큰 디스플레이 장치일 수 있다. 다만 표시 단말(300)은 이에 한정되지 않으며, 표시 단말(300)은 일반적인 데스크탑 컴퓨터, 네비게이션, 노트북, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿PC 등과 같은 전자 장치를 포함할 수 있다. 전자 장치는 하나 이상의 일반적이거나 특수한 목적의 프로세서, 메모리, 스토리지, 및/또는 네트워킹 컴포넌트(유선 또는 무선)를 가질 수 있다.The
네트워크(400)의 통신 방식은 제한되지 않으며, 네트워크(400)가 포함할 수 있는 통신망의 일 예로는 이동통신망, 유선 온라인, 무선 온라인, 방송망을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(400)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 온라인 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다.The communication method of the
도 2는 본 발명의 일 실시예에 따른 가상 현실 체험 장치(200)의 블록도이고, 도 3은 본 발명의 일 실시예에 따른 가상 현실 체험 방법의 순서도이다.2 is a block diagram of a virtual
도 2 및 도 3을 참조하면, 본 발명의 일 실시예에 따른 가상 현실 체험 장치(200)는 모션 데이터 수신부(201), 신체 데이터 생성부(202), 모션 인식부(203), 3차원 데이터 생성부(204), 좌표 변환부(205), 가상 캐릭터 생성부(206), 및 HMD 좌표 매칭부(207)를 포함할 수 있다.2 and 3, a virtual
모션 데이터 수신부(201)는 복수의 카메라 모듈(100)로부터 이용자의 모션을 상이한 각도에서 촬영한 복수의 모션 데이터를 수신할 수 있다.(S10) The motion
복수의 카메라 모듈(100)은 적어도 4개일 수 있다. 예를 들어, 카메라 모듈(100)의 시야각은 약 120도일 수 있고, 이 경우 4개의 카메라 모듈(100)을 통해서 이용자를 전 방향에서 촬영할 수 있다. There may be at least four
신체 데이터 생성부(202)는 복수의 모션 데이터 각각으로부터 이용자의 머리 부분을 제외한 신체를 추출하여 복수의 신체 데이터를 생성할 수 있다.(S11) 신체 데이터 생성부(202)는 수신되는 모션 데이터에서 인체가 있는지 여부를 감지하여, 인체가 없는 경우, 신체 데이터를 생성하지 않아 모션 인식의 과정이 진행되지 않는다.The body
본 발명의 일 예로, 신체 데이터 생성부(202)가 모션 데이터로부터 대상자의 신체를 감지하여 추출하는 방식은 공지의 대상체 감지 알고리즘을 채택할 수 있다. 해당 알고리즘은 가시광선 영상 정보 또는 열화상 영상 정보를 이용하여 신체를 감지할 수 있고, 두 영상 정보를 동시에 활용하여 신체 감지의 정확성을 향상시킬 수 있다.As an example of the present invention, a method in which the
모션 인식부(203)는 복수의 신체 데이터를 신체 부위 별로 분할하여 복수의 후보 영역을 생성할 수 있다..The
모션 인식부(203)는 신체 데이터에 포함되어 있는 이용자의 신체 부위를 감지하고 감지된 신체 부위 별로 분할하여 후보 영역을 생성할 수 있다. 신체 부위에는 이용자의 머리 부분이 제외된다.The
후보 영역의 생성은 모션 데이터에서 신체 부위가 있을 만한 영역들을 선택적 탐색 알고리즘(Selective Search Algorithm) 통해서 이루어질 수 있다.The generation of the candidate region may be performed through a Selective Search Algorithm for regions in motion data where there may be body parts.
모션 인식부(203)는 복수의 후보 영역을 생성한 후, 딥러닝 알고리즘을 이용하여 해당 후보 영역 각각에 대한 특징을 추출하여 해당 후보 영역에 포함되어 있는 관절 포인트를 인식하고, 해당 관절 포인트를 기준으로 이용자의 모션을 인식할 수 있다.(S12)After generating a plurality of candidate regions, the
딥 러닝 알고리즘은 R-CNN(Region Proposal-Convolutional Neural Network) 신경망을 통한 알고리즘일 수 있다. R-CNN은 Region Proposal 기반의 CNN 기법으로서, 이미지 내에서 추출한 후보 영역(Region Proposal)의 특징을 이용하여 후보 영역 내 객체가 무엇인지 분류하고 객체의 위치를 보정하는 기법이다. 모션 인식부(203)는 모션 데이터에 포함된 각 셀들에 대해 부여된 셀 라벨링 정보를 학습 데이터로 사용하여 전처리 과정을 거쳐서 데이터 화면 크기가 조절된 후보 영역 각각의 셀들을 판별하는 R-CNN 신경망을 통한 알고리즘을 통하여 해당 후보 영역에 포함되어 있는 신체 부위를 인식할 수 있다. The deep learning algorithm may be an algorithm through a region proposal-convolutional neural network (R-CNN) neural network. R-CNN is a Region Proposal-based CNN technique, which classifies what objects are in the candidate region and corrects the position of the object by using the features of the region proposal extracted from the image. The
R-CNN 신경망을 통한 알고리즘은 앞서 설명한 선택적 탐색 알고리즘과 같이 진행될 수 있다. 즉, 모션 데이터에서 물체가 있을 만한 후보 영역들을 선택적 탐색 알고리즘을 사용하여 추출한 다음, 각각의 후보 영역을 개별 CNN에 입력하여 후보 영역의 특징을 추출함으로써 각 후보 영역 내 존재하는 객체의 종류를 분류하고, 객체에 대한 바운딩 박스(bounding box)를 좁혀 나감으로써 객체의 검출 위치를 정교하게 보정할 수 있다.The algorithm through the R-CNN neural network can proceed like the selective search algorithm described above. In other words, after extracting candidate regions that may have objects in motion data using a selective search algorithm, each candidate region is input to a separate CNN to extract features of the candidate region, thereby classifying the types of objects present in each candidate region. , By narrowing the bounding box for the object, the detection position of the object can be precisely corrected.
3차원 데이터 생성부(204)는 모션이 인식된 복수의 모션 데이터를 동일한 신체 부위 및 관절 포인트를 근거로 하여 병합하여 3차원 데이터를 생성할 수 있다.(S13) 예를 들어, 3차원 데이터 생성부(204)는 모션이 인식된 복수의 모션 데이터 각각에 대해서 후보 영역 간의 경계 좌표를 동기화한 후, 관절 포인트에 대응하는 좌표를 중첩시켜 3차원 데이터를 생성할 수 있다.The 3D
앞서 언급한 바와 같이 복수의 카메라 모듈(100)을 통해서 이용자의 모션을 전 방향에서 촬영이 되기 때문에 3차원 데이터 생성부(204)는 복수의 모션 데이터에서 공통의 좌표끼리 병합을 함으로서 이용자의 전 방향에 대한 모션이 반영되는 3차원 데이터를 생성할 수 있다.As mentioned above, since the user's motion is photographed in all directions through the plurality of
좌표 변환부(205)는 3차원 데이터의 좌표를 시뮬레이션 공간의 좌표에 매칭되도록 변환할 수 있다.(S13)The coordinate
가상 캐릭터 생성부(206)는 좌표가 변환된 3차원 데이터를 근거로 하여 시뮬레이션 공간에 가상 캐릭터를 생성할 수 있고,(S14) 해당 가상 캐릭터는 표시 단말(300)의 표시부에도 표시될 수 있다. 가상 캐릭터 생성부(206)는 좌표가 변환된 3차원 데이터의 신체 부위 별 좌표들 각각에 대응하도록 가상 캐릭터를 생성할 수 있다. 또한 표시 단말(300) 표시부에는 시뮬레이션 공간이 구현이 된 배경 영상이 표시될 수 있다. 표시 단말(300) 표시부에는 배경 영상과 배경 영상에 포함되어 있는 가상 캐릭터가 함께 출력될 수 있다. The virtual
가상 캐릭터는 이용자의 모션에 대응하여 실시간으로 동일한 모션을 취할 수 있다.The virtual character can take the same motion in real time in response to the user's motion.
이용자는 헤드 마운트 디스플레이(HMD)를 착용하여 시뮬레이션 공간에서 가상 현실을 체험할 수 있다. HMD 좌표 매칭부(207)는 HMD의 좌표를 가상 캐릭터의 머리 부분의 좌표에 매칭시킬 수 있다.Users can experience virtual reality in a simulation space by wearing a head mounted display (HMD). The HMD coordinate matching
이처럼 본 발명에 따른 가상 현실 체험 장치(200)는 복수의 카메라 모듈(100)을 통해서 이용자를 전 방향에서 촬영하여 모션 데이터를 생성하고, 딥러닝 알고리즘을 통해서 해당 모션 데이터를 병합하고 3차원 데이터를 통해서 이용자의 모션을 취하는 가상의 캐릭터를 생성함으로서, 이용자가 더 생동감 있는 가상 현실 체험을 할 수 있도록 한다.As described above, the virtual
상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above-described embodiments are for illustrative purposes only, and those of ordinary skill in the art to which the above-described embodiments belong can easily transform into other specific forms without changing the technical spirit or essential features of the above-described embodiments. You can understand. Therefore, it should be understood that the above-described embodiments are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.
본 명세서를 통해 보호 받고자 하는 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected through the present specification is indicated by the claims to be described later rather than the detailed description, and should be interpreted as including all changes or modified forms derived from the meaning and scope of the claims and the concept of equivalents thereof.
100: 카메라 단말 202: 신체 데이터 생성부
200: 가상 현실 체험 장치 203: 모션 인식부
201: 모션 데이터 수신부 204: 3차원 데이터 생성부100: camera terminal 202: body data generation unit
200: virtual reality experience device 203: motion recognition unit
201: motion data receiving unit 204: 3D data generating unit
Claims (7)
복수의 카메라 모듈로부터 상기 이용자의 모션을 상이한 각도에서 촬영한 복수의 모션 데이터를 수신하는 모션 데이터 수신부;
상기 복수의 모션 데이터 각각으로부터 상기 이용자의 머리 부분을 제외한 신체를 추출하여 복수의 신체 데이터를 생성하는 신체 데이터 생성부;
상기 복수의 신체 데이터를 신체 부위 별로 분할하여 복수의 후보 영역을 생성하고, 딥러닝 알고리즘을 이용하여 해당 후보 영역 각각에 대한 특징을 추출하여 해당 후보 영역에 포함되어 있는 관절 포인트를 인식하고, 해당 관절 포인트를 기준으로 상기 이용자의 모션을 인식하는 모션 인식부;
모션이 인식된 상기 복수의 모션 데이터를 동일한 신체 부위 및 관절 포인트를 근거로 하여 병합하여 3차원 데이터를 생성하는 3차원 데이터 생성부;
상기 3차원 데이터의 좌표를 상기 시뮬레이션 공간의 좌표에 매칭되도록 변환하는 좌표 변환부;
좌표가 변환된 상기 3차원 데이터를 근거로 하여 상기 시뮬레이션 공간에 가상 캐릭터를 생성하는 가상 캐릭터 생성부; 및
상기 HMD의 좌표를 상기 가상 캐릭터의 머리 부분의 좌표에 매칭시키는 HMD 좌표 매칭부를 포함하고,
상기 복수의 카메라 모듈은 적어도 4개이고,
상기 가상 캐릭터 생성부는 좌표가 변환된 상기 3차원 데이터의 신체 부위 별 좌표들 각각에 대응하도록 상기 가상 캐릭터를 생성하고,
상기 가상 캐릭터는 상기 이용자의 신체 부위 각각의 모션에 따라 실시간으로 동일한 모션을 취하고,
상기 3차원 데이터 생성부는 모션이 인식된 상기 복수의 모션 데이터 각각에 대해서 후보 영역 간의 경계 좌표를 동기화한 후, 상기 관절 포인트에 대응하는 좌표를 중첩시켜 3차원 데이터를 생성하는 것을 특징으로 하는 가상 현실 체험 장치.In a virtual reality experience device for providing a virtual reality experience to the user by recognizing a motion of a user wearing a head mount display (HMD) in a simulation space,
A motion data receiving unit for receiving a plurality of motion data photographing the motion of the user from different angles from a plurality of camera modules;
A body data generator configured to generate a plurality of body data by extracting a body excluding the user's head from each of the plurality of motion data;
The plurality of body data is divided for each body part to generate a plurality of candidate regions, and a feature for each of the candidate regions is extracted using a deep learning algorithm to recognize joint points included in the candidate region, and the corresponding joint A motion recognition unit for recognizing a motion of the user based on a point;
A 3D data generator configured to generate 3D data by merging the plurality of motion data for which motion is recognized based on the same body part and joint point;
A coordinate conversion unit converting the coordinates of the 3D data to match the coordinates of the simulation space;
A virtual character generation unit that generates a virtual character in the simulation space based on the 3D data whose coordinates have been converted; And
An HMD coordinate matching unit matching the coordinates of the HMD to the coordinates of the head of the virtual character,
The plurality of camera modules is at least 4,
The virtual character generation unit generates the virtual character to correspond to each of the coordinates of each body part of the 3D data whose coordinates have been converted,
The virtual character takes the same motion in real time according to the motion of each body part of the user,
The 3D data generator generates 3D data by synchronizing boundary coordinates between candidate regions for each of the plurality of motion data for which motion is recognized, and then overlapping coordinates corresponding to the joint points to generate 3D data. Experience device.
모션 데이터 수신부가 복수의 카메라 모듈로부터 상기 이용자의 모션을 상이한 각도에서 촬영한 복수의 모션 데이터를 수신하는 단계;
신체 데이터 생성부가 상기 복수의 모션 데이터 각각으로부터 상기 이용자의 머리 부분을 제외한 신체를 추출하여 복수의 신체 데이터를 생성하는 단계;
모션 인식부가 상기 복수의 신체 데이터를 신체 부위 별로 분할하여 복수의 후보 영역을 생성하고, 딥러닝 알고리즘을 이용하여 해당 후보 영역 각각에 대한 특징을 추출하여 해당 후보 영역에 포함되어 있는 관절 포인트를 인식하고, 해당 관절 포인트를 기준으로 상기 이용자의 모션을 인식하는 단계;
3차원 데이터 생성부가 모션이 인식된 상기 복수의 모션 데이터를 동일한 신체 부위 및 관절 포인트를 근거로 하여 병합하여 3차원 데이터를 생성하는 단계;
좌표 변환부가 상기 3차원 데이터의 좌표를 상기 시뮬레이션 공간의 좌표에 매칭되도록 변환하는 단계;
가상 캐릭터 생성부가 좌표가 변환된 상기 3차원 데이터를 근거로 하여 상기 시뮬레이션 공간에 가상 캐릭터를 생성하는 단계; 및
HMD 좌표 매칭부가 상기 HMD의 좌표를 상기 가상 캐릭터의 머리 부분의 좌표에 매칭시키는 단계를 포함하고,
상기 복수의 카메라 모듈은 적어도 4개이고,
상기 가상 캐릭터를 생성하는 단계에서 상기 가상 캐릭터 생성부는 좌표가 변환된 상기 3차원 데이터의 신체 부위 별 좌표들 각각에 대응하도록 상기 가상 캐릭터를 생성하고,
상기 가상 캐릭터는 상기 이용자의 신체 부위 각각의 모션에 따라 실시간으로 동일한 모션을 취하고,
상기 3차원 데이터를 생성하는 단계에서 상기 3차원 데이터 생성부는 모션이 인식된 상기 복수의 모션 데이터 각각에 대해서 후보 영역 간의 경계 좌표를 동기화한 후, 상기 관절 포인트에 대응하는 좌표를 중첩시켜 3차원 데이터를 생성하는 것을 특징으로 하는 가상 현실 체험 방법.
상기 가상 캐릭터는 상기 이용자의 모션에 대응하여 실시간으로 동일한 모션을 취하는 것을 특징으로 하는 가상 현실 체험 방법.
In a virtual reality experience method using a virtual reality experience device that recognizes a motion of a user wearing a head mount display (HMD) in a simulation space and provides a virtual reality experience to the user,
Receiving, by a motion data receiving unit, a plurality of motion data photographing a motion of the user from a plurality of camera modules at different angles;
Generating a plurality of body data by extracting a body excluding the user's head from each of the plurality of motion data by a body data generation unit;
A motion recognition unit divides the plurality of body data for each body part to generate a plurality of candidate regions, extracts features for each of the candidate regions using a deep learning algorithm, and recognizes joint points included in the candidate region. Recognizing the motion of the user based on the joint point;
Generating 3D data by merging the plurality of motion data for which motion is recognized by a 3D data generator based on the same body part and joint point;
Converting, by a coordinate conversion unit, the coordinates of the 3D data to match the coordinates of the simulation space;
Generating, by a virtual character generation unit, a virtual character in the simulation space based on the 3D data whose coordinates are converted; And
An HMD coordinate matching unit comprising the step of matching the coordinates of the HMD to the coordinates of the head of the virtual character,
The plurality of camera modules is at least 4,
In the step of generating the virtual character, the virtual character generation unit generates the virtual character so as to correspond to each of the coordinates of each body part of the 3D data whose coordinates have been converted,
The virtual character takes the same motion in real time according to the motion of each body part of the user,
In the step of generating the 3D data, the 3D data generation unit synchronizes boundary coordinates between candidate regions with respect to each of the plurality of motion data for which motion is recognized, and then overlaps the coordinates corresponding to the joint points to generate 3D data. Virtual reality experience method, characterized in that to generate a.
The virtual reality experience method, characterized in that the virtual character takes the same motion in real time in response to the motion of the user.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20200039042 | 2020-03-31 | ||
KR1020200039042 | 2020-03-31 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102234646B1 true KR102234646B1 (en) | 2021-04-01 |
Family
ID=75441260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200101433A KR102234646B1 (en) | 2020-03-31 | 2020-08-12 | Apparatus and method for experience of virtual reality |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102234646B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102433670B1 (en) * | 2021-07-28 | 2022-08-18 | 에스지 주식회사 | System for providing virtual environment based on location of space using real image |
WO2023277586A1 (en) * | 2021-06-30 | 2023-01-05 | 옥재윤 | Motion tracking system using deep learning technology |
KR20230004280A (en) * | 2021-06-30 | 2023-01-06 | 옥재윤 | System for tracking motion using deep learning technic |
KR102502116B1 (en) | 2022-08-09 | 2023-02-23 | 에스지 주식회사 | Virtual environment providing system based on virtual reality and augmented reality |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020017576A (en) * | 2000-08-31 | 2002-03-07 | 이준서 | System and method for motion capture using camera image |
KR20150024899A (en) * | 2012-06-21 | 2015-03-09 | 마이크로소프트 코포레이션 | Avatar construction using depth camera |
KR20170055788A (en) * | 2015-11-12 | 2017-05-22 | 주식회사 글로브포인트 | Manager terminal included in the educational content production system and Method for generating virtual body and Method for storage virtual body information using the same |
-
2020
- 2020-08-12 KR KR1020200101433A patent/KR102234646B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020017576A (en) * | 2000-08-31 | 2002-03-07 | 이준서 | System and method for motion capture using camera image |
KR20150024899A (en) * | 2012-06-21 | 2015-03-09 | 마이크로소프트 코포레이션 | Avatar construction using depth camera |
KR20170055788A (en) * | 2015-11-12 | 2017-05-22 | 주식회사 글로브포인트 | Manager terminal included in the educational content production system and Method for generating virtual body and Method for storage virtual body information using the same |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023277586A1 (en) * | 2021-06-30 | 2023-01-05 | 옥재윤 | Motion tracking system using deep learning technology |
KR20230004280A (en) * | 2021-06-30 | 2023-01-06 | 옥재윤 | System for tracking motion using deep learning technic |
KR102622981B1 (en) | 2021-06-30 | 2024-01-10 | 옥재윤 | System for tracking motion using deep learning technic |
KR102433670B1 (en) * | 2021-07-28 | 2022-08-18 | 에스지 주식회사 | System for providing virtual environment based on location of space using real image |
KR102502116B1 (en) | 2022-08-09 | 2023-02-23 | 에스지 주식회사 | Virtual environment providing system based on virtual reality and augmented reality |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102234646B1 (en) | Apparatus and method for experience of virtual reality | |
US11710351B2 (en) | Action recognition method and apparatus, and human-machine interaction method and apparatus | |
US11501574B2 (en) | Multi-person pose recognition method and apparatus, electronic device, and storage medium | |
EP2941736B1 (en) | Mobile device based text detection and tracking | |
US11430265B2 (en) | Video-based human behavior recognition method, apparatus, device and storage medium | |
CN111950424B (en) | Video data processing method and device, computer and readable storage medium | |
US11398044B2 (en) | Method for face modeling and related products | |
US10922536B2 (en) | Age classification of humans based on image depth and human pose | |
CN111768479B (en) | Image processing method, image processing apparatus, computer device, and storage medium | |
CN110807361A (en) | Human body recognition method and device, computer equipment and storage medium | |
JP2001282456A (en) | Man-machine interface system | |
JP2017505965A (en) | Real-time 3D gesture recognition and tracking system for mobile devices | |
CN111353336B (en) | Image processing method, device and equipment | |
CN108305321B (en) | Three-dimensional human hand 3D skeleton model real-time reconstruction method and device based on binocular color imaging system | |
CN113395542A (en) | Video generation method and device based on artificial intelligence, computer equipment and medium | |
CN113392270A (en) | Video processing method, video processing device, computer equipment and storage medium | |
Indrawan et al. | Face recognition for social media with mobile cloud computing | |
Goel et al. | Raspberry pi based reader for blind people | |
CN107092347B (en) | Augmented reality interaction system and image processing method | |
KR101520889B1 (en) | Digilog Book System Using Distance Information Between Object and Hand Device and Implementation Method Therof | |
KR102092630B1 (en) | Apparatus and method for recognizing motion in video | |
CN113965550A (en) | Intelligent interactive remote auxiliary video system | |
He et al. | A Single-Frame Face Anti-Spoofing Algorithm With Circular CDC and Multi-Scale Spatial Attention | |
US20240037777A1 (en) | Information processing apparatus, information processing system, information processing method, and non-transitory computer readable medium | |
KR20230068635A (en) | Apparatus and method for recognizing motion in video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |