KR102234646B1 - Apparatus and method for experience of virtual reality - Google Patents

Apparatus and method for experience of virtual reality Download PDF

Info

Publication number
KR102234646B1
KR102234646B1 KR1020200101433A KR20200101433A KR102234646B1 KR 102234646 B1 KR102234646 B1 KR 102234646B1 KR 1020200101433 A KR1020200101433 A KR 1020200101433A KR 20200101433 A KR20200101433 A KR 20200101433A KR 102234646 B1 KR102234646 B1 KR 102234646B1
Authority
KR
South Korea
Prior art keywords
motion
data
user
coordinates
virtual character
Prior art date
Application number
KR1020200101433A
Other languages
Korean (ko)
Inventor
권귀태
Original Assignee
(주)케이넷 이엔지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)케이넷 이엔지 filed Critical (주)케이넷 이엔지
Application granted granted Critical
Publication of KR102234646B1 publication Critical patent/KR102234646B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays

Abstract

According to an embodiment of the present invention, a virtual reality experience apparatus and method for recognizing the motion of a user wearing a head-mounted display (HMD) in a simulation space and providing virtual reality to the user. The virtual reality experience apparatus comprises: a motion data reception unit for receiving, from a plurality of camera modules, pieces of motion data obtained by capturing the motion of the user at different angles; a body data generation unit for generating pieces of body data by extracting the body excluding the head of the user from each of the pieces of motion data; a motion recognition unit which divides the pieces of body data for each body part to generate a plurality of candidate regions, extracts features for each candidate area by using a deep learning algorithm to recognize joint points included in the candidate area, and recognizes the motion of the user based on the recognized joint point; a three-dimensional data generation unit for generating three-dimensional data by combining the pieces of motion data for which motion is recognized based on the same body parts and joint points; a coordinate conversion unit for converting the coordinates of the three-dimensional data to match those in the simulation space; and a virtual character generation unit for generating a virtual character in the simulation space based on the three-dimensional data of which the coordinates are converted. The virtual character takes the same motion in real time in response to the motion of the user.

Description

가상 현실 체험 장치 및 방법{APPARATUS AND METHOD FOR EXPERIENCE OF VIRTUAL REALITY}Virtual reality experience device and method {APPARATUS AND METHOD FOR EXPERIENCE OF VIRTUAL REALITY}

본 발명의 가상 현실 체험 장치 및 방법에 관한 것으로 보다 상세하게는 딥러닝 알고리즘을 통해서 상이한 각도로 이용자를 촬영하는 복수의 카메라로부터 촬영된 영상 데이터를 병합하여 이용자의 모션과 동일한 모션을 취하는 캐릭터를 생성하여 이용자가 가상 현실 체험을 하도록 하는 가상 현실 체험 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for experiencing virtual reality, and more specifically, through a deep learning algorithm, a character that takes the same motion as the user's motion is created by merging image data taken from a plurality of cameras that photograph the user at different angles. Thus, it relates to a virtual reality experience device and method for allowing a user to experience virtual reality.

가상현실(VR)이란 컴퓨터가 만든 가상세계 속에서 이용자가 실제로 상호작용을 하는 것처럼 만들어주는 기술을 뜻한다. 가상현실 시장이 무르익으면서, 새롭게 떠오르고 있는 가상현실 게임 시장을 선점하기 위한 글로벌 정 보통신기술(ICT) 업체들의 경쟁도 뜨겁다. 일반적으로 가상현실 게임은 가상공간에서 게임 이용자가 직접 가상 현실 속의 캐릭터가 되어, 실제 상황처럼 게임을 즐길 수 있도록 개발된다. Virtual reality (VR) refers to a technology that makes users feel as if they are actually interacting in a virtual world created by a computer. As the virtual reality market matures, competition among global ICT companies to preoccupy the emerging virtual reality game market is also fierce. In general, virtual reality games are developed so that game users can directly become characters in virtual reality in a virtual space and enjoy the game like a real situation.

본 명세서에서는 이러한 가상 현실을 딥러닝 알고리즘을 이용해서 구현하는 방법을 소개하고자 한다.In this specification, we will introduce a method of implementing such a virtual reality using a deep learning algorithm.

[선행문헌] [Prior literature]

공개 특허 10-2018-0086938Publication Patent 10-2018-0086938

본 발명의 가상 현실 체험 장치 및 방법에 관한 것으로 보다 상세하게는 딥러닝 알고리즘을 통해서 상이한 각도로 이용자를 촬영하는 복수의 카메라로부터 촬영된 영상 데이터를 병합하여 이용자의 모션과 동일한 모션을 취하는 캐릭터를 생성하여 이용자가 가상 현실 체험을 하도록 하는 가상 현실 체험 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for experiencing virtual reality, and more specifically, through a deep learning algorithm, a character that takes the same motion as the user's motion is created by merging image data taken from a plurality of cameras that photograph the user at different angles. Thus, it relates to a virtual reality experience device and method for allowing a user to experience virtual reality.

본 발명의 일 실시예에 따른 시뮬레이션 공간에서 HMD(Head Mount Display)를 착용하고 있는 이용자의 모션을 인식하여 상기 이용자에게 가상 현실 체험을 제공하는 가상 현실 체험 장치는 복수의 카메라 모듈로부터 상기 이용자의 모션을 상이한 각도에서 촬영한 복수의 모션 데이터를 수신하는 모션 데이터 수신부, 상기 복수의 모션 데이터 각각으로부터 상기 이용자의 머리 부분을 제외한 신체를 추출하여 복수의 신체 데이터를 생성하는 신체 데이터 생성부, 상기 복수의 신체 데이터를 신체 부위 별로 분할하여 복수의 후보 영역을 생성하고, 딥러닝 알고리즘을 이용하여 해당 후보 영역 각각에 대한 특징을 추출하여 해당 후보 영역에 포함되어 있는 관절 포인트를 인식하고, 해당 관절 포인트를 기준으로 상기 이용자의 모션을 인식하는 모션 인식부, 모션이 인식된 상기 복수의 모션 데이터를 동일한 신체 부위 및 관절 포인트를 근거로 하여 병합하여 3차원 데이터를 생성하는 3차원 데이터 생성부, 상기 3차원 데이터의 좌표를 상기 시뮬레이션 공간의 좌표에 매칭되도록 변환하는 좌표 변환부, 및 좌표가 변환된 상기 3차원 데이터를 근거로 하여 상기 시뮬레이션 공간에 가상 캐릭터를 생성하는 가상 캐릭터 생성부를 포함하고, 상기 가상 캐릭터는 상기 이용자의 모션에 대응하여 실시간으로 동일한 모션을 취하는 것을 특징으로 한다.A virtual reality experience device for providing a virtual reality experience to the user by recognizing the motion of a user wearing a head mount display (HMD) in a simulation space according to an embodiment of the present invention is a motion of the user from a plurality of camera modules. A motion data receiving unit receiving a plurality of motion data photographed at different angles, a body data generating unit generating a plurality of body data by extracting a body excluding the user's head from each of the plurality of motion data, the plurality of The body data is divided by body part to generate a plurality of candidate regions, and a feature for each of the candidate regions is extracted using a deep learning algorithm to recognize joint points included in the candidate region, and the joint points are referenced. A motion recognition unit that recognizes the user's motion, a three-dimensional data generation unit that generates three-dimensional data by merging the plurality of motion data on which the motion is recognized based on the same body part and joint point, and the three-dimensional data A coordinate conversion unit that converts the coordinates of to match the coordinates of the simulation space, and a virtual character generation unit that generates a virtual character in the simulation space based on the three-dimensional data whose coordinates are converted, wherein the virtual character is It is characterized in that the same motion is taken in real time in response to the motion of the user.

본 발명의 일 실시예에 따른 가상 현실 체험 장치는 상기 HMD의 좌표를 상기 가상 캐릭터의 머리 부분의 좌표에 매칭시키는 HMD 좌표 매칭부를 더 포함하고, 상기 복수의 카메라 모듈은 적어도 4개이다.The virtual reality experience apparatus according to an embodiment of the present invention further includes an HMD coordinate matching unit for matching the coordinates of the HMD to the coordinates of the head of the virtual character, and the plurality of camera modules is at least four.

상기 가상 캐릭터 생성부는 좌표가 변환된 상기 3차원 데이터의 신체 부위 별 좌표들 각각에 대응하도록 상기 가상 캐릭터를 생성하고, 상기 가상 캐릭터는 상기 이용자의 신체 부위 각각의 모션에 따라 실시간으로 동일한 모션을 취하는 것을 특징으로 한다.The virtual character generation unit generates the virtual character to correspond to each of the coordinates of each body part of the 3D data whose coordinates are converted, and the virtual character takes the same motion in real time according to the motion of each body part of the user. It is characterized by that.

상기 3차원 데이터 생성부는 모션이 인식된 상기 복수의 모션 데이터 각각에 대해서 후보 영역 간의 경계 좌표를 동기화한 후, 상기 관절 포인트에 대응하는 좌표를 중첩시켜 3차원 데이터를 생성한다.The 3D data generator generates 3D data by synchronizing boundary coordinates between candidate regions with respect to each of the plurality of motion data for which motion is recognized, and then overlapping coordinates corresponding to the joint points.

본 발명의 일 실시예에 따른 시뮬레이션 공간에서 HMD(Head Mount Display)를 착용하고 있는 이용자의 모션을 인식하여 상기 이용자에게 가상 현실 체험을 제공하는 가상 현실 체험 장치를 이용하는 가상 현실 체험 방법은 모션 데이터 수신부가 복수의 카메라 모듈로부터 상기 이용자의 모션을 상이한 각도에서 촬영한 복수의 모션 데이터를 수신하는 단계, 신체 데이터 생성부가 상기 복수의 모션 데이터 각각으로부터 상기 이용자의 머리 부분을 제외한 신체를 추출하여 복수의 신체 데이터를 생성하는 단계, 모션 인식부가 상기 복수의 신체 데이터를 신체 부위 별로 분할하여 복수의 후보 영역을 생성하고, 딥러닝 알고리즘을 이용하여 해당 후보 영역 각각에 대한 특징을 추출하여 해당 후보 영역에 포함되어 있는 관절 포인트를 인식하고, 해당 관절 포인트를 기준으로 상기 이용자의 모션을 인식하는 단계, 좌표 변환부가 상기 3차원 데이터의 좌표를 상기 시뮬레이션 공간의 좌표에 매칭되도록 변환하는 단계, 및 가상 캐릭터 생성부가 좌표가 변환된 상기 3차원 데이터를 근거로 하여 상기 시뮬레이션 공간에 가상 캐릭터를 생성하는 단계를 포함하고, 상기 가상 캐릭터는 상기 이용자의 모션에 대응하여 실시간으로 동일한 모션을 취하는 것을 특징으로 한다.A virtual reality experience method using a virtual reality experience device that provides a virtual reality experience to the user by recognizing the motion of a user wearing a head mount display (HMD) in a simulation space according to an embodiment of the present invention is a motion data receiving unit. Receiving a plurality of motion data photographing the motion of the user at different angles from a plurality of camera modules, a body data generation unit extracting a body other than the user's head from each of the plurality of motion data Generating data, the motion recognition unit generates a plurality of candidate regions by dividing the plurality of body data for each body part, and extracts features for each of the candidate regions using a deep learning algorithm, and is included in the candidate region. Recognizing an existing joint point, recognizing the motion of the user based on the corresponding joint point, converting the coordinates of the 3D data to match the coordinates of the simulation space by a coordinate conversion unit, and the coordinates of the virtual character generation unit And generating a virtual character in the simulation space based on the converted 3D data, wherein the virtual character takes the same motion in real time in response to the motion of the user.

본 발명의 일 실시예에 따른 가상 현실 체험 방법은 HMD 좌표 매칭부가 상기 HMD의 좌표를 상기 가상 캐릭터의 머리 부분의 좌표에 매칭시키는 단계를 더 포함하고, 상기 복수의 카메라 모듈은 적어도 4개이다.The virtual reality experience method according to an embodiment of the present invention further includes the step of matching, by an HMD coordinate matching unit, the coordinates of the HMD with the coordinates of the head of the virtual character, and the plurality of camera modules is at least four.

상기 가상 캐릭터를 생성하는 단계에서 상기 가상 캐릭터 생성부는 좌표가 변환된 상기 3차원 데이터의 신체 부위 별 좌표들 각각에 대응하도록 상기 가상 캐릭터를 생성하고, 상기 가상 캐릭터는 상기 이용자의 신체 부위 각각의 모션에 따라 실시간으로 동일한 모션을 취하고, 상기 3차원 데이터를 생성하는 단계에서 상기 3차원 데이터 생성부는 모션이 인식된 상기 복수의 모션 데이터 각각에 대해서 후보 영역 간의 경계 좌표를 동기화한 후, 상기 관절 포인트에 대응하는 좌표를 중첩시켜 3차원 데이터를 생성한다.In the step of creating the virtual character, the virtual character generation unit generates the virtual character to correspond to each of the coordinates of each body part of the 3D data whose coordinates have been converted, and the virtual character is a motion of each body part of the user. In the step of taking the same motion in real time according to and generating the 3D data, the 3D data generator synchronizes boundary coordinates between candidate regions for each of the plurality of motion data for which motion is recognized, and then the joint point 3D data is created by overlapping the corresponding coordinates.

본 발명에 따른 가상 현실 체험 장치는 복수의 카메라 모듈을 통해서 이용자를 전 방향에서 촬영하여 모션 데이터를 생성하고, 딥러닝 알고리즘을 통해서 해당 모션 데이터를 병합하고 3차원 데이터를 통해서 이용자의 모션을 취하는 가상의 캐릭터를 생성함으로서, 이용자가 더 생동감 있는 가상 현실 체험을 할 수 있도록 한다.The virtual reality experience device according to the present invention creates motion data by photographing a user from all directions through a plurality of camera modules, merges the motion data through a deep learning algorithm, and takes the user's motion through 3D data. By creating a character of, it allows users to experience a more vibrant virtual reality.

도 1은 본 발명의 일 실시예에 따른 가상 현실 체험 시스템의 개략도이다.
도 2는 본 발명의 일 실시예에 따른 가상 현실 체험 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 가상 현실 체험 방법의 순서도이다.
1 is a schematic diagram of a virtual reality experience system according to an embodiment of the present invention.
2 is a block diagram of a virtual reality experience device according to an embodiment of the present invention.
3 is a flowchart of a virtual reality experience method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Throughout the specification, when a part is said to be "connected" with another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. Refer to the accompanying drawings. Hereinafter, the present invention will be described in detail.

도 1은 본 발명의 일 실시예에 따른 가상 현실 체험 시스템(1000)의 개략도이다.1 is a schematic diagram of a virtual reality experience system 1000 according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 가상 현실 체험 시스템(1000)은 카메라 모듈(100), 표시 단말(300), 및 이와 네트워크(400)로 연계되는 가상 현실 체험 장치(200)를 포함할 수 있다.Referring to FIG. 1, a virtual reality experience system 1000 according to an embodiment of the present invention includes a camera module 100, a display terminal 300, and a virtual reality experience device 200 connected thereto through a network 400. It may include.

카메라 모듈(100)은 이용자가 가상 현실 체험을 하고 있는 시뮬레이션 공간에 설치되어 있는 모듈일 수 있다. 카메라 모듈(100)은 복수개로 구성될 수 있다. 복수의 카메라 모듈(100)은 각각 이용자를 상이한 각도로 촬영하여 이용자의 모션 데이터를 생성할 수 있다. 이에 대해서는 도 2에서 좀 더 자세히 설명하도록 한다.The camera module 100 may be a module installed in a simulation space in which a user experiences virtual reality. The camera module 100 may be configured in plural. The plurality of camera modules 100 may each photograph the user at a different angle to generate motion data of the user. This will be described in more detail in FIG. 2.

가상 현실 체험 장치(200)는 네트워크(400)를 통해서 카메라 모듈(100)로부터 데이터를 수신하고 이를 가공한 결과 데이터를 표시 단말(300)에 출력할 수 있다. 가상 현실 체험 장치(200)는 서버일 수 있다.The virtual reality experience device 200 may receive data from the camera module 100 through the network 400 and output the processed result data to the display terminal 300. The virtual reality experience device 200 may be a server.

표시 단말(300)은 시뮬레이션 공간 내에 설치되어 있는 단말일 수 있다. 이용자는 표시 단말(300)에서 나오는 영상을 통해서 가상 체험을 할 수 있다.The display terminal 300 may be a terminal installed in the simulation space. A user can experience a virtual experience through an image from the display terminal 300.

표시 단말(300)은 TV와 같은 표시부의 크기가 큰 디스플레이 장치일 수 있다. 다만 표시 단말(300)은 이에 한정되지 않으며, 표시 단말(300)은 일반적인 데스크탑 컴퓨터, 네비게이션, 노트북, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿PC 등과 같은 전자 장치를 포함할 수 있다. 전자 장치는 하나 이상의 일반적이거나 특수한 목적의 프로세서, 메모리, 스토리지, 및/또는 네트워킹 컴포넌트(유선 또는 무선)를 가질 수 있다.The display terminal 300 may be a display device having a large display unit such as a TV. However, the display terminal 300 is not limited thereto, and the display terminal 300 is an electronic device such as a general desktop computer, a navigation system, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), and a tablet PC. It may include. An electronic device may have one or more general or special purpose processors, memory, storage, and/or networking components (wired or wireless).

네트워크(400)의 통신 방식은 제한되지 않으며, 네트워크(400)가 포함할 수 있는 통신망의 일 예로는 이동통신망, 유선 온라인, 무선 온라인, 방송망을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(400)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 온라인 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다.The communication method of the network 400 is not limited, and examples of the communication network that the network 400 may include include not only a mobile communication network, a wired online, a wireless online, a communication method using a broadcasting network, but also short-range wireless communication between devices. Can be included. For example, the network 400 includes a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), and a broadband network (BBN). , Online, and the like.

도 2는 본 발명의 일 실시예에 따른 가상 현실 체험 장치(200)의 블록도이고, 도 3은 본 발명의 일 실시예에 따른 가상 현실 체험 방법의 순서도이다.2 is a block diagram of a virtual reality experience apparatus 200 according to an embodiment of the present invention, and FIG. 3 is a flow chart of a virtual reality experience method according to an embodiment of the present invention.

도 2 및 도 3을 참조하면, 본 발명의 일 실시예에 따른 가상 현실 체험 장치(200)는 모션 데이터 수신부(201), 신체 데이터 생성부(202), 모션 인식부(203), 3차원 데이터 생성부(204), 좌표 변환부(205), 가상 캐릭터 생성부(206), 및 HMD 좌표 매칭부(207)를 포함할 수 있다.2 and 3, a virtual reality experience device 200 according to an embodiment of the present invention includes a motion data receiving unit 201, a body data generating unit 202, a motion recognition unit 203, and 3D data. A generation unit 204, a coordinate conversion unit 205, a virtual character generation unit 206, and an HMD coordinate matching unit 207 may be included.

모션 데이터 수신부(201)는 복수의 카메라 모듈(100)로부터 이용자의 모션을 상이한 각도에서 촬영한 복수의 모션 데이터를 수신할 수 있다.(S10) The motion data receiving unit 201 may receive a plurality of motion data photographing a user's motion from different angles from the plurality of camera modules 100 (S10).

복수의 카메라 모듈(100)은 적어도 4개일 수 있다. 예를 들어, 카메라 모듈(100)의 시야각은 약 120도일 수 있고, 이 경우 4개의 카메라 모듈(100)을 통해서 이용자를 전 방향에서 촬영할 수 있다. There may be at least four camera modules 100. For example, the viewing angle of the camera module 100 may be about 120 degrees, and in this case, the user may be photographed from all directions through the four camera modules 100.

신체 데이터 생성부(202)는 복수의 모션 데이터 각각으로부터 이용자의 머리 부분을 제외한 신체를 추출하여 복수의 신체 데이터를 생성할 수 있다.(S11) 신체 데이터 생성부(202)는 수신되는 모션 데이터에서 인체가 있는지 여부를 감지하여, 인체가 없는 경우, 신체 데이터를 생성하지 않아 모션 인식의 과정이 진행되지 않는다.The body data generation unit 202 may generate a plurality of body data by extracting a body excluding the user's head from each of the plurality of motion data. (S11) The body data generation unit 202 may generate a plurality of body data from the received motion data. It detects whether there is a human body, and if there is no human body, the process of motion recognition does not proceed because body data is not generated.

본 발명의 일 예로, 신체 데이터 생성부(202)가 모션 데이터로부터 대상자의 신체를 감지하여 추출하는 방식은 공지의 대상체 감지 알고리즘을 채택할 수 있다. 해당 알고리즘은 가시광선 영상 정보 또는 열화상 영상 정보를 이용하여 신체를 감지할 수 있고, 두 영상 정보를 동시에 활용하여 신체 감지의 정확성을 향상시킬 수 있다.As an example of the present invention, a method in which the body data generator 202 detects and extracts a subject's body from motion data may employ a known object detection algorithm. The algorithm may detect a body using visible ray image information or thermal image information, and improve accuracy of body detection by using both image information at the same time.

모션 인식부(203)는 복수의 신체 데이터를 신체 부위 별로 분할하여 복수의 후보 영역을 생성할 수 있다..The motion recognition unit 203 may generate a plurality of candidate regions by dividing a plurality of body data for each body part.

모션 인식부(203)는 신체 데이터에 포함되어 있는 이용자의 신체 부위를 감지하고 감지된 신체 부위 별로 분할하여 후보 영역을 생성할 수 있다. 신체 부위에는 이용자의 머리 부분이 제외된다.The motion recognition unit 203 may generate a candidate region by detecting a user's body part included in the body data and dividing it for each detected body part. The body part excludes the user's head.

후보 영역의 생성은 모션 데이터에서 신체 부위가 있을 만한 영역들을 선택적 탐색 알고리즘(Selective Search Algorithm) 통해서 이루어질 수 있다.The generation of the candidate region may be performed through a Selective Search Algorithm for regions in motion data where there may be body parts.

모션 인식부(203)는 복수의 후보 영역을 생성한 후, 딥러닝 알고리즘을 이용하여 해당 후보 영역 각각에 대한 특징을 추출하여 해당 후보 영역에 포함되어 있는 관절 포인트를 인식하고, 해당 관절 포인트를 기준으로 이용자의 모션을 인식할 수 있다.(S12)After generating a plurality of candidate regions, the motion recognition unit 203 extracts features for each of the candidate regions using a deep learning algorithm, recognizes joint points included in the candidate regions, and refers to the joint points. The user's motion can be recognized (S12).

딥 러닝 알고리즘은 R-CNN(Region Proposal-Convolutional Neural Network) 신경망을 통한 알고리즘일 수 있다. R-CNN은 Region Proposal 기반의 CNN 기법으로서, 이미지 내에서 추출한 후보 영역(Region Proposal)의 특징을 이용하여 후보 영역 내 객체가 무엇인지 분류하고 객체의 위치를 보정하는 기법이다. 모션 인식부(203)는 모션 데이터에 포함된 각 셀들에 대해 부여된 셀 라벨링 정보를 학습 데이터로 사용하여 전처리 과정을 거쳐서 데이터 화면 크기가 조절된 후보 영역 각각의 셀들을 판별하는 R-CNN 신경망을 통한 알고리즘을 통하여 해당 후보 영역에 포함되어 있는 신체 부위를 인식할 수 있다. The deep learning algorithm may be an algorithm through a region proposal-convolutional neural network (R-CNN) neural network. R-CNN is a Region Proposal-based CNN technique, which classifies what objects are in the candidate region and corrects the position of the object by using the features of the region proposal extracted from the image. The motion recognition unit 203 uses the cell labeling information given for each cell included in the motion data as training data, and performs a pre-processing process to determine the cells of each of the candidate regions whose data screen size is adjusted. The body part included in the corresponding candidate region can be recognized through the algorithm through this.

R-CNN 신경망을 통한 알고리즘은 앞서 설명한 선택적 탐색 알고리즘과 같이 진행될 수 있다. 즉, 모션 데이터에서 물체가 있을 만한 후보 영역들을 선택적 탐색 알고리즘을 사용하여 추출한 다음, 각각의 후보 영역을 개별 CNN에 입력하여 후보 영역의 특징을 추출함으로써 각 후보 영역 내 존재하는 객체의 종류를 분류하고, 객체에 대한 바운딩 박스(bounding box)를 좁혀 나감으로써 객체의 검출 위치를 정교하게 보정할 수 있다.The algorithm through the R-CNN neural network can proceed like the selective search algorithm described above. In other words, after extracting candidate regions that may have objects in motion data using a selective search algorithm, each candidate region is input to a separate CNN to extract features of the candidate region, thereby classifying the types of objects present in each candidate region. , By narrowing the bounding box for the object, the detection position of the object can be precisely corrected.

3차원 데이터 생성부(204)는 모션이 인식된 복수의 모션 데이터를 동일한 신체 부위 및 관절 포인트를 근거로 하여 병합하여 3차원 데이터를 생성할 수 있다.(S13) 예를 들어, 3차원 데이터 생성부(204)는 모션이 인식된 복수의 모션 데이터 각각에 대해서 후보 영역 간의 경계 좌표를 동기화한 후, 관절 포인트에 대응하는 좌표를 중첩시켜 3차원 데이터를 생성할 수 있다.The 3D data generation unit 204 may generate 3D data by merging a plurality of motion data for which motion is recognized based on the same body part and joint point (S13). For example, 3D data is generated. The unit 204 may generate 3D data by synchronizing boundary coordinates between candidate regions for each of a plurality of motion data in which motion is recognized, and then overlapping coordinates corresponding to joint points.

앞서 언급한 바와 같이 복수의 카메라 모듈(100)을 통해서 이용자의 모션을 전 방향에서 촬영이 되기 때문에 3차원 데이터 생성부(204)는 복수의 모션 데이터에서 공통의 좌표끼리 병합을 함으로서 이용자의 전 방향에 대한 모션이 반영되는 3차원 데이터를 생성할 수 있다.As mentioned above, since the user's motion is photographed in all directions through the plurality of camera modules 100, the 3D data generation unit 204 merges the common coordinates from the plurality of motion data so that the user’s all directions It is possible to generate 3D data that reflects the motion of.

좌표 변환부(205)는 3차원 데이터의 좌표를 시뮬레이션 공간의 좌표에 매칭되도록 변환할 수 있다.(S13)The coordinate conversion unit 205 may convert the coordinates of the 3D data to match the coordinates of the simulation space (S13).

가상 캐릭터 생성부(206)는 좌표가 변환된 3차원 데이터를 근거로 하여 시뮬레이션 공간에 가상 캐릭터를 생성할 수 있고,(S14) 해당 가상 캐릭터는 표시 단말(300)의 표시부에도 표시될 수 있다. 가상 캐릭터 생성부(206)는 좌표가 변환된 3차원 데이터의 신체 부위 별 좌표들 각각에 대응하도록 가상 캐릭터를 생성할 수 있다. 또한 표시 단말(300) 표시부에는 시뮬레이션 공간이 구현이 된 배경 영상이 표시될 수 있다. 표시 단말(300) 표시부에는 배경 영상과 배경 영상에 포함되어 있는 가상 캐릭터가 함께 출력될 수 있다. The virtual character generation unit 206 may generate a virtual character in the simulation space based on the 3D data in which the coordinates are converted (S14), and the corresponding virtual character may be displayed on the display unit of the display terminal 300 as well. The virtual character generation unit 206 may generate a virtual character to correspond to each of the coordinates of each body part of the 3D data in which the coordinates have been converted. In addition, a background image in which a simulation space is implemented may be displayed on the display unit of the display terminal 300. A background image and a virtual character included in the background image may be output together on the display unit of the display terminal 300.

가상 캐릭터는 이용자의 모션에 대응하여 실시간으로 동일한 모션을 취할 수 있다.The virtual character can take the same motion in real time in response to the user's motion.

이용자는 헤드 마운트 디스플레이(HMD)를 착용하여 시뮬레이션 공간에서 가상 현실을 체험할 수 있다. HMD 좌표 매칭부(207)는 HMD의 좌표를 가상 캐릭터의 머리 부분의 좌표에 매칭시킬 수 있다.Users can experience virtual reality in a simulation space by wearing a head mounted display (HMD). The HMD coordinate matching unit 207 may match the coordinates of the HMD with the coordinates of the head of the virtual character.

이처럼 본 발명에 따른 가상 현실 체험 장치(200)는 복수의 카메라 모듈(100)을 통해서 이용자를 전 방향에서 촬영하여 모션 데이터를 생성하고, 딥러닝 알고리즘을 통해서 해당 모션 데이터를 병합하고 3차원 데이터를 통해서 이용자의 모션을 취하는 가상의 캐릭터를 생성함으로서, 이용자가 더 생동감 있는 가상 현실 체험을 할 수 있도록 한다.As described above, the virtual reality experience device 200 according to the present invention captures a user from all directions through a plurality of camera modules 100 to generate motion data, merges the motion data through a deep learning algorithm, and generates 3D data. Through the creation of a virtual character that takes the user's motion, the user can experience a more vibrant virtual reality.

상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above-described embodiments are for illustrative purposes only, and those of ordinary skill in the art to which the above-described embodiments belong can easily transform into other specific forms without changing the technical spirit or essential features of the above-described embodiments. You can understand. Therefore, it should be understood that the above-described embodiments are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 명세서를 통해 보호 받고자 하는 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected through the present specification is indicated by the claims to be described later rather than the detailed description, and should be interpreted as including all changes or modified forms derived from the meaning and scope of the claims and the concept of equivalents thereof.

100: 카메라 단말 202: 신체 데이터 생성부
200: 가상 현실 체험 장치 203: 모션 인식부
201: 모션 데이터 수신부 204: 3차원 데이터 생성부
100: camera terminal 202: body data generation unit
200: virtual reality experience device 203: motion recognition unit
201: motion data receiving unit 204: 3D data generating unit

Claims (7)

시뮬레이션 공간에서 HMD(Head Mount Display)를 착용하고 있는 이용자의 모션을 인식하여 상기 이용자에게 가상 현실 체험을 제공하는 가상 현실 체험 장치에 있어서,
복수의 카메라 모듈로부터 상기 이용자의 모션을 상이한 각도에서 촬영한 복수의 모션 데이터를 수신하는 모션 데이터 수신부;
상기 복수의 모션 데이터 각각으로부터 상기 이용자의 머리 부분을 제외한 신체를 추출하여 복수의 신체 데이터를 생성하는 신체 데이터 생성부;
상기 복수의 신체 데이터를 신체 부위 별로 분할하여 복수의 후보 영역을 생성하고, 딥러닝 알고리즘을 이용하여 해당 후보 영역 각각에 대한 특징을 추출하여 해당 후보 영역에 포함되어 있는 관절 포인트를 인식하고, 해당 관절 포인트를 기준으로 상기 이용자의 모션을 인식하는 모션 인식부;
모션이 인식된 상기 복수의 모션 데이터를 동일한 신체 부위 및 관절 포인트를 근거로 하여 병합하여 3차원 데이터를 생성하는 3차원 데이터 생성부;
상기 3차원 데이터의 좌표를 상기 시뮬레이션 공간의 좌표에 매칭되도록 변환하는 좌표 변환부;
좌표가 변환된 상기 3차원 데이터를 근거로 하여 상기 시뮬레이션 공간에 가상 캐릭터를 생성하는 가상 캐릭터 생성부; 및
상기 HMD의 좌표를 상기 가상 캐릭터의 머리 부분의 좌표에 매칭시키는 HMD 좌표 매칭부를 포함하고,
상기 복수의 카메라 모듈은 적어도 4개이고,
상기 가상 캐릭터 생성부는 좌표가 변환된 상기 3차원 데이터의 신체 부위 별 좌표들 각각에 대응하도록 상기 가상 캐릭터를 생성하고,
상기 가상 캐릭터는 상기 이용자의 신체 부위 각각의 모션에 따라 실시간으로 동일한 모션을 취하고,
상기 3차원 데이터 생성부는 모션이 인식된 상기 복수의 모션 데이터 각각에 대해서 후보 영역 간의 경계 좌표를 동기화한 후, 상기 관절 포인트에 대응하는 좌표를 중첩시켜 3차원 데이터를 생성하는 것을 특징으로 하는 가상 현실 체험 장치.
In a virtual reality experience device for providing a virtual reality experience to the user by recognizing a motion of a user wearing a head mount display (HMD) in a simulation space,
A motion data receiving unit for receiving a plurality of motion data photographing the motion of the user from different angles from a plurality of camera modules;
A body data generator configured to generate a plurality of body data by extracting a body excluding the user's head from each of the plurality of motion data;
The plurality of body data is divided for each body part to generate a plurality of candidate regions, and a feature for each of the candidate regions is extracted using a deep learning algorithm to recognize joint points included in the candidate region, and the corresponding joint A motion recognition unit for recognizing a motion of the user based on a point;
A 3D data generator configured to generate 3D data by merging the plurality of motion data for which motion is recognized based on the same body part and joint point;
A coordinate conversion unit converting the coordinates of the 3D data to match the coordinates of the simulation space;
A virtual character generation unit that generates a virtual character in the simulation space based on the 3D data whose coordinates have been converted; And
An HMD coordinate matching unit matching the coordinates of the HMD to the coordinates of the head of the virtual character,
The plurality of camera modules is at least 4,
The virtual character generation unit generates the virtual character to correspond to each of the coordinates of each body part of the 3D data whose coordinates have been converted,
The virtual character takes the same motion in real time according to the motion of each body part of the user,
The 3D data generator generates 3D data by synchronizing boundary coordinates between candidate regions for each of the plurality of motion data for which motion is recognized, and then overlapping coordinates corresponding to the joint points to generate 3D data. Experience device.
삭제delete 삭제delete 삭제delete 시뮬레이션 공간에서 HMD(Head Mount Display)를 착용하고 있는 이용자의 모션을 인식하여 상기 이용자에게 가상 현실 체험을 제공하는 가상 현실 체험 장치를 이용하는 가상 현실 체험 방법에 있어서,
모션 데이터 수신부가 복수의 카메라 모듈로부터 상기 이용자의 모션을 상이한 각도에서 촬영한 복수의 모션 데이터를 수신하는 단계;
신체 데이터 생성부가 상기 복수의 모션 데이터 각각으로부터 상기 이용자의 머리 부분을 제외한 신체를 추출하여 복수의 신체 데이터를 생성하는 단계;
모션 인식부가 상기 복수의 신체 데이터를 신체 부위 별로 분할하여 복수의 후보 영역을 생성하고, 딥러닝 알고리즘을 이용하여 해당 후보 영역 각각에 대한 특징을 추출하여 해당 후보 영역에 포함되어 있는 관절 포인트를 인식하고, 해당 관절 포인트를 기준으로 상기 이용자의 모션을 인식하는 단계;
3차원 데이터 생성부가 모션이 인식된 상기 복수의 모션 데이터를 동일한 신체 부위 및 관절 포인트를 근거로 하여 병합하여 3차원 데이터를 생성하는 단계;
좌표 변환부가 상기 3차원 데이터의 좌표를 상기 시뮬레이션 공간의 좌표에 매칭되도록 변환하는 단계;
가상 캐릭터 생성부가 좌표가 변환된 상기 3차원 데이터를 근거로 하여 상기 시뮬레이션 공간에 가상 캐릭터를 생성하는 단계; 및
HMD 좌표 매칭부가 상기 HMD의 좌표를 상기 가상 캐릭터의 머리 부분의 좌표에 매칭시키는 단계를 포함하고,
상기 복수의 카메라 모듈은 적어도 4개이고,
상기 가상 캐릭터를 생성하는 단계에서 상기 가상 캐릭터 생성부는 좌표가 변환된 상기 3차원 데이터의 신체 부위 별 좌표들 각각에 대응하도록 상기 가상 캐릭터를 생성하고,
상기 가상 캐릭터는 상기 이용자의 신체 부위 각각의 모션에 따라 실시간으로 동일한 모션을 취하고,
상기 3차원 데이터를 생성하는 단계에서 상기 3차원 데이터 생성부는 모션이 인식된 상기 복수의 모션 데이터 각각에 대해서 후보 영역 간의 경계 좌표를 동기화한 후, 상기 관절 포인트에 대응하는 좌표를 중첩시켜 3차원 데이터를 생성하는 것을 특징으로 하는 가상 현실 체험 방법.
상기 가상 캐릭터는 상기 이용자의 모션에 대응하여 실시간으로 동일한 모션을 취하는 것을 특징으로 하는 가상 현실 체험 방법.

In a virtual reality experience method using a virtual reality experience device that recognizes a motion of a user wearing a head mount display (HMD) in a simulation space and provides a virtual reality experience to the user,
Receiving, by a motion data receiving unit, a plurality of motion data photographing a motion of the user from a plurality of camera modules at different angles;
Generating a plurality of body data by extracting a body excluding the user's head from each of the plurality of motion data by a body data generation unit;
A motion recognition unit divides the plurality of body data for each body part to generate a plurality of candidate regions, extracts features for each of the candidate regions using a deep learning algorithm, and recognizes joint points included in the candidate region. Recognizing the motion of the user based on the joint point;
Generating 3D data by merging the plurality of motion data for which motion is recognized by a 3D data generator based on the same body part and joint point;
Converting, by a coordinate conversion unit, the coordinates of the 3D data to match the coordinates of the simulation space;
Generating, by a virtual character generation unit, a virtual character in the simulation space based on the 3D data whose coordinates are converted; And
An HMD coordinate matching unit comprising the step of matching the coordinates of the HMD to the coordinates of the head of the virtual character,
The plurality of camera modules is at least 4,
In the step of generating the virtual character, the virtual character generation unit generates the virtual character so as to correspond to each of the coordinates of each body part of the 3D data whose coordinates have been converted,
The virtual character takes the same motion in real time according to the motion of each body part of the user,
In the step of generating the 3D data, the 3D data generation unit synchronizes boundary coordinates between candidate regions with respect to each of the plurality of motion data for which motion is recognized, and then overlaps the coordinates corresponding to the joint points to generate 3D data. Virtual reality experience method, characterized in that to generate a.
The virtual reality experience method, characterized in that the virtual character takes the same motion in real time in response to the motion of the user.

삭제delete 삭제delete
KR1020200101433A 2020-03-31 2020-08-12 Apparatus and method for experience of virtual reality KR102234646B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200039042 2020-03-31
KR1020200039042 2020-03-31

Publications (1)

Publication Number Publication Date
KR102234646B1 true KR102234646B1 (en) 2021-04-01

Family

ID=75441260

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200101433A KR102234646B1 (en) 2020-03-31 2020-08-12 Apparatus and method for experience of virtual reality

Country Status (1)

Country Link
KR (1) KR102234646B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102433670B1 (en) * 2021-07-28 2022-08-18 에스지 주식회사 System for providing virtual environment based on location of space using real image
WO2023277586A1 (en) * 2021-06-30 2023-01-05 옥재윤 Motion tracking system using deep learning technology
KR20230004280A (en) * 2021-06-30 2023-01-06 옥재윤 System for tracking motion using deep learning technic
KR102502116B1 (en) 2022-08-09 2023-02-23 에스지 주식회사 Virtual environment providing system based on virtual reality and augmented reality

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020017576A (en) * 2000-08-31 2002-03-07 이준서 System and method for motion capture using camera image
KR20150024899A (en) * 2012-06-21 2015-03-09 마이크로소프트 코포레이션 Avatar construction using depth camera
KR20170055788A (en) * 2015-11-12 2017-05-22 주식회사 글로브포인트 Manager terminal included in the educational content production system and Method for generating virtual body and Method for storage virtual body information using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020017576A (en) * 2000-08-31 2002-03-07 이준서 System and method for motion capture using camera image
KR20150024899A (en) * 2012-06-21 2015-03-09 마이크로소프트 코포레이션 Avatar construction using depth camera
KR20170055788A (en) * 2015-11-12 2017-05-22 주식회사 글로브포인트 Manager terminal included in the educational content production system and Method for generating virtual body and Method for storage virtual body information using the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023277586A1 (en) * 2021-06-30 2023-01-05 옥재윤 Motion tracking system using deep learning technology
KR20230004280A (en) * 2021-06-30 2023-01-06 옥재윤 System for tracking motion using deep learning technic
KR102622981B1 (en) 2021-06-30 2024-01-10 옥재윤 System for tracking motion using deep learning technic
KR102433670B1 (en) * 2021-07-28 2022-08-18 에스지 주식회사 System for providing virtual environment based on location of space using real image
KR102502116B1 (en) 2022-08-09 2023-02-23 에스지 주식회사 Virtual environment providing system based on virtual reality and augmented reality

Similar Documents

Publication Publication Date Title
KR102234646B1 (en) Apparatus and method for experience of virtual reality
US11710351B2 (en) Action recognition method and apparatus, and human-machine interaction method and apparatus
US11501574B2 (en) Multi-person pose recognition method and apparatus, electronic device, and storage medium
EP2941736B1 (en) Mobile device based text detection and tracking
US11430265B2 (en) Video-based human behavior recognition method, apparatus, device and storage medium
CN111950424B (en) Video data processing method and device, computer and readable storage medium
US11398044B2 (en) Method for face modeling and related products
US10922536B2 (en) Age classification of humans based on image depth and human pose
CN111768479B (en) Image processing method, image processing apparatus, computer device, and storage medium
CN110807361A (en) Human body recognition method and device, computer equipment and storage medium
JP2001282456A (en) Man-machine interface system
JP2017505965A (en) Real-time 3D gesture recognition and tracking system for mobile devices
CN111353336B (en) Image processing method, device and equipment
CN108305321B (en) Three-dimensional human hand 3D skeleton model real-time reconstruction method and device based on binocular color imaging system
CN113395542A (en) Video generation method and device based on artificial intelligence, computer equipment and medium
CN113392270A (en) Video processing method, video processing device, computer equipment and storage medium
Indrawan et al. Face recognition for social media with mobile cloud computing
Goel et al. Raspberry pi based reader for blind people
CN107092347B (en) Augmented reality interaction system and image processing method
KR101520889B1 (en) Digilog Book System Using Distance Information Between Object and Hand Device and Implementation Method Therof
KR102092630B1 (en) Apparatus and method for recognizing motion in video
CN113965550A (en) Intelligent interactive remote auxiliary video system
He et al. A Single-Frame Face Anti-Spoofing Algorithm With Circular CDC and Multi-Scale Spatial Attention
US20240037777A1 (en) Information processing apparatus, information processing system, information processing method, and non-transitory computer readable medium
KR20230068635A (en) Apparatus and method for recognizing motion in video

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant