KR20230068635A - Apparatus and method for recognizing motion in video - Google Patents

Apparatus and method for recognizing motion in video Download PDF

Info

Publication number
KR20230068635A
KR20230068635A KR1020210154631A KR20210154631A KR20230068635A KR 20230068635 A KR20230068635 A KR 20230068635A KR 1020210154631 A KR1020210154631 A KR 1020210154631A KR 20210154631 A KR20210154631 A KR 20210154631A KR 20230068635 A KR20230068635 A KR 20230068635A
Authority
KR
South Korea
Prior art keywords
data
user
motion
unit
character
Prior art date
Application number
KR1020210154631A
Other languages
Korean (ko)
Inventor
이경현
Original Assignee
(주)유니플렉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)유니플렉스 filed Critical (주)유니플렉스
Priority to KR1020210154631A priority Critical patent/KR20230068635A/en
Publication of KR20230068635A publication Critical patent/KR20230068635A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Architecture (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a game apparatus for recognizing a motion which enables a user to execute a mission by using a character selected by the user through a motion of the user as the character selected by the user imitates the motion. According to an embodiment of the present invention, the game apparatus for recognizing a motion is realized by sensing the motion of the user and enabling the character selected by the user to perform the same motion as that of the user in real time in video data. The game apparatus for recognizing a motion includes: a character data storing unit storing image data or the video data about multiple characters; a character data receiving unit receiving character data including information about the character selected by the user from a user terminal used by the user; a motion data receiving unit receiving motion data that a picture of the user taking the motion is taken by a camera module of the user terminal; a human body data generating unit generating human body data by extracting the body of the user from the motion data; a candidate area generating unit generating multiple candidate areas by dividing the human body data by each human body part; a subject recognition unit recognizing the human body part included in the candidate area by extracting a characteristic of each candidate area by using a deep learning algorithm; and a matching data extracting unit classifying the human body part recognized by the subject recognition unit by using a machine learning algorithm and extracting matching data corresponding to a unit cell of each image data of the classified human body part from the image data or the video data of the character selected by the user.

Description

모션 인식 게임 장치{APPARATUS AND METHOD FOR RECOGNIZING MOTION IN VIDEO} Motion Recognition Game Device {APPARATUS AND METHOD FOR RECOGNIZING MOTION IN VIDEO}

본 발명은 모션 인식 게임 장치에 관한 것으로 보다 상세하게는 사용자의 모션을 인식하고, 사용자가 선택한 캐릭터가 해당 모션을 그대로 수행하여, 사용자는 자신의 모션을 통해서 선택한 캐릭터가 미션을 수행할 수 있도록 하는 모션 인식 게임 장치 및 방법에 관한 것이다. The present invention relates to a motion recognition game device, and more particularly, recognizes a user's motion and allows a character selected by the user to perform the corresponding motion as it is, so that the user can perform a mission through the user's motion. It relates to a motion recognition game device and method.

영상에서 객체 형태의 특징을 판별하고 이러한 정보를 어떻게 설계 및 검출할 것인가에 대한 다양한 방법들이 연구가 진행되고 있다. 이러한 객체 인식 영상 처리는 교육, 쇼핑, 교통 등 모든 산업에 직접적 혹은 간접적으로 영향을 미치고 있으며, 현대 사회에서 필요한 인식 관련 문제들을 해결할 실마리가 될 수 있다. Research is being conducted on various methods for discriminating the characteristics of object shapes in images and how to design and detect such information. This object recognition image processing directly or indirectly affects all industries such as education, shopping, and transportation, and can be a clue to solving recognition-related problems needed in modern society.

기존의 객체 인식 영상 처리 및 모션 인식 기술은 퍼포먼스 캡처 환경 제작 프로세스에 따라 데이터의 물리적 시간적 동기화 공정이 필요하며, 하드웨어 제원 상의 한계로 인하여 다수의 모션 인식을 동시에 처리하기가 불가능하다. Existing object recognition image processing and motion recognition technologies require a physical and temporal synchronization process of data according to the performance capture environment production process, and it is impossible to process multiple motion recognition simultaneously due to limitations in hardware specifications.

본 명세서에서는 이러한 한계에서 자유로울 수 있고, 하드웨어 장치가 별도로 필요하지 않고, 카메라를 통해서 수신된 모션 데이터 만으로 사용자의 모션을 인식하여 이로부터 사용자가 미션을 수행하면서 게임을 진행할 수 있는 모션 인식 게임 장치에 대해서 소개하고자 한다. In the present specification, a motion recognition game device that can be free from these limitations, does not require a separate hardware device, and recognizes a user's motion only with motion data received through a camera, and from which the user can play a game while performing a mission. I would like to introduce about

[선행문헌] [Prior literature]

등록 특허 10-1990123Registered Patent 10-1990123

본 발명은 모션 인식 게임 장치에 관한 것으로 보다 상세하게는 사용자의 모션을 인식하고, 사용자가 선택한 캐릭터가 해당 모션을 그대로 수행하여, 사용자는 자신의 모션을 통해서 선택한 캐릭터가 미션을 수행할 수 있도록 하는 모션 인식 게임 장치 및 방법에 관한 것이다. The present invention relates to a motion recognition game device, and more particularly, recognizes a user's motion and allows a character selected by the user to perform the corresponding motion as it is, so that the user can perform a mission through the user's motion. It relates to a motion recognition game device and method.

본 발명의 일 실시예에 따른 사용자의 모션을 감지하여 사용자가 선택한 캐릭터가 영상 데이터 속에서 실시간으로 사용자의 모션과 동일한 모션을 하는 것을 매개로 하여 구현되는 모션 인식 게임 장치는 복수의 캐릭터들에 대한 이미지 데이터 또는 영상 데이터를 저장하는 캐릭터 데이터 저장부, 사용자가 사용하는 사용자 단말로부터 상기 사용자가 선택한 캐릭터에 대한 정보를 포함하는 캐릭터 정보를 수신하는 캐릭터 정보 수신부, 상기 사용자 단말의 카메라 모듈이 모션을 취하는 사용자를 촬영한 모션 데이터를 수신하는 모션 데이터 수신부, 상기 모션 데이터로부터 상기 사용자의 신체를 추출하여 신체 데이터를 생성하는 신체 데이터 생성부, 상기 신체 데이터를 신체 부위 별로 분할하여 복수의 후보 영역을 생성하는 후보 영역 생성부, 딥러닝 알고리즘을 이용하여 상기 후보 영역 각각에 대한 특징 추출하여, 해당 후보 영역에 포함되어 있는 신체 부위를 인식하는 객체 인식부, 상기 객체 인식부에 의해서 인식된 신체 부위를 머신 러닝 알고리즘을 이용하여 분류하고, 분류된 신체 부위의 이미지 데이터 각각의 단위셀에 상응하는 매칭 데이터를 상기 사용자가 선택한 캐릭터의 이미지 데이터 또는 영상 데이터로부터 추출하는 매칭 데이터 추출부, 상기 분류된 이미지 데이터를 상기 매칭 데이터로 변환 후, 해당 매칭 데이터를 상기 사용자 단말에 출력하는 매칭 데이터 출력부, 상기 카메라 모듈로부터 촬영된 영상 데이터로부터 추출된 상기 신체 데이터를 제외한 배경 데이터를 추출하는 배경 데이터 추출부, 및 상기 배경 데이터에 상기 사용자가 자신의 모션을 통해서 수행할 미션의 오브젝트를 시간에 따라 부여하는 오브젝트 부여부를 포함하고, 상기 매칭 데이터 출력부는 추출된 배경 데이터에 오브젝트가 부여되면 이를 상기 매칭 데이터와 병합하여 상기 사용자 단말에 출력하는 것을 특징으로 한다. According to an embodiment of the present invention, a motion recognition game device implemented by detecting a user's motion and allowing a character selected by the user to perform the same motion as the user's motion in real time in image data is a motion recognition game device for a plurality of characters. A character data storage unit for storing image data or video data, a character information receiver for receiving character information including information on a character selected by the user from a user terminal used by a user, and a camera module of the user terminal taking motion. A motion data receiving unit receiving motion data of a user, a body data generating unit generating body data by extracting the user's body from the motion data, and generating a plurality of candidate regions by dividing the body data by body part A candidate region generation unit, an object recognition unit that recognizes a body part included in the candidate region by extracting features for each of the candidate regions using a deep learning algorithm, and machine learning of the body part recognized by the object recognition unit A matching data extractor that classifies using an algorithm and extracts matching data corresponding to each unit cell of the image data of the classified body part from the image data or video data of the character selected by the user; After conversion into matching data, a matching data output unit outputting the matching data to the user terminal, a background data extraction unit extracting background data excluding the body data extracted from image data captured by the camera module, and the background data. and an object assigning unit for assigning an object of a mission to be performed by the user through his/her own motion to the data according to time, and the matching data output unit merges the extracted background data with the matching data when an object is assigned to the extracted background data. It is characterized by outputting to a terminal.

본 발명의 일 실시예에 따른 모션 인식 게임 장치는 공간에 대한 이미지 데이터를 학습 데이터로 하여 딥러닝 알고리즘을 통해서 추출된 배경 데이터에서 상기 사용자의 이동 가능 공간을 좌표 데이터로 산출한 이동 공간 데이터를 생성하는 이동 공간 데이터 생성부를 더 포함하고, 상기 딥러닝 알고리즘은 R-CNN(Region Proposal-Convolutional Neural Network) 신경망을 통한 알고리즘이고, 상기 머신 러닝 알고리즘은 서포트 벡터 머신(Support Vector Machine)을 이용한다. A motion recognition game device according to an embodiment of the present invention uses image data of space as learning data and generates moving space data obtained by calculating the user's movable space as coordinate data from background data extracted through a deep learning algorithm The deep learning algorithm is an algorithm through a Region Proposal-Convolutional Neural Network (R-CNN) neural network, and the machine learning algorithm uses a Support Vector Machine.

상기 오브젝트가 부여된 배경 데이터와 병합된 매칭 데이터가 상기 사용자 단말에 출력되면, 상기 사용자는 상기 사용자 단말에서 출력되는 매칭 데이터에서 오브젝트의 위치에 대응하는 부분에 자신의 신체 부위가 중첩되도록 이동시켜 미션을 수행한다. When the matching data merged with the background data to which the object is assigned is output to the user terminal, the user moves his or her body part so that it overlaps the part corresponding to the position of the object in the matching data output from the user terminal. Do it.

상기 오브젝트 부여부는 생성된 이동 공간 데이터를 근거로 사용자가 이동이 가능한 경로 상에 중첩되도록 오브젝트를 부여하는 것을 특징으로 하는 모션 인식 게임 장치., The motion recognition game device characterized in that the object assigning unit assigns an object so as to be overlapped on a path on which the user can move based on the generated movement space data.

이처럼 본 발명의 모션 인식 게임 장치를 통해서 사용자는 매칭 데이터로 구현되는 가상의 공간에서 자신의 모션을 실시간으로 따라하는 캐릭터를 통해서 음악 리듬에 맞춰 댄스를 하는 게임을 진행할 수 있고, 나아가 실제 공간에서 사용자가 이동할 수 있는 공간을 고려하여 가상의 공간에 오브젝트를 부여함으로서 사용자가 게임을 진행하는데 있어 이동에 장애를 받지 않고 미션을 수행할 수 있도록 할 수 있다.As such, through the motion recognition game device of the present invention, the user can play a game in which the user dances to the rhythm of music through a character that follows his or her motion in real time in a virtual space implemented with matching data, and furthermore, in a real space, the user By giving an object to a virtual space in consideration of a space in which the user can move, it is possible to allow the user to perform a mission without any obstacles to movement while playing the game.

도 1은 본 발명의 일 실시예에 따른 모션 인식 게임 시스템의 개략도이다.
도 2는 본 발명의 일 실시예에 따른 모션 인식 게임 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 데이터 수신부의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 객체 인식부에 의해서 인식된 신체 부위를 연결한 라인 데이터를 예시적으로 나타낸 도면이다.
도 5는 본 발명에서 사용자의 모션을 수행하는 캐릭터를 예시적으로 나타낸 도면이다.
도 6은 본 발명에서 사용자의 모션을 수행하는 캐릭터가 배경 데이터에 부여된 오브젝트에 신체 부위가 중첩되도록 이동시켜 미션을 수행하는 장면을 예시적으로 나타낸 도면이다.
1 is a schematic diagram of a motion recognition game system according to an embodiment of the present invention.
2 is a block diagram of a motion recognition game device according to an embodiment of the present invention.
3 is a block diagram of a data receiver according to an embodiment of the present invention.
4 is a diagram showing line data connecting body parts recognized by an object recognition unit according to an embodiment of the present invention by way of example.
5 is a diagram showing a character performing a user's motion in the present invention by way of example.
FIG. 6 is a diagram showing a scene in which a character performing a user's motion in the present invention performs a mission by moving a body part to overlap an object assigned to background data, by way of example.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a certain component is said to "include", it means that it may further include other components, not excluding other components, unless otherwise stated. Refer to the accompanying drawings below. So, the present invention will be described in detail.

도 1은 본 발명의 일 실시예에 따른 모션 인식 게임 시스템(1000)의 개략도이다.1 is a schematic diagram of a motion recognition game system 1000 according to one embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 모션 인식 게임 시스템(1000)은 사용자 단말(100) 밀 사용자 단말(100)과 네트워크(400)로 연계되는 모션 인식 게임 장치(200)를 포함할 수 있다.Referring to FIG. 1 , a motion recognition game system 1000 according to an embodiment of the present invention includes a user terminal 100 and a motion recognition game device 200 linked to the user terminal 100 through a network 400. can do.

사용자 단말(100)은 모션 인식 게임 장치(200)를 이용하는 자가 사용하는 단말일 수 있다. 좀 더 구체적으로 설명하면 사용자 단말(100)은 모션 인식 게임 장치(200)로부터 구현되는 어플리케이션을 설치하여 이용하는 자가 사용하는 단말일 수 있다. 어플리케이션은 게임 어플리케이션일 수 있고, 사용자는 게임 어플리케이션을 실행한 후 모션을 취하면, 어플리케이션을 통해서 해당 모션을 특정 캐릭터가 실시간으로 수행하는 영상 데이터가 사용자 단말(100)에 출력됨에 따라 게임이 진행될 수 있다. 이러한 과정은 도 2 내지 도 6에서 더 자세히 서술하도록 한다.The user terminal 100 may be a terminal used by a person using the motion recognition game device 200 . More specifically, the user terminal 100 may be a terminal used by a person who installs and uses an application implemented from the motion recognition game device 200 . The application may be a game application, and when the user executes the game application and takes a motion, the game may proceed as image data of a specific character performing the motion in real time is output to the user terminal 100 through the application. there is. This process will be described in more detail in FIGS. 2 to 6 .

사용자 단말(100)은 스마트폰(Smartphone)일 수 있다. 다만 이에 한정되지 않으며, 사용자 단말(100)은 일반적인 데스크탑 컴퓨터, 네비게이션, 노트북, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿PC 등과 같은 전자 장치를 포함할 수 있다. 전자 장치는 하나 이상의 일반적이거나 특수한 목적의 프로세서, 메모리, 스토리지, 및/또는 네트워킹 컴포넌트(유선 또는 무선)를 가질 수 있다.The user terminal 100 may be a smart phone. However, it is not limited thereto, and the user terminal 100 may include electronic devices such as general desktop computers, navigation devices, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), and tablet PCs. An electronic device may have one or more general or special purpose processors, memory, storage, and/or networking components (wired or wireless).

모션 인식 게임 장치(200)는 네트워크(400)를 통해서 사용자 단말(100)로부터 데이터를 수신하고 이를 가공한 결과 데이터를 사용자 단말(100)에 제공할 수 있다. 모션 인식 게임 장치(200)는 서버일 수 있고, 사용자 단말(100)에서 어플리케이션 형태로 구현될 수 있다.The motion recognition game device 200 may receive data from the user terminal 100 through the network 400 and provide data resulting from processing the data to the user terminal 100 . The motion recognition game device 200 may be a server and may be implemented in the form of an application in the user terminal 100 .

네트워크(400)의 통신 방식은 제한되지 않으며, 네트워크(400)가 포함할 수 있는 통신망의 일 예로는 이동통신망, 유선 온라인, 무선 온라인, 방송망을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(400)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 온라인 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다.The communication method of the network 400 is not limited, and an example of a communication network that the network 400 may include is a communication method utilizing a mobile communication network, wired online, wireless online, and broadcasting networks, as well as short-range wireless communication between devices. can be included For example, the network 400 includes a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), and a broadband network (BBN). It may include one or more arbitrary networks among networks such as , online, and the like.

도 2는 본 발명의 일 실시예에 따른 모션 인식 게임 장치(200)의 블록도이고, 도 3은 본 발명의 일 실시예에 따른 데이터 수신부(201)의 블록도이고, 도 4는 본 발명의 일 실시예에 따른 객체 인식부(205)에 의해서 인식된 신체 부위를 연결한 라인 데이터를 예시적으로 나타낸 도면이고, 도 5는 본 발명에서 사용자의 모션을 수행하는 캐릭터를 예시적으로 나타낸 도면이고, 도 6은 본 발명에서 사용자의 모션을 수행하는 캐릭터가 배경 데이터에 부여된 오브젝트에 신체 부위가 중첩되도록 이동시켜 미션을 수행하는 장면을 예시적으로 나타낸 도면이다.Figure 2 is a block diagram of a motion recognition game device 200 according to an embodiment of the present invention, Figure 3 is a block diagram of a data receiving unit 201 according to an embodiment of the present invention, Figure 4 is a block diagram of the present invention It is a diagram exemplarily showing line data connecting body parts recognized by the object recognition unit 205 according to an embodiment, and FIG. 5 is a diagram exemplarily showing a character performing a motion of a user in the present invention. , FIG. 6 is a diagram showing a scene in which a character performing a user's motion in the present invention performs a mission by moving a body part so that it overlaps an object assigned to background data.

도 2 내지 도 6을 참조하면 본 발명의 일 실시예에 따른 모션 인식 게임 장치(200)는 데이터 수신부(201), 캐릭터 데이터 저장부(202), 신체 데이터 생성부(203), 후보 영역 생성부(204), 객체 인식부(205), 매칭 데이터 추출부(206), 매칭 데이터 출력부(207), 배경 데이터 추출부(208), 오브젝트 부여부(209), 및 이동 공간 데이터 생성부(210)를 포함할 수 있다. 데이터 수신부는 캐릭터 정보 수신부(211) 및 모션 데이터 수신부(212)를 포함할 수 있다.2 to 6, the motion recognition game device 200 according to an embodiment of the present invention includes a data receiver 201, a character data storage unit 202, a body data generator 203, and a candidate area generator. 204, object recognition unit 205, matching data extraction unit 206, matching data output unit 207, background data extraction unit 208, object granting unit 209, and movement space data generation unit 210 ) may be included. The data receiving unit may include a character information receiving unit 211 and a motion data receiving unit 212 .

캐릭터 데이터 저장부(202)는 복수의 캐릭터들에 대한 이미지 데이터 또는 영상 데이터를 저장할 수 있다. 좀 더 구체적으로 설명하면 캐릭터 데이터 저장부(202)는 사용자 단말(100) 혹은 모션 인식 게임 장치(200)를 관리하는 관리자가 사용하는 단말로부터 복수의 캐릭터들에 대한 이미지 데이터 또는 영상 데이터를 수신하여 저장할 수 있다. 복수의 캐릭터들은 유명 캐릭터, 연예인, 위인 등일 수 있다. 저장된 복수의 캐릭터들에 대한 이미지 데이터 또는 영상 데이터는 빅데이터화되어 후술할 AI 알고리즘을 통한 매칭 정보를 추출하는 과정에서 이용될 수 있다. The character data storage unit 202 may store image data or video data for a plurality of characters. More specifically, the character data storage unit 202 receives image data or video data for a plurality of characters from the user terminal 100 or a terminal used by an administrator who manages the motion recognition game device 200. can be saved The plurality of characters may be famous characters, celebrities, great people, and the like. Image data or video data for a plurality of stored characters can be converted into big data and used in the process of extracting matching information through an AI algorithm to be described later.

캐릭터 정보 수신부(211)는 사용자 단말(100)로부터 사용자가 선택한 캐릭터에 대한 정보를 포함하는 캐릭터 정보를 수신할 수 있다.The character information receiving unit 211 may receive character information including information about a character selected by the user from the user terminal 100 .

사용자는 캐릭터 데이터 저장부(202)에 의해서 분류된 분류 정보를 어플리케이션을 통해서 확인할 수 있고, 캐릭터들 중 어느 하나를 선택할 수 있으며, 캐릭터 정보 수신부(211)는 사용자가 선택한 캐릭터 정보를 사용자 단말(100)로부터 수신할 수 있다.The user can check the classification information classified by the character data storage unit 202 through an application and select one of the characters, and the character information receiving unit 211 transmits the character information selected by the user to the user terminal 100. ) can be received from

모션 데이터 수신부(212)는 사용자 단말(100)의 카메라 모듈이 모션을 취하는 사용자를 촬영한 모션 데이터를 수신할 수 있다. 모션 데이터는 동영상일 수 있다. 앞서 언급한 바와 같이 영상 모션 인식 장치에 의해서 구현되는 어플리케이션은 게임 어플리케이션일 수 있고, 사용자는 어플리케이션 내에서 주어지는 동작 미션들에 따라 모션을 취할 수 있고, 이러한 모션들은 어플리케이션에서 구동되는 촬영 모드에 의해서 동영상으로 촬영될 수 있다.The motion data receiving unit 212 may receive motion data obtained by photographing a user making a motion by a camera module of the user terminal 100 . Motion data may be video. As mentioned above, the application implemented by the video motion recognition device may be a game application, and the user may take motions according to motion missions given in the application, and these motions may be performed by a shooting mode driven by the application. can be filmed with

신체 데이터 생성부(203)는 모션 데이터로부터 사용자의 신체를 추출하여 신체 데이터를 생성할 수 있다. 신체 데이터 생성부(203)는 수신되는 모션 데이터에서 인체가 있는지 여부를 감지하여, 인체가 없는 경우, 신체 데이터를 생성하지 않아 모션 인식의 과정이 진행되지 않는다.The body data generation unit 203 may generate body data by extracting the user's body from motion data. The body data generation unit 203 detects whether there is a human body in the received motion data, and if there is no human body, the motion recognition process does not proceed because the body data is not generated.

본 발명의 일 예로, 신체 데이터 생성부(203)가 모션 데이터로부터 사용자의 신체를 감지하여 추출하는 방식은 공지의 대상체 감지 알고리즘을 채택할 수 있다. 해당 알고리즘은 가시광선 영상 정보 또는 열화상 영상 정보를 이용하여 신체를 감지할 수 있고, 두 영상 정보를 동시에 활용하여 신체 감지의 정확성을 향상시킬 수 있다.As an example of the present invention, a known object detection algorithm may be used as a method for the body data generator 203 to sense and extract the user's body from motion data. The corresponding algorithm can detect the body using visible ray image information or thermal image information, and can improve the accuracy of body detection by simultaneously utilizing the two image information.

후보 영역 생성부(204)는 신체 데이터를 신체 부위 별로 분할하여 복수의 후보 영역을 생성할 수 있다. The candidate region generation unit 204 may generate a plurality of candidate regions by dividing body data according to body parts.

후보 영역 생성부(204)는 모션 데이터에 포함되어 있는 사용자의 신체 부위를 감지하고 감지된 신체 부위 별로 분할하여 후보 영역을 생성할 수 있다. 신체 부위에는 얼굴 부위가 포함될 수 있다. The candidate region generation unit 204 may generate candidate regions by detecting the user's body part included in the motion data and segmenting the detected body parts according to the detected body part. A body part may include a face part.

후보 영역 생성부(204)는 모션 데이터에서 신체 부위가 있을 만한 영역들을 선택적 탐색 알고리즘(Selective Search Algorithm) 통해서 생성할 수 있다.The candidate region generation unit 204 may generate regions where body parts are likely to be located in the motion data through a selective search algorithm.

객체 인식부(205)는 딥 러닝 알고리즘(Deep Learning Algorithm)을 이용하여 후보 영역 각각에 대한 특징 추출하여, 해당 후보 영역에 포함되어 있는 신체 부위를 인식할 수 있다. 객체 인식부(205)는 도 4에 도시된 바와 같이 인식된 신체부위를 점으로 추출하고, 이를 연결하는 과정을 수행할 수 있다.The object recognition unit 205 may recognize a body part included in the candidate region by extracting features for each candidate region using a deep learning algorithm. As shown in FIG. 4 , the object recognition unit 205 may perform a process of extracting recognized body parts as dots and connecting them.

딥 러닝 알고리즘은 R-CNN(Region Proposal-Convolutional Neural Network) 신경망을 통한 알고리즘일 수 있다. R-CNN은 Region Proposal 기반의 CNN 기법으로서, 이미지 내에서 추출한 후보 영역(Region Proposal)의 특징을 이용하여 후보 영역 내 객체가 무엇인지 분류하고 객체의 위치를 보정하는 기법이다. 객체 인식부(205)는 캐릭터 데이터 저장부(202)에 저장된 캐릭터의 이미지 데이터 및 영상 데이터에 포함된 각 셀들에 대해 부여된 셀 라벨링 정보를 학습 데이터로 사용하여 기준 크기로 변환된 후보 영역 각각의 셀들을 판별하는 R-CNN 신경망을 통한 알고리즘을 통하여 해당 후보 영역에 포함되어 있는 신체 부위를 인식할 수 있다. The deep learning algorithm may be an algorithm through a Region Proposal-Convolutional Neural Network (R-CNN) neural network. R-CNN is a CNN technique based on Region Proposal, which uses the features of the Region Proposal extracted from an image to classify objects in the candidate region and correct the location of the object. The object recognition unit 205 uses the cell labeling information assigned to each cell included in the image data and image data of the character stored in the character data storage unit 202 as learning data, and converts each of the candidate regions to a standard size. A body part included in the candidate region can be recognized through an algorithm using an R-CNN neural network that determines cells.

R-CNN 신경망을 통한 알고리즘은 앞서 설명한 선택적 탐색 알고리즘과 같이 진행될 수 있다. 즉, 입력 이미지에서 물체가 있을 만한 후보 영역들을 선택적 탐색 알고리즘을 사용하여 추출한 다음, 각각의 후보 영역을 개별 CNN에 입력하여 후보 영역의 특징을 추출함으로써 각 후보 영역 내 존재하는 객체의 종류를 분류하고, 객체에 대한 바운딩 박스(bounding box)를 좁혀 나감으로써 객체의 검출 위치를 정교하게 보정할 수 있다.The algorithm through the R-CNN neural network can proceed like the selective search algorithm described above. That is, candidate regions where objects may exist are extracted from the input image using a selective search algorithm, and then each candidate region is input to an individual CNN to extract features of the candidate region to classify the type of object existing in each candidate region. , the detection position of the object can be precisely corrected by narrowing the bounding box for the object.

매칭 데이터 추출부(206)는 객체 인식부(205)에 의해서 인식된 신체 부위를 머신 러닝 알고리즘(Machine Learning Algorithm)을 이용하여 분류하고, 분류된 신체 부위의 이미지 데이터 각각의 단위셀에 상응하는 매칭 데이터를 사용자가 선택한 캐릭터의 이미지 데이터 또는 영상 데이터로부터 추출할 수 있다.The matching data extraction unit 206 classifies the body part recognized by the object recognition unit 205 using a machine learning algorithm, and matches the image data of the classified body part corresponding to each unit cell. Data may be extracted from image data or video data of a character selected by a user.

머신 러닝 알고리즘은 서포트 벡터 머신(Support Vector Machine)을 이용한 알고리즘일 수 있다.The machine learning algorithm may be an algorithm using a support vector machine.

매칭 데이터 출력부(207)는 분류된 이미지 데이터를 매칭 데이터로 변환 후, 해당 매칭 데이터를 사용자 단말(100)에 출력할 수 있다. 매칭 데이터를 생성하는 과정은 머신 러닝의 회귀 학습 과정을 통해서 이루어질 수 있다.The matching data output unit 207 may output the matching data to the user terminal 100 after converting the classified image data into matching data. The process of generating matching data may be performed through a regression learning process of machine learning.

이처럼 매칭 데이터가 사용자 단말(100)에 출력되면, 도 5에 도시된 바와 같이 사용자는 사용자 단말(100)을 통해서 자신이 선택한 캐릭터가 자신의 모션과 동일한 모션을 취하는 것을 확인할 수 있다.When the matching data is output to the user terminal 100 in this way, as shown in FIG. 5 , the user may check through the user terminal 100 that the character selected by the user takes the same motion as the user's motion.

매칭 데이터 출력부(207)는 모션 데이터가 실시간으로 수신되는 경우 모션 데이터의 단위 프레임에 대응하는 매칭 데이터를 실시간으로 사용자 단말(100)에 출력할 수 있다. 이는 앞서 도 1의 설명에서 언급한 본 발명의 모션 인식 장치로부터 구현되는 댄스 게임 어플리케이션에 적용될 수 있다. 좀 더 구체적으로 설명하면, 사용자가 특정 패턴에 따라 댄스(모션)을 하여 정확한 동작을 취하는 경우, 그에 따라 점수가 주어지고 상위 레벨의 단계로 갈 수 있는 게임 어플리케이션일 수 있다. 이러한 게임 어플리케이션에서 사용자는 특정 패턴에 따라 모션을 취하면서, 해당 모션을 사용자 단말(100)을 통해서 확인할 수 있는데 이 때 사용자가 선택한 캐릭터가 자신이 취하는 동작을 앞서 언급한 딥 러닝 및 머신 러닝에 의한 알고리즘을 통해서 동일하게 따라하는 것을 실시간으로 확인하면서 해당 게임에 더욱더 흥미를 얻을 수 있다.When the motion data is received in real time, the matching data output unit 207 may output matching data corresponding to unit frames of the motion data to the user terminal 100 in real time. This can be applied to a dance game application implemented from the motion recognition device of the present invention mentioned in the description of FIG. 1 above. More specifically, it may be a game application in which, when a user dances (motions) according to a specific pattern and takes an accurate motion, a score is given accordingly and the user can go to a higher level. In such a game application, the user can check the motion through the user terminal 100 while taking a motion according to a specific pattern. You can get more interest in the game while checking in real time that you follow the same through the algorithm.

이러한 댄스 게임을 진행하면서 사용자는 자신을 모션을 통해서 미션을 수행할 수도 있다. 이하 자세히 설명하도록 한다.While playing such a dance game, the user may perform missions through motions of himself or herself. It will be explained in detail below.

배경 데이터 추출부(208)는 카메라 모듈로부터 촬영된 영상 데이터로부터 추출된 신체 데이터를 제외한 배경 데이터를 추출할 수 있다. 배경 데이터 추출부(208)는 앞서 설명한 신체 데이터를 제외시킨 나머지 영상 데이터를 배경 데이터로 인식하고 이를 추출할 수 있다.The background data extractor 208 may extract background data excluding body data extracted from image data photographed by the camera module. The background data extractor 208 may recognize the remaining image data after excluding the aforementioned body data as background data and extract the image data.

오브젝트 부여부(209)는 배경 데이터에 사용자가 자신의 모션을 통해서 수행할 미션의 오브젝트를 시간에 따라 부여할 수 있다. 매칭 데이터 출력부(207)는 추출된 배경 데이터에 오브젝트가 부여되면 이를 사이 매칭 데이터와 병합하여 사용자 단말(100)에 출력할 수 있다. 예를 들어 도 6에 도시된 바와 같이 매칭 데이터 출력부(207)는 오브젝트들(빨간 원, 노란 원, 파란 원)이 부여된 배경 데이터와 매칭 데이터를 병합하여 사용자 단말(100)에 출력할 수 있고, 사용자는 매칭 데이터 속 캐릭터가 자신의 모션을 통해서 오브젝트를 터치하도록 하여 미션을 수행할 수 있다. 다시 말해서 오브젝트가 부여된 배경 데이터와 병합된 매칭 데이터가 사용자 단말(100)에 출력되면, 사용자는 사용자 단말(100)에서 출력되는 매칭 데이터에서 오브젝트의 위치에 대응하는 부분에 자신의 신체 부위가 중첩되도록 이동시켜 미션을 수행할 수 있다.The object assigning unit 209 may assign an object of a mission to be performed by the user through his or her motion to the background data according to time. When an object is given to the extracted background data, the matching data output unit 207 may merge the extracted background data with matching data and output the result to the user terminal 100 . For example, as shown in FIG. 6 , the matching data output unit 207 may merge background data and matching data to which objects (red circle, yellow circle, blue circle) are assigned and output the merged data to the user terminal 100. In addition, the user can perform the mission by having the character in the matching data touch the object through his or her motion. In other words, when the matching data merged with the background data to which the object is assigned is output to the user terminal 100, the user's body part overlaps with the part corresponding to the position of the object in the matching data output from the user terminal 100. You can move as much as possible to complete the mission.

이하 오브젝트 부여부(209)가 오브젝트를 부여하는 과정에 대하서 자세히 설명하도록 한다.Hereinafter, a process of assigning an object by the object assigning unit 209 will be described in detail.

이동 공간 데이터 생성부(210)는 사용자의 이동 가능 공간을 좌표 데이터로 산출한 이동 공간 데이터를 생성할 수 있다. 구체적으로 이동 공간 데이터 생성부(210)는 공간에 대한 이미지 데이터를 학습 데이터로 하여 딥러닝 알고리즘을 통해서 추출된 배경 데이터에서 사용자의 이동 가능 공간을 좌표 데이터로 산출한 이동 공간 데이터를 생성할 수 있다.The movement space data generation unit 210 may generate movement space data obtained by calculating a user's movable space as coordinate data. Specifically, the movement space data generation unit 210 may generate movement space data obtained by calculating a user's movable space as coordinate data from background data extracted through a deep learning algorithm using image data of the space as learning data. .

오브젝트 부여부(209)는 생성된 이동 공간 데이터를 근거로 오브젝트를 사용자가 이동 가능한 경로 상에 중첩되도록 부여할 수 있다. 즉 오브젝트 부여부(209)는 사용자가 이동을 하지 못하는 공간에 오브젝트를 부여하지 않고, 사용자가 이동 가능한 공간 상에 오브젝트를 부여함으로써, 사용자가 자신의 모션을 통해서 오브젝트를 자유롭게 터치할 수 있도록 하여 게임을 진행시킬 수 있다.The object assigning unit 209 may assign an object to be overlapped on a path through which a user can move based on the generated movement space data. That is, the object assigning unit 209 does not assign an object to a space where the user cannot move, but assigns an object to a space where the user can move, so that the user can freely touch the object through his/her motion, thereby playing a game. can proceed.

이처럼 본 발명의 모션 인식 게임 장치(200)를 통해서 사용자는 매칭 데이터로 구현되는 가상의 공간에서 자신의 모션을 실시간으로 따라하는 캐릭터를 통해서 음악 리듬에 맞춰 댄스를 하는 게임을 진행할 수 있고, 나아가 실제 공간에서 사용자가 이동할 수 있는 공간을 고려하여 가상의 공간에 오브젝트를 부여함으로서 사용자가 게임을 진행하는데 있어 이동에 장애를 받지 않고 미션을 수행할 수 있도록 할 수 있다.As such, through the motion recognition game device 200 of the present invention, the user can play a game in which he dances to the rhythm of music through a character that follows his motion in real time in a virtual space implemented as matching data, By giving an object to a virtual space in consideration of a space in which the user can move in the space, it is possible to enable the user to perform the mission without any obstacles to movement while playing the game.

상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above-described embodiments are for illustrative purposes, and those skilled in the art to which the above-described embodiments belong can easily transform into other specific forms without changing the technical spirit or essential features of the above-described embodiments. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 명세서를 통해 보호 받고자 하는 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected through this specification is indicated by the claims to be described later rather than the detailed description, and should be construed to include all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof.

100: 사용자 단말 202: 캐릭터 데이터 저장부
200: 모션 인식 게임 장치 203: 신체 데이터 생성부
201: 데이터 수신부 204: 후보 영역 생성부
100: user terminal 202: character data storage unit
200: motion recognition game device 203: body data generator
201: data receiving unit 204: candidate area generating unit

Claims (4)

사용자의 모션을 감지하여 사용자가 선택한 캐릭터가 영상 데이터 속에서 실시간으로 사용자의 모션과 동일한 모션을 하는 것을 매개로 하여 구현되는 모션 인식 게임 장치에 있어서,
복수의 캐릭터들에 대한 이미지 데이터 또는 영상 데이터를 저장하는 캐릭터 데이터 저장부;
사용자가 사용하는 사용자 단말로부터 상기 사용자가 선택한 캐릭터에 대한 정보를 포함하는 캐릭터 정보를 수신하는 캐릭터 정보 수신부;
상기 사용자 단말의 카메라 모듈이 모션을 취하는 사용자를 촬영한 모션 데이터를 수신하는 모션 데이터 수신부;
상기 모션 데이터로부터 상기 사용자의 신체를 추출하여 신체 데이터를 생성하는 신체 데이터 생성부;
상기 신체 데이터를 신체 부위 별로 분할하여 복수의 후보 영역을 생성하는 후보 영역 생성부;
딥러닝 알고리즘을 이용하여 상기 후보 영역 각각에 대한 특징 추출하여, 해당 후보 영역에 포함되어 있는 신체 부위를 인식하는 객체 인식부;
상기 객체 인식부에 의해서 인식된 신체 부위를 머신 러닝 알고리즘을 이용하여 분류하고, 분류된 신체 부위의 이미지 데이터 각각의 단위셀에 상응하는 매칭 데이터를 상기 사용자가 선택한 캐릭터의 이미지 데이터 또는 영상 데이터로부터 추출하는 매칭 데이터 추출부;
상기 분류된 이미지 데이터를 상기 매칭 데이터로 변환 후, 해당 매칭 데이터를 상기 사용자 단말에 출력하는 매칭 데이터 출력부;
상기 카메라 모듈로부터 촬영된 영상 데이터로부터 추출된 상기 신체 데이터를 제외한 배경 데이터를 추출하는 배경 데이터 추출부; 및
상기 배경 데이터에 상기 사용자가 자신의 모션을 통해서 수행할 미션의 오브젝트를 시간에 따라 부여하는 오브젝트 부여부를 포함하고,
상기 매칭 데이터 출력부는 추출된 배경 데이터에 오브젝트가 부여되면 이를 상기 매칭 데이터와 병합하여 상기 사용자 단말에 출력하는 것을 특징으로 하는 모션 인식 게임 장치
A motion-recognition game device realized by detecting a user's motion and allowing a character selected by the user to perform the same motion as the user's motion in real time in image data,
a character data storage unit that stores image data or image data for a plurality of characters;
a character information receiving unit receiving character information including information on a character selected by the user from a user terminal used by the user;
a motion data receiving unit for receiving motion data of a user taking a motion by a camera module of the user terminal;
a body data generating unit extracting the user's body from the motion data and generating body data;
a candidate region generation unit configured to divide the body data according to body parts to generate a plurality of candidate regions;
an object recognition unit extracting features for each of the candidate regions using a deep learning algorithm and recognizing a body part included in the corresponding candidate region;
The body part recognized by the object recognition unit is classified using a machine learning algorithm, and matching data corresponding to each unit cell of the image data of the classified body part is extracted from the image data or video data of the character selected by the user. Matching data extraction unit to do;
a matching data output unit that converts the classified image data into the matching data and outputs the corresponding matching data to the user terminal;
a background data extraction unit extracting background data excluding the body data extracted from image data photographed by the camera module; and
An object granting unit for assigning an object of a mission to be performed by the user through his/her motion to the background data according to time;
The matching data output unit, when an object is given to the extracted background data, merges it with the matching data and outputs it to the user terminal.
제1 항에 있어서,
공간에 대한 이미지 데이터를 학습 데이터로 하여 딥러닝 알고리즘을 통해서 추출된 배경 데이터에서 상기 사용자의 이동 가능 공간을 좌표 데이터로 산출한 이동 공간 데이터를 생성하는 이동 공간 데이터 생성부를 더 포함하고,
상기 딥러닝 알고리즘은 R-CNN(Region Proposal-Convolutional Neural Network) 신경망을 통한 알고리즘이고,
상기 머신 러닝 알고리즘은 서포트 벡터 머신(Support Vector Machine)을 이용한 알고리즘인 것을 특징으로 하는 영상 모션 인식 장치.
According to claim 1,
Further comprising a movement space data generation unit for generating movement space data obtained by calculating the user's movable space as coordinate data from background data extracted through a deep learning algorithm using image data of space as learning data;
The deep learning algorithm is an algorithm through a R-CNN (Region Proposal-Convolutional Neural Network) neural network,
The image motion recognition device, characterized in that the machine learning algorithm is an algorithm using a support vector machine.
제2 항에 있어서,
상기 오브젝트가 부여된 배경 데이터와 병합된 매칭 데이터가 상기 사용자 단말에 출력되면, 상기 사용자는 상기 사용자 단말에서 출력되는 매칭 데이터에서 오브젝트의 위치에 대응하는 부분에 자신의 신체 부위가 중첩되도록 이동시켜 미션을 수행하는 것을 특징으로 하는 모션 인식 게임 장치.
According to claim 2,
When the matching data merged with the background data to which the object is assigned is output to the user terminal, the user moves his or her body part so that it overlaps the part corresponding to the position of the object in the matching data output from the user terminal. A motion recognition game device characterized in that for performing.
제3 항에 있어서,
상기 오브젝트 부여부는 생성된 이동 공간 데이터를 근거로 사용자가 이동이 가능한 경로 상에 중첩되도록 오브젝트를 부여하는 것을 특징으로 하는 모션 인식 게임 장치.
According to claim 3,
The motion recognition game device according to claim 1 , wherein the object assigning unit assigns an object to be overlapped on a path through which a user can move based on the generated movement space data.
KR1020210154631A 2021-11-11 2021-11-11 Apparatus and method for recognizing motion in video KR20230068635A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210154631A KR20230068635A (en) 2021-11-11 2021-11-11 Apparatus and method for recognizing motion in video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210154631A KR20230068635A (en) 2021-11-11 2021-11-11 Apparatus and method for recognizing motion in video

Publications (1)

Publication Number Publication Date
KR20230068635A true KR20230068635A (en) 2023-05-18

Family

ID=86545478

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210154631A KR20230068635A (en) 2021-11-11 2021-11-11 Apparatus and method for recognizing motion in video

Country Status (1)

Country Link
KR (1) KR20230068635A (en)

Similar Documents

Publication Publication Date Title
US11645506B2 (en) Neural network for skeletons from input images
US11501574B2 (en) Multi-person pose recognition method and apparatus, electronic device, and storage medium
US20210027085A1 (en) Universal object recognition
Gavrilova et al. Kinect sensor gesture and activity recognition: New applications for consumer cognitive systems
US11663502B2 (en) Information processing apparatus and rule generation method
CN111488773B (en) Action recognition method, device, equipment and storage medium
CN108525305B (en) Image processing method, image processing device, storage medium and electronic equipment
Taha et al. Human activity recognition for surveillance applications
CN108491754B (en) Dynamic representation and matching human behavior identification method based on bone features
Motiian et al. Online human interaction detection and recognition with multiple cameras
KR102234646B1 (en) Apparatus and method for experience of virtual reality
CN110555428B (en) Pedestrian re-identification method, device, server and storage medium
Ding et al. Profile HMMs for skeleton-based human action recognition
Santhalingam et al. Sign language recognition analysis using multimodal data
KR20210063710A (en) Fast Face Recognition Apparatus connected to a Camera
Neverova Deep learning for human motion analysis
CN112150349A (en) Image processing method and device, computer equipment and storage medium
CN113822254B (en) Model training method and related device
Keceli et al. Recognition of basic human actions using depth information
CN111598924B (en) Target tracking method and device, computer equipment and storage medium
KR102092630B1 (en) Apparatus and method for recognizing motion in video
KR20230068635A (en) Apparatus and method for recognizing motion in video
Saykol et al. Posture labeling based gesture classification for Turkish sign language using depth values
Taha et al. Human action recognition based on MSVM and depth images
CN112115740A (en) Method and apparatus for processing image

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application