KR101500831B1 - Method and apparatus for searching and sharing motion data using similarity of articulation - Google Patents

Method and apparatus for searching and sharing motion data using similarity of articulation Download PDF

Info

Publication number
KR101500831B1
KR101500831B1 KR1020130038738A KR20130038738A KR101500831B1 KR 101500831 B1 KR101500831 B1 KR 101500831B1 KR 1020130038738 A KR1020130038738 A KR 1020130038738A KR 20130038738 A KR20130038738 A KR 20130038738A KR 101500831 B1 KR101500831 B1 KR 101500831B1
Authority
KR
South Korea
Prior art keywords
motion data
target
similarity
motion
searching
Prior art date
Application number
KR1020130038738A
Other languages
Korean (ko)
Other versions
KR20140122090A (en
Inventor
하재열
최동희
Original Assignee
(주)엠젠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엠젠 filed Critical (주)엠젠
Priority to KR1020130038738A priority Critical patent/KR101500831B1/en
Publication of KR20140122090A publication Critical patent/KR20140122090A/en
Application granted granted Critical
Publication of KR101500831B1 publication Critical patent/KR101500831B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Manipulator (AREA)

Abstract

관절의 유사도를 이용한 모션 데이터의 검색 및 공유 방법 및 장치가 제공된다. 모션 데이터의 검색 및 공유 방법은 로봇에 적용되는 복수의 모션 데이터를 저장하는 데이터베이스를 유지하는 단계; 검색 쿼리로서 객체의 움직임에 대응하는 타겟 모션 데이터를 획득하는 단계; 상기 검색 쿼리에 응답하여, 상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도에 기초하여 검색된 적어도 하나의 모션 데이터를 추출하는 단계; 및 상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계를 포함할 수 있다.A method and apparatus for searching and sharing motion data using the similarity of joints are provided. A method for searching and sharing motion data includes: maintaining a database storing a plurality of motion data applied to the robot; Acquiring target motion data corresponding to an object motion as a search query; Extracting at least one motion data retrieved based on the similarity between the plurality of motion data and the target motion data in response to the search query; And returning the retrieved at least one motion data.

Description

관절의 유사도를 이용한 모션 데이터의 검색 및 공유 방법 및 장치{METHOD AND APPARATUS FOR SEARCHING AND SHARING MOTION DATA USING SIMILARITY OF ARTICULATION}TECHNICAL FIELD The present invention relates to a method and apparatus for searching and sharing motion data using the similarity of joints,

아래의 실시예들은 관절의 유사도를 이용한 모션 데이터의 검색 및 공유 방법 및 장치에 관한 것이다.
The following embodiments relate to a method and apparatus for searching and sharing motion data using the similarity of joints.

모션 캡쳐는 인체에 센서를 부착시키거나, 적외선을 이용하는 등의 방법으로 인체의 움직임을 디지털 형태로 기록하는 작업을 의미할 수 있다. 그리고, 기술의 발달에 따라, 간단한 동작뿐만 아니라 매우 정밀한 움직임까지도 모션 캡쳐가 가능해지고, 모션 캡쳐를 응용할 수 있는 분야 역시 점점 확대되고 있다. 그러나, 모션 캡쳐를 응용하는 대부분의 분야에서는 모션 캡쳐가 필요할 때마다 움직임을 캡쳐하여 모션 데이터를 생성한다. 또한, 모션 캡쳐에 의해 생성된 모션 데이터와 유사한 움직임을 나타내는 모션 데이터가 필요할 때에도, 기존에 생성한 모션 데이터를 이용하지 못하고, 새로이 움직임을 캡쳐하여 모션 데이터를 생성한다. 이를 위해, 최근에는 기존에 생성된 모션 데이터를 저장하고, 저장된 모션 데이터 중 원하는 모션 데이터를 추출하기 위한 노력이 계속되고 있다.
Motion capture may be a task of recording the movement of a human body in digital form by attaching a sensor to a human body, using infrared rays, or the like. With the development of the technology, motion capture is possible not only in simple motion but also in very precise motion, and the field of applying motion capture is also increasing. However, in most applications of motion capture, motion data is generated by capturing motion whenever motion capture is required. In addition, even when motion data representing motion similar to motion data generated by motion capture is required, motion data is generated by capturing a new motion without using existing motion data. To this end, efforts to store existing motion data and extract desired motion data from the stored motion data are continuing.

본 발명의 실시예들은 객체의 움직임에 대응하는 모션 데이터를 데이터베이스로부터 검색함으로써 로봇의 움직임을 제어할 수 있고, 모션 데이터를 공유할 수 있는 모션 데이터의 검색 및 공유 방법 및 장치를 제공한다.Embodiments of the present invention provide a method and apparatus for searching and sharing motion data that can control motion of a robot by retrieving motion data corresponding to motion of an object from a database and can share motion data.

또한, 본 발명의 실시예들은 로봇 제어, 애니메이션, 영화, 게임 제작 등과 같은 다양한 분야에 이용할 수 있는 모션 데이터를 검색 및 공유함으로써, 보다 효율적으로 모션 데이터를 활용할 수 있는 모션 데이터의 검색 및 공유 방법 및 장치를 제공한다.
In addition, embodiments of the present invention can search and share motion data that can utilize motion data more efficiently by searching and sharing motion data that can be used in various fields such as robot control, animation, movie, game production, Device.

본 발명의 일 실시예에 따른 모션 데이터의 검색 및 공유 방법은 로봇에 적용되는 복수의 모션 데이터를 저장하는 데이터베이스를 유지하는 단계; 검색 쿼리로서 객체의 움직임에 대응하는 타겟 모션 데이터를 획득하는 단계; 상기 검색 쿼리에 응답하여, 상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도에 기초하여 검색된 적어도 하나의 모션 데이터를 추출하는 단계; 및 상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of searching for and sharing motion data, the method comprising: maintaining a database storing a plurality of motion data applied to the robot; Acquiring target motion data corresponding to an object motion as a search query; Extracting at least one motion data retrieved based on the similarity between the plurality of motion data and the target motion data in response to the search query; And returning the retrieved at least one motion data.

상기 타겟 모션 데이터를 획득하는 단계는 모션 캡쳐 장치를 이용하여 상기 객체의 움직임을 캡쳐하는 단계; 및 상기 캡쳐된 객체의 움직임을 기초로 상기 타겟 모션 데이터를 생성하는 단계를 포함할 수 있다.Wherein the acquiring of the target motion data comprises capturing motion of the object using a motion capture device; And generating the target motion data based on the motion of the captured object.

상기 검색된 적어도 하나의 모션 데이터를 추출하는 단계는 상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도를 추출하는 단계; 및 상기 유사도를 이용하여 상기 데이터베이스로부터 상기 타겟 모션 데이터와 관련있는 적어도 하나의 모션 데이터를 검색하는 단계를 포함할 수 있다.The step of extracting the searched at least one motion data may include extracting a similarity between the plurality of motion data and the target motion data, And retrieving at least one motion data associated with the target motion data from the database using the similarity.

상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도를 추출하는 단계는 상기 타겟 모션 데이터 및 복수의 모션 데이터를 복수의 관절들에 따라 분류하는 단계; 상기 분류된 타겟 모션 데이터 및 복수의 모션 데이터에 대하여 상기 복수의 관절들의 관절별 유사도를 계산하는 단계; 및 상기 관절별 유사도를 기초로 상기 복수의 관절들의 관절별 가중치를 이용하여 상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도를 계산하는 단계를 포함할 수 있다.Wherein the step of extracting the similarity between the plurality of motion data and the target motion data comprises: classifying the target motion data and the plurality of motion data according to a plurality of joints; Calculating joint similarities of the plurality of joints with respect to the classified target motion data and the plurality of motion data; And calculating a degree of similarity between the plurality of motion data and the target motion data using joint weight values of the plurality of joints based on the degree of similarity of the joints.

상기 타겟 모션 데이터와 관련있는 적어도 하나의 모션 데이터를 검색하는 단계는 카테고리를 검색 쿼리로 이용하여 상기 타겟 모션 데이터와 관련있는 적어도 하나의 모션 데이터를 검색하는 단계를 더 포함할 수 있다.The step of retrieving at least one motion data associated with the target motion data may further comprise using at least one category as a search query to retrieve at least one motion data associated with the target motion data.

본 발명의 일 실시예에 따른 모션 데이터의 검색 및 공유 방법은 사용자로부터 상기 검색된 적어도 하나의 모션 데이터 중 적어도 하나의 로봇을 제어하기 위한 모션 데이터에 대한 선택을 수신하는 단계; 및 상기 사용자로부터 선택된 모션 데이터를 이용하여 상기 적어도 하나의 로봇을 제어하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of searching for and sharing motion data, the method comprising: receiving a selection of motion data for controlling at least one robot among the at least one motion data retrieved from a user; And controlling the at least one robot using motion data selected by the user.

상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계는 상기 유사도를 기초로 상기 검색된 적어도 하나의 모션 데이터를 정렬하는 단계; 및 상기 정렬된 순서를 이용하여 상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계를 더 포함할 수 있다.Wherein the returning of the retrieved at least one motion data comprises: sorting the retrieved at least one motion data based on the degree of similarity; And returning the retrieved at least one motion data using the ordered sequence.

상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계는 상기 검색된 적어도 하나의 모션 데이터를 카테고리에 따라 분류하는 단계; 및 상기 카테고리에 따라 분류된 적어도 하나의 모션 데이터를 리턴하는 단계를 더 포함할 수 있다.The step of returning the retrieved at least one motion data comprises: classifying the retrieved at least one motion data according to a category; And returning at least one motion data classified according to the category.

본 발명의 일 실시예에 따른 모션 데이터의 검색 및 공유 방법은 상기 사용자로부터 상기 데이터베이스에 저장된 복수의 모션 데이터가 상기 적어도 하나의 로봇을 제어하기 위한 모션 데이터로 선택된 빈도를 식별하는 단계를 더 포함할 수 있다.The method of searching for and sharing motion data according to an embodiment of the present invention further includes the step of identifying, from the user, a frequency with which a plurality of motion data stored in the database are selected as motion data for controlling the at least one robot .

상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계는 상기 선택된 빈도를 기초로 상기 검색된 적어도 하나의 모션 데이터를 정렬하는 단계; 및 상기 정렬된 순서를 이용하여 상기 적어도 하나의 모션 데이터를 리턴하는 단계를 더 포함할 수 있다.Wherein the step of returning the retrieved at least one motion data comprises: sorting the retrieved at least one motion data based on the selected frequency; And returning the at least one motion data using the ordered sequence.

본 발명의 일 실시예에 따른 모션 데이터의 검색 및 공유 방법은 상기 선택된 빈도를 기초로 상기 데이터베이스에 포함된 복수의 모션 데이터를 평가하는 단계를 더 포함할 수 있다.The method of searching for and sharing motion data according to an embodiment of the present invention may further include the step of evaluating a plurality of pieces of motion data included in the database based on the selected frequency.

상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계는 상기 검색된 적어도 하나의 모션 데이터의 프리뷰(preview)를 사용자에게 제공하는 단계를 더 포함할 수 있다.The step of returning the retrieved at least one motion data may further include providing a preview of the retrieved at least one motion data to the user.

상기 데이터베이스를 유지하는 단계는 상기 타겟 모션 데이터를 상기 데이터베이스에 업로드하는 단계를 포함할 수 있다.The step of maintaining the database may include uploading the target motion data to the database.

본 발명의 일 실시예에 따른 모션 데이터의 검색 및 공유 방법은 상기 타겟 모션 데이터를 상기 데이터베이스에 업로드한 사용자에게 미리 정해진 포인트를 제공하는 단계를 더 포함할 수 있다.The method of searching for and sharing motion data according to an embodiment of the present invention may further include providing predetermined points to a user who has uploaded the target motion data to the database.

본 발명의 일 실시예에 따른 모션 데이터 검색 및 공유 장치는 로봇에 적용되는 복수의 모션 데이터를 저장하는 데이터베이스를 유지하는 데이터베이스 유지부; 검색 쿼리로서 객체의 움직임에 대응하는 타겟 모션 데이터를 획득하는 타겟 모션 데이터 획득부; 상기 검색 쿼리에 응답하여, 상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도에 기초하여 검색된 적어도 하나의 모션 데이터를 추출하는 모션 데이터 추출부; 및 상기 검색된 적어도 하나의 모션 데이터를 리턴하는 모션 데이터 리턴부를 포함할 수 있다.The apparatus for searching and sharing motion data according to an embodiment of the present invention includes a database holding unit for holding a database storing a plurality of motion data to be applied to a robot; A target motion data obtaining unit for obtaining target motion data corresponding to the motion of the object as a search query; A motion data extracting unit for extracting at least one motion data retrieved based on the similarity between the plurality of motion data and the target motion data in response to the search query; And a motion data returning unit for returning the searched at least one motion data.

상기 모션 데이터를 추출부는 상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도를 추출하는 유사도 추출부; 및 상기 유사도를 이용하여 상기 데이터베이스로부터 상기 타겟 모션 데이터와 관련있는 적어도 하나의 모션 데이터를 검색하는 모션 데이터 검색부를 포함할 수 있다.The extraction unit may extract the motion data from the motion data and the target motion data. And a motion data retrieval unit for retrieving at least one motion data related to the target motion data from the database using the similarity.

본 발명의 일 실시예에 따른 모션 데이터 검색 및 공유 장치는 사용자로부터 상기 검색된 적어도 하나의 모션 데이터 중 적어도 하나의 로봇을 제어하기 위한 모션 데이터에 대한 선택을 수신하는 선택 수신부; 및 상기 사용자로부터 선택된 모션 데이터를 이용하여 상기 적어도 하나의 로봇을 제어하는 로봇 제어부를 포함할 수 있다.
The motion data search and sharing apparatus according to an embodiment of the present invention includes: a selection receiving unit that receives a selection of motion data for controlling at least one robot among the at least one motion data retrieved from a user; And a robot controller for controlling the at least one robot using motion data selected by the user.

본 발명의 실시예들은 객체의 움직임에 대응하는 모션 데이터를 데이터베이스로부터 검색함으로써 로봇의 움직임을 제어할 수 있고, 모션 데이터를 공유할 수 있는 모션 데이터의 검색 및 공유 방법 및 장치를 제공한다.Embodiments of the present invention provide a method and apparatus for searching and sharing motion data that can control motion of a robot by retrieving motion data corresponding to motion of an object from a database and can share motion data.

또한, 본 발명의 실시예들은 로봇 제어, 애니메이션, 영화, 게임 제작 등과 같은 다양한 분야에 이용할 수 있는 모션 데이터를 검색 및 공유함으로써, 보다 효율적으로 모션 데이터를 활용할 수 있는 모션 데이터의 검색 및 공유 방법 및 장치를 제공한다.
In addition, embodiments of the present invention can search and share motion data that can utilize motion data more efficiently by searching and sharing motion data that can be used in various fields such as robot control, animation, movie, game production, Device.

도 1은 일 실시예에 따른 모션 데이터의 검색 및 공유 방법의 일 예를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 모션 데이터의 검색 및 공유 방법을 설명하기 위한 동작 흐름도이다.
도 3a 및 도 3b는 일 실시예에 따른 검색된 모션 데이터를 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 데이터베이스를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 모션 데이터 검색 및 공유 장치를 설명하기 위한 블록도이다.
1 is a diagram for explaining an example of a method of searching for and sharing motion data according to an embodiment.
2 is a flowchart illustrating a method of searching for and sharing motion data according to an embodiment of the present invention.
FIGS. 3A and 3B are diagrams for explaining the retrieved motion data according to an embodiment.
4 is a diagram for explaining a database according to an embodiment.
5 is a block diagram for explaining a motion data search and sharing apparatus according to an embodiment.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 일 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. In addition, the same reference numerals shown in the drawings denote the same members.

도 1은 일 실시예에 따른 모션 데이터의 검색 및 공유 방법의 일 예를 설명하기 위한 도면이다.1 is a diagram for explaining an example of a method of searching for and sharing motion data according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 모션 데이터 검색 및 공유 장치(110)는 모션 캡쳐 장치(111), 데이터베이스(112) 및 제어부(113)를 포함할 수 있다. 구체적으로, 모션 캡쳐 장치(111)는 사용자(120)의 움직임을 캡쳐하기 위한 장비로서, 비전 카메라, 비전 센서, 동작 인식 센서(예를 들어, 키네틱 장치) 중 적어도 하나를 포함할 수 있다. 그리고, 제어부(113)는 모션 캡쳐 장치(111)가 캡쳐한 사용자의 움직임을 모션 데이터(예를 들어, 3차원 모션 데이터)로 변환할 수 있다. 그리고, 제어부(113)는 데이터베이스(112)로부터, 변환한 모션 데이터와 유사한 모션 데이터를 검색할 수 있다. 이 때, 제어부(113)는 데이터베이스(112)에 저장된 복수의 모션 데이터의 관절들과 변환한 모션 데이터의 관절들의 유사도를 이용하여 변환한 모션 데이터와 유사한 모션 데이터를 검색할 수 있다. 그리고, 제어부(113)는 검색된 복수의 모션 데이터를 사용자(120)에게 리턴할 수 있고, 사용자(120)는 검색된 복수의 모션 데이터 중 적어도 하나의 모션 데이터를 선택할 수 있다. 그리고, 모션 데이터 검색 및 공유 장치(110)는 사용자가 선택한 모션 데이터를 이용하여 복수의 로봇들(130 내지 150)을 제어할 수 있다. 그리고, 사용자(120)는 변환한 모션 데이터를 데이터베이스에 저장할 수 있고, 이에 따라, 다른 사용자는 사용자가 저장한 모션 데이터를 이용할 수 있다.Referring to FIG. 1, a motion data search and sharing apparatus 110 according to an exemplary embodiment of the present invention may include a motion capture apparatus 111, a database 112, and a control unit 113. Specifically, the motion capture device 111 may include at least one of a vision camera, a vision sensor, and a motion recognition sensor (e.g., a kinetic device) for capturing the motion of the user 120. Then, the control unit 113 can convert the motion of the user captured by the motion capture device 111 into motion data (e.g., three-dimensional motion data). Then, the control unit 113 can retrieve motion data similar to the converted motion data from the database 112. [ At this time, the controller 113 can search motion data similar to the converted motion data by using the similarities of the joints of the plurality of motion data stored in the database 112 and the joints of the converted motion data. The controller 113 may return a plurality of searched motion data to the user 120 and the user 120 may select at least one of the plurality of searched motion data. The motion data search and sharing device 110 can control the plurality of robots 130 to 150 using the motion data selected by the user. Then, the user 120 can store the converted motion data in the database, so that other users can use the motion data stored by the user.

예를 들어, 사용자(120)가 말춤을 간략하게 동작한 경우, 모션 캡쳐 장치(111)는 사용자(120)의 말춤을 캡쳐할 수 있다. 그리고, 제어부(113)는 캡쳐된 사용자(120)의 움직임을 모션 데이터로 변환하고, 데이터베이스(112)로부터 변환된 모션 데이터와 유사한 모션 데이터를 검색할 수 있다. 이에 따라, 사용자(120)는 말춤을 간략하게 동작했지만, 데이터베이스(112)로부터 정확한 말춤 동작에 관한 모션 데이터를 검색할 수 있고, 이를 선택할 수 있다. 그리고, 정확한 말춤 동작에 관한 모션 데이터를 이용하여 복수의 로봇들(130 내지 150)을 제어함으로써, 복수의 로봇들(130 내지 150)은 정확한 말춤 동작을 할 수 있다.
For example, if the user 120 briefly operates speech, the motion capture device 111 may capture the speech of the user 120. The control unit 113 may convert the motion of the captured user 120 into motion data and retrieve motion data similar to the converted motion data from the database 112. [ Thus, although the user 120 has briefly operated speech, it can retrieve and select motion data relating to correct speech activity from the database 112. Then, by controlling the plurality of robots 130 to 150 using the motion data related to the correct speech dancing operation, the plurality of robots 130 to 150 can perform correct speech dancing operations.

도 2는 일 실시예에 따른 모션 데이터의 검색 및 공유 방법을 설명하기 위한 동작 흐름도이다.2 is a flowchart illustrating a method of searching for and sharing motion data according to an embodiment of the present invention.

도 2를 참조하면, 일 실시예에 따른 모션 데이터의 검색 및 공유 방법(이하, 모션 데이터의 검색 및 공유 방법)은 로봇에 적용되는 복수의 모션 데이터를 저장하는 데이터베이스를 유지할 수 있다(210). 여기서, 모션 데이터는 객체의 움직임을 파일 형식으로 저장한 것으로서, 사람을 예로 하면 인체를 복수의 관절들(예를 들어, 17 내지 23개의 관절들)로 표현하고, 각 관절의 x, y, z축에 대한 변화량과 회전량을 포함할 수 있다. 이 때, 일 실시예에서, 회전량은 각 관절들의 상하 회전(Pitch), 좌우 회전(Yaw) 및 전방 축 회전(Roll)에 따른 회전량을 의미할 수 있다. 그리고, 복수의 관절들 중 주요 관절들은 머리, 가슴, 좌우 어깨, 팔꿈치, 손목, 골반, 무릎, 발목 등의 관절들을 포함할 수 있다. 그리고, 모션 데이터는 로봇에 적용되어, 로봇의 움직임을 제어할 수 있다. 그리고, 데이터베이스는 복수의 모션 데이터를 저장할 수 있다. 구체적으로, 데이터베이스는 모션 데이터의 파일명, 카테고리, 디스크립션(description), 프레임 카운트, 선택 빈도 등의 정보를 포함할 수 있다. 그리고, 사용자는 모션 데이터를 데이터베이스에 업로드함으로써, 다른 사용자들과 모션 데이터를 공유할 수 있다. 보다 구체적으로, 후술하는 바와 같이, 사용자는 객체의 움직임을 캡쳐하여 타겟 모션 데이터를 획득할 수 있다. 그리고, 타겟 모션 데이터를 이용하여 데이터베이스로부터 유사한 모션 데이터를 검색할 뿐만 아니라, 타겟 모션 데이터를 데이터베이스에 업로드함으로써, 다른 사용자들과 업로드한 타겟 모션 데이터를 공유할 수 있다. 이 때, 일 실시예는 타겟 모션 데이터를 데이터베이스에 업로드한 사용자에게 미리 정해진 포인트를 제공할 수 있다. 예를 들어, 타겟 모션 데이터를 업로드한 사용자에게 단계(210)는 미리 정해진 포인트를 제공할 수 있고, 사용자는 제공받은 포인트를 이용하여 다른 사용자가 업로드한 모션 데이터를 다운로드할 수 있다.Referring to FIG. 2, a method for searching and sharing motion data according to an embodiment (hereinafter, referred to as a method for searching and sharing motion data) may maintain a database storing a plurality of motion data applied to the robot (210). Here, the motion data is the motion of the object stored in a file format. In the case of a human being, the human body is represented by a plurality of joints (for example, 17 to 23 joints), and x, y, z The amount of change and the amount of rotation about the shaft. At this time, in one embodiment, the amount of rotation may mean the amount of rotation of the respective joints in accordance with the vertical rotation (pitch), the left-right rotation (Yaw), and the forward rotation (roll). And, among the plural joints, the major joints may include joints such as head, chest, right shoulder, elbow, wrist, pelvis, knee, and ankle. Then, the motion data is applied to the robot to control the motion of the robot. Then, the database can store a plurality of motion data. Specifically, the database may include information such as file name, category, description, frame count, and frequency of selection of motion data. Then, the user can share the motion data with other users by uploading the motion data to the database. More specifically, as described below, the user may capture the motion of the object to obtain the target motion data. Then, not only the similar motion data is retrieved from the database using the target motion data, but also the target motion data uploaded to other users can be shared by uploading the target motion data to the database. At this time, one embodiment may provide a predetermined point to the user who uploaded the target motion data to the database. For example, for the user who uploaded the target motion data, the step 210 may provide a predetermined point, and the user may download the motion data uploaded by another user using the provided point.

또한, 모션 데이터의 검색 및 공유 방법은 검색 쿼리로서 객체의 움직임에 대응하는 타겟 모션 데이터를 획득할 수 있다(220). 구체적으로, 모션 데이터의 검색 및 공유 방법은 데이터베이스로부터 모션 데이터를 검색하기 위하여 검색 쿼리로 타겟 모션 데이터를 이용할 수 있다. 여기서, 타겟 모션 데이터는 현실 세계에서의 객체의 움직임을 데이터 파일로 나타낸 것일 수 있다. 보다 구체적으로, 단계(220)는 모션 캡쳐 장치를 이용하여 객체의 움직임을 캡쳐할 수 있다. 이 때, 모션 캡쳐 장치는 비전 카메라, 비전 센서 또는 동작 인식 센서 중 적어도 하나를 포함할 수 있으며, 객체는 사람뿐만 아니라, 동물, 기계 등 움직임을 가질 수 있는 모든 객체를 의미할 수 있다. 그리고, 단계(220)는 캡쳐된 객체의 움직임을 기초로 타겟 모션 데이터를 생성할 수 있다. 예를 들어, 단계(220)는 캡쳐된 객체의 움직임을 디지털화할 수 있고, 복수의 관절들의 질량, 길이, 질량 중심, 질량 모멘텀과 같은 물리량을 추출함으로써, 이를 이용하여 타겟 모션 데이터를 생성할 수 있다. 그리고, 일 실시예에서, 타겟 모션 데이터는 관절들의 정보를 구성하는 형성 부분과, 관절의 회전을 구성하는 동작 부분으로 구성될 수 있다. 그리고, 타겟 모션 데이터는 각 관절의 x, y, z축에 대한 변화량에 대한 정보를 포함할 수 있고, 각 관절의 상하 회전(Pitch), 좌우 회전(Yaw) 및 전방 축 회전(Roll)에 따른 회전량에 대한 정보를 포함할 수 있다. 이러한 타겟 모션 데이터는 다른 모션 데이터를 검색하기 위한 검색 쿼리로 이용될 수도 있고, 데이터베이스에 저장되어 다른 사용자들과 공유될 수도 있다.In addition, the method of searching for and sharing motion data may acquire target motion data corresponding to the motion of the object as a search query (220). Specifically, the method for searching and sharing motion data can use target motion data as a search query to retrieve motion data from a database. Here, the target motion data may be a data file representing the motion of the object in the real world. More specifically, step 220 may capture motion of an object using a motion capture device. In this case, the motion capture device may include at least one of a vision camera, a vision sensor, or a motion recognition sensor, and the object may refer not only to a person but also to any object capable of moving, such as an animal, a machine, or the like. Then, step 220 may generate the target motion data based on the motion of the captured object. For example, step 220 may digitize the motion of the captured object and extract the physical quantities such as the mass, length, mass center, and mass momentum of the plurality of joints to generate the target motion data have. And, in one embodiment, the target motion data may be composed of a forming part constituting the information of the joints and an operating part constituting the rotation of the joint. The target motion data may include information on the amount of change with respect to each of the x, y, and z axes of the joints, and may be determined according to the pitch, yaw, And information about the amount of rotation. The target motion data may be used as a search query for searching other motion data, or may be stored in a database and shared with other users.

또한, 모션 데이터의 검색 및 공유 방법은 검색 쿼리에 응답하여, 복수의 모션 데이터와 타겟 모션 데이터 사이의 유사도에 기초하여 검색된 적어도 하나의 모션 데이터를 추출할 수 있다(230). 구체적으로, 단계(230)는 복수의 모션 데이터와 타겟 모션 데이터 사이의 유사도를 추출할 수 있다. 이 때, 유사도가 높은 모션 데이터는 타겟 모션 데이터와 유사한 움직임을 나타낼 수 있으므로, 유사도는 사용자에게 정확한 검색 결과를 제공하기 위한 기준이 될 수 있다. 보다 구체적으로, 단계(230)는 타겟 모션 데이터 및 복수의 모션 데이터를 복수의 관절들에 따라 분류할 수 있다. 예를 들어, 객체가 사람일 경우, 단계(230)는 인체를 머리, 가슴, 좌우 어깨, 팔꿈치, 손목, 골반, 무릎, 발목 등과 같은 주요 관절에 따라 분류할 수 있다. 그리고, 단계(230)는 분류된 타겟 모션 데이터 및 복수의 모션 데이터에 대하여 복수의 관절들의 관절별 유사도를 계산할 수 있다. 이 경우, 단계(230)는 타겟 모션 데이터 및 복수의 모션 데이터에 대하여 복수의 관절들 별로 x, y, z축에 대한 변화량에 대한 정보 및 상하 회전(Pitch), 좌우 회전(Yaw) 및 전방 축 회전(Roll)에 따른 회전량에 대한 정보를 추출할 수 있다. 그리고, 각 관절별로 타겟 모션 데이터의 변화량 및 회전량과 복수의 모션 데이터의 변화량 및 회전량을 비교함으로써, 타겟 모션 데이터 및 복수의 모션 데이터의 관절별 유사도를 계산할 수 있다.Also, the method for searching and sharing motion data may extract 230 at least one motion data retrieved based on the similarity between the plurality of motion data and the target motion data, in response to the search query. Specifically, step 230 may extract the similarity between the plurality of motion data and the target motion data. At this time, the motion data having a high degree of similarity may exhibit motion similar to the target motion data, and thus the degree of similarity may serve as a reference for providing accurate search results to the user. More specifically, the step 230 may classify the target motion data and the plurality of motion data according to a plurality of joints. For example, if the object is a person, step 230 may classify the human body according to major joints such as the head, chest, right shoulder, elbow, wrist, pelvis, knee, Then, the step 230 may calculate the degree of similarity of the plurality of joints with respect to the classified target motion data and the plurality of motion data. In this case, the step 230 may include information on the amount of change with respect to the x, y, and z axes and information on the amount of change in the vertical and horizontal directions of the target motion data and the plurality of motion data, It is possible to extract information on the amount of rotation according to the roll. By comparing the amount of change and the amount of rotation of the target motion data with the amount of change and the amount of rotation of a plurality of motion data for each joint, it is possible to calculate the degree of similarity between the target motion data and the plurality of motion data.

그리고, 단계(230)는 관절별 유사도를 기초로 복수의 관절들의 관절별 가중치를 이용하여 복수의 모션 데이터와 타겟 모션 데이터 사이의 유사도를 계산할 수 있다. 구체적으로, 모션 데이터가 나타내는 동작에 따라 관절별 중요도는 다를 수 있다. 예를 들어, 모션 데이터가 팔 운동을 나타내는 경우, 다리 부분보다 팔 부분에 변화량 및 회전량이 많을 수 있다. 이는 다리 부분의 움직임보다 팔 부분의 움직임이 유사도를 판단하는 데 중요할 수 있음을 의미할 수 있다. 따라서, 이 경우, 팔 부분의 관절(예를 들어, 좌우 어깨, 손목, 팔꿈치 관절)의 가중치가 다리 부분의 관절(예를 들어, 골반, 무릎, 발목 관절)의 가중치보다 높을 수 있다. 이 때, 일 실시예에서, 관절별 가중치는 모션 데이터의 관절별 변화량 및 회전량에 기초하여 설정될 수도 있고, 미리 정해진 수치에 따라 설정될 수도 있다. 그리고, 단계(230)는 복수의 모션 데이터와 타겟 모션 데이터 사이의 유사도를 계산하는데 있어, 관절별 가중치가 높은 관절에 대해서는 관절별 유사도를 많이 반영할 수 있고, 관절별 가중치가 낮은 관절에 대해서는 관절별 유사도를 적게 반영할 수 있다. 이에 따라, 단계(230)는 보다 정확하게 복수의 모션 데이터와 타겟 모션 데이터 사이의 유사도를 계산할 수 있다.In step 230, the similarity between the plurality of motion data and the target motion data may be calculated using joint weight values of the plurality of joints based on the degree of similarity per joint. Specifically, the degree of importance of each joint may be different according to the motion indicated by the motion data. For example, when the motion data represents the arm motion, the amount of change and the amount of rotation may be larger in the arm portion than in the leg portion. This may mean that the motion of the arm rather than the motion of the legs may be important in determining the degree of similarity. Therefore, in this case, the weight of the joint of the arm portion (for example, the right and left shoulders, the wrist, and the elbow joint) may be higher than the weight of the joint of the leg portion (for example, the pelvis, the knee, and the ankle joint). At this time, in one embodiment, the joint-specific weight may be set based on a joint amount of change and rotation amount of motion data, or may be set according to a predetermined numerical value. In step 230, similarity between the plurality of motion data and the target motion data is calculated. For the joints having a high weight by joint, It is possible to less reflect the similarity of stars. Thus, step 230 can more accurately calculate the similarity between the plurality of motion data and the target motion data.

그리고, 단계(230)는 복수의 모션 데이터와 타겟 모션 데이터 사이의 유사도를 이용하여 데이터베이스로부터 타겟 모션 데이터와 관련있는 적어도 하나의 모션 데이터를 검색할 수 있다. 이에 따라, 단계(230)는 데이터베이스로부터 타겟 모션 데이터와 유사도가 높은 모션 데이터를 추출할 수 있다. 그리고, 단계(230)는 카테고리를 검색 쿼리로 이용하여 타겟 모션 데이터와 관련있는 적어도 하나의 모션 데이터를 검색할 수 있다. 여기서, 카테고리는 하나 이상일 수 있다. 이 경우, 일 실시예는 타겟 모션 데이터와 카테고리를 동시에 검색 쿼리로 이용할 수도 있고, 타겟 모션 데이터 또는 카테고리 중 어느 하나만을 검색 쿼리로 이용할 수도 있다. 또한, 타겟 모션 데이터를 1차 검색 쿼리로 이용한 후에 카테고리를 2차 검색 쿼리로 이용할 수도 있으며, 반대로, 카테고리를 1차 검색 쿼리로 이용한 후 타겟 모션 데이터를 2차 검색 쿼리로 이용할 수도 있다.Then, step 230 may retrieve at least one motion data associated with the target motion data from the database using the similarity between the plurality of motion data and the target motion data. Accordingly, the step 230 can extract motion data having high similarity to the target motion data from the database. Then, step 230 may use the category as a search query to retrieve at least one motion data associated with the target motion data. Here, the category may be one or more. In this case, one embodiment may use the target motion data and the category simultaneously as a search query, or only one of the target motion data or the category may be used as a search query. Alternatively, the category may be used as a secondary search query after using the target motion data as a primary search query, or the target motion data may be used as a secondary search query after using the category as a primary search query.

또한, 모션 데이터의 검색 및 공유 방법은 검색된 적어도 하나의 모션 데이터를 리턴할 수 있다(240). 구체적으로, 단계(240)는 사용자가 검색 쿼리를 입력한 후, 검색 쿼리에 대응하는 검색 결과인 검색된 적어도 하나의 모션 데이터를 사용자에게 제공할 수 있고, 이에 따라, 사용자는 로봇에 적용할 모션 데이터를 선택할 수 있다. 이 때, 검색 결과는 검색 쿼리에 따라, 적은 양의 모션 데이터가 검색될 수도 있지만, 매우 많은 양의 모션 데이터가 검색될 수도 있다. 이에 따라, 사용자의 효과적인 검색을 위하여, 단계(240)는 검색 결과를 미리 설정된 기준에 따라 정렬하여 제공할 수 있다. 여기서, 미리 설정된 기준은 유사도, 선택 빈도 및 카테고리를 포함할 수 있다.In addition, the method of searching for and sharing motion data may return at least one motion data retrieved (240). Specifically, the step 240 may provide the user with at least one motion data retrieved, which is a search result corresponding to the search query, after the user inputs the search query, Can be selected. At this time, although a small amount of motion data may be searched according to the search query, a very large amount of motion data may be searched. Accordingly, in order to efficiently search the user, step 240 may provide search results sorted according to preset criteria. Here, the predetermined criteria may include the degree of similarity, the frequency of selection, and the category.

보다 구체적으로, 미리 설정된 기준이 유사도인 경우, 단계(240)는 유사도를 기초로 검색된 적어도 하나의 모션 데이터를 정렬할 수 있다. 그리고, 정렬된 순서를 이용하여 검색된 적어도 하나의 모션 데이터를 리턴할 수 있다. 이 경우, 일반적으로, 검색된 하나의 모션 데이터는 유사도가 높은 순서부터 낮은 순서까지 내림차순으로 정렬될 수 있다. 이에 따라, 사용자는 유사도가 높은 모션 데이터를 우선적으로 검색함으로써, 사용자는 자신이 원하는 모션 데이터를 보다 빠르게 검색할 수 있다.More specifically, if the preset criteria is similarity, step 240 may arrange at least one motion data retrieved based on the similarity. Then, at least one motion data retrieved using the sorted order can be returned. In this case, generally, one motion data searched can be sorted in descending order from the order of high similarity to the order of low order. Accordingly, the user can preferentially search for motion data having high similarity, so that the user can search for desired motion data more quickly.

그리고, 미리 설정된 기준이 선택 빈도인 경우, 단계(240)는 사용자로부터 데이터베이스에 저장된 복수의 모션 데이터가 적어도 하나의 로봇을 제어하기 위한 모션 데이터로 선택된 빈도를 식별할 수 있다. 구체적으로, 모션 데이터가 로봇을 제어하기 위한 모션 데이터로 선택될 때, 모션 데이터의 검색 및 공유 방법은 데이터베이스에 모션 데이터가 사용자로부터 선택된 횟수를 저장할 수 있다. 이에 따라, 단계(240)는 데이터베이스를 참조하여 데이터베이스에 저장된 복수의 모션 데이터가 선택된 빈도를 식별할 수 있다. 그리고, 단계(240)는 선택된 빈도를 기초로 검색된 적어도 하나의 모션 데이터를 정렬할 수 있고, 정렬된 순서를 이용하여 적어도 하나의 모션 데이터를 리턴할 수 있다. 이에 따라, 사용자는 다른 사용자에게 선택된 빈도가 높은 모션 데이터 즉, 인기도가 높은 모션 데이터를 우선적으로 제공받음으로써, 보다 편리하게 검색을 수행할 수 있다.If the preset reference is a selection frequency, step 240 can identify the frequency with which the plurality of motion data stored in the database is selected by the user as motion data for controlling at least one robot. Specifically, when motion data is selected as motion data for controlling the robot, the method of searching and sharing motion data may store the number of times the motion data is selected from the user in the database. Accordingly, step 240 may refer to the database to identify the frequency with which a plurality of motion data stored in the database is selected. Then, step 240 may sort the at least one motion data retrieved based on the selected frequency and return at least one motion data using the ordered sequence. Accordingly, the user can preferentially receive motion data with a high frequency of selection, that is, motion data having a high degree of popularity, so that the user can perform the search more conveniently.

그리고, 일 실시예는 선택된 빈도를 기초로 데이터베이스에 포함된 복수의 모션 데이터를 평가할 수 있다. 일반적으로, 사용자들에게 선택된 빈도가 높은 모션 데이터는 다른 모션 데이터보다 정확한 움직임을 나타내는 반면, 선택된 빈도가 낮은 모션 데이터는 다른 모션 데이터보다 부정확한 움직임을 나타낼 수 있다. 이에 따라, 단계(240)는 선택된 빈도가 높은 모션 데이터에게 높은 점수를 부여하고, 선택된 빈도가 낮은 모션 데이터에게 낮은 점수를 부여할 수 있다. 그리고, 사용자는 복수의 모션 데이터에 부가된 평점을 참고하여 로봇을 제어하기 위한 모션 데이터를 선택할 수 있다.And, one embodiment may evaluate a plurality of motion data included in the database based on the selected frequency. In general, motion data with a high frequency selected by users is more accurate than motion data with other frequencies, while motion data with a low frequency selected may show incorrect motion than other motion data. Accordingly, the step 240 may assign a high score to the motion data having a high frequency of selection and a low score to the motion data having a low frequency of the selected frequency. Then, the user can select the motion data for controlling the robot by referring to the scores added to the plurality of motion data.

그리고, 미리 설정된 기준이 카테고리인 경우, 단계(240)는 검색된 적어도 하나의 모션 데이터를 카테고리에 따라 분류할 수 있다. 여기서, 카테고리는 모션 데이터의 속성을 나타낸 것을 의미할 수 있다. 그리고, 하나의 카테고리는 적어도 하나의 서브 카테고리를 포함할 수 있음으로써, 검색된 적어도 하나의 모션 데이터를 세부적으로 분류할 수 있다. 예를 들어, 제1 카테고리가 사람인 경우, 제1 카테고리의 서브 카테고리인 제2 카테고리는 스포츠일 수 있고, 제2 스포츠의 서브 카테고리인 제3 카테고리는 축구일 수 있다. 그리고, 단계(240)는 카테고리에 따라 분류된 적어도 하나의 모션 데이터를 리턴할 수 있다.And, if the preset reference is a category, step 240 may classify the at least one motion data searched for by category. Here, the category may indicate the attribute of the motion data. And, one category may include at least one subcategory so that the at least one motion data searched can be classified in detail. For example, if the first category is a person, the second category, which is a subcategory of the first category, may be a sport, and the third category, which is a subcategory of the second sport, may be soccer. Then, step 240 may return at least one motion data classified according to the category.

그리고, 일 실시예에서 미리 설정된 기준인 유사도, 선택 빈도 및 카테고리는 조합될 수 있다. 예를 들어, 미리 설정된 기준이 유사도 및 선택 빈도인 경우, 단계(240)는 유사도가 높으면서 선택 빈도 역시 높은 모션 데이터 순서대로 정렬하여 이를 사용자에게 리턴할 수 있다. 그리고, 미리 설정된 기준이 유사도, 선택 빈도 및 카테고리인 경우, 단계(240)는 카테고리 별로 유사도 및 선택 빈도가 높은 모션 데이터를 사용자에게 제공할 수 있다.In one embodiment, the similarity, the frequency of selection, and the category, which are preset criteria, can be combined. For example, if the preset reference is a degree of similarity and a frequency of selection, the user can return to the user in step 240 by arranging the frequency of motion data with high degree of similarity and high frequency of motion. If the preset reference is the similarity degree, the selection frequency, and the category, the step 240 may provide the user with motion data having a high degree of similarity and a high selection frequency per category.

그리고, 단계(240)는 검색된 적어도 하나의 모션 데이터의 프리뷰(preview)를 제공할 수 있다. 구체적으로, 사용자에게 검색된 적어도 하나의 모션 데이터의 파일명, 디스크립션 등만을 제공한다면 사용자는 모션 데이터의 구체적인 움직임을 인지하지 못하고 모션 데이터를 선택할 수 있다. 이 경우, 사용자가 원하지 않은 모션 데이터를 선택할 수 있으므로, 단계(240)는 사용자에게 프리뷰를 이용하여 모션 데이터가 나타내는 움직임을 제공할 수 있다. 일 실시예에서, 단계(240)는 사용자가 프리뷰 하길 원하는 모션 데이터를 영상 데이터로 변환할 수 있고, 변환한 영상 데이터를 사용자에게 제공할 수 있다. 그리고, 모션 데이터를 영상 데이터로 변환할 때, 단계(240)는 모션 데이터의 대략적인 움직임만을 변환할 수도 있고, 모션 데이터의 전체적인 움직임을 변환할 수도 있다. 또한, 다른 일 실시예서, 단계(240)는 모션 데이터를 썸네일 영상으로 변환하여 이를 사용자에게 제공할 수도 있다.And, step 240 may provide a preview of at least one motion data retrieved. Specifically, if only the file name, description, etc. of at least one motion data searched for by the user is provided, the user can select the motion data without recognizing the specific motion of the motion data. In this case, since the user can select the undesired motion data, step 240 may provide the user with the motion represented by the motion data using the preview. In one embodiment, step 240 may convert the motion data that the user desires to preview into image data and provide the converted image data to the user. And, when converting motion data to image data, step 240 may convert only the approximate motion data of the motion data or the overall motion data of the motion data. Also, in another embodiment, step 240 may convert the motion data into a thumbnail image and provide it to the user.

그리고, 단계(240)는 사용자로부터 검색된 적어도 하나의 모션 데이터 중 적어도 하나의 로봇을 제어하기 위한 모션 데이터에 대한 선택을 수신할 수 있다. 이 경우, 단계(240)는 사용자로부터 하나 이상의 모션 데이터에 대한 선택을 수신할 수 있다. 그리고, 모션 데이터의 검색 및 공유 방법은 사용자로부터 선택된 모션 데이터를 이용하여 적어도 하나의 로봇을 제어할 수 있다. 이에 따라, 모션 데이터의 검색 및 공유 방법은 객체의 대략적인 움직임에 기초함에도 불구하고 사용자가 의도한 정확한 움직임을 나타내는 모션 데이터를 제공할 수 있고, 이러한 모션 데이터를 이용하여 적어도 하나의 로봇들을 제어할 수 있다.
Then, step 240 may receive a selection of motion data for controlling at least one of the at least one motion data retrieved from the user. In this case, step 240 may receive a selection of one or more motion data from the user. The method for searching and sharing motion data may control at least one robot using motion data selected by the user. Accordingly, although the method of searching for and sharing motion data is based on the approximate movement of the object, it is possible to provide the motion data indicating the accurate movement intended by the user, and to control at least one robot using the motion data .

도 3a 및 도 3b는 일 실시예에 따른 검색된 모션 데이터를 설명하기 위한 도면이다.FIGS. 3A and 3B are diagrams for explaining the retrieved motion data according to an embodiment.

도 3a를 참조하면, 검색 결과(310) 및 (320)은 검색된 모션 데이터를 리턴하기 위한 검색 결과 화면을 나타낼 수 있다. 구체적으로, 사용자가 농구의 점프 슛 동작을 수행하는 경우, 모션 데이터의 검색 및 공유 방법은 사용자의 움직임을 타겟 모션 데이터로 변환할 수 있다. 그리고, 타겟 모션 데이터를 검색 쿼리로 입력하는 경우, 이에 응답하여 데이터베이스에 저장된 복수의 모션 데이터와 타겟 모션 데이터 사이의 유사도에 기초하여 타겟 모션 데이터와 유사한 모션 데이터를 검색할 수 있다. 이 경우, 모션 데이터의 검색 및 공유 방법은 검색한 모션 데이터의 카테고리, 파일명, 디스크립션, 선택 수 등을 제공할 수 있다. 이 때, 사용자가 유사도 순서대로 검색된 모션 데이터를 정렬시키는 경우, 모션 데이터의 검색 및 공유 방법은 검색 결과(310)와 같은 화면을 제공할 수 있다. 검색 결과(310)의 예에서, 타겟 모션 데이터가 농구의 점프 슛 동작을 나타내므로, 모션 데이터의 검색 및 공유 방법은 이와 동작이 유사한 모션 데이터를 우선적으로 사용자에게 제공할 수 있다. 이 때, 사용자가 파일명이 basket 7인 모션 데이터를 선택하는 경우, 모션 데이터의 검색 및 공유 방법은 로봇이 선택된 모션 데이터에 따라 마이클 조던의 점프 슛 동작을 수행하도록 제어할 수 있다.Referring to FIG. 3A, the search results 310 and 320 may display a search result screen for returning the retrieved motion data. Specifically, when a user performs a jump shot operation of basketball, a method of searching and sharing motion data may convert a user's motion into target motion data. When inputting the target motion data into the search query, the motion data similar to the target motion data can be retrieved based on the similarity between the plurality of motion data stored in the database and the target motion data. In this case, the method of searching and sharing motion data can provide a category, a file name, a description, a selection number, and the like of the searched motion data. In this case, when the user aligns the retrieved motion data in order of similarity, the method of searching and sharing motion data may provide a screen such as the search result 310. [ In the example of the search result 310, since the target motion data indicates the jump shoot operation of the basketball, the method of searching and sharing motion data can preferentially provide the user with motion data similar in this action. At this time, when the user selects motion data having a file name of basket 7, the method of searching and sharing motion data can control the robot to perform the jump shooting operation of Michael Jordan according to the selected motion data.

또한, 사용자가 인기도 순서대로 검색된 모션 데이터를 정렬시키는 경우, 모션 데이터의 검색 및 공유 방법은 검색 결과(320)와 같은 모션 데이터를 제공할 수 있다. 이에 따라, 모션 데이터의 검색 및 공유 방법은 카테고리, 유사도 등에 상관 없이, 사용자들로부터 선택된 빈도가 가장 높은 순서대로 검색된 모션 데이터를 사용자에게 제공할 수 있다. 이 때, 사용자가 파일명이 child231인 모션 데이터의 미리보기를 선택한 경우, 모션 데이터의 검색 및 공유 방법은 파일명이 child231인 모션 데이터가 나타내는 움직임(즉, 프리뷰)을 제공할 수 있다. 이 경우, 일 실시예는 팝업 윈도우를 이용하여 사용자에게 모션 데이터의 프리뷰를 제공할 수 있다.In addition, when the user sorts the retrieved motion data in order of popularity, the method of searching and sharing motion data may provide motion data such as the search result 320. [ Accordingly, the method of searching for and sharing motion data can provide the user with motion data retrieved in the order of highest frequency selected from the users, regardless of category, similarity, or the like. At this time, when the user selects preview of the motion data having the file name child231, the method of searching and sharing the motion data can provide the motion (i.e., preview) indicated by the motion data having the file name child231. In this case, one embodiment may provide a preview of the motion data to the user using a pop-up window.

도 3b를 참조하면, 검색 결과(330)는 검색된 모션 데이터를 리턴하기 위한 검색 결과 화면을 나타낼 수 있고, 검색 화면(340)은 검색 쿼리로 타겟 모션 데이터 및 카테고리를 이용할 경우의 화면을 나타낼 수 있다. 구체적으로, 사용자가 카테고리 별로 검색된 모션 데이터를 정렬시키는 경우, 모션 데이터의 검색 및 공유 방법은 검색 결과(330)과 같은 모션 데이터를 제공할 수 있다. 이 경우, 모션 데이터의 검색 및 공유 방법은 카테고리 별로 미리 정해진 개수의 모션 데이터를 제공할 수 있다. 또한, 사용자는 전체 카테고리 중 어느 하나의 카테고리를 선택할 수 있고, 이에 따라, 모션 데이터의 검색 및 공유 방법은 선택된 카테고리에 해당하는 모션 데이터만을 제공할 수 있다. 그리고, 검색 결과(330)의 예와 같이, 사용자는 정렬 방법으로 인기도 및 카테고리를 선택할 수 있다. 이에 따라, 모션 데이터의 검색 및 공유 방법은 각 카테고리 별로 선택 빈도가 높은 모션 데이터를 제공할 수 있다.Referring to FIG. 3B, the search result 330 may indicate a search result screen for returning the retrieved motion data, and the search screen 340 may display a screen when the target motion data and the category are used as a search query . Specifically, when the user arranges the motion data searched for by category, the method of searching for and sharing motion data may provide motion data such as the search result 330. [ In this case, the method of searching and sharing motion data can provide a predetermined number of pieces of motion data for each category. In addition, the user can select any one category among all the categories, so that the method of searching and sharing motion data can provide only motion data corresponding to the selected category. And, as in the example of the search result 330, the user can select the popularity and the category by the sorting method. Accordingly, the method of searching for and sharing motion data can provide motion data with a high frequency of selection for each category.

또한, 검색 화면(340)은 검색 쿼리로 타겟 모션 데이터 및 카테고리를 이용할 때의 화면을 나타낼 수 있다. 구체적으로, 모션 데이터의 검색 및 공유 방법은 타겟 모션 데이터뿐만 아니라, 카테고리를 검색 쿼리로 이용함으로써, 사용자가 원하는 카테고리의 검색 결과를 제공할 수 있다. 검색 화면(340)의 예에서, 사용자가 카테고리(341)로 축구를 선택하고, 타겟 모션 데이터(342)로 abc0001을 선택한 경우, 모션 데이터의 검색 및 공유 방법은 타겟 모션 데이터 abc0001와 유사한 모션 데이터 중 카테고리가 축구인 모션 데이터를 검색 결과로 사용자에게 제공할 수 있다. 이 때, 일 실시예는 모션 데이터의 검색 및 공유 방법이 객체의 움직임을 실시간으로 캡쳐하여 모션 데이터로 변환한 후, 실시간으로 변환된 모션 데이터를 이용하여 이와 유사한 모션 데이터를 검색할 수 있다.
In addition, the search screen 340 may display a screen when the target motion data and the category are used as a search query. Specifically, the method of searching for and sharing motion data can use not only target motion data but also a category as a search query, thereby providing a search result of a category desired by the user. In the example of the search screen 340, when the user selects soccer as the category 341 and selects abc0001 as the target motion data 342, the method of searching and sharing motion data is the same as the motion data similar to the target motion data abc0001 The motion data in which the category is soccer can be provided to the user as a search result. In this case, in one embodiment, the motion data search and sharing method captures the motion of the object in real time, converts the motion data into motion data, and then uses the motion data converted in real time to search for similar motion data.

도 4는 일 실시예에 따른 데이터베이스를 설명하기 위한 도면이다.4 is a diagram for explaining a database according to an embodiment.

도 4를 참조하면, 데이터베이스(410)는 로봇에 적용되는 복수의 모션 데이터를 저장할 수 있다. 이 때, 데이터베이스(410)는 파일명 필드, 카테고리 필드, 디스크립션 필드, 업로더 필드, 저장 시간 필드, 선택 빈도 필드 및 프레임 카운트 필드를 포함할 수 있다. 구체적으로, 파일명 필드는 모션 데이터의 파일명을 나타낼 수 있다. 그리고, 카테고리 필드는 모션 데이터의 속성을 나타낼 수 있고, 복수일 수 있으며, 각 카테고리는 서브 카테고리를 포함할 수 있다. 그리고, 디스크립션 필드는 모션 데이터에 대한 설명을 나타내는 것으로서, 데이터베이스에 업로드한 사용자가 입력할 수도 있고, 모션 데이터의 검색 및 공유 방법이 모션 데이터를 분석한 후에 설정할 수도 있다. 그리고, 업로더 필드는 모션 데이터를 업로드 한 사용자에 대한 정보를 포함할 수 있고, 저장 시간 필드는 모션 데이터가 저장된 시간에 대한 정보를 포함할 수 있다. 그리고, 선택 빈도 필드는 모션 데이터가 사용자에게 로봇을 제어하기 위한 모션 데이터로 선택된 빈도에 대한 정보를 포함할 수 있고, 프레임 카운트 필드는 모션 데이터에 포함된 프레임의 수에 대한 정보를 포함할 수 있다. 또한, 데이터베이스(410)는 도 4에 나타난 필드뿐만 아니라 모션 데이터에 대한 정보를 나타내기 위한 다른 필드들을 포함할 수 있다.
Referring to FIG. 4, the database 410 may store a plurality of motion data to be applied to the robot. At this time, the database 410 may include a filename field, a category field, a description field, an uploader field, a storage time field, a selection frequency field, and a frame count field. Specifically, the file name field can indicate the file name of the motion data. And, the category field can represent the attribute of the motion data, can be plural, and each category can include subcategories. The description field indicates a description of the motion data. The description field may be input by a user uploading to the database, or a method of searching for and sharing motion data may be set after analyzing the motion data. In addition, the uploader field may include information on a user who uploaded the motion data, and the storage time field may include information on the time when the motion data is stored. And, the selection frequency field may include information on the frequency with which the motion data is selected as motion data for controlling the robot to the user, and the frame count field may include information on the number of frames included in the motion data . In addition, the database 410 may include fields shown in FIG. 4 as well as other fields for indicating information on motion data.

도 5는 일 실시예에 따른 모션 데이터 검색 및 공유 장치를 설명하기 위한 블록도이다.5 is a block diagram for explaining a motion data search and sharing apparatus according to an embodiment.

도 5를 참조하면, 데이터베이스 유지부(510)는 로봇에 적용되는 복수의 모션 데이터를 저장하는 데이터베이스를 유지할 수 있다.Referring to FIG. 5, the database maintenance unit 510 may maintain a database for storing a plurality of motion data applied to the robot.

또한, 타겟 모션 데이터 획득부(520)는 검색 쿼리로서 객체의 움직임에 대응하는 타겟 모션 데이터를 획득할 수 있다.In addition, the target motion data acquisition unit 520 may acquire target motion data corresponding to the motion of the object as a search query.

또한, 모션 데이터 추출부(530)는 검색 쿼리에 응답하여, 복수의 모션 데이터와 타겟 모션 데이터 사이의 유사도에 기초하여 검색된 적어도 하나의 모션 데이터를 추출할 수 있다.In addition, the motion data extracting unit 530 may extract at least one motion data retrieved based on the similarity between the plurality of motion data and the target motion data, in response to the search query.

또한, 모션 데이터 리턴부(540)는 검색된 적어도 하나의 모션 데이터를 리턴할 수 있다.In addition, the motion data return unit 540 may return at least one motion data that is searched.

도 5에 도시된 모션 데이터 검색 및 공유 장치에는 도 1 내지 도 4를 통해 설명된 내용이 그대로 적용될 수 있으므로, 보다 상세한 내용은 생략한다.
The contents described in FIG. 1 through FIG. 4 may be applied to the motion data search and sharing apparatus shown in FIG. 5, so that detailed description will be omitted.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (21)

로봇에 적용되는 복수의 모션 데이터를 저장하는 데이터베이스를 유지하는 단계;
검색 쿼리로서 객체의 움직임에 대응하는 타겟 모션 데이터를 획득하는 단계;
상기 검색 쿼리에 응답하여, 상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도에 기초하여 검색된 적어도 하나의 모션 데이터를 추출하는 단계; 및
상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계
를 포함하고,
상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계는
상기 유사도를 기초로 상기 검색된 적어도 하나의 모션 데이터를 정렬하는 단계; 및
상기 정렬된 순서를 이용하여 상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계
를 포함하는 모션 데이터의 검색 및 공유 방법.
Maintaining a database storing a plurality of motion data to be applied to the robot;
Acquiring target motion data corresponding to an object motion as a search query;
Extracting at least one motion data retrieved based on the similarity between the plurality of motion data and the target motion data in response to the search query; And
Returning the retrieved at least one motion data
Lt; / RTI >
The step of returning the retrieved at least one motion data
Arranging the searched at least one motion data based on the similarity; And
And returning the retrieved at least one motion data using the sorted order
And searching for the motion data.
제1항에 있어서,
상기 타겟 모션 데이터를 획득하는 단계는
모션 캡쳐 장치를 이용하여 상기 객체의 움직임을 캡쳐하는 단계; 및
상기 캡쳐된 객체의 움직임을 기초로 상기 타겟 모션 데이터를 생성하는 단계
를 포함하는 모션 데이터의 검색 및 공유 방법.
The method according to claim 1,
The step of obtaining the target motion data
Capturing a motion of the object using a motion capture device; And
Generating the target motion data based on the motion of the captured object
And searching for the motion data.
제1항에 있어서,
상기 검색된 적어도 하나의 모션 데이터를 추출하는 단계는
상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도를 추출하는 단계; 및
상기 유사도를 이용하여 상기 데이터베이스로부터 상기 타겟 모션 데이터와 관련있는 적어도 하나의 모션 데이터를 검색하는 단계
를 포함하는 모션 데이터의 검색 및 공유 방법.
The method according to claim 1,
The step of extracting the retrieved at least one motion data
Extracting a degree of similarity between the plurality of motion data and the target motion data; And
Retrieving at least one motion data associated with the target motion data from the database using the similarity,
And searching for the motion data.
제3항에 있어서,
상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도를 추출하는 단계는
상기 타겟 모션 데이터 및 복수의 모션 데이터를 복수의 관절들에 따라 분류하는 단계;
상기 분류된 타겟 모션 데이터 및 복수의 모션 데이터에 대하여 상기 복수의 관절들의 관절별 유사도를 계산하는 단계; 및
상기 관절별 유사도를 기초로 상기 복수의 관절들의 관절별 가중치를 이용하여 상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도를 계산하는 단계
를 포함하는 모션 데이터의 검색 및 공유 방법.
The method of claim 3,
The step of extracting the similarity between the plurality of motion data and the target motion data
Classifying the target motion data and the plurality of motion data according to a plurality of joints;
Calculating joint similarities of the plurality of joints with respect to the classified target motion data and the plurality of motion data; And
Calculating a degree of similarity between the plurality of motion data and the target motion data using the joint weight of the plurality of joints based on the degree of similarity per joint,
And searching for the motion data.
제3항에 있어서,
상기 타겟 모션 데이터와 관련있는 적어도 하나의 모션 데이터를 검색하는 단계는
카테고리를 검색 쿼리로 이용하여 상기 타겟 모션 데이터와 관련있는 적어도 하나의 모션 데이터를 검색하는 단계
를 더 포함하는 모션 데이터의 검색 및 공유 방법.
The method of claim 3,
Wherein the step of retrieving at least one motion data associated with the target motion data
Searching at least one motion data associated with the target motion data using a category as a search query
Further comprising the step of:
제1항에 있어서,
사용자로부터 상기 검색된 적어도 하나의 모션 데이터 중 적어도 하나의 로봇을 제어하기 위한 모션 데이터에 대한 선택을 수신하는 단계; 및
상기 사용자로부터 선택된 모션 데이터를 이용하여 상기 적어도 하나의 로봇을 제어하는 단계
를 포함하는 모션 데이터의 검색 및 공유 방법.
The method according to claim 1,
Receiving a selection from the user for motion data for controlling at least one of the retrieved at least one motion data; And
Controlling the at least one robot using motion data selected from the user
And searching for the motion data.
삭제delete 삭제delete 제6항에 있어서,
상기 사용자로부터 상기 데이터베이스에 저장된 복수의 모션 데이터가 상기 적어도 하나의 로봇을 제어하기 위한 모션 데이터로 선택된 빈도를 식별하는 단계
를 더 포함하는 모션 데이터의 검색 및 공유 방법.
The method according to claim 6,
Identifying from the user a plurality of motion data stored in the database as frequency of motion data for controlling the at least one robot,
Further comprising the step of:
제9항에 있어서,
상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계는
상기 선택된 빈도를 기초로 상기 검색된 적어도 하나의 모션 데이터를 정렬하는 단계; 및
상기 정렬된 순서를 이용하여 상기 적어도 하나의 모션 데이터를 리턴하는 단계
를 더 포함하는 모션 데이터의 검색 및 공유 방법.
10. The method of claim 9,
The step of returning the retrieved at least one motion data
Sorting the searched at least one motion data based on the selected frequency; And
Returning the at least one motion data using the ordered sequence
Further comprising the step of:
제9항에 있어서,
상기 선택된 빈도를 기초로 상기 데이터베이스에 포함된 복수의 모션 데이터를 평가하는 단계
를 더 포함하는 모션 데이터의 검색 및 공유 방법.
10. The method of claim 9,
Evaluating a plurality of motion data included in the database based on the selected frequency;
Further comprising the step of:
제1항에 있어서,
상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계는
상기 검색된 적어도 하나의 모션 데이터의 프리뷰(preview)를 사용자에게 제공하는 단계
를 더 포함하는 모션 데이터의 검색 및 공유 방법.
The method according to claim 1,
The step of returning the retrieved at least one motion data
Providing a preview of the retrieved at least one motion data to a user
Further comprising the step of:
제1항에 있어서,
상기 데이터베이스를 유지하는 단계는
상기 타겟 모션 데이터를 상기 데이터베이스에 업로드하는 단계
를 포함하는 모션 데이터의 검색 및 공유 방법.
The method according to claim 1,
The step of maintaining the database
Uploading the target motion data to the database
And searching for the motion data.
제13항에 있어서,
상기 타겟 모션 데이터를 상기 데이터베이스에 업로드한 사용자에게 미리 정해진 포인트를 제공하는 단계
를 더 포함하는 모션 데이터의 검색 및 공유 방법
14. The method of claim 13,
Providing a predetermined point to a user who has uploaded the target motion data to the database
Method for searching and sharing motion data further comprising
삭제delete 로봇에 적용되는 복수의 모션 데이터를 저장하는 데이터베이스를 유지하는 데이터베이스 유지부;
검색 쿼리로서 객체의 움직임에 대응하는 타겟 모션 데이터를 획득하는 타겟 모션 데이터 획득부;
상기 검색 쿼리에 응답하여, 상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도에 기초하여 검색된 적어도 하나의 모션 데이터를 추출하는 모션 데이터 추출부; 및
상기 검색된 적어도 하나의 모션 데이터를 리턴하는 모션 데이터 리턴부를 포함하고,
상기 모션 데이터 리턴부는
상기 유사도를 기초로 상기 검색된 적어도 하나의 모션 데이터를 정렬하고, 상기 정렬된 순서를 이용하여 상기 검색된 적어도 하나의 모션 데이터를 리턴하는,
모션 데이터 검색 및 공유 장치.
A database holding unit for holding a plurality of motion data to be applied to the robot;
A target motion data obtaining unit for obtaining target motion data corresponding to the motion of the object as a search query;
A motion data extracting unit for extracting at least one motion data retrieved based on the similarity between the plurality of motion data and the target motion data in response to the search query; And
And a motion data returning unit for returning the searched at least one motion data,
The motion data return unit
Sorting the searched at least one motion data based on the similarity, and returning the searched at least one motion data using the sorted order,
Motion data search and sharing device.
제16항에 있어서,
상기 모션 데이터를 추출부는
상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도를 추출하는 유사도 추출부; 및
상기 유사도를 이용하여 상기 데이터베이스로부터 상기 타겟 모션 데이터와 관련있는 적어도 하나의 모션 데이터를 검색하는 모션 데이터 검색부
를 포함하는 모션 데이터 검색 및 공유 장치.
17. The method of claim 16,
The motion data extraction unit
A similarity extraction unit for extracting a similarity between the plurality of motion data and the target motion data; And
A motion data search unit for searching at least one motion data related to the target motion data from the database using the similarity,
And a motion data searching and sharing device.
제16항에 있어서,
사용자로부터 상기 검색된 적어도 하나의 모션 데이터 중 적어도 하나의 로봇을 제어하기 위한 모션 데이터에 대한 선택을 수신하는 선택 수신부; 및
상기 사용자로부터 선택된 모션 데이터를 이용하여 상기 적어도 하나의 로봇을 제어하는 로봇 제어부
를 포함하는 모션 데이터 검색 및 공유 장치.
17. The method of claim 16,
A selection receiver for receiving a selection of motion data for controlling at least one robot among the searched at least one motion data from a user; And
A robot controller for controlling the at least one robot using motion data selected by the user,
And a motion data searching and sharing device.
로봇에 적용되는 복수의 모션 데이터를 저장하는 데이터베이스를 유지하는 단계;
검색 쿼리로서 객체의 움직임에 대응하는 타겟 모션 데이터를 획득하는 단계;
상기 검색 쿼리에 응답하여, 상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도에 기초하여 검색된 적어도 하나의 모션 데이터를 추출하는 단계; 및
상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계
를 포함하고,
상기 검색된 적어도 하나의 모션 데이터를 리턴하는 단계는
상기 검색된 적어도 하나의 모션 데이터를 카테고리에 따라 분류하는 단계; 및
상기 카테고리에 따라 분류된 적어도 하나의 모션 데이터를 리턴하는 단계
를 포함하는 모션 데이터의 검색 및 공유 방법.
Maintaining a database storing a plurality of motion data to be applied to the robot;
Acquiring target motion data corresponding to an object motion as a search query;
Extracting at least one motion data retrieved based on the similarity between the plurality of motion data and the target motion data in response to the search query; And
Returning the retrieved at least one motion data
Lt; / RTI >
The step of returning the retrieved at least one motion data
Classifying the searched at least one motion data according to a category; And
Returning at least one motion data classified according to the category
And searching for the motion data.
로봇에 적용되는 복수의 모션 데이터를 저장하는 데이터베이스를 유지하는 데이터베이스 유지부;
검색 쿼리로서 객체의 움직임에 대응하는 타겟 모션 데이터를 획득하는 타겟 모션 데이터 획득부;
상기 검색 쿼리에 응답하여, 상기 복수의 모션 데이터와 상기 타겟 모션 데이터 사이의 유사도에 기초하여 검색된 적어도 하나의 모션 데이터를 추출하는 모션 데이터 추출부; 및
상기 검색된 적어도 하나의 모션 데이터를 리턴하는 모션 데이터 리턴부를 포함하고,
상기 모션 데이터 리턴부는
상기 검색된 적어도 하나의 모션 데이터를 카테고리에 따라 분류하고, 상기 카테고리에 따라 분류된 적어도 하나의 모션 데이터를 리턴하는,
모션 데이터 검색 및 공유 장치.
A database holding unit for holding a plurality of motion data to be applied to the robot;
A target motion data obtaining unit for obtaining target motion data corresponding to the motion of the object as a search query;
A motion data extracting unit for extracting at least one motion data retrieved based on the similarity between the plurality of motion data and the target motion data in response to the search query; And
And a motion data returning unit for returning the searched at least one motion data,
The motion data return unit
Classifying the searched at least one motion data according to a category and returning at least one motion data classified according to the category,
Motion data search and sharing device.
제1항 내지 제6항, 제9항 내지 제14항 및 제19항 중 어느 한 항의 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.A computer-readable recording medium on which a program for performing the method of any one of claims 1 to 6, 9 to 14, and 19 is recorded.
KR1020130038738A 2013-04-09 2013-04-09 Method and apparatus for searching and sharing motion data using similarity of articulation KR101500831B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130038738A KR101500831B1 (en) 2013-04-09 2013-04-09 Method and apparatus for searching and sharing motion data using similarity of articulation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130038738A KR101500831B1 (en) 2013-04-09 2013-04-09 Method and apparatus for searching and sharing motion data using similarity of articulation

Publications (2)

Publication Number Publication Date
KR20140122090A KR20140122090A (en) 2014-10-17
KR101500831B1 true KR101500831B1 (en) 2015-03-10

Family

ID=51993334

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130038738A KR101500831B1 (en) 2013-04-09 2013-04-09 Method and apparatus for searching and sharing motion data using similarity of articulation

Country Status (1)

Country Link
KR (1) KR101500831B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220022582A (en) 2020-08-19 2022-02-28 엘아이지넥스원 주식회사 Virtual training apparatus for recognizing training movement and virtual training system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100072745A (en) * 2008-12-22 2010-07-01 한국전자통신연구원 Method for constructing motion-capture database and method for motion synthesis by using the motion-capture database
KR20100138615A (en) * 2009-06-25 2010-12-31 주식회사 스페이스일루젼 Searching method of motion-data and the search and creation system of motion-library

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100072745A (en) * 2008-12-22 2010-07-01 한국전자통신연구원 Method for constructing motion-capture database and method for motion synthesis by using the motion-capture database
KR20100138615A (en) * 2009-06-25 2010-12-31 주식회사 스페이스일루젼 Searching method of motion-data and the search and creation system of motion-library

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220022582A (en) 2020-08-19 2022-02-28 엘아이지넥스원 주식회사 Virtual training apparatus for recognizing training movement and virtual training system

Also Published As

Publication number Publication date
KR20140122090A (en) 2014-10-17

Similar Documents

Publication Publication Date Title
Li et al. Multisports: A multi-person video dataset of spatio-temporally localized sports actions
Krishna et al. Dense-captioning events in videos
Kuehne et al. HMDB: a large video database for human motion recognition
Gourgari et al. Thetis: Three dimensional tennis shots a human action dataset
EP1164542A1 (en) Method and device for describing video contents
Ramezani et al. A review on human action analysis in videos for retrieval applications
WO2020017190A1 (en) Image analysis device, person search system, and person search method
WO2013145654A1 (en) Information processing method to calculate a similarity between a posture model and posture data
KR101902192B1 (en) Method for searching similar choreography based on three dimensions and apparatus using the same
US20150248917A1 (en) System and method for performing spatio-temporal analysis of sporting events
Lai et al. Recognizing complex events in videos by learning key static-dynamic evidences
Edwards et al. From pose to activity: Surveying datasets and introducing CONVERSE
Le et al. NII-HITACHI-UIT at TRECVID 2016.
JP2012178036A (en) Similarity evaluation device and method, and similarity evaluation program and storage medium for the same
JP6353660B2 (en) Sign language word classification information generation device and program thereof
CN111950321A (en) Gait recognition method and device, computer equipment and storage medium
JP5226651B2 (en) Similar image retrieval device, similar image retrieval method, and similar image retrieval program
Muhamada et al. Review on recent computer vision methods for human action recognition
KR101500831B1 (en) Method and apparatus for searching and sharing motion data using similarity of articulation
Elias et al. Speed21: Speed climbing motion dataset
KR101530355B1 (en) Method and system for searching motion capture data
CN114550071B (en) Method, device and medium for automatically identifying and capturing track and field video action key frames
JP2013164667A (en) Video retrieval device, method for retrieving video, and video retrieval program
JP2006244424A (en) Image scene classifying method and device and program
CN111353347A (en) Motion recognition error correction method, electronic device, and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee