KR101668747B1 - Apparatus and Method for authoring 3D animation contents - Google Patents

Apparatus and Method for authoring 3D animation contents Download PDF

Info

Publication number
KR101668747B1
KR101668747B1 KR1020150021508A KR20150021508A KR101668747B1 KR 101668747 B1 KR101668747 B1 KR 101668747B1 KR 1020150021508 A KR1020150021508 A KR 1020150021508A KR 20150021508 A KR20150021508 A KR 20150021508A KR 101668747 B1 KR101668747 B1 KR 101668747B1
Authority
KR
South Korea
Prior art keywords
hand
gesture
information
state
authoring
Prior art date
Application number
KR1020150021508A
Other languages
Korean (ko)
Other versions
KR20160099267A (en
Inventor
최윤철
김민우
김지성
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020150021508A priority Critical patent/KR101668747B1/en
Publication of KR20160099267A publication Critical patent/KR20160099267A/en
Application granted granted Critical
Publication of KR101668747B1 publication Critical patent/KR101668747B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 3차원 애니메이션 컨텐츠를 저작하는 장치 및 그 방법에 관한 것이다.
본 발명은 적외선 감지센서를 이용하여 사용자의 양손의 상태를 인식하고, 그에 따른 3차원 객체를 제어하고 이를 이용하여 3차원 애니메이션 컨텐츠를 저작함으로써, 높은 정확도를 가지고 사용자의 양손의 움직임을 통하여 3차원 객체를 조작하거나 3차원 애니메이션을 저작할 수 있고, 일반적인 사용자도 직관적으로 손쉽고 빠르게 이용할 수 있는 3차원 애니메이션 컨텐츠 저작 장치 및 그에 관한 방법을 제공한다.
The present invention relates to an apparatus and a method for authoring three-dimensional animation contents.
The present invention recognizes the state of both hands of a user by using an infrared ray sensor and controls the corresponding three-dimensional object, and authoring the three-dimensional animation contents using the three-dimensional object, A 3D animation content authoring apparatus and a method therefor, which can manipulate objects or author 3D animations, and which can be used easily and quickly intuitively by general users.

Description

3차원 애니메이션 컨텐츠 저작 장치 및 그 방법{Apparatus and Method for authoring 3D animation contents}[0001] Apparatus and method for authoring 3D animation contents [0002]

본 발명은 3차원 애니메이션 컨텐츠를 저작하는 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and a method for authoring three-dimensional animation contents.

특히 3D 애니메이션을 저작하거나 사용자가 가상의 3차원 공간을 경험할 수 있도록 하기 위하여, 3차원의 가상 공간에서 객체의 움직임과 상태를 제어할 수 있는 다양한 기술들이 제안되어 왔다. 이를 위하여 기존에 팬입력을 통한 객체의 동작을 입력하는 스케치 기반 방식이 제안되었으나, 위 방식은 2차원 입력 정보를 3차원 공간 정보로 매핑하는데 어려움이 있다. 또한 기존에 물리 객체의 움직임을 비디오로 촬영한 후 3차원 애니메이션 형태로 전환하는 비디오 기반 애니메이션 저작 방식이 제안되었으나, 물리 객체를 전처리하여 3차원 객체를 생성하는 전처리 단계에서 다량의 연산이 필요하고, 또한 영상에서 객체를 트래킹하는 과정에서 오류가 발생하는 문제점이 있었다.Various techniques have been proposed to control the motion and state of an object in a three-dimensional virtual space, in particular, in order to author a 3D animation or allow a user to experience a virtual three-dimensional space. For this purpose, a sketch based method of inputting an operation of an object through a fan input has been proposed. However, the above method has difficulty in mapping two-dimensional input information into three-dimensional spatial information. In addition, a video-based animation authoring method has been proposed in which a motion of a physical object is captured and then converted to a three-dimensional animation form. However, a large amount of operations are required in the preprocessing step of preprocessing a physical object to generate a three- In addition, there is a problem that an error occurs in the process of tracking an object in an image.

(0001) 대한민국 공개특허공보 제10-2011-0055951 (2011.05.26)(0001) Korean Patent Publication No. 10-2011-0055951 (May 26, 2011)

본 발명이 해결하고자 하는 과제는, 적외선 감지센서를 이용하여 사용자의 양손의 상태를 인식하고, 그에 따른 3차원 객체를 제어하고 이를 이용하여 3차원 애니메이션 컨텐츠를 저작함으로써, 높은 정확도를 가지고 사용자의 양손의 움직임을 통하여 3차원 객체를 조작하거나 3차원 애니메이션을 저작할 수 있고, 일반적인 사용자도 직관적으로 손쉽고 빠르게 이용할 수 있는 3차원 애니메이션 컨텐츠 저작 장치 및 그에 관한 방법을 제공하는 것이다.The object of the present invention is to recognize the state of both hands of a user by using an infrared ray sensor and to control the three-dimensional object accordingly and to write the three-dimensional animation contents using the infrared ray sensor, Dimensional animation object or a three-dimensional animation can be manipulated through the movement of the animation object, and a general user can intuitively easily and quickly use the animation object.

상기 과제를 해결하기 위해, 본 발명의 일 유형에 따른 3차원 애니메이션 컨텐츠 저작 장치는, 사용자의 손을 3차원 공간 상에서 감지하고, 상기 사용자의 손의 3차원 공간 상에서의 위치 또는 방향에 대한 정보인 손 정보를 획득하는 동작 감지부; 상기 획득된 손 정보를 이용하여, 상기 사용자의 손의 동작에 따라 미리 정의된 일정한 의미를 가지는 제스쳐를 인식하는 제스쳐 인식부; 및 미리 정해진 일정한 종류의 저작 상태에 따라, 상기 획득된 손 정보와 상기 인식된 제스쳐를 이용하여, 3차원 애니메이션 객체를 3차원 컨텐츠 공간 상에서 편집 또는 녹화하여 3차원 컨텐츠를 저작하는 3차원 컨텐츠 저작부를 포함할 수 있다.According to an aspect of the present invention, there is provided a three-dimensional animation content authoring apparatus for detecting a user's hand on a three-dimensional space and displaying information on the position or direction of the user's hand on the three- An operation detecting unit for obtaining hand information; A gesture recognition unit for recognizing a gesture having a predetermined meaning defined according to an operation of the user's hand using the obtained hand information; And a three-dimensional content authoring unit for editing or recording the three-dimensional animation object on the three-dimensional content space using the obtained hand information and the recognized gesture according to a predetermined predetermined type of authoring state to author three- .

여기서, 상기 동작 감지부는, 상기 사용자의 손을 3차원 공간 상에서 감지하는 센서부; 및 상기 손 정보를 일정한 간격의 시간 별로 획득하는 손 정보 획득부를 포함할 수 있다.Here, the motion sensing unit may include a sensor unit for sensing the user's hand in a three-dimensional space; And a hand information acquiring unit for acquiring the hand information at predetermined intervals of time.

여기서, 상기 센서부는 적어도 2개 이상의 카메라를 이용하여 상기 사용자의 손을 3차원 공간 상에서 감지하는 것을 특징으로 할 수 있다.Here, the sensor unit senses the user's hand in a three-dimensional space using at least two cameras.

여기서, 상기 센서부는 적어도 2개 이상의 적외선 카메라와 적외선 발광장치를 구비하고, 상기 적외선 발광장치가 발광하는 적외선이 상기 사용자의 손에 반사되어 오는 광을 상기 적외선 카메라로 촬영하고, 각 상기 적외선 카메라로 촬영한 광에 따른 영상을 획득하고, 상기 손 정보 획득부는 상기 획득된 영상을 이용하여 상기 사용자의 손에 대한 상기 손 정보를 획득하는 것을 특징으로 할 수 있다.Here, the sensor unit includes at least two infrared cameras and an infrared light emitting device. The infrared light emitted from the infrared light emitting device captures light reflected by the user's hand with the infrared camera, And the hand information obtaining unit obtains the hand information about the hand of the user using the obtained image.

여기서, 상기 손 정보는 상기 사용자의 왼손 또는 오른손을 식별하는 양손 식별정보, 상기 사용자의 각 손가락을 식별하는 손가락 식별정보, 상기 사용자의 각 손 또는 각 손가락의 위치 정보, 손바닥의 방향 정보를 포함하고, 상기 손 정보 획득부는 상기 센서부에서 감지된 상기 사용자의 손을 시간에 따라 트래킹하고, 상기 트래킹한 상기 사용자의 손을 이용하여, 상기 손 정보를 일정한 간격의 시간 별로 획득하는 것을 특징으로 할 수 있다.Here, the hand information includes two-handed identification information for identifying the left or right hand of the user, finger identification information for identifying each finger of the user, position information of each hand or each finger of the user, and direction information of the palm , The hand information obtaining unit tracks the hand of the user detected by the sensor unit according to time and acquires the hand information at a predetermined interval of time using the user's hand that has been tracked have.

여기서 상기 제스쳐 인식부는, 미리 정해진 일정한 시간 동안 상기 동작 감지부에서 획득된 상기 손 정보를 저장하는 손 정보 저장부; 상기 사용자의 손 중 어느 하나의 손인 제1손에 대하여, 상기 손 정보 저장부에 시간에 따라 저장된 상기 손 정보를 이용하여, 상기 제1손의 동작에 따른 상기 제스쳐를 인식하는 제1손 제스쳐 의미 판단부; 및 상기 사용자의 손 중 상기 제1손이 아닌 나머지 손인 제2손에 대하여, 상기 손 정보 저장부에 시간에 따라 저장된 상기 손 정보를 이용하여, 상기 제2손의 동작에 따른 상기 제스쳐를 인식하는 제2손 제스쳐 의미 판단부를 포함할 수 있다.Wherein the gesture recognition unit comprises: a hand information storage unit for storing the hand information acquired by the motion sensing unit for a predetermined period of time; A first hand gesture means for recognizing the gesture according to an operation of the first hand by using the hand information stored in the hand information storage unit according to time with respect to a first hand of the user's hand, A determination unit; And recognizing the gesture according to an operation of the second hand by using the hand information stored in the hand information storage unit with respect to a second hand of the user's hands other than the first hand, And a second hand gesture semantic determination unit.

여기서, 상기 제1손 제스쳐 의미 판단부는 상기 제1손에 대한 상기 손 정보를 미리 정해진 손 동작 패턴들과 비교하여 상기 손 동작에 대응하는 상기 손 동작 패턴을 선택하고, 상기 손 동작 패턴에 대하여 미리 정의된 상기 제스쳐를 선택하여, 상기 제1손에 대한 상기 손 정보에 대응하는 상기 제스쳐를 인식할 수 있다.Here, the first hand gesture meaning determiner may compare the hand information of the first hand with predetermined hand motion patterns to select the hand motion pattern corresponding to the hand motion, The gesture corresponding to the hand information for the first hand can be recognized by selecting the defined gesture.

여기서, 상기 제2손 제스쳐 의미 판단부는 상기 제2손에 대한 상기 손 정보를 미리 정해진 손 동작 패턴들과 비교하여 상기 손 동작에 대응하는 상기 손 동작 패턴을 선택하고, 상기 손 동작 패턴에 대하여 미리 정의된 상기 제스쳐를 선택하여, 상기 제2손에 대한 상기 손 정보에 대응하는 상기 제스쳐를 인식하는 것을 특징으로 할 수 있다.Here, the second hand gesture semantic determination unit may compare the hand information of the second hand with predetermined hand motion patterns to select the hand motion pattern corresponding to the hand motion, And the gesture corresponding to the hand information for the second hand is recognized by selecting the defined gesture.

여기서, 상기 3차원 컨텐츠 저작부는, 상기 제1손 제스쳐 의미 판단부에서 인식된 상기 제1손의 상기 제스쳐에 따라 상기 저작 상태를 설정하는 저작 상태 설정부; 및 상기 설정된 저작 상태에서, 상기 제2손 제스쳐 의미 판단부에서 인식된 상기 제2손의 상기 제스쳐에 따라 상기 3차원 애니메이션 객체를 상기 3차원 컨텐츠 공간 상에서 편집 또는 녹화하여 상기 3차원 컨텐츠를 생성하는 컨텐츠 생성부를 포함할 수 있다.Here, the three-dimensional content authoring unit may include a authoring state setting unit for setting the authoring state according to the gesture of the first hand recognized by the first hand gesture semantic determination unit; And, in the set authoring state, editing or recording the 3D animation object on the 3D content space according to the gesture of the second hand recognized by the second hand gesture semantic determination unit to generate the 3D content And a content generation unit.

여기서, 상기 저작 상태는 편집 상태와 녹화 상태를 포함하는 제1 저작 상태와, 타임라인 설정 상태, 조작 상태를 포함하는 제2 저작 상태를 포함할 수 있다.Here, the authoring state may include a first authoring state including an editing state and a recording state, and a second authoring state including a timeline setting state and an operation state.

여기서, 상기 저작 상태 설정부는, 상기 제1 저작 상태가 상기 편집 상태인 경우, 상기 제2 저작 상태를 상기 조작 상태 또는 상기 타임라인 설정 상태 중 어느 하나로 설정하고, 상기 제1 저작 상태가 상기 녹화 상태인 경우, 상기 제2 저작 상태를 상기 조작 상태로 설정하는 것을 특징으로 할 수 있다.Here, the authoring state setting unit sets the second authoring state to one of the operation state or the time line setting state when the first authoring state is the editing state, and the first authoring state is the recording state The second operation state is set to the operation state.

여기서, 상기 제스쳐는 상기 제1손이 주먹을 쥔 상태에서 회전하는 동작을 나타내는 제1 회전 제스쳐와, 상기 제1손이 손바닥을 편 상태에서 회전하는 동작을 나타내는 제2 회전 제스쳐를 포함하고, 상기 저작 상태 설정부는, 상기 제1손의 상기 제스쳐가 상기 제1 회전 제스쳐이면, 상기 제1 저작 상태를 상기 편집 상태 또는 상기 녹화 상태 중 어느 하나로 설정하고, 상기 제1손의 상기 제스쳐가 상기 제2 회전 제스쳐이면, 상기 제2 저작 상태를 설정하는 것을 특징으로 할 수 있다.Here, the gesture may include a first rotation gesture indicating an operation in which the first hand rotates while holding the fist, and a second rotation gesture indicating an operation in which the first hand rotates in a state where the palm is rotated, The authoring state setting unit sets the first authoring state to one of the editing state and the recording state if the gesture of the first hand is the first rotational gesture and sets the gesture of the first hand to the second state, And setting the second authoring state if the gesture is a rotation gesture.

여기서, 상기 저작 상태 설정부는 상기 제스쳐가 상기 제1 회전 제스쳐인 경우, 상기 제1손에 대한 상기 손 정보를 이용하여 상기 제1손이 미리 정해진 일정한 방향으로 미리 정해진 일정한 각도 이상 회전하는지 여부를 판단하고, 미리 정해진 순서에 따라 상기 제1 저작 상태를 변경하고, 상기 제스쳐가 상기 제2 회전 제스쳐인 경우, 상기 제1손에 대한 상기 손 정보를 이용하여 상기 제1손이 미리 정해진 일정한 방향으로 미리 정해진 일정한 각도 이상 회전하는지 여부를 판단하고, 미리 정해진 순서에 따라 상기 제2 저작 상태를 변경하는 것을 특징으로 할 수 있다.Here, when the gesture is the first rotation gesture, the authoring state setting unit determines whether the first hand rotates by a predetermined angle or more in a predetermined predetermined direction using the hand information about the first hand And changing the first authoring state according to a predetermined order, and when the gesture is the second rotation gesture, using the hand information about the first hand, the first hand moves in advance in a predetermined fixed direction Determining whether or not the rotation is over a predetermined constant angle, and changing the second authoring state according to a predetermined order.

여기서, 상기 제스쳐는 상기 제2손의 미리 정해진 일정한 동작에 따른 추가 제스쳐, 삭제 제스쳐를 포함하고, 상기 컨텐츠 생성부는, 상기 제1 저작 상태가 상기 편집 상태인 경우, 상기 제2손의 상기 제스쳐가 상기 추가 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 3차원 컨텐츠 공간에 상기 3차원 애니메이션 객체를 추가하고, 상기 제2손의 상기 제스쳐가 상기 삭제 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 3차원 컨텐츠 공간에서 상기 3차원 애니메이션 객체를 삭제하는 것을 특징으로 할 수 있다.Here, the gesture may include an additional gesture and a deletion gesture according to a predetermined predetermined operation of the second hand, and the content generation unit may generate the gesture when the first authoring state is the editing state, Adding the 3D animation object to the 3D content space using the hand information for the second hand if the gesture is the delete gesture and if the gesture of the second hand is the delete gesture, The 3D animation object is deleted from the 3D content space using the hand information for the 3D animation object.

여기서, 상기 제스쳐는 상기 제2손이 수평면 상에서 좌우로 움직이는 동작에 따른 타임라인 설정 제스쳐를 포함하고, 상기 컨텐츠 생성부는, 상기 제2 저작 상태가 상기 타임라인 설정 상태인 경우, 상기 제2손의 상기 제스쳐가 상기 타임라인 설정 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 3차원 컨텐츠의 타임라인 상의 시간을 설정하는 것을 특징으로 할 수 있다.Here, the gesture may include a time line setting gesture according to an operation in which the second hand moves left and right on the horizontal plane, and the content generation unit may generate a time line setting gesture And setting the time on the time line of the 3D content using the hand information for the second hand if the gesture is the time line setting gesture.

여기서, 상기 제스쳐는 상기 제2손의 미리 정해진 일정한 동작에 따른 녹화 시점 설정 제스쳐를 포함하고, 상기 컨텐츠 생성부는, 상기 제2손의 상기 제스쳐가 상기 녹화 시점 설정 제스쳐이면, 상기 3차원 컨텐츠 공간의 상기 3차원 애니메이션 객체를 녹화하는 시점을 상기 제2손에 대한 상기 손 정보를 이용하여 설정하는 것을 특징으로 할 수 있다.Here, the gesture may include a recording time setting gesture according to a predetermined predetermined operation of the second hand, and the content generating unit may generate the recording time setting gesture when the gesture of the second hand is the recording time setting gesture. And setting a time point at which the 3D animation object is recorded using the hand information for the second hand.

여기서, 상기 제스쳐는 상기 제2손의 미리 정해진 움직임에 따른 선택 제스쳐, 위치 이동 제스쳐, 크기 변환 제스쳐, 제3 회전 제스쳐 중 어느 하나를 포함하고, 상기 컨텐츠 생성부는, 상기 제2 저작 상태가 상기 조작 상태인 경우, 상기 제2손의 상기 제스쳐가 상기 선택 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 3차원 컨텐츠 공간 상에서 상기 3차원 애니메이션 객체를 선택하고, 상기 제2손의 상기 제스쳐가 상기 위치 이동 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 선택된 상기 3차원 애니메이션 객체를 이동하고, 상기 제2손의 상기 제스쳐가 상기 크기 변환 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 선택된 상기 3차원 애니메이션 객체의 크기를 변환하고, 상기 제2손의 상기 제스쳐가 상기 제3 회전 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 선택된 상기 3차원 애니메이션 객체를 회전하는 것을 특징으로 할 수 있다.Here, the gesture may include any one of a selection gesture, a position movement gesture, a size conversion gesture, and a third rotation gesture according to a predetermined movement of the second hand, Dimensional content space using the hand information on the second hand, if the gesture of the second hand is the selection gesture, selecting the three-dimensional animation object on the three-dimensional content space, Moving the selected three-dimensional animation object using the hand information for the second hand if the gesture is the position-shifting gesture; and if the gesture of the second hand is the resize gesture, Dimensional animation object using the hand information of the first hand, and the gesture of the second hand Dimensional animation object using the hand information for the second hand if the 3D animation object is a three-rotation gesture.

여기서, 상기 선택 제스쳐, 위치 이동 제스쳐, 크기 변환 제스쳐, 제3 회전 제스쳐는 각각 상기 제2손의 움직임 중 상기 제2손의 미리 정해진 2개의 손가락인 제1 손가락, 제2 손가락, 상기 제2손의 손바닥 중 어느 하나의 미리 정해진 움직임에 따라 미리 정의되고, 상기 컨텐츠 생성부는, 상기 제2손의 상기 제스쳐가 상기 선택 제스쳐이면, 상기 손 정보 중 상기 제1 손가락과 상기 제2 손가락의 위치에 관한 정보를 이용하여, 상기 3차원 컨텐츠 공간 상에서 상기 3차원 애니메이션 객체를 선택하고, 상기 제2손의 상기 제스쳐가 상기 위치 이동 제스쳐이면, 상기 손 정보 중 상기 제1 손가락의 위치에 관한 정보를 이용하여, 상기 선택된 상기 3차원 애니메이션 객체를 이동하고, 상기 제2손의 상기 제스쳐가 상기 크기 변환 제스쳐이면, 상기 손 정보 중 상기 제1 손가락과 상기 제2 손가락의 위치에 관한 정보를 이용하여, 상기 선택된 상기 3차원 애니메이션 객체의 크기를 변환하고, 상기 제2손의 상기 제스쳐가 상기 제3 회전 제스쳐이면, 상기 손 정보 중 상기 손바닥의 방향에 관한 정보를 이용하여, 상기 선택된 상기 3차원 애니메이션 객체를 회전하는 것을 특징으로 할 수 있다.Here, the selection gesture, the position movement gesture, the size conversion gesture, and the third rotation gesture are respectively the first finger, the second finger, the second hand, and the second hand, which are predetermined two fingers of the second hand, Wherein the content generating unit is configured to predefine a position of the first finger and the second finger in the hand information when the gesture of the second hand is the selection gesture, Information on the position of the first finger in the three-dimensional content space, and if the gesture of the second hand is the position-moving gesture, information on the position of the first finger in the hand information is used Moving the selected three-dimensional animation object, and if the gesture of the second hand is the resize gesture, moving the first Dimensional animation object by using information about the position of the finger and the second finger, and if the gesture of the second hand is the third rotation gesture, converting the size of the selected three- Dimensional animation object by rotating the selected three-dimensional animation object using information about a direction of the three-dimensional animation object.

여기서, 상기 제2 저작 상태는 움직임 효과 설정 상태를 포함하고, 상기 제1 저작 상태가 상기 녹화 상태인 경우 상기 제2 저작 상태는 상기 움직임 효과 설정 상태가 될 수 있고, 상기 제스쳐는 상기 제2손의 미리 정해진 일정한 동작에 따라 적어도 하나 이상의 미리 정해진 움직임 효과를 설정하는 움직임 효과 설정 제스쳐를 포함하고, 상기 컨텐츠 생성부는, 상기 제1 저작 상태가 상기 움직임 효과 설정 상태인 경우, 상기 제2손의 상기 제스쳐가 상기 움직임 효과 설정 제스쳐이면, 상기 제2손의 상기 손 정보를 이용하여, 상기 3차원 컨텐츠 공간에서 상기 3차원 애니메이션 객체의 움직임 효과를 설정하는 것을 특징으로 할 수 있다.Here, the second authoring state may include a motion effect setting state, and when the first authoring state is the recording state, the second authoring state may be the motion effect setting state, and the gesture may include the second hand And a motion effect setting gesture that sets at least one predetermined motion effect according to a predetermined constant motion of the second hand when the first motion state is in the motion effect setting state, And setting a motion effect of the 3D animation object in the 3D content space using the hand information of the second hand if the gesture is the motion effect setting gesture.

여기서, 상기 손 정보 중 아웃라이어를 제거하는 전처리부를 더 포함하는 것을 특징으로 할 수 있다.The apparatus may further include a preprocessor for removing the outlier from the hand information.

상기 과제를 해결하기 위해, 본 발명의 일 유형에 따른 3차원 애니메이션 컨텐츠 저작 방법은, 사용자의 손을 3차원 공간 상에서 감지하고, 상기 사용자의 손의 3차원 공간 상에서의 위치 또는 방향에 대한 정보인 손 정보를 획득하는 동작 감지 단계; 상기 획득된 손 정보를 이용하여, 상기 사용자의 손의 동작에 따라 미리 정의된 일정한 의미를 가지는 제스쳐를 인식하는 제스쳐 인식 단계; 및 미리 정해진 일정한 종류의 저작 상태에 따라, 상기 획득된 손 정보와 상기 인식된 제스쳐를 이용하여, 3차원 애니메이션 객체를 3차원 컨텐츠 공간 상에서 편집 또는 녹화하여 3차원 컨텐츠를 저작하는 3차원 컨텐츠 저작 단계를 포함하는 것을 특징으로 할 수 있다.According to one aspect of the present invention, there is provided a method for authoring a three-dimensional animation content, the method comprising the steps of sensing a user's hand in a three-dimensional space and displaying information on the position or direction of the user's hand on the three- An operation detecting step of obtaining hand information; A gesture recognition step of recognizing a gesture having a predetermined meaning defined in advance according to an operation of the user's hand using the obtained hand information; And a three-dimensional content authoring step for authoring the three-dimensional content by editing or recording the three-dimensional animation object on the three-dimensional content space using the obtained hand information and the recognized gesture according to a predetermined predetermined type of authoring state And a control unit.

여기서, 상기 제스쳐 인식 단계는, 미리 정해진 일정한 시간 동안 상기 동작 감지 단계에서 획득된 상기 손 정보를 저장하는 손 정보 저장 단계; 상기 사용자의 손 중 어느 하나의 손인 제1손에 대하여, 상기 손 정보 저장 단계에서 시간에 따라 저장된 상기 손 정보를 이용하여, 상기 제1손의 동작에 따른 상기 제스쳐를 인식하는 제1손 제스쳐 의미 판단 단계; 및 상기 사용자의 손 중 상기 제1손이 아닌 나머지 손인 제2손에 대하여, 상기 손 정보 저장 단계에서 시간에 따라 저장된 상기 손 정보를 이용하여, 상기 제2손의 동작에 따른 상기 제스쳐를 인식하는 제2손 제스쳐 의미 판단 단계를 포함하는 것을 특징으로 할 수 있다.Here, the gesture recognition step may include: a hand information storage step of storing the hand information obtained in the operation sensing step for a predetermined period of time; A first hand gesture means for recognizing the gesture according to an operation of the first hand, using the hand information stored according to time in the hand information storing step, with respect to a first hand, which is one of the hands of the user, Determining; And recognizing the gesture according to an operation of the second hand using the hand information stored in the hand information storing step with respect to a second hand of the user's hands other than the first hand, And a second hand gesture semantic determination step.

여기서, 상기 3차원 컨텐츠 저작 단계는, 상기 제1손 제스쳐 의미 판단 단계에서 인식된 상기 제1손의 상기 제스쳐에 따라 상기 저작 상태를 설정하는 저작 상태 설정 단계; 및 상기 설정된 저작 상태에서, 상기 제2손 제스쳐 의미 판단 단계에서 인식된 상기 제2손의 상기 제스쳐에 따라 상기 3차원 애니메이션 객체를 상기 3차원 컨텐츠 공간 상에서 편집 또는 녹화하여 상기 3차원 컨텐츠를 생성하는 컨텐츠 생성 단계를 포함하는 것을 특징으로 할 수 있다.Here, the three-dimensional content authoring step may include: a authoring state setting step of setting the authoring state according to the gesture of the first hand recognized in the first hand gesture semantic determination step; And, in the set authoring state, editing or recording the 3D animation object on the 3D content space according to the gesture of the second hand recognized in the second hand gesture semantic determination step to generate the 3D content And a content generation step.

본 발명에 따른 3차원 애니메이션 컨텐츠 저작 장치에 의하면, 높은 정확도를 가지고 사용자의 양손의 움직임을 통하여 3차원 객체를 조작하거나 3차원 애니메이션을 저작할 수 있고, 일반적인 사용자도 직관적으로 손쉽고 빠르게 이용할 수 있는 효과가 있다.According to the 3D animation content authoring apparatus of the present invention, it is possible to manipulate a three-dimensional object or author a three-dimensional animation through movement of both hands of a user with high accuracy and to easily and quickly use the general user intuitively .

또한 복잡한 장치가 필요 없이 간단한 설치만으로도 3차원 인터페이스 환경을 구축할 수 있고, 초보자도 제스처만으로 쉽고 빠르게 3차원 애니메이션을 저작할 수 있는 인터페이스를 제공한다.In addition, it is possible to build a 3D interface environment with a simple installation without complicated devices, and it provides an interface that a beginner can easily and quickly author 3D animation with only a gesture.

도 1는 본 발명의 일 실시예에 따른 3차원 애니메이션 컨텐츠 저작 장치의 블록도이다.
도 2는 본 발명의 또 다른 실시예에 따른 3차원 애니메이션 컨텐츠 저작 장치의 블록도이다.
도 3은 본 발명의 동작감지부의 세부 블록도이다.
도 4는 본 발명의 손 정보를 설명하기 위한 참고도이다.
도 5는 본 발명의 제스쳐 인식부를 설명하기 위한 참고도이다.
도 6은 본 발명의 사용자의 제1손과 제2손을 설명하기 위한 참고도이다.
도 7은 본 발명의 제스쳐 인식부와 3차원 컨텐츠 저작부의 세부 블록도이다.
도 8은 본 발명의 저작 상태를 설명하기 위한 참고도이다.
도 9는 본 발명의 제스쳐 중 제1 및 제2 회전 제스쳐와 그에 따른 저작 상태 설정부의 동작을 설명하기 위한 참고도이다.
도 10은 본 발명의 저작 생태 중 타임라인 설정 상태를 설명하기 위한 참고도이다.
도 11은 본 발명의 컨텐츠 생성부의 녹화 시점 설정 동작을 설명하기 위한 참고도이다.
도 12는 본 발명의 제스쳐 중 위치 이동 제스쳐를 설명하기 위한 참고도이다.
도 13은 본 발명의 제스쳐 중 제3 회전 제스쳐를 설명하기 위한 참고도이다.
1 is a block diagram of a 3D animation content authoring apparatus according to an embodiment of the present invention.
2 is a block diagram of a 3D animation content authoring apparatus according to another embodiment of the present invention.
3 is a detailed block diagram of the motion sensing unit of the present invention.
4 is a reference diagram for explaining hand information of the present invention.
5 is a reference diagram for explaining the gesture recognition unit of the present invention.
6 is a reference diagram for explaining the first hand and the second hand of the user of the present invention.
7 is a detailed block diagram of a gesture recognition unit and a 3D content authoring unit of the present invention.
8 is a reference diagram for explaining the state of the present invention.
FIG. 9 is a reference view for explaining the operation of the first and second rotation gestures of the gesture of the present invention and the operation of the authoring state setting unit.
FIG. 10 is a reference diagram for explaining a time line setting state in the authoring ecology of the present invention.
11 is a reference diagram for explaining a recording-time setting operation of the content generation unit of the present invention.
12 is a reference view for explaining a position shifting gesture among the gestures of the present invention.
13 is a reference diagram for explaining the third rotation gesture of the gesture of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the preferred embodiments of the present invention will be described below, but it is needless to say that the technical idea of the present invention is not limited thereto and can be variously modified by those skilled in the art.

도 1는 본 발명의 일 실시예에 따른 3차원 애니메이션 컨텐츠 저작 장치의 블록도이다.1 is a block diagram of a 3D animation content authoring apparatus according to an embodiment of the present invention.

상기 본 발명에 따른 3차원 애니메이션 컨텐츠 저작 장치는 동작 감지부(100), 제스쳐 인식부(200), 3차원 컨텐츠 저작부(300)를 포함할 수 있다.The 3D animation contents authoring apparatus according to the present invention may include a motion sensing unit 100, a gesture recognition unit 200, and a 3D content authoring unit 300.

도 2는 본 발명의 또 다른 실시예에 따른 3차원 애니메이션 컨텐츠 저작 장치의 블록도이다.2 is a block diagram of a 3D animation content authoring apparatus according to another embodiment of the present invention.

상기 본 발명에 따른 3차원 애니메이션 컨텐츠 저작 장치는 동작 감지부(100), 전처리부(150), 제스쳐 인식부(200), 3차원 컨텐츠 저작부(300)를 포함할 수 있다.The 3D animation contents authoring apparatus according to the present invention may include a motion sensing unit 100, a preprocessor 150, a gesture recognition unit 200, and a 3D content authoring unit 300.

또한 본 발명에 따른 3차원 애니메이션 컨텐츠 저작 장치는 화면 표시부(400)를 더 포함할 수 있다.In addition, the 3D animation content authoring apparatus according to the present invention may further include a screen display unit 400.

동작 감지부(100)는 사용자의 손을 3차원 공간 상에서 감지하고, 상기 사용자의 손의 3차원 공간 상에서의 위치 또는 방향에 대한 정보인 손 정보를 획득한다.The motion sensing unit 100 senses the user's hand in a three-dimensional space and acquires hand information, which is information on the position or direction of the user's hand in the three-dimensional space.

여기서 손 정보는 사용자의 손의 특정 부분이 3차원 공간 상에 위치하는 좌표 정보를 포함할 수 있고, 또는 사용자의 손의 특정 부분이 3차원 공간 상에서 향하는 방향에 대한 정보를 포함할 수도 있다.Herein, the hand information may include coordinate information in which a specific portion of the user's hand is located on the three-dimensional space, or may include information on a direction in which a specific portion of the user's hand faces on the three-dimensional space.

예를 들면 상기 손 정보는 사용자의 오른손의 검지 손가락 끝 부분이 3차원 공간 산에서 위치하는 좌표 정보와, 사용자의 손의 손바닥이 향하는 방향으로 손바닥의 법선 방향에 대한 정보가 될 수 있다.For example, the hand information may be coordinate information in which the index fingertip portion of the right hand of the user is located in the three-dimensional space and information on the normal direction of the palm in the direction of the palm of the user's hand.

동작 감지부(100)는 3차원 공간 상에서 감지된 사용자의 손에 대하여 위와 같은 손 정보를 획득한다.The motion sensing unit 100 acquires the hand information as described above with respect to the user's hand sensed in the three-dimensional space.

제스쳐 인식부(200)는 상기 획득된 손 정보를 이용하여, 상기 사용자의 손의 동작에 따라 미리 정의된 일정한 의미를 가지는 제스쳐를 인식한다.The gesture recognition unit 200 recognizes a gesture having a predetermined meaning defined according to the operation of the user's hand by using the obtained hand information.

여기서 제스쳐는 미리 정해진 일정한 종류를 가질 수 있다. 즉 제스쳐 인식부(200)는 사용자의 손의 다양한 동작에 따른 상기 손 정보를 이용하여, 상기 손 정보가 미리 정해진 일정한 패턴의 사용자의 손 동작에 대응하는지 여부를 판단할 수 있고, 만일 상기 손 정보가 미리 정해진 일정한 패턴의 사용자의 손 동작에 대응하는 경우, 상기 미리 정해진 일정한 패턴의 사용자의 손 동작에 대하여 미리 정의된 일정한 의미를 가지는 제스쳐로 인식할 수 있다.Here, the gesture may have a certain predetermined kind. That is, the gesture recognition unit 200 can determine whether or not the hand information corresponds to a predetermined hand motion of a predetermined pattern by using the hand information according to various operations of the user's hand, The gesture may be recognized as a gesture having a predefined meaning with respect to the hand motion of the user of the predetermined pattern having a predetermined pattern.

예를 들면 사용자의 오른손의 검지 손가락 끝 부분이 3차원 공간 상에서 이동하는 경우를 가정하면, 동작 감지부(100)는 상기 손 정보는 사용자의 오른손의 검지 손가락 끝 부분이 3차원 공간 상에서 이동함에 따른 오른 검지 손가락 끝 부분의 위치 정보를 획득하고, 제스쳐 인식부(200)는 위와 같이 획득된 손 정보를 이용하여 사용자의 오른손의 검지 손가락 끝 부분이 3차원 공간 상에서 이동하는 동작이 미리 정해진 일정한 패턴의 사용자의 손 동작에 대응하는지 여부를 판단할 수 있다. 이 때 만일 미리 정해진 패턴의 사용자의 손 동작으로 오른 검지 손가락 끝 부분이 움직이는 손 동작이 있고, 위와 같은 손 동작에 대하여 '객체의 위치 이동 제스쳐'라는 의미가 미리 정의되어 있는 경우, 제스쳐 인식부(200)는 상기 획득한 손 정보가 미리 정해진 패턴의 사용자의 손 동작인 오른 검지 손가락 끝 부분이 움직이는 손 동작에 대응하는지 여부를 판단하고, 대응하는 경우 상기 손 동작에 대하여 미리 정해져 있는 의미인 '객체의 위치 이동 제스쳐'를 인식할 수 있다.For example, assuming that the index finger portion of the user's right hand moves on the three-dimensional space, the motion sensing unit 100 determines that the hand information is obtained by moving the index finger portion of the user's right hand in the three- The gesture recognition unit 200 acquires the position information of the right index fingertip, and the gesture recognition unit 200 detects the movement of the index finger portion of the right hand of the user in the three-dimensional space using the hand information obtained as described above, It is possible to judge whether or not it corresponds to the hand motion of the user. At this time, if there is a hand operation in which the right index fingertip portion moves by the user's hand operation of a predetermined pattern and the meaning of 'the position movement gesture of the object' is defined in advance for the above hand operation, the gesture recognition unit 200 determines whether or not the obtained hand information corresponds to a hand operation in which a right index fingertip portion of a user's hand operation in a predetermined pattern corresponds to a moving hand operation, and if so, Quot; position movement gesture "

3차원 컨텐츠 저작부(300)는 미리 정해진 일정한 종류의 저작 상태에 따라, 상기 획득된 손 정보와 상기 인식된 제스쳐를 이용하여, 3차원 애니메이션 객체를 3차원 컨텐츠 공간 상에서 편집 또는 녹화하여 3차원 컨텐츠를 저작한다.The three-dimensional content authoring unit 300 edits or records the three-dimensional animation object on the three-dimensional content space using the obtained hand information and the recognized gesture according to a predetermined fixed type of authoring state, Author.

여기서 상기 저작 상태는 본 발명에 따른 3차원 애니메이션 컨텐츠 저작 장치가 3차원 컨텐츠를 저작하는 상태를 의미하며, 예를 들면 편집 상태 또는 녹화 상태가 될 수 있다.Here, the authoring state refers to a state in which the 3D animation contents authoring apparatus according to the present invention author three-dimensional contents, for example, an editing state or a recording state.

3차원 컨텐츠 저작부(300)는 상기 저작 상태에 따라 동작 감지부(100)에서 획득된 손 정보와 제스쳐 인식부(200)에서 인식된 제스쳐를 이용하여 3차원 컨텐츠를 저작할 수 있다.The 3D content authoring unit 300 may author 3D content using the hand information acquired by the motion sensing unit 100 and the gesture recognized by the gesture recognition unit 200 according to the authoring state.

또한 3차원 컨텐츠 저작부(300)는 상기 사용자의 손이 위치하는 3차원 공간을 상기 3차원 컨텐츠 공간 상으로 매핑하고, 상기 사용자의 손에 따른 손 정보를 상기 3차원 컨텐츠 공간 상에 특정한 기호를 이용하여 표시할 수 있다. 그리고 위와 같이 특정한 기호를 이용하여 표시된 손 정보와 3차원 에니메이션 객체를 포함하는 3차원 컨텐츠 공간에 관한 영상을 생성할 수 있다.In addition, the 3D content authoring unit 300 maps the 3D space in which the user's hand is located onto the 3D content space, and generates hand information corresponding to the user's hand on the 3D content space Can be displayed. Then, by using a specific symbol as described above, an image related to the three-dimensional content space including the displayed hand information and the three-dimensional animation object can be generated.

예를 들면 3차원 컨텐츠 저작부(300)는 사용자의 손이 존재하는 3차원 공간 상에서 사용자의 오른손의 검지 손가락 끝이 위치하는 좌표에 따라 3차원 컨텐츠 공간 상에 특정한 기호를 이용하여 위 오른손의 검지 손가락 끝이 위치를 표시할 수 있다.For example, the three-dimensional content authoring unit 300 may detect the upper right hand using the specific symbol on the three-dimensional content space according to the coordinates of the index finger of the user's right hand on the three- The fingertip can indicate the position.

이하에서는 상기 사용자의 손이 위치하는 3차원 공간이 3차원 컨텐츠 공간에 매핑된 3차원 컨텐츠 공간에 관한 영상을 기준으로, 본 발명에 따른 3차원 애니메이션 컨텐츠 저작 장치 및 그에 관한 방법의 동작을 설명한다.Hereinafter, the operation of the 3D animation content authoring apparatus and method according to the present invention will be described based on an image related to the 3D content space in which the 3D space where the user's hand is located is mapped to the 3D content space .

전처리부(150)는 상기 손 정보 중 아웃라이어를 제거하는 동작을 수행할 수 있다.The preprocessor 150 may perform an operation of removing the outlier from the hand information.

상기 손 정보는 동작 감지부(100)의 오류에 따라 실제 사용자의 손 동작과는 상이한 정보로 획득될 수 있다. 따라서 제스쳐 인식부(200)에 입력되기 이전 전처리부(150)를 통해 위와 같이 오류에 따라 잘못 획득된 손 정보인 아웃라이어를 제거하는 것이 바람직하다.The hand information may be obtained as information different from a hand operation of an actual user according to an error of the motion sensing unit 100. [ Therefore, it is preferable to remove the outlier, which is hand information erroneously obtained in accordance with the error, through the preprocessing unit 150 before being input to the gesture recognition unit 200.

여기서 전처리부(150)는 일정한 수의 데이터 중에서 아웃라이어에 해당하는 데이터를 제거하는 다양한 기존 방법들을 사용할 수 있다. 예를 들면 전처리부(150)는 미디언 필터링을 이용하여 동작 감지부(100)에서 획득된 손 정보 중 아웃라이어를 제거할 수도 있다.Here, the preprocessing unit 150 may use various existing methods for removing data corresponding to an outlier from a predetermined number of data. For example, the preprocessor 150 may remove the outlier from the hand information acquired by the motion sensing unit 100 using median filtering.

화면 표시부(400)는 3차원 컨텐츠 저작부(300)에서 생성한 3차원 컨텐츠 공간에 관한 영상을 입력받아 화면에 표시할 수 있다. 즉 화면 표시부(400)는 상기 3차원 컨텐츠 공간 상에서 3차원 컨텐츠 저작부(300)가 편집 또는 녹화하는 3차원 애니메이션 객체와 3차원 컨텐츠 공간을 사용자에게 화면으로 표시할 수 있다. 또한 화면 표시부(400)는 3차원 컨텐츠 저작부(300)가 저작한 상기 3차원 컨텐츠를 입력받아 화면에 표시할 수도 있다. 사용자는 화면 표시부(400)를 통하여 상기 3차원 컨텐츠 공간에 관한 영상을 실시간으로 확인하면서 사용자가 저작하는 3차원 컨텐츠의 내용을 실시간으로 확인하고 편집 및 녹화할 수 있다.The screen display unit 400 may receive an image related to the three-dimensional content space generated by the three-dimensional content authoring unit 300 and display the input image on the screen. That is, the screen display unit 400 can display a three-dimensional animation object and a three-dimensional content space, which are edited or recorded by the three-dimensional content authoring unit 300, on the three-dimensional content space. Also, the screen display unit 400 may receive the 3D content authored by the 3D content authoring unit 300 and display the 3D content on the screen. The user can view, edit, and record the content of the three-dimensional content authored by the user in real time while checking the image related to the three-dimensional content space in real time through the screen display unit 400.

이하에서는 동작 감지부(100), 제스쳐 인식부(200), 3차원 컨텐츠 저작부(300)의 세부 동작에 대하여 보다 상세히 설명한다.Hereinafter, detailed operation of the motion sensing unit 100, the gesture recognition unit 200, and the 3D content authoring unit 300 will be described in detail.

도 3은 본 발명의 동작 감지부(100)의 세부 블록도이다.3 is a detailed block diagram of the motion sensing unit 100 of the present invention.

동작 감지부(100)는 센서부(110), 손 정보 획득부(120)를 포함할 수 있다.The motion sensing unit 100 may include a sensor unit 110 and a hand information acquisition unit 120. [

센서부(110)는 상기 사용자의 손을 3차원 공간 상에서 감지한다.The sensor unit 110 senses the user's hand on the three-dimensional space.

손 정보 획득부(120)는 상기 손 정보를 일정한 간격의 시간 별로 획득한다.The hand information obtaining unit 120 obtains the hand information at predetermined intervals of time.

여기서 센서부(110)는 적어도 2개 이상의 카메라를 이용하여 상기 사용자의 손을 3차원 공간 상에서 감지하는 것이 바람직하다.Here, it is preferable that the sensor unit 110 senses the user's hand in a three-dimensional space using at least two cameras.

또한 센서부(110)는 적어도 2개 이상의 적외선 카메라와 적외선 발광장치를 구비하고, 상기 적외선 발광장치가 발광하는 적외선이 상기 사용자의 손에 반사되어 오는 광을 상기 적외선 카메라로 촬영하고, 각 상기 적외선 카메라로 촬영한 광에 따른 영상을 획득할 수 있다.In addition, the sensor unit 110 includes at least two infrared cameras and an infrared light emitting device. The infrared light emitted by the infrared light emitting device captures light reflected by the user's hand with the infrared camera, It is possible to acquire an image according to the light photographed by the camera.

여기서 손 정보 획득부(120)는 위와 같이 2개의 카메라를 이용하여 획득한 영상들에 대하여 시차맵을 획득하고, 상기 시차맵을 이용하여 상기 사용자의 손에 대한 상기 손 정보를 획득할 수 있다.Here, the hand information obtaining unit 120 may obtain the parallax map for the images obtained using the two cameras as described above, and may obtain the hand information for the hand of the user using the parallax map.

여기서 상기 사용자의 손에 대한 손 정보는 손의 형상 또는 3차원 공간 상에서의 위치 또는 방향에 관한 정보를 포함할 수 있다.Here, the hand information on the user's hand may include information on the shape of the hand or the position or direction on the three-dimensional space.

또한 손 정보 획득부(120)는 시간 별로 사용자의 손에 대한 상기 손 정보를 획득하는 것이 바람직하다. 즉 시간히 흐름에 따라 미리 정해진 일정한 시간 간격 별로, 사용자의 손에 대한 상기 손 정보를 획득하는 것이 바람직하다.In addition, the hand information obtaining unit 120 preferably obtains the hand information for the user's hand over time. That is, it is preferable to obtain the hand information for the user's hand at predetermined time intervals predetermined in accordance with the flow of time.

여기서 손 정보 획득부(120)는 상기 센서부(110)에서 감지된 상기 사용자의 손을 시간에 따라 트래킹하고, 상기 트래킹한 상기 사용자의 손을 이용하여, 상기 손 정보를 일정한 간격의 시간 별로 획득하는 것이 바람직하다.Here, the hand information obtaining unit 120 tracks the hand of the user detected by the sensor unit 110 according to time, and obtains the hand information at predetermined intervals of time using the user's hand .

여기서 상기 손 정보를 획득하는 일정한 간격은 필요에 따라 설정될 수 있다. 예를 들면 1/10초 또는 1/20초와 같이 설정될 수 있다.Here, the predetermined interval for acquiring the hand information can be set as needed. For example, 1/10 second or 1/20 second.

여기서 상기 손 정보는 상기 사용자의 왼손 또는 오른손을 식별하는 양손 식별정보, 상기 사용자의 각 손가락을 식별하는 손가락 식별정보, 상기 사용자의 각 손 또는 각 손가락의 위치 정보, 손바닥의 방향 정보를 포함할 수 있다.Here, the hand information may include two-handed identification information for identifying the left or right hand of the user, finger identification information for identifying each finger of the user, position information of each hand or each finger of the user, and direction information of the palm have.

도 4는 본 발명의 손 정보를 설명하기 위한 참고도이다.4 is a reference diagram for explaining hand information of the present invention.

도 4를 참조하면 상기 손 정보는 사용자의 손(H)의 엄지(F1), 검지(F2), 중지(F3), 약지(F4), 새끼손가락(F5)을 각 식별하는 상기 손가락 식별정보와, 상기 각 손가락의 위치 정보를 포함할 수 있다. 4, the hand information includes the finger identification information for identifying the thumb F1, the finger F2, the stop F3, the finger F4, and the little finger F5 of the user's hand H, And position information of each finger.

여기서 각 손가락의 위치 정보는 각 손가락의 특정 부위를 기준으로 측정 또는 획득될 수 있다. 예를 들면 각 손가락의 끝 부위를 기준으로 각 손가락의 위치 정보가 측정 또는 획득될 수 있다. 또한 상기 손 정보는 사용자의 손(H)의 위치 정보를 포함할 수 있고, 여기서 사용자의 손(H)의 위치 정보는 도 4와 같이 손바닥의 중앙 부위 지점(P1)을 기준으로 측정 또는 획득될 수 있다. 또한 상기 손 정보는 사용자의 손(H)의 손바닥의 방향 정보(P2)를 포함할 수 있다. 여기서 상기 손바닥의 방향 정보(P2)는 손바닥 면과 수직인 법선 방향이 되는 것이 바람직하다.Here, the positional information of each finger can be measured or obtained based on a specific region of each finger. For example, the positional information of each finger can be measured or obtained based on the end portion of each finger. The hand information may include positional information of the user's hand H, wherein the positional information of the user's hand H is measured or obtained based on the center point P1 of the palm as shown in FIG. . The hand information may include direction information P2 of the palm of the user's hand H. [ Here, the direction information P2 of the palm may be a normal direction perpendicular to the palm surface.

이하에서는 제스쳐 인식부(200)의 동작에 대하여 보다 상세히 설명한다.Hereinafter, the operation of the gesture recognition unit 200 will be described in more detail.

도 5는 본 발명의 제스쳐 인식부(200)를 설명하기 위한 참고도이다.5 is a reference diagram for explaining the gesture recognition unit 200 of the present invention.

제스쳐 인식부(200)는 손 정보 저장부(210), 제1손 제스쳐 의미 판단부(220), 제2손 제스쳐 의미 판단부(230)를 포함한다.The gesture recognition unit 200 includes a hand information storage unit 210, a first hand gesture semantic determination unit 220, and a second hand gesture semantic determination unit 230.

손 정보 저장부(210)는 미리 정해진 일정한 시간 동안 상기 동작 감지부(100)에서 획득된 상기 손 정보를 저장한다.The hand information storage unit 210 stores the hand information acquired by the motion sensing unit 100 for a predetermined period of time.

예를 들면 손 정보 저장부(210)는 3초 동안 상기 동작 감지부(100)에서 획득된 상기 손 정보를 저장할 수 있다. 여기서 미리 정해진 일정한 시간은 필요에 따라 다양한 수치로 설정될 수 있다.For example, the hand information storage unit 210 may store the hand information acquired by the motion sensing unit 100 for 3 seconds. Here, the predetermined time may be set to various values as needed.

제1손 제스쳐 의미 판단부(220)는 상기 사용자의 손 중 어느 하나의 손인 제1손에 대하여, 손 정보 저장부(210)에 시간에 따라 저장된 상기 손 정보를 이용하여, 상기 제1손의 동작에 따른 상기 제스쳐를 인식한다.The first hand gesture semantic determination unit 220 determines the first hand using the hand information stored in the hand information storage unit 210 according to time with respect to the first hand as one of the hands of the user, And recognizes the gesture according to the operation.

제2손 제스쳐 의미 판단부(230)는 상기 사용자의 손 중 상기 제1손이 아닌 나머지 손인 제2손에 대하여, 손 정보 저장부(210)에 시간에 따라 저장된 상기 손 정보를 이용하여, 상기 제2손의 동작에 따른 상기 제스쳐를 인식한다.The second hand gesture meaning determiner 230 may determine the second hand using the hand information stored in the hand information storing unit 210 with respect to the second hand as the remaining hand among the hands of the user, And recognizes the gesture according to the motion of the second hand.

도 6은 본 발명의 사용자의 제1손과 제2손을 설명하기 위한 참고도이다.6 is a reference diagram for explaining the first hand and the second hand of the user of the present invention.

도 6을 참조하면 사용자의 손에 대하여 제1손(H1)과 제2손(H2)를 정할 수 있다. 본 발명에 따른 3차원 애니메이션 컨텐츠 저작 장치에서는 도 6과 같이 사용자의 왼손을 제1손(H1)으로, 오른손을 제2손(H2)으로 설정하는 것이 바람직하다. 이는 인간이 특정 작업을 하기 전에 왼손으로 먼저 행동을 취하게 되는 왼손 우선 현상(Y. Guiard, 'Asymmetric division of labor in human skilled bimanual action : The kinematic chain as a model,' Journal of motor behavior , vol. 19, no. 4, pp. 486-517, 1987.)을 반영하여 3차원 컨텐츠 저작을 보다 용이하게 할 수 있도록 하기 위함이다. 다만 사용자가 왼손잡이인 경우 오른손을 제1손으로, 왼손을 제2손으로 설정할 수도 있다.Referring to FIG. 6, the first hand H1 and the second hand H2 can be determined with respect to the user's hand. In the 3D animation content authoring apparatus according to the present invention, it is preferable that the left hand of the user is set as the first hand H1 and the right hand is set as the second hand H2 as shown in FIG. This is because the left-handed first-hand phenomenon, in which a person first takes action with his / her left hand before performing a specific task (Y. Guiard, 'Asymmetric division of labor in human skilled bimanual action: Journal of motor behavior, vol. 19, no. 4, pp. 486-517, 1987.) in order to facilitate three-dimensional content authoring. However, if the user is left-handed, the right hand may be set as the first hand and the left hand as the second hand.

여기서 제1손 제스쳐 의미 판단부(220)는 상기 제1손에 대한 상기 손 정보를 미리 정해진 손 동작 패턴들과 비교하여 상기 손 동작에 대응하는 상기 손 동작 패턴을 선택하고, 상기 손 동작 패턴에 대하여 미리 정의된 상기 제스쳐를 선택하여, 상기 제1손에 대한 상기 손 정보에 대응하는 상기 제스쳐를 인식하는 것이 바람직하다.Here, the first hand gesture sense determiner 220 may compare the hand information of the first hand with predetermined hand motion patterns to select the hand motion pattern corresponding to the hand motion, And the gesture corresponding to the hand information for the first hand is recognized.

상술한 바와 같이 여기서 제스쳐는 미리 정해진 일정한 종류를 가질 수 있다. 즉 제1손 제스쳐 의미 판단부(220)는 상기 손 정보를 이용하여 상기 손 정보가 미리 정해진 일정한 종류의 손 동작 패턴들과 각 대응하는지 여부를 판단할 수 있다. 여기서 만일 상기 손 정보가 미리 정해진 특정 손 동작 패턴과 대응하는 경우, 상기 미리 정해진 특정 손동작 패턴에 대하여 미리 정의된 일정한 의미를 가지는 제스쳐로 인식할 수 있다. 즉 각 손 동작 패턴 별로 미리 정의된 일정한 의미를 가지는 제스쳐가 정의되고, 손 정보가 특정 손 동작 패턴에 대응하는 경우, 해당 손 동작 패턴에 대하여 미리 정의된 의미의 제스쳐를 인식하는 것이다.As described above, the gesture may have a predetermined constant type. That is, the first hand gesture semantic determination unit 220 may determine whether the hand information corresponds to a predetermined kind of hand motion patterns using the hand information. Here, if the hand information corresponds to a predetermined specific hand movement pattern, the predetermined hand movement pattern may be recognized as a gesture having a predetermined meaning defined in advance. That is, a gesture having a predetermined meaning defined in advance for each hand movement pattern is defined, and when the hand information corresponds to a specific hand movement pattern, the gesture having a predefined meaning is recognized for the hand movement pattern.

예를 들면 사용자의 오른손의 검지 손가락 끝 부분이 3차원 공간 상에서 이동하는 경우를 가정하면, 동작 감지부(100)는 상기 손 정보는 사용자의 오른손의 검지 손가락 끝 부분이 3차원 공간 상에서 이동함에 따른 오른 검지 손가락 끝 부분의 위치 정보를 일정한 시간 간격으로 획득하고, 손 정보 저장부(210)는 상기 오른 검지 손가락 끝 부분의 위치 정보를 일정한 시간 동안 저장하고, 제1손 제스쳐 의미 판단부(220)는 손 정보 저장부(210)에 시간에 따라 저장된 상기 손 정보 즉 상기 오른 검지 손가락 끝 부분의 위치 정보를 이용하여, 상기 오른 검지 손가락 끝 부분의 위치 정보가 미리 정해진 특정 손 동작 패턴과 대응하는지 여부를 판단할 수 있다. 이 때 만일 미리 정해진 손동작 패턴으로 오른 검지 손가락 끝 부분이 움직이는 손 동작 패턴이 있고, 위와 같은 손 동작 패턴에 대하여 '객체의 위치 이동 제스쳐'라는 의미가 미리 정의되어 있는 경우, 제1손 제스쳐 의미 판단부(220)는 상기 획득한 손 정보가 위와 같은 오른 검지 손가락 끝 부분이 움직이는 손 동작 패턴에 대응하는지 여부를 판단하고, 대응하는 경우 상기 손 동작에 대하여 미리 정의된 의미인 '객체의 위치 이동 제스쳐'를 인식할 수 있다.For example, assuming that the index finger portion of the user's right hand moves on the three-dimensional space, the motion sensing unit 100 determines that the hand information is obtained by moving the index finger portion of the user's right hand in the three- The hand information storage unit 210 stores the position information of the right index fingertip for a predetermined period of time, and the first hand gesture meaning determiner 220 determines the position of the right index fingertip, Using the hand information stored in the hand information storage unit 210, i.e., the position information of the right index fingertip portion, whether the position information of the right index finger portion corresponds to a predetermined specific hand movement pattern Can be determined. In this case, if there is a hand motion pattern in which the right index fingertip portion moves in a predetermined hand motion pattern and the meaning of the 'position movement gesture of the object' is predefined for the above hand motion pattern, The controller 220 determines whether the obtained hand information corresponds to a hand motion pattern in which the right index fingertip moves as described above, and if it corresponds to the hand movement pattern, Can be recognized.

여기서 상기 손 정보를 손 동작 패턴과 비교하는 것은, 각 손 동작 패턴들과 상기 손 정보 간의 거리를 산출하고, 상기 산출된 거리가 최소가 되는 손 동작 패턴을 상기 손 정보에 대응하는 손 동작 패턴으로 선택하는 방식으로 수행될 수 있다.Here, the comparison of the hand information with the hand motion pattern may be performed by calculating the distance between each hand motion pattern and the hand information, and comparing the hand motion pattern with the calculated distance to the hand motion pattern corresponding to the hand information Or the like.

제2손 제스쳐 의미 판단부(230)는 상기 제2손에 대한 상기 손 정보를 미리 정해진 손 동작 패턴들과 비교하여 상기 손 동작에 대응하는 상기 손 동작 패턴을 선택하고, 상기 손 동작 패턴에 대하여 미리 정의된 상기 제스쳐를 선택하여, 상기 제2손에 대한 상기 손 정보에 대응하는 상기 제스쳐를 인식하는 것이 바람직하다.The second hand gesture sense determiner 230 may compare the hand information of the second hand with predetermined hand motion patterns to select the hand motion pattern corresponding to the hand motion, It is preferable to select the predefined gesture to recognize the gesture corresponding to the hand information for the second hand.

여기서 제2손 제스쳐 의미 판단부(230)는 제1손 제스쳐 의미 판단부(220)가 제1손에 대하여 수행한 동작과 동일한 방식으로 제2손에 대하여 동작을 수행하여 제2손에 대한 제스쳐를 인식할 수 있다. Here, the second hand gesture semantic determination unit 230 performs an operation on the second hand in the same manner as the first hand gesture semantic determination unit 220 performed on the first hand, Can be recognized.

이하에서는 3차원 컨텐츠 저작부(300)의 동작에 대하여 보다 상세히 설명한다.Hereinafter, the operation of the 3D content authoring unit 300 will be described in more detail.

도 7은 본 발명의 제스쳐 인식부(200)와 3차원 컨텐츠 저작부(300)의 세부 블록도이다.7 is a detailed block diagram of the gesture recognition unit 200 and the 3D content authoring unit 300 of the present invention.

3차원 컨텐츠 저작부(300)는 도 7과 같이 저작 상태 설정부(310), 컨텐츠 생성부(320)를 포함한다.The 3D content authoring unit 300 includes a authoring state setting unit 310 and a content generating unit 320 as shown in FIG.

저작 상태 설정부(310)는 제1손 제스쳐 의미 판단부(220)에서 인식된 상기 제1손의 상기 제스쳐에 따라 상기 저작 상태를 설정한다.The authoring state setting unit 310 sets the authoring state according to the gesture of the first hand recognized by the first hand gesture sense determiner 220.

컨텐츠 생성부(320)는 상기 설정된 저작 상태에서, 상기 제2손 제스쳐 의미 판단부(230)에서 인식된 상기 제2손의 상기 제스쳐에 따라 상기 3차원 애니메이션 객체를 상기 3차원 컨텐츠 공간 상에서 편집 또는 녹화하여 상기 3차원 컨텐츠를 생성한다.The content creator 320 may edit or edit the 3D animation object in the 3D content space according to the gesture of the second hand recognized by the second hand gesture semantic determiner 230 in the set authoring state And generates the three-dimensional content by recording.

즉 저작 상태 설정부(310)는 제1손에 따른 제스쳐와 손 정보를 이용하여 3차원 컨첸츠를 저작하기 위한 저작 상태를 설정하고, 컨텐츠 생성부(320)는 제2손에 따른 제스쳐와 손 정보를 이용하여 3차원 컨텐츠에 포함될 3차원 애니메이션 객체를 편집하고 편집된 3차원 애니메이션 객체에 따라 녹화를 수행하여 3차원 컨텐츠를 생성한다.That is, the authoring state setting unit 310 sets the authoring state for authoring the three-dimensional content using the gesture according to the first hand and the hand information, and the content generation unit 320 generates a gesture Dimensional content to be included in the three-dimensional content by using the information, and performs recording according to the edited three-dimensional animation object to generate the three-dimensional content.

도 8은 본 발명의 저작 상태를 설명하기 위한 참고도이다.8 is a reference diagram for explaining the state of the present invention.

도 8과 같이 상기 저작 상태는 편집 상태와 녹화 상태를 포함하는 제1 저작 상태와, 타임라인 설정 상태, 조작 상태를 포함하는 제2 저작 상태를 포함할 수 있다.As shown in FIG. 8, the authoring state may include a first authoring state including an editing state and a recording state, and a second authoring state including a timeline setting state and an operation state.

여기서 제1 저작 상태는 휴식(IDLE) 상태를 더 포함할 수 있고, 제2 저작 상태는 움직임 효과 설정 상태를 더 포함할 수 있다.Here, the first authoring state may further include an IDLE state, and the second authoring state may further include a motion effect setting state.

먼저 제1 저작 상태에 대하여 설명한다.First, the first authoring state will be described.

여기서 편집 상태는 컨텐츠 생성부(320)가 제2손에 따른 제스쳐와 손 정보를 이용하여 3차원 컨텐츠 공간 상에서 3차원 애니메이션 객체 또는 3차원 컨텐츠를 편집하는 상태를 의미한다. 예를 들면 편집 상태에서 컨텐츠 생성부(320)는 3차원 애니메이션 객체를 3차원 컨텐츠 공간에 추가하거나 삭제할 수 있고, 객체를 조작하여 시간에 따라 객체가 이동하는 경로를 설정할 수도 있다.Here, the editing state refers to a state in which the content generating unit 320 edits a three-dimensional animation object or three-dimensional content on a three-dimensional content space using a gesture and hand information according to a second hand. For example, in an editing state, the content generating unit 320 may add or delete a 3D animation object to a 3D content space, and may set a path along which the object moves according to time by manipulating the object.

여기서 녹화 상태는 위와 같이 편집된 3차원 애니메이션 객체들이 3차원 컨텐츠의 타임라인에 따라 동작하는 것을 녹화하는 것을 의미한다.Here, the recording state means that the 3D animation objects edited as described above are operated according to the timeline of the 3D content.

여기서 녹화는 별도로 설정된 녹화 시점 즉 가상의 카메라 시점에 따라 이루어진다. 즉 컨텐츠 생성부(320)는 3차원 컨텐츠 공간 상에서 3차원 애니메이션 객체의 경로와 함께, 녹화 시점을 설정할 수 있다. 여기서 녹화 시점은 특정한 3차원 애니메이션 객체를 기준으로 설정될 수 있고, 또는 3차원 컨텐츠 공간 좌표를 기준으로 설정될 수도 있다. 상기 녹화 상태는 위와 같이 설정된 녹화 시점에 따라 3차원 애니메이션 객체의 동작을 녹화하여 3차원 컨텐츠를 생성할 수 있다.In this case, the recording is performed according to a separately set recording point, that is, a virtual camera point. That is, the content generation unit 320 can set the recording time point along with the path of the 3D animation object on the 3D content space. Here, the recording time may be set based on a specific three-dimensional animation object, or may be set based on three-dimensional content space coordinates. The recording state can record the motion of the 3D animation object according to the set recording time as described above to generate the 3D content.

여기서 휴식(IDLE) 상태는 사용자의 손에 따른 제스쳐나 손 정보에 의하여 편집이나 녹화가 이루어지지 않는 상태를 의미한다.Here, the IDLE state refers to a state in which editing or recording is not performed due to a gesture or hand information according to a user's hand.

다음으로 제2 저작 상태에 대하여 설명한다.Next, the second authoring state will be described.

타임라인 설정 상태는 제2손에 따른 제스쳐와 손 정보를 이용하여 3차원 컨텐츠의 시간 정보를 관리하는 타임라인을 설정하는 상태를 의미한다. 3차원 컨텐츠는 특정 시간에 특정한 3차원 애니메이션 객체가 3차원 컨텐츠 공간 상의 특정 위치에 배치된 각 3차원 프레임으로 구성되는데, 이와 같은 프레임들에 대한 시간 정보를 관리하는 것이 타임라인이다.The timeline setting state refers to a state in which a timeline for managing time information of three-dimensional content is set using a gesture and hand information according to a second hand. The three-dimensional content is composed of three-dimensional frames in which a specific three-dimensional animation object at a specific time is arranged at a specific position in the three-dimensional content space. The time line for managing time information for such frames is a timeline.

조작 상태는 제2손에 따른 제스쳐와 손 정보를 이용하여 3차원 애니메이션 객체를 3차원 컨텐츠 공간 상에서 조작하는 상태를 의미한다. 여기서 조작이라 함은 객체를 선택하거나 선택된 객체의 위치를 이동시키거나, 크기를 변환시키거나 회전시키는 등의 조작 동작을 의미한다.The manipulation state refers to a state in which a 3D animation object is manipulated in a 3D content space using a gesture and hand information according to a second hand. Here, the operation refers to an operation such as selecting an object, moving a position of a selected object, or converting or rotating a size.

움직임 효과 설정 상태는 제2손에 따른 제스쳐와 손 정보를 이용하여 3차원 애니메이션 객체에 대한 미리 정의된 일정한 움직임 효과를 설정하는 상태를 의미한다. 예를 들면 미리 정의된 제2손의 제스쳐가 입력된 경우, 객체가 미리 정해진 횟수 만큼 회전하는 움직임 효과를 설정할 수 있다.The motion effect setting state refers to a state in which a predefined motion effect is set for the 3D animation object using the gesture and hand information according to the second hand. For example, when a predefined second hand gesture is input, a motion effect in which the object rotates a predetermined number of times can be set.

다음으로는 저작 상태 설정부(310)가 상기 제1 저작 상태 및 제2 저작 상태를 설정하고 변경하는 동작에 대하여 설명한다.Next, an operation of setting and changing the first and second authoring states by the authoring state setting unit 310 will be described.

도 8과 같이 저작 상태 설정부(310)는, 상기 제1 저작 상태가 상기 편집 상태인 경우, 상기 제2 저작 상태를 상기 조작 상태 또는 상기 타임라인 설정 상태 중 어느 하나로 설정할 수 있다.As shown in FIG. 8, the authoring state setting unit 310 may set the second authoring state to either the operation state or the time line setting state when the first authoring state is the editing state.

또한 저작 상태 설정부(310)는 상기 제1 저작 상태가 상기 녹화 상태인 경우, 상기 제2 저작 상태를 상기 조작 상태로 설정할 수 있다. 또는 움직임 효과 설정 상태로 설정할 수도 있다.The authoring state setting unit 310 may set the second authoring state to the operation state when the first authoring state is the recording state. Or a motion effect setting state.

여기서 상기 제스쳐는 상기 제1손이 주먹을 쥔 상태에서 회전하는 동작을 나타내는 제1 회전 제스쳐와, 상기 제1손이 손바닥을 편 상태에서 회전하는 동작을 나타내는 제2 회전 제스쳐를 포함할 수 있다.The gesture may include a first rotation gesture indicating an operation of rotating the first hand while holding the fist and a second rotation gesture indicating an operation of rotating the first hand in a state where the palm is rotated.

이때 저작 상태 설정부(310)는 상기 제1손의 상기 제스쳐가 상기 제1 회전 제스쳐이면, 상기 제1 저작 상태를 상기 편집 상태 또는 상기 녹화 상태 중 어느 하나로 설정할 수 있다.At this time, if the gesture of the first hand is the first rotation gesture, the authoring state setting unit 310 may set the first authoring state to either the editing state or the recording state.

즉 저작 상태 설정부(310)는 제1손 제스쳐 의미 판단부(220)에서 인식된 상기 제1손의 상기 제스쳐가 상기 제1 회전 제스쳐인 경우, 상기 제1 저작 상태를 상기 편집 상태 또는 상기 녹화 상태 중 어느 하나로 설정할 수 있다.That is, if the gesture of the first hand recognized by the first hand gesture semantic determination unit 220 is the first rotation gesture, the authoring state setting unit 310 sets the first authoring state to the editing state or the recording State.

또한 저작 상태 설정부(310)는 상기 제1손의 상기 제스쳐가 상기 제2 회전 제스쳐이면, 상기 제2 저작 상태를 설정할 수 있다.The authoring state setting unit 310 may set the second authoring state if the gesture of the first hand is the second rotational gesture.

도 9는 본 발명의 제스쳐 중 제1 및 제2 회전 제스쳐와 그에 따른 저작 상태 설정부의 동작을 설명하기 위한 참고도이다.FIG. 9 is a reference view for explaining the operation of the first and second rotation gestures of the gesture of the present invention and the operation of the authoring state setting unit.

도 9 (a)를 참조하면 제1손(H1)이 주먹을 쥔 상태에서 회전하는 동작(R1)을 나타내는 제1 회전 제스쳐를 취하고 있고, 이를 상기 제1손 제스쳐 의미 판단부(220)가 인식하면, 저작 상태 설정부(310)는 상기 제1 저작 상태를 편집(Edit) 상태(E12) 또는 녹화(Record) 상태(E13) 중 어느 하나로 설정할 수 있다.Referring to FIG. 9A, a first rotation gesture indicating an operation R1 in which the first hand H1 rotates while holding a fist is taken, and the first hand gesture semantic determination unit 220 recognizes The authoring state setting unit 310 may set the first authoring state to either the edit state E12 or the record state E13.

마찬가지로 도 9 (b)를 참조하면 제1손(H1)이 손바닥을 편 상태에서 회전하는 동작(R2)을 나타내는 제2 회전 제스쳐를 취하고 있고, 이를 상기 제1손 제스쳐 의미 판단부(220)가 인식하면, 저작 상태 설정부(310)는 상기 제2 저작 상태를 타임라인(Timeline) 설정 상태(E21) 또는 조작(Manipulate) 상태(E22) 또는 움직임 효과 설정 상태(E23) 중 어느 하나로 설정할 수 있다.9 (b), the first hand H1 takes a second rotation gesture indicating an operation R2 in which the palm is rotated, and the first hand gesture meaning determiner 220 determines The authoring state setting unit 310 may set the second authoring state to any one of a timeline setting state E21, a manipulation state E22, and a motion effect setting state E23 .

여기서 저작 상태 설정부(310)는 상기 제스쳐가 상기 제1 회전 제스쳐인 경우, 상기 제1손에 대한 상기 손 정보를 이용하여 상기 제1손이 미리 정해진 일정한 방향으로 미리 정해진 일정한 각도 이상 회전하는지 여부를 판단하고, 미리 정해진 순서에 따라 상기 제1 저작 상태를 변경할 수 있다.Here, if the gesture is the first rotation gesture, the authoring state setting unit 310 determines whether the first hand rotates by a predetermined angle or more in a predetermined predetermined direction using the hand information about the first hand And change the first authoring state according to a predetermined order.

또한 저작 상태 설정부(310)는 상기 제스쳐가 상기 제2 회전 제스쳐인 경우, 상기 제1손에 대한 상기 손 정보를 이용하여 상기 제1손이 미리 정해진 일정한 방향으로 미리 정해진 일정한 각도 이상 회전하는지 여부를 판단하고, 미리 정해진 순서에 따라 상기 제2 저작 상태를 변경할 수 있다.If the gesture is the second rotation gesture, the authoring state setting unit 310 may determine whether the first hand rotates by a predetermined angle or more in a predetermined predetermined direction using the hand information about the first hand And change the second authoring state according to a predetermined order.

여기서 미리 정해진 일정한 방향과 각도는 필요에 따라 임의의 값으로 설정될 수 있다.Here, predetermined predetermined directions and angles can be set to arbitrary values as needed.

컨텐츠 생성부(320)는 미리 정해진 일정한 손 동작에 따라 정의 된 제스쳐에 의하여 3차원 애니메이션 객체를 3차원 컨텐츠 공간에 추가하거나 삭제할 수 있다.The content generation unit 320 may add or delete a three-dimensional animation object to a three-dimensional content space by a gesture defined according to a predetermined hand motion.

이때 상기 제스쳐는 상기 제2손의 미리 정해진 일정한 동작에 따른 추가 제스쳐, 삭제 제스쳐를 포함할 수 있다.Here, the gesture may include an additional gesture according to a predetermined constant movement of the second hand, and a deletion gesture.

이 경우 컨텐츠 생성부(320)는, 상기 제1 저작 상태가 상기 편집 상태인 경우, 상기 제2손의 상기 제스쳐가 상기 추가 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 3차원 컨텐츠 공간에 상기 3차원 애니메이션 객체를 추가할 수 있다. 여기서 컨텐츠 생성부(320)는 상기 손 정보를 이용하여 상기 3차원 애니메이션 객체를 선택하고, 상기 선택된 3차원 애니메이션 객체를 상기 추가 제스쳐와 상기 손 정보를 이용하여 상기 3차원 공간에 추가할 수 있다.In this case, if the first authoring state is the editing state, if the gesture of the second hand is the additional gesture, the content generating unit 320 may generate the three-dimensional The 3D animation object may be added to the content space. Here, the content generation unit 320 may select the 3D animation object using the hand information, and add the selected 3D animation object to the 3D space using the additional gesture and the hand information.

예를 들면 상기 추가 제스쳐는 사용자의 제2손의 검지 손가락 끝이 탭하는 동작을 나타내는 손 동작 패턴에 대하여 미리 정의될 수 있고, 컨텐츠 생성부(320)는 저작 상태 설정부(310)가 설정한 저작 상태가 편집 상태이고, 제2손 제스쳐 의미 파악부(230)에서 인식된 상기 제스쳐가 상기 추가 제스쳐인 경우, 손 정보 저장부(210)에서 입력받은 상기 손 정보를 이용하여 제2손의 검지 끝 부분에 위치하는 지점에 3차원 애니메이션 객체를 추가할 수 있다.For example, the additional gesture may be defined in advance with respect to a hand movement pattern indicating an operation of tapping the index finger tip of the second hand of the user, and the content generation unit 320 may generate the additional gesture If the gesture recognized by the second hand gesture semantic recognition unit 230 is the additive gesture, the hand gesture information stored in the hand information storage unit 210 is used to determine the second hand You can add a 3D animation object to the end point.

유사한 방식으로 컨텐츠 생성부(320)는, 상기 제1 저작 상태가 상기 편집 상태인 경우, 상기 제2손의 상기 제스쳐가 상기 삭제 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 3차원 컨텐츠 공간에서 상기 3차원 애니메이션 객체를 삭제할 수 있다.In a similar manner, when the first authoring state is the editing state, if the gesture of the second hand is the deletion gesture, the content generation unit 320 generates the content information of the third hand by using the hand information of the second hand, The 3D animation object can be deleted from the 3D content space.

컨텐츠 생성부(320)는 미리 정해진 일정한 손 동작에 따라 정의된 제스쳐에 의하여 3차원 컨텐츠의 타임라인을 설정할 수 있다.The content generation unit 320 may set a timeline of the three-dimensional content by a defined gesture in accordance with a predetermined hand motion.

이때 상기 제스쳐는 상기 제2손이 수평면 상에서 좌우로 움직이는 동작에 따른 타임라인 설정 제스쳐를 포함할 수 있다.At this time, the gesture may include a time line setting gesture according to an operation of moving the second hand from side to side on the horizontal plane.

이 경우 컨텐츠 생성부(320)는, 상기 제2 저작 상태가 상기 타임라인 설정 상태인 경우, 상기 제2손의 상기 제스쳐가 상기 타임라인 설정 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 3차원 컨텐츠의 타임라인 상의 시간을 설정하는 것이 바람직하다.In this case, if the second authoring state is the time line setting state and the gesture of the second hand is the time line setting gesture, the content generating unit 320 may use the hand information on the second hand And sets the time on the time line of the three-dimensional content.

예를 들면 위 경우 컨텐츠 생성부(320)는 상기 손 정보를 이용하여 상기 제2손의 검지 손가락 끝 부분의 위치가 3차원 컨텐츠 공간 상에서 설정된 수평면 상의 x 축에 따라 이동하는 정도에 따라 상기 타임라인 상의 시간을 설정할 수 있다.For example, in the above case, the content generation unit 320 may generate the time line of the second finger based on the degree of movement of the index fingertip portion of the second hand along the x-axis on the horizontal plane set on the three- You can set the time on the screen.

도 10은 본 발명의 저작 생태 중 타임라인 설정 상태를 설명하기 위한 참고도이다.FIG. 10 is a reference diagram for explaining a time line setting state in the authoring ecology of the present invention.

컨텐츠 생성부(320)는 도 10과 같이 타임라인 설정 제스쳐에 따라 타임라인을 제어하여 각 타임라인 상의 시간에서 3차원 컨텐츠 공간 상에 3차원 애니메이션 객체를 생성 및 추가하거나 삭제할 수 있고, 타임라인을 통해 설정한 시간 동안 3차원 컨텐츠를 녹화할 수도 있다.The content generation unit 320 may generate and add or delete a three-dimensional animation object on the three-dimensional content space at a time on each timeline by controlling the timeline according to the timeline setting gesture as shown in FIG. 10, You can also record 3-D content over the set time.

컨텐츠 생성부(320)는 미리 정해진 일정한 손 동작에 따라 정의된 제스쳐에 의하여 3차원 컨텐츠를 생성하기 위한 녹화 시점을 설정할 수 있다.The content generation unit 320 may set a recording time for generating three-dimensional content by a gesture defined according to a predetermined hand motion.

상술한 바와 같이 3차원 컨텐츠는 별도로 설정된 녹화 시점 즉 가상의 카메라 시점에 따라 녹화가 이루어진다. 즉 컨텐츠 생성부(320)는 3차원 컨텐츠 공간 상에서 3차원 애니메이션 객체의 경로와 함께, 녹화 시점을 설정할 수 있다. 여기서 녹화 시점은 특정한 3차원 애니메이션 객체를 기준으로 설정될 수 있고, 또는 3차원 컨텐츠 공간 좌표를 기준으로 설정될 수도 있다. 상기 녹화 상태는 위와 같이 설정된 녹화 시점에 따라 3차원 애니메이션 객체의 동작을 녹화하여 3차원 컨텐츠를 생성할 수 있다.As described above, the three-dimensional content is recorded according to a separately set recording point, that is, a virtual camera point. That is, the content generation unit 320 can set the recording time point along with the path of the 3D animation object on the 3D content space. Here, the recording time may be set based on a specific three-dimensional animation object, or may be set based on three-dimensional content space coordinates. The recording state can record the motion of the 3D animation object according to the set recording time as described above to generate the 3D content.

여기서 상기 제스쳐는 상기 제2손의 미리 정해진 일정한 동작에 따른 녹화 시점 설정 제스쳐를 포함할 수 있다.The gesture may include a recording time setting gesture according to a predetermined predetermined operation of the second hand.

이 경우 컨텐츠 생성부(320)는 상기 제2손의 상기 제스쳐가 상기 녹화 시점 설정 제스쳐이면, 상기 3차원 컨텐츠 공간의 상기 3차원 애니메이션 객체를 녹화하는 시점을 상기 제2손에 대한 상기 손 정보를 이용하여 설정하는 것이 바람직하다.In this case, if the gesture of the second hand is the recording time setting gesture, the content generation unit 320 may record the time of recording the 3D animation object of the 3D content space on the hand information of the second hand It is preferable to set it.

여기서 컨텐츠 생성부(320)는 상기 제1 저작 상태가 편집 상태이거나 녹화 상태인 경우 모두 녹화 시점 설정 제스쳐에 따라 녹화 시점을 설정할 수 있다.Here, if the first authoring state is the editing state or the recording state, the content generation unit 320 may set the recording time according to the recording time setting gesture.

도 11은 본 발명의 컨텐츠 생성부의 녹화 시점 설정 동작을 설명하기 위한 참고도이다.11 is a reference diagram for explaining a recording-time setting operation of the content generation unit of the present invention.

먼저 제1 저작 상태가 편집 상태인 경우, 컨텐츠 생성부(320)는 제2손의 손 정보에 대하여 녹화 시점 설정 제스쳐가 인식되면, 그에 따라 녹화 시점을 3차원 애니메이션 객체를 중심으로 미리 정해진 각도 대로 회전하여 변경할 수 있다. 예를 들면 도 11 (a)를 참조하면 녹화 시점(C)은 3차원 애니메이션 객체(O)를 중심으로 90도 만큼 회전하여 변경될 수 있다. 이 때 녹화 시점 설정 제스쳐는 사용자의 제2손을 일정한 속도 이상으로 좌우로 움직이는 Swipe 동작 패턴으로 미리 정의될 수 있다. 이 경우 제2손 제스쳐 의미 판단부(230)에서 제2손에 대하여 위와 같은 녹화 시점 설정 제스쳐가 인식된 경우, 컨텐츠 생성부(320)는 도 11 (a)와 같이 미리 정해진 일정한 각도 만큼 녹화 시점을 회전하여 변경할 수 있다.If the first authoring state is in the editing state, the content generation unit 320 recognizes the recording time setting gesture with respect to the hand information of the second hand, and sets the recording time point to a predetermined angle around the three- You can rotate and change. For example, referring to FIG. 11 (a), the recording time point C may be rotated by 90 degrees about the three-dimensional animation object O and changed. At this time, the recording time setting gesture can be defined in advance as a swipe operation pattern in which the second hand of the user moves left and right at a constant speed or more. In this case, when the second hand-gesture semantic determination unit 230 recognizes the above-mentioned recording-time setting gesture with respect to the second hand, the content generation unit 320 generates a recording start point Can be rotated and changed.

또한 제2 저작 상태가 녹화 상태인 경우, 컨텐츠 생성부(320)는 제2손의 손 정보에 대하여 녹화 시점 설정 제스쳐가 인식되면, 그에 따라 녹화 시점을 3차원 에니메이션 객체를 기준으로 또는 3차원 컨텐츠 공간을 기준으로 설정할 수 있다. 예를 들면 녹화 시점 설정 제스쳐는 제2손의 검지 손가락의 끝 부분과 엄지 손가락의 끝 부분이 미리 정해진 규칙 대로 3차원 애니메이션 객체와 배치되는 손 동작 패턴으로 미리 정의될 수 있다. 이 경우 제2 손 제스쳐 의미 판단부(230)에서 제2손에 대하여 위와 같은 녹화 시점 설정 제스쳐가 인식된 경우, 컨텐츠 생성부(320)는 3차원 애니메이션 객체에 대하여 입력된 이동 경로에 따라 미리 정해진 거리와 미리 정해진 각도에 상기 녹화 시점을 설정할 수 있다. 여기서 미리 정해진 거리와 각도는 필요에 따라 사용자가 설정할 수 있다.If the second authoring state is the recording state, the content generation unit 320 generates the recording time point setting gesture based on the three-dimensional animation object or the three-dimensional content It can be set based on space. For example, the recording time setting gesture can be predefined in a hand motion pattern in which the end of the index finger of the second hand and the end of the thumb are arranged with a three-dimensional animation object according to predetermined rules. In this case, if the second hand-gesture semantic determination unit 230 recognizes the above-mentioned recording-time setting gesture with respect to the second hand, the content generation unit 320 generates a predetermined time- It is possible to set the recording time at a distance and a predetermined angle. Here, the predetermined distance and angle can be set by the user as required.

컨텐츠 생성부(320)는 미리 정해진 일정한 손 동작에 따라 정의된 제스쳐에 의하여 3차원 애니메이션 객체를 조작할 수 있다.The content generation unit 320 may manipulate the 3D animation object by a defined gesture according to a predetermined hand motion.

이 때 상기 제스쳐는 상기 제2손의 미리 정해진 움직임에 따른 선택 제스쳐, 위치 이동 제스쳐, 크기 변환 제스쳐, 제3 회전 제스쳐 중 어느 하나를 포함할 수 있다.At this time, the gesture may include any one of a selection gesture, a position movement gesture, a size conversion gesture, and a third rotation gesture according to a predetermined movement of the second hand.

여기서 상기 선택 제스쳐, 위치 이동 제스쳐, 크기 변환 제스쳐, 제3 회전 제스쳐는 각각 상기 제2손의 움직임 중 상기 제2손의 미리 정해진 2개의 손가락인 제1 손가락, 제2 손가락, 상기 제2손의 손바닥 중 어느 하나의 미리 정해진 움직임에 따라 미리 정의될 수 있다.Wherein the selection gesture, the position shifting gesture, the size conversion gesture, and the third rotation gesture respectively correspond to the first finger, the second finger, and the second hand, which are predetermined two fingers of the second hand among the movements of the second hand, Can be predefined according to a predetermined motion of any one of the palms.

이 때 컨텐츠 생성부(320)는, 상기 제2 저작 상태가 상기 조작 상태인 경우에 다음과 같이 각 제스쳐에 따라 3차원 애니메이션 객체를 조작하는 동작을 수행할 수 있다.In this case, when the second authoring state is the operation state, the content generation unit 320 may operate to manipulate the three-dimensional animation object according to each gesture as follows.

컨텐츠 생성부(320)는 만일 상기 제2손의 상기 제스쳐가 상기 선택 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 3차원 컨텐츠 공간 상에서 상기 3차원 애니메이션 객체를 선택할 수 있다.The content creator 320 may select the 3D animation object on the 3D content space using the hand information for the second hand if the gesture of the second hand is the selection gesture.

여기서 컨텐츠 생성부(320)는 만일 상기 제2손의 상기 제스쳐가 상기 선택 제스쳐이면, 상기 손 정보 중 상기 제1 손가락과 상기 제2 손가락의 위치에 관한 정보를 이용하여, 상기 3차원 컨텐츠 공간 상에서 상기 3차원 애니메이션 객체를 선택할 수 있다.Here, if the gesture of the second hand is the selection gesture, the content generation unit 320 generates information on the position of the first finger and the second finger in the three-dimensional content space The 3D animation object can be selected.

예를 들면 상기 선택 제스쳐는 상기 제2손의 검지 손가락 끝 부분과 엄지 손가락 끝 부분이 일정한 거리 이내로 근접하는 손 동작 패턴에 대하여 정의될 수 있다. 이 경우 컨텐츠 생성부(320)는 상기 제2손의 손 정보를 이용하여, 제2손의 검지 손가락 끝 부분과 엄지 손가락 끝 부분 사이에 위치한 3차원 애니메이션 객체를 선택할 수 있다.For example, the selection gesture may be defined with respect to a hand movement pattern in which the index finger portion and the thumb end portion of the second hand come within a predetermined distance. In this case, the content generation unit 320 may use the hand information of the second hand to select a three-dimensional animation object located between the index fingertip and the thumb end of the second hand.

컨텐츠 생성부(320)는 만일 상기 제2손의 상기 제스쳐가 상기 위치 이동 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 선택된 상기 3차원 애니메이션 객체를 이동할 수 있다.The content creator 320 may move the selected 3D animation object using the hand information of the second hand if the gesture of the second hand is the position movement gesture.

여기서 컨텐츠 생성부(320)는 만일 상기 제2손의 상기 제스쳐가 상기 위치 이동 제스쳐이면, 상기 손 정보 중 상기 제1 손가락의 위치에 관한 정보를 이용하여, 상기 선택된 상기 3차원 애니메이션 객체를 이동할 수 있다.Here, if the gesture of the second hand is the movement gesture, the content generation unit 320 may move the selected 3D animation object using the information on the position of the first finger in the hand information have.

예를 들면 상기 이동 제스쳐는 상기 제2손의 검지 손가락 끝 부분이 상기 선택된 3차원 애니메이션 객체 상에 미리 정해진 일정 시간 이상 위치한 후 움직이는 손 동작 패턴에 대하여 정의될 수 있다. 이 경우 컨텐츠 생성부(320)는 상기 제2손의 손 정보를 이용하여, 제2손의 검지 손가락 끝 부분의 위치 이동에 따라 3차원 애니메이션 객체를 이동할 수 있다. 그리고 상기 제2손의 엄지 손가락이 손바닥 안쪽으로 구부러지는 경우 상기 이동을 멈추는 것으로 상기 이동 제스쳐의 의미를 미리 정하고, 컨텐츠 생성부(320)는 제2손의 손 정보가 이에 해당하는 경우 객체의 이동을 멈추는 조작을 할 수 있다.For example, the movement gesture may be defined with respect to a hand motion pattern that moves after the index finger portion of the second hand is positioned on the selected 3D animation object for a predetermined period of time or longer. In this case, the content generation unit 320 may move the 3D animation object according to the position of the index fingertip of the second hand using the hand information of the second hand. When the thumb of the second hand is bent into the palm of the hand, the movement of the hand is stopped to determine the meaning of the movement gesture, and when the hand information of the second hand corresponds to the movement, Can be stopped.

도 12는 본 발명의 제스쳐 중 위치 이동 제스쳐를 설명하기 위한 참고도이다.12 is a reference view for explaining a position shifting gesture among the gestures of the present invention.

예를 들면 컨텐츠 생성부(320)는 도 12 (a)와 같이 미리 정의된 제스쳐가 인식될 때 제2손의 검지 손가락(F2) 끝 부분에 따라 객체를 이동하고, (b)와 같이 미리 정의된 제스쳐가 인식될 때 객체의 이동을 멈추는 조작을 할 수 있다.For example, when the predefined gesture is recognized as shown in FIG. 12 (a), the content generation unit 320 moves the object along the end portion of the index finger F2 of the second hand, It is possible to stop the movement of the object when the detected gesture is recognized.

컨텐츠 생성부(320)는 만일 상기 제2손의 상기 제스쳐가 상기 크기 변환 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 선택된 상기 3차원 애니메이션 객체의 크기를 변환할 수 있다.The content creator 320 may convert the size of the selected 3D animation object using the hand information for the second hand if the gesture of the second hand is the resize gesture.

여기서 컨텐츠 생성부(320)는 만일 상기 제2손의 상기 제스쳐가 상기 크기 변환 제스쳐이면, 상기 손 정보 중 상기 제1 손가락과 상기 제2 손가락의 위치에 관한 정보를 이용하여, 상기 선택된 상기 3차원 애니메이션 객체의 크기를 변환할 수 있다.Here, if the gesture of the second hand is the resize gesture, the content generation unit 320 may use the information about the positions of the first and second fingers of the hand information, You can convert the size of the animation object.

예를 들면 상기 크기 변환 제스쳐는 상기 제2손의 검지 손가락 끝 부분과 엄지 손가락 끝 부분이 일정한 거리 이상으로 멀어지거나 가까워지는 손 동작 패턴에 대하여 정의될 수 있다. 이 경우 컨텐츠 생성부(320)는 상기 제2손의 손 정보를 이용하여, 제2손의 검지 손가락 끝 부분과 엄지 손가락 끝 부분 사이에 위치한 3차원 애니메이션 객체의 크기를 변환할 수 있다.For example, the size conversion gesture may be defined with respect to a hand operation pattern in which the index fingertip portion and the thumb end portion of the second hand are moved away from or closer to a certain distance. In this case, the content generation unit 320 may convert the size of the 3D animation object located between the index fingertip and the thumb end of the second hand using the hand information of the second hand.

컨텐츠 생성부(320)는 만일 상기 제2손의 상기 제스쳐가 상기 제3 회전 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 선택된 상기 3차원 애니메이션 객체를 회전할 수 있다.The content creator 320 may rotate the selected 3D animation object using the hand information for the second hand if the gesture of the second hand is the third rotation gesture.

여기서 컨텐츠 생성부(320)는 만일 상기 제2손의 상기 제스쳐가 상기 제3 회전 제스쳐이면, 상기 손 정보 중 상기 손바닥의 방향에 관한 정보를 이용하여, 상기 선택된 상기 3차원 애니메이션 객체를 회전할 수 있다.Here, if the gesture of the second hand is the third rotation gesture, the content generation unit 320 may rotate the selected 3D animation object using the information on the direction of the palm of the hand information have.

예를 들면 상기 제3 회전 제스쳐는 상기 제2손의 손바닥의 방향이 일정하게 회전하는 손 동작 패턴에 대하여 정의될 수 있다. 이 경우 컨텐츠 생성부(320)는 상기 제2손의 손 정보를 이용하여, 제2손의 손바닥의 방향에 따라 3차원 애니메이션 객체를 일정한 방향으로 회전할 수 있다.For example, the third rotation gesture may be defined with respect to a hand movement pattern in which the direction of the palm of the second hand is constantly rotated. In this case, the content generation unit 320 may rotate the 3D animation object in a predetermined direction according to the direction of the palm of the second hand using the hand information of the second hand.

도 13은 본 발명의 제스쳐 중 제3 회전 제스쳐를 설명하기 위한 참고도이다.13 is a reference diagram for explaining the third rotation gesture of the gesture of the present invention.

도 13의 (a), (b), (c)는 3차원 애니메이션 객체의 3차원 컨텐츠 공간에서의 x축 회전, z축 회전, y축 회전을 각 설명하는 참고도이다.13A, 13B, and 13C are reference views for explaining the x-axis rotation, the z-axis rotation, and the y-axis rotation in the three-dimensional content space of the three-dimensional animation object, respectively.

도 13의 (a)와 같이 사용자의 제2손(H2)의 손 정보 중 손바닥 방향(P2)이 y-z 평면 상에서 x축을 주축으로 회전하는 손 동작 패턴에 대응하는 경우, 컨텐츠 생성부(320)는 3차원 컨텐츠를 x축을 기준으로 회전할 수 있다. 여기서 3가지의 축 회전 중 하나는 사용자의 제2손의 손바닥 방향이 아닌 손 끝 방향에 따라 객체를 회전할 수 있다. 도 13의 (c)가 그 예이다.13A, when the hand direction P2 of the hand information of the second hand H2 of the user corresponds to a hand movement pattern in which the x axis is rotated on the yz plane on the yz plane, the content generation unit 320 The three-dimensional content can be rotated with respect to the x-axis. Wherein one of the three axis rotations can rotate the object along the hand end direction of the user's second hand rather than the palm direction. Figure 13 (c) shows an example.

컨텐츠 생성부(320)는 미리 정해진 일정한 손 동작에 따라 정의된 제스쳐에 의하여 3차원 애니메이션 객체의 움직임 효과를 설정할 수 있다.The content generation unit 320 may set a motion effect of the 3D animation object by a gesture defined according to a predetermined constant hand motion.

이 경우 상기 제스쳐는 상기 제2손의 미리 정해진 일정한 동작에 따라 적어도 하나 이상의 미리 정해진 움직임 효과를 설정하는 움직임 효과 설정 제스쳐를 포함할 수 있다.In this case, the gesture may include a motion effect setting gesture for setting at least one predetermined motion effect according to a predetermined constant motion of the second hand.

또한 이 경우 컨텐츠 생성부(320)는, 상기 제1 저작 상태가 상기 움직임 효과 설정 상태인 경우, 상기 제2손의 상기 제스쳐가 상기 움직임 효과 설정 제스쳐이면, 상기 제2손의 상기 손 정보를 이용하여, 상기 3차원 컨텐츠 공간에서 상기 3차원 애니메이션 객체의 움직임 효과를 설정할 수 있다.In this case, when the first authoring state is the motion effect setting state, the content generating unit 320 may use the hand information of the second hand if the gesture of the second hand is the motion effect setting gesture The motion effect of the 3D animation object can be set in the 3D content space.

도 14는 본 발명의 또 다른 실시예에 따른 3차원 애니메이션 컨텐츠 저작 방법의 흐름도이다.FIG. 14 is a flowchart of a method for authoring 3D animation contents according to another embodiment of the present invention.

상기 본 발명에 따른 3차원 애니메이션 컨텐츠 저작 방법은 동작 감지 단계(S100), 제스쳐 인식 단계(S200), 3차원 컨텐츠 저작 단계(S300)를 포함할 수 있다. 여기서 상기 본 발명에 따른 3차원 애니메이션 컨텐츠 저작 방법은 위에서 도 1 내지 도 13을 참조하면서 설명한 본 발명에 따른 3차원 애니메이션 컨텐츠 저작 장치와 동일한 방식으로 동작할 수 있다. 이에 이하에서는 중복되는 부분은 생략하고 간략히 서술한다.The 3D animation contents authoring method according to the present invention may include an operation sensing step (S100), a gesture recognition step (S200), and a 3D content authoring step (S300). Here, the 3D animation contents authoring method according to the present invention can operate in the same manner as the 3D animation contents authoring apparatus according to the present invention described with reference to FIGS. 1 to 13 above. Hereinafter, overlapping portions will be omitted and briefly described.

동작 감지 단계(S100)는 사용자의 손을 3차원 공간 상에서 감지하고, 상기 사용자의 손의 3차원 공간 상에서의 위치 또는 방향에 대한 정보인 손 정보를 획득한다.The motion detection step S100 detects the user's hand on the three-dimensional space and obtains hand information, which is information on the position or direction of the user's hand on the three-dimensional space.

제스쳐 인식 단계(S200)는 상기 획득된 손 정보를 이용하여, 상기 사용자의 손의 동작에 따라 미리 정의된 일정한 의미를 가지는 제스쳐를 인식한다.The gesture recognition step (S200) recognizes a gesture having a predetermined meaning defined according to the operation of the user's hand using the obtained hand information.

3차원 컨텐츠 저작 단계(S300)는 미리 정해진 일정한 종류의 저작 상태에 따라, 상기 획득된 손 정보와 상기 인식된 제스쳐를 이용하여, 3차원 애니메이션 객체를 3차원 컨텐츠 공간 상에서 편집 또는 녹화하여 3차원 컨텐츠를 저작한다.In the three-dimensional content authoring step S300, the three-dimensional animation object is edited or recorded on the three-dimensional content space using the obtained hand information and the recognized gesture according to a predetermined fixed type of authoring state, Author.

여기서 제스쳐 인식 단계(S200)는 손 정보 저장 단계(S210), 제1손 제스쳐 의미 판단 단계(S220), 제2손 제스쳐 의미 판단 단계(S230)를 포함할 수 있다.Here, the gesture recognition step S200 may include a hand information storage step S210, a first hand gesture semantic determination step S220, and a second hand gesture semantic determination step S230.

손 정보 저장 단계(S210)는 미리 정해진 일정한 시간 동안 동작 감지 단계(S100)에서 획득된 상기 손 정보를 저장한다.The hand information storage step S210 stores the hand information obtained in the operation sensing step S100 for a predetermined period of time.

제1손 제스쳐 의미 판단 단계(S220)는 상기 사용자의 손 중 어느 하나의 손인 제1손에 대하여, 상기 손 정보 저장 단계에서 시간에 따라 저장된 상기 손 정보를 이용하여, 상기 제1손의 동작에 따른 상기 제스쳐를 인식한다.In the first hand gesture semantic determination step S220, for the first hand, which is one of the hands of the user, using the hand information stored according to time in the hand information storage step, And recognizes the gesture according to the gesture.

제2손 제스쳐 의미 판단 단계(S230)는 상기 사용자의 손 중 상기 제1손이 아닌 나머지 손인 제2손에 대하여, 상기 손 정보 저장 단계에서 시간에 따라 저장된 상기 손 정보를 이용하여, 상기 제2손의 동작에 따른 상기 제스쳐를 인식한다.In the second hand gesture semantic determination step S230, the hand information stored in the hand information storage step for the second hand as the remaining hand, which is not the first hand among the hand of the user, And recognizes the gesture according to the motion of the hand.

여기서 3차원 컨텐츠 저작 단계(S300)는 저작 상태 설정 단계(S310), 컨텐츠 생성 단계(S320)를 포함할 수 있다.Here, the three-dimensional content authoring step S300 may include a authoring state setting step S310 and a content generating step S320.

저작 상태 설정 단계(S310)는 상기 제1손 제스쳐 의미 판단 단계에서 인식된 상기 제1손의 상기 제스쳐에 따라 상기 저작 상태를 설정한다.The authoring state setting step S310 sets the authoring state according to the gesture of the first hand recognized in the first hand gesture semantic determination step.

컨텐츠 생성 단계(S320)는 상기 설정된 저작 상태에서, 상기 제2손 제스쳐 의미 판단 단계에서 인식된 상기 제2손의 상기 제스쳐에 따라 상기 3차원 애니메이션 객체를 상기 3차원 컨텐츠 공간 상에서 편집 또는 녹화하여 상기 3차원 컨텐츠를 생성한다.In the content creation step S320, in the set authoring state, the 3D animation object is edited or recorded on the 3D content space according to the gesture of the second hand recognized in the second hand gesture semantic determination step, Thereby generating three-dimensional content.

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. It is to be understood that the present invention is not limited to these embodiments, and all elements constituting the embodiment of the present invention described above are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them.

또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement an embodiment of the present invention. As the recording medium of the computer program, a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like can be included.

또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined in the Detailed Description. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100 : 동작 감지부
110 : 센서부
120 : 손 정보 획득부
150 : 전처리부
200 : 제스쳐 인식부
210 : 손 정보 저장부
220 : 제1손 제스쳐 의미 판단부
230 : 제2손 제스쳐 의미 판단부
300 : 3차원 컨텐츠 저작부
310 : 저작 상태 설정부
320 : 컨텐츠 생성부
100:
110:
120: hand information obtaining unit
150:
200: Gesture recognition unit
210: hand information storage unit
220: first hand gesture semantic determination unit
230: second hand gesture semantic determination unit
300: 3D content authoring unit
310: authoring state setting section
320:

Claims (22)

3차원 애니메이션 컨텐츠 저작 장치에 있어서,
사용자의 손을 3차원 공간 상에서 감지하고, 상기 사용자의 손의 3차원 공간 상에서의 위치 또는 방향에 대한 정보인 손 정보를 획득하는 동작 감지부;
상기 획득된 손 정보를 이용하여, 상기 사용자의 손의 동작에 따라 미리 정의된 일정한 의미를 가지는 제스쳐를 인식하는 제스쳐 인식부; 및
미리 정해진 일정한 종류의 저작 상태에 따라, 상기 획득된 손 정보와 상기 인식된 제스쳐를 이용하여, 3차원 애니메이션 객체를 3차원 컨텐츠 공간 상에서 편집 또는 녹화하여 3차원 컨텐츠를 저작하는 3차원 컨텐츠 저작부를 포함하고,
상기 동작 감지부는 적어도 2개 이상의 카메라를 이용하여 촬영한 영상을 이용하여 상기 사용자의 손을 3차원 공간 상에서 감지하고, 상기 영상을 분석하여 상기 사용자의 손에 대한 상기 손 정보를 획득하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
A three-dimensional animation content authoring apparatus comprising:
An operation sensing unit sensing the user's hand in a three-dimensional space and acquiring hand information, which is information on the position or direction of the user's hand on the three-dimensional space;
A gesture recognition unit for recognizing a gesture having a predetermined meaning defined according to an operation of the user's hand using the obtained hand information; And
A three-dimensional content authoring unit for editing or recording the three-dimensional animation object on the three-dimensional content space using the obtained hand information and the recognized gesture according to a predetermined predetermined type of authoring state to author the three-dimensional content and,
Wherein the motion sensing unit senses the user's hand in a three-dimensional space using an image photographed using at least two cameras, and analyzes the image to acquire the hand information about the user's hand A three-dimensional animation content authoring device
제1항에 있어서, 상기 동작 감지부는,
상기 사용자의 손을 3차원 공간 상에서 감지하는 센서부; 및
상기 손 정보를 일정한 간격의 시간 별로 획득하는 손 정보 획득부를 포함하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
The apparatus of claim 1,
A sensor unit for sensing the user's hand on a three-dimensional space; And
And a hand information acquiring unit for acquiring the hand information at predetermined intervals of time,
삭제delete 제2항에 있어서,
상기 센서부는 적어도 2개 이상의 적외선 카메라와 적외선 발광장치를 구비하고, 상기 적외선 발광장치가 발광하는 적외선이 상기 사용자의 손에 반사되어 오는 광을 상기 적외선 카메라로 촬영하고, 각 상기 적외선 카메라로 촬영한 광에 따른 상기 영상을 획득하고,
상기 손 정보 획득부는 상기 획득된 영상을 이용하여 상기 사용자의 손에 대한 상기 손 정보를 획득하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
3. The method of claim 2,
Wherein the sensor unit includes at least two infrared cameras and an infrared light emitting device, the infrared light emitted by the infrared light emitting device captures light reflected by the user's hand with the infrared camera, Acquiring the image according to light,
Wherein the hand information obtaining unit obtains the hand information on the hand of the user using the obtained image,
제2항에 있어서,
상기 손 정보는 상기 사용자의 왼손 또는 오른손을 식별하는 양손 식별정보, 상기 사용자의 각 손가락을 식별하는 손가락 식별정보, 상기 사용자의 각 손 또는 각 손가락의 위치 정보, 손바닥의 방향 정보를 포함하고,
상기 손 정보 획득부는 상기 센서부에서 감지된 상기 사용자의 손을 시간에 따라 트래킹하고, 상기 트래킹한 상기 사용자의 손을 이용하여, 상기 손 정보를 일정한 간격의 시간 별로 획득하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
3. The method of claim 2,
Wherein the hand information includes two-handed identification information for identifying the left or right hand of the user, finger identification information for identifying each finger of the user, position information of each or each finger of the user, and direction information of the palm,
Wherein the hand information obtaining unit tracks the hand of the user detected by the sensor unit according to the time and acquires the hand information at a predetermined interval of time using the user's hand Dimensional animation content authoring device
제1항에 있어서, 상기 제스쳐 인식부는,
미리 정해진 일정한 시간 동안 상기 동작 감지부에서 획득된 상기 손 정보를 저장하는 손 정보 저장부;
상기 사용자의 손 중 어느 하나의 손인 제1손에 대하여, 상기 손 정보 저장부에 시간에 따라 저장된 상기 손 정보를 이용하여, 상기 제1손의 동작에 따른 상기 제스쳐를 인식하는 제1손 제스쳐 의미 판단부; 및
상기 사용자의 손 중 상기 제1손이 아닌 나머지 손인 제2손에 대하여, 상기 손 정보 저장부에 시간에 따라 저장된 상기 손 정보를 이용하여, 상기 제2손의 동작에 따른 상기 제스쳐를 인식하는 제2손 제스쳐 의미 판단부를 포함하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
The apparatus of claim 1, wherein the gesture recognition unit comprises:
A hand information storage unit for storing the hand information acquired by the motion sensing unit for a predetermined period of time;
A first hand gesture means for recognizing the gesture according to an operation of the first hand by using the hand information stored in the hand information storage unit according to time with respect to a first hand of the user's hand, A determination unit; And
And a second recognition unit for recognizing the gesture according to the motion of the second hand using the hand information stored in the hand information storage unit with respect to the second hand of the user's hands other than the first hand, 2 < / RTI > animation content authoring device
제6항에 있어서,
상기 제1손 제스쳐 의미 판단부는 상기 제1손에 대한 상기 손 정보를 미리 정해진 손 동작 패턴들과 비교하여 상기 손 동작에 대응하는 상기 손 동작 패턴을 선택하고, 상기 손 동작 패턴에 대하여 미리 정의된 상기 제스쳐를 선택하여, 상기 제1손에 대한 상기 손 정보에 대응하는 상기 제스쳐를 인식하고,
상기 제2손 제스쳐 의미 판단부는 상기 제2손에 대한 상기 손 정보를 미리 정해진 손 동작 패턴들과 비교하여 상기 손 동작에 대응하는 상기 손 동작 패턴을 선택하고, 상기 손 동작 패턴에 대하여 미리 정의된 상기 제스쳐를 선택하여, 상기 제2손에 대한 상기 손 정보에 대응하는 상기 제스쳐를 인식하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
The method according to claim 6,
The first hand gesture semantic determination unit compares the hand information of the first hand with predetermined hand motion patterns to select the hand motion pattern corresponding to the hand motion, Selecting the gesture to recognize the gesture corresponding to the hand information for the first hand,
Wherein the second hand gesture semantic determination unit compares the hand information of the second hand with predetermined hand motion patterns to select the hand motion pattern corresponding to the hand motion, Characterized in that the gesture recognition means recognizes the gesture corresponding to the hand information for the second hand by selecting the gesture,
제6항에 있어서,
상기 3차원 컨텐츠 저작부는,
상기 제1손 제스쳐 의미 판단부에서 인식된 상기 제1손의 상기 제스쳐에 따라 상기 저작 상태를 설정하는 저작 상태 설정부; 및
상기 설정된 저작 상태에서, 상기 제2손 제스쳐 의미 판단부에서 인식된 상기 제2손의 상기 제스쳐에 따라 상기 3차원 애니메이션 객체를 상기 3차원 컨텐츠 공간 상에서 편집 또는 녹화하여 상기 3차원 컨텐츠를 생성하는 컨텐츠 생성부를 포함하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
The method according to claim 6,
The three-dimensional content authoring unit,
A writing state setting unit for setting the writing state according to the gesture of the first hand recognized by the first hand gesture semantic determining unit; And
Wherein the 3D animation content is edited or recorded on the 3D content space according to the gesture of the second hand recognized by the second hand gesture semantic determination unit to generate the 3D content Dimensional animation content authoring device, characterized in that the three-dimensional animation content authoring device
제8항에 있어서,
상기 저작 상태는 편집 상태와 녹화 상태를 포함하는 제1 저작 상태와, 타임라인 설정 상태, 조작 상태를 포함하는 제2 저작 상태를 포함하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
9. The method of claim 8,
Wherein the authoring state includes a first authoring state including an editing state and a recording state, and a second authoring state including a time line setting state and an operation state.
제9항에 있어서, 상기 저작 상태 설정부는,
상기 제1 저작 상태가 상기 편집 상태인 경우, 상기 제2 저작 상태를 상기 조작 상태 또는 상기 타임라인 설정 상태 중 어느 하나로 설정하고,
상기 제1 저작 상태가 상기 녹화 상태인 경우, 상기 제2 저작 상태를 상기 조작 상태로 설정하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
10. The apparatus according to claim 9,
Setting the second authoring state to the operation state or the time line setting state when the first authoring state is the editing state,
Wherein the control unit sets the second authoring state to the operating state when the first authoring state is the recording state,
제9항에 있어서,
상기 제스쳐는 상기 제1손이 주먹을 쥔 상태에서 회전하는 동작을 나타내는 제1 회전 제스쳐와, 상기 제1손이 손바닥을 편 상태에서 회전하는 동작을 나타내는 제2 회전 제스쳐를 포함하고,
상기 저작 상태 설정부는,
상기 제1손의 상기 제스쳐가 상기 제1 회전 제스쳐이면, 상기 제1 저작 상태를 상기 편집 상태 또는 상기 녹화 상태 중 어느 하나로 설정하고,
상기 제1손의 상기 제스쳐가 상기 제2 회전 제스쳐이면, 상기 제2 저작 상태를 설정하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
10. The method of claim 9,
Wherein the gesture includes a first rotation gesture indicating an operation of rotating the first hand while holding the fist and a second rotation gesture indicating an operation of rotating the first hand in a state where the palm is rotated,
The authoring state setting unit,
Setting the first authoring state to either the editing state or the recording state if the gesture of the first hand is the first rotation gesture,
And setting the second authoring state if the gesture of the first hand is the second rotation gesture,
제11항에 있어서, 상기 저작 상태 설정부는
상기 제스쳐가 상기 제1 회전 제스쳐인 경우, 상기 제1손에 대한 상기 손 정보를 이용하여 상기 제1손이 미리 정해진 일정한 방향으로 미리 정해진 일정한 각도 이상 회전하는지 여부를 판단하고, 미리 정해진 순서에 따라 상기 제1 저작 상태를 변경하고,
상기 제스쳐가 상기 제2 회전 제스쳐인 경우, 상기 제1손에 대한 상기 손 정보를 이용하여 상기 제1손이 미리 정해진 일정한 방향으로 미리 정해진 일정한 각도 이상 회전하는지 여부를 판단하고, 미리 정해진 순서에 따라 상기 제2 저작 상태를 변경하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
12. The apparatus of claim 11, wherein the authoring state setting unit
Determining whether the first hand rotates by a predetermined angle or more in a predetermined fixed direction using the hand information about the first hand when the gesture is the first rotation gesture, Changing the first authoring state,
Determining whether the first hand rotates by a predetermined angle or more in a predetermined predetermined direction using the hand information about the first hand when the gesture is the second rotation gesture, And the second authoring state is changed by changing the second authoring state.
제9항에 있어서,
상기 제스쳐는 상기 제2손의 미리 정해진 일정한 동작에 따른 추가 제스쳐, 삭제 제스쳐를 포함하고,
상기 컨텐츠 생성부는, 상기 제1 저작 상태가 상기 편집 상태인 경우,
상기 제2손의 상기 제스쳐가 상기 추가 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 3차원 컨텐츠 공간에 상기 3차원 애니메이션 객체를 추가하고,
상기 제2손의 상기 제스쳐가 상기 삭제 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 3차원 컨텐츠 공간에서 상기 3차원 애니메이션 객체를 삭제하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
10. The method of claim 9,
Wherein the gesture includes an additional gesture according to a predetermined constant movement of the second hand,
Wherein, when the first authoring state is the editing state,
Adding the 3D animation object to the 3D content space using the hand information about the second hand if the gesture of the second hand is the additive gesture,
Dimensional content space in the 3D content space using the hand information on the second hand if the gesture of the second hand is the delete gesture,
제9항에 있어서,
상기 제스쳐는 상기 제2손이 수평면 상에서 좌우로 움직이는 동작에 따른 타임라인 설정 제스쳐를 포함하고,
상기 컨텐츠 생성부는, 상기 제2 저작 상태가 상기 타임라인 설정 상태인 경우, 상기 제2손의 상기 제스쳐가 상기 타임라인 설정 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 3차원 컨텐츠의 타임라인 상의 시간을 설정하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
10. The method of claim 9,
Wherein the gesture includes a timeline setting gesture according to an operation of moving the second hand laterally on the horizontal plane,
Wherein the content generating unit generates the three-dimensional content using the hand information for the second hand if the second authoring state is the time line setting state and the gesture of the second hand is the time line setting gesture, Is set to a time on the time line of the three-dimensional animation content authoring device
제9항에 있어서,
상기 제스쳐는 상기 제2손의 미리 정해진 일정한 동작에 따른 녹화 시점 설정 제스쳐를 포함하고,
상기 컨텐츠 생성부는, 상기 제2손의 상기 제스쳐가 상기 녹화 시점 설정 제스쳐이면, 상기 3차원 컨텐츠 공간의 상기 3차원 애니메이션 객체를 녹화하는 시점을 상기 제2손에 대한 상기 손 정보를 이용하여 설정하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
10. The method of claim 9,
Wherein the gesture includes a recording time setting gesture according to a predetermined constant motion of the second hand,
Wherein the content generation unit sets a time at which the 3D animation object of the 3D content space is recorded using the hand information for the second hand if the gesture of the second hand is the recording time setting gesture Dimensional animation content authoring device
제9항에 있어서,
상기 제스쳐는 상기 제2손의 미리 정해진 움직임에 따른 선택 제스쳐, 위치 이동 제스쳐, 크기 변환 제스쳐, 제3 회전 제스쳐 중 어느 하나를 포함하고,
상기 컨텐츠 생성부는, 상기 제2 저작 상태가 상기 조작 상태인 경우,
상기 제2손의 상기 제스쳐가 상기 선택 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 3차원 컨텐츠 공간 상에서 상기 3차원 애니메이션 객체를 선택하고,
상기 제2손의 상기 제스쳐가 상기 위치 이동 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 선택된 상기 3차원 애니메이션 객체를 이동하고,
상기 제2손의 상기 제스쳐가 상기 크기 변환 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 선택된 상기 3차원 애니메이션 객체의 크기를 변환하고,
상기 제2손의 상기 제스쳐가 상기 제3 회전 제스쳐이면, 상기 제2손에 대한 상기 손 정보를 이용하여 상기 선택된 상기 3차원 애니메이션 객체를 회전하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
10. The method of claim 9,
Wherein the gesture includes any one of a selection gesture, a movement gesture, a size conversion gesture, and a third rotation gesture according to a predetermined movement of the second hand,
Wherein, when the second authoring state is the operation state,
If the gesture of the second hand is the selection gesture, selecting the 3D animation object on the 3D content space using the hand information of the second hand,
Moving the selected 3D animation object using the hand information for the second hand if the gesture of the second hand is the position movement gesture,
If the gesture of the second hand is the resize gesture, transforming the size of the selected 3D animation object using the hand information for the second hand,
Dimensional animation object is rotated using the hand information of the second hand if the gesture of the second hand is the third rotation gesture.
제16항에 있어서,
상기 선택 제스쳐, 위치 이동 제스쳐, 크기 변환 제스쳐, 제3 회전 제스쳐는 각각 상기 제2손의 움직임 중 상기 제2손의 미리 정해진 2개의 손가락인 제1 손가락, 제2 손가락, 상기 제2손의 손바닥 중 어느 하나의 미리 정해진 움직임에 따라 미리 정의되고,
상기 컨텐츠 생성부는,
상기 제2손의 상기 제스쳐가 상기 선택 제스쳐이면, 상기 손 정보 중 상기 제1 손가락과 상기 제2 손가락의 위치에 관한 정보를 이용하여, 상기 3차원 컨텐츠 공간 상에서 상기 3차원 애니메이션 객체를 선택하고,
상기 제2손의 상기 제스쳐가 상기 위치 이동 제스쳐이면, 상기 손 정보 중 상기 제1 손가락의 위치에 관한 정보를 이용하여, 상기 선택된 상기 3차원 애니메이션 객체를 이동하고,
상기 제2손의 상기 제스쳐가 상기 크기 변환 제스쳐이면, 상기 손 정보 중 상기 제1 손가락과 상기 제2 손가락의 위치에 관한 정보를 이용하여, 상기 선택된 상기 3차원 애니메이션 객체의 크기를 변환하고,
상기 제2손의 상기 제스쳐가 상기 제3 회전 제스쳐이면, 상기 손 정보 중 상기 손바닥의 방향에 관한 정보를 이용하여, 상기 선택된 상기 3차원 애니메이션 객체를 회전하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
17. The method of claim 16,
Wherein the selection gesture, the position movement gesture, the size conversion gesture, and the third rotation gesture are respectively the first finger, the second finger, the palm of the second hand, Or a predetermined motion according to any one of the first and second predetermined motion,
The content generation unit generates,
If the gesture of the second hand is the selection gesture, selecting the three-dimensional animation object on the three-dimensional content space using information on the positions of the first finger and the second finger in the hand information,
Moving the selected three-dimensional animation object using information on the position of the first finger in the hand information if the gesture of the second hand is the position-moving gesture,
Wherein if the gesture of the second hand is the resize gesture, the size of the selected three-dimensional animation object is converted using information about the positions of the first finger and the second finger in the hand information,
Wherein the 3D animation object is rotated using the information on the direction of the palm of the hand information when the gesture of the second hand is the third rotation gesture. Device
제9항에 있어서,
상기 제2 저작 상태는 움직임 효과 설정 상태를 포함하고, 상기 제1 저작 상태가 상기 녹화 상태인 경우 상기 제2 저작 상태는 상기 움직임 효과 설정 상태가 될 수 있고,
상기 제스쳐는 상기 제2손의 미리 정해진 일정한 동작에 따라 적어도 하나 이상의 미리 정해진 움직임 효과를 설정하는 움직임 효과 설정 제스쳐를 포함하고,
상기 컨텐츠 생성부는, 상기 제1 저작 상태가 상기 움직임 효과 설정 상태인 경우, 상기 제2손의 상기 제스쳐가 상기 움직임 효과 설정 제스쳐이면, 상기 제2손의 상기 손 정보를 이용하여, 상기 3차원 컨텐츠 공간에서 상기 3차원 애니메이션 객체의 움직임 효과를 설정하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
10. The method of claim 9,
Wherein the second authoring state includes a motion effect setting state, the second authoring state may be the motion effect setting state when the first authoring state is the recording state,
Wherein the gesture includes a motion effect setting gesture for setting at least one predetermined motion effect according to a predetermined constant motion of the second hand,
Wherein the contents generating unit generates the contents using the hand information of the second hand when the first authoring state is the motion effect setting state and the gesture of the second hand is the motion effect setting gesture, Dimensional animation object, and sets a motion effect of the 3D animation object in a space.
제9항에 있어서,
상기 손 정보 중 아웃라이어를 제거하는 전처리부를 더 포함하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 장치
10. The method of claim 9,
Further comprising a preprocessing unit for removing the outlier from the hand information,
3차원 애니메이션 컨텐츠 저작 방법에 있어서,
사용자의 손을 3차원 공간 상에서 감지하고, 상기 사용자의 손의 3차원 공간 상에서의 위치 또는 방향에 대한 정보인 손 정보를 획득하는 동작 감지 단계;
상기 획득된 손 정보를 이용하여, 상기 사용자의 손의 동작에 따라 미리 정의된 일정한 의미를 가지는 제스쳐를 인식하는 제스쳐 인식 단계; 및
미리 정해진 일정한 종류의 저작 상태에 따라, 상기 획득된 손 정보와 상기 인식된 제스쳐를 이용하여, 3차원 애니메이션 객체를 3차원 컨텐츠 공간 상에서 편집 또는 녹화하여 3차원 컨텐츠를 저작하는 3차원 컨텐츠 저작 단계를 포함하고,
상기 동작 감지 단계는 적어도 2개 이상의 카메라를 이용하여 촬영한 영상을 이용하여 상기 사용자의 손을 3차원 공간 상에서 감지하고, 상기 영상을 분석하여 상기 사용자의 손에 대한 상기 손 정보를 획득하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 방법
In a method for authoring 3D animation contents,
Sensing a user's hand in a three-dimensional space, and obtaining hand information, which is information on the position or direction of the user's hand on the three-dimensional space;
A gesture recognition step of recognizing a gesture having a predetermined meaning defined in advance according to an operation of the user's hand using the obtained hand information; And
A three-dimensional content authoring step of editing or recording the three-dimensional animation object on the three-dimensional content space using the obtained hand information and the recognized gesture according to a predetermined predetermined type of authoring state to author three-dimensional content Including,
Wherein the motion detection step detects the user's hand in a three-dimensional space using an image photographed using at least two cameras and analyzes the image to obtain the hand information for the user's hand To create 3D animation contents
제20항에 있어서, 상기 제스쳐 인식 단계는,
미리 정해진 일정한 시간 동안 상기 동작 감지 단계에서 획득된 상기 손 정보를 저장하는 손 정보 저장 단계;
상기 사용자의 손 중 어느 하나의 손인 제1손에 대하여, 상기 손 정보 저장 단계에서 시간에 따라 저장된 상기 손 정보를 이용하여, 상기 제1손의 동작에 따른 상기 제스쳐를 인식하는 제1손 제스쳐 의미 판단 단계; 및
상기 사용자의 손 중 상기 제1손이 아닌 나머지 손인 제2손에 대하여, 상기 손 정보 저장 단계에서 시간에 따라 저장된 상기 손 정보를 이용하여, 상기 제2손의 동작에 따른 상기 제스쳐를 인식하는 제2손 제스쳐 의미 판단 단계를 포함하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 방법
21. The method of claim 20, wherein the gesture recognition step comprises:
A hand information storing step of storing the hand information obtained in the motion detecting step for a predetermined period of time;
A first hand gesture means for recognizing the gesture according to an operation of the first hand, using the hand information stored according to time in the hand information storing step, with respect to a first hand, which is one of the hands of the user, Determining; And
A second hand for recognizing the gesture according to an operation of the second hand by using the hand information stored in accordance with time in the hand information storing step for a second hand of the user's hands other than the first hand, 2 < / RTI > hand gesture semantic determination step < RTI ID = 0.0 >
제21항에 있어서, 상기 3차원 컨텐츠 저작 단계는,
상기 제1손 제스쳐 의미 판단 단계에서 인식된 상기 제1손의 상기 제스쳐에 따라 상기 저작 상태를 설정하는 저작 상태 설정 단계; 및
상기 설정된 저작 상태에서, 상기 제2손 제스쳐 의미 판단 단계에서 인식된 상기 제2손의 상기 제스쳐에 따라 상기 3차원 애니메이션 객체를 상기 3차원 컨텐츠 공간 상에서 편집 또는 녹화하여 상기 3차원 컨텐츠를 생성하는 컨텐츠 생성 단계를 포함하는 것을 특징으로 하는, 3차원 애니메이션 컨텐츠 저작 방법
22. The method of claim 21, wherein the three-
A setting step of setting the authoring state according to the gesture of the first hand recognized in the first hand gesture semantic determination step; And
Wherein the 3D animation content is edited or recorded on the 3D content space in accordance with the gesture of the second hand recognized in the second hand gesture semantic determination step to generate the 3D content And generating a three-dimensional animation content
KR1020150021508A 2015-02-12 2015-02-12 Apparatus and Method for authoring 3D animation contents KR101668747B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150021508A KR101668747B1 (en) 2015-02-12 2015-02-12 Apparatus and Method for authoring 3D animation contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150021508A KR101668747B1 (en) 2015-02-12 2015-02-12 Apparatus and Method for authoring 3D animation contents

Publications (2)

Publication Number Publication Date
KR20160099267A KR20160099267A (en) 2016-08-22
KR101668747B1 true KR101668747B1 (en) 2016-10-24

Family

ID=56854792

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150021508A KR101668747B1 (en) 2015-02-12 2015-02-12 Apparatus and Method for authoring 3D animation contents

Country Status (1)

Country Link
KR (1) KR101668747B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101956608B1 (en) * 2018-12-18 2019-06-24 코어다 주식회사 Method, server, device and program for control of motion recognition device according to recognition position of gesture
WO2024085712A1 (en) * 2022-10-20 2024-04-25 한국과학기술원 Method and device for producing virtual reality 3d curve network using bimanual interaction

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101404018B1 (en) * 2013-02-01 2014-06-10 전자부품연구원 Device for recognizing the hand gesture and method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101259964B1 (en) 2009-11-20 2013-05-02 에스케이플래닛 주식회사 Method and system for producting an user object
KR101155045B1 (en) * 2010-05-25 2012-06-11 주식회사 씩스클릭 Authoring system of animation and authoring method of animation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101404018B1 (en) * 2013-02-01 2014-06-10 전자부품연구원 Device for recognizing the hand gesture and method thereof

Also Published As

Publication number Publication date
KR20160099267A (en) 2016-08-22

Similar Documents

Publication Publication Date Title
US20240168602A1 (en) Throwable interface for augmented reality and virtual reality environments
US11048333B2 (en) System and method for close-range movement tracking
US10019074B2 (en) Touchless input
US8166421B2 (en) Three-dimensional user interface
US9465437B2 (en) Method and apparatus for controlling screen by tracking head of user through camera module, and computer-readable recording medium therefor
US9910498B2 (en) System and method for close-range movement tracking
EP3120217B1 (en) Display device and method for controlling the same
US20120274550A1 (en) Gesture mapping for display device
JP5638896B2 (en) Display control program, display control device, display control system, and display control method
TWI705356B (en) Input method and device in virtual reality scene
CN105579929A (en) Gesture based human computer interaction
US11573627B2 (en) Method of controlling device and electronic device
CN102810015B (en) Input method based on space motion and terminal
US20160117077A1 (en) Multi-Depth-Interval Refocusing Method and Apparatus and Electronic Device
Geer Will gesture recognition technology point the way?
KR20180097917A (en) Electronic apparatus and method for controlling thereof
JP2004258766A (en) Menu display method, device and program in interface using self-image display
US9552345B2 (en) Gestural annotations
KR101668747B1 (en) Apparatus and Method for authoring 3D animation contents
KR20180045668A (en) User Terminal and Computer Implemented Method for Synchronizing Camera Movement Path and Camera Movement Timing Using Touch User Interface
KR101743888B1 (en) User Terminal and Computer Implemented Method for Synchronizing Camera Movement Path and Camera Movement Timing Using Touch User Interface
KR101558094B1 (en) Multi-modal system using for intuitive hand motion and control method thereof
EP2672374A1 (en) Detection of circular motion in a two-dimensional space
CN110402578A (en) Image processing apparatus, methods and procedures
Fan Practical ad hoc tangible interactions in augmented reality

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191216

Year of fee payment: 4