KR101671831B1 - Apparatus for sharing data and providing reward in accordance with shared data - Google Patents

Apparatus for sharing data and providing reward in accordance with shared data Download PDF

Info

Publication number
KR101671831B1
KR101671831B1 KR1020160044213A KR20160044213A KR101671831B1 KR 101671831 B1 KR101671831 B1 KR 101671831B1 KR 1020160044213 A KR1020160044213 A KR 1020160044213A KR 20160044213 A KR20160044213 A KR 20160044213A KR 101671831 B1 KR101671831 B1 KR 101671831B1
Authority
KR
South Korea
Prior art keywords
points
input
distance
minutiae
feature points
Prior art date
Application number
KR1020160044213A
Other languages
Korean (ko)
Inventor
김수민
이민주
Original Assignee
김수민
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김수민 filed Critical 김수민
Priority to KR1020160044213A priority Critical patent/KR101671831B1/en
Application granted granted Critical
Publication of KR101671831B1 publication Critical patent/KR101671831B1/en
Priority to PCT/KR2016/013389 priority patent/WO2017179786A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/00335
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Abstract

An embodiment of the present invention discloses a 3D input device using a motion recognition sensor, comprising: a feature point sensing unit in which an end point of at least two fingers of a user spaced apart from a display unit by a predetermined distance is recognized using a motion recognition sensor, three-dimensional coordinates corresponding to the end points are obtained, and three-dimensional coordinates are sensed as feature points; and an input processing unit for tracking a change in coordinate values of the feature points and processing it as having a first direction input based on the position of the feature points and having a second direction input that is orthogonal to the first direction based on the distance between the feature points in case the feature points satisfy the input condition.

Description

동작 인식 센서를 이용한 3차원 입력 장치{APPARATUS FOR SHARING DATA AND PROVIDING REWARD IN ACCORDANCE WITH SHARED DATA}TECHNICAL FIELD [0001] The present invention relates to a three-dimensional input device using a motion recognition sensor,

본 발명은 동작 인식 센서를 이용한 3차원 입력 장치에 관한 것으로, 보다 구체적으로 동작 인식 장치를 이용하여 마우스 입력 장치의 '누름' 및 '누름 해제'와 같은 입력을 수행 가능하게 하는 방법에 관한 것이다.The present invention relates to a three-dimensional input device using a motion recognition sensor, and more particularly, to a method for enabling input such as 'pushing' and 'pressing-down' of a mouse input device using a motion recognition device.

일반적으로, 동작 인식 장치들은 그 정밀도의 차이는 있으나, 대부분 단일 기기로 제작되어 특정 위치에 고정한 후 내장된 가시선 센서 또는 적외선 센서와 카메라 등을 이용하여 정면에 비춰지는 형상의 상태를 단계별-시간별로 이미지화하여 차이점을 비교하는 방식을 이용한다. Generally, although motion recognition devices have a difference in accuracy, most of them are manufactured as a single device, fixed at a specific position, and then the state of a shape projected on the front side is detected by a built-in line sensor, an infrared sensor, And images are used to compare differences.

동작 인식 장치들은 추출된 이미지들의 단일 혹은 다수의 차이점을 비교하여 좌표화 하는데, 센서 정면의 이미지를 기준으로 분석하기 때문에 상하(예컨대, y성분) 또는 좌우(예컨대, x성분)의 움직임은 용이하게 감지하는 것에 비해 앞뒤(예컨대, z성분)의 움직임, 특히 사람의 손가락이나 손 같은 다소 작은 물체가 센서 정면으로 찌르는(누르는) 동작을 하는 경우, 정확히 감지하지 못하는 문제가 있었다. 한편, 관련기술로는 한국공개특허공보 제10-2014-0084066호가 존재한다.Since the motion recognition apparatus analyzes the single or a plurality of differences of the extracted images by using the image of the front surface of the sensor as a reference, movement of up and down (e.g., y component) or left and right (e.g., x component) There has been a problem that the movement of the front and back (for example, the z component) compared with the sensing, in particular, when the slightly small object such as a finger or a hand of a person makes an operation of pushing (pushing) On the other hand, Korean Patent Laid-Open Publication No. 10-2014-0084066 exists as a related art.

본 발명의 실시예들은 사용자가 디스플레이부와 소정의 거리만큼 이격된 상태에서 제스처를 취해 디스플레이 평면과 평행한 방향으로의 입력뿐만 아니라, 디스플레이 평면과 수직한 방향으로의 입력을 가능케 하기 위한 동작 인식 센서를 이용한 3차원 입력 장치를 제공한다.Embodiments of the present invention include a motion recognition sensor for taking a gesture in a state in which the user is spaced a predetermined distance from the display unit and inputting in a direction parallel to the display plane, Dimensional input device using a three-dimensional input device.

본 발명의 일 실시예는, 동작 인식 센서를 이용하여 디스플레이부와 기설정된 기준 거리 이상 이격된 사용자의 적어도 두 손가락의 끝 점들을 인식하고, 상기 끝 점들에 대응되는 3차원 좌표들을 획득하고, 상기 3차원 좌표들을 특징점들로서 감지하는 특징점 감지부; 및 상기 특징점들의 좌표 값의 변화를 트래킹하고, 상기 특징점들이 입력 조건을 만족하는 경우, 상기 특징점들의 위치에 기초하여 제1 방향 입력이 있는 것으로 처리하고, 상기 특징점들 간 거리에 기초하여 상기 제1 방향과 수직한 제2 방향 입력이 있는 것으로 처리하는 입력 처리부;를 포함하는, 동작 인식 센서를 이용한 3차원 입력 장치를 개시한다.In one embodiment of the present invention, an end point of at least two fingers of a user spaced apart from a display unit by a predetermined distance is recognized using an operation recognition sensor, three-dimensional coordinates corresponding to the end points are obtained, A feature point sensing unit for sensing three-dimensional coordinates as feature points; And processing a change of the coordinate values of the minutiae points, and when the minutiae satisfy the input condition, processing a change of the coordinate values of the minutiae as a first direction input based on the position of the minutiae points, And a second direction input that is orthogonal to the direction of the second direction input. The three-dimensional input device using the motion recognition sensor is disclosed.

본 발명의 다른 일 실시예는, 동작 인식 센서가 구비된 디스플레이부; 및 상기 동작 인식 센서를 이용하여 상기 디스플레이부와 기설정된 기준 거리 이상 이격된 사용자의 적어도 두 손가락의 끝 점들을 인식하고, 상기 끝 점들에 대응되는 3차원 좌표들을 획득하고, 상기 3차원 좌표들을 특징점들로서 감지하고, 상기 특징점들의 좌표 값의 변화를 트래킹하고, 상기 특징점들이 입력 조건을 만족하는 경우, 상기 특징점들의 위치에 기초하여 제1 방향 입력이 있는 것으로 처리하고, 상기 특징점들 간 거리에 기초하여 상기 제1 방향과 수직한 제2 방향 입력이 있는 것으로 처리하는 3차원 입력 장치;를 포함하는, 동작 인식 센서를 이용한 3차원 입력 시스템을 개시한다.According to another embodiment of the present invention, there is provided a display device comprising: a display unit having a motion recognition sensor; And recognizing end points of at least two fingers of a user that are spaced apart from the display unit by a predetermined reference distance using the motion recognition sensor, acquiring three-dimensional coordinates corresponding to the end points, And processing a change in the coordinate values of the feature points to be processed based on the position of the feature points when the feature points satisfy the input condition and processing based on the distance between the feature points And a three-dimensional input device that processes the input signal as if there is a second direction input that is perpendicular to the first direction.

본 발명의 또 다른 일 실시예는 디스플레이부; 및 동작 인식 센서를 구비하고, 상기 동작 인식 센서를 이용하여 상기 디스플레이부와 기설정된 기준 거리 이상 이격된 사용자의 적어도 두 손가락의 끝 점들을 인식하고, 상기 끝 점들에 대응되는 3차원 좌표들을 획득하고, 상기 3차원 좌표들을 특징점들로서 감지하고, 상기 특징점들의 좌표 값의 변화를 트래킹하고, 상기 특징점들이 입력 조건을 만족하는 경우, 상기 특징점들의 위치에 기초하여 제1 방향 입력이 있는 것으로 처리하고, 상기 특징점들 간 거리에 기초하여 상기 제1 방향과 수직한 제2 방향 입력이 있는 것으로 처리하는 3차원 입력 장치;를 포함하는 동작 인식 센서를 이용한 3차원 입력 시스템을 개시한다.According to another embodiment of the present invention, there is provided a display device comprising: a display; And recognizing end points of at least two fingers of a user who is separated from the display unit by a distance greater than a predetermined reference distance by using the motion recognition sensor and acquiring three-dimensional coordinates corresponding to the end points A step of sensing the three-dimensional coordinates as feature points, tracking a change in the coordinate values of the feature points, and, when the feature points satisfy the input condition, processing the first direction input based on the positions of the feature points, And a three-dimensional input device for processing a second direction input that is perpendicular to the first direction based on a distance between the minutiae points.

본 발명의 또 다른 일 실시예는 동작 인식 센서를 이용하여 디스플레이부와 기설정된 기준 거리 이상 이격된 사용자의 적어도 두 손가락의 끝 점들을 인식하고, 상기 끝 점들에 대응되는 3차원 좌표들을 획득하고, 상기 3차원 좌표들을 특징점들로서 감지하는 단계; 및 상기 특징점들의 좌표 값의 변화를 트래킹하고, 상기 특징점들이 입력 조건을 만족하는 경우, 상기 특징점들의 위치에 기초하여 제1 방향 입력이 있는 것으로 처리하고, 상기 특징점들 간 거리에 기초하여 상기 제1 방향과 수직한 제2 방향 입력이 있는 것으로 처리하는 단계;를 포함하는, 동작 인식 센서를 이용한 3차원 입력 방법을 개시한다.According to another embodiment of the present invention, an operation recognition sensor is used to recognize end points of at least two fingers of a user spaced apart from a display unit by a predetermined reference distance, acquire three-dimensional coordinates corresponding to the end points, Sensing the three-dimensional coordinates as feature points; And processing a change of the coordinate values of the minutiae points, and when the minutiae satisfy the input condition, processing a change of the coordinate values of the minutiae as a first direction input based on the position of the minutiae points, And a second direction input perpendicular to the direction of the second direction input.

본 발명의 동작 인식 센서를 이용한 3차원 입력 장치에 의해 사용자가 디스플레이부와 소정의 거리만큼 이격된 상태에서 제스처를 취해 디스플레이 평면과 평행한 방향으로의 입력뿐만 아니라, 디스플레이 평면과 수직한 방향으로의 입력을 가능케 할 수 있다.The three-dimensional input device using the motion recognition sensor of the present invention allows a user to take a gesture in a state of being separated from the display unit by a predetermined distance and not only input in a direction parallel to the display plane, You can enable input.

도 1은 본 발명의 일 실시예에 따른 동작 인식 센서를 이용한 3차원 입력 시스템의 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 3차원 입력 장치의 내부 구성을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 3차원 입력 방법을 나타낸 동작 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.
도 5는 본 발명의 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.
도 6은 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.
도 7은 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.
도 8은 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.
도 9는 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.
도 10은 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.
도 11은 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.
1 is a block diagram of a three-dimensional input system using an operation recognition sensor according to an embodiment of the present invention.
2 is a diagram illustrating an internal configuration of a three-dimensional input device according to an embodiment of the present invention.
3 is a flowchart illustrating a three-dimensional input method according to an exemplary embodiment of the present invention.
4 is a diagram illustrating a three-dimensional input method according to an embodiment of the present invention.
5 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.
6 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.
7 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.
8 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.
9 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.
10 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.
11 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Hereinafter, the same reference numerals will be used for the same constituent elements in the drawings, and redundant explanations for the same constituent elements will be omitted.

도 1은 본 발명의 일 실시예에 따른 동작 인식 센서를 이용한 3차원 입력 시스템의 구성을 나타낸 도면이다.1 is a block diagram of a three-dimensional input system using an operation recognition sensor according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 동작 인식 센서를 이용한 3차원 입력 시스템의 구성은 디스플레이부(110) 및 3차원 입력 장치(미도시)를 포함한다.Referring to FIG. 1, a configuration of a three-dimensional input system using a motion recognition sensor according to an exemplary embodiment of the present invention includes a display unit 110 and a three-dimensional input device (not shown).

사용자가 디스플레이부(110)와 기설정된 기준 거리 이상(d) 이격된 상태에서 손가락(120)을 이용하여 제스처를 취하는 경우, 디스플레이부(110) 또는 3차원 입력 장치(미도시)에 구비된 동작 인식 센서에 의해 손가락(120)의 끝 점들이 인식되게 된다.When a user takes a gesture using the finger 120 in a state in which the user is spaced from the display unit 110 by a predetermined distance d or more from the display unit 110, The end points of the finger 120 are recognized by the recognition sensor.

3차원 인식 장치(미도시)는 손가락(120)의 끝 점들을 특징점(125)들로서 감지하고, 디스플레이부(110) 상에서 특징점(125)들에 대응되는 지점에 오브젝트(115)를 생성할 수 있다.The three-dimensional recognition device (not shown) can sense the end points of the finger 120 as feature points 125 and create an object 115 at a point corresponding to the feature points 125 on the display unit 110 .

사용자가 손가락(120)을 상하좌우로 움직이는 경우, 동작 인식 센서에 의해 특징점(125)들의 움직임이 감지되고, 3차원 인식 장치(미도시)는 특징점(125)들의 움직임에 대응되도록 디스플레이부(110)에 생성된 오브젝트(115)를 상하좌우로 이동시킬 수 있다.When the user moves the finger 120 vertically and horizontally, the movement of the minutiae points 125 is detected by the motion recognition sensor, and the three-dimensional recognition device (not shown) The object 115 can be moved up, down, left, and right.

특히, 3차원 인식 장치(미도시)는 사용자의 손가락(120)이 집게 형태를 띄게 되어 특징점(125)들이 기설정된 선택 거리 이내로 인접하게 되면, 오브젝트(115)가 생성된 지점이 선택된 것으로 처리할 수 있다.Particularly, when the user's finger 120 is tangled so that the feature points 125 are adjacent to each other within a predetermined selection distance, a three-dimensional recognition device (not shown) .

즉, 3차원 인식 장치(미도시)는 사용자가 디스플레이부(110)에 직접 손가락(120)을 대지 아니하고도 디스플레이부(110)에 표시된 버튼 등을 선택할 수 있다.That is, the three-dimensional recognition device (not shown) can select a button or the like displayed on the display unit 110 without the user placing the finger 120 directly on the display unit 110.

도 2는 본 발명의 일 실시예에 따른 3차원 입력 장치(200)의 내부 구성을 나타낸 도면이다.2 is a diagram illustrating an internal configuration of a three-dimensional input device 200 according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 3차원 입력 장치(200)는 특징점 감지부(210), 기준점 설정부(220), 오브젝트 생성부(230) 및 입력 처리부(240) 등을 포함한다.2, a three-dimensional input apparatus 200 according to an exemplary embodiment of the present invention includes a feature point sensing unit 210, a reference point setting unit 220, an object generating unit 230, an input processing unit 240, .

특징점 감지부(210)는 동작 인식 센서를 이용하여 디스플레이부와 기설정된 기준 거리 이상 이격된 사용자의 손가락의 끝 점을 인식하고, 해당 끝 점에 대응되는 3차원 좌표를 특징점으로서 감지할 수 있다.The feature point detection unit 210 may recognize an end point of a finger of a user who is separated from the display unit by a distance greater than a predetermined reference distance by using an operation recognition sensor and sense three-dimensional coordinates corresponding to the end point as a feature point.

특히, 특징점 감지부(210)는 사용자의 적어도 두 손가락의 끝 점들을 인식하고, 두 끝 점들에 대응되는 3차원 좌표들을 특징점들로서 감지할 수 있다.In particular, the feature point sensing unit 210 recognizes the end points of at least two fingers of the user, and senses the three-dimensional coordinates corresponding to the two end points as the feature points.

즉, 특징점들은 적어도 2개로 이루어질 수 있다.That is, the feature points may be composed of at least two.

선택적 실시예에서, 동작 인식 센서는 디스플레이부에 구비되거나, 3차원 입력 장치(200)에 구비될 수 있다.In an alternative embodiment, the motion recognition sensor may be included in the display unit or in the 3D input device 200.

기준점 설정부(220)는 특징점들이 제1 조건을 만족하는 경우, 특징점들 간의 거리와 동일한 간격을 갖는 두 개의 기준점을 설정할 수 있다.If the feature points satisfy the first condition, the reference point setting unit 220 can set two reference points having the same interval as the distance between the feature points.

여기서, 제1 조건은 기준점 설정 조건일 수 있다.Here, the first condition may be a reference point setting condition.

예컨대, 기준점 설정부(220)는 특징점들 간 거리가 기설정된 기준점 설정 간격 범위 내를 유지하면서 특징점들이 기설정된 기준점 설정 거리 이상 이동하는 경우, 기준점 설정 조건을 만족하는 것으로 판단할 수 있다.For example, the reference point setting unit 220 can determine that the reference point setting condition is satisfied when the feature points move within a preset reference point setting interval while the distance between the feature points is within the predetermined reference point setting interval.

선택적 실시예에서, 기준점 설정부(220)는 동작 인식 센서를 이용하여 사용자의 두 손가락의 끝 점들과 최외각 점이 동시에 인식되는 경우에만, 기준점들을 설정할 수 있다.In an alternative embodiment, the reference point setting unit 220 can set the reference points only when the end points and the outermost points of the user's two fingers are simultaneously recognized using the motion recognition sensor.

오브젝트 생성부(230)는 특징점들이 제2 조건을 만족하는 경우, 특징점들에 대응되는 디스플레이부 상의 지점들을 중심으로 하는 오브젝트를 생성할 수 있다.If the feature points satisfy the second condition, the object generation unit 230 may generate an object centered on points on the display unit corresponding to the feature points.

여기서, 제2 조건은 오브젝트 생성 조건일 수 있다.Here, the second condition may be an object creation condition.

예컨대, 오브젝트 생성부(230)는 기준점 설정부(220)에 의해 기준점이 설정되는 순간, 오브젝트 생성 조건을 만족하는 것으로 판단할 수 있다.For example, the object generating unit 230 can determine that the object creation condition is satisfied at the moment when the reference point setting unit 220 sets the reference point.

또한, 오브젝트 생성부(230)는 기준점이 설정된 후, 특징점 감지부(210)에 의해 변환 단계 기준 영역 내에서 특징점이 감지되는 경우, 오브젝트 생성 조건을 만족하는 것으로 판단할 수 있다.In addition, when the feature point is detected in the conversion step reference area by the feature point sensing unit 210 after the reference point is set, the object generating unit 230 can determine that the object creation condition is satisfied.

제1 오브젝트는 특징점들에 대응되는 디스플레이부 상의 지점들을 중심으로 하는 다양한 형태의 오브젝트일 수 있으며, 예컨대, 제1 오브젝트는 원형의 오브젝트일 수 있다.The first object may be various types of objects centered on points on the display unit corresponding to the minutiae points. For example, the first object may be a circular object.

선택적 실시예에서, 오브젝트 생성부(230)는 동작 인식 센서 및 손가락 간 거리에 기초하여 제1 오브젝트의 크기를 달리 결정할 수 있다.In an alternative embodiment, the object generation unit 230 may determine the size of the first object based on the motion recognition sensor and the finger-to-finger distance.

예컨대, 오브젝트 생성부(230)는 손가락이 동작 인식 센서에 가까이 접근하는 경우, 제1 오브젝트의 크기를 더 크게 하고, 손가락이 동작 인식 센서에 멀어지는 경우, 제1 오브젝트의 크기를 더 작게 할 수 있다. 이는, 입력 처리부(240)에서 제1 오브젝트들의 겹쳐진 면적에 기초하여 제2 방향 입력을 처리하는 것과 관련되어 '제2 방향 입력 민감도'를 설정하는 기능으로서 작용할 수 있다.For example, when the finger approaches the motion recognition sensor, the object generation unit 230 may increase the size of the first object, and may further reduce the size of the first object when the finger moves away from the motion recognition sensor . This can serve as a function to set the 'second direction input sensitivity' in relation to processing the second direction input based on the overlapped area of the first objects in the input processing unit 240. [

입력 처리부(240)는 특징점들이 제3 조건을 만족하는 경우, 특징점들의 위치 또는 특징점들 간의 간격에 기초하여 제1 방향 입력 또는 제2 방향 입력이 있는 것으로 처리한다.When the feature points satisfy the third condition, the input processing unit 240 processes the first direction input or the second direction input based on the position of the feature points or the interval between the feature points.

여기서, 제3 조건은 특징점 이동 조건일 수 있다.Here, the third condition may be a feature point moving condition.

여기서, 제1 방향은 디스플레이부에 상응하는 평면과 평행한 방향이고, 제2 방향은 디스플레이부에 상응하는 평면과 수직한 방향일 수 있다.Here, the first direction may be a direction parallel to a plane corresponding to the display portion, and the second direction may be a direction perpendicular to a plane corresponding to the display portion.

예컨대, 디스플레이부에 상응하는 평면이 xy평면이라고 가정하면, 제1 방향은 x성분과 y성분으로 이루어진 방향일 수 있고, 제2 방향은 z성분으로 이루어진 방향일 수 있다.For example, assuming that the plane corresponding to the display portion is an xy plane, the first direction may be a direction composed of an x component and the y component, and the second direction may be a direction composed of a z component.

즉, 본원 발명의 실시예에 따르면, 특징점들의 위치가 변경되는 경우, 이에 대응하여 제1 오브젝트가 디스플레이부에서 x성분과 y성분으로 이루어진 방향으로 움직이게 되고, 특징점들 간 간격이 좁아지는 경우, 이에 대응하여 제1 오브젝트들 간 간격이 좁아지다가, 제1 오브젝트들이 겹쳐지는 경우, z성분의 입력(예컨대, 압력에 대응되는 입력)이 발생할 수 있다. 또한, 특징점들이 소정의 간격보다 더 좁아지는 경우, 제1 오브젝트들이 완전히 겹쳐지면서, 해당 지점에 선택 입력(예컨대, 마우스 입력 장치에서의 '누름'에 대응되는 입력)이 발생할 수 있다. 특징점들이 다시 소정의 간격 이상이 되는 경우, 선택 입력이 해제(예컨대, 마우스 입력 장치에서의 '누름 해제'에 대응되는 입력)될 수 있다.That is, according to the embodiment of the present invention, when the position of the minutiae is changed, the first object moves in the direction of the x and y components in the display portion, and when the distance between the minutiae points becomes narrower Correspondingly, the interval between the first objects becomes narrower, and when the first objects overlap, an input of the z component (e.g., an input corresponding to the pressure) may occur. Also, when the minutiae become narrower than the predetermined interval, a selection input (for example, an input corresponding to 'push' in the mouse input device) may occur at the corresponding point as the first objects are completely overlapped. If the minutiae are again more than a predetermined interval, the selection input may be released (e.g., an input corresponding to a 'press release' in the mouse input device).

입력 처리부(240)는 특징점들의 좌표 변화가 있는 경우, 특징점 이동 조건이 만족된 것으로 판단할 수 있다.If there is a coordinate change of the minutiae points, the input processing unit 240 can determine that the minutiae point move condition is satisfied.

보다 구체적으로, 입력 처리부(240)는 특징점들 간 거리가 기설정된 기준점 설정 거리 범위 내를 유지하면서 특징점들의 위치가 변화하는 경우, 제1 방향 입력이 있는 것으로 처리할 수 있다.More specifically, when the position of the minutiae points changes while the distance between the minutiae points is maintained within the predetermined reference point set distance range, the input processing unit 240 can treat the input as having the first direction input.

입력 처리부(240)는 특징점들 간 거리가 기준점들 간 거리보다 짧아지거나 길어지는 경우, 제2 방향 입력이 있는 것으로 처리할 수 있다.When the distance between the minutiae points is shorter or longer than the distance between the reference points, the input processing unit 240 can treat the input as having the second direction input.

또한, 입력 처리부(240)는 특징점들 간 거리와 기준점들 간 거리의 차이에 기초하여 제2 방향 입력의 크기를 결정할 수 있다.Also, the input processing unit 240 may determine the size of the second direction input based on the difference between the distance between the minutiae points and the distance between the reference points.

선택적 실시예에서, 입력 처리부(240)는 오브젝트 생성부(230)에 의해 제1 오브젝트가 생성되고, 특징점들 간 거리가 짧아짐에 따라 제1 오브젝트들이 겹쳐지는 경우, 제1 오브젝트들의 겹친 면적에 기초하여 제2 방향 입력의 크기를 결정할 수 있다.In an alternative embodiment, when the first object is generated by the object generating unit 230 and the distance between the minutiae points is shortened, the input processing unit 240 may generate the first object based on the overlapped area of the first objects To determine the size of the second directional input.

또한, 입력 처리부(240)는 특징점들 간 거리가 기설정된 선택 거리 미만인 경우, 특징점들에 상응하는 지점들의 중앙점에 선택 입력이 있는 것으로 처리할 수 있다.Also, when the distance between the minutiae is less than the preset distance, the input processor 240 may treat the minutiae as having a selection input at the center of the minutiae corresponding to the minutiae.

이 때, 오브젝트 생성부(230)는 특징점들 간 거리가 기설정된 선택 거리 미만인 경우, 디스플레이부 상의 제1 오브젝트를, 특징점들에 상응하는 디스플레이부 상의 지점들의 중앙점을 중심으로 하는 제2 오브젝트로 변환할 수 있다.At this time, when the distance between the minutiae points is less than the pre-set selection distance, the object generator 230 converts the first object on the display unit into the second object centered on the center point of the points on the display unit corresponding to the minutiae points Can be converted.

예컨대, 오브젝트 생성부(230)는 특징점들 간 거리가 기설정된 선택 거리 미만인 경우, 원형의 제1 오브젝트들이 특징점들에 상응하는 디스플레이부 상의 지점들의 중앙점을 중심으로 완전히 겹쳐지도록 하였다가, 제1 오브젝트들의 크기가 서로 달라지면서 동심원을 이루는 형태인 제2 오브젝트로 변환할 수 있다.For example, when the distance between the minutiae points is less than the predefined selection distance, the object generating unit 230 may cause the first objects of the circle to be completely overlapped on the center point of the points on the display unit corresponding to the minutiae points, The object can be converted into a second object having a concentric shape by varying sizes of the objects.

선택적 실시예에서, 입력 처리부(240)는 특징점들이 제4 조건을 만족하는 경우, 특징점들의 위치에 기초하여 입력 동작이 종료된 것으로 처리할 수 있다.In an alternative embodiment, if the feature points satisfy the fourth condition, the input processing unit 240 may treat the input operation as being completed based on the position of the feature points.

여기서, 제4 조건은 입력 종료 조건일 수 있다.Here, the fourth condition may be an input end condition.

예컨대, 입력 처리부(240)는 특징점들이 변환 단계 기준 영역을 벗어나는 경우, 제1 방향 입력 또는 제2 방향 입력이 종료된 것으로 처리할 수 있다.For example, when the feature points are out of the conversion step reference area, the input processing unit 240 may process the first direction input or the second direction input as being completed.

도 3은 본 발명의 일 실시예에 따른 3차원 입력 방법을 나타낸 동작 흐름도이다.3 is a flowchart illustrating a three-dimensional input method according to an exemplary embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 3차원 입력 방법은 3차원 입력 장치가 복수의 특징점들을 감지한다(S310).Referring to FIG. 3, in the 3D input method according to an embodiment of the present invention, the 3D input device detects a plurality of feature points (S310).

단계(S310)에서 3차원 입력 장치는 디스플레이부에 구비된 동작 인식 센서 또는 3차원 입력 장치에 구비된 동작 인식 센서를 이용하여 사용자의 적어도 두 손가락의 끝 점을 인식하고, 끝 점에 대응되는 3차원 좌표를 특징점으로 감지할 수 있다.In step S310, the three-dimensional input device recognizes the end points of at least two fingers of the user using the motion recognition sensors provided in the display unit or the three-dimensional input device, Dimensional coordinates can be detected as feature points.

또한, 본 발명의 일 실시예에 따른 3차원 입력 방법은 3차원 입력 장치가 제1 조건을 만족하는 특징점들 간의 거리에 기초하여 기준점을 설정한다(S320).In addition, in the 3D input method according to an embodiment of the present invention, the 3D input device sets a reference point based on a distance between minutiae that satisfy the first condition (S320).

단계(S320)에서, 제1 조건은 기준점 설정 조건일 수 있으며, 특징점들 간 거리가 기설정된 기준점 설정 간격 범위 내를 유지하면서 특징점들이 기설정된 기준점 설정 거리 이상 이동하는 경우, 기준점 설정 조건이 만족될 수 있다.In step S320, the first condition may be a reference point setting condition. When the distance between the minutiae points is within the predetermined reference point setting interval, and the minutiae move more than the preset reference point setting distance, the reference point setting condition is satisfied .

또한, 본 발명의 일 실시예에 따른 3차원 입력 방법은 3차원 입력 장치가 제2 조건을 만족하는 특징점들에 대응되는 오브젝트를 생성한다(S330).In addition, in the 3D input method according to an embodiment of the present invention, the 3D input device generates an object corresponding to the minutiae that satisfy the second condition (S330).

단계(S330)에서, 제2 조건은 오브젝트 생성 조건일 수 있으며, 기준점이 설정되는 순간이나, 변환 단계 기준 영역 내에서 특징점이 감지되는 경우에 오브젝트 생성 조건이 만족될 수 있다.In step S330, the second condition may be an object creation condition, and the object creation condition may be satisfied at the moment when the reference point is set or when the feature point is detected in the conversion step reference area.

또한, 본 발명의 일 실시예에 따른 3차원 입력 방법은 3차원 입력 장치가 제3 조건을 만족하는 특징점들 간의 관계에 기초하여 입력 동작을 수행한다(S340).Also, in the 3D input method according to an embodiment of the present invention, the 3D input device performs an input operation based on a relation between minutiae that satisfy the third condition (S340).

단계(S340)에서 제3 조건은 특징점 이동 조건일 수 있으며, 특징점들의 좌표 변화가 있는 경우, 특징점 이동 조건이 만족될 수 있다.In step S340, the third condition may be a feature point movement condition, and when there is a coordinate change of the feature points, the feature point movement condition may be satisfied.

또한, 본 발명의 일 실시예에 따른 3차원 입력 방법은 3차원 입력 장치가 제4 조건을 만족하는 특징점들의 위치에 기초하여 입력 동작을 종료한다(S350).In addition, in the 3D input method according to the embodiment of the present invention, the 3D input device terminates the input operation based on the positions of the minutiae that satisfy the fourth condition (S350).

단계(S350)에서 제4 조건은 입력 종료 조건일 수 있으며, 특징점들이 변환 단계 기준 영역을 벗어나는 경우, 입력 종료 조건이 만족될 수 있다.In step S350, the fourth condition may be an input end condition, and when the feature points are out of the conversion step reference area, the input end condition may be satisfied.

도 4는 본 발명의 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.4 is a diagram illustrating a three-dimensional input method according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 3차원 입력 방법은 3차원 입력 장치가 기준점을 설정한다.Referring to FIG. 4, a three-dimensional input method according to an embodiment of the present invention sets a reference point of a three-dimensional input device.

동작 인식 센서(400)는 디스플레이부(110) 또는 3차원 입력 장치(도 2의 200 참조)에 구비될 수 있으며, 이하 도 5 내지 도 11에서의 동작 인식 센서(400)도 마찬가지 이다.The motion recognition sensor 400 may be provided in the display unit 110 or the three-dimensional input device 200 (see FIG. 2), and the motion recognition sensor 400 in FIGS.

사용자의 손가락(120)이 동작 인식 센서(400)의 센싱 영역 내에 들어오는 경우, 동작 인식 센서(400)는 사용자의 손가락(120)의 끝 점을 특징점(A, B)으로서 인식할 수 있다.When the user's finger 120 enters the sensing area of the motion recognition sensor 400, the motion recognition sensor 400 can recognize the end point of the user's finger 120 as the feature points A and B.

여기서, 사용자가 손가락(120)을 소정의 길이만큼 벌린 상태에서 소정의 거리만큼 움직이는 경우, 특징점은 (A, B)에서 (A', B')로 좌표 변경된다.Here, when the user moves the finger 120 by a predetermined distance in a state where the finger 120 is extended by a predetermined length, the minutiae are changed from (A, B) to (A ', B').

이 때, A와 B의 거리 및 A'와 B'의 거리 차이가 기준점 설정 간격 범위 내이고(예컨대, 10mm), A와 A'의 거리 및 B와 B'의 거리가 기준점 설정 거리 이상인 경우(예컨대, 30mm), 3차원 입력 장치는 특징점 (A', B')를 기준점으로서 설정할 수 있다.When the distance between A and B and the distance between A 'and B' are within the reference point setting interval (for example, 10 mm), the distance between A and A 'and the distance between B and B' For example, 30 mm), the three-dimensional input device can set the minutiae points A 'and B' as reference points.

도 5는 본 발명의 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.5 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.

도 5를 참조하면, 본 발명의 다른 일 실시예에 따른 3차원 입력 방법은 기준점이 설정되는 순간, 3차원 입력 장치가 제1 오브젝트를 생성한다.Referring to FIG. 5, in a three-dimensional input method according to another embodiment of the present invention, at a moment when a reference point is set, a three-dimensional input device generates a first object.

상기 도 4의 과정과 같이, 특징점 (A', B')가 기준점으로 설정되는 경우, 3차원 입력 장치는 기준점에 대응되는 디스플레이부(110) 상의 지점을 중심으로 하는 원을 제1 오브젝트로서 생성할 수 있다.4, when the minutiae points A 'and B' are set as reference points, the three-dimensional input device generates a circle around a point on the display unit 110 corresponding to the reference point as a first object can do.

이를 통해 사용자는 기준점 설정 과정이 정상적으로 진행되었음을 직관적으로 인식할 수 있다.This allows the user to intuitively recognize that the reference point setting process has been normally performed.

도 6은 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.6 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.

도 6을 참조하면, 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법은 3차원 입력 장치가 사용자의 손가락의 두 끝점(A, B) 및 최외각 점(C)이 동시에 인식되는 경우에 기준점을 설정한다.Referring to FIG. 6, a three-dimensional input method according to another embodiment of the present invention is a method in which a three-dimensional input device is used in a case where two end points (A, B) and an outermost point (C) Set a reference point.

동작 인식 센서(400)가 사용자의 손가락(120)이 아닌 다른 객체에서 두 끝점을 인식하는 경우의 오동작을 방지하기 위해, 3차원 입력 장치는 손가락(120)의 두 끝점(A, B) 외에 최외각 점(C)이 동시에 인식되는 경우에만 기준점을 설정할 수 있다.In order to prevent malfunctions when the motion recognition sensor 400 recognizes the two end points in the object other than the user's finger 120, the three-dimensional input device may include two end points A and B of the finger 120, The reference point can be set only when the outer point C is recognized at the same time.

도 7은 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.7 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.

도 7을 참조하면, 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법은 특징점이 변환 단계 기준 영역(700) 내에 위치한 경우, 3차원 입력 장치가 입력 동작을 시작한다.Referring to FIG. 7, in a three-dimensional input method according to another embodiment of the present invention, when the feature point is located in the transformation step reference area 700, the three-dimensional input device starts the input operation.

도 4에서의 과정과 유사하게, 사용자의 손가락(120)이 동작 인식 센서(400)의 센싱 영역 내에 들어오는 경우, 동작 인식 센서(400)는 사용자의 손가락(120)의 끝 점을 특징점(A, B)으로서 인식할 수 있다.4, when the user's finger 120 enters the sensing area of the motion recognition sensor 400, the motion recognition sensor 400 converts the end point of the user's finger 120 to the feature points A, B).

여기서, 특징점(A, B)이 변환 단계 기준 영역(700) 내에 위치하게 된 경우, 3차원 입력 장치는 입력 동작을 시작할 수 있다.Here, when the minutiae points A and B are located in the conversion step reference area 700, the three-dimensional input device can start the input operation.

도 8은 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.8 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.

도 8을 참조하면, 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법은 3차원 입력 장치가 제1 오브젝트들을 생성한다.Referring to FIG. 8, in a three-dimensional input method according to another embodiment of the present invention, a three-dimensional input device generates first objects.

여기서, 3차원 입력 장치는 특징점(A, B)에 대응되는 디스플레이부(110) 상의 지점을 중심으로 하는 원을 제1 오브젝트로서 생성할 수 있다.Here, the three-dimensional input device can generate a circle around a point on the display unit 110 corresponding to the minutiae points A and B as a first object.

이를 통해 사용자는 입력 동작이 정상적으로 시작되었음을 직관적으로 인식할 수 있다.This allows the user to intuitively recognize that the input operation has started normally.

도 9는 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.9 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.

도 9를 참조하면, 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법은 3차원 입력 장치가 제1 오브젝트들이 서로 겹쳐지도록 한다.Referring to FIG. 9, in a three-dimensional input method according to another embodiment of the present invention, a three-dimensional input device causes first objects to overlap each other.

여기서, 3차원 입력 장치는 사용자의 손가락(120)의 끝점이 이동하는 경우, 특징점(A', B')을 트래킹하고, 제1 오브젝트의 중심이 특징점(A', B')에 대응되는 디스플레이부(110) 상의 지점이 되도록 제1 오브젝트를 이동시킬 수 있다.Here, the three-dimensional input device tracks the minutiae points A 'and B' when the end point of the user's finger 120 moves, and displays the center of the first object on the display corresponding to the minutiae points A 'and B' The first object can be moved so as to be a point on the part 110.

즉, 사용자의 손가락(120)이 집게 형태를 띄는 경우, 특징점(A', B') 간 거리는 감소하고, 특징점에 대응되는 제1 오브젝트들은 서로 겹치는 부분이 발생하게 된다.That is, when the user's finger 120 is in the form of a thumb, the distances between the minutiae points A 'and B' decrease, and the first objects corresponding to the minutiae point overlap each other.

이 경우, 3차원 입력 장치는 서로 겹치는 부분의 넓이에 기초하여, 넓이가 넓을수록 z방향 입력(예컨대, 압력)의 세기가 센 것으로 처리할 수 있다.In this case, the three-dimensional input device can process the z-direction input (for example, pressure) as the wider the width, based on the width of the overlapping portions.

이를 통해 사용자는 해당 지점에 z방향 입력이 어느 정도 세기로 입력되고 있는지를 직관적으로 인식할 수 있다.This allows the user to intuitively recognize how much the z-direction input is being input at that point.

도 10은 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.10 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.

도 10을 참조하면, 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법은 3차원 입력 장치가 제2 오브젝트를 생성한다.Referring to FIG. 10, in a three-dimensional input method according to another embodiment of the present invention, a three-dimensional input device generates a second object.

여기서, 3차원 입력 장치는 특징점(A', B') 간 거리가 소정의 거리보다 짧아지는 경우, 제1 오브젝트들이 완전히 겹쳐지는 것으로 처리할 수 있다.Here, when the distance between the minutiae points A 'and B' is shorter than the predetermined distance, the three-dimensional input device can treat the first objects as completely overlapping.

이 경우, 3차원 입력 장치는 제1 오브젝트들의 중심 지점에 선택 입력이 있는 것으로 처리하고, 제1 오브젝트들을 두 동심원의 형태인 제2 오브젝트로 변환시킬 수 있다.In this case, the three-dimensional input device may process the first objects as a selection input at the center point of the first objects, and may convert the first objects into a second object in the form of two concentric circles.

이를 통해 사용자는 해당 지점에 선택 입력이 되었음을 직관적으로 인식할 수 있다.This allows the user to intuitively recognize the selection input at the corresponding point.

도 11은 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법을 나타낸 도면이다.11 is a diagram illustrating a three-dimensional input method according to another embodiment of the present invention.

도 11을 참조하면, 본 발명의 또 다른 일 실시예에 따른 3차원 입력 방법은 특징점이 변환 단계 기준 영역을 벗어나는 경우, 3차원 입력 장치가 입력 동작을 종료한다.Referring to FIG. 11, in the 3D input method according to another embodiment of the present invention, when the minutiae are out of the conversion step reference area, the 3D input device ends the input operation.

도 7에서의 과정과 반대로, 특징점(A, B)이 변환 단계 기준 영역(700)을 벗어나는 경우(A', B'), 3차원 입력 장치는 입력 동작을 종료할 수 있다.7, the three-dimensional input device can terminate the input operation when the feature points A and B are out of the conversion step reference area 700 (A ', B').

비록 도 11에는 도시되지 아니하였으나, 3차원 입력 장치는 기생성되었던 제1 오브젝트 또는 제2 오브젝트를 소멸시킬 수 있고, 이를 통해 사용자는 입력 동작이 정상적으로 종료되었음을 직관적으로 인식할 수 있다.Although not shown in FIG. 11, the three-dimensional input device can extinguish the first object or the second object that has been created, and the user can intuitively recognize that the input operation is normally completed.

본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. The description sets forth the best mode of the invention, and is provided to illustrate the invention and to enable those skilled in the art to make and use the invention. The written description is not intended to limit the invention to the specific terminology presented.

따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 요컨대 본 발명이 의도하는 효과를 달성하기 위해 도면에 도시된 모든 기능 블록을 별도로 포함하거나 도면에 도시된 모든 순서를 도시된 순서 그대로 따라야만 하는 것은 아니며, 그렇지 않더라도 얼마든지 청구항에 기재된 본 발명의 기술적 범위에 속할 수 있음에 주의한다.Thus, while the present invention has been described in detail with reference to the above examples, those skilled in the art will be able to make adaptations, modifications, and variations on these examples without departing from the scope of the present invention. In other words, in order to achieve the intended effect of the present invention, all the functional blocks shown in the drawings are separately included or all the steps shown in the drawings are not necessarily followed in the order shown, It can be in the range.

110: 디스플레이부 115: 오브젝트
120: 손가락 125: 특징점
200: 3차원 입력 장치 210: 특징점 감지부
220: 기준점 설정부 230: 오브젝트 생성부
240: 입력 처리부
110: Display unit 115: Object
120: finger 125: feature point
200: Three-dimensional input device 210:
220: Reference point setting unit 230:
240: input processor

Claims (13)

동작 인식 센서를 이용하여 디스플레이부와 기설정된 기준 거리 이상 이격된 사용자의 적어도 두 손가락의 끝 점들을 인식하고, 상기 끝 점들에 대응되는 3차원 좌표들을 획득하고, 상기 3차원 좌표들을 특징점들로서 감지하는 특징점 감지부; 및
상기 특징점들의 좌표 값의 변화를 트래킹하고, 상기 특징점들이 입력 조건을 만족하는 경우, 상기 특징점들의 위치에 기초하여 제1 방향 입력이 있는 것으로 처리하고, 상기 특징점들 간 거리에 기초하여 상기 제1 방향과 수직한 제2 방향 입력이 있는 것으로 처리하는 입력 처리부;를 포함하며,
상기 동작 인식 센서를 이용한 3차원 입력 장치는 상기 특징점들이 기준점 설정 조건을 만족하는 경우, 상기 특징점들 간 거리와 동일한 간격을 갖는 기준점들을 설정하는 기준점 설정부;를 더 포함하고,
상기 입력 처리부는 상기 특징점들 간 거리가 상기 기준점들 간 거리보다 짧아지거나 길어지는 경우, 상기 제2 방향 입력이 있는 것으로 처리하되,
상기 기준점 설정부는 상기 특징점들 간 거리가 기설정된 기준점 설정 간격 범위 내를 유지하면서 상기 특징점들이 기설정된 기준점 설정 거리 이상 이동하는 경우, 상기 기준점 설정 조건을 만족하는 것으로 판단하고,
상기 동작 인식 센서를 이용한 3차원 입력 장치는 상기 디스플레이부 상에, 상기 특징점들에 상응하는 상기 디스플레이부 상의 지점들을 중심으로 하는 제1 오브젝트들을 생성하는 오브젝트 생성부;를 더 포함하며,
상기 입력 처리부는 상기 특징점들 간 거리가 짧아짐에 따라 상기 제1 오브젝트들이 겹쳐지는 경우, 상기 제1 오브젝트들의 겹친 면적에 기초하여 상기 제2 방향 입력의 크기를 결정하는 것을 특징으로 하는, 동작 인식 센서를 이용한 3차원 입력 장치.
Recognizing end points of at least two fingers of a user spaced apart from a predetermined reference distance by using a motion recognition sensor, acquiring three-dimensional coordinates corresponding to the end points, and sensing the three-dimensional coordinates as feature points A feature point detection unit; And
A change in coordinate values of the feature points is tracked, and when the feature points satisfy an input condition, processing is performed based on the position of the feature points as a first direction input, And an input processing unit which processes the input signal as if there is a second direction input perpendicular to the first direction input,
The three-dimensional input device using the motion recognition sensor further includes a reference point setting unit for setting reference points having the same interval as the distance between the minutiae points when the minutiae points meet the reference point setting condition,
Wherein the input processing unit processes the second direction input when the distance between the minutiae points is shorter or longer than the distance between the reference points,
Wherein the reference point setting unit determines that the reference point setting condition is satisfied when the feature points move within a predetermined reference point setting range while the distance between the feature points is within a predetermined reference point setting interval,
The three-dimensional input device using the motion recognition sensor may further include an object generation unit for generating first objects on the display unit, the first objects being centered on points on the display unit corresponding to the feature points,
Wherein the input processing unit determines the size of the second direction input based on the overlapped area of the first objects when the first objects are overlapped as the distance between the minutiae points becomes shorter, A three - dimensional input device using.
삭제delete 삭제delete 삭제delete 제1 항에 있어서,
상기 입력 처리부는
상기 특징점들 간 거리와 상기 기준점들 간 거리의 차이에 기초하여 상기 제2 방향 입력의 크기를 결정하는 것을 특징으로 하는, 동작 인식 센서를 이용한 3차원 입력 장치.
The method according to claim 1,
The input processing unit
Wherein the size of the second direction input is determined based on a difference between the distance between the minutiae points and the distance between the reference points.
제1 항에 있어서,
상기 입력 처리부는
상기 특징점들 간 거리가 기설정된 선택 거리 미만인 경우, 상기 특징점들에 상응하는 지점들의 중앙점에 선택 입력이 있는 것으로 처리하는 것을 특징으로 하는, 동작 인식 센서를 이용한 3차원 입력 장치.
The method according to claim 1,
The input processing unit
When the distance between the minutiae is less than a preset selection distance, a selection input is present at a center point of the points corresponding to the minutiae points.
삭제delete 제1 항에 있어서,
상기 입력 처리부는
상기 특징점들이 기설정된 입력 영역을 벗어나는 경우, 상기 제1 방향 입력 또는 제2 방향 입력이 종료된 것으로 처리하는 것을 특징으로 하는, 동작 인식 센서를 이용한 3차원 입력 장치.
The method according to claim 1,
The input processing unit
Dimensional input device using the motion recognition sensor, wherein the first direction input or the second direction input is terminated when the feature points deviate from the preset input area.
제1 항에 있어서,
상기 오브젝트 생성부는
상기 동작 인식 센서 및 상기 손가락 간 거리에 기초하여 상기 제1 오브젝트의 크기를 달리 결정하는 것을 특징으로 하는, 동작 인식 센서를 이용한 3차원 입력 장치.
The method according to claim 1,
The object generating unit
Wherein the size of the first object is determined based on the motion recognition sensor and the finger-to-finger distance.
제1 항에 있어서,
상기 기준점 설정부는
상기 동작 인식 센서를 이용하여 상기 사용자의 두 손가락의 끝 점들과 최외각 점이 동시에 인식되는 경우에만, 상기 기준점들을 설정하는 것을 특징으로 하는, 동작 인식 센서를 이용한 3차원 입력 장치.
The method according to claim 1,
The reference point setting unit
Wherein the reference points are set only when the end points and the outermost points of the two fingers of the user are simultaneously recognized using the motion recognition sensor.
삭제delete 삭제delete 삭제delete
KR1020160044213A 2016-04-11 2016-04-11 Apparatus for sharing data and providing reward in accordance with shared data KR101671831B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160044213A KR101671831B1 (en) 2016-04-11 2016-04-11 Apparatus for sharing data and providing reward in accordance with shared data
PCT/KR2016/013389 WO2017179786A1 (en) 2016-04-11 2016-11-21 Three-dimensional input device, method and system using motion recognition sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160044213A KR101671831B1 (en) 2016-04-11 2016-04-11 Apparatus for sharing data and providing reward in accordance with shared data

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020160095282A Division KR101860138B1 (en) 2016-07-27 2016-07-27 Apparatus for sharing data and providing reward in accordance with shared data

Publications (1)

Publication Number Publication Date
KR101671831B1 true KR101671831B1 (en) 2016-11-03

Family

ID=57571335

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160044213A KR101671831B1 (en) 2016-04-11 2016-04-11 Apparatus for sharing data and providing reward in accordance with shared data

Country Status (2)

Country Link
KR (1) KR101671831B1 (en)
WO (1) WO2017179786A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120010374A (en) * 2010-07-26 2012-02-03 이종우 Terminal providing 3d interface by recognizing motion of fingers and method thereof
KR20150034215A (en) * 2012-07-13 2015-04-02 소프트키네틱 소프트웨어 Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
KR100853024B1 (en) * 2006-12-01 2008-08-20 엠텍비젼 주식회사 Apparatus for controlling image in display and method thereof
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120010374A (en) * 2010-07-26 2012-02-03 이종우 Terminal providing 3d interface by recognizing motion of fingers and method thereof
KR20150034215A (en) * 2012-07-13 2015-04-02 소프트키네틱 소프트웨어 Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand

Also Published As

Publication number Publication date
WO2017179786A1 (en) 2017-10-19

Similar Documents

Publication Publication Date Title
US9069386B2 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
JP6711817B2 (en) Information processing apparatus, control method thereof, program, and storage medium
JP5783828B2 (en) Information processing apparatus and control method thereof
WO2014106219A1 (en) User centric interface for interaction with visual display that recognizes user intentions
TW201120681A (en) Method and system for operating electric apparatus
US9291447B2 (en) Method for controlling motion of a coordinate measuring machine
US10346992B2 (en) Information processing apparatus, information processing method, and program
US11640198B2 (en) System and method for human interaction with virtual objects
JP6452369B2 (en) Information processing apparatus, control method therefor, program, and storage medium
US20140028595A1 (en) Multi-touch based drawing input method and apparatus
KR101860138B1 (en) Apparatus for sharing data and providing reward in accordance with shared data
WO2014106862A2 (en) A method and system enabling control of different digital devices using gesture or motion control
CN106796462B (en) Determining a position of an input object
KR101671831B1 (en) Apparatus for sharing data and providing reward in accordance with shared data
JP5558899B2 (en) Information processing apparatus, processing method thereof, and program
JP6579866B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP2017162251A (en) Three-dimensional noncontact input device
TWI444875B (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and imaging sensor
JP5950806B2 (en) Input device, information processing method, and information processing program
JP6029478B2 (en) Input device, information processing method, and information processing program
JP2018010539A (en) Image recognition device
JP2018181169A (en) Information processor, and information processor control method, computer program, and storage medium
KR101184742B1 (en) Contactless method for recognizing a direction by hand movement
JP2015207908A (en) information processing apparatus

Legal Events

Date Code Title Description
A201 Request for examination
FPAY Annual fee payment

Payment date: 20190918

Year of fee payment: 4