KR20160142207A - Electronic device and Method for controlling the electronic device - Google Patents

Electronic device and Method for controlling the electronic device Download PDF

Info

Publication number
KR20160142207A
KR20160142207A KR1020150098177A KR20150098177A KR20160142207A KR 20160142207 A KR20160142207 A KR 20160142207A KR 1020150098177 A KR1020150098177 A KR 1020150098177A KR 20150098177 A KR20150098177 A KR 20150098177A KR 20160142207 A KR20160142207 A KR 20160142207A
Authority
KR
South Korea
Prior art keywords
points
user
touched
touch input
hand
Prior art date
Application number
KR1020150098177A
Other languages
Korean (ko)
Other versions
KR102307354B1 (en
Inventor
김현우
조민수
문중희
백건우
이탁건
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/165,538 priority Critical patent/US20160357319A1/en
Publication of KR20160142207A publication Critical patent/KR20160142207A/en
Application granted granted Critical
Publication of KR102307354B1 publication Critical patent/KR102307354B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera

Abstract

An electronic device and a control method thereof are provided. The control method of the electronic device comprises the steps of: obtaining a depth image using a depth camera; extracting a hand area including a hand of a user from the obtained depth image; modeling a finger and a palm of the user included in the hand area to a plurality of points; and detecting a touch input based on depth information of the modeled points.

Description

전자 장치 및 이의 제어 방법{Electronic device and Method for controlling the electronic device}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an electronic device and a control method thereof,

본 발명은 전자 장치 및 이의 제어 방법에 관한 것으로, 더욱 상세하게는 뎁스 카메라에 의해 획득된 사용자 손의 뎁스 정보를 이용하여 사용자의 터치 입력을 감지하는 전자 장치 및 이의 제어 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an electronic device and a control method thereof, and more particularly to an electronic device for sensing a touch input of a user using depth information of a user's hand obtained by a depth camera and a control method thereof.

빔 프로젝터로 구성된 대형화면을 인터렉티브 터치 스크린으로 만드는 다양한 연구 및 제품이 개발되고 있다. 그 중 빔 프로젝터에 뎁스 카메라를 채용하여 사용자의 터치를 감지할 수 있는 방안이 개발되고 있다. 구체적으로, 빔 프로젝터는 뎁스 카메라에 의해 획득된 뎁스 영상과 평면 뎁스 영상의 차이를 이용하여 사용자의 터치 입력을 감지하였다.Various researches and products are being developed to make a large screen composed of a beam projector as an interactive touch screen. Among them, a method of detecting a user's touch by adopting a depth camera in a beam projector is being developed. Specifically, the beam projector senses the user's touch input using the difference between the depth image and the flat depth image acquired by the depth camera.

이 경우, 손바닥을 평면 위에 놓으면 손바닥으로 인한 터치가 발생하기 때문에 터치를 입력할 경우, 손바닥을 계속 들고 있어야 하는 불편함이 존재한다. 또한, 주변에서 발생하는 빛 등 환경적인 요소에 의해 노이즈가 발생하는 경우, 손가락으로 인한 터치와 구분하기 어려워 노이즈 터치가 발생할 수 있는 문제점이 존재한다.In this case, when the palm is placed on the flat surface, a touch caused by the palm causes the inconvenience of holding the palm of the hand when the touch is inputted. In addition, when noise occurs due to environmental factors such as light generated in the surroundings, it is difficult to distinguish it from a touch due to a finger, which may cause a noise touch.

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로서, 뎁스 카메라에 의해 획득된 사용자 손을 복수의 지점으로 모델링하고, 모델링된 복수의 지점의 뎁스 정보를 바탕으로 사용자의 터치 입력을 감지하는 전자 장치 및 이의 제어 방법을 제공함에 있다.SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-mentioned problems, and it is an object of the present invention to provide an electronic device for modeling a user's hand obtained by a depth camera into a plurality of points and sensing a touch input of a user based on depth information of a plurality of points And a control method thereof.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 전자 장치의 제어 방법은, 뎁스 카메라를 이용하여 뎁스 영상을 획득하는 단계; 상기 획득된 뎁스 영상으로부터 사용자의 손이 포함된 손 영역을 추출하는 단계; 상기 손 영역에 포함된 사용자의 손가락 및 손바닥을 복수의 지점으로 모델링하는 단계; 및 상기 모델링된 복수의 지점의 뎁스 정보를 바탕으로 터치 입력을 감지하는 단계;를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of controlling an electronic device, including: acquiring a depth image using a depth camera; Extracting a hand region including a user's hand from the obtained depth image; Modeling a finger and a palm of a user included in the hand region into a plurality of points; And sensing the touch input based on the depth information of the plurality of points modeled.

그리고, 상기 모델링하는 단계는, 상기 사용자의 손가락 중 검지, 중지, 약지 각각은 복수의 지점으로 모델링하고, 상기 사용자의 손가락 중 엄지 및 소지 각각은 하나의 지점으로 모델링하며, 상기 사용자의 손바닥은 하나의 지점으로 모델링할 수 있다.The modeling may be performed by modeling each of the fingers of the user into a plurality of points, modeling each of the fingers of the user as one point, and the palm of the user is one As shown in FIG.

또한, 상기 감지하는 단계는, 상기 검지 및 중지의 복수의 지점 중 적어도 하나의 손가락의 끝 지점만 터치된 것으로 감지된 경우, 상기 터치된 지점에 터치 입력을 감지하고, 상기 검지 및 중지의 복수의 지점 중 적어도 하나의 손가락의 복수의 지점이 터치된 것으로 감지된 경우, 상기 터치 입력을 감지하지 않을 수 있다.The sensing step may include sensing a touch input at the touched point when it is detected that only an end point of at least one of the plurality of points of the detection and stop is touched, When a plurality of points of at least one finger among the points are detected as being touched, the touch input may not be detected.

그리고, 상기 감지하는 단계는, 상기 엄지 및 검지의 복수의 지점 중 두 손가락의 끝 지점만 터치된 것으로 감지된 경우, 상기 터치된 지점에 멀티 터치 입력을 감지하고, 상기 검지의 복수의 지점 및 상기 엄지의 하나의 지점이 모두 터치된 것으로 감지된 경우, 상기 터치 입력을 감지하지 않을 수 있다.The sensing step senses the multi-touch input to the touched point when it is detected that only the end points of the two fingers of the thumb and index finger are touched, If one point of the thumb is detected as being all touched, the touch input may not be detected.

또한, 상기 감지하는 단계는, 상기 사용자의 양손의 검지들의 복수의 지점 중 두 손가락의 끝 지점만 터치된 것으로 감지된 경우, 상기 터치된 지점에 멀티 터치 입력을 감지할 수 있다.Also, in the sensing step, when it is detected that only the end points of two fingers of the plurality of points of the forensic hands of the user are touched, the multi-touch input may be sensed at the touched point.

그리고, 상기 사용자의 양손의 모든 손가락의 복수의 지점 중 모든 손가락의 끝지점만이 터치된 경우, 멀티 터치 입력을 감지할 수 있다.In addition, when only the end points of all of the plurality of points of all the fingers of both hands of the user are touched, the multi-touch input can be detected.

또한, 상기 손 영역에 포함된 손의 움직임 방향 및 속도를 분석하는 단계;를 포함하고, 상기 추출하는 단계는, 이전 프레임에서 분석된 손의 움직임 방향 및 속도를 바탕으로 상기 사용자의 손을 추출할 수 있다.The method may further include analyzing a movement direction and a velocity of a hand included in the hand region, wherein the extracting step extracts the hand of the user based on the direction and velocity of the hand analyzed in the previous frame .

그리고, 상기 획득된 뎁스 영상을 분석하여 획득된 뎁스 영상 내에 있는 물체가 사람의 손인지 사물인지 여부를 판단하는 단계; 상기 뎁스 영상 내에 있는 물체가 사물인 것으로 판단된 경우, 상기 추출된 사물의 종류를 판단하는 단계;를 포함할 수 있다.Determining whether an object in the depth image obtained by analyzing the obtained depth image is a human hand or an object; And determining the type of the extracted object if it is determined that the object in the depth image is an object.

또한, 상기 판단된 사물의 종류 및 상기 사물의 터치 위치를 바탕으로 상기 전자 장치의 기능을 수행하는 단계;를 포함할 수 있다.The method may further include performing the function of the electronic device based on the type of the determined object and the touch position of the object.

한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 전자 장치는, 뎁스 영상을 획득하는 뎁스 카메라; 및 상기 획득된 뎁스 영상으로부터 사용자의 손이 포함된 손 영역을 추출하고, 상기 손 영역에 포함된 사용자의 손가락 및 손바닥을 복수의 지점으로 모델링하며, 상기 모델링된 복수의 지점의 뎁스 정보를 바탕으로 터치 입력을 감지하는 제어부;를 포함한다.According to another aspect of the present invention, there is provided an electronic device including: a depth camera for acquiring a depth image; Extracting a hand region including a user's hand from the obtained depth image, modeling a finger and a palm of a user included in the hand region into a plurality of points, and based on the depth information of the plurality of modeled points And a control unit for sensing a touch input.

그리고, 상기 제어부는, 상기 사용자의 손가락 중 검지, 중지, 약지 각각은 복수의 지점으로 모델링하고, 상기 사용자의 손가락 중 엄지 및 소지 각각은 하나의 지점으로 모델링하며, 상기 사용자의 손바닥은 하나의 지점으로 모델링할 수 있다.The control unit models each of the fingers of the user such as the detection, stop, and ring finger as a plurality of points, and models each of the fingers of the user as one point, and the palm of the user is one point . ≪ / RTI >

또한, 상기 제어부는, 상기 검지 및 중지의 복수의 지점 중 적어도 하나의 손가락의 끝 지점만 터치된 것으로 감지된 경우, 상기 터치된 지점에 터치 입력을 감지하고, 상기 검지 및 중지의 복수의 지점 중 적어도 하나의 손가락의 복수의 지점이 터치된 것으로 감지된 경우, 상기 터치 입력을 감지하지 않을 수 있다.The control unit senses the touch input at the touched point when it is detected that only the end point of at least one finger among the plurality of points of the detection and stop is touched, When a plurality of points of at least one finger are sensed as being touched, the touch input may not be sensed.

그리고, 상기 제어부는, 상기 엄지 및 검지의 복수의 지점 중 두 손가락의 끝 지점만 터치된 것으로 감지된 경우, 상기 터치된 지점에 멀티 터치 입력을 감지하고, 상기 검지의 복수의 지점 및 상기 엄지의 하나의 지점이 모두 터치된 것으로 감지된 경우, 상기 터치 입력을 감지하지 않을 수 있다.The control unit senses the multi-touch input to the touched point when it is detected that only the end points of the two fingers of the thumb and index finger are touched, If it is detected that one point is all touched, the touch input may not be detected.

또한, 상기 제어부는, 상기 사용자의 양손의 검지들의 복수의 지점 중 두 손가락의 끝 지점만 터치된 것으로 감지된 경우, 상기 터치된 지점에 멀티 터치 입력을 감지할 수 있다.Also, the controller may detect the multi-touch input at the touched point when it is detected that only the end points of the two fingers of the plurality of points of the hands of the user's hands are touched.

그리고, 상기 사용자의 양손의 모든 손가락의 복수의 지점 중 모든 손가락의 끝지점만이 터치된 경우, 멀티 터치 입력을 감지할 수 있다.In addition, when only the end points of all of the plurality of points of all the fingers of both hands of the user are touched, the multi-touch input can be detected.

또한, 상기 제어부는, 상기 손 영역에 포함된 손의 움직임 방향 및 속도를 분석하고, 이전 프레임에서 분석된 손의 움직임 방향 및 속도를 바탕으로 상기 사용자의 손을 추출할 수 있다In addition, the controller may analyze the direction and velocity of the hand included in the hand region, and extract the hand of the user based on the direction and velocity of the hand analyzed in the previous frame

그리고, 상기 제어부는, 상기 획득된 뎁스 영상을 분석하여 획득된 뎁스 영상 내에 있는 물체가 사람의 손인지 사물인지 여부를 판단하고, 상기 뎁스 영상 내에 있는 물체가 사물인 것으로 판단된 경우, 상기 추출된 사물의 종류를 판단할 수 있다.The controller determines whether an object in the depth image obtained by analyzing the obtained depth image is a human hand or an object, and when it is determined that an object in the depth image is an object, You can judge the kind of thing.

또한, 상기 제어부는, 상기 판단된 사물의 종류 및 상기 사물의 터치 위치를 바탕으로 상기 전자 장치의 기능을 수행할 수 있다.In addition, the controller may perform the function of the electronic device based on the type of the determined object and the touch position of the object.

그리고, 터치 영역에 영상을 투사하는 영상 투사부;를 더 포함할 수 있다.And an image projecting unit for projecting an image onto the touch area.

상술한 바와 같은 본 발명의 다양한 실시예에 의해, 뎁스 카메라를 이용한 터치 입력의 사용자 편의성이 향상될 수 있다. 또한, 전자 장치는 뎁스 카메라를 이용하여 다양한 사용자 입력을 제공할 수 있게 된다.According to various embodiments of the present invention as described above, user convenience of a touch input using a depth camera can be improved. In addition, the electronic device can provide various user inputs using a depth camera.

도 1은 본 발명의 일 실시예에 따른, 전자 장치의 구성을 간략히 나타내는 블록도,
도 2는 본 발명의 일 실시예에 따른, 전자 장치의 구성을 상세히 나타내는 블록도,
도 3a 내지 도 4는 본 발명의 일 실시예에 따른, 뎁스 카메라를 이용하여 획득된 뎁스 영상으로부터 손 영역을 추출하고, 추출된 손 영역의 손가락 및 손바닥을 복수의 지점으로 모델링하는 실시예를 설명하기 위한 도면들,
도 5a 내지 도 8b는 본 발명의 다양한 실시예에 따른, 복수의 지점의 뎁스 정보를 바탕으로 터치 입력을 판단하는 실시예를 설명하기 위한 도면들,
도 9는 본 발명의 일 실시예에 따른, 터치 영역을 도시한 도면,
도 10a 내지 도 11c는 본 발명의 일 실시예에 따른, 사물을 이용하여 전자 장치를 제어하는 실시예를 설명하기 위한 도면,
도 12 및 도 13은 본 발명의 일 실시예에 따른, 전자 장치의 제어 방법을 설명하기 위한 흐름도,
도 14는 본 발명의 다른 실시예에 따른, 외부의 사용자 단말을 통해 전자 장치가 제어되는 실시예를 설명하기 위한 도면, 그리고,
도 15a 및 도 15b는 본 발명의 일 실시예에 따른, 스탠드형 전자 장치를 도시한 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram schematically showing the configuration of an electronic device according to an embodiment of the present invention;
2 is a block diagram showing details of the configuration of an electronic device according to an embodiment of the present invention;
FIGS. 3A to 4 illustrate an embodiment in which a hand region is extracted from a depth image obtained using a depth camera, and a finger and a palm of the extracted hand region are modeled into a plurality of points according to an embodiment of the present invention The drawings,
FIGS. 5A and 8B are diagrams for explaining an embodiment for determining a touch input based on depth information of a plurality of points, according to various embodiments of the present invention,
Figure 9 illustrates a touch region according to one embodiment of the present invention;
10A to 11C are diagrams for explaining an embodiment for controlling an electronic device using an object according to an embodiment of the present invention;
12 and 13 are flowcharts for explaining a control method of an electronic device according to an embodiment of the present invention;
14 is a diagram for explaining an embodiment in which an electronic device is controlled through an external user terminal according to another embodiment of the present invention,
15A and 15B are views showing a stand-type electronic apparatus according to an embodiment of the present invention.

본 발명의 실시 예에서 사용되는 용어에 대해 간략히 설명하고, 본 실시예들에 대해 구체적으로 설명하기로 한다.The terms used in the embodiments of the present invention will be briefly described, and these embodiments will be described in detail.

본 발명의 실시 예에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시예들의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 실시예들에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 실시예들의 전반에 걸친 내용을 토대로 정의되어야 한다. Although the terms used in the embodiments of the present invention have been selected in consideration of the functions of the present invention, the present invention is not limited thereto and can be varied depending on the intention or the precedent of the artisan skilled in the art, . Also, in certain cases, some terms are arbitrarily selected by the applicant, and in this case, the meaning thereof will be described in detail in the description of the corresponding embodiments. Therefore, the terms used in the embodiments should be defined based on the meaning of the terms, not on the names of simple terms, and on the contents of the embodiments throughout.

본 발명의 실시 예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. In an embodiment of the present invention, terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

또한, 본 발명의 실시 예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Further, in the embodiments of the present invention, the singular expressions include plural expressions unless the context clearly indicates otherwise.

또한, 본 발명의 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Furthermore, in the embodiments of the present invention, terms such as "comprises" or "having ", etc. are intended to specify the presence of stated features, integers, steps, operations, elements, parts, or combinations thereof, Steps, operations, elements, components, or combinations of elements, numbers, steps, operations, components, parts, or combinations thereof.

또한, 본 발명의 실시 예에서, ‘모듈’ 혹은 ‘부’는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의‘모듈’ 혹은 복수의‘부’는 특정한 하드웨어로 구현될 필요가 있는 ‘모듈’ 혹은 ‘부’를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.Also, in the embodiments of the present invention, 'module' or 'sub' performs at least one function or operation, and may be implemented in hardware or software, or a combination of hardware and software. In addition, a plurality of 'modules' or a plurality of 'parts' may be integrated into at least one module except for 'module' or 'module' which needs to be implemented by specific hardware, and may be implemented by at least one processor.

또한, 본 발명의 실시 예에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.Further, in the embodiment of the present invention, when a part is referred to as being "connected" with another part, it is not limited to a case where it is " directly connected " And the like.

또한, 본 발명의 실시 예에서, “터치 입력”이란 사용자가 장치를 제어하기 위해 디스플레이 및 커버에 행하는 터치 제스처를 포함할 수 있다. 또한, “터치 입력”은 디스플레이 상에 접촉되지 않고, 일정 거리 이상 이격되어 있는 상태의 터치(예컨대, 플로팅(floating) 또는 호버링(hovering))를 포함할 수 있다. Further, in an embodiment of the present invention, " touch input " may include a touch gesture that the user makes on the display and the cover to control the device. In addition, the " touch input " may include a touch (e.g., floating or hovering) that is not touched on the display and is spaced apart by a certain distance.

또한, 본 발명의 실시 예에서, “어플리케이션”은 특정한 업무를 수행하기 위해 고안된 일련의 컴퓨터 프로그램 집합을 말한다. 본 발명의 실시 예에서, 어플리케이션은 다양할 수 있다. 예를 들어, 게임 어플리케이션, 동영상 재생 어플리케이션, 지도 어플리케이션, 메모 어플리케이션, 캘린더 어플리케이션, 폰 북 어플리케이션, 방송 어플리케이션, 운동 지원 어플리케이션, 결제 어플리케이션, 사진 폴더 어플리케이션 등이 있을 수 있으나, 이에 한정되는 것은 아니다.Further, in the embodiment of the present invention, " application " refers to a set of computer programs designed to perform a specific task. In an embodiment of the invention, the application may be varied. But are not limited to, a gaming application, a video playback application, a map application, a memo application, a calendar application, a phonebook application, a broadcast application, a motion support application, a payment application, and a photo folder application.

이하에서는 도면을 참조하여 본 발명에 대해 더욱 상세히 설명하기로 한다. 우선, 도 1은 본 발명의 일 실시예에 따른, 전자 장치(100)의 구성을 간략히 나타내는 블록도이다. 도 1에 도시된 바와 같이, 전자 장치(100)는 뎁스 카메라(110) 및 제어부(120)를 포함한다. Hereinafter, the present invention will be described in more detail with reference to the drawings. 1 is a block diagram briefly showing a configuration of an electronic device 100 according to an embodiment of the present invention. As shown in FIG. 1, the electronic device 100 includes a depth camera 110 and a control unit 120.

뎁스 카메라(110)는 특정 영역에 대한 뎁스 영상을 획득한다. 구체적으로, 뎁스 카메라(110)는 영상이 투사되는 터치 영역에 대한 뎁스 영상을 촬영할 수 있다.The depth camera 110 acquires a depth image for a specific area. Specifically, the depth camera 110 can capture a depth image of a touch region where an image is projected.

제어부(120)는 전자 장치(100)의 전반적인 동작을 제어한다. 특히, 제어부(120)는 뎁스 카메라(110)를 통해 획득된 뎁스 영상으로부터 사용자의 손이 포함된 손 영역을 추출하고, 손 영역에 포함된 사용자의 손가락 및 손바닥을 복수의 지점으로 모델링하며, 모델링된 복수의 지점의 뎁스 정보를 바탕으로 터치 입력을 감지할 수 있다.The control unit 120 controls the overall operation of the electronic device 100. In particular, the control unit 120 extracts a hand region including a user's hand from the depth image obtained through the depth camera 110, models a finger and a palm of the user included in the hand region as a plurality of points, The touch input can be detected based on the depth information of the plurality of points.

구체적으로, 제어부(120)는 뎁스 카메라(110)를 통해 획득된 뎁스 영상을 분석하여 뎁스 영상 내에 뎁스 영상 내에 있는 물체가 사람의 손인지 사물인지 여부를 판단할 수 있다. 더욱 구체적으로, 제어부(120)는 어떠한 물체도 없는 디스플레이 영역에 대한 평면 뎁스 영상과 촬영된 뎁스 영상과의 차이를 측정하여 뎁스 영상 내의 물체의 형상을 판단할 수 있다.Specifically, the controller 120 may analyze the depth image obtained through the depth camera 110 to determine whether an object in the depth image is a hand or an object in the depth image. More specifically, the control unit 120 can determine the shape of the object in the depth image by measuring the difference between the plane depth image and the captured depth image for a display area having no object.

그리고, 뎁스 영상 내에 사용자의 손 모양이 존재하는 것으로 판단한 경우, 제어부(120)는 뎁스 영상 내에서 손 영역을 검출할 수 있다. 이때, 제어부(120)는 뎁스 영상 내의 노이즈를 제거하여 사용자의 손이 포함된 손 영역을 검출할 수 있다.If it is determined that the hand shape of the user exists in the depth image, the control unit 120 can detect the hand area in the depth image. At this time, the control unit 120 can detect the hand region including the user's hand by removing the noise in the depth image.

그리고, 제어부(120)는 추출된 손 영역에 포함된 사용자의 손바닥 및 손가락을 복수의 지점으로 모델링할 수 있다. 구체적으로, 제어부(120)는 사용자의 손가락 중 검지, 중지, 약지 각각은 복수의 지점으로 모델링하고, 사용자의 손가락 중 엄지 및 소지 각각은 하나의 지점으로 모델링하며, 사용자의 손바닥은 하나의 지점으로 모델링할 수 있다.The controller 120 may model the user's palm and fingers included in the extracted hand region as a plurality of points. Specifically, the control unit 120 models each of the fingers of the user, such as the finger, the stop, and the finger, into a plurality of points, and models each of the fingers of the user as one point and the palm of the user as one point Can be modeled.

그리고, 제어부(120)는 모델링된 복수의 지점에 대한 뎁스 정보를 바탕으로 사용자의 터치 입력을 감지할 수 있다. 구체적으로, 검지 및 중지의 복수의 지점 중 하나의 손가락의 끝 지점만 터치된 것으로 감지된 경우, 제어부(120)는 터치된 지점에 터치 입력을 감지하고, 검지 및 중지의 복수의 지점 중 적어도 하나의 손가락의 복수의 지점이 터치된 것으로 감지된 경우, 제어부(120)는 터치 입력을 감지하지 않을 수 있다.The controller 120 may sense the touch input of the user based on the depth information of the plurality of points modeled. Specifically, when it is detected that only one end point of one of the plurality of points of detection and stop is sensed as being touched, the control section 120 senses the touch input at the touched point and detects at least one of the plurality of points of detection and stop The controller 120 may not detect the touch input when a plurality of points of the finger of the user are detected as being touched.

또한, 사용자의 엄지 및 검지의 복수의 지점 중 두 손가락의 끝 지점만 터치된 것으로 감지된 경우, 제어부(120)는 엄지 및 검지를 이용한 멀티 터치 입력을 감지하고, 검지의 복수의 지점 및 상기 엄지의 하나의 지점이 모두 터치된 것으로 감지된 경우, 제어부(120)는 엄지 및 검지를 이용한 터치 입력을 감지하지 않을 수 있다.In addition, when it is detected that only the end points of the two fingers of the user's thumb and index finger are touched, the control unit 120 detects the multi-touch input using the thumb and index finger, The controller 120 may not detect the touch input using the thumb and index finger.

또한, 사용자의 양손의 검지들의 복수의 지점 중 두 손가락의 끝 지점만 터치된 것으로 감지된 경우, 제어부(120)는 양손의 검지를 이용한 멀티 터치 입력을 감지할 수 있으며, 사용자의 양손의 모든 손가락의 복수의 지점 중 모든 손가락의 끝지점만이 터치된 경우, 제어부(120)는 양손을 이용한 멀티 터치 입력을 감지할 수 있다.In addition, when it is detected that only the end points of two of the plurality of points of the detectors of both hands of the user are touched, the controller 120 can detect the multi-touch input using the detection of both hands, The control unit 120 can sense the multi-touch input using both hands.

또한, 제어부(120)는 사용자의 터치 액션을 더욱 빠르게 판단하기 위하여,손 영역에 포함된 손의 움직임 방향 및 속도를 분석하고, 이전 프레임에서 분석된 손의 움직임 방향 및 속도를 바탕으로 사용자의 손 영역을 추출할 수 있다.In addition, the controller 120 analyzes the direction and velocity of the hand included in the hand region so as to determine the touch action of the user more quickly. Based on the direction and velocity of the hand analyzed in the previous frame, The region can be extracted.

다만, 뎁스 영상 내에 있는 물체가 사물인 것으로 판단된 경우, 제어부(120)는 추출된 사물의 종류를 판단할 수 있다. 즉, 제어부(120)는 터치 영역 내에 올려진 사물과 기 등록된 사물의 형상과 비교하여 터치 영역 내에 올려진 사물의 종류를 판단할 수 있다. 그리고, 제어부(120)는 판단된 사물의 종류 및 사물의 터치 위치 중 적어도 하나를 바탕으로 전자 장치(100)의 기능을 수행할 수 있다.However, if it is determined that an object in the depth image is an object, the control unit 120 can determine the type of the extracted object. That is, the control unit 120 can determine the type of object placed in the touch area by comparing the object placed in the touch area and the shape of the previously registered object. The control unit 120 may perform the function of the electronic device 100 based on at least one of the type of the determined object and the touch position of the object.

상술한 바와 같은 전자 장치(100)를 이용함으로써, 사용자는 더욱 효율적으로 뎁스 카메라를 이용한 터치 입력을 수행할 수 있게 된다.By using the electronic device 100 as described above, the user can more efficiently perform the touch input using the depth camera.

이하에서는 도 2 내지 도 11c를 참조하여 본 발명에 대해 더욱 상세하게 설명하기로 한다.Hereinafter, the present invention will be described in more detail with reference to FIGS. 2 to 11C.

우선, 도 2는 본 발명의 일 실시예에 따른 전자 장치(200)의 구성을 상세히 도시한 블록도이다. 도 2에 도시된 바와 같이, 전자 장치(200)는 뎁스 카메라(210), 영상 입력부(220), 디스플레이부(230), 저장부(240), 통신부(250) 및 제어부(260)를 포함한다.2 is a block diagram showing a detailed configuration of an electronic device 200 according to an embodiment of the present invention. 2, the electronic device 200 includes a depth camera 210, an image input unit 220, a display unit 230, a storage unit 240, a communication unit 250, and a control unit 260 .

한편, 도 2는 전자 장치(200)가 컨텐츠 제공 기능, 디스플레이 기능 등과 같이 다양한 기능을 구비한 장치인 경우를 예로 들어, 각종 구성 요소들을 종합적으로 도시한 것이다. 따라서, 실시 예에 따라서는, 도 2에 도시된 구성 요소 중 일부는 생략 또는 변경될 수도 있고, 다른 구성요소가 더 추가될 수도 있다.FIG. 2 is a diagram illustrating various components in an exemplary case where the electronic device 200 is a device having various functions such as a content providing function, a display function, and the like. Therefore, depending on the embodiment, some of the components shown in Fig. 2 may be omitted or changed, and other components may be further added.

뎁스 카메라(210)는 특정 영역에 대한 뎁스 영상을 획득한다. 특히, 전자 장치(200)가 빔 프로젝터를 이용하여 영상을 디스플레이하는 경우, 뎁스 카메라(210)는 빔 프로젝터가 빛을 투사하여 영상이 디스플레이되는 디스플레이 영역에 대한 뎁스 영상을 획득할 수 있다.The depth camera 210 acquires a depth image for a specific area. In particular, when the electronic device 200 displays an image using a beam projector, the depth camera 210 may acquire a depth image of a display area in which an image is displayed by projecting light from the beam projector.

영상 입력부(220)는 다양한 소스를 통해 영상 데이터를 입력받는다. 예를 들어, 영상 입력부(220)는 외부의 방송국으로부터 방송 데이터를 입력받을 수 있으며, 외부 서버로부터 실시간으로 VOD 데이터를 입력할 수 있으며, 외부 기기로부터 영상 데이터를 입력받을 수 있다. The image input unit 220 receives image data through various sources. For example, the video input unit 220 can receive broadcast data from an external broadcasting station, input VOD data in real time from an external server, and receive video data from an external device.

디스플레이부(230)는 영상 입력부(220)를 통해 입력된 영상 데이터를 디스플레이할 수 있다. 이때. 디스플레이부(230)는 빔 프로젝터 방식으로 영상 데이터를 출력할 수 있다. 특히, 디스플레이부(230)는 DLP 방식을 이용하여 빛을 투사할 수 있으나, 이는 일 실시예에 불과할 뿐, 다른 방식을 이용하여 빛을 투사할 수 있다.The display unit 230 may display image data input through the image input unit 220. At this time. The display unit 230 can output image data in a beam projector manner. In particular, the display unit 230 can project light using the DLP method, but this is merely an embodiment, and light can be projected using another method.

또한, 디스플레이부(230)는 빔 프로젝터 방식이 아닌 일반적인 디스플레이로 구현될 수 있다. 예를 들어, 디스플레이부(230)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 형태로 구현될 수 있다. 디스플레이부(230)는 그 구현 방식에 따라서 부가적인 구성을 추가적으로 포함할 수 있다. 예를 들면, 디스플레이부(230)가 액정 방식인 경우, 디스플레이부(230)는 LCD 디스플레이 패널(미도시)과, 이에 광을 공급하는 백라이트유닛(미도시)과, 패널(미도시)을 구동시키는 패널 구동기판(미도시)을 포함할 수 있다.  In addition, the display unit 230 may be implemented as a general display rather than a beam projector. For example, the display unit 230 may have various forms such as a liquid crystal display (LCD), an organic light emitting diode (OLED) display, an active matrix organic light-emitting diode (AM-OLED), and a plasma display panel . ≪ / RTI > The display unit 230 may further include an additional configuration depending on the implementation method. For example, when the display unit 230 is a liquid crystal type, the display unit 230 may include an LCD display panel (not shown), a backlight unit (not shown) for supplying light thereto, and a panel (Not shown) for driving the display panel.

저장부(240)는 전자 장치(200)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다. 저장부(240)는 제어부(260)에 의해 액세스되며, 제어부(260)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다.  본 발명에서 저장리(240)는 제어부(260) 내 롬(262), 램(261) 또는 전자 장치(200)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함하여 정의될 수 있다. 또한, 저장부(240)에는 디스플레이 영역에 표시될 각종 화면을 구성하기 위한 프로그램 및 데이터 등이 저장될 수 있다.  The storage unit 240 may store various programs and data necessary for the operation of the electronic device 200. Non-volatile memory, volatile memory, flash-memory, hard disk drive (HDD), or solid state drive (SSD). The storage unit 240 is accessed by the control unit 260, and the control unit 260 can read / write / modify / delete / update the data. The storage unit 240 may be a memory card (not shown) (for example, a micro SD card or a memory stick) mounted on the ROM 262, the RAM 261 or the electronic device 200 in the controller 260, . ≪ / RTI > In addition, the storage unit 240 may store programs and data for configuring various screens to be displayed in the display area.

또한, 저장부(240)는 사물의 유형과 사물의 뎁스 정보를 바탕으로 산출된 결과값을 매칭하여 저장할 수 있다.In addition, the storage unit 240 may store and store the calculated result based on the type of object and the depth information of the object.

통신부(250)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 통신부(250)는 와이파이칩, 블루투스 칩, 무선 통신 칩, NFC 칩 등을 포함한다. 제어부(260)는 통신부(250)를 이용하여 각종 외부 기기와 통신을 수행한다. The communication unit 250 is configured to perform communication with various types of external devices according to various types of communication methods. The communication unit 250 includes a Wi-Fi chip, a Bluetooth chip, a wireless communication chip, an NFC chip, and the like. The control unit 260 communicates with various external devices using the communication unit 250.

특히, 와이파이 칩, 블루투스 칩은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다.In particular, Wi-Fi chips and Bluetooth chips communicate via WiFi and Bluetooth, respectively. When a Wi-Fi chip or a Bluetooth chip is used, various connection information such as an SSID and a session key may be transmitted and received first, and communication information may be used to transmit and receive various information. The wireless communication chip refers to a chip that performs communication according to various communication standards such as IEEE, ZigBee, 3G (3rd Generation), 3rd Generation Partnership Project (3GPP), LTE (Long Term Evolution) The NFC chip refers to a chip operating in an NFC (Near Field Communication) system using 13.56 MHz band among various RF-ID frequency bands such as 135 kHz, 13.56 MHz, 433 MHz, 860 to 960 MHz, and 2.45 GHz.

제어부(260)는 저장부(240)에 저장된 각종 프로그램을 이용하여 전자 장치(200)의 전반적인 동작을 제어한다.The control unit 260 controls the overall operation of the electronic device 200 using various programs stored in the storage unit 240.

제어부(260)는 도 2에 도시된 바와 같이, RAM(261), ROM(262), 그래픽 처리부(263), 메인 CPU(264), 제1 내지 n 인터페이스(265-1 ~ 265-n), 버스(266)를 포함한다. 이때, RAM(261), ROM(262), 그래픽 처리부(263), 메인 CPU(264), 제1 내지 n 인터페이스(265-1 ~ 265-n) 등은 버스(266)를 통해 서로 연결될 수 있다. 2, the control unit 260 includes a RAM 261, a ROM 262, a graphics processing unit 263, a main CPU 264, first through n interfaces 265-1 through 265-n, Bus 266. < / RTI > At this time, the RAM 261, the ROM 262, the graphics processing unit 263, the main CPU 264, the first to n interfaces 265-1 to 265-n, etc. may be connected to each other via the bus 266 .

ROM(262)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU(264)는 ROM(262)에 저장된 명령어에 따라 저장부(240)에 저장된 O/S를 RAM(261)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(264)는 저장부(240)에 저장된 각종 어플리케이션 프로그램을 RAM(261)에 복사하고, RAM(261)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The ROM 262 stores a command set for booting the system and the like. When the turn-on command is input and power is supplied, the main CPU 264 copies the O / S stored in the storage unit 240 to the RAM 261 according to the instruction stored in the ROM 262, To boot the system. When the booting is completed, the main CPU 264 copies various application programs stored in the storage unit 240 to the RAM 261, executes the application programs copied to the RAM 261, and performs various operations.

그래픽 처리부(263)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이템, 이미지, 텍스트 등과 같은 다양한 정보를 포함하는 화면을 생성한다. 연산부는 사용자에 입력된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 정보들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부는 연산부에서 연산한 속성값에 기초하여 정보를 포함하는 다양한 레이아웃으로 구성된 화면을 생성한다. 렌더링부에서 생성된 화면은 디스플레이부(230)의 디스플레이 영역 내에 표시된다.The graphic processing unit 263 generates a screen including various information such as an item, an image, text, and the like using an operation unit (not shown) and a rendering unit (not shown). The operation unit computes an attribute value such as a coordinate value, a shape, a size, and a color to be displayed according to the layout of the screen by using the control command input to the user. The rendering unit generates a screen composed of various layouts including information based on the attribute values calculated by the operation unit. The screen generated by the rendering unit is displayed in the display area of the display unit 230.

메인 CPU(264)는 저장부(240)에 액세스하여, 저장부(240)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메인 CPU(264)는 저장부(240)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The main CPU 264 accesses the storage unit 240 and performs booting using the O / S stored in the storage unit 240. [ The main CPU 264 performs various operations using various programs stored in the storage unit 240, contents, data, and the like.

제1 내지 n 인터페이스(265-1 내지 265-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces 265-1 to 265-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device via a network.

특히, 제어부(260)는 뎁스 카메라(210)를 통해 획득된 뎁스 영상으로부터 사용자의 손이 포함된 손 영역을 추출하고, 손 영역에 포함된 사용자의 손가락 및 손바닥을 복수의 지점으로 모델링하며, 모델링된 복수의 지점의 뎁스 정보를 바탕으로 터치 입력을 감지한다.In particular, the control unit 260 extracts a hand region including the user's hand from the depth image obtained through the depth camera 210, models the finger and the palm of the user included in the hand region as a plurality of points, And detects the touch input based on the depth information of the plurality of points.

구체적으로, 제어부(260)는 디스플레이부(230)에 의해 영상이 투사되는 디스플레이 영역에 대한 뎁스 영상을 획득한다. 우선, 제어부(260)는 디스플레이 영역상에 어떠한 물체도 놓여지지 않은 평면 뎁스 영상을 획득한다. 그리고, 제어부(260)는 특정 물체(예를 들어, 사용자의 손, 사물 등)가 놓여진 디스플레이 영역을 촬영한 뎁스 영상을 획득한다. 그리고, 제어부(260)는 촬영된 뎁스 영상과 평면 뎁스 영상의 차이를 측정하여 도 3a에 도시된 바와 같은 뎁스 영상을 획득할 수 있다.Specifically, the control unit 260 acquires a depth image of a display area on which the image is projected by the display unit 230. First, the control unit 260 acquires a plane depth image on which no object is placed on the display area. The control unit 260 acquires a depth image of a display area on which a specific object (e.g., user's hand, object, etc.) is placed. The control unit 260 may measure the difference between the photographed depth image and the flat depth image to obtain a depth image as shown in FIG. 3A.

그리고, 제어부(260)는 컨벡스 헐(convex hull)을 바탕으로 도 3a에 도시된 바와 같은 뎁스 영상으로부터 노이즈를 제거하고, 도 3b에 도시된 바와 같이, 사람의 손을 포함하는 손 영역(310)을 추출할 수 있다.The controller 260 removes noise from the depth image as shown in FIG. 3A based on the convex hull, and generates a hand region 310 including a human hand, as shown in FIG. 3B, Can be extracted.

그리고, 제어부(260)는 손 영역(310)의 깊이 정보 및 형상을 바탕으로 도 3c에 도시된 바와 같이, 사용자의 손바닥 및 손가락을 복수의 지점으로 모델링할 수 있다. 본 발명의 일 실시예로, 제어부(260)는 도 4에 도시된 바와 같이, 손바닥을 제1 지점(410-1)으로 모델링하고, 엄지를 제2 지점(410-2)으로 모델링하며, 검지를 제3 및 제4 지점(410-3,410-4)으로 모델링하고, 중지를 제5 및 제6 지점(410-5,410-6)으로 모델링하며, 약지를 제7 및 제8 지점(410-7,410-8)으로 모델링하고, 소지를 제9 지점(410-9)으로 모델링할 수 있다. 즉, 사용자의 손바닥 및 손가락 모델은 책상 평면 위에서 사용자가 타이핑할 때의 손의 자연스러운 모양을 단순화한 것이다. 예를 들어, 엄지와 소지는 사용하지 않는 마디의 구분이 없으며, 검지, 중지, 약지는 마디를 각 1개씩 표현할 수 있다.The controller 260 may model the palm and fingers of the user as a plurality of points based on the depth information and shape of the hand area 310, as shown in FIG. 3C. In one embodiment of the present invention, the controller 260 models the palm as the first point 410-1, the thumb as the second point 410-2, as shown in FIG. 4, 410-4, 410-4, and model the stop to the fifth and sixth points 410-5, 410-6, and the ring finger to the seventh and eighth points 410-7, 410- 8), and the substrate may be modeled as the ninth point 410-9. That is, the user's palm and finger model simplifies the natural shape of the hand when the user types on the desk plane. For example, there is no distinction between the thumb and the underexposed, and the index, the stop, and the ring finger can each represent one node.

그리고, 제어부(260)는 모델링된 복수의 지점의 뎁스 정보를 바탕으로 사용자의 터치 입력을 감지할 수 있다. 이에 대해서는 도 5a 내지 도 8b를 참조하여 더욱 상세히 설명하기로 한다. 참고로, 도 5a 내지 도 8b에서는 기준 평면에서 터치 인식 거리 밖에 있는 경우 ●로 표현하고, 기준 평면에서 터치 인식 거리 안에 있는 경우 ○로 표현할 수 있다.The controller 260 can sense the touch input of the user based on the depth information of the plurality of points modeled. This will be described in more detail with reference to Figs. 5A to 8B. For reference, in Figs. 5A and 8B, the reference plane is expressed as? When it is outside the touch recognition distance, and may be expressed as? When the reference plane is within the touch recognition distance.

우선, 검지 및 중지 중 하나의 손가락의 끝 지점(410-4,410-5)만 터치된 것으로 감지된 경우, 제어부(260)는 터치된 지점에 대란 터치 입력을 감지할 수 있다. 구체적으로, 도 5a에 도시된 바와 같이, 중지의 끝지점(410-5)만 터치 인식 거리 안에 있거나, 도 5b에 도시된 바와 같이, 중지의 끝지점(410-5)과 손바닥 지점(410-1)이 터치 인식 거리 안에 있는 경우, 제어부(260)는 중지의 끝지점(410-5)이 터치한 지점에 대한 터치 입력을 감지할 수 있다. First, when it is detected that only one of the finger end points 410-4 and 410-5 is touched, the control unit 260 can detect the large touch input at the touched point. Specifically, as shown in FIG. 5A, only the stop end point 410-5 is within the touch recognition distance, or the stop end point 410-5 and the palm point 410- 1) is within the touch recognition distance, the control unit 260 can sense the touch input to the point where the stop end point 410-5 touches.

그러나, 검지 및 중지 중 하나의 손가락의 복수의 지점이 터치된 것으로 감지된 경우, 제어부(260)는 터치 입력을 감지하지 않을 수 있다. 구체적으로, 도 5c에 도시된 바와 같이, 중지의 복수의 지점(410-5,410-6)이 모두 터치 인식 거리 안에 있거나, 도 5d에 도시된 바와 같이, 중지의 복수의 지점(410-5,410-6) 및 손바닥 지점(410-1)이 모두 터치 인식 거리 안에 있는 경우, 제어부(260)는 터치 입력을 감지하지 않을 수 있다. 즉, 사용자가 터치를 할 경우 중지의 끝부분만을 터치하지 중지의 모든 부분을 터치하지 않으므로, 중지의 복수의 지점(410-5,410-6)이 모두 터치된 것으로 감지되면, 제어부(260)는 사용자의 의도치 않는 터치라고 판단하여 터치 입력을 감지하지 않을 수 있다.However, when a plurality of points of the finger of one of the detection and stop is detected as being touched, the control unit 260 may not detect the touch input. Specifically, as shown in FIG. 5C, if the plurality of points of the stop 410-5, 410-6 are all within the touch recognition distance, or the plurality of points of stop 410-5, 410-6 And the palm point 410-1 are both within the touch recognition distance, the control unit 260 may not detect the touch input. In other words, when the user touches the end portion of the pause, only the end portion of the pause is not touched. Therefore, when the plurality of pause points 410-5 and 410-6 of the pause are detected as being all touched, It is determined that the touch input is unintentional and the touch input may not be sensed.

한편, 도 5a 내지 도 5d는 중지를 이용하여 설명하였으나, 이는 일 실시예에 불과할 뿐, 검지를 이용한 경우 역시 도 5a 내지 도 5d와 마찬가지로 동작할 수 있다.5A to 5D have been described using a pause, but this is merely an embodiment, and when the detection is used, it can operate in the same manner as in Figs. 5A to 5D.

또한, 엄지 및 검지를 이용하여 멀티 터치를 수행하는 경우, 엄지 및 검지의 복수의 지점(410-2 내지 410-4) 중 두 손가락의 끝 지점만 터치된 것으로 감지되면, 제어부(260)는 터치된 지점에 멀티 터치 입력을 감지할 수 있다. 구체적으로, 도 6a에 도시된 바와 같이, 검지의 끝지점(410-4) 및 엄지의 끝지점(410-2)만이 터치 인식 거리 안에 있거나, 도 6b에 도시된 바와 같이, 검지의 끝지점(410-4), 엄지의 끝지점(410-2) 및 손바닥 지점(410-1)이 터치 인식 거리 안에 있는 경우, 제어부(260)는 중지 및 엄지를 이용한 멀티 터치 입력을 감지할 수 있다. 즉, 제어부(260)는 중지 및 엄지 사이의 거리 변경에 따라 다양한 기능(예를 들어, 영상의 줌인, 줌아웃 등)을 제공할 수 있다.In addition, when multi-touch is performed using the thumb and index finger, if it is detected that only the end points of two fingers out of the plurality of points 410-2 to 410-4 of the thumb and index finger are touched, The multi-touch input can be sensed at the point where it is detected. Specifically, as shown in FIG. 6A, only the end point of the detection 410-4 and the end point of the thumb 410-2 are within the touch recognition distance, or the end point of the detection 410-4, thumb end point 410-2 and palm point 410-1 are within the touch recognition distance, the control unit 260 can detect the multi-touch input using the stop and thumb. That is, the control unit 260 may provide various functions (e.g., zooming in, zooming out of the image, etc.) according to the stop and change of the distance between the thumbs.

그러나, 검지의 복수의 지점(410-3,410-4) 및 엄지의 하나의 지점(410-2)이 모두 터치된 것으로 감지된 경우, 제어부(260)는 터치 입력을 감지하지 않을 수 있다. 구체적으로, 도 6c에 도시된 바와 같이, 검지의 복수의 지점(410-3,410-4) 및 엄지의 끝지점(410-2)이 터치 인식 거리 안에 있거나, 도 6d에 도시된 바와 같이, 검지의 복수의 지점(410-3,410-4), 엄지의 끝지점(410-2) 및 손바닥 지점(410-1)이 모두 터치 인식 거리 안에 있는 경우, 제어부(260)는 멀티 터치 입력을 감지하지 않을 수 있다.However, if a plurality of points 410-3 and 410-4 of the detection and one point 410-2 of the thumb are detected as being touched, the control unit 260 may not detect the touch input. Specifically, as shown in FIG. 6C, the plurality of points of detection 410-3 and 410-4 and the end point of the thumb 410-2 are within the touch recognition distance, or, as shown in FIG. 6D, When the plurality of points 410-3 and 410-4, the thumb end point 410-2 and the palm point 410-1 are both within the touch recognition distance, the control unit 260 may not detect the multi- have.

한편, 도 6a 내지 도 6d는 검지 및 엄지를 이용하여 설명하였으나, 이는 일 실시예에 불과할 뿐, 중지 및 엄지를 이용하는 멀티 터치 입력의 경우 역시 도 6a 내지 도 6d와 마찬가지로 동작할 수 있다.6A to 6D have been described using the detection and the thumb. However, the multi-touch input using the stop and the thumb can also operate in the same manner as in FIGS. 6A to 6D.

또한, 사용자의 양손의 검지들을 이용하여 멀티 터치를 입력하고자 하는 경우, 사용자의 양손의 검지들의 복수의 지점 중 두 손가락의 끝 지점만 터치된 것으로 감지되면, 제어부(260)는 양손의 검지를 이용한 멀티 터치 입력을 감지할 수 있다. 구체적으로, 도 7a에 도시된 바와 같이, 왼손 검지의 끝지점(710-4) 및 오른손 검지의 끝지점(720-4)만이 터치 인식 거리 안에 있거나, 도 7b에 도시된 바와 같이, 왼손 검지의 끝지점(710-4), 왼손 손바닥 지점(710-1), 오른손 검지의 끝지점(720-4) 및 오른손 손바닥 지점(720-1)이 터치 인식 거리 안에 있는 경우, 제어부(260)는 양손의 중지를 이용한 멀티 터치 입력을 감지할 수 있다. 즉, 제어부(260)는 양 손의 중지 사이의 거리 변경에 따라 다양한 기능(예를 들어, 영상의 줌인, 줌아웃 등)을 제공할 수 있다.When it is detected that only the end points of the two fingers of the plural points of the fingers of both hands of the user are touched, when the user wants to input multi-touch using the fingers of both hands of the user, Multi-touch input can be detected. More specifically, as shown in Fig. 7A, only the end point 710-4 of the left hand detection and the end point 720-4 of the right hand detection are within the touch recognition distance, or, as shown in Fig. 7B, When the end point 710-4, the left hand palm point 710-1, the right hand palm end point 720-4 and the right hand palm point 720-1 are within the touch recognition distance, Touch input using the stop of the multi-touch input. That is, the control unit 260 may provide various functions (e.g., zooming in, zooming out, etc.) according to the distance change between the stops of both hands.

한편, 도 7b에서는 양손의 손바닥 지점(710-1,720-1)이 모두 터치 인식 거리 안에 있는 것으로 판단하였으나, 이는 일 실시예에 불과할 뿐, 양손의 손바닥 지점(710-1,720-1) 중 하나만이 터치 인식 거리 안에 있어도 양손의 중지를 이용한 멀티 터치 입력이 감지될 수 있다.7B, it is determined that all of the palm spots 710-1 and 720-1 of both hands are within the touch recognition distance. However, only one of the palm spots 710-1 and 720-1 of both hands touch Multi-touch input using both hands can be detected even within the recognition range.

또한, 도 7a 및 도 7b는 양손의 검지를 이용하여 설명하였으나, 이는 일 실시예에 불과할 뿐, 양손의 중지를 이용한 경우 역시 도 7a 및 도 7b와 마찬가지로 동작할 수 있다.7A and 7B illustrate the detection of both hands. However, the present invention is not limited to this embodiment, and it is also possible to use the stopping of both hands in the same manner as in FIGS. 7A and 7B.

또한, 양손의 모든 손가락을 이용하여 멀티 터치를 입력하고자 하는 경우, 사용자의 양손의 모든 손가락의 복수의 지점 중 모든 손가락의 끝지점만이 터치된 것으로 감지되면, 제어부(260)는 양손을 이용한 멀티 터치 입력을 감지할 수 있다. 구체적으로, 도 8a에 도시된 바와 같이, 왼손 모든 손가락의 끝지점(710-2,710-4, 710-5,710-7,710-9) 및 오른손 모든 손가락의 끝지점(720-2,720-4,720-5,720-7,720-9)이 터치 인식 거리 안에 있거나, 도 8b에 도시된 바와 같이, 왼손 모든 손가락의 끝지점(710-2,710-4, 710-5,710-7,710-9), 왼손 손바닥 지점(710-1), 오른손 모든 손가락의 끝지점(720-2,720-4,720-5,720-7,720-9) 및 오른손 손바닥 지점(720-1)이 터치 인식 거리 안에 있는 경우, 제어부(260)는 양손을 이용한 멀티 터치 입력을 감지할 수 있다. 즉, 제어부(260)는 양 손 사이의 거리 변경에 따라 다양한 기능(예를 들어, 영상의 줌인, 줌아웃 등)을 제공할 수 있다.If it is detected that only the end points of all the fingers of all the fingers of all the fingers of the user's hands are touched, the controller 260 determines whether the multi- Touch input can be detected. Specifically, as shown in Fig. 8A, the end points of all the fingers of the left hand (710-2, 710-4, 710-5, 710-7, 710-9) and the right hand of all fingers (720-2,720-4,720-5,720-7,720- 9) is within the touch recognition distance, or as shown in Fig. 8B, all of the left hand finger end points 710-2, 710-4, 710-5, 710-7, 710-9, the left hand palm point 710-1, When the end points 720-2, 720-4, 720-5, 720-7, 720-9 of the finger and the right hand palm point 720-1 are within the touch recognition distance, the control unit 260 can detect the multi-touch input using both hands . That is, the control unit 260 may provide various functions (e.g., zooming in, zooming out, etc.) according to the distance between the hands.

도 5a 내지 도 8b와 같이 터치 입력을 감지함으로써, 전자 장치(200)는 사용자의 손바닥이 바닥에 닿거나 떨어지거나와 무관하게 손가락의 터치 동작을 통해 터치 입력을 감지할 수 있으며, 사용자의 의도치 않는 터치 입력을 감지하지 않을 수 있게 된다.5A to 8B, the electronic device 200 can sense the touch input by touching the finger irrespective of whether the user's palm touches the floor or not, The touch input can not be detected.

또한, 본 발명의 일 실시예에 따르면, 제어부(260)는 사용자의 터치 입력을 더욱 빠르게 감지하기 위하여, 손의 움직임 방향 및 속도를 분석할 수 있다. 그리고, 제어부(260)는 이전 프레임에 분석된 손의 움직임 방향 및 속도를 바탕으로 다음 프레임에서의 사용자의 손 영역의 위치를 판단하고, 판단된 손 영역의 위치를 추출할 수 있다. 이때, 제어부(260)는 뎁스 영상에서 손 영역을 크롭(crop)하여 손 영역을 추출할 수 있다.In addition, according to an embodiment of the present invention, the controller 260 can analyze the direction and velocity of the hand movement to detect the touch input of the user more quickly. The controller 260 may determine the location of the user's hand area in the next frame based on the hand direction and speed of the hand analyzed in the previous frame, and extract the position of the determined hand area. At this time, the control unit 260 may extract the hand region by cropping the hand region in the depth image.

한편, 상술한 실시예에서는 디스플레이 영역 내에 사용자의 손이 검출되는 것으로 설명하였으나, 이는 일 실시예에 불과할 뿐, 사람의 손이 아닌 사물이 추출될 수 있다.Meanwhile, in the above-described embodiment, the user's hand is detected in the display area. However, this is an example only, and objects other than human hands can be extracted.

구체적으로, 제어부(260)는 뎁스 카메라(210)를 통해 획득된 뎁스 영상을 분석하여 획득된 뎁스 영상 내에 있는 물체가 사람의 손인지 사물인지 여부를 판단할 수 있다. 구체적으로, 제어부(260)는 평면 뎁스 영상과 뎁스 카메라(210)를 통해 촬영된 뎁스 영상 사이의 차이를 이용하여 디스플레이 영역 내에 위치하는 물체의 유형을 판단할 수 있다. 이때, 제어부(260)는 뎁스 영상 내에 있는 물체의 컬러 영역을 추출하고, 추출된 외곽 영역에 따라 분리된 사물의 이미지를 이용하여 사람의 손인지 사물인지 여부를 판단할 수 있다. 또는, 도 9에 도시된 바와 같이, 영상의 테두리에 위치하는 결정 영역(910)에 뎁스 영상의 차이가 존재하는 경우, 제어부(260)는 사람의 손이 위치하는 것으로 판단하고, 결정 영역(910)에 뎁스 영상의 차이가 존재하지 않는 경우, 제어부(260)는 사물이 위치하는 것으로 판단할 수 있다.Specifically, the controller 260 may analyze the depth image obtained through the depth camera 210 to determine whether the object in the depth image is a human hand or an object. Specifically, the controller 260 can determine the type of object located within the display area using the difference between the plane depth image and the depth image photographed through the depth camera 210. [ At this time, the controller 260 extracts a color area of an object in the depth image, and determines whether the object is a human hand or an object using an image of the separated object according to the extracted outer area. 9, when there is a difference in the depth image in the determination region 910 located at the edge of the image, the control unit 260 determines that the human hand is located, and the determination region 910 , The controller 260 can determine that the object is located.

그리고, 뎁스 영상 내에 있는 물체가 사물인 것으로 판단된 경우, 제어부(260)는 추출된 사물의 종류를 판단할 수 있다. 구체적으로, 제어부(260)는 사물의 뎁스 정보를 바탕으로 사물의 넓이, 깊이 구간, 깊이 평균, 깊이 편차 등을 계산하고, 계산된 값에 가중치를 곱하고 곱한 값들을 더하여 결과값을 산출할 수 있다. 그리고, 제어부(260)는 사물의 유형과 매칭되어 저장된 결과값들과 산출된 결과값을 비교하여 뎁스 영상 내에 있는 사물의 유형을 판단할 수 있다.If it is determined that the object in the depth image is an object, the control unit 260 can determine the type of the extracted object. Specifically, the controller 260 may calculate the depth of the object, the depth interval, the depth average, and the depth deviation of the object based on the depth information of the object, multiply the calculated value by the weight, . The control unit 260 can determine the type of objects in the depth image by comparing the stored result values with the result values matched with the type of object.

그리고, 제어부(260)는 판단된 사물의 종류에 따라 전자 장치(100)의 기능을 제어할 수 있다. 예를 들어, 도 10a에 도시된 바와 같이, 제1 화면이 디스플레이되는 동안 디스플레이 영역에 올려진 사물의 종류가 컵(1010)인 것으로 판단된 경우, 제어부(260)는 컵과 매칭되는 명령(예를 들어, 동영상 어플리케이션 실행)을 수행할 수 있다. 즉, 제어부(260)는 도 10b에 도시된 바와 같이, 제2 화면(동영상 어플리케이션 실행 화면)을 디스플레이하도록 디스플레이부(230)를 제어할 수 있다. 또 다른 예로, 제1 화면이 디스플레이되는 동안 디스플레이 영역에 올려진 사물의 종류가 공책인 것으로 판단되면, 제어부(260)는 공책과 매칭되는 명령(예를 들어, 메모 어플리케이션 실행)을 수행할 수 있다.The control unit 260 can control the function of the electronic device 100 according to the determined type of object. For example, as shown in FIG. 10A, when it is determined that the type of object placed on the display area during the first screen is displayed as the cup 1010, the control unit 260 displays an instruction For example, executing a moving image application). That is, the controller 260 may control the display unit 230 to display the second screen (moving image application execution screen) as shown in FIG. 10B. As another example, if it is determined that the type of object placed on the display area during the display of the first screen is a notebook, the controller 260 may execute an instruction (for example, executing a memo application) matching the notebook .

또한, 사물의 위치와 상관없이 사물의 유형에 따라 전자 장치(200)의 기능이 실행될 수 있으나, 이는 일 실시예에 불과할 뿐, 제어부(260)는 사물의 위치에 따라 상이한 기능을 제공할 수 있다. 즉, 도 11a에 도시된 바와 같이, 사물(1010)이 디스플레이 영역 내에 있는 경우, 도 11b에 도시된 바와 같이, 사물(1010)이 디스플레이 영역과 외곽의 경계선 상에 있는 경우, 도 11c에 도시된 바와 같이, 사물(1010)이 디스플레이 영역의 외곽에 있는 경우, 모두 상이한 기능을 제공할 수 있다. 예를 들어, 도 11a에 도시된 바와 같이, 사물(1010)이 디스플레이 영역 내에 있는 경우, 제어부(260)는 동영상 어플리케이션을 실행할 수 있고, 도 11b에 도시된 바와 같이, 사물(1010)이 디스플레이 영역과 외곽의 경계선상에 있는 경우, 제어부(260)는 음악 어플리케이션을 실행할 수 있으며, 도 11c에 도시된 바와 같이, 사물(1010)이 디스플레이 영역의 외곽에 있는 경우, 제어부(260)는 전자 장치(100)를 대기 모드로 전환할 수 있다. 또한, 사물(1010)이 디스플레이 영역 내의 위치에 따라 상이한 기능을 제공할 수 있음은 물론이다. In addition, the function of the electronic device 200 may be performed according to the type of object regardless of the position of the object, but this is merely an example, and the control unit 260 may provide different functions depending on the position of the object . That is, when the object 1010 is within the display area, as shown in Fig. 11A, when the object 1010 is on the boundary between the display area and the outline as shown in Fig. 11B, As described above, when the object 1010 is located outside the display area, all of the functions can be provided. For example, as shown in FIG. 11A, when the object 1010 is within the display area, the control unit 260 can execute the moving image application, and the object 1010 is displayed on the display area 1010, The control unit 260 can execute a music application and if the object 1010 is located outside the display area as shown in FIG. 11C, the control unit 260 controls the electronic device 100) to the standby mode. It goes without saying that the object 1010 may provide different functions depending on the position in the display area.

또한, 사물(1010)이 디스플레이 영역 외곽에 위치하는 경우, 제어부(260)는 디스플레이 영역 중 사물(1010)이 위치하는 근처에 단축 아이콘을 디스플레이하도록 디스플레이부(230)를 제어할 수 있다.In addition, when the object 1010 is located outside the display area, the control unit 260 may control the display unit 230 to display a short axis icon near the location of the object 1010 in the display area.

이하에서는 도 12 및 도 13을 바탕으로 전자 장치(100)의 제어 방법에 대해 설명하기로 한다. 도 12는 본 발명의 일 실시예에 따른, 전자 장치(100)의 제어 방법을 설명하기 위한 흐름도이다.Hereinafter, a control method of the electronic device 100 will be described with reference to FIGS. 12 and 13. FIG. 12 is a flowchart for explaining a control method of the electronic device 100 according to an embodiment of the present invention.

우선, 전자 장치(100)는 뎁스 카메라를 이용하여 뎁스 영상을 획득한다(S1210). 구체적으로, 전자 장치(100)는 디스플레이 영역 내에 뎁스 영상을 획득할 수 있다.First, the electronic device 100 acquires a depth image using a depth camera (S1210). Specifically, the electronic device 100 may acquire a depth image within the display area.

그리고, 전자 장치(100)는 촬영된 뎁스 영상으로부터 사용자의 손이 포함된 손 영역을 추출한다(S1220). 이때, 전자 장치(100)는 뎁스 영상으로부터 노이즈를 제거하여 사용자의 손 영역을 추출할 수 있다.Then, the electronic device 100 extracts a hand region including a user's hand from the photographed depth image (S1220). At this time, the electronic device 100 can extract noise from the depth image and extract the hand region of the user.

그리고, 전자 장치(100)는 손 영역에 포함된 사용자의 손가락 및 손바닥을 복수의 지점으로 모델링한다(S1230). 구체적으로, 전자 장치(100)는 사용자의 손가락 중 검지, 중지, 약지 각각은 복수의 지점으로 모델링하고, 사용자의 손가락 중 엄지 및 소지 각각은 하나의 지점으로 모델링하며, 사용자의 손바닥은 하나의 지점으로 모델링할 수 있다.Then, the electronic device 100 models the finger and the palm of the user included in the hand region as a plurality of points (S1230). Specifically, the electronic device 100 models each of the fingers of the user such as the index finger, the stop finger, and the finger finger as a plurality of points, and models each of the fingers of the user as one point and the palm of the user as one point . ≪ / RTI >

그리고, 전자 장치(100)는 모델링된 복수의 지점의 뎁스 정보를 바탕으로 터치 입력을 감지한다(S1240). 구체적으로, 전자 장치(100)는 도 5a 내지 도 8b와 같은 다양한 실시예와 같이, 터치 입력을 감지할 수 있다.Then, the electronic device 100 senses the touch input based on the depth information of the plurality of points modeled (S1240). Specifically, the electronic device 100 can sense the touch input, as in various embodiments, such as in FIGS. 5A-B.

도 13은 본 발명의 또 다른 실시예에 따른, 전자 장치(100)의 제어 방법을 설명하기 위한 흐름도이다.13 is a flowchart for explaining a control method of the electronic device 100, according to another embodiment of the present invention.

우선, 전자 장치(100)는 뎁스 카메라를 이용하여 뎁스 영상을 획득한다(S1310).First, the electronic device 100 acquires a depth image using a depth camera (S1310).

그리고, 전자 장치(100)는 획득된 뎁스 영상을 분석한다(S1315). 구체적으로, 전자 장치(100)는 평면 뎁스 영상과 촬영된 뎁스 영상 사이의 차이를 이용하여 뎁스 영상을 분석할 수 있다.Then, the electronic device 100 analyzes the obtained depth image (S1315). Specifically, the electronic device 100 can analyze the depth image using the difference between the plane depth image and the photographed depth image.

그리고, 전자 장치(100)는 획득된 뎁스 영상 내에 있는 물체가 사람의 손인지 사람의 손인지 여부를 판단한다(S1320).Then, the electronic device 100 determines whether the object in the obtained depth image is a human hand or a human hand (S1320).

물체가 사람의 손이라고 판단된 경우, 전자 장치(100)는 뎁스 영상으로부터 노이즈를 제거하여 손 영역을 추출한다(S1325).If it is determined that the object is a human hand, the electronic device 100 removes noise from the depth image and extracts the hand region (S1325).

그리고, 전자 장치(100)는 손 여역에 포함된 사용자의 손가락 및 손바닥을 복수의 지점으로 모델링하고(S1330), 모델링된 복수의 지점의 뎁스 정보를 바탕으로 터치 입력을 감지하며(S1335), 감지된 터치 입력에 따라 전자 장치(100)를 제어한다(S1340).Then, the electronic device 100 models the finger and palm of the user included in the hand area as a plurality of points (S1330), detects the touch input based on the depth information of the plurality of points modeled (S1335) And controls the electronic device 100 according to the touch input (S1340).

그러나, 물체가 사물이라고 판단된 경우, 전자 장치(100)는 사물의 뎁스 정보를 분석하고(S1345), 분석 결과를 바탕으로 사물의 종류를 판단하며(S1350), 판단된 사물의 종류 및 위치 중 적어도 하나에 따라 전자 장치(100)를 제어한다(S1355).However, if it is determined that the object is an object, the electronic device 100 analyzes the depth information of the object (S1345), determines the type of the object based on the analysis result (S1350) And controls the electronic device 100 according to at least one (S1355).

상술한 바와 같은 본 발명의 다양한 실시예에 의해, 뎁스 카메라를 이용한 터치 입력의 사용자 편의성이 향상될 수 있다. 또한, 전자 장치(100)는 뎁스 카메라를 이용하여 다양한 유형의 사용자 입력을 제공할 수 있게 된다.According to various embodiments of the present invention as described above, user convenience of a touch input using a depth camera can be improved. In addition, the electronic device 100 can provide various types of user input using a depth camera.

한편, 상술한 실시예에서는 전자 장치(100)가 직접 영상을 디스플레이하고, 터치 입력을 감지하며, 터치 입력에 따라 기능을 수행하는 것으로 설명하였으나, 이는 일 실시예에 불과할 뿐, 제어부(120)의 기능이 외부의 휴대 단말(1400)을 통해 수행될 수 있다. 구체적으로, 도 14에 도시된 바와 같이, 전자 장치(100)는 단순히 빔 프로젝트를 이용하여 영상을 출력하고, 뎁스 카메라를 이용하여 뎁스 영상을 획득할 뿐, 외부의 휴대 단말(1400)이 전자 장치(100)에 영상을 제공하고, 뎁스 영상을 분석하여 휴대 단말(1400) 및 전자 장치(100)의 기능을 제어할 수 있다. 즉, 외부의 휴대 단말(1400)이 상술한 제어부(120)의 기능을 수행할 수 있다.Meanwhile, in the above-described embodiment, the electronic device 100 directly displays an image, detects a touch input, and performs a function according to a touch input. However, the present invention is not limited to this, Function can be performed through the external portable terminal 1400. [ 14, the electronic device 100 simply outputs an image using a beam project and acquires a depth image using a depth camera, and the external portable terminal 1400 can acquire a depth image using an electronic device And the functions of the portable terminal 1400 and the electronic device 100 can be controlled by providing the image to the portable terminal 100 and analyzing the depth image. That is, the external portable terminal 1400 can perform the function of the control unit 120 described above.

또한, 본 발명의 일 실시예에 따른, 전자 장치(100)는 스탠드형 빔 프로젝터로 구현될 수 있다. 구체적으로, 도 15a는 스탠드형 빔 프로젝터의 정면도를 도시한 도면이고, 도 15b는 스탠드형 빔 프로젝터의 측면도를 도시한 도면이다. 특히, 스탠드형 빔 프로젝터는 도 15a 및 도 15b에 도시된 바와 같이, 상단에 빔 프로젝터(1510)와 뎁스 카메라(1520)를 구비하고, 폴더블 프레임(1530)(Foldable Frame) 및 도킹 베이스(1540)(Docking Base)가 빔 프로젝터(1510)와 뎁스 카메라(1520)를 지지할 수 있다. 전자 장치(100)는 상단의 빔 프로젝터(1510)를 이용하여 디스플레이 영역에 빛을 투사하고, 뎁스 카메라(1520)를 이용하여 디스플레이 영역에 대한 터치 입력을 감지할 수 있다. 그리고, 사용자는 폴더블 프레임(1530)을 조절하여 디스플레이 영역을 조절할 수 있다. 또한, 외부의 휴대 단말(1400)은 도킹 베이스(1540) 상에 거치될 수 있다.In addition, the electronic device 100, according to one embodiment of the present invention, may be implemented as a stand-up beam projector. Specifically, Fig. 15A is a front view of the stand-type beam projector, and Fig. 15B is a side view of the stand-type beam projector. 15A and 15B, the stand-type beam projector includes a beam projector 1510 and a depth camera 1520 at an upper end thereof, a foldable frame 1530 (Foldable Frame) and a docking base 1540 (Docking Base) can support the beam projector 1510 and the depth camera 1520. The electronic device 100 can project light to the display area using the upper beam projector 1510 and sense the touch input to the display area using the depth camera 1520. [ Then, the user can adjust the display area by adjusting the folder blur frame 1530. Also, the external portable terminal 1400 can be mounted on the docking base 1540. [

한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.Meanwhile, the above-described method can be implemented in a general-purpose digital computer that can be created as a program that can be executed by a computer and operates the program using a computer-readable recording medium. In addition, the structure of the data used in the above-described method can be recorded on a computer-readable recording medium through various means. The computer-readable recording medium includes a storage medium such as a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), optical reading medium (e.g., CD ROM,

본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed methods should be considered from an illustrative point of view, not from a restrictive point of view. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

110,210: 뎁스 카메라 120, 260: 제어부
220: 영상 입력부 230: 디스플레이부
240: 저장부 250: 통신부
110, 210: Depth camera 120, 260:
220: image input unit 230: display unit
240: storage unit 250: communication unit

Claims (19)

전자 장치의 제어 방법에 있어서,
뎁스 카메라를 이용하여 뎁스 영상을 획득하는 단계;
상기 획득된 뎁스 영상으로부터 사용자의 손이 포함된 손 영역을 추출하는 단계;
상기 손 영역에 포함된 사용자의 손가락 및 손바닥을 복수의 지점으로 모델링하는 단계; 및
상기 모델링된 복수의 지점의 뎁스 정보를 바탕으로 터치 입력을 감지하는 단계;를 포함하는 제어 방법.
A method of controlling an electronic device,
Acquiring a depth image using a depth camera;
Extracting a hand region including a user's hand from the obtained depth image;
Modeling a finger and a palm of a user included in the hand region into a plurality of points; And
And sensing a touch input based on the depth information of the plurality of points modeled.
제1항에 있어서,
상기 모델링하는 단계는,
상기 사용자의 손가락 중 검지, 중지, 약지 각각은 복수의 지점으로 모델링하고, 상기 사용자의 손가락 중 엄지 및 소지 각각은 하나의 지점으로 모델링하며, 상기 사용자의 손바닥은 하나의 지점으로 모델링하는 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Wherein the modeling comprises:
Wherein each of the fingers of the user is modeled as a plurality of points, and each of the fingers of the user is modeled as one point, and the palm of the user is modeled as one point. Lt; / RTI >
제2항에 있어서,
상기 감지하는 단계는,
상기 검지 및 중지의 복수의 지점 중 적어도 하나의 손가락의 끝 지점만 터치된 것으로 감지된 경우, 상기 터치된 지점에 터치 입력을 감지하고,
상기 검지 및 중지의 복수의 지점 중 적어도 하나의 손가락의 복수의 지점이 터치된 것으로 감지된 경우, 상기 터치 입력을 감지하지 않는 것을 특징으로 하는 제어 방법.
3. The method of claim 2,
Wherein the sensing comprises:
Detecting a touch input to the touched point if it is detected that only the end point of at least one of the plurality of points of the detection and stop is touched,
And does not detect the touch input when a plurality of points of at least one of the plurality of points of the detection and stop are sensed as being touched.
제2항에 있어서,
상기 감지하는 단계는,
상기 엄지 및 검지의 복수의 지점 중 두 손가락의 끝 지점만 터치된 것으로 감지된 경우, 상기 터치된 지점에 멀티 터치 입력을 감지하고,
상기 검지의 복수의 지점 및 상기 엄지의 하나의 지점이 모두 터치된 것으로 감지된 경우, 상기 터치 입력을 감지하지 않는 것을 특징으로 하는 제어 방법.
3. The method of claim 2,
Wherein the sensing comprises:
Touch input is detected at the touch point when it is detected that only the end points of the two fingers of the thumb and forefinger are touched,
Wherein the touch input is not detected when a plurality of points of the detection and one point of the thumb are detected as being touched.
제2항에 있어서,
상기 감지하는 단계는,
상기 사용자의 양손의 검지들의 복수의 지점 중 두 손가락의 끝 지점만 터치된 것으로 감지된 경우, 상기 터치된 지점에 멀티 터치 입력을 감지하는 것을 특징으로 하는 제어 방법.
3. The method of claim 2,
Wherein the sensing comprises:
Wherein the multi-touch input is detected at the touched point when it is detected that only the end points of the two fingers of the plurality of points of the forensic hands of the user are touched.
제2항에 있어서,
상기 사용자의 양손의 모든 손가락의 복수의 지점 중 모든 손가락의 끝지점만이 터치된 경우, 멀티 터치 입력을 감지하는 것을 특징으로 하는 제어 방법.
3. The method of claim 2,
Wherein the multi-touch input is detected when only the end points of all of the plurality of points of all the fingers of both hands of the user are touched.
제1항에 있어서,
상기 손 영역에 포함된 손의 움직임 방향 및 속도를 분석하는 단계;를 포함하고,
상기 추출하는 단계는,
이전 프레임에서 분석된 손의 움직임 방향 및 속도를 바탕으로 상기 사용자의 손을 추출하는 것을 특징으로 하는 제어 방법.
The method according to claim 1,
And analyzing a moving direction and speed of a hand included in the hand region,
Wherein the extracting comprises:
Wherein the hand of the user is extracted based on the direction and velocity of the hand analyzed in the previous frame.
제1항에 있어서,
상기 획득된 뎁스 영상을 분석하여 획득된 뎁스 영상 내에 있는 물체가 사람의 손인지 사물인지 여부를 판단하는 단계;
상기 뎁스 영상 내에 있는 물체가 사물인 것으로 판단된 경우, 상기 추출된 사물의 종류를 판단하는 단계;를 포함하는 제어 방법.
The method according to claim 1,
Determining whether an object in the depth image obtained by analyzing the obtained depth image is a human hand or an object;
And determining the type of the extracted object if it is determined that the object in the depth image is an object.
제8항에 있어서,
상기 판단된 사물의 종류 및 상기 사물의 터치 위치를 바탕으로 상기 전자 장치의 기능을 수행하는 단계;를 포함하는 제어 방법.
9. The method of claim 8,
And performing the function of the electronic device on the basis of the kind of the determined object and the touch position of the object.
전자 장치에 있어서,
뎁스 영상을 획득하는 뎁스 카메라; 및
상기 획득된 뎁스 영상으로부터 사용자의 손이 포함된 손 영역을 추출하고, 상기 손 영역에 포함된 사용자의 손가락 및 손바닥을 복수의 지점으로 모델링하며, 상기 모델링된 복수의 지점의 뎁스 정보를 바탕으로 터치 입력을 감지하는 제어부;를 포함하는 전자 장치.
In an electronic device,
A depth camera for acquiring a depth image; And
Extracting a hand region including a user's hand from the obtained depth image, modeling a finger and a palm of a user included in the hand region as a plurality of points, and performing a touch operation based on the depth information of the plurality of modeled points And a control unit for detecting an input.
제10항에 있어서,
상기 제어부는,
상기 사용자의 손가락 중 검지, 중지, 약지 각각은 복수의 지점으로 모델링하고, 상기 사용자의 손가락 중 엄지 및 소지 각각은 하나의 지점으로 모델링하며, 상기 사용자의 손바닥은 하나의 지점으로 모델링하는 것을 특징으로 하는 전자 장치.
11. The method of claim 10,
Wherein,
Wherein each of the fingers of the user is modeled as a plurality of points, and each of the fingers of the user is modeled as one point, and the palm of the user is modeled as one point. Lt; / RTI >
제11항에 있어서,
상기 제어부는,
상기 검지 및 중지의 복수의 지점 중 적어도 하나의 손가락의 끝 지점만 터치된 것으로 감지된 경우, 상기 터치된 지점에 터치 입력을 감지하고,
상기 검지 및 중지의 복수의 지점 중 적어도 하나의 손가락의 복수의 지점이 터치된 것으로 감지된 경우, 상기 터치 입력을 감지하지 않는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein,
Detecting a touch input to the touched point if it is detected that only the end point of at least one of the plurality of points of the detection and stop is touched,
And does not detect the touch input when a plurality of points of at least one of the plurality of points of the detection and stop are sensed as being touched.
제11항에 있어서,
상기 제어부는,
상기 엄지 및 검지의 복수의 지점 중 두 손가락의 끝 지점만 터치된 것으로 감지된 경우, 상기 터치된 지점에 멀티 터치 입력을 감지하고,
상기 검지의 복수의 지점 및 상기 엄지의 하나의 지점이 모두 터치된 것으로 감지된 경우, 상기 터치 입력을 감지하지 않는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein,
Touch input is detected at the touch point when it is detected that only the end points of the two fingers of the thumb and forefinger are touched,
And does not detect the touch input when a plurality of points of the detection and one point of the thumb are detected as being touched.
제11항에 있어서,
상기 제어부는,
상기 사용자의 양손의 검지들의 복수의 지점 중 두 손가락의 끝 지점만 터치된 것으로 감지된 경우, 상기 터치된 지점에 멀티 터치 입력을 감지하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein,
Wherein the multi-touch input detecting unit detects the multi-touch input at the touched point when it is detected that only the end points of two of the plurality of points of the forensic hands of the user's hands are touched.
제11항에 있어서,
상기 사용자의 양손의 모든 손가락의 복수의 지점 중 모든 손가락의 끝지점만이 터치된 경우, 멀티 터치 입력을 감지하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Touch input when only the end points of all the fingers of the plurality of points of all the fingers of the user's both hands are touched.
제10항에 있어서,
상기 제어부는,
상기 손 영역에 포함된 손의 움직임 방향 및 속도를 분석하고, 이전 프레임에서 분석된 손의 움직임 방향 및 속도를 바탕으로 상기 사용자의 손을 추출하는 것을 특징으로 하는 전자 장치.
11. The method of claim 10,
Wherein,
Analyzing a movement direction and a velocity of a hand included in the hand region and extracting the hand of the user based on a movement direction and velocity of the hand analyzed in the previous frame.
제10항에 있어서,
상기 제어부는,
상기 획득된 뎁스 영상을 분석하여 획득된 뎁스 영상 내에 있는 물체가 사람의 손인지 사물인지 여부를 판단하고, 상기 뎁스 영상 내에 있는 물체가 사물인 것으로 판단된 경우, 상기 추출된 사물의 종류를 판단하는 것을 특징으로 하는 전자 장치.
11. The method of claim 10,
Wherein,
And determines whether the object in the depth image obtained by analyzing the obtained depth image is a human hand or an object. If it is determined that the object in the depth image is an object, the type of the extracted object is determined .
제17항에 있어서,
상기 제어부는,
상기 판단된 사물의 종류 및 상기 사물의 터치 위치를 바탕으로 상기 전자 장치의 기능을 수행하는 것을 특징으로 하는 전자 장치.
18. The method of claim 17,
Wherein,
And performs the function of the electronic device based on the type of the determined object and the touch position of the object.
제10항에 있어서,
터치 영역에 영상을 투사하는 영상 투사부;를 더 포함하는 전자 장치.
11. The method of claim 10,
And an image projecting part for projecting an image to the touch area.
KR1020150098177A 2015-06-02 2015-07-10 Electronic device and Method for controlling the electronic device KR102307354B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/165,538 US20160357319A1 (en) 2015-06-02 2016-05-26 Electronic device and method for controlling the electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562169862P 2015-06-02 2015-06-02
US62/169,862 2015-06-02

Publications (2)

Publication Number Publication Date
KR20160142207A true KR20160142207A (en) 2016-12-12
KR102307354B1 KR102307354B1 (en) 2021-09-30

Family

ID=57573997

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150098177A KR102307354B1 (en) 2015-06-02 2015-07-10 Electronic device and Method for controlling the electronic device

Country Status (1)

Country Link
KR (1) KR102307354B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116677A1 (en) * 2018-12-05 2020-06-11 코어다 주식회사 Motion recognition device control using captured image, and motion recognition method, server, and program using same
WO2020166737A1 (en) * 2019-02-13 2020-08-20 엘지전자 주식회사 Mobile device and control method therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101002071B1 (en) * 2010-02-08 2010-12-17 전자부품연구원 Apparatus for touching a projection of 3d images on an infrared screen using multi-infrared camera
US20130300659A1 (en) * 2012-05-14 2013-11-14 Jinman Kang Recognizing Commands with a Depth Sensor
US8686943B1 (en) * 2011-05-13 2014-04-01 Imimtek, Inc. Two-dimensional method and system enabling three-dimensional user interaction with a device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101002071B1 (en) * 2010-02-08 2010-12-17 전자부품연구원 Apparatus for touching a projection of 3d images on an infrared screen using multi-infrared camera
US8686943B1 (en) * 2011-05-13 2014-04-01 Imimtek, Inc. Two-dimensional method and system enabling three-dimensional user interaction with a device
US20130300659A1 (en) * 2012-05-14 2013-11-14 Jinman Kang Recognizing Commands with a Depth Sensor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116677A1 (en) * 2018-12-05 2020-06-11 코어다 주식회사 Motion recognition device control using captured image, and motion recognition method, server, and program using same
WO2020166737A1 (en) * 2019-02-13 2020-08-20 엘지전자 주식회사 Mobile device and control method therefor

Also Published As

Publication number Publication date
KR102307354B1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
US20220129060A1 (en) Three-dimensional object tracking to augment display area
US20200257373A1 (en) Terminal and method for controlling the same based on spatial interaction
TWI579732B (en) Multi display apparatus and control method thereof
US20140300542A1 (en) Portable device and method for providing non-contact interface
EP2972727B1 (en) Non-occluded display for hover interactions
KR101947034B1 (en) Apparatus and method for inputting of portable device
US20140253592A1 (en) Method for providing augmented reality, machine-readable storage medium, and portable terminal
US20110221666A1 (en) Methods and Apparatus For Gesture Recognition Mode Control
US20140075302A1 (en) Electronic apparatus and handwritten document processing method
US20130191768A1 (en) Method for manipulating a graphical object and an interactive input system employing the same
US9035882B2 (en) Computer input device
US20140327611A1 (en) Information processing apparatus and method, and program
KR20140077510A (en) Method for searching information, device, and computer readable recording medium thereof
US9378427B2 (en) Displaying handwritten strokes on a device according to a determined stroke direction matching the present direction of inclination of the device
US10949668B2 (en) Electronic apparatus and method for controlling thereof
WO2015105756A1 (en) Increasing touch and/or hover accuracy on a touch-enabled device
JP5395927B2 (en) Electronic device and handwritten document search method
US9025878B2 (en) Electronic apparatus and handwritten document processing method
JP5925957B2 (en) Electronic device and handwritten data processing method
KR20170137491A (en) Electronic apparatus and operating method thereof
US20150248215A1 (en) Display of Objects on a Touch Screen and Their Selection
KR102307354B1 (en) Electronic device and Method for controlling the electronic device
JP5284523B1 (en) Information processing system, program, and processing method of information processing system
US20160357319A1 (en) Electronic device and method for controlling the electronic device
JP5456817B2 (en) Display control apparatus, display control method, information display system, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right