KR20140140482A - Apparatus and method for processing an user input using movement of an object - Google Patents

Apparatus and method for processing an user input using movement of an object Download PDF

Info

Publication number
KR20140140482A
KR20140140482A KR1020140051391A KR20140051391A KR20140140482A KR 20140140482 A KR20140140482 A KR 20140140482A KR 1020140051391 A KR1020140051391 A KR 1020140051391A KR 20140051391 A KR20140051391 A KR 20140051391A KR 20140140482 A KR20140140482 A KR 20140140482A
Authority
KR
South Korea
Prior art keywords
user input
pixels
sections
point
calculating
Prior art date
Application number
KR1020140051391A
Other languages
Korean (ko)
Other versions
KR102227494B1 (en
Inventor
박근주
이준행
류현석
김준석
신창우
우주연
이규빈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/285,156 priority Critical patent/US9696812B2/en
Publication of KR20140140482A publication Critical patent/KR20140140482A/en
Application granted granted Critical
Publication of KR102227494B1 publication Critical patent/KR102227494B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)

Abstract

The present invention relates to an apparatus and a method for processing user input using movement of an object. According to an embodiment of the present invention, the user input processing apparatus determines whether to track the movement of the object by using an input image including the movement information of the object. The user input processing apparatus tracks the movement of the object.

Description

오브젝트의 움직임을 이용하여 사용자 입력을 처리하는 장치 및 방법{APPARATUS AND METHOD FOR PROCESSING AN USER INPUT USING MOVEMENT OF AN OBJECT}[0001] APPARATUS AND METHOD FOR PROCESSING AN USER INPUT USING MOVEMENT OF AN OBJECT [0002]

아래 실시예들은 사용자 입력 처리 장치 및 방법에 관한 것으로, 입력 영상을 이용하여 사용자 입력을 처리하는 기술에 관한 것이다.
The following embodiments relate to a user input processing apparatus and method, and a technique for processing user input using an input image.

전통적인 마우스 입력 인터페이스는 볼 롤링 방식 또는 레이저 주사 방식으로 마우스의 움직임을 추적함으로써 커서의 위치를 움직인다. 또한, 마우스 입력 인터페이스는 마우스의 버튼의 클릭에 반응하여 커서의 위치에 대응되는 특정 기능을 실행시킬 수 있다.Traditional mouse input interfaces move the cursor position by tracking the movement of the mouse with ball rolling or laser scanning. In addition, the mouse input interface can perform a specific function corresponding to the cursor position in response to a click of the mouse button.

최근 이미지 처리 기술이 발달되면서, 이러한 전통적인 마우스 입력 인터페이스는 3차원 공간 상에서 오브젝트를 인식하는 유저 인터페이스 기술에 의해 대체될 수 있다.
With recent advances in image processing techniques, these traditional mouse input interfaces can be replaced by user interface technology that recognizes objects in three-dimensional space.

일 측에 따른 사용자 입력 처리 장치는 오브젝트의 움직임이 감지되는 적어도 하나의 포인트를 제공하는 입력 영상을 이용하여 상기 입력 영상이 상기 움직임에 대한 트래킹을 요구하는 제1 모드 입력에 대응하는지의 여부를 판단하는 판단부; 및 상기 입력 영상이 상기 제1 모드 입력에 대응하는 경우, 상기 움직임을 트래킹하는 처리부를 포함한다.A user input processing apparatus according to one side judges whether or not the input image corresponds to a first mode input requesting tracking of the motion using an input image providing at least one point at which motion of the object is sensed ; And a processor for tracking the motion when the input image corresponds to the first mode input.

이 때, 상기 판단부는 상기 적어도 하나의 포인트의 산포를 임계치와 비교하여 상기 산포가 상기 임계치 이상인 경우 상기 입력 영상이 상기 제1 모드 입력에 대응하는 것으로 판단할 수 있다.In this case, the determination unit may compare the scattering of the at least one point with a threshold value, and may determine that the input image corresponds to the first mode input when the scattering is equal to or greater than the threshold value.

또한, 상기 처리부는 상기 적어도 하나의 포인트의 무게 중심을 계산하는 무게 중심 계산부; 상기 적어도 하나의 포인트와 관련된 도미넌트 라인(dominant line)을 검출하는 라인 검출부; 및 상기 무게 중심 및 상기 도미넌트 라인에 기초하여 상기 오브젝트의 팁(tip)을 검출하는 팁 검출부를 포함할 수 있다.The processing unit may further include: a center of gravity calculation unit for calculating a center of gravity of the at least one point; A line detector for detecting a dominant line associated with the at least one point; And a tip detecting unit for detecting a tip of the object based on the center of gravity and the dominant line.

또한, 상기 판단부는 상기 적어도 하나의 포인트의 산포를 임계치와 비교하여 상기 산포가 상기 임계치보다 작은 경우 상기 입력 영상이 선택 입력을 지시하는 제2 모드 입력에 대응하는 것으로 판단할 수 있다.The determination unit may compare the scatter of the at least one point with a threshold value and determine that the input image corresponds to a second mode input indicating a selection input when the scattering is smaller than the threshold value.

또한, 상기 판단부는 상기 적어도 하나의 포인트의 패턴이 미리 정해진 포즈에 대응되는지 여부를 확인하여 상기 패턴이 상기 미리 정해진 포즈에 대응되는 경우 상기 입력 영상이 상기 트래킹의 중단을 지시하는 제3 모드 입력에 대응하는 것으로 판단할 수 있다.Also, the determination unit may check whether the pattern of the at least one point corresponds to a predetermined pose, and if the pattern corresponds to the predetermined pose, the input image may be input to a third mode input It can be judged as corresponding.

다른 일 측에 따른 사용자 입력 처리 방법은 오브젝트의 움직임이 감지되는 이벤트 신호를 획득하는 단계; 상기 이벤트 신호에 포함된 복수의 픽셀들의 무게 중심을 계산하는 단계; 상기 복수의 픽셀들에 포함된 도미넌트 라인을 추출하는 단계; 및 상기 무게 중심 및 상기 도미넌트 라인에 기초하여 상기 오브젝트의 팁을 인식하는 단계를 포함한다.A method of processing a user input according to another aspect includes: acquiring an event signal in which motion of an object is detected; Calculating a center of gravity of a plurality of pixels included in the event signal; Extracting a dominant line included in the plurality of pixels; And recognizing a tip of the object based on the center of gravity and the dominant line.

또 다른 일 측에 따른 사용자 입력 처리 방법은 오브젝트의 움직임이 감지되는 이벤트 신호를 획득하는 단계; 상기 이벤트 신호에 포함된 복수의 픽셀들을 미리 정해진 수의 섹션들로 분할하는 단계; 상기 복수의 픽셀들의 오리엔테이션 벡터들을 계산하는 단계; 상기 오리엔테이션 벡터들에 기초하여 상기 섹션들의 특징 벡터들을 계산하는 단계; 및 상기 특징 벡터들에 기초하여 상기 오브젝트의 팁을 인식하는 단계를 포함한다.
According to another aspect of the present invention, there is provided a method of processing a user input, comprising: obtaining an event signal in which motion of an object is detected; Dividing a plurality of pixels included in the event signal into a predetermined number of sections; Calculating orientation vectors of the plurality of pixels; Calculating feature vectors of the sections based on the orientation vectors; And recognizing a tip of the object based on the feature vectors.

도 1은 일 실시예에 따른 사용자 입력 처리 장치를 나타낸 블록도.
도 2a 및 도 2b는 일 실시예에 따른 입력 영상에 포함된 복수의 픽셀들의 산포에 따라 결정되는 동작 모드들을 설명하기 위한 도면.
도 3a 내지 도 3d는 일 실시예에 따른 오브젝트의 팁(tip)을 인식하는 기법을 설명하기 위한 도면.
도 4a 내지 도 4d는 일 실시예에 따른 중단 모드에 대응되는 미리 정해진 포즈를 인식하는 기법을 설명하기 위한 도면.
도 5는 일 실시예에 따른 오브젝트의 움직임을 트래킹하는 사용자 입력 처리 방법을 나타낸 동작 흐름도.
도 6은 일 실시예에 따른 선택 입력을 인식하는 사용자 입력 처리 방법을 나타낸 동작 흐름도.
도 7a 내지 도 7d 다른 실시예에 따른 오브젝트의 팁을 인식하는 기법을 설명하기 위한 도면.
1 is a block diagram illustrating a user input processing apparatus according to an embodiment;
FIGS. 2A and 2B are diagrams for explaining operation modes determined according to the scattering of a plurality of pixels included in an input image according to an exemplary embodiment; FIG.
3A to 3D are diagrams illustrating a technique of recognizing a tip of an object according to an exemplary embodiment.
4A to 4D illustrate a technique for recognizing a predetermined pause corresponding to the pause mode according to an embodiment.
5 is a flow chart illustrating a method of processing a user input for tracking movement of an object according to an embodiment;
6 is an operational flow diagram illustrating a user input processing method for recognizing a selection input according to an embodiment.
7A to 7D are diagrams for explaining a technique of recognizing a tip of an object according to another embodiment;

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 사용자 입력 처리 장치를 나타낸 블록도이다.1 is a block diagram illustrating a user input processing apparatus according to an exemplary embodiment of the present invention.

도 1을 참조하면, 일 실시예에 따른 사용자 입력 처리 장치(100)는 미리 정해진 공간에서 오브젝트를 이용한 입력을 인식한다. 오브젝트는 사용자 입력 처리 장치에 입력을 수행하기 위한 객체로, 예를 들어 이용자의 손 등을 포함할 수 있다.Referring to FIG. 1, a user input processing apparatus 100 according to an embodiment recognizes an input using an object in a predetermined space. An object is an object for performing an input to a user input processing device, and may include, for example, a user's hand or the like.

사용자 입력 처리 장치(100)는 판단부(110) 및 처리부(120)를 포함한다.The user input processing apparatus 100 includes a determination unit 110 and a processing unit 120.

판단부(110)는 오브젝트의 움직임이 감지되는 적어도 하나의 포인트를 제공하는 입력 영상을 이용하여 입력 영상이 움직임에 대한 트래킹을 요구하는 제1 모드 입력에 대응하는지의 여부를 판단할 수 있다.The determination unit 110 may determine whether the input image corresponds to a first mode input requesting tracking for motion using an input image providing at least one point at which motion of the object is sensed.

입력 영상은 입력 영상은 상기 오브젝트를 촬영하는 동적 비전 센서(dynamic vision sensor)의 출력 영상일 수 있다. 동적 비전 센서는 인간의 망막 시신경의 동작원리를 이용한 수동 이미지 센서를 포함할 수 있다. 동적 비전 센서는 이벤트 기반의 이미지 센서로, 오브젝트의 움직임에 반응하여 전술한 이벤트 신호를 출력할 수 있다. 이하, 설명의 편의를 위하여 입력 영상을 이벤트 신호라고 하고, 포인트를 픽셀이라고 한다.The input image may be an output image of a dynamic vision sensor that photographs the object. The dynamic vision sensor may include a passive image sensor using the principle of operation of a human retinal optic nerve. The dynamic vision sensor is an event-based image sensor, and can output the event signal in response to the movement of the object. Hereinafter, an input image is referred to as an event signal for convenience of explanation, and a point is referred to as a pixel.

이벤트 신호는 오브젝트의 움직임에 반응하여 비동기적으로 발생된 신호를 포함할 수 있다. 이벤트 신호는 인간의 망막으로부터 뇌로 전달되는 시신경 신호와 같은 정보를 포함할 수 있다. 예를 들어, 이벤트 신호는 정지된 사물에 대하여는 발생되지 않고, 움직이는 사물이 감지되는 경우에 한하여 발생될 수 있다. 물론 이벤트 신호는 움직이는 사물과 관련된 정보를 포함할 수 있다.The event signal may include a signal generated asynchronously in response to motion of the object. The event signal may include information such as the optic nerve signal transmitted from the human retina to the brain. For example, an event signal may not be generated for a stationary object, but only when a moving object is sensed. Of course, the event signal may include information related to moving objects.

이벤트 신호에 포함된 복수의 픽셀들은 움직임이 감지된 오브젝트의 부위들에 대응될 수 있다. 예를 들어, 이용자가 손 전체를 이동시킨 경우를 가정하자. 도 2a를 참조하면, 이벤트 신호는 손 전체에 대응되는 복수의 픽셀들을 포함할 수 있다. The plurality of pixels included in the event signal may correspond to the parts of the object in which the motion is detected. For example, suppose a user moves the entire hand. Referring to FIG. 2A, the event signal may include a plurality of pixels corresponding to the entire hand.

또는, 이용자가 검지 손가락만을 움직이는 경우를 가정하자. 도 2b를 참조하면, 이벤트 신호는 검지 손가락 부분에 대응되는 픽셀들만을 포함할 수 있다.Alternatively, it is assumed that the user moves only the index finger. Referring to FIG. 2B, the event signal may include only pixels corresponding to the index finger portion.

판단부(110)는 복수의 픽셀들의 산포에 기초하여 동작 모드를 결정할 수 있다. 판단부(110)는 이벤트 신호에 포함된 복수의 픽셀들의 산포를 계산할 수 있다. 판단부(110)는 복수의 픽셀들이 미리 정해진 방향으로 분산된 산포를 계산할 수 있다. 예를 들어, 판단부(110)는 복수의 픽셀들의 무게 중심을 기준으로 y축 방향으로 복수의 픽셀들이 분산된 산포를 계산할 수 있다.The determination unit 110 can determine the operation mode based on the scattering of the plurality of pixels. The determination unit 110 may calculate the scatter of the plurality of pixels included in the event signal. The determination unit 110 may calculate a scattered distribution of a plurality of pixels in a predetermined direction. For example, the determination unit 110 may calculate a scatter where a plurality of pixels are dispersed in the y-axis direction with respect to the center of gravity of a plurality of pixels.

판단부(110)는 복수의 픽셀들의 산포에 대응되는 동작 모드를 결정할 수 있다.The determination unit 110 may determine an operation mode corresponding to the scattering of the plurality of pixels.

판단부(110)는 이벤트 신호에 포함된 복수의 픽셀들의 산포를 임계치와 비교하여 산포가 임계치 이상인 경우 이벤트 신호가 제1 모드 입력에 대응하는 것으로 판단할 수 있다. The determination unit 110 may compare the scattering of a plurality of pixels included in the event signal with a threshold value and determine that the event signal corresponds to the first mode input when the scattering is equal to or greater than the threshold value.

또한, 판단부(110)는 산포가 임계치보다 작은 경우 이벤트 신호가 선택 입력을 지시하는 제2 모드 입력에 대응하는 것으로 판단할 수 있다. 이하, 설명의 편의를 위하여 제1 모드에서의 동작을 포인팅 동작이라고 하고, 제2 모드에서의 동작을 클릭 동작이라고 한다.Also, the determination unit 110 may determine that the event signal corresponds to the second mode input indicating the selection input when the scattering is smaller than the threshold value. Hereinafter, for convenience of explanation, the operation in the first mode is referred to as a pointing operation, and the operation in the second mode is referred to as a click operation.

여기서, 임계치는 포인팅 동작을 위해 움직여야 하는 부분의 산포 값과 클릭 동작을 위해 움직여야 하는 부분의 산포 값 사이의 값으로 미리 정해질 수 있다.Here, the threshold value can be predetermined as a value between a scatter value of a portion to be moved for a pointing operation and a scatter value of a portion to be moved for a click operation.

도 2a를 참조하면, 이용자가 검지 손가락을 편 채로 손 전체를 움직이는 동작에 의하여 이벤트 신호가 발생된 경우, 판단부(110)는 이용자가 포인팅 동작을 입력하였다고 판단할 수 있다.Referring to FIG. 2A, when an event signal is generated by the user moving the entire hand while holding the index finger, the determination unit 110 can determine that the user has input the pointing operation.

도 2b를 참조하면, 이용자가 손은 움직이지 않으면서 검지 손가락을 구부리는 동작에 의하여 이벤트 신호가 발생된 경우, 판단부(110)는 이용자가 클릭 동작을 입력하였다고 판단할 수 있다.Referring to FIG. 2B, when an event signal is generated by bending the index finger while the user does not move the hand, the determination unit 110 may determine that the user has input the click operation.

이로 인하여, 일 실시예에 따른 사용자 입력 처리 장치(100)는 단일의 이미지 센서를 이용하여 공간 마우스 기능을 제공할 수 있다. 공간 마우스 기능은 3차원 공간에서의 입력을 감지함으로써 제공되는 인터페이스이다.Accordingly, the user input processing apparatus 100 according to one embodiment can provide a spatial mouse function using a single image sensor. The spatial mouse function is an interface provided by sensing input in a three-dimensional space.

일반적으로 공간 마우스 기능을 활용하기 위하여는 오브젝트에 대한 3차원 이미지를 생성한 뒤, 생성된 3차원 이미지를 분석하는 과정이 필요하다. 클릭 동작이 입력되는지 여부를 판별하기 위하여는, 이미지에 포함된 객체 부분(이를 테면, 클릭 동작을 수행하는 검지 손가락 부분)의 깊이 변화에 대한 정보가 요구되기 때문이다. 이 경우, 3차원 이미지를 생성하기 위하여는 적어도 두 개의 이미지 데이터들이 요구된다.Generally, in order to utilize the space mouse function, it is necessary to generate a three-dimensional image of an object and analyze the generated three-dimensional image. This is because, in order to determine whether or not the click operation is inputted, information about the depth change of the object part included in the image (for example, the index finger part performing the click operation) is required. In this case, at least two pieces of image data are required to generate a three-dimensional image.

반면, 일 실시예에 따른 사용자 입력 처리 장치(100)는 오브젝트의 움직임에 따른 이벤트 신호를 이용함으로써, 단일의 이미지 센서로부터 출력되는 이미지 데이터를 이용하여 공간 마우스 기능을 제공할 수 있다.On the other hand, the user input processing apparatus 100 according to one embodiment can provide a spatial mouse function using image data output from a single image sensor by using an event signal according to the movement of the object.

처리부(120)는 입력 영상이 제1 모드 입력(예를 들어, 포인팅 입력)에 대응하는 경우, 오브젝트의 움직임을 트래킹하고 포인팅 동작을 위한 신호를 출력할 수 있다. 또는, 처리부(120)는 입력 영상이 제2 모드 입력(예를 들어, 클릭 입력)에 대응하는 경우, 클릭 동작을 위한 신호를 출력할 수 있다.When the input image corresponds to the first mode input (for example, a pointing input), the processing unit 120 may track the motion of the object and output a signal for the pointing operation. Alternatively, the processing unit 120 may output a signal for a click operation when the input image corresponds to a second mode input (e.g., a click input).

포인팅 동작은 디스플레이 상 특정 위치를 가리키기 위한 동작을 포괄적으로 포함하는 개념으로, 예를 들어 디스플레이에서 마우스 커서의 위치를 결정하는 동작, 디스플레이에서 마우스 커서의 위치를 이동시키는 동작 등을 포함할 수 있다.The pointing operation is a concept inclusive of an operation for indicating a specific position on the display, for example, may include an operation of determining the position of the mouse cursor in the display, an operation of moving the position of the mouse cursor in the display, .

클릭 동작은 포인팅 되고 있는 위치와 관련된 적어도 하나의 기능을 활성화하는 동작을 포괄적으로 포함하는 개념으로, 예를 들어 좌 클릭 동작, 더블 클릭 동작 등을 포함할 수 있다.The click operation is a concept including, for example, a left-click operation, a double-click operation, and the like, comprehensively including an operation of activating at least one function related to a point being pointed.

처리부(120)는 포인팅 동작을 위한 신호로, 오브젝트의 팁(tip)이 가리키는 위치에 대한 정보 등을 출력할 수 있다. 또한, 처리부(120)는 클릭 동작을 위한 신호로, 클릭 동작이 인식되었음을 지시하는 정보 등을 출력할 수 있다.The processing unit 120 is a signal for a pointing operation, and can output information about a position indicated by a tip of the object. Also, the processing unit 120 can output information indicating that the click operation is recognized as a signal for a click operation.

물론, 포인팅 동작과 클릭 동작의 다양한 변형 및 조합을 이용하여, 드래그 동작, 드래그 앤 드랍 동작, 우 클릭 동작, 스크롤 동작 등 일반적인 마우스 인터페이스가 모두 구현될 수 있음은 해당 분야에서 통상의 지식을 가진 자에게 자명할 것이다.
Of course, it is to be understood that a general mouse interface such as a drag operation, a drag-and-drop operation, a right-click operation, and a scroll operation can be implemented using various combinations and combinations of pointing operations and click operations, .

도 2a 및 도 2b는 일 실시예에 따른 입력 영상에 포함된 복수의 픽셀들의 산포에 따라 결정되는 동작 모드들을 설명하기 위한 도면이다.FIGS. 2A and 2B are views for explaining operation modes determined according to the scattering of a plurality of pixels included in an input image according to an exemplary embodiment.

도 2a를 참조하면, 일 실시예에 따른 이벤트 신호는 손 전체의 움직임에 따른 복수의 픽셀들을 포함할 수 있다. Referring to FIG. 2A, an event signal according to an exemplary embodiment may include a plurality of pixels corresponding to movement of the entire hand.

예를 들어, 이용자가 검지 손가락을 편 채 손 전체를 특정 방향으로 움직인 경우, 이벤트 신호는 움직임이 발생된 손 전체에 대응되는 복수의 픽셀들을 포함할 수 있다.For example, if the user moves his entire hand in a specific direction with his index finger held, the event signal may include a plurality of pixels corresponding to the entire hand in which the motion occurred.

이벤트 신호는 감지된 이벤트의 유형에 따라 ON 이벤트 또는 OFF 이벤트를 포함할 수 있다. 예를 들어, 검은색 픽셀들은 입력되는 빛이 OFF 이벤트에 대응되는 임계치 이상으로 어두워진 OFF 이벤트가 감지된 픽셀을 포함하고, 하얀색 픽셀들은 입력되는 빛이 ON 이벤트에 대응되는 임계치 이상으로 밝아진 ON 이벤트가 감지된 픽셀을 포함할 수 있다.The event signal may include an ON event or an OFF event depending on the type of the detected event. For example, black pixels include pixels in which an OFF event is detected in which the input light is darker than a threshold corresponding to the OFF event, white pixels include an ON event in which the input light is brighter than a threshold corresponding to the ON event May include a detected pixel.

사용자 입력 처리 장치는 복수의 픽셀들에 기초하여 포인팅 동작을 위한 오브젝트의 팁을 검출할 수 있다. The user input processing device can detect a tip of an object for a pointing operation based on a plurality of pixels.

경우에 따라, 사용자 입력 처리 장치는 감지된 이벤트의 유형을 고려하여, 오브젝트의 팁을 검출할 수 있다. 예를 들어, 사용자 입력 처리 장치는 ON 이벤트 신호와 OFF 이벤트 신호를 모두 이용하여 오브젝트의 팁을 검출할 수 있다. 또는, 사용자 입력 처리 장치는 ON 이벤트 신호 및 OFF 이벤트 신호 중 어느 하나의 유형의 이벤트 신호를 이용하여 오브젝트의 팁을 검출할 수 있다.In some cases, the user input processing device can detect the tip of the object in consideration of the type of the detected event. For example, the user input processing apparatus can detect the tip of the object by using both the ON event signal and the OFF event signal. Alternatively, the user input processing device can detect a tip of an object using an event signal of any one of an ON event signal and an OFF event signal.

포인팅 동작을 위한 오브젝트의 팁을 검출하는 동작과 관련된 보다 상세한 사항들은 도 3a 내지 도 3d 및 도 7a 내지 도 7d를 통하여 후술한다.More details related to the operation of detecting the tip of the object for the pointing operation will be described later with reference to FIGS. 3A to 3D and FIGS. 7A to 7D.

도 2b를 참조하면, 일 실시예에 따른 이벤트 신호는 손가락의 움직임에 따른 복수의 픽셀들을 포함할 수 있다. Referring to FIG. 2B, an event signal according to an exemplary embodiment may include a plurality of pixels corresponding to a movement of a finger.

예를 들어, 이용자가 실제 마우스를 클릭하는 것처럼 검지 손가락의 첫 마디를 구부리는 경우, 이벤트 신호는 움직임이 발생된 한 마디의 손가락에 대응되는 픽셀들을 포함할 수 있다.For example, when the user bends the first node of the index finger as if the user actually clicked the mouse, the event signal may include pixels corresponding to the finger of the segment where the motion occurred.

사용자 입력 처리 장치는 이벤트 신호에 포함된 픽셀들의 산포에 기초하여 이용자에 의해 입력된 동작이 클릭 동작에 대응된다고 판단할 수 있다.The user input processing device can determine that the operation input by the user corresponds to the click operation based on the distribution of the pixels included in the event signal.

경우에 따라, 사용자 입력 처리 장치는 감지된 이벤트의 유형을 고려하여, 산포를 계산할 수 있다. 예를 들어, 사용자 입력 처리 장치는 ON 이벤트 신호와 OFF 이벤트 신호를 모두 이용하여 산포를 계산할 수 있다. 또는, 사용자 입력 처리 장치는 ON 이벤트 신호 및 OFF 이벤트 신호 중 어느 하나의 유형의 이벤트 신호를 이용하여 산포를 계산할 수 있다.
In some cases, the user input processing device may calculate the scatter, taking into account the type of event detected. For example, the user input processing apparatus can calculate the scatter using both the ON event signal and the OFF event signal. Alternatively, the user input processing apparatus can calculate the scatter using the event signal of any one of the ON event signal and the OFF event signal.

도 3a 내지 도 3d는 일 실시예에 따른 오브젝트의 팁(tip)을 인식하는 기법을 설명하기 위한 도면이다.3A to 3D are diagrams for explaining a technique of recognizing a tip of an object according to an embodiment.

도 3a를 참조하면, 일 실시예에 따른 사용자 입력 처리 장치는 이벤트 신호에 포함된 복수의 픽셀들의 무게 중심(310)을 계산할 수 있다. Referring to FIG. 3A, a user input processing apparatus according to an exemplary embodiment may calculate a center of gravity 310 of a plurality of pixels included in an event signal.

예를 들어, 도면에 도시하지 않았으나, 도 1의 처리부(120)는 무게 중심 계산부를 포함할 수 있다. 무게 중심 계산부는 이벤트 신호에 포함된 복수의 픽셀들의 x좌표 값들을 모두 합산하고, 합산 결과를 픽셀들의 수로 나눔으로써 무게 중심(310)의 x좌표를 계산할 수 있다. 또한, 무게 중심 계산부는 이벤트 신호에 포함된 복수의 픽셀들의 y좌표 값들을 모두 합산하고, 합산 결과를 픽셀들의 수로 나눔으로써 무게 중심(310)의 y좌표를 계산할 수 있다.For example, although not shown in the drawing, the processing unit 120 of FIG. 1 may include a center of gravity calculation unit. The center-of-gravity calculator may calculate the x-coordinate of the center of gravity 310 by summing all the x-coordinate values of the plurality of pixels included in the event signal and dividing the summed result by the number of pixels. In addition, the center-of-gravity calculator may calculate the y-coordinate of the center of gravity 310 by summing all the y-coordinate values of the plurality of pixels included in the event signal and dividing the summed result by the number of pixels.

도 3b를 참조하면, 일 실시예에 따른 사용자 입력 처리 장치는 이벤트 신호에 포함된 복수의 픽셀들로부터 도미넌트 라인(dominant line, 320)을 추출할 수 있다.Referring to FIG. 3B, the user input processing apparatus according to an exemplary embodiment may extract a dominant line 320 from a plurality of pixels included in an event signal.

예를 들어, 도면에 도시하지 않았으나, 도 1의 처리부(120)는 라인 검출부를 포함할 수 있다. 도미넌트 라인(320)은 이벤트 신호에 포함된 복수의 픽셀들을 이용하여 구성될 수 있는 복수의 선분들 중 가장 지배적인(dominant) 선분으로, 예를 들어 오브젝트가 검지 손가락만 편 상태의 손인 경우 도미넌트 라인(320)은 검지 손가락이 가리키는 방향의 라인일 수 있다.For example, although not shown in the drawing, the processing unit 120 of FIG. 1 may include a line detection unit. The dominant line 320 is the dominant line segment among a plurality of line segments that can be configured using a plurality of pixels included in the event signal. For example, when the object is a hand with only the index finger, The finger 320 may be a line in the direction indicated by the index finger.

라인 검출부는 도미넌트 라인을 추출하기 위하여, 이벤트 신호에 포함된 복수의 픽셀들을 이용하여 구성될 수 있는 복수의 선분들을 각도 좌표로 표시할 수 있다. 라인 검출부는 이벤트 신호에 포함된 복수의 픽셀들을 허프 변환(hough transform)함으로써 복수의 라인들을 획득하고, 획득된 복수의 라인들로부터 도미넌트 라인을 획득할 수 있다.In order to extract the dominant line, the line detecting unit may display a plurality of lines that can be formed using the plurality of pixels included in the event signal, in angle coordinates. The line detecting unit may obtain a plurality of lines by performing a hough transform on a plurality of pixels included in the event signal, and may obtain a dominant line from the obtained plurality of lines.

도 3c를 참조하면, 일 실시예에 따른 사용자 입력 처리 장치는 오브젝트의 팁을 인식하기 위하여, 무게 중심에 해당하는 점을 도미넌트 라인으로 투영(projection)할 수 있다.Referring to FIG. 3C, in order to recognize a tip of an object, a user input processing apparatus according to an exemplary embodiment may project a point corresponding to the center of gravity to a dominant line.

예를 들어, 사용자 입력 처리 장치는 도 3a의 무게 중심(310)을 도 3b의 도미넌트 라인(320)으로 투영시킬 수 있고, 그 결과 투영점(330)을 획득할 수 있다.For example, the user input processing device can project the center of gravity 310 of FIG. 3A to the dominant line 320 of FIG. 3B, and thereby obtain the projection point 330.

도 3d를 참조하면, 일 실시예에 따른 사용자 입력 처리 장치는 오브젝트의 팁을 인식하기 위하여, 투영점으로부터 미리 정해진 방향으로 도미넌트 라인을 따라 팁을 탐색할 수 있다.Referring to FIG. 3D, a user input processing apparatus according to an exemplary embodiment may search a tip along a dominant line in a predetermined direction from a projection point, in order to recognize a tip of an object.

예를 들어, 사용자 입력 처리 장치는 도 3c의 투영점(330)으로부터 도 3b의 도미넌트 라인을 따라 y축 좌표의 값이 증가하는 방향으로 팁을 탐색할 수 있다. 사용자 입력 처리 장치는 도미넌트 라인 상에 존재하는 복수의 영역들 중 이벤트 신호에 포함된 복수의 픽셀들이 존재하는 마지막 영역(340)을 오브젝트의 팁으로 인식할 수 있다.For example, the user input processing apparatus can search the tip from the projection point 330 of FIG. 3C in the direction in which the value of the y-axis coordinate increases along the dominant line of FIG. 3B. The user input processing apparatus can recognize the last region 340 in which a plurality of pixels included in the event signal among the plurality of regions existing on the dominant line exist as tips of the object.

도면에 도시하지 않았으나, 다른 실시예에 따른 사용자 입력 처리 장치는 오브젝트의 팁을 인식하기까지 탐색된 영역들의 수에 기초하여 클릭 동작인지 여부를 판단할 수 있다. Although not shown in the figure, the user input processing apparatus according to another embodiment may determine whether or not the click operation is performed based on the number of regions searched until the tip of the object is recognized.

예를 들어, 사용자 입력 처리 장치는 오브젝트의 팁을 인식하기까지 탐색된 영역들의 수를 이용하여 이벤트 신호에 포함된 복수의 픽셀들의 산포를 추정할 수 있다. 사용자 입력 처리 장치는 오브젝트의 팁을 인식하기까지 탐색된 영역들의 수가 미리 정해진 문턱값보다 작은 경우, 클릭 동작이 입력되었다고 판단할 수 있다.
For example, the user input processing apparatus can estimate the scattering of a plurality of pixels included in the event signal using the number of regions searched until the tip of the object is recognized. The user input processing apparatus can determine that the click operation has been input when the number of the searched regions is smaller than a predetermined threshold until the tip of the object is recognized.

도 4a 내지 도 4d는 일 실시예에 따른 중단 모드에 대응되는 미리 정해진 포즈를 인식하는 기법을 설명하기 위한 도면이다.4A to 4D are diagrams for explaining a technique of recognizing a predetermined pause corresponding to the pause mode according to an embodiment.

도면에 표시하지 않았으나, 도 1의 판단부(110)는 이벤트 신호에 적어도 하나의 픽셀로 구성되는 패턴이 미리 정해진 포즈에 대응되는지 여부를 확인할 수 있다. Although not shown in the drawing, the determination unit 110 in FIG. 1 can check whether a pattern composed of at least one pixel corresponds to a predetermined pose in the event signal.

판단부(110)는 패턴이 미리 정해진 포즈에 대응되는 경우 이벤트 신호가 트래킹의 중단을 지시하는 제3 모드 입력에 대응하는 것으로 판단할 수 있다. The determination unit 110 may determine that the event signal corresponds to the third mode input indicating the stop of the tracking when the pattern corresponds to the predetermined pose.

트래킹의 중단에 대응되는 포즈는 미리 정해질 수 있고, 판단부(110)는 미리 정해진 포즈를 취했는지 여부를 판단할 수 있다. 이하, 설명의 편의를 위하여 미리 정해진 포즈가 다섯 손가락을 펴는 포즈인 경우를 가정하자.The pause corresponding to the interruption of the tracking can be predetermined, and the determination unit 110 can determine whether or not the predetermined pose has been taken. Hereinafter, for convenience of explanation, it is assumed that a predetermined pose is a pose that stretches five fingers.

도 4a를 참조하면, 판단부(110)는 이벤트 신호에 포함된 복수의 픽셀들의 무게 중심(410)을 계산할 수 있다. 무게 중심을 계산하는 기법에 대하여는 도 3a를 통하여 기술한 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.Referring to FIG. 4A, the determination unit 110 may calculate a center of gravity 410 of a plurality of pixels included in an event signal. For the technique of calculating the center of gravity, the matters described with reference to FIG. 3A can be applied as they are, so that a detailed description will be omitted.

도 4b를 참조하면, 판단부(110)는 무게 중심으로부터 미리 정해진 방향으로 영역들을 구분할 수 있다.Referring to FIG. 4B, the determination unit 110 may identify regions in a predetermined direction from the center of gravity.

예를 들어, 판단부(110)는 도 4a의 무게 중심(410)으로부터 y축 좌표의 값이 증가하는 방향으로 가장 가까운 거리에 있는 제1 영역(421), 중간 거리에 있는 제2 영역(422), 및 가장 먼 거리에 있는 제3 영역(423)을 구분할 수 있다.For example, the determination unit 110 may include a first region 421 that is closest to the center of gravity 410 of FIG. 4A in the direction of increasing y-axis coordinate value, a second region 422 ), And the third region 423 at the farthest distance.

도 4c를 참조하면, 판단부(110)는 무게 중심으로부터 미리 정해진 방향으로 미리 정해진 거리 이상 떨어진 영역에 포함된 픽셀들의 패턴을 측정할 수 있다. 픽셀들의 패턴은 복수의 픽셀들이 산포된 양상을 포함할 수 있다.Referring to FIG. 4C, the determination unit 110 may measure a pattern of pixels included in a region distant from the center of gravity by a predetermined distance in a predetermined direction. The pattern of pixels may include an aspect in which a plurality of pixels are scattered.

예를 들어, 판단부(110)는 무게 중심으로부터 y축 좌표의 값이 증가하는 방향으로 특정 거리 이상 떨어진 제3 영역(430)을 획득할 수 있다. 판단부(110)는 도 4b에서 구분된 복수의 영역들(421, 422, 423) 중 무게 중심으로부터 가장 먼 영역(423)을 선택할 수 있다.For example, the determination unit 110 may acquire a third region 430 that is separated from the center of gravity by a predetermined distance or more in the direction of increasing the y-axis coordinate value. The determination unit 110 may select the region 423 farthest from the center of gravity among the plurality of regions 421, 422, and 423 classified in FIG. 4B.

판단부(110)는 오브젝트가 공간 입력 인식 동작의 중단에 대응되는 포즈를 취했는지 여부를 판단하기 위하여, 제3 영역(430)에 포함된 픽셀들의 패턴을 측정할 수 있다.The determination unit 110 may measure the pattern of the pixels included in the third area 430 to determine whether the object has taken a pause corresponding to the interruption of the space input recognition operation.

예를 들어, 판단부(110)는 제3 영역(430)의 x축을 따라, 복수의 픽셀들 중 동일한 x좌표 값을 가지는 픽셀들의 수를 합산함으로써 도 4d의 그래프(442)를 얻을 수 있다.For example, the determination unit 110 may obtain the graph 442 of FIG. 4D by summing the number of pixels having the same x-coordinate value among a plurality of pixels along the x-axis of the third region 430.

도 4d를 참조하면, 도 4d의 그래프(442)의 x축은 도 4c의 제3 영역(430)의 x축에 대응될 수 있다. 도 4d의 그래프(442)의 y축은 제3 영역(430)에 포함된 복수의 픽셀들 중 각각의 x축의 값에 대응되는 x좌표를 갖는 픽셀들의 수를 나타낼 수 있다.Referring to FIG. 4D, the x-axis of the graph 442 of FIG. 4D may correspond to the x-axis of the third region 430 of FIG. 4C. The y-axis of the graph 442 in FIG. 4D may represent the number of pixels having the x-coordinate corresponding to the value of each x-axis among the plurality of pixels included in the third area 430.

판단부(110)는 미리 정해진 중단 포즈 문턱값(441)과 그래프(442)를 비교함으로써, 오브젝트가 공간 입력 인식 동작의 중단에 대응되는 포즈를 취했는지 여부를 판단할 수 있다.The determination unit 110 can determine whether or not the object has taken a pause corresponding to the interruption of the space input recognition operation by comparing the predetermined stoppage threshold value 441 with the graph 442. [

예를 들어, 그래프(442)는 x좌표의 값이 증가함에 따라 y좌표의 값이 중단 포즈 문턱값(441)보다 커졌다 작아지는 양상을 반복적으로 갖는다. 판단부(110)는 이러한 양상의 수를 카운트할 수 있다. 판단부(110)는 그 합계가 미리 정해진 수(예를 들어, 3) 이상인 경우 오브젝트가 다섯 손가락을 펴는 포즈를 취하였다고 판단할 수 있다.For example, the graph 442 repeatedly has an aspect in which the value of the y coordinate becomes larger and smaller than the stop pause threshold value 441 as the value of the x coordinate increases. The determination unit 110 may count the number of such aspects. The determination unit 110 may determine that the object has taken a pose that stretches five fingers when the sum is equal to or greater than a predetermined number (e.g., 3).

또는, 판단부(110)는 그래프(442)에 포함된 복수의 피크(peak)들 중 중단 포즈 문턱값(441)보다 큰 피크들의 개수를 카운트할 수 있다. 판단부(110)는 그 합계가 미리 정해진 수(예를 들어, 3) 이상인 경우 오브젝트가 다섯 손가락을 펴는 포즈를 취하였다고 판단할 수 있다.Alternatively, the determination unit 110 may count the number of peaks larger than the stop pause threshold value 441 among a plurality of peaks included in the graph 442. The determination unit 110 may determine that the object has taken a pose that stretches five fingers when the sum is equal to or greater than a predetermined number (e.g., 3).

도면에 도시하지 않았으나, 다른 실시예에 따른 판단부(110)는 이벤트 신호에 포함된 복수의 픽셀들에 라인 필터(line filter) 기법을 적용함으로써, 오브젝트가 공간 입력 인식 동작의 중단에 대응되는 포즈를 취했는지 여부를 판단할 수 있다.Although not shown in the drawing, the determination unit 110 according to another embodiment applies a line filter technique to a plurality of pixels included in an event signal, It is possible to judge whether or not the user has taken it.

판단부(110)는 다양한 라인 필터 기법을 적용할 수 있다. 예를 들어, 판단부(110)는 오리엔테이션 필터(orientation filter), 허프 필터(Hough filter), 가버 필터(Gabor), 또는 템플레이트 매칭 필터(template matching filter)를 이용할 수 있다.The determination unit 110 may apply various line filter techniques. For example, the determination unit 110 may use an orientation filter, a Hough filter, a Gabor filter, or a template matching filter.

보다 구체적으로, 판단부(110)는 이벤트 신호에 포함된 복수의 픽셀들에 라인 필터 기법을 적용함으로써, 복수의 픽셀들에 포함된 수평 성분(horizontal component)을 배제시키고 수직 성분(vertical component)들을 추출할 수 있다.More specifically, the determination unit 110 applies a line filter technique to a plurality of pixels included in an event signal to exclude a horizontal component included in a plurality of pixels and to extract vertical components Can be extracted.

판단부(110)는 추출된 수직 성분을 이용하여 픽셀들의 패턴을 측정할 수 있다. 예를 들어, 판단부(110)는 추출된 수직 성분을 포함하는 영역의 x축을 따라, 추출된 수직 성분에 포함된 픽셀들 중 동일한 x좌표 값을 가지는 픽셀들의 수를 합산함으로써, 추출된 수직 성분에 포함된 픽셀들의 패턴을 측정할 수 있다.The determination unit 110 may measure a pattern of pixels using the extracted vertical component. For example, the determination unit 110 may calculate the vertical component of the extracted vertical component by summing the number of pixels having the same x-coordinate value among the pixels included in the extracted vertical component along the x- Lt; RTI ID = 0.0 > a < / RTI >

이 경우, 판단부(110)는 도 4d의 그래프(442)에 비하여 더 샤프(sharp)한 그래프를 얻을 수 있고, 이로 인하여 판단부(110)는 오브젝트에 의하여 입력된 포즈를 더 정확하게 인식할 수 있다.
In this case, the determination unit 110 can obtain a more sharp graph compared to the graph 442 in FIG. 4D, whereby the determination unit 110 can more accurately recognize the pose input by the object have.

도 5는 일 실시예에 따른 오브젝트의 움직임을 트래킹하는 사용자 입력 처리 방법을 나타낸 동작 흐름도이다.5 is a flowchart illustrating a method of processing a user input for tracking movement of an object according to an exemplary embodiment of the present invention.

도 5를 참조하면, 일 실시예에 따른 사용자 입력 처리 방법은 미리 정해진 공간에서 오브젝트를 이용한 입력을 인식할 수 있다.Referring to FIG. 5, a user input processing method according to an embodiment can recognize an input using an object in a predetermined space.

사용자 입력 처리 방법은 단계 510에서 오브젝트의 움직임이 감지되는 이벤트 신호를 획득할 수 있다. 사용자 입력 처리 방법은 단계 530에서 이벤트 신호에 포함된 복수의 픽셀들의 무게 중심을 계산하고, 단계 540에서 복수의 픽셀들에 포함된 도미넌트 라인을 추출할 수 있다.The user input processing method may acquire an event signal in which the movement of the object is sensed at step 510. The user input processing method may calculate the center of gravity of the plurality of pixels included in the event signal in operation 530 and extract a dominant line included in the plurality of pixels in operation 540.

사용자 입력 처리 방법은 단계 550에서 무게 중심 및 도미넌트 라인에 기초하여 오브젝트의 팁을 인식할 수 있다.The user input processing method can recognize the tip of the object based on the center of gravity and the dominant line in step 550. [

단계 510, 단계 530, 단계 540, 단계 550 각각에는 도 1 내지 도 4d를 통하여 기술된 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.Steps 510, 530, 540, and 550 may be applied to each of the items described with reference to FIGS. 1 through 4D, so that a detailed description thereof will be omitted.

다른 실시예에 따른 사용자 입력 처리 방법은 단계 520에서 이벤트 신호에 포함된 노이즈로 인한 오류를 감소시키기 위하여 양자화 기법을 적용할 수 있다.The user input processing method according to another embodiment may apply the quantization technique in order to reduce errors due to the noise included in the event signal in step 520. [

예를 들어, 사용자 입력 처리 방법은 이벤트 신호에 포함된 복수의 픽셀들을 복수의 블록들로 분류할 수 있다. 사용자 입력 처리 방법은 복수의 픽셀들의 위치에 따라 N * M 차원의 매트릭스 블록들로 분류할 수 있다. 여기서, N과 M은 양의 정수로, 미리 정해질 수 있다.For example, the user input processing method may classify a plurality of pixels included in an event signal into a plurality of blocks. The user input processing method can be classified into N * M-dimensional matrix blocks according to the positions of a plurality of pixels. Here, N and M are positive integers and can be predetermined.

사용자 입력 처리 방법은 복수의 블록들 중 미리 정해진 임계치 이상의 픽셀들을 포함하는 블록들을 선택할 수 있다. 사용자 입력 처리 방법은 미리 정해진 임계치보다 적은 수의 픽셀들을 포함하는 블록들은 유의미한 정보가 아닌 노이즈만을 포함한다고 판단할 수 있다.The user input processing method can select blocks including pixels of a predetermined threshold or more among a plurality of blocks. The user input processing method can determine that blocks including pixels having a number smaller than a predetermined threshold value include only noise, which is not meaningful information.

사용자 입력 처리 방법은 선택된 블록들에 포함된 픽셀들을 획득하고, 획득된 픽셀들을 이용하여 단계 530, 단계 540, 및 이후 단계들을 수행할 수 있다.The user input processing method may obtain the pixels included in the selected blocks and perform steps 530, 540, and subsequent steps using the obtained pixels.

또 다른 실시예에 따른 사용자 입력 처리 방법은 단계 560에서 오브젝트의 팁을 트랙킹할 수 있다. 사용자 입력 처리 방법은 단계 510 내지 단계 550을 통하여 인식된 오브젝트의 팁을 미리 구비된 메모리에 저장하고, 다음 번 이벤트 신호에 따라 새로이 인식되는 오브젝트의 팁의 위치가 저장된 팁의 위치에 비하여 변경된 궤적 등을 추적할 수 있다.A user input processing method according to yet another embodiment may track a tip of an object in step 560. The user input processing method stores the tip of the recognized object through steps 510 to 550 and stores the tip of the newly recognized object according to the next event signal in the changed locus . ≪ / RTI >

도면에 도시하지 않았으나, 또 다른 실시예에 따른 사용자 입력 처리 방법은 단계 550 및 단계 560 사이에 오브젝트의 팁이 이동되는 양상이 부드러워지도록 필터링 기법을 적용할 수 있다. 예를 들어, 사용자 입력 처리 방법은 칼만 필터(Kalman filter) 등을 활용할 수 있다.
Although not shown in the drawing, in the user input processing method according to another embodiment, the filtering technique may be applied so that the aspect of moving the tip of the object is smooth between steps 550 and 560. For example, the user input processing method can utilize a Kalman filter or the like.

도 6은 일 실시예에 따른 선택 입력을 인식하는 사용자 입력 처리 방법을 나타낸 동작 흐름도이다.6 is a flowchart illustrating a method of processing a user input for recognizing a selection input according to an exemplary embodiment of the present invention.

도 6을 참조하면, 일 실시예에 따른 사용자 입력 처리 방법은 단계 610에서 오브젝트의 움직임에 따른 이벤트 신호를 획득할 수 있다. 사용자 입력 처리 방법은 단계 630에서 이벤트 신호에 포함된 복수의 픽셀들의 산포를 계산할 수 있다. 사용자 입력 처리 방법은 단계 640에서 복수의 픽셀들의 산포에 기초하여 선택 입력을 처리하는 모드로 전환할 수 있다. 사용자 입력 처리 방법은 선택 입력을 처리하는 모드에서 클릭 동작을 위한 신호를 생성할 수 있다.Referring to FIG. 6, in step 610, a user input processing method according to an exemplary embodiment may acquire an event signal according to an object motion. The user input processing method may calculate the scatter of the plurality of pixels included in the event signal in step 630. [ The user input processing method may switch to a mode of processing the selection input based on the scattering of the plurality of pixels in step 640. [ The user input processing method can generate a signal for a click operation in a mode for processing a selection input.

또한, 다른 실시예에 따른 사용자 입력 처리 방법은 단계 620에서 이벤트 신호에 포함된 노이즈로 인한 오류를 감소시키기 위하여 양자화 기법을 적용할 수 있다.In addition, the user input processing method according to another embodiment may apply the quantization technique in order to reduce errors due to noise included in the event signal in step 620.

도 6에 도시된 각 단계들에는 도 1 내지 도 5를 통하여 기술된 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
The steps described in FIG. 1 through FIG. 5 may be applied to each step shown in FIG. 6, so that a detailed description will be omitted.

도 7a 내지 도 7d는 다른 실시예에 따른 오브젝트의 팁을 인식하는 기법을 설명하기 위한 도면이다.7A to 7D are diagrams for explaining a technique of recognizing a tip of an object according to another embodiment.

도 7a를 참조하면, 일 실시예에 따른 사용자 입력 처리 장치는 이벤트 신호에 포함된 복수의 픽셀들(710)을 미리 정해진 수의 섹션들(720)로 분할할 수 있다. 예를 들어, 미리 정해진 수의 섹션들(720)은 4 x 4 매트릭스 형태를 가질 수 있다.Referring to FIG. 7A, a user input processing apparatus according to an embodiment may divide a plurality of pixels 710 included in an event signal into a predetermined number of sections 720. For example, a predetermined number of sections 720 may have the form of a 4 x 4 matrix.

도 7b를 참조하면, 일 실시예에 따른 사용자 입력 처리 장치는 미리 정해진 수의 섹션들(720)의 특징 벡터들을 계산할 수 있다. 미리 정해진 수의 섹션들(720) 중 어느 하나의 섹션의 특징 벡터는 해당 섹션에 포함된 픽셀들의 오리엔테이션 벡터들에 기초하여 계산될 수 있다.Referring to FIG. 7B, a user input processing apparatus according to an embodiment may calculate feature vectors of a predetermined number of sections 720. FIG. The feature vector of any one of the predetermined number of sections 720 can be calculated based on the orientation vectors of the pixels included in the corresponding section.

하나의 픽셀의 오리엔테이션 벡터는 해당 픽셀의 주변 픽셀들을 이용하여 계산될 수 있다. 오리엔테이션 벡터를 계산하기 위하여 x축 변화량(variation) 및 y축 변화량이 계산될 수 있다. 예를 들어, 하나의 픽셀의 주변에 위치하는 8개의 주변 픽셀들을 이용하는 경우를 가정하면, 오른쪽 픽셀, 오른쪽 위 픽셀, 오른쪽 아래 픽셀에서 각각 이벤트가 감지된 경우 x축 변화량을 증가시킬 수 있다. 또한, 왼쪽 픽셀, 왼쪽 위 픽셀, 왼쪽 아래 픽셀에서 각각 이벤트가 감지된 경우 x축 변화량을 감소시킬 수 있다. 또한, 위 픽셀, 왼쪽 위 픽셀, 오른쪽 위 픽셀에서 각각 이벤트가 감지된 경우 y축 변화량을 증가시킬 수 있다. 또한, 아래 픽셀, 왼쪽 아래 픽셀, 오른쪽 아래 픽셀에서 각각 이벤트가 감지된 경우 y축 변화량을 감소시킬 수 있다.The orientation vector of one pixel can be calculated using the surrounding pixels of the corresponding pixel. The x-axis variation and the y-axis variation can be calculated to calculate the orientation vector. For example, assuming that eight neighboring pixels located in the periphery of one pixel are used, the x-axis change amount can be increased when an event is detected in the right pixel, the upper right pixel, and the lower right pixel, respectively. Also, when the event is detected in the left pixel, the upper left pixel, and the lower left pixel, the amount of x-axis change can be reduced. In addition, the y-axis change amount can be increased when an event is detected in the upper pixel, the upper left pixel, and the upper right pixel, respectively. In addition, the y-axis change amount can be reduced when an event is detected in the lower pixel, the lower left pixel, and the lower right pixel, respectively.

오리엔테이션 벡터의 크기는 {(x축 변화량)2 + (y축 변화량)2}0.5로 계산될 수 있다. 오리엔테이션 벡터의 방향은 arctan{(y축 변화량) / (x축 변화량)}으로 계산될 수 있다.The size of the orientation vector can be calculated as {(x-axis variation) 2 + (y-axis variation) 2 } 0.5 . The direction of the orientation vector can be calculated as arctan {(y-axis variation) / (x-axis variation)}.

일 예로, 사용자 입력 처리 장치는 섹션(721)의 특징 벡터(722)를 계산하기 위하여, 도 7a의 섹션(721)에 포함된 픽셀들의 오리엔테이션 벡터들을 벡터 합산할 수 있다. 이 경우, 섹션(721)의 특징 벡터(722)는 도 7a의 섹션(721)에 포함된 픽셀들의 오리엔테이션 벡터들을 벡터 합산된 결과일 수 있다.In one example, the user input processing device may vector the orientation vectors of the pixels included in the section 721 of Fig. 7A to calculate the feature vector 722 of the section 721. [ In this case, the feature vector 722 of the section 721 may be the result of vector summing the orientation vectors of the pixels included in the section 721 of FIG. 7A.

다른 예로, 사용자 입력 처리 장치는 섹션(721)의 특징 벡터(722)를 계산하기 위하여, 도 7a의 섹션(721)에 포함된 픽셀들의 오리엔테이션 벡터들 중 가장 도미넌트(dominant)한 벡터를 추출할 수 있다. 가장 도미넌트한 벡터는 해당 섹션에 포함된 복수의 오리엔테이션 벡터들 중 가장 큰 비중을 차지하는 오리엔테이션 벡터이다. 예를 들어, 가장 도미넌트한 벡터는 해당 섹션에 포함된 복수의 오리엔테이션 벡터들 중 가장 많은 수의 오리엔테이션 벡터일 수 있다. 이 경우, 섹션(721)의 특징 벡터(722)는 도 7a의 섹션(721)에 포함된 픽셀들의 오리엔테이션 벡터들 중에서 추출된 가장 도미넌트한 벡터일 수 있다.As another example, the user input processing device may extract the most dominant vector of the orientation vectors of the pixels included in the section 721 of Fig. 7A to calculate the feature vector 722 of the section 721 have. The most dominant vector is the orientation vector which occupies the largest weight among the plurality of orientation vectors included in the section. For example, the most dominant vector may be the largest number of orientation vectors among the plurality of orientation vectors included in the section. In this case, the feature vector 722 of the section 721 may be the most dominant vector extracted from the orientation vectors of the pixels included in the section 721 of FIG. 7A.

사용자 입력 처리 장치는 오리엔테이션 벡터들의 방향을 미리 정해진 수의 양자화 방향들(quantization directions) 중 어느 하나로 양자화(quantization)할 수 있다. 예를 들어, 사용자 입력 처리 장치는 0도 내지 180도를 4등분함으로써, 오리엔테이션 벡터들의 방향을 0도, 45도, 90도, 및 135도 중 어느 하나로 양자화할 수 있다.The user input processing device may quantize the orientation vectors to one of a predetermined number of quantization directions. For example, the user input processing apparatus can quantize the orientation vectors in one of 0 degrees, 45 degrees, 90 degrees, and 135 degrees by dividing 0 to 180 degrees into four equal parts.

사용자 입력 처리 장치는 양자화된 오리엔테이션 벡터들의 방향에 기초하여 섹션들의 특징 벡터들을 계산할 수 있다. 예를 들어, 사용자 입력 처리 장치는 섹션(721)의 특징 벡터(722)를 계산하기 위하여, 도 7a의 섹션(721)에 포함된 픽셀들 중 양자화 방향들 각각에 대응하는 픽셀의 수를 카운트할 수 있다. 카운트 결과, 0도로 양자화된 픽셀들이 1개, 45도로 양자화된 픽셀들이 4개, 135도로 양자화된 픽셀들이 5개, 90도로 양자화된 픽셀들이 30개일 수 있다. The user input processing device can calculate the feature vectors of the sections based on the direction of the quantized orientation vectors. For example, the user input processing apparatus counts the number of pixels corresponding to each of the quantization directions among the pixels included in the section 721 of Fig. 7A to calculate the feature vector 722 of the section 721 . As a result of counting, one pixel may be zero-quantized pixels, four pixels may be quantized at 45 degrees, five pixels may be 135-degree quantized pixels, and 30 pixels may be quantized at 90 degrees.

이 경우, 사용자 입력 처리 장치는 양자화 방향들 각각에 대응하는 오리엔테이션 벡터의 크기를 포함하는 특징 벡터를 생성할 수 있다. 일 예로, 어느 하나의 양자화 방향에 대응하는 오리엔테이션 벡터의 크기는 해당 양자화 방향에 대응하여 카운트된 픽셀의 수로 계산될 수 있다. 이 경우, 섹션(721)의 특징 벡터(722)는 (1, 4, 5, 30)으로 계산될 수 있다. 여기서, (1, 4, 5, 30)은 0도, 45도, 90도, 135도로 양자화된 픽셀들의 수를 순서대로 포함하는 벡터이다. 다른 예로, 어느 하나의 양자화 방향에 대응하는 오리엔테이션 벡터의 크기는 해당 양자화 방향에 대응하여 카운트된 픽셀의 수를 섹션에 포함된 픽셀의 총 수로 나눔으로써 계산될 수 있다. 이 경우, 섹션(721)의 특징 벡터(722)는 (1/40, 4/40, 5/40, 30/40)으로 계산될 수 있다. 여기서, (1/40, 4/40, 5/40, 30/40)은 0도, 45도, 90도, 135도로 양자화된 픽셀들의 수를 섹션에 포함된 픽셀의 총 수로 나눈 결과를 순서대로 포함하는 벡터이다.In this case, the user input processing apparatus may generate a feature vector including the magnitude of the orientation vector corresponding to each of the quantization directions. For example, the size of the orientation vector corresponding to one quantization direction can be calculated by the number of pixels counted corresponding to the quantization direction. In this case, the feature vector 722 of the section 721 can be calculated as (1, 4, 5, 30). Here, (1, 4, 5, 30) is a vector including the number of pixels quantized in 0 degree, 45 degree, 90 degree, 135 degree in order. As another example, the size of the orientation vector corresponding to any one quantization direction can be calculated by dividing the number of pixels counted corresponding to the quantization direction by the total number of pixels included in the section. In this case, the feature vector 722 of the section 721 can be calculated as (1/40, 4/40, 5/40, 30/40). Here, (1/40, 4/40, 5/40, 30/40) denotes the result obtained by dividing the number of pixels quantized at 0 degree, 45 degree, 90 degree, 135 degree by the total number of pixels included in the section It is a vector containing.

사용자 입력 처리 장치는 카운트 결과에 기초하여 가장 도미넌트한 오리엔테이션 벡터를 선택할 수 있다. 사용자 입력 처리 장치는 양자화 방향들 중 카운트된 픽셀의 수가 가장 큰 양자화 방향에 대응하는 오리엔테이션 벡터를 선택할 수 있다. 이 경우, 섹션(721)의 특징 벡터(722)는 90도에 대응하는 오리엔테이션 벡터일 수 있다.The user input processing device can select the most dominant orientation vector based on the count result. The user input processing apparatus can select the orientation vector corresponding to the quantization direction having the largest number of counted pixels among the quantization directions. In this case, the feature vector 722 of section 721 may be an orientation vector corresponding to 90 degrees.

도 7c를 참조하면, 일 실시예에 따른 사용자 입력 처리 장치는 특징 벡터들(730)에 기초하여 오브젝트의 팁(760)을 인식할 수 있다. 사용자 입력 처리 장치는 학습된 파라미터(740) 및 특징 벡터들(730)을 분류기(750)에 입력함으로써, 미리 정해진 수의 섹션들 중 오브젝트의 팁에 해당하는 섹션(761)을 획득할 수 있다.Referring to FIG. 7C, the user input processing apparatus according to an embodiment can recognize the tip 760 of the object based on the feature vectors 730. FIG. The user input processing device can obtain the section 761 corresponding to the tip of the object among the predetermined number of sections by inputting the learned parameter 740 and the feature vectors 730 to the classifier 750. [

분류기(750)에 이용되는 분류 알고리즘(classification algorithm)은 서포트 벡터 머신(Support Vector Machine, SVM), k-최근접 이웃 알고리즘(k nearest neighbor algorithm), 적응 공명 이론(adaptive resonance theory), 딥 뉴랄 네트워크(deep neural network), 멀티레이어 퍼셉트론(multilayer perceptron) 중 적어도 하나를 포함할 수 있다.The classification algorithm used in the classifier 750 may be a Support Vector Machine (SVM), a k nearest neighbor algorithm, an adaptive resonance theory, a deep neural network a deep neural network, and a multilayer perceptron.

도 7d를 참조하면, 일 실시예에 따른 학습된 파라미터(740)는 복수의 트레이닝 영상들(771, 772)의 특징 벡터들(773, 773) 및 복수의 트레이닝 영상들(771, 772) 내 오브젝트의 팁에 해당하는 섹션들(775, 776)에 기초하여 미리 학습될 수 있다.7D, the learned parameter 740 according to one embodiment includes feature vectors 773 and 773 of a plurality of training images 771 and 772 and an object in a plurality of training images 771 and 772 And can be learned in advance based on the sections 775 and 776 corresponding to the tip of FIG.

일 예로, 일 실시예에 따른 사용자 입력 처리 장치는 손 모양의 이미지를 인식하여 손가락 끝을 검출할 수 있다. 사용자 입력 처리 장치는 손 모양의 이미지를 인식하기 위하여 이벤트 기반 이미지 센서의 출력 화면을 복수의 섹션들로 분할할 수 있다. 사용자 입력 처리 장치는 각 섹션에 포함된 픽셀들의 오리엔테이션 벡터들을 계산할 수 있다. 사용자 입력 처리 장치는 계산된 오리엔테이션 벡터들과 손가락 끝에 해당하는 섹션을 분류 알고리즘을 이용하여 학습시킬 수 있다.For example, the user input processing apparatus according to an exemplary embodiment may detect a fingertip by recognizing a hand-shaped image. The user input processing device may divide the output screen of the event-based image sensor into a plurality of sections in order to recognize a hand-shaped image. The user input processing device can calculate the orientation vectors of the pixels included in each section. The user input processing device can learn the calculated orientation vectors and the section corresponding to the fingertip using a classification algorithm.

학습 단계에서, 사용자의 손에 해당하는 이벤트뿐 아니라 배경에 해당하는 이벤트를 함께 포함하는 트레이닝 영상이 이용될 수 있다. 이렇게 학습된 파라미터를 이용하면, 사용자 입력 처리 장치는 노이즈로 작용하는 배경의 움직임에도 로우버스터(robust)하게 손가락 끝을 검출할 수 있다. 예를 들어, 모바일 기기에 장착된 이벤트 기반 이미지 센서를 이용하는 경우, 모바일 기기 자체가 움직이면서 사용자의 손뿐만 아니라 배경도 함께 움직이는 것으로 인식될 수 있다. 사용자 입력 처리 장치는 모바일 기기 환경을 대비하여 학습된 파라미터를 이용함으로써, 모바일 기기에서 측정되는 이벤트 신호에서 사용자의 손가락 끝을 검출할 수 있다.
In the learning step, a training image including an event corresponding to the user's hand as well as an event corresponding to the background may be used. Using the learned parameters, the user input processing device can detect the finger end robustly to the background motion acting as noise. For example, when using an event-based image sensor mounted on a mobile device, it can be recognized that the mobile device itself moves as well as the user's hand as well as the background. The user input processing device can detect a user's fingertip in an event signal measured in a mobile device by using learned parameters in preparation for a mobile device environment.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (28)

오브젝트의 움직임이 감지되는 적어도 하나의 포인트를 제공하는 입력 영상을 이용하여 상기 입력 영상이 상기 움직임에 대한 트래킹을 요구하는 제1 모드 입력에 대응하는지의 여부를 판단하는 판단부; 및
상기 입력 영상이 상기 제1 모드 입력에 대응하는 경우, 상기 움직임을 트래킹하는 처리부
를 포함하는 사용자 입력 처리 장치.
A determination unit for determining whether the input image corresponds to a first mode input requesting tracking of the motion using an input image providing at least one point at which motion of the object is sensed; And
And when the input image corresponds to the first mode input,
To the user input device.
제1항에 있어서,
상기 입력 영상은 상기 오브젝트를 촬영하는 동적 비전 센서의 출력 영상인 사용자 입력 처리 장치.
The method according to claim 1,
Wherein the input image is an output image of a dynamic vision sensor that captures the object.
제1항에 있어서,
상기 판단부는
상기 적어도 하나의 포인트의 산포를 임계치와 비교하여 상기 산포가 상기 임계치 이상인 경우 상기 입력 영상이 상기 제1 모드 입력에 대응하는 것으로 판단하는 사용자 입력 처리 장치.
The method according to claim 1,
The determination unit
Comparing the scatter of the at least one point with a threshold value and determining that the input image corresponds to the first mode input if the scatter is greater than or equal to the threshold value.
제1항에 있어서,
상기 판단부는
상기 적어도 하나의 포인트의 산포를 임계치와 비교하여 상기 산포가 상기 임계치보다 작은 경우 상기 입력 영상이 선택 입력을 지시하는 제2 모드 입력에 대응하는 것으로 판단하는 사용자 입력 처리 장치.
The method according to claim 1,
The determination unit
Compares the scatter of the at least one point with a threshold value and determines that the input image corresponds to a second mode input indicating a selection input if the scatter is smaller than the threshold value.
제3항 또는 제4항에 있어서,
상기 판단부는
상기 적어도 하나의 포인트가 미리 정해진 방향으로 분산된 산포를 계산하는 산포 계산부
를 포함하는 사용자 입력 처리 장치.
The method according to claim 3 or 4,
The determination unit
Wherein said at least one point is a scattering calculation unit for calculating a scattering in a predetermined direction,
To the user input device.
제1항에 있어서,
상기 처리부는
상기 적어도 하나의 포인트의 무게 중심을 계산하는 무게 중심 계산부;
상기 적어도 하나의 포인트와 관련된 도미넌트 라인(dominant line)을 검출하는 라인 검출부; 및
상기 무게 중심 및 상기 도미넌트 라인에 기초하여 상기 오브젝트의 팁(tip)을 검출하는 팁 검출부
를 포함하는 사용자 입력 처리 장치.
The method according to claim 1,
The processing unit
A center of gravity calculation unit for calculating a center of gravity of the at least one point;
A line detector for detecting a dominant line associated with the at least one point; And
A tip detecting unit for detecting a tip of the object based on the center of gravity and the dominant line,
To the user input device.
제6항에 있어서,
상기 라인 검출부는
상기 적어도 하나의 포인트를 허프 변환(hough transform)함으로써 복수의 라인들을 획득하는 변환부; 및
상기 복수의 라인들에 기초하여 상기 도미넌트 라인을 획득하는 라인 획득부
를 포함하는 사용자 입력 처리 장치.
The method according to claim 6,
The line detector
A conversion unit for obtaining a plurality of lines by performing a hough transform on the at least one point; And
A line acquiring unit for acquiring the dominant line based on the plurality of lines;
To the user input device.
제6항에 있어서,
상기 팁 검출부는
상기 무게 중심을 상기 도미넌트 라인에 투영(projection)하는 투영부; 및
상기 투영된 위치로부터 미리 정해진 방향으로 상기 도미넌트 라인을 따라 상기 팁을 탐색하는 탐색부
를 포함하는 사용자 입력 처리 장치.
The method according to claim 6,
The tip detecting unit
A projection unit for projecting the center of gravity to the dominant line; And
And a search unit for searching the tip along the dominant line in a predetermined direction from the projected position,
To the user input device.
제1항에 있어서,
상기 처리부는
상기 적어도 하나의 포인트의 오리엔테이션 벡터를 계산하고, 상기 적어도 하나의 포인트를 미리 정해진 수의 섹션들로 분할하며, 상기 오리엔테이션 벡터에 기초하여 상기 섹션들의 특징 벡터들을 계산하고, 상기 특징 벡터들에 기초하여 상기 오브젝트의 팁을 인식하는, 사용자 입력 처리 장치.
The method according to claim 1,
The processing unit
Calculating an orientation vector of the at least one point, dividing the at least one point into a predetermined number of sections, calculating feature vectors of the sections based on the orientation vector, And recognizes a tip of the object.
제9항에 있어서,
상기 오리엔테이션 벡터들의 방향은 미리 정해진 수의 양자화 방향들 중 어느 하나로 양자화되는, 사용자 입력 처리 장치.
10. The method of claim 9,
The orientation of the orientation vectors being quantized in any one of a predetermined number of quantization directions.
제9항에 있어서,
상기 처리부는
미리 학습된 파라미터 및 상기 특징 벡터들을 분류기(classifier)에 입력함으로써, 상기 미리 정해진 수의 섹션들 중 상기 오브젝트의 팁에 해당하는 섹션을 획득하는, 사용자 입력 처리 장치.
10. The method of claim 9,
The processing unit
Acquires a section corresponding to a tip of the object among the predetermined number of sections by inputting a previously learned parameter and the feature vectors into a classifier.
제1항에 있어서,
상기 판단부는
상기 적어도 하나의 포인트의 패턴이 미리 정해진 포즈에 대응되는지 여부를 확인하여 상기 패턴이 상기 미리 정해진 포즈에 대응되는 경우 상기 입력 영상이 상기 트래킹의 중단을 지시하는 제3 모드 입력에 대응하는 것으로 판단하는 사용자 입력 처리 장치.
The method according to claim 1,
The determination unit
Determining whether the pattern of the at least one point corresponds to a predetermined pose and determining that the input image corresponds to a third mode input instructing to stop the tracking when the pattern corresponds to the predetermined pose User input processing device.
제12항에 있어서,
상기 판단부는
상기 적어도 하나의 포인트의 무게 중심을 계산하는 무게 중심 계산부;
상기 적어도 하나의 포인트 중 상기 무게 중심으로부터 미리 정해진 방향으로 미리 정해진 거리 이상 떨어진 영역에 포함된 포인트의 영역 패턴을 검출하는 패턴 검출부; 및
상기 영역 패턴이 상기 미리 정해진 포즈에 대응되는지 여부를 확인하는 확인부
를 포함하는 사용자 입력 처리 장치.
13. The method of claim 12,
The determination unit
A center of gravity calculation unit for calculating a center of gravity of the at least one point;
A pattern detector for detecting an area pattern of a point included in an area at least a predetermined distance away from the center of gravity of the at least one point in a predetermined direction; And
A confirmation unit for confirming whether or not the area pattern corresponds to the predetermined pose;
To the user input device.
제12항에 있어서,
상기 판단부는
상기 적어도 하나의 포인트에 라인 필터 기법을 적용함으로써, 특정 방향의 성분을 추출하는 라인 필터부;
상기 특정 방향의 성분에 기초하여 상기 적어도 하나의 포인트의 성분 패턴을 검출하는 패턴 검출부; 및
상기 성분 패턴이 상기 미리 정해진 포즈에 대응되는지 여부를 확인하는 확인부
를 포함하는 사용자 입력 처리 장치.
13. The method of claim 12,
The determination unit
A line filter unit for extracting a component in a specific direction by applying a line filter technique to the at least one point;
A pattern detector for detecting a component pattern of the at least one point based on a component in the specific direction; And
A confirmation unit for confirming whether or not the component pattern corresponds to the predetermined pose;
To the user input device.
오브젝트의 움직임이 감지되는 이벤트 신호를 획득하는 단계;
상기 이벤트 신호에 포함된 복수의 픽셀들의 무게 중심을 계산하는 단계;
상기 복수의 픽셀들에 포함된 도미넌트 라인을 추출하는 단계; 및
상기 무게 중심 및 상기 도미넌트 라인에 기초하여 상기 오브젝트의 팁을 인식하는 단계
를 포함하는 사용자 입력 처리 방법.
Obtaining an event signal in which motion of an object is sensed;
Calculating a center of gravity of a plurality of pixels included in the event signal;
Extracting a dominant line included in the plurality of pixels; And
Recognizing a tip of the object based on the center of gravity and the dominant line
Lt; / RTI >
제15항에 있어서,
상기 이벤트 신호를 획득하는 단계는
상기 복수의 픽셀들을 복수의 블록들로 분류하는 단계;
상기 복수의 블록들 중 미리 정해진 수 이상의 픽셀들을 포함하는 블록들을 선택하는 단계; 및
상기 선택된 블록들에 포함된 픽셀들을 획득하는 단계
를 포함하는 사용자 입력 처리 방법.
16. The method of claim 15,
The step of acquiring the event signal
Classifying the plurality of pixels into a plurality of blocks;
Selecting blocks comprising a predetermined number or more of the plurality of blocks; And
Acquiring pixels included in the selected blocks
Lt; / RTI >
제15항에 있어서,
상기 이벤트 신호에 포함된 복수의 픽셀들의 산포를 계산하는 단계;
상기 산포를 임계치와 비교하는 단계; 및
상기 산포가 상기 임계치보다 작은 경우 선택 입력을 처리하는 모드로 전환하는 단계
를 더 포함하는 사용자 입력 처리 방법.
16. The method of claim 15,
Calculating a disparity of a plurality of pixels included in the event signal;
Comparing the scatter to a threshold; And
And switching to a mode for processing a selection input when the scattering is smaller than the threshold value
Further comprising the steps of:
제15항에 있어서,
상기 복수의 픽셀들의 패턴이 트래킹 모드의 중단에 대응되는 미리 정해진 포즈에 대응되는지 여부를 판단하는 단계; 및
상기 판단 결과에 따라 중단 모드로 전환하는 단계
를 더 포함하는 사용자 입력 처리 방법.
16. The method of claim 15,
Determining whether a pattern of the plurality of pixels corresponds to a predetermined pause corresponding to an interruption of the tracking mode; And
Switching to an interruption mode according to the determination result
Further comprising the steps of:
오브젝트의 움직임이 감지되는 이벤트 신호를 획득하는 단계;
상기 이벤트 신호에 포함된 복수의 픽셀들을 미리 정해진 수의 섹션들로 분할하는 단계;
상기 복수의 픽셀들의 오리엔테이션 벡터들을 계산하는 단계;
상기 오리엔테이션 벡터들에 기초하여 상기 섹션들의 특징 벡터들을 계산하는 단계; 및
상기 특징 벡터들에 기초하여 상기 오브젝트의 팁을 인식하는 단계
를 포함하는 사용자 입력 처리 방법.
Obtaining an event signal in which motion of an object is sensed;
Dividing a plurality of pixels included in the event signal into a predetermined number of sections;
Calculating orientation vectors of the plurality of pixels;
Calculating feature vectors of the sections based on the orientation vectors; And
Recognizing a tip of the object based on the feature vectors
Lt; / RTI >
제19항에 있어서,
상기 오리엔테이션 벡터들을 계산하는 단계는
상기 오리엔테이션 벡터들의 방향을 미리 정해진 수의 양자화 방향들 중 어느 하나로 양자화하는 단계
를 포함하는, 사용자 입력 처리 방법.
20. The method of claim 19,
The step of calculating the orientation vectors
Quantizing the orientation of the orientation vectors into one of a predetermined number of quantization directions
Gt; user input < / RTI >
제19항에 있어서,
상기 특징 벡터들을 계산하는 단계는
상기 복수의 섹션들 각각에 포함된 픽셀들의 오리엔테이션 벡터들의 벡터 합을 계산하는 단계; 및
상기 벡터 합에 기초하여 상기 복수의 섹션들 각각의 특징 벡터를 생성하는 단계
를 포함하는, 사용자 입력 처리 방법.
20. The method of claim 19,
The step of calculating the feature vectors
Calculating a vector sum of orientation vectors of pixels contained in each of the plurality of sections; And
Generating a feature vector of each of the plurality of sections based on the vector sum
Gt; user input < / RTI >
제19항에 있어서,
상기 오리엔테이션 벡터들의 방향이 미리 정해진 수의 양자화 방향들 중 어느 하나로 양자화되는 경우,
상기 특징 벡터들을 계산하는 단계는
상기 복수의 섹션들 각각에 포함된 픽셀들 중 상기 양자화 방향들 각각에 대응하는 픽셀의 수를 카운트하는 단계; 및
상기 양자화 방향들 각각에 대응하여 카운트된 픽셀의 수에 기초하여 상기 복수의 섹션들 각각의 특징 벡터를 생성하는 단계
를 포함하는, 사용자 입력 처리 방법.
20. The method of claim 19,
If the direction of the orientation vectors is quantized to any one of a predetermined number of quantization directions,
The step of calculating the feature vectors
Counting the number of pixels corresponding to each of the quantization directions among the pixels included in each of the plurality of sections; And
Generating a feature vector of each of the plurality of sections based on the number of pixels counted corresponding to each of the quantization directions
Gt; user input < / RTI >
제19항에 있어서,
상기 복수의 섹션들 각각의 특징 벡터는
상기 양자화 방향들에 대응하는 원소들을 포함하고, 상기 원소들 각각은 상기 양자화 방향들 각각에 대응하여 카운트된 픽셀의 수에 기초하여 생성되는, 사용자 입력 처리 방법.
20. The method of claim 19,
The feature vector of each of the plurality of sections is
Wherein each of the elements is generated based on a number of pixels counted corresponding to each of the quantization directions.
제19항에 있어서,
상기 복수의 섹션들 각각의 특징 벡터는
상기 양자화 방향들 중 카운트된 픽셀의 수가 가장 큰 양자화 방향에 대응하는 오리엔테이션 벡터에 기초하여 생성되는, 사용자 입력 처리 방법.
20. The method of claim 19,
The feature vector of each of the plurality of sections is
Wherein the number of pixels counted among the quantization directions is generated based on an orientation vector corresponding to a largest quantization direction.
제19항에 있어서,
상기 특징 벡터들을 계산하는 단계는
상기 복수의 섹션들 각각에 포함된 픽셀들의 오리엔테이션 벡터들 중 가장 도미넌트(dominant)한 벡터를 추출하는 단계; 및
상기 가장 도미넌트한 벡터에 기초하여 상기 복수의 섹션들 각각의 특징 벡터를 생성하는 단계
를 포함하는, 사용자 입력 처리 방법.
20. The method of claim 19,
The step of calculating the feature vectors
Extracting a dominant vector among orientation vectors of pixels included in each of the plurality of sections; And
Generating a feature vector of each of the plurality of sections based on the most dominant vector
Gt; user input < / RTI >
제19항에 있어서,
상기 오브젝트의 팁을 인식하는 단계는
학습된 파라미터 및 상기 특징 벡터들을 분류기(classifier)에 입력함으로써, 상기 미리 정해진 수의 섹션들 중 상기 오브젝트의 팁에 해당하는 섹션을 획득하는 단계
를 포함하는, 사용자 입력 처리 방법.
20. The method of claim 19,
The step of recognizing the tip of the object
Acquiring a section corresponding to a tip of the object among the predetermined number of sections by inputting the learned parameter and the feature vectors into a classifier
Gt; user input < / RTI >
제19항에 있어서,
상기 학습된 파라미터는
복수의 트레이닝 영상들의 특징 벡터들 및 상기 복수의 트레이닝 영상들 내 오브젝트의 팁에 해당하는 섹션들에 기초하여 미리 학습된, 사용자 입력 처리 방법.
20. The method of claim 19,
The learned parameter
And learning is performed in advance based on the feature vectors of the plurality of training images and the sections corresponding to the tips of the objects in the plurality of training images.
제15항 내지 제27항 중에서 어느 하나의 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program for executing the method according to any one of claims 15 to 27.
KR1020140051391A 2013-05-29 2014-04-29 Apparatus and method for processing an user input using movement of an object KR102227494B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/285,156 US9696812B2 (en) 2013-05-29 2014-05-22 Apparatus and method for processing user input using motion of object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20130060970 2013-05-29
KR1020130060970 2013-05-29

Publications (2)

Publication Number Publication Date
KR20140140482A true KR20140140482A (en) 2014-12-09
KR102227494B1 KR102227494B1 (en) 2021-03-15

Family

ID=52458340

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140051391A KR102227494B1 (en) 2013-05-29 2014-04-29 Apparatus and method for processing an user input using movement of an object

Country Status (1)

Country Link
KR (1) KR102227494B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160087738A (en) * 2015-01-14 2016-07-22 삼성전자주식회사 Method and apparatus of detecting object using event-based sensor
KR20160088224A (en) * 2015-01-15 2016-07-25 삼성전자주식회사 Method for recognizing an object and apparatus thereof
US11294452B2 (en) 2018-12-03 2022-04-05 Samsung Electronics Co., Ltd. Electronic device and method for providing content based on the motion of the user

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040189720A1 (en) * 2003-03-25 2004-09-30 Wilson Andrew D. Architecture for controlling a computer using hand gestures
US20080211779A1 (en) * 1994-08-15 2008-09-04 Pryor Timothy R Control systems employing novel physical controls and touch screens
US20100054603A1 (en) * 2006-12-18 2010-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device, method and computer program for detecting characters in an image
US20120035934A1 (en) * 2010-08-06 2012-02-09 Dynavox Systems Llc Speech generation device with a projected display and optical inputs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080211779A1 (en) * 1994-08-15 2008-09-04 Pryor Timothy R Control systems employing novel physical controls and touch screens
US20040189720A1 (en) * 2003-03-25 2004-09-30 Wilson Andrew D. Architecture for controlling a computer using hand gestures
US20100054603A1 (en) * 2006-12-18 2010-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device, method and computer program for detecting characters in an image
US20120035934A1 (en) * 2010-08-06 2012-02-09 Dynavox Systems Llc Speech generation device with a projected display and optical inputs

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160087738A (en) * 2015-01-14 2016-07-22 삼성전자주식회사 Method and apparatus of detecting object using event-based sensor
KR20160088224A (en) * 2015-01-15 2016-07-25 삼성전자주식회사 Method for recognizing an object and apparatus thereof
US11294452B2 (en) 2018-12-03 2022-04-05 Samsung Electronics Co., Ltd. Electronic device and method for providing content based on the motion of the user

Also Published As

Publication number Publication date
KR102227494B1 (en) 2021-03-15

Similar Documents

Publication Publication Date Title
US10019074B2 (en) Touchless input
US9696812B2 (en) Apparatus and method for processing user input using motion of object
EP2891950B1 (en) Human-to-computer natural three-dimensional hand gesture based navigation method
US10242255B2 (en) Gesture recognition system using depth perceptive sensors
US10664983B2 (en) Method for providing virtual reality interface by analyzing image acquired by single camera and apparatus for the same
KR102110811B1 (en) System and method for human computer interaction
KR102347248B1 (en) Method and apparatus for recognizing touch gesture
KR102203810B1 (en) User interfacing apparatus and method using an event corresponding a user input
TWI431538B (en) Image based motion gesture recognition method and system thereof
CN104850219A (en) Equipment and method for estimating posture of human body attached with object
Xu et al. A novel feature extracting method for dynamic gesture recognition based on support vector machine
KR102227494B1 (en) Apparatus and method for processing an user input using movement of an object
US8749488B2 (en) Apparatus and method for providing contactless graphic user interface
JP2017033556A (en) Image processing method and electronic apparatus
Schlattmann et al. Markerless 4 gestures 6 DOF real‐time visual tracking of the human hand with automatic initialization
Jain et al. Gestarlite: An on-device pointing finger based gestural interface for smartphones and video see-through head-mounts
KR101909326B1 (en) User interface control method and system using triangular mesh model according to the change in facial motion
Vo et al. Automatic hand gesture segmentation for recognition of Vietnamese sign language
KR101558094B1 (en) Multi-modal system using for intuitive hand motion and control method thereof
WO2021075103A1 (en) Information processing device, information processing method, and program
Zhang et al. A Non-parametric RDP Algorithm Based on Leap Motion
KR20130097293A (en) Method for recognizing real-time moition using direction and position information and computer-readable medium having thereon program performing function embodying the same
JP7485217B2 (en) Classification device, classification method, and program
Verma et al. 7 Machine vision for human–machine interaction using hand gesture recognition
Asgarov Check for updates 3D-CNNs-Based Touchless Human-Machine Interface

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant