KR100864288B1 - Mouse for sensing moving of subject and Method thereof - Google Patents

Mouse for sensing moving of subject and Method thereof Download PDF

Info

Publication number
KR100864288B1
KR100864288B1 KR1020060138427A KR20060138427A KR100864288B1 KR 100864288 B1 KR100864288 B1 KR 100864288B1 KR 1020060138427 A KR1020060138427 A KR 1020060138427A KR 20060138427 A KR20060138427 A KR 20060138427A KR 100864288 B1 KR100864288 B1 KR 100864288B1
Authority
KR
South Korea
Prior art keywords
subject
image data
size information
information
unit
Prior art date
Application number
KR1020060138427A
Other languages
Korean (ko)
Other versions
KR20080062510A (en
Inventor
이병민
Original Assignee
엠텍비젼 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엠텍비젼 주식회사 filed Critical 엠텍비젼 주식회사
Priority to KR1020060138427A priority Critical patent/KR100864288B1/en
Publication of KR20080062510A publication Critical patent/KR20080062510A/en
Application granted granted Critical
Publication of KR100864288B1 publication Critical patent/KR100864288B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks

Abstract

본 발명은 피사체 움직임 감지 마우스 및 방법에 관한 것으로 특히 촬상부를 이용하여 피사체의 움직임을 감지하는 마우스 및 그 방법에 관한 것이다. 본 발명의 실시예에 따르면, 피사체를 촬상하는 촬상부; 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부; 피사체영상데이터를 분석하여 피사체가 촬상된 피사체이미지의 제m 중심점을 산출하는 중심점 판단부; 및 제m 중심점에 상응하는 위치에 포인터를 위치시키기 위한 포인터이동명령을 생성하여 출력하는 포인터 위치 설정부를 포함하되, m은 자연수인 것을 특징으로 하는 피사체 움직임 감지 마우스가 제공된다. 본 발명에 따르면, 피사체의 움직임을 감지하여 포인터를 제어할 수 있는 효과가 있다. The present invention relates to a mouse and a method for detecting a movement of a subject, and more particularly, to a mouse and a method for detecting a movement of a subject using an imaging unit. According to an embodiment of the present invention, the image pickup unit for photographing the subject; A subject extracting unit configured to generate subject image data by using image data captured by the subject; A center point determination unit configured to analyze the subject image data and calculate an m th center point of the subject image in which the subject is captured; And a pointer position setting unit configured to generate and output a pointer movement command for positioning the pointer at a position corresponding to the m th center point, wherein m is a natural number. According to the present invention, there is an effect that can control the pointer by detecting the movement of the subject.

피사체, 포인터, 감마 보정, 마우스 Subject, Pointer, Gamma Correction, Mouse

Description

피사체 움직임 감지 마우스 및 피사체 움직임 감지 방법{Mouse for sensing moving of subject and Method thereof}Subject movement detection Mouse and subject movement detection method

도 1a는 본 발명에 일 실시예에 따른 피사체 움직임 감지 마우스가 노트북 컴퓨터에 연결된 경우를 도시한 도면.1A is a diagram illustrating a case in which a subject motion detection mouse is connected to a notebook computer according to an exemplary embodiment of the present invention.

도 1b는 본 발명에 일 실시예에 따른 피사체 움직임 감지 마우스의 촬상부를 나타낸 도면.1B is a view illustrating an image capturing unit of a subject motion detecting mouse according to an embodiment of the present invention.

도 1c는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스를 도시한 도면.1C is a diagram illustrating a subject motion detecting mouse according to another embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 피사체 움직임 감지 마우스의 블록 구성도.Figure 2 is a block diagram of a subject motion detection mouse according to an embodiment of the present invention.

도 3은 본 발명에 의해 생성된 피사체영상데이터 및 포인터 이동에 대한 도면.3 is a diagram of subject image data and pointer movement generated by the present invention;

도 4는 본 발명에 따른 피사체의 클릭 동작 감지 방법을 나타낸 도면.4 is a diagram illustrating a method of detecting a click motion of a subject according to the present invention.

도 5는 본 발명에 따른 피사체 움직임 감지 마우스가 연결된 전자기기의 디스플레이부를 예시한 도면.5 is a diagram illustrating a display unit of an electronic device to which a subject motion detecting mouse is connected according to the present invention;

도 6은 본 발명에 의해 생성된 피사체영상데이터의 영역 구분 방법 및 복수의 중심점의 이동을 나타낸 도면.FIG. 6 is a diagram illustrating a method of distinguishing regions of subject image data and a movement of a plurality of center points generated by the present invention; FIG.

도 7a는 본 발명에 의해 촬상된 제m 기준픽셀영역 및 접촉식별영역의 일 실시예를 나타낸 도면.FIG. 7A illustrates an embodiment of an mth reference pixel region and a contact identification region captured by the present invention; FIG.

도 7b는 본 발명에 의해 촬상된 제m 기준픽셀영역 및 접촉식별영역의 다른 실시예를 나타낸 도면.FIG. 7B illustrates another embodiment of the m th reference pixel region and the contact identification region captured by the present invention; FIG.

도 8은 본 발명에 따른 피사체 움직임 감지 방법의 일 실시예에 따른 순서도.8 is a flowchart according to an embodiment of a method for detecting a subject motion according to the present invention.

도 9는 본 발명의 일 실시예에 따른 피사체 움직임 감지 방법의 순서도.9 is a flowchart illustrating a method of detecting a subject motion according to an embodiment of the present invention.

도 10은 본 발명의 다른 실시예에 따른 피사체 움직임 감지 방법의 순서도.10 is a flowchart illustrating a method of detecting a subject motion according to another embodiment of the present invention.

도 11은 본 발명의 또 다른 실시예에 따른 피사체 움직임 감지 방법의 순서도.11 is a flowchart illustrating a method of detecting a subject motion according to another embodiment of the present invention.

도 12는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스의 블록 구성도.12 is a block diagram of a subject motion detection mouse according to another embodiment of the present invention.

도 13은 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에서 사용되는 기준 휘도값에 대한 설정 방법을 도시한 도면.FIG. 13 illustrates a method for setting a reference luminance value used in a subject motion detecting mouse according to another embodiment of the present invention. FIG.

도 14는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 방법의 순서도.14 is a flowchart illustrating a method of detecting a subject motion according to another embodiment of the present invention.

도 15는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에 의해 생성된 이미지를 도시한 도면.FIG. 15 illustrates an image generated by a subject motion detecting mouse according to another embodiment of the present invention. FIG.

도 16은 배경의 명도가 큰 경우 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에 의해 생성된 이미지를 도시한 도면.FIG. 16 illustrates an image generated by a subject motion detecting mouse according to another exemplary embodiment of the present invention when the brightness of the background is large.

도 17은 배경의 명도가 작은 경우 본 발명의 다른 실시예에 따른 피사체 움 직임 감지 마우스에 의해 생성된 이미지를 도시한 도면.FIG. 17 illustrates an image generated by a mouse movement detecting mouse according to another embodiment of the present invention when the brightness of the background is small;

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for main parts of the drawings>

210 : 촬상부210: imaging unit

212 : 필터부212: filter section

214 : 광원부214: light source

216 : 렌즈부216: lens unit

218 : 이미지 센서부218: image sensor unit

230 : 이미지 처리부230: image processing unit

231 : 피사체 추출부231: subject extraction unit

232 : 중심 판단부232: center judgment unit

234 : 포인터 위치 설정부234: pointer position setting unit

236 : 피사체 판단부236: subject determination unit

240 : 저장부240: storage unit

본 발명은 피사체 움직임 감지 마우스 및 방법에 관한 것으로 특히 촬상부를 이용하여 피사체의 움직임을 감지하는 마우스 및 방법에 관한 것이다. The present invention relates to a mouse and a method for detecting a movement of a subject, and more particularly, to a mouse and a method for detecting a movement of a subject using an imaging unit.

현재 전자공학 및 통신 공학의 비약적인 발전에 따라 사용자는 촬상부(예를 들어, 디지털 카메라 모듈 등), 음원 재생부(예를 들어, MP3 파일 재생 모듈 등) 등을 장착한 휴대용 컴퓨터 또는 이동 통신 단말기 등을 이용하여 인터넷 접속, 화상 통신 및 동영상 메시지 전송, 디지털 음악 청취 및 위성방송 시청 등의 다양한 기능을 향유할 수 있게 되었다. 이러한 다양한 기능을 향유하기 위해 각종 기능의 선택을 위한 효율적인 키입력이 요망되고 있다. With the rapid development of current electronics and telecommunications engineering, the user has a portable computer or mobile communication terminal equipped with an imaging unit (e.g., a digital camera module, etc.), a sound source playback unit (e.g., an MP3 file playback module, etc.). It can enjoy various functions such as internet access, video communication and video message transmission, digital music listening and satellite broadcasting. In order to enjoy these various functions, efficient key input for selecting various functions has been desired.

그러나, 기존의 전자 기기의 경우 사용자는 키패드(Keypad) 및/또는 마우스(Mouse)를 이용하여 각종 키입력(예를 들어, 파일 재생 버튼 및 파일 선택 버튼, 음량 조절 버튼 등)을 행하였다. 그런데, 광센서를 이용한 광마우스의 경우는 투명한 탁자(유리 또는 플라스틱) 위에서는 사용할 수 없는 문제점이 있고, 볼(Ball)의 움직임을 이용한 볼마우스의 경우는 볼의 크기에 따라 휴대용으로 부적합한 문제점이 있었다. 또한, 마우스의 경우는 협소한 공간에서는 그 사용이 부적합한 문제점도 있었다.  However, in the conventional electronic device, a user performs various key inputs (for example, a file play button, a file select button, a volume control button, etc.) using a keypad and / or a mouse. However, in the case of an optical mouse using an optical sensor, there is a problem that cannot be used on a transparent table (glass or plastic), and in the case of a ball mouse using a ball movement, a problem that is inadequate to be portable depending on the size of the ball. there was. In addition, the mouse has a problem that its use is not suitable in a narrow space.

따라서, 본 발명은 촬상부를 구비한 마우스를 이용하여 각종 키입력이 행해질 수 있는 피사체 움직임 감지 마우스 및 그 방법을 제공하고자 한다. Accordingly, an object of the present invention is to provide a mouse and a method for detecting a subject's motion, through which various key inputs can be made using a mouse having an imaging unit.

또한, 본 발명은 기존 마우스의 키버튼의 일부를 생략할 수 있음으로써 마우스의 공간적인 활용도를 높일 수 있고, 마우스의 소형화가 가능한 피사체 움직임 감지 마우스 및 그 방법을 제공하고자 한다. In addition, the present invention can omit a part of the key button of the existing mouse to increase the spatial utilization of the mouse, and to provide a subject motion detection mouse and a method capable of miniaturizing the mouse.

또한, 본 발명은 마우스의 키버튼을 생략하여 마우스의 제조시 제조 공정이 간단해지고 그 제조 단가를 줄일 수 있는 피사체 움직임 감지 마우스 및 그 방법을 제공하고자 한다. Another object of the present invention is to provide a mouse and a method for detecting a subject motion, which can simplify the manufacturing process and reduce the manufacturing cost of the mouse by omitting key buttons of the mouse.

또한, 본 발명은 투명판 위에서도 사용 가능하며 협소한 공간에서도 사용이 가능한 피사체 움직임 감지 마우스 및 그 방법을 제공하고자 한다. In addition, the present invention is to provide a subject motion detection mouse and method that can be used on a transparent plate and can be used in a narrow space.

본 발명이 제시하는 이외의 기술적 과제들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Technical problems other than the present invention will be easily understood through the following description.

상술한 문제점을 해결하기 위한 본 발명의 일 실시예에 따르면, 피사체 움직임 감지 마우스가 피사체의 움직임을 감지하는 방법에 있어서, 상기 피사체를 촬상하여 피사체영상데이터를 생성하는 단계; 상기 피사체영상데이터를 분석하여 상기 피사체로부터 촬상된 피사체이미지의 제m 중심점을 산출하는 단계; 및 상기 제m 중심점에 상응하는 위치에 포인터를 위치시키기 위한 포인터이동명령을 생성하여 출력하는 단계를 포함하되, 상기 m은 자연수인 것을 특징으로 하는 피사체 움직임 감지 방법이 제공된다. According to an embodiment of the present invention for solving the above problems, a method of detecting a movement of a subject by a subject movement sensing mouse, the method comprising: photographing the subject to generate subject image data; Calculating the m th center point of the subject image photographed from the subject by analyzing the subject image data; And generating and outputting a pointer movement command for positioning the pointer at a position corresponding to the m th center point, wherein m is a natural number.

상기 피사체영상데이터를 생성하는 단계는, 상기 피사체 움직임 감지 마우스에 구비된 광원부가 활성화된 상태에서 상기 피사체를 촬상하여 유광 영상데이터를 생성하는 단계; 상기 광원부가 비활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 단계; 및 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: generating gloss image data by capturing the subject while the light source unit of the subject movement detecting mouse is activated; Photographing the subject while the light source unit is inactivated to generate matt image data; And generating subject image data by comparing the glossy image data with the matte image data.

또한, 상기 제m 중심점은 상기 피사체가 상기 피사체영상데이터에 촬상된 상기 피사체이미지의 무게 중심인 것을 특징으로 하는 피사체 움직임 감지 방법.In addition, the m-th center point is a subject movement detection method, characterized in that the subject is the center of gravity of the subject image captured in the subject image data.

또한, 상기 무게 중심은 하기한 식에 의하여 생성될 수 있다. In addition, the center of gravity may be generated by the following equation.

Figure 112006098420238-pat00001
Figure 112006098420238-pat00001

여기서, R은 무게 중심, ri는 기준픽셀의 좌표값, n은 기준픽셀의 개수임.Where R is the center of gravity, ri is the coordinate value of the reference pixel, and n is the number of reference pixels.

또한, 상기 피사체영상데이터를 생성하는 단계는, 상기 피사체를 촬상하여 제1 영상데이터를 생성하는 단계; 및 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: photographing the subject to generate first image data; And generating subject image data by adjusting the sharpness of the first image data.

또한, 상기 제m 중심점을 산출하는 단계는, 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 추출하여 상기 피사체의 일단에 상응하는 외곽선인 피사체영상데이터를 생성하는 제m 외곽선을 추출하는 단계; 및 상기 제m 외곽선의 일단에 상응하는 제m 중심점을 산출하는 단계를 포함할 수 있다.The calculating of the m th center point may include extracting a difference value between the first image data and the subject image data and extracting an m-th outline for generating subject image data, which is an outline corresponding to one end of the subject. ; And calculating an m-th center point corresponding to one end of the m-th outline.

상술한 문제점을 해결하기 위하여 본 발명의 다른 실시예에 따르면, 피사체 움직임 감지 마우스가 피사체의 움직임을 감지하는 방법에 있어서, 상기 피사체를 촬상하여 피사체영상데이터를 생성하는 단계; 상기 피사체영상데이터를 분석하여 제m 피사체크기정보를 산출하는 단계; 상기 제m 피사체크기정보를 미리 설정된 제1 경계값과 비교하는 단계; 상기 제m 피사체크기정보를 산출한 후에 상기 촬상된 피 사체에 상응하는 제k 피사체크기정보를 산출하여 상기 제1 경계값과 비교하는 단계; 및 상기 제m 피사체크기정보와 상기 제1 경계값을 비교한 결과 및 상기 제k 피사체크기정보와 상기 제1 경계값을 비교한 결과에 상응하는 클릭기능수행명령을 생성하여 출력하는 단계를 포함하되, 상기 m은 자연수이고, 상기 k는 상기 m보다 큰 자연수인 것을 특징으로 하는 피사체 움직임 감지 방법이 제공된다.According to another exemplary embodiment of the present invention, a method of detecting a movement of a subject by a mouse, the method comprising: photographing the subject to generate subject image data; Calculating m-th subject size information by analyzing the subject image data; Comparing the m-th subject size information with a preset first threshold value; After calculating the m-th subject size information, calculating k-th subject size information corresponding to the photographed subject and comparing the m-th subject size information with the first boundary value; And generating and outputting a click function execution command corresponding to a result of comparing the m th subject size information with the first threshold and a result of comparing the k th subject size information with the first threshold. And m is a natural number, and k is a natural number greater than m.

또한, 상기 피사체영상데이터를 생성하는 단계는, 상기 피사체 움직임 감지 마우스에 구비된 광원부가 활성화된 상태에서 상기 피사체를 촬상하여 유광 영상데이터를 생성하는 단계; 상기 광원부가 비활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 단계; 및 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: generating a glossy image data by photographing the subject while the light source unit of the subject movement detecting mouse is activated; Photographing the subject while the light source unit is inactivated to generate matt image data; And generating subject image data by comparing the glossy image data with the matte image data.

또한, 상기 클릭기능수행명령을 생성하여 출력하는 단계는, 상기 제m 피사체크기정보가 상기 제1 경계값 보다 크고, 상기 제k 피사체크기정보가 상기 제1 경계값 보다 작은 경우에 상기 클릭기능수행명령을 생성할 수 있다. The generating and outputting of the click function execution command may include performing the click function when the m-th subject size information is larger than the first threshold value and the k-th subject size information is smaller than the first threshold value. You can create a command.

또한, 상기 피사체 움직임 감지 방법은 상기 제k 피사체크기정보를 산출한 후에 제l 피사체크기정보를 산출하여 미리 설정된 제2 경계값과 비교하는 단계를 더 포함하되, 상기 l은 상기 k보다 큰 자연수이고, 상기 클릭기능수행명령은 상기 제l 피사체크기정보가 상기 제2 경계값보다 작은 경우에 출력될 수 있다. The subject motion detecting method may further include calculating the first subject size information after comparing the k th subject size information with a second threshold value, wherein l is a natural number greater than k. The command to execute the click function may be output when the first subject size information is smaller than the second boundary value.

또한, 상기 피사체 움직임 감지 방법은 상기 제l 피사체크기정보가 상기 제2 경계값 보다 작은 경우에는 대기정보 측정을 개시하는 단계를 더 포함하되, 상기 대기정보가 미리 설정된 경계 시간을 경과한 경우에는 상기 클릭기능수행명령이 출 력될 수 있다. The method for detecting movement of a subject may further include starting measurement of atmospheric information when the first subject size information is smaller than the second threshold, and when the atmospheric information passes a preset boundary time. Click function execution command can be output.

또한, 상기 피사체영상데이터를 생성하는 단계는, 상기 피사체를 촬상하여 제1 영상데이터를 생성하는 단계; 및 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: photographing the subject to generate first image data; And generating subject image data by adjusting the sharpness of the first image data.

또한, 상기 제m 중심점을 산출하는 단계는, 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 추출하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 단계; 및 상기 제m 외곽선을 분석하여 제m 피사체크기정보를 산출하는 단계를 포함할 수 있다. The calculating of the m th center point may include extracting an m-th outline corresponding to one end of the subject by extracting a difference value between the first image data and the subject image data; And calculating the m-th subject size information by analyzing the m-th outline.

상술한 문제점을 해결하기 위하여 본 발명의 또 다른 실시예에 따르면, 피사체 움직임 감지 마우스가 피사체의 움직임을 감지하는 방법에 있어서, 상기 피사체를 촬상하여 피사체영상데이터를 생성하는 단계; 상기 피사체영상데이터를 분석하여 제m 피사체크기정보를 산출하는 단계; 상기 제m 피사체크기정보와 미리 설정된 기준픽셀경계값을 비교하는 단계; 및 기준피사체크기정보 생성명령이 입력되면 기준피사체크기정보를 생성하는 단계를 포함하되, 상기 m은 자연수이고, 상기 제m 피사체크기정보와 상기 기준픽셀경계값을 비교한 결과를 이용하여 상기 기준피사체크기정보를 생성하는 것을 특징으로 하는 피사체 움직임 감지 방법이 제공된다. According to another embodiment of the present invention to solve the above problems, a method of detecting a movement of a subject by a subject motion detection mouse, comprising: photographing the subject to generate subject image data; Calculating m-th subject size information by analyzing the subject image data; Comparing the m-th subject size information with a preset reference pixel boundary value; And generating reference subject size information when a command for generating a reference subject size information is input, wherein m is a natural number, and the reference subject is obtained using a result of comparing the m-th subject size information with the reference pixel boundary value. A subject motion detection method is provided which generates size information.

또한, 상기 피사체영상데이터를 생성하는 단계는, 상기 피사체 움직임 감지 마우스에 구비된 광원부가 활성화된 상태에서 상기 피사체를 촬상하여 유광 영상데이터를 생성하는 단계; 상기 광원부가 비활성화된 상태에서 상기 피사체를 촬상하 여 무광 영상데이터를 생성하는 단계; 및 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: generating a glossy image data by photographing the subject while the light source unit of the subject movement detecting mouse is activated; Photographing the subject while the light source unit is inactivated to generate matt image data; And generating subject image data by comparing the glossy image data with the matte image data.

또한, 상기 피사체 움직임 감지 방법은 상기 촬상된 피사체에 상응하는 제k 피사체크기정보를 산출하여 상기 기준피사체크기정보와 비교하는 단계; 상기 제k 피사체크기정보와 상기 기준피사체크기정보를 비교한 결과에 상응하는 포인터크기변경명령을 생성하여 출력하는 단계를 포함하되, 상기 k는 상기 m보다 큰 자연수일 수 있다. The object movement detecting method may further include calculating k-th subject size information corresponding to the photographed subject and comparing it with the reference subject size information; And generating and outputting a pointer size change command corresponding to a result of comparing the k-th subject size information with the reference subject size information, wherein k may be a natural number greater than m.

또한, 상기 기준픽셀경계값은 제1 기준픽셀경계값이고, 상기 피사체 움직임 감지 방법은 상기 제m 피사체크기정보가 상기 제1 기준픽셀경계값 보다 작으면 에러(error) 명령을 생성하여 출력하는 단계를 더 포함할 수 있다. The reference pixel boundary value may be a first reference pixel boundary value, and the subject motion detecting method may further include generating and outputting an error command if the m-th subject size information is smaller than the first reference pixel boundary value. It may further include.

또한, 상기 기준픽셀경계값은 제2 기준픽셀경계값이고, 상기 피사체 움직임 감지 방법은 상기 제m 피사체크기정보가 상기 제2 기준픽셀경계값 보다 크면 에러(error) 명령을 생성하여 출력하는 단계를 더 포함할 수 있다. The reference pixel boundary value may be a second reference pixel boundary value, and the subject motion detecting method may further include generating and outputting an error command if the m-th subject size information is larger than the second reference pixel boundary value. It may further include.

또한, 상기 피사체영상데이터를 생성하는 단계는, 상기 피사체를 촬상하여 제1 영상데이터를 생성하는 단계; 및 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: photographing the subject to generate first image data; And generating subject image data by adjusting the sharpness of the first image data.

또한, 상기 제m 중심점을 산출하는 단계는, 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 추출하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 단계; 및 상기 제m 외곽선을 분석하여 제m 피사체크기정보를 산출하는 단계를 포함할 수 있다. The calculating of the m th center point may include extracting an m-th outline corresponding to one end of the subject by extracting a difference value between the first image data and the subject image data; And calculating the m-th subject size information by analyzing the m-th outline.

상술한 문제점을 해결하기 위하여 본 발명의 또 다른 실시예에 따르면, 피사체 움직임 감지 마우스가 피사체의 움직임을 감지하는 방법에 있어서, 상기 피사체를 촬상하여 피사체영상데이터를 생성하는 단계; 상기 피사체영상데이터를 분석하여 상기 피사체로부터 촬상된 이미지의 제m 중심점을 산출하는 단계; 상기 제m 중심점을 이용하여 상기 제m 중심점에 상응하는 제m 영역정보를 추출하는 단계; 상기 제m 영역정보 및 상기 제m 영역정보가 추출되기 전에 추출된 하나 이상의 영역정보를 이용하여 제m 중심점이동정보를 생성하는 단계; 및 상기 제m 중심점이동정보에 상응하는 직선기능수행명령을 생성하여 출력하는 단계를 포함하되, 상기 m은 2 이상의 자연수인 것을 특징으로 하는 피사체 움직임 감지 방법이 제공된다. According to another embodiment of the present invention to solve the above problems, a method of detecting a movement of a subject by a subject motion detection mouse, comprising: photographing the subject to generate subject image data; Analyzing the subject image data to calculate an m th center point of the image photographed from the subject; Extracting m-th region information corresponding to the m-th center point by using the m-th center point; Generating m-th center point shift information by using the m-th region information and one or more region information extracted before the m-th region information is extracted; And generating and outputting a linear function execution command corresponding to the m th center point movement information, wherein m is a natural number of two or more.

또한, 상기 피사체영상데이터를 생성하는 단계는, 상기 피사체 움직임 감지 마우스에 구비된 광원부가 활성화된 상태에서 상기 피사체를 촬상하여 유광 영상데이터를 생성하는 단계; 상기 광원부가 비활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 단계; 및 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: generating a glossy image data by photographing the subject while the light source unit of the subject movement detecting mouse is activated; Photographing the subject while the light source unit is inactivated to generate matt image data; And generating subject image data by comparing the glossy image data with the matte image data.

또한, 상기 제m 중심점이동정보를 생성하는 단계는, 상기 제m 영역정보와 상기 제m 영역정보가 추출되기 바로 직전에 추출된 제m-1 영역정보와 비교하는 단계; 및 상기 제m 영역정보와 상기 제m-1 영역정보가 상이하면 상기 제m 중심점이동정보를 생성하는 단계를 포함할 수 있다. The generating of the m-th center point movement information may include: comparing the m-th region information and the m-1 region information extracted immediately before the m-th region information is extracted; And generating the m-th center movement information when the m-th region information and the m-th region information are different from each other.

또한, 상기 제m 중심점이동정보는 제m 중심점이동방향정보를 포함할 수 있 다. In addition, the m th center point movement information may include the m th center point movement direction information.

또한, 상기 제m 중심점이동정보는 제m 중심점이동거리정보를 포함할 수 있다. In addition, the m th center point movement information may include the m th center point movement distance information.

또한, 상기 피사체 움직임 감지 방법은 상기 피사체영상데이터를 분석하여 상기 피사체가 촬상된 제m 기준픽셀영역을 추출하는 단계; 및 상기 제m 기준픽셀영역과 미리 설정된 복수의 접촉식별영역을 비교하는 단계를 더 포함하되, 상기 제m 기준픽셀영역이 상기 복수의 접촉식별영역 중 미리 설정된 개수 이상 포함하는 경우에 상기 직선기능수행명령을 생성할 수 있다. The subject motion detecting method may further include extracting an m-th reference pixel region in which the subject is photographed by analyzing the subject image data; And comparing the m-th reference pixel region with a plurality of preset contact identification regions, when the m-th reference pixel region includes more than a preset number of the plurality of contact identification regions. You can create a command.

또한, 상기 제m 중심점을 산출하는 단계는, 상기 피사체를 촬상하여 제1 영상데이터를 생성하는 단계; 및 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The calculating of the m th center point may include: imaging the subject to generate first image data; And generating subject image data by adjusting the sharpness of the first image data.

또한, 상기 제m 중심점을 산출하는 단계는, 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 추출하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 단계; 및 상기 제m 외곽선을 분석하여 제m 피사체크기정보를 산출하는 단계를 포함할 수 있다. The calculating of the m th center point may include extracting an m-th outline corresponding to one end of the subject by extracting a difference value between the first image data and the subject image data; And calculating the m-th subject size information by analyzing the m-th outline.

상술한 문제점을 해결하기 위한 본 발명의 또 다른 실시예에 따르면, 피사체를 촬상하는 촬상부; 상기 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부; 상기 피사체영상데이터를 분석하여 상기 피사체가 촬상된 피사체이미지의 제m 중심점을 산출하는 중심점 판단부; 및 상기 제m 중심점 에 상응하는 위치에 포인터를 위치시키기 위한 포인터이동명령을 생성하여 출력하는 포인터 위치 설정부를 포함하되, 상기 m은 자연수인 것을 특징으로 하는 피사체 움직임 감지 마우스가 제공된다. According to another embodiment of the present invention for solving the above problems, the image pickup unit for photographing the subject; A subject extracting unit configured to generate subject image data by using image data photographed by the subject; A center point determination unit configured to analyze the subject image data and calculate an m th center point of the subject image in which the subject is captured; And a pointer position setting unit for generating and outputting a pointer movement command for positioning the pointer at a position corresponding to the m th center point, wherein m is a natural number.

또한, 상기 촬상부는, 미리 설정된 시간을 간격으로 점등되는 광원부; 및 상기 광원부가 활성화된 상태에서 피사체를 촬상하여 유광 영상데이터를 생성하고, 상기 광원부가 불활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 이미지 센서부를 포함하되, 상기 피사체 추출부는 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성할 수 있다. The imaging unit may include a light source unit which is turned on at a predetermined time interval; And an image sensor unit configured to photograph the subject while the light source unit is activated to generate the glossy image data, and to generate the matte image data by photographing the subject while the light source unit is inactivated. The image data of the subject may be generated by comparing the image data with the matte image data.

또한, 상기 제m 중심점은 상기 피사체가 상기 피사체영상데이터에 촬상된 피사체이미지의 무게 중심일 수 있다. The m th center point may be a center of gravity of a subject image captured by the subject in the subject image data.

또한, 상기 무게 중심은 하기한 식에 의하여 생성될 수 있다. In addition, the center of gravity may be generated by the following equation.

Figure 112006098420238-pat00002
Figure 112006098420238-pat00002

여기서, R은 무게 중심, ri는 기준픽셀의 좌표값, n은 기준픽셀의 개수임. Where R is the center of gravity, ri is the coordinate value of the reference pixel, and n is the number of reference pixels.

또한, 상기 촬상부는 상기 피사체 움직임 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject movement detecting mouse.

또한, 상기 촬상부는 제1 영상데이터를 촬상하고, 상기 피사체 추출부는 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 순차적으로 생성하는 선명도 조절부 및 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 생성하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 외곽선 추출부를 포함 하고, 상기 중심점 판단부는 상기 제m 외곽선의 일단에 상응하는 제m 중심점을 산출할 수 있다. The image capturing unit may capture the first image data, and the subject extracting unit may adjust the sharpness of the first image data to sequentially generate the subject image data, and the sharpness adjusting unit of the first image data and the subject image data. The apparatus may include an outline extracting unit configured to generate a difference value to extract an m-th outline corresponding to one end of the subject, and the center point determiner may calculate an m-th center point corresponding to one end of the m-th outline.

또한, 상기 촬상부는 상기 피사체 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject detecting mouse.

상술한 문제점을 해결하기 위한 본 발명의 또 다른 실시예에 따르면, 피사체를 촬상하는 촬상부; 상기 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부; 및 상기 피사체영상데이터를 분석하여 산출한 제m 피사체크기정보를 미리 설정된 제1 경계값과 비교하고, 상기 제m 피사체크기정보를 산출한 후에 상기 촬상된 피사체에 상응하는 제k 피사체크기정보를 산출하여 상기 제1 경계값과 비교하여 상응하는 클릭기능수행명령을 생성하여 출력하는 피사체 판단부를 포함하되, 상기 m은 자연수이고, 상기 k는 상기 m보다 큰 자연수일 수 있다. According to another embodiment of the present invention for solving the above problems, the image pickup unit for photographing the subject; A subject extracting unit configured to generate subject image data by using image data photographed by the subject; And comparing the m-th subject size information calculated by analyzing the subject image data with a preset first threshold value, calculating the m-th subject size information, and calculating k-th subject size information corresponding to the photographed subject. And a subject determining unit configured to generate and output a corresponding click function execution command in comparison with the first threshold value, wherein m is a natural number and k is a natural number greater than m.

또한, 상기 촬상부는, 미리 설정된 시간을 간격으로 점등되는 광원부; 및 상기 광원부가 활성화된 상태에서 피사체를 촬상하여 유광 영상데이터를 생성하고, 상기 광원부가 불활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 이미지 센서부를 포함하되, 상기 피사체 추출부는 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성할 수 있다. The imaging unit may include a light source unit which is turned on at a predetermined time interval; And an image sensor unit configured to photograph the subject while the light source unit is activated to generate the glossy image data, and to generate the matte image data by photographing the subject while the light source unit is inactivated. The image data of the subject may be generated by comparing the image data with the matte image data.

또한, 상기 피사체 판단부는 상기 제m 피사체크기정보가 상기 제1 경계값 보다 크고, 상기 제k 피사체크기정보가 상기 제1 경계값 보다 작은 경우에 상기 클릭기능수행명령을 생성할 수 있다. The subject determining unit may generate the click function execution command when the m-th subject size information is larger than the first threshold and the k-th subject size information is smaller than the first threshold.

또한, 상기 피사체 판단부는 상기 제k 피사체크기정보를 산출한 후에 제l 피사체크기정보를 산출하여 미리 설정된 제2 경계값과 비교하되, 상기 l은 상기 k보다 큰 자연수이고, 상기 제l 피사체크기정보가 상기 제2 경계값보다 작은 경우에 상기 클릭기능수행명령을 출력할 수 있다. In addition, the subject determining unit calculates the k-th subject size information and then calculates the first subject size information and compares it with a second preset threshold value, where l is a natural number greater than k and the first subject size information. When is smaller than the second threshold value, the click function execution command may be output.

또한, 상기 피사체 판단부는 상기 제l 피사체크기정보가 상기 제2 경계값 보다 작은 경우에는 대기정보 측정을 개시하되, 상기 대기정보가 미리 설정된 경계 시간을 경과한 경우에 상기 클릭기능수행명령을 출력할 수 있다. The subject determining unit may start measurement of atmospheric information when the first subject size information is smaller than the second threshold, and output the click function execution command when the standby information passes a preset boundary time. Can be.

또한, 상기 촬상부는 상기 피사체 움직임 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject movement detecting mouse.

또한, 상기 촬상부는 제1 영상데이터를 촬상하고, 상기 피사체 추출부는 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 순차적으로 생성하는 선명도 조절부 및 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 생성하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 외곽선 추출부를 포함하되, 상기 피사체 판단부는 상기 제m 외곽선에 상응하여 상기 제m 피사체크기정보를 산출할 수 있다. The image capturing unit may capture the first image data, and the subject extracting unit may adjust the sharpness of the first image data to sequentially generate the subject image data, and the sharpness adjusting unit of the first image data and the subject image data. And generating an difference value to extract an m-th outline corresponding to one end of the subject, wherein the subject determiner may calculate the m-th subject size information corresponding to the m-th outline.

또한, 상기 촬상부는 상기 피사체 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject detecting mouse.

상술한 문제점을 해결하기 위한 본 발명의 또 다른 실시예에 따르면, 피사체를 촬상하는 촬상부; 상기 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부; 및 상기 피사체영상데이터를 분석하여 제m 피사체크 기정보를 산출하고, 상기 제m 피사체크기정보를 미리 설정된 기준픽셀경계값과 비교하며 기준피사체크기정보 생성명령이 입력되면 기준피사체크기정보를 생성하는 피사체 판단부를 포함하되, 상기 m은 자연수이고, 상기 피사체 판단부는 상기 제m 피사체크기정보와 상기 기준픽셀경계값을 비교한 결과를 이용하여 상기 기준피사체크기정보를 생성하는 것을 특징으로 하는 피사체 움직임 감지 마우스가 제공된다. According to another embodiment of the present invention for solving the above problems, the image pickup unit for photographing the subject; A subject extracting unit configured to generate subject image data by using image data photographed by the subject; And calculating the m-th subject size information by analyzing the subject image data, comparing the m-th subject size information with a preset reference pixel boundary value, and generating reference subject size information when a command to generate reference subject size information is input. And a subject determining unit, wherein m is a natural number, and the subject determining unit generates the reference subject size information using a result of comparing the m-th subject size information with the reference pixel boundary value. A mouse is provided.

또한, 상기 촬상부는, 미리 설정된 시간을 간격으로 점등되는 광원부; 및 상기 광원부가 활성화된 상태에서 피사체를 촬상하여 유광 영상데이터를 생성하고, 상기 광원부가 불활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 이미지 센서부를 포함하되, 상기 피사체 추출부는 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성할 수 있다.The imaging unit may include a light source unit which is turned on at a predetermined time interval; And an image sensor unit configured to photograph the subject while the light source unit is activated to generate the glossy image data, and to generate the matte image data by photographing the subject while the light source unit is inactivated. The image data of the subject may be generated by comparing the image data with the matte image data.

또한, 상기 피사체 판단부는 상기 촬상된 피사체에 상응하는 제k 피사체크기정보와 상기 기준피사체크기정보를 비교한 결과에 상응하는 포인터크기변경명령 생성하여 출력하되, 상기 k는 상기 m보다 큰 자연수일 수 있다. The subject determining unit may generate and output a pointer size change command corresponding to a result of comparing the k-th subject size information corresponding to the photographed subject and the reference subject size information, wherein k may be a natural number greater than m. have.

또한, 상기 기준픽셀경계값은 제1 기준픽셀경계값이고, 상기 피사체 판단부는 상기 제m 피사체크기정보가 상기 제1 기준픽셀경계값 보다 작으면 에러(error) 명령을 생성하여 출력할 수 있다. The reference pixel boundary value may be a first reference pixel boundary value, and the subject determining unit may generate and output an error command when the m-th subject size information is smaller than the first reference pixel boundary value.

또한, 상기 기준픽셀경계값은 제2 기준픽셀경계값이고, 상기 피사체 판단부는 상기 제m 피사체크기정보가 상기 제2 기준픽셀경계값 보다 크면 에러(error) 명령을 생성하여 출력할 수 있다. The reference pixel boundary value may be a second reference pixel boundary value, and the subject determining unit may generate and output an error command when the m-th subject size information is larger than the second reference pixel boundary value.

또한, 상기 촬상부는 상기 피사체 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject detecting mouse.

또한, 상기 촬상부는 제1 영상데이터를 촬상하고, 상기 피사체 추출부는 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 순차적으로 생성하는 선명도 조절부 및 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 생성하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 외곽선 추출부를 포함하되, 상기 피사체 판단부는 상기 제m 외곽선에 상응하여 상기 제m 피사체크기정보를 산출할 수 있다. The image capturing unit may capture the first image data, and the subject extracting unit may adjust the sharpness of the first image data to sequentially generate the subject image data, and the sharpness adjusting unit of the first image data and the subject image data. And generating an difference value to extract an m-th outline corresponding to one end of the subject, wherein the subject determiner may calculate the m-th subject size information corresponding to the m-th outline.

또한, 상기 촬상부는 상기 피사체 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject detecting mouse.

상술한 문제점을 해결하기 위한 본 발명의 또 다른 실시예에 따르면, 피사체를 촬상하는 촬상부; 상기 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부; 상기 피사체영상데이터를 분석하여 촬상된 상기 피사체 이미지의 제m 중심점을 산출하는 중심점 판단부; 및 상기 제m 중심점을 이용하여 상기 제m 중심점에 상응하는 제m 영역정보를 추출하고, 상기 제m 영역정보 및 상기 제m 영역정보가 추출되기 전에 추출된 하나 이상의 영역정보를 이용하여 제m 중심점이동정보를 생성하며, 상기 제m 중심점이동정보에 상응하는 직선기능수행명령을 생성하여 출력하는 피사체 판단부를 포함하되, 상기 m은 2 이상의 자연수일 수 있다. According to another embodiment of the present invention for solving the above problems, the image pickup unit for photographing the subject; A subject extracting unit configured to generate subject image data by using image data photographed by the subject; A center point determination unit configured to analyze the subject image data and calculate an m th center point of the photographed subject image; And extracting m-th area information corresponding to the m-th center point by using the m-th center point, and using the m-th center point by using the m-th area information and one or more area information extracted before the m-th area information is extracted. And a subject determining unit generating movement information and generating and outputting a linear function execution command corresponding to the m th center point movement information, wherein m may be a natural number of two or more.

또한, 상기 촬상부는, 미리 설정된 시간을 간격으로 점등되는 광원부; 및 상기 광원부가 활성화된 상태에서 피사체를 촬상하여 유광 영상데이터를 생성하고, 상기 광원부가 불활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생 성하는 이미지 센서부를 포함하되, 상기 피사체 추출부는 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성할 수 있다. The imaging unit may include a light source unit which is turned on at a predetermined time interval; And an image sensor unit configured to photograph the subject while the light source unit is activated to generate the glossy image data, and to generate the matte image data by photographing the subject while the light source unit is inactivated. The subject image data may be generated by comparing the glossy image data with the matte image data.

또한, 상기 피사체 판단부는 상기 제m 영역정보와 상기 제m 영역정보가 추출되기 바로 직전에 추출된 제m-1 영역정보를 비교하여 상기 제m 중심점이동정보를 생성하되, 상기 제m 영역정보와 상기 제m-1 영역정보가 상이한 경우에 상기 제m 중심점이동정보를 생성할 수 있다. The object determining unit may generate the m th center point movement information by comparing the m th region information and the m th region information extracted immediately before the m th region information is extracted, and the m th region information and the m th region information. When the m-th region information is different, the m-th center point movement information may be generated.

또한, 상기 제m 중심점이동정보는 제m 중심점이동방향정보를 포함할 수 있다. In addition, the m th center point movement information may include the m th center point movement direction information.

또한, 상기 제m 중심점이동정보는 제m 중심점이동거리정보를 포함할 수 있다. In addition, the m th center point movement information may include the m th center point movement distance information.

또한, 상기 촬상부는 상기 피사체 움직임 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject movement detecting mouse.

또한, 상기 촬상부는 제1 영상데이터를 촬상하고, 상기 피사체 추출부는 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 순차적으로 생성하는 선명도 조절부 및 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 생성하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 외곽선 추출부를 포함하고, 상기 중심점 판단부는 상기 제m 외곽선의 일단에 상응하는 제m 중심점을 산출할 수 있다. The image capturing unit may capture the first image data, and the subject extracting unit may adjust the sharpness of the first image data to sequentially generate the subject image data, and the sharpness adjusting unit of the first image data and the subject image data. The apparatus may include an outline extracting unit configured to generate a difference value to extract an m-th outline corresponding to one end of the subject, and the center point determiner may calculate an m-th center point corresponding to one end of the m-th outline.

또한, 상기 촬상부는 상기 피사체 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject detecting mouse.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

도 1a는 본 발명에 일 실시예에 따른 피사체 움직임 감지 마우스가 노트북 컴퓨터에 연결된 경우를 도시한 도면이다. 여기서, 본 발명에 따른 피사체 움직임 감지 마우스(100)는 전자 기기에 유선 또는 무선으로 연결될 수 있으며, 특히, 노트북 컴퓨터, PMP와 같은 소형이며 이동 가능한 장치에 연결될 수 있으나, 이하에서는 설명의 편의상 노트북 컴퓨터에 마련된 경우를 중심으로 설명한다.1A is a diagram illustrating a case in which a subject movement detecting mouse is connected to a notebook computer according to an exemplary embodiment of the present invention. Here, the subject movement detecting mouse 100 according to the present invention may be connected to an electronic device by wire or wirelessly, and in particular, may be connected to a small and movable device such as a notebook computer or a PMP. The case centered on the case will be described.

도 1a를 참조하면, 피사체 움직임 감지 마우스(100)는 이미지 센서부(110), 광원부(120-1, 120-2, 120-3 및 120-4)(이하, '120'으로 통칭함), 움직임 추출을 위한 피사체(예를 들어, 이동 통신 단말기(100) 사용자의 손가락)(140)가 도시된다. 또한, 피사체 움직임 감지 마우스(100)와 유선으로 연결된 노트북 컴퓨터(130), 노트북 컴퓨터(130)의 디스플레이부(150) 및 키패드부(135)가 도시된다. 이때, 피사체 움직임 감지 마우스(100)는 노트북 컴퓨터(130) 등과 무선으로 연결될 수도 있음은 자명하다. Referring to FIG. 1A, the object movement detecting mouse 100 may include an image sensor unit 110, light source units 120-1, 120-2, 120-3, and 120-4 (hereinafter, collectively referred to as '120'), A subject (eg, a finger of the user of the mobile communication terminal 100) 140 for movement extraction is shown. Also, a notebook computer 130, a display unit 150, and a keypad unit 135 of the notebook computer 130 connected to the subject movement detecting mouse 100 by wire are shown. At this time, it is obvious that the subject movement detecting mouse 100 may be wirelessly connected to the notebook computer 130 or the like.

광원부(120)는 소정의 광을 피사체(140)에 조사하는 장치로서, 광원부(120)에서 출사된 광이 피사체(140)에서 반사되어 이미지 센서부(110)에 입사될 수 있도록 광원부(120)의 개수 및 위치 등이 정해질 수 있다. 예를 들어, 광원부(120)는 이미지 센서부(110)의 주변에 형성될 수 있으며, 그 개수는 도 1에 도시된 바와 같이 4개로 구현될 수 있으나, 본 발명이 광원부(120)의 개수 및 위치 등에 의하여 한정되는 것이 아님은 자명하다. 또한, 피사체(140)의 위치는 광원부(120)에서 출사된 광을 반사하는 위치가 될 수 있으며, 피사체(140)는 이미지 센서부(110) 또는 피사체 움직임 감지 마우스(100)에 접촉되거나 비접촉(또는 무접점)될 수 있다. 또한, 이미지 센서부(110) 및 광원부(120)는 피사체 움직임 감지 마우스(100)의 상단 또는 일측에 위치할 수 있다. The light source unit 120 is a device for irradiating a predetermined light onto the subject 140, and the light emitted from the light source unit 120 is reflected from the subject 140 to be incident on the image sensor unit 110. The number and location of the may be determined. For example, the light source unit 120 may be formed around the image sensor unit 110, and the number thereof may be implemented as four as shown in FIG. 1. It is apparent that the present invention is not limited to the position and the like. In addition, the position of the subject 140 may be a position reflecting the light emitted from the light source unit 120, the subject 140 is in contact with or non-contact with the image sensor unit 110 or the subject motion detection mouse 100. Or contactless). In addition, the image sensor unit 110 and the light source unit 120 may be located at the top or one side of the object movement detection mouse 100.

광원부(120)에서 조사된 광은 피사체(140)에서 반사되어 이미지 센서부(110)에 계속적으로 입사되며, 이미지 센서부(110)는 피사체(140)에 대한 이미지를 생성한다. 생성된 피사체(140)의 이미지는 피사체 움직임 감지 마우스(100)에 포함된 이미지 처리부(미도시)에 의하여 영상데이터의 형태로 처리되고, 처리된 영상데이 터가 분석되어 피사체(140)의 움직임이 추출되며, '노트북 컴퓨터(130)의 메인제어부'(미도시, 이하 '메인제어부'라 칭함))는 추출된 피사체(140)의 움직임에 상응하는 기능 제어를 수행한다. 이 경우, 별도의 기능 버튼(또는 버튼 입력의 조합)에 의해 피사체(140)의 움직임에 상응하는 기능이 달리 지정될 수도 있다. 예를 들어, 피사체(140)의 움직임은 동일하지만 노트북 컴퓨터(130)의 키패드부(135)의 '*' 버튼이 눌려진 상태에서 추출된 피사체(140)의 움직임과 '#' 버튼이 눌려진 상태에서 추출된 피사체(140)의 움직임은 서로 다른 기능이 수행되도록 설정될 수 있다.The light irradiated from the light source unit 120 is reflected from the subject 140 and continuously incident to the image sensor unit 110, and the image sensor unit 110 generates an image of the subject 140. The generated image of the subject 140 is processed in the form of image data by an image processor (not shown) included in the subject movement detecting mouse 100, and the processed image data is analyzed to determine the movement of the subject 140. The extracted 'main controller' (not shown, hereinafter referred to as 'main controller') of the laptop computer 130 performs a function control corresponding to the movement of the extracted object 140. In this case, a function corresponding to the movement of the subject 140 may be differently designated by a separate function button (or a combination of button inputs). For example, while the movement of the subject 140 is the same but the '*' button of the keypad unit 135 of the notebook computer 130 is pressed, the extracted movement of the subject 140 and the '#' button are pressed. The movement of the extracted subject 140 may be set to perform different functions.

또는 피사체(140)의 움직임은 동일하지만 피사체 움직임 감지 마우스(100)에 별도로 구비된 버튼이 눌려진 상태에서 추출된 피사체(140)의 움직임은 서로 다른 기능이 수행되도록 설정될 수도 있다.Alternatively, the movement of the subject 140 may be set to perform different functions while the movement of the subject 140 is the same but the extracted subject 140 is pressed while a button provided separately in the subject movement detecting mouse 100 is pressed.

또한, 노트북 컴퓨터(130)의 메인제어부(미도시)는 피사체 움직임 감지 마우스(100)에서 입력된 신호에 상응하도록 노트북 컴퓨터(130)의 각 구성 요소들을 제어한다. 예를 들어, 컴퓨터(130)의 메인제어부(미도시)는 피사체 움직임 감지 마우스(100)로부터 디스플레이부(150)에 표시된 포인터(150-1)를 제어하기 위한 신호가 입력되면, 포인터(150-1)가 디스플레이부(150)에서 상응하는 위치에 위치되도록 제어할 수 있다.In addition, the main controller (not shown) of the notebook computer 130 controls the respective components of the notebook computer 130 to correspond to the signal input from the subject motion detection mouse (100). For example, when a signal for controlling the pointer 150-1 displayed on the display unit 150 is input from the subject movement detecting mouse 100, the main controller of the computer 130 receives the pointer 150-. 1) may be controlled to be positioned at a corresponding position on the display unit 150.

이상에서, 피사체 움직임 감지 마우스(100)는 피사체(140)의 움직임을 감지하여 포인터(150-1) 등을 제어하는 경우에 대하여 설명하였으나, 피사체 움직임 감지 마우스(100)는 기존의 마우스의 기능도 포함할 수 있음은 자명하다. 즉, 피사체 움직임 감지 마우스(100)는 기존의 광마우스 및/또는 볼마우스의 기능에 피사 체(140)의 움직임을 감지할 수 있는 기능을 포함할 수도 있다. 이때, 사용자는 광마우스 및/또는 볼마우스의 기능을 사용할 것인지 피사체(140)의 움직임을 감지하는 기능을 사용할 것인지 부가적으로 부착되어 있는 버튼부(미도시)를 조작하여 선택할 수 있을 것이다.In the above, the case in which the subject movement detecting mouse 100 controls the pointer 150-1 by detecting the movement of the subject 140 has been described. However, the subject movement detecting mouse 100 also functions as a conventional mouse. It may be included. That is, the subject movement detecting mouse 100 may include a function of detecting the movement of the subject 140 in the functions of the existing optical mouse and / or ball mouse. In this case, the user may select whether to use the function of the optical mouse and / or the ball mouse or the function of detecting the movement of the subject 140 by operating a button part (not shown) attached additionally.

또한, 피사체 움직임 감지 마우스(100)는 광마우스 및/또는 볼마우스의 기능과 피사체(140)의 움직임을 감지하는 기능을 동시에 수행할 수도 있다. 예를 들어, 피사체 움직임 감지 마우스(100)는 광마우스 및/또는 볼마우스의 기능을 이용하여 포인터(150-1)의 위치를 제어할 수 있고, 동시에 피사체(140)의 움직임을 감지하여 디스플레이부(150)의 스크롤(Scroll)을 제어할 수 있다. 즉, 사용자가 피사체 움직임 감지 마우스(100) 자체의 위치를 이동시키면서 피사체(140)를 이미지센서부(110) 근처에서 이동시키면, 피사체 움직임 감지 마우스(100)는 피사체 움직임 감지 마우스(200) 자체의 움직임에 상응하여 포인터(150-1)의 위치를 제어할 수 있고, 동시에 피사체(140)의 움직임에 상응하여 디스플레이부(150)의 스크롤을 제어할 수 있다.In addition, the object movement detecting mouse 100 may simultaneously perform the function of the optical mouse and / or the ball mouse and the function of detecting the movement of the subject 140. For example, the subject movement detecting mouse 100 may control the position of the pointer 150-1 using the functions of the optical mouse and / or the ball mouse, and simultaneously detect the movement of the subject 140 to display the display unit. The scroll of 150 may be controlled. That is, when the user moves the subject 140 near the image sensor unit 110 while moving the position of the subject movement detecting mouse 100 itself, the subject movement detecting mouse 100 may be used to determine the movement of the subject movement detecting mouse 200 itself. The position of the pointer 150-1 may be controlled according to the movement, and at the same time, the scrolling of the display unit 150 may be controlled according to the movement of the subject 140.

도 1b는 본 발명에 일 실시예에 따른 피사체 움직임 감지 마우스의 촬상부를 나타낸 도면이다. 1B is a view illustrating an image capturing unit of a subject motion detecting mouse according to an exemplary embodiment of the present invention.

도 1b를 참조하면, 포인터 움직임 감지 마우스(100)는 이미지 센서부(110) 및 광원부(120)을 포함하는 촬상부(170), 촬상부(170)를 수용하는 하우징(180), 하우징(180)의 상부에 구비되고, 포인터 움직임 감지 마우스(100)의 상부 케이스에 형성된 투광부(160) 및 촬상부(170)에 의해 생성된 영상데이터를 처리하여 정보가 입력되게 하는 메인제어부(미도시)를 포함한다. 또한 투광부(160) 상에는 그 움직임을 추출하여 정보를 입력하기 위한 피사체(140)가 도시되어 있다. Referring to FIG. 1B, the pointer movement detecting mouse 100 includes an image capturing unit 170 including an image sensor unit 110 and a light source unit 120, a housing 180 accommodating the image capturing unit 170, and a housing 180. A main control unit (not shown) provided at an upper part of the control unit and processing image data generated by the light transmitting unit 160 and the image capturing unit 170 formed on the upper case of the pointer movement detecting mouse 100 to input information. It includes. Also, the subject 140 for extracting the movement and inputting information is illustrated on the light transmitting unit 160.

즉, 포인터 움직임 감지 마우스(100)는 빛이 통과할 수 있는 투광부(160) 상에서 피사체(140)가 일정한 방향으로 이동하면, 이미지 센서부(110)가 피사체(140)를 연속적으로 촬영하고 메인제어부(미도시)에 의해 피사체(140)의 움직임에 따른 정보가 입력되게 한 것이다. 이때, 이미지 센서부(110) 및/또는 광원부(120)는 피사체 움직임 감지 마우스(100)의 내부에 구비되어 있으나, 상부에는 포인터 움직임 감지 마우스(100)의 상부 케이스에 형성된 투명한 투광부(160)가 위치하고 있으므로 피사체(140)를 연속적으로 촬상할 수 있다. That is, in the pointer movement detecting mouse 100, when the subject 140 moves in a predetermined direction on the light transmitting unit 160 through which light may pass, the image sensor unit 110 continuously photographs the subject 140 and the main body. The controller (not shown) inputs information according to the movement of the subject 140. In this case, the image sensor unit 110 and / or the light source unit 120 are provided inside the subject movement detecting mouse 100, but the transparent light transmitting unit 160 formed on the upper case of the pointer movement detecting mouse 100 is located on the upper portion. Since is located, the subject 140 can be continuously photographed.

예를 들어, 광원부(120)에서 나온 빛은 피사체(140)인 사용자의 손가락에서 반사되어 이미지 센서부(110)에 입사되고, 이미지 센서부(110)는 피사체(140)에 의해 반사된 빛을 수광하여 상응하는 이미지 데이터를 생성할 수 있다. 이에 따라 메인제어부(미도시)에 의해 피사체의 움직임이 인식되어 피사체 움직임 감지 마우스(200)는 피사체(140)의 움직임에 상응하는 기능을 수행할 수 있다. For example, the light emitted from the light source unit 120 is reflected from the user's finger, which is the subject 140, is incident on the image sensor unit 110, and the image sensor unit 110 reflects the light reflected by the subject 140. The light may be received to generate corresponding image data. Accordingly, the movement of the subject is recognized by the main controller (not shown), so that the subject movement detecting mouse 200 may perform a function corresponding to the movement of the subject 140.

도 1c는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스를 도시한 도면이다.1C is a diagram illustrating a subject motion detecting mouse according to another exemplary embodiment of the present invention.

도 1c를 참조하면, 피사체 움직임 감지 마우스(100)는 기존의 마우스의 스크롤휠(Scroll-whell) 대신에 이미지 센서부(160) 및 광원부(170-1 및 170-2)를 포함 하는 촬상부를 포함한다. 즉, 사용자는 손으로 피사체 움직임 감지 마우스(100)를 파지하고, 피사체(140)인 검지 손가락을 촬상부 위에 위치시킬 수 있다. 따라서, 사용자는 파지된 피사체 움직임 감지 마우스(100)를 움직여서 포인터(150-1)의 위치를 제어할 수 있고, 동시에 피사체(140)인 검지 손가락을 움직여서 디스플레이부(150)의 스크롤(Scroll)을 제어할 수 있다. 즉, 사용자가 피사체 움직임 감지 마우스(100) 자체의 위치를 이동시키면 피사체 움직임 감지 마우스(100)는 피사체 움직임 감지 마우스(200) 자체의 움직임에 상응하여 포인터(150-1)의 위치를 제어할 수 있고, 사용자가 피사체(140)인 검지 손가락을 움직이면 피사체 움직임 감지 마우스(100)는 피사체(140)의 움직임에 상응하여 디스플레이부(150)의 스크롤을 제어할 수 있다.Referring to FIG. 1C, the subject motion detecting mouse 100 includes an image capturing unit including an image sensor unit 160 and light sources 170-1 and 170-2 instead of a scroll wheel of a conventional mouse. do. That is, the user may hold the subject movement detecting mouse 100 by hand and place the index finger, which is the subject 140, on the image capturing unit. Accordingly, the user may control the position of the pointer 150-1 by moving the gripped object movement detecting mouse 100, and simultaneously moves the index finger, which is the subject 140, to scroll the display unit 150. Can be controlled. That is, when the user moves the position of the subject movement detecting mouse 100 itself, the subject movement detecting mouse 100 may control the position of the pointer 150-1 according to the movement of the subject movement detecting mouse 200 itself. When the user moves the index finger, which is the subject 140, the subject movement detecting mouse 100 may control scrolling of the display unit 150 according to the movement of the subject 140.

이상에서 피사체 움직임 감지 마우스(100)를 일반적으로 도시한 도면을 설명하였으며, 이하에서는 첨부 도면을 참조하여, 피사체 움직임 감지 마우스(100)의 동작 및 피사체 움직임 감지 마우스(100)에서 생성한 영상데이터를 이용하여 피사체(140)의 움직임을 감지하는 방법에 대하여 설명한다. 또한, 이하에서는 피사체 움직임 감지 마우스(100)가 피사체(140)의 움직임을 감지하는 기능을 사용하는 경우를 가정하여 설명한다. 즉, 피사체 움직임 감지 마우스(100)가 피사체(140) 움직임을 감지하여 포인터(150-1)를 제어하는 기능 만을 포함하는 경우에는 문제가 없으나, 도 1a 및 도 1b에 도시된 바와 같이, 일반적인 광마우스 및/또는 볼마우스에 피사체(140)의 움직임을 감지할 수 있는 기능이 추가된 경우에는 피사체 움직임 감 지 마우스(100)가 사용자의 선택 등에 의하여 피사체(140)의 움직임을 감지하는 기능을 사용하여 포인터(140-1) 등을 제어하는 경우를 가정한다. In the above description, a general view of the subject movement detecting mouse 100 has been described. Hereinafter, the operation of the subject movement detecting mouse 100 and the image data generated by the subject movement detecting mouse 100 will be described with reference to the accompanying drawings. A method of sensing the movement of the subject 140 by using the above will be described. In addition, hereinafter, it will be described on the assumption that the subject movement detecting mouse 100 uses the function of detecting the movement of the subject 140. That is, there is no problem when the subject movement detecting mouse 100 includes only a function of detecting the movement of the subject 140 to control the pointer 150-1, but as shown in FIGS. 1A and 1B, general optical When the function of detecting the movement of the subject 140 is added to the mouse and / or the ball mouse, the subject movement detection mouse 100 detects the movement of the subject 140 by the user's selection. Assume a case where the pointer 140-1 is controlled.

또한, 본 발명에 따른 실시예는 크게 2가지로 구분되는데, 첫째는 피사체(140)를 미리 설정된 시간 간격으로 촬상한 복수의 서로 다른 영상데이터를 비교하여 피사체이미지의 중심점을 추출하여 피사체(140)의 움직임을 감지하는 방법이고, 둘째는 피사체(140)를 촬상하여 생성된 영상데이터의 선명도를 조절하여 선명도가 서로 다른 프레임으로부터 피사체(140)의 일단의 외곽선을 추출하여 피사체(140)의 움직임을 감지하는 방법이다. 이하에서 차례대로 설명한다. In addition, embodiments according to the present invention are largely divided into two types. First, by comparing a plurality of different image data obtained by capturing the subject 140 at a predetermined time interval, the center point of the subject image is extracted to extract the subject 140. The second method is to adjust the sharpness of the image data generated by capturing the subject 140 and extract the outline of one end of the subject 140 from a frame having different clarity to detect the movement of the subject 140. How to detect. It demonstrates in order below.

도 2는 본 발명의 일 실시예에 따른 피사체 움직임 감지 마우스의 블록 구성도이다. 2 is a block diagram of a subject movement detecting mouse according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 피사체 움직임 감지 마우스(200)는 필터부(212), 광원부(214), 렌즈부(216) 및 이미지 센서부(218)를 포함하는 촬상부(210)와 피사체 추출부(231), 중심 판단부(232), 포인터 위치 설정부(234) 및 피사체 판단부(236)를 포함하는 이미지 처리부(230) 및 저장부(240)를 포함할 수 있다. 이하에서, 상기한 각 구성 요소의 동작에 대하여 설명한다. 또한, 비록 도시되지는 않았으나 피사체 움직임 감지 마우스(200)는 다른 전자기기(예를 들어, 노트북 컴퓨터(130) 등)와 연결되어 신호를 송수신할 수 있는 외부 송수신 단자, 광센서 또는 볼(ball)의 움직임을 감지할 수 있는 센서 및 사용자의 조작에 상응하는 신호를 생성하여 출력하는 키입력부 등을 더 포함할 수 있음은 자명하다. Referring to FIG. 2, the subject motion detecting mouse 200 according to an exemplary embodiment of the present invention includes an image capturing unit including a filter unit 212, a light source unit 214, a lens unit 216, and an image sensor unit 218. The image processing unit 230 and the storage unit 240 may include a 210, a subject extractor 231, a center determiner 232, a pointer position setter 234, and a subject determiner 236. have. The operation of each of the above components will be described below. In addition, although not shown, the subject movement detecting mouse 200 may be connected to other electronic devices (eg, the notebook computer 130, etc.) to transmit / receive a signal to transmit / receive a signal, an optical sensor, or a ball. It is obvious that the sensor may further include a key input unit for generating and outputting a signal corresponding to the manipulation of the user and a user.

다만, 광마우스 또는 볼마우스의 기능은 당업자에 있어서 자명한 사항인 바, 이하에서는 이에 대한 설명은 생략한다. 따라서, 이하에서는 피사체 움직임 감지 마우스(200)가 피사체(140)의 움직임을 감지하여 상응하는 각 기능을 수행하는 동작에 대하여 설명한다. However, the functions of the optical mouse or the ball mouse are obvious to those skilled in the art, and a description thereof will be omitted below. Therefore, the following describes an operation in which the subject movement detecting mouse 200 detects the movement of the subject 140 and performs each function.

상술한 바와 같이, 광원부(214)로부터 조사된 광은 피사체(140)에 의하여 반사되어 필터부(212) 및 렌즈부(216)를 경유하여 이미지 센서부(218)로 조사될 수 있다. As described above, the light irradiated from the light source unit 214 may be reflected by the subject 140 and irradiated to the image sensor unit 218 via the filter unit 212 and the lens unit 216.

이때, 필터부(212)는 특정 파장의 광만을 통과시킴으로써 피사체(140)의 움직임을 정확히 측정할 수 있도록 한다. 즉, 광원부(214)는 특정의 파장을 가지는 광을 출력할 수 있고, 이러한 광은 피사체(140)에서 반사되어 필터부(212)를 통과함으로써 노이즈(noise)로 작용할 수 있는 다른 파장의 광을 차단할 수 있는 효과가 있다. 예를 들어, 광원부(214)는 적외선을 출사하고, 필터부(212)는 적외선만을 통과할 수 있는 경우를 가정한다. 여기서, 본 발명에 이용될 수 있는 적외선은 태양광에서 상대적으로 비율이 작은 광이 될 수 있다. 예를 들어, 적외선의 파장은 솔라 스펙트럼에서 상대적으로 광량이 작은 광의 파장인 900~980nm, 1080~1180nm, 1325~1425nm, 1800~2000nm 등이 될 수 있다.At this time, the filter unit 212 allows only the light of a specific wavelength to pass through to accurately measure the movement of the subject 140. That is, the light source unit 214 may output light having a specific wavelength, and the light is reflected by the subject 140 and passes through the filter unit 212 to emit light having a different wavelength that may act as noise. There is an effect that can be blocked. For example, it is assumed that the light source unit 214 emits infrared rays, and the filter unit 212 can pass only infrared rays. Here, the infrared rays which can be used in the present invention may be light having a relatively small ratio in sunlight. For example, the wavelength of the infrared light may be 900 to 980 nm, 1080 to 1180 nm, 1325 to 1425 nm, 1800 to 2000 nm, and the like, which are wavelengths of light having a relatively small amount of light in the solar spectrum.

여기에서는 필터부(212)가 포함된 촬상부(210)에 대해서 설명하고 있으나, 필터부(213)가 포함되지 않고 피사체(140)로부터 조사되는 모든 광을 이용하여 본 발명이 적용될 수도 있음은 자명하다.Although the image capturing unit 210 including the filter unit 212 has been described herein, it is obvious that the present invention may be applied using all the light emitted from the subject 140 without the filter unit 213. Do.

광원부(214)는 특정의 파장을 가지는 광(light)을 출력할 수 있고, 이러한 광은 피사체에서 반사되어 필터부(212)를 통과함으로써 주위의 노이즈(noise)로 작용할 수 있는 다른 파장의 광을 차단할 수 있는 효과가 있음은 상술한 바와 같다. 특히, 광원부(214)는 메인제어부(미도시)의 제어를 받아 미리 설정된 시간을 간격으로 점등될 수 있다. 이때, 이미지 센서부(218)는 광원부(214)가 광을 출력하는 동안에 피사체(140)를 촬상하여 유광(有光) 영상데이터를, 광원부(214)가 광을 출력하지 아니하는 동안에 피사체(140)를 촬상하여 무광(無光) 영상데이터를 각각 생성하여 이미지 처리부(1030)로 출력할 수 있다. The light source unit 214 may output light having a specific wavelength, and the light is reflected by the subject and passes through the filter unit 212 to emit light having a different wavelength, which may act as ambient noise. As described above, there is an effect that can be blocked. In particular, the light source unit 214 may be turned on at a predetermined time interval under the control of the main controller (not shown). At this time, the image sensor unit 218 photographs the subject 140 while the light source unit 214 outputs the light to display the shiny image data, and the subject 140 while the light source unit 214 does not output the light. ), Each of the matt image data may be generated and output to the image processor 1030.

이때, 메인제어부(미도시)는 본 발명의 일 실시예에 따른 피사체 움직임 감지 마우스(200)가 연결되는 전자기기(예를 들어, 노트북 컴퓨터(130)등)의 전반적인 동작을 제어하는 제어부일 수 있다. 또한, 광원부(214)는 촬상부(210) 내에 별도로 구비된 광원부(214)만을 제어하기 위한 부가 제어부(미도시)의 제어를 받을 수도 있다.In this case, the main controller (not shown) may be a controller for controlling the overall operation of the electronic device (for example, the notebook computer 130, etc.) to which the subject movement detecting mouse 200 is connected according to an embodiment of the present invention. have. In addition, the light source unit 214 may be controlled by an additional control unit (not shown) for controlling only the light source unit 214 separately provided in the imaging unit 210.

렌즈부(216)는 필터부(213)를 통과한 광을 이미지 센서부(219)로 전달하는 기능을 수행할 수 있다.The lens unit 216 may perform a function of transferring the light passing through the filter unit 213 to the image sensor unit 219.

이미지 센서부(218)는 CMOS(Complementary metal oxide semiconductor) 이미지 센서 또는 CCD(charge coupled device) 이미지 센서가 될 수 있다. CMOS(Complementary metal oxide semiconductor) 이미지 센서는 포토 다이오드(photo diode)를 포함하는 다수의 단위 픽셀로 구성되고, 센서에서 출력되는 신호는 디지털 전기 신호로서 이러한 단위 픽셀은 제어 회로 및 신호 처리에 의해 구동된다. CCD(charge coupled device) 이미지 센서는 다수개의 MOS 커패시터를 포함 하며, 이러한 MOS 커패시터에 전하(캐리어)를 이동시킴으로써 아날로그 전기 신호를 출력하여 동작된다. The image sensor unit 218 may be a complementary metal oxide semiconductor (CMOS) image sensor or a charge coupled device (CCD) image sensor. A complementary metal oxide semiconductor (CMOS) image sensor is composed of a plurality of unit pixels including a photo diode, and the signal output from the sensor is a digital electrical signal, which unit pixel is driven by a control circuit and signal processing. . A charge coupled device (CCD) image sensor includes a plurality of MOS capacitors, and is operated by outputting an analog electric signal by moving charges (carriers) to the MOS capacitors.

이러한 이미지 센서부(218)는 광을 감지할 수 있는 복수의 픽셀들을 포함한다. 따라서, 이미지 센서부(218)는 이미지 처리부(230)가 피사체(140)가 위치한 좌표값에 대응되는 광이 입사되는 위치를 감지하여 디스플레이부(150)의 포인터를 이동시키기 위해 촬상된 피사체(140)의 이미지가 위치한 좌표값을 산출할 수 있도록 할 수 있다. The image sensor unit 218 includes a plurality of pixels capable of sensing light. Accordingly, the image sensor 218 detects a position at which the light corresponding to the coordinate value at which the subject 140 is located is incident by the image processor 230 to move the pointer of the display unit 150. ) Can be used to calculate the coordinates where the image is located.

또한, 광원부(214) 및 이미지 센서부(218)는 도 1에 도시된 바와 같이 피사체 움직임 감지 마우스(200)의 상단에 위치할 수 있다. 물론, 광원부(214) 및 이미지 센서부(218)는 사용 방법 또는 용도에 따라 피사체 움직임 감지 마우스(200)의 일측에 위치될 수도 있음은 자명하다. In addition, the light source unit 214 and the image sensor unit 218 may be located at the top of the subject movement detection mouse 200 as shown in FIG. Of course, it is apparent that the light source unit 214 and the image sensor unit 218 may be located on one side of the subject movement detecting mouse 200 according to a use method or a purpose.

이미지 처리부(230)는 이미지 센서부(219)에서 인식한 피사체의 영상데이터로부터 피사체(140)의 움직임에 상응하는 좌표값을 추출한다. 이를 자세히 살펴보면, 피사체 추출부(231)는 촬상부(210)로부터 입력 받은 유광 영상데이터 및 무광 영상데이터를 비교하여 피사체영상데이터를 생성한다. The image processor 230 extracts coordinate values corresponding to the movement of the subject 140 from the image data of the subject recognized by the image sensor 219. In detail, the object extracting unit 231 generates the subject image data by comparing the matte image data and the matte image data received from the imaging unit 210.

피사체영상데이터가 생성되는 방법은 여러 가지가 있을 수 있는데, 첫째, 유광 영상데이터의 휘도값에서 각 픽셀에 상응하는 무광 영상데이터의 휘도값을 감산하여 피사체영상데이터가 생성되는 방법과 촬상된 피사체(140)의 외곽선을 추출하여 피사체영상데이터가 생성되는 방법이 있을 수 있다. 이하에서는 첫 번째 방법에 대하여 설명하고, 두 번째 방법에 대해서는 도 12를 참조하여 후술한다. The subject image data may be generated in various ways. First, a method of generating subject image data by subtracting the luminance value of the matte image data corresponding to each pixel from the luminance value of the glossy image data and the photographed subject ( There may be a method of generating the subject image data by extracting the outline of 140. Hereinafter, the first method will be described, and the second method will be described later with reference to FIG. 12.

즉, 유광 영상데이터는 광원부(214)가 활성화된 상태에서 촬상된 영상데이터이므로 광원부(214)에서 가까운 위치에서 촬상된 피사체(140)의 이미지는 휘도값이 클 것이고, 광원부(214)에서 먼 위치에서 촬상된 배경 부분 이미지의 휘도값은 상대적으로 작을 것이다. 또한, 무광 영상데이터는 광원부(214)가 불활성화된 상태에서 촬상된 영상데이터이므로 피사체(140) 이미지의 휘도값과 배경 이미지의 휘도값은 유광 영상데이터에 비하여 그 차이가 적을 것이다. That is, since the gloss image data is image data captured while the light source unit 214 is activated, the image of the subject 140 photographed at a position close to the light source unit 214 will have a high luminance value and a position far from the light source unit 214. The luminance value of the background partial image picked up at will be relatively small. In addition, since the matte image data is image data photographed while the light source unit 214 is inactivated, the luminance value of the subject 140 image and the luminance value of the background image will be smaller than those of the glossy image data.

또한, 유광 영상데이터와 무광 영상데이터의 각 배경은 모두 광원부(214)와 피사체에 비하여 광원부(214)와 먼 거리에 위치할 것이므로 휘도값의 차이가 매우 적을 것이다. 따라서, 유광 영상데이터의 휘도값에서 각 픽셀에 상응하는 무광 영상데이터의 휘도값을 감산해주면 피사체(140)를 제외한 배경 부분의 휘도값은 거의 '0(zero)'에 가까운 값이 될 것이고, 피사체(140) 이미지에 상응하는 부분의 휘도값 만이 존재할 것이다. 이러한 방법에 의하여 피사체 추출부(231)는 촬상된 영상데이터에서 피사체(140)만을 추출한 피사체영상데이터를 생성할 수 있다. In addition, since the backgrounds of the glossy image data and the matte image data are both located far from the light source 214 and the subject, the difference in luminance value will be very small. Therefore, if the luminance value of the matte image data corresponding to each pixel is subtracted from the luminance value of the glossy image data, the luminance value of the background portion except for the subject 140 will be almost 'zero'. Only the luminance value of the portion corresponding to the 140 image will be present. In this manner, the subject extractor 231 may generate subject image data obtained by extracting only the subject 140 from the captured image data.

중심 판단부(232)는 피사체 추출부(231)에서 생성한 피사체영상데이터를 분석하여 피사체이미지의 중심점을 판단하기 위하여 피사체(140)가 촬상된 피사체이미지의 해당 픽셀(이하, '기준픽셀'이라 칭함)을 추출한다. 예를 들어, 이미지 센서부(1018)의 해상도가 640*480(가로*세로)이고, 각 픽셀의 휘도값이 0 내지 255로 구분된 경우를 가정한다. 휘도값이 '0'인 경우는 밝기가 '0'이므로 검정색일 것이고, 휘도값이 '255'인 경우는 가장 밝은 경우이므로 흰색으로 표현될 것이다. The center determining unit 232 analyzes the subject image data generated by the subject extracting unit 231 to determine the center point of the subject image. Extract). For example, it is assumed that the resolution of the image sensor unit 1018 is 640 * 480 (horizontal * vertical), and luminance values of each pixel are divided by 0 to 255. If the luminance value is '0', the brightness is '0', so it will be black, and if the luminance value is '255', it will be represented as white because it is the brightest case.

만일 기준픽셀을 추출하기 위하여 미리 설정된 기준 경계값이 '10,000'이라 면 중심 판단부(232)는 피사체영상데이터에서 휘도값이 큰 픽셀 순서로 10,000개의 기준픽셀을 추출할 수 있다. 이때, 기준 경계값이 너무 크면 피사체영상데이터의 대부분의 픽셀이 기준픽셀로 추출될 것이고, 기준 경계값이 너무 작으면 피사체영상데이터의 극히 일부분만이 기준픽셀로 추출될 것이다. 이러한 경우 기준픽셀에는 피사체(140)가 촬상된 픽셀 외에 이와 무관한 배경 부분에 대한 픽셀(즉, 노이즈(noise) 픽셀)의 비율이 높아지게 될 것이다. 즉, 기준 경계값이 너무 크거나 너무 작으면 노이즈 픽셀의 비율이 높아지므로 중심 판단부(1032)는 촬상된 피사체(140)의 정확한 위치를 파악하기 힘들 것이다. If the preset reference boundary value is '10, 000 'in order to extract the reference pixel, the center determination unit 232 may extract 10,000 reference pixels in the order of pixels having the highest luminance value from the subject image data. In this case, if the reference boundary value is too large, most pixels of the subject image data will be extracted as reference pixels, and if the reference boundary value is too small, only a small part of the subject image data will be extracted as reference pixels. In this case, the ratio of pixels (ie, noise pixels) to the background portion irrelevant to the reference pixel other than the imaged image of the subject 140 will be increased. That is, if the reference boundary value is too large or too small, the ratio of the noise pixels is high, so the center determination unit 1032 may have difficulty in determining the exact position of the photographed subject 140.

따라서, 기준 경계값은 노이즈 픽셀의 비율을 무시할 수 있도록 휘도 상한값 및/또는 휘도 하한값이 설정될 수 있다. 예를 들어, 기준 경계값이 '10,000'이고, 휘도 하한값이 '50'인 경우를 가정하자. 이 경우 중심 판단부(232)는 피사체영상데이터에서 휘도값이 50보다 큰 픽셀만을 대상으로 하여 휘도값이 큰 픽셀 순서로 10,000개의 기준픽셀을 추출할 수 있다. 즉, 중심 판단부(232)는 피사체영상데이터의 각 픽셀을 분석하여 휘도값이 큰 순서대로 10,000개의 기준픽셀을 추출하되, 이들 중 휘도값이 50 미만(또는 이하)인 픽셀을 기준픽셀에서 제외할 수 있다. Therefore, the upper limit and / or lower limit of the luminance may be set as the reference boundary so that the ratio of the noise pixels can be ignored. For example, assume that the reference boundary value is '10, 000 'and the lower luminance limit is' 50'. In this case, the center determination unit 232 may extract 10,000 reference pixels in the order of the pixels having the highest luminance from only the pixels having the luminance greater than 50 in the subject image data. That is, the center determination unit 232 analyzes each pixel of the subject image data and extracts 10,000 reference pixels in order of increasing luminance, excluding pixels having luminance values of less than 50 (or less) from the reference pixels. can do.

또한, 피사체(140)는 일반적으로 사용자의 손가락일 경우가 많을 것이므로 휘도값이 너무 큰 경우는 노이즈 픽셀에 해당할 가능성이 높다. 따라서, 기준 경계값이 '10,000'이고 휘도 상한값이 '200'인 경우를 가정하면, 중심 판단부(232)는 피사체영상데이터에서 휘도값이 '200' 미만(또는 이하)인 픽셀만을 대상으로 하여 기준픽셀을 추출할 수 있다.In addition, since the subject 140 will generally be a user's finger, if the luminance value is too large, it is likely to correspond to a noise pixel. Therefore, assuming that the reference boundary value is '10, 000 'and the luminance upper limit value is' 200', the center determination unit 232 targets only pixels whose luminance value is less than (or less than) 200 in the subject image data. The reference pixel can be extracted.

또한, 기준 경계값은 휘도값이 큰 픽셀의 개수가 아닌 미리 설정된 휘도값일 수도 있다. 즉, 중심 판단부(232)는 피사체영상데이터를 분석하여 기준 경계값을 넘는 픽셀을 모두 기준픽셀로 추출할 수 있다. 예를 들어, 기준 경계값이 '150'으로 설정되어 있는 경우, 중심 판단부(232)는 피사체영상데이터에서 휘도값이 '150'을 넘는 픽셀을 모두 기준픽셀로 추출할 수도 있다. 이 경우에도 상술한 바와 같이 기준 경계값이 너무 크거나 너무 작은 경우에는 기준픽셀에서의 노이즈 픽셀의 비율이 높을 것이므로 기준 경계값에 대한 휘도 상한값 및/또는 휘도 하한값이 설정될 수 있음은 자명하다.In addition, the reference boundary value may be a predetermined luminance value instead of the number of pixels having a large luminance value. That is, the center determination unit 232 may analyze the subject image data and extract all pixels that exceed the reference boundary value as the reference pixels. For example, when the reference boundary value is set to '150', the center determination unit 232 may extract all pixels whose luminance value exceeds '150' from the subject image data as reference pixels. In this case, too, if the reference boundary value is too large or too small, the ratio of the noise pixels in the reference pixel will be high, so it is obvious that the luminance upper limit value and / or the luminance lower limit value with respect to the reference boundary value can be set.

또한, 중심 판단부(232)는 기준픽셀을 분석하여 피사체이미지의 중심점을 판단하여 저장부(240)에 저장한다. 이때, 중심점은 피사체(140)의 무게 중심일 수 있다. 예를 들어, 피사체(140)의 내부에 위치한 특정 좌표인 무게 중심은 다음과 같은 수학식에 의해 산출될 수 있다.In addition, the center determination unit 232 analyzes the reference pixel to determine the center point of the subject image and stores it in the storage unit 240. In this case, the center point may be the center of gravity of the subject 140. For example, the center of gravity, which is a specific coordinate located inside the subject 140, may be calculated by the following equation.

Figure 112006098420238-pat00003
(1)
Figure 112006098420238-pat00003
(One)

Figure 112006098420238-pat00004
(2)
Figure 112006098420238-pat00004
(2)

Figure 112006098420238-pat00005
(3)
Figure 112006098420238-pat00005
(3)

여기서, R은 무게 중심, M은 피사체의 기준픽셀의 휘도값을 모두 더한 값, mi는 피사체의 각 기준픽셀의 휘도값, ri는 기준픽셀의 좌표값이다. 아래 첨자 x, y는 각각 X축과 Y축에 해당하는 값임을 나타내며, 식 (3)은 식 (1)과 식 (2)에 대한 벡터 표현이다. Where R is the center of gravity, M is the sum of the luminance values of the reference pixels of the subject, mi is the luminance value of each reference pixel of the subject, and ri is the coordinate value of the reference pixel. The subscripts x and y indicate the values corresponding to the X and Y axes, respectively, and Equation (3) is a vector representation of Equation (1) and (2).

다만, 중심 판단부(232)가 상술한 수학식에 의하여 피사체이미지의 중심점을 판단하는 경우에는 기준픽셀의 휘도값을 모두 반영하여야 하므로 연산량이 많아지게 되어 피사체 움직임 감지 마우스(200)의 전반적인 기능을 저하시키는 문제점이 발생할 수 있다. 따라서, 피사체이미지의 중심점은 다음과 같은 수학식에 의하여 판단될 수도 있다. However, when the center determination unit 232 determines the center point of the subject image by the above-described equation, since the luminance values of the reference pixels must all be reflected, the calculation amount increases, thereby increasing the overall function of the subject motion detection mouse 200. Degrading problems may occur. Therefore, the center point of the subject image may be determined by the following equation.

Figure 112006098420238-pat00006
(4)
Figure 112006098420238-pat00006
(4)

Figure 112006098420238-pat00007
(5)
Figure 112006098420238-pat00007
(5)

Figure 112006098420238-pat00008
(6)
Figure 112006098420238-pat00008
(6)

여기서, R은 무게 중심, ri는 기준픽셀의 좌표값, n은 기준픽셀의 개수이다. 아래 첨자 x, y는 각각 X축과 Y축에 해당하는 값임을 나타내고, 식 (6)은 식 (4)와 식 (5)에 대한 벡터 표현이다.Where R is the center of gravity, ri is the coordinate value of the reference pixel, and n is the number of reference pixels. Subscripts x and y represent values corresponding to the X and Y axes, respectively, and Equation (6) is a vector representation of Equation (4) and (5).

즉, 중심 판단부(232)는 기준픽셀의 휘도값을 반영하지 않고 피사체이미지의 중심점을 판단할 수 있다. 이는 각 기준픽셀의 휘도값은 큰 차이가 없을 것이므로 중심 판단부(232)는 이에 대한 반영을 하지 아니하고 기준픽셀의 좌표값의 평균값을 피사체이미지의 중심점으로 산출할 수 있다. 예를 들어, 기준픽셀의 휘도값을 '1', 나머지 픽셀의 휘도값을 '0'으로 구분할 경우, 피사체영상데이터는 기준픽셀(즉, 피사체(140)가 촬상된 부분)은 흰색으로 표시되고, 나머지 부분은 검은색으로 표시될 수 있을 것이다. 따라서, 흰색으로 표시된 기준픽셀(즉, 피사체(140))의 무게 중심은 상기한 수식 (4 내지 6)에 의하여 각 픽셀의 휘도값을 반영하지 아니하고 구할 수 있을 것이다. That is, the center determination unit 232 may determine the center point of the subject image without reflecting the luminance value of the reference pixel. Since the luminance value of each reference pixel will not be significantly different, the center determination unit 232 may calculate the average value of the coordinate values of the reference pixel as the center point of the subject image without reflecting it. For example, when the luminance value of the reference pixel is divided into '1' and the luminance value of the remaining pixels are divided into '0', the subject image data is displayed as white in the reference pixel (ie, the portion where the subject 140 is captured). , The rest will be displayed in black. Therefore, the center of gravity of the reference pixel (that is, the subject 140) displayed in white may be obtained without reflecting the luminance value of each pixel by the above equations (4 to 6).

또한, 중심 판단부(232)는 기준픽셀의 외곽선이 곡선형인 경우 그 곡률 반경을 산출하고, 해당 곡률 반경에 상응하는 중심점의 좌표값을 추출할 수 있다. 또한, 소정의 외곽선이 사각형인 경우 중심 판단부(232)는 사각형의 대각선이 만나는 좌표값을 소정의 외곽선에 의해 정해지는 좌표값으로 추출할 수도 있으며, 다른 다각형인 경우에는 서로 마주보는 꼭지점을 이은 둘 이상의 선을 만나는 좌표값으로 추출할 수도 있다. 예를 들어, 중심 판단부(232)는 곡선형의 외곽선을 나타내는 각 픽셀 간의 거리를 계산하여, 계산된 각 픽셀의 거리가 가장 큰 두 픽셀의 중간값을 상기 중심점의 좌표값으로 할 수 있다. In addition, when the outline of the reference pixel is curved, the center determination unit 232 may calculate a radius of curvature and extract a coordinate value of a center point corresponding to the radius of curvature. In addition, when the predetermined outline is a quadrangle, the center judging unit 232 may extract a coordinate value where a diagonal line of the quad meets as a coordinate value determined by the predetermined outline, and in the case of another polygon, connects vertices facing each other. It can also be extracted as coordinates that meet two or more lines. For example, the center determination unit 232 may calculate a distance between each pixel representing a curved outline, and may use the middle value of two pixels having the largest calculated distance of each pixel as the coordinate value of the center point.

포인터 위치 설정부(234)는 포인터의 위치를 이동시키기 위한 포인터 이동 모드에서 포인터가 디스플레이부(150, 즉 피사체 움직임 감지 마우스(200)가 연결된 전자기기의 디스플레이부)의 특정 위치에 위치되도록 포인터이동명령을 생성하여 메인제어부(미도시)출력한다. 이때, 포인터 이동 모드는 사용자의 선택에 의하여 활성화 및/또는 불활성화 될 수 있다. 예를 들어, The pointer position setting unit 234 moves the pointer so that the pointer is positioned at a specific position of the display unit 150 (that is, the display unit of the electronic device to which the subject movement detecting mouse 200 is connected) in the pointer movement mode for moving the position of the pointer. Generates a command and outputs the main controller (not shown). In this case, the pointer movement mode may be activated and / or deactivated by the user's selection. E.g,

즉, 포인터 위치 설정부(234)는 디스플레이부(150)의 포인터(150-1)의 위치 가 특정 좌표(예를 들어, 피사체영상데이터 상의 피사체이미지의 무게 중심)에 상응하여 위치되도록 하기 위하여 포인터이동명령을 생성하여 메인제어부(미도시)로 출력할 수 있다. 이때, 포인터이동명령은 무게 중심의 좌표값에 상응하는 신호일 수 있고, 포인터이동명령을 수신한 메인제어부(미도시)는 포인터이동명령에 상응하는 좌표에 디스플레이부(150)의 포인터가 위치되도록 제어할 수 있다. 이하, 도 3을 참조하여 포인터 이동 제어 방법에 대하여 설명한다. That is, the pointer position setting unit 234 is a pointer so that the position of the pointer 150-1 of the display unit 150 corresponds to a specific coordinate (for example, the center of gravity of the subject image on the subject image data). A movement command may be generated and output to a main controller (not shown). In this case, the pointer movement command may be a signal corresponding to the coordinate value of the center of gravity, and the main controller (not shown) receiving the pointer movement command controls the pointer of the display unit 150 to be positioned at the coordinates corresponding to the pointer movement command. can do. Hereinafter, a pointer movement control method will be described with reference to FIG. 3.

도 3은 본 발명에 의해 생성된 피사체영상데이터 및 포인터 이동에 대한 도면이다. 도 3을 참조하면, 피사체 움직임 감지 마우스(200)와 연결된 전자기기의 디스플레이부(150)가 도 3의 상부에 도시되고, 도 3의 하부에는 피사체 추출부(231)에서 추출한 피사체영상데이터(300)가 도시된다. 또한, 디스플레이부(150)에는 포인터(320-1 및 320-2)가 도시되고, 피사체영상데이터(300)에는 순차적으로 산출된 제m-1 중심점 및 제m 중심점이 도시된다. 또한, 제m-1 중심점이 (a1, b1) 이고, 제m-1 중심점에 상응하는 제m-1 포인터(320-1)가 디스플레이부(150)에 위치되어 있는 경우를 가정한다. 3 is a diagram illustrating subject image data and pointer movement generated by the present invention. Referring to FIG. 3, the display unit 150 of the electronic device connected to the subject movement detecting mouse 200 is shown in the upper part of FIG. 3, and in the lower part of FIG. 3, the subject image data 300 extracted by the subject extractor 231. ) Is shown. Also, pointers 320-1 and 320-2 are shown on the display unit 150, and m-th center points and m-th center points that are sequentially calculated are displayed on the subject image data 300. In addition, it is assumed that the m-th center point is (a1, b1), and the m-th pointer 320-1 corresponding to the m-th center point is positioned on the display unit 150.

이때, 포인터 위치 설정부(234)는 제m 중심점(a2, b2)에 상응하는 제m 포인터이동명령을 생성하여 메인제어부(미도시)로 출력할 수 있고, 메인제어부(미도시)는 제m 포인터이동명령을 수신하여 상응하는 위치에 제m 포인터(320-2)가 위치하도록 피사체 움직임 감지 마우스(200)가 연결된 전자기기(예를 들어 노트북 컴퓨터(130) 등)의 각 구성 부분을 제어할 수 있다. 이때, 메인제어부(미도시)가 피사 체 움직임 감지 마우스(200)가 연결된 전자기기(예를 들어 노트북 컴퓨터(130) 등)의 각 구성 부분을 제어하여 포인터의 위치를 변경하는 과정은 당업자에 있어서 자명한 바, 여기에서는 이에 대한 상세한 설명은 생략한다. In this case, the pointer position setting unit 234 may generate the m-th pointer movement command corresponding to the m th center points a2 and b2 and output the command to the main controller (not shown). Receiving a pointer movement command to control the respective components of the electronic device (for example, the notebook computer 130, etc.) to which the subject movement detection mouse 200 is connected so that the m-th pointer 320-2 is positioned at the corresponding position. Can be. At this time, the process of changing the position of the pointer by the main controller (not shown) to control the respective components of the electronic device (for example, notebook computer 130, etc.) to which the subject movement detection mouse 200 is connected, Obviously, detailed description thereof is omitted here.

다시 도 2를 참조하면, 피사체 판단부(236)는 피사체 추출부(231)에서 추출한 기준픽셀 (이하, '제m 기준픽셀' 이라 칭함(이때, m은 자연수))을 이용하여 피사체(140)의 움직임을 감지하고, 감지된 피사체(140)의 움직임에 상응하는 기능수행명령을 생성하여 이를 메인제어부(미도시)로 출력한다. 즉, 피사체 판단부(236)는 피사체(140)의 회전 동작, 클릭 동작, 직선 동작, 원근(遠近) 동작 등의 움직임을 감지할 수 있는데, 이하에서는 피사체(140)의 클릭 동작, 원근 동작 및 직선 동작을 예시로 하여 차례대로 설명한다. 이때, 기능수행명령은 버튼 클릭 등 마우스 조작에 상응하여 수행될 수 있는 다양한 기능을 수행하는 명령이다. 예를 들면, 메뉴 실행, 마우스의 버튼 클릭, 화면 스크롤 등이 기능수행명령에 의해 수행될 수 있다.Referring back to FIG. 2, the subject determining unit 236 uses the reference pixel extracted by the subject extracting unit 231 (hereinafter, referred to as 'm th reference pixel' (m is a natural number)). Detects the motion of the motion controller 110, generates a function execution command corresponding to the motion of the detected subject 140, and outputs the command to the main controller (not shown). That is, the subject determining unit 236 may detect a rotation operation, a click operation, a linear operation, a perspective operation, and the like of the subject 140. Hereinafter, the subject determination unit 236 may detect a click operation, a perspective operation, and the like. The linear operation will be described as an example in order. In this case, the function execution command is a command for performing various functions that can be performed corresponding to a mouse operation such as a button click. For example, menu execution, button click of a mouse, screen scrolling, and the like may be performed by a function execution command.

피사체 판단부(236)는 피사체(140)의 클릭 동작을 감지하기 위한 클릭 동작 감지 모드에서 순차적으로 생성된 피사체영상데이터를 이용하여 피사체(140)의 클릭 동작을 감지하여 상응하는 기능수행명령(이하, '클릭기능수행명령'이라 칭함)을 생성하여 메인제어부로 출력할 수 있다. 이때, 피사체 판단부(236)는 사용자의 선택에 의하여 클릭 동작 감지 모드로 동작할 수 있다. 예를 들어, 사용자는 피사체 움직임 감지 마우스(200)의 일측에 구비된 버튼부(미도시)를 조작하여 피사체 판단 부(236)의 동작 모드(예를 들면, 클릭 동작 감지 모드 등)를 조절할 수 있다. 따라서,, 사용자가 피사체(140)의 클릭 동작을 감지하기 위하여 당해 버튼부(미도시)를 조작하면, 피사체 판단부(236)는 사용자의 버튼부(미도시) 조작에 상응하는 클릭 동작 감지 모드로 동작할 수 있다. The subject determiner 236 detects the click operation of the subject 140 by using the subject image data sequentially generated in the click operation detection mode for detecting the click operation of the subject 140. Can be generated and output to the main control unit. In this case, the subject determining unit 236 may operate in the click motion detection mode by the user's selection. For example, a user may manipulate an operation mode (eg, a click operation detection mode) of the subject determination unit 236 by manipulating a button unit (not shown) provided at one side of the subject movement detection mouse 200. have. Accordingly, when the user manipulates the button unit (not shown) to detect the click operation of the subject 140, the subject determination unit 236 may perform the click operation detection mode corresponding to the user's operation of the button unit (not shown). It can work as

예를 들어, 사용자가 피사체(140)의 클릭 동작을 이용하여 피사체 움직임 감지 마우스(200)와 연결된 노트북 컴퓨터(130)의 스피커(미도시)를 통하여 출력될 음원 데이터(예를 들어, MP3 파일 등)를 선택하고자 하는 경우를 가정한다. 이때, 피사체 판단부(236)는 사용자의 노트북 컴퓨터(130)의 키패드부(135) 및/또는 피사체 움직임 감지 마우스(200)에 별도로 구비된 버튼부(미도시)의 조작에 상응하여 클릭 동작 감지 모드로 동작할 수 있다. 즉, 사용자가 모드 변환을 위하여 노트북 컴퓨터(130)의 키패드부(135) 및/또는 버튼부(미도시)를 조작하면 노트북 컴퓨터(130)의 키패드부(135) 및/또는 버튼부(미도시)는 사용자의 조작에 상응하는 모드변환신호를 생성하여 피사체 판단부(236)로 출력할 수 있고, 피사체 판단부(236)는 모드변환신호를 수신하여 상응하는 모드로 동작할 수 있다. For example, sound source data (for example, an MP3 file, etc.) to be output through a speaker (not shown) of a notebook computer 130 connected to a subject movement detection mouse 200 by a user using a click operation of the subject 140. Assume that you want to select). In this case, the subject determining unit 236 detects a click motion in response to an operation of a button unit (not shown) separately provided on the keypad 135 of the user's notebook computer 130 and / or the subject movement detecting mouse 200. Can operate in mode. That is, when the user manipulates the keypad unit 135 and / or the button unit (not shown) of the notebook computer 130 for mode switching, the keypad unit 135 and / or the button unit (not shown) of the notebook computer 130 is shown. ) May generate a mode conversion signal corresponding to a user's operation and output the mode conversion signal to the subject determining unit 236, and the subject determining unit 236 may receive the mode switching signal and operate in a corresponding mode.

예를 들어, 사용자가 피사체(140)의 움직임을 이용하여 클릭 동작을 수행하기 위하여 버튼부(미도시)를 조작하면, 버튼부(미도시)는 피사체 판단부(236)가 클릭 동작 감지 모드로 동작할 수 있도록 상응하는 모드변환신호를 생성하여 피사체 판단부(236)로 출력할 수 있다. 이때, 버튼부(미도시)는 사용자가 버튼부(미도시)를 한번 누르면 모드변환신호를 생성하여 출력할 수도 있고, 사용자가 버튼부(미도시)를 누르고 있는 동안 모드변환신호를 출력할 수 있다. 즉, 사용자가 버튼부(미 도시)의 조작을 종료하면 피사체 판단부(236)가 기존의 동작하던 모드로 동작하기 위한 모드변환종료명령을 생성하여 피사체 판단부(236)로 출력할 수도 있다. For example, when a user operates a button unit (not shown) to perform a click operation by using the movement of the subject 140, the button unit (not shown) causes the subject determination unit 236 to enter the click operation detection mode. In order to operate, a corresponding mode conversion signal may be generated and output to the subject determining unit 236. In this case, the button unit (not shown) may generate and output a mode conversion signal when the user presses the button unit (not shown) once, or output the mode conversion signal while the user presses the button unit (not shown). have. That is, when the user ends the operation of the button unit (not shown), the subject determining unit 236 may generate a mode conversion end command for operating in the existing mode and output the command to the subject determining unit 236.

또한, 피사체 판단부(236)는 피사체영상데이터를 분석하여 피사체크기정보를 순차적으로 산출한다. 예를 들어, 피사체 판단부(236)는 피사체영상데이터를 분석하여 제m 피사체크기정보를 산출할 수 있다. 이때, 제m 피사체크기정보는 제m 기준픽셀의 크기에 상응하는 정보일 수 있다. 즉, 피사체(140)가 사용자의 손가락인 경우 당해 피사체영상데이터(310)에 촬상된 피사체이미지의 기준픽셀(이하, '제m 기준픽셀'이라 칭함)은 원형 곡선을 포함할 것이다. 따라서 제m 피사체크기정보는 제m 기준픽셀의 원형 부분의 곡률 반경(또는 지름)에 상응하는 정보일 수 있다. 또한, 제m 피사체크기정보는 제m 기준픽셀이 구성하는 도형의 내부에 존재하는 픽셀의 개수에 상응하는 정보일 수 있다. 즉, 제m 기준픽셀이 원형의 도형이거나 사각형(또는 삼각형)의 도형인 경우 제m 피사체크기정보는 당해 도형의 내부에 존재하는 픽셀의 개수일 수 있다.In addition, the subject determining unit 236 sequentially analyzes the subject image data to calculate subject size information. For example, the subject determining unit 236 may calculate the m-th subject size information by analyzing the subject image data. In this case, the m-th subject size information may be information corresponding to the size of the m-th reference pixel. That is, when the subject 140 is the user's finger, the reference pixel (hereinafter, referred to as 'm th reference pixel') of the subject image photographed on the subject image data 310 may include a circular curve. Therefore, the m-th subject size information may be information corresponding to a radius of curvature (or diameter) of the circular portion of the m-th reference pixel. The m-th subject size information may be information corresponding to the number of pixels existing in the figure of the m-th reference pixel. That is, when the m th reference pixel is a circular figure or a quadrangle (or triangle) figure, the m-th subject size information may be the number of pixels existing in the figure.

이하, 도 4를 참조하여 피사체 판단부(236)가 제m 피사체크기정보를 이용하여 피사체(140)의 클릭 동작을 감지하는 방법에 대하여 상세히 설명한다. 이때, 제m 피사체크기정보는 제m 기준픽셀의 크기에 상응하는 정보일 수 있음은 상술한 바와 같다. Hereinafter, a method of detecting the click operation of the subject 140 using the m-th subject size information will be described in detail with reference to FIG. 4. In this case, as described above, the m-th subject size information may be information corresponding to the size of the m-th reference pixel.

도 4는 본 발명에 따른 피사체 클릭 동작 감지 방법을 나타낸 도면이다. 4 is a diagram illustrating a method of detecting a subject click operation according to the present invention.

도 4를 참조하면, 피사체 판단부(236)는 순차적으로 산출한 피사체크기정보 와 미리 설정된 제1 경계값을 비교하여 상응하는 클릭기능수행명령을 생성할 수 있다. 예를 들어, 피사체 판단부(236)는 제m 피사체크기정보가 제1 경계값 보다 크면 제k 피사체크기정보를 생성하여 제1 경계값 보다 작은지 판단하여 제k 피사체크기정보가 제1 경계값 보다 작으면 클릭기능수행명령을 생성하여 출력할 수 있다. 이때, k는 m보다 큰 자연수일 수 있다. 즉, 제m 피사체크기정보를 생성한 후 소정의 시간이 지난 다음 피사체의 위치, 크기 등의 변화에 상응하여 제k 피사체크기정보가 생성되고, 피사체 판단부(236)는 제k 피사체크기정보가 제1 경계값 보다 작으면 미리 설정된 기준픽셀 내의 특정 위치에 상응하는 클릭기능수행명령을 생성할 수 있다.Referring to FIG. 4, the subject determiner 236 may generate a corresponding click function execution command by comparing the subject size information sequentially calculated with a preset first boundary value. For example, the subject determining unit 236 generates k-th subject size information when the m-th subject size information is larger than the first threshold value, and determines whether the k-th subject size information is the first threshold value. If it is smaller, it can generate and output a click function execution command. In this case, k may be a natural number larger than m. That is, after a predetermined time elapses after generating the m-th subject size information, the k-th subject size information is generated according to a change in the position, size, etc. of the subject, and the subject determining unit 236 receives the k-th subject size information. If it is smaller than the first boundary value, a click function execution command corresponding to a specific position within the preset reference pixel may be generated.

예를 들어, 피사체 움직임 감지 마우스(200)가 노트북 컴퓨터(130)에 연결된 경우를 가정한다. 이때, 제m 기준픽셀 내의 특정 위치는 제m 기준픽셀의 무게 중심일 수 있고, 당해 무게 중심에 상응하는 포인터(150-1)의 위치가 '메뉴' 버튼에 해당되면 피사체 판단부(236)는 메뉴 기능 실행을 위한 클릭기능수행명령을 생성하여 메인제어부(미도시)로 출력할 수 있고, 이를 수신한 메인제어부(미도시)는 '메뉴' 기능의 실행을 위하여 노트북 컴퓨터(130)의 각 구성 요소를 제어할 수 있다. For example, it is assumed that the subject movement detecting mouse 200 is connected to the notebook computer 130. In this case, the specific position in the m th reference pixel may be the center of gravity of the m th reference pixel, and if the position of the pointer 150-1 corresponding to the center of gravity corresponds to the 'menu' button, the subject determining unit 236 Click function execution command for executing the menu function can be generated and output to the main control unit (not shown), the main control unit (not shown) received this configuration of each of the notebook computer 130 for the execution of the 'menu' function You can control the elements.

이때, 산출된 피사체크기정보가 제1 경계값과 동일한 경우에도 클릭기능수행명령이 생성되도록 미리 설정될 수 있음은 자명하다. 다만, 이하에서는 이해와 설명의 편의를 위하여 산출된 피사체크기정보가 제1 경계값과 동일한 경우에 대해서는 설명을 생략한다.At this time, even if the calculated object size information is the same as the first threshold value, the click function execution command may be set in advance so as to be generated. However, hereinafter, the description will be omitted for the case in which the calculated object size information is the same as the first boundary value for convenience of understanding and explanation.

그런데, 피사체 판단부(236)가 클릭기능수행명령을 생성함에 있어서, 제m 기 준픽셀의 무게 중심의 좌표와 제k 기준픽셀의 무게 중심의 좌표가 상이한 경우가 있을 수 있다. 이때 각 무게 중심의 좌표에 상응하는 기능이 동일한 경우(즉, 둘 다 '메뉴' 기능에 해당하는 좌표인 경우)에는 문제가 없으나, 각 무게 중심의 좌표에 상응하는 기능이 상이한 경우는 문제가 될 수 있다. 이러한 경우, 피사체 판단부(236)는 미리 설정된 기준픽셀 내의 특정 위치에 상응하는 클릭기능수행명령을 생성할 수도 있고, 에러(error)에 상응하는 클릭기능수행명령을 생성할 수도 있으며, 사용자의 선택에 상응하는 클릭기능수행명령을 생성할 수도 있다. However, when the object determining unit 236 generates the click function execution command, the coordinates of the center of gravity of the m-th reference pixel may be different from the coordinates of the center of gravity of the k-th reference pixel. In this case, there is no problem when the functions corresponding to the coordinates of the centers of gravity are the same (that is, when the coordinates correspond to the 'menu' functions). Can be. In this case, the object determining unit 236 may generate a click function execution command corresponding to a specific position within a preset reference pixel, generate a click function execution command corresponding to an error, and select the user. You can also create a command to perform a click function.

예를 들어, 피사체 판단부(236)는 제k 기준픽셀의 무게 중심의 좌표에 상응하는 클릭기능수행명령을 생성하도록 미리 설정된 경우를 가정한다. 이때, 제m 기준픽셀의 무게 중심의 좌표는 '메뉴' 기능에 상응하고, 제k 기준픽셀의 무게 중심의 좌표는 '종료' 기능에 상응하는 경우, 피사체 판단부(236)는 제k 기준픽셀의 무게 중심의 좌표에 상응하는 '종료' 기능의 수행을 위한 클릭기능수행명령을 생성하여 메인제어부(미도시)로 출력할 수 있다. For example, it is assumed that the object determining unit 236 is preset to generate a click function execution command corresponding to the coordinate of the center of gravity of the k-th reference pixel. In this case, when the coordinate of the center of gravity of the m th reference pixel corresponds to the 'menu' function, and the coordinate of the center of gravity of the k th reference pixel corresponds to the 'end' function, the object determining unit 236 determines the k th reference pixel. By generating a click function execution command for performing the 'end' function corresponding to the coordinate of the center of gravity can be output to the main controller (not shown).

또한, 피사체 판단부(236)는 제m 피사체크기정보가 제1 경계값 보다 크면 클릭정보 측정을 시작할 수 있다. 클릭정보의 측정은 피사체(140)의 클릭 동작이 계속된 시간에 따라 클릭정보(t1)를 상이하게 생성하여 피사체 판단부(236)가 클릭정보에 상응하는 클릭기능수행명령을 생성하기 위함이다. 즉, 클릭정보는 피사체(140)의 클릭 동작이 계속된 시간일 수 있다. 예를 들어, 클릭정보가 미리 설정된 시간인 t2 보다 작으면 짧은 클릭(Short click), 클릭정보가 상기 t2와 미리 설정된 시간인 t3 사이의 값(이때, t2<t3)이면 긴 클릭(Long click) 및 클릭정보가 t3 보다 크면 취소 클릭(cancel click)으로 미리 설정된 경우를 가정한다. In addition, the subject determiner 236 may start to measure the click information when the m-th subject size information is larger than the first boundary value. The measurement of the click information is to generate the click information t1 differently according to the time for which the click operation of the subject 140 continues, so that the subject determining unit 236 generates a click function execution command corresponding to the click information. That is, the click information may be a time when the click operation of the subject 140 is continued. For example, if the click information is shorter than t2, which is a preset time, a short click, and if the click information is a value between the t2 and t3, which is a preset time (t2 <t3), the long click If the click information is greater than t3, it is assumed that the click information is previously set as a cancel click.

이때, 피사체 판단부(236)는 측정한 클릭정보에 상응하는 클릭기능수행명령을 생성하여 메인제어부(미도시)로 출력할 수 있다. 즉, 피사체 판단부(236)는 클릭정보가 t2 보다 작은 경우에는 피사체(140)의 짧은 클릭 동작에 상응하는 클릭기능수행명령을 생성하여 출력할 수 있다. 예를 들어, 짧은 클릭은 '데이터 선택', 긴 클릭은 '옵션 선택' 기능에 대응되도록 미리 설정된 경우를 가정하면, 피사체 판단부(236)는 클릭정보가 짧은 클릭에 해당하면(즉, 클릭정보가 t2 보다 작으면) '데이터 선택'을 위한 클릭기능수행명령을 생성할 수 있다. In this case, the object determining unit 236 may generate a click function execution command corresponding to the measured click information and output the generated command to the main controller (not shown). That is, when the click information is less than t2, the subject determining unit 236 may generate and output a click function execution command corresponding to the short click operation of the subject 140. For example, assuming that a short click is set in advance to correspond to a 'data selection' function and a long click corresponds to a 'option selection' function, when the click information corresponds to a short click (that is, the click information) Is less than t2), a click function execution command for 'select data' can be generated.

그런데, 제m 피사체크기정보 및/또는 제k 피사체크기정보가 제1 경계값 부근의 값인 경우에는 피사체(140)의 클릭 동작 감지가 정확하지 않을 수 있다. 예를 들어, 제m 피사체크기정보가 제1 경계값 보다 큰 값이 입력되어 클릭정보의 측정이 개시된 후에 순차적으로 입력되는 제k 피사체크기정보가 제1 경계값 보다 큰 값과 작은 값이 반복적으로 입력되는 경우가 있을 수 있다. 즉, 제1 경계값이 '100'으로 미리 설정된 경우 제m 피사체크기정보가 '110' 이어서 클릭정보의 측정이 개시되었으나, 순차적으로 입력되는 제k 피사체크기정보가 '102', 제k+1 피사체크기정보가 '98', 제k+2 피사체크기정보가 '101'인 경우가 있을 수 있다. 이러한 경우는 클릭정보의 측정의 정확도가 떨어지게 된다. However, when the m-th subject size information and / or the k-th subject size information is a value near the first boundary value, detection of a click operation of the subject 140 may not be accurate. For example, after the m-th subject size information is larger than the first threshold value and the measurement of the click information is started, the k-th subject size information sequentially input after the measurement value of the m-th subject size information is smaller than the first threshold value is repeated. It may be entered. That is, when the first threshold value is set to '100', the m-th subject size information is '110', and then measurement of the click information is started, but the k-th subject size information sequentially input is '102' and k + 1. The subject size information may be '98' and the k + 2th object size information may be '101'. In such a case, the accuracy of the measurement of the click information is inferior.

이러한 현상을 방지하기 위하여 피사체 판단부(236)는 제m 피사체크기정보가 제1 경계값 보다 큰 경우에 클릭정보 측정을 개시하고, 제1 경계값 보다 작은 값의 제k 피사체크기정보가 미리 설정된 횟수만큼 반복된 경우에 클릭정보 측정을 종료 하되, 제1 경계값 보다 작은 값의 제k 피사체크기정보가 최초로 반복 측정된 시점으로 소급하여 클릭정보가 유효한 것으로 할 수 있다. In order to prevent such a phenomenon, the subject determining unit 236 starts the click information measurement when the m-th subject size information is larger than the first threshold value, and k-th subject size information having a value smaller than the first threshold value is preset. If the number of times is repeated, the measurement of the click information is ended, and the click information may be made valid by retroactively to the time point at which the k-th subject size information having a value smaller than the first threshold value is first repeatedly measured.

즉, 제1 경계값이 '100'이고, 클릭정보 측정 종료 시점은 제1 경계값 보다 작은 피사체크기정보가 연속하여 3번 입력된 경우로 미리 설정된 경우를 가정한다. 이때, 순차적으로 생성되는 피사체크기정보 중에서 제k 피사체크기정보가 '102', 제k+1 피사체크기정보가 '98', 제k+2 피사체크기정보가 '101', 제k+3 피사체크기정보가 '99', 제k+4 피사체크기정보가 '98', 제k+5 피사체크기정보가 '98'로 입력되었다면, 피사체 판단부(236)는 제k 피사체크기정보가 생성된 시점부터 클릭정보를 측정 개시하고, 제k+5 피사체크기정보가 생성된 시점까지 클릭정보를 측정하되, 클릭정보는 제k+3 피사체크기정보가 생성된 시점까지 유효한 것으로 할 수 있다. That is, it is assumed that the first threshold value is '100' and the click information measurement end point is preset when the object size information smaller than the first threshold value is input three times in succession. At this time, the k-th subject size information is '102', the k + 1th object size information is '98', and the k + 2th object size information is '101', and the k + 3th object size is sequentially generated. If the information is '99', the k + 4th object size information is '98', and the k + 5th object size information is '98', the object determination unit 236 starts from the point where the kth object size information is generated. The click information is started to be measured and the click information is measured until the k + 5th object size information is generated, but the click information may be valid until the k + 3th object size information is generated.

또한, 피사체 판단부(236)는 클릭정보를 고려하여 미리 설정된 기준픽셀 내의 특정 위치에 상응하는 클릭기능수행명령을 생성하여 메인제어부(미도시)로 출력할 수 있음은 상술한 바와 같다. 그런데, 제1 경우(410)와 같이 순차적으로 생성되는 제k 피사체크기정보가 계속적으로 작아지는 경우와 달리 제k 피사체크기정보가 제1 경계값 보다 작은 값에서 큰 값으로 변경되는 경우가 있을 수 있다(제2 경우(420)). 이러한 경우에도 피사체(140)의 클릭 동작을 정확하게 감지할 수 없다. 즉, 사용자는 포인터의 위치에 상응하는 버튼 등을 클릭하기 위하여 피사체(140)를 촬상부(210)에 가까이 가져갔다가 망설이는 경우가 있을 수 있다.In addition, as described above, the object determining unit 236 may generate a click function execution command corresponding to a specific position within a preset reference pixel in consideration of the click information and output the command to the main controller (not shown). However, unlike the case where the k-th subject size information sequentially generated as in the first case 410 is continuously reduced, there may be a case where the k-th subject size information is changed from a value smaller than the first boundary value to a larger value. (Second case 420). Even in this case, the click operation of the subject 140 may not be accurately detected. That is, the user may move to the subject 140 near the imaging unit 210 in order to click a button or the like corresponding to the position of the pointer and hesitate.

이러한 경우, 피사체 판단부(236)는 클릭정보 측정이 종료된 직후에 클릭기능수행명령을 생성하되, 이후에 순차적으로 입력되는 피사체크기정보가 미리 설정 된 제2 경계값 보다 작은 경우에는 생성된 클릭기능수행명령을 메인제어부(미도시)로 출력할 수 있다. 예를 들어, 제1 경계값이 '100'이고, 제2 경계값이 '50'인 경우 피사체 판단부(236)는 제k 피사체크기정보가 '50' 보다 작은 경우에 클릭기능수행명령을 메인제어부(미도시)로 출력할 수 있다. In this case, the object determining unit 236 generates a click function execution command immediately after the end of the click information measurement, and if the subject size information sequentially input afterwards is smaller than the second preset threshold value, the generated click is generated. The function execution command may be output to the main controller (not shown). For example, when the first threshold value is '100' and the second threshold value is '50', the subject determining unit 236 issues the click function execution command when the k-th subject size information is smaller than '50'. Output to a controller (not shown).

다만, 이 경우에도 피사체(140)가 촬상부(210)로부터 멀어진 것을 보다 명확하게 하기 위하여 피사체 판단부(236)는 제2 경계값 보다 작은 제l 피사체크기정보가 생성된 후 미리 설정된 시간 동안 제2 경계값 보다 큰 제k 피사체크기정보가 생성되지 아니하면 클릭기능수행명령을 메인제어부(미도시)로 출력할 수 있다(이때, l은 k보다 큰 자연수일 수 있음). 즉, 피사체 판단부(236)는 제2 경계값 보다 작은 제l 피사체크기정보가 생성되면 대기정보 측정을 개시할 수 있다. 여기에서 대기정보는 제2 경계값 보다 큰 제l 피사체크기정보가 생성되지 아니한 시간일 수 있다. 이때, 피사체 판단부(236)는 대기정보가 미리 설정된 시간인 경계시간을 경과하면 생성된 클릭기능수행명령을 메인제어부(미도시)로 출력할 수 있다.However, even in this case, in order to clarify that the subject 140 is far from the image capturing unit 210, the subject determining unit 236 may generate the first subject size information smaller than the second threshold value for a preset time. If the k-th subject size information larger than the threshold value is not generated, the command to perform a click function may be output to the main controller (not shown) (where l may be a natural number larger than k). That is, the subject determining unit 236 may start measuring atmospheric information when the first subject size information smaller than the second threshold is generated. The atmospheric information may be a time when the first object size information larger than the second threshold is not generated. In this case, the subject determining unit 236 may output the generated click function execution command to the main controller (not shown) when the waiting time elapses from the preset time.

물론, 대기정보는 제1 경계값 보다 작은 제k 피사체크기정보가 산출된 시점에서 측정 개시될 수도 있고, 이때에는 제2 경계값이 생략될 수 있음은 자명하다.Of course, the atmospheric information may be measured at the time point at which the k-th subject size information smaller than the first threshold value is calculated, in which case the second threshold value may be omitted.

이때, 산출된 피사체크기정보가 제2 경계값과 동일한 경우에도 클릭기능수행명령이 출력되거나 대기정보가 측정되도록 미리 설정될 수 있음은 자명하다. 다만, 이해와 설명의 편의를 위하여 산출된 피사체크기정보가 제2 경계값과 동일한 경우에 대해서는 설명을 생략한다.At this time, even if the calculated object size information is the same as the second threshold value, it is apparent that the click function execution command may be preset or set in advance so that the standby information is measured. However, the description will be omitted for the case in which the calculated object size information is the same as the second boundary value for convenience of understanding and explanation.

다시 도 2를 참조하면, 피사체 판단부(236)는 피사체(140)의 원근 동작(즉, 피사체(140)가 촬상부(210)에 가까워지거나 멀어지는 동작)을 감지하기 위한 원근 동작 감지 모드에서 제m 피사체크기정보를 이용하여 피사체(140)의 원근 동작을 감지하고, 이에 상응하는 포인터크기변경명령을 생성하여 메인제어부(미도시)로 출력한다(여기서, 포인터크기변경명령은 피사체 판단부(236)가 피사체(140)의 원근 동작을 감지하여 상응하는 기능이 수행되도록 하는 신호를 의미할 수 있음). 즉, 여기서 포인터는 포인터 뿐만 아니라 화면 스크롤바(Scroll-bar) 등을 포함하는 개념일 수 있다. Referring back to FIG. 2, the subject determiner 236 may remove the perspective motion in the perspective motion detection mode for detecting the perspective motion of the subject 140 (that is, the motion of the subject 140 near or away from the image capture unit 210). m Using the subject size information, the motion of the subject 140 is sensed, and a pointer size change command corresponding to the object 140 is generated and outputted to the main controller (not shown). May sense a perspective motion of the subject 140 to perform a corresponding function. That is, the pointer may be a concept including a scroll-bar as well as a pointer.

예를 들어, 사용자가 피사체(140)의 원근 동작을 이용하여 출력되는 음원 데이터의 음량을 스크롤바를 이용하여 조절하는 경우를 가정한다. 즉, 현재 출력되는 음량을 나타내는 스크롤바가 디스플레이부(미도시)에 표시되어 있을 수 있고, 피사체 판단부(236)는 피사체(140)의 원근 동작을 감지하여 피사체(140)가 이미지 센서부(218)에 가까워지면 음량이 키워지고 멀어지면 음량이 줄어들 수 있도록 포인터크기변경명령을 메인제어부(미도시)로 출력할 수 있다. 이때, 메인제어부(미도시)는 출력되는 음원 데이터의 음량을 포인터크기변경명령에 상응하도록 제어할 수 있다. For example, it is assumed that a user adjusts a volume of sound source data output by using a perspective bar of a subject 140 using a scroll bar. That is, a scroll bar indicating a volume currently output may be displayed on a display unit (not shown), and the subject determining unit 236 detects the perspective motion of the subject 140 so that the subject 140 may detect the image sensor unit 218. ) To increase the volume, and to move the pointer size change command to the main controller (not shown) so that the volume decreases. In this case, the main controller (not shown) may control the volume of the output sound source data to correspond to a pointer size change command.

또한, 사용자가 피사체(140)의 원근 동작을 이용하여 피사체 움직임 감지 마우스(200)와 연결된 노트북 컴퓨터(130)의 스피커(미도시)를 통하여 출력되고 있는 음원 데이터(예를 들어, MP3 파일 등)의 음량을 조절하고자 하는 경우를 가정한다. 이때, 피사체 판단부(236)는 사용자의 노트북 컴퓨터(130)의 키패드부(135) 조작 및/또는 피사체 움직임 감지 마우스(200)에 별도로 구비된 버튼부(미도시) 조작에 상응하여 원근 동작 감지 모드로 동작할 수 있다. In addition, sound source data (eg, MP3 files, etc.) output by a user through a speaker (not shown) of the notebook computer 130 connected to the subject motion detection mouse 200 using a perspective motion of the subject 140. Suppose you want to adjust the volume of. At this time, the subject determining unit 236 detects the perspective motion corresponding to the manipulation of the keypad 135 of the user's notebook computer 130 and / or the manipulation of a button unit (not shown) separately provided on the subject movement detecting mouse 200. Can operate in mode.

즉, 사용자가 노트북 컴퓨터(130)의 스피커(미도시)를 통하여 출력되고 있는 음원 데이터의 음량을 조절하기 위하여 버튼부(미도시)를 조작하면 버튼부(미도시)는 상응하는 신호(예를 들어, 원근동작감지명령)를 피사체 판단부(236)로 출력할 수 있고, 이를 수신한 피사체 판단부(236)는 원근 동작 감지 모드로 동작할 수 있다. 이때, 피사체 판단부(236)는 생성된 제m 피사체크기정보를 미리 저장된 기준피사체크기정보와 비교하여 상응하는 포인터크기변경명령 생성하여 메인제어부(미도시)로 출력할 수 있다. That is, when the user manipulates the button unit (not shown) to adjust the volume of the sound source data output through the speaker (not shown) of the notebook computer 130, the button unit (not shown) may display a corresponding signal (eg, For example, a perspective motion detection command) may be output to the subject determiner 236, and the subject determiner 236 receiving the perspective motion may operate in a perspective motion detection mode. In this case, the subject determining unit 236 may generate the corresponding pointer size change command by comparing the generated m-th subject size information with the pre-stored reference subject size information and output the same to the main controller (not shown).

이때, 기준피사체크기정보는 피사체크기(예를 들어, 기준 픽셀의 개수 등)에 대한 정보로서, 미리 설정된 값이거나 사용자의 선택에 의하여 설정된 값일 수 있다. 또한, 피사체 판단부(236)는 산출된 제m 피사체크기정보를 기준피사체크기정보를 비교하여 피사체(140)가 촬상부(210)에 가까워졌는지 멀어졌는지 감지할 수 있다. 즉, 피사체 판단부(236)는 제m 피사체크기정보가 기준피사체크기정보 보다 크면 피사체(140)가 촬상부(210)로 다가온 것으로 판단할 수 있고, 제m 피사체크기정보가 기준피사체크기정보 보다 작으면 피사체(140)가 촬상부(210)로부터 멀어진 것으로 판단할 수 있다. 이하, 사용자의 선택에 의하여 기준피사체크기정보가 설정되는 방법에 대하여 설명한다.In this case, the reference subject size information is information on a subject size (for example, the number of reference pixels, etc.) and may be a preset value or a value set by a user's selection. In addition, the object determining unit 236 may compare the calculated subject size information with the reference subject size information to detect whether the subject 140 is near or away from the imaging unit 210. That is, the subject determining unit 236 may determine that the subject 140 approaches the imaging unit 210 when the m-th subject size information is larger than the reference subject size information, and the m-th subject size information is larger than the reference subject size information. If it is small, it may be determined that the subject 140 is far from the imaging unit 210. Hereinafter, a method of setting the reference subject size information by the user's selection will be described.

즉, 피사체 판단부(236)는 제m 피사체크기정보를 산출하여 미리 설정된 제1 기준픽셀경계값과 비교한다. 이때, 제1 기준픽셀경계값은 기준픽셀의 개수에 대한 정보일 수 있다. 제m 피사체크기정보를 제1 기준픽셀경계값과 비교하는 이유는 기준피사체크기정보가 너무 작은 값이면 기준지점(즉, 기준피사체크기정보가 생성된 시점에서 피사체(140)가 위치한 지점)에 비하여 피사체(140)가 촬상부(210)로부터 멀어지면 더욱 작은 피사체크기정보가 산출되므로 피사체(140)의 원근 동작을 정확하게 감지할 수 없기 때문이다. 즉, 제1 기준픽셀경계값은 기준픽셀경계값을 생성하기 위한 제m 피사체크기정보의 하한값일 수 있다. That is, the subject determining unit 236 calculates the m-th subject size information and compares it with a preset first reference pixel boundary value. In this case, the first reference pixel boundary value may be information about the number of reference pixels. The reason for comparing the m-th subject size information with the first reference pixel boundary value is that when the reference subject size information is too small, compared to the reference point (that is, the point where the subject 140 is located at the time when the reference subject size information is generated). This is because when the subject 140 moves away from the image pickup unit 210, smaller subject size information is calculated, and thus the perspective motion of the subject 140 may not be accurately detected. That is, the first reference pixel boundary value may be a lower limit value of the m th subject size information for generating the reference pixel boundary value.

또한, 피사체 판단부(236)는 제m 피사체크기정보를 미리 설정된 제2 기준픽셀경계값과 비교할 수도 있다. 이때, 제2 기준픽셀경계값은 기준픽셀의 개수에 대한 정보일 수 있다. 제m 피사체크기정보를 제2 기준픽셀경계값과 비교하는 이유는 기준피사체크기정보가 너무 큰 값이면 기준지점(즉, 기준피사체크기정보가 생성된 시점에서 피사체(140)가 위치한 지점)에 비하여 피사체(140)가 촬상부(210)로부터 가까워지면 더욱 큰 피사체크기정보가 산출되므로 피사체(140)의 원근 동작을 정확하게 감지할 수 없기 때문이다. 즉, 제2 기준픽셀경계값은 기준피사체크기정보를 생성할 수 있는 제m 피사체크기정보의 상한값일 수 있다. In addition, the subject determining unit 236 may compare the m-th subject size information with a preset second reference pixel boundary value. In this case, the second reference pixel boundary value may be information about the number of reference pixels. The reason for comparing the m-th subject size information with the second reference pixel boundary value is that when the reference subject size information is too large, compared to the reference point (that is, the point where the subject 140 is located at the time when the reference subject size information is generated). This is because when the subject 140 approaches the imaging unit 210, larger subject size information is calculated, and thus the perspective motion of the subject 140 may not be accurately detected. That is, the second reference pixel boundary value may be an upper limit value of the m th subject size information capable of generating the reference subject size information.

또한, 피사체 판단부(236)는 제m 피사체크기정보가 제1 기준픽셀경계값 보다 작거나 제2 기준픽셀경계값 보다 크면 에러(error)에 상응하는 신호를 메인제어부(미도시)로 출력할 수 있다. 이는 사용자에게 피사체(140)를 촬상부(210)에 조금 더 가까운 곳에 위치시키도록 하기 위함이다. In addition, the subject determining unit 236 may output a signal corresponding to an error to the main controller (not shown) when the m-th subject size information is smaller than the first reference pixel boundary value or larger than the second reference pixel boundary value. Can be. This is to allow the user to position the subject 140 closer to the imaging unit 210.

반면, 피사체 판단부(236)는 제m 피사체크기정보가 제1 기준픽셀경계값 보다 크고 제2 기준픽셀경계값 보다 작으면 기준피사체크기정보 생성명령의 입력 여부를 판단할 수 있다. 여기에서, 기준피사체크기정보 생성명령은 사용자의 버튼부(미도시) 조작 및/또는 노트북 컴퓨터(130)의 키패드부(135) 조작에 상응하는 신호일 수 있다. 예를 들어, 사용자는 현재 피사체(140)가 촬상부(210)와 떨어져있는 지점을 기준지점으로 설정하기 위하여 피사체(140)가 촬상된 후 피사체 움직임 감지 마우스(200)의 일측에 구비된 버튼부(미도시)를 조작할 수 있고, 버튼부(미도시)는 사용자의 버튼 조작에 상응하여 기준피사체크기정보 생성명령을 생성하여 피사체 판단부(236)로 출력할 수 있다. On the other hand, the subject determining unit 236 may determine whether the reference subject size information generation command is input when the m-th subject size information is larger than the first reference pixel boundary value and smaller than the second reference pixel boundary value. Here, the command for generating the reference subject size information may be a signal corresponding to the manipulation of the button unit (not shown) of the user and / or the manipulation of the keypad 135 of the notebook computer 130. For example, a user may select a button unit provided at one side of the subject movement detecting mouse 200 after the subject 140 is photographed to set a point where the current subject 140 is separated from the image pickup unit 210 as a reference point. (Not shown), and the button unit (not shown) may generate a reference subject size information generation command in response to a user's button operation and output the command to the subject determining unit 236.

판단 결과, 피사체 판단부(236)는 기준피사체크기정보 생성명령이 입력되지 아니하면 다시 제m+1 피사체크기정보를 산출하여 제1 기준픽셀경계값과 비교할 수 있다. 즉, 피사체 판단부(236)는 기준피사체크기정보를 생성하기 위하여 피사체(140)를 다시 촬상하여 상술한 과정을 수행할 수 있다. As a result of determination, when the reference subject size information generation command is not input, the subject determining unit 236 may calculate the m + 1th subject size information and compare it with the first reference pixel boundary value. That is, the subject determining unit 236 may perform the above-described process by re-imaging the subject 140 to generate the reference subject size information.

그러나, 피사체 판단부(236)는 기준피사체크기정보 생성명령이 입력되면 상응하는 기준피사체크기정보를 생성하여 저장부(240)에 저장할 수 있다. 즉, 피사체 판단부(236)는 제m 피사체크기정보를 기준피사체크기정보로 할 수 있다. However, when the command to generate the reference subject size information is input, the subject determining unit 236 may generate the corresponding reference subject size information and store it in the storage unit 240. That is, the subject determining unit 236 may use the m-th subject size information as the reference subject size information.

이때, 피사체 판단부(236)는 사용자의 기준피사체크기정보 선택을 용이하게 하기 위하여 피사체영상데이터에 상응하는 데이터를 메인제어부(미도시)로 출력할 수 있고, 메인제어부(미도시)는 이를 수신하여 디스플레이부(150)에 표시되도록 할 수 있다. 즉, 사용자는 디스플레이부(150)에 표시되는 피사체영상데이터를 보고 상술한 당해 제m 피사체크기정보를 기준피사체크기정보로 선택할 것인지 판단할 수 있다. 예를 들어, 디스플레이부(150)의 일측에는 피사체영상데이터가 표시되고, 사 용자는 표시된 피사체영상데이터를 보고 제m 피사체크기정보를 가늠할 수 있다. 따라서, 사용자는 적절한 크기의 피사체크기정보가 산출되면 버튼부(미도시) 및/또는 노트북 컴퓨터(130)의 키패드부(135)를 조작할 수 있고, 버튼부(미도시) 및/또는 노트북 컴퓨터(130)의 키패드부(135)는 기준피사체크기정보 생성명령을 생성하여 피사체 판단부(2326)로 출력할 수 있다. At this time, the subject determining unit 236 may output data corresponding to the subject image data to the main controller (not shown) in order to facilitate selection of the reference subject size information of the user, and the main controller (not shown) receives the same. To be displayed on the display unit 150. That is, the user may determine whether to select the m-th subject size information as the reference subject size information based on the subject image data displayed on the display unit 150. For example, one side of the display unit 150 displays the subject image data, and the user may measure the m-th subject size information by viewing the displayed subject image data. Accordingly, the user can operate the button unit (not shown) and / or the keypad unit 135 of the notebook computer 130 when the object size information of the appropriate size is calculated, and the button unit (not shown) and / or the notebook computer. The keypad unit 135 of 130 may generate a reference subject size information generation command and output the generated command to the subject determining unit 2326.

또한, 피사체 판단부(236)는 기준피사체크기정보가 저장된 후, 원근 동작 감지 모드에서 제k 피사체크기정보를 산출하여 저장된 기준피사체크기정보와 비교할 수 있고(이때, k는 자연수임), 비교 결과에 상응하는 포인터크기변경명령을 생성하여 메인제어부(미도시)로 출력할 수 있다. 이하, 도 5를 참조하여 피사체 판단부(236)가 피사체(140)의 원근 동작을 감지하여 포인터의 크기를 변경하는 방법에 대하여 설명한다. Also, after the reference subject size information is stored, the subject determining unit 236 may calculate the k-th subject size information in the perspective motion detection mode and compare it with the stored reference subject size information (where k is a natural number). By generating a pointer size change command corresponding to the output to the main controller (not shown). Hereinafter, a method of changing the size of the pointer by detecting the perspective motion of the subject 140 by the subject determining unit 236 will be described with reference to FIG. 5.

도 5는 본 발명에 따른 피사체 움직임 감지 마우스가 연결된 전자기기의 디스플레이부를 예시한 도면이다. 여기에서는 디스플레이부(150)에 음원 데이터가 출력되는 상태가 표시된 경우를 가정한다. 즉, 디스플레이부(150)에 미디어 플레이어(Media player)(510)가 표시된 경우를 가정한다. 또한, 피사체 판단부(236)가 원근 동작 감지 모드에서 피사체(140)의 원근 동작을 감지하여 스크롤바(Scroll bar)의 위치를 변경하는 경우를 가정한다. 5 is a diagram illustrating a display unit of an electronic device to which a subject movement detecting mouse is connected according to the present invention. In this case, it is assumed that the display unit 150 displays a state in which sound source data is output. In other words, it is assumed that the media player 510 is displayed on the display unit 150. In addition, it is assumed that the object determining unit 236 changes the position of the scroll bar by detecting the perspective motion of the subject 140 in the perspective motion detection mode.

도 5를 참조하면, 디스플레이부(150)에는 미디어 플레이어(510)가 활성화되어 있고, 출력되고 있는 음원 데이터의 현재 재생 시간을 표시하는 제1 스크롤 바(520), 음원 데이터의 출력 음량(volume)을 나타내는 제2 스크롤바(530) 및 포인터(540)가 도시된다. Referring to FIG. 5, the display unit 150 has a media player 510 activated and displays a first scroll bar 520 displaying a current playing time of the sound source data being output, and an output volume of the sound source data. A second scroll bar 530 and pointer 540 are shown.

이때, 피사체 판단부(236)는 제k 피사체크기정보를 생성하여 기준피사체크기정보와 비교할 수 있고, 비교 결과에 상응하여 제1 스크롤바(520) 및/또는 제2 스크롤바(530)의 위치를 변경할 수 있다. 예를 들어, 피사체 판단부(236)가 피사체(140)의 원근 동작을 감지하여 제1 스크롤바(520)의 위치를 변경하는 경우를 가정하여 설명한다. 여기에서, 피사체 판단부(236)는 제k 피사체 크기 정보가 기준피사체크기정보 보다 크면 제1 스크롤바(520)의 위치를 제k 피사체 크기 정보와 기준피사체크기정보의 차이에 상응하는 만큼 오른쪽으로 옮기도록 하는 포인터크기변경명령을 생성하여 메인제어부(미도시)로 출력할 수 있고, 메인제어부(미도시)는 이를 수신하여 제1 스크롤바(520)를 상응하는 위치로 이동시킬 수 있다. 또한, 메인제어부(미도시)는 옮겨진 제1 스크롤바(520)의 위치에 상응하는 음원이 출력되도록 제어할 수 있다. In this case, the subject determining unit 236 may generate the k-th subject size information and compare the reference subject size information with each other, and change the positions of the first scroll bar 520 and / or the second scroll bar 530 according to the comparison result. Can be. For example, it will be described on the assumption that the object determining unit 236 changes the position of the first scroll bar 520 by detecting the perspective motion of the subject 140. Here, if the k-th subject size information is larger than the reference subject size information, the subject determining unit 236 moves the position of the first scroll bar 520 to the right by the correspondence between the k-th subject size information and the reference subject size information. A pointer size change command may be generated and output to a main controller (not shown), and the main controller (not shown) may receive the same and move the first scroll bar 520 to a corresponding position. In addition, the main controller (not shown) may control to output a sound source corresponding to the position of the moved first scroll bar 520.

예를 들어, 현재 출력되고 있는 음원이 총 5분의 러닝 타임(Running time) 중 3분에 해당하는 경우를 가정한다. 이때, 기능수행명령에 상응하는 제1 스크롤바(520)의 위치가 4분(min)에 해당하면 메인제어부(미도시)는 당해 음원 데이터 중 4분(min)에 해당하는 음원이 출력되도록 제어할 수 있다. For example, it is assumed that the currently output sound source corresponds to 3 minutes out of a total of 5 minutes running time. In this case, when the position of the first scroll bar 520 corresponding to the function execution command corresponds to 4 minutes (min), the main controller (not shown) may control to output a sound source corresponding to 4 minutes (min) of the sound source data. Can be.

여기에서, 피사체 판단부(236)가 제1 스크롤바(520)의 위치를 제어할 것인지 제2 스크롤바(530)의 위치를 제어할 것인지는 포인터(540)의 위치에 따라 달라질 수 있다. 즉, 포인터(540)가 제1 스크롤바(520) 위에 위치되어 있는 경우에는 피사 체 판단부(236)가 제1 스크롤바(520)의 위치를 제어할 수 있는 포인터크기변경명령을 생성할 수 있고, 포인터(540)가 제2 스크롤바(530) 위에 위치되어 있는 경우에는 피사체 판단부(236)는 제2 스크롤바(530)의 위치를 제어할 수 있는 포인터크기변경명령을 생성할 수 있다. Here, whether the object determining unit 236 controls the position of the first scroll bar 520 or the position of the second scroll bar 530 may vary depending on the position of the pointer 540. That is, when the pointer 540 is positioned on the first scroll bar 520, the subject determination unit 236 may generate a pointer size change command for controlling the position of the first scroll bar 520. When the pointer 540 is positioned on the second scroll bar 530, the subject determining unit 236 may generate a pointer size change command that can control the position of the second scroll bar 530.

또한, 피사체 판단부(236)가 제1 스크롤바(520)의 위치를 제어할 것인지 제2 스크롤바(530)의 위치를 제어할 것인지는 사용자의 선택에 의하여 달라질 수도 있다. 예를 들어, 사용자가 버튼부(미도시)를 조작하여 제1 스크롤바(520)의 제어를 선택한 경우에는 피사체 판단부(236)는 제1 스크롤바(520)의 위치를 제어할 수 있다. In addition, whether the subject determiner 236 controls the position of the first scroll bar 520 or the position of the second scroll bar 530 may vary according to a user's selection. For example, when the user selects the control of the first scroll bar 520 by manipulating a button unit (not shown), the subject determining unit 236 may control the position of the first scroll bar 520.

또한, 다른 실시예에 의하면 피사체 판단부(236)는 피사체(140)의 직선(直線) 동작에 상응하여 제1 스크롤바(520) 및/또는 제2 스크롤바(530)를 제어할 수 있다. 이때, 직선 동작이란 피사체(140)가 이미지 센서부(218)에 가까워지고 멀어지는 원근 동작 또는 클릭 동작과 달리 피사체(140)가 이미지 센서부(218) 근처에서 좌우 또는 상하로 이동하는 동작이다. 즉, 원근 동작 및/또는 클릭 동작이 공간을 인식하는 3차원적인 움직임이라면 직선 동작은 평면적인 2차원적인 움직임이다.In addition, according to another exemplary embodiment, the object determining unit 236 may control the first scroll bar 520 and / or the second scroll bar 530 in correspondence with the straight line operation of the subject 140. In this case, the straight line operation is an operation in which the subject 140 moves left and right or up and down near the image sensor unit 218 unlike a perspective operation or a click operation in which the subject 140 approaches and moves away from the image sensor unit 218. In other words, if the perspective motion and / or the click motion are three-dimensional motions for recognizing space, the linear motion is a planar two-dimensional motion.

이하, 피사체 판단부(236)가 피사체(140)의 직선 동작을 감지하는 방법에 대하여 설명한다. Hereinafter, a method in which the subject determining unit 236 detects a linear operation of the subject 140 will be described.

다시 도 2를 참조하면, 피사체 판단부(236)는 피사체(140)의 직선 동작을 감지하기 위한 직선 동작 감지 모드에서 중심 판단부(232)에서 판단한 중심점(이하, '제m 중심점'이라 칭함)의 좌표값에 상응하는 제m 영역정보를 추출하여 저장부(240)에 저장할 수 있다. 이때, 피사체 판단부(236)는 사용자의 선택에 의하여 직선 동작 감지 모드로 동작할 수 있다. 예를 들어, 사용자가 피사체(140)의 직선 동작을 이용하여 제1 스크롤바(520)를 조절하기 위한 경우를 가정한다. 이때, 사용자는 피사체 움직임 감지 마우스의 일측에 별도로 구비된 버튼부(미도시)를 조작하여 피사체 판단부(236)가 직선 동작 감지 모드로 동작할 수 있도록 할 수 있다. Referring back to FIG. 2, the subject determiner 236 determines the center point determined by the center determiner 232 in the linear motion detection mode for detecting the linear motion of the subject 140 (hereinafter referred to as 'm th center point'). The m-th region information corresponding to the coordinate value of may be extracted and stored in the storage unit 240. In this case, the subject determining unit 236 may operate in the linear motion detection mode by the user's selection. For example, it is assumed that a user adjusts the first scroll bar 520 by using a linear operation of the subject 140. In this case, the user may operate the button unit (not shown) separately provided on one side of the subject movement detecting mouse so that the subject determining unit 236 may operate in the linear motion sensing mode.

이하, 도 6을 참조하여 피사체 판단부(236)가 직선 동작 감지 모드에서 제m 영역정보를 추출하는 방법에 대하여 설명한다.Hereinafter, a method of extracting the m-th region information in the linear motion detection mode by the subject determining unit 236 will be described with reference to FIG. 6.

도 6은 본 발명에 의해 생성된 피사체영상데이터의 영역 구분 방법 및 복수의 중심점의 이동을 나타낸 도면이다. FIG. 6 is a diagram illustrating a method of distinguishing areas of subject image data and movement of a plurality of center points generated by the present invention.

도 6을 참조하면, 피사체영상데이터(610)는 상술한 바와 같이 유광 영상데이터와 무광 영상데이터를 비교하여 산출한 영상데이터로서 복수의 영역으로 구분될 수 있다. 예를 들어 도 3에 도시된 바와 같이, 피사체영상데이터(610))는 (a) 영역(610-1), (b) 영역(610-2), (c) 영역(610-3) 및 (d) 영역(610-4)으로 구분될 수 있다. 따라서, 피사체 판단부(236)는 제m 중심점의 좌표를 분석하여 제m 영역정보를 추출할 수 있다. 예를 들어, 제m 중심점(620-1)이 (a) 영역(610-1)에 위치하여 있는 경우 피사체 판단부(236)는 제m 영역정보를 'a'로 추출할 수 있다. 동일한 방법으로 제m+1 중심점이 (b) 영역(610-2)에 위치하여 있는 경우 피사체 판단부(236)는 제m+1 영역정보를 'b'로 추출할 수 있다.Referring to FIG. 6, the subject image data 610 may be divided into a plurality of regions as image data calculated by comparing the glossy image data and the matte image data as described above. For example, as shown in FIG. 3, the subject image data 610 includes (a) areas 610-1, (b) areas 610-2, (c) areas 610-3, and ( d) may be divided into an area 610-4. Accordingly, the object determining unit 236 may extract m-th region information by analyzing coordinates of the m-th center point. For example, when the m th center point 620-1 is located in the region (610-1), the object determining unit 236 may extract m-th region information as 'a'. In the same way, when the m + 1 center point is located in the region (610) (b), the subject determining unit 236 may extract m + 1 region information as 'b'.

이때, 피사체영상데이터(610)에 포함되는 각 영역의 개수는 예시에 불과할 뿐이므로 이에 의해 본 발명의 권리 범위가 제한되지 않음은 자명하다. 또한, 도 3에서는 각 영역을 균등하게 구분한 경우를 예로 들어 설명하였으나 각 영역은 균등하지 아니하게 구분될 수도 있다. 예를 들어, 피사체(140)는 이미지 센서부(218)의 중앙 근처에서 가장 빨리 움직이는 경우가 많을 것이므로 피사체영상데이터(610)의 끝부분 영역인 (a) 영역(610-1) 및 (d) 영역(610-4)은 상대적으로 좁게 구분되고, 피사체영상데이터(610)의 중간 부분인 (b) 영역(610-2) 및 (c) 영역(610-3)은 상대적으로 넓게 구분될 수도 있다. 따라서, 피사체영상데이터(610)를 구성하는 각 영역의 넓이 또한 본 발명의 권리 범위를 제한하지 아니함은 자명하다. At this time, since the number of each area included in the subject image data 610 is only an example, it is obvious that the scope of the present invention is not limited thereto. In addition, in FIG. 3, the case where each region is equally divided has been described as an example, but each region may be divided evenly. For example, since the subject 140 may move most quickly near the center of the image sensor unit 218, areas (a) 610-1 and (d) which are end regions of the subject image data 610. FIG. The region 610-4 may be relatively narrowly divided, and (b) regions 610-2 and (c) regions 610-3, which are intermediate portions of the subject image data 610, may be relatively broadly divided. . Therefore, it is obvious that the area of each region constituting the subject image data 610 also does not limit the scope of rights of the present invention.

또한, 피사체 판단부(236)는 제m 영역정보와 제m 영역정보가 추출되기 바로 직전에 추출된 제m-1 영역정보를 비교한다. 제m 영역정보가 제m-1 영역정보와 동일한 경우에는 피사체(140)가 상하로 움직이지 아니하거나 매우 경미하게 움직인 경우를 의미할 수 있고, 제m 영역정보와 제m-1 영역정보가 상이한 경우에는 피사체(140)가 상하로 움직인 경우를 의미할 수 있다. 따라서, 피사체 판단부(236)는 제m 영역정보와 제m-1 영역정보가 동일한 경우에는 대기 상태로 천이하여 제m+1 중심점이 추출되면 이에 상응하는 제m+1 영역정보를 추출할 수 있다. Also, the object determining unit 236 compares the m-th region information and the m-th region information extracted immediately before the m-th region information is extracted. When the m-th area information is the same as the m-th area information, it may mean that the subject 140 does not move up or down or moves very slightly. If different, this may mean that the subject 140 is moved up and down. Accordingly, when the m-th region information and the m-th region information are the same, the subject determining unit 236 may transition to the standby state and extract m-th region information corresponding to the m-th center point when the m-th center point is extracted. have.

그러나, 피사체 판단부(236)는 제m 영역정보와 제m-1 영역정보가 동일하지 아니한 경우에는 제m 중심점이동정보를 생성할 수 있다. 예를 들어, 도 3에 도시된 바와 같이, 제m-1 중심점(620-1)이 (a) 영역(610-1)에, 제m 중심점(620-2)이 (b) 영역(620-2)에 위치하여 있는 경우를 가정한다. 이때, 피사체 판단부(236)는 제m-1 영역정보를 'a', 제m 영역정보를 'b'로 추출할 수 있음은 상술한 바와 같다. 따라서, 피사체 판단부(236)는 제m 영역정보와 제m-1 영역정보를 비교한 결과 중심점이 (a) 영역(610-1)에서 (b) 영역으로 이동하였으므로 피사체(140)가 우측으로 이동하고 있음을 알 수 있고, 이에 상응하는 제m 중심점이동정보를 생성할 수 있다. However, the subject determining unit 236 may generate the m th center point movement information when the m th region information and the m th -th region information are not the same. For example, as shown in FIG. 3, the m-th center point 620-1 is located in (a) area 610-1, and the m-th center point 620-2 is located in (b) area 620- Assume that it is located in 2). In this case, the object determining unit 236 may extract m-th region information as 'a' and m-th region information as 'b'. Accordingly, the subject determining unit 236 compares the m-th region information and the m-th region information, and as a result, the center point has moved from the region (a) to the region (610-1) to the region (b), so that the subject 140 moves to the right. It can be seen that the movement, and corresponding to the m center point movement information can be generated.

또한, 제m 중심점이동정보는 제m 중심점이동방향정보를 포함할 수 있다. 이때, 제m 중심점이동방향정보는 피사체(140)의 움직임이 우측(右側) 동작 인지 좌측(左側) 동작인지를 의미하는 정보일 수 있다. 예를 들어, 제m 영역정보가 'a'이고 와 제m-1 영역정보가 'b'인 경우 피사체 판단부(236)는 피사체(140)의 움직임을 우측 동작으로 인식하여 상응하는 제m 중심점이동방향정보를 생성할 수 있다. 반대로 제m 영역정보가 'b'이고 제m-1 이동정보가 'a'인 경우 피사체 판단부(236)는 피사체(140)의 움직임을 좌측 동작으로 인식하여 상응하는 제m 중심점이동방향정보를 생성할 수 있다. Also, the m th center point movement information may include the m th center point movement direction information. In this case, the m-th center point moving direction information may be information indicating whether the movement of the subject 140 is a right motion or a left motion. For example, when the m-th region information is 'a' and the m-th region information is 'b', the subject determining unit 236 recognizes the movement of the subject 140 as a right motion and corresponds to the m-th center point. Movement direction information can be generated. On the contrary, when the m-th region information is 'b' and the m-th movement information is 'a', the subject determining unit 236 recognizes the movement of the subject 140 as the left motion and provides the corresponding m-th center point moving direction information. Can be generated.

또한, 제m 중심점이동정보는 제m 중심점이동거리정보를 포함할 수도 있다. 제m 중심점이동거리정보는 피사체(140)가 움직인 거리를 의미하는 정보일 수 있다. 예를 들어, 제m 영역정보가 'a'이고 제m-1 영역정보가 'c'인 경우, 피사체 판단부(236)는 제m 영역정보가 'b'인 경우보다 2배 많이 움직였음을 인식하여 상응하는 제m 중심점이동거리정보를 생성할 수 있다. 동일한 방법으로 제m 영역정보가 'd'이고 제m-1 영역정보가 'a'인 경우, 피사체 판단부(236)는 제m 영역정보가 'b'인 경우보다 3배 많이 움직였음을 인식하여 상응하는 제m 중심점이동거리정보를 생성할 수 있다. 이는 피사체(140)가 항상 일정한 방향 및 속도로 움직이는 것이 아니기 때문이다.The m th center point movement information may also include the m th center point movement distance information. The m-th center point moving distance information may be information indicating a distance moved by the subject 140. For example, when the m-th region information is 'a' and the m-th region information is 'c', the object determining unit 236 moves twice as much as when the m-th region information is 'b'. Recognizing to generate the corresponding m-th center point moving distance information. In the same way, when the m-th region information is 'd' and the m-th region information is 'a', the object determining unit 236 recognizes that the m-th region information is moved three times as much as when it is 'b'. Thus, the m-th center point may generate movement distance information. This is because the subject 140 does not always move in a constant direction and speed.

그런데, 상술한 방법에 의하여 피사체(140)의 직선 동작을 감지하는 경우, 피사체(140)의 우측 동작과 좌측 동작이 서로 번갈아서 인식되는 문제점이 있을 수 있다. 예를 들어, 피사체(140)가 사용자의 손가락이고, 사용자는 피사체(140)를 이용하여 출력되는 음량을 조절하는 경우를 가정한다. 이때, 사용자가 출력되는 음량을 계속적으로 줄이고자 하는 경우 사용자는 피사체(140)를 이용하여 좌측 동작을 반복적으로 수행할 수 있는데, 이때, 피사체(140)는 일회(一回) 좌측 동작 후 다시 좌측 동작을 반복 수행하기 위해 일반적으로 일회의 우측 동작을 수행할 것이고, 이에 따라 피사체 판단부(236)는 좌측 동작에 상응하는 제m 중심점이동정보를 생성하여 메인 제어부(도시되지 않음)로 출력한 후 다시 우측 동작에 상응하는 제m+p 중심점 이동 정보를 생성할 것이다(이때, p는 자연수).However, when the linear motion of the subject 140 is detected by the above-described method, there may be a problem in that the right and left motions of the subject 140 are alternately recognized. For example, it is assumed that the subject 140 is a user's finger, and the user adjusts the output volume using the subject 140. In this case, when the user wants to continuously reduce the volume of the output, the user may repeatedly perform the left operation using the subject 140. In this case, the subject 140 moves left again after the one-time left operation. In order to repeat the operation, one right operation will be generally performed. Accordingly, the object determining unit 236 generates the m-th center movement information corresponding to the left operation and outputs it to the main controller (not shown). Again, the m + p center point movement information corresponding to the right operation will be generated (where p is a natural number).

물론 피사체(140)가 좌측 동작 후 이미지 센서부(218)의 광각(光角)을 벗어나서 우측 동작을 수행하는 경우나 별도의 피사체(예를 들어, 다른 손가락)를 이용하여 우측 동작 없이 다시 좌측 동작을 수행하는 경우에는 상술한 문제점은 발생하지 아니할 것이나 이는 사용자에게 불편함을 야기하는 문제점이 있다.Of course, when the subject 140 performs the right operation outside the wide angle of the image sensor unit 218 after the left operation or the left operation again without the right operation using a separate subject (for example, another finger). In the case of performing the above problem, the above-described problem will not occur, but this causes a problem for the user.

따라서, 상술한 문제점을 해결하기 위하여 광원부(214) 및/또는 이미지 센서부(218) 위에 투광부(도시되지 않음)를 구비한 경우를 가정한다. 이때, 투광부는 플라스틱 또는 유리로 만들어진 투명판일 수 있고, 피사체 판단부(236)는 피사체(140)가 투광부(미도시)에 접촉된 상태에서 움직이면 피사체(140)의 움직임을 감지할 수 있다. 반대로 피사체 판단부(236)는 피사체(140)가 투광부에 접촉되지 아 니한 상태에서 움직이면 피사체(140)의 움직임을 감지하지 아니할 수 있다.Therefore, in order to solve the above-described problem, it is assumed that a light transmitting unit (not shown) is provided on the light source unit 214 and / or the image sensor unit 218. In this case, the light transmitting unit may be a transparent plate made of plastic or glass, and the object determining unit 236 may detect the movement of the subject 140 when the subject 140 moves in contact with the light transmitting unit (not shown). On the contrary, the subject determiner 236 may not detect the movement of the subject 140 when the subject 140 moves while the subject 140 is not in contact with the light emitter.

또한, 상술한 문제점을 해결하기 위하여 피사체 판단부(236)는 피사체(140)의 움직임을 감지함에 있어서 미리 설정된 동작 만을 감지할 수도 있다. 즉, 피사체 판단부(236)는 직선 동작 감지 모드에서 사용자의 선택에 의하여 좌측 동작 또는 우측 동작 중 하나의 동작만을 감지할 수도 있다. 예를 들어, 피사체 판단부(236)는 좌측 동작 감지를 위한 좌측 동작 감지 모드에서는 피사체(140)의 우측 동작은 감지하지 아니할 수 있다. In addition, in order to solve the above-described problem, the subject determining unit 236 may detect only a predetermined operation in detecting the movement of the subject 140. That is, the subject determiner 236 may detect only one of the left operation and the right operation by the user's selection in the linear motion detection mode. For example, the subject determiner 236 may not detect the right motion of the subject 140 in the left motion detection mode for detecting the left motion.

이하, 도 7a 및 도 7b를 참조하여 피사체 판단부(236) 피사체(140)가 투광부(미도시)에 접촉되었는지 판단하는 방법에 대하여 설명한다.Hereinafter, a method of determining whether the subject determining unit 236 or the subject 140 contacts the light transmitting unit (not shown) will be described with reference to FIGS. 7A and 7B.

도 7a는 본 발명에 의해 촬상된 제m 기준픽셀영역 및 접촉식별영역의 일 실시예를 나타낸 도면이고, 도 7b는 본 발명에 의해 촬상된 제m 기준픽셀영역 및 접촉식별영역의 다른 실시예를 나타낸 도면이다. FIG. 7A illustrates an embodiment of an mth reference pixel region and a contact identification region captured by the present invention, and FIG. 7B illustrates another embodiment of an mth reference pixel region and a contact identification region captured by the present invention. The figure shown.

도 7a 및 도 7b를 참조하면, 6개의 접촉식별영역(710-1, 710-2, 710-3, 710-4, 710-5 및 710-6, 이하, '710'으로 통칭함)이 피사체영상데이터(700-1, 700-2)의 각 모서리 부분과 상단면과 하부면의 중앙 근처에 위치하여 있는 경우가 도시된다. 이때, 복수의 접촉식별영역은 피사체 판단부(236)가 피사체(140)의 투광부(미도시) 접촉 여부를 판단하기 위하여 피사체영상데이터에 미리 설정된 하나 이상의 좌표(또는 좌표군)일 수 있다. 7A and 7B, six contact identification areas 710-1, 710-2, 710-3, 710-4, 710-5 and 710-6, hereinafter referred to as '710' are subjects. The case where each corner part of the image data 700-1 and 700-2 is located near the center of the upper surface and the lower surface is shown. In this case, the plurality of contact identification areas may be one or more coordinates (or coordinate groups) preset in the subject image data in order to determine whether the subject determining unit 236 contacts the light emitting unit (not shown) of the subject 140.

이때, 피사체 판단부(236)는 제m 기준픽셀영역이 2개 이상의 접촉식별영 역(710)을 포함하는 경우에 피사체(140)가 투광부에 접촉되었다고 인식하는 경우를 가정한다. 도 7a를 참조하면, 제m 기준픽셀영역(720-1)이 2개의 접촉식별영역을 포함하는 경우가 도시된다. 따라서, 이 경우 피사체 판단부(236)는 피사체(140)가 투광부에 접촉되었다고 인식할 수 있다. 또한, 도 7b를 참조하면, 제m 기준픽셀영역(720-1)이 접촉식별영역(710)을 포함하지 아니하는 경우가 도시된다. 이 경우 피사체 판단부(236)는 피사체(140)가 투광부에 접촉되지 아니하였다고 인식할 수 있다. 이때, 제m 기준픽셀영역은 피사체영상데이터(610)에 촬상된 피사체이미지를 구성하는 제m 기준픽셀의 좌표군(座標群)일 수 있다.In this case, it is assumed that the object determining unit 236 recognizes that the subject 140 contacts the light transmitting part when the m-th reference pixel area includes two or more contact identification areas 710. Referring to FIG. 7A, a case in which the m th reference pixel region 720-1 includes two contact identification regions is illustrated. Therefore, in this case, the subject determining unit 236 may recognize that the subject 140 contacts the light transmitting unit. 7B, a case in which the m th reference pixel region 720-1 does not include the contact identification region 710 is illustrated. In this case, the subject determining unit 236 may recognize that the subject 140 is not in contact with the light transmitting unit. In this case, the m th reference pixel region may be a coordinate group of the m th reference pixels constituting the subject image captured by the subject image data 610.

즉, 피사체(140)가 투광부에 접촉된 경우의 제m 기준 식별 영역이 피사체(140)가 투광부에 접촉되지 아니한 경우보다 상대적으로 클 것이 때문에 피사체 판단부(236)는 이를 이용하여 피사체(140)의 투광부 접촉 여부를 구분할 수 있다. 다만, 피사체(140)가 투광부에 접촉되지 아니하여도 제m 기준 식별 영역이 미리 설정된 개수(여기서는 2개) 이상의 접촉식별영역(710)을 포함할 수 있는 경우가 있을 수 있는데, 이는 피사체영상데이터의 폭 및/또는 길이를 조절하여 해결할 수 있다. 또한, 접촉식별영역(710)의 크기를 조절하여 해결할 수도 있을 것이다. That is, since the m-th reference identification region when the subject 140 contacts the light emitter is larger than the case where the subject 140 does not touch the light emitter, the subject determining unit 236 uses the subject ( It is possible to distinguish whether or not the light emitting unit contacts 140. However, there may be a case in which the m-th reference identification region may include a preset number (in this case, two or more) of the contact identification regions 710 even when the subject 140 does not contact the light transmitting portion, which is the subject image. This can be solved by adjusting the width and / or length of the data. In addition, it may be solved by adjusting the size of the contact identification area 710.

따라서, 피사체 판단부(236)는 제m 기준 식별 영역이 미리 설정된 개수 이상의 접촉식별영역(710)을 포함하는 경우에는 피사체(140)의 움직임을 감지할 수 있다. 반대로, 피사체 판단부(236)는 제m 기준 식별 영역이 미리 설정된 개수 이상의 접촉식별영역(710)을 포함하지 아니하는 경우에는 피사체의 움직임을 감지하지 아니할 수 있다. Accordingly, the object determining unit 236 may detect the movement of the subject 140 when the m-th reference identification area includes the contact identification area 710 of a preset number or more. On the contrary, the subject determining unit 236 may not detect the movement of the subject when the m-th reference identification region does not include more than a preset number of contact identification regions 710.

또한, 피사체 판단부(236)는 제m 중심점이동정보에 상응하는 기능수행명령(이하, '직선기능수행명령'이라 칭함)을 생성하여 메인 제어부(도시되지 않음)로 출력할 수 있다. 즉, 피사체(140)의 직선 동작에 상응하여 이동 통신 단말기(100)에서 출력되는 음량이 조절되는 경우를 가정하면, 피사체 판단부(236)는 제m 중심점이동정보에 포함된 제m 중심점이동방향정보 및/또는 제m 중심점이동거리정보에 상응하여 음량 조절을 위한 직선기능수행명령을 생성할 수 있고, 이를 수신한 메인 제어부(도시되지 않음)는 상응하는 음량 조절을 위해 이동 통신 단말기(100)의 다른 구성 요소들을 제어할 수 있다. In addition, the object determining unit 236 may generate a function execution command (hereinafter, referred to as a 'linear function execution command') corresponding to the m-th center point movement information and output the same to a main controller (not shown). That is, assuming that the volume output from the mobile communication terminal 100 is adjusted according to the linear operation of the subject 140, the subject determining unit 236 may move the m th center point included in the m th center point moving information. Information and / or the m-th center point may generate a linear function execution command for volume adjustment in accordance with the movement distance information, and the main controller (not shown) receiving the same may control the mobile communication terminal 100 for the corresponding volume adjustment. You can control other components of.

또한, 피사체 판단부(236)는 직선기능수행명령을 출력한 후에 종료 명령 수신 여부를 판단할 수 있다. 이때, 종료 명령은 사용자가 직선 동작 감지 모드를 종료시키기 위한 키패드부(130) 조작에 상응하는 신호일 수 있다. 예를 들어, 사용자가 키패드부(130)를 조작하면 키패드부는 이에 상응하여 직선 동작 감지 모드를 종료시키기 위한 종료 명령을 생성하여 피사체 판단부(136)로 출력할 수 있다. 피사체 판단부(236)는 종료 명령을 수신하면 직선 동작 감지 모드를 종료하고, 종료 명령을 수신하지 아니하면 다시 피사체(140)의 직선 동작을 계속적으로 감지할 수 있다. In addition, the subject determining unit 236 may determine whether to receive the end command after outputting the linear function execution command. In this case, the end command may be a signal corresponding to the manipulation of the keypad 130 for the user to end the linear motion detection mode. For example, when the user manipulates the keypad unit 130, the keypad unit may generate an end command for terminating the linear motion detection mode correspondingly and output the end command to the subject determining unit 136. The subject determining unit 236 may end the linear motion sensing mode when receiving the end command, and may continuously detect the linear motion of the subject 140 again when the subject command is not received.

여기에서는 피사체 판단부(236)가 직선 동작 감지 모드에서 피사체(140)의 직선 동작 중 피사체(140)의 좌우 동작을 감지하는 방법에 대하여 설명하였으나, 피사체(140)의 상하(上下) 동작을 감지하는 경우에도 상술한 방법이 동일 또는 유사하게 적용될 수 있음은 자명하다. Here, although the object determining unit 236 detects the left and right motions of the subject 140 during the linear motion of the subject 140 in the linear motion detection mode, it detects the up and down motion of the subject 140. In this case, it is obvious that the above-described method may be applied in the same or similar manner.

다시 도 2를 참조하면, 저장부(240)는 피사체 움직임 감지 마우스(200) 내에 포함된 메모리 모듈로서 플래시 메모리이거나 그 외의 비휘발성 메모리를 포함할 수 있다. 또한, 저장부(240)는 이미지 처리부(230)와 연결될 수 있고, 피사체 움직임 감지 마우스(200)의 동작을 위한 각종 데이터를 저장할 수 있다. 특히, 저장부(240)는 중심 판단부(232)가 산출한 피사체(140) 제m 피사체중심점 및/또는 제m 배경중심점 등을 순차적으로 저장할 수 있다. 또한, 저장부(240)는 피사체 판단부(236)가 순차적으로 추출한 제m 피사체크기정보, 기준피사체크기정보, 클릭정보, 대기정보 및 각종 경계값(즉, 제1 경계값, 제2 경계값 및 제1 기준픽셀경계값 등)을 저장할 수 있다. Referring back to FIG. 2, the storage unit 240 is a memory module included in the subject movement detecting mouse 200 and may include a flash memory or other nonvolatile memory. In addition, the storage unit 240 may be connected to the image processor 230 and may store various data for the operation of the subject movement detecting mouse 200. In particular, the storage unit 240 may sequentially store the m-th subject center point and / or the m-th background center point of the subject 140 calculated by the center determination unit 232. In addition, the storage unit 240 may include the m-th subject size information, the reference subject size information, the click information, the atmospheric information, and various boundary values (ie, the first boundary value and the second boundary value) sequentially extracted by the subject determination unit 236. And a first reference pixel boundary value, etc.).

도 8은 본 발명에 따른 피사체 움직임 감지 방법의 일 실시예에 따른 순서도이다. 8 is a flowchart illustrating a method of detecting a subject motion according to the present invention.

이하, 도 8을 참조하여 본 발명에 따른 피사체 움직임 감지 방법의 일 실시예에 대하여 설명한다. Hereinafter, an embodiment of a subject motion detection method according to the present invention will be described with reference to FIG. 8.

단계 S810에서, 이미지 센서부(218)는 광원부(214)가 활성화된 상태 즉, 광을 출력하는 동안에 피사체(140)를 촬상하여 유광(有光) 영상데이터를 생성하여 이미지 처리부(230)로 출력한다.In operation S810, the image sensor unit 218 photographs the subject 140 while the light source unit 214 is activated, that is, outputs light, and generates glossy image data and outputs the image data to the image processor 230. do.

단계 S820에서, 이미지 센서부(218)는 광원부(214)가 불활성화된 상태 즉, 광을 출력하지 않는 동안에 피사체(140)를 촬상하여 무광(無光) 영상데이터를 생성 하여 이미지 처리부(230)로 출력한다. In operation S820, the image sensor unit 218 photographs the subject 140 while the light source unit 214 is inactivated, that is, does not output light, thereby generating matt image data and generating the image processor 230. Will output

이때, 광원부(214)는 메인제어부(미도시)의 제어를 받아 미리 설정된 시간을 간격으로 점등될 수 있으며, 이미지 센서부(218)는 유광 영상데이터를 생성한 직후에 광원부(214)가 불활성화되면 무광 영상데이터를 생성할 수 있다.At this time, the light source unit 214 may be turned on at a predetermined time interval under the control of the main control unit (not shown), and the image sensor unit 218 deactivates the light source unit 214 immediately after generating the glossy image data. When the matte image data can be generated.

단계 S830에서, 피사체 추출부(231)는 촬상부(210)로부터 입력 받은 유광 영상데이터 및 무광 영상데이터를 비교하여 피사체영상데이터를 생성한다. In operation S830, the subject extracting unit 231 generates subject image data by comparing the matte image data and the matte image data received from the imaging unit 210.

단계 S840에서, 중심 판단부(232)는 피사체 추출부(231)에서 생성한 피사체영상데이터를 분석하여 피사체이미지의 중심점을 판단하기 위하여 피사체(140)가 촬상된 기준픽셀을 추출한다. In operation S840, the center determination unit 232 analyzes the subject image data generated by the subject extraction unit 231, and extracts the reference pixel on which the subject 140 is photographed to determine the center point of the subject image.

단계 S850에서, 중심 판단부(232)는 기준픽셀의 좌표값을 추출하고, 단계 S860에서, 중심 판단부(232)는 피사체이미지의 중심점을 산출한다. In operation S850, the center determination unit 232 extracts a coordinate value of the reference pixel, and in operation S860, the center determination unit 232 calculates a center point of the subject image.

여기에서, 피사체영상데이터를 생성하는 방법 및 피사체이미지의 중심점을 산출하는 방법은 상술한 바, 여기에서는 이에 대한 상세한 설명은 생략한다. Here, the method of generating the subject image data and the method of calculating the center point of the subject image have been described above, and a detailed description thereof will be omitted herein.

단계 S870에서, 피사체(140)의 움직임을 감지하여 상응하는 기능수행명령(예를 들어, 피사체(140)의 움직임이 클릭 동작인 경우에는 클릭기능수행명령)이 생성되어 메인제어부(미도시)로 출력된다. 즉, 추출된 기준픽셀을 이용하여 피사체(140)의 움직임이 판단되고, 상응하는 기능수행명령이 생성되어 메인제어부(미도시)로 출력된다. 이하, 피사체(140)의 움직임에 상응하는 기능수행명령이 생성되는 과정에 대하여 도 9, 도 10 및 도 11을 참조하여 후술한다. In operation S870, the motion of the subject 140 is detected to generate a corresponding function execution command (for example, a click function execution command when the movement of the subject 140 is a click operation) to the main controller (not shown). Is output. That is, the movement of the subject 140 is determined using the extracted reference pixel, and a corresponding function execution command is generated and output to the main controller (not shown). Hereinafter, a process of generating a function execution command corresponding to the movement of the subject 140 will be described with reference to FIGS. 9, 10, and 11.

도 9는 본 발명의 일 실시예에 따른 피사체 움직임 감지 방법의 순서도이다. 9 is a flowchart illustrating a method of detecting a subject motion according to an embodiment of the present invention.

이하, 도 9를 참조하여 본 발명의 일 실시예에 따른 피사체 움직임 감지 방법에 대하여 설명한다. 여기에서는 피사체 판단부(236)가 클릭 동작 감지 모드에서 피사체(140)의 클릭 동작을 감지하는 방법에 대하여 설명한다. 또한, 하기할 각 단계는 도 8을 참조하여 상술한 단계 S810 내지 단계 S850이 수행된 상태일 수 있으며, 각 단계는 피사체 판단부(236)에서 수행되는 동작임을 가정하고 설명한다. Hereinafter, a method of detecting a subject motion according to an exemplary embodiment of the present invention will be described with reference to FIG. 9. Here, the method of detecting the click operation of the subject 140 by the subject determiner 236 in the click operation detection mode will be described. In addition, each step to be described below may be in a state where steps S810 to S850 described above with reference to FIG. 8 are performed, and each step is assumed to be an operation performed by the object determining unit 236.

단계 S910에서, 추출한 피사체영상데이터를 이용하여 제m 피사체크기정보를 산출한다. In step S910, the m th subject size information is calculated using the extracted subject image data.

단계 S920에서, 제m 피사체크기정보와 미리 설정된 제1 경계값을 비교한다. 비교 결과, 제m 피사체크기정보가 제1 경계값 보다 작은 경우에는 피사체(140)가 클릭 동작을 위하여 이미지 센서부(218)에 근접하지 아니한 경우이므로 제m+1 피사체크기정보를 산출한다. 이는 도 9에서 'm=m+1' 블록으로 표현된다. In operation S920, the m th subject size information is compared with a preset first boundary value. As a result of comparison, when the m-th subject size information is smaller than the first threshold value, since the subject 140 is not close to the image sensor unit 218 for the click operation, the m-th subject size information is calculated. This is represented by the 'm = m + 1' block in FIG.

반면, 비교 결과 제m 피사체크기정보가 제1 경계값 보다 큰 경우에는 피사체(140)가 클릭 동작을 위하여 이미지 센서부(218)에 근접한 경우이므로 클릭 정보 측정을 개시한다(단계 S930).On the other hand, when the m-th subject size information is larger than the first boundary value as a result of the comparison, since the subject 140 is close to the image sensor unit 218 for the click operation, measurement of the click information is started (step S930).

단계 S940에서, 후속되는 피사체영상데이터를 이용하여 제k 피사체크기정보를 산출한다. 이때, k는 m보다 큰 자연수일 수 있고, 이는 도 8에서 'k=m+1' 블록으로 표현된다.In step S940, the k-th subject size information is calculated using the following subject image data. In this case, k may be a natural number larger than m, which is represented by a block 'k = m + 1' in FIG. 8.

단계 S950에서, 제k 피사체크기정보와 제1 경계값을 비교한다. 비교 결과, 제k 피사체크기정보가 제1 경계값 보다 큰 경우에는 피사체(140)가 완전한 클릭 동 작을 위하여 이미지 센서부(218)로부터 멀어진 경우가 아니므로 다시 제k+1 피사체크기정보를 산출한다. 이는 도 8에서 'k=k+1' 블록으로 표현된다. In operation S950, the k-th subject size information is compared with the first boundary value. As a result of comparison, when the k-th object size information is larger than the first threshold value, since the object 140 is not far from the image sensor unit 218 for a full click operation, the k-th object size information is calculated again. . This is represented by the block 'k = k + 1' in FIG. 8.

반면, 비교 결과, 제k 피사체크기정보가 제1 경계값 보다 작은 경우에는 피사체(140)의 클릭 동작이 이루어진 것이므로 클릭 정보 측정을 종료한다(단계 S960). On the contrary, when the k-th subject size information is smaller than the first threshold value, the click operation of the subject 140 is performed, and thus the click information measurement is terminated (step S960).

단계 S970에서, 생성된 클릭 정보에 상응하는 클릭기능수행명령을 생성하여 메인제어부(미도시)로 출력한다. 다만, 정확한 클릭 동작의 감지를 위하여 제l 피사체크기정보가 미리 설정된 제2 경계값 보다 작은 값인 상태가 이어진 시간(즉, 대기 시간)을 측정할 수 있고, 대기 시간이 경계 시간 이상이 되면 클릭기능수행명령을 생성하여 메인제어부(미도시)로 출력할 수도 있음은 상술한 바와 같다. In step S970, a click function execution command corresponding to the generated click information is generated and output to the main controller (not shown). However, in order to detect the correct click operation, the time (that is, the waiting time) for which the state of the first subject size information is smaller than the preset second threshold value may be measured (that is, the waiting time). As described above, the execution command may be generated and output to the main controller (not shown).

단계 S980에서, 종료 명령 수신 여부를 판단한다. 이때, 종료 명령은 사용자가 피사체(140) 클릭 동작의 감지를 종료하고자 하는 경우, 사용자의 키패드부(130) 조작에 상응하는 신호일 수 있다. In step S980, it is determined whether a termination command is received. In this case, the end command may be a signal corresponding to the manipulation of the keypad 130 of the user when the user wants to end the detection of the click operation of the subject 140.

종료 명령을 수신한 경우에는 피사체(140)의 클릭 동작 감지를 종료하고, 종료 명령을 수신하지 아니한 경우에는 다시 대기 상태로 천이하여 제k+1 피사체크기정보를 산출하여 피사체(140)의 클릭 동작을 계속하여 감지할 수 있다. 이는 도 9에서 'm=k+1' 블록으로 표현된다.If the end command is received, the end of the click operation detection of the subject 140 is terminated. If the end command is not received, the process returns to the standby state to calculate k + 1th object size information to calculate the click operation of the subject 140. You can continue to detect. This is represented by the 'm = k + 1' block in FIG.

도 10은 본 발명의 다른 실시예에 따른 피사체 움직임 감지 방법의 순서도이다. 여기에서는 피사체 판단부(236)가 원근 동작 감지 모드에서 피사체(140)의 원 근 동작을 감지하는 방법에 대하여 설명한다. 또한, 하기할 각 단계는 도 8을 참조하여 상술한 단계 S810 내지 단계 S850이 수행된 상태일 수 있으며, 각 단계는 피사체 판단부(236)에서 수행되는 동작임을 가정하고 설명한다. 또한, 이하에서는 기준피사체크기정보를 사용자의 선책에 의하여 설정하는 경우를 가정하고 설명하나, 기준피사체크기정보가 미리 설정된 경우에는 하기의 단계 S1010 내지 단계 S1040은 생략될 수 있다. 10 is a flowchart illustrating a method of detecting a subject motion according to another embodiment of the present invention. Here, the method of detecting the perspective motion of the subject 140 by the subject determiner 236 in the perspective motion detection mode will be described. In addition, each step to be described below may be in a state where steps S810 to S850 described above with reference to FIG. 8 are performed, and each step is assumed to be an operation performed by the object determining unit 236. In the following description, it is assumed that the reference subject size information is set by the user's selection. However, when the reference subject size information is set in advance, the following steps S1010 to S1040 may be omitted.

단계 S1010에서, 추출한 피사체영상데이터를 이용하여 제m 피사체크기정보를 산출한다. In step S1010, the m th subject size information is calculated using the extracted subject image data.

단계 S1020에서, 제m 피사체크기정보와 미리 설정된 제3 경계값 및/또는 제4 경계값을 비교한다. 비교 결과, 제m 피사체크기정보가 제3 경계값 보다 작은 경우에는 피사체(140)가 이미지 센서부(218)에 근접하지 아니하여 기준피사체크기정보를 산출하기 적절하지 아니하므로 제m+1 피사체크기정보를 산출한다. 또한, 제m 피사체크기정보가 제4 경계값 보다 큰 경우에는 피사체(140)가 이미지 센서부(218)에 과도하게 근접하여 기준피사체크기정보를 산출하기 적절하지 아니한 경우이므로 제m+1 피사체크기정보를 산출한다. 이는 도 10에서 'm=m+1' 블록으로 표현된다. In operation S1020, the m-th subject size information is compared with a preset third threshold value and / or fourth threshold value. As a result of comparison, when the m-th subject size information is smaller than the third threshold value, since the subject 140 is not close to the image sensor unit 218, it is not appropriate to calculate the reference subject size information, and the m + 1 subject size Calculate the information. In addition, when the m-th subject size information is larger than the fourth threshold value, the object 140 is excessively close to the image sensor unit 218 and is not suitable for calculating the reference subject size information. Calculate the information. This is represented by the 'm = m + 1' block in FIG.

이때, 사용자에게 피사체(140)를 촬상부(210)에 조금 더 가까운 곳이나 조금 더 먼 곳으로 위치시키도록 하기 위하여 에러 신호를 메인제어부(미도시)로 출력할 수 있다(단계 S1025). 또한, 이를 수신한 메인제어부(미도시)는 에러 신호에 상응하는 표시(예를 들어, 알람(Alarm), 에러 신호 표시창 등)가 디스플레이부(150)에 표시되도록 할 수 있다. In this case, an error signal may be output to the main controller (not shown) in order to allow the user to position the subject 140 closer to or slightly closer to the imaging unit 210 (step S1025). In addition, the main controller (not shown) that receives this may cause a display (eg, an alarm, an error signal display window, etc.) corresponding to the error signal to be displayed on the display unit 150.

단계 S1030에서, 제m 피사체크기정보가 제3 경계값과 제4 경계값 사이의 값인 경우에는 기준피사체크기정보 생성명령이 입력되었는지 판단한다. 판단 결과, 기준피사체크기정보 생성명령이 입력되지 아니하면 제m+1 피사체크기정보를 생성한다. 이는 도 10에서 'm=m+1'블록으로 표시된다. In operation S1030, when the m th subject size information is a value between the third threshold value and the fourth threshold value, it is determined whether a reference subject size information generation command is input. As a result of the determination, when the command to generate the reference subject size information is not input, the m + 1th object size information is generated. This is represented by the 'm = m + 1' block in FIG.

반대로, 기준피사체크기정보 생성명령이 입력되면 제m 피사체크기정보에 상응하여 기준피사체크기정보를 생성하여 저장부(240)에 저장한다(단계 S1040).  On the contrary, when the command for generating the reference subject size information is input, the reference subject size information is generated and stored in the storage unit 240 according to the m-th subject size information (step S1040).

단계 S1050에서, 제k 피사체크기정보를 산출하고, 산출된 제k 피사체크기정보와 기준피사체크기정보를 비교한다(단계 S1060).In step S1050, the k-th subject size information is calculated, and the calculated k-th subject size information is compared with the reference subject size information (step S1060).

단계 S1070에서, 산출된 제k 피사체크기정보와 기준피사체크기정보를 비교한 단계에 상응하여 포인터크기변경명령을 생성하여 메인제어부(미도시)로 출력한다. In operation S1070, a pointer size change command is generated and output to the main controller (not shown) corresponding to the step of comparing the calculated k-th subject size information with the reference subject size information.

단계 S1080에서, 종료명령 수신 여부를 판단한다. 이때, 종료 명령은 사용자의 버튼부(미도시) 및/또는 노트북컴퓨터(130)의 키패드부(135) 조작에 상응하는 신호일 수 있다. 즉, 사용자는 피사체 판단부(2236)가 원근 동작 감지 모드로 동작하는 것을 종료시키기 위하여 버튼부(미도시) 및/또는 노트북컴퓨터(130)의 키패드부(135)를 조작할 수 있고, 버튼부(미도시) 및/또는 노트북컴퓨터(130)의 키패드부(135)는 이에 상응하는 종료 명령을 피사체 판단부(236)로 출력할 수 있다. In step S1080, it is determined whether a termination command is received. In this case, the end command may be a signal corresponding to a manipulation of the button unit (not shown) of the user and / or the keypad unit 135 of the notebook computer 130. That is, the user may manipulate the button unit (not shown) and / or the keypad unit 135 of the notebook computer 130 to terminate the operation of the subject determining unit 2236 in the perspective motion detection mode, and the button unit (Not shown) and / or the keypad unit 135 of the notebook computer 130 may output a corresponding termination command to the subject determining unit 236.

판단 결과, 종료명령이 수신되면 피사체(140)의 원근 동작 감지를 종료하고, 종료명령을 수신하지 못하면 제k+1 피사체크기정보를 산출하여 기준피사체크기정보와 비교할 수 있다. 이는 도 10에서 'k=k+1' 블록으로 표현된다. As a result, when the end command is received, the detection of the perspective motion of the subject 140 is terminated. If the end command is not received, the k + 1th object size information may be calculated and compared with the reference subject size information. This is represented by a 'k = k + 1' block in FIG.

도 11은 본 발명의 또 다른 실시예에 따른 피사체 움직임 감지 방법의 순서도이다. 11 is a flowchart illustrating a method of detecting a subject motion according to another embodiment of the present invention.

도 11을 참조하면, 여기에서는 피사체 판단부(236)가 직선 동작 감지 모드에서 피사체(140)의 직선 동작을 감지하는 방법에 대하여 설명한다. 또한, 하기할 각 단계는 도 8을 참조하여 상술한 단계 S810 내지 단계 S860이 수행된 상태일 수 있으며, 각 단계는 피사체 판단부(236)에서 수행되는 동작임을 가정하고 설명한다. Referring to FIG. 11, a method in which the subject determining unit 236 detects a linear motion of the subject 140 in the linear motion detection mode will be described. In addition, each step to be described below may be in a state where steps S810 to S860 described above with reference to FIG. 8 are performed, and each step is assumed to be an operation performed by the object determining unit 236.

단계 S1110에서, 제m 중심점에 상응하는 제m 영역정보 추출하여 저장한다. In operation S1110, the m-th region information corresponding to the m-th center point is extracted and stored.

단계 S1120에서 제m 영역정보와 제m-1 영역정보를 비교한다. 이때, 제m-1 영역정보는 제m 영역정보가 추출되기 바로 직전에 추출된 영역정보일 수 있다. In operation S1120, the m-th region information is compared with the m-th region information. In this case, the m-th region information may be region information extracted immediately before the m-th region information is extracted.

제m 영역정보가 제m-1 영역정보와 동일하면 피사체(140)가 움직이지 아니한 경우이므로 대기 상태로 천이하여 제m+1 중심점이 산출되면 제m+1 영역정보를 산출한다. 이는 도 11에서 'm=m+1' 블록으로 표현된다.If the m-th region information is the same as the m-th region information, the object 140 is not moved. Therefore, when the m-th center point is calculated by transitioning to the standby state, the m-th region information is calculated. This is represented by the 'm = m + 1' block in FIG.

만일 제m 영역정보가 제m-1 영역정보와 동일하지 아니한 경우에는 피사체(140)가 움직인 경우이므로 제m 중심점이동정보를 생성한다(단계 S1130). 제m 중심점이동정보는 제m 중심점이동방향정보 및/또는 제m 중심점이동거리정보를 포함할 수 있고, 이들을 생성하는 방법은 상술한 바, 여기에서는 이에 대한 상세한 설명은 생략한다. If the m-th region information is not the same as the m-th region information, since the subject 140 is moved, the m-th center point movement information is generated (step S1130). The m th center point moving information may include the m th center point moving direction information and / or the m th center point moving distance information, and a method of generating the m th center point moving direction information is described above.

단계 S1140에서, 제m 중심점이동정보에 상응하는 직선기능수행명령을 생성하여 메인 제어부(도시되지 않음)로 출력한다. In operation S1140, a linear function execution command corresponding to the m th center point movement information is generated and output to the main controller (not shown).

단계 S1150에서, 종료 명령 수신 여부를 판단한다. 이때, 종료 명령은 사용 자가 피사체(140) 직선 동작의 감지를 종료하고자 하는 경우, 사용자의 키패드부(130) 조작에 상응하는 신호일 수 있다. In step S1150, it is determined whether an end command is received. In this case, when the user wants to end the detection of the linear motion of the subject 140, the end command may be a signal corresponding to the manipulation of the keypad 130 of the user.

종료 명령을 수신한 경우에는 피사체(140)의 직선 동작 감지를 종료하고, 종료 명령을 수신하지 아니한 경우에는 다시 대기 상태로 천이하여 제m+1 중심점이 산출되면 제m+1 영역정보를 추출하여 피사체(140)의 직선 동작을 감지할 수 있다. 이는 도 11에서 'm=m+1' 블록으로 표현된다.When the end command is received, the linear motion detection of the subject 140 is terminated, and when the end command is not received, the process returns to the standby state, and when the m + 1 center point is calculated, the m + 1 area information is extracted. The linear motion of the subject 140 may be detected. This is represented by the 'm = m + 1' block in FIG.

도 12는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스의 블록 구성도이다. 12 is a block diagram of a subject motion detection mouse according to another embodiment of the present invention.

도 12를 참조하면, 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스(1200)는 촬상부(1210), 이미지 처리부(1230) 및 저장부(1240)를 포함할 수 있으며, 촬상부(1210)는 광원부(1211), 필터부(1213), 렌즈부(1216) 및 이미지 센서부(1219)를 포함할 수 있으며, 이미지 처리부(1230)는 선명도 조절부(1231) 외곽선 추출부(1233), 감마 보정부(1235), 중심 판단부(1237), 포인터 위치 설정부(1239) 및 피사체 판단부(1239-1)를 포함할 수 있다. 이하, 각 구성 요소의 동작에 대하여 상세히 설명한다. Referring to FIG. 12, the subject motion detecting mouse 1200 according to another exemplary embodiment may include an imaging unit 1210, an image processing unit 1230, and a storage unit 1240, and an imaging unit 1210. The light source unit 1211 may include a filter unit 1213, a lens unit 1216, and an image sensor unit 1219. The image processing unit 1230 may include a sharpness adjusting unit 1231, an outline extracting unit 1233, and a gamma. It may include a corrector 1235, a center determiner 1237, a pointer position setter 1239, and a subject determiner 1239-1. Hereinafter, the operation of each component will be described in detail.

여기에서, 촬상부(1210)를 구성하는 각 구성 요소들은 도 2를 참조하여 상술한 본 발명의 일 실시예에 따른 피사체 움직임 감지 마우스(200)를 구성하는 촬상부(210)와 그 동작이 동일 또는 유사하므로, 여기에서는 이에 대한 상세한 설명은 생략한다. 다만, 광원부(1211)는 미리 설정된 시간을 간격으로 점등되지 아니할 수 있고, 활성화되어 있는 시간 동안 항상 광을 출력할 수 있다. 또한, 광원부(1211)가 구비되지 아니하고, 주변의 다른 광원(예를 들어, 태양광 등)을 이용할 수도 있음은 상술한 바와 같다.Here, each component of the image capturing unit 1210 has the same operation as that of the image capturing unit 210 configuring the object motion detecting mouse 200 according to the embodiment described above with reference to FIG. 2. Or similar, so detailed description thereof will be omitted here. However, the light source unit 1211 may not be turned on at a predetermined time interval, and may always output light during the activated time. In addition, as described above, the light source unit 1211 may not be provided and other light sources (for example, sunlight) may be used.

이미지 처리부(1230)는 이미지 센서부(1219)에서 인식한 피사체의 영상데이터(이하, '제1 영상데이터'라 칭함)로부터 피사체(140)의 움직임에 상응하는 좌표값을 추출한다. 이를 자세히 살펴보면, 선명도 조절부(1231)는 촬상된 피사체(140)의 제1 영상데이터의 선명도를 조절하여 제1 영상데이터와 다른 피사체영상데이터를 생성한다. 즉, 선명도 조절부(1231)는 촬상된 제1 영상데이터의 픽셀의 색상 대비, 명도 대비 및 채도 대비 중 어느 하나 이상을 증가시킴으로써 선명도를 조절할 수 있다. The image processor 1230 extracts coordinate values corresponding to the movement of the subject 140 from the image data of the subject recognized by the image sensor 1219 (hereinafter, referred to as 'first image data'). In detail, the sharpness controller 1231 may adjust the sharpness of the first image data of the photographed subject 140 to generate subject image data different from the first image data. That is, the sharpness controller 1231 may adjust the sharpness by increasing one or more of color contrast, brightness contrast, and saturation contrast of pixels of the first image data.

여기서, 이미지의 선명도(鮮明度, sharpness)는 이미지의 명암 경계 부분의 명확도를 나타내는 것으로서, 피사체(140)의 이미지의 선명도가 증가하면, 경계 부분의 명확도가 증가하기 때문에 피사체(140)를 촬상한 이미지에서 소정의 피사체(140)만의 외곽선(또는 윤곽(edge))을 파악하기 용이한 장점이 있다. 즉, 선명도가 높은 픽셀에 대해서 색상 대비, 명도 대비 및 채도 대비 중 어느 하나를 증가시킴으로써 선명도를 증가시킬 수 있다. 여기서, 렌즈부(1216)의 심도(depth of field)에 따라서 즉, 렌즈부(1216)에 의하여 생성되는 피사체(140)의 상이 뚜렷하게 보일 수 있는 범위 안에서 피사체(140)의 이미지의 선명도가 달리 표현될 수 있다. 일반적으로, 렌즈부(1216)의 초점 거리와 유사한 거리에 위치한 피사체(140)의 외곽선은 선명도가 크지만, 렌즈부(1216)의 초점 거리와 먼 거리에 위치한 배경은 선명도가 작게 된다. Here, the sharpness of the image indicates the clarity of the contrast boundary portion of the image. When the sharpness of the image of the subject 140 increases, the clarity of the boundary portion increases, so that the subject 140 is moved. In the captured image, there is an advantage of easily identifying an outline (or an edge) of only a predetermined subject 140. That is, the sharpness may be increased by increasing any one of color contrast, brightness contrast, and saturation contrast with respect to pixels having high sharpness. Here, the sharpness of the image of the subject 140 is expressed differently according to the depth of field of the lens unit 1216, that is, within the range where the image of the subject 140 generated by the lens unit 1216 can be clearly seen. Can be. In general, the outline of the subject 140 located at a distance similar to the focal length of the lens unit 1216 has a high sharpness, but the background located far from the focal length of the lens unit 1216 has a low sharpness.

즉, 선명도 조절부(1231)를 이용하는 경우 렌즈부(1216)의 초점 거리와 유사한 거리에 위치한 피사체(140)의 외곽선은 선명도가 더 증가할 것이나, 렌즈부(1216)의 초점 거리와 먼 거리에 위치한 배경은 선명도가 더 작게 될 수 있다. 따라서, 선명도 조절부(1231)에 의해 피사체(140)의 외곽선은 배경보다 선명도가 더 커지게 된다.That is, when the sharpness adjuster 1231 is used, the outline of the subject 140 positioned at a distance similar to the focal length of the lens unit 1216 will increase sharply, but at a distance far from the focal length of the lens unit 1216. The background where it is located can be made less sharp. Therefore, the sharpness adjuster 1231 makes the outline of the subject 140 larger than the background.

외곽선 추출부(1233)는 피사체(140)를 촬상하여 생성한 제1 영상데이터와 이를 영상 처리한 피사체영상데이터의 차분값을 추출하여 피사체(140)의 외곽선을 추출하여 저장부(1240)에 순차적으로 저장한다. 즉, 선명도 조절부(1231)에서 생성된 선명도가 높은 제1 영상데이터와 촬상된 피사체(140)의 피사체영상데이터의 차분값은 피사체(140)의 외곽선을 나타낼 수 있다. 추출되는 피사체(140)의 외곽선은 촬상부(1210)에 인접한 피사체(140)의 일단의 외곽선이 될 수 있다.The outline extractor 1233 extracts the difference between the first image data generated by capturing the subject 140 and the subject image data processed by the image, extracts the outline of the subject 140, and sequentially stores the outline in the storage unit 1240. Save as. That is, the difference between the first image data having high sharpness generated by the sharpness controller 1231 and the subject image data of the photographed subject 140 may represent an outline of the subject 140. The outline of the extracted subject 140 may be an outline of one end of the subject 140 adjacent to the imaging unit 1210.

여기서, 휘도값이 미리 설정된 기준 휘도값보다 큰 차분 값을 추출하여 피사체(140)의 일단에 상응하는 외곽선을 추출할 수 있다. 기준 휘도값은 피사체(140) 외의 배경으로부터 촬상부(1210)에 들어오는 광에 의해 발생하는 노이즈를 제거할 수 있게 한다. 즉, 선명도 조절부(1231)에 의해 생성된 제1 영상데이터의 선명도는 피사체(140)의 영상데이터뿐만 아니라 배경 영상데이터에 의해서도 조절될 수 있으므로, 차분값이 기준 휘도값 이상인 영상데이터에 대해서만 외곽선으로 인식함으로써 피사체(140) 인식 효율성을 높일 수 있다. 여기서, 기준 휘도값은 고정될 수도 있고, 소정의 휘도값 이상을 가지는 픽셀의 개수에 따라서 변화할 수도 있으며, 이 에 대한 상세한 설명은 도 10을 참조하여 후술한다. Here, an outline corresponding to one end of the subject 140 may be extracted by extracting a difference value having a luminance value greater than a preset reference luminance value. The reference luminance value may remove noise generated by light entering the imaging unit 1210 from a background other than the subject 140. That is, since the sharpness of the first image data generated by the sharpness adjuster 1231 may be adjusted not only by the image data of the subject 140 but also by the background image data, only the image data having a difference value greater than or equal to the reference luminance value may be outlined. The recognition efficiency of the subject 140 may be improved by recognizing the image. Here, the reference luminance value may be fixed or may vary according to the number of pixels having a predetermined luminance value or more, which will be described later with reference to FIG. 10.

감마 보정부(1235)는 피사체(140)의 영상데이터를 감마 보정한다. 여기서, 영상의 감마(Gamma)는 일반적으로 텔레비전, 카메라, 팩스 송수신기 등의 광전 변환계 또는 전광(電光) 변환계에서 입출력 특정을 양(兩) 대수축으로 표시하였을 때, 직선 부분의 경사이다. 즉, 텔레비전에서는 피사체(140) 휘도에 대한 카메라 출력 전압과 수상부 입력 전압에 대한 음극선관 휘도와의 대수비를 표시한다. 본 발명의 실시예에 따른 감마 보정에 의하여 각 픽셀의 휘도값을 달리할 수 있으므로, 피사체(140)의 선명도가 큰 부분만 표시되고, 나머지 선명도가 작은 부분은 흑색으로 남게 된다. 따라서, 피사체(140)를 촬상한 이미지에서 소정의 피사체(140)의 윤곽만 밝게 표시됨으로써 이를 이용하여 피사체(140)의 이동 여부를 판단할 수 있다. The gamma correction unit 1235 gamma-corrects the image data of the subject 140. Here, gamma of an image is generally a slope of a straight line when input / output specification is indicated by positive and large contractions in a photoelectric conversion system or an all-optical conversion system such as a television, a camera, a fax transceiver, and the like. That is, the television displays the logarithmic ratio between the camera output voltage for the brightness of the subject 140 and the cathode ray tube brightness for the input voltage of the receiver. Since the luminance value of each pixel may be changed by gamma correction according to an exemplary embodiment of the present invention, only a portion of the sharpness of the subject 140 is displayed, and a portion of the remaining sharpness remains black. Therefore, only the outline of the predetermined subject 140 is brightly displayed in the image photographing the subject 140, so that it may be determined whether or not the subject 140 is moved.

중심 판단부(1237)는 감마 보정된 이미지로부터 소정의 외곽선을 추적하고, 소정의 외곽선에 의해 정해지는 좌표값을 추출할 수 있다. 여기서, 소정의 외곽선은 다양한 형태를 가질 수 있다. 예를 들면, 원형의 외곽선일 수 있고, 소정의 외곽선에 의해 정해지는 좌표값은 원형의 외곽선에 의해서 결정되는 중심점 즉, 원의 중심의 좌표값이 될 수 있다. 일반적으로 움직임 추출을 위해 사용되는 피사체(140)는 사용자의 손가락의 일단이 될 수 있으므로, 중심 판단부(1237)는 손가락의 일단인 원형의 외곽선을 추출함으로써, 피사체(140)의 움직임을 산출할 수 있다. The center determiner 1237 may track a predetermined outline from the gamma corrected image and extract a coordinate value determined by the predetermined outline. Here, the predetermined outline may have various shapes. For example, it may be a circular outline, and the coordinate value determined by the predetermined outline may be a center point determined by the circular outline, that is, a coordinate value of the center of the circle. In general, since the subject 140 used for the motion extraction may be one end of the user's finger, the center determination unit 1237 extracts a circular outline, which is one end of the finger, to calculate the movement of the subject 140. Can be.

중심 판단부(1237)는 감마 보정부(1235)에 의해 추출되는 피사체의 외곽선이 형성하는 도형의 내부에 위치한 특정 좌표를 산출한다. 이러한 특정 좌표를 산출하는 방법은 여러 가지가 있을 수 있다. 예를 들어, 중심 판단부(1237)는 피사체(140)의 외곽선이 형성하는 도형의 무게 중심 또는 중심점의 좌표값을 추출할 수 있다. The center determiner 1237 calculates specific coordinates located inside the figure formed by the outline of the subject extracted by the gamma corrector 1235. There may be a number of ways to calculate this particular coordinate. For example, the center determiner 1237 may extract a coordinate value of the center of gravity or the center point of the figure formed by the outline of the subject 140.

피사체(140)의 외곽선이 형성하는 도형의 내부에 위치한 특정 좌표인 무게 중심은 다음과 같은 수학식에 의해 산출될 수 있다. The center of gravity, which is a specific coordinate located inside the figure formed by the outline of the subject 140, may be calculated by the following equation.

Figure 112006098420238-pat00009
(7)
Figure 112006098420238-pat00009
(7)

Figure 112006098420238-pat00010
(8)
Figure 112006098420238-pat00010
(8)

Figure 112006098420238-pat00011
(9)
Figure 112006098420238-pat00011
(9)

여기서, R은 무게 중심, M은 피사체(140)의 외곽선을 나타내는 픽셀(이하, '외곽선 픽셀'이라 칭함)의 휘도값을 모두 더한 값, mi는 피사체(140)의 외곽선 픽셀의 휘도값, ri는 상기 외곽선 픽셀의 좌표값이다. 아래 첨자 x, y는 각각 X축과 Y축에 해당하는 값임을 나타내며, 식 (9)는 식 (7)과 식 (8)에 대한 벡터 표현이다. Here, R is the center of gravity, M is the sum of the luminance values of the pixels representing the outline of the subject 140 (hereinafter, referred to as 'outline pixels'), mi is the luminance value of the outline pixel of the subject 140, ri Is a coordinate value of the outline pixel. The subscripts x and y represent the values corresponding to the X and Y axes, respectively, and Equation (9) is a vector representation of Equations (7) and (8).

또한, 중심 판단부(1237)가 상술한 수학식에 의하여 피사체(140) 이미지의 중심점을 판단하는 경우에는 외곽선 픽셀의 휘도값을 모두 반영하여야 하므로 연산량이 많아지게 되어 피사체 움직임 감지 마우스(1200)의 전반적인 기능을 저하시키 는 문제점이 발생할 수 있다. 따라서, 다른 실시예에 따르면, 피사체(140)의 외곽선이 형성하는 도형의 내부에 위치한 특정 좌표인 무게 중심은 다음과 같은 수학식에 의해서도 산출될 수 있다.In addition, when the center determination unit 1237 determines the center point of the image of the subject 140 by the above-described equation, the center determination unit 1237 needs to reflect all the luminance values of the outline pixels, thereby increasing the amount of computation. Problems may occur that degrade the overall functionality. Therefore, according to another embodiment, the center of gravity, which is a specific coordinate located inside the figure formed by the outline of the subject 140, may also be calculated by the following equation.

Figure 112006098420238-pat00012
(10)
Figure 112006098420238-pat00012
10

Figure 112006098420238-pat00013
(11)
Figure 112006098420238-pat00013
(11)

Figure 112006098420238-pat00014
(12)
Figure 112006098420238-pat00014
(12)

여기서, R은 무게 중심, ri는 상기 외곽선 픽셀의 좌표값, n은 상기 외곽선 픽셀의 개수이다. 아래 첨자 x, y는 각각 X축과 Y축에 해당하는 값임을 나타내고, 식 (12)는 식 (10)과 식 (11)에 대한 벡터 표현이다.Where R is the center of gravity, ri is the coordinate value of the outline pixel, and n is the number of outline pixels. Subscripts x and y represent values corresponding to the X and Y axes, respectively, and Equation (12) is a vector representation of Equation (10) and Equation (11).

즉, 중심 판단부(1237)는 픽셀의 휘도값을 반영하지 않고 피사체(140) 이미지의 중심점을 판단할 수 있다. 이는 각 픽셀의 휘도값은 큰 차이가 없을 것이므로 중심 판단부(1237)는 이에 대한 반영을 하지 아니하고 외곽선 픽셀의 좌표값의 평균값을 피사체(140) 이미지의 중심점으로 산출할 수 있다.That is, the center determiner 1237 may determine the center point of the image of the subject 140 without reflecting the luminance value of the pixel. Since the luminance value of each pixel will not have a large difference, the center determination unit 1237 may calculate the average value of the coordinate values of the outline pixel as the center point of the image of the subject 140 without reflecting it.

또는, 피사체(140)의 외곽선이 곡선형인 경우 중심 판단부(1237)는 그 곡률 반경을 산출하고, 해당 곡률 반경에 상응하는 중심점의 좌표값을 추출할 수 있다. 만일, 소정의 외곽선이 사각형인 경우 중심 판단부(1237)는 사각형의 대각선이 만나는 좌표값을 소정의 외곽선에 의해 정해지는 좌표값으로 추출할 수도 있으며, 다 른 다각형인 경우에는 서로 마주보는 꼭지점을 이은 둘 이상의 선을 만나는 좌표값으로 추출할 수도 있다. 예를 들어, 중심 판단부(1237)는 곡선형의 외곽선을 나타내는 각 픽셀 간의 거리를 계산하여, 계산된 각 픽셀의 거리가 가장 큰 두 픽셀의 중간값을 상기 중심점의 좌표값으로 할 수 있다. 또한 다른 예를 들면, 이러한 중간값은 2차원 디스플레이의 경우 X축과 Y축에 대한 좌표값으로 나타내질 수 있으므로, 중심 판단부(1237)는 X축 또는 Y축에 대한 좌표값의 차이가 가장 큰 두 픽셀 간의 중간값을 중심점의 좌표값으로 추출할 수도 있다.Alternatively, when the outline of the subject 140 is curved, the center determiner 1237 may calculate a radius of curvature and extract a coordinate value of a center point corresponding to the radius of curvature. If the predetermined outline is a quadrangle, the center judging unit 1237 may extract a coordinate value where the diagonal of the quad meets as a coordinate value determined by the predetermined outline, and in the case of another polygon, vertices facing each other. It can also be extracted as coordinates that meet two or more lines. For example, the center determiner 1237 may calculate a distance between each pixel representing a curved outline, and may use the intermediate value of two pixels having the largest calculated distance of each pixel as coordinate values of the center point. In another example, since the intermediate value may be represented as coordinate values for the X and Y axes in the case of a two-dimensional display, the center determination unit 1237 may have the largest difference in the coordinate values for the X or Y axes. The intermediate value between two large pixels may be extracted as the coordinate value of the center point.

또한, 중심 판단부(1237)는 중심점의 좌표값(이하, '중심점'이라 칭함)을 산출하여 저장부(1240)에 저장한다. 즉, 중심 판단부(1237)는 상술한 방법으로 산출한 중심점에 대한 정보가 저장부(1240)에 저장될 수 있도록 할 수 있다. In addition, the center determiner 1237 calculates a coordinate value (hereinafter, referred to as a “center point”) of the center point and stores it in the storage 1240. That is, the center determination unit 1237 may allow the storage unit 1240 to store information about the center point calculated by the above-described method.

포인터 위치 설정부(1239)는 포인터가 디스플레이부(150, 즉 피사체 움직임 감지 마우스(200)가 연결된 전자기기의 디스플레이부)의 특정 위치에 위치되도록 포인터이동명령을 생성하여 메인제어부(미도시)출력한다. 즉, 포인터 위치 설정부(1239)는 디스플레이부(150)의 포인터(150-1)의 위치가 특정 좌표(예를 들어, 피사체영상데이터 상의 외곽선의 무게 중심)에 상응하여 위치되도록 하기 위하여 포인터이동명령을 생성하여 메인제어부(미도시)로 출력할 수 있다. 이때, 포인터이동명령은 무게 중심의 좌표값에 상응하는 신호일 수 있고, 포인터이동명령을 수신한 메인제어부(미도시)는 포인터이동명령에 상응하는 좌표에 디스플레이부(150)의 포인터(150-1)가 위치되도록 제어할 수 있다. The pointer position setting unit 1239 generates a pointer movement command so that the pointer is positioned at a specific position of the display unit 150 (that is, the display unit of the electronic device to which the subject movement detecting mouse 200 is connected) and outputs a main controller (not shown). do. That is, the pointer position setting unit 1239 moves the pointer so that the position of the pointer 150-1 of the display unit 150 corresponds to a specific coordinate (for example, the center of gravity of the outline on the subject image data). A command may be generated and output to a main controller (not shown). In this case, the pointer movement command may be a signal corresponding to the coordinate value of the center of gravity, and the main controller (not shown) that receives the pointer movement command is the pointer 150-1 of the display unit 150 at the coordinates corresponding to the pointer movement command. ) Can be controlled to be positioned.

포인터 위치 설정부(1239)는 산출된 특정 좌표에 디스플레이부(미도시)의 포 인터가 위치되도록 제어한다. 즉, 포인터 위치 설정부(1239)는 포인터의 위치가 특정 좌표(예를 들면, 피사체(140)의 외곽선에 대한 무게 중심 또는 중심점의 좌표값)에 상응하도록 제어할 수 있다. 즉, 산출된 특정 좌표가 미리 설정된 픽셀보다 상부에 위치하는 경우 볼륨을 크기를 의미하는 바(Bar)의 위치를 높이는 등의 기능을 수행할 수 있다.The pointer position setting unit 1239 controls the pointer of the display unit (not shown) to be positioned at the calculated specific coordinates. That is, the pointer position setting unit 1239 may control the position of the pointer to correspond to a specific coordinate (for example, the center of gravity or the coordinate value of the center point of the outline of the subject 140). That is, when the calculated specific coordinate is located above the preset pixel, a function of increasing the position of the bar, which means the volume, may be performed.

피사체 판단부(1239-1)는 외곽선 추출부(1233)에서 판단한 외곽선(이하, '제m 외곽선' 이라 칭함(이때, m은 자연수))을 이용하여 피사체(140)의 움직임에 상응하는 기능수행명령(예를 들어, 클릭기능수행명령, 포인터크기변경명령, 직선기능수행명령 등)을 생성하고, 이를 메인제어부(미도시)로 출력한다. 피사체 판단부(1239-1)(이하, '제2 피사체 판단부'라 칭함)의 상세한 동작은 도 2를 참조하여 상술한 본 발명의 일 실시예에 따른 피사체 움직임 감지 마우스(200)를 구성하는 피사체 판단부(236)(이하, '제1 피사체 판단부(236)'라 칭함)와 동일 또는 유사하다. 즉, 제2 피사체 판단부(1239-1)는 제1 피사체 판단부(236)와 유사하게 제m 피사체크기정보를 생성하여 이에 상응하는 기능수행명령을 생성하고, 이를 메인제어부(미도시)로 출력한다. The object determining unit 1239-1 performs a function corresponding to the movement of the subject 140 using the outline determined by the outline extracting unit 1233 (hereinafter, referred to as' m 'outline' (m is a natural number)). A command (for example, a click function execution command, a pointer size change command, a linear function execution command, etc.) is generated and outputted to the main controller (not shown). Detailed operations of the subject determining unit 1239-1 (hereinafter, referred to as a second subject determining unit) may include configuring the subject motion detecting mouse 200 according to an exemplary embodiment of the present invention described above with reference to FIG. 2. It is the same as or similar to the subject determining unit 236 (hereinafter, referred to as 'first subject determining unit 236'). That is, the second subject determiner 1239-1 generates m-th subject size information similar to the first subject determiner 236, and generates a function execution command corresponding to the m-th subject size information, which is then transferred to the main controller (not shown). Output

그러나, 제1 피사체 판단부(236)는 상술한 바와 같이 유광 영상데이터와 무광 영상데이터를 비교한 피사체영상데이터를 이용하여 제m 피사체크기정보를 생성하였으나, 제2 피사체 판단부(1239-1)는 제1 영상데이터 및 제1 영상데이터를 처리한 피사체영상데이터를 이용하여 제m 외곽선을 추출하고, 이를 이용하여 제m 피사체크기정보 및/또는 제m 영역정보를 생성한다.However, as described above, the first subject determiner 236 generates the m-th subject size information by using the subject image data comparing the matte image data with the matte image data, but the second subject determiner 1239-1. Extracts the m-th outline using the first image data and the subject image data processed from the first image data, and generates m-th subject size information and / or m-th region information.

즉, 제2 피사체 판단부(1239-1)는 제m 외곽선을 이용하여 제m 피사체크기정보 및/또는 제m 영역정보를 산출한다. 예를 들어, 피사체(140)가 사용자의 손가락인 경우 피사체(140) 이미지의 제m 외곽선은 원형(또는 반원형)일 것이다. 따라서 제m 피사체크기정보는 제m 외곽선의 지름(또는 반지름)에 상응하는 정보일 수 있다. 또한, 제m 피사체크기정보는 제m 외곽선 픽셀이 구성하는 도형의 내부에 존재하는 픽셀의 개수에 상응하는 정보일 수 있다. That is, the second subject determiner 1239-1 calculates m-th subject size information and / or m-th region information by using the m-th outline. For example, when the subject 140 is a user's finger, the m-th outline of the image of the subject 140 may be circular (or semicircular). Therefore, the m-th subject size information may be information corresponding to the diameter (or radius) of the m-th outline. In addition, the m-th subject size information may be information corresponding to the number of pixels existing in the figure of the m-th outline pixel.

이하에서는, 도 13을 참조하여 포인터 이동 제어 시 사용되는 기준 휘도값에 대한 설정 방법에 대하여 설명한다. Hereinafter, referring to FIG. 13, a setting method for a reference luminance value used for pointer movement control will be described.

도 13은 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에서 사용되는 기준 휘도값에 대한 설정 방법을 도시한 도면이다. FIG. 13 illustrates a method for setting a reference luminance value used in a subject movement detecting mouse according to another exemplary embodiment of the present invention.

도 13은 본 발명의 바람직한 제1 실시예에 따른 포인터 이동 제어 시 사용되는 기준 휘도값에 대한 설정 방법을 도시한 도면이다. 제1 기준 휘도값(1350), 제1 기준픽셀 개수의 시점(1353), 제1 휘도 하한값(1355), 제1 기준픽셀 개수 에 상응하는 휘도 범위(a), 제2 기준 휘도값(1360), 제2 기준픽셀 개수의 시점(1363), 제2 휘도 하한값(1365), 제2 기준픽셀 개수 에 상응하는 휘도 범위(b)가 도시된다. 여기서, 제1 또는 제2는 기준픽셀 개수가 다른 경우인 두 가지 실시예를 설명하기 위해서 사용되었으며, 이하에서는 이를 생략하고 통칭하여 설명하기로 한다. FIG. 13 is a diagram illustrating a method for setting a reference luminance value used in controlling pointer movement according to the first embodiment of the present invention. A first reference luminance value 1350, a time point 1353 of the first reference pixel number, a first luminance lower limit value 1355, a luminance range a corresponding to the first reference pixel number, and a second reference luminance value 1360. 2, a luminance range b corresponding to the viewpoint 1363 of the number of the second reference pixels, the second lower luminance value 1365, and the number of the second reference pixels is illustrated. Here, the first or the second is used to describe two embodiments in which the number of reference pixels is different, and will be omitted and collectively described below.

기준 휘도값(1350 또는 1360)은 피사체(140)의 외곽선을 추출하기 위해 각 픽셀의 휘도값과 비교하기 위해 마련된다. 이하에서는, 이미지 센서부(1319)의 해 상도가 640*480(가로*세로)이고, 각 픽셀의 휘도값이 0부터 내지 255로 구분된 사이에 구성된 경우를 가정한다. 휘도값이 '0'인 경우는 가장 어두운 경우이므로 검정색일 것이고, 휘도값이 '255'인 경우는 가장 밝은 경우이므로 흰색으로 표현될 것이다. The reference luminance value 1350 or 1360 is provided to compare the luminance value of each pixel to extract the outline of the subject 140. Hereinafter, it is assumed that the resolution of the image sensor unit 1319 is 640 * 480 (horizontal * vertical), and the luminance value of each pixel is configured between 0 and 255. When the luminance value is '0', it will be black because it is the darkest case, and when the luminance value is '255', it will be expressed as white because it is the brightest case.

또한, 도 13을 참조하면, 기준 휘도값(1350 또는 1360)은 소정의 휘도값 이상을 가지는 픽셀의 수에 따라서 변화할 수 있다. 외곽선 추출부(1333)는 피사체(140)의 외곽선에 대응되는 픽셀을 추출하기 위하여 기준픽셀 개수를 설정하고 휘도값이 큰 픽셀을 추출할 수 있다. 예를 들면, 연산량을 고려해서 설정된 기준픽셀 개수가 10000개인 경우 미리 마련된 버퍼에 저장된 히스토그램에서 휘도값이 큰 순서로 10000개의 픽셀을 추출하고, 10000개째에 해당하는 픽셀(기준픽셀 개수의 시점(1353, 1363))의 휘도값 또는 그 보다 작은 값이 기준 휘도값(1350 또는 1360)이 될 수 있다. 따라서, 기준픽셀 개수 에 상응하는 휘도 범위(a, b)가 결정될 수 있다. 여기서, 각 픽셀의 휘도값은 버퍼에 저장되어 있으므로, 휘도값이 작은 순서로 픽셀 개수를 세어 기준 휘도값을 산출할 수도 있다. 즉, 전체 픽셀의 개수가 버퍼에 저장되어 있다면, 전체 픽셀 개수에서 기준픽셀 개수를 뺀 값만큼 휘도값이 작은 순서대로 추출하여 기준 휘도값을 산출할 수도 있다. In addition, referring to FIG. 13, the reference luminance value 1350 or 1360 may change according to the number of pixels having a predetermined luminance value or more. The outline extractor 1333 sets the number of reference pixels and extracts a large luminance value in order to extract pixels corresponding to the outline of the subject 140. For example, when the number of reference pixels is set in consideration of the amount of calculation, 10000 pixels are extracted from the histogram stored in the buffer prepared in advance in order of increasing luminance, and the pixels corresponding to the 10000th pixels (the starting point of the number of reference pixels 1353). 1363) may be the reference luminance value 1350 or 1360. Therefore, luminance ranges a and b corresponding to the number of reference pixels may be determined. Here, since the luminance value of each pixel is stored in the buffer, the reference luminance value may be calculated by counting the number of pixels in order of decreasing luminance value. That is, if the total number of pixels is stored in the buffer, the reference luminance value may be calculated by extracting the luminance values in the order in which the luminance values are smaller by the total number of pixels minus the number of reference pixels.

여기서, 기준픽셀 개수가 너무 큰 경우 대부분의 픽셀이 피사체(140)의 외곽선으로 추출될 것이고, 그 반대의 경우 극히 일부분의 픽셀이 피사체(140)의 외곽선으로 추출될 것이다. 기준 휘도값이 너무 작은 경우(즉, 기준픽셀 개수가 너무 큰 경우)에는 피사체(140)의 외곽선과 관계없는 픽셀(예를 들면, 배경 부분에 대한 픽셀)이 추출될 수 있으므로, 휘도 하한값(1355, 1365)을 설정하여 기준 휘도값이 이보다 작은 값이 되는 경우 휘도 하한값(1355, 1365)을 기준 휘도값으로 설정할 수 있다. 또한, 기준 휘도값이 너무 큰 경우(즉, 기준픽셀 개수가 너무 작은 경우)에는 피사체(140)의 외곽선을 구성하는 최소한의 픽셀 수가 추출되지 않을 수 있으므로, 이 경우에도 휘도 상한값(미도시)을 설정할 수 있다. 여기서, 휘도 하한값(1355, 1365)과 휘도 상한값은 일반적으로 각각 한 개씩 주어질 수 있으며, 도 13을 참조하면, 휘도 하한값(1355, 1365)이 변화하는 경우 기준 휘도값(1350, 260)이 변화하는 경우를 도시하였다. In this case, when the number of reference pixels is too large, most pixels will be extracted to the outline of the subject 140, and vice versa, very few pixels will be extracted to the outline of the subject 140. When the reference luminance value is too small (that is, when the number of reference pixels is too large), pixels irrelevant to the outline of the subject 140 (for example, pixels for the background portion) may be extracted, and thus the luminance lower limit value 1355 , 1365, the lower limit values 1355 and 1365 may be set as the reference luminance value when the reference luminance value is smaller than this. In addition, when the reference luminance value is too large (that is, when the number of reference pixels is too small), the minimum number of pixels constituting the outline of the subject 140 may not be extracted. Can be set. Here, the lower limit luminance values 1355 and 1365 and the upper limit luminance may be generally provided, respectively. Referring to FIG. 13, when the lower luminance values 1355 and 1365 change, the reference luminance values 1350 and 260 change. The case is shown.

예를 들어, 기준픽셀 개수가 10000개이고, 휘도 하한값(1355, 1365)이 50인 경우 각 픽셀을 분석하여 휘도값이 큰 순서대로 10000개의 픽셀을 추출하여 10000번째 픽셀의 휘도값과 50 중 큰 값을 기준 휘도값으로 설정한다. 반대로, 기준픽셀 개수가 10000개이고 휘도 상한값이 200인 경우를 가정하면, 휘도값이 큰 순서대로 10000개의 픽셀을 추출하여 10000번째 픽셀의 휘도값과 200 중 작은 값을 기준 휘도값으로 설정한다.For example, if the number of reference pixels is 10000 and the lower luminance limits (1355 and 1365) are 50, each pixel is analyzed and 10000 pixels are extracted in the order of the higher luminance values. Is set to the reference luminance value. On the contrary, assuming that the number of reference pixels is 10000 and the upper limit of luminance is 200, 10000 pixels are extracted in order of increasing luminance, and the luminance value of the 10000th pixel and the smaller of 200 are set as the reference luminance values.

또한, 다른 실시예에 의하면, 기준 휘도값은 특정 값으로 고정될 수도 있다. 예를 들면, 기준 휘도값이 100이고, 그 이상이 되는 픽셀에 대해서는 피사체(140)의 외곽선으로 인식할 수 있다. 상술한 휘도 하한 값과 휘도 상한값은 기준 휘도값이 고정된 경우에도 적용될 수 있음은 당연하다. Further, according to another embodiment, the reference luminance value may be fixed to a specific value. For example, a pixel having a reference luminance value of 100 and above may be recognized as an outline of the subject 140. It goes without saying that the above-mentioned lower limit of luminance and upper limit of luminance can be applied even when the reference luminance is fixed.

또한, 여기에서는 피사체 움직임 감지 마우스(1200)의 동작을 제어하는 제어부를 별도로 구비하지 아니하였으나 피사체 움직임 감지 마우스(1200)는 전반적인 동작을 제어하기 위한 제어부(도시되지 않음)를 별도로 구비할 수 있음은 당업자에 있어서 자명하다. 또한, 피사체 움직임 감지 마우스(1200)는 별도의 제어부를 구비하지 않고 피사체 움직임 감지 마우스(1200)를 포함하는 전자기기의 전반적인 동작을 제어하기 위한 메인 제어부(도시되지 않음)에 의하여 제어될 수도 있음은 자명하다.In addition, although the control unit for controlling the operation of the subject movement detection mouse 1200 is not provided separately, the subject movement detection mouse 1200 may be provided with a control unit (not shown) for controlling the overall operation. It is obvious to those skilled in the art. In addition, the subject motion detection mouse 1200 may be controlled by a main controller (not shown) for controlling the overall operation of the electronic device including the subject motion detection mouse 1200 without having a separate controller. Self-explanatory

도 14는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 방법의 순서도이다. 14 is a flowchart illustrating a method of detecting a subject motion according to another embodiment of the present invention.

이하, 도 14을 참조하여 본 발명의 다른 실시예에 따른 피사체 움직임 감지 방법에 대하여 설명한다. Hereinafter, a method of detecting a subject motion according to another exemplary embodiment of the present invention will be described with reference to FIG. 14.

단계 S1410에서, 촬상부(1210)는 피사체(140)를 포함하는 이미지를 촬상하여 제1 영상데이터를 생성한다. In operation S1410, the imaging unit 1210 photographs an image including the subject 140 to generate first image data.

단계 S1420에서, 선명도 조절부(1231)는 촬상된 피사체(140)의 이미지에 대해 선명도를 조절하여 피사체영상데이터를 생성한다. 여기서, 이미지의 심도에 따라서 선명도 조절이 달라질 수 있다. 즉, 렌즈부(1216)의 초점 거리에 가까운 위치에 있는 피사체(140) 외곽선의 경우 배경이 되는 이미지에 비해 선명도가 크게 증가할 수 있음은 상술한 바와 같다. In operation S1420, the sharpness controller 1231 adjusts the sharpness of the image of the photographed subject 140 to generate subject image data. Here, the sharpness control may vary according to the depth of the image. That is, as described above, in the case of the outline of the subject 140 positioned near the focal length of the lens unit 1216, the sharpness may be greatly increased as compared to the image that is the background.

단계 S1430에서, 외곽선 추출부(1233)는 생성된 제2영상데이터와 피사체영상데이터의 차분 값을 산출하고, 감마 보정부(1235)는 산출된 차분 값에 대해서 감마 보정하여 피사체 외곽선에 대한 휘도값을 증가시킬 수 있다(단계 S1440). 따라서 감마 보정된 차분 값으로부터 촬상된 피사체(140) 이미지의 외곽선이 명확하게 될 수 있다. 여기서 차분 값은 모든 픽셀에 대해서 산출되며, 이하 단계들은 각 픽셀마다 개별적으로 수행된다. In operation S1430, the outline extracting unit 1233 calculates a difference value between the generated second image data and the subject image data, and the gamma correction unit 1235 performs gamma correction on the calculated difference value to obtain a luminance value of the subject outline. Can be increased (step S1440). Therefore, the outline of the image of the subject 140 photographed from the gamma-corrected difference value can be made clear. Here, the difference value is calculated for every pixel, and the following steps are performed individually for each pixel.

단계 S1450에서, 외곽선 추출부(1233)는 제1 영상데이터와 피사체영상데이터의 차분 값이 미리 설정된 기준 휘도값보다 큰지 여부를 체크한다. 차분 값이 미리 설정된 기준 휘도값 보다 큰 경우에는 이러한 픽셀은 피사체의 일단에 상응하는 외곽선으로 추출된다. 그러나 차분 값이 미리 설정된 기준 휘도값 보다 작은 경우에는 다음 픽셀에 대한 차분값에 대해서 미리 설정된 기준 휘도값보다 큰지 여부를 체크하며, 픽셀들에 대한 차분값이 미리 설정된 기준 휘도값보다 작은 경우 처음 단계로 돌아가서 전 단계가 다시 반복될 수 있다. 기준 휘도값은 상술한 바와 같이 고정적 또는 기준픽셀 개수에 대응하여 설정될 수 있다. In operation S1450, the outline extractor 1233 checks whether a difference value between the first image data and the subject image data is greater than a preset reference luminance value. When the difference value is larger than the preset reference luminance value, these pixels are extracted with an outline corresponding to one end of the subject. However, if the difference value is smaller than the preset reference luminance value, it is checked whether the difference value for the next pixel is larger than the preset reference luminance value. If the difference value for the pixels is smaller than the preset reference luminance value, the first step is performed. Return to the previous step can be repeated again. As described above, the reference luminance value may be set corresponding to the fixed or reference pixel number.

단계 S1460에서, 외곽선 추출부(1233)는 제1 영상데이터와 상기 피사체영상데이터의 차분 값이 미리 설정된 기준 휘도값보다 큰 좌표값으로부터 피사체(140)의 일단에 상응하는 외곽선을 추출하여 저장부(1240)에 저장한다. 외곽선 추출부(1233)에서 제1 영상데이터와 피사체영상데이터의 차분 값이 미리 설정된 기준 휘도값보다 큰지 여부를 체크하여 외곽선을 추출하는 방법은 상술한 바, 여기에서는 이에 대한 상세한 설명은 생략한다. In operation S1460, the outline extracting unit 1233 extracts an outline corresponding to one end of the subject 140 from a coordinate value in which a difference value between the first image data and the subject image data is larger than a preset reference luminance value and extracts the storage unit ( 1240). The method of extracting the outline by checking whether the difference value between the first image data and the subject image data is larger than the preset reference luminance value is described above in the outline extracting unit 1233, and thus, a detailed description thereof will be omitted.

단계 S1470에서, 중심 판단부(1237)는 촬상된 피사체(140)의 외곽선을 이용해서 이미지 중심점을 산출하여 저장부(1240)에 저장한다. 즉, 상술한 무게 중심을 구하거나, 추출된 피사체의 외곽선으로부터 곡률 반경을 산출하고 해당 곡률 반경 에 상응하는 중심점의 좌표값을 추출할 수 있다. 또는 곡률 반경을 별도로 산출하지 않고, 피사체의 윤곽이 형성하는 원형의 외곽선을 나타내는 각 픽셀 간의 거리를 계산하고, 계산된 각 픽셀의 거리가 가장 큰 두 픽셀의 중간값을 이용하여 현재 중심점의 좌표값을 추출할 수도 있다. 이외에도 미리 설정된 다양한 방법에 의해 현재 중심점의 좌표값이 추출될 수 있다. In operation S1470, the center determiner 1237 calculates an image center point using an outline of the photographed subject 140 and stores the image center point in the storage 1240. That is, the above-described center of gravity may be obtained or the radius of curvature may be calculated from the extracted outline of the subject and the coordinate value of the center point corresponding to the radius of curvature may be extracted. Alternatively, the distance between each pixel representing the circular outline formed by the outline of the subject is calculated without separately calculating the radius of curvature, and the coordinate value of the current center point is obtained by using the median value of the two pixels having the largest calculated distance of each pixel. You can also extract In addition, the coordinate values of the current center point may be extracted by various preset methods.

단계 S1480에서, 제2 피사체 판단부(1239-1)는 추출된 외곽선을 이용하여 피사체(140)의 움직임을 판단하고, 상응하는 기능수행명령(예를 들어, 클릭기능수행명령 또는 포인터크기변경명령 등)을 생성하여 메인 제어부(도시되지 않음)로 출력할 수 있다. 제2 피사체 판단부(1239-1)에서 기능수행명령을 생성하는 방법은 도 2를 참조하여 설명한 제1 피사체 판단부(236)에서 기능수행명령을 생성하는 방법과 동일 또는 유사하나, 제2 피사체 판단부(1239-1)는 제m 외곽선을 이용하여 제m 중심점이동정보를 생성하는 것이 상이하다. In operation S1480, the second subject determiner 1239-1 determines the movement of the subject 140 by using the extracted outline, and executes a corresponding function execution command (for example, a click function execution command or a pointer size change command). Etc.) may be generated and output to a main controller (not shown). The method of generating the function execution command in the second subject determination unit 1239-1 is the same as or similar to the method of generating the function execution command in the first subject determination unit 236 described with reference to FIG. The determination unit 1239-1 is different from generating the m th center point moving information by using the m th outline.

또한, 단계 S1480과 무관하게 포인터 위치 설정부(1239)는 산출된 중심점을 이용하여 포인터가 중심점의 좌표에 상응하도록 위치되도록 제어할 수 있음은 상술한 바와 같다.In addition, as described above, the pointer position setting unit 1239 may control the pointer to be positioned to correspond to the coordinates of the center point using the calculated center point irrespective of step S1480.

도 15는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에 의해 생성된 이미지를 도시한 도면이다. FIG. 15 is a diagram illustrating an image generated by a subject motion detecting mouse according to another exemplary embodiment of the present invention.

도 15를 참조하면, 원본 이미지(1510), 선명도 조절된 이미지(1520), 차분 값에 대해 감마 보정된 이미지(1530), 추출된 중심점(1540) 및 원형 외곽선(1550) 이 도시된다. Referring to FIG. 15, an original image 1510, a sharpness-adjusted image 1520, an image gamma corrected for the difference value 1530, an extracted center point 1540, and a circular outline 1550 are shown.

원본 이미지(1510)에서 피사체(140)인 사용자의 손가락 일단은 둥근 형상을 가지고 있다. 이후 심도에 따라서 선명도를 조절하면, 선명도 조절된 이미지(1520)에서 보이는 바와 같이 초점 거리에 유사한 위치에 있는 피사체(사용자 손가락)의 외곽선은 선명도가 커지며, 그렇지 않은 배경은 선명도가 상대적으로 작다. 이후 원본 이미지(1510)와 선명도 조절된 이미지(1520)의 차분 값을 구한 후 전체적으로 감마값을 높게 하면, 감마 보정된 이미지(1530)에서 선명도가 큰 사용자의 손가락 일단의 윤곽만 보이게 된다. 따라서, 피사체의 윤곽인 원형 외곽선으로부터 상술한 중심점의 좌표값을 추출하고 디스플레이부의 포인터의 위치를 추출한 중심점의 좌표값으로 설정할 수 있다. One end of the user's finger, which is the subject 140, in the original image 1510 has a round shape. Then, if the sharpness is adjusted according to the depth, the outline of the subject (user's finger) at a position similar to the focal length is increased as shown in the sharpness-adjusted image 1520, and the background that is not is relatively small. Subsequently, if the difference between the original image 1510 and the sharpness-adjusted image 1520 is obtained and the gamma value is increased as a whole, only the outline of one end of the user's finger having a high sharpness is shown in the gamma corrected image 1530. Therefore, the coordinate value of the center point described above can be extracted from the circular outline which is the outline of the subject, and the coordinate value of the center point from which the pointer of the display unit is extracted can be set.

도 16은 배경의 명도가 큰 경우 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에 의해 생성된 이미지를 도시한 도면이며, 도 17는 배경의 명도가 작은 경우 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에 의해 생성된 이미지를 도시한 도면이다. FIG. 16 is a view illustrating an image generated by a subject motion detecting mouse according to another embodiment of the present invention when the brightness of the background is large, and FIG. 17 illustrates a subject according to another embodiment of the present invention when the brightness of the background is small. A diagram illustrating an image generated by a motion sensing mouse.

도 16 및 도 17를 참조하면, 원본 이미지(1610, 1710), 선명도 조절된 이미지(1620, 1720), 감마 보정된 이미지(1630, 1730), 추출된 중심점 및 원형 외곽선(1640, 1440)이 도시된다. 16 and 17, original images 1610 and 1710, sharpness adjusted images 1620 and 1720, gamma corrected images 1630 and 1730, extracted center points and circular outlines 1640 and 1440 are shown. do.

도 16을 참조하면, 배경의 명도에 관계없이 피사체(10)의 윤곽이 추출될 수 있다. 즉, 선명도(sharpness)를 조절하는 경우 피사체(140)인 손가락의 윤곽뿐만 아니라 직선형으로 형성된 배경 광원이 문제될 수도 있으나, 실제 실험 결과 배경 영상이 미치는 영향이 작아서 손가락의 윤곽을 추출하는데 문제가 없는 것으로 나타났다.Referring to FIG. 16, the outline of the subject 10 may be extracted regardless of the brightness of the background. That is, when adjusting sharpness, not only the contour of the finger, which is the subject 140, but also a background light source formed in a straight line shape may be a problem. Appeared.

또한, 도 17을 참조하면, 손가락인 피사체(140)를 눕혀서 원형이 아닌, 즉, 외곽선이 반원인 경우에도 경계값인 피사체의 윤곽이 추출될 수 있다. 따라서, 본 발명의 실시예에 따르면, 하나의 영상 프레임만을 가지고도 이미지의 심도를 이용하여 피사체(140)의 이동 여부 및 이동 위치의 좌표값을 구할 수 있다. In addition, referring to FIG. 17, even when the subject 140, which is a finger, is lying down, the contour of the subject, which is a boundary value, may be extracted even when the object is not circular, that is, the outline is a semicircle. Therefore, according to an exemplary embodiment of the present invention, even if only one image frame is used, whether the subject 140 is moved or the coordinate value of the movement position may be obtained using the depth of the image.

상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.Preferred embodiments of the present invention described above are disclosed for purposes of illustration, and those skilled in the art will be able to make various modifications, changes, and additions within the spirit and scope of the present invention. Additions should be considered to be within the scope of the following claims.

상술한 바와 같이, 본 발명에 따르면 촬상부를 구비한 마우스를 이용하여 각종 키입력이 행해질 수 있는 효과가 있다. As described above, according to the present invention, there is an effect that various key inputs can be performed using a mouse provided with an imaging unit.

또한, 본 발명은 기존 마우스의 키버튼의 일부를 생략할 수 있음으로써 마우스의 공간적인 활용도를 높일 수 있고, 마우스의 소형화가 가능한 효과도 있다. In addition, the present invention can omit a part of the key button of the existing mouse can increase the spatial utilization of the mouse, there is an effect that can be miniaturized the mouse.

또한, 본 발명은 마우스의 키버튼을 생략하여 마우스의 제조시 제조 공정이 간단해지고 그 제조 단가를 줄일 수 있는 효과도 있다.In addition, the present invention also has the effect of simplifying the manufacturing process at the time of manufacturing the mouse by reducing the key button of the mouse can reduce the manufacturing cost.

또한, 본 발명은 투명판 위에서도 사용 가능하며 협소한 공간에서도 사용이 가능한 있는 효과도 있다. In addition, the present invention can also be used on a transparent plate and there is an effect that can be used in a narrow space.

상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.Preferred embodiments of the present invention described above are disclosed for purposes of illustration, and those skilled in the art will be able to make various modifications, changes, and additions within the spirit and scope of the present invention. Additions should be considered to be within the scope of the following claims.

Claims (26)

피사체를 촬상하는 촬상부;An imaging unit for photographing a subject; 상기 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부;A subject extracting unit configured to generate subject image data by using image data photographed by the subject; 상기 피사체영상데이터를 분석하여 상기 피사체가 촬상된 피사체이미지의 제m 중심점을 산출하는 중심점 판단부; 및A center point determination unit configured to analyze the subject image data and calculate an m th center point of the subject image in which the subject is captured; And 상기 제m 중심점에 상응하는 위치에 포인터를 위치시키기 위한 포인터이동명령을 생성하여 출력하는 포인터 위치 설정부를 포함하되,Including a pointer position setting unit for generating and outputting a pointer movement command for positioning the pointer at a position corresponding to the m-th center point, 상기 m은 자연수인 것을 특징으로 하는 피사체 움직임 감지 마우스.M is a natural number. 피사체를 촬상하는 촬상부;An imaging unit for photographing a subject; 상기 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부; 및A subject extracting unit configured to generate subject image data by using image data photographed by the subject; And 상기 피사체영상데이터를 분석하여 산출한 제m 피사체크기정보를 미리 설정된 제1 경계값과 비교하고, 상기 제m 피사체크기정보를 산출한 후에 상기 촬상된 피사체에 상응하는 제k 피사체크기정보를 산출하여 상기 제1 경계값과 비교하여 상응하는 클릭기능수행명령을 생성하여 출력하는 피사체 판단부를 포함하되,By comparing the m-th subject size information calculated by analyzing the subject image data with a first threshold value set in advance, after calculating the m-th subject size information, k-th subject size information corresponding to the photographed subject is calculated and And a subject determining unit configured to generate and output a corresponding click function execution command in comparison with the first threshold value. 상기 m은 자연수이고, 상기 k는 상기 m보다 큰 자연수인 것을 특징으로 하는 피사체 움직임 감지 마우스.Wherein m is a natural number and k is a natural number greater than m. 피사체를 촬상하는 촬상부;An imaging unit for photographing a subject; 상기 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부; 및A subject extracting unit configured to generate subject image data by using image data photographed by the subject; And 상기 피사체영상데이터를 분석하여 제m 피사체크기정보를 산출하고, 상기 제m 피사체크기정보를 미리 설정된 기준픽셀경계값과 비교하며 기준피사체크기정보 생성명령이 입력되면 기준피사체크기정보를 생성하는 피사체 판단부를 포함하되,Analyzing the subject image data to calculate m-th subject size information, comparing the m-th subject size information with a preset reference pixel boundary value, and determining a subject to generate reference subject size information when a command to generate reference subject size information is input. Including wealth, 상기 m은 자연수이고, 상기 피사체 판단부는 상기 제m 피사체크기정보와 상기 기준픽셀경계값을 비교한 결과를 이용하여 상기 기준피사체크기정보를 생성하는 것을 특징으로 하는 피사체 움직임 감지 마우스.The m is a natural number, and the subject determining unit generates the reference subject size information by using the result of comparing the m-th subject size information with the reference pixel boundary value. 피사체를 촬상하는 촬상부;An imaging unit for photographing a subject; 상기 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부;A subject extracting unit configured to generate subject image data by using image data photographed by the subject; 상기 피사체영상데이터를 분석하여 촬상된 상기 피사체 이미지의 제m 중심점을 산출하는 중심점 판단부; 및A center point determination unit configured to analyze the subject image data and calculate an m th center point of the photographed subject image; And 상기 제m 중심점을 이용하여 상기 제m 중심점에 상응하는 제m 영역정보를 추 출하고, 상기 제m 영역정보 및 상기 제m 영역정보가 추출되기 전에 추출된 하나 이상의 영역정보를 이용하여 제m 중심점이동정보를 생성하며, 상기 제m 중심점이동정보에 상응하는 직선기능수행명령을 생성하여 출력하는 피사체 판단부를 포함하되,Extracting m-th area information corresponding to the m-th center point by using the m-th center point, and using the m-th center point by using the m-th area information and one or more area information extracted before the m-th area information is extracted And a subject determining unit generating movement information and generating and outputting a linear function execution command corresponding to the m th center point movement information. 상기 m은 2 이상의 자연수인 것을 특징으로 하는 피사체 움직임 감지 마우스.The m is a subject motion detection mouse, characterized in that two or more natural numbers. 제1항, 제2항, 제3항 또는 제4항 중 어느 한 항에 있어서,The method according to any one of claims 1, 2, 3 or 4, 상기 촬상부는,The imaging unit, 미리 설정된 시간을 간격으로 점등되는 광원부; 및A light source unit which is turned on at a predetermined time interval; And 상기 광원부가 활성화된 상태에서 피사체를 촬상하여 유광 영상데이터를 생성하고, 상기 광원부가 불활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 이미지 센서부를 포함하되,And an image sensor unit configured to photograph the subject while the light source unit is activated to generate the glossy image data, and to generate the matte image data by photographing the subject while the light source unit is inactivated. 상기 피사체 추출부는 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성하는 것을 특징으로 하는 피사체 움직임 감지 마우스.And the subject extracting unit generates subject image data by comparing the glossy image data with the matte image data. 제1항, 제2항, 제3항 또는 제4항 중 어느 한 항에 있어서,The method according to any one of claims 1, 2, 3 or 4, 상기 촬상부는 제1 영상데이터를 촬상하고,The imaging unit captures the first image data, 상기 피사체 추출부는 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 순차적으로 생성하는 선명도 조절부 및 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 생성하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 외곽선 추출부를 포함하고,The subject extractor may adjust the sharpness of the first image data to sequentially generate subject image data, and generate a difference value between the first image data and the subject image data to correspond to one end of the subject. m includes an outline extraction unit for extracting the outline, 상기 중심점 판단부는 상기 제m 외곽선의 일단에 상응하는 제m 중심점을 산출하는 것을 특징으로 하는 피사체 움직임 감지 마우스.And the center point determiner calculates an m th center point corresponding to one end of the m th outline. 제1항, 제2항, 제3항 또는 제4항 중 어느 한 항에 있어서,The method according to any one of claims 1, 2, 3 or 4, 상기 피사체 움직임 감지 마우스 케이스의 상부에 형성되며 빛이 투과할 수 있는 투광부를 더 포함하되,The light emitting unit may further include a light transmitting part formed on an upper portion of the mouse movement detecting mouse case. 상기 촬상부는 상기 투광부의 하부에 위치하는 것을 특징으로 하는 피사체 움직임 감지 마우스.The image capturing unit is a subject movement detection mouse, characterized in that located below the light transmitting portion. 제1항 또는 제4항에 있어서,The method according to claim 1 or 4, 상기 제m 중심점은 상기 피사체가 상기 피사체영상데이터에 촬상된 피사체이미지의 무게 중심인 것을 특징으로 하는 피사체 움직임 감지 마우스.And the m-th center point is a center of gravity of a subject image captured by the subject image data. 제8항에 있어서,The method of claim 8, 상기 무게 중심은 하기한 식에 의하여 생성되는 것을 특징으로 하는 피사체 움직임 감지 마우스.And the center of gravity is generated by the following equation.
Figure 112006098420238-pat00015
Figure 112006098420238-pat00015
여기서, R은 무게 중심, ri는 기준픽셀의 좌표값, n은 기준픽셀의 개수임. Where R is the center of gravity, ri is the coordinate value of the reference pixel, and n is the number of reference pixels.
제2항에 있어서,The method of claim 2, 상기 피사체 판단부는 상기 제m 피사체크기정보가 상기 제1 경계값 보다 크고, 상기 제k 피사체크기정보가 상기 제1 경계값 보다 작은 경우에 상기 클릭기능수행명령을 생성하는 것을 특징으로 하는 피사체 움직임 감지 마우스.The subject determining unit generates the click function execution command when the m-th subject size information is larger than the first threshold value and the k-th subject size information is smaller than the first threshold value. mouse. 제10항에 있어서,The method of claim 10, 상기 피사체 판단부는 상기 제k 피사체크기정보를 산출한 후에 제l 피사체크기정보를 산출하여 미리 설정된 제2 경계값과 비교하되,After calculating the k-th subject size information, the subject determining unit calculates the first subject size information and compares it with a second preset threshold value. 상기 l은 상기 k보다 큰 자연수이고, 상기 제l 피사체크기정보가 상기 제2 경계값보다 작은 경우에 상기 클릭기능수행명령을 출력하는 것을 특징으로 하는 피사체 움직임 감지 마우스.And l is a natural number larger than k, and outputs the click function execution command when the first subject size information is smaller than the second threshold value. 제10항에 있어서,The method of claim 10, 상기 피사체 판단부는 상기 제l 피사체크기정보가 상기 제2 경계값 보다 작은 경우에는 대기정보 측정을 개시하되,When the first subject size information is smaller than the second threshold value, the subject determining unit starts measuring atmospheric information. 상기 대기정보가 미리 설정된 경계 시간을 경과한 경우에 상기 클릭기능수행명령을 출력하는 것을 특징으로 하는 피사체 움직임 감지 마우스.And outputting the click function execution command when the waiting information passes a preset boundary time. 제3항에 있어서,The method of claim 3, 상기 피사체 판단부는 상기 촬상된 피사체에 상응하는 제k 피사체크기정보와 상기 기준피사체크기정보를 비교한 결과에 상응하는 포인터크기변경명령 생성하여 출력하되,The subject determining unit generates and outputs a pointer size change command corresponding to a result of comparing the k-th subject size information corresponding to the photographed subject and the reference subject size information, 상기 k는 상기 m보다 큰 자연수인 것을 특징으로 하는 피사체 움직임 감지 마우스.And k is a natural number greater than m. 제3항에 있어서,The method of claim 3, 상기 기준픽셀경계값은 제1 기준픽셀경계값이고,The reference pixel boundary value is a first reference pixel boundary value. 상기 피사체 판단부는 상기 제m 피사체크기정보가 상기 제1 기준픽셀경계값 보다 작으면 에러(error) 명령을 생성하여 출력하는 것을 특징으로 하는 피사체 움직임 감지 마우스.And the subject determining unit generates and outputs an error command when the m-th subject size information is smaller than the first reference pixel boundary value. 제3항에 있어서,The method of claim 3, 상기 기준픽셀경계값은 제2 기준픽셀경계값이고,The reference pixel boundary value is a second reference pixel boundary value. 상기 피사체 판단부는 상기 제m 피사체크기정보가 상기 제2 기준픽셀경계값 보다 크면 에러(error) 명령을 생성하여 출력하는 것을 특징으로 하는 피사체 움직임 감지 마우스.And the subject determining unit generates and outputs an error command when the m-th subject size information is larger than the second reference pixel boundary value. 제4항에 있어서,The method of claim 4, wherein 상기 피사체 판단부는 상기 제m 영역정보와 상기 제m 영역정보가 추출되기 바로 직전에 추출된 제m-1 영역정보를 비교하여 상기 제m 중심점이동정보를 생성하되,The subject determining unit compares the m-th region information and the m-th region information extracted immediately before the m-th region information is extracted to generate the m-th center point movement information. 상기 제m 영역정보와 상기 제m-1 영역정보가 상이한 경우에 상기 제m 중심점이동정보를 생성하는 것을 특징으로 하는 피사체 움직임 감지 마우스.And the m-th center point movement information is generated when the m-th region information and the m-th region information are different. 제4항에 있어서,The method of claim 4, wherein 상기 제m 중심점이동정보는 제m 중심점이동방향정보를 포함하는 것을 특징으로 하는 피사체 움직임 감지 마우스.The m th center point movement information comprises the m th center point movement direction information. 제4항에 있어서,The method of claim 4, wherein 상기 제m 중심점이동정보는 제m 중심점이동거리정보를 포함하는 것을 특징으로 하는 피사체 움직임 감지 마우스.The m-th center point movement information includes the m-th center point movement distance information. 피사체 움직임 감지 마우스가 피사체의 움직임을 감지하는 방법에 있어서,Subject movement detection A method for detecting a movement of a subject by a mouse, 상기 피사체를 촬상하여 피사체영상데이터를 생성하는 단계;Photographing the subject to generate subject image data; 상기 피사체영상데이터를 분석하여 상기 피사체로부터 촬상된 피사체이미지의 제m 중심점을 산출하는 단계; 및Calculating the m th center point of the subject image photographed from the subject by analyzing the subject image data; And 상기 제m 중심점에 상응하는 위치에 포인터를 위치시키기 위한 포인터이동명령을 생성하여 출력하는 단계를 포함하되,Generating and outputting a pointer movement command for positioning the pointer at a position corresponding to the m th center point; 상기 m은 자연수인 것을 특징으로 하는 피사체 움직임 감지 방법.M is a natural number. 피사체 움직임 감지 마우스가 피사체의 움직임을 감지하는 방법에 있어서,Subject movement detection A method for detecting a movement of a subject by a mouse, 상기 피사체를 촬상하여 피사체영상데이터를 생성하는 단계;Photographing the subject to generate subject image data; 상기 피사체영상데이터를 분석하여 제m 피사체크기정보를 산출하는 단계;Calculating m-th subject size information by analyzing the subject image data; 상기 제m 피사체크기정보를 미리 설정된 제1 경계값과 비교하는 단계;Comparing the m-th subject size information with a preset first threshold value; 상기 제m 피사체크기정보를 산출한 후에 상기 촬상된 피사체에 상응하는 제k 피사체크기정보를 산출하여 상기 제1 경계값과 비교하는 단계; 및After calculating the m th subject size information, calculating k th subject size information corresponding to the photographed subject and comparing the m th subject size information with the first threshold value; And 상기 제m 피사체크기정보와 상기 제1 경계값을 비교한 결과 및 상기 제k 피사체크기정보와 상기 제1 경계값을 비교한 결과에 상응하는 클릭기능수행명령을 생성하여 출력하는 단계를 포함하되,Generating and outputting a click function execution command corresponding to a result of comparing the m-th subject size information with the first threshold and a result of comparing the k-th subject size information with the first threshold; 상기 m은 자연수이고, 상기 k는 상기 m보다 큰 자연수인 것을 특징으로 하는 피사체 움직임 감지 방법.M is a natural number, and k is a natural number greater than m. 피사체 움직임 감지 마우스가 피사체의 움직임을 감지하는 방법에 있어서,Subject movement detection A method for detecting a movement of a subject by a mouse, 상기 피사체를 촬상하여 피사체영상데이터를 생성하는 단계;Photographing the subject to generate subject image data; 상기 피사체영상데이터를 분석하여 제m 피사체크기정보를 산출하는 단계;Calculating m-th subject size information by analyzing the subject image data; 상기 제m 피사체크기정보와 미리 설정된 기준픽셀경계값을 비교하는 단계; Comparing the m-th subject size information with a preset reference pixel boundary value; 기준피사체크기정보 생성명령이 입력되면 상기 제m 피사체크기정보와 상기 기준픽셀경계값을 비교한 결과를 이용하여 기준피사체크기정보를 생성하는 단계;Generating reference subject size information by using a result of comparing the m-th subject size information with the reference pixel boundary value when a command to generate reference subject size information is input; 상기 촬상된 피사체에 상응하는 제k 피사체크기정보를 산출하여 상기 기준피사체크기정보와 비교하는 단계; 및Calculating k th subject size information corresponding to the photographed subject and comparing the subject subject size information with the reference subject size information; And 상기 제k 피사체크기정보와 상기 기준피사체크기정보를 비교한 결과에 상응 하는 포인터크기변경명령을 생성하여 출력하는 단계를 포함하되,And generating and outputting a pointer size change command corresponding to a result of comparing the k-th subject size information with the reference subject size information. 상기 m은 자연수이고, 상기 k는 상기 m보다 큰 자연수인 것을 특징으로 하는 피사체 움직임 감지 방법.M is a natural number, and k is a natural number greater than m. 피사체 움직임 감지 마우스가 피사체의 움직임을 감지하는 방법에 있어서,Subject movement detection A method for detecting a movement of a subject by a mouse, 상기 피사체를 촬상하여 피사체영상데이터를 생성하는 단계;Photographing the subject to generate subject image data; 상기 피사체영상데이터를 분석하여 상기 피사체로부터 촬상된 이미지의 제m 중심점을 산출하는 단계;Analyzing the subject image data to calculate an m th center point of the image photographed from the subject; 상기 제m 중심점을 이용하여 상기 제m 중심점에 상응하는 제m 영역정보를 추출하는 단계;Extracting m-th region information corresponding to the m-th center point by using the m-th center point; 상기 제m 영역정보 및 상기 제m 영역정보가 추출되기 전에 추출된 하나 이상의 영역정보를 이용하여 제m 중심점이동정보를 생성하는 단계; 및 Generating m-th center point shift information by using the m-th region information and one or more region information extracted before the m-th region information is extracted; And 상기 제m 중심점이동정보에 상응하는 직선기능수행명령을 생성하여 출력하는 단계를 포함하되,Generating and outputting a linear function execution command corresponding to the m th center point movement information; 상기 m은 2 이상의 자연수인 것을 특징으로 하는 피사체 움직임 감지 방법.M is a natural number of two or more subjects. 제19항, 제20항, 제21항 또는 제22항 중 어느 한 항에 있어서,The method according to any one of claims 19, 20, 21 or 22, 상기 피사체영상데이터를 생성하는 단계는,The generating of the subject image data may include: 상기 피사체 움직임 감지 마우스에 구비된 광원부가 활성화된 상태에서 상기 피사체를 촬상하여 유광 영상데이터를 생성하는 단계;Generating a glossy image data by capturing the subject while the light source unit of the subject movement detecting mouse is activated; 상기 광원부가 비활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 단계; 및 Photographing the subject while the light source unit is inactivated to generate matt image data; And 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 피사체 움직임 감지 방법.And generating subject image data by comparing the polished image data with the matte image data. 제19항, 제20항, 제21항 또는 제22항 중 어느 한 항에 있어서,The method according to any one of claims 19, 20, 21 or 22, 상기 제m 중심점은 상기 피사체가 상기 피사체영상데이터에 촬상된 상기 피사체이미지의 무게 중심인 것을 특징으로 하는 피사체 움직임 감지 방법.And the m-th center point is a center of gravity of the subject image captured by the subject image data. 제19항, 제20항, 제21항 또는 제22항 중 어느 한 항에 있어서,The method according to any one of claims 19, 20, 21 or 22, 상기 피사체영상데이터를 생성하는 단계는,The generating of the subject image data may include: 상기 피사체를 촬상하여 제1 영상데이터를 생성하는 단계; 및 Imaging the subject to generate first image data; And 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 피사체 움직임 감지 방법.And generating subject image data by adjusting the sharpness of the first image data. 제19항 또는 제22항에 있어서,The method of claim 19 or 22, 상기 피사체영상데이터를 생성하는 단계는,The generating of the subject image data may include: 상기 피사체를 촬상하여 제1 영상데이터를 생성하는 단계; 및 Imaging the subject to generate first image data; And 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 생성하는 단계를 포함하고,Generating subject image data by adjusting the sharpness of the first image data; 상기 제m 중심점을 산출하는 단계는,Computing the m th center point, 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 추출하여 상기 피사체의 일단에 상응하는 외곽선인 피사체영상데이터를 생성하는 제m 외곽선을 추출하는 단계; 및 Extracting an m-th outline for generating subject image data that is an outline corresponding to one end of the subject by extracting a difference value between the first image data and the subject image data; And 상기 제m 외곽선의 일단에 상응하는 제m 중심점을 산출하는 단계를 포함하는 것을 특징으로 하는 피사체 움직임 감지 방법.And calculating an m-th center point corresponding to one end of the m-th outline.
KR1020060138427A 2006-12-29 2006-12-29 Mouse for sensing moving of subject and Method thereof KR100864288B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060138427A KR100864288B1 (en) 2006-12-29 2006-12-29 Mouse for sensing moving of subject and Method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060138427A KR100864288B1 (en) 2006-12-29 2006-12-29 Mouse for sensing moving of subject and Method thereof

Publications (2)

Publication Number Publication Date
KR20080062510A KR20080062510A (en) 2008-07-03
KR100864288B1 true KR100864288B1 (en) 2008-10-20

Family

ID=39814636

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060138427A KR100864288B1 (en) 2006-12-29 2006-12-29 Mouse for sensing moving of subject and Method thereof

Country Status (1)

Country Link
KR (1) KR100864288B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030025026A (en) 2001-09-19 2003-03-28 전자부품연구원 Method and apparatus for detecting the motion of a subject from compressed data using a wavelet algorithm

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030025026A (en) 2001-09-19 2003-03-28 전자부품연구원 Method and apparatus for detecting the motion of a subject from compressed data using a wavelet algorithm

Also Published As

Publication number Publication date
KR20080062510A (en) 2008-07-03

Similar Documents

Publication Publication Date Title
US20180039821A1 (en) Combining images aligned to reference frame
JP2011510383A (en) Apparatus and method for touch user interface using image sensor
KR101642402B1 (en) Apparatus and method for capturing digital image for guiding photo composition
KR102627014B1 (en) electronic device and method for recognizing gestures
KR100853024B1 (en) Apparatus for controlling image in display and method thereof
KR20080032746A (en) Device and method for motion recognition
KR100860331B1 (en) Electronic device having apparatus for controlling moving of pointer
US9310903B2 (en) Displacement detection device with no hovering function and computer system including the same
KR20210101049A (en) The electronic device and the method for recognizing the object
KR20090111913A (en) Motion detecting method and apparatus
KR20100091844A (en) Photographing apparatus and photographing method
KR100864288B1 (en) Mouse for sensing moving of subject and Method thereof
KR20080007991A (en) Optical pointing apparatus and mobile terminal having the same
KR100869144B1 (en) Apparatus for sensing scrolling of subject and Method thereof
KR100799907B1 (en) Apparatus for sensing moving of subject and method thereof
KR20150005094A (en) Electronic device and method for detection eye region in electronic device
KR20080079459A (en) Apparatus for sensing moving of subject and method thereof
KR100829142B1 (en) Apparatus for sensing moving of subject and method thereof
KR100799766B1 (en) Apparatus for controlling moving of pointer
KR20080045577A (en) Apparatus for sensing scrolling of subject and method thereof
KR20080045578A (en) Apparatus for sensing clicking of subject and method thereof
JPH07234755A (en) Coordinate input means and information processor
KR100864287B1 (en) Apparatus for sensing moving of subject and Method thereof
KR20080063661A (en) Optical inputting apparatus
KR20080037312A (en) Apparatus for controlling moving of pointer and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121011

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20130926

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140929

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151001

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20181001

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20190925

Year of fee payment: 12