KR100864288B1 - Mouse for sensing moving of subject and Method thereof - Google Patents
Mouse for sensing moving of subject and Method thereof Download PDFInfo
- Publication number
- KR100864288B1 KR100864288B1 KR1020060138427A KR20060138427A KR100864288B1 KR 100864288 B1 KR100864288 B1 KR 100864288B1 KR 1020060138427 A KR1020060138427 A KR 1020060138427A KR 20060138427 A KR20060138427 A KR 20060138427A KR 100864288 B1 KR100864288 B1 KR 100864288B1
- Authority
- KR
- South Korea
- Prior art keywords
- subject
- image data
- size information
- information
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03543—Mice or pucks
Abstract
본 발명은 피사체 움직임 감지 마우스 및 방법에 관한 것으로 특히 촬상부를 이용하여 피사체의 움직임을 감지하는 마우스 및 그 방법에 관한 것이다. 본 발명의 실시예에 따르면, 피사체를 촬상하는 촬상부; 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부; 피사체영상데이터를 분석하여 피사체가 촬상된 피사체이미지의 제m 중심점을 산출하는 중심점 판단부; 및 제m 중심점에 상응하는 위치에 포인터를 위치시키기 위한 포인터이동명령을 생성하여 출력하는 포인터 위치 설정부를 포함하되, m은 자연수인 것을 특징으로 하는 피사체 움직임 감지 마우스가 제공된다. 본 발명에 따르면, 피사체의 움직임을 감지하여 포인터를 제어할 수 있는 효과가 있다. The present invention relates to a mouse and a method for detecting a movement of a subject, and more particularly, to a mouse and a method for detecting a movement of a subject using an imaging unit. According to an embodiment of the present invention, the image pickup unit for photographing the subject; A subject extracting unit configured to generate subject image data by using image data captured by the subject; A center point determination unit configured to analyze the subject image data and calculate an m th center point of the subject image in which the subject is captured; And a pointer position setting unit configured to generate and output a pointer movement command for positioning the pointer at a position corresponding to the m th center point, wherein m is a natural number. According to the present invention, there is an effect that can control the pointer by detecting the movement of the subject.
피사체, 포인터, 감마 보정, 마우스 Subject, Pointer, Gamma Correction, Mouse
Description
도 1a는 본 발명에 일 실시예에 따른 피사체 움직임 감지 마우스가 노트북 컴퓨터에 연결된 경우를 도시한 도면.1A is a diagram illustrating a case in which a subject motion detection mouse is connected to a notebook computer according to an exemplary embodiment of the present invention.
도 1b는 본 발명에 일 실시예에 따른 피사체 움직임 감지 마우스의 촬상부를 나타낸 도면.1B is a view illustrating an image capturing unit of a subject motion detecting mouse according to an embodiment of the present invention.
도 1c는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스를 도시한 도면.1C is a diagram illustrating a subject motion detecting mouse according to another embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 피사체 움직임 감지 마우스의 블록 구성도.Figure 2 is a block diagram of a subject motion detection mouse according to an embodiment of the present invention.
도 3은 본 발명에 의해 생성된 피사체영상데이터 및 포인터 이동에 대한 도면.3 is a diagram of subject image data and pointer movement generated by the present invention;
도 4는 본 발명에 따른 피사체의 클릭 동작 감지 방법을 나타낸 도면.4 is a diagram illustrating a method of detecting a click motion of a subject according to the present invention.
도 5는 본 발명에 따른 피사체 움직임 감지 마우스가 연결된 전자기기의 디스플레이부를 예시한 도면.5 is a diagram illustrating a display unit of an electronic device to which a subject motion detecting mouse is connected according to the present invention;
도 6은 본 발명에 의해 생성된 피사체영상데이터의 영역 구분 방법 및 복수의 중심점의 이동을 나타낸 도면.FIG. 6 is a diagram illustrating a method of distinguishing regions of subject image data and a movement of a plurality of center points generated by the present invention; FIG.
도 7a는 본 발명에 의해 촬상된 제m 기준픽셀영역 및 접촉식별영역의 일 실시예를 나타낸 도면.FIG. 7A illustrates an embodiment of an mth reference pixel region and a contact identification region captured by the present invention; FIG.
도 7b는 본 발명에 의해 촬상된 제m 기준픽셀영역 및 접촉식별영역의 다른 실시예를 나타낸 도면.FIG. 7B illustrates another embodiment of the m th reference pixel region and the contact identification region captured by the present invention; FIG.
도 8은 본 발명에 따른 피사체 움직임 감지 방법의 일 실시예에 따른 순서도.8 is a flowchart according to an embodiment of a method for detecting a subject motion according to the present invention.
도 9는 본 발명의 일 실시예에 따른 피사체 움직임 감지 방법의 순서도.9 is a flowchart illustrating a method of detecting a subject motion according to an embodiment of the present invention.
도 10은 본 발명의 다른 실시예에 따른 피사체 움직임 감지 방법의 순서도.10 is a flowchart illustrating a method of detecting a subject motion according to another embodiment of the present invention.
도 11은 본 발명의 또 다른 실시예에 따른 피사체 움직임 감지 방법의 순서도.11 is a flowchart illustrating a method of detecting a subject motion according to another embodiment of the present invention.
도 12는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스의 블록 구성도.12 is a block diagram of a subject motion detection mouse according to another embodiment of the present invention.
도 13은 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에서 사용되는 기준 휘도값에 대한 설정 방법을 도시한 도면.FIG. 13 illustrates a method for setting a reference luminance value used in a subject motion detecting mouse according to another embodiment of the present invention. FIG.
도 14는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 방법의 순서도.14 is a flowchart illustrating a method of detecting a subject motion according to another embodiment of the present invention.
도 15는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에 의해 생성된 이미지를 도시한 도면.FIG. 15 illustrates an image generated by a subject motion detecting mouse according to another embodiment of the present invention. FIG.
도 16은 배경의 명도가 큰 경우 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에 의해 생성된 이미지를 도시한 도면.FIG. 16 illustrates an image generated by a subject motion detecting mouse according to another exemplary embodiment of the present invention when the brightness of the background is large.
도 17은 배경의 명도가 작은 경우 본 발명의 다른 실시예에 따른 피사체 움 직임 감지 마우스에 의해 생성된 이미지를 도시한 도면.FIG. 17 illustrates an image generated by a mouse movement detecting mouse according to another embodiment of the present invention when the brightness of the background is small;
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for main parts of the drawings>
210 : 촬상부210: imaging unit
212 : 필터부212: filter section
214 : 광원부214: light source
216 : 렌즈부216: lens unit
218 : 이미지 센서부218: image sensor unit
230 : 이미지 처리부230: image processing unit
231 : 피사체 추출부231: subject extraction unit
232 : 중심 판단부232: center judgment unit
234 : 포인터 위치 설정부234: pointer position setting unit
236 : 피사체 판단부236: subject determination unit
240 : 저장부240: storage unit
본 발명은 피사체 움직임 감지 마우스 및 방법에 관한 것으로 특히 촬상부를 이용하여 피사체의 움직임을 감지하는 마우스 및 방법에 관한 것이다. The present invention relates to a mouse and a method for detecting a movement of a subject, and more particularly, to a mouse and a method for detecting a movement of a subject using an imaging unit.
현재 전자공학 및 통신 공학의 비약적인 발전에 따라 사용자는 촬상부(예를 들어, 디지털 카메라 모듈 등), 음원 재생부(예를 들어, MP3 파일 재생 모듈 등) 등을 장착한 휴대용 컴퓨터 또는 이동 통신 단말기 등을 이용하여 인터넷 접속, 화상 통신 및 동영상 메시지 전송, 디지털 음악 청취 및 위성방송 시청 등의 다양한 기능을 향유할 수 있게 되었다. 이러한 다양한 기능을 향유하기 위해 각종 기능의 선택을 위한 효율적인 키입력이 요망되고 있다. With the rapid development of current electronics and telecommunications engineering, the user has a portable computer or mobile communication terminal equipped with an imaging unit (e.g., a digital camera module, etc.), a sound source playback unit (e.g., an MP3 file playback module, etc.). It can enjoy various functions such as internet access, video communication and video message transmission, digital music listening and satellite broadcasting. In order to enjoy these various functions, efficient key input for selecting various functions has been desired.
그러나, 기존의 전자 기기의 경우 사용자는 키패드(Keypad) 및/또는 마우스(Mouse)를 이용하여 각종 키입력(예를 들어, 파일 재생 버튼 및 파일 선택 버튼, 음량 조절 버튼 등)을 행하였다. 그런데, 광센서를 이용한 광마우스의 경우는 투명한 탁자(유리 또는 플라스틱) 위에서는 사용할 수 없는 문제점이 있고, 볼(Ball)의 움직임을 이용한 볼마우스의 경우는 볼의 크기에 따라 휴대용으로 부적합한 문제점이 있었다. 또한, 마우스의 경우는 협소한 공간에서는 그 사용이 부적합한 문제점도 있었다. However, in the conventional electronic device, a user performs various key inputs (for example, a file play button, a file select button, a volume control button, etc.) using a keypad and / or a mouse. However, in the case of an optical mouse using an optical sensor, there is a problem that cannot be used on a transparent table (glass or plastic), and in the case of a ball mouse using a ball movement, a problem that is inadequate to be portable depending on the size of the ball. there was. In addition, the mouse has a problem that its use is not suitable in a narrow space.
따라서, 본 발명은 촬상부를 구비한 마우스를 이용하여 각종 키입력이 행해질 수 있는 피사체 움직임 감지 마우스 및 그 방법을 제공하고자 한다. Accordingly, an object of the present invention is to provide a mouse and a method for detecting a subject's motion, through which various key inputs can be made using a mouse having an imaging unit.
또한, 본 발명은 기존 마우스의 키버튼의 일부를 생략할 수 있음으로써 마우스의 공간적인 활용도를 높일 수 있고, 마우스의 소형화가 가능한 피사체 움직임 감지 마우스 및 그 방법을 제공하고자 한다. In addition, the present invention can omit a part of the key button of the existing mouse to increase the spatial utilization of the mouse, and to provide a subject motion detection mouse and a method capable of miniaturizing the mouse.
또한, 본 발명은 마우스의 키버튼을 생략하여 마우스의 제조시 제조 공정이 간단해지고 그 제조 단가를 줄일 수 있는 피사체 움직임 감지 마우스 및 그 방법을 제공하고자 한다. Another object of the present invention is to provide a mouse and a method for detecting a subject motion, which can simplify the manufacturing process and reduce the manufacturing cost of the mouse by omitting key buttons of the mouse.
또한, 본 발명은 투명판 위에서도 사용 가능하며 협소한 공간에서도 사용이 가능한 피사체 움직임 감지 마우스 및 그 방법을 제공하고자 한다. In addition, the present invention is to provide a subject motion detection mouse and method that can be used on a transparent plate and can be used in a narrow space.
본 발명이 제시하는 이외의 기술적 과제들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Technical problems other than the present invention will be easily understood through the following description.
상술한 문제점을 해결하기 위한 본 발명의 일 실시예에 따르면, 피사체 움직임 감지 마우스가 피사체의 움직임을 감지하는 방법에 있어서, 상기 피사체를 촬상하여 피사체영상데이터를 생성하는 단계; 상기 피사체영상데이터를 분석하여 상기 피사체로부터 촬상된 피사체이미지의 제m 중심점을 산출하는 단계; 및 상기 제m 중심점에 상응하는 위치에 포인터를 위치시키기 위한 포인터이동명령을 생성하여 출력하는 단계를 포함하되, 상기 m은 자연수인 것을 특징으로 하는 피사체 움직임 감지 방법이 제공된다. According to an embodiment of the present invention for solving the above problems, a method of detecting a movement of a subject by a subject movement sensing mouse, the method comprising: photographing the subject to generate subject image data; Calculating the m th center point of the subject image photographed from the subject by analyzing the subject image data; And generating and outputting a pointer movement command for positioning the pointer at a position corresponding to the m th center point, wherein m is a natural number.
상기 피사체영상데이터를 생성하는 단계는, 상기 피사체 움직임 감지 마우스에 구비된 광원부가 활성화된 상태에서 상기 피사체를 촬상하여 유광 영상데이터를 생성하는 단계; 상기 광원부가 비활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 단계; 및 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: generating gloss image data by capturing the subject while the light source unit of the subject movement detecting mouse is activated; Photographing the subject while the light source unit is inactivated to generate matt image data; And generating subject image data by comparing the glossy image data with the matte image data.
또한, 상기 제m 중심점은 상기 피사체가 상기 피사체영상데이터에 촬상된 상기 피사체이미지의 무게 중심인 것을 특징으로 하는 피사체 움직임 감지 방법.In addition, the m-th center point is a subject movement detection method, characterized in that the subject is the center of gravity of the subject image captured in the subject image data.
또한, 상기 무게 중심은 하기한 식에 의하여 생성될 수 있다. In addition, the center of gravity may be generated by the following equation.
여기서, R은 무게 중심, ri는 기준픽셀의 좌표값, n은 기준픽셀의 개수임.Where R is the center of gravity, ri is the coordinate value of the reference pixel, and n is the number of reference pixels.
또한, 상기 피사체영상데이터를 생성하는 단계는, 상기 피사체를 촬상하여 제1 영상데이터를 생성하는 단계; 및 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: photographing the subject to generate first image data; And generating subject image data by adjusting the sharpness of the first image data.
또한, 상기 제m 중심점을 산출하는 단계는, 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 추출하여 상기 피사체의 일단에 상응하는 외곽선인 피사체영상데이터를 생성하는 제m 외곽선을 추출하는 단계; 및 상기 제m 외곽선의 일단에 상응하는 제m 중심점을 산출하는 단계를 포함할 수 있다.The calculating of the m th center point may include extracting a difference value between the first image data and the subject image data and extracting an m-th outline for generating subject image data, which is an outline corresponding to one end of the subject. ; And calculating an m-th center point corresponding to one end of the m-th outline.
상술한 문제점을 해결하기 위하여 본 발명의 다른 실시예에 따르면, 피사체 움직임 감지 마우스가 피사체의 움직임을 감지하는 방법에 있어서, 상기 피사체를 촬상하여 피사체영상데이터를 생성하는 단계; 상기 피사체영상데이터를 분석하여 제m 피사체크기정보를 산출하는 단계; 상기 제m 피사체크기정보를 미리 설정된 제1 경계값과 비교하는 단계; 상기 제m 피사체크기정보를 산출한 후에 상기 촬상된 피 사체에 상응하는 제k 피사체크기정보를 산출하여 상기 제1 경계값과 비교하는 단계; 및 상기 제m 피사체크기정보와 상기 제1 경계값을 비교한 결과 및 상기 제k 피사체크기정보와 상기 제1 경계값을 비교한 결과에 상응하는 클릭기능수행명령을 생성하여 출력하는 단계를 포함하되, 상기 m은 자연수이고, 상기 k는 상기 m보다 큰 자연수인 것을 특징으로 하는 피사체 움직임 감지 방법이 제공된다.According to another exemplary embodiment of the present invention, a method of detecting a movement of a subject by a mouse, the method comprising: photographing the subject to generate subject image data; Calculating m-th subject size information by analyzing the subject image data; Comparing the m-th subject size information with a preset first threshold value; After calculating the m-th subject size information, calculating k-th subject size information corresponding to the photographed subject and comparing the m-th subject size information with the first boundary value; And generating and outputting a click function execution command corresponding to a result of comparing the m th subject size information with the first threshold and a result of comparing the k th subject size information with the first threshold. And m is a natural number, and k is a natural number greater than m.
또한, 상기 피사체영상데이터를 생성하는 단계는, 상기 피사체 움직임 감지 마우스에 구비된 광원부가 활성화된 상태에서 상기 피사체를 촬상하여 유광 영상데이터를 생성하는 단계; 상기 광원부가 비활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 단계; 및 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: generating a glossy image data by photographing the subject while the light source unit of the subject movement detecting mouse is activated; Photographing the subject while the light source unit is inactivated to generate matt image data; And generating subject image data by comparing the glossy image data with the matte image data.
또한, 상기 클릭기능수행명령을 생성하여 출력하는 단계는, 상기 제m 피사체크기정보가 상기 제1 경계값 보다 크고, 상기 제k 피사체크기정보가 상기 제1 경계값 보다 작은 경우에 상기 클릭기능수행명령을 생성할 수 있다. The generating and outputting of the click function execution command may include performing the click function when the m-th subject size information is larger than the first threshold value and the k-th subject size information is smaller than the first threshold value. You can create a command.
또한, 상기 피사체 움직임 감지 방법은 상기 제k 피사체크기정보를 산출한 후에 제l 피사체크기정보를 산출하여 미리 설정된 제2 경계값과 비교하는 단계를 더 포함하되, 상기 l은 상기 k보다 큰 자연수이고, 상기 클릭기능수행명령은 상기 제l 피사체크기정보가 상기 제2 경계값보다 작은 경우에 출력될 수 있다. The subject motion detecting method may further include calculating the first subject size information after comparing the k th subject size information with a second threshold value, wherein l is a natural number greater than k. The command to execute the click function may be output when the first subject size information is smaller than the second boundary value.
또한, 상기 피사체 움직임 감지 방법은 상기 제l 피사체크기정보가 상기 제2 경계값 보다 작은 경우에는 대기정보 측정을 개시하는 단계를 더 포함하되, 상기 대기정보가 미리 설정된 경계 시간을 경과한 경우에는 상기 클릭기능수행명령이 출 력될 수 있다. The method for detecting movement of a subject may further include starting measurement of atmospheric information when the first subject size information is smaller than the second threshold, and when the atmospheric information passes a preset boundary time. Click function execution command can be output.
또한, 상기 피사체영상데이터를 생성하는 단계는, 상기 피사체를 촬상하여 제1 영상데이터를 생성하는 단계; 및 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: photographing the subject to generate first image data; And generating subject image data by adjusting the sharpness of the first image data.
또한, 상기 제m 중심점을 산출하는 단계는, 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 추출하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 단계; 및 상기 제m 외곽선을 분석하여 제m 피사체크기정보를 산출하는 단계를 포함할 수 있다. The calculating of the m th center point may include extracting an m-th outline corresponding to one end of the subject by extracting a difference value between the first image data and the subject image data; And calculating the m-th subject size information by analyzing the m-th outline.
상술한 문제점을 해결하기 위하여 본 발명의 또 다른 실시예에 따르면, 피사체 움직임 감지 마우스가 피사체의 움직임을 감지하는 방법에 있어서, 상기 피사체를 촬상하여 피사체영상데이터를 생성하는 단계; 상기 피사체영상데이터를 분석하여 제m 피사체크기정보를 산출하는 단계; 상기 제m 피사체크기정보와 미리 설정된 기준픽셀경계값을 비교하는 단계; 및 기준피사체크기정보 생성명령이 입력되면 기준피사체크기정보를 생성하는 단계를 포함하되, 상기 m은 자연수이고, 상기 제m 피사체크기정보와 상기 기준픽셀경계값을 비교한 결과를 이용하여 상기 기준피사체크기정보를 생성하는 것을 특징으로 하는 피사체 움직임 감지 방법이 제공된다. According to another embodiment of the present invention to solve the above problems, a method of detecting a movement of a subject by a subject motion detection mouse, comprising: photographing the subject to generate subject image data; Calculating m-th subject size information by analyzing the subject image data; Comparing the m-th subject size information with a preset reference pixel boundary value; And generating reference subject size information when a command for generating a reference subject size information is input, wherein m is a natural number, and the reference subject is obtained using a result of comparing the m-th subject size information with the reference pixel boundary value. A subject motion detection method is provided which generates size information.
또한, 상기 피사체영상데이터를 생성하는 단계는, 상기 피사체 움직임 감지 마우스에 구비된 광원부가 활성화된 상태에서 상기 피사체를 촬상하여 유광 영상데이터를 생성하는 단계; 상기 광원부가 비활성화된 상태에서 상기 피사체를 촬상하 여 무광 영상데이터를 생성하는 단계; 및 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: generating a glossy image data by photographing the subject while the light source unit of the subject movement detecting mouse is activated; Photographing the subject while the light source unit is inactivated to generate matt image data; And generating subject image data by comparing the glossy image data with the matte image data.
또한, 상기 피사체 움직임 감지 방법은 상기 촬상된 피사체에 상응하는 제k 피사체크기정보를 산출하여 상기 기준피사체크기정보와 비교하는 단계; 상기 제k 피사체크기정보와 상기 기준피사체크기정보를 비교한 결과에 상응하는 포인터크기변경명령을 생성하여 출력하는 단계를 포함하되, 상기 k는 상기 m보다 큰 자연수일 수 있다. The object movement detecting method may further include calculating k-th subject size information corresponding to the photographed subject and comparing it with the reference subject size information; And generating and outputting a pointer size change command corresponding to a result of comparing the k-th subject size information with the reference subject size information, wherein k may be a natural number greater than m.
또한, 상기 기준픽셀경계값은 제1 기준픽셀경계값이고, 상기 피사체 움직임 감지 방법은 상기 제m 피사체크기정보가 상기 제1 기준픽셀경계값 보다 작으면 에러(error) 명령을 생성하여 출력하는 단계를 더 포함할 수 있다. The reference pixel boundary value may be a first reference pixel boundary value, and the subject motion detecting method may further include generating and outputting an error command if the m-th subject size information is smaller than the first reference pixel boundary value. It may further include.
또한, 상기 기준픽셀경계값은 제2 기준픽셀경계값이고, 상기 피사체 움직임 감지 방법은 상기 제m 피사체크기정보가 상기 제2 기준픽셀경계값 보다 크면 에러(error) 명령을 생성하여 출력하는 단계를 더 포함할 수 있다. The reference pixel boundary value may be a second reference pixel boundary value, and the subject motion detecting method may further include generating and outputting an error command if the m-th subject size information is larger than the second reference pixel boundary value. It may further include.
또한, 상기 피사체영상데이터를 생성하는 단계는, 상기 피사체를 촬상하여 제1 영상데이터를 생성하는 단계; 및 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: photographing the subject to generate first image data; And generating subject image data by adjusting the sharpness of the first image data.
또한, 상기 제m 중심점을 산출하는 단계는, 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 추출하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 단계; 및 상기 제m 외곽선을 분석하여 제m 피사체크기정보를 산출하는 단계를 포함할 수 있다. The calculating of the m th center point may include extracting an m-th outline corresponding to one end of the subject by extracting a difference value between the first image data and the subject image data; And calculating the m-th subject size information by analyzing the m-th outline.
상술한 문제점을 해결하기 위하여 본 발명의 또 다른 실시예에 따르면, 피사체 움직임 감지 마우스가 피사체의 움직임을 감지하는 방법에 있어서, 상기 피사체를 촬상하여 피사체영상데이터를 생성하는 단계; 상기 피사체영상데이터를 분석하여 상기 피사체로부터 촬상된 이미지의 제m 중심점을 산출하는 단계; 상기 제m 중심점을 이용하여 상기 제m 중심점에 상응하는 제m 영역정보를 추출하는 단계; 상기 제m 영역정보 및 상기 제m 영역정보가 추출되기 전에 추출된 하나 이상의 영역정보를 이용하여 제m 중심점이동정보를 생성하는 단계; 및 상기 제m 중심점이동정보에 상응하는 직선기능수행명령을 생성하여 출력하는 단계를 포함하되, 상기 m은 2 이상의 자연수인 것을 특징으로 하는 피사체 움직임 감지 방법이 제공된다. According to another embodiment of the present invention to solve the above problems, a method of detecting a movement of a subject by a subject motion detection mouse, comprising: photographing the subject to generate subject image data; Analyzing the subject image data to calculate an m th center point of the image photographed from the subject; Extracting m-th region information corresponding to the m-th center point by using the m-th center point; Generating m-th center point shift information by using the m-th region information and one or more region information extracted before the m-th region information is extracted; And generating and outputting a linear function execution command corresponding to the m th center point movement information, wherein m is a natural number of two or more.
또한, 상기 피사체영상데이터를 생성하는 단계는, 상기 피사체 움직임 감지 마우스에 구비된 광원부가 활성화된 상태에서 상기 피사체를 촬상하여 유광 영상데이터를 생성하는 단계; 상기 광원부가 비활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 단계; 및 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The generating of the subject image data may include: generating a glossy image data by photographing the subject while the light source unit of the subject movement detecting mouse is activated; Photographing the subject while the light source unit is inactivated to generate matt image data; And generating subject image data by comparing the glossy image data with the matte image data.
또한, 상기 제m 중심점이동정보를 생성하는 단계는, 상기 제m 영역정보와 상기 제m 영역정보가 추출되기 바로 직전에 추출된 제m-1 영역정보와 비교하는 단계; 및 상기 제m 영역정보와 상기 제m-1 영역정보가 상이하면 상기 제m 중심점이동정보를 생성하는 단계를 포함할 수 있다. The generating of the m-th center point movement information may include: comparing the m-th region information and the m-1 region information extracted immediately before the m-th region information is extracted; And generating the m-th center movement information when the m-th region information and the m-th region information are different from each other.
또한, 상기 제m 중심점이동정보는 제m 중심점이동방향정보를 포함할 수 있 다. In addition, the m th center point movement information may include the m th center point movement direction information.
또한, 상기 제m 중심점이동정보는 제m 중심점이동거리정보를 포함할 수 있다. In addition, the m th center point movement information may include the m th center point movement distance information.
또한, 상기 피사체 움직임 감지 방법은 상기 피사체영상데이터를 분석하여 상기 피사체가 촬상된 제m 기준픽셀영역을 추출하는 단계; 및 상기 제m 기준픽셀영역과 미리 설정된 복수의 접촉식별영역을 비교하는 단계를 더 포함하되, 상기 제m 기준픽셀영역이 상기 복수의 접촉식별영역 중 미리 설정된 개수 이상 포함하는 경우에 상기 직선기능수행명령을 생성할 수 있다. The subject motion detecting method may further include extracting an m-th reference pixel region in which the subject is photographed by analyzing the subject image data; And comparing the m-th reference pixel region with a plurality of preset contact identification regions, when the m-th reference pixel region includes more than a preset number of the plurality of contact identification regions. You can create a command.
또한, 상기 제m 중심점을 산출하는 단계는, 상기 피사체를 촬상하여 제1 영상데이터를 생성하는 단계; 및 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 생성하는 단계를 포함할 수 있다. The calculating of the m th center point may include: imaging the subject to generate first image data; And generating subject image data by adjusting the sharpness of the first image data.
또한, 상기 제m 중심점을 산출하는 단계는, 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 추출하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 단계; 및 상기 제m 외곽선을 분석하여 제m 피사체크기정보를 산출하는 단계를 포함할 수 있다. The calculating of the m th center point may include extracting an m-th outline corresponding to one end of the subject by extracting a difference value between the first image data and the subject image data; And calculating the m-th subject size information by analyzing the m-th outline.
상술한 문제점을 해결하기 위한 본 발명의 또 다른 실시예에 따르면, 피사체를 촬상하는 촬상부; 상기 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부; 상기 피사체영상데이터를 분석하여 상기 피사체가 촬상된 피사체이미지의 제m 중심점을 산출하는 중심점 판단부; 및 상기 제m 중심점 에 상응하는 위치에 포인터를 위치시키기 위한 포인터이동명령을 생성하여 출력하는 포인터 위치 설정부를 포함하되, 상기 m은 자연수인 것을 특징으로 하는 피사체 움직임 감지 마우스가 제공된다. According to another embodiment of the present invention for solving the above problems, the image pickup unit for photographing the subject; A subject extracting unit configured to generate subject image data by using image data photographed by the subject; A center point determination unit configured to analyze the subject image data and calculate an m th center point of the subject image in which the subject is captured; And a pointer position setting unit for generating and outputting a pointer movement command for positioning the pointer at a position corresponding to the m th center point, wherein m is a natural number.
또한, 상기 촬상부는, 미리 설정된 시간을 간격으로 점등되는 광원부; 및 상기 광원부가 활성화된 상태에서 피사체를 촬상하여 유광 영상데이터를 생성하고, 상기 광원부가 불활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 이미지 센서부를 포함하되, 상기 피사체 추출부는 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성할 수 있다. The imaging unit may include a light source unit which is turned on at a predetermined time interval; And an image sensor unit configured to photograph the subject while the light source unit is activated to generate the glossy image data, and to generate the matte image data by photographing the subject while the light source unit is inactivated. The image data of the subject may be generated by comparing the image data with the matte image data.
또한, 상기 제m 중심점은 상기 피사체가 상기 피사체영상데이터에 촬상된 피사체이미지의 무게 중심일 수 있다. The m th center point may be a center of gravity of a subject image captured by the subject in the subject image data.
또한, 상기 무게 중심은 하기한 식에 의하여 생성될 수 있다. In addition, the center of gravity may be generated by the following equation.
여기서, R은 무게 중심, ri는 기준픽셀의 좌표값, n은 기준픽셀의 개수임. Where R is the center of gravity, ri is the coordinate value of the reference pixel, and n is the number of reference pixels.
또한, 상기 촬상부는 상기 피사체 움직임 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject movement detecting mouse.
또한, 상기 촬상부는 제1 영상데이터를 촬상하고, 상기 피사체 추출부는 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 순차적으로 생성하는 선명도 조절부 및 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 생성하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 외곽선 추출부를 포함 하고, 상기 중심점 판단부는 상기 제m 외곽선의 일단에 상응하는 제m 중심점을 산출할 수 있다. The image capturing unit may capture the first image data, and the subject extracting unit may adjust the sharpness of the first image data to sequentially generate the subject image data, and the sharpness adjusting unit of the first image data and the subject image data. The apparatus may include an outline extracting unit configured to generate a difference value to extract an m-th outline corresponding to one end of the subject, and the center point determiner may calculate an m-th center point corresponding to one end of the m-th outline.
또한, 상기 촬상부는 상기 피사체 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject detecting mouse.
상술한 문제점을 해결하기 위한 본 발명의 또 다른 실시예에 따르면, 피사체를 촬상하는 촬상부; 상기 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부; 및 상기 피사체영상데이터를 분석하여 산출한 제m 피사체크기정보를 미리 설정된 제1 경계값과 비교하고, 상기 제m 피사체크기정보를 산출한 후에 상기 촬상된 피사체에 상응하는 제k 피사체크기정보를 산출하여 상기 제1 경계값과 비교하여 상응하는 클릭기능수행명령을 생성하여 출력하는 피사체 판단부를 포함하되, 상기 m은 자연수이고, 상기 k는 상기 m보다 큰 자연수일 수 있다. According to another embodiment of the present invention for solving the above problems, the image pickup unit for photographing the subject; A subject extracting unit configured to generate subject image data by using image data photographed by the subject; And comparing the m-th subject size information calculated by analyzing the subject image data with a preset first threshold value, calculating the m-th subject size information, and calculating k-th subject size information corresponding to the photographed subject. And a subject determining unit configured to generate and output a corresponding click function execution command in comparison with the first threshold value, wherein m is a natural number and k is a natural number greater than m.
또한, 상기 촬상부는, 미리 설정된 시간을 간격으로 점등되는 광원부; 및 상기 광원부가 활성화된 상태에서 피사체를 촬상하여 유광 영상데이터를 생성하고, 상기 광원부가 불활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 이미지 센서부를 포함하되, 상기 피사체 추출부는 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성할 수 있다. The imaging unit may include a light source unit which is turned on at a predetermined time interval; And an image sensor unit configured to photograph the subject while the light source unit is activated to generate the glossy image data, and to generate the matte image data by photographing the subject while the light source unit is inactivated. The image data of the subject may be generated by comparing the image data with the matte image data.
또한, 상기 피사체 판단부는 상기 제m 피사체크기정보가 상기 제1 경계값 보다 크고, 상기 제k 피사체크기정보가 상기 제1 경계값 보다 작은 경우에 상기 클릭기능수행명령을 생성할 수 있다. The subject determining unit may generate the click function execution command when the m-th subject size information is larger than the first threshold and the k-th subject size information is smaller than the first threshold.
또한, 상기 피사체 판단부는 상기 제k 피사체크기정보를 산출한 후에 제l 피사체크기정보를 산출하여 미리 설정된 제2 경계값과 비교하되, 상기 l은 상기 k보다 큰 자연수이고, 상기 제l 피사체크기정보가 상기 제2 경계값보다 작은 경우에 상기 클릭기능수행명령을 출력할 수 있다. In addition, the subject determining unit calculates the k-th subject size information and then calculates the first subject size information and compares it with a second preset threshold value, where l is a natural number greater than k and the first subject size information. When is smaller than the second threshold value, the click function execution command may be output.
또한, 상기 피사체 판단부는 상기 제l 피사체크기정보가 상기 제2 경계값 보다 작은 경우에는 대기정보 측정을 개시하되, 상기 대기정보가 미리 설정된 경계 시간을 경과한 경우에 상기 클릭기능수행명령을 출력할 수 있다. The subject determining unit may start measurement of atmospheric information when the first subject size information is smaller than the second threshold, and output the click function execution command when the standby information passes a preset boundary time. Can be.
또한, 상기 촬상부는 상기 피사체 움직임 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject movement detecting mouse.
또한, 상기 촬상부는 제1 영상데이터를 촬상하고, 상기 피사체 추출부는 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 순차적으로 생성하는 선명도 조절부 및 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 생성하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 외곽선 추출부를 포함하되, 상기 피사체 판단부는 상기 제m 외곽선에 상응하여 상기 제m 피사체크기정보를 산출할 수 있다. The image capturing unit may capture the first image data, and the subject extracting unit may adjust the sharpness of the first image data to sequentially generate the subject image data, and the sharpness adjusting unit of the first image data and the subject image data. And generating an difference value to extract an m-th outline corresponding to one end of the subject, wherein the subject determiner may calculate the m-th subject size information corresponding to the m-th outline.
또한, 상기 촬상부는 상기 피사체 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject detecting mouse.
상술한 문제점을 해결하기 위한 본 발명의 또 다른 실시예에 따르면, 피사체를 촬상하는 촬상부; 상기 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부; 및 상기 피사체영상데이터를 분석하여 제m 피사체크 기정보를 산출하고, 상기 제m 피사체크기정보를 미리 설정된 기준픽셀경계값과 비교하며 기준피사체크기정보 생성명령이 입력되면 기준피사체크기정보를 생성하는 피사체 판단부를 포함하되, 상기 m은 자연수이고, 상기 피사체 판단부는 상기 제m 피사체크기정보와 상기 기준픽셀경계값을 비교한 결과를 이용하여 상기 기준피사체크기정보를 생성하는 것을 특징으로 하는 피사체 움직임 감지 마우스가 제공된다. According to another embodiment of the present invention for solving the above problems, the image pickup unit for photographing the subject; A subject extracting unit configured to generate subject image data by using image data photographed by the subject; And calculating the m-th subject size information by analyzing the subject image data, comparing the m-th subject size information with a preset reference pixel boundary value, and generating reference subject size information when a command to generate reference subject size information is input. And a subject determining unit, wherein m is a natural number, and the subject determining unit generates the reference subject size information using a result of comparing the m-th subject size information with the reference pixel boundary value. A mouse is provided.
또한, 상기 촬상부는, 미리 설정된 시간을 간격으로 점등되는 광원부; 및 상기 광원부가 활성화된 상태에서 피사체를 촬상하여 유광 영상데이터를 생성하고, 상기 광원부가 불활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생성하는 이미지 센서부를 포함하되, 상기 피사체 추출부는 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성할 수 있다.The imaging unit may include a light source unit which is turned on at a predetermined time interval; And an image sensor unit configured to photograph the subject while the light source unit is activated to generate the glossy image data, and to generate the matte image data by photographing the subject while the light source unit is inactivated. The image data of the subject may be generated by comparing the image data with the matte image data.
또한, 상기 피사체 판단부는 상기 촬상된 피사체에 상응하는 제k 피사체크기정보와 상기 기준피사체크기정보를 비교한 결과에 상응하는 포인터크기변경명령 생성하여 출력하되, 상기 k는 상기 m보다 큰 자연수일 수 있다. The subject determining unit may generate and output a pointer size change command corresponding to a result of comparing the k-th subject size information corresponding to the photographed subject and the reference subject size information, wherein k may be a natural number greater than m. have.
또한, 상기 기준픽셀경계값은 제1 기준픽셀경계값이고, 상기 피사체 판단부는 상기 제m 피사체크기정보가 상기 제1 기준픽셀경계값 보다 작으면 에러(error) 명령을 생성하여 출력할 수 있다. The reference pixel boundary value may be a first reference pixel boundary value, and the subject determining unit may generate and output an error command when the m-th subject size information is smaller than the first reference pixel boundary value.
또한, 상기 기준픽셀경계값은 제2 기준픽셀경계값이고, 상기 피사체 판단부는 상기 제m 피사체크기정보가 상기 제2 기준픽셀경계값 보다 크면 에러(error) 명령을 생성하여 출력할 수 있다. The reference pixel boundary value may be a second reference pixel boundary value, and the subject determining unit may generate and output an error command when the m-th subject size information is larger than the second reference pixel boundary value.
또한, 상기 촬상부는 상기 피사체 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject detecting mouse.
또한, 상기 촬상부는 제1 영상데이터를 촬상하고, 상기 피사체 추출부는 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 순차적으로 생성하는 선명도 조절부 및 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 생성하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 외곽선 추출부를 포함하되, 상기 피사체 판단부는 상기 제m 외곽선에 상응하여 상기 제m 피사체크기정보를 산출할 수 있다. The image capturing unit may capture the first image data, and the subject extracting unit may adjust the sharpness of the first image data to sequentially generate the subject image data, and the sharpness adjusting unit of the first image data and the subject image data. And generating an difference value to extract an m-th outline corresponding to one end of the subject, wherein the subject determiner may calculate the m-th subject size information corresponding to the m-th outline.
또한, 상기 촬상부는 상기 피사체 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject detecting mouse.
상술한 문제점을 해결하기 위한 본 발명의 또 다른 실시예에 따르면, 피사체를 촬상하는 촬상부; 상기 피사체가 촬상된 영상데이터를 이용하여 피사체영상데이터를 생성하는 피사체 추출부; 상기 피사체영상데이터를 분석하여 촬상된 상기 피사체 이미지의 제m 중심점을 산출하는 중심점 판단부; 및 상기 제m 중심점을 이용하여 상기 제m 중심점에 상응하는 제m 영역정보를 추출하고, 상기 제m 영역정보 및 상기 제m 영역정보가 추출되기 전에 추출된 하나 이상의 영역정보를 이용하여 제m 중심점이동정보를 생성하며, 상기 제m 중심점이동정보에 상응하는 직선기능수행명령을 생성하여 출력하는 피사체 판단부를 포함하되, 상기 m은 2 이상의 자연수일 수 있다. According to another embodiment of the present invention for solving the above problems, the image pickup unit for photographing the subject; A subject extracting unit configured to generate subject image data by using image data photographed by the subject; A center point determination unit configured to analyze the subject image data and calculate an m th center point of the photographed subject image; And extracting m-th area information corresponding to the m-th center point by using the m-th center point, and using the m-th center point by using the m-th area information and one or more area information extracted before the m-th area information is extracted. And a subject determining unit generating movement information and generating and outputting a linear function execution command corresponding to the m th center point movement information, wherein m may be a natural number of two or more.
또한, 상기 촬상부는, 미리 설정된 시간을 간격으로 점등되는 광원부; 및 상기 광원부가 활성화된 상태에서 피사체를 촬상하여 유광 영상데이터를 생성하고, 상기 광원부가 불활성화된 상태에서 상기 피사체를 촬상하여 무광 영상데이터를 생 성하는 이미지 센서부를 포함하되, 상기 피사체 추출부는 상기 유광 영상데이터와 상기 무광 영상데이터를 비교하여 피사체영상데이터를 생성할 수 있다. The imaging unit may include a light source unit which is turned on at a predetermined time interval; And an image sensor unit configured to photograph the subject while the light source unit is activated to generate the glossy image data, and to generate the matte image data by photographing the subject while the light source unit is inactivated. The subject image data may be generated by comparing the glossy image data with the matte image data.
또한, 상기 피사체 판단부는 상기 제m 영역정보와 상기 제m 영역정보가 추출되기 바로 직전에 추출된 제m-1 영역정보를 비교하여 상기 제m 중심점이동정보를 생성하되, 상기 제m 영역정보와 상기 제m-1 영역정보가 상이한 경우에 상기 제m 중심점이동정보를 생성할 수 있다. The object determining unit may generate the m th center point movement information by comparing the m th region information and the m th region information extracted immediately before the m th region information is extracted, and the m th region information and the m th region information. When the m-th region information is different, the m-th center point movement information may be generated.
또한, 상기 제m 중심점이동정보는 제m 중심점이동방향정보를 포함할 수 있다. In addition, the m th center point movement information may include the m th center point movement direction information.
또한, 상기 제m 중심점이동정보는 제m 중심점이동거리정보를 포함할 수 있다. In addition, the m th center point movement information may include the m th center point movement distance information.
또한, 상기 촬상부는 상기 피사체 움직임 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject movement detecting mouse.
또한, 상기 촬상부는 제1 영상데이터를 촬상하고, 상기 피사체 추출부는 상기 제1 영상데이터의 선명도를 조절하여 피사체영상데이터를 순차적으로 생성하는 선명도 조절부 및 상기 제1 영상데이터와 상기 피사체영상데이터의 차분 값을 생성하여 상기 피사체의 일단에 상응하는 제m 외곽선을 추출하는 외곽선 추출부를 포함하고, 상기 중심점 판단부는 상기 제m 외곽선의 일단에 상응하는 제m 중심점을 산출할 수 있다. The image capturing unit may capture the first image data, and the subject extracting unit may adjust the sharpness of the first image data to sequentially generate the subject image data, and the sharpness adjusting unit of the first image data and the subject image data. The apparatus may include an outline extracting unit configured to generate a difference value to extract an m-th outline corresponding to one end of the subject, and the center point determiner may calculate an m-th center point corresponding to one end of the m-th outline.
또한, 상기 촬상부는 상기 피사체 감지 마우스의 상단에 위치할 수 있다. The imaging unit may be located at an upper end of the subject detecting mouse.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
도 1a는 본 발명에 일 실시예에 따른 피사체 움직임 감지 마우스가 노트북 컴퓨터에 연결된 경우를 도시한 도면이다. 여기서, 본 발명에 따른 피사체 움직임 감지 마우스(100)는 전자 기기에 유선 또는 무선으로 연결될 수 있으며, 특히, 노트북 컴퓨터, PMP와 같은 소형이며 이동 가능한 장치에 연결될 수 있으나, 이하에서는 설명의 편의상 노트북 컴퓨터에 마련된 경우를 중심으로 설명한다.1A is a diagram illustrating a case in which a subject movement detecting mouse is connected to a notebook computer according to an exemplary embodiment of the present invention. Here, the subject
도 1a를 참조하면, 피사체 움직임 감지 마우스(100)는 이미지 센서부(110), 광원부(120-1, 120-2, 120-3 및 120-4)(이하, '120'으로 통칭함), 움직임 추출을 위한 피사체(예를 들어, 이동 통신 단말기(100) 사용자의 손가락)(140)가 도시된다. 또한, 피사체 움직임 감지 마우스(100)와 유선으로 연결된 노트북 컴퓨터(130), 노트북 컴퓨터(130)의 디스플레이부(150) 및 키패드부(135)가 도시된다. 이때, 피사체 움직임 감지 마우스(100)는 노트북 컴퓨터(130) 등과 무선으로 연결될 수도 있음은 자명하다. Referring to FIG. 1A, the object
광원부(120)는 소정의 광을 피사체(140)에 조사하는 장치로서, 광원부(120)에서 출사된 광이 피사체(140)에서 반사되어 이미지 센서부(110)에 입사될 수 있도록 광원부(120)의 개수 및 위치 등이 정해질 수 있다. 예를 들어, 광원부(120)는 이미지 센서부(110)의 주변에 형성될 수 있으며, 그 개수는 도 1에 도시된 바와 같이 4개로 구현될 수 있으나, 본 발명이 광원부(120)의 개수 및 위치 등에 의하여 한정되는 것이 아님은 자명하다. 또한, 피사체(140)의 위치는 광원부(120)에서 출사된 광을 반사하는 위치가 될 수 있으며, 피사체(140)는 이미지 센서부(110) 또는 피사체 움직임 감지 마우스(100)에 접촉되거나 비접촉(또는 무접점)될 수 있다. 또한, 이미지 센서부(110) 및 광원부(120)는 피사체 움직임 감지 마우스(100)의 상단 또는 일측에 위치할 수 있다. The light source unit 120 is a device for irradiating a predetermined light onto the subject 140, and the light emitted from the light source unit 120 is reflected from the subject 140 to be incident on the
광원부(120)에서 조사된 광은 피사체(140)에서 반사되어 이미지 센서부(110)에 계속적으로 입사되며, 이미지 센서부(110)는 피사체(140)에 대한 이미지를 생성한다. 생성된 피사체(140)의 이미지는 피사체 움직임 감지 마우스(100)에 포함된 이미지 처리부(미도시)에 의하여 영상데이터의 형태로 처리되고, 처리된 영상데이 터가 분석되어 피사체(140)의 움직임이 추출되며, '노트북 컴퓨터(130)의 메인제어부'(미도시, 이하 '메인제어부'라 칭함))는 추출된 피사체(140)의 움직임에 상응하는 기능 제어를 수행한다. 이 경우, 별도의 기능 버튼(또는 버튼 입력의 조합)에 의해 피사체(140)의 움직임에 상응하는 기능이 달리 지정될 수도 있다. 예를 들어, 피사체(140)의 움직임은 동일하지만 노트북 컴퓨터(130)의 키패드부(135)의 '*' 버튼이 눌려진 상태에서 추출된 피사체(140)의 움직임과 '#' 버튼이 눌려진 상태에서 추출된 피사체(140)의 움직임은 서로 다른 기능이 수행되도록 설정될 수 있다.The light irradiated from the light source unit 120 is reflected from the subject 140 and continuously incident to the
또는 피사체(140)의 움직임은 동일하지만 피사체 움직임 감지 마우스(100)에 별도로 구비된 버튼이 눌려진 상태에서 추출된 피사체(140)의 움직임은 서로 다른 기능이 수행되도록 설정될 수도 있다.Alternatively, the movement of the subject 140 may be set to perform different functions while the movement of the subject 140 is the same but the extracted subject 140 is pressed while a button provided separately in the subject
또한, 노트북 컴퓨터(130)의 메인제어부(미도시)는 피사체 움직임 감지 마우스(100)에서 입력된 신호에 상응하도록 노트북 컴퓨터(130)의 각 구성 요소들을 제어한다. 예를 들어, 컴퓨터(130)의 메인제어부(미도시)는 피사체 움직임 감지 마우스(100)로부터 디스플레이부(150)에 표시된 포인터(150-1)를 제어하기 위한 신호가 입력되면, 포인터(150-1)가 디스플레이부(150)에서 상응하는 위치에 위치되도록 제어할 수 있다.In addition, the main controller (not shown) of the
이상에서, 피사체 움직임 감지 마우스(100)는 피사체(140)의 움직임을 감지하여 포인터(150-1) 등을 제어하는 경우에 대하여 설명하였으나, 피사체 움직임 감지 마우스(100)는 기존의 마우스의 기능도 포함할 수 있음은 자명하다. 즉, 피사체 움직임 감지 마우스(100)는 기존의 광마우스 및/또는 볼마우스의 기능에 피사 체(140)의 움직임을 감지할 수 있는 기능을 포함할 수도 있다. 이때, 사용자는 광마우스 및/또는 볼마우스의 기능을 사용할 것인지 피사체(140)의 움직임을 감지하는 기능을 사용할 것인지 부가적으로 부착되어 있는 버튼부(미도시)를 조작하여 선택할 수 있을 것이다.In the above, the case in which the subject
또한, 피사체 움직임 감지 마우스(100)는 광마우스 및/또는 볼마우스의 기능과 피사체(140)의 움직임을 감지하는 기능을 동시에 수행할 수도 있다. 예를 들어, 피사체 움직임 감지 마우스(100)는 광마우스 및/또는 볼마우스의 기능을 이용하여 포인터(150-1)의 위치를 제어할 수 있고, 동시에 피사체(140)의 움직임을 감지하여 디스플레이부(150)의 스크롤(Scroll)을 제어할 수 있다. 즉, 사용자가 피사체 움직임 감지 마우스(100) 자체의 위치를 이동시키면서 피사체(140)를 이미지센서부(110) 근처에서 이동시키면, 피사체 움직임 감지 마우스(100)는 피사체 움직임 감지 마우스(200) 자체의 움직임에 상응하여 포인터(150-1)의 위치를 제어할 수 있고, 동시에 피사체(140)의 움직임에 상응하여 디스플레이부(150)의 스크롤을 제어할 수 있다.In addition, the object
도 1b는 본 발명에 일 실시예에 따른 피사체 움직임 감지 마우스의 촬상부를 나타낸 도면이다. 1B is a view illustrating an image capturing unit of a subject motion detecting mouse according to an exemplary embodiment of the present invention.
도 1b를 참조하면, 포인터 움직임 감지 마우스(100)는 이미지 센서부(110) 및 광원부(120)을 포함하는 촬상부(170), 촬상부(170)를 수용하는 하우징(180), 하우징(180)의 상부에 구비되고, 포인터 움직임 감지 마우스(100)의 상부 케이스에 형성된 투광부(160) 및 촬상부(170)에 의해 생성된 영상데이터를 처리하여 정보가 입력되게 하는 메인제어부(미도시)를 포함한다. 또한 투광부(160) 상에는 그 움직임을 추출하여 정보를 입력하기 위한 피사체(140)가 도시되어 있다. Referring to FIG. 1B, the pointer
즉, 포인터 움직임 감지 마우스(100)는 빛이 통과할 수 있는 투광부(160) 상에서 피사체(140)가 일정한 방향으로 이동하면, 이미지 센서부(110)가 피사체(140)를 연속적으로 촬영하고 메인제어부(미도시)에 의해 피사체(140)의 움직임에 따른 정보가 입력되게 한 것이다. 이때, 이미지 센서부(110) 및/또는 광원부(120)는 피사체 움직임 감지 마우스(100)의 내부에 구비되어 있으나, 상부에는 포인터 움직임 감지 마우스(100)의 상부 케이스에 형성된 투명한 투광부(160)가 위치하고 있으므로 피사체(140)를 연속적으로 촬상할 수 있다. That is, in the pointer
예를 들어, 광원부(120)에서 나온 빛은 피사체(140)인 사용자의 손가락에서 반사되어 이미지 센서부(110)에 입사되고, 이미지 센서부(110)는 피사체(140)에 의해 반사된 빛을 수광하여 상응하는 이미지 데이터를 생성할 수 있다. 이에 따라 메인제어부(미도시)에 의해 피사체의 움직임이 인식되어 피사체 움직임 감지 마우스(200)는 피사체(140)의 움직임에 상응하는 기능을 수행할 수 있다. For example, the light emitted from the light source unit 120 is reflected from the user's finger, which is the subject 140, is incident on the
도 1c는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스를 도시한 도면이다.1C is a diagram illustrating a subject motion detecting mouse according to another exemplary embodiment of the present invention.
도 1c를 참조하면, 피사체 움직임 감지 마우스(100)는 기존의 마우스의 스크롤휠(Scroll-whell) 대신에 이미지 센서부(160) 및 광원부(170-1 및 170-2)를 포함 하는 촬상부를 포함한다. 즉, 사용자는 손으로 피사체 움직임 감지 마우스(100)를 파지하고, 피사체(140)인 검지 손가락을 촬상부 위에 위치시킬 수 있다. 따라서, 사용자는 파지된 피사체 움직임 감지 마우스(100)를 움직여서 포인터(150-1)의 위치를 제어할 수 있고, 동시에 피사체(140)인 검지 손가락을 움직여서 디스플레이부(150)의 스크롤(Scroll)을 제어할 수 있다. 즉, 사용자가 피사체 움직임 감지 마우스(100) 자체의 위치를 이동시키면 피사체 움직임 감지 마우스(100)는 피사체 움직임 감지 마우스(200) 자체의 움직임에 상응하여 포인터(150-1)의 위치를 제어할 수 있고, 사용자가 피사체(140)인 검지 손가락을 움직이면 피사체 움직임 감지 마우스(100)는 피사체(140)의 움직임에 상응하여 디스플레이부(150)의 스크롤을 제어할 수 있다.Referring to FIG. 1C, the subject
이상에서 피사체 움직임 감지 마우스(100)를 일반적으로 도시한 도면을 설명하였으며, 이하에서는 첨부 도면을 참조하여, 피사체 움직임 감지 마우스(100)의 동작 및 피사체 움직임 감지 마우스(100)에서 생성한 영상데이터를 이용하여 피사체(140)의 움직임을 감지하는 방법에 대하여 설명한다. 또한, 이하에서는 피사체 움직임 감지 마우스(100)가 피사체(140)의 움직임을 감지하는 기능을 사용하는 경우를 가정하여 설명한다. 즉, 피사체 움직임 감지 마우스(100)가 피사체(140) 움직임을 감지하여 포인터(150-1)를 제어하는 기능 만을 포함하는 경우에는 문제가 없으나, 도 1a 및 도 1b에 도시된 바와 같이, 일반적인 광마우스 및/또는 볼마우스에 피사체(140)의 움직임을 감지할 수 있는 기능이 추가된 경우에는 피사체 움직임 감 지 마우스(100)가 사용자의 선택 등에 의하여 피사체(140)의 움직임을 감지하는 기능을 사용하여 포인터(140-1) 등을 제어하는 경우를 가정한다. In the above description, a general view of the subject
또한, 본 발명에 따른 실시예는 크게 2가지로 구분되는데, 첫째는 피사체(140)를 미리 설정된 시간 간격으로 촬상한 복수의 서로 다른 영상데이터를 비교하여 피사체이미지의 중심점을 추출하여 피사체(140)의 움직임을 감지하는 방법이고, 둘째는 피사체(140)를 촬상하여 생성된 영상데이터의 선명도를 조절하여 선명도가 서로 다른 프레임으로부터 피사체(140)의 일단의 외곽선을 추출하여 피사체(140)의 움직임을 감지하는 방법이다. 이하에서 차례대로 설명한다. In addition, embodiments according to the present invention are largely divided into two types. First, by comparing a plurality of different image data obtained by capturing the subject 140 at a predetermined time interval, the center point of the subject image is extracted to extract the subject 140. The second method is to adjust the sharpness of the image data generated by capturing the subject 140 and extract the outline of one end of the subject 140 from a frame having different clarity to detect the movement of the subject 140. How to detect. It demonstrates in order below.
도 2는 본 발명의 일 실시예에 따른 피사체 움직임 감지 마우스의 블록 구성도이다. 2 is a block diagram of a subject movement detecting mouse according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시예에 따른 피사체 움직임 감지 마우스(200)는 필터부(212), 광원부(214), 렌즈부(216) 및 이미지 센서부(218)를 포함하는 촬상부(210)와 피사체 추출부(231), 중심 판단부(232), 포인터 위치 설정부(234) 및 피사체 판단부(236)를 포함하는 이미지 처리부(230) 및 저장부(240)를 포함할 수 있다. 이하에서, 상기한 각 구성 요소의 동작에 대하여 설명한다. 또한, 비록 도시되지는 않았으나 피사체 움직임 감지 마우스(200)는 다른 전자기기(예를 들어, 노트북 컴퓨터(130) 등)와 연결되어 신호를 송수신할 수 있는 외부 송수신 단자, 광센서 또는 볼(ball)의 움직임을 감지할 수 있는 센서 및 사용자의 조작에 상응하는 신호를 생성하여 출력하는 키입력부 등을 더 포함할 수 있음은 자명하다. Referring to FIG. 2, the subject
다만, 광마우스 또는 볼마우스의 기능은 당업자에 있어서 자명한 사항인 바, 이하에서는 이에 대한 설명은 생략한다. 따라서, 이하에서는 피사체 움직임 감지 마우스(200)가 피사체(140)의 움직임을 감지하여 상응하는 각 기능을 수행하는 동작에 대하여 설명한다. However, the functions of the optical mouse or the ball mouse are obvious to those skilled in the art, and a description thereof will be omitted below. Therefore, the following describes an operation in which the subject
상술한 바와 같이, 광원부(214)로부터 조사된 광은 피사체(140)에 의하여 반사되어 필터부(212) 및 렌즈부(216)를 경유하여 이미지 센서부(218)로 조사될 수 있다. As described above, the light irradiated from the
이때, 필터부(212)는 특정 파장의 광만을 통과시킴으로써 피사체(140)의 움직임을 정확히 측정할 수 있도록 한다. 즉, 광원부(214)는 특정의 파장을 가지는 광을 출력할 수 있고, 이러한 광은 피사체(140)에서 반사되어 필터부(212)를 통과함으로써 노이즈(noise)로 작용할 수 있는 다른 파장의 광을 차단할 수 있는 효과가 있다. 예를 들어, 광원부(214)는 적외선을 출사하고, 필터부(212)는 적외선만을 통과할 수 있는 경우를 가정한다. 여기서, 본 발명에 이용될 수 있는 적외선은 태양광에서 상대적으로 비율이 작은 광이 될 수 있다. 예를 들어, 적외선의 파장은 솔라 스펙트럼에서 상대적으로 광량이 작은 광의 파장인 900~980nm, 1080~1180nm, 1325~1425nm, 1800~2000nm 등이 될 수 있다.At this time, the
여기에서는 필터부(212)가 포함된 촬상부(210)에 대해서 설명하고 있으나, 필터부(213)가 포함되지 않고 피사체(140)로부터 조사되는 모든 광을 이용하여 본 발명이 적용될 수도 있음은 자명하다.Although the
광원부(214)는 특정의 파장을 가지는 광(light)을 출력할 수 있고, 이러한 광은 피사체에서 반사되어 필터부(212)를 통과함으로써 주위의 노이즈(noise)로 작용할 수 있는 다른 파장의 광을 차단할 수 있는 효과가 있음은 상술한 바와 같다. 특히, 광원부(214)는 메인제어부(미도시)의 제어를 받아 미리 설정된 시간을 간격으로 점등될 수 있다. 이때, 이미지 센서부(218)는 광원부(214)가 광을 출력하는 동안에 피사체(140)를 촬상하여 유광(有光) 영상데이터를, 광원부(214)가 광을 출력하지 아니하는 동안에 피사체(140)를 촬상하여 무광(無光) 영상데이터를 각각 생성하여 이미지 처리부(1030)로 출력할 수 있다. The
이때, 메인제어부(미도시)는 본 발명의 일 실시예에 따른 피사체 움직임 감지 마우스(200)가 연결되는 전자기기(예를 들어, 노트북 컴퓨터(130)등)의 전반적인 동작을 제어하는 제어부일 수 있다. 또한, 광원부(214)는 촬상부(210) 내에 별도로 구비된 광원부(214)만을 제어하기 위한 부가 제어부(미도시)의 제어를 받을 수도 있다.In this case, the main controller (not shown) may be a controller for controlling the overall operation of the electronic device (for example, the
렌즈부(216)는 필터부(213)를 통과한 광을 이미지 센서부(219)로 전달하는 기능을 수행할 수 있다.The
이미지 센서부(218)는 CMOS(Complementary metal oxide semiconductor) 이미지 센서 또는 CCD(charge coupled device) 이미지 센서가 될 수 있다. CMOS(Complementary metal oxide semiconductor) 이미지 센서는 포토 다이오드(photo diode)를 포함하는 다수의 단위 픽셀로 구성되고, 센서에서 출력되는 신호는 디지털 전기 신호로서 이러한 단위 픽셀은 제어 회로 및 신호 처리에 의해 구동된다. CCD(charge coupled device) 이미지 센서는 다수개의 MOS 커패시터를 포함 하며, 이러한 MOS 커패시터에 전하(캐리어)를 이동시킴으로써 아날로그 전기 신호를 출력하여 동작된다. The
이러한 이미지 센서부(218)는 광을 감지할 수 있는 복수의 픽셀들을 포함한다. 따라서, 이미지 센서부(218)는 이미지 처리부(230)가 피사체(140)가 위치한 좌표값에 대응되는 광이 입사되는 위치를 감지하여 디스플레이부(150)의 포인터를 이동시키기 위해 촬상된 피사체(140)의 이미지가 위치한 좌표값을 산출할 수 있도록 할 수 있다. The
또한, 광원부(214) 및 이미지 센서부(218)는 도 1에 도시된 바와 같이 피사체 움직임 감지 마우스(200)의 상단에 위치할 수 있다. 물론, 광원부(214) 및 이미지 센서부(218)는 사용 방법 또는 용도에 따라 피사체 움직임 감지 마우스(200)의 일측에 위치될 수도 있음은 자명하다. In addition, the
이미지 처리부(230)는 이미지 센서부(219)에서 인식한 피사체의 영상데이터로부터 피사체(140)의 움직임에 상응하는 좌표값을 추출한다. 이를 자세히 살펴보면, 피사체 추출부(231)는 촬상부(210)로부터 입력 받은 유광 영상데이터 및 무광 영상데이터를 비교하여 피사체영상데이터를 생성한다. The
피사체영상데이터가 생성되는 방법은 여러 가지가 있을 수 있는데, 첫째, 유광 영상데이터의 휘도값에서 각 픽셀에 상응하는 무광 영상데이터의 휘도값을 감산하여 피사체영상데이터가 생성되는 방법과 촬상된 피사체(140)의 외곽선을 추출하여 피사체영상데이터가 생성되는 방법이 있을 수 있다. 이하에서는 첫 번째 방법에 대하여 설명하고, 두 번째 방법에 대해서는 도 12를 참조하여 후술한다. The subject image data may be generated in various ways. First, a method of generating subject image data by subtracting the luminance value of the matte image data corresponding to each pixel from the luminance value of the glossy image data and the photographed subject ( There may be a method of generating the subject image data by extracting the outline of 140. Hereinafter, the first method will be described, and the second method will be described later with reference to FIG. 12.
즉, 유광 영상데이터는 광원부(214)가 활성화된 상태에서 촬상된 영상데이터이므로 광원부(214)에서 가까운 위치에서 촬상된 피사체(140)의 이미지는 휘도값이 클 것이고, 광원부(214)에서 먼 위치에서 촬상된 배경 부분 이미지의 휘도값은 상대적으로 작을 것이다. 또한, 무광 영상데이터는 광원부(214)가 불활성화된 상태에서 촬상된 영상데이터이므로 피사체(140) 이미지의 휘도값과 배경 이미지의 휘도값은 유광 영상데이터에 비하여 그 차이가 적을 것이다. That is, since the gloss image data is image data captured while the
또한, 유광 영상데이터와 무광 영상데이터의 각 배경은 모두 광원부(214)와 피사체에 비하여 광원부(214)와 먼 거리에 위치할 것이므로 휘도값의 차이가 매우 적을 것이다. 따라서, 유광 영상데이터의 휘도값에서 각 픽셀에 상응하는 무광 영상데이터의 휘도값을 감산해주면 피사체(140)를 제외한 배경 부분의 휘도값은 거의 '0(zero)'에 가까운 값이 될 것이고, 피사체(140) 이미지에 상응하는 부분의 휘도값 만이 존재할 것이다. 이러한 방법에 의하여 피사체 추출부(231)는 촬상된 영상데이터에서 피사체(140)만을 추출한 피사체영상데이터를 생성할 수 있다. In addition, since the backgrounds of the glossy image data and the matte image data are both located far from the
중심 판단부(232)는 피사체 추출부(231)에서 생성한 피사체영상데이터를 분석하여 피사체이미지의 중심점을 판단하기 위하여 피사체(140)가 촬상된 피사체이미지의 해당 픽셀(이하, '기준픽셀'이라 칭함)을 추출한다. 예를 들어, 이미지 센서부(1018)의 해상도가 640*480(가로*세로)이고, 각 픽셀의 휘도값이 0 내지 255로 구분된 경우를 가정한다. 휘도값이 '0'인 경우는 밝기가 '0'이므로 검정색일 것이고, 휘도값이 '255'인 경우는 가장 밝은 경우이므로 흰색으로 표현될 것이다. The
만일 기준픽셀을 추출하기 위하여 미리 설정된 기준 경계값이 '10,000'이라 면 중심 판단부(232)는 피사체영상데이터에서 휘도값이 큰 픽셀 순서로 10,000개의 기준픽셀을 추출할 수 있다. 이때, 기준 경계값이 너무 크면 피사체영상데이터의 대부분의 픽셀이 기준픽셀로 추출될 것이고, 기준 경계값이 너무 작으면 피사체영상데이터의 극히 일부분만이 기준픽셀로 추출될 것이다. 이러한 경우 기준픽셀에는 피사체(140)가 촬상된 픽셀 외에 이와 무관한 배경 부분에 대한 픽셀(즉, 노이즈(noise) 픽셀)의 비율이 높아지게 될 것이다. 즉, 기준 경계값이 너무 크거나 너무 작으면 노이즈 픽셀의 비율이 높아지므로 중심 판단부(1032)는 촬상된 피사체(140)의 정확한 위치를 파악하기 힘들 것이다. If the preset reference boundary value is '10, 000 'in order to extract the reference pixel, the
따라서, 기준 경계값은 노이즈 픽셀의 비율을 무시할 수 있도록 휘도 상한값 및/또는 휘도 하한값이 설정될 수 있다. 예를 들어, 기준 경계값이 '10,000'이고, 휘도 하한값이 '50'인 경우를 가정하자. 이 경우 중심 판단부(232)는 피사체영상데이터에서 휘도값이 50보다 큰 픽셀만을 대상으로 하여 휘도값이 큰 픽셀 순서로 10,000개의 기준픽셀을 추출할 수 있다. 즉, 중심 판단부(232)는 피사체영상데이터의 각 픽셀을 분석하여 휘도값이 큰 순서대로 10,000개의 기준픽셀을 추출하되, 이들 중 휘도값이 50 미만(또는 이하)인 픽셀을 기준픽셀에서 제외할 수 있다. Therefore, the upper limit and / or lower limit of the luminance may be set as the reference boundary so that the ratio of the noise pixels can be ignored. For example, assume that the reference boundary value is '10, 000 'and the lower luminance limit is' 50'. In this case, the
또한, 피사체(140)는 일반적으로 사용자의 손가락일 경우가 많을 것이므로 휘도값이 너무 큰 경우는 노이즈 픽셀에 해당할 가능성이 높다. 따라서, 기준 경계값이 '10,000'이고 휘도 상한값이 '200'인 경우를 가정하면, 중심 판단부(232)는 피사체영상데이터에서 휘도값이 '200' 미만(또는 이하)인 픽셀만을 대상으로 하여 기준픽셀을 추출할 수 있다.In addition, since the subject 140 will generally be a user's finger, if the luminance value is too large, it is likely to correspond to a noise pixel. Therefore, assuming that the reference boundary value is '10, 000 'and the luminance upper limit value is' 200', the
또한, 기준 경계값은 휘도값이 큰 픽셀의 개수가 아닌 미리 설정된 휘도값일 수도 있다. 즉, 중심 판단부(232)는 피사체영상데이터를 분석하여 기준 경계값을 넘는 픽셀을 모두 기준픽셀로 추출할 수 있다. 예를 들어, 기준 경계값이 '150'으로 설정되어 있는 경우, 중심 판단부(232)는 피사체영상데이터에서 휘도값이 '150'을 넘는 픽셀을 모두 기준픽셀로 추출할 수도 있다. 이 경우에도 상술한 바와 같이 기준 경계값이 너무 크거나 너무 작은 경우에는 기준픽셀에서의 노이즈 픽셀의 비율이 높을 것이므로 기준 경계값에 대한 휘도 상한값 및/또는 휘도 하한값이 설정될 수 있음은 자명하다.In addition, the reference boundary value may be a predetermined luminance value instead of the number of pixels having a large luminance value. That is, the
또한, 중심 판단부(232)는 기준픽셀을 분석하여 피사체이미지의 중심점을 판단하여 저장부(240)에 저장한다. 이때, 중심점은 피사체(140)의 무게 중심일 수 있다. 예를 들어, 피사체(140)의 내부에 위치한 특정 좌표인 무게 중심은 다음과 같은 수학식에 의해 산출될 수 있다.In addition, the
(1) (One)
(2) (2)
(3) (3)
여기서, R은 무게 중심, M은 피사체의 기준픽셀의 휘도값을 모두 더한 값, mi는 피사체의 각 기준픽셀의 휘도값, ri는 기준픽셀의 좌표값이다. 아래 첨자 x, y는 각각 X축과 Y축에 해당하는 값임을 나타내며, 식 (3)은 식 (1)과 식 (2)에 대한 벡터 표현이다. Where R is the center of gravity, M is the sum of the luminance values of the reference pixels of the subject, mi is the luminance value of each reference pixel of the subject, and ri is the coordinate value of the reference pixel. The subscripts x and y indicate the values corresponding to the X and Y axes, respectively, and Equation (3) is a vector representation of Equation (1) and (2).
다만, 중심 판단부(232)가 상술한 수학식에 의하여 피사체이미지의 중심점을 판단하는 경우에는 기준픽셀의 휘도값을 모두 반영하여야 하므로 연산량이 많아지게 되어 피사체 움직임 감지 마우스(200)의 전반적인 기능을 저하시키는 문제점이 발생할 수 있다. 따라서, 피사체이미지의 중심점은 다음과 같은 수학식에 의하여 판단될 수도 있다. However, when the
(4) (4)
(5) (5)
(6) (6)
여기서, R은 무게 중심, ri는 기준픽셀의 좌표값, n은 기준픽셀의 개수이다. 아래 첨자 x, y는 각각 X축과 Y축에 해당하는 값임을 나타내고, 식 (6)은 식 (4)와 식 (5)에 대한 벡터 표현이다.Where R is the center of gravity, ri is the coordinate value of the reference pixel, and n is the number of reference pixels. Subscripts x and y represent values corresponding to the X and Y axes, respectively, and Equation (6) is a vector representation of Equation (4) and (5).
즉, 중심 판단부(232)는 기준픽셀의 휘도값을 반영하지 않고 피사체이미지의 중심점을 판단할 수 있다. 이는 각 기준픽셀의 휘도값은 큰 차이가 없을 것이므로 중심 판단부(232)는 이에 대한 반영을 하지 아니하고 기준픽셀의 좌표값의 평균값을 피사체이미지의 중심점으로 산출할 수 있다. 예를 들어, 기준픽셀의 휘도값을 '1', 나머지 픽셀의 휘도값을 '0'으로 구분할 경우, 피사체영상데이터는 기준픽셀(즉, 피사체(140)가 촬상된 부분)은 흰색으로 표시되고, 나머지 부분은 검은색으로 표시될 수 있을 것이다. 따라서, 흰색으로 표시된 기준픽셀(즉, 피사체(140))의 무게 중심은 상기한 수식 (4 내지 6)에 의하여 각 픽셀의 휘도값을 반영하지 아니하고 구할 수 있을 것이다. That is, the
또한, 중심 판단부(232)는 기준픽셀의 외곽선이 곡선형인 경우 그 곡률 반경을 산출하고, 해당 곡률 반경에 상응하는 중심점의 좌표값을 추출할 수 있다. 또한, 소정의 외곽선이 사각형인 경우 중심 판단부(232)는 사각형의 대각선이 만나는 좌표값을 소정의 외곽선에 의해 정해지는 좌표값으로 추출할 수도 있으며, 다른 다각형인 경우에는 서로 마주보는 꼭지점을 이은 둘 이상의 선을 만나는 좌표값으로 추출할 수도 있다. 예를 들어, 중심 판단부(232)는 곡선형의 외곽선을 나타내는 각 픽셀 간의 거리를 계산하여, 계산된 각 픽셀의 거리가 가장 큰 두 픽셀의 중간값을 상기 중심점의 좌표값으로 할 수 있다. In addition, when the outline of the reference pixel is curved, the
포인터 위치 설정부(234)는 포인터의 위치를 이동시키기 위한 포인터 이동 모드에서 포인터가 디스플레이부(150, 즉 피사체 움직임 감지 마우스(200)가 연결된 전자기기의 디스플레이부)의 특정 위치에 위치되도록 포인터이동명령을 생성하여 메인제어부(미도시)출력한다. 이때, 포인터 이동 모드는 사용자의 선택에 의하여 활성화 및/또는 불활성화 될 수 있다. 예를 들어, The pointer
즉, 포인터 위치 설정부(234)는 디스플레이부(150)의 포인터(150-1)의 위치 가 특정 좌표(예를 들어, 피사체영상데이터 상의 피사체이미지의 무게 중심)에 상응하여 위치되도록 하기 위하여 포인터이동명령을 생성하여 메인제어부(미도시)로 출력할 수 있다. 이때, 포인터이동명령은 무게 중심의 좌표값에 상응하는 신호일 수 있고, 포인터이동명령을 수신한 메인제어부(미도시)는 포인터이동명령에 상응하는 좌표에 디스플레이부(150)의 포인터가 위치되도록 제어할 수 있다. 이하, 도 3을 참조하여 포인터 이동 제어 방법에 대하여 설명한다. That is, the pointer
도 3은 본 발명에 의해 생성된 피사체영상데이터 및 포인터 이동에 대한 도면이다. 도 3을 참조하면, 피사체 움직임 감지 마우스(200)와 연결된 전자기기의 디스플레이부(150)가 도 3의 상부에 도시되고, 도 3의 하부에는 피사체 추출부(231)에서 추출한 피사체영상데이터(300)가 도시된다. 또한, 디스플레이부(150)에는 포인터(320-1 및 320-2)가 도시되고, 피사체영상데이터(300)에는 순차적으로 산출된 제m-1 중심점 및 제m 중심점이 도시된다. 또한, 제m-1 중심점이 (a1, b1) 이고, 제m-1 중심점에 상응하는 제m-1 포인터(320-1)가 디스플레이부(150)에 위치되어 있는 경우를 가정한다. 3 is a diagram illustrating subject image data and pointer movement generated by the present invention. Referring to FIG. 3, the
이때, 포인터 위치 설정부(234)는 제m 중심점(a2, b2)에 상응하는 제m 포인터이동명령을 생성하여 메인제어부(미도시)로 출력할 수 있고, 메인제어부(미도시)는 제m 포인터이동명령을 수신하여 상응하는 위치에 제m 포인터(320-2)가 위치하도록 피사체 움직임 감지 마우스(200)가 연결된 전자기기(예를 들어 노트북 컴퓨터(130) 등)의 각 구성 부분을 제어할 수 있다. 이때, 메인제어부(미도시)가 피사 체 움직임 감지 마우스(200)가 연결된 전자기기(예를 들어 노트북 컴퓨터(130) 등)의 각 구성 부분을 제어하여 포인터의 위치를 변경하는 과정은 당업자에 있어서 자명한 바, 여기에서는 이에 대한 상세한 설명은 생략한다. In this case, the pointer
다시 도 2를 참조하면, 피사체 판단부(236)는 피사체 추출부(231)에서 추출한 기준픽셀 (이하, '제m 기준픽셀' 이라 칭함(이때, m은 자연수))을 이용하여 피사체(140)의 움직임을 감지하고, 감지된 피사체(140)의 움직임에 상응하는 기능수행명령을 생성하여 이를 메인제어부(미도시)로 출력한다. 즉, 피사체 판단부(236)는 피사체(140)의 회전 동작, 클릭 동작, 직선 동작, 원근(遠近) 동작 등의 움직임을 감지할 수 있는데, 이하에서는 피사체(140)의 클릭 동작, 원근 동작 및 직선 동작을 예시로 하여 차례대로 설명한다. 이때, 기능수행명령은 버튼 클릭 등 마우스 조작에 상응하여 수행될 수 있는 다양한 기능을 수행하는 명령이다. 예를 들면, 메뉴 실행, 마우스의 버튼 클릭, 화면 스크롤 등이 기능수행명령에 의해 수행될 수 있다.Referring back to FIG. 2, the
피사체 판단부(236)는 피사체(140)의 클릭 동작을 감지하기 위한 클릭 동작 감지 모드에서 순차적으로 생성된 피사체영상데이터를 이용하여 피사체(140)의 클릭 동작을 감지하여 상응하는 기능수행명령(이하, '클릭기능수행명령'이라 칭함)을 생성하여 메인제어부로 출력할 수 있다. 이때, 피사체 판단부(236)는 사용자의 선택에 의하여 클릭 동작 감지 모드로 동작할 수 있다. 예를 들어, 사용자는 피사체 움직임 감지 마우스(200)의 일측에 구비된 버튼부(미도시)를 조작하여 피사체 판단 부(236)의 동작 모드(예를 들면, 클릭 동작 감지 모드 등)를 조절할 수 있다. 따라서,, 사용자가 피사체(140)의 클릭 동작을 감지하기 위하여 당해 버튼부(미도시)를 조작하면, 피사체 판단부(236)는 사용자의 버튼부(미도시) 조작에 상응하는 클릭 동작 감지 모드로 동작할 수 있다. The
예를 들어, 사용자가 피사체(140)의 클릭 동작을 이용하여 피사체 움직임 감지 마우스(200)와 연결된 노트북 컴퓨터(130)의 스피커(미도시)를 통하여 출력될 음원 데이터(예를 들어, MP3 파일 등)를 선택하고자 하는 경우를 가정한다. 이때, 피사체 판단부(236)는 사용자의 노트북 컴퓨터(130)의 키패드부(135) 및/또는 피사체 움직임 감지 마우스(200)에 별도로 구비된 버튼부(미도시)의 조작에 상응하여 클릭 동작 감지 모드로 동작할 수 있다. 즉, 사용자가 모드 변환을 위하여 노트북 컴퓨터(130)의 키패드부(135) 및/또는 버튼부(미도시)를 조작하면 노트북 컴퓨터(130)의 키패드부(135) 및/또는 버튼부(미도시)는 사용자의 조작에 상응하는 모드변환신호를 생성하여 피사체 판단부(236)로 출력할 수 있고, 피사체 판단부(236)는 모드변환신호를 수신하여 상응하는 모드로 동작할 수 있다. For example, sound source data (for example, an MP3 file, etc.) to be output through a speaker (not shown) of a
예를 들어, 사용자가 피사체(140)의 움직임을 이용하여 클릭 동작을 수행하기 위하여 버튼부(미도시)를 조작하면, 버튼부(미도시)는 피사체 판단부(236)가 클릭 동작 감지 모드로 동작할 수 있도록 상응하는 모드변환신호를 생성하여 피사체 판단부(236)로 출력할 수 있다. 이때, 버튼부(미도시)는 사용자가 버튼부(미도시)를 한번 누르면 모드변환신호를 생성하여 출력할 수도 있고, 사용자가 버튼부(미도시)를 누르고 있는 동안 모드변환신호를 출력할 수 있다. 즉, 사용자가 버튼부(미 도시)의 조작을 종료하면 피사체 판단부(236)가 기존의 동작하던 모드로 동작하기 위한 모드변환종료명령을 생성하여 피사체 판단부(236)로 출력할 수도 있다. For example, when a user operates a button unit (not shown) to perform a click operation by using the movement of the subject 140, the button unit (not shown) causes the
또한, 피사체 판단부(236)는 피사체영상데이터를 분석하여 피사체크기정보를 순차적으로 산출한다. 예를 들어, 피사체 판단부(236)는 피사체영상데이터를 분석하여 제m 피사체크기정보를 산출할 수 있다. 이때, 제m 피사체크기정보는 제m 기준픽셀의 크기에 상응하는 정보일 수 있다. 즉, 피사체(140)가 사용자의 손가락인 경우 당해 피사체영상데이터(310)에 촬상된 피사체이미지의 기준픽셀(이하, '제m 기준픽셀'이라 칭함)은 원형 곡선을 포함할 것이다. 따라서 제m 피사체크기정보는 제m 기준픽셀의 원형 부분의 곡률 반경(또는 지름)에 상응하는 정보일 수 있다. 또한, 제m 피사체크기정보는 제m 기준픽셀이 구성하는 도형의 내부에 존재하는 픽셀의 개수에 상응하는 정보일 수 있다. 즉, 제m 기준픽셀이 원형의 도형이거나 사각형(또는 삼각형)의 도형인 경우 제m 피사체크기정보는 당해 도형의 내부에 존재하는 픽셀의 개수일 수 있다.In addition, the
이하, 도 4를 참조하여 피사체 판단부(236)가 제m 피사체크기정보를 이용하여 피사체(140)의 클릭 동작을 감지하는 방법에 대하여 상세히 설명한다. 이때, 제m 피사체크기정보는 제m 기준픽셀의 크기에 상응하는 정보일 수 있음은 상술한 바와 같다. Hereinafter, a method of detecting the click operation of the subject 140 using the m-th subject size information will be described in detail with reference to FIG. 4. In this case, as described above, the m-th subject size information may be information corresponding to the size of the m-th reference pixel.
도 4는 본 발명에 따른 피사체 클릭 동작 감지 방법을 나타낸 도면이다. 4 is a diagram illustrating a method of detecting a subject click operation according to the present invention.
도 4를 참조하면, 피사체 판단부(236)는 순차적으로 산출한 피사체크기정보 와 미리 설정된 제1 경계값을 비교하여 상응하는 클릭기능수행명령을 생성할 수 있다. 예를 들어, 피사체 판단부(236)는 제m 피사체크기정보가 제1 경계값 보다 크면 제k 피사체크기정보를 생성하여 제1 경계값 보다 작은지 판단하여 제k 피사체크기정보가 제1 경계값 보다 작으면 클릭기능수행명령을 생성하여 출력할 수 있다. 이때, k는 m보다 큰 자연수일 수 있다. 즉, 제m 피사체크기정보를 생성한 후 소정의 시간이 지난 다음 피사체의 위치, 크기 등의 변화에 상응하여 제k 피사체크기정보가 생성되고, 피사체 판단부(236)는 제k 피사체크기정보가 제1 경계값 보다 작으면 미리 설정된 기준픽셀 내의 특정 위치에 상응하는 클릭기능수행명령을 생성할 수 있다.Referring to FIG. 4, the
예를 들어, 피사체 움직임 감지 마우스(200)가 노트북 컴퓨터(130)에 연결된 경우를 가정한다. 이때, 제m 기준픽셀 내의 특정 위치는 제m 기준픽셀의 무게 중심일 수 있고, 당해 무게 중심에 상응하는 포인터(150-1)의 위치가 '메뉴' 버튼에 해당되면 피사체 판단부(236)는 메뉴 기능 실행을 위한 클릭기능수행명령을 생성하여 메인제어부(미도시)로 출력할 수 있고, 이를 수신한 메인제어부(미도시)는 '메뉴' 기능의 실행을 위하여 노트북 컴퓨터(130)의 각 구성 요소를 제어할 수 있다. For example, it is assumed that the subject
이때, 산출된 피사체크기정보가 제1 경계값과 동일한 경우에도 클릭기능수행명령이 생성되도록 미리 설정될 수 있음은 자명하다. 다만, 이하에서는 이해와 설명의 편의를 위하여 산출된 피사체크기정보가 제1 경계값과 동일한 경우에 대해서는 설명을 생략한다.At this time, even if the calculated object size information is the same as the first threshold value, the click function execution command may be set in advance so as to be generated. However, hereinafter, the description will be omitted for the case in which the calculated object size information is the same as the first boundary value for convenience of understanding and explanation.
그런데, 피사체 판단부(236)가 클릭기능수행명령을 생성함에 있어서, 제m 기 준픽셀의 무게 중심의 좌표와 제k 기준픽셀의 무게 중심의 좌표가 상이한 경우가 있을 수 있다. 이때 각 무게 중심의 좌표에 상응하는 기능이 동일한 경우(즉, 둘 다 '메뉴' 기능에 해당하는 좌표인 경우)에는 문제가 없으나, 각 무게 중심의 좌표에 상응하는 기능이 상이한 경우는 문제가 될 수 있다. 이러한 경우, 피사체 판단부(236)는 미리 설정된 기준픽셀 내의 특정 위치에 상응하는 클릭기능수행명령을 생성할 수도 있고, 에러(error)에 상응하는 클릭기능수행명령을 생성할 수도 있으며, 사용자의 선택에 상응하는 클릭기능수행명령을 생성할 수도 있다. However, when the
예를 들어, 피사체 판단부(236)는 제k 기준픽셀의 무게 중심의 좌표에 상응하는 클릭기능수행명령을 생성하도록 미리 설정된 경우를 가정한다. 이때, 제m 기준픽셀의 무게 중심의 좌표는 '메뉴' 기능에 상응하고, 제k 기준픽셀의 무게 중심의 좌표는 '종료' 기능에 상응하는 경우, 피사체 판단부(236)는 제k 기준픽셀의 무게 중심의 좌표에 상응하는 '종료' 기능의 수행을 위한 클릭기능수행명령을 생성하여 메인제어부(미도시)로 출력할 수 있다. For example, it is assumed that the
또한, 피사체 판단부(236)는 제m 피사체크기정보가 제1 경계값 보다 크면 클릭정보 측정을 시작할 수 있다. 클릭정보의 측정은 피사체(140)의 클릭 동작이 계속된 시간에 따라 클릭정보(t1)를 상이하게 생성하여 피사체 판단부(236)가 클릭정보에 상응하는 클릭기능수행명령을 생성하기 위함이다. 즉, 클릭정보는 피사체(140)의 클릭 동작이 계속된 시간일 수 있다. 예를 들어, 클릭정보가 미리 설정된 시간인 t2 보다 작으면 짧은 클릭(Short click), 클릭정보가 상기 t2와 미리 설정된 시간인 t3 사이의 값(이때, t2<t3)이면 긴 클릭(Long click) 및 클릭정보가 t3 보다 크면 취소 클릭(cancel click)으로 미리 설정된 경우를 가정한다. In addition, the
이때, 피사체 판단부(236)는 측정한 클릭정보에 상응하는 클릭기능수행명령을 생성하여 메인제어부(미도시)로 출력할 수 있다. 즉, 피사체 판단부(236)는 클릭정보가 t2 보다 작은 경우에는 피사체(140)의 짧은 클릭 동작에 상응하는 클릭기능수행명령을 생성하여 출력할 수 있다. 예를 들어, 짧은 클릭은 '데이터 선택', 긴 클릭은 '옵션 선택' 기능에 대응되도록 미리 설정된 경우를 가정하면, 피사체 판단부(236)는 클릭정보가 짧은 클릭에 해당하면(즉, 클릭정보가 t2 보다 작으면) '데이터 선택'을 위한 클릭기능수행명령을 생성할 수 있다. In this case, the
그런데, 제m 피사체크기정보 및/또는 제k 피사체크기정보가 제1 경계값 부근의 값인 경우에는 피사체(140)의 클릭 동작 감지가 정확하지 않을 수 있다. 예를 들어, 제m 피사체크기정보가 제1 경계값 보다 큰 값이 입력되어 클릭정보의 측정이 개시된 후에 순차적으로 입력되는 제k 피사체크기정보가 제1 경계값 보다 큰 값과 작은 값이 반복적으로 입력되는 경우가 있을 수 있다. 즉, 제1 경계값이 '100'으로 미리 설정된 경우 제m 피사체크기정보가 '110' 이어서 클릭정보의 측정이 개시되었으나, 순차적으로 입력되는 제k 피사체크기정보가 '102', 제k+1 피사체크기정보가 '98', 제k+2 피사체크기정보가 '101'인 경우가 있을 수 있다. 이러한 경우는 클릭정보의 측정의 정확도가 떨어지게 된다. However, when the m-th subject size information and / or the k-th subject size information is a value near the first boundary value, detection of a click operation of the subject 140 may not be accurate. For example, after the m-th subject size information is larger than the first threshold value and the measurement of the click information is started, the k-th subject size information sequentially input after the measurement value of the m-th subject size information is smaller than the first threshold value is repeated. It may be entered. That is, when the first threshold value is set to '100', the m-th subject size information is '110', and then measurement of the click information is started, but the k-th subject size information sequentially input is '102' and k + 1. The subject size information may be '98' and the k + 2th object size information may be '101'. In such a case, the accuracy of the measurement of the click information is inferior.
이러한 현상을 방지하기 위하여 피사체 판단부(236)는 제m 피사체크기정보가 제1 경계값 보다 큰 경우에 클릭정보 측정을 개시하고, 제1 경계값 보다 작은 값의 제k 피사체크기정보가 미리 설정된 횟수만큼 반복된 경우에 클릭정보 측정을 종료 하되, 제1 경계값 보다 작은 값의 제k 피사체크기정보가 최초로 반복 측정된 시점으로 소급하여 클릭정보가 유효한 것으로 할 수 있다. In order to prevent such a phenomenon, the
즉, 제1 경계값이 '100'이고, 클릭정보 측정 종료 시점은 제1 경계값 보다 작은 피사체크기정보가 연속하여 3번 입력된 경우로 미리 설정된 경우를 가정한다. 이때, 순차적으로 생성되는 피사체크기정보 중에서 제k 피사체크기정보가 '102', 제k+1 피사체크기정보가 '98', 제k+2 피사체크기정보가 '101', 제k+3 피사체크기정보가 '99', 제k+4 피사체크기정보가 '98', 제k+5 피사체크기정보가 '98'로 입력되었다면, 피사체 판단부(236)는 제k 피사체크기정보가 생성된 시점부터 클릭정보를 측정 개시하고, 제k+5 피사체크기정보가 생성된 시점까지 클릭정보를 측정하되, 클릭정보는 제k+3 피사체크기정보가 생성된 시점까지 유효한 것으로 할 수 있다. That is, it is assumed that the first threshold value is '100' and the click information measurement end point is preset when the object size information smaller than the first threshold value is input three times in succession. At this time, the k-th subject size information is '102', the k + 1th object size information is '98', and the k + 2th object size information is '101', and the k + 3th object size is sequentially generated. If the information is '99', the k + 4th object size information is '98', and the k + 5th object size information is '98', the
또한, 피사체 판단부(236)는 클릭정보를 고려하여 미리 설정된 기준픽셀 내의 특정 위치에 상응하는 클릭기능수행명령을 생성하여 메인제어부(미도시)로 출력할 수 있음은 상술한 바와 같다. 그런데, 제1 경우(410)와 같이 순차적으로 생성되는 제k 피사체크기정보가 계속적으로 작아지는 경우와 달리 제k 피사체크기정보가 제1 경계값 보다 작은 값에서 큰 값으로 변경되는 경우가 있을 수 있다(제2 경우(420)). 이러한 경우에도 피사체(140)의 클릭 동작을 정확하게 감지할 수 없다. 즉, 사용자는 포인터의 위치에 상응하는 버튼 등을 클릭하기 위하여 피사체(140)를 촬상부(210)에 가까이 가져갔다가 망설이는 경우가 있을 수 있다.In addition, as described above, the
이러한 경우, 피사체 판단부(236)는 클릭정보 측정이 종료된 직후에 클릭기능수행명령을 생성하되, 이후에 순차적으로 입력되는 피사체크기정보가 미리 설정 된 제2 경계값 보다 작은 경우에는 생성된 클릭기능수행명령을 메인제어부(미도시)로 출력할 수 있다. 예를 들어, 제1 경계값이 '100'이고, 제2 경계값이 '50'인 경우 피사체 판단부(236)는 제k 피사체크기정보가 '50' 보다 작은 경우에 클릭기능수행명령을 메인제어부(미도시)로 출력할 수 있다. In this case, the
다만, 이 경우에도 피사체(140)가 촬상부(210)로부터 멀어진 것을 보다 명확하게 하기 위하여 피사체 판단부(236)는 제2 경계값 보다 작은 제l 피사체크기정보가 생성된 후 미리 설정된 시간 동안 제2 경계값 보다 큰 제k 피사체크기정보가 생성되지 아니하면 클릭기능수행명령을 메인제어부(미도시)로 출력할 수 있다(이때, l은 k보다 큰 자연수일 수 있음). 즉, 피사체 판단부(236)는 제2 경계값 보다 작은 제l 피사체크기정보가 생성되면 대기정보 측정을 개시할 수 있다. 여기에서 대기정보는 제2 경계값 보다 큰 제l 피사체크기정보가 생성되지 아니한 시간일 수 있다. 이때, 피사체 판단부(236)는 대기정보가 미리 설정된 시간인 경계시간을 경과하면 생성된 클릭기능수행명령을 메인제어부(미도시)로 출력할 수 있다.However, even in this case, in order to clarify that the subject 140 is far from the
물론, 대기정보는 제1 경계값 보다 작은 제k 피사체크기정보가 산출된 시점에서 측정 개시될 수도 있고, 이때에는 제2 경계값이 생략될 수 있음은 자명하다.Of course, the atmospheric information may be measured at the time point at which the k-th subject size information smaller than the first threshold value is calculated, in which case the second threshold value may be omitted.
이때, 산출된 피사체크기정보가 제2 경계값과 동일한 경우에도 클릭기능수행명령이 출력되거나 대기정보가 측정되도록 미리 설정될 수 있음은 자명하다. 다만, 이해와 설명의 편의를 위하여 산출된 피사체크기정보가 제2 경계값과 동일한 경우에 대해서는 설명을 생략한다.At this time, even if the calculated object size information is the same as the second threshold value, it is apparent that the click function execution command may be preset or set in advance so that the standby information is measured. However, the description will be omitted for the case in which the calculated object size information is the same as the second boundary value for convenience of understanding and explanation.
다시 도 2를 참조하면, 피사체 판단부(236)는 피사체(140)의 원근 동작(즉, 피사체(140)가 촬상부(210)에 가까워지거나 멀어지는 동작)을 감지하기 위한 원근 동작 감지 모드에서 제m 피사체크기정보를 이용하여 피사체(140)의 원근 동작을 감지하고, 이에 상응하는 포인터크기변경명령을 생성하여 메인제어부(미도시)로 출력한다(여기서, 포인터크기변경명령은 피사체 판단부(236)가 피사체(140)의 원근 동작을 감지하여 상응하는 기능이 수행되도록 하는 신호를 의미할 수 있음). 즉, 여기서 포인터는 포인터 뿐만 아니라 화면 스크롤바(Scroll-bar) 등을 포함하는 개념일 수 있다. Referring back to FIG. 2, the
예를 들어, 사용자가 피사체(140)의 원근 동작을 이용하여 출력되는 음원 데이터의 음량을 스크롤바를 이용하여 조절하는 경우를 가정한다. 즉, 현재 출력되는 음량을 나타내는 스크롤바가 디스플레이부(미도시)에 표시되어 있을 수 있고, 피사체 판단부(236)는 피사체(140)의 원근 동작을 감지하여 피사체(140)가 이미지 센서부(218)에 가까워지면 음량이 키워지고 멀어지면 음량이 줄어들 수 있도록 포인터크기변경명령을 메인제어부(미도시)로 출력할 수 있다. 이때, 메인제어부(미도시)는 출력되는 음원 데이터의 음량을 포인터크기변경명령에 상응하도록 제어할 수 있다. For example, it is assumed that a user adjusts a volume of sound source data output by using a perspective bar of a subject 140 using a scroll bar. That is, a scroll bar indicating a volume currently output may be displayed on a display unit (not shown), and the
또한, 사용자가 피사체(140)의 원근 동작을 이용하여 피사체 움직임 감지 마우스(200)와 연결된 노트북 컴퓨터(130)의 스피커(미도시)를 통하여 출력되고 있는 음원 데이터(예를 들어, MP3 파일 등)의 음량을 조절하고자 하는 경우를 가정한다. 이때, 피사체 판단부(236)는 사용자의 노트북 컴퓨터(130)의 키패드부(135) 조작 및/또는 피사체 움직임 감지 마우스(200)에 별도로 구비된 버튼부(미도시) 조작에 상응하여 원근 동작 감지 모드로 동작할 수 있다. In addition, sound source data (eg, MP3 files, etc.) output by a user through a speaker (not shown) of the
즉, 사용자가 노트북 컴퓨터(130)의 스피커(미도시)를 통하여 출력되고 있는 음원 데이터의 음량을 조절하기 위하여 버튼부(미도시)를 조작하면 버튼부(미도시)는 상응하는 신호(예를 들어, 원근동작감지명령)를 피사체 판단부(236)로 출력할 수 있고, 이를 수신한 피사체 판단부(236)는 원근 동작 감지 모드로 동작할 수 있다. 이때, 피사체 판단부(236)는 생성된 제m 피사체크기정보를 미리 저장된 기준피사체크기정보와 비교하여 상응하는 포인터크기변경명령 생성하여 메인제어부(미도시)로 출력할 수 있다. That is, when the user manipulates the button unit (not shown) to adjust the volume of the sound source data output through the speaker (not shown) of the
이때, 기준피사체크기정보는 피사체크기(예를 들어, 기준 픽셀의 개수 등)에 대한 정보로서, 미리 설정된 값이거나 사용자의 선택에 의하여 설정된 값일 수 있다. 또한, 피사체 판단부(236)는 산출된 제m 피사체크기정보를 기준피사체크기정보를 비교하여 피사체(140)가 촬상부(210)에 가까워졌는지 멀어졌는지 감지할 수 있다. 즉, 피사체 판단부(236)는 제m 피사체크기정보가 기준피사체크기정보 보다 크면 피사체(140)가 촬상부(210)로 다가온 것으로 판단할 수 있고, 제m 피사체크기정보가 기준피사체크기정보 보다 작으면 피사체(140)가 촬상부(210)로부터 멀어진 것으로 판단할 수 있다. 이하, 사용자의 선택에 의하여 기준피사체크기정보가 설정되는 방법에 대하여 설명한다.In this case, the reference subject size information is information on a subject size (for example, the number of reference pixels, etc.) and may be a preset value or a value set by a user's selection. In addition, the
즉, 피사체 판단부(236)는 제m 피사체크기정보를 산출하여 미리 설정된 제1 기준픽셀경계값과 비교한다. 이때, 제1 기준픽셀경계값은 기준픽셀의 개수에 대한 정보일 수 있다. 제m 피사체크기정보를 제1 기준픽셀경계값과 비교하는 이유는 기준피사체크기정보가 너무 작은 값이면 기준지점(즉, 기준피사체크기정보가 생성된 시점에서 피사체(140)가 위치한 지점)에 비하여 피사체(140)가 촬상부(210)로부터 멀어지면 더욱 작은 피사체크기정보가 산출되므로 피사체(140)의 원근 동작을 정확하게 감지할 수 없기 때문이다. 즉, 제1 기준픽셀경계값은 기준픽셀경계값을 생성하기 위한 제m 피사체크기정보의 하한값일 수 있다. That is, the
또한, 피사체 판단부(236)는 제m 피사체크기정보를 미리 설정된 제2 기준픽셀경계값과 비교할 수도 있다. 이때, 제2 기준픽셀경계값은 기준픽셀의 개수에 대한 정보일 수 있다. 제m 피사체크기정보를 제2 기준픽셀경계값과 비교하는 이유는 기준피사체크기정보가 너무 큰 값이면 기준지점(즉, 기준피사체크기정보가 생성된 시점에서 피사체(140)가 위치한 지점)에 비하여 피사체(140)가 촬상부(210)로부터 가까워지면 더욱 큰 피사체크기정보가 산출되므로 피사체(140)의 원근 동작을 정확하게 감지할 수 없기 때문이다. 즉, 제2 기준픽셀경계값은 기준피사체크기정보를 생성할 수 있는 제m 피사체크기정보의 상한값일 수 있다. In addition, the
또한, 피사체 판단부(236)는 제m 피사체크기정보가 제1 기준픽셀경계값 보다 작거나 제2 기준픽셀경계값 보다 크면 에러(error)에 상응하는 신호를 메인제어부(미도시)로 출력할 수 있다. 이는 사용자에게 피사체(140)를 촬상부(210)에 조금 더 가까운 곳에 위치시키도록 하기 위함이다. In addition, the
반면, 피사체 판단부(236)는 제m 피사체크기정보가 제1 기준픽셀경계값 보다 크고 제2 기준픽셀경계값 보다 작으면 기준피사체크기정보 생성명령의 입력 여부를 판단할 수 있다. 여기에서, 기준피사체크기정보 생성명령은 사용자의 버튼부(미도시) 조작 및/또는 노트북 컴퓨터(130)의 키패드부(135) 조작에 상응하는 신호일 수 있다. 예를 들어, 사용자는 현재 피사체(140)가 촬상부(210)와 떨어져있는 지점을 기준지점으로 설정하기 위하여 피사체(140)가 촬상된 후 피사체 움직임 감지 마우스(200)의 일측에 구비된 버튼부(미도시)를 조작할 수 있고, 버튼부(미도시)는 사용자의 버튼 조작에 상응하여 기준피사체크기정보 생성명령을 생성하여 피사체 판단부(236)로 출력할 수 있다. On the other hand, the
판단 결과, 피사체 판단부(236)는 기준피사체크기정보 생성명령이 입력되지 아니하면 다시 제m+1 피사체크기정보를 산출하여 제1 기준픽셀경계값과 비교할 수 있다. 즉, 피사체 판단부(236)는 기준피사체크기정보를 생성하기 위하여 피사체(140)를 다시 촬상하여 상술한 과정을 수행할 수 있다. As a result of determination, when the reference subject size information generation command is not input, the
그러나, 피사체 판단부(236)는 기준피사체크기정보 생성명령이 입력되면 상응하는 기준피사체크기정보를 생성하여 저장부(240)에 저장할 수 있다. 즉, 피사체 판단부(236)는 제m 피사체크기정보를 기준피사체크기정보로 할 수 있다. However, when the command to generate the reference subject size information is input, the
이때, 피사체 판단부(236)는 사용자의 기준피사체크기정보 선택을 용이하게 하기 위하여 피사체영상데이터에 상응하는 데이터를 메인제어부(미도시)로 출력할 수 있고, 메인제어부(미도시)는 이를 수신하여 디스플레이부(150)에 표시되도록 할 수 있다. 즉, 사용자는 디스플레이부(150)에 표시되는 피사체영상데이터를 보고 상술한 당해 제m 피사체크기정보를 기준피사체크기정보로 선택할 것인지 판단할 수 있다. 예를 들어, 디스플레이부(150)의 일측에는 피사체영상데이터가 표시되고, 사 용자는 표시된 피사체영상데이터를 보고 제m 피사체크기정보를 가늠할 수 있다. 따라서, 사용자는 적절한 크기의 피사체크기정보가 산출되면 버튼부(미도시) 및/또는 노트북 컴퓨터(130)의 키패드부(135)를 조작할 수 있고, 버튼부(미도시) 및/또는 노트북 컴퓨터(130)의 키패드부(135)는 기준피사체크기정보 생성명령을 생성하여 피사체 판단부(2326)로 출력할 수 있다. At this time, the
또한, 피사체 판단부(236)는 기준피사체크기정보가 저장된 후, 원근 동작 감지 모드에서 제k 피사체크기정보를 산출하여 저장된 기준피사체크기정보와 비교할 수 있고(이때, k는 자연수임), 비교 결과에 상응하는 포인터크기변경명령을 생성하여 메인제어부(미도시)로 출력할 수 있다. 이하, 도 5를 참조하여 피사체 판단부(236)가 피사체(140)의 원근 동작을 감지하여 포인터의 크기를 변경하는 방법에 대하여 설명한다. Also, after the reference subject size information is stored, the
도 5는 본 발명에 따른 피사체 움직임 감지 마우스가 연결된 전자기기의 디스플레이부를 예시한 도면이다. 여기에서는 디스플레이부(150)에 음원 데이터가 출력되는 상태가 표시된 경우를 가정한다. 즉, 디스플레이부(150)에 미디어 플레이어(Media player)(510)가 표시된 경우를 가정한다. 또한, 피사체 판단부(236)가 원근 동작 감지 모드에서 피사체(140)의 원근 동작을 감지하여 스크롤바(Scroll bar)의 위치를 변경하는 경우를 가정한다. 5 is a diagram illustrating a display unit of an electronic device to which a subject movement detecting mouse is connected according to the present invention. In this case, it is assumed that the
도 5를 참조하면, 디스플레이부(150)에는 미디어 플레이어(510)가 활성화되어 있고, 출력되고 있는 음원 데이터의 현재 재생 시간을 표시하는 제1 스크롤 바(520), 음원 데이터의 출력 음량(volume)을 나타내는 제2 스크롤바(530) 및 포인터(540)가 도시된다. Referring to FIG. 5, the
이때, 피사체 판단부(236)는 제k 피사체크기정보를 생성하여 기준피사체크기정보와 비교할 수 있고, 비교 결과에 상응하여 제1 스크롤바(520) 및/또는 제2 스크롤바(530)의 위치를 변경할 수 있다. 예를 들어, 피사체 판단부(236)가 피사체(140)의 원근 동작을 감지하여 제1 스크롤바(520)의 위치를 변경하는 경우를 가정하여 설명한다. 여기에서, 피사체 판단부(236)는 제k 피사체 크기 정보가 기준피사체크기정보 보다 크면 제1 스크롤바(520)의 위치를 제k 피사체 크기 정보와 기준피사체크기정보의 차이에 상응하는 만큼 오른쪽으로 옮기도록 하는 포인터크기변경명령을 생성하여 메인제어부(미도시)로 출력할 수 있고, 메인제어부(미도시)는 이를 수신하여 제1 스크롤바(520)를 상응하는 위치로 이동시킬 수 있다. 또한, 메인제어부(미도시)는 옮겨진 제1 스크롤바(520)의 위치에 상응하는 음원이 출력되도록 제어할 수 있다. In this case, the
예를 들어, 현재 출력되고 있는 음원이 총 5분의 러닝 타임(Running time) 중 3분에 해당하는 경우를 가정한다. 이때, 기능수행명령에 상응하는 제1 스크롤바(520)의 위치가 4분(min)에 해당하면 메인제어부(미도시)는 당해 음원 데이터 중 4분(min)에 해당하는 음원이 출력되도록 제어할 수 있다. For example, it is assumed that the currently output sound source corresponds to 3 minutes out of a total of 5 minutes running time. In this case, when the position of the
여기에서, 피사체 판단부(236)가 제1 스크롤바(520)의 위치를 제어할 것인지 제2 스크롤바(530)의 위치를 제어할 것인지는 포인터(540)의 위치에 따라 달라질 수 있다. 즉, 포인터(540)가 제1 스크롤바(520) 위에 위치되어 있는 경우에는 피사 체 판단부(236)가 제1 스크롤바(520)의 위치를 제어할 수 있는 포인터크기변경명령을 생성할 수 있고, 포인터(540)가 제2 스크롤바(530) 위에 위치되어 있는 경우에는 피사체 판단부(236)는 제2 스크롤바(530)의 위치를 제어할 수 있는 포인터크기변경명령을 생성할 수 있다. Here, whether the
또한, 피사체 판단부(236)가 제1 스크롤바(520)의 위치를 제어할 것인지 제2 스크롤바(530)의 위치를 제어할 것인지는 사용자의 선택에 의하여 달라질 수도 있다. 예를 들어, 사용자가 버튼부(미도시)를 조작하여 제1 스크롤바(520)의 제어를 선택한 경우에는 피사체 판단부(236)는 제1 스크롤바(520)의 위치를 제어할 수 있다. In addition, whether the
또한, 다른 실시예에 의하면 피사체 판단부(236)는 피사체(140)의 직선(直線) 동작에 상응하여 제1 스크롤바(520) 및/또는 제2 스크롤바(530)를 제어할 수 있다. 이때, 직선 동작이란 피사체(140)가 이미지 센서부(218)에 가까워지고 멀어지는 원근 동작 또는 클릭 동작과 달리 피사체(140)가 이미지 센서부(218) 근처에서 좌우 또는 상하로 이동하는 동작이다. 즉, 원근 동작 및/또는 클릭 동작이 공간을 인식하는 3차원적인 움직임이라면 직선 동작은 평면적인 2차원적인 움직임이다.In addition, according to another exemplary embodiment, the
이하, 피사체 판단부(236)가 피사체(140)의 직선 동작을 감지하는 방법에 대하여 설명한다. Hereinafter, a method in which the
다시 도 2를 참조하면, 피사체 판단부(236)는 피사체(140)의 직선 동작을 감지하기 위한 직선 동작 감지 모드에서 중심 판단부(232)에서 판단한 중심점(이하, '제m 중심점'이라 칭함)의 좌표값에 상응하는 제m 영역정보를 추출하여 저장부(240)에 저장할 수 있다. 이때, 피사체 판단부(236)는 사용자의 선택에 의하여 직선 동작 감지 모드로 동작할 수 있다. 예를 들어, 사용자가 피사체(140)의 직선 동작을 이용하여 제1 스크롤바(520)를 조절하기 위한 경우를 가정한다. 이때, 사용자는 피사체 움직임 감지 마우스의 일측에 별도로 구비된 버튼부(미도시)를 조작하여 피사체 판단부(236)가 직선 동작 감지 모드로 동작할 수 있도록 할 수 있다. Referring back to FIG. 2, the
이하, 도 6을 참조하여 피사체 판단부(236)가 직선 동작 감지 모드에서 제m 영역정보를 추출하는 방법에 대하여 설명한다.Hereinafter, a method of extracting the m-th region information in the linear motion detection mode by the
도 6은 본 발명에 의해 생성된 피사체영상데이터의 영역 구분 방법 및 복수의 중심점의 이동을 나타낸 도면이다. FIG. 6 is a diagram illustrating a method of distinguishing areas of subject image data and movement of a plurality of center points generated by the present invention.
도 6을 참조하면, 피사체영상데이터(610)는 상술한 바와 같이 유광 영상데이터와 무광 영상데이터를 비교하여 산출한 영상데이터로서 복수의 영역으로 구분될 수 있다. 예를 들어 도 3에 도시된 바와 같이, 피사체영상데이터(610))는 (a) 영역(610-1), (b) 영역(610-2), (c) 영역(610-3) 및 (d) 영역(610-4)으로 구분될 수 있다. 따라서, 피사체 판단부(236)는 제m 중심점의 좌표를 분석하여 제m 영역정보를 추출할 수 있다. 예를 들어, 제m 중심점(620-1)이 (a) 영역(610-1)에 위치하여 있는 경우 피사체 판단부(236)는 제m 영역정보를 'a'로 추출할 수 있다. 동일한 방법으로 제m+1 중심점이 (b) 영역(610-2)에 위치하여 있는 경우 피사체 판단부(236)는 제m+1 영역정보를 'b'로 추출할 수 있다.Referring to FIG. 6, the subject image data 610 may be divided into a plurality of regions as image data calculated by comparing the glossy image data and the matte image data as described above. For example, as shown in FIG. 3, the subject image data 610 includes (a) areas 610-1, (b) areas 610-2, (c) areas 610-3, and ( d) may be divided into an area 610-4. Accordingly, the
이때, 피사체영상데이터(610)에 포함되는 각 영역의 개수는 예시에 불과할 뿐이므로 이에 의해 본 발명의 권리 범위가 제한되지 않음은 자명하다. 또한, 도 3에서는 각 영역을 균등하게 구분한 경우를 예로 들어 설명하였으나 각 영역은 균등하지 아니하게 구분될 수도 있다. 예를 들어, 피사체(140)는 이미지 센서부(218)의 중앙 근처에서 가장 빨리 움직이는 경우가 많을 것이므로 피사체영상데이터(610)의 끝부분 영역인 (a) 영역(610-1) 및 (d) 영역(610-4)은 상대적으로 좁게 구분되고, 피사체영상데이터(610)의 중간 부분인 (b) 영역(610-2) 및 (c) 영역(610-3)은 상대적으로 넓게 구분될 수도 있다. 따라서, 피사체영상데이터(610)를 구성하는 각 영역의 넓이 또한 본 발명의 권리 범위를 제한하지 아니함은 자명하다. At this time, since the number of each area included in the subject image data 610 is only an example, it is obvious that the scope of the present invention is not limited thereto. In addition, in FIG. 3, the case where each region is equally divided has been described as an example, but each region may be divided evenly. For example, since the subject 140 may move most quickly near the center of the
또한, 피사체 판단부(236)는 제m 영역정보와 제m 영역정보가 추출되기 바로 직전에 추출된 제m-1 영역정보를 비교한다. 제m 영역정보가 제m-1 영역정보와 동일한 경우에는 피사체(140)가 상하로 움직이지 아니하거나 매우 경미하게 움직인 경우를 의미할 수 있고, 제m 영역정보와 제m-1 영역정보가 상이한 경우에는 피사체(140)가 상하로 움직인 경우를 의미할 수 있다. 따라서, 피사체 판단부(236)는 제m 영역정보와 제m-1 영역정보가 동일한 경우에는 대기 상태로 천이하여 제m+1 중심점이 추출되면 이에 상응하는 제m+1 영역정보를 추출할 수 있다. Also, the
그러나, 피사체 판단부(236)는 제m 영역정보와 제m-1 영역정보가 동일하지 아니한 경우에는 제m 중심점이동정보를 생성할 수 있다. 예를 들어, 도 3에 도시된 바와 같이, 제m-1 중심점(620-1)이 (a) 영역(610-1)에, 제m 중심점(620-2)이 (b) 영역(620-2)에 위치하여 있는 경우를 가정한다. 이때, 피사체 판단부(236)는 제m-1 영역정보를 'a', 제m 영역정보를 'b'로 추출할 수 있음은 상술한 바와 같다. 따라서, 피사체 판단부(236)는 제m 영역정보와 제m-1 영역정보를 비교한 결과 중심점이 (a) 영역(610-1)에서 (b) 영역으로 이동하였으므로 피사체(140)가 우측으로 이동하고 있음을 알 수 있고, 이에 상응하는 제m 중심점이동정보를 생성할 수 있다. However, the
또한, 제m 중심점이동정보는 제m 중심점이동방향정보를 포함할 수 있다. 이때, 제m 중심점이동방향정보는 피사체(140)의 움직임이 우측(右側) 동작 인지 좌측(左側) 동작인지를 의미하는 정보일 수 있다. 예를 들어, 제m 영역정보가 'a'이고 와 제m-1 영역정보가 'b'인 경우 피사체 판단부(236)는 피사체(140)의 움직임을 우측 동작으로 인식하여 상응하는 제m 중심점이동방향정보를 생성할 수 있다. 반대로 제m 영역정보가 'b'이고 제m-1 이동정보가 'a'인 경우 피사체 판단부(236)는 피사체(140)의 움직임을 좌측 동작으로 인식하여 상응하는 제m 중심점이동방향정보를 생성할 수 있다. Also, the m th center point movement information may include the m th center point movement direction information. In this case, the m-th center point moving direction information may be information indicating whether the movement of the subject 140 is a right motion or a left motion. For example, when the m-th region information is 'a' and the m-th region information is 'b', the
또한, 제m 중심점이동정보는 제m 중심점이동거리정보를 포함할 수도 있다. 제m 중심점이동거리정보는 피사체(140)가 움직인 거리를 의미하는 정보일 수 있다. 예를 들어, 제m 영역정보가 'a'이고 제m-1 영역정보가 'c'인 경우, 피사체 판단부(236)는 제m 영역정보가 'b'인 경우보다 2배 많이 움직였음을 인식하여 상응하는 제m 중심점이동거리정보를 생성할 수 있다. 동일한 방법으로 제m 영역정보가 'd'이고 제m-1 영역정보가 'a'인 경우, 피사체 판단부(236)는 제m 영역정보가 'b'인 경우보다 3배 많이 움직였음을 인식하여 상응하는 제m 중심점이동거리정보를 생성할 수 있다. 이는 피사체(140)가 항상 일정한 방향 및 속도로 움직이는 것이 아니기 때문이다.The m th center point movement information may also include the m th center point movement distance information. The m-th center point moving distance information may be information indicating a distance moved by the subject 140. For example, when the m-th region information is 'a' and the m-th region information is 'c', the
그런데, 상술한 방법에 의하여 피사체(140)의 직선 동작을 감지하는 경우, 피사체(140)의 우측 동작과 좌측 동작이 서로 번갈아서 인식되는 문제점이 있을 수 있다. 예를 들어, 피사체(140)가 사용자의 손가락이고, 사용자는 피사체(140)를 이용하여 출력되는 음량을 조절하는 경우를 가정한다. 이때, 사용자가 출력되는 음량을 계속적으로 줄이고자 하는 경우 사용자는 피사체(140)를 이용하여 좌측 동작을 반복적으로 수행할 수 있는데, 이때, 피사체(140)는 일회(一回) 좌측 동작 후 다시 좌측 동작을 반복 수행하기 위해 일반적으로 일회의 우측 동작을 수행할 것이고, 이에 따라 피사체 판단부(236)는 좌측 동작에 상응하는 제m 중심점이동정보를 생성하여 메인 제어부(도시되지 않음)로 출력한 후 다시 우측 동작에 상응하는 제m+p 중심점 이동 정보를 생성할 것이다(이때, p는 자연수).However, when the linear motion of the subject 140 is detected by the above-described method, there may be a problem in that the right and left motions of the subject 140 are alternately recognized. For example, it is assumed that the subject 140 is a user's finger, and the user adjusts the output volume using the subject 140. In this case, when the user wants to continuously reduce the volume of the output, the user may repeatedly perform the left operation using the subject 140. In this case, the subject 140 moves left again after the one-time left operation. In order to repeat the operation, one right operation will be generally performed. Accordingly, the
물론 피사체(140)가 좌측 동작 후 이미지 센서부(218)의 광각(光角)을 벗어나서 우측 동작을 수행하는 경우나 별도의 피사체(예를 들어, 다른 손가락)를 이용하여 우측 동작 없이 다시 좌측 동작을 수행하는 경우에는 상술한 문제점은 발생하지 아니할 것이나 이는 사용자에게 불편함을 야기하는 문제점이 있다.Of course, when the subject 140 performs the right operation outside the wide angle of the
따라서, 상술한 문제점을 해결하기 위하여 광원부(214) 및/또는 이미지 센서부(218) 위에 투광부(도시되지 않음)를 구비한 경우를 가정한다. 이때, 투광부는 플라스틱 또는 유리로 만들어진 투명판일 수 있고, 피사체 판단부(236)는 피사체(140)가 투광부(미도시)에 접촉된 상태에서 움직이면 피사체(140)의 움직임을 감지할 수 있다. 반대로 피사체 판단부(236)는 피사체(140)가 투광부에 접촉되지 아 니한 상태에서 움직이면 피사체(140)의 움직임을 감지하지 아니할 수 있다.Therefore, in order to solve the above-described problem, it is assumed that a light transmitting unit (not shown) is provided on the
또한, 상술한 문제점을 해결하기 위하여 피사체 판단부(236)는 피사체(140)의 움직임을 감지함에 있어서 미리 설정된 동작 만을 감지할 수도 있다. 즉, 피사체 판단부(236)는 직선 동작 감지 모드에서 사용자의 선택에 의하여 좌측 동작 또는 우측 동작 중 하나의 동작만을 감지할 수도 있다. 예를 들어, 피사체 판단부(236)는 좌측 동작 감지를 위한 좌측 동작 감지 모드에서는 피사체(140)의 우측 동작은 감지하지 아니할 수 있다. In addition, in order to solve the above-described problem, the
이하, 도 7a 및 도 7b를 참조하여 피사체 판단부(236) 피사체(140)가 투광부(미도시)에 접촉되었는지 판단하는 방법에 대하여 설명한다.Hereinafter, a method of determining whether the
도 7a는 본 발명에 의해 촬상된 제m 기준픽셀영역 및 접촉식별영역의 일 실시예를 나타낸 도면이고, 도 7b는 본 발명에 의해 촬상된 제m 기준픽셀영역 및 접촉식별영역의 다른 실시예를 나타낸 도면이다. FIG. 7A illustrates an embodiment of an mth reference pixel region and a contact identification region captured by the present invention, and FIG. 7B illustrates another embodiment of an mth reference pixel region and a contact identification region captured by the present invention. The figure shown.
도 7a 및 도 7b를 참조하면, 6개의 접촉식별영역(710-1, 710-2, 710-3, 710-4, 710-5 및 710-6, 이하, '710'으로 통칭함)이 피사체영상데이터(700-1, 700-2)의 각 모서리 부분과 상단면과 하부면의 중앙 근처에 위치하여 있는 경우가 도시된다. 이때, 복수의 접촉식별영역은 피사체 판단부(236)가 피사체(140)의 투광부(미도시) 접촉 여부를 판단하기 위하여 피사체영상데이터에 미리 설정된 하나 이상의 좌표(또는 좌표군)일 수 있다. 7A and 7B, six contact identification areas 710-1, 710-2, 710-3, 710-4, 710-5 and 710-6, hereinafter referred to as '710' are subjects. The case where each corner part of the image data 700-1 and 700-2 is located near the center of the upper surface and the lower surface is shown. In this case, the plurality of contact identification areas may be one or more coordinates (or coordinate groups) preset in the subject image data in order to determine whether the
이때, 피사체 판단부(236)는 제m 기준픽셀영역이 2개 이상의 접촉식별영 역(710)을 포함하는 경우에 피사체(140)가 투광부에 접촉되었다고 인식하는 경우를 가정한다. 도 7a를 참조하면, 제m 기준픽셀영역(720-1)이 2개의 접촉식별영역을 포함하는 경우가 도시된다. 따라서, 이 경우 피사체 판단부(236)는 피사체(140)가 투광부에 접촉되었다고 인식할 수 있다. 또한, 도 7b를 참조하면, 제m 기준픽셀영역(720-1)이 접촉식별영역(710)을 포함하지 아니하는 경우가 도시된다. 이 경우 피사체 판단부(236)는 피사체(140)가 투광부에 접촉되지 아니하였다고 인식할 수 있다. 이때, 제m 기준픽셀영역은 피사체영상데이터(610)에 촬상된 피사체이미지를 구성하는 제m 기준픽셀의 좌표군(座標群)일 수 있다.In this case, it is assumed that the
즉, 피사체(140)가 투광부에 접촉된 경우의 제m 기준 식별 영역이 피사체(140)가 투광부에 접촉되지 아니한 경우보다 상대적으로 클 것이 때문에 피사체 판단부(236)는 이를 이용하여 피사체(140)의 투광부 접촉 여부를 구분할 수 있다. 다만, 피사체(140)가 투광부에 접촉되지 아니하여도 제m 기준 식별 영역이 미리 설정된 개수(여기서는 2개) 이상의 접촉식별영역(710)을 포함할 수 있는 경우가 있을 수 있는데, 이는 피사체영상데이터의 폭 및/또는 길이를 조절하여 해결할 수 있다. 또한, 접촉식별영역(710)의 크기를 조절하여 해결할 수도 있을 것이다. That is, since the m-th reference identification region when the subject 140 contacts the light emitter is larger than the case where the subject 140 does not touch the light emitter, the
따라서, 피사체 판단부(236)는 제m 기준 식별 영역이 미리 설정된 개수 이상의 접촉식별영역(710)을 포함하는 경우에는 피사체(140)의 움직임을 감지할 수 있다. 반대로, 피사체 판단부(236)는 제m 기준 식별 영역이 미리 설정된 개수 이상의 접촉식별영역(710)을 포함하지 아니하는 경우에는 피사체의 움직임을 감지하지 아니할 수 있다. Accordingly, the
또한, 피사체 판단부(236)는 제m 중심점이동정보에 상응하는 기능수행명령(이하, '직선기능수행명령'이라 칭함)을 생성하여 메인 제어부(도시되지 않음)로 출력할 수 있다. 즉, 피사체(140)의 직선 동작에 상응하여 이동 통신 단말기(100)에서 출력되는 음량이 조절되는 경우를 가정하면, 피사체 판단부(236)는 제m 중심점이동정보에 포함된 제m 중심점이동방향정보 및/또는 제m 중심점이동거리정보에 상응하여 음량 조절을 위한 직선기능수행명령을 생성할 수 있고, 이를 수신한 메인 제어부(도시되지 않음)는 상응하는 음량 조절을 위해 이동 통신 단말기(100)의 다른 구성 요소들을 제어할 수 있다. In addition, the
또한, 피사체 판단부(236)는 직선기능수행명령을 출력한 후에 종료 명령 수신 여부를 판단할 수 있다. 이때, 종료 명령은 사용자가 직선 동작 감지 모드를 종료시키기 위한 키패드부(130) 조작에 상응하는 신호일 수 있다. 예를 들어, 사용자가 키패드부(130)를 조작하면 키패드부는 이에 상응하여 직선 동작 감지 모드를 종료시키기 위한 종료 명령을 생성하여 피사체 판단부(136)로 출력할 수 있다. 피사체 판단부(236)는 종료 명령을 수신하면 직선 동작 감지 모드를 종료하고, 종료 명령을 수신하지 아니하면 다시 피사체(140)의 직선 동작을 계속적으로 감지할 수 있다. In addition, the
여기에서는 피사체 판단부(236)가 직선 동작 감지 모드에서 피사체(140)의 직선 동작 중 피사체(140)의 좌우 동작을 감지하는 방법에 대하여 설명하였으나, 피사체(140)의 상하(上下) 동작을 감지하는 경우에도 상술한 방법이 동일 또는 유사하게 적용될 수 있음은 자명하다. Here, although the
다시 도 2를 참조하면, 저장부(240)는 피사체 움직임 감지 마우스(200) 내에 포함된 메모리 모듈로서 플래시 메모리이거나 그 외의 비휘발성 메모리를 포함할 수 있다. 또한, 저장부(240)는 이미지 처리부(230)와 연결될 수 있고, 피사체 움직임 감지 마우스(200)의 동작을 위한 각종 데이터를 저장할 수 있다. 특히, 저장부(240)는 중심 판단부(232)가 산출한 피사체(140) 제m 피사체중심점 및/또는 제m 배경중심점 등을 순차적으로 저장할 수 있다. 또한, 저장부(240)는 피사체 판단부(236)가 순차적으로 추출한 제m 피사체크기정보, 기준피사체크기정보, 클릭정보, 대기정보 및 각종 경계값(즉, 제1 경계값, 제2 경계값 및 제1 기준픽셀경계값 등)을 저장할 수 있다. Referring back to FIG. 2, the
도 8은 본 발명에 따른 피사체 움직임 감지 방법의 일 실시예에 따른 순서도이다. 8 is a flowchart illustrating a method of detecting a subject motion according to the present invention.
이하, 도 8을 참조하여 본 발명에 따른 피사체 움직임 감지 방법의 일 실시예에 대하여 설명한다. Hereinafter, an embodiment of a subject motion detection method according to the present invention will be described with reference to FIG. 8.
단계 S810에서, 이미지 센서부(218)는 광원부(214)가 활성화된 상태 즉, 광을 출력하는 동안에 피사체(140)를 촬상하여 유광(有光) 영상데이터를 생성하여 이미지 처리부(230)로 출력한다.In operation S810, the
단계 S820에서, 이미지 센서부(218)는 광원부(214)가 불활성화된 상태 즉, 광을 출력하지 않는 동안에 피사체(140)를 촬상하여 무광(無光) 영상데이터를 생성 하여 이미지 처리부(230)로 출력한다. In operation S820, the
이때, 광원부(214)는 메인제어부(미도시)의 제어를 받아 미리 설정된 시간을 간격으로 점등될 수 있으며, 이미지 센서부(218)는 유광 영상데이터를 생성한 직후에 광원부(214)가 불활성화되면 무광 영상데이터를 생성할 수 있다.At this time, the
단계 S830에서, 피사체 추출부(231)는 촬상부(210)로부터 입력 받은 유광 영상데이터 및 무광 영상데이터를 비교하여 피사체영상데이터를 생성한다. In operation S830, the
단계 S840에서, 중심 판단부(232)는 피사체 추출부(231)에서 생성한 피사체영상데이터를 분석하여 피사체이미지의 중심점을 판단하기 위하여 피사체(140)가 촬상된 기준픽셀을 추출한다. In operation S840, the
단계 S850에서, 중심 판단부(232)는 기준픽셀의 좌표값을 추출하고, 단계 S860에서, 중심 판단부(232)는 피사체이미지의 중심점을 산출한다. In operation S850, the
여기에서, 피사체영상데이터를 생성하는 방법 및 피사체이미지의 중심점을 산출하는 방법은 상술한 바, 여기에서는 이에 대한 상세한 설명은 생략한다. Here, the method of generating the subject image data and the method of calculating the center point of the subject image have been described above, and a detailed description thereof will be omitted herein.
단계 S870에서, 피사체(140)의 움직임을 감지하여 상응하는 기능수행명령(예를 들어, 피사체(140)의 움직임이 클릭 동작인 경우에는 클릭기능수행명령)이 생성되어 메인제어부(미도시)로 출력된다. 즉, 추출된 기준픽셀을 이용하여 피사체(140)의 움직임이 판단되고, 상응하는 기능수행명령이 생성되어 메인제어부(미도시)로 출력된다. 이하, 피사체(140)의 움직임에 상응하는 기능수행명령이 생성되는 과정에 대하여 도 9, 도 10 및 도 11을 참조하여 후술한다. In operation S870, the motion of the subject 140 is detected to generate a corresponding function execution command (for example, a click function execution command when the movement of the subject 140 is a click operation) to the main controller (not shown). Is output. That is, the movement of the subject 140 is determined using the extracted reference pixel, and a corresponding function execution command is generated and output to the main controller (not shown). Hereinafter, a process of generating a function execution command corresponding to the movement of the subject 140 will be described with reference to FIGS. 9, 10, and 11.
도 9는 본 발명의 일 실시예에 따른 피사체 움직임 감지 방법의 순서도이다. 9 is a flowchart illustrating a method of detecting a subject motion according to an embodiment of the present invention.
이하, 도 9를 참조하여 본 발명의 일 실시예에 따른 피사체 움직임 감지 방법에 대하여 설명한다. 여기에서는 피사체 판단부(236)가 클릭 동작 감지 모드에서 피사체(140)의 클릭 동작을 감지하는 방법에 대하여 설명한다. 또한, 하기할 각 단계는 도 8을 참조하여 상술한 단계 S810 내지 단계 S850이 수행된 상태일 수 있으며, 각 단계는 피사체 판단부(236)에서 수행되는 동작임을 가정하고 설명한다. Hereinafter, a method of detecting a subject motion according to an exemplary embodiment of the present invention will be described with reference to FIG. 9. Here, the method of detecting the click operation of the subject 140 by the
단계 S910에서, 추출한 피사체영상데이터를 이용하여 제m 피사체크기정보를 산출한다. In step S910, the m th subject size information is calculated using the extracted subject image data.
단계 S920에서, 제m 피사체크기정보와 미리 설정된 제1 경계값을 비교한다. 비교 결과, 제m 피사체크기정보가 제1 경계값 보다 작은 경우에는 피사체(140)가 클릭 동작을 위하여 이미지 센서부(218)에 근접하지 아니한 경우이므로 제m+1 피사체크기정보를 산출한다. 이는 도 9에서 'm=m+1' 블록으로 표현된다. In operation S920, the m th subject size information is compared with a preset first boundary value. As a result of comparison, when the m-th subject size information is smaller than the first threshold value, since the subject 140 is not close to the
반면, 비교 결과 제m 피사체크기정보가 제1 경계값 보다 큰 경우에는 피사체(140)가 클릭 동작을 위하여 이미지 센서부(218)에 근접한 경우이므로 클릭 정보 측정을 개시한다(단계 S930).On the other hand, when the m-th subject size information is larger than the first boundary value as a result of the comparison, since the subject 140 is close to the
단계 S940에서, 후속되는 피사체영상데이터를 이용하여 제k 피사체크기정보를 산출한다. 이때, k는 m보다 큰 자연수일 수 있고, 이는 도 8에서 'k=m+1' 블록으로 표현된다.In step S940, the k-th subject size information is calculated using the following subject image data. In this case, k may be a natural number larger than m, which is represented by a block 'k = m + 1' in FIG. 8.
단계 S950에서, 제k 피사체크기정보와 제1 경계값을 비교한다. 비교 결과, 제k 피사체크기정보가 제1 경계값 보다 큰 경우에는 피사체(140)가 완전한 클릭 동 작을 위하여 이미지 센서부(218)로부터 멀어진 경우가 아니므로 다시 제k+1 피사체크기정보를 산출한다. 이는 도 8에서 'k=k+1' 블록으로 표현된다. In operation S950, the k-th subject size information is compared with the first boundary value. As a result of comparison, when the k-th object size information is larger than the first threshold value, since the
반면, 비교 결과, 제k 피사체크기정보가 제1 경계값 보다 작은 경우에는 피사체(140)의 클릭 동작이 이루어진 것이므로 클릭 정보 측정을 종료한다(단계 S960). On the contrary, when the k-th subject size information is smaller than the first threshold value, the click operation of the subject 140 is performed, and thus the click information measurement is terminated (step S960).
단계 S970에서, 생성된 클릭 정보에 상응하는 클릭기능수행명령을 생성하여 메인제어부(미도시)로 출력한다. 다만, 정확한 클릭 동작의 감지를 위하여 제l 피사체크기정보가 미리 설정된 제2 경계값 보다 작은 값인 상태가 이어진 시간(즉, 대기 시간)을 측정할 수 있고, 대기 시간이 경계 시간 이상이 되면 클릭기능수행명령을 생성하여 메인제어부(미도시)로 출력할 수도 있음은 상술한 바와 같다. In step S970, a click function execution command corresponding to the generated click information is generated and output to the main controller (not shown). However, in order to detect the correct click operation, the time (that is, the waiting time) for which the state of the first subject size information is smaller than the preset second threshold value may be measured (that is, the waiting time). As described above, the execution command may be generated and output to the main controller (not shown).
단계 S980에서, 종료 명령 수신 여부를 판단한다. 이때, 종료 명령은 사용자가 피사체(140) 클릭 동작의 감지를 종료하고자 하는 경우, 사용자의 키패드부(130) 조작에 상응하는 신호일 수 있다. In step S980, it is determined whether a termination command is received. In this case, the end command may be a signal corresponding to the manipulation of the
종료 명령을 수신한 경우에는 피사체(140)의 클릭 동작 감지를 종료하고, 종료 명령을 수신하지 아니한 경우에는 다시 대기 상태로 천이하여 제k+1 피사체크기정보를 산출하여 피사체(140)의 클릭 동작을 계속하여 감지할 수 있다. 이는 도 9에서 'm=k+1' 블록으로 표현된다.If the end command is received, the end of the click operation detection of the subject 140 is terminated. If the end command is not received, the process returns to the standby state to calculate k + 1th object size information to calculate the click operation of the subject 140. You can continue to detect. This is represented by the 'm = k + 1' block in FIG.
도 10은 본 발명의 다른 실시예에 따른 피사체 움직임 감지 방법의 순서도이다. 여기에서는 피사체 판단부(236)가 원근 동작 감지 모드에서 피사체(140)의 원 근 동작을 감지하는 방법에 대하여 설명한다. 또한, 하기할 각 단계는 도 8을 참조하여 상술한 단계 S810 내지 단계 S850이 수행된 상태일 수 있으며, 각 단계는 피사체 판단부(236)에서 수행되는 동작임을 가정하고 설명한다. 또한, 이하에서는 기준피사체크기정보를 사용자의 선책에 의하여 설정하는 경우를 가정하고 설명하나, 기준피사체크기정보가 미리 설정된 경우에는 하기의 단계 S1010 내지 단계 S1040은 생략될 수 있다. 10 is a flowchart illustrating a method of detecting a subject motion according to another embodiment of the present invention. Here, the method of detecting the perspective motion of the subject 140 by the
단계 S1010에서, 추출한 피사체영상데이터를 이용하여 제m 피사체크기정보를 산출한다. In step S1010, the m th subject size information is calculated using the extracted subject image data.
단계 S1020에서, 제m 피사체크기정보와 미리 설정된 제3 경계값 및/또는 제4 경계값을 비교한다. 비교 결과, 제m 피사체크기정보가 제3 경계값 보다 작은 경우에는 피사체(140)가 이미지 센서부(218)에 근접하지 아니하여 기준피사체크기정보를 산출하기 적절하지 아니하므로 제m+1 피사체크기정보를 산출한다. 또한, 제m 피사체크기정보가 제4 경계값 보다 큰 경우에는 피사체(140)가 이미지 센서부(218)에 과도하게 근접하여 기준피사체크기정보를 산출하기 적절하지 아니한 경우이므로 제m+1 피사체크기정보를 산출한다. 이는 도 10에서 'm=m+1' 블록으로 표현된다. In operation S1020, the m-th subject size information is compared with a preset third threshold value and / or fourth threshold value. As a result of comparison, when the m-th subject size information is smaller than the third threshold value, since the subject 140 is not close to the
이때, 사용자에게 피사체(140)를 촬상부(210)에 조금 더 가까운 곳이나 조금 더 먼 곳으로 위치시키도록 하기 위하여 에러 신호를 메인제어부(미도시)로 출력할 수 있다(단계 S1025). 또한, 이를 수신한 메인제어부(미도시)는 에러 신호에 상응하는 표시(예를 들어, 알람(Alarm), 에러 신호 표시창 등)가 디스플레이부(150)에 표시되도록 할 수 있다. In this case, an error signal may be output to the main controller (not shown) in order to allow the user to position the subject 140 closer to or slightly closer to the imaging unit 210 (step S1025). In addition, the main controller (not shown) that receives this may cause a display (eg, an alarm, an error signal display window, etc.) corresponding to the error signal to be displayed on the
단계 S1030에서, 제m 피사체크기정보가 제3 경계값과 제4 경계값 사이의 값인 경우에는 기준피사체크기정보 생성명령이 입력되었는지 판단한다. 판단 결과, 기준피사체크기정보 생성명령이 입력되지 아니하면 제m+1 피사체크기정보를 생성한다. 이는 도 10에서 'm=m+1'블록으로 표시된다. In operation S1030, when the m th subject size information is a value between the third threshold value and the fourth threshold value, it is determined whether a reference subject size information generation command is input. As a result of the determination, when the command to generate the reference subject size information is not input, the m + 1th object size information is generated. This is represented by the 'm = m + 1' block in FIG.
반대로, 기준피사체크기정보 생성명령이 입력되면 제m 피사체크기정보에 상응하여 기준피사체크기정보를 생성하여 저장부(240)에 저장한다(단계 S1040). On the contrary, when the command for generating the reference subject size information is input, the reference subject size information is generated and stored in the
단계 S1050에서, 제k 피사체크기정보를 산출하고, 산출된 제k 피사체크기정보와 기준피사체크기정보를 비교한다(단계 S1060).In step S1050, the k-th subject size information is calculated, and the calculated k-th subject size information is compared with the reference subject size information (step S1060).
단계 S1070에서, 산출된 제k 피사체크기정보와 기준피사체크기정보를 비교한 단계에 상응하여 포인터크기변경명령을 생성하여 메인제어부(미도시)로 출력한다. In operation S1070, a pointer size change command is generated and output to the main controller (not shown) corresponding to the step of comparing the calculated k-th subject size information with the reference subject size information.
단계 S1080에서, 종료명령 수신 여부를 판단한다. 이때, 종료 명령은 사용자의 버튼부(미도시) 및/또는 노트북컴퓨터(130)의 키패드부(135) 조작에 상응하는 신호일 수 있다. 즉, 사용자는 피사체 판단부(2236)가 원근 동작 감지 모드로 동작하는 것을 종료시키기 위하여 버튼부(미도시) 및/또는 노트북컴퓨터(130)의 키패드부(135)를 조작할 수 있고, 버튼부(미도시) 및/또는 노트북컴퓨터(130)의 키패드부(135)는 이에 상응하는 종료 명령을 피사체 판단부(236)로 출력할 수 있다. In step S1080, it is determined whether a termination command is received. In this case, the end command may be a signal corresponding to a manipulation of the button unit (not shown) of the user and / or the
판단 결과, 종료명령이 수신되면 피사체(140)의 원근 동작 감지를 종료하고, 종료명령을 수신하지 못하면 제k+1 피사체크기정보를 산출하여 기준피사체크기정보와 비교할 수 있다. 이는 도 10에서 'k=k+1' 블록으로 표현된다. As a result, when the end command is received, the detection of the perspective motion of the subject 140 is terminated. If the end command is not received, the k + 1th object size information may be calculated and compared with the reference subject size information. This is represented by a 'k = k + 1' block in FIG.
도 11은 본 발명의 또 다른 실시예에 따른 피사체 움직임 감지 방법의 순서도이다. 11 is a flowchart illustrating a method of detecting a subject motion according to another embodiment of the present invention.
도 11을 참조하면, 여기에서는 피사체 판단부(236)가 직선 동작 감지 모드에서 피사체(140)의 직선 동작을 감지하는 방법에 대하여 설명한다. 또한, 하기할 각 단계는 도 8을 참조하여 상술한 단계 S810 내지 단계 S860이 수행된 상태일 수 있으며, 각 단계는 피사체 판단부(236)에서 수행되는 동작임을 가정하고 설명한다. Referring to FIG. 11, a method in which the
단계 S1110에서, 제m 중심점에 상응하는 제m 영역정보 추출하여 저장한다. In operation S1110, the m-th region information corresponding to the m-th center point is extracted and stored.
단계 S1120에서 제m 영역정보와 제m-1 영역정보를 비교한다. 이때, 제m-1 영역정보는 제m 영역정보가 추출되기 바로 직전에 추출된 영역정보일 수 있다. In operation S1120, the m-th region information is compared with the m-th region information. In this case, the m-th region information may be region information extracted immediately before the m-th region information is extracted.
제m 영역정보가 제m-1 영역정보와 동일하면 피사체(140)가 움직이지 아니한 경우이므로 대기 상태로 천이하여 제m+1 중심점이 산출되면 제m+1 영역정보를 산출한다. 이는 도 11에서 'm=m+1' 블록으로 표현된다.If the m-th region information is the same as the m-th region information, the
만일 제m 영역정보가 제m-1 영역정보와 동일하지 아니한 경우에는 피사체(140)가 움직인 경우이므로 제m 중심점이동정보를 생성한다(단계 S1130). 제m 중심점이동정보는 제m 중심점이동방향정보 및/또는 제m 중심점이동거리정보를 포함할 수 있고, 이들을 생성하는 방법은 상술한 바, 여기에서는 이에 대한 상세한 설명은 생략한다. If the m-th region information is not the same as the m-th region information, since the subject 140 is moved, the m-th center point movement information is generated (step S1130). The m th center point moving information may include the m th center point moving direction information and / or the m th center point moving distance information, and a method of generating the m th center point moving direction information is described above.
단계 S1140에서, 제m 중심점이동정보에 상응하는 직선기능수행명령을 생성하여 메인 제어부(도시되지 않음)로 출력한다. In operation S1140, a linear function execution command corresponding to the m th center point movement information is generated and output to the main controller (not shown).
단계 S1150에서, 종료 명령 수신 여부를 판단한다. 이때, 종료 명령은 사용 자가 피사체(140) 직선 동작의 감지를 종료하고자 하는 경우, 사용자의 키패드부(130) 조작에 상응하는 신호일 수 있다. In step S1150, it is determined whether an end command is received. In this case, when the user wants to end the detection of the linear motion of the subject 140, the end command may be a signal corresponding to the manipulation of the
종료 명령을 수신한 경우에는 피사체(140)의 직선 동작 감지를 종료하고, 종료 명령을 수신하지 아니한 경우에는 다시 대기 상태로 천이하여 제m+1 중심점이 산출되면 제m+1 영역정보를 추출하여 피사체(140)의 직선 동작을 감지할 수 있다. 이는 도 11에서 'm=m+1' 블록으로 표현된다.When the end command is received, the linear motion detection of the subject 140 is terminated, and when the end command is not received, the process returns to the standby state, and when the m + 1 center point is calculated, the m + 1 area information is extracted. The linear motion of the subject 140 may be detected. This is represented by the 'm = m + 1' block in FIG.
도 12는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스의 블록 구성도이다. 12 is a block diagram of a subject motion detection mouse according to another embodiment of the present invention.
도 12를 참조하면, 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스(1200)는 촬상부(1210), 이미지 처리부(1230) 및 저장부(1240)를 포함할 수 있으며, 촬상부(1210)는 광원부(1211), 필터부(1213), 렌즈부(1216) 및 이미지 센서부(1219)를 포함할 수 있으며, 이미지 처리부(1230)는 선명도 조절부(1231) 외곽선 추출부(1233), 감마 보정부(1235), 중심 판단부(1237), 포인터 위치 설정부(1239) 및 피사체 판단부(1239-1)를 포함할 수 있다. 이하, 각 구성 요소의 동작에 대하여 상세히 설명한다. Referring to FIG. 12, the subject
여기에서, 촬상부(1210)를 구성하는 각 구성 요소들은 도 2를 참조하여 상술한 본 발명의 일 실시예에 따른 피사체 움직임 감지 마우스(200)를 구성하는 촬상부(210)와 그 동작이 동일 또는 유사하므로, 여기에서는 이에 대한 상세한 설명은 생략한다. 다만, 광원부(1211)는 미리 설정된 시간을 간격으로 점등되지 아니할 수 있고, 활성화되어 있는 시간 동안 항상 광을 출력할 수 있다. 또한, 광원부(1211)가 구비되지 아니하고, 주변의 다른 광원(예를 들어, 태양광 등)을 이용할 수도 있음은 상술한 바와 같다.Here, each component of the
이미지 처리부(1230)는 이미지 센서부(1219)에서 인식한 피사체의 영상데이터(이하, '제1 영상데이터'라 칭함)로부터 피사체(140)의 움직임에 상응하는 좌표값을 추출한다. 이를 자세히 살펴보면, 선명도 조절부(1231)는 촬상된 피사체(140)의 제1 영상데이터의 선명도를 조절하여 제1 영상데이터와 다른 피사체영상데이터를 생성한다. 즉, 선명도 조절부(1231)는 촬상된 제1 영상데이터의 픽셀의 색상 대비, 명도 대비 및 채도 대비 중 어느 하나 이상을 증가시킴으로써 선명도를 조절할 수 있다. The
여기서, 이미지의 선명도(鮮明度, sharpness)는 이미지의 명암 경계 부분의 명확도를 나타내는 것으로서, 피사체(140)의 이미지의 선명도가 증가하면, 경계 부분의 명확도가 증가하기 때문에 피사체(140)를 촬상한 이미지에서 소정의 피사체(140)만의 외곽선(또는 윤곽(edge))을 파악하기 용이한 장점이 있다. 즉, 선명도가 높은 픽셀에 대해서 색상 대비, 명도 대비 및 채도 대비 중 어느 하나를 증가시킴으로써 선명도를 증가시킬 수 있다. 여기서, 렌즈부(1216)의 심도(depth of field)에 따라서 즉, 렌즈부(1216)에 의하여 생성되는 피사체(140)의 상이 뚜렷하게 보일 수 있는 범위 안에서 피사체(140)의 이미지의 선명도가 달리 표현될 수 있다. 일반적으로, 렌즈부(1216)의 초점 거리와 유사한 거리에 위치한 피사체(140)의 외곽선은 선명도가 크지만, 렌즈부(1216)의 초점 거리와 먼 거리에 위치한 배경은 선명도가 작게 된다. Here, the sharpness of the image indicates the clarity of the contrast boundary portion of the image. When the sharpness of the image of the subject 140 increases, the clarity of the boundary portion increases, so that the subject 140 is moved. In the captured image, there is an advantage of easily identifying an outline (or an edge) of only a
즉, 선명도 조절부(1231)를 이용하는 경우 렌즈부(1216)의 초점 거리와 유사한 거리에 위치한 피사체(140)의 외곽선은 선명도가 더 증가할 것이나, 렌즈부(1216)의 초점 거리와 먼 거리에 위치한 배경은 선명도가 더 작게 될 수 있다. 따라서, 선명도 조절부(1231)에 의해 피사체(140)의 외곽선은 배경보다 선명도가 더 커지게 된다.That is, when the
외곽선 추출부(1233)는 피사체(140)를 촬상하여 생성한 제1 영상데이터와 이를 영상 처리한 피사체영상데이터의 차분값을 추출하여 피사체(140)의 외곽선을 추출하여 저장부(1240)에 순차적으로 저장한다. 즉, 선명도 조절부(1231)에서 생성된 선명도가 높은 제1 영상데이터와 촬상된 피사체(140)의 피사체영상데이터의 차분값은 피사체(140)의 외곽선을 나타낼 수 있다. 추출되는 피사체(140)의 외곽선은 촬상부(1210)에 인접한 피사체(140)의 일단의 외곽선이 될 수 있다.The
여기서, 휘도값이 미리 설정된 기준 휘도값보다 큰 차분 값을 추출하여 피사체(140)의 일단에 상응하는 외곽선을 추출할 수 있다. 기준 휘도값은 피사체(140) 외의 배경으로부터 촬상부(1210)에 들어오는 광에 의해 발생하는 노이즈를 제거할 수 있게 한다. 즉, 선명도 조절부(1231)에 의해 생성된 제1 영상데이터의 선명도는 피사체(140)의 영상데이터뿐만 아니라 배경 영상데이터에 의해서도 조절될 수 있으므로, 차분값이 기준 휘도값 이상인 영상데이터에 대해서만 외곽선으로 인식함으로써 피사체(140) 인식 효율성을 높일 수 있다. 여기서, 기준 휘도값은 고정될 수도 있고, 소정의 휘도값 이상을 가지는 픽셀의 개수에 따라서 변화할 수도 있으며, 이 에 대한 상세한 설명은 도 10을 참조하여 후술한다. Here, an outline corresponding to one end of the subject 140 may be extracted by extracting a difference value having a luminance value greater than a preset reference luminance value. The reference luminance value may remove noise generated by light entering the
감마 보정부(1235)는 피사체(140)의 영상데이터를 감마 보정한다. 여기서, 영상의 감마(Gamma)는 일반적으로 텔레비전, 카메라, 팩스 송수신기 등의 광전 변환계 또는 전광(電光) 변환계에서 입출력 특정을 양(兩) 대수축으로 표시하였을 때, 직선 부분의 경사이다. 즉, 텔레비전에서는 피사체(140) 휘도에 대한 카메라 출력 전압과 수상부 입력 전압에 대한 음극선관 휘도와의 대수비를 표시한다. 본 발명의 실시예에 따른 감마 보정에 의하여 각 픽셀의 휘도값을 달리할 수 있으므로, 피사체(140)의 선명도가 큰 부분만 표시되고, 나머지 선명도가 작은 부분은 흑색으로 남게 된다. 따라서, 피사체(140)를 촬상한 이미지에서 소정의 피사체(140)의 윤곽만 밝게 표시됨으로써 이를 이용하여 피사체(140)의 이동 여부를 판단할 수 있다. The
중심 판단부(1237)는 감마 보정된 이미지로부터 소정의 외곽선을 추적하고, 소정의 외곽선에 의해 정해지는 좌표값을 추출할 수 있다. 여기서, 소정의 외곽선은 다양한 형태를 가질 수 있다. 예를 들면, 원형의 외곽선일 수 있고, 소정의 외곽선에 의해 정해지는 좌표값은 원형의 외곽선에 의해서 결정되는 중심점 즉, 원의 중심의 좌표값이 될 수 있다. 일반적으로 움직임 추출을 위해 사용되는 피사체(140)는 사용자의 손가락의 일단이 될 수 있으므로, 중심 판단부(1237)는 손가락의 일단인 원형의 외곽선을 추출함으로써, 피사체(140)의 움직임을 산출할 수 있다. The
중심 판단부(1237)는 감마 보정부(1235)에 의해 추출되는 피사체의 외곽선이 형성하는 도형의 내부에 위치한 특정 좌표를 산출한다. 이러한 특정 좌표를 산출하는 방법은 여러 가지가 있을 수 있다. 예를 들어, 중심 판단부(1237)는 피사체(140)의 외곽선이 형성하는 도형의 무게 중심 또는 중심점의 좌표값을 추출할 수 있다. The
피사체(140)의 외곽선이 형성하는 도형의 내부에 위치한 특정 좌표인 무게 중심은 다음과 같은 수학식에 의해 산출될 수 있다. The center of gravity, which is a specific coordinate located inside the figure formed by the outline of the subject 140, may be calculated by the following equation.
(7) (7)
(8) (8)
(9) (9)
여기서, R은 무게 중심, M은 피사체(140)의 외곽선을 나타내는 픽셀(이하, '외곽선 픽셀'이라 칭함)의 휘도값을 모두 더한 값, mi는 피사체(140)의 외곽선 픽셀의 휘도값, ri는 상기 외곽선 픽셀의 좌표값이다. 아래 첨자 x, y는 각각 X축과 Y축에 해당하는 값임을 나타내며, 식 (9)는 식 (7)과 식 (8)에 대한 벡터 표현이다. Here, R is the center of gravity, M is the sum of the luminance values of the pixels representing the outline of the subject 140 (hereinafter, referred to as 'outline pixels'), mi is the luminance value of the outline pixel of the subject 140, ri Is a coordinate value of the outline pixel. The subscripts x and y represent the values corresponding to the X and Y axes, respectively, and Equation (9) is a vector representation of Equations (7) and (8).
또한, 중심 판단부(1237)가 상술한 수학식에 의하여 피사체(140) 이미지의 중심점을 판단하는 경우에는 외곽선 픽셀의 휘도값을 모두 반영하여야 하므로 연산량이 많아지게 되어 피사체 움직임 감지 마우스(1200)의 전반적인 기능을 저하시키 는 문제점이 발생할 수 있다. 따라서, 다른 실시예에 따르면, 피사체(140)의 외곽선이 형성하는 도형의 내부에 위치한 특정 좌표인 무게 중심은 다음과 같은 수학식에 의해서도 산출될 수 있다.In addition, when the
(10) 10
(11) (11)
(12) (12)
여기서, R은 무게 중심, ri는 상기 외곽선 픽셀의 좌표값, n은 상기 외곽선 픽셀의 개수이다. 아래 첨자 x, y는 각각 X축과 Y축에 해당하는 값임을 나타내고, 식 (12)는 식 (10)과 식 (11)에 대한 벡터 표현이다.Where R is the center of gravity, ri is the coordinate value of the outline pixel, and n is the number of outline pixels. Subscripts x and y represent values corresponding to the X and Y axes, respectively, and Equation (12) is a vector representation of Equation (10) and Equation (11).
즉, 중심 판단부(1237)는 픽셀의 휘도값을 반영하지 않고 피사체(140) 이미지의 중심점을 판단할 수 있다. 이는 각 픽셀의 휘도값은 큰 차이가 없을 것이므로 중심 판단부(1237)는 이에 대한 반영을 하지 아니하고 외곽선 픽셀의 좌표값의 평균값을 피사체(140) 이미지의 중심점으로 산출할 수 있다.That is, the
또는, 피사체(140)의 외곽선이 곡선형인 경우 중심 판단부(1237)는 그 곡률 반경을 산출하고, 해당 곡률 반경에 상응하는 중심점의 좌표값을 추출할 수 있다. 만일, 소정의 외곽선이 사각형인 경우 중심 판단부(1237)는 사각형의 대각선이 만나는 좌표값을 소정의 외곽선에 의해 정해지는 좌표값으로 추출할 수도 있으며, 다 른 다각형인 경우에는 서로 마주보는 꼭지점을 이은 둘 이상의 선을 만나는 좌표값으로 추출할 수도 있다. 예를 들어, 중심 판단부(1237)는 곡선형의 외곽선을 나타내는 각 픽셀 간의 거리를 계산하여, 계산된 각 픽셀의 거리가 가장 큰 두 픽셀의 중간값을 상기 중심점의 좌표값으로 할 수 있다. 또한 다른 예를 들면, 이러한 중간값은 2차원 디스플레이의 경우 X축과 Y축에 대한 좌표값으로 나타내질 수 있으므로, 중심 판단부(1237)는 X축 또는 Y축에 대한 좌표값의 차이가 가장 큰 두 픽셀 간의 중간값을 중심점의 좌표값으로 추출할 수도 있다.Alternatively, when the outline of the subject 140 is curved, the
또한, 중심 판단부(1237)는 중심점의 좌표값(이하, '중심점'이라 칭함)을 산출하여 저장부(1240)에 저장한다. 즉, 중심 판단부(1237)는 상술한 방법으로 산출한 중심점에 대한 정보가 저장부(1240)에 저장될 수 있도록 할 수 있다. In addition, the
포인터 위치 설정부(1239)는 포인터가 디스플레이부(150, 즉 피사체 움직임 감지 마우스(200)가 연결된 전자기기의 디스플레이부)의 특정 위치에 위치되도록 포인터이동명령을 생성하여 메인제어부(미도시)출력한다. 즉, 포인터 위치 설정부(1239)는 디스플레이부(150)의 포인터(150-1)의 위치가 특정 좌표(예를 들어, 피사체영상데이터 상의 외곽선의 무게 중심)에 상응하여 위치되도록 하기 위하여 포인터이동명령을 생성하여 메인제어부(미도시)로 출력할 수 있다. 이때, 포인터이동명령은 무게 중심의 좌표값에 상응하는 신호일 수 있고, 포인터이동명령을 수신한 메인제어부(미도시)는 포인터이동명령에 상응하는 좌표에 디스플레이부(150)의 포인터(150-1)가 위치되도록 제어할 수 있다. The pointer
포인터 위치 설정부(1239)는 산출된 특정 좌표에 디스플레이부(미도시)의 포 인터가 위치되도록 제어한다. 즉, 포인터 위치 설정부(1239)는 포인터의 위치가 특정 좌표(예를 들면, 피사체(140)의 외곽선에 대한 무게 중심 또는 중심점의 좌표값)에 상응하도록 제어할 수 있다. 즉, 산출된 특정 좌표가 미리 설정된 픽셀보다 상부에 위치하는 경우 볼륨을 크기를 의미하는 바(Bar)의 위치를 높이는 등의 기능을 수행할 수 있다.The pointer
피사체 판단부(1239-1)는 외곽선 추출부(1233)에서 판단한 외곽선(이하, '제m 외곽선' 이라 칭함(이때, m은 자연수))을 이용하여 피사체(140)의 움직임에 상응하는 기능수행명령(예를 들어, 클릭기능수행명령, 포인터크기변경명령, 직선기능수행명령 등)을 생성하고, 이를 메인제어부(미도시)로 출력한다. 피사체 판단부(1239-1)(이하, '제2 피사체 판단부'라 칭함)의 상세한 동작은 도 2를 참조하여 상술한 본 발명의 일 실시예에 따른 피사체 움직임 감지 마우스(200)를 구성하는 피사체 판단부(236)(이하, '제1 피사체 판단부(236)'라 칭함)와 동일 또는 유사하다. 즉, 제2 피사체 판단부(1239-1)는 제1 피사체 판단부(236)와 유사하게 제m 피사체크기정보를 생성하여 이에 상응하는 기능수행명령을 생성하고, 이를 메인제어부(미도시)로 출력한다. The object determining unit 1239-1 performs a function corresponding to the movement of the subject 140 using the outline determined by the outline extracting unit 1233 (hereinafter, referred to as' m 'outline' (m is a natural number)). A command (for example, a click function execution command, a pointer size change command, a linear function execution command, etc.) is generated and outputted to the main controller (not shown). Detailed operations of the subject determining unit 1239-1 (hereinafter, referred to as a second subject determining unit) may include configuring the subject
그러나, 제1 피사체 판단부(236)는 상술한 바와 같이 유광 영상데이터와 무광 영상데이터를 비교한 피사체영상데이터를 이용하여 제m 피사체크기정보를 생성하였으나, 제2 피사체 판단부(1239-1)는 제1 영상데이터 및 제1 영상데이터를 처리한 피사체영상데이터를 이용하여 제m 외곽선을 추출하고, 이를 이용하여 제m 피사체크기정보 및/또는 제m 영역정보를 생성한다.However, as described above, the first
즉, 제2 피사체 판단부(1239-1)는 제m 외곽선을 이용하여 제m 피사체크기정보 및/또는 제m 영역정보를 산출한다. 예를 들어, 피사체(140)가 사용자의 손가락인 경우 피사체(140) 이미지의 제m 외곽선은 원형(또는 반원형)일 것이다. 따라서 제m 피사체크기정보는 제m 외곽선의 지름(또는 반지름)에 상응하는 정보일 수 있다. 또한, 제m 피사체크기정보는 제m 외곽선 픽셀이 구성하는 도형의 내부에 존재하는 픽셀의 개수에 상응하는 정보일 수 있다. That is, the second subject determiner 1239-1 calculates m-th subject size information and / or m-th region information by using the m-th outline. For example, when the subject 140 is a user's finger, the m-th outline of the image of the subject 140 may be circular (or semicircular). Therefore, the m-th subject size information may be information corresponding to the diameter (or radius) of the m-th outline. In addition, the m-th subject size information may be information corresponding to the number of pixels existing in the figure of the m-th outline pixel.
이하에서는, 도 13을 참조하여 포인터 이동 제어 시 사용되는 기준 휘도값에 대한 설정 방법에 대하여 설명한다. Hereinafter, referring to FIG. 13, a setting method for a reference luminance value used for pointer movement control will be described.
도 13은 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에서 사용되는 기준 휘도값에 대한 설정 방법을 도시한 도면이다. FIG. 13 illustrates a method for setting a reference luminance value used in a subject movement detecting mouse according to another exemplary embodiment of the present invention.
도 13은 본 발명의 바람직한 제1 실시예에 따른 포인터 이동 제어 시 사용되는 기준 휘도값에 대한 설정 방법을 도시한 도면이다. 제1 기준 휘도값(1350), 제1 기준픽셀 개수의 시점(1353), 제1 휘도 하한값(1355), 제1 기준픽셀 개수 에 상응하는 휘도 범위(a), 제2 기준 휘도값(1360), 제2 기준픽셀 개수의 시점(1363), 제2 휘도 하한값(1365), 제2 기준픽셀 개수 에 상응하는 휘도 범위(b)가 도시된다. 여기서, 제1 또는 제2는 기준픽셀 개수가 다른 경우인 두 가지 실시예를 설명하기 위해서 사용되었으며, 이하에서는 이를 생략하고 통칭하여 설명하기로 한다. FIG. 13 is a diagram illustrating a method for setting a reference luminance value used in controlling pointer movement according to the first embodiment of the present invention. A first
기준 휘도값(1350 또는 1360)은 피사체(140)의 외곽선을 추출하기 위해 각 픽셀의 휘도값과 비교하기 위해 마련된다. 이하에서는, 이미지 센서부(1319)의 해 상도가 640*480(가로*세로)이고, 각 픽셀의 휘도값이 0부터 내지 255로 구분된 사이에 구성된 경우를 가정한다. 휘도값이 '0'인 경우는 가장 어두운 경우이므로 검정색일 것이고, 휘도값이 '255'인 경우는 가장 밝은 경우이므로 흰색으로 표현될 것이다. The
또한, 도 13을 참조하면, 기준 휘도값(1350 또는 1360)은 소정의 휘도값 이상을 가지는 픽셀의 수에 따라서 변화할 수 있다. 외곽선 추출부(1333)는 피사체(140)의 외곽선에 대응되는 픽셀을 추출하기 위하여 기준픽셀 개수를 설정하고 휘도값이 큰 픽셀을 추출할 수 있다. 예를 들면, 연산량을 고려해서 설정된 기준픽셀 개수가 10000개인 경우 미리 마련된 버퍼에 저장된 히스토그램에서 휘도값이 큰 순서로 10000개의 픽셀을 추출하고, 10000개째에 해당하는 픽셀(기준픽셀 개수의 시점(1353, 1363))의 휘도값 또는 그 보다 작은 값이 기준 휘도값(1350 또는 1360)이 될 수 있다. 따라서, 기준픽셀 개수 에 상응하는 휘도 범위(a, b)가 결정될 수 있다. 여기서, 각 픽셀의 휘도값은 버퍼에 저장되어 있으므로, 휘도값이 작은 순서로 픽셀 개수를 세어 기준 휘도값을 산출할 수도 있다. 즉, 전체 픽셀의 개수가 버퍼에 저장되어 있다면, 전체 픽셀 개수에서 기준픽셀 개수를 뺀 값만큼 휘도값이 작은 순서대로 추출하여 기준 휘도값을 산출할 수도 있다. In addition, referring to FIG. 13, the
여기서, 기준픽셀 개수가 너무 큰 경우 대부분의 픽셀이 피사체(140)의 외곽선으로 추출될 것이고, 그 반대의 경우 극히 일부분의 픽셀이 피사체(140)의 외곽선으로 추출될 것이다. 기준 휘도값이 너무 작은 경우(즉, 기준픽셀 개수가 너무 큰 경우)에는 피사체(140)의 외곽선과 관계없는 픽셀(예를 들면, 배경 부분에 대한 픽셀)이 추출될 수 있으므로, 휘도 하한값(1355, 1365)을 설정하여 기준 휘도값이 이보다 작은 값이 되는 경우 휘도 하한값(1355, 1365)을 기준 휘도값으로 설정할 수 있다. 또한, 기준 휘도값이 너무 큰 경우(즉, 기준픽셀 개수가 너무 작은 경우)에는 피사체(140)의 외곽선을 구성하는 최소한의 픽셀 수가 추출되지 않을 수 있으므로, 이 경우에도 휘도 상한값(미도시)을 설정할 수 있다. 여기서, 휘도 하한값(1355, 1365)과 휘도 상한값은 일반적으로 각각 한 개씩 주어질 수 있으며, 도 13을 참조하면, 휘도 하한값(1355, 1365)이 변화하는 경우 기준 휘도값(1350, 260)이 변화하는 경우를 도시하였다. In this case, when the number of reference pixels is too large, most pixels will be extracted to the outline of the subject 140, and vice versa, very few pixels will be extracted to the outline of the subject 140. When the reference luminance value is too small (that is, when the number of reference pixels is too large), pixels irrelevant to the outline of the subject 140 (for example, pixels for the background portion) may be extracted, and thus the luminance
예를 들어, 기준픽셀 개수가 10000개이고, 휘도 하한값(1355, 1365)이 50인 경우 각 픽셀을 분석하여 휘도값이 큰 순서대로 10000개의 픽셀을 추출하여 10000번째 픽셀의 휘도값과 50 중 큰 값을 기준 휘도값으로 설정한다. 반대로, 기준픽셀 개수가 10000개이고 휘도 상한값이 200인 경우를 가정하면, 휘도값이 큰 순서대로 10000개의 픽셀을 추출하여 10000번째 픽셀의 휘도값과 200 중 작은 값을 기준 휘도값으로 설정한다.For example, if the number of reference pixels is 10000 and the lower luminance limits (1355 and 1365) are 50, each pixel is analyzed and 10000 pixels are extracted in the order of the higher luminance values. Is set to the reference luminance value. On the contrary, assuming that the number of reference pixels is 10000 and the upper limit of luminance is 200, 10000 pixels are extracted in order of increasing luminance, and the luminance value of the 10000th pixel and the smaller of 200 are set as the reference luminance values.
또한, 다른 실시예에 의하면, 기준 휘도값은 특정 값으로 고정될 수도 있다. 예를 들면, 기준 휘도값이 100이고, 그 이상이 되는 픽셀에 대해서는 피사체(140)의 외곽선으로 인식할 수 있다. 상술한 휘도 하한 값과 휘도 상한값은 기준 휘도값이 고정된 경우에도 적용될 수 있음은 당연하다. Further, according to another embodiment, the reference luminance value may be fixed to a specific value. For example, a pixel having a reference luminance value of 100 and above may be recognized as an outline of the subject 140. It goes without saying that the above-mentioned lower limit of luminance and upper limit of luminance can be applied even when the reference luminance is fixed.
또한, 여기에서는 피사체 움직임 감지 마우스(1200)의 동작을 제어하는 제어부를 별도로 구비하지 아니하였으나 피사체 움직임 감지 마우스(1200)는 전반적인 동작을 제어하기 위한 제어부(도시되지 않음)를 별도로 구비할 수 있음은 당업자에 있어서 자명하다. 또한, 피사체 움직임 감지 마우스(1200)는 별도의 제어부를 구비하지 않고 피사체 움직임 감지 마우스(1200)를 포함하는 전자기기의 전반적인 동작을 제어하기 위한 메인 제어부(도시되지 않음)에 의하여 제어될 수도 있음은 자명하다.In addition, although the control unit for controlling the operation of the subject
도 14는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 방법의 순서도이다. 14 is a flowchart illustrating a method of detecting a subject motion according to another embodiment of the present invention.
이하, 도 14을 참조하여 본 발명의 다른 실시예에 따른 피사체 움직임 감지 방법에 대하여 설명한다. Hereinafter, a method of detecting a subject motion according to another exemplary embodiment of the present invention will be described with reference to FIG. 14.
단계 S1410에서, 촬상부(1210)는 피사체(140)를 포함하는 이미지를 촬상하여 제1 영상데이터를 생성한다. In operation S1410, the
단계 S1420에서, 선명도 조절부(1231)는 촬상된 피사체(140)의 이미지에 대해 선명도를 조절하여 피사체영상데이터를 생성한다. 여기서, 이미지의 심도에 따라서 선명도 조절이 달라질 수 있다. 즉, 렌즈부(1216)의 초점 거리에 가까운 위치에 있는 피사체(140) 외곽선의 경우 배경이 되는 이미지에 비해 선명도가 크게 증가할 수 있음은 상술한 바와 같다. In operation S1420, the
단계 S1430에서, 외곽선 추출부(1233)는 생성된 제2영상데이터와 피사체영상데이터의 차분 값을 산출하고, 감마 보정부(1235)는 산출된 차분 값에 대해서 감마 보정하여 피사체 외곽선에 대한 휘도값을 증가시킬 수 있다(단계 S1440). 따라서 감마 보정된 차분 값으로부터 촬상된 피사체(140) 이미지의 외곽선이 명확하게 될 수 있다. 여기서 차분 값은 모든 픽셀에 대해서 산출되며, 이하 단계들은 각 픽셀마다 개별적으로 수행된다. In operation S1430, the
단계 S1450에서, 외곽선 추출부(1233)는 제1 영상데이터와 피사체영상데이터의 차분 값이 미리 설정된 기준 휘도값보다 큰지 여부를 체크한다. 차분 값이 미리 설정된 기준 휘도값 보다 큰 경우에는 이러한 픽셀은 피사체의 일단에 상응하는 외곽선으로 추출된다. 그러나 차분 값이 미리 설정된 기준 휘도값 보다 작은 경우에는 다음 픽셀에 대한 차분값에 대해서 미리 설정된 기준 휘도값보다 큰지 여부를 체크하며, 픽셀들에 대한 차분값이 미리 설정된 기준 휘도값보다 작은 경우 처음 단계로 돌아가서 전 단계가 다시 반복될 수 있다. 기준 휘도값은 상술한 바와 같이 고정적 또는 기준픽셀 개수에 대응하여 설정될 수 있다. In operation S1450, the
단계 S1460에서, 외곽선 추출부(1233)는 제1 영상데이터와 상기 피사체영상데이터의 차분 값이 미리 설정된 기준 휘도값보다 큰 좌표값으로부터 피사체(140)의 일단에 상응하는 외곽선을 추출하여 저장부(1240)에 저장한다. 외곽선 추출부(1233)에서 제1 영상데이터와 피사체영상데이터의 차분 값이 미리 설정된 기준 휘도값보다 큰지 여부를 체크하여 외곽선을 추출하는 방법은 상술한 바, 여기에서는 이에 대한 상세한 설명은 생략한다. In operation S1460, the
단계 S1470에서, 중심 판단부(1237)는 촬상된 피사체(140)의 외곽선을 이용해서 이미지 중심점을 산출하여 저장부(1240)에 저장한다. 즉, 상술한 무게 중심을 구하거나, 추출된 피사체의 외곽선으로부터 곡률 반경을 산출하고 해당 곡률 반경 에 상응하는 중심점의 좌표값을 추출할 수 있다. 또는 곡률 반경을 별도로 산출하지 않고, 피사체의 윤곽이 형성하는 원형의 외곽선을 나타내는 각 픽셀 간의 거리를 계산하고, 계산된 각 픽셀의 거리가 가장 큰 두 픽셀의 중간값을 이용하여 현재 중심점의 좌표값을 추출할 수도 있다. 이외에도 미리 설정된 다양한 방법에 의해 현재 중심점의 좌표값이 추출될 수 있다. In operation S1470, the
단계 S1480에서, 제2 피사체 판단부(1239-1)는 추출된 외곽선을 이용하여 피사체(140)의 움직임을 판단하고, 상응하는 기능수행명령(예를 들어, 클릭기능수행명령 또는 포인터크기변경명령 등)을 생성하여 메인 제어부(도시되지 않음)로 출력할 수 있다. 제2 피사체 판단부(1239-1)에서 기능수행명령을 생성하는 방법은 도 2를 참조하여 설명한 제1 피사체 판단부(236)에서 기능수행명령을 생성하는 방법과 동일 또는 유사하나, 제2 피사체 판단부(1239-1)는 제m 외곽선을 이용하여 제m 중심점이동정보를 생성하는 것이 상이하다. In operation S1480, the second subject determiner 1239-1 determines the movement of the subject 140 by using the extracted outline, and executes a corresponding function execution command (for example, a click function execution command or a pointer size change command). Etc.) may be generated and output to a main controller (not shown). The method of generating the function execution command in the second subject determination unit 1239-1 is the same as or similar to the method of generating the function execution command in the first
또한, 단계 S1480과 무관하게 포인터 위치 설정부(1239)는 산출된 중심점을 이용하여 포인터가 중심점의 좌표에 상응하도록 위치되도록 제어할 수 있음은 상술한 바와 같다.In addition, as described above, the pointer
도 15는 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에 의해 생성된 이미지를 도시한 도면이다. FIG. 15 is a diagram illustrating an image generated by a subject motion detecting mouse according to another exemplary embodiment of the present invention.
도 15를 참조하면, 원본 이미지(1510), 선명도 조절된 이미지(1520), 차분 값에 대해 감마 보정된 이미지(1530), 추출된 중심점(1540) 및 원형 외곽선(1550) 이 도시된다. Referring to FIG. 15, an
원본 이미지(1510)에서 피사체(140)인 사용자의 손가락 일단은 둥근 형상을 가지고 있다. 이후 심도에 따라서 선명도를 조절하면, 선명도 조절된 이미지(1520)에서 보이는 바와 같이 초점 거리에 유사한 위치에 있는 피사체(사용자 손가락)의 외곽선은 선명도가 커지며, 그렇지 않은 배경은 선명도가 상대적으로 작다. 이후 원본 이미지(1510)와 선명도 조절된 이미지(1520)의 차분 값을 구한 후 전체적으로 감마값을 높게 하면, 감마 보정된 이미지(1530)에서 선명도가 큰 사용자의 손가락 일단의 윤곽만 보이게 된다. 따라서, 피사체의 윤곽인 원형 외곽선으로부터 상술한 중심점의 좌표값을 추출하고 디스플레이부의 포인터의 위치를 추출한 중심점의 좌표값으로 설정할 수 있다. One end of the user's finger, which is the subject 140, in the
도 16은 배경의 명도가 큰 경우 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에 의해 생성된 이미지를 도시한 도면이며, 도 17는 배경의 명도가 작은 경우 본 발명의 다른 실시예에 따른 피사체 움직임 감지 마우스에 의해 생성된 이미지를 도시한 도면이다. FIG. 16 is a view illustrating an image generated by a subject motion detecting mouse according to another embodiment of the present invention when the brightness of the background is large, and FIG. 17 illustrates a subject according to another embodiment of the present invention when the brightness of the background is small. A diagram illustrating an image generated by a motion sensing mouse.
도 16 및 도 17를 참조하면, 원본 이미지(1610, 1710), 선명도 조절된 이미지(1620, 1720), 감마 보정된 이미지(1630, 1730), 추출된 중심점 및 원형 외곽선(1640, 1440)이 도시된다. 16 and 17,
도 16을 참조하면, 배경의 명도에 관계없이 피사체(10)의 윤곽이 추출될 수 있다. 즉, 선명도(sharpness)를 조절하는 경우 피사체(140)인 손가락의 윤곽뿐만 아니라 직선형으로 형성된 배경 광원이 문제될 수도 있으나, 실제 실험 결과 배경 영상이 미치는 영향이 작아서 손가락의 윤곽을 추출하는데 문제가 없는 것으로 나타났다.Referring to FIG. 16, the outline of the subject 10 may be extracted regardless of the brightness of the background. That is, when adjusting sharpness, not only the contour of the finger, which is the subject 140, but also a background light source formed in a straight line shape may be a problem. Appeared.
또한, 도 17을 참조하면, 손가락인 피사체(140)를 눕혀서 원형이 아닌, 즉, 외곽선이 반원인 경우에도 경계값인 피사체의 윤곽이 추출될 수 있다. 따라서, 본 발명의 실시예에 따르면, 하나의 영상 프레임만을 가지고도 이미지의 심도를 이용하여 피사체(140)의 이동 여부 및 이동 위치의 좌표값을 구할 수 있다. In addition, referring to FIG. 17, even when the subject 140, which is a finger, is lying down, the contour of the subject, which is a boundary value, may be extracted even when the object is not circular, that is, the outline is a semicircle. Therefore, according to an exemplary embodiment of the present invention, even if only one image frame is used, whether the subject 140 is moved or the coordinate value of the movement position may be obtained using the depth of the image.
상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.Preferred embodiments of the present invention described above are disclosed for purposes of illustration, and those skilled in the art will be able to make various modifications, changes, and additions within the spirit and scope of the present invention. Additions should be considered to be within the scope of the following claims.
상술한 바와 같이, 본 발명에 따르면 촬상부를 구비한 마우스를 이용하여 각종 키입력이 행해질 수 있는 효과가 있다. As described above, according to the present invention, there is an effect that various key inputs can be performed using a mouse provided with an imaging unit.
또한, 본 발명은 기존 마우스의 키버튼의 일부를 생략할 수 있음으로써 마우스의 공간적인 활용도를 높일 수 있고, 마우스의 소형화가 가능한 효과도 있다. In addition, the present invention can omit a part of the key button of the existing mouse can increase the spatial utilization of the mouse, there is an effect that can be miniaturized the mouse.
또한, 본 발명은 마우스의 키버튼을 생략하여 마우스의 제조시 제조 공정이 간단해지고 그 제조 단가를 줄일 수 있는 효과도 있다.In addition, the present invention also has the effect of simplifying the manufacturing process at the time of manufacturing the mouse by reducing the key button of the mouse can reduce the manufacturing cost.
또한, 본 발명은 투명판 위에서도 사용 가능하며 협소한 공간에서도 사용이 가능한 있는 효과도 있다. In addition, the present invention can also be used on a transparent plate and there is an effect that can be used in a narrow space.
상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.Preferred embodiments of the present invention described above are disclosed for purposes of illustration, and those skilled in the art will be able to make various modifications, changes, and additions within the spirit and scope of the present invention. Additions should be considered to be within the scope of the following claims.
Claims (26)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060138427A KR100864288B1 (en) | 2006-12-29 | 2006-12-29 | Mouse for sensing moving of subject and Method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060138427A KR100864288B1 (en) | 2006-12-29 | 2006-12-29 | Mouse for sensing moving of subject and Method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080062510A KR20080062510A (en) | 2008-07-03 |
KR100864288B1 true KR100864288B1 (en) | 2008-10-20 |
Family
ID=39814636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060138427A KR100864288B1 (en) | 2006-12-29 | 2006-12-29 | Mouse for sensing moving of subject and Method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100864288B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030025026A (en) | 2001-09-19 | 2003-03-28 | 전자부품연구원 | Method and apparatus for detecting the motion of a subject from compressed data using a wavelet algorithm |
-
2006
- 2006-12-29 KR KR1020060138427A patent/KR100864288B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030025026A (en) | 2001-09-19 | 2003-03-28 | 전자부품연구원 | Method and apparatus for detecting the motion of a subject from compressed data using a wavelet algorithm |
Also Published As
Publication number | Publication date |
---|---|
KR20080062510A (en) | 2008-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180039821A1 (en) | Combining images aligned to reference frame | |
JP2011510383A (en) | Apparatus and method for touch user interface using image sensor | |
KR101642402B1 (en) | Apparatus and method for capturing digital image for guiding photo composition | |
KR102627014B1 (en) | electronic device and method for recognizing gestures | |
KR100853024B1 (en) | Apparatus for controlling image in display and method thereof | |
KR20080032746A (en) | Device and method for motion recognition | |
KR100860331B1 (en) | Electronic device having apparatus for controlling moving of pointer | |
US9310903B2 (en) | Displacement detection device with no hovering function and computer system including the same | |
KR20210101049A (en) | The electronic device and the method for recognizing the object | |
KR20090111913A (en) | Motion detecting method and apparatus | |
KR20100091844A (en) | Photographing apparatus and photographing method | |
KR100864288B1 (en) | Mouse for sensing moving of subject and Method thereof | |
KR20080007991A (en) | Optical pointing apparatus and mobile terminal having the same | |
KR100869144B1 (en) | Apparatus for sensing scrolling of subject and Method thereof | |
KR100799907B1 (en) | Apparatus for sensing moving of subject and method thereof | |
KR20150005094A (en) | Electronic device and method for detection eye region in electronic device | |
KR20080079459A (en) | Apparatus for sensing moving of subject and method thereof | |
KR100829142B1 (en) | Apparatus for sensing moving of subject and method thereof | |
KR100799766B1 (en) | Apparatus for controlling moving of pointer | |
KR20080045577A (en) | Apparatus for sensing scrolling of subject and method thereof | |
KR20080045578A (en) | Apparatus for sensing clicking of subject and method thereof | |
JPH07234755A (en) | Coordinate input means and information processor | |
KR100864287B1 (en) | Apparatus for sensing moving of subject and Method thereof | |
KR20080063661A (en) | Optical inputting apparatus | |
KR20080037312A (en) | Apparatus for controlling moving of pointer and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121011 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20130926 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20140929 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20151001 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20181001 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20190925 Year of fee payment: 12 |