KR20150135823A - An input device using head movement - Google Patents

An input device using head movement Download PDF

Info

Publication number
KR20150135823A
KR20150135823A KR1020140062834A KR20140062834A KR20150135823A KR 20150135823 A KR20150135823 A KR 20150135823A KR 1020140062834 A KR1020140062834 A KR 1020140062834A KR 20140062834 A KR20140062834 A KR 20140062834A KR 20150135823 A KR20150135823 A KR 20150135823A
Authority
KR
South Korea
Prior art keywords
head
user
movement
unit
motion
Prior art date
Application number
KR1020140062834A
Other languages
Korean (ko)
Other versions
KR101588021B1 (en
Inventor
이길재
Original Assignee
주식회사 매크론
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 매크론 filed Critical 주식회사 매크론
Priority to KR1020140062834A priority Critical patent/KR101588021B1/en
Publication of KR20150135823A publication Critical patent/KR20150135823A/en
Application granted granted Critical
Publication of KR101588021B1 publication Critical patent/KR101588021B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Abstract

The present invention relates to a head mouse having an improved structure to increase convenience of a user, when performing a command operation of click, drag, double click, and so on. According to the present invention, the head mouse comprises: a movement detector mounted on a head of a user for detecting movement of the head of the user; a unit signal input device mounted on a hand of the user for outputting an on/off signal, according to movement of the hand of the user; and a mouse command analysis unit for analyzing the movement of the head detected in the movement detector, and the signal outputted in the unit signal input device, and delivering a control signal in response to the movement of the head and the signal to an electronic device.

Description

헤드 마우스{An input device using head movement}An input device using head movement

본 발명은 전자기기 디바이스에 명령을 입력하기 위한 입력장치에 관한 것으로, 보다 상세하게는 사용자의 머리 움직임을 이용하여 명령을 이용하는 헤드 마우스에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an input device for inputting an instruction to an electronic device device, and more particularly to a head mouse using an instruction using a user's head motion.

1980년대 컴퓨팅 디바이스의 입력장치로 마우스가 도입된 이후, 마우스는 컴퓨터의 입력장치로서 중요한 역할을 수행하고 있다. 마우스는 디스플레이상의 원하는 위치로 가서 해당 위치의 메뉴를 선택할 수 있는 위치 기반 명령 입력 장치의 대표적인 장치이다. 현재까지도, 컴퓨터 작업을 수행하기 위해서는 마우스 없이 작업이 불가능할 정도로 필수적인 장치가 되었다.Since the introduction of mice as input devices for computing devices in the 1980s, mice have played an important role as input devices for computers. A mouse is a representative device of a location-based command input device that can go to a desired location on the display and select a menu at that location. Until now, it has become an indispensable device in order to perform computer tasks without the mouse.

하지만 마우스는 마우스 패드 위에서의 마우스의 상대 위치를 이용하기 때문에 항상 손을 마우스 패드가 위치하는 책상 위에 올려놓아야 하고, 장시간 마우스를 잡는 자세의 피로로부터 기인하는 손목 증후군과 같은 불편함이 존재한다. 최근에는 디스플레이에 컴퓨터 기능을 더한 스마트 디스플레이 장치가 일반화되어 있고, 스마트 디스플레이는 이동하면서 명령 입력이 가능해야 하는 특징이 있다. 기존의 마우스는 이와 같은 이동환경에서 동작시키는 데는 문제가 있다. However, since the mouse relies on the relative position of the mouse on the mouse pad, the user must always place his / her hand on the desk where the mouse pad is located, and there is such a discomfort as the wrist syndrome caused by the fatigue of holding the mouse for a long time. In recent years, a smart display device having a computer function added to a display has been generalized, and a smart display has a feature of being able to input a command while moving. Conventional mice have a problem in operating in such a mobile environment.

한편, 최근에는 모바일 시장의 또 다른 혁신을 가져올 수 있는 디바이스로서 웨어러블 컴퓨터의 시장이 커지고 있다. 웨어러블 컴퓨터는 디바이스를 손에 들고 다닐 필요 없이 몸에 착용하고 다니기 때문에 이동성을 높일 수 있고, 손이 자유로운 상태에서 스마트 디스플레이 디바이스를 작동시킬 수 있다. 특히, 웨어러블 컴퓨터 중 구글 글라스와 같은 스마트 안경의 경우, 기존의 터치 스크린 입력 방법을 사용할 수 없다. 따라서 새로운 형태의 입력방법이 요구된다.On the other hand, the market of wearable computers is increasing as a device that can bring about another innovation of the mobile market in recent years. The wearable computer can increase the mobility because the wearable computer wears the device without having to carry it in the hand, and can operate the smart display device with the hands free. Especially, smart glasses such as Google Glass among wearable computers can not use the conventional touch screen input method. Therefore, a new type of input method is required.

이와 관련하여, 본 출원인은 안경형 디스플레이 디바이스용 마우스 장치에 관한 특허 등록번호 10-1370027호(이하, 선행기술)를 출원하였고, 이를 등록받은 바 있다. 상기 선행기술에서는, 안경에 부착된 카메라를 이용하여 손가락을 촬영하고, 이 손가락의 움직임 궤적을 명령신호로 사용한다.In this connection, the present applicant filed and filed a patent application No. 10-1370027 (hereinafter referred to as prior art) for a mouse device for a spectacled display device. In the prior art, a finger is photographed using a camera attached to the eyeglasses, and the motion locus of the finger is used as a command signal.

하지만, 이와 같이 손가락의 움직임 궤적만을 이용하여 명령을 하는 경우, 클릭, 드래그, 더블클릭과 같이, 기존 마우스의 버튼을 사용하는 명령신호를 출력하기 위해서는, 사용자가 특별한 제스쳐를 취해야 하기 때문에, 다소 불편함이 따른다는 문제점이 있다.However, in order to output a command signal using a button of an existing mouse, such as a click, a drag, or a double click, when an instruction is made using only the motion trajectory of the finger, the user must take a special gesture. There is a problem that it is complicated.

등록특허 10-1370027호(안경형 디스플레이 디바이스용 마우스 장치 및 그 구동방법)10-1370027 (Mouse device for a spectacled display device and driving method thereof)

본 발명은 상기한 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 클릭, 드래그, 더블클릭 등의 명령동작을 수행함에 있어서, 사용자의 편의성이 증대되도록 구조가 개선된 헤드 마우스를 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a head mouse having a structure improved to improve user's convenience in performing a command operation such as a click, a drag and a double click .

본 발명에 따른 헤드 마우스는 사용자의 머리에 장착되며, 상기 사용자의 머리 움직임을 측정하는 움직임 측정기와, 상기 사용자의 손에 장착되며, 상기 사용자의 손의 움직임에 따라 on/off 신호를 출력하는 단위신호입력기와, 상기 움직임 측정기에서 측정된 머리 움직임과, 상기 단위신호입력기에서 출력된 신호를 해석하여 대응되는 제어신호를 전자기기 디바이스로 전달하는 마우스 명령 해석부를 포함하는 것을 특징으로 한다.A head mouse according to the present invention is a head mouse which is mounted on a head of a user and includes a motion detector for measuring a head movement of the user, a unit mounted on the hand of the user and outputting an on / off signal And a mouse command analyzing unit for analyzing the head movement measured by the motion measuring unit and the signal output from the unit signal inputting unit and transmitting a corresponding control signal to the electronic device device.

본 발명에 따르면, 상기 움직임 측정기는, 상기 사용자의 머리에 장착되어 복수의 연속 영상을 촬영하는 영상촬영부와, 상기 영상촬영부에서 촬영된 연속 영상들로부터 상기 머리 움직임을 산출하는 분석부를 포함하는 것이 바람직하다.According to another aspect of the present invention, there is provided a motion measuring apparatus comprising: an image capturing unit mounted on a head of a user for capturing a plurality of continuous images; and an analyzing unit for calculating the head movement from the continuous images captured by the image capturing unit .

또한, 본 발명에 따르면 상기 분석부는 복수의 연속 영상간의 매칭을 통하여 상기 영상의 이동량을 계산함으로써 상기 사용자의 머리 움직임을 산출하는 것이 바람직하다.According to the present invention, it is preferable that the analyzing unit calculates the head movement of the user by calculating the movement amount of the image through matching between a plurality of consecutive images.

또한, 본 발명에 따르면 상기 움직임 측정기는, 상기 사용자의 머리에 장착되며, 사용자 머리의 움직임 각도를 측정하는 각속도 센서를 더 포함하며, 상기 분석부는 영상의 이동량과 상기 각속도 센서에서 측정된 움직임 각도를 이용하여 상기 사용자의 머리 움직임을 산출하는 것이 바람직하다.According to the present invention, the motion measuring device further includes an angular velocity sensor mounted on the head of the user for measuring a motion angle of the user's head, wherein the analyzing unit measures a movement amount of the image and a motion angle measured by the angular velocity sensor It is preferable to calculate the head movement of the user.

또한, 본 발명에 따르면 상기 단위신호입력기는 손가락의 접촉여부를 감지하는 접촉센서를 포함하는 것이 바람직하다.In addition, according to the present invention, the unit signal input device preferably includes a touch sensor for detecting whether or not a finger is touched.

또한, 본 발명에 따르면 상기 접촉센서는 복수로 구비되는 것이 바람직하다.According to the present invention, it is preferable that a plurality of contact sensors are provided.

또한, 본 발명에 따르면 상기 단위신호입력기는 상기 사용자가 손을 흔드는지 여부를 감지할 수 있는 가속도 센서를 포함하는 것이 바람직하다.In addition, according to the present invention, the unit signal input device preferably includes an acceleration sensor capable of sensing whether the user shakes his or her hand.

본 발명에 따르면, 클릭, 드래그, 더블클릭 등의 명령동작을 수행함에 있어서, 사용자의 편의성이 증대된다.According to the present invention, the convenience of the user is enhanced in performing a command operation such as a click, a drag, and a double click.

도 1은 본 발명의 일 실시예에 따른 헤드 마우스의 개략적인 구성도이다.
도 2는 머리를 움직였을 때 촬영되는 영상들의 예를 보여주는 도면이다.
도 3은 머리를 하방으로 움직일 때 카메라로 입력되는 영상을 보여주며, 영상간의 매칭으로 움직임 벡터를 구한 예를 보여주는 도면이다.
도 4는 머리를 왼쪽으로 움직일 때 카메라로 입력되는 영상을 보여주며, 영상간의 매칭으로 움직임 벡터를 구한 예를 보여주는 도면이다.
도 5는 단위명령 입력기를 검지 손가락에 장착한 예를 보여주는 도면이다.
도 6은 단위명령 입력기에 장착된 5개의 접촉센서를 보여주는 도면이다.
1 is a schematic block diagram of a head mouse according to an embodiment of the present invention.
2 is a view showing an example of images taken when the head is moved.
FIG. 3 is a diagram illustrating an example of an image input to a camera when a head is moved downward, and a motion vector is obtained by matching images.
FIG. 4 is a view showing an example of a motion vector obtained by matching between images, showing an image input to the camera when the head is moved to the left.
5 is a diagram showing an example in which a unit command input device is mounted on a index finger.
6 is a view showing five touch sensors mounted on a unit command input device.

기존의 마우스의 기능은 화면상의 위치에 따른 메뉴를 선택하기 위해 화면상에서 커서의 위치를 이동시키는 위치 이동 기능과, 커서 위치에 해당하는 명령들을 주기 위한 클릭, 드래그, 스크롤 등의 단위명령 기능을 포함한다. 커서의 위치를 이동시키기 위해서는 이에 상응하는 물체의 이동을 통해 명령을 입력해야 하는데, 기존의 마우스 방법은 마우스를 2차원 평면상에서 이동시키는 방법이다. 이를 위해서 마우스를 편평한 책상 위에서 움직이는 방법이 사용되었다. 그리고 단위 명령 입력을 위한 버튼은, 마우스와 동일한 디바이스에 장착되었다. 다만, 기존의 마우스는 책상 위에 손을 위치시켜야만 하는 제약이 있어 모바일 환경에서는 작동시키기 힘들다.The existing functions of the mouse include a position shift function for moving the cursor position on the screen to select a menu according to the position on the screen and a unit command function for clicking, dragging, and scrolling to give commands corresponding to the cursor position do. In order to move the position of the cursor, a command must be inputted through the movement of the corresponding object. The conventional mouse method is a method of moving the mouse on a two-dimensional plane. For this purpose, a method of moving the mouse on a flat desk was used. The button for unit command input is mounted on the same device as the mouse. However, the conventional mouse has a limitation that it is necessary to place a hand on a desk, making it difficult to operate in a mobile environment.

본 발명에서는 마우스 기능을 마우스의 위치에 구애받지 않고 동작시키기 위해, 커서의 위치 이동 기능과 단위명령 입력 기능을 분리하여 구현하고자 한다. 보다 구체적으로는, 손으로는 2차원적인 움직임이 필요 없는 단위 명령 입력 기능만을 구현하고, 2차원적인 위치 입력이 필요한 커서 위치 이동 기능은 머리의 움직임으로 구현한다. 이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 헤드 마우스에 관하여 구체적으로 설명한다.In the present invention, a cursor movement function and a unit command input function are separated and implemented in order to operate the mouse function regardless of the position of the mouse. More specifically, the present invention implements only a unit command input function that does not require a two-dimensional movement by a hand, and a cursor position movement function that requires a two-dimensional position input is implemented as a head movement. Hereinafter, a head mouse according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 헤드 마우스의 개략적인 구성도이며, 도 2는 머리를 움직였을 때 촬영되는 영상들의 예를 보여주는 도면이며, 도 3은 머리를 하방으로 움직일 때 카메라로 입력되는 영상을 보여주며, 영상간의 매칭으로 움직임 벡터를 구한 예를 보여주는 도면이며, 도 4는 머리를 왼쪽으로 움직일 때 카메라로 입력되는 영상을 보여주며, 영상간의 매칭으로 움직임 벡터를 구한 예를 보여주는 도면이며, 도 5는 단위명령 입력기를 검지 손가락에 장착한 예를 보여주는 도면이며, 도 6은 단위명령 입력기에 장착된 5개의 접촉센서를 보여주는 도면이다.FIG. 2 is a view showing an example of images taken when a head is moved. FIG. 3 is a view showing an example of a head mouse according to an embodiment of the present invention, FIG. 4 shows an example of a motion vector obtained by matching between images. FIG. 4 illustrates an example of an image input to the camera when the head is moved to the left, and a motion vector is obtained by matching images. FIG. 5 is a view showing an example in which a unit command input device is mounted on a index finger, and FIG. 6 is a view showing five touch sensors mounted on a unit command input device.

도 1 내지 도 6을 참조하면, 본 실시예에 따른 헤드 마우스(100)는 움직임 측정기(10)와, 단위신호입력기(20)와, 마우스 명령 해석부(30)를 포함한다.Referring to FIGS. 1 to 6, the head mouse 100 according to the present embodiment includes a motion detector 10, a unit signal input unit 20, and a mouse command analysis unit 30.

움직임 측정기(10)는 커서의 위치 이동 기능을 구현하기 위한 것으로, 움직임 측정기(10)는 사용자의 머리 움직임을 측정한다. 본 실시예의 경우, 움직임 측정기(10)는 영상촬영부(11)와, 분석부(12)와, 각속도센서(13)를 포함한다.The motion estimator 10 is for realizing the position shifting function of the cursor, and the motion meter 10 measures the head motion of the user. In the case of the present embodiment, the motion measuring instrument 10 includes an image photographing section 11, an analyzing section 12, and an angular velocity sensor 13.

영상촬영부(11)는 영상을 촬영하는 것으로, 카메라(예를 들어, 2차원 카메라)를 의미한다. 영상촬영부(11)는 사용자의 머리에 장착되는데, 예를 들어 안경(구글 글라스 등) 등에 결합되어 사용자의 머리에 장착될 수 있다. 영상촬영부(11)는 사용자의 시선 전방의 영상을 연속적으로 촬영한다.The image capturing unit 11 captures an image, which means a camera (for example, a two-dimensional camera). The image capturing unit 11 is mounted on the head of the user, and can be attached to the user's head, for example, coupled to glasses (such as a Google glass). The image capturing unit 11 continuously captures an image ahead of the user's gaze.

분석부(12)는 영상촬영부(11)에서 촬영된 연속 영상들로부터 머리 움직임을 산출하는 것이다. 보다 구체적으로 설명하면 머리를 움직이면서 연속적으로 영상을 촬영하면, 도 2와 같이 영상 내의 물체들이 영상 내에서 이동한다. 이때, 영상으로 촬영된 물체들이 정지되어 있는 물체라면(즉, 고정된 물체), 각 영상(프레임) 간 영상 내의 물체들의 움직임 벡터(즉, 영상의 이동량)를 도3 및 도4와 같이 구하고, 이를 머리의 움직임으로 구할 수 있다. The analysis unit 12 calculates head movement from the continuous images captured by the image capturing unit 11. More specifically, when an image is continuously captured while moving the head, objects in the image move in the image as shown in FIG. 3 and 4, motion vectors of objects in an image between frames (i.e., fixed objects) are obtained as shown in FIGS. 3 and 4, This can be obtained by moving the head.

그리고, 영상 내에 이동하는 물체가 포함되어 있을 경우에도 동작하기 위해서는 움직임 벡터를 구하는 부분을 도3, 도4와 같이 영상 내의 여러 부분에서 매칭시키고, 구해진 부분 움직임 벡터들의 통계치로부터 머리의 움직임을 구할 수 있다.In order to operate even when an object moving within the image is included, a part for obtaining a motion vector is matched at various parts in the image as shown in FIG. 3 and FIG. 4, and the motion of the head is obtained from the statistics of the obtained partial motion vectors have.

또한, 마우스의 특징상 사용자가 모니터를 보고 있을 경우가 많으며, 이에 촬영된 영상 내에 모니터가 포함되는 경우가 많다. 이런 경우, 모니터 내의 화면이 변할 수 있고, 이와 같은 화면의 변화로 인해 움직임 벡터의 산출시 오차가 발생할 수 있다. 따라서, 움직임 벡터를 구함에 있어, 모니터 내에서의 영상 움직임을 무시할 필요가 있다. 이를 위해, 영상해석을 통해 모니터를 인식하고, 모니터 내에서 일어나는 움직임은, 움직임 벡터를 계산하는 과정에서 빼고 머리 움직임을 구하는 것이 바람직하다. 참고로, 모니터는 그 형상(사각형)과, 모니터가 켜진 경우 주변 보다 밝다거나, 화소(색상) 변화가 크다는 것 등을 이용하여 모니터 영역을 인식할 수 있다.In addition, in many cases, the user sees a monitor on the basis of the characteristics of a mouse, and a monitor is often included in the captured image. In such a case, the screen in the monitor may change, and an error may occur in calculation of the motion vector due to such a change in the screen. Therefore, in finding the motion vector, it is necessary to ignore the motion of the image in the monitor. For this purpose, it is desirable to recognize the monitor through image analysis, and to calculate the motion occurring in the monitor, excluding the process of calculating the motion vector, and the head movement. For reference, the monitor can recognize the monitor area by using its shape (square), the brightness of the monitor when it is turned on, the change of pixel (color), etc.

한편, 앞서 언급한 바와 같이, 촬영되는 영상 내에 움직이는 물체(예를 들어, 자동차)가 포함되어 있거나, 혹은 사용자가 이동수단(자동차, 에스컬레이터 등)을 타고 이동하고 있는 경우에는, 사용자가 실제로 머리를 움직이지 않았음에도 불구하고 촬영되는 영상이 변경되기 때문에, 분석부에서 움직임 벡터를 구할 때 오차가 발생할 수 있다.On the other hand, as mentioned above, when a moving object (for example, a car) is included in the image to be photographed, or the user is moving on a moving means (such as an automobile or an escalator) Since the image to be photographed is changed even though it is not moving, an error may occur when a motion vector is calculated by the analyzing unit.

이를 해결하기 위하여, 본 발명에 따른 움직임 측정기(10)는 각속도 센서(13)를 더 포함한다. 각속도 센서(13)는 안경 등에 결합되어 사용자의 머리에 장착되며, 사용자가 머리를 움직인 각도를 측정한다. 그리고, 분석부(12)에서는 각속도 센서(13)에서 측정된 각도와, 영상의 이동량을 함께 고려하여, 머리의 움직임을 산출한다.In order to solve this problem, the motion measuring device 10 according to the present invention further includes an angular velocity sensor 13. The angular velocity sensor 13 is attached to the user's head by being coupled to glasses or the like, and measures the angle at which the user moves the head. The analysis unit 12 calculates the movement of the head in consideration of both the angle measured by the angular velocity sensor 13 and the movement amount of the image.

예를 들어, 영상 내의 여러 부분을 매칭하여 복수의 움직임 벡터를 구하였을 때, 각속도 센서에서 측정된 움직인 방향(각도 변화)와 반대되는 부분은, 머리 움직임이 아닌 다른 이유(즉, 물체가 직접 움직이는 등의 이유)에 의해 발생되는 것이기 때문에, 이를 제외하고 움직임 벡터를 산출하면 보다 신뢰성이 있는 머리 움직임을 구할 수 있다.For example, when a plurality of motion vectors are obtained by matching a plurality of parts in an image, the part opposite to the moving direction (angle change) measured by the angular velocity sensor is different from the reason Motion, etc.), and therefore a more reliable head motion can be obtained by calculating a motion vector.

한편, 카메라나 각속도 센서들은 웨어러블 컴퓨터로 주목받고 있는 스마트 안경에 기본적으로 장착되어 있는 경우가 많으므로, 스마트 안경을 이용할 시에는 적은 비용으로 상기의 기능을 구현할 수 있다.On the other hand, since cameras and angular velocity sensors are basically attached to smart glasses that are attracting attention as a wearable computer, the above functions can be implemented with a small cost when smart glasses are used.

단위신호입력기(20)는 클릭 명령, 드래그 명령 등을 수행하기 위하여, on/off 신호를 출력하는 것이다. 도 5에 도시된 바와 같이, 단위신호입력기(20)는 사용자의 손, 보다 정확하게는 손가락에 착용될 수 있도록 구성된다. 그리고, 단위신호입력기(20)에는 손가락이 접촉되었는지 여부를 감지하는 접촉센서가 마련되는데, 특히 본 실시예의 경우 도 6에 도시된 바와 같이 5개의 접촉센서(P0~P4)가 십자 형태로 배치된다. The unit signal input device 20 outputs an on / off signal to perform a click command, a drag command, and the like. As shown in FIG. 5, the unit signal input device 20 is configured to be worn on the user's hand, more precisely on the finger. In addition, in the unit signal input device 20, a contact sensor for detecting whether or not a finger is touched is provided. In this embodiment, as shown in FIG. 6, five contact sensors P0 to P4 are arranged in a cross shape .

그리고, 각 접촉센서는 접촉여부를 감지하고, 이에 대응되는 on/off 신호를 출력한다. 예를 들어, 손가락을 접촉하면 on, 손가락이 접촉되지 않으면 off 신호를 출력한다. 한편, 본 실시예와 같이 복수의 접촉센서를 배치하면, 손가락이 움직이는 방향을 알 수 있다. 예를 들어, 손가락을 위에서 아래로 움직이면, P2, P0, P4 접촉센서에서 순차적으로 on 신호가 출력된다. 그리고, 손가락을 좌에서 우로 움직이면, P3, P0, P1 접촉센서에서 순차적으로 on 신호가 출력된다. Each touch sensor senses contact and outputs a corresponding on / off signal. For example, when the finger is touched, it is turned on, and when the finger is not touched, the off signal is outputted. On the other hand, when a plurality of contact sensors are arranged as in this embodiment, the direction in which the finger moves can be known. For example, if you move your finger from top to bottom, the P2, P0, and P4 contact sensors sequentially output an on signal. When the finger is moved from the left to the right, an on signal is sequentially output from the touch sensors P3, P0, and P1.

한편, 상기한 단위신호입력기에서 출력되는 신호는 커서온 명령, 클릭 명령, 드래그 명령 등으로 사용될 수 있다. 예를 들어, 손가락을 접촉센서에 두 번 연속 접촉했다가 떼었을 경우를 커서온 명령으로 정할 수 있다. 이때 접촉에 따른 접촉센서 P0로부터 출력되는 신호(on/off)로 커서온 명령을 해석할 수 있다. 클릭 명령은 커서온 상태에서 엄지손가락을 단위신호입력기에 한번 접촉했다가 떼는 것으로 정할 수 있고, 센서 P0로부터의 신호를 해석하면 쉽게 알 수 있다. 드래그 명령은, 기존 마우스의 기능과 유사하게 엄지손가락을 단위신호입력기에 접촉한 채로 커서 위치 이동을 수행하고 떼었을 경우로 정할 수 있다. 스와이프 명령은 좌에서 우로 또는 우에서 좌로 엄지손가락을 단위신호입력기에 접촉한 채 이동하는 경우로 정할 수 있고, 단위신호입력기의 좌우에 해당하는 접촉센서의 순차적인 on/off 신호로 해석이 가능하다. 스크롤 명령은 스와이프 명령과 유사하게 상에서 하로 또는 하에서 상으로 엄지손가락을 접촉한 채로 이동하는 경우로 정할 수 있다. 그리고, 상기의 동작들은 직관적이고 손가락의 움직임이 극히 작으므로 주머니속이나 무릎위에서 마우스 명령들을 입력할 수 있고, 특히 모바일 환경에 적합하다고 할 수 있다.Meanwhile, the signal output from the unit signal input device may be used as a cursor-on command, a click command, a drag command, or the like. For example, you can set the cursor on command when the finger touches the touch sensor twice in succession. At this time, the cursor on command can be interpreted by the signal (on / off) outputted from the contact sensor P0 according to the contact. The click command can be determined by touching and releasing the thumb once to the unit signal input in the cursor on state, and can be easily understood by interpreting the signal from the sensor P0. The drag command can be set to a case where the cursor is moved and released while the thumb is in contact with the unit signal input device similar to the function of the existing mouse. The swipe command can be defined as moving from left to right or from right to left with touching the unit signal input device and can be interpreted as a sequential on / off signal of the touch sensor corresponding to the unit signal input device Do. The scroll command can be set to a case in which the user moves his / her thumb in the downward direction or the downward direction on the image similar to the swipe command. Since the above operations are intuitive and the movement of the fingers is extremely small, mouse commands can be input in the pocket or on the knee, which is suitable for a mobile environment.

한편, 단위신호입력기로 손(또는 손목)에 장착된 가속도 센서를 이용할 수 있다. 웨어러블 디바이스들중 일상생활에서의 운동량을 측정 관리하기 위해 손목에 차고 다니는 디바이스들이 많이 출시되고 있는데, 이들 디바이스들은 기본적으로 손목의 움직임을 감지할 수 있는 가속도 센서를 내장하고 있다. 가속도 센서를 이용하여 손목의 흔들림을 감지하고, 흔들림이 감지되면 on 신호를 출력하고, 흔들림이 감지되지 않으면 off 신호를 출력하도록 할 수 있다. 참고로, 손으로 물체(바닥이나 무릎)를 두드리는 동작의 경우 갑작스런 움직임으로 인해 가속도 센서의 값의 변화가 갑자기 커지게 되며, 따라서 손으로 두드리는 동작을 클릭동작으로 이용하면 센서 값의 변화를 해석하여 클릭신호를 발생할 수 있다. On the other hand, an acceleration sensor mounted on the hand (or wrist) can be used as the unit signal input device. Among the wearable devices, there are many devices worn on the wrist to measure and manage the momentum in daily life. These devices basically have an acceleration sensor that can detect the motion of the wrist. An acceleration sensor is used to sense the wobble of the wrist. When the wobble is detected, an on signal is output. If no wobble is detected, an off signal is output. For reference, in the case of tapping an object (bottom or knee) with a hand, the value of the acceleration sensor suddenly changes due to a sudden movement. Therefore, when the tapping operation is used as a click operation, Can generate a click signal.

마우스 명령 해석부(30)는 움직임 측정기(10)에서 산출된 머리 움직임과, 단위신호입력기(20)로부터 출력된 신호를 해석하고, 이에 대응되는 제어신호를 전자기기 디바이스로 출력한다. 예를 들어, 머리 움직임에 따라 마우스 커서가 이동되도록 제어신호를 출력하고, 단위신호입력기에서 출력되는 신호에 따라 클릭, 커서온, 드래그 등의 작업이 이루어지도록 제어신호를 출력한다.The mouse command interpreting unit 30 analyzes the head motion calculated by the motion measuring unit 10 and the signal output from the unit signal inputting unit 20 and outputs a control signal corresponding thereto to the electronic device device. For example, a control signal is output to move the mouse cursor according to the head movement, and a control signal is output so that clicking, cursor-on, and dragging operations are performed according to a signal output from the unit signal input device.

상술한 바와 같이, 본 발명에 따르면 종래의 마우스와 같이 사용자의 손을 책상 위에 올려놓지 않고도 전자기기 디바이스를 제어할 수 있다는 장점이 있다.As described above, according to the present invention, it is possible to control an electronic device device without placing a user's hand on a desk like a conventional mouse.

또한, 종래의 가상마우스에서는 단순 커서의 이동을 구현하는 것은 쉬었으나, 클릭이나 드래그 등의 동작을 구현하기가 매우 어려웠던 반면, 본 발명에서는 이를 용이하게 해결할 수 있다.In addition, in the conventional virtual mouse, it is easy to implement the movement of the simple cursor, but it is very difficult to implement the action such as clicking or dragging, but the present invention can solve this easily.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.

예를 들어, 움직임 측정기와 관련하여, 커서 위치 이동 기능을 구현하기 위해 머리 움직임을 계산하는 방법 중 가장 간단한 방법은 머리에 각속도 센서를 장착하는 방법이다. 각속도 센서는 x, y, z축의 움직인 각도량을 출력하므로 초기 위치에서 일정시간 동안 신호를 적분하면 움직인 각도를 구할 수 있다. 구해진 각도는 머리의 움직임을 나타내고, 캘리브레이션 과정을 거쳐 움직인 각도에 따라 커서의 위치를 이동할 수 있다. For example, with respect to a motion detector, the simplest method of calculating head motion to implement the cursor positioning function is to attach an angular velocity sensor to the head. Since the angular velocity sensor outputs the moving angle of the x, y, z axis, the moving angle can be obtained by integrating the signal for a certain time at the initial position. The obtained angle indicates the movement of the head, and the position of the cursor can be moved according to the moving angle through the calibration process.

100...헤드 마우스 10...움직임 측정기
11...영상촬영부 12...분석부
13...각속도 센서 20...단위신호입력기
30...마우스 명령 해석부
100 ... Head mouse 10 ... Motion detector
11 ... image capturing section 12 ... analysis section
13 ... angular velocity sensor 20 ... unit signal input device
30 ... Mouse command interpreting unit

Claims (7)

사용자의 머리에 장착되며, 상기 사용자의 머리 움직임을 측정하는 움직임 측정기;
상기 사용자의 손에 장착되며, 상기 사용자의 손의 움직임에 따라 on/off 신호를 출력하는 단위신호입력기; 및
상기 움직임 측정기에서 측정된 머리 움직임과, 상기 단위신호입력기에서 출력된 신호를 해석하여 대응되는 제어신호를 전자기기 디바이스로 전달하는 마우스 명령 해석부;를 포함하는 것을 특징으로 하는 헤드 마우스.
A motion detector mounted on a user's head for measuring a movement of the user's head;
A unit signal input unit mounted on the hand of the user and outputting an on / off signal according to movement of the user's hand; And
And a mouse command interpreter for interpreting the head movement measured by the motion detector and the signal output from the unit signal input device and transmitting a corresponding control signal to the electronic device device.
제1항에 있어서,
상기 움직임 측정기는,
상기 사용자의 머리에 장착되어 복수의 연속 영상을 촬영하는 영상촬영부와,
상기 영상촬영부에서 촬영된 연속 영상들로부터 상기 머리 움직임을 산출하는 분석부를 포함하는 것을 특징으로 하는 헤드 마우스.
The method according to claim 1,
The motion measuring device includes:
An image capturing unit mounted on the user's head for capturing a plurality of continuous images;
And an analyzer for calculating the head movement from the continuous images captured by the image capturing unit.
제2항에 있어서,
상기 분석부는 복수의 연속 영상간의 매칭을 통하여 상기 영상의 이동량을 계산함으로써 상기 사용자의 머리 움직임을 산출하는 것을 특징으로 하는 헤드 마우스.
3. The method of claim 2,
Wherein the analysis unit calculates the head movement of the user by calculating a movement amount of the image through matching between a plurality of consecutive images.
제3항에 있어서,
상기 움직임 측정기는, 상기 사용자의 머리에 장착되며, 사용자 머리의 움직임 각도를 측정하는 각속도 센서를 더 포함하며,
상기 분석부는 영상의 이동량과 상기 각속도 센서에서 측정된 움직임 각도를 이용하여 상기 사용자의 머리 움직임을 산출하는 것을 특징으로 하는 헤드 마우스.
The method of claim 3,
The motion meter further includes an angular velocity sensor mounted on the head of the user for measuring a motion angle of the user's head,
Wherein the analysis unit calculates the head movement of the user using the movement amount of the image and the movement angle measured by the angular velocity sensor.
제1항에 있어서,
상기 단위신호입력기는 손가락의 접촉여부를 감지하는 접촉센서를 포함하는 것을 특징으로 하는 헤드 마우스.
The method according to claim 1,
Wherein the unit signal input device includes a contact sensor for detecting whether or not a finger is touched.
제5항에 있어서,
상기 접촉센서는 복수로 구비되는 것을 특징으로 하는 헤드 마우스.
6. The method of claim 5,
Wherein the plurality of contact sensors are provided.
제1항에 있어서,
상기 단위신호입력기는 상기 사용자가 손을 흔드는지 여부를 감지할 수 있는 가속도 센서를 포함하는 것을 특징으로 하는 헤드 마우스.
The method according to claim 1,
Wherein the unit signal input device includes an acceleration sensor capable of sensing whether the user shakes his / her hand.
KR1020140062834A 2014-05-26 2014-05-26 An input device using head movement KR101588021B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140062834A KR101588021B1 (en) 2014-05-26 2014-05-26 An input device using head movement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140062834A KR101588021B1 (en) 2014-05-26 2014-05-26 An input device using head movement

Publications (2)

Publication Number Publication Date
KR20150135823A true KR20150135823A (en) 2015-12-04
KR101588021B1 KR101588021B1 (en) 2016-01-25

Family

ID=54867469

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140062834A KR101588021B1 (en) 2014-05-26 2014-05-26 An input device using head movement

Country Status (1)

Country Link
KR (1) KR101588021B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018190247A (en) * 2017-05-09 2018-11-29 船井電機株式会社 Display device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210078214A (en) 2019-12-18 2021-06-28 이형빈 Eyeglasses Mouse Device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067179A (en) * 1999-08-27 2001-03-16 Nec Corp Pointing device and computer system using the same
KR101000869B1 (en) * 2009-08-03 2010-12-13 한경대학교 산학협력단 Head mouse
CN203070220U (en) * 2012-09-25 2013-07-17 陈灶芳 Finger ring type mouse
KR101370027B1 (en) 2012-11-29 2014-03-06 주식회사 매크론 Mouse apparatus for eye-glass type display device and operating method for the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067179A (en) * 1999-08-27 2001-03-16 Nec Corp Pointing device and computer system using the same
KR101000869B1 (en) * 2009-08-03 2010-12-13 한경대학교 산학협력단 Head mouse
CN203070220U (en) * 2012-09-25 2013-07-17 陈灶芳 Finger ring type mouse
KR101370027B1 (en) 2012-11-29 2014-03-06 주식회사 매크론 Mouse apparatus for eye-glass type display device and operating method for the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018190247A (en) * 2017-05-09 2018-11-29 船井電機株式会社 Display device

Also Published As

Publication number Publication date
KR101588021B1 (en) 2016-01-25

Similar Documents

Publication Publication Date Title
JP6348211B2 (en) Remote control of computer equipment
CN107077227B (en) Intelligent finger ring
KR101302138B1 (en) Apparatus for user interface based on wearable computing environment and method thereof
KR101284797B1 (en) Apparatus for user interface based on wearable computing environment and method thereof
US20150220158A1 (en) Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion
KR101234111B1 (en) Apparatus for contact-free input interfacing and contact-free input interfacing method using the same
US20100103104A1 (en) Apparatus for user interface based on wearable computing environment and method thereof
AU2013347935A1 (en) Computing interface system
JP2010267220A (en) Ring type interface used for wearable computer, interface device and interface method
Nguyen et al. 3DTouch: A wearable 3D input device for 3D applications
JP6364790B2 (en) pointing device
US20140015750A1 (en) Multimode pointing device
KR101588021B1 (en) An input device using head movement
TWI493382B (en) Hand posture detection device for detecting hovering and click
KR101686585B1 (en) A hand motion tracking system for a operating of rotary knob in virtual reality flighting simulator
Colaço Sensor design and interaction techniques for gestural input to smart glasses and mobile devices
TWI573041B (en) Input device and electronic device
US20200409478A1 (en) Enhanced 2D/3D Mouse For Computer Display Interactions
WO2012114791A1 (en) Gesture operation system
US10466812B2 (en) Enhancing input on small displays with a finger mounted stylus
Romat et al. Demonstration of Flashpen: A high-fidelity and high-precision multi-surface pen for Virtual Reality
Takahashi et al. Extending Three-Dimensional Space Touch Interaction using Hand Gesture
Prabhakar et al. Comparison of three hand movement tracking sensors as cursor controllers
KR20130099708A (en) Input apparatus
CA2789926C (en) Slither sensor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181122

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191203

Year of fee payment: 5