KR101403845B1 - Input apparatus and method for using image information - Google Patents

Input apparatus and method for using image information Download PDF

Info

Publication number
KR101403845B1
KR101403845B1 KR1020090021998A KR20090021998A KR101403845B1 KR 101403845 B1 KR101403845 B1 KR 101403845B1 KR 1020090021998 A KR1020090021998 A KR 1020090021998A KR 20090021998 A KR20090021998 A KR 20090021998A KR 101403845 B1 KR101403845 B1 KR 101403845B1
Authority
KR
South Korea
Prior art keywords
subject
information
motion vector
input
control signal
Prior art date
Application number
KR1020090021998A
Other languages
Korean (ko)
Other versions
KR20100103927A (en
Inventor
이기형
Original Assignee
에릭슨엘지엔터프라이즈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에릭슨엘지엔터프라이즈 주식회사 filed Critical 에릭슨엘지엔터프라이즈 주식회사
Priority to KR1020090021998A priority Critical patent/KR101403845B1/en
Publication of KR20100103927A publication Critical patent/KR20100103927A/en
Application granted granted Critical
Publication of KR101403845B1 publication Critical patent/KR101403845B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 사용자의 움직임을 감지하여 제어 신호 및 문자 입력을 수행할 수 있는 입력 장치 및 방법에 관한 것이다. 이 입력 장치 및 방법은, 카메라에 인접한 피사체가 차지하는 면적과 방향을 감지하여 상기 피사체의 움직임 벡터를 형성하고, 문자 정보 및 입력 정보를 저장하며, 상기 움직임 벡터에 대응하는 상기 문자 정보 및 상기 입력 정보를 제어신호로 형성하고, 상기 제어신호에 대응하는 동작처리를 수행한다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to an input device and a method for detecting a movement of a user and performing a control signal and a character input. The input device and method detect an area and a direction occupied by a subject adjacent to the camera to form a motion vector of the subject, store character information and input information, and store the character information corresponding to the motion vector and the input information As a control signal, and performs an operation process corresponding to the control signal.

카메라, 움직임 벡터, 문자 정보, 입력 정보 Camera, motion vector, character information, input information

Description

영상 정보를 이용한 입력 장치 및 방법{INPUT APPARATUS AND METHOD FOR USING IMAGE INFORMATION}TECHNICAL FIELD [0001] The present invention relates to an input device and a method using image information,

본 발명은 입력 장치 및 방법에 관한 것으로, 특히 사용자의 움직임을 감지하여 제어 신호 및 문자 입력을 수행할 수 있는 입력 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an input device and method, and more particularly, to an input device and a method capable of sensing a movement of a user and performing a control signal and a character input.

이동통신 단말기는 멀티미디어를 위한 컨버젼스(convergence)가 지속적으로 이루어지고 있다. 최초에는 전화기능만을 추구하다가 점차적으로 일정관리(스케쥴 관리, 할일 관리, D-day 관리), 편의기능(스톱와치, 알람) 기능들이 추가되고 있으며, MP3 플레이어(player)나 PMP(Portable Multimedia Player)와 같은 휴대용 전자기기의 기능까지도 추가되고 있다. 이와 더불어 멀티미디어에 대한 부분들이 추가되면서 카메라 같은 디바이스(device)들이 부착되는 것이 일반화되었다. In mobile communication terminals, convergence for multimedia has been continuously performed. In the beginning, only the phone function is being pursued, and the functions of schedule management (schedule management, task management, D-day management), convenience functions (stop watch and alarm) are gradually added, and MP3 player or PMP (Portable Multimedia Player) Have also been added to the functions of portable electronic devices. In addition, with the addition of multimedia parts, it became common to attach devices such as cameras.

다양한 디바이스들이 컨버젼스를 위해 부착되어 사용되고 있으나 부착된 디바이스들간 기능상의 중복되는 부분들 또한 생겨나고 있다. 예를 들어, 무선랜(Wireless LAN), 블루투스(Bluetooth)와 같은 디바이스들은 데이터(data) 통신을 수행할 수 있다는 점에서 중복되는 부분이 발생하게 된다.While various devices are being used for convergence, there are functional redundancies between attached devices. For example, devices such as wireless LAN and Bluetooth can duplicate data because they can perform data communication.

기존에는 이동통신 단말기에 부착된 카메라는 사진을 찍어 저장하기 위한 목 적으로 사용되다가 카메라의 화소수가 점차 증가되어 휴대용 캠코더의 기능까지 수행하도록 발전되어 왔다. 또한 화상통화를 위한 별도의 카메라까지 부착되고 있다. 여러가지 디바이스들이 이동통신 단말기에 부착되면서 이동통신 단말기들은 점점 더 복잡해지고 있으며 부착되는 디바이스들은 계속 소형화되어 가고 있다.Conventionally, a camera attached to a mobile communication terminal has been used for capturing and storing photographs, and the number of pixels of the camera has been gradually increased to perform functions of a portable camcorder. It also has a separate camera for video calls. As various devices are attached to mobile communication terminals, mobile communication terminals are getting more complicated and the attached devices are becoming smaller and smaller.

하지만, 이동통신 단말기에 부착된 디바이스들이 소형화되었음에도 불구하고 이동통신 단말기는 크기가 증가 될 수밖에 없으며, 복잡도와 재료비 또한 증가하는 문제점이 있다.However, despite the miniaturization of the devices attached to the mobile communication terminal, the size of the mobile communication terminal is inevitably increased, and the complexity and material cost also increase.

본 발명은 손의 움직임을 감지하여 제어 신호 및 문자 입력을 수행할 수 있는 입력 장치 및 방법을 제공한다.The present invention provides an input device and method capable of detecting a movement of a hand and performing a control signal and a character input.

본 발명의 입력 장치에 따르면, 카메라에 인접한 피사체가 차지하는 면적과 방향을 감지하여 상기 피사체의 움직임 벡터를 형성하는 감지부; 문자 정보 및 입력 정보를 저장하는 저장부; 및 상기 움직임 벡터에 대응하는 상기 문자 정보 및 상기 입력 정보를 제어신호로 형성하고, 상기 제어신호에 대응하는 동작처리를 수행하는 제어부를 포함한다.According to the input apparatus of the present invention, the sensing unit senses the area and direction occupied by the subject adjacent to the camera and forms a motion vector of the subject. A storage unit for storing character information and input information; And a control unit for forming the character information and the input information corresponding to the motion vector in a control signal, and performing an operation process corresponding to the control signal.

본 발명의 입력 방법에 따르면, a) 문자 정보 및 입력 정보를 저장하는 단계; b) 카메라에 인접한 피사체가 차지하는 면적과 방향을 감지하여 상기 피사체의 움직임 벡터를 형성하는 단계; c) 상기 움직임 벡터에 대응하는 상기 문자 정보 및 상기 입력 정보를 제어신호로 형성하는 단계; 및 d) 상기 제어신호에 대응하는 기기 동작처리를 수행하는 단계를 포함한다.According to an input method of the present invention, there is provided a method for inputting text, comprising: a) storing character information and input information; b) forming a motion vector of the subject by sensing the area and direction occupied by the subject adjacent to the camera; c) forming the character information and the input information corresponding to the motion vector as a control signal; And d) performing a device operation process corresponding to the control signal.

본 발명의 영상 정보를 이용한 입력 장치는, 카메라가 부착된 각종 전자기기에서 키보드, 터치 LCD, 마우스 등의 입력장치를 대신하여 입력 및 제어장치로 활용될 수 있다.The input device using the image information of the present invention can be utilized as an input and a control device in place of an input device such as a keyboard, a touch LCD, and a mouse in various electronic devices having a camera.

이하 첨부된 도면을 참조하여 본 발명의 실시예들에 대해 상세히 설명한다. 다만, 이하의 설명에서는 본 발명의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions will not be described in detail if they obscure the subject matter of the present invention.

도 1은 본 발명의 실시예에 따른 입력 장치를 보이는 블록도이다. 본 발명의 입력장치는 감지부(110), 저장부(120) 및 제어부(130)를 포함한다.1 is a block diagram showing an input device according to an embodiment of the present invention. The input device of the present invention includes a sensing unit 110, a storage unit 120, and a control unit 130.

감지부(110)는 사용자 영상(이하, 피사체라함)의 움직임을 감지하여 움직임 벡터를 형성한다. 감지부(110)의 움직임 벡터 추출에 대한 방법은 도 7a 내지 도 8b 를 참조하여 후술하도록 한다.The sensing unit 110 detects motion of a user image (hereinafter referred to as a subject) to form a motion vector. A method of motion vector extraction of the sensing unit 110 will be described later with reference to FIGS. 7A to 8B.

저장부(120)는 문자 정보 및 입력 정보를 저장한다. 문자 정보는 도 2a에서 보이는 바와 같은 자음에 대한 정보와 도 2b에서 보이는 바와 같은 모음에 대한 정보를 포함한다. 입력 정보는 도 3에서 보이는 바와 같이 마우스 입력 정보에 대응하는 입력 정보를 매핑 테이블 형태로 저장한다.The storage unit 120 stores character information and input information. The character information includes information on a consonant as shown in FIG. 2A and information on a vowel as shown in FIG. 2B. As shown in FIG. 3, the input information stores input information corresponding to mouse input information in the form of a mapping table.

제어부(130)는 움직임 벡터와 문자 정보 및 제어 정보와 비교하여 해당 문자 정보 및 입력 정보를 입력 신호로 사용하기 위한 제어신호를 형성한다. 또한, 제어부(130)는 제어신호를 이용하여 제어신호에 대응하는 동작 처리를 수행한다. 예를 들어, 마우스의 트리플 클릭 1회에 대응하는 입력으로 사용자로부터 방향 신호를 입력받기 위한 방향 입력 모드로 전환이 가능하고, 마우스의 트리플 클릭 2회에 대응하는 입력으로 사용자로부터 문자 정보를 입력받기 위한 문자입력모드로 전환이 가능하다.The control unit 130 compares the motion vector, the character information, and the control information to form a control signal for using the corresponding character information and input information as input signals. Also, the control unit 130 performs an operation process corresponding to the control signal using the control signal. For example, it is possible to switch to a direction input mode for receiving a direction signal from a user as an input corresponding to one triple click of a mouse, and to input character information from a user as input corresponding to two triple clicks of the mouse Can be switched to the character input mode.

즉, 카메라(미도시)에 가까운 곳에서 피사체의 정보를 획득하면 조도가 낮아서 대개의 경우 흑색으로 나타나고, 여백 부분은 백색으로 나타나게 된다. 이 흑/백의 명암 차이를 이용하여 피사체의 움직임을 움직임 벡터(Motion Vector)로 추출하고, 움직임 벡터를 이용하여 제어신호로 변환할 수 있다.That is, when the information of the subject is obtained near the camera (not shown), the roughness is low, so that it usually appears as black and the blank part appears as white. The motion of the subject is extracted as a motion vector by using the difference of the contrast between black and white, And can be converted into a control signal by using a vector.

도 4는 본 발명의 실시예에 따른 감지부의 필터를 보이는 예시도이다. 사용자의 영상 정보를 움직임 벡터로 추출하기 위한 감지부(110)는 테두리 필터(210)와 중앙 필터(220)를 포함한다. 4 is a view illustrating an example of a filter of a sensing unit according to an embodiment of the present invention. The sensing unit 110 for extracting the user's image information as a motion vector includes a border filter 210 and a center filter 220.

도 5는 본 발명의 실시예에 따른 필터의 상세한 구성을 보이는 예시도이다.필터들(210, 220)은 흑/백의 격자로 구성되고, 소정 주기(예를 들어, 10 msec)로 흑/백 격자가 반전되어 사용자 영상(이하, 피사체라한다) 정보의 면적 및 방향을 검출할 수 있도록 한다. 격자의 흰색부분은 피사체 정보가 존재하지 않는 부분이고, 검은색부분은 피사체 정보가 존재하는 부분이다. 이러한 격자모양으로 피사체 정보를 추출하는 이유는 피사체 면적을 쉽게 구하도록 하기 위해서이며, 피사체가 자주 흔들리는 경우 오차를 감소시켜 세밀한 측정을 하기 위해서이다. 필터(210, 220)의 격자가 흰색으로 나타나야 함에도 불구하고, 검은색으로 표시된다는 것은 피사체의 한 부분이 해당 위치에 존재한다는 것을 의미한다.5 is a diagram illustrating a detailed configuration of a filter according to an exemplary embodiment of the present invention. The filters 210 and 220 are formed of a black / white lattice, The grid is reversed so that the area and direction of the user image (hereinafter, referred to as object) information can be detected. The white portion of the grid is the portion where the subject information does not exist, and the black portion is the portion where the subject information exists. The reason why the subject information is extracted in such a lattice shape is to easily obtain the area of the subject, and to reduce the error when the subject frequently shakes, so as to make a detailed measurement. Although the grid of filters 210 and 220 should appear white, being black indicates that a portion of the object is present at that location.

도 6은 본 발명의 실시예에 따른 사용자의 손가락을 이용하여 테두리 필터(210)와 중앙 필터(220)를 이용하여 움직임 벡터의 기준점을 설정하는 과정을 보이는 예시도이다. 집게손가락 영상의 정보가 중앙 필터(220)의 특정 영역(222)에서 시작하여 테두리 필터(210)의 아래 부분 특정 영역(212)에 위치하는 지점을 움직임 벡터의 기준점(SP)으로 설정한다. 움직임 벡터의 기준점(SP)은 사용자와 카메라의 거리를 사용자가 적절히 조절함으로써 설정할 수 있다.6 is a diagram illustrating a process of setting a reference point of a motion vector using a border filter 210 and a center filter 220 using a user's finger according to an embodiment of the present invention. A point at which the information of the forefinger image starts at the specific area 222 of the center filter 220 and is located at the lower specific area 212 of the border filter 210 is set as the reference point SP of the motion vector. The reference point SP of the motion vector can be set by appropriately adjusting the distance between the user and the camera.

도 7a 내지 7d는 본 발명의 실시예에 따른 4가지 방향에 대한 움직임 벡터 형성 방법을 보이는 예시도이다. 도 7a 및 도 7b는 기준점(SP)에서 오른쪽 또는 왼쪽 즉 수평 방향으로 이동한 경우의 움직임 벡터 형성 방법을 보이는 도면이다. 움직임 벡터의 기준점(SP)은 피사체가 위치해 있는 중앙 필터(220)의 특정 영역(222)과 테두리 필터(210)의 아래부분의 특정 영역(212)에 위치한 검은색 피사체의 위치로 설정할 수 있다. 필터(210, 220)의 흑/백의 격자들이 10msec의 주기로 반전되므로, 감지부(110)는 피사체의 이동 여부를 감지할 수 있다. 그러나 움직임 벡터의 기준점(SP) 설정은 상기 설명한 바에 한정되지 않고, 감지부(110)의 어떠한 위치에라도 설정이 가능하다. 피사체가 기준점(SP)에서 오른쪽 또는 왼쪽으로 500 msec 이내에 이동했다고 가정하면, 감지부(110)는 필터(210, 220)를 이용하여 10 msec의 주기로 피사체의 움직임을 감지한다. 따라서, 500msec 후에는 시작 위치(SP)에는 피사체에 대한 정보가 없고, 테두리 필터(210)의 오른쪽 또는 왼쪽 특정영역에 피 사체에 정보가 존재한다는 것을 확인할 수 있다. 따라서, 감지부(110)는 피사체가 오른쪽 또는 왼쪽으로 이동했다는 정보로 인식할 수 있다. FIGS. 7A to 7D are views illustrating a method of forming a motion vector for four directions according to an embodiment of the present invention. FIGS. 7A and 7B are views showing a method of forming a motion vector in a case where the reference point SP moves rightward or leftward, that is, in the horizontal direction. The reference point SP of the motion vector can be set to the position of the black subject located in the specific region 222 of the center filter 220 where the subject is located and the specific region 212 of the lower portion of the border filter 210. Since the black and white lattices of the filters 210 and 220 are inverted at a cycle of 10 msec, the sensing unit 110 can detect whether the subject is moving. However, the setting of the reference point SP of the motion vector is not limited to that described above, and can be set at any position of the sensing unit 110. [ Assuming that the subject has moved from the reference point SP to the right or left within 500 msec, the sensing unit 110 senses the motion of the subject at intervals of 10 msec using the filters 210 and 220. [ Therefore, after 500 msec, it can be confirmed that there is no information about the subject at the start position SP, and that the information exists in the subject in the right or left specific area of the border filter 210. Therefore, the sensing unit 110 can recognize that the subject has moved to the right or left.

도 7c는 기준점에서 위쪽 방향으로 이동한 경우 움직임 벡터 형성 방법을 보이는 도면이다. 기준점(SP)에서 피사체가 위로 이동했다는 정보는 중앙 필터(220)의 전체 영역이 검은색으로 추출되고, 테두리 필터(210)의 상위 영역(214),하위 영역(212)이 검은색으로 추출되는 것으로 파악할 수 있다. 도 7d는 기준점에서 아래쪽 방향으로 이동한 경우 움직임 벡터 형성 방법을 보이는 도면이다. 기준점(SP)에서 피사체가 아래로 이동했다는 정보는 중앙 필터(220)의 전체 영역이 백색으로 추출되고, 테두리 필터(210)의 하위 영역(212)이 검은색으로 추출되는 것으로 파악할 수 있다.FIG. 7C is a diagram showing a motion vector forming method when moving upward from the reference point. The information indicating that the subject moves up at the reference point SP is extracted as black in the entire area of the center filter 220 and the black area is extracted as the upper area 214 and the lower area 212 of the border filter 210 . 7D is a diagram illustrating a motion vector forming method when the reference point is moved downward. Information indicating that the subject has moved downward at the reference point SP can be understood as a whole area of the center filter 220 is extracted as white and a lower area 212 of the edge filter 210 is extracted as black.

도 7a 내지 7d를 바탕으로 설명한 4가지 방향에 대해서 움직임 벡터를 추출하는 것이 가능하며 필터(210, 220)가 검은색으로 나타나는 면적을 세분화함으로써 16가지 및 32가지 방향에 대해서 움직임 벡터를 추출할 수 있다.The motion vectors can be extracted for the four directions described with reference to FIGS. 7A to 7D, and the motion vectors can be extracted for 16 and 32 directions by subdividing the areas where the filters 210 and 220 appear as black have.

도 8a는 피사체가 멀어짐에 관한 정보를 움직임 벡터를 형성하는 방법을 보이는 예시도이다. 피사체가 기준점(SP)에 있다고 가정한다. 중앙 필터(220)의 검은색 피사체가 차지하는 면적이 작아지고, 또한 테두리 필터(210)의 아래부분 특정영역(212)에 있던 피사체가 차지하는 면적 또한 작아지면 이는 피사체가 멀어진다는 의미의 움직임 벡터로 추출할 수 있다. 이는 마우스에서 버튼을 떼는 동작으로 전환할 수 있거나 마우스를 이동하다가 마우스를 위로 들어올려 취소시키는 동작으로 전환할 수 있으며, 또한 움직임 벡터 추출이 끝나는 동작으로도 전환할 수 있다.FIG. 8A is an exemplary view showing a method of forming a motion vector on information on the distant object. FIG. It is assumed that the subject is at the reference point SP. When the area occupied by the black object of the center filter 220 becomes smaller and the area occupied by the subject in the lower specific area 212 of the edge filter 210 becomes smaller, it is extracted as a motion vector meaning that the subject is distant can do. This can be switched to the action of releasing the button on the mouse, or to the action of canceling the mouse by lifting the mouse while moving the mouse, and can also switch to the action of extracting the motion vector.

도 8b는 피사체가 가까워짐에 관한 정보를 움직임 벡터로 형성하는 방법을 보이는 예시도이다. 중앙 필터(220)의 전체가 검은색으로 추출되고, 테두리 필터(210)의 좌,우 영역 아래부분과 테두리 필터(210) 아래 영역 전체가 검은색으로 추출되면 피사체가 가까워진다는 의미의 움직임 벡터로 추출할 수 있다. 이는 마우스의 버튼을 누르는 동작으로 전환할 수 있거나 마우스를 시작 및 이동하기 위해서 바닥에 두는 동작으로 전환할 수 있으며 또한 움직임 벡터 추출이 시작되는 동작으로도 전환할 수 있다.FIG. 8B is an exemplary view showing a method of forming information on the approach of a subject as a motion vector. FIG. If the whole of the center filter 220 is extracted as a black color and the entire area under the left and right regions of the border filter 210 and the entire region below the border filter 210 are extracted as black, Can be extracted. This can be switched to the operation of depressing the mouse button, or to the operation of putting the mouse on the floor for starting and moving, and also to the operation of starting motion vector extraction.

또한, 추출된 피사체 정보에 대한 시간정보를 이용하면 이동 속도로 전환이 가능하다. 도 7a를 예로 들어 설명하면, 기준 이동 시간이 500msec였다고 가정한다. 감지부(110)에서 산출한 이동 시간이 300msec였다면 이는 빠른 이동속도로 추출될 수 있으며, 반대로 1000 msec였다면 이는 느린 이동속도로 추출될 수 있다. 이는 모든 추출된 움직임 벡터에 적용가능하며 이동속도를 움직임 벡터에 추가할 수 있다.Further, by using the time information of the extracted subject information, it is possible to switch to the moving speed. Taking FIG. 7A as an example, it is assumed that the reference movement time is 500 msec. If the movement time calculated by the sensing unit 110 is 300 msec, it can be extracted at a fast moving speed, and conversely, if it is 1000 msec, it can be extracted at a slow moving speed. It is applicable to all extracted motion vectors and can add motion speed to motion vectors.

상기 방법들은 특정 실시예들을 통하여 설명되었지만, 상기 방법들은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연 결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.While the above methods have been described through specific embodiments, the methods may also be implemented as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet) . In addition, the computer-readable recording medium may be distributed over a network-connected computer system so that computer readable code can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the above embodiments can be easily deduced by programmers of the present invention.

또한, 본 명세서에서는 본 발명이 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 당업자가 이해할 수 있는 본 발명의 정신 및 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.While the invention has been described in connection with certain embodiments thereof, it will be apparent to those skilled in the art that various modifications and variations can be made therein without departing from the spirit and scope of the invention . It is also contemplated that such variations and modifications are within the scope of the claims appended hereto.

도 1은 본 발명의 실시예에 따른 입력 장치를 보이는 블록도.1 is a block diagram showing an input device according to an embodiment of the present invention;

도 2a는 본 발명의 실시예에 따른 자음에 대한 문자 정보 보이는 예시도.FIG. 2A is an exemplary view showing character information of a consonant according to an embodiment of the present invention; FIG.

도 2b는 본 발명의 실시예에 따른 모음에 대한 문자 정보 보이는 예시도.FIG. 2B is an exemplary view showing character information for a vowel according to an embodiment of the present invention; FIG.

도 3은 본 발명의 실시예에 따른 마우스 입력 정보에 대응하는 입력 정보를 보이는 예시도.3 is an exemplary view showing input information corresponding to mouse input information according to an embodiment of the present invention;

도 4 및 5는 본 발명의 실시예에 따른 감지부의 필터를 보이는 예시도.4 and 5 are views showing an example of a filter of a sensing unit according to an embodiment of the present invention;

도 6는 본 발명의 실시예에 따른 움직임 벡터의 기준점 설정 과정을 보이는 예시도.6 is a view illustrating an example of a reference point setting process of a motion vector according to an embodiment of the present invention.

도 7a 내지 7d는 본 발명의 실시예에 따른 4가지 방향에 대한 피사체 정보 추출 방법을 보이는 예시도.FIGS. 7A to 7D are views showing a method of extracting subject information in four directions according to an embodiment of the present invention; FIG.

도 8a는 본 발명의 실시예에 따른 피사체가 멀어짐에 관한 정보를 피사체 정보로 추출하는 방법을 보이는 예시도.FIG. 8A is an exemplary view showing a method of extracting information on the distancing of a subject as subject information according to an embodiment of the present invention. FIG.

도 8b는 본 발명의 실시예에 따른 피사체가 가까워짐에 관한 정보를 피사체 정보로 추출하는 방법을 보이는 예시도.FIG. 8B is an exemplary view showing a method of extracting information about approach of a subject as subject information according to an embodiment of the present invention. FIG.

Claims (9)

영상 정보를 이용한 입력 장치에 있어서,An input device using image information, 카메라에 인접한 피사체가 차지하는 면적과 상기 피사체의 이동 방향을 감지하여 상기 피사체의 속도 정보를 포함하는 움직임 벡터를 형성하는 감지부;A sensing unit for sensing an area occupied by a subject adjacent to the camera and a moving direction of the subject to form a motion vector including speed information of the subject; 문자 정보 및 입력 정보를 저장하는 저장부; 및A storage unit for storing character information and input information; And 상기 움직임 벡터에 대응하는 상기 문자 정보 및 상기 입력 정보를 제어신호로 형성하고, 상기 제어신호에 대응하는 동작처리를 수행하는 제어부A control unit for forming the character information and the input information corresponding to the motion vector in a control signal and performing an operation process corresponding to the control signal, 를 포함하는, 입력 장치.. 제1항에 있어서,The method according to claim 1, 상기 움직임 벡터는,Wherein, 상기 피사체의 명암 차이를 이용하여 형성되는, 입력장치. Wherein the light source is formed using the difference in light and darkness of the subject. 삭제delete 제1항 또는 제2항에 있어서,3. The method according to claim 1 or 2, 상기 감지부는,The sensing unit includes: 상기 피사체의 움직임 정보를 형성하기 위한 중앙 필터 및 테두리 필터를 포함하는, 입력 장치.And a center filter and a border filter for forming motion information of the subject. 제1항에 있어서,The method according to claim 1, 상기 저장부는,Wherein, 자음 및 모음에 대한 상기 문자 정보를 테이블 형태로 저장하고, 마우스의 입력 정보에 대응하는 상기 입력 정보를 테이블 형태로 저장하는 것을 특징으로 하는, 입력 장치.The character information for consonants and vowels is stored in a table form, and the input information corresponding to input information of a mouse is stored in a table form. 영상 정보를 이용한 입력 방법에 있어서,An input method using image information, a) 문자 정보 및 입력 정보를 저장하는 단계;a) storing character information and input information; b) 카메라에 인접한 피사체가 차지하는 면적과 상기 피사체의 이동 방향을 감지하여 상기 피사체의 속도 정보를 포함하는 움직임 벡터를 형성하는 단계;b) forming a motion vector including velocity information of the subject by sensing an area occupied by a subject adjacent to the camera and a moving direction of the subject; c) 상기 움직임 벡터에 대응하는 상기 문자 정보 및 상기 입력 정보를 제어신호로 형성하는 단계; 및c) forming the character information and the input information corresponding to the motion vector as a control signal; And d) 상기 제어신호에 대응하는 기기 동작처리를 수행하는 단계d) performing a device operation process corresponding to the control signal 를 포함하는 입력 방법.≪ / RTI > 제6항에 있어서,The method according to claim 6, 상기 움직임 벡터는,Wherein, 상기 피사체의 명암 차이를 이용하여 형성되는, 입력 방법. And a difference between the light and darkness of the subject. 삭제delete 제6항 또는 제7항에 있어서,8. The method according to claim 6 or 7, 상기 피사체의 움직임 벡터를 형성하기 위한 중앙 필터 및 테두리 필터를 포함하는, 입력 방법.And a center filter and a border filter for forming a motion vector of the subject.
KR1020090021998A 2009-03-16 2009-03-16 Input apparatus and method for using image information KR101403845B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090021998A KR101403845B1 (en) 2009-03-16 2009-03-16 Input apparatus and method for using image information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090021998A KR101403845B1 (en) 2009-03-16 2009-03-16 Input apparatus and method for using image information

Publications (2)

Publication Number Publication Date
KR20100103927A KR20100103927A (en) 2010-09-29
KR101403845B1 true KR101403845B1 (en) 2014-06-03

Family

ID=43008246

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090021998A KR101403845B1 (en) 2009-03-16 2009-03-16 Input apparatus and method for using image information

Country Status (1)

Country Link
KR (1) KR101403845B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101053045B1 (en) * 2011-01-07 2011-08-01 이정렬 System for feeding information to image and method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100858358B1 (en) * 2006-09-29 2008-09-11 김철우 Method and apparatus for user-interface using the hand trace

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100858358B1 (en) * 2006-09-29 2008-09-11 김철우 Method and apparatus for user-interface using the hand trace

Also Published As

Publication number Publication date
KR20100103927A (en) 2010-09-29

Similar Documents

Publication Publication Date Title
CN102667701B (en) The method revising order in touch screen user interface
TWI397835B (en) Input device, control method of input device, and program
KR102160767B1 (en) Mobile terminal and method for detecting a gesture to control functions
JP5765019B2 (en) Display control apparatus, display control method, and program
JP5802667B2 (en) Gesture input device and gesture input method
US20170161014A1 (en) Electronic device and method
KR102264444B1 (en) Method and apparatus for executing function in electronic device
US20120050530A1 (en) Use camera to augment input for portable electronic device
EP2068235A2 (en) Input device, display device, input method, display method, and program
EP2701051A1 (en) Electronic apparatus and control method thereof
KR101660576B1 (en) Facilitating image capture and image review by visually impaired users
CN105308538A (en) Systems and methods for performing a device action based on a detected gesture
CN104346056A (en) Selection implementing method and device for intelligent terminals
KR102559030B1 (en) Electronic device including a touch panel and method for controlling thereof
US11886643B2 (en) Information processing apparatus and information processing method
CN103353826A (en) Display equipment and information processing method thereof
KR20150145729A (en) Method for moving screen and selecting service through fingerprint input, wearable electronic device with fingerprint sensor and computer program
US9148537B1 (en) Facial cues as commands
KR101403845B1 (en) Input apparatus and method for using image information
US12013987B2 (en) Non-standard keyboard input system
KR101348763B1 (en) Apparatus and method for controlling interface using hand gesture and computer-readable recording medium with program therefor
US9536526B2 (en) Electronic device with speaker identification, method and storage medium
JP6108732B2 (en) Portable terminal device, program, and situation detection method
JP2010067090A (en) Information terminal device
EP3568745B1 (en) Hover interaction using orientation sensing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190410

Year of fee payment: 6