KR20100103927A - Input apparatus and method for using image information - Google Patents

Input apparatus and method for using image information Download PDF

Info

Publication number
KR20100103927A
KR20100103927A KR1020090021998A KR20090021998A KR20100103927A KR 20100103927 A KR20100103927 A KR 20100103927A KR 1020090021998 A KR1020090021998 A KR 1020090021998A KR 20090021998 A KR20090021998 A KR 20090021998A KR 20100103927 A KR20100103927 A KR 20100103927A
Authority
KR
South Korea
Prior art keywords
information
subject
motion vector
input
control signal
Prior art date
Application number
KR1020090021998A
Other languages
Korean (ko)
Other versions
KR101403845B1 (en
Inventor
이기형
Original Assignee
엘지에릭슨 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지에릭슨 주식회사 filed Critical 엘지에릭슨 주식회사
Priority to KR1020090021998A priority Critical patent/KR101403845B1/en
Publication of KR20100103927A publication Critical patent/KR20100103927A/en
Application granted granted Critical
Publication of KR101403845B1 publication Critical patent/KR101403845B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: An inputting device and a inputting method using an image information is utilized as an input and control device instead of a keyboard, a touch LCD, and a mouse in all kinds of electronic devices that attached a camera. CONSTITUTION: A sensing unit(110) senses a surface area and direction of a subject which is neighbor to a camera. The sensing unit forms a motion vector of the subject. A storage unit(120) stores a character information and an input information. A control unit(130) forms the character information and the input information corresponding to the movement vector as a control signal. The control unit performs an operation processing corresponding to the control signal.

Description

영상 정보를 이용한 입력 장치 및 방법{INPUT APPARATUS AND METHOD FOR USING IMAGE INFORMATION}Input device and method using image information {INPUT APPARATUS AND METHOD FOR USING IMAGE INFORMATION}

본 발명은 입력 장치 및 방법에 관한 것으로, 특히 사용자의 움직임을 감지하여 제어 신호 및 문자 입력을 수행할 수 있는 입력 장치 및 방법에 관한 것이다.The present invention relates to an input device and a method, and more particularly, to an input device and a method capable of sensing a user's movement and performing control signals and text input.

이동통신 단말기는 멀티미디어를 위한 컨버젼스(convergence)가 지속적으로 이루어지고 있다. 최초에는 전화기능만을 추구하다가 점차적으로 일정관리(스케쥴 관리, 할일 관리, D-day 관리), 편의기능(스톱와치, 알람) 기능들이 추가되고 있으며, MP3 플레이어(player)나 PMP와 같은 휴대용 전자기기의 기능까지도 추가되고 있다. 이와 더불어 멀티미디어에 대한 부분들이 추가되면서 카메라 같은 디바이스(device)들이 부착되는 것이 일반화되었다. Mobile communication terminals continue to achieve convergence for multimedia. Initially pursuing only the phone function, gradually the schedule management (schedule management, to-do management, D-day management), convenience functions (stopwatch, alarm) functions are added, and portable electronic devices such as MP3 player or PMP Even features of. With the addition of multimedia parts, it has become common to attach devices such as cameras.

다양한 디바이스들이 컨버젼스를 위해 부착되어 사용되고 있으나 부착된 디바이스들간 기능상의 중복되는 부분들 또한 생겨나고 있다. 예를 들어, 무선랜(Wireless LAN), 블루투스(Bluetooth)와 같은 디바이스들은 데이터(data) 통신을 수행할 수 있다는 점에서 중복되는 부분이 발생하게 된다.Various devices are attached and used for convergence, but functional overlap between the attached devices is also occurring. For example, devices such as a wireless LAN and a Bluetooth may perform overlapping in that they may perform data communication.

기존에는 이동통신 단말기에 부착된 카메라는 사진을 찍어 저장하기 위한 목 적으로 사용되다가 카메라의 화소수가 점차 증가되어 휴대용 캠코더의 기능까지 수행하도록 발전되어 왔다. 또한 화상통화를 위한 별도의 카메라까지 부착되고 있다. 여러가지 디바이스들이 이동통신 단말기에 부착되면서 이동통신 단말기들은 점점 더 복잡해지고 있으며 부착되는 디바이스들은 계속 소형화되어 가고 있다.Conventionally, a camera attached to a mobile communication terminal has been used for taking pictures and storing them, but the number of pixels of the camera has gradually increased to perform the functions of a portable camcorder. It also has a separate camera for video calls. As various devices are attached to a mobile communication terminal, the mobile communication terminals are becoming more and more complicated, and the devices to be attached are becoming smaller.

하지만, 이동통신 단말기에 부착된 디바이스들이 소형화되었음에도 불구하고 이동통신 단말기는 크기가 증가 될 수밖에 없으며, 복잡도와 재료비 또한 증가하는 문제점이 있다.However, despite the miniaturization of the devices attached to the mobile communication terminal, the mobile communication terminal is inevitably increased in size, and there is a problem that the complexity and material cost also increase.

본 발명은 손의 움직임을 감지하여 제어 신호 및 문자 입력을 수행할 수 있는 입력 장치 및 방법을 제공한다.The present invention provides an input device and method capable of sensing a movement of a hand to perform control signals and text input.

본 발명의 입력 장치에 따르면, 카메라에 인접한 피사체가 차지하는 면적과 방향을 감지하여 상기 피사체의 움직임 벡터를 형성하는 감지부; 문자 정보 및 입력 정보를 저장하는 저장부; 및 상기 움직임 벡터에 대응하는 상기 문자 정보 및 상기 입력 정보를 제어신호로 형성하고, 상기 제어신호에 대응하는 동작처리를 수행하는 제어부를 포함한다.According to the input device of the present invention, a sensing unit for detecting the area and the direction occupied by a subject adjacent to the camera to form a motion vector of the subject; A storage unit which stores text information and input information; And a controller configured to form the text information and the input information corresponding to the motion vector as a control signal and to perform an operation process corresponding to the control signal.

본 발명의 입력 방법에 따르면, a) 문자 정보 및 입력 정보를 저장하는 단계; b) 카메라에 인접한 피사체가 차지하는 면적과 방향을 감지하여 상기 피사체의 움직임 벡터를 형성하는 단계; c) 상기 움직임 벡터에 대응하는 상기 문자 정보 및 상기 입력 정보를 제어신호로 형성하는 단계; 및 d) 상기 제어신호에 대응하는 기기 동작처리를 수행하는 단계를 포함한다.According to the input method of the present invention, a) storing text information and input information; b) sensing the area and direction occupied by a subject adjacent to the camera to form a motion vector of the subject; c) forming the text information and the input information corresponding to the motion vector as a control signal; And d) performing device operation processing corresponding to the control signal.

본 발명의 영상 정보를 이용한 입력 장치는, 카메라가 부착된 각종 전자기기에서 키보드, 터치 LCD, 마우스 등의 입력장치를 대신하여 입력 및 제어장치로 활용될 수 있다.The input device using the image information of the present invention may be used as an input and control device in place of input devices such as a keyboard, a touch LCD, a mouse, and the like in various electronic devices with a camera.

이하 첨부된 도면을 참조하여 본 발명의 실시예들에 대해 상세히 설명한다. 다만, 이하의 설명에서는 본 발명의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions will not be described in detail if they obscure the subject matter of the present invention.

도 1은 본 발명의 실시예에 따른 입력 장치를 보이는 블록도이다. 본 발명의 입력장치는 감지부(110), 저장부(120) 및 제어부(130)를 포함한다.1 is a block diagram illustrating an input device according to an exemplary embodiment of the present invention. The input device of the present invention includes a detector 110, a storage 120, and a controller 130.

감지부(110)는 사용자 영상(이하, 피사체라함)의 움직임을 감지하여 움직임 벡터를 형성한다. 감지부(110)의 움직임 벡터 추출에 대한 방법은 도 7a 내지 도 8b 를 참조하여 후술하도록 한다.The detector 110 detects a movement of a user image (hereinafter referred to as a subject) to form a motion vector. A method of extracting the motion vector of the sensor 110 will be described later with reference to FIGS. 7A to 8B.

저장부(120)는 문자 정보 및 입력 정보를 저장한다. 문자 정보는 도 2a에서 보이는 바와 같은 자음에 대한 정보와 도 2b에서 보이는 바와 같은 모음에 대한 정보를 포함한다. 입력 정보는 도 3에서 보이는 바와 같이 마우스 입력 정보에 대응하는 입력 정보를 매핑 테이블 형태로 저장한다.The storage unit 120 stores text information and input information. The character information includes information about consonants as shown in FIG. 2A and information about vowels as shown in FIG. 2B. As shown in FIG. 3, the input information stores input information corresponding to mouse input information in the form of a mapping table.

제어부(130)는 움직임 벡터와 문자 정보 및 제어 정보와 비교하여 해당 문자 정보 및 입력 정보를 입력 신호로 사용하기 위한 제어신호를 형성한다. 또한, 제어부(130)는 제어신호를 이용하여 제어신호에 대응하는 동작 처리를 수행한다. 예를 들어, 마우스의 트리플 클릭 1회에 대응하는 입력으로 사용자로부터 방향 신호를 입력받기 위한 방향 입력 모드로 전환이 가능하고, 마우스의 트리플 클릭 2회에 대응하는 입력으로 사용자로부터 문자 정보를 입력받기 위한 문자입력모드로 전환이 가능하다.The controller 130 forms a control signal for using the corresponding character information and the input information as an input signal by comparing the motion vector with the character information and the control information. In addition, the controller 130 performs an operation process corresponding to the control signal using the control signal. For example, it is possible to switch to a direction input mode for receiving a direction signal from the user with an input corresponding to one triple click of the mouse, and to receive text information from the user with an input corresponding to two triple clicks of the mouse. You can switch to the character input mode.

즉, 카메라(미도시)에 가까운 곳에서 피사체의 정보를 획득하면 조도가 낮아서 대개의 경우 흑색으로 나타나고, 여백 부분은 백색으로 나타나게 된다. 이 흑/백의 명암 차이를 이용하여 피사체의 움직임을 움직임 벡터(Motion Vector)로 추출하고, 움직임 벡터를 이용하여 제어신호로 변환할 수 있다.In other words, when the information of the subject is acquired near a camera (not shown), the illuminance is low, so that it is usually black and the margin is white. The black and white contrast difference is used to extract the motion of the subject as a motion vector, The vector can be used to convert into a control signal.

도 4는 본 발명의 실시예에 따른 감지부의 필터를 보이는 예시도이다. 사용자의 영상 정보를 움직임 벡터로 추출하기 위한 감지부(110)는 테두리 필터(210)와 중앙 필터(220)를 포함한다. 4 is an exemplary view showing a filter of a detector according to an embodiment of the present invention. The detector 110 for extracting the user's image information as a motion vector includes an edge filter 210 and a center filter 220.

도 5는 본 발명의 실시예에 따른 필터의 상세한 구성을 보이는 예시도이다.필터들(210, 220)은 흑/백의 격자로 구성되고, 소정 주기(예를 들어, 10 msec)로 흑/백 격자가 반전되어 사용자 영상(이하, 피사체라한다) 정보의 면적 및 방향을 검출할 수 있도록 한다. 격자의 흰색부분은 피사체 정보가 존재하지 않는 부분이고, 검은색부분은 피사체 정보가 존재하는 부분이다. 이러한 격자모양으로 피사체 정보를 추출하는 이유는 피사체 면적을 쉽게 구하도록 하기 위해서이며, 피사체가 자주 흔들리는 경우 오차를 감소시켜 세밀한 측정을 하기 위해서이다. 필터(210, 220)의 격자가 흰색으로 나타나야 함에도 불구하고, 검은색으로 표시된다는 것은 피사체의 한 부분이 해당 위치에 존재한다는 것을 의미한다.5 is an exemplary view showing a detailed configuration of a filter according to an embodiment of the present invention. The filters 210 and 220 are formed of a grid of black and white, and are black / white at a predetermined period (for example, 10 msec). The grid is inverted so that the area and direction of the user image (hereinafter referred to as the subject) information can be detected. The white part of the grid is a part where no subject information exists, and the black part is a part where subject information exists. The reason for extracting the subject information in the shape of the grid is to make it easy to obtain the subject area, and to reduce the error when the subject is frequently shaken to perform detailed measurement. Although the gratings of the filters 210 and 220 should appear in white, being displayed in black means that a part of the subject exists at the corresponding position.

도 6은 본 발명의 실시예에 따른 사용자의 손가락을 이용하여 테두리 필터(210)와 중앙 필터(220)를 이용하여 움직임 벡터의 기준점을 설정하는 과정을 보이는 예시도이다. 집게손가락 영상의 정보가 중앙 필터(220)의 특정 영역(222)에서 시작하여 테두리 필터(210)의 아래 부분 특정 영역(212)에 위치하는 지점을 움직임 벡터의 기준점(SP)으로 설정한다. 움직임 벡터의 기준점(SP)은 사용자와 카메라의 거리를 사용자가 적절히 조절함으로써 설정할 수 있다.6 is an exemplary view showing a process of setting a reference point of a motion vector using the edge filter 210 and the center filter 220 using a user's finger according to an embodiment of the present invention. The point where the information of the index finger image starts in the specific region 222 of the center filter 220 and is located in the lower specific region 212 of the edge filter 210 is set as the reference point SP of the motion vector. The reference point SP of the motion vector may be set by the user appropriately adjusting the distance between the user and the camera.

도 7a 내지 7d는 본 발명의 실시예에 따른 4가지 방향에 대한 움직임 벡터 형성 방법을 보이는 예시도이다. 도 7a 및 도 7b는 기준점(SP)에서 오른쪽 또는 왼쪽 즉 수평 방향으로 이동한 경우의 움직임 벡터 형성 방법을 보이는 도면이다. 움직임 벡터의 기준점(SP)은 피사체가 위치해 있는 중앙 필터(220)의 특정 영역(222)과 테두리 필터(210)의 아래부분의 특정 영역(212)에 위치한 검은색 피사체의 위치로 설정할 수 있다. 필터(210, 220)의 흑/백의 격자들이 10msec의 주기로 반전되므로, 감지부(110)는 피사체의 이동 여부를 감지할 수 있다. 그러나 움직임 벡터의 기준점(SP) 설정은 상기 설명한 바에 한정되지 않고, 감지부(110)의 어떠한 위치에라도 설정이 가능하다. 피사체가 기준점(SP)에서 오른쪽 또는 왼쪽으로 500 msec 이내에 이동했다고 가정하면, 감지부(110)는 필터(210, 220)를 이용하여 10 msec의 주기로 피사체의 움직임을 감지한다. 따라서, 500msec 후에는 시작 위치(SP)에는 피사체에 대한 정보가 없고, 테두리 필터(210)의 오른쪽 또는 왼쪽 특정영역에 피 사체에 정보가 존재한다는 것을 확인할 수 있다. 따라서, 감지부(110)는 피사체가 오른쪽 또는 왼쪽으로 이동했다는 정보로 인식할 수 있다. 7A to 7D are exemplary views showing a motion vector forming method for four directions according to an embodiment of the present invention. 7A and 7B illustrate a method of forming a motion vector when moving from the reference point SP to the right or left side, that is, in the horizontal direction. The reference point SP of the motion vector may be set to a position of a black subject located in a specific region 222 of the center filter 220 where the subject is located and a specific region 212 below the edge filter 210. Since the black and white gratings of the filters 210 and 220 are inverted at a cycle of 10 msec, the detector 110 may detect whether the subject moves. However, the setting of the reference point SP of the motion vector is not limited to the above description, and may be set at any position of the detector 110. Assuming that the subject has moved within 500 msec to the right or left from the reference point SP, the detector 110 detects the movement of the subject in a cycle of 10 msec using the filters 210 and 220. Therefore, after 500 msec, it is confirmed that there is no information on the subject at the start position SP, and that the information exists on the subject in the right or left specific region of the edge filter 210. Therefore, the sensing unit 110 may recognize as information that the subject has moved to the right or the left.

도 7c는 기준점에서 위쪽 방향으로 이동한 경우 움직임 벡터 형성 방법을 보이는 도면이다. 기준점(SP)에서 피사체가 위로 이동했다는 정보는 중앙 필터(220)의 전체 영역이 검은색으로 추출되고, 테두리 필터(210)의 상위 영역(214),하위 영역(212)이 검은색으로 추출되는 것으로 파악할 수 있다. 도 7d는 기준점에서 아래쪽 방향으로 이동한 경우 움직임 벡터 형성 방법을 보이는 도면이다. 기준점(SP)에서 피사체가 아래로 이동했다는 정보는 중앙 필터(220)의 전체 영역이 백색으로 추출되고, 테두리 필터(210)의 하위 영역(212)이 검은색으로 추출되는 것으로 파악할 수 있다.7C is a diagram illustrating a method of forming a motion vector when moving upward from a reference point. The information that the subject has moved upward at the reference point SP is extracted in the entire area of the center filter 220 in black, and the upper area 214 and the lower area 212 of the edge filter 210 are extracted in black. I can understand that. 7D is a diagram illustrating a method of forming a motion vector when moving downward from a reference point. The information indicating that the subject has moved downward at the reference point SP may be understood that the entire area of the center filter 220 is extracted in white and the lower area 212 of the edge filter 210 is extracted in black.

도 7a 내지 7d를 바탕으로 설명한 4가지 방향에 대해서 움직임 벡터를 추출하는 것이 가능하며 필터(210, 220)가 검은색으로 나타나는 면적을 세분화함으로써 16가지 및 32가지 방향에 대해서 움직임 벡터를 추출할 수 있다.It is possible to extract motion vectors for the four directions described with reference to FIGS. 7A to 7D, and to extract motion vectors for 16 and 32 directions by subdividing the areas where the filters 210 and 220 appear in black. have.

도 8a는 피사체가 멀어짐에 관한 정보를 움직임 벡터를 형성하는 방법을 보이는 예시도이다. 피사체가 기준점(SP)에 있다고 가정한다. 중앙 필터(220)의 검은색 피사체가 차지하는 면적이 작아지고, 또한 테두리 필터(210)의 아래부분 특정영역(212)에 있던 피사체가 차지하는 면적 또한 작아지면 이는 피사체가 멀어진다는 의미의 움직임 벡터로 추출할 수 있다. 이는 마우스에서 버튼을 떼는 동작으로 전환할 수 있거나 마우스를 이동하다가 마우스를 위로 들어올려 취소시키는 동작으로 전환할 수 있으며, 또한 움직임 벡터 추출이 끝나는 동작으로도 전환할 수 있다.8A is an exemplary diagram illustrating a method of forming a motion vector with information regarding a distance from a subject. Assume that the subject is at the reference point SP. If the area occupied by the black subject of the center filter 220 becomes smaller and the area occupied by the subject in the lower specific region 212 of the edge filter 210 also becomes smaller, this is extracted as a motion vector meaning that the subject is far away. can do. This can be switched to release the button from the mouse, or move to move the mouse up to cancel it, and can also be switched to the end of the motion vector extraction.

도 8b는 피사체가 가까워짐에 관한 정보를 움직임 벡터로 형성하는 방법을 보이는 예시도이다. 중앙 필터(220)의 전체가 검은색으로 추출되고, 테두리 필터(210)의 좌,우 영역 아래부분과 테두리 필터(210) 아래 영역 전체가 검은색으로 추출되면 피사체가 가까워진다는 의미의 움직임 벡터로 추출할 수 있다. 이는 마우스의 버튼을 누르는 동작으로 전환할 수 있거나 마우스를 시작 및 이동하기 위해서 바닥에 두는 동작으로 전환할 수 있으며 또한 움직임 벡터 추출이 시작되는 동작으로도 전환할 수 있다.FIG. 8B is an exemplary view showing a method of forming information on approaching a subject as a motion vector. If the entire center filter 220 is extracted in black, and the lower left and right areas of the edge filter 210 and the entire area below the edge filter 210 are extracted in black, the motion vector means that the subject is closer. Can be extracted. This can be switched to a button press of the mouse, or to a bottoming position for starting and moving the mouse, and can also be switched to a motion at which motion vector extraction begins.

또한, 추출된 피사체 정보에 대한 시간정보를 이용하면 이동 속도로 전환이 가능하다. 도 7a를 예로 들어 설명하면, 기준 이동 시간이 500msec였다고 가정한다. 감지부(110)에서 산출한 이동 시간이 300msec였다면 이는 빠른 이동속도로 추출될 수 있으며, 반대로 1000 msec였다면 이는 느린 이동속도로 추출될 수 있다. 이는 모든 추출된 움직임 벡터에 적용가능하며 이동속도를 움직임 벡터에 추가할 수 있다.In addition, by using the time information on the extracted subject information, it is possible to switch to the moving speed. Referring to FIG. 7A as an example, it is assumed that the reference movement time was 500 msec. If the travel time calculated by the sensing unit 110 was 300 msec, it may be extracted at a fast moving speed. On the contrary, if it was 1000 msec, it may be extracted at a slow moving speed. This is applicable to all extracted motion vectors and can add movement speed to the motion vectors.

상기 방법들은 특정 실시예들을 통하여 설명되었지만, 상기 방법들은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연 결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.While the above methods have been described through specific embodiments, the methods may also be implemented as computer readable code on a computer readable recording medium. Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which are also implemented in the form of carrier waves (for example, transmission over the Internet). Include. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. In addition, functional programs, codes, and code segments for implementing the above embodiments can be easily deduced by programmers of the present invention.

또한, 본 명세서에서는 본 발명이 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 당업자가 이해할 수 있는 본 발명의 정신 및 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.In addition, while the present invention has been described in connection with some embodiments, it is to be understood that various modifications and changes can be made without departing from the spirit and scope of the invention as will be understood by those skilled in the art. You will need to know It is also contemplated that such variations and modifications are within the scope of the claims appended hereto.

도 1은 본 발명의 실시예에 따른 입력 장치를 보이는 블록도.1 is a block diagram showing an input device according to an embodiment of the present invention.

도 2a는 본 발명의 실시예에 따른 자음에 대한 문자 정보 보이는 예시도.Figure 2a is an exemplary view showing the character information for consonants according to an embodiment of the present invention.

도 2b는 본 발명의 실시예에 따른 모음에 대한 문자 정보 보이는 예시도.Figure 2b is an exemplary view showing the character information for the vowel according to an embodiment of the present invention.

도 3은 본 발명의 실시예에 따른 마우스 입력 정보에 대응하는 입력 정보를 보이는 예시도.3 is an exemplary view showing input information corresponding to mouse input information according to an embodiment of the present invention.

도 4 및 5는 본 발명의 실시예에 따른 감지부의 필터를 보이는 예시도.4 and 5 is an exemplary view showing a filter of the detection unit according to an embodiment of the present invention.

도 6는 본 발명의 실시예에 따른 움직임 벡터의 기준점 설정 과정을 보이는 예시도.6 is an exemplary view showing a reference point setting process of a motion vector according to an embodiment of the present invention.

도 7a 내지 7d는 본 발명의 실시예에 따른 4가지 방향에 대한 피사체 정보 추출 방법을 보이는 예시도.7A to 7D are exemplary views illustrating a method of extracting subject information in four directions according to an exemplary embodiment of the present invention.

도 8a는 본 발명의 실시예에 따른 피사체가 멀어짐에 관한 정보를 피사체 정보로 추출하는 방법을 보이는 예시도.8A is an exemplary view showing a method of extracting information regarding a distance from a subject, according to an embodiment of the present invention, as subject information.

도 8b는 본 발명의 실시예에 따른 피사체가 가까워짐에 관한 정보를 피사체 정보로 추출하는 방법을 보이는 예시도.8B is an exemplary view illustrating a method of extracting, as subject information, information about an approaching subject according to an embodiment of the present invention.

Claims (9)

영상 정보를 이용한 입력 장치에 있어서,In the input device using the image information, 카메라에 인접한 피사체가 차지하는 면적과 방향을 감지하여 상기 피사체의 움직임 벡터를 형성하는 감지부;A detector configured to detect an area and a direction occupied by a subject adjacent to the camera to form a motion vector of the subject; 문자 정보 및 입력 정보를 저장하는 저장부; 및A storage unit which stores text information and input information; And 상기 움직임 벡터에 대응하는 상기 문자 정보 및 상기 입력 정보를 제어신호로 형성하고, 상기 제어신호에 대응하는 동작처리를 수행하는 제어부A controller configured to form the character information and the input information corresponding to the motion vector as a control signal and perform an operation process corresponding to the control signal; 를 포함하는, 입력 장치.Including, the input device. 제1항에 있어서,The method of claim 1, 상기 움직임 벡터는,The motion vector is 상기 피사체의 명암 차이를 이용하여 형성되는, 입력장치. The input device is formed using the difference between the contrast of the subject. 제1항에 있어서,The method of claim 1, 상기 움직임 벡터는,The motion vector is 상기 피사체의 속도 정보를 더 포함하여 형성되는, 입력장치.The input device is formed further comprising the speed information of the subject. 제1항 내지 제3항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 감지부는,The detection unit, 상기 피사체의 움직임 정보를 형성하기 위한 중앙 필터 및 테두리 필터를 포함하는, 입력 장치.And a center filter and an edge filter for forming motion information of the subject. 제4항에 있어서,The method of claim 4, wherein 상기 저장부는,The storage unit, 자음 및 모음에 대한 상기 문자 정보를 테이블 형태로 저장하고, 마우스의 입력 정보에 대응하는 상기 입력 정보를 테이블 형태로 저장하는 것을 특징으로 하는, 입력 장치.And the text information regarding consonants and vowels is stored in a table form, and the input information corresponding to input information of a mouse is stored in a table form. 영상 정보를 이용한 입력 방법에 있어서,In the input method using the image information, a) 문자 정보 및 입력 정보를 저장하는 단계;a) storing character information and input information; b) 카메라에 인접한 피사체가 차지하는 면적과 방향을 감지하여 상기 피사체의 움직임 벡터를 형성하는 단계;b) sensing the area and direction occupied by a subject adjacent to the camera to form a motion vector of the subject; c) 상기 움직임 벡터에 대응하는 상기 문자 정보 및 상기 입력 정보를 제어신호로 형성하는 단계; 및c) forming the text information and the input information corresponding to the motion vector as a control signal; And d) 상기 제어신호에 대응하는 기기 동작처리를 수행하는 단계d) performing a device operation process corresponding to the control signal; 를 포함하는 입력 방법.Input method comprising a. 제6항에 있어서,The method of claim 6, 상기 움직임 벡터는,The motion vector is 상기 피사체의 명암 차이를 이용하여 형성되는, 입력 방법. The input method is formed using the difference between the contrast of the subject. 제6항에 있어서,The method of claim 6, 상기 움직임 벡터는,The motion vector is 상기 피사체의 속도 정보를 더 포함하여 형성되는, 입력 방법.And the speed information of the subject is further formed. 제6항 내지 제8항 중 어느 한 항에 있어서,9. The method according to any one of claims 6 to 8, 상기 피사체의 움직임 벡터를 형성하기 위한 중앙 필터 및 테두리 필터를 포함하는, 입력 방법.And a center filter and a border filter for forming a motion vector of the subject.
KR1020090021998A 2009-03-16 2009-03-16 Input apparatus and method for using image information KR101403845B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090021998A KR101403845B1 (en) 2009-03-16 2009-03-16 Input apparatus and method for using image information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090021998A KR101403845B1 (en) 2009-03-16 2009-03-16 Input apparatus and method for using image information

Publications (2)

Publication Number Publication Date
KR20100103927A true KR20100103927A (en) 2010-09-29
KR101403845B1 KR101403845B1 (en) 2014-06-03

Family

ID=43008246

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090021998A KR101403845B1 (en) 2009-03-16 2009-03-16 Input apparatus and method for using image information

Country Status (1)

Country Link
KR (1) KR101403845B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101053045B1 (en) * 2011-01-07 2011-08-01 이정렬 System for feeding information to image and method thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100858358B1 (en) * 2006-09-29 2008-09-11 김철우 Method and apparatus for user-interface using the hand trace

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101053045B1 (en) * 2011-01-07 2011-08-01 이정렬 System for feeding information to image and method thereof

Also Published As

Publication number Publication date
KR101403845B1 (en) 2014-06-03

Similar Documents

Publication Publication Date Title
KR102160767B1 (en) Mobile terminal and method for detecting a gesture to control functions
RU2662690C2 (en) User apparatus object control device and method of management
CN102667701B (en) The method revising order in touch screen user interface
EP3299938B1 (en) Touch-sensitive button with two levels
EP2817704B1 (en) Apparatus and method for determining the position of a user input
CN105308550B (en) Message Display Terminal
JP5120460B2 (en) Mobile terminal and input control method
EP2068235A2 (en) Input device, display device, input method, display method, and program
US20120050530A1 (en) Use camera to augment input for portable electronic device
EP2701051A1 (en) Electronic apparatus and control method thereof
EP2840471A1 (en) Method, device, and electronic terminal for unlocking
CN109120841B (en) Camera control method and device, mobile terminal and storage medium
EP3276301B1 (en) Mobile terminal and method for calculating a bending angle
CN103019518A (en) Method of automatically adjusting human-computer interaction interface
KR20130136173A (en) Method for providing fingerprint based shortcut key, machine-readable storage medium and portable terminal
KR20160028823A (en) Method and apparatus for executing function in electronic device
JPWO2013128911A1 (en) Portable terminal device, erroneous operation prevention method, and program
CN108733302B (en) Gesture triggering method
EP2899623A2 (en) Information processing apparatus, information processing method, and program
US9148537B1 (en) Facial cues as commands
JPWO2012111227A1 (en) Touch-type input device, electronic apparatus, and input method
CN107544686A (en) Operation performs method and device
US20170336962A1 (en) Gesture response method and device
WO2014042143A1 (en) Mobile terminal device, program, image stabilization method, and condition detection method
CN104076970A (en) Information processing apparatus, information processing method, and computer-readable recording medium recording information processing program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190410

Year of fee payment: 6