KR101403845B1 - Input apparatus and method for using image information - Google Patents
Input apparatus and method for using image information Download PDFInfo
- Publication number
- KR101403845B1 KR101403845B1 KR1020090021998A KR20090021998A KR101403845B1 KR 101403845 B1 KR101403845 B1 KR 101403845B1 KR 1020090021998 A KR1020090021998 A KR 1020090021998A KR 20090021998 A KR20090021998 A KR 20090021998A KR 101403845 B1 KR101403845 B1 KR 101403845B1
- Authority
- KR
- South Korea
- Prior art keywords
- subject
- information
- motion vector
- input
- control signal
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 사용자의 움직임을 감지하여 제어 신호 및 문자 입력을 수행할 수 있는 입력 장치 및 방법에 관한 것이다. 이 입력 장치 및 방법은, 카메라에 인접한 피사체가 차지하는 면적과 방향을 감지하여 상기 피사체의 움직임 벡터를 형성하고, 문자 정보 및 입력 정보를 저장하며, 상기 움직임 벡터에 대응하는 상기 문자 정보 및 상기 입력 정보를 제어신호로 형성하고, 상기 제어신호에 대응하는 동작처리를 수행한다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to an input device and a method for detecting a movement of a user and performing a control signal and a character input. The input device and method detect an area and a direction occupied by a subject adjacent to the camera to form a motion vector of the subject, store character information and input information, and store the character information corresponding to the motion vector and the input information As a control signal, and performs an operation process corresponding to the control signal.
카메라, 움직임 벡터, 문자 정보, 입력 정보 Camera, motion vector, character information, input information
Description
본 발명은 입력 장치 및 방법에 관한 것으로, 특히 사용자의 움직임을 감지하여 제어 신호 및 문자 입력을 수행할 수 있는 입력 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an input device and method, and more particularly, to an input device and a method capable of sensing a movement of a user and performing a control signal and a character input.
이동통신 단말기는 멀티미디어를 위한 컨버젼스(convergence)가 지속적으로 이루어지고 있다. 최초에는 전화기능만을 추구하다가 점차적으로 일정관리(스케쥴 관리, 할일 관리, D-day 관리), 편의기능(스톱와치, 알람) 기능들이 추가되고 있으며, MP3 플레이어(player)나 PMP(Portable Multimedia Player)와 같은 휴대용 전자기기의 기능까지도 추가되고 있다. 이와 더불어 멀티미디어에 대한 부분들이 추가되면서 카메라 같은 디바이스(device)들이 부착되는 것이 일반화되었다. In mobile communication terminals, convergence for multimedia has been continuously performed. In the beginning, only the phone function is being pursued, and the functions of schedule management (schedule management, task management, D-day management), convenience functions (stop watch and alarm) are gradually added, and MP3 player or PMP (Portable Multimedia Player) Have also been added to the functions of portable electronic devices. In addition, with the addition of multimedia parts, it became common to attach devices such as cameras.
다양한 디바이스들이 컨버젼스를 위해 부착되어 사용되고 있으나 부착된 디바이스들간 기능상의 중복되는 부분들 또한 생겨나고 있다. 예를 들어, 무선랜(Wireless LAN), 블루투스(Bluetooth)와 같은 디바이스들은 데이터(data) 통신을 수행할 수 있다는 점에서 중복되는 부분이 발생하게 된다.While various devices are being used for convergence, there are functional redundancies between attached devices. For example, devices such as wireless LAN and Bluetooth can duplicate data because they can perform data communication.
기존에는 이동통신 단말기에 부착된 카메라는 사진을 찍어 저장하기 위한 목 적으로 사용되다가 카메라의 화소수가 점차 증가되어 휴대용 캠코더의 기능까지 수행하도록 발전되어 왔다. 또한 화상통화를 위한 별도의 카메라까지 부착되고 있다. 여러가지 디바이스들이 이동통신 단말기에 부착되면서 이동통신 단말기들은 점점 더 복잡해지고 있으며 부착되는 디바이스들은 계속 소형화되어 가고 있다.Conventionally, a camera attached to a mobile communication terminal has been used for capturing and storing photographs, and the number of pixels of the camera has been gradually increased to perform functions of a portable camcorder. It also has a separate camera for video calls. As various devices are attached to mobile communication terminals, mobile communication terminals are getting more complicated and the attached devices are becoming smaller and smaller.
하지만, 이동통신 단말기에 부착된 디바이스들이 소형화되었음에도 불구하고 이동통신 단말기는 크기가 증가 될 수밖에 없으며, 복잡도와 재료비 또한 증가하는 문제점이 있다.However, despite the miniaturization of the devices attached to the mobile communication terminal, the size of the mobile communication terminal is inevitably increased, and the complexity and material cost also increase.
본 발명은 손의 움직임을 감지하여 제어 신호 및 문자 입력을 수행할 수 있는 입력 장치 및 방법을 제공한다.The present invention provides an input device and method capable of detecting a movement of a hand and performing a control signal and a character input.
본 발명의 입력 장치에 따르면, 카메라에 인접한 피사체가 차지하는 면적과 방향을 감지하여 상기 피사체의 움직임 벡터를 형성하는 감지부; 문자 정보 및 입력 정보를 저장하는 저장부; 및 상기 움직임 벡터에 대응하는 상기 문자 정보 및 상기 입력 정보를 제어신호로 형성하고, 상기 제어신호에 대응하는 동작처리를 수행하는 제어부를 포함한다.According to the input apparatus of the present invention, the sensing unit senses the area and direction occupied by the subject adjacent to the camera and forms a motion vector of the subject. A storage unit for storing character information and input information; And a control unit for forming the character information and the input information corresponding to the motion vector in a control signal, and performing an operation process corresponding to the control signal.
본 발명의 입력 방법에 따르면, a) 문자 정보 및 입력 정보를 저장하는 단계; b) 카메라에 인접한 피사체가 차지하는 면적과 방향을 감지하여 상기 피사체의 움직임 벡터를 형성하는 단계; c) 상기 움직임 벡터에 대응하는 상기 문자 정보 및 상기 입력 정보를 제어신호로 형성하는 단계; 및 d) 상기 제어신호에 대응하는 기기 동작처리를 수행하는 단계를 포함한다.According to an input method of the present invention, there is provided a method for inputting text, comprising: a) storing character information and input information; b) forming a motion vector of the subject by sensing the area and direction occupied by the subject adjacent to the camera; c) forming the character information and the input information corresponding to the motion vector as a control signal; And d) performing a device operation process corresponding to the control signal.
본 발명의 영상 정보를 이용한 입력 장치는, 카메라가 부착된 각종 전자기기에서 키보드, 터치 LCD, 마우스 등의 입력장치를 대신하여 입력 및 제어장치로 활용될 수 있다.The input device using the image information of the present invention can be utilized as an input and a control device in place of an input device such as a keyboard, a touch LCD, and a mouse in various electronic devices having a camera.
이하 첨부된 도면을 참조하여 본 발명의 실시예들에 대해 상세히 설명한다. 다만, 이하의 설명에서는 본 발명의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions will not be described in detail if they obscure the subject matter of the present invention.
도 1은 본 발명의 실시예에 따른 입력 장치를 보이는 블록도이다. 본 발명의 입력장치는 감지부(110), 저장부(120) 및 제어부(130)를 포함한다.1 is a block diagram showing an input device according to an embodiment of the present invention. The input device of the present invention includes a
감지부(110)는 사용자 영상(이하, 피사체라함)의 움직임을 감지하여 움직임 벡터를 형성한다. 감지부(110)의 움직임 벡터 추출에 대한 방법은 도 7a 내지 도 8b 를 참조하여 후술하도록 한다.The
저장부(120)는 문자 정보 및 입력 정보를 저장한다. 문자 정보는 도 2a에서 보이는 바와 같은 자음에 대한 정보와 도 2b에서 보이는 바와 같은 모음에 대한 정보를 포함한다. 입력 정보는 도 3에서 보이는 바와 같이 마우스 입력 정보에 대응하는 입력 정보를 매핑 테이블 형태로 저장한다.The
제어부(130)는 움직임 벡터와 문자 정보 및 제어 정보와 비교하여 해당 문자 정보 및 입력 정보를 입력 신호로 사용하기 위한 제어신호를 형성한다. 또한, 제어부(130)는 제어신호를 이용하여 제어신호에 대응하는 동작 처리를 수행한다. 예를 들어, 마우스의 트리플 클릭 1회에 대응하는 입력으로 사용자로부터 방향 신호를 입력받기 위한 방향 입력 모드로 전환이 가능하고, 마우스의 트리플 클릭 2회에 대응하는 입력으로 사용자로부터 문자 정보를 입력받기 위한 문자입력모드로 전환이 가능하다.The
즉, 카메라(미도시)에 가까운 곳에서 피사체의 정보를 획득하면 조도가 낮아서 대개의 경우 흑색으로 나타나고, 여백 부분은 백색으로 나타나게 된다. 이 흑/백의 명암 차이를 이용하여 피사체의 움직임을 움직임 벡터(Motion Vector)로 추출하고, 움직임 벡터를 이용하여 제어신호로 변환할 수 있다.That is, when the information of the subject is obtained near the camera (not shown), the roughness is low, so that it usually appears as black and the blank part appears as white. The motion of the subject is extracted as a motion vector by using the difference of the contrast between black and white, And can be converted into a control signal by using a vector.
도 4는 본 발명의 실시예에 따른 감지부의 필터를 보이는 예시도이다. 사용자의 영상 정보를 움직임 벡터로 추출하기 위한 감지부(110)는 테두리 필터(210)와 중앙 필터(220)를 포함한다. 4 is a view illustrating an example of a filter of a sensing unit according to an embodiment of the present invention. The
도 5는 본 발명의 실시예에 따른 필터의 상세한 구성을 보이는 예시도이다.필터들(210, 220)은 흑/백의 격자로 구성되고, 소정 주기(예를 들어, 10 msec)로 흑/백 격자가 반전되어 사용자 영상(이하, 피사체라한다) 정보의 면적 및 방향을 검출할 수 있도록 한다. 격자의 흰색부분은 피사체 정보가 존재하지 않는 부분이고, 검은색부분은 피사체 정보가 존재하는 부분이다. 이러한 격자모양으로 피사체 정보를 추출하는 이유는 피사체 면적을 쉽게 구하도록 하기 위해서이며, 피사체가 자주 흔들리는 경우 오차를 감소시켜 세밀한 측정을 하기 위해서이다. 필터(210, 220)의 격자가 흰색으로 나타나야 함에도 불구하고, 검은색으로 표시된다는 것은 피사체의 한 부분이 해당 위치에 존재한다는 것을 의미한다.5 is a diagram illustrating a detailed configuration of a filter according to an exemplary embodiment of the present invention. The
도 6은 본 발명의 실시예에 따른 사용자의 손가락을 이용하여 테두리 필터(210)와 중앙 필터(220)를 이용하여 움직임 벡터의 기준점을 설정하는 과정을 보이는 예시도이다. 집게손가락 영상의 정보가 중앙 필터(220)의 특정 영역(222)에서 시작하여 테두리 필터(210)의 아래 부분 특정 영역(212)에 위치하는 지점을 움직임 벡터의 기준점(SP)으로 설정한다. 움직임 벡터의 기준점(SP)은 사용자와 카메라의 거리를 사용자가 적절히 조절함으로써 설정할 수 있다.6 is a diagram illustrating a process of setting a reference point of a motion vector using a
도 7a 내지 7d는 본 발명의 실시예에 따른 4가지 방향에 대한 움직임 벡터 형성 방법을 보이는 예시도이다. 도 7a 및 도 7b는 기준점(SP)에서 오른쪽 또는 왼쪽 즉 수평 방향으로 이동한 경우의 움직임 벡터 형성 방법을 보이는 도면이다. 움직임 벡터의 기준점(SP)은 피사체가 위치해 있는 중앙 필터(220)의 특정 영역(222)과 테두리 필터(210)의 아래부분의 특정 영역(212)에 위치한 검은색 피사체의 위치로 설정할 수 있다. 필터(210, 220)의 흑/백의 격자들이 10msec의 주기로 반전되므로, 감지부(110)는 피사체의 이동 여부를 감지할 수 있다. 그러나 움직임 벡터의 기준점(SP) 설정은 상기 설명한 바에 한정되지 않고, 감지부(110)의 어떠한 위치에라도 설정이 가능하다. 피사체가 기준점(SP)에서 오른쪽 또는 왼쪽으로 500 msec 이내에 이동했다고 가정하면, 감지부(110)는 필터(210, 220)를 이용하여 10 msec의 주기로 피사체의 움직임을 감지한다. 따라서, 500msec 후에는 시작 위치(SP)에는 피사체에 대한 정보가 없고, 테두리 필터(210)의 오른쪽 또는 왼쪽 특정영역에 피 사체에 정보가 존재한다는 것을 확인할 수 있다. 따라서, 감지부(110)는 피사체가 오른쪽 또는 왼쪽으로 이동했다는 정보로 인식할 수 있다. FIGS. 7A to 7D are views illustrating a method of forming a motion vector for four directions according to an embodiment of the present invention. FIGS. 7A and 7B are views showing a method of forming a motion vector in a case where the reference point SP moves rightward or leftward, that is, in the horizontal direction. The reference point SP of the motion vector can be set to the position of the black subject located in the
도 7c는 기준점에서 위쪽 방향으로 이동한 경우 움직임 벡터 형성 방법을 보이는 도면이다. 기준점(SP)에서 피사체가 위로 이동했다는 정보는 중앙 필터(220)의 전체 영역이 검은색으로 추출되고, 테두리 필터(210)의 상위 영역(214),하위 영역(212)이 검은색으로 추출되는 것으로 파악할 수 있다. 도 7d는 기준점에서 아래쪽 방향으로 이동한 경우 움직임 벡터 형성 방법을 보이는 도면이다. 기준점(SP)에서 피사체가 아래로 이동했다는 정보는 중앙 필터(220)의 전체 영역이 백색으로 추출되고, 테두리 필터(210)의 하위 영역(212)이 검은색으로 추출되는 것으로 파악할 수 있다.FIG. 7C is a diagram showing a motion vector forming method when moving upward from the reference point. The information indicating that the subject moves up at the reference point SP is extracted as black in the entire area of the
도 7a 내지 7d를 바탕으로 설명한 4가지 방향에 대해서 움직임 벡터를 추출하는 것이 가능하며 필터(210, 220)가 검은색으로 나타나는 면적을 세분화함으로써 16가지 및 32가지 방향에 대해서 움직임 벡터를 추출할 수 있다.The motion vectors can be extracted for the four directions described with reference to FIGS. 7A to 7D, and the motion vectors can be extracted for 16 and 32 directions by subdividing the areas where the
도 8a는 피사체가 멀어짐에 관한 정보를 움직임 벡터를 형성하는 방법을 보이는 예시도이다. 피사체가 기준점(SP)에 있다고 가정한다. 중앙 필터(220)의 검은색 피사체가 차지하는 면적이 작아지고, 또한 테두리 필터(210)의 아래부분 특정영역(212)에 있던 피사체가 차지하는 면적 또한 작아지면 이는 피사체가 멀어진다는 의미의 움직임 벡터로 추출할 수 있다. 이는 마우스에서 버튼을 떼는 동작으로 전환할 수 있거나 마우스를 이동하다가 마우스를 위로 들어올려 취소시키는 동작으로 전환할 수 있으며, 또한 움직임 벡터 추출이 끝나는 동작으로도 전환할 수 있다.FIG. 8A is an exemplary view showing a method of forming a motion vector on information on the distant object. FIG. It is assumed that the subject is at the reference point SP. When the area occupied by the black object of the
도 8b는 피사체가 가까워짐에 관한 정보를 움직임 벡터로 형성하는 방법을 보이는 예시도이다. 중앙 필터(220)의 전체가 검은색으로 추출되고, 테두리 필터(210)의 좌,우 영역 아래부분과 테두리 필터(210) 아래 영역 전체가 검은색으로 추출되면 피사체가 가까워진다는 의미의 움직임 벡터로 추출할 수 있다. 이는 마우스의 버튼을 누르는 동작으로 전환할 수 있거나 마우스를 시작 및 이동하기 위해서 바닥에 두는 동작으로 전환할 수 있으며 또한 움직임 벡터 추출이 시작되는 동작으로도 전환할 수 있다.FIG. 8B is an exemplary view showing a method of forming information on the approach of a subject as a motion vector. FIG. If the whole of the
또한, 추출된 피사체 정보에 대한 시간정보를 이용하면 이동 속도로 전환이 가능하다. 도 7a를 예로 들어 설명하면, 기준 이동 시간이 500msec였다고 가정한다. 감지부(110)에서 산출한 이동 시간이 300msec였다면 이는 빠른 이동속도로 추출될 수 있으며, 반대로 1000 msec였다면 이는 느린 이동속도로 추출될 수 있다. 이는 모든 추출된 움직임 벡터에 적용가능하며 이동속도를 움직임 벡터에 추가할 수 있다.Further, by using the time information of the extracted subject information, it is possible to switch to the moving speed. Taking FIG. 7A as an example, it is assumed that the reference movement time is 500 msec. If the movement time calculated by the
상기 방법들은 특정 실시예들을 통하여 설명되었지만, 상기 방법들은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연 결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.While the above methods have been described through specific embodiments, the methods may also be implemented as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet) . In addition, the computer-readable recording medium may be distributed over a network-connected computer system so that computer readable code can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the above embodiments can be easily deduced by programmers of the present invention.
또한, 본 명세서에서는 본 발명이 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 당업자가 이해할 수 있는 본 발명의 정신 및 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.While the invention has been described in connection with certain embodiments thereof, it will be apparent to those skilled in the art that various modifications and variations can be made therein without departing from the spirit and scope of the invention . It is also contemplated that such variations and modifications are within the scope of the claims appended hereto.
도 1은 본 발명의 실시예에 따른 입력 장치를 보이는 블록도.1 is a block diagram showing an input device according to an embodiment of the present invention;
도 2a는 본 발명의 실시예에 따른 자음에 대한 문자 정보 보이는 예시도.FIG. 2A is an exemplary view showing character information of a consonant according to an embodiment of the present invention; FIG.
도 2b는 본 발명의 실시예에 따른 모음에 대한 문자 정보 보이는 예시도.FIG. 2B is an exemplary view showing character information for a vowel according to an embodiment of the present invention; FIG.
도 3은 본 발명의 실시예에 따른 마우스 입력 정보에 대응하는 입력 정보를 보이는 예시도.3 is an exemplary view showing input information corresponding to mouse input information according to an embodiment of the present invention;
도 4 및 5는 본 발명의 실시예에 따른 감지부의 필터를 보이는 예시도.4 and 5 are views showing an example of a filter of a sensing unit according to an embodiment of the present invention;
도 6는 본 발명의 실시예에 따른 움직임 벡터의 기준점 설정 과정을 보이는 예시도.6 is a view illustrating an example of a reference point setting process of a motion vector according to an embodiment of the present invention.
도 7a 내지 7d는 본 발명의 실시예에 따른 4가지 방향에 대한 피사체 정보 추출 방법을 보이는 예시도.FIGS. 7A to 7D are views showing a method of extracting subject information in four directions according to an embodiment of the present invention; FIG.
도 8a는 본 발명의 실시예에 따른 피사체가 멀어짐에 관한 정보를 피사체 정보로 추출하는 방법을 보이는 예시도.FIG. 8A is an exemplary view showing a method of extracting information on the distancing of a subject as subject information according to an embodiment of the present invention. FIG.
도 8b는 본 발명의 실시예에 따른 피사체가 가까워짐에 관한 정보를 피사체 정보로 추출하는 방법을 보이는 예시도.FIG. 8B is an exemplary view showing a method of extracting information about approach of a subject as subject information according to an embodiment of the present invention. FIG.
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090021998A KR101403845B1 (en) | 2009-03-16 | 2009-03-16 | Input apparatus and method for using image information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090021998A KR101403845B1 (en) | 2009-03-16 | 2009-03-16 | Input apparatus and method for using image information |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100103927A KR20100103927A (en) | 2010-09-29 |
KR101403845B1 true KR101403845B1 (en) | 2014-06-03 |
Family
ID=43008246
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090021998A KR101403845B1 (en) | 2009-03-16 | 2009-03-16 | Input apparatus and method for using image information |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101403845B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101053045B1 (en) * | 2011-01-07 | 2011-08-01 | 이정렬 | System for feeding information to image and method thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100858358B1 (en) * | 2006-09-29 | 2008-09-11 | 김철우 | Method and apparatus for user-interface using the hand trace |
-
2009
- 2009-03-16 KR KR1020090021998A patent/KR101403845B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100858358B1 (en) * | 2006-09-29 | 2008-09-11 | 김철우 | Method and apparatus for user-interface using the hand trace |
Also Published As
Publication number | Publication date |
---|---|
KR20100103927A (en) | 2010-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102667701B (en) | The method revising order in touch screen user interface | |
TWI397835B (en) | Input device, control method of input device, and program | |
KR102160767B1 (en) | Mobile terminal and method for detecting a gesture to control functions | |
JP5765019B2 (en) | Display control apparatus, display control method, and program | |
JP5802667B2 (en) | Gesture input device and gesture input method | |
US20170161014A1 (en) | Electronic device and method | |
KR102264444B1 (en) | Method and apparatus for executing function in electronic device | |
US20120050530A1 (en) | Use camera to augment input for portable electronic device | |
EP2068235A2 (en) | Input device, display device, input method, display method, and program | |
EP2701051A1 (en) | Electronic apparatus and control method thereof | |
KR101660576B1 (en) | Facilitating image capture and image review by visually impaired users | |
CN105308538A (en) | Systems and methods for performing a device action based on a detected gesture | |
CN104346056A (en) | Selection implementing method and device for intelligent terminals | |
KR102559030B1 (en) | Electronic device including a touch panel and method for controlling thereof | |
US11886643B2 (en) | Information processing apparatus and information processing method | |
CN103353826A (en) | Display equipment and information processing method thereof | |
KR20150145729A (en) | Method for moving screen and selecting service through fingerprint input, wearable electronic device with fingerprint sensor and computer program | |
US9148537B1 (en) | Facial cues as commands | |
KR101403845B1 (en) | Input apparatus and method for using image information | |
US12013987B2 (en) | Non-standard keyboard input system | |
KR101348763B1 (en) | Apparatus and method for controlling interface using hand gesture and computer-readable recording medium with program therefor | |
US9536526B2 (en) | Electronic device with speaker identification, method and storage medium | |
JP6108732B2 (en) | Portable terminal device, program, and situation detection method | |
JP2010067090A (en) | Information terminal device | |
EP3568745B1 (en) | Hover interaction using orientation sensing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
N231 | Notification of change of applicant | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190410 Year of fee payment: 6 |