KR20130128723A - 방향 입력장치 및 이를 이용한 사용자 인터페이스 조작 방법 - Google Patents

방향 입력장치 및 이를 이용한 사용자 인터페이스 조작 방법 Download PDF

Info

Publication number
KR20130128723A
KR20130128723A KR1020120052656A KR20120052656A KR20130128723A KR 20130128723 A KR20130128723 A KR 20130128723A KR 1020120052656 A KR1020120052656 A KR 1020120052656A KR 20120052656 A KR20120052656 A KR 20120052656A KR 20130128723 A KR20130128723 A KR 20130128723A
Authority
KR
South Korea
Prior art keywords
pad
mark
input device
mark surface
user
Prior art date
Application number
KR1020120052656A
Other languages
English (en)
Other versions
KR101341577B1 (ko
Inventor
김호연
Original Assignee
김호연
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김호연 filed Critical 김호연
Priority to KR1020120052656A priority Critical patent/KR101341577B1/ko
Priority to PCT/KR2013/003458 priority patent/WO2013172560A1/ko
Priority to CN201380037924.2A priority patent/CN104508603A/zh
Priority to US14/401,620 priority patent/US20150103052A1/en
Publication of KR20130128723A publication Critical patent/KR20130128723A/ko
Application granted granted Critical
Publication of KR101341577B1 publication Critical patent/KR101341577B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Position Input By Displaying (AREA)

Abstract

방향 입력장치 및 이를 이용한 사용자 인터페이스 조작 방법이 개시된다. 본 발명의 일 실시 예에 따른 방향 입력장치는 각 마크 별로 서로 상이한 코드를 갖는 마크들로 구성된 마크 면을 일면에 포함하거나 마크 면과 일체로 형성되는 패드부와, 패드부의 마크 면 방향으로 패드부와 물리적으로 연결되고, 광원을 통해 광을 패드의 마크 면에 조사하고 사용자 힘이 가해지면 센서를 통해 마크 면에 있는 소정의 마크로부터 반사된 광을 감지하여 이를 영상신호로 변환하는 광학부와, 패드부 와 광학부를 연결하는 연결부를 포함한다.

Description

방향 입력장치 및 이를 이용한 사용자 인터페이스 조작 방법 {Direction input device and user interface controlling method using the direction input device}
본 발명은 입력장치에 관한 것으로, 보다 상세하게는 방향 입력 장치에 관한 것이다.
입력장치를 이용하여 전자기기의 화면에 디스플레이되는 객체에 대한 사용자 조작이 가능하다. 예를 들어, 화면에 디스플레이되는 마우스 포인터의 위치나 방향을 변화시킬 수 있다. 이러한 입력장치의 예로 마우스, 조이스틱, 트랙볼, 터치패드, 트랙패드 등이 있다. 그 중 마우스가 가장 범용적으로 사용되고 있다. 마우스의 단점 중 하나는 반드시 마우스를 올려놓을 바닥면이 필요하다는 것이다. 따라서 모바일 환경에서는 마우스를 사용하기 어렵다. 또한 마우스는 넓은 바닥면이 필요하기 때문에 좁은 책상 등에서는 사용이 불편하여 마우스가 움직이기에 충분한 정도의 최소한의 작업 공간이 있어야 한다.
모바일 환경에서 주로 사용되는 입력장치는 터치패드와 트랙패드 등이 있다. 이 두 장치는 편리한 면도 있지만, 사용자가 의도하지 않은 터치로 인해 오 입력이 발생하고, 터치하더라도 정전기의 발생 정도가 달라서 입력이 잘 감지되지 않는 경우도 발생한다. 이러한 이유로 그림이나 도형을 그리는 작업을 하는 사람들은 터치를 이용하는 경우에 섬세한 작업이나 정밀 제어를 하기 어려우므로 터치보다는 마우스를 선호하는 경우가 많다.
조이스틱이나 트랙볼의 경우에는 방향을 입력하기는 비교적 수월하나 이동 거리를 제어하기가 불편해서 터치와 마찬가지로 그림을 그린다거나 CAD 작업 등의 정밀작업을 하는 데는 적합하지 않다. 이러한 기계적인 방식의 입력은 단순히 방향만을 제어하기에는 용이하나 섬세한 입력이나 제어를 하는 데는 미흡하다. 조이스틱 등은 주로 신속하게 방향을 선택해야 하는 게임 영역에서의 입력장치로 사용되는 경우가 많다.
기존 장치들 중 조이스틱 등은 기계식 동작이나 단순한 센서를 사용하여 섬세한 입력이 어려우며, 마우스 등은 평평한 바닥이 필요하거나 이동거리를 늘리기 위해서는 마우스를 들었다가 다시 놓는 작업을 반복해야 하는 불편함이 있고, 트랙패드 등은 손가락의 마찰 정도가 달라서 정밀한 움직임으로 제어하기가 어렵다.
일 실시 예에 따라, 방향이나 거리 입력과 제어를 위해서 마우스와 같이 바닥면이 필요한 장치가 아니면서 동시에 손가락 마찰이나 터치된 정전기 등에 방해받지도 않으며, 입력신호의 세기에 따라 정밀하게 반응할 수 있는 입력장치 및 이를 이용한 사용자 인터페이스 조작 방법을 제안한다.
일 실시 예에 따른 방향 입력장치는, 각 마크 별로 서로 상이한 코드를 갖는 마크들로 구성된 마크 면을 일면에 포함하거나 마크 면과 일체로 형성되는 패드부와, 패드부의 마크 면 방향으로 패드부와 물리적으로 연결되고, 광원을 통해 광을 패드의 마크 면에 조사하고 사용자 힘이 가해지면 센서를 통해 마크 면에 있는 소정의 마크로부터 반사된 광을 감지하여 이를 영상신호로 변환하는 광학부와, 패드부 와 광학부를 연결하는 연결부를 포함한다.
다른 실시 예에 따른 방향 입력장치를 이용한 사용자 인터페이스 조작 방법은, 패드부의 패드가 광원으로부터 생성된 광을 수신하는 단계와, 사용자 힘이 가해지면 사용자 힘의 방향에 따라 패드의 마크 면과 광학부가 상대적인 방향으로 이동하여 마크 면의 소정의 마크에서 광원으로터 수신된 광을 반사하는 단계와, 센서가 마크 면의 소정의 마크로부터 반사된 광을 감지하여 이를 영상신호로 변환하는 단계와, 프로세서가 센서를 통해 변환된 영상신호를 분석하여 사용자 입력의 크기와 방향, 속도 및 거리정보를 결정하는 단계를 포함한다.
일 실시 예에 따르면, 휴대가 가능하고 사용이 편리하다. 즉, 마우스와 같이 마우스를 지지하기 위한 바닥이 필요가 없고, 패드부와 광학부가 하나의 일체형으로 구성되어 3차원 공간에서 사용자가 휴대하면서 사용할 수 있다.
나아가, 정밀한 입력이 가능하다. 즉, 터치패드와 같이 손가락 마찰이나 터치된 정전기 등에 방해받지도 않으며, 입력신호의 세기에 따라 정밀하게 반응할 수 있다.
더 나아가 입력 장치 및 공간의 소형화가 가능하다. 마우스는 작게 만들더라도 움직일 수 있는 공간이 필요하기 때문에 일정 면적 이상의 공간이 있어야 하지만, 본 발명을 이용하면 소형 방향입력장치의 제작이 가능하다.
도 1은 본 발명의 일 실시 예에 따른 방향 입력장치의 구성도,
도 2는 본 발명의 일 실시 예에 따른 입력장치의 외관도,
도 3은 본 발명의 다른 실시 예에 따른 입력장치의 외관도,
도 4a 내지 도 4c는 본 발명의 또 다른 실시 예에 따른 입력장치의 외관도,
도 5a 및 도 5b는 본 발명의 다양한 실시 예에 따른 입력장치의 패드부의 외관도,
도 6은 본 발명의 일 실시 예에 따라 프로세서를 포함하는 입력장치의 내부 구조도,
도 7은 본 발명의 일 실시 예에 따른 패드부의 마크 면을 도시한 예시도,
도 8a 및 도 8b는 마크 면을 구성하는 마크에 있어서 유효한 마크와 무효한 마크의 예를 각각 도시한 예시도,
도 9는 본 발명의 일 실시 예에 따라 마크 판독이 용이하게 디자인한 마크 면을 도시한 참조도,
도 10은 본 발명의 일 실시 예에 따라 마크 면의 각 마크 간 간격을 도시한 참조도,
도 11은 본 발명의 일 실시 예에 따라 입력장치를 이용한 사용자 인터페이스 조작 방법을 도시한 흐름도이다.
이하에서는 첨부한 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시 예에 따른 방향 입력장치(이하 '입력장치'라 칭함)(1)의 구성도이다.
입력장치(1)는 전자장치의 화면에 디스플레이되는 객체에 대한 사용자 조작을 가능하게 하는 포인팅 장치이다. 디스플레이 객체는 화면에 디스플레이되는 마우스 포인터를 포함한다. 입력장치(1)는 휴대 가능한 형태일 수 있으며, 전자장치와는 별도로 분리된 형태이거나 휴대 가능한 전자장치에 내장된 형태일 수 있다. 전자장치는 입력장치(1)로부터 입력 파라미터인 입력 크기와 방향, 속도 및 거리정보를 입력받아, 화면에서 디스플레이 객체의 방향이나 위치를 변화시킬 수 있다. 전자장치는 디스플레이 기능을 갖는 모든 장치를 포함하는데, 예를 들어 각종 컴퓨터, 개인용 휴대 정보 단말기(PDA), 휴대용 전자기기, 무선통신 기기, 휴대폰, 셀 방식의 스마트폰, 노트북 컴퓨터 등일 수 있다.
도 1을 참조하면, 입력장치(1)는 패드부(10)와 광학부(12)를 포함하고, 패드부(10)는 패드(100)와 마크 면(100a)을 포함하며, 광학부(12)는 광원(120)과 센서(122)를 포함한다.
패드(100)와 광원(120) 및 센서(122)는 광학적으로 연결된다. 여기서 광학적 연결은, 광(light)이 광 가이드 부재나 매체, 물리 채널 또는 이들의 결합형태를 통해 단지 공기를 사용하여 소정의 대상에 도달하도록 허용하는 임의의 연결을 의미한다.
광원(120)은 광을 방출하는데, 방출하는 광은 예를 들어, 가시 광선, 비 가시광선 또는 양쪽 모두를 포함할 수 있다. 비 가시광선의 일 예는 적외선 광이다. 광원(120)은 발광 다이오드(LED) 형태일 수 있다. 광원(120)에서 방출된 광은 패드(100)에 도달하고 그 중 일부는 반사될 수 있다. 이때, 사용자의 손가락 끝이나 손바닥 등의 입력 물체에 의해 움직이는 패드(100) 하단에서 패드(100)와는 분리 고정된 위치에 있는 센서(122)가 패드(100)의 마크 면(100a)으로부터 반사된 광을 수신할 수 있다.
패드(100)는 도 1에 도시된 바와 같이 하부에 각 마크 별로 서로 상이한 코드를 갖는 마크들로 구성된 마크 면(100a)이 형성된다. 예를 들어, 마크 면(100a)에 3×3 마크 또는 4×4 등의 크기를 갖는 각 마크 별로 서로 상이한 코드가 인쇄된다. 이때 코드는 예를 들어 이차원 바코드와 유사한 형태일 수 있다. 각 마크 별로 서로 상이한 코드를 가지므로, 센서(122)는 특정 마크의 코드만 판독하면 마크 면(100a)에서 현재 마크의 위치를 알 수 있고 이를 이용해서 현재 마크 면과 광학부(12)의 상대적인 위치를 파악할 수 있다. 마크 면(100a)에 형성되는 코드는 반도체 공정 장비 등을 통해 소정의 좁은 영역에 인쇄될 수 있다. 즉, 약간의 움직임에도 정밀하게 반응할 수 있도록 하기 위해 매우 좁은 영역에 인쇄된다. 물론 마크의 크기는 카메라의 해상도와 연관성이 있다. 해상도가 높으면 마크의 크기가 크거나 개수가 작아도 정밀한 제어가 가능하도록 할 수 있다. 서로 상이한 코드를 갖는 마크들로 구성된 마크 면(100a)의 형태에 대한 실시 예는 도 7 내지 도 10에서 후술한다.
일 실시 예에 따라, 패드(100)의 마크 면(100a)은 사용자 입력에 의해 자체가 움직이고 광학부(12)가 고정된다. 이때, 마크 면(100a)은 패드(100)에 사용자의 손가락 끝이나 손바닥 등의 사용자 입력으로 가해지는 힘에 따라 광학부(12)와는 상대적으로 반대 방향으로 이동한다. 다른 실시 예에 따라, 마크 면(100a)이 고정되고 광학부(12)가 이동되는 반대의 구조로 제작될 수 있다. 이때, 광학부(12)는 사용자의 손가락 끝이나 손바닥 등의 사용자 입력으로 가해지는 힘에 따라 마크 면(100a)과는 상대적으로 반대 방향으로 이동한다.
사용자 입력이 발생하면 마크 면(100a)의 마크들 중에 소정의 마크를 통해 광원(120)으로부터 수신된 광을 센서(122)로 반사한다. 마크 면(100a) 없이 손가락 터치 움직임에 따라 입력을 제어하면 입력이 정밀하지 못하고 손가락 마찰에 의해 입력이 불연속적일 수 있다. 또한 이동 거리가 큰 경우 손가락으로 터치를 반복해야 한다. 그러나, 본 발명과 같이 마크 면(100a)을 이용하면 마크 면(100a)의 현재 상대적 위치를 판별할 수 있으므로 정확하게 마크 면(100a)이 광학부(12)를 기준으로 상대적으로 이동한 만큼의 입력을 인식할 수 있고 마크면(100a)이 특정 방향으로 상대적으로 이동한 벡터 크기만큼의 속도로 동일 방향으로 계속 움직이도록 제어할 수도 있기 때문에 반복 터치를 하지 않아도 된다.
센서(122)는 패드(100)의 마크 면(100a)으로부터 반사된 광을 감지하는데, 마크 면(100a)에 있는 소정의 마크로부터 반사된 광을 감지하여 이를 이미지 형태의 전기신호로 변환한다. 센서(122)는 영상센서 또는 카메라 형태일 수도 있다.
본 발명의 추가 실시 예에 따르면, 광원(120)과 패드(100) 사이, 패드(100)와 센서(122) 사이에 렌즈를 더 포함할 수 있다. 광원(120)과 패드(100) 사이의 렌즈는 광원(120)에서 발생한 광을 모으는 역할을 하고, 패드(100)와 센서(122) 사이의 렌즈는 패드(100)에서 반사된 광을 모아 센서(122)로 전달하는 역할을 한다.
도 2는 본 발명의 일 실시 예에 따른 입력장치(1a)의 외관도이다.
도 2를 참조하면, 입력장치(1)는 마크 면을 갖는 패드(100)를 포함하는 패드부(10)와, 광원(120)과 센서(122) 및 렌즈(130,140)를 포함하는 광학부(12)와, 연결부(14)로 구성된다.
입력장치(1a)는 휴대 가능한 형태로도 제작될 수 있다. 예를 들어 도 2에 도시된 바와 같이 볼펜 형태와 같이 막대 형으로도 제작될 수 있다. 이 경우, 마크 면(100a)이 하단에 형성된 패드부(10)에 사용자 입력이 가해지면, 예를 들어 패드(100)가 중심 위치에서 상하좌우로 이동하거나 눌림이 가해질 경우 입력 프로세스를 시작할 수 있다. 한편, 도 2에서는 입력장치(1a)가 볼펜 형태를 갖지만, 이는 본 발명의 이해를 돕기 위한 일 실시 예일 뿐 다양한 형태로 변경될 수 있음은 물론이다.
패드부(10)와 광학부(12)는 도 2에 도시된 바와 같이 한 방향의 움직임이 고정된 상태에서 상호 상대적으로 상하좌우 이동 가능하도록 구성되고 물리적으로는 하나로 연결된 일체형이다. 이때, 광학부(12)의 광원(120)과 센서(122)가 패드부(10)의 마크 면(100a) 방향에 고정되고, 패드부(10)의 패드(100) 마크 면(100a)이 광학부(12)로 향하며 사용자 입력에 따라 움직일 수 있는 구조를 갖을 수 있다. 혹은 반대로 패드부(10)가 고정되고 광학부(12)가 움직일 수 있는 구조를 가질 수도 있다.
패드부(10)와 광학부(12)를 연결하는 연결부(14)는 예를 들어 조이스틱이나 버튼의 연결부재와 같은 형태일 수 있다. 연결부(14)는 상하좌우 움직임이 가능하도록 두 개의 축이 있는 구조가 될 수도 있고 평면상에서의 움직임이 가능한 구조가 될 수도 있다.
일 실시 예에 따르면 패드부(10)는 버튼 형태이거나 캡슐 형태일 수 있다. 패드부(10)는 상하좌우 등 소정의 방향으로 이동 가능하도록 제작될 수 있고, 또는 특정 방향과 상관없이 자유자재로 회전 가능하도록 제작될 수도 있다.
패드부(10)는 도 2에 도시된 바와 같이 사용자 접촉이 가능한 외부 표면을 가진 하우징을 갖는다. 그리고, 하우징 내부에 패드(100)를 포함한다. 패드(100)는 광학부(12) 방향으로 각 마크 별로 서로 상이한 코드를 갖는 마크들로 구성된 마크 면(100a)을 갖는다. 패드(100)의 마크 면(100a)은 사용자 접촉에 따라 가해지는 힘과 동일 방향 혹은 역방향으로 이동하는 마크 면(100a)의 소정의 마크를 통해 수신된 광을 센서(122)로 반사한다.
패드부(10)의 일면에 형성된 마크 면(100a) 혹은 광학부(12)가 움직이는 형태를 가짐에 따라, 마크 면(100a)이 상대적으로 움직인 방향뿐만 아니라 마크 면(100a)의 상대위치를 계산할 수 있다. 즉, 사용자 입력 시에 마크 면(100a)이 중심 위치에서 어떤 방향으로 얼마나 움직임이 발생했는지를 계산함으로써 마우스와 같은 벡터 입력을 발생시킬 수 있다. 손가락 터치만으로는 이전 영상과 다음 영상을 비교해서 영상이 움직인 방향만 측정 가능하고 그것도 마찰로 인해 움직임이 자연스럽지 않은데 비하여, 마크가 인쇄된 패드부(10)를 사용함에 따라, 조이스틱처럼 움직인 방향을 알 수 있을 뿐 아니라 원점으로부터의 상대 위치와 거리를 정밀하게 계산할 수 있고, 사용자 입력 또한 자연스럽게 된다.
도 3은 본 발명의 다른 실시 예에 따른 입력장치(1b)의 외관도이다.
도 3의 입력장치(1b)와 도 1의 입력장치(1a)와의 차이점은 도 3의 입력장치(1b)는 마크 면(100a)이 연결부(14)의 상단에 위치하는 것이 아니라, 연결부(14)의 하단에 위치한다는 점이다. 예를 들어, 도 3에 도시된 바와 같이, 축 역할을 하는 연결부(14) 하단에 마크 면(100a)이 형성된다. 이 경우, 센서(122)의 이미지 획득에 방해가 되는 장애물이 없어지고, 패드부(10)의 이동이 용이해진다. 연결부(14)는 상하좌우 움직임이 가능하도록 두 개의 축이 있는 구조가 될 수도 있고, 평면상에서의 움직임이 가능한 구조가 될 수도 있다.
본 발명의 추가 실시 예에 따라, 입력장치(1b)는 복원부(16)를 포함한다. 복원부(16)는 패드부(10)의 패드(100)와 연결부(14) 사이에 형성될 수 있다. 복원부(16)는 사용자의 힘이 가해지지 않은 경우에는 패드부(10)와 광학부(12)의 상대적 위치가 원점으로 복원될 수 있도록 하는 기능을 하며, 예를 들어 스프링 등일 수 있다. 원점은 마크 면의 중앙이 바람직하나 복원부(16)의 유격 등에 따라 완전한 중앙으로 조정하기 어려울 수 있으므로, 사용자의 힘이 가해지지 않은 상태에서의 위치를 원점으로 재설정하도록 할 수 있다. 이렇게 함으로써 사용자가 힘을 가하지 않으면 상대위치는 항상 원점으로 복원될 수 있도록 할 수 있다.
도 4a 내지 도 4c는 본 발명의 또 다른 실시 예에 따른 입력장치(1c)의 외관도이다.
도 4a 내지 도 4c를 참조하면, 입력장치(1c)는 마우스 형태일 수 있다. 도 4a는 입력장치(1c)의 상부 모습을 도시한 것이고, 도 4b와 도 4c는 다양한 실시 예에 따른 입력장치(1c)의 측면 모습을 도시한 것이다.
도 4a에 도시된 바와 같이, 패드부(10)는 그 상면에 추가적인 버튼을 포함할 수 있다. 즉, 마우스와 마찬가지로 패드부(10) 상면에 좌우 버튼을 추가하도록 할 수도 있다. 혹은 패드부(10) 자체가 클릭이 가능한 버튼이 되도록 디자인할 수도 있다.
한편, 도 4b에 도시된 바와 같이, 광학부(12)는 패드부(10)의 마크 면(100a) 하단에 형성되고 광학부(12)가 고정되어, 패드부(10)가 사용자 입력에 따라 이동될 수 있다. 이 경우, 패드부(10) 상부에 사용자의 클릭 동작 수행을 위한 좌우 버튼을 포함하거나, 패드부(10) 자체가 클릭 가능한 버튼 형태일 수 있다. 또는 도 4c에 도시된 바와 같이, 광학부(12)는 패드부(10)의 마크 면(100a) 상단에 형성되고 패드부(10)가 고정되어, 광학부(12)가 사용자 입력에 따라 이동될 수 있다.
도 5a 및 도 5b는 본 발명의 다양한 실시 예에 따른 입력장치(1)의 패드부(10)의 외관도이다.
일 실시 예에 따르면, 패드부(10)는 도 5a에 도시된 바와 같이 외부 표면이 볼록한 조이스틱형일 수 있고, 도 5b에 도시된 바와 같이 외부 표면이 오목한 버튼형일 수 있다. 버튼형일 경우, 눌림이 있는 경우 사용자 입력을 시작하고, 마크 면의 눌림이 해제되거나 마크 면이 원점으로 이동하면 사용자 입력을 중단하도록 할 수 있다. 버튼의 눌림은 마우스의 클릭 버튼과 같이 입력을 결정하는 기능을 하도록 설정할 수도 있고 입력 시작/끝 신호와 마우스 버튼의 두 가지 기능을 할 수 있도록 2단 버튼으로 만들 수도 있다.
도 6은 본 발명의 일 실시 예에 따라 프로세서(150)를 포함하는 입력장치(1)의 내부 구조도이다.
도 6을 참조하면, 입력장치(1)는 패드(100), 광원(120), 센서(122) 및 프로세서(150)를 포함한다.
패드(100), 광원(120) 및 센서(122)의 구성은 전술한 도면을 참조로 설명하였으므로, 프로세서(150)를 중심으로 후술한다.
프로세서(150)는 광원(120)의 광 조사를 제어한다. 그리고, 센서(122)를 통해 획득한 영상신호를 분석하여 광 반사가 이루어진 패드(100)의 마크 면의 마크 위치를 계산하여 패드(100)의 현재 상대위치를 계산한다. 그리고, 이전에 획득한 패드(100)의 상대위치와 패드(100)의 현재 상대위치의 차이와, 두 위치 간의 이동에 소요된 시간으로부터 이동속도를 계산한다. 이어서, 계산된 상대위치와 이동속도를 이용하여 입력크기와 속도 및 방향 벡터를 포함한 입력 파라미터들을 결정한다.
프로세서(150)가 사용자 입력에 의해 상대적으로 움직인 패드(100)의 마크 면을 이용하여 입력 벡터값을 계산하는 방법은, 패드(100)의 마크 위치가 원점에서 멀리 떨어져 있을수록 마우스를 빠른 속도로 움직이는 것과 동일한 입력을 지속적으로 발생시킬 수 있고, 마크 위치가 원점에서 가까울수록 마우스를 해당 벡터 방향으로 천천히 움직인 것과 동일한 입력을 발생시킬 수 있다. 즉, 마우스와 같이 이동거리를 늘리기 위해서 계속 움직이거나 들었다가 다시 놓는 작업을 반복하지 않더라도 조이스틱처럼 한쪽 방향으로 이동하는 동작을 통해 계속 해당 방향으로 입력되도록 할 수 있다.
본 발명의 입력장치(1)와 조이스틱과의 차이는, 위치에 따라서 벡터값의 크기나 움직이는 속도를 정밀하게 제어할 수 있다는 점이다. 조이스틱에서도 움직인 크기나 압력센서를 이용해서 크기를 입력할 수 있으나, 본 발명의 광 특성을 이용하는 구성에 비해서 정밀도가 떨어진다. 또한, 마크 면이 직전 영상 이후로 움직인(좌표값이 변경된) 속도에 따라서 입력속도나 방향 벡터의 크기를 결정할 수 있다. 즉, 원점에서 현재의 마크 면 좌표로 이동한 속도와 현재의 마크 면이 원점으로부터 떨어진 거리에 대한 함수값으로부터 해당 방향으로의 입력 벡터(예: 마우스 이동 속도)를 계산할 수 있다.
본 발명의 입력장치(1)와 터치 패드와의 차이는, 터치 패드와 달리 손가락 마찰이나 터치된 정전기에 방해받지 않으면서, 입력 신호의 세기에 따라 정밀하게 반응할 수 있다는 데에 있다.
도 7은 본 발명의 일 실시 예에 따른 패드부(10)의 마크 면을 도시한 예시도이고, 도 8a 및 도 8b는 마크 면을 구성하는 마크에 있어서 유효한 마크와 무효한 마크의 예를 각각 도시한 예시도이다.
도 7을 참조하면, 일 실시예에 따라 마크 면(100a)을 3×3 마크들로 설계할 수 있다. 도 7에 도시된 바와 같이, 서로 패턴이 다른 마크를 마크 면(100a)에 배치하되 마크를 좌우 상하로 일렬로 정렬할 수 있다.
이때, 도 8a에 도시된 바와 같이 마크의 x, y 방향 프로젝션에서 비어 있는 셀이 없도록 마크 패턴을 설계한다. 즉, 마크 면의 하나의 마크를 구성하는 셀들에 있어서 각 행과 열 별로 모두 비워진 행이나 열이 없도록 코드화된다. 여기서 비워짐은 코드가 이진 값을 갖는 경우 '0'의 값을 갖는 것을 의미한다. 3×3 마크의 경우 이런 제약을 감안하면 생성 가능한 코드의 개수는 32개이다. 즉, 원래는 이진 코드를 사용할 경우 29 개로 128개의 코드 패턴이 가능하나, 도 8b에 도시된 바와 같이 하나 이상의 행이나 열이 비워진 경우는 제외되므로, 가능 패턴의 개수는 32개가 된다. 즉 도 8a에 도시된 바와 같은 마크 패턴을 설계하되, 도 8b에 도시된 바와 같은 하나 이상의 행이나 열이 빈 자리가 있는 마크가 없도록 설계한다.
그러면 추후 센서를 통해 획득한 영상신호를 분석할 때, x, y축 프로젝션만 해봐도 유효한 마크의 위치를 쉽게 찾을 수 있다. 이때 유효한 마크의 위치는 x, y축 방향의 프로젝션이 3개 연속으로 비어있지 않은 영역이며, 찾아진 영역에서 마크를 쉽게 판독할 수 있다.
한편, 본 설명에서 마크는 이진 값을 이용했으나, 명도 값이나 컬러 값을 이용하면, 보다 정밀한 코드 설계가 가능하다. 센서의 성능과 특성에 따라서 다양한 설계가 가능하다. 명도 값은 절대값으로 사용할 수도 있지만 상대적인 값의 차이를 이용하거나 하나의 마크 내에서 몇 개의 레벨만 정의해서 사용할 수도 있다.
도 9는 본 발명의 일 실시 예에 따라 마크 판독이 용이하게 디자인한 마크 면을 도시한 참조도이고, 도 10은 각 마크 간 간격을 도시한 참조도다.
도 6과 도 9 및 도 10을 참조하면, 센서(122)가 마크 면(100a)으로부터 반사된 광을 수신시에 최소한 하나 이상의 마크로부터 광을 수신하도록 마크 면(100a)이 설계된다. 예를 들어, 도 10에 도시된 바와 같이 각 마크가 3×3 크기를 갖고, 마크와 마크 사이의 간격을 2 셀로 설정하면, 센서(122)는 참조부호 510과 같이 7×7 이상의 크기로 설계되어야 한다. 이렇게 하면 도 9의 참조부호 500에 해당하는 빗금으로 표시된 영역이 센서(122)의 중심좌표가 이동 가능한 범위, 즉 측정 가능한 이동범위가 된다.
3×3 크기를 갖는 마크를 판독을 위해서, 7×7 크기를 갖는 센서(122)의 해상도를 설계해야 한다. 물론 해당 영역을 커버할 수 있다면 해상도는 높을수록 유리하나, 3×3 크기의 마크 판독을 위해서 경계 부분에서의 오류를 고려해서 판별 가능한 최소한의 해상도를 설계한다. 예를 들어 하나의 셀을 담당하는 화소가 최소 3×3 이상이면 큰 문제가 없으므로 센서의 화소 크기는 (7×3)×(7×3) = 441 이상이면 좋다. 이 경우 정밀도는 가로 세로, 각각 30×3 = 90 크기의 격자가 가능하다. 물론 입력 정밀도가 이보다 작아도 될 경우 마크 크기를 줄이는 등의 다양한 변경이 가능하다.
도 11은 본 발명의 일 실시 예에 따라 입력장치(1)를 이용한 사용자 인터페이스 조작 방법을 도시한 흐름도이다.
도 6과 도 11을 참조하면, 입력장치(1)는 패드(100)가 광원(120)으로부터 생성된 광을 수신한다(800). 이어서, 사용자 입력이 발생하면, 사용자 입력에 가해지는 힘의 방향에 따라 패드(100)의 마크 면과 광학부가 상대적인 방향으로 이동하여 마크 면의 소정의 마크에서 광원으로터 수신된 광을 반사한다(810). 그리고, 센서(122)가 마크 면의 소정의 마크로부터 반사된 광을 감지하여 이를 영상신호로 변환한다(820).
이어서, 프로세서(150)가 센서(122)를 통해 변환된 영상신호를 분석하여 사용자 입력의 크기와 방향, 속도 및 거리정보를 포함한 입력 파라미터를 결정한다(830). 일 실시 예에 따르면, 프로세서(150)는 센서(122)를 통해 획득한 영상신호를 분석하여 광 반사가 이루어진 패드(100)의 마크 위치를 계산하여 패드(100)의 현재 상대위치를 계산하고, 이전에 획득한 패드(100)의 상대위치와 패드(100)의 현재 상대위치의 차이와, 두 위치 간의 이동에 소요된 시간으로부터 이동속도를 계산한다. 그리고, 계산된 상대위치와 이동속도를 이용하여 입력크기와 속도 및 방향 벡터를 결정한다.
한편, 본 발명의 추가 실시 예에 따르면, 마크 면 눌림 시에 사용자 입력을 시작하고, 전술한 프로세스 수행 이후에 마크 면 눌림이 해제되거나 마크 면이 원점으로 이동하면 사용자 입력을 중지한다.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
1, 1a, 1b, 1c : 입력장치 10 : 패드부
12 : 광학부 14 : 연결부
16 : 복원부 100 : 패드
100a : 마크 면 120 : 광원
122 : 센서 150 : 프로세서

Claims (17)

  1. 각 마크 별로 서로 상이한 코드를 갖는 마크들로 구성된 마크 면을 일면에 포함하거나 마크 면과 일체로 형성되는 패드부;
    상기 패드부의 마크 면 방향으로 상기 패드부와 물리적으로 연결되고, 광원을 통해 광을 상기 패드부의 마크 면에 조사하며 사용자 힘이 가해지면 센서를 통해 상기 패드부의 마크 면의 소정의 마크로부터 반사된 광을 감지하여 이를 영상신호로 변환하는 광학부; 및
    상기 패드부와 상기 광학부를 연결하는 연결부;
    를 포함하는 것을 특징으로 하는 방향 입력장치.
  2. 제 1 항에 있어서,
    상기 광학부는 상기 패드부의 마크 면 하단에 형성되고,
    상기 광학부가 고정되고, 상기 패드부에 사용자 힘이 가해져 상기 패드부의마크 면이 상기 광학부와는 상대적으로 반대 방향으로 이동되는 것을 특징으로 하는 방향 입력장치.
  3. 제 2 항에 있어서, 상기 패드부는
    상기 패드부 상부에 사용자의 클릭 동작 수행을 위한 버튼을 포함하거나, 상기 패드부 자체가 사용자가 클릭 가능한 버튼 형태인 것을 특징으로 하는 방향 입력장치.
  4. 제 1 항에 있어서,
    상기 광학부는 상기 패드부의 마크 면 상단에 형성되고,
    상기 패드부가 고정되고 상기 광학부에 사용자 힘이 가해져 상기 광학부가 상기 패드부의 마크 면과는 상대적으로 반대 방향으로 이동되는 것을 특징으로 하는 방향 입력장치.
  5. 제 1 항에 있어서,
    상기 센서의 이미지 획득을 위하여 상기 패드부의 마크 면이 상기 연결부의 하단에 위치하는 것을 특징으로 하는 방향 입력장치.
  6. 제 5 항에 있어서,
    상기 연결부는 상하좌우 움직임이 가능하도록 두 개의 축을 갖는 것을 특징으로 하는 방향 입력장치.
  7. 제 1 항에 있어서,
    사용자 힘이 가해지지 않는 경우에는 상기 패드부와 상기 광학부의 상대적 위치를 원점으로 복원시키는 복원부;
    를 더 포함하는 것을 특징으로 하는 방향 입력장치.
  8. 제 1 항에 있어서,
    상기 방향 입력장치는 마우스 형태인 것을 특징으로 하는 방향 입력장치.
  9. 제 1 항에 있어서,
    상기 방향 입력장치는 상기 패드부가 사용자에 의해 눌러지거나 상하좌우로 이동 가능한 버튼으로 구성된 볼펜 형태인 것을 특징으로 하는 방향 입력장치.
  10. 제 1 항에 있어서, 상기 패드부는
    상기 패드부의 마크 면에서 하나의 마크를 구성하는 셀들에 있어서 각 행과 열 별로 모두 비워진 행이나 열이 없도록 코드화되는 것을 특징으로 하는 방향 입력장치.
  11. 제 1 항에 있어서,
    상기 패드부의 마크 면의 마크들은 이진 값, 명도 값 및 컬러 값 중 하나를 이용하여 코드화되는 것을 특징으로 하는 방향 입력장치.
  12. 제 1 항에 있어서,
    상기 광학부의 센서를 통해 획득한 영상신호를 분석하여 광 반사가 이루어진 패드 영상에서 하나 이상의 마크와 해당 위치를 판독하여 상기 패드부의 현재 상대위치를 계산하고, 미리 정의된 원점으로부터 현재 상대위치까지의 벡터값을 이용하여 입력크기와 속도 및 방향 벡터를 포함하는 입력 파라미터를 계산하는 프로세서;
    를 더 포함하는 것을 특징으로 하는 방향 입력장치.
  13. 제 12 항에 있어서, 상기 프로세서는,
    이전에 획득한 일련의 패드부의 상대위치와 상기 패드부의 현재 상대위치의 차이와, 두 위치 간의 이동에 소요된 시간으로부터 이동속도를 계산하고,
    상기 패드부의 상대위치 차이와 이동속도를 이용하여 입력크기와 속도 및 방향 벡터를 계산하는 것을 특징으로 하는 방향 입력장치.
  14. 방향 입력장치를 이용한 사용자 인터페이스 조작 방법에 있어서,
    패드부의 패드가 광원으로부터 생성된 광을 수신하는 단계;
    사용자 힘이 가해지면, 사용자 힘의 방향에 따라 상기 패드부의 마크 면과 광학부가 상대적인 방향으로 이동하여 마크 면의 소정의 마크에서 상기 광원으로터 수신된 광을 반사하는 단계;
    상기 광학부의 센서가 상기 마크 면의 소정의 마크로부터 반사된 광을 감지하여 이를 영상신호로 변환하는 단계; 및
    프로세서가 상기 센서를 통해 변환된 영상신호를 분석하여 사용자 입력 방향 및 거리정보를 포함하는 입력 파라미터를 계산하는 단계;
    를 포함하는 것을 특징으로 하는 사용자 인터페이스 조작 방법.
  15. 제 14 항에 있어서, 상기 입력 파라미터를 계산하는 단계는,
    상기 영상신호를 분석하여 광 반사가 이루어진 패드의 마크 위치를 판독하여 상기 패드부의 현재 상대위치를 계산하는 단계; 및
    미리 정의된 원점으로부터 현재 패드부의 상대위치까지의 벡터값을 이용하여 입력크기와 속도 및 방향 벡터를 포함하는 입력 파라미터를 계산하는 단계;
    를 포함하는 것을 특징으로 하는 인터페이스 조작 방법.
  16. 제 14 항에 있어서, 상기 입력 파라미터를 계산하는 단계는,
    이전에 획득한 일련의 패드부의 상대위치와 상기 패드부의 현재 상대위치의 차이와, 두 위치 간의 이동에 소요된 시간으로부터 이동속도를 계산하는 단계; 및
    상기 패드부의 상대위치 차이와 이동속도를 이용하여 입력크기와 속도 및 방향 벡터를 계산하는 단계;
    를 포함하는 것을 특징으로 하는 사용자 인터페이스 조작 방법.
  17. 제 14 항에 있어서,
    마크 면 눌림 시에 사용자 입력 이벤트를 시작하는 단계; 및
    마크 면 눌림이 해제되거나 마크 면이 원점으로 이동하면 사용자 입력 이벤트를 중지하는 단계;
    를 더 포함하는 것을 특징으로 하는 사용자 인터페이스 조작 방법.
KR1020120052656A 2012-05-17 2012-05-17 방향 입력장치 및 이를 이용한 사용자 인터페이스 조작 방법 KR101341577B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120052656A KR101341577B1 (ko) 2012-05-17 2012-05-17 방향 입력장치 및 이를 이용한 사용자 인터페이스 조작 방법
PCT/KR2013/003458 WO2013172560A1 (ko) 2012-05-17 2013-04-23 방향 입력장치 및 이를 이용한 사용자 인터페이스 조작 방법
CN201380037924.2A CN104508603A (zh) 2012-05-17 2013-04-23 方向输入装置和利用方向输入装置操作用户界面的方法
US14/401,620 US20150103052A1 (en) 2012-05-17 2013-04-23 Direction input device and method for operating user interface using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120052656A KR101341577B1 (ko) 2012-05-17 2012-05-17 방향 입력장치 및 이를 이용한 사용자 인터페이스 조작 방법

Publications (2)

Publication Number Publication Date
KR20130128723A true KR20130128723A (ko) 2013-11-27
KR101341577B1 KR101341577B1 (ko) 2013-12-13

Family

ID=49583931

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120052656A KR101341577B1 (ko) 2012-05-17 2012-05-17 방향 입력장치 및 이를 이용한 사용자 인터페이스 조작 방법

Country Status (4)

Country Link
US (1) US20150103052A1 (ko)
KR (1) KR101341577B1 (ko)
CN (1) CN104508603A (ko)
WO (1) WO2013172560A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6375672B2 (ja) * 2014-01-21 2018-08-22 セイコーエプソン株式会社 位置検出装置、及び位置検出方法
US10444040B2 (en) * 2015-09-25 2019-10-15 Apple Inc. Crown with three-dimensional input
CN107102750B (zh) * 2017-04-23 2019-07-26 吉林大学 一种基于笔式交互系统的虚拟三维空间中目标的选择方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03249870A (ja) * 1989-10-31 1991-11-07 Kuraray Co Ltd 光学読取り装置用のパッド
NO300943B1 (no) * 1995-04-03 1997-08-18 Steinar Pedersen Redskap for posisjonering og kontroll av objekter i to eller tre dimensjoner
US6686579B2 (en) * 2000-04-22 2004-02-03 International Business Machines Corporation Digital pen using speckle tracking
IL151213A0 (en) * 2000-12-15 2003-04-10 Finger System Inc Pen type optical mouse device and method of controlling the same
KR100650623B1 (ko) * 2004-03-12 2006-12-06 (주)모비솔 스위치 기능을 갖는 광학식 포인팅 장치
TWI221186B (en) * 2003-09-19 2004-09-21 Primax Electronics Ltd Optical detector for detecting relative shift
KR100734246B1 (ko) * 2003-10-02 2007-07-02 (주)모비솔 반사거울을 이용한 광학식 포인팅 장치
KR100547090B1 (ko) * 2004-01-12 2006-01-31 와우테크 주식회사 펜형 광마우스
KR100551213B1 (ko) * 2004-05-27 2006-02-14 와우테크 주식회사 광학 펜 마우스
KR20060032251A (ko) * 2004-10-11 2006-04-17 김진일 휴대형 소형 단말기용 광마우스
KR20060032461A (ko) * 2004-10-12 2006-04-17 삼성전자주식회사 무선 광마우스를 구비한 휴대용 통신 장치
TW200807287A (en) * 2006-07-21 2008-02-01 Kye Systems Corp Optical operation input device
CN101149648A (zh) * 2006-09-21 2008-03-26 郑东兴 鼠标
KR20080058219A (ko) * 2006-12-21 2008-06-25 이문기 카메라를 이용한 3차원 마우스
CN201556171U (zh) * 2009-06-19 2010-08-18 原相科技股份有限公司 鼠标滚轮装置
KR101116998B1 (ko) * 2009-11-24 2012-03-16 대성전기공업 주식회사 스위치 장치
CN202177873U (zh) * 2011-06-28 2012-03-28 刘笃林 一种空中鼠标

Also Published As

Publication number Publication date
CN104508603A (zh) 2015-04-08
WO2013172560A1 (ko) 2013-11-21
US20150103052A1 (en) 2015-04-16
KR101341577B1 (ko) 2013-12-13

Similar Documents

Publication Publication Date Title
US11093053B2 (en) Input device
US7295329B2 (en) Position detection system
US9857892B2 (en) Optical sensing mechanisms for input devices
JP5166713B2 (ja) レーザスペックルを使用する位置検出システム
US11442559B2 (en) Dual-mode optical input device
US20200012354A1 (en) Electronic device having multi-functional human interface
US7825898B2 (en) Inertial sensing input apparatus
CN103744542B (zh) 混合式指向装置
JP2006202291A (ja) 光学スライドパッド
KR101341577B1 (ko) 방향 입력장치 및 이를 이용한 사용자 인터페이스 조작 방법
KR101612023B1 (ko) 광학 센싱을 이용한 손가락 동작 기반 내비게이션 장치 및 방법
JP6209563B2 (ja) カーソル制御装置及び方法
TWM451589U (zh) 光學感測式輸入裝置
KR101460028B1 (ko) 비접촉 조작 장치를 구비한 키보드
KR20090046455A (ko) 펜 형태의 입력 장치
KR101095923B1 (ko) 휴대용 단말기의 커서입력장치
EP1775656A1 (en) Inertial sensing input apparatus
KR102015313B1 (ko) 복합 휴먼 인터페이스가 구비된 전자 기기 및 그 제어 방법
KR102015309B1 (ko) 복합 휴먼 인터페이스가 구비된 전자 기기 및 그 제어 방법
JP2006522981A (ja) ポインティングデバイス
CN201540536U (zh) 电脑输入装置
KR100911801B1 (ko) 마우스 장치
TW200534153A (en) Pointing device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161004

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171010

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181126

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191127

Year of fee payment: 7