KR20010052282A - 입력 유닛, 그 입력 유닛을 사용하기 위한 방법 및 입력시스템 - Google Patents

입력 유닛, 그 입력 유닛을 사용하기 위한 방법 및 입력시스템 Download PDF

Info

Publication number
KR20010052282A
KR20010052282A KR1020007012070A KR20007012070A KR20010052282A KR 20010052282 A KR20010052282 A KR 20010052282A KR 1020007012070 A KR1020007012070 A KR 1020007012070A KR 20007012070 A KR20007012070 A KR 20007012070A KR 20010052282 A KR20010052282 A KR 20010052282A
Authority
KR
South Korea
Prior art keywords
input
input unit
function
image
images
Prior art date
Application number
KR1020007012070A
Other languages
English (en)
Inventor
크리스터 파라오이스
올라 후고쏜
페터 에릭손
Original Assignee
뢰그렌, 크리스터
씨 테크놀로지스 아베
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from SE9801535A external-priority patent/SE511855C2/sv
Priority claimed from SE9803455A external-priority patent/SE513940C2/sv
Application filed by 뢰그렌, 크리스터, 씨 테크놀로지스 아베 filed Critical 뢰그렌, 크리스터
Publication of KR20010052282A publication Critical patent/KR20010052282A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Input (AREA)
  • Position Input By Displaying (AREA)
  • Character Input (AREA)
  • Facsimile Scanning Arrangements (AREA)

Abstract

입력 유닛은 하나의 마우스 기능과 적어도 하나의 입력 기능을 갖는다. 상기 입력 유닛은 이미지를 기록하는 이미지 기록 수단(8)을 포함한다. 이러한 이미지들은 상기 마우스 기능과 상기 입력 기능을 제공하기 위해 사용된다. 상기 이미지들은 입력 유닛이나 다른 유닛내에서 프로세스된ㄷ.

Description

입력 유닛, 그 입력 유닛을 사용하기 위한 방법 및 입력 시스템{INPUT UNIT, METHOD FOR USING THE SAME AND INPUT SYSTEM}
오늘날, 퍼스널 컴퓨터는 보통 컴퓨터 마우스를 장착하고 있으며, 마우스는 컴퓨터 스크린상의 커서를 위치시키는데 사용된다. 이 위치지정(positioning)은 사용자가 평판 위에서 상기 마우스를 움직이므로써 행해지며, 손의 움직임은 상기 마우스가 어떻게 위치되어야 하는지를 지정해 준다. 상기 마우스는 마우스가 어떻게 움직이고 있는지 및 상기 커서가 어떻게 움직여야 하는지를 나타내는 위치지정 신호를 발생시킨다. 이러한 목적을 위해 상기 마우스는 보통 트랙 볼(track ball)을 갖고 있으며 상기 트랙 볼은 마우스가 상기 평판 위를 지나갈 때의 평판에 대한 마찰로서 회전하고, 이러한 연결에서 상기 위치 지정 신호를 발생시키는 센서들의 위치를 조종한다. 보통, 상기 마우스는 사용자가 클릭하는 1개 이상의 버튼들을 매개로 하여 상기 컴퓨터에 명령어들을 입력하는데 사용된다. 그러나, 상기 "마우스 기능"이라는 용어는, 이하에서 커서 또는 이와 유사한 것의 위치를 지정하는 기능만을 가리킨다.
텍스트와 이미지들을 컴퓨터에 입력하기 위해서는, 핸드 헬드(hand-held ; 손에 들고 사용하는)스캐너가 때때로 사용되며, 상기 스캐너는 감광 센서를 이용하여 입력될 텍스트 또는 이미지를 이미지화 한다. 상기 스캐너는 한번에 매우 제한된 텍스트/이미지 영역 만의 상을 이미지화 할 수 있다. 결과적으로, 1개 이상의 워드 또는 전체 이미지를 기록하기 위해서는, 상기 스캐너는 상기 텍스트/이미지 위를 지나가야 하며, 수 개의 하부 이미지들이 기록 되어야 한다. 통상적으로, 상기 스캐너는 이러한 하부 이미지들이 그로부터 합성된 이미지를 만들어 낼 수 있도록 하기 위해 상기 컴퓨터에 어떻게 저장되어야 할 지를 결정하는 몇 가지 종류의 위치 지정 센서를 갖는다.
마우스 기능과 입력 기능을 단일의 코드로 연결된 케이스 내에 조합하는 방법이 알려져 있다.
예컨대, 미국 특허 제 4,906,843 호는 조합된 마우스, 광학 스캐너 및 디지털화된 패드를 개시하고 있다. 상기 마우스 모드에서는, 트랙 볼이 사용되며, 이 트랙볼은 상기 위치 지정 신호를 발생시키는 두개의 위치 지정 센서를 조종한다. 상기 스캐너 모드에서는, 상기 위치 지정 센서 외에 CCD 라인 센서도 문자나 그래픽 정보를 컴퓨터에 입력하기 위해 사용된다.
미국 특허 제 5,355,146 호는 조합된 마우스 기능과 스캐너 기능을 갖는 유사한 입력 유닛을 보여주며, 이들 또한 트랙 볼과 CCD 라인 센서를 사용한다.
유럽 특허 제 0 782 321 호는 마우스 기능과 스캐너 기능을 갖는 또다른 입력 유닛을 보여준다. 이 경우에도 마우스에 대해서 트랙 볼이 사용되지만, 상기 라인 센서를 대신하여, 하나의 스텝으로 문서를 이미지화 할 수 있고, 상기 문서 위에서 움직일 필요가 없는 지역 센서(area sensor)가 사용된다. 이것은 아무 소프트웨어 없이도 이미지 데이터를 위치 지정 데이터와 관련시킬 수 있다는 것을 의미한다.
미국 특허 제 5,633,489호는 조합된 마우스와 바코드 리더(barcode reader)를 보여주는데, 상기 마우스 기능은 트랙 볼에 의해 제공되고, 상기 바코드 리더는 마우스 밑에서 방사되는 레이저 빔을 발생시키는 레이저 다이오드와 상기 반사된 빛의 세기의 변화를 감지하는 광 감지기를 포함한다.
모든 이러한 알려진 입력 유닛들은 움직이는 부분과 많은 센서들이 있는 갖는 다소 복잡한 기계적 디자인을 갖는다. 또한 이들은 기능들이 하나로 조합되어 있지만, 그 시너지(synergy) 효과는 제한되어 있다.
본 발명은 마우스 기능 및 적어도 한개의 입력 기능을 갖는 입력 유닛에 관련된 것이며, 상기 입력 유닛은 상기 입력 기능을 제공하기 위한 이미지 기록 수단을 포함한다. 상기 발명은 또한 마우스 기능과 입력 유닛을 이용한 적어도 한 개의 입력 기능을 제공하기 위한 방법과 마우스 기능과 적어도 한 개의 입력 기능을 갖는 입력 시스템에도 관련되어 있다.
도 1은 본 발명에 따른 입력 유닛의 실시예를 도식적으로 보여준다.;
도 2는 본 발명에 따른 입력 유닛의 실시예에 있어서의 전자 회로부에 대한 블록 다이어그램이다.;
도 3은 상기 마우스 기능에 대한 흐름도(flowchart)이다.;
도 4는 손으로 쓰는/그린 정보를 입력하는 기능에 대한 흐름도이다.;
도 5는 한 표면이 어떻게 수기 정보의 입력과 연결되어 이미지화 되는지를 도식적으로 보여준다.;
도 6은 상기 수기 입력이 어떻게 디스플레이 상에 나타나는지를 보여준다.;
도 7은 상기 스캐너 기능에 대한 흐름도이다.;
도 8a 내지 8c는 텍스트가 상기 스캐너 모드에서 어떻게 기록되는지를 도식적으로 보여준다.;
도 9는 상기 카메라 기능에 대한 흐름도이다.
본 발명의 목적은 마우스 기능과 적어도 한개의 입력 기능을 갖는 입력 유닛 및 상기 입력 유닛을 이용하여 상기 마우스 기능과 상기 입력 기능을 제공하기 위한 방법을 제공하는 것이며, 상기 입력 유닛 및 방법은 위에 언급된 결점들을 감소시키게 된다.
이러한 목적은 청구범위 제1항에 따른 입력 유닛과, 제13항에 따른 방법 및 제18항에 따른 입력 시스템에 의해 달성된다. 바람직한 실시예들은 각각 제2항 내지 제12항, 제14항 내지 제17항 및 제19항 내지 제23항에서 언급되어 있다.
본 발명에 따른 입력 유닛은 상기 입력 기능을 제공하기 위한 이미지 기록 수단을 포함하며 상기 이미지 기록 수단은 상기 마우스 기능을 제공하는데 사용된다.
본 발명에 따르면, 이러한 기능들 중 하나만을 위해 이미지 기록 수단을 사용하는 대신에, 이미지 기록 수단은 마우스 기능과 입력 기능 모두를 제공하기 위해 사용되며, 이로써 이 기능들의 향상된 통합이 달성된다. 또한, 상기 트랙 볼은 생략될 수 있으며, 동일한 센서 기술에 기초하여 두 가지 기능 모두, 두 가지 기능들을 위한 신호들이 동일한 하드웨어 및/또는 소프트웨어에 의해 조절될 수 있다. 그리하여, 상기 두 가지 기능이 실제로 통합된다기 보다는 오히려 상기 두 가지 기능이 종래 기술과 같은 케이스 내로 단지 합쳐지는 것이다. 게다가, 움직이는 부분없는 입력 유닛을 제공할 수 있도록 해준다는 것은 내구성과 대량생산의 관점에 볼때 굉장히 유리한 것이다. 아래에서 분명해질 바와 같이, 또한 특별한 위치 결정 수단이나 래스터(raster)와 같은 것이 필요 없는 입력 수단을 제공할 수 있게 된다.
이러한 관계에 있어서, 이 특허 명세서에서 입력 기능이라는 용어는 정보를 수신하고 프로세싱하기 위한 수신기로 정보를 입력할 수 있는 기능을 말하고, 위치 지정의 목적으로 사용되는 마우스 기능과는 다르다.
또한, 상기 마우스 기능은 평면이나 공간 내에서 커서 또는 이에 유사한 것을 위치 지정하기 위해 사용될 수 있다는 점이 지적되어야 한다.
좀더 상세하게 설명하면, 상기 입력 유닛은 상기 마우스 기능을 제공하기 위한 위치 지정 신호, 상기 입력 기능을 제공하기 위한 입력 신호를 내보낼 수 있다는 잇점을 갖고 있으며, 상기 위치 지정 신호 및 상기 입력 신호는 상기 이미지 기록 수단에 의해 기록되는 이미지들에 기초한 것이다. 상기 위치 지정 신호는 컴퓨터 스크린 상의 커서를 제어하는데 사용되며, 반면에 상기 입력 신호는 상기 컴퓨터에 입력될 정보를 포함할 수 있다.
상기 위치 지정 신호와 상기 입력 신호는 도선 상의 전기신호, IR 신호 및 라디오 신호 또는 다른 적절한 방식으로 내보내 진다. 당연히, 상기 입력 유닛은 상 위치 지정 신호나 입력 신호 외의 신호들, 예컨대 클리킹(clicking)에 기초한 명령어 신호들도 내보낼 수 있다. 상기 신호의 수신기로는, 위치 지정 정보 및/또는 다른 정보가 입력될 컴퓨터나 다른 입력 유닛도 가능하다. 상기 입력 유닛은 특히 소수지만 다용도의 악세사리가 바람직한 소형 휴대용 컴퓨터에 적합하다.
상기 이미지 기록 수단은 상기 마우스 기능을 제공하기 위한 첫번째 이미지 기록 유닛과 상기 입력 기능을 제공하기 위한 두번째 이미지 기록 유닛을 포함한다. 이것은 두가지 기능에 대해 서로 다른 이미지 기록 특성이 요구될 때, 예컨대 상기 이미지 기록을 위해 서로 다른 초점이 요구되는 경우에 특히 유리하다. 예를 들어 상기 마우스 기능을 사용할 때는, 사용자는 통상적인 마우스를 움직이는 것과 동일한 방식으로 평판 위에서 상기 입력 유닛을 움직일 수 있는 기능을 필요로 하며, 상기 입력 기능을 사용할 때는, 사용자는 상기 유닛으로부터 일정한 거리만큼 떨어진 목적물을 이미지화 하기 위해 상기 입력 유닛을 카메라로 사용할 수 있는 기능을 필요로 한다. 이 경우에, 서로 다른 이미지 기록 수단들은 서로 다른 초점을 갖는 서로 다른 렌즈 수단을 제공 받을 수 있다. 상기 이미지 기록 수단들은 예컨대 상기 입력 유닛의 서로 다른 쪽에 위치하고 하드웨어와 소프트웨어를 공유할 수 있다.
마찬가지로, 상기 이미지 기록 수단은 상기 마우스 기능과 입력 기능 모두를 제공하기 위해 사용되는 이미지 기록 유닛을 포함한다. 이 실시예는 입력 유닛에 더 적은 수의 구성 요소와 단 한개의 빔(beam) 경로만을 필요로 하기 때문에 유리하다.
상기 이미지 기록 유닛들은, 이미지를 기록하기 위해 사용될 수 있고 바람직하게는 2차원 센서 표면 즉 소위 지역 센서를 갖는 감광 센서이면 어떠한 타입의 센서도 포함된다.
상기 입력 유닛에 대한 덜 복잡한 실시예에서는, 상기 위치 지정 신호와 입력 신호들은 반드시 상기 이미지 ㄷ록 수단에 의해 기록되는 실제 이미지들로 구성된다. 이 경우에, 반드시 모든 이미지의 프로세싱은 상기 신호의 수신기 예컨대 컴퓨터내에서 이루어 져야 한다. 또한 그런 경우에 컴퓨터는 적절한 방법으로 상기 신호들을 프로세싱하기 위한 소프트웨어를 갖고 있어야만 한다. 그러한 소프트웨어는 이미 컴퓨터에 저장되어 있거나 본 발명에 따른 입력 유닛에 포함되어 있고, 상기 입력 유닛이 사용될 때 상기 수신기로 전달된다.
상기 입력 유닛으로부터의 신호를 수신하는 수신기는, 상기 신호들을 어떻게 프로세스하여야 할지를 알기 위해, 상기 신호가 위치 지정 신호인지 입력 신호인지를 판단할 수 있어야 한다. 이러한 목적을 위해, 상기 입력 유닛은 상기 수신기가 수신하고 있는 신호가 위치 지정 신호인지 입력 신호인지를 확인하기 위해 위치 지정 신호와 입력 신호를 출력 한다. 예컨대, 상기 입력 유닛은 서로 다른 신호에 대해 각 프로토콜을 사용한다.
적절하게는, 상기 입력 유닛은 상기 이미지 기록 장치에 의해 기록되는 이미지들이 어떻게 프로세스 되어야 하는지를 알기 위해 상기 사용자가 마우스 기능을 원하는지 입력 기능을 원하는지를 알아야 한다. 이러한 목적을 위해, 상기 입력 유닛에는 바람직하게는 스위칭 수단, 예컨대 사용자에 의해 사용될 때 입력 유닛의 서로 다른 기능들 사이에서 스위칭 되도록 만들어진 버튼이 포함된다.
바람직하게는, 적어도 상기 마우스 기능에 대해서, 상기 이미지 기록 수단은, 각 이미지의 콘텐츠들이 이전 이미지의 콘텐츠들과 오버랩되는 방식으로 다수의 이미지들을 기록한다. 이것은 예상되는 이동 속도(speed)와 관련하여 충분히 높은 속도(frequency)로 상기 이미지들을 기록함으로써 달성된다. 상기 이미지들이 오버랩된다는 사실에 의하여, 그 상대적인 위치들이 판단되고 특별한 위치 결정 수단을 사용할 필요가 없어진다.
일단 상기 이미지들이 기록되었으면, 그 다음 프로세싱이 상기 입력 유닛의 이미지 프로세싱 수단 또는 상기 입력 유닛으로부터의 신호 수신기에서 계속된다. 입력 유닛에서의 적어도 한개의 입력 신호에서 프로세싱을 할 경우의 잇점은 상기 입력이 인접한 수신기에 연결되지 않고 독립형의 유닛으로 사용될 수 있고, 입력된 정보를 입력 유닛의 디스플레이 상에 직접 나타낼 수 있으므로 기록된 정보가 정말 그가 기록하기 원했던 정보인가를 체크할 수 있으며, 상기 정보는 좀더 압축된 포맷으로 수신기에 전달될 수 있다는 것이다. 또한 상기 입력 유닛은 상기 이미지들을 프로세싱하기 위해 수신기에서 아무런 특별한 소프트웨어도 없는 마우스를 서포트(support) 하는 어떠한 수신기에도 연결될 수 있다는 것이다.
그러므로 상기 입력 유닛은 상기 마우스 기능과 상기 입력 기능을 위해 사용되는 이미지 프로세싱 수단을 포함한다. 이러한 이미지 프로세싱 수단은 서로 다른 프로그램 모듈에 따라 동작하는 프로세싱 유닛을 포함하는데, 상기 프로그램 모듈은 상기 입력 유닛의 기능 중 어느 것이 사용되고 있는가에 따라 달라진다.
또한, 상기 입력 유닛의 이미지들을 프로세싱하기 위해, 상기 입력 유닛에는 부분적으로 오버래핑되는 콘텐츠들을 이용하여 상기 이미지들의 상대적인 위치를 판단하기 위한 수단이 포함된다. 상기 이미지들의 상대적인 위치를 판단하기 위한 수단은 공유하는 이미지 프로세싱 수단에 포함되고, 소프트웨어에 의해 구현될 수 있다.
상기 마우스 기능이 1차원(linear) 위치 지정만을 위하여 사용되는 경우에는, 상기 이미지들의 상대적인 위치를 수평 방향으로만 판단해도 충분하다. 그러나 2차원 위치 지정을 위해 사용되는 경우에는 상대적인 위치는 수직, 수평의 두방향 모두로 판단되어야 한다.
유리한 실시예에서는, 상기 입력 유닛에는 상기 이미지들의 상대적인 위치를 기초로 하여 위치지정 신호를 발생시키기 위한 수단이 포함된다. 상기 위치 지정 신호는 예컨대 상기 입력 유닛이 두개의 이미지들을 기록하는 동안 어떻게 움직였는가를 나타내는 하나 이상의 벡터 또는 하나 이상의 위치 지정 좌표로 구성될 수 있다. 상기 위치 지정 신호를 발생시키기 위한 수단은 공유된 이미지 프로세싱 수단에 포함될 수도 있고, 소프트웨어에 의해 구현될 수 있다.
상기 입력 유닛은 핸드-헬드 타입이기 때문에 어디든지 들고 다닐 수 있다. 이 기술은 사용자로 하여금 저장되어 있는 개인적인 설정값 및 개인 정보를 갖는 개인 마우스와 입력 유닛을 갖도록 할 수 있다.
특히 유리한 실시예에서는, 상기 입력 유닛은 또한 입력 유닛을 수신기에 무선으로 연결하기 위한 전송기를 포함하며, 이 전송기는 상기 입력 유닛의 사용을 촉진시켜준다. 블루투스(the Bluetooth) 기준이 이러한 목적을 위해 사용될 수 있다.
상기 입력 기능은 스캐너 기능을 포함하며, 상기 입력 유닛은 텍스트 및/또는 이미지들을 기록하기 위해 사용될 수 있다.
상기 입력 기능은 또한 카메라 기능을 포함하며, 여기서 상기 이미지 기록 수단은 상기 입력 유닛으로부터 일정한 거리만큼 떨어진 목적물을 이미지화 하는데 사용된다.
상기 입력 기능은 손으로 직접 썼거나 그린 즉 손에 의해 형성된 정보를 입력하기 위한 기능을 포함한다. 상기 스캐너 기능, 상기 카메라 기능 및 상기 손으로 썼거나 그린 정보를 입력하는 기능의 각각은 유일한 입력 기능일 수도 있고, 수개의 입력 기능들 중 하나일 수도 있다.
상기 입력 유닛은 다수의 기능들을 갖는데, 모든 기능들은 상기 이미지 기록 수단에 의해 기록되고 공유된 하드웨어 및 소프트웨어에 의해 효율적으로 프로세스되는 이미지들에 기초한다.
본 발명의 두번째 관점에 따르면, 본 발명은 마우스 기능과 적어도 하나의 입력 유닛을 이용한 입력 기능을 제공하기 위한 방법에 관련된 것이며, 상기 방법은 상기 기능들 중 어느 것이 요구되는지를 감지하는 단계; 상기 입력 유닛을 이용하여 적어도 한개의 이미지를 기록하는 단계; 및 상기 기능들 중 어느 것이 요구되는지에 따라 서로 다른 방식으로 상기 적어도 한개의 이미지를 프로세싱하는 단계를 포함한다.
본 발명에 따른 방법의 잇점은 본 발명에 따른 입력 유닛에 대한 상기 설명으로부터 명백하다.
본 발명에 세번째 관점에 따르면, 본 발명은 마우스 기능과 적어도 한개의 입력 기능을 갖는 입력 시스템에 관련된 것이며, 본 발명은 이미지들을 기록하기 위한 이미지 기록 수단 및 상기 이미지 기록 수단에 의해 기록된 이미지들을 프로세싱하기 위한 이미지 프로세싱 수단을 포함한다. 상기 이미지 기록 수단은 첫번째 케이스내에 위치하고, 상기 이미지 프로세싱 수단은 두번째 케이스내에 위치한다.
따라서, 상기 입력 시스템은, 상기 이미지 기록 수단이 입력 유닛 내에 위치하고 상기 이미지 프로세싱 수단이 컴퓨터나 상기 입력 유닛이 연결되고 기록된 이미지들을 전송할 다른 수신기 내에 위치한 케이스를 포함한다. 상기 이미지 기록 수단 및 상기 이미지 기록 수단에 의해 기록된 이미지들의 프로세싱에 대해 위에 언급된 모든 것은 상기 입력 시스템에도 적용 될 수 있다.
이제 본 발명이 첨부된 도면들을 참조하여 실시예에 의해 더 상세히 설명될 것이다.
다음은 본 발명에 따른 입력 유닛의 실시예에 대한 설명이며, 상기 입력 유닛은 마우스 기능, 스캐너 기능, 카메라 기능 및 손으로 쓴/그린 정보를 입력하기 위한 기능을 갖는다.
상기 유닛의 디자인(Design of the Unit)
도 1은 이 실시예에 따른 입력 유닛의 디자인을 보여준다. 상기 유닛은 거의 통상적인 하이라이터 펜(high-lighter pen)과 동일한 모양을 갖는 케이스(1)를 갖고 있다. 상기 케이스의 짧은 쪽은 윈도우(2)를 가지며, 이 윈도우를 매개로, 다양한 이미지를 기반으로 한 상기 입력 유닛의 기능들을 위해 이미지들이 기록된다.
상기 케이스(1)는 필수적으로 광학부(3), 전자 회로부(4) 및 전력 공급부(5)를 포함한다.
상기 광학부(3)는 발광 다이오드(6), 렌즈 시스템(7) 및 감광 센서(8) 같은 이미지 기록 수단을 포함하며, 상기 이미지 기록 수단은 전자 회로부(4)와의 인터페이스를 이룬다.
상기 LED(6)의 역할은 상기 윈도우 밑에 위치하는 표면을 비추는 것이며, 확산기(9)는 상기 빛을 확산시키기 위해 상기 LED(6) 앞에 장착된다.
렌즈 시스템(7)의 역할은 상기 윈도우(2) 밑에 위치한 표면의 상을 가능한 한 정확하게 감광 센서(8)위로 비추는 것이다. 상기 렌즈 시스템은 두 개의 위치사이에서 이동가능하며, 이 중 두번째 것은 점선으로 표시되어 있다. 첫번째 위치는 상기 입력 유닛의 윈도우 바로 아래 위치한 표면의 이미지들이 기록될 때 사용되며, 주로 상기 마우스 기능, 스캐너 기능 및 손으로 쓴/그린 정보를 입력하는 기능을 위한 것이다. 두번째 위치는 상기 입력 유닛에서 일정한 거리 만큼 떨어진 목적물의 이미지가 기록될 때 사용되며, 주로 상기 카메라 기능을 위한 것이지만 다른 기능을 위해서도 사용가능하다.
이 실시예에서는, 상기 감광 센서(8)는 내장형 A/D 변환기를 구비한 2차원의 정사각형 CCD 유닛(CCD=charge coupled device ; 충전 결합 장치)을 포함한다. 그러한 센서들은 상업적으로 이용가능하다. 상기 센서(8)는 상기 윈도우(2)와 작은 각을 이루어 장착되어 그 자신의 회로 기판(11)상에 장착된다.
상기 입력 유닛으로의 전력은 배터리(12)가 공급하며, 배터리(12)는 상기 케이스의 분리된 구역(13)에 장착된다.
도 2의 블록 다이어그램은 전자 회로부(4)를 도식적으로 보여준다. 이것은 프로세서(20)을 포함하며, 프로세서(20)는 버스(21)를 매개로 하여 상기 프로세서의 프로그램들이 저장되는 ROM(22), 상기 프로세서의 작용 메모리를 구성하고 상기 센서로부터의 이미지들이 저장되어 있는 읽기/쓰기 메모리(23), 제어 로직 유닛(24) 및 상기 센서(8)와 상기 LED(6)으로 연결된다. 상기 프로세서(20), 상기 버스(21), 상기 메모리(22) 및 (23), 상기 제어 로직 유닛(24)과 함께 관련된 소프트웨어는 이미지 프로세싱 수단을 구성한다.
상기 제어 로직 유닛(24)은 차례로 다수의 주변 유닛들에 연결되며, 상기 케이스 내에 장착된 디스플레이(25), 외부 컴퓨터에서 나온 정보나 외부 컴퓨터로 보내질 정보를 전달하기 위한 라디오 트랜스시버(26), 사용자로 하여금 상기 입력 유닛을 제어할 수 있도록 해주고 특히 상기 마우스 기능, 스캐너 기능, 카메라 기능 및 손으로 쓴/그린 정보를 입력하는 기능 중에서 조절할 수 있도록 해주는 버튼(27), 통상적인 마우스에서의 클릭 버튼에 해당하는 버튼(27'), 빛을 내보냄으로써 사용자가 어떠한 정보를 입력하고 있는가를 더 쉽게 알 수 있도록 해주는 트레이서(tracer) LED(28) 및 상기 펜이 준비완료 되었음을 표시해 주는 예컨대 LED 같은 표시기(29)를 포함한다. 상기 메모리들, 상기 센서(8) 및 상기 주변 유닛들로의 제어 신호들은 상기 제어 로직 유닛(24)에서 발생된다. 상기 제어 로직은 또한 상기 프로세서로의 인터럽트 발생작업 및 우선 순위 매기기 작업(prioritization)을 조절한다. 상기 버튼(27) 및 (27'), 상기 라디오 트랜스시버(26), 상기 디스플레이(25), 상기 트레이서 LED(28) 및 상기 LED(6)는 상기 제어 로직 유닛(24) 내의 레지스터에서 읽기 쓰기 작업을 하는 프로세서에 의해 액세스된다. 상기 버튼(27) 및 (27')은 가동되었을 경우에는 상기 프로세서(20)로의 인터럽트를 발생시킨다.
상기 유닛의 동작(Operation of the Unit)
상기 입력 유닛의 다양한 기능들, 즉 마우스 기능, 스캐너 기능 손으로 쓴/그린 정보를 입력하는 기능 및 카메라 기능을 설명하고자 한다. 이 모든 기능들은 센서(8)을 이용하여 기록되는 이미지들에 기초한 것이다. 첫번째 3개의 기능들이 사용될 때는, 각 이미지의 콘텐츠들이 이전 이미지들의 콘텐츠들과 부분적으로 오버랩되는 식으로 다수의 이미지들이 기록된다. 상기 이미지들이 기록되면서, 상기 이미지들의 상대적인 위치, 즉 콘텐츠들 사이에서 가장 최상의 매치(match)를 제공하는 위치가 결정된다. 그 다음 프로세싱은 사용자가 선택한 기능에 따라 수행된다. 상기 이미지들을 기록할 때에는, 상기 입력 유닛이 상기 윈도우(2)가 표면과 접촉된 상태로 상기 표면 위를 지나가도록 하거나, 상기 렌즈 시스템의 설정에 따란 조금 또는 멀리 떨어진 위치에서 상기 표면 위를 지나가도록 할 수 있다. 상기 표면은 평면(plane)일 필요는 없다. 예를 들어, 상기 표면은 텍스트가 있는 한 장의 종이일 수도 있고, 무늬가 있는 벽지일 수도 있으며, 한 사발의 설탕일 수도 있다. 중요한 것은 다양한 콘텐츠들을 갖는 이미지들이, 그 상대적인 위치를 그 이미지들의 콘텐츠를 이용하여 판단할 수 있도록 기록된다는 것이다.
마우스 기능(Mouse Function)
첫째로, 사용자가 상기 입력 유닛을 마우스로 사용하고자 한다고 가정한다. 이 경우에, 사용자가 상기 버튼(27)을 이용하여 상기 유닛을 마우스 기능으로 설정하면, 상기 입력 유닛은 마우스 모드에서 동작을 시작하고 상기 입력 유닛이 마우스로 동작할 컴퓨터로 로그 인(log in)한다. 상기 사용자는 상기 입력 유닛의 윈도우(2)를 패턴화된 표면 예컨대 마우스 패드 쪽으로 향하게 한다. 사용자는 버튼(27)중의 하나를 눌러 상기 입력 유닛을 가동시키고, 상기 프로세서(20)는 LED(6)으로 하여금 소정의 주파수, 적합하게는 적어도 50 Hz의 스트로브(strobe) 펄스를 발생시키도록 명령한다. 그 다음, 상기 사용자는 통상적인 마우스를 사용하듯이 상기 표면 위로 상기 입력 유닛을 지나가게 하고, 부분적으로 오버래핑되는 콘텐츠를 갖는 이미지들은 센서(8)에 의해 기록되며 읽기/쓰기 메모리(23)에 저장된다. 상기 이미지들은 이미지로서 저장된다. 즉 백색부터 흑색사이 범위의 그레이 스케일 값(grey scale value)을 갖는 다수의 픽셀들을 이용하여 저장된다.
도 3의 흐름도는 마우스 기능이 사용될 때 상기 입력 유닛이 어떻게 동작하는지를 더 상세하게 보여준다. 스텝(300)에서, 첫 이미지가 기록된다. 스텝(301)에서는, 다음 이미지가 기록된다. 이 이미지의 콘텐츠들은 부분적으로 이전 이미지의 콘텐츠들과 오버랩 된다.
이미지가 스텝(301)에서 기록되자 마자, 스텝(302)에서는 수직, 수평 방향 모두로 어떻게 이전 이미지와 오버랩 될 것인가, 즉 상기 이미지들의 콘텐츠들 사이에서 최상의 매치(match)를 얻을 수 있는 상대적인 위치가 어디인가를 판단하는 프로세스를 시작한다. 이러한 목적을 위해, 상기 이미지들 사이에서의 모든 가능한 오버랩 위치가 조사되며, 오버랩 측정 과정은 다음과 같다.
1) 각 오버래핑되는 픽셀 위치에 대하여, 두개의 관련된 픽셀들은 뒤에 것이 백색이 아닌 경우에는 그레이 스케일 값이 증가된다. 상기 픽셀들 중 어떤 것도 백색이 아닌 경우의 픽셀 위치는 양의 값으로 지정된다.
2) 모든 양의 위치에 대한 그레이 스케일 값의 합을 더한다.
3) 각 픽셀 위치의 이웃자리들(neighbours)이 조사된다. 오버래핑 픽셀 위치가 양의 위치의 이웃자리가 아니고 백색인 픽셀과 백색이 아닌 픽셀들로 구성되어 있는 경우에는, 점(2)의 합에서 백색이 아닌 픽셀의 그레이 스케일 값을 빼고, 상수를 곱한다.
4) 최고의 오버랩 측정치를 제공하는 오버랩 위치는 위에 언급된 바와 같이 선택된다.
스웨덴 특허 출원 제 9704924-1호와 그에 대응하는 미국 특허 출원 제 024,641호는 최상의 오버랩 위치를 찾기 위해 상기 이미지들을 매칭시키는 대체적인 방법을 소개하고 있다. 이러한 출원들의 콘텐츠는 여기서는 참고 문헌에 통합되어 있다.
상기 이미지와 이전 이미지 사이에서 최상의 오버랩 위치가 결정되자마자, 이전 이미지는 무시되고 현재 이미지가 다음 이미지에 대한 관계에서 이전 이미지가 된다.
상기 두 개의 이미지의 상대적인 위치를 판단함으로써, 이동 벡터를 얻을 수 있는데, 이 이동 벡터는 상기 입력 유닛이 상기 두 개의 이미지를 기록하는 동안 얼마나 멀리, 어느 방향으로 움직였는가를 나타내게 된다. 그 다음, 스텝(303)에서, 위치 지정 신호는 상기 라디오 트랜스시버(26)에 의해, 상기 입력 유닛이 마우스로 동작하게 될 컴퓨터로 전송된다. 상기 컴퓨터는 커서를 스크린 상에 위치 시키기 위해 상기 이동 벡터를 사용한다. 그 다음, 상기 흐름은 스텝(301)으로 돌아간다. 속도를 높이기 위해, 상기 스텝들은, 예컨대 현재 이미지와 이전 이미지의 상대적인 위치가 판단되는 동안 다음 이미지의 기록을 시작하므로써, 부분적으로 병렬적으로 수행될 수 있다.
상기 마우스 모드에서는, 상기 버튼(27')은 명령어들을 상기 컴퓨터에 입력하기 위한 클릭 버튼으로 사용될 수 있다.
손으로 쓰거나 그린 정보를 입력하는 기능(The Handwriting and Drawing Function)
다음, 사용자가 수기 텍스트를 자신의 컴퓨터에 입력하고자 한다고 가정한다. 이 경우에, 버튼(27)을 이용하여, 사용자는 상기 입력 유닛을 손으로 쓰는 기능(handwriting function)으로 설정하면, 상기 입력 유닛은 손으로 쓰기 모드에서 동작하기 시작한다. 이어서 상기 사용자가 상기 입력 유닛을 가동시키면, 상기 프로세서(20)는 LED(6)로 하여금 소정의 주파수로 스트로브 펄스(strobe pulse)를 발생시키도록 명령한다. 그 다음, 상기 사용자는 상기 입력 유닛을 선택된 표면쪽으로 향하게 하여 입력하고자 하는 텍스트를 쓴다(write). 상기 센서(8)는 부분적으로 오버래핑되는 콘텐츠들을 갖는 이미지들을 기록하고 상기 읽기/쓰기 메모리(23)에 저장한다. 상기 트레이서 LED(28)는 사용자에게 움직임에 대한 정보를 주기 위해 계속해서 발광점에 의해 표면상의 이동 경로를 표시한다. 각 문자 사이에서, 상기 사용자는 예컨대 잠시 동안 상기 가동 버튼(27)을 해제 시키거나 잠시 동안 상기 입력 유닛을 움직이지 않으므로써 정보 유닛이 입력 되었음을 표시한다.
도 4는 상기 입력 유닛이 상기 손으로 쓰는/그리는 모드에서 어떻게 동작하는지를 보여준다. 처음의 3 스텝들은 마우스 모드에서 수행되는 스텝들에 해당한다. 스텝(400)에서는, 상기 입력 유닛이 가동되었을때, 첫 이미지가 기록된다. 콘텐츠가 이전 이미지와 오버랩되는 다음 이미지는 스텝(401)에서 기록되고, 그들의 상대적인 위치는 오버래핑되는 콘텐츠들을 이용하여 스텝(402)에서 판단되며 이에 의해 이동 벡터를 얻을 수 있다.
그 다음, 스텝(403)에서, 상기 프로세서(20)는 정보 유닛의 입력이 완료되었는지 아닌지를 판단한다. 완료되지 않았다면, 이 흐름은 스텝(401)으로 되돌아 가고 다음 이미지가 기록된다. 상기 입력이 완료 되었으면, 스텝(404)에서 상기 프로세서(20)는 상기 이동 벡터가 어떤 문자를 나타내는 지를 확인시켜주는 ICR 모듈에 관하여 상기 정보 유닛에 대해 결정된 이동 벡터들을 읽어 들이게 된다. 그 다음 스텝(405)에서는, 상기 확인된 문자는 문자 코드화된 포맷(character-coded format)으로 상기 메모리에 저장되고, 스텝(406)에서 상기 입력 유닛은 새로운 정보를 입력할 준비가 되었음을 표시한다.
상기 입력되고 확인된 문자는 바람직하게는 상기 라디오 전송기(26)에 의해 문자 코드화된 포맷으로 컴퓨터로 전송되고 상기 컴퓨터 상에 직접 나타난다. 상기 입력 유닛이 독립형 유닛으로 사용되는 경우에는, 상기 문자는 대신에 상기 디스플레이(25) 상에 나타난다.
도 5는 문자 "R"을 쓰면서 움직인 경로에서, 상기 입력 유닛이 이동될 때 오버래핑되는 콘텐츠들을 갖는 이미지들이 어떻게 기록되는 지를 보여준다. 설명의 단순화를 위해서, 상기 이미지들의 콘텐츠는 도 5상에 나타나 있지 않다.
상기 사용자가 상기 그리는 기능이 사용될 것임을 표시한다면, 스텝(400) 내지(403)만이 구현된다. 도 6은 상기 그리기 기능이 사용될 때 상기 입력 유닛에 의해 결정된 도 5의 이미지의 상대적인 위치를 기초로 하여, 입력된 문자 R이 어떻게 입력 유닛이나 컴퓨터의 디스플레이 상에 재생될 수 있는 가를 보여준다. 이 경우에, 기록된 문자의 그려진 이미지는 해석된 문자가 아닌 이동 벡터를 이용하여 표현된다. 명백하게, 임의의 그려진 그림이나 문자들은 이런 식으로 상기 입력 유닛이나 컴퓨터에 입력 될 수 있다.
스캐너 기능(The Scanner Function)
이제 상기 사용자가 정보 캐리어 예컨대, 한장의 종이, 신문 또는 책의 소정의 텍스트를 기록하기 위한 입력 유닛을 사용하고자 한다고 가정한다. 이 경우에, 사용자가 상기 입력 유닛을 상기 버튼(27)을 이용하여 스캐너 기능으로 설정하면, 상기 입력 유닛은 스캐너 모드에서 동작을 시작한다.
그 다음, 사용자는 종이 위에서 그가 기록을 시작하기 원하는 위치 쪽으로 상기 입력 유닛을 향하게 하고 상기 버튼(27)을 이용하여 상기 입력 유닛을 가동시키고, 사람이 텍스트를 읽을 때와 동일한 방식으로 그것을 기록될 텍스트 위로 지나가게 한다. 상기 트레이서 LED(28)는 라인들을 따라가기 더 쉽도록 해준다. 상기 사용자가 상기 입력 유닛을 가동시켰을 때, 상기 프로세서(20)는 마우스 기능에 관하여 위에서 설명된 것과 마찬가지로 상기 LED(6)로 하여금 이미지들을 기록하도록 한다. 상기 사용자가 선택된 텍스트위로 상기 입력 유닛을 지나가게 했거나 문자 라인의 끝에 왔을 때는, 사용자는 상기 종이에서 상기 유닛을 들어 올리고 가동 버튼을 해제시킨다. 그러면 상기 프로세서(20)는 상기 LED(6)를 턴 오프 한다.
도 7의 흐름도는 상기 입력 유닛이 이 모드에서 어떻게 동작하는지를 더 상세히 설명해준다. 스텝(700)에서는, 첫 이미지가 기록된다. 스텝(701)에서는 콘텐츠가 이전 이미지의 콘텐츠와 오버랩되는 새로운 이미지가 기록된다. 스텝(702)에서는, 현재 이미지와 이전 이미지에 대한 최상의 오버랩 위치가, 상기 마우스 기능에 관하여 위에서 설명된 것과 동일한 방식으로 결정된다. 이 위치에서, 상기 이미지들은, 스텝(703)에서 하나의 완전한 합성된 이미지로 합체된다. 스텝(704)에서는, 상기 입력 유닛이 문자의 입력이 완료되었는가를 감지한다. 완료되지 않은 경우에는, 상기 흐름은 스텝(701)으로 되돌아 간다. 상기 사용자가 가동 버튼을 해제시키고 상기 입력이 완료되었음을 표시하면, 전체의 합성 이미지가 스텝(705)에서 상기 이미지의 문자들을 확인하고 해석하는 OCR 소프트웨어에 입력 신호로서 공급된다. 상기 확인되고 해석된 문자들을, 상기 OCR 소프트웨어로부터의 소정의 문자 코드화된 포맷 예컨대 아스키 코드로 된 출력 신호로서 얻을 수 있다. 상기 확인되고 해석된 문자들은 해석된 문자들을 위한 메모리 영역의 읽기/쓰기 메모리에 저장된다. 문자 확인 작업과 문자 코드화된 포맷으로 저장하는 작업이 끝나면, 상기 프로세서는 스텝(706)에서, 상기 표시기(29)를 가동하여 사용자에게 새로운 문자열을 기록할 준비가 완료되었음을 알린다.
상기 해석된 문자들은 상기 라디오 트래스시버(26)를 이용하여 문자 코드화된 포맷으로 컴퓨터나 다른 수신기로 전달될 수 있다.
위의 스텝들은 관련된 유닛들과 적절한 소프트웨어를 이용하여 프로세서(20)에 의해 수행된다. 그러한 소프트웨어가 상업적으로 이용가능하지 않다면 위의 명령어들을 이용하여 당업자들이 직접 만들어 낼 수도 있을 것이다.
도 8a 내지 8c는 문자열 "Flygande baeckasiner"이 기록될 때, 상기 입력 유닛이 어떻게 동작하는지를 보여준다. 도 8a는 종이 위의 텍스트를 보여준다. 도 8b는 상기 센서를 이용하여 기록되고 있는 이미지들을 보여준다. 이 도면으로부터 알 수 있는 바와 같이, 상기 이미지들의 콘텐츠들은 부분적으로 오버랩되어 있다. 예를 들어, 상기 문자 l은 1번 이미지에서는 완전하게 나타나지만, 2번 이미지에서는 부분적으로만 나타난다. 오버래핑의 정도는, 끄는 속도(speed) 즉 상기 센서(8)의 콘텐츠들이 읽히는 속도(frequency)와 관련하여 상기 사용자가 상기 텍스트 위로 입력 유닛을 지나가게 하는 속도(speed)에 따라 정해진다. 도 8c는 합성된 전체 이미지가 어떻게 보이는 지를 보여준다. 상기 이미지는 여전히 픽셀들의 형태로 저장되어 있음이 지적되어야 한다. 상기 방법이 수행되었으면, 텍스트 "Flygande baeckasiner"는 상기 입력 유닛의 읽기/쓰기 메모리(23)에 아스키 코드로 입력된다.
카메라 기능(The Camera Function)
다음, 사용자가 상기 입력 유닛으로부터 일정한 거리만큼 떨어져 있는 목적물의 이미지를 기록하고자 한다고 가정한다. 상기 "목적물"은 예컨대 3차원의 물체일 수도 있으며, 책 속의 이미지일 수도 있다. 이 경우에, 상기 사용자는 상기 버튼(27)을 이용하여, 입력 유닛을 카메라 기능으로 설정하면, 상기 입력 유닛은 카메라 모드에서 동작하기 시작하고 상기 렌즈 시스템(7)의 위치는 상기 입력 유닛에서 일정한 거리만큼 떨어진 이미지를 기록하기에 적합하도록 전환된다. 그 다음, 상기 사용자는 상기 입력 유닛을 가동시키고, 상기 프로세서는 상기 센서(8)로부터 이미지들을 읽기 시작한다. 읽힌 이미지들은, 상기 라디오 트랜스시버(26)에 의해 기록될 때, 상기 입력 유닛의 디스플레이(25) 또는 상기 입력 유닛이 연결되고 상기 입력 이미지들이 전달될 컴퓨터 상에 나타나게 된다. 사용자가 상기 이미지에 만족하였을 경우에는, 사용자는 버튼(27)들 중 하나를 누르고, 목적물의 이미지를 기록한다. 상기 목적물의 이미지가 기록되었으면, 상기 사용자는 입력 유닛으로 하여금 기록된 이미지를 디스플레이(25) 상에 나타나게 하거나, 상기 이미지를 라디오 트랜스시버(26)에 의해 컴퓨터로 전달하게 한다.
도 9의 흐름도는 상기 입력 유닛이 카메라 모드에서 어떻게 동작하는지를 보여준다. 스텝(901)에서는, 상기 이미지의 범위가 입력 유닛의 디스플레이(25)상에 표시된다. 상기 사용자가 상기 이미지에 만족하여, 사용자는 버튼(27)을 누르면 상기 이미지는 스텝(902)에서 고정되고 버퍼 메모리에 저장된다. 상기 이미지는 백색과 흑색 사이의 그레이 스케일 값을 갖거나 색 값을 갖는 다수의 픽셀들을 이용하여 기록된다. 상기 사용자는 현재의 이미지를 계속 유지할 것인지 아닌 지를 선택한다. 현재 이미지를 유지하기로 한다면, 상기 프로세스는 실선을 따라 스텝(903)까지 계속되어 상기 이미지는 메모리(23)에 저장된다. 상기 이미지가 저장되었으면, 스텝(904)에서 상기 유닛은 새로운 이미지를 기록할 준비가 완료되었음을 표시한다. 사용자가 현재 이미지를 유지하기를 원하지 않는 경우에는, 프로세스는 새로운 이미지를 기록하기 위해 스텝(902)로부터 점선을 따라 스텝(901)으로 되돌아 간다.
다른 실시예들(Alternative Embodiments)
위의 실시예를 예를 들어서 설명하고자 한다. 본 발명에 따른 입력 유닛은 위에 열거된 모든 기능들을 포함할 필요는 없다. 상기 마우스 기능과 스캐너 기능, 카메라 기능, 손으로 쓰는 기능 또는 다른 입력 기능 중 하나 이상의 기능을 조합할 수 있다.
위에 설명된 실시예에서는, 기록된 정보의 모든 프로세싱은 상기 입력 유닛 내에서 이루어 지지만, 이것이 필수적인 것만은 아니다. 실제적인 이미지 기록을 제외한 위의 모든 측정들은 이미지 프로세싱 수단을 이용하여 상기 이미지들이 전달될 외부 컴퓨터나 다른 외부 유닛에서 수행될 수 있다.
위에 설명된 실시예에 있어서, 이미지들의 기록은 하나의 감광 센서에 의해 수행된다. 그러나, 두번째 감광 센서를, 예컨대 상기 케이스의 다른 쪽에 정렬 시키는 것도 가능하다. 이 경우에, 첫번째 센서가 있는 쪽을 마우스 기능으로 사용하고 두번째 센서가 있는 다른 쪽을 입력 기능 중 하나로 사용하는 것도 가능하다.
상기 이미지들이 반드시 마우스 모드, 손으로 쓰는 모드 및 그리는 모드에서 오버래핑되는 콘텐츠들과 함께 기록될 필요는 없다. 이러한 모드들에서, 위치 표시가 있는 특별한 평판이 대신 사용될 수도 있다. 예를 들어, 상기 위치는 좌표로서 표시될 수도 있으며, 그 위치들은 그려진 이미지나 문자의 재생을 가능하도록 하는 커서나 이동 표시에 위치 지정 신호를 제공하기 위해 읽혀지고 해석된다. 그러나 이것은 특별한 평판과 상기 위치 지정을 해석하기 위한 소프트웨어를 필요로 한다는 단점이 있다.

Claims (24)

  1. 마우스 기능과 적어도 하나의 입력 기능을 갖는 입력 유닛으로서, 상기 입력 기능을 제공하기 위한 이미지 기록 수단(8)을 포함하고, 상기 이미지 기록 수단(8)은 또한 상기 마우스 기능을 제공하기 위해 사용되는 것을 특징으로 하는 장치.
  2. 제1항에 있어서, 상기 입력 유닛에서 상기 이미지 기록 수단은 상기 마우스 기능을 제공하기 위한 위치 지정 신호와 상기 입력 기능을 제공하기 위한 입력 신호를 내보내도록 만들어져 있으며, 상기 위치 지정 신호와 상기 입력 신호는 모두 상기 이미지 기록 수단(8)을 이용하여 기록된 이미지들에 기초한 것을 특징으로 하는 장치.
  3. 제1항 또는 제2항에 있어서, 상기 입력 유닛에서 상기 이미지 기록 수단(8)은 상기 마우스 기능을 제공하기 위한 첫번째 이미지 기록 유닛(8)과 상기 입력 기능을 제공하기 위한 두번째 이미지 기록 유닛을 갖는 것을 특징으로 하는 장치.
  4. 제1항 또는 제2항에 있어서, 상기 입력 유닛에서 상기 이미지 기록 수단(8)은 상기 마우스 기능과 입력 기능 모두를 제공하기 위해 사용되는 이미지 기록 유닛을 포함하는 것을 특징으로 하는 장치.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 입력 유닛에서 상기 이미지 기록 수단은 적어도 하나의 영역 센서(area sensor)를 포함하는 것을 특징으로 하는 장치.
  6. 제2항 내지 제5항 중 어느 한 항에 있어서, 상기 입력 유닛은 상기 위치 지정 신호와 입력 신호 모두가 본질적으로는 상기 이미지들로 구성되는 것을 특징으로 하는 장치.
  7. 제2항 내지 제6항 중 어느 한 항에 있어서, 상기 입력 유닛은 수신기로 하여금 수신하고 있는 신호가 위치 지정 신호 인지 입력 신호인지를 구별할 수 있도록 위치 지정 신호 및 입력 신호를 출력하는 것을 특징으로 하는 장치.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서, 상기 입력 유닛은 추가적으로 사용자에 의해 사용될 때는, 상기 입력 유닛을 서로 다른 기능들 사이에서 스위칭 할 수 있도록 스위칭 수단(27)을 더 포함하는 것을 특징으로 하는 장치.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서, 상기 입력 유닛 중의 상기 이미지 기록 수단(8)은, 적어도 상기 마우스 기능에 대하여서는, 각 이미지의 콘텐츠가 이전 이미지의 콘텐츠와 오버랩되는 방식으로 다수의 이미지들을 기록하도록 만들어진 것을 특징으로하는 장치.
  10. 제 1항 내지 제9항 중 어느 한 항에 있어서, 상기 입력 유닛은 상기 마우스 기능 및 상기 입력 기능 모두에 대해 사용되는 이미지 프로세싱 수단(20-24)을 더포함하는 것을 특징으로 하는 장치.
  11. 제9항 또는 제10항에 있어서, 상기 입력 유닛은, 상기 부분적으로 오버래핑되는 콘텐츠들을 이용하여 상기 이미지들의 상대적인 위치를 결정하기 위한 수단(20-24)을 더 포함하는 것을 특징으로 하는 장치.
  12. 제11항에 있어서, 상기 입력 유닛 중 상기 이미지들의 상대적인 위치를 결정하기 위한 수단(20-24)은 수직 및 수평 방향 모두로 상기 이미지들의 상대적인 위치를 판단하도록 만들어진 것을 특징으로 하는 장치.
  13. 제11항 또는 제12항에 있어서, 상기 입력 유닛은 추가적으로 상기 이미지들의 상대적인 위치를 기초로 하여 상기 위치 지정 신호들을 발생하기 위한 수단(20-24)을 더 포함하는 것을 특징으로 하는 장치.
  14. 제 1항 내지 제13항 중 어느 한 항에 있어서, 상기 입력 유닛은 핸드-헬드 타입인 것을 특징으로 하는 장치.
  15. 제 1항 내지 제14항 중 어느 한 항에 있어서, 상기 입력 유닛은 상기 입력 유닛을 수신기로 무선 연결하기 위한 전송기(16)를 더 포함하는 것을 특징으로 하는 장치.
  16. 제 1항 내지 제15항 중 어느 한 항에 있어서, 상기 입력 유닛의 적어도 한 개의 입력 기능 중에는 스캐너 기능이 포함하는 것을 특징으로 하는 장치.
  17. 제 1항 내지 제16항 중 어느 한 항에 있어서, 상기 입력 유닛의 입력 기능에는 상기 입력 유닛으로부터 일정한 거리 만큼 떨어진 곳에 위치한 목적물을 이미지화 하기 위한 카메라 기능이 포함되는 것을 특징으로 하는 장치.
  18. 제1항 내지 제17항 중 어느 한 항에 있어서, 상기 입력 유닛의 입력 기능에는 손으로 쓰거나 그린 정보를 입력하기 위한 기능이 포함되는 것을 특징으로 하는 장치.
  19. 입력 유닛을 이용하여 하나의 마우스 기능과 적어도 하나의 입력 기능을 제공하기 위한 방법으로서 다음과 같은 단계, 즉
    상기 기능들 중 어느 기능이 요구되는지를 감지하는 단계;
    상기 입력 유닛을 이용하여 적어도 한 개의 이미지를 기록하는 단계; 및
    상기 기능 중 어느 기능이 요구되는가에 따라 다른 방식으로, 적어도 한개의이미지를 프로세싱 하는 단계를 포함하는 것을 특징으로 하는 방법.
  20. 제19항에 있어서, 상기 방법이 상기 마우스 기능이 요구되었을 때는, 부분적으로 오버래핑되는 콘텐츠들을 갖는 적어도 두개의 이미지들을 기록하는 단계; 수직 및 수평의 두 방향 모두로 상기 이미지들의 상대적인 위치를 판단하는 단계; 상기 이미지들의 상대적인 위치를 기초로 하여 위치 지정 신호를 결정하는 단계; 및 컴퓨터 스크린 상의 커서를 제어하기 위하여 위치 지정 신호를 사용하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  21. 제19항 또는 제20항에 있어서, 상기 방법 중 상기 입력 기능이 문자 입력 기능이고 문자 입력 기능이 요구되는 때는,
    부분적으로 오버래핑되는 콘텐츠들을 가지며, 문자와 함께 입력될 다수의 이미지들을 기록하는 단계; 상기 이미지들을 수직 및 수평의 두 방향 모두로 합체 시키는 단계; 상기 합성된 이미지의 문자들을 확인하는 단계; 상기 확인된 문자들을 해석하는 단계; 및 상기 문자들을 문자 코드화된 포맷(character-coded format)으로 저장하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  22. 제19항 내지 제21항 중 어느 한 항에 있어서, 상기 방법 중 상기 입력 기능이 손으로 쓰거나 그린 정보를 입력하기 위한 기능이며 상기 손으로 쓰거나 그린 정보를 입력하는 기능이 요구되는 때는,
    부분적으로 오버래핑되는 콘텐츠들을 갖는 다수의 이미지들을 기록하는 단계; 상기 이미들의 상대적인 위치를 수직 및 수평 방향 모두로 판단하는 단계; 및 상기 이미지들의 상대적인 위치를 기초로 하여 상기 입력 유닛의 움직임을 판단하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  23. 제22항에 있어서, 상기 방법은 상기 입력 유닛의 움직임이 나타내는 문자를 해석하고 이 문자를 문자 코드화된 포맷으로 저장하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  24. 하나의 마우스 기능과 적어도 하나의 입력 기능을 갖는 입력 시스템으로서, 상기 마우스 기능과 상기 적어도 한개의 입력 기능을 제공하기 위해서, 이미지를 기록하기 위한 이미지 기록 수단(8)과 상기 이미지 기록 수단에 의해 기록된 이미지들을 프로세싱하기 위한 이미지 프로세싱 수단을 포함하며, 상기 이미지 기록 수단은 첫번째 케이스내에 위치하여 있고 상기 이미지 프로세싱 수단은 두번째 케이스 내에 위치하여 있는 것을 특징으로 하는 입력 시스템.
KR1020007012070A 1998-04-30 1999-04-30 입력 유닛, 그 입력 유닛을 사용하기 위한 방법 및 입력시스템 KR20010052282A (ko)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
SE9801535A SE511855C2 (sv) 1998-04-30 1998-04-30 Anordning och sätt för inmatning av handskriven information till en dator
SE9801535-7 1998-04-30
US9132398P 1998-06-30 1998-06-30
US60/091,323 1998-06-30
SE9803455-6 1998-10-09
SE9803455A SE513940C2 (sv) 1998-04-30 1998-10-09 Inenhet och insystem med musfunktion och inmatningsfunktion samt sätt att använda inenheten
US10578098P 1998-10-27 1998-10-27
US60/105,780 1998-10-27
PCT/SE1999/000718 WO1999060468A1 (en) 1998-04-30 1999-04-30 Input unit, method for using the same and input system

Publications (1)

Publication Number Publication Date
KR20010052282A true KR20010052282A (ko) 2001-06-25

Family

ID=27484809

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020007012070A KR20010052282A (ko) 1998-04-30 1999-04-30 입력 유닛, 그 입력 유닛을 사용하기 위한 방법 및 입력시스템

Country Status (9)

Country Link
EP (1) EP1073944A1 (ko)
JP (1) JP2002516428A (ko)
KR (1) KR20010052282A (ko)
CN (1) CN1152296C (ko)
AU (1) AU758036B2 (ko)
BR (1) BR9910083A (ko)
CA (1) CA2331073A1 (ko)
IL (1) IL139104A0 (ko)
WO (1) WO1999060468A1 (ko)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE0000939L (sv) * 2000-02-18 2001-08-19 Anoto Ab Inenhetsarrangemang
DE10004965C2 (de) * 2000-02-04 2003-08-21 Bosch Gmbh Robert Vorrichtung zur manuellen Bedienung von Geräten in einem Fahrzeug
US6839623B1 (en) 2000-02-16 2005-01-04 Telefonaktiebolaget Lm Ericsson (Publ) Positioning applications for an electronic reading device
WO2001061450A2 (en) * 2000-02-16 2001-08-23 Telefonaktiebolaget Lm Ericsson (Publ) A system and method for operating an electronic reading device user interface
US6813396B1 (en) 2000-02-16 2004-11-02 Telefonatiebolaget L.M. Ericsson (Publ) Method for sharing information between electronic reading devices
EP1264270B1 (en) 2000-02-16 2004-04-28 Telefonaktiebolaget LM Ericsson (publ) Printer pen
US6593908B1 (en) 2000-02-16 2003-07-15 Telefonaktiebolaget Lm Ericsson (Publ) Method and system for using an electronic reading device on non-paper devices
US6611259B1 (en) 2000-02-16 2003-08-26 Telefonaktiebolaget Lm Ericsson (Publ) System and method for operating an electronic reading device user interface
WO2001061449A2 (en) * 2000-02-16 2001-08-23 Telefonaktiebolaget Lm Ericsson (Publ) Specially formatted paper based applications of a mobile phone
US6832116B1 (en) 2000-02-16 2004-12-14 Telefonaktiebolaget L M Ericsson (Publ) Method and system for controlling an electronic utility device using an electronic reading device
US6952497B1 (en) 2000-02-16 2005-10-04 Telefonaktiebolaget L M Ericsson (Publ) Method and system for electronically recording transactions and performing security function
US6885878B1 (en) 2000-02-16 2005-04-26 Telefonaktiebolaget L M Ericsson (Publ) Method and system for using an electronic reading device as a general application input and navigation interface
US6693623B1 (en) 2000-02-16 2004-02-17 Telefonaktiebolaget Lm Ericsson (Publ) Measuring applications for an electronic reading device
US6992655B2 (en) 2000-02-18 2006-01-31 Anoto Ab Input unit arrangement
US7054487B2 (en) 2000-02-18 2006-05-30 Anoto Ip Lic Handelsbolag Controlling and electronic device
US6839453B1 (en) 2000-05-16 2005-01-04 The Upper Deck Company, Llc Method and apparatus for authenticating unique items such as sports memorabilia
DE10034284A1 (de) * 2000-07-14 2002-01-24 Siemens Ag Eingabevorrichtung zur Handschriftenerkennung für ein elektronisches Informations- und Kommunikationssystem und Verfahren zur Erfassung von Eingabedaten
KR20030017924A (ko) * 2001-08-25 2003-03-04 윤덕기 펜형 무선 광마우스
KR100461769B1 (ko) * 2001-10-31 2004-12-14 삼성전자주식회사 외장형 카메라 렌즈 모듈이 장착된 스타일러스 및 이를채용한 무선 단말기
JP2004086462A (ja) * 2002-08-26 2004-03-18 Taizo Saito ペン型のコンピューター入力装置
US9024880B2 (en) 2004-08-11 2015-05-05 Pixart Imaging Inc. Interactive system capable of improving image processing
TWI236289B (en) 2004-08-11 2005-07-11 Pixart Imaging Inc Interactive device capable of improving image processing
CN2738325Y (zh) * 2004-10-15 2005-11-02 段西京 光电笔式鼠标
WO2006107245A1 (en) * 2005-04-05 2006-10-12 Lk Innovatronic Method to control a display
US7996589B2 (en) 2005-04-22 2011-08-09 Microsoft Corporation Auto-suggest lists and handwritten input
KR100854650B1 (ko) * 2007-02-08 2008-08-27 (주) 아이.에스.브이. 크기 조절 광학 펜형 마우스 및 그에 의한 크기 조절 방법
US8054512B2 (en) 2007-07-30 2011-11-08 Palo Alto Research Center Incorporated System and method for maintaining paper and electronic calendars
CN107037891A (zh) * 2015-08-19 2017-08-11 原建桥 一种复合式计算机鼠标

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4797544A (en) * 1986-07-23 1989-01-10 Montgomery James R Optical scanner including position sensors
US4804949A (en) * 1987-03-20 1989-02-14 Everex Ti Corporation Hand-held optical scanner and computer mouse

Also Published As

Publication number Publication date
AU758036B2 (en) 2003-03-13
EP1073944A1 (en) 2001-02-07
AU4179499A (en) 1999-12-06
CN1152296C (zh) 2004-06-02
JP2002516428A (ja) 2002-06-04
CA2331073A1 (en) 1999-11-25
IL139104A0 (en) 2001-11-25
CN1303495A (zh) 2001-07-11
WO1999060468A1 (en) 1999-11-25
BR9910083A (pt) 2000-12-26

Similar Documents

Publication Publication Date Title
KR20010052282A (ko) 입력 유닛, 그 입력 유닛을 사용하기 위한 방법 및 입력시스템
US6906699B1 (en) Input unit, method for using the same and input system
EP1010131B1 (en) Recording method and apparatus
US6985643B1 (en) Device and method for recording hand-written information
US6618038B1 (en) Pointing device having rotational sensing mechanisms
AU720325B2 (en) Data acquisition device for optically acquiring and storing visually marked and projected alphanumerical characters, graphics and photographic picture and/or three-dimensional topographies
EP0953934A1 (en) Pen like computer pointing device
KR20030084206A (ko) 스캐너 기능 및 마우스 기능을 동시에 갖는 장치 및 방법
KR20010052283A (ko) 목적물을 제어하는 제어 장치 및 방법
EP1073945B1 (en) Device and method for recording hand-written information
US6715686B1 (en) Device for recording information in different modes
AU758236B2 (en) Device for recording information in different modes
MXPA00010541A (en) Input unit, method for using the same and input system
EP1073990A1 (en) Device for recording information in different modes
SE513940C2 (sv) Inenhet och insystem med musfunktion och inmatningsfunktion samt sätt att använda inenheten
MXPA00010548A (en) Device and method for recording hand-written information
US20070122057A1 (en) Method of scanning an image using surface coordinate values and device using thereof
SE511855C2 (sv) Anordning och sätt för inmatning av handskriven information till en dator
JP2002132444A (ja) マウス
JPH08314627A (ja) 入力装置
MXPA00010533A (en) Control device and method of controlling an object

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid