KR101099820B1 - 위치 결정 방법 및 시스템 - Google Patents

위치 결정 방법 및 시스템 Download PDF

Info

Publication number
KR101099820B1
KR101099820B1 KR1020067014256A KR20067014256A KR101099820B1 KR 101099820 B1 KR101099820 B1 KR 101099820B1 KR 1020067014256 A KR1020067014256 A KR 1020067014256A KR 20067014256 A KR20067014256 A KR 20067014256A KR 101099820 B1 KR101099820 B1 KR 101099820B1
Authority
KR
South Korea
Prior art keywords
distance
determining
search
location
processor
Prior art date
Application number
KR1020067014256A
Other languages
English (en)
Other versions
KR20070007269A (ko
Inventor
통 시에
더글라스 엠 바니
마샬 티 데푸에
Original Assignee
아바고 테크놀로지스 이씨비유 아이피 (싱가포르) 피티이 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아바고 테크놀로지스 이씨비유 아이피 (싱가포르) 피티이 리미티드 filed Critical 아바고 테크놀로지스 이씨비유 아이피 (싱가포르) 피티이 리미티드
Publication of KR20070007269A publication Critical patent/KR20070007269A/ko
Application granted granted Critical
Publication of KR101099820B1 publication Critical patent/KR101099820B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • G06F3/0423Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen using sweeping light beams, e.g. using rotating or vibrating mirror
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/08Cursor circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 프로세서 기반형 시스템(301)에서 사용하는 위치 결정 및 이동 추적 시스템 및 방법에 관한 것이다. 실시예는 고정점(132) 주위에서 적어도 하나의 방향(133)으로 이동하는 재조준기(130), 검색빔(131)을 위치빔(141)으로 반사할 수 있는 대상(101), 재조준기의 방향으로부터 대상을 향하는 적어도 하나의 위치 각도(103)를 결정할 수 있는 로직(160) 및 고정점(132)에서 대상까지의 거리(104)를 결정할 수 있는 로직(160)을 통합할 수 있다.

Description

위치 결정 방법 및 시스템{POSITION DETERMINATION AND MOTION TRACKING}
본원은 함께 출원되어 현재 계류중이며 본원의 출원인에게 양도된 "METHOD AND SYSTEM FOR OPTICALLY TRACKING A TARGET USING AN INTERFEROMETRIC TECHNIQUE" 라는 명칭, 대리인 번호 10030168-1로 출원된 미국 특허 출원 제 10/758,981 호와 관련된 것으로, 그 개시물은 본 명세서에 참조로서 포함된다.
본 발명은 위치 결정 및 이동 추적 분야에 관한 것으로, 보다 구체적으로 프로세서 기반형 시스템으로의 입력을 위한 네비게이션 분야에 관한 것이다.
롤러-볼(roller-ball) 마우스, 광마우스와 같은 현재의 컴퓨터 입력 장치 및 다른 포인팅 장치는 표면과 마우스의 상대적인 이동을 통해 위치를 추적한다. 전형적인 롤러-볼 마우스는 표면을 따라 이동하면, 내부 볼은 회전하여 X 방향 및 Y 방향으로의 스텝의 수를 계산하는 광 인코더를 구동한다. 컴퓨터는 이 정보를 사용하여 각 좌표에서 커서가 이전 위치에 비해 얼마나 멀리 이동하였는지를 판단한다. 전형적인 광마우스는 카메라를 사용하여 표면의 연속하는 이미지를 캡처하고, 이들 이미지를 비교하여 마우스가 이전 위치에 비해 얼마나 멀리 이동하였는지를 계산한다. 롤러-볼 마우스와 광마우스는 모두 상대적인 이동을 결정하므로, 고정된 기준 프레임을 사용하지 않는다.
본 발명에 따르면, 기준점에 대하여 대상의 위치를 결정하는 것이 가능하다. 대상의 위치를 반복적으로 결정함으로써, 기준 프레임 내에서 대상의 이동을 추적하는 것이 가능하다.
본 발명에 따르면, 광빔은 검색 영역에 해당하는 정의된 아크(arc)를 따라 기준점 주위에 스위핑할(sweep) 수 있다. 대상은 검색 영역 내에 적절히 배치될 때 이 빔을 반사할 것이다. 반사할 때의 빔의 각도는 기준 프레임 내의 대상에 대한 하나의 위치 좌표로서 사용된다. 반사된 빔은 자신과 제어빔이 혼합되는 검출기 쪽으로 향하여 간섭 패턴을 형성한다. 간섭계를 통해, 기준점에서 대상까지의 거리는 간섭 패턴으로부터 계산되고, 기준 프레임 내의 대상의 제 2 위치 좌표로서 사용된다. 계산된 거리는 반사 순간의 광빔의 각도와 결합하여, 기준점에 관하여 2차원 내의 대상의 위치를 정의한다. 대상의 이동은 대상의 위치를 반복하여 결정함으로써 추적된다.
본 발명에 따르면, 재귀반사체(a retroreflector)와 같은 반사기가 대상에 부착되어, 빔이 입사 경로를 따라 다시 반사되게 할 수 있다. 광대역 방사 소스도 빔을 생성하고, 기준점에서 대상까지의 거리를 정확히 결정하는 저간섭성 간섭계(low-coherence interferometry)를 사용하기에 적합한 시스템에 사용될 수 있다. 본 발명에 따르면 이들 시스템 및 방법은 프로세서 기반형 시스템에 입력 장치 네비게이션을 제공할 수 있다.
도 1은 위치를 결정하는 본 발명에 따른 실시예의 개략도이다.
도 2는 본 발명에 따른 실시예의 위치 결정 및 이동 추적 방법을 도시하는 흐름도이다.
도 3은 컴퓨터 입력 장치의 이동을 추적하고 위치를 결정하도록 배치된 본 발명에 따른 실시예를 도시하는 도면이다.
도 4는 본 발명에 따른 실시예에 적합한 예시적인 컴퓨터 시스템을 도시한다.
상대적인 이동 추적 시스템은 전형적으로 대상의 위치를 지정하지 않으므로, 시작점에 관해서만 움직임을 결정한다. 기준 프레임을 사용하는 시스템은 기준점에 관하여 대상의 위치를 결정할 수 있다는 장점이 있으며, 만일 이 대상의 위치가 여러 차례 결정되면 대상의 다른 이동이 정확하게 추적될 수 있다. 컴퓨터 입력부와 같은 애플리케이션에 있어서, 이러한 방식으로의 이동 추적은 종래의 상대적인 이동 방법 이상의 별도의 장점을 제공한다. 예컨대, 만일 추적-볼 마우스가 표면 에서 떨어져 새로운 위치로 이동한 후 표면으로 되돌아가면, 상대적인 이동을 결정하는 시스템은 이 움직임을 추적할 수 없을 것이다. 그러나, 위치 결정을 통해 움직임을 추적하는 시스템은 이 움직임을 추적할 수 있다.
공간 내에 고정된 원점에 대해 대상을 배치하기 위해, 하나의 좌표는 공간의 각 차원으로 식별되어야 한다. 예컨대, 2차원 공간에서 대상의 위치를 정하기 위해서는 2개의 좌표가 전형적으로 사용된다. 편리한 2차원 좌표 시스템인 극좌표에서, 대상의 위치는 고정된 원점에서 대상까지의 거리를 하나의 위치 좌표로서 사용하고, 원점과 대상을 연결하는 선이 사전결정된 0°방향에 관하여 이루는 각도를 제 2 위치 좌표로서 사용하는 2차원 공간에서 충분히 정의될 수 있다. 3차원 시스템에 있어서, 3개의 좌표가 전형적으로 사용된다. 편리한 3차원 좌표 시스템인 구좌표 시스템에서, 대상의 위치는 고정된 원점에서 대상까지의 거리를 제 1 좌표로서 사용하고, 원점과 대상을 연결하는 선이 제 1 0°방향에 관하여 이루는 각도(예컨대, 방위각)를 제 2 좌표로서 사용하며, 상기 선이 제 2 0°방향으로 이루는 각도(예컨대, 양각)를 제 3 좌표로서 사용함으로써 설명될 수 있다.
도 1은 본 발명에 따라 배치되어 2차원 공간에서 대상(101)의 위치를 결정하는 데 사용되는 위치 결정 시스템의 개략도이다. 도 1의 시스템의 동작에서, 소스(110)는 소스 경로를 따라 소스빔(111)을 투영하고, 시준기(112)는 소스빔(111)을 조준한다. 도 1의 실시예에서, 소스(110)는 광대역 방사빔을 생성하는 전자기 방사의 광대역 또는 저간섭성 소스이다. 실시예는 광대역 또는 저간섭성 방사로 한정되는 것이 아니라, 임의의 간섭성 정도의 전자 방사를 사용할 수 있다. 빔 분리기(120)는 도 1의 소스 경로를 따라서 배치된다. 도 1의 실시예에서, 빔 분리기(120)는 부분적으로 반사하는 표면으로서, 소스빔(111)을 검색빔(131)과 제어빔(121)으로 분리할 수 있다. 이 실시예는 도 1에 도시된 방식으로 지향된 반사 표면으로 한정되는 것이 아니라, 소스빔(111)을 적절히 분리하는 분극빔 분리기, 프리즘 또는 다른 광학 소자를 사용할 수 있다. 도시된 실시예에서, 제어빔(121)은 빔 분리기(120)에 의해, 검출 경로(151)를 따라 제어빔의 방향을 검출기(150) 쪽으로 바꾸는 반사기(122) 쪽으로 향한다. 부분적으로 반사하는 빔 분리기(120)는 검색빔(131)을 통과시켜 이것이 재조준기(130)를 비추는 것을 허용한다. 도 1에 도시된 실시예에서, 재조준기(130)는 피벗점(pivot point)(132)에 장착된 반사 표면이다. 이 실시예는 피벗하는 반사 표면에 한정되는 것이 아니라, 이동하고 회전하며 스위핑(sweep)하거나 또는 검색 영역을 통해 검색빔(131)을 이동시킬 수 있는 프리즘, 굴절 수단 또는 기타 장치를 포함할 수 있다.
또한 도 1에 도시된 것처럼, 재조준기(130)는 검색빔(131)이 (스텝퍼 모터, 자성 제어 또는 기타 적합한 수단에 의해) 실질적으로 전체 검색 영역(140)을 통해 패닝(pan)되게 하는 아크(arc)(133)를 따라 이동한다. 만일 대상(101)이 검색 영역(140)에 배치되면, 검색빔(131)은 재조준기(130)가 움직이는 동안 소정의 지점에서 대상을 비출 것이다. 도 1의 실시예에서, 재귀반사체(102)는 대상(101)에 부착된다. 재귀반사체는 입사 경로를 따라서 입사빔을 다시 반사할 수 있다. 예컨대, 대상(101)이 3M® 재귀반사 테이프가 부착된 면과 같은 재귀반사 표면(102)을 가지면, 검색빔(131)은 대상(101)을 비추고, 위치빔(141)으로서 입사 경로를 따라 다시 반사될 것이다. 이어서 위치빔(141)은 재조준기(130)를 비추고, 검색빔(131)이 전파되는 동일한 경로를 따라 역방향으로 전파한다. 이어서 위치빔(141)은 빔 분리기(120)를 비추고, 빔 분리기(120)에 의해 검출 경로(151)를 따라 반사된다. 그러므로, 재조준기(130)가 각도(103)에 존재할 때, 위치빔(141)과 제어빔(121)은 모두 검출 경로(151)를 따라 검출기에 도달한다.
도 1은 대상(101)에 대한 위치 각도를 결정하는 로직(160)도 포함한다. 시스템이 위치빔(141)의 존재를 검출할 때, 재조준기(130)의 각도를 알리는 이 시스템은 시스템과 관련된 위치가 어디인지를 결정하는 데 사용될 수 있다. 만일 빔(131)이 재조준기(130) 상에 입사할 때 재조준기(130)의 표면이 빔(131)의 경로에 대해 수직인 경우를 재조준기(130)가 0°에 있는 것으로 정의하면, 대상(101)의 방향이 결정될 수 있다. 재조준기(130)가 각도(103)에 있을 때, 시스템은 위치빔(141)을 생성할 것이다. 만일 각도(103)가 30°이면, 위치빔(141)의 생성은 대상이 30°선을 따라 위치함을 의미한다.
2차원 공간에서 대상의 위치를 결정하기 위해, 2개의 위치 좌표가 식별되어야 한다. 도 1의 실시예에 있어서, 위치빔(141)과 제어빔(121)은 거리(104)를 간섭적으로 결정하는 데 사용되고, 기준점에서 대상(101)까지의 거리를 제 2 위치 좌표로서 사용한다. 위치빔(141)과 제어빔(121)은 모두 검출기(150) 상에 입사한다. 혼합될 때, 빔들은 검출기(150)에서 측정되는 명/암 간섭 대역을 야기하여 긍정적 및 부정적으로 간섭할 것이다. 이들 간섭 대역은 대비 -이 밝음이 얼마나 밝은지 또는 이 어두움이 얼마나 어두운지- 를 가지되, 이 대비는 위치빔(141)과 제어빔(121)이 전파되는 상이한 경로 길이에 직접적으로 연관된 함수이다. 도 1의 실시예는 광대역 또는 저간섭성 소스를 사용하여 분리되는 광대역 소스빔(111)을 생성한다. 재혼합된 빔에 의해 생성되어 검출기에서 관찰되는 간섭 대역의 대비는 제어빔(121)과 위치/검색빔(131,141)용 경로 길이의 차이를 계산하는 데 사용된다. 알려진 분리기(120)에서 재조준기(130)까지의 거리가 삭제될 때, 거리(140)는 남아있다. 그러므로 대비 함수를 분석함으로써, 도 1의 시스템은 거리(104)를 결정한다. 거리를 결정하는 이 방법은 저간섭성 간섭계로 불리며, 본 명세서에 참조로서 도입된 Optics Letters 13,186(1988)에 기재된 A. F. Fercher 등의 "Low-Coherence Interferometry"에 더 설명된다.
본 발명에 따른 실시예는 저간섭성 간섭계를 사용하여 거리(104)를 결정한다. 본 발명에 따른 다른 실시예는 복수의 이산 파장을 바탕으로 하는 간섭 측정 또는 단일 파장 소스를 바탕으로 하는 간섭 측정을 포함하지만, 이들로 한정되지는 않는다. 이 방법은 소스(110)와 적절히 정합되어야 한다. 예컨대, 소스(110)가 레이저이면, 단일 파장 간섭계의 방법이 사용될 수 있다. 만일 3개의 파장을 방사하는 소스가 사용되면, 3개의 파장 간섭계의 방법이 사용될 수 있다.
도 1의 실시예는 2차원 공간에 대상을 배치하는 것으로 도시되고 설명되었다. 그러나, 본 발명에 따른 실시예는 3차원에도 대상을 배치할 수 있다. 도 1에 도시된 배치에 있어서, 재조준기(130)는 0°방향을 각각 가지며 수직으로 배치된 2개의 아크를 통해 검색빔(131)을 패닝하는 데 용이하게 적용할 수 있다. 대상이 배치되어 위치빔이 생성되면, 시스템은 각 0°방향에 대한 각 아크 내의 재조준 기(130)의 각도를 알릴 수 있다. 거리(104)와 조합된 재조준기(130)로부터 측정된 두 각도는 구좌표 시스템의 3개의 위치 좌표를 제공한다. 이와 달리, 만일 시준기(112)가 일차원에 수직으로 전파하는 소스빔(111)을 연장하는 원통형 렌즈 또는 다른 광학 장치라면, 시준기(112)는 제 2 위치 각도를 제공하는 데 사용될 수 있다. 만일 표면이 올라가면, 이러한 연장은 대상(101)을 검출하는 성능을 제공한다. 이어서 제 2 위치 각도는 본 명세서에 설명된 간섭계 방법을 사용하여 결정될 수 있다.
고정된 기준점에 관하여 대상의 위치를 결정하기 위해, 본 발명에 따른 실시예는 도 2에 도시된 일반적인 방법(200)을 사용할 수 있다. 단계(201)에서, 0°에 해당하는 고정된 기준점 및 방향이 설정된다. 2차원 시스템은 극좌표를 사용할 수 있고, 고정된 기준점을 원점으로 사용하여 거리를 측정할 수 있으며, 0°방향을 각도 측정의 기준으로 사용할 수 있다. 3차원 시스템은 고정된 기준점을 원점으로 설정하여 거리를 측정하고, 0°방향을 제 1 각도를 측정하는 기준으로 사용하며, 다른 0°방향을 제 1 0°방향과 직각인 제 2 각도를 측정하는 기준으로 사용하는 구좌표를 사용할 수 있다. 단계(202)에서, 소스빔은 제어빔과 위치빔으로 분리 또는 분배된다. 이어서 제어빔은 고정된 경로에 의해 검출기에 전달되는 한편, 검색빔은 고정된 기준점까지 개별 경로를 따른다. 단계(203)에서, 검색빔은 기준점 주위에서 제 1 0°방향으로부터 측정된 아크를 따라 패닝된다(panned). 만일 시스템이 3차원에서 위치를 결정하는 중이면, 검색빔은 다른 0°방향으로부터 측정된 제 2 아크(제 1 아크와 직교함)를 따라 패닝될 수 있다. 단계(204)에서, 이 아크(들) 내에 적절히 설계된 대상은 입사 경로를 따라 검색빔을 다시 반사한다. 적절히 설계된 대상은 입사 경로를 따라 검색빔을 다시 반사하도록 배치된 임의의 대상이다. 하나의 방법은 대상의 표면에 입사 경로를 따라 입사광을 다시 반사할 수 있는 프리즘 형태인 재귀반사체를 부착하는 것이다. 재귀반사체가 부착된 대상은 입사 경로를 따라 검색빔(예컨대, 도 1의 빔(131))을 다시 반사할 수 있다. 이 실시예는 재귀반사체의 사용으로 제한되지는 않지만, 입사 경로를 따라 검색빔을 다시 반사할 수 있는 임의의 배치를 이용하는 데 쉽게 적용할 수 있다. 단계(205)에서, 이 반사빔은 제어빔과 재혼합되고, 고정된 기준점에 관한 대상의 거리는 두 빔의 간섭 패턴으로부터 결정된다. 단계(206)에서, 0°방향(들)에 대하여 검색빔의 각도(들)가 결정된다. 혼합될 때, 거리(104)와 각도(θ)(103)는 2차원 공간 내의 대상(101)의 위치를 정의한다.
본 발명에 따른 실시예는 마우스, 스타일러스(stylus) 또는 기타 컴퓨터 입력 장치의 이동 추적 또는 위치 결정에 사용될 수 있다. 또한, 본 발명에 따른 실시예는 임의의 대상이 검색빔을 위치빔으로 반사하는 데 적합할 수 있기만 하면, 컴퓨터에 위치를 입력하는 데 사용할 수 있다.
도 3은 컴퓨터 입력 장치의 이동을 추적하고 위치를 결정하도록 배치된 실시예를 도시하는 도면이다. 예시적인 컴퓨터 시스템(300)은 컴퓨터 입력 시스템(301)을 사용하는 데 적합할 수 있다. 시스템(301)은 사용자가 스타일러스(302)를 조종하고, 그래픽 사용자 인터페이스 애플리케이션(309)을 사용하는 컴퓨터 시스템(300)에 위치 정보를 제공하게 한다. 광대역 소스(303)는 분리기(304)에 의해 분리되는 빔을 생성한다. 이어서 제어빔은 검출기 방향으로 향하고, 검색빔은 재조준기(306) 방향으로 향한다. 재조준기(306)는 테이블, 책상 또는 다른 영역의 표면과 같은 동작 영역을 따라 검색빔을 패닝한다. 검색빔이 스타일러스(302)를 비출 때, 재귀반사체(307)는 입사 경로를 따라 검색빔을 위치빔으로 다시 반사한다. 이어서 위치빔은 검출기(305)에서 제어빔과 혼합하도록 시스템(301)에 의해 재조준된다. 이어서 상술한 방법과 유사한 방법에 의해, 시스템은 고정점에 대하여 스타일러스(302)의 위치를 계산한다. 반복되는 검색빔의 패닝으로 스타일러스(302)의 위치 결정이 반복된다. 메모리 내에 연속하는 위치 결정을 저장함으로써, 시스템(300)은 시간에 따른 스타일러스(302)의 이동을 추적할 수 있다. 이러한 방식으로 배치된 실시예는 종래의 상대적인 이동 애플리케이션보다 뛰어난 마우스, 스타일러스 또는 다른 컴퓨터 입력 애플리케이션을 제공할 수 있다.
본 발명에 따른 다양한 실시예는 다수의 애플리케이션에 유용한 특정 위치 정보를 제공하고 임의의 영역을 통해 이동을 추적할 수 있게 한다. 예컨대, 도 3의 스타일러스(302)는 지도(308) 상에 위치를 표시하여, 컴퓨터 시스템(300)에 이 정보를 제공하는 데 사용될 수 있다. 스타일러스(302)는 지도(308) 상의 대상을 추적하는 데 사용될 수 있고, 시스템(301)은 이들의 위치를 제공할 것이다. 시스템(301)은 소스(303)에 의해 방사된 간섭성 길이가 도 1의 검색 영역(140)과 같은 네비게이션 영역을 정의하는 데 사용될 때, 스타일러스(302)의 위치를 고정된 범위로 제한하는 데에도 적용할 수 있다.
간섭성 길이는 식에 의해 결정된다.
Figure 112006050424757-pct00001
선폭이 0.01nm이고 850nm로 발광하며 소스(303)는 7.2cm의 간섭성 길이와 한 변이 대략 5.1cm인 정사각형 검색 영역을 야기할 것이다. 이러한 시스템(301)으로 인해 스타일러스(302)의 검출이 적당한 지리적 영역의 범위(예컨대, 도 1의 영역(140)) 내로 제한될 수 있다. 이것은 공간을 따라 스타일러스를 추적함으로써 전력 및 다른 리소스의 소모를 방지하거나, 여전히 검색빔의 경로 내에 있지만 검색 영역 외부에 있는 반사 대상을 추적하는 것을 방지한다.
컴퓨터 실행가능한 인스트럭션을 통해 구현될 때, 실시예의 다양한 소자는 본질적으로 이러한 다양한 소자의 동작을 정의하는 소프트웨어 코드이다. 실행가능한 인스트럭션 또는 소프트웨어 코드는 판독가능한 매체(예컨대, 하드 드라이브 미디어, 광학 미디어, EPROM, EEPROM, 테이프 미디어, 카트리지 미디어, 플래시 메모리, ROM, 메모리 스틱 등)로부터 획득되거나 통신 매체(예컨대, 인터넷)로부터의 데이터 신호를 통해 통신될 수 있다. 실제로, 판독가능한 미디어는 정보를 저장하거나 전달할 수 있는 임의의 매체를 포함할 수 있다.
도 4는 본 발명의 실시예에 따른 적합한 예시적인 컴퓨터 시스템(400)을 도시한다. 중앙 처리 장치(CPU:central processing unit)(401)는 시스템 버스(402)와 결합한다. 예컨대, CPU(401)는 인텔사의 펜티엄® 4 프로세서와 같은 임의의 범용 CPU가 될 수 있다. 그러나 본 발명은 CPU(401)가 여기에 설명된 발명 동작을 지원하는 한 CPU(401)의 아키텍처에 의해 제한되지는 않는다. CPU(401)는 본 발명의 실시예에 따른 다수의 로직 인스트럭션을 실행할 수 있다.
컴퓨터 시스템(400)은 SRAM, DRAM, SDRAM 등일 수 있는 RAM(random access memory)(403)을 포함할 수 있다. 컴퓨터 시스템(400)은 PROM, EPROM, EEPROM 등일 수 있는 ROM(404)도 포함할 수 있다. 종래 기술에 잘 알려져 있는 것처럼, RAM(403)과 ROM(404)은 사용자 및 시스템 데이터와 프로그램을 포함한다.
컴퓨터 시스템(400)은 입력/출력(I/O) 어댑터(405), 통신 어댑터(411), 사용자 인터페이스 어댑터(408) 및 디스플레이 어댑터(409)도 포함할 수 있다. 특정 실시예에서 I/O 어댑터(405), 사용자 인터페이스 어댑터(408) 및/또는 통신 어댑터(411)는 사용자가 컴퓨터 시스템(400)과 상호작용하는 것을 가능하게 하여, 마우스 버튼과 같은 스위치와 연관된 정보를 입력할 수 있다.
I/O 어댑터(405)는 컴퓨터 시스템(400)에 하나 이상의 하드 드라이브, CD 드라이브, 플로피 디스크 드라이브, 테이프 드라이브 등과 같은 저장 장치(들)(406)를 연결할 수 있다. 이 저장 장치는 RAM(403)이 대상의 이동을 추적하는 데이터의 저장과 관련된 메모리 요구조건에 충분하지 않을 때 사용될 수 있다. 사용자 인터페이스 어댑터(408)는 컴퓨터 시스템(400)에 키보드(413), (도 1에 도시된 시스템 실시예와 같은) 위치 결정 시스템(407) 및 마이크로폰(414)과 같은 사용자 입력 장치, 및/또는 스피커(들)(415)와 같은 출력 장치를 결합한다. 디스플레이 어댑터(409)는 CPU(401)에 의해 구동되어, 예컨대 본 발명의 실시예의 사용자 인터페이스를 표시하는 디스플레이 장치(410) 상의 디스플레이를 제어한다.
본 발명은 시스템(400)의 아키텍처로 제한되지는 않는다. 예컨대, 개인용 컴퓨터, 랩톱 컴퓨터, 컴퓨터 워크스테이션 및 다중-프로세서 서버를 포함하는 임의의 적합한 프로세서 기반형 장치가 이용될 수 있다. 또한, 본 발명에 따른 실시예는 ASIC(application specific integrated circuit) 또는 VLSI(very large scale integrated) 회로에 구현될 수 있다.

Claims (10)

  1. 프로세서 기반형 시스템(301)에 대한 입력 대상(101)의 위치 결정 방법에 있어서,
    검색 영역(140)을 따라 검색빔(131)을 이동시킴으로써 상기 대상에 대한 적어도 하나의 위치 각도(103)를 결정하는 단계 -상기 검색빔이 상기 적어도 하나의 위치 각도에 존재할 때 상기 검색빔은 상기 대상에 의해 반사되어 위치빔(141)을 생성함- 와,
    상기 위치빔과 제어빔(121)을 혼합함으로써 생성된 간섭 패턴을 분석하여 기준점(132)에서 상기 대상까지의 거리(104)를 결정하는 단계 -상기 거리 및 상기 적어도 하나의 위치 각도는 상기 프로세서 기반형 시스템에 의해 사용되는 상기 위치를 나타냄- 를 포함하는
    위치 결정 방법.
  2. 제 1 항에 있어서,
    상기 대상의 상기 위치를 여러 번 결정함으로써 상기 대상의 이동을 추적하는 단계를 더 포함하는
    위치 결정 방법.
  3. 제 1 항에 있어서,
    상기 검색빔은 적어도 제 1 아크(arc)(133) 및 제 2 아크를 따라 패닝되고(panned),
    상기 제 1 아크 및 상기 제 2 아크는 제 1 구좌표 및 제 2 구좌표에 해당하는
    위치 결정 방법.
  4. 프로세서 기반형 애플리케이션(301)으로의 입력을 위한 위치 결정 시스템에 있어서,
    고정점(132) 주위에서 적어도 하나의 차원(dimension)(133)으로 이동하는 재조준기(130)와,
    상기 애플리케이션에 입력을 제공하도록 위치를 나타내는 대상(101) -상기 대상은 검색빔(131)을 위치빔(141)으로 반사할 수 있음- 과 ,
    상기 재조준기의 방향으로부터 적어도 하나의 위치 각도(103)를 결정할 수 있는 로직(160)과,
    상기 고정점에서 상기 대상까지의 거리(104)를 결정할 수 있는 로직(160)을 포함하는
    위치 결정 시스템.
  5. 제 4 항에 있어서,
    소스빔(111)을 제어빔(121)과 상기 검색빔으로 분리할 수 있는 분리기(120)와,
    상기 위치빔과 상기 제어빔을 혼합하도록 배치된 광학계(122)와,
    상기 혼합에 의해 생성된 간섭 패턴에 응답하는 검출기(150)를 포함하되,
    상기 거리를 결정할 수 있는 로직은 상기 간섭 패턴을 분석하여 상기 거리를 결정하는
    위치 결정 시스템.
  6. 제 4 항에 있어서,
    상기 대상의 위치를 반복하여 결정함으로써 상기 대상의 이동을 추적할 수 있는 로직(160)을 더 포함하는
    위치 결정 시스템.
  7. 제 1 빔(121)을 적어도 하나의 광-센서(150) 쪽으로 향하게 하는 제 1 광학 경로와,
    이동가능한 대상(101)에 의해 반사되는 제 2 빔(141)을 상기 적어도 하나의 광-센서 쪽으로 향하게 하는 제 2 광학 경로와,
    상기 대상의 각도 좌표(103)를 결정하는 수단(130)과,
    상기 적어도 하나의 광-센서에 의해 생성된 데이터를 수신하는 인터페이스와,
    상기 적어도 하나의 센서에 의해 생성되어 상기 인터페이스를 통해 수신된 데이터를 분석함으로써 간섭 패턴을 식별할 수 있는 프로세서(160)를 포함하되,
    상기 간섭 패턴의 디멘션(a dimension of said interference pattern)이 측정되고, 상기 대상의 거리 좌표(104)는 상기 측정된 디멘션을 사용하여 결정되며, 상기 각도 좌표 및 상기 거리 좌표는 프로세서 기반형 시스템(301)으로의 입력을 위한 상기 대상의 위치를 정의하는 데 사용되는
    시스템.
  8. 제 7 항에 있어서,
    상기 각도 좌표는 상기 제 2 광학 경로와 연관이 있고,
    상기 프로세서는 상기 각도 및 상기 측정된 디멘션을 사용하여 상기 대상의 상기 위치를 결정할 수 있는
    시스템.
  9. 대상(101)의 위치를 결정하는 시스템에 있어서,
    제 1 빔(121) 및 제 2 빔(131)의 소스와,
    적어도 하나의 각도 좌표(133)를 따라 상기 제 2 빔을 패닝하는 수단(130) -상기 제 2 빔은 상기 대상에 의해 반사됨- 과,
    상기 제 1 빔 및 상기 제 2 빔에 의해 생성된 간섭 패턴을 간섭적으로 분석하는 수단(160)을 포함하는
    시스템.
  10. 제 9 항에 있어서,
    상기 소스는 일정 범위 내에서 전자기 방사를 제공하되,
    상기 범위는 상기 결정된 위치의 지리적 한계를 설정하는 데 사용되는
    시스템.
KR1020067014256A 2004-01-16 2005-01-12 위치 결정 방법 및 시스템 KR101099820B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/759,646 2004-01-16
US10/759,646 US7184022B2 (en) 2004-01-16 2004-01-16 Position determination and motion tracking
PCT/US2005/000899 WO2005072500A2 (en) 2004-01-16 2005-01-12 Position determination and motion tracking

Publications (2)

Publication Number Publication Date
KR20070007269A KR20070007269A (ko) 2007-01-15
KR101099820B1 true KR101099820B1 (ko) 2011-12-27

Family

ID=34749728

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067014256A KR101099820B1 (ko) 2004-01-16 2005-01-12 위치 결정 방법 및 시스템

Country Status (6)

Country Link
US (1) US7184022B2 (ko)
EP (1) EP1706862A4 (ko)
JP (1) JP2007524158A (ko)
KR (1) KR101099820B1 (ko)
CN (1) CN1910647B (ko)
WO (1) WO2005072500A2 (ko)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8729770B1 (en) 2003-12-02 2014-05-20 Adriatic Research Institute MEMS actuators with combined force and bi-directional rotation
JP4200960B2 (ja) * 2004-10-01 2008-12-24 ソニー株式会社 編集装置及び編集方法並びにプログラム
US20080291179A1 (en) * 2005-11-30 2008-11-27 Koninklijke Philips Electronics, N.V. Light Pen Input System and Method, Particularly for Use with Large Area Non-Crt Displays
US20080231600A1 (en) 2007-03-23 2008-09-25 Smith George E Near-Normal Incidence Optical Mouse Illumination System with Prism
TWI406153B (zh) * 2007-06-12 2013-08-21 Quanta Comp Inc 游標控制方法及應用該游標控制方法之簡報系統及電腦可讀取儲存媒體
WO2009109058A1 (de) * 2008-03-05 2009-09-11 Quasmo Ag Vorrichtung und verfahren zur steuerung eines spielablaufs
US7924441B1 (en) 2008-08-08 2011-04-12 Mirrorcle Technologies, Inc. Fast and high-precision 3D tracking and position measurement with MEMS micromirrors
US20100201808A1 (en) * 2009-02-09 2010-08-12 Microsoft Corporation Camera based motion sensing system
GB201020282D0 (en) 2010-11-30 2011-01-12 Dev Ltd An improved input device and associated method
EP2557391A1 (de) * 2011-08-12 2013-02-13 Leica Geosystems AG Messgerät zur Bestimmung der räumlichen Lage eines Messhilfsinstruments
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9285893B2 (en) * 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9626015B2 (en) 2013-01-08 2017-04-18 Leap Motion, Inc. Power consumption in motion-capture systems with audio and optical signals
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US10134267B2 (en) 2013-02-22 2018-11-20 Universal City Studios Llc System and method for tracking a passive wand and actuating an effect based on a detected wand path
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
US9616350B2 (en) 2014-05-21 2017-04-11 Universal City Studios Llc Enhanced interactivity in an amusement park environment using passive tracking elements
US9507442B2 (en) 2014-05-21 2016-11-29 Leap Motion, Inc. Multi-function stylus for motion capture and sensory based machine control
US9433870B2 (en) 2014-05-21 2016-09-06 Universal City Studios Llc Ride vehicle tracking and control system using passive tracking elements
US10025990B2 (en) 2014-05-21 2018-07-17 Universal City Studios Llc System and method for tracking vehicles in parking structures and intersections
US9429398B2 (en) 2014-05-21 2016-08-30 Universal City Studios Llc Optical tracking for controlling pyrotechnic show elements
US10207193B2 (en) 2014-05-21 2019-02-19 Universal City Studios Llc Optical tracking system for automation of amusement park elements
US10061058B2 (en) 2014-05-21 2018-08-28 Universal City Studios Llc Tracking system and method for use in surveying amusement park equipment
US9600999B2 (en) 2014-05-21 2017-03-21 Universal City Studios Llc Amusement park element tracking system
US10318023B2 (en) 2014-08-05 2019-06-11 Hewlett-Packard Development Company, L.P. Determining a position of an input object
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
US10238979B2 (en) 2014-09-26 2019-03-26 Universal City Sudios LLC Video game ride
US10580152B2 (en) 2015-06-04 2020-03-03 Lumincode As Free space position finder

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1466471A (en) * 1974-09-25 1977-03-09 Cetec Systems Ltd Optical digistising system
GB1470293A (en) * 1974-09-25 1977-04-14 Cetec Systems Ltd Digitising system
US4714339B2 (en) * 1986-02-28 2000-05-23 Us Commerce Three and five axis laser tracking systems
US5786810A (en) * 1995-06-07 1998-07-28 Compaq Computer Corporation Method of determining an object's position and associated apparatus
US6344846B1 (en) * 1997-10-27 2002-02-05 Stephen P. Hines Optical retroreflective remote control
US7078672B2 (en) 2004-01-16 2006-07-18 Tong Xie Method and system for optically tracking a target using interferometric technique

Also Published As

Publication number Publication date
WO2005072500A2 (en) 2005-08-11
US7184022B2 (en) 2007-02-27
EP1706862A4 (en) 2008-04-09
JP2007524158A (ja) 2007-08-23
WO2005072500A3 (en) 2006-07-06
CN1910647B (zh) 2011-08-31
CN1910647A (zh) 2007-02-07
US20050156888A1 (en) 2005-07-21
EP1706862A2 (en) 2006-10-04
KR20070007269A (ko) 2007-01-15

Similar Documents

Publication Publication Date Title
KR101099820B1 (ko) 위치 결정 방법 및 시스템
US10302413B2 (en) Six degree-of-freedom laser tracker that cooperates with a remote sensor
US9612331B2 (en) Laser tracker with functionality for graphical target preparation
EP1512989B1 (en) Method and system for optically tracking a target using a triangulation technique
US9476695B2 (en) Laser tracker that cooperates with a remote camera bar and coordinate measurement device
JP5016245B2 (ja) 物体の六つの自由度を求めるための測定システム
US8896848B2 (en) Method and apparatus for using gestures to control a laser tracker
JP4879471B2 (ja) 再帰反射物体に応答する位置決定方法および装置
US20040227954A1 (en) Interferometer based navigation device
US20070109527A1 (en) System and method for generating position information
JP2004170412A (ja) 測定系の較正のための方法と装置
JP2007522652A (ja) 干渉技術を使用して目標を光学的にトラッキングする方法及びシステム
CA2754812A1 (en) Optical gage and three-dimensional surface profile measurement method
US6934037B2 (en) System and method for optical navigation using a projected fringe technique
TWI247235B (en) Position determination and motion tracking
Heikkinen et al. Self-calibrated defocused speckle imaging for remote surface motion measurements

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141201

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171211

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee