KR20020059829A - 공간 위치를 결정하는 신호 처리 - Google Patents

공간 위치를 결정하는 신호 처리 Download PDF

Info

Publication number
KR20020059829A
KR20020059829A KR1020027006959A KR20027006959A KR20020059829A KR 20020059829 A KR20020059829 A KR 20020059829A KR 1020027006959 A KR1020027006959 A KR 1020027006959A KR 20027006959 A KR20027006959 A KR 20027006959A KR 20020059829 A KR20020059829 A KR 20020059829A
Authority
KR
South Korea
Prior art keywords
sphere
input device
signal
computer
touch event
Prior art date
Application number
KR1020027006959A
Other languages
English (en)
Inventor
채프만크리스토퍼
샌드배치데이비드리
하디-빅앤소니
Original Assignee
사운드터치 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사운드터치 리미티드 filed Critical 사운드터치 리미티드
Publication of KR20020059829A publication Critical patent/KR20020059829A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01HELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
    • H01H2239/00Miscellaneous
    • H01H2239/054Acoustic pick-up, e.g. ultrasonic
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01HELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
    • H01H9/00Details of switching devices, not covered by groups H01H1/00 - H01H7/00
    • H01H9/02Bases, casings, or covers
    • H01H9/0214Hand-held casings
    • H01H9/0235Hand-held casings specially adapted for remote control, e.g. of audio or video apparatus

Abstract

장치는 컴퓨터로 입력 신호를 제공하기 위한 것이다. 구 형상을 갖는 센서는 터치 이벤트에 관한 위치 데이터를 발생시키기 위하여 접촉 감지 면을 갖는다. 상기 센서는 지구 자기장과 중력장에 관련된 회전을 결정하는 방향 센서를 포함한다. 방향 데이터는 컴퓨터의 표시 장치에 관련된 면에 터치 이벤트의 방향을 분석하도록 위치 데이터와 결합될 수 있다. 커서의 움직임 또는 문자는 터치 이벤트로부터 발생될 수 있다. 바람직하게 구는 접촉될 때 소리가 발생되는 거친면을 갖는다. 위치 데이터는 구의 면 아래 위치된 마이크로폰으로부터 신호를 처리하여 발생된다.

Description

입력 데이터{INPUTTING DATA}
컴퓨터의 연산에 의해 수행되는 작업에 의해서 입력데이터가 발생되는 장치는 한정된다. 개인 컴퓨터의 경우에 있어는 키보드와 마우스가 사용된다.
컴퓨터 주변 장치의 설계와 작동은 라디오, 하이파이 및 텔레비전과 같은 다른 장치와 컴퓨터 사이의 차이를 갖는다. 키보드와 마우스의 요구 조건은 매우 넓은 활동 범위로 컴퓨터의 폭 넓은 사용에 주요 관문으로 점점 더 이해되고 있다.
엠피쓰리(MP3)와 다른 관련 오디오 압축 표준의 출현이 하나의 예이다. 이들은 높은 질의 오디오 데이터 압축을 제공한다. 현재 세계 대부분의 라디오 방송국은 전자기 스펙트럼으로 전통적인 촬영에 부가하여 인터넷으로 방송을 할 수 있다. 더욱이 이것은 저 비용의 컴퓨터 하드디스크에 전체 씨디(CD) 콜렉션을 저장할 수 있게 되었다. 하여간 기존 형태의 컴퓨터는 라디오 또는 하이파이 장치를 대신할 수 없다. 비디오 데이터에도 유사한 문제가 존재한다. 편집을 제외한 설명된 장치는 일반적인 텔레비전이다.
컴퓨터는 점점 다른 미디어 형태를 일반적이고 사용이 쉽고 컴퓨터화 할 수 있는 환경으로 수신하여 처리할 수 있다. 하여간 컴퓨터 단말기에 입력을 제공하는방식은 이러한 기술의 폭 넓은 사용을 제한하고 있다. 상기 키보드와 마우스는 책상에서 최적으로 작동되고, 이것은 컴퓨터가 종래 전자 장치에 대하여 넓은 범위에 거쳐 교체될 수 있는 것을 방해한다. 컴퓨터와 인터넷 기술 개발에 따라, 그에 따른 제한은 사용자가 입력 데이터를 통해 컴퓨터와 상호 작용하는 방법에 있다.
그래픽 디자인, 비디오 및 필름 편집의 디지털화는 이미지 데이터와 상호 작용하는 개선된 장치의 개발에 따른다. 이러한 상황에서 가장 현저하게 사용되는 입력 장치는 종이와 연필 방식으로 작동되는 그래픽 터블렛이다. 큰 그래픽 타블렛에 있어서, 키보드의 기능을 갖는 영역을 제공하는 것이 가능하고 이것은 요구되는 간혹 텍스트가 발생되게 작동될 수 있다. 삼차원 컴퓨터 모델링에 있어서, 바람직한 단일 주변장치는 출현하지 않았다. 특정 응용을 위한 최적화된 몇몇 시스템이 공지되었다. 이것을 일 예는 세 방향의 위치와 세 방향의 회전을 제공하는 라디오 트래킹이다. 가상 현실 응용에 있어서, 라디오 수신기는 사용자 앞에 설치된 디스플레이에 고정되어 고정된 송신기로부터 분석된 데이터에 의해 획득된 위치 정보는 사용자의 눈에 입체 영상을 결정하는 데에 사용된다. 상기 영상은 사용자 손의 각도와 위치에 관한 시야를 제공하도록 업데이트 된다. 유사한 장치들은 손의 위치를 추적하도록 사용될 수 있고, 방향을 결정하도록 초음파를 사용하는 장치를 포함할 수 있다. 손가락의 움직임을 일으키는 손동작은 데이터 글러브의 사용으로 추적될 수 있다. 하여간 이러한 장치의 어느 것도 삼차원으로 위치 데이터를 발생시키기 위한 공간에서 이들 장치를 멈추게 하는 조건에 의해 키보드나 마우스를 대치하기에 적절하지 않다.
그래픽 터블렛과 삼차원 입력 장치는 어떤 응용에 있어서 키보드와 마우스를 대치하기에 적절할 수 있다. 하여간 그것들의 높은 비용과 실질적인 상황은 개인 컴퓨터의 키보드와 마우스라 대중적이고 저렴하며 보편적으로 대치하기에 적절하지 않게 만든다.
본 발명은 컴퓨터용 제어신호 발생을 위한 입력 장치에 관한 것이다.
도 1은 센서와 컴퓨터 터미널을 나타내는 도면이다.
도 2와 도 3은 마이크로폰과 센서 코어를 포함하는 도 1에 도시된 센서의 상세한 구성을 나타내는 도면이다.
도 4는 아날로그를 디지털로 변환시키는 변환기, 방향 센서 및 디지털 신호 처리기를 포함하는 도 3에 도시된 센서 코어를 상세한 구성을 나타내는 도면이다.
도 5는 도 4에 도시된 디지털 신호 처리기를 상세하게 나타내는 도면이다.
도 6은 도 4에 도시된 아날로그를 디지털로 변환시키는 변환기 중 하나를 상세하게 나타내는 도면이다.
도 7은 첫 번째 형태의 터치 이벤트에 대한 응답으로 도 2에 도시된 마이크로폰 중 하나로부터 기록된 오디오 데이터의 주파수 영역 해석을 상세하게 나타내는 도면이다.
도 8은 두 번째 형태의 터치 이벤트에 대한 응답으로 도 2에 도시된 마이크로폰 중 둘로부터 기록된 오디오 데이터의 시간 영역 해석을 상세하게 나타내는 도면이다.
도 9는 드래그 위치를 확인하는 단계와 타격 위치를 확인하는 단계 및 활동범위 방향을 확인하는 단계를 포함하는 도 4에 도시된 디지털 신호 처리기에서 실행되는 단계를 상세하게 나타내는 도면이다.
도 10은 템플리트(template)와 연관되는 단계 및 아크가 상호 작용하는 지를 확인하는 단계를 포함하는 도 9에 도시된 드래그 위치를 확인하는 단계를 상세하게 나타내는 도면이다.
도 11은 도 10에 도시된 템플리트와 서로 관련되는 단계에 사용되는 템플리트를 상세하게 나타내는 도면이다.
도 12는 도 10에 도시된 아크가 교차하는 지를 확인하는 단계를 상세하게 나타내는 도면이다.
도 13은 도 9에 도시된 타격 위치를 확인하는 단계를 상세하게 나타낸 도면이다.
도 14는 자기장 센서와 중력장 센서를 포함하는 도 4에 도시된 방향 센서를 상세하게 나타내는 도면이다.
도 15와 도 16은 도 14에 도시된 자기장 센서를 상세하게 나타낸 도면이다.
도 17과 도 18은 도 14에 도시된 중력장 센서를 상세하게 나타낸 도면이다.
도 19는 도 9에 도시된 활동영역 방향을 확인하는 단계를 상세하게 나타낸 도면이다.
도 20과 도 21은 도 1에 도시된 센서와 컴퓨터 단말기를 사용하기 위한 접시와 수신기의 상세한 구조를 나타내는 도면이다.
도 22는 메모리를 포함하는 도 1에 도시된 컴퓨터 단말기의 구성을 상세하게 나타낸 도면이다.
도 23은 도 22에 도시된 컴퓨터 메모리의 내용을 상세하게 나타낸 도면이다.
도 24는 센서를 조정하는 단계와 상기 센서를 사용하는 단계를 포함하는 도 1에 도시된 컴퓨터 단말기에 의해 수행되는 단계를 개략적으로 나타낸 도면이다.
도 25는 도 24에 도시된 센서를 조정하는 단계를 상세하게 나타낸 도면이다.
도 26은 터치 이벤트 데이터를 처리하는 단계를 포함하는 도 14에 도시된 센서를 사용하는 단계를 상세하게 나타낸 도면이다.
도 27은 도 26에 도시된 터치 이벤트 데이터를 처리하는 단계를 상세하게 나타낸 도면이다.
본 발명의 목적은 컴퓨터에 제어신호를 공급하는 개선된 입력 장치를 제공하는 것이다.
도 1에는 컴퓨터 단말기가 도시되어 있다. 상기 컴퓨터 단말기(101)는 고해상의 디스플레이 패널(102)과 일반적인 개인용 컴퓨터 회로를 포함한다. 상기 디스플레이(102)는 단지 컴퓨터의 시각적인 부분이다. 상기 컴퓨터의 구성요소들은 상기 디스플레이 하우징에 장착된다. 상기 컴퓨터는 인터넷에 연결되어 오디오, 비디오, 프로세서 등과 같은 장치를 포함하는 많은 다른 형태의 미디어에 액세스된다. 이 많은 기능들은 X-윈도우와 같은 인터넷 브라우저 소프트웨어와 그래픽 사용자 인터페이스 환경의 결합으로 제공된다. 시각 디스플레이를 통해 나타나는 정보와함께 두 하드웨어와 소프트웨어 기술의 조합은 첫 번째 종류의 컴퓨터 환경으로 고려될 수 있다. 두 번째 출현된 컴퓨터 환경은 이차원 스크린에 존재하는 삼차원 가상 세계이고 다양한 사용자의 형태가 실제로 존재한다는 가정으로 가상 공간에서 사용자가 조종할 수 있도록 입력된다. 이와 같은 형태의 가상공간은 복잡한 컴퓨터 소프트 개발에서 버그의 출현을 추적하는 것과 같이 실질적으로 게임에서 뿐 만 아니라 중요한 비즈니스 응용에서도 현저하게 사용된다. 삼차원 가상 세계는 현재 인터넷의 미래가 되는 것으로 여겨지지만, 이러한 견해에 대한 특정의 해석은 실질적인 기술 계획안을 제공하도록 충분하게 발전되지 않았다.
컴퓨터 출현 환경에 상호작용하기 위하여 사용자는 그의 관점에서 위치와 방향에 대한 제어를 편리하게 할 수 있어야 한다. 종래의 데스크 탑 컴퓨터 환경의 경우에 있어서, 네비게이션(navigation)은 편리한 커서 또는 포인터(103)의 움직임을 포함한다. 더욱이 문자기입이 또한 요구된다. 요구되는 문자기입 양은 상기 응용에 의하지만, 이들 두 요구조건인 움직임과 문자기입은 어떠한 형태의 일반적인 컴퓨터 환경에 기초된다.
현재 윈도우 체계의 데스크탑 환경은 10년 이상 넘게 개발되어 문자입력을 위한 키보드와 함께 마우스의 유용성의 결과로 발전되었다. 개발시에 있어서, 윈도우와 마우스가 기초된 그래픽 사용자 인터페이스 환경은 사용하기에 스트레스가 많다는 것이 고려되지 않았다. 하여간 작업장에서 거의 매일 일정하게 사용하게 되는 모든 데스크탑에서 키보드와 마우스의 사용은 반복사용 긴장성 손상(RSI)과 손목터널 증후군을 포함한 다양한 스트레스 관련 징후를 초래하였다. 이들 병의 존재는일반적인 컴퓨터 인터페이스가 사용하기에 적어도 스트레스를 주고 더 나은 입력 방식은 사용자가 생산성을 증가시킬 수 있을 뿐만 아니라 일반적인 목적의 컴퓨터의 사용이 스트레스가 없는 여가 활동으로 매일 사요을 증가시킬 수 있다는 것을 나타낸다.
개선된 컴퓨터 입력장치는 도 1에 도시된다. 상기 컴퓨터 인력장치(104)는 구 형상을 갖는다. 상기 구는 직경이 거의 6cm 이다. 일반적으로 상기 구(104)는 도시된 것과 같이 왼손에 지지되고, 반면 오른손의 손가락은 스크린 상에 포인터(103)의 위치를 작동시켜 제어하기 위하여 면을 가로질러 더듬는다. 상기 구(104)는 어떠한 정도로 자유롭게 위치될 수 있고 상기 손가락의 움직임은 구(104)의 면에 관련된 위치보다는 스크린(102)에 관련되어 이루어지는 것으로 이해된다. 이러한 방식으로 사용자는 구 표면의 어떤 부분에 손가락 움직임을 일으키는 동안 상기 구를 자유롭게 회전시켜 방향을 잡을 수 있고, 이것은 입력장치(104) 자체의 물리적인 환경보다는 컴퓨터 출현 환경의 공간에서 수행되는 것으로 이해된다. 이것은 컴퓨터 인터페이스로부터 추상적인 레이어(layer)를 제거하고 대화 언어가 직각 적이고 빠르게 개발되도록 할 수 있다.
이차원 데스크탑 환경에서, 상기 구는 마우스 포인터가 움직일 수 있는 무한한 면이 존재하고, 따라서 마우스 움직임을 모방하나 필요한 경우 왼손에 의해 구 또는 볼(104)의 회전을 포함하여 손가락 등의 움직임으로 전체 움직임이 이루어진다.
상기 면을 가로지르는 신중한 손가락의 움직임은 컴퓨터 출현 환경에서 상기포인터의 움직임으로 이해된다. 왼손의 조작은 무시될 수 있는 터치 이벤트 신호를 발생시킨다. 상기 센서(104)의 면을 가로지르는 손가락의 자취는 입력 데이터를 발생시키는 첫 번째 방법이다. 종래의 컴퓨터 마우스의 사용에 있어서, 클릭 또는 더블클릭은 스크린(102) 상에 있는 포인터의 위치에 관련하여 수행되는 작동을 나타낸다. 이것은 타격에 상응하는 센서(104)에 대한 탭(tap) 또는 더블 탭으로 이루어진다. 타격 위치는 수행되는 명령의 특성을 결정하는 데에 사용될 수 있다. 하여간, 이벤트의 매우 현저한 다양성은 구(104)를 사용하기 때문에 가능하다.
상기 구(104)는 문자 캐릭터를 입력하는 데에 사용될 수 있다. 상기 설명된 그래픽 작동의 방법으로부터 변화를 나타내기 위하여 상기 센서는 그의 면 어디에서든 꽤 단단한 타격이 이루어진다. 그 후에 상기 면에서 손가락의 움직임은 문자/숫자 캐릭터로 인식된다. 문자 기입은 캐릭터 인식을 사용하는 때에 하나의 캐릭터로 수행될 수 있다. 선택적으로 빠른 문자 입력을 위하여 속기 형태가 사용될 수 있다.
상기 구(104)는 약간 거친 면을 갖는다. 손가락과 상기 면 사이에 마찰은 손가락 끈이 면을 가로질러 움직일 때, 무작위의 음향을 발생시킨다. 상기 발생된 마찰음은 이러한 형태의 핑거-드래그 이벤트(finger-drag event)의 위치를 결정하기 위해 해석된다. 이와 같은 방식으로 발생된 음을 감지하는 마이크로폰 센서의 배열은 도 2에 도시되어 있다. 상기 구의 외관은 3mm 두께의 실리콘 고무로 구성되고, 적절한 소음 발생 면을 제공하는 얇은 나일론으로 덮여진다. 서로 동일한 거리에 배열된 실리콘 고무 외관 바로 아래는 네 개의 마이크로폰(201,202,203,204)이 있다. 인간의 청각과 실질적으로 동일한 주파수 범위를 갖는 마이크로폰은 일반적인 오디오 마이크로폰이 될 수 있다. 각각의 마이크로폰은 삼각면으로 된 피라미드 또는 사각 면체의 면 중앙에 위치될 수 있다. 상기 구의 중앙에 위치되는 두 마이크로폰 사이에 이루어진 각도는 거의 거의 110도이다.
각 마이크로폰에 의해 수신된 신호는 소음 발생 드래그 이벤트에 근접하는지를 확인하도록 해석되고, 둘 또는 그 이상의 마이크로폰으로부터 이 형태의 해석 결과는 상기 구의 면에 터치 이벤트의 위치를 확인하도록 부합된다.
더욱이 도 3에는 상기 구(104)의 보다 상세한 구성이 도시된다. 제조하는 동안 상기 실리콘 고무 외관은 두 반구(301,302)에 의해 구성된다. 중앙 코어(303)는 센서회로를 포함한다. 상기 코어(303)와 실리콘 고무 외관 사이에는 방음 및 충격 흡수 폴리에스테르 섬유(304)가 있다. 이러한 구성은 우선 마이크로폰(201,202,203,204)이 실질적으로 서로 차음 되게 각 마이크로폰이 단지 상기 실리콘 고무 외관으로부터 직접 소리를 수신하도록 한다. 하여간 더 중요한 장점은 이러한 구조는 매우 높은 수준으로 충격을 방지하여 상기 구(104)가 거의 손상되지 않고 조정될 수 있다. 상기 마이크로폰(201,202,203,204)은 외관 그 자체로 설치되는 주조되는 실리콘 고무에 삽입된다.
상기 구(104)의 두 반구(301,302)는 음향적으로 동일한 실리콘 고무 밀봉을 이용하여 결합된다. 상기 코어(30)는 재충전 가능한 배터리를 포함하며, 이러한 배터리는 재충전이 필요한 경우 외부에서 전력을 얻어야 한다. 연결선에 의해 표면의 구조상 매끄럽지 않게 되는 것을 피하기 위해 유도 루프(305)가 재충전 전원으로접촉되지 않고 액세스하도록 제공된다.
도 3에 도시된 중앙 코어(30) 내부에 포함되는 회로는 도 4에 상세하게 도시된다. 첫 번째 스테레오 아날로그를 디지털로 변환하는 변환기(A-D)(401)는 첫 번째 두 마이크로폰(201,202)으로부터 아날로그 오디오 신호를 수신하고 두 번째 스테레오 아날로그를 디지털로 변환하는 변환기(A-D)(402)는 두 번째 두 마이크로폰(203,204)으로부터 아날로그 오디오 신호를 수신한다. 아날로그를 디지털로 변환하는 적절한 변환기는 http://www.cirrus.com으로부터 얻을 수 있는 사이러스 로직(Cirrus Logic)에 의해 제조되는 CS53L32A이다. 상기 변환기(401,402)는 디지털 신호 처리기(DSP)로 제공되는 복합 디지털 오디오 신호를 발생시킨다. 상기 디지털 신호 처리기는 오디오 신호 해석에 적절한 연산과 메모리 회로를 포함하는 모토로라 DSP56603이 바람직하다. DSP56603에 대한 설계 데이터와 다른 정보는 http://ebus.mot-sps.com으로부터 얻을 수 있다.
변환기(401,402)에 제공된 신호의 해석은 터치 이벤트 위치 신호로 되어 발신기(404)로부터 컴퓨터 단말기(101)에 연결된 수신기로 디지털화되어 전송된다. 위치 신호는 센서(104)의 회전각도와 상관없이 상기 단말기(101)에 관련되어 발생된다. 위치신호는 방향 센서(405)에 의해 이루어진다. 방향센서들에 의한 신호들은 상기 스크린(102)과 관련하여 구(104)의 방향을 결정하고, 따라서 구의 면에서 발생된 터치 이벤트의 해석으로부터 구의 방향이 효과적으로 제거되도록 계산이 수행될 수 있다. 그 후에 상기 터치 이벤트들은 구의 작동 방향에 상관없이 상기 스크린에 관련하여 고려되고 해석된다. 사용자의 관점에서 상기 구는 동일하게 보이고느껴지며, 방향에 관계없이 회전되고 작동될 수 있다.
구의 방향을 측정하기 위하여, 상기 방향 센서(405)는 지구 자기장에 의한 수평축에 관한 첫 번째 회전RM과 지구 중력장에 의한 수직축에 관련된 두 번째 회전GR로 센서 방향을 결정한다. 구의 면에 발생되는 터치 이벤트의 위치에 관한 데이터로 이들 데이터 아이템을 결합하여, 컴퓨터 단말기(101)가 위치된 표준 공간에 관련된 구 상의 사용자 터치 이벤트를 해석하는 것이 가능하다. 그래서 예를 들어, 스크린(101) 앞으로 손가락의 전방 드래그 움직임은 구의 방향에 상관없이 위쪽 센서를 작동하게 된다.
상기 코어(303)는 낮은 전력과 DSP(403)용 셧다운 모드(shutdown mode)를 이루는 전력 제어 회로(406)와 다른 회로를 포함한다. 전력 제어기(406)는 재충전 가능한 NiMH 베터리(407)로부터 전력을 받아 유도 루프(305)로부터 제공된 충전 전력의 정류와 전류 조정을 수행한다.
도 4에 도시된 디지털 신호 처리기(403)는 도 5에 상세하게 도시된다. 몇몇 데이터와 어드레스 버스는 DSP 내에 존재하고 단순화된 결선(501)에 의해 간략하게 된다. 타이머(502)는 방향 센서(405)로부터 신호를 측정하기 위해 사용되는 펄스폭 조절 능력을 제공한다. 입출력 회로(I/O)(503)는 코어에 있는 DSP로부터 A-D 변환기(401,402)를 포함하는 다른 구성요소들에 물리적으로 연결된다. 프로그램 롬과 램(504)은 상기 코어(303)에 있는 다른 회로와 대등한 인터페이스 작동과 실시간 신호 해석을 수행하기 위하여 부트스트랩 명령과 제어 명령을 포함한다. X 데이터 램(505)과 Y 데이터 램(506)은 연산 및 논리 유닛(ALU)(507)에 명령 사이클 당 한쌍의 연산자를 제공한다. 상기 ALU는 매 명령 사이클에서 X와 Y 메모리(505,506)로부터 두 데이터 연산자를 인출하여 증가시킬 수 있다. 이러한 배열은 상기 구의 면에 터치 이벤트의 위치를 결정하도록 요구되는 처리 알고리즘을 효과적으로 충족할 수 있다.
각 A-D 회로(401,402)는 도 6에 도시된 것과 같은 회로를 포함한다. 첫 번째 채널인 프리앰프(601)는 마이크로폰으로부터 증폭되지 않은 오디오 신호를 수신하여 아날로그에 대한 디지털로 적절하게 변환하도록 그 강도를 증가시킨다. 안티-에일러어스 필터(anti-alias filter)(602)는 오디오 데이터의 다음 주파수 해석이 스펙트럼을 정밀하게 나타내도록 샘플링 비율 위쪽 절반을 구성하는 주파수를 제거한다. 필터(602)로부터의 출력은 저전력 16비트 스테레오인 디지털에 대한 아날로그 변환기 칩(603)의 좌측으로 입력된다. 상기 샘플링 비율은 44.1kHz이다. 다른 채널은 프리앰프(604)와 안티-에일리어스 필터(605)를 사용하는 두 번째 마이크로폰으로 수행된다. 상기 DSP(403)에 대한 A-D 변환기 칩으로부터 일반적인 복합 출력이 제공된다. 부가적인 클록(CLOCK)과 말 동기 신호는 명확하게 하기 위하여 상기 다이어그램으로부터 생략되었다.
단일 채널로부터 오디오 데이터의 몇 초간의 신호는 도 7에 도시되었다. 이러한 템플리트에 있어서, 특정 시간에 구성되는 특정 주파수의 진폭은 밀도에 의해 나타내어진다. 상기 템플리트는 상기 구의 면을 가로질러 움직이는 손가락으로부터 결과된 신호의 곡선을 나타낸다.
상기 곡선의 시작점(701)에서 손가락 끝은 마이크로폰으로부터 멀리 있다.상기 마이크로폰에 도달하는 사운드 웨이브는 주로 증가 방향을 따라 수직으로 진동하는 횡파이다. 상기 실리콘 고무는 높은 주파수를 여과하지만, 낮은 주파수에서는 효과가 작다. 그래서 실질적인 진폭에 관계없이 상기 마이크로폰에 도달하는 신호는 고저파의 관련 강도에 의한 거리를 나타낸다. 상기 손가락 끝이 더 가깝게 움직일 때에, 주파수는 더 높게 증가되는 반면, 낮은 주파수의 강도는 실질적으로 동일하게 유지된다. 상기 손가락 끝이 도면 부호 703인 마이크로폰에 점점 가까워질 때, 완전히 새로운 일련의 주파수가 스펙트럼에 더해진다. 이것은 손가락 끝으로부터 직접 마이크로폰으로 상기 실리콘 고무의 두께를 가로질러 전송되는 종파에 의한 것이다. 상기 마이크로폰이 접근될 때, 템플리트에서 두 구분되는 영역(703,702)으로부터 확인되는 것과 같이 종파와 횡파가 혼합된다.
손가락 끝이 바로 상기 마이크로폰 위에 있을 때, 최종 예외적인 상태가 나타난다. 상기 높은 주파수 구성요소들은 손가락 끝과 구의 거친 표면사이의 마찰에 의해 발생된다. 하여간 손가락이 마로 마이크로폰의 상부에 있을 때, 이들 높은 주파수 구성요소들이 마크되고, 소리가 손가락 끝의 영역 중앙으로부터 상기 마이크로폰에 의해 감지된다. 도면부호(704)에서 주파수가 손가락 끝의 영역에 의해 저하되기 때문에 높은 주파수의 손실이 발생된다. 낮은 주파수들은 더욱 균형된 형태를 갖는 특성 변환을 갖는다.
이들 변환은 상기 구의 표면에서 발생되는 손가락 드래그 이벤트에 관한 특정되는 일련의 기술(記述)을 나타낸다. 한번에 둘 또는 세 채널의 출력을 비교하면, 구(104) 면상에 움직이는 손가락 끝의 위치가 확인될 수 있다.
마우스 클릭에 상응하도록 구를 타격 하는 것은 많은 주파수 데이터를 포함하지 않고 다른 형태의 해석이 사용된다. 상기 실리콘 고무 외피에서 소리의 횡파 속도는 거의 초당 20 미터이다. 이것은 다른 마이크로폰에 도달하는 파도머리에 대한 시간차를 구분할 수 있게 한다. 동시에 손가락에 의한 타격 이벤트로부터 발생되는 한 쌍의 템플리트는 도 8에 도시되어 있다. 궤적(801)은 더 먼 마이크로폰에 관한 것이고, 이것은 두 번째 궤적(802) 이후 짧은 구간을 시작하는 것으로 보여진다. 초기 특정 파도머리의 차이는 초 당 2000번이다. 이것은 매우 적절한 위치 데이터의 정확한 소스를 제공한다. 상기 궤적(801,802)은 타격 이벤트에 가까운 마이크로폰의 들쑥날쑥한 두 번째 궤적(802)에서 관측될 수 있는 주파수 내용상 차이점을 나타낸다. 궤적(801)은 타격 이벤트가 발생된 후에 충격 위치상의 손가락에 의해 제공되는 댐핑 결합에 의해 더 높은 피크에 도달할 수 있다. 몇몇 그러한 특성들은 증가된 정밀도에 대한 터치 이벤트 특성을 확인하도록 해석될 수 있고 결합될 수 있다.
도 4에 도시되어 있는 DSP(403)에 의해 수행되는 단계의 주요 순서는 도 9에 도시된 플로우챠트로 나타내어진다. 단계(901)에서 주파수 영역 해석은 완충된 오디오 데이터의 각 네 채널로 수행된다. 단계(902)에서 데이터에서 드래그 또는 타격 이벤트가 관측되는지가 확인된다. 사건의 부족에 의하거나 또는 명백한 특성이 확인되지 않기 때문에 어느 것도 확인되지 않을 수 있다. 만일 드래그와 타격이 오디오 데이터에 존재하지 않는 다면, 단계(905)로 진행한다. 만일 타격이 관측된다면, 단계(904)로 진행하고 드래그가 관측된다면, 단계(903)로 진행한다. 단계(03)에서 드래그 위치가 확인된다. 단계(904)에서 타격 위치가 확인된다.
단계(905)에서 구의 방향은 방향 센서(405)로부터 분석 데이터에 의해 확인된다. 단계(906)에서 어떤 데이터가 컴퓨터로 전송될 필요가 있는지 확인된다. 예를 들어 만일 터치 이벤트가 발생되지 않는다면 방향은 변하지 않고, 데이터가 전송될 필요가 없으며, 따라서 배터리 수명이 줄어들지 않는다. 만일, 연장된 주기 즉, 20초를 넘어 이벤트가 발생되지 않는다면, 상기 센서는 절전 모드를 수행할 수 있다. 어느 쪽 손에 잡았을 때, 사용되지 않는다 하더라도 상기 센서는 사용될 것이라 는 것을 나타내는 방향의 작은 변화를 감지할 것이다. 데이터가 전송될 수 있다면, 단계(907)로 진행하여 데이터는 컴퓨터(110)로 전송되도록 DSP(403)에서 라디오 발신기(404)로 직렬 연결을 통해 전송된다.
상기 도 9에 도시된 드래그 위치(903)를 확인하는 단계는 도 10에 상세하게 도시되어 있다. 단계(1001)에서 완충된 오디오 데이터의 네 채널은 최대 진폭을 갖는 세 채널을 확인하도록 분석된다. 이들 세 채널은 제일 정밀한 터치 이벤트 특성을 산출하는 분석하는 채널이다. 상기 세 개의 가장 큰 채널은 A, B 및 C로 불리 운다. 단계(1002)에서 이들 세 채널 중 첫 번째 채널이 선택된다. 단계(1003)에서 주파수 영역 분석이 수행되고, 이들 결과들이 표준화되어 가장 큰 주파수 구성요소는 하나의 진폭을 갖는다. 단계(1003)에서 상호관계는 일련의 템플리트와 관련되어 수행된다. 각각의 템플리트는 마이크로폰으로부터 알려진 거리에서 발생되는 특정 주파수 응답 특성을 갖는다. 따라서, 도 7을 참조하면, 하나의 템플리트는 도면 부호 701,702,703 및 704에서 주파수 특성이 존재한다. 각 템플리트는 다른 형상을갖는다. 이들 템플리트 중 하나에 일치하는 실질적인 마이크로폰 데이터에 대한 정도는 템플리트의 특정 거리에 인접 하다는 것을 나타낸다.
상호관계의 정도는 단계(1004)의 결과로 발생되고, 단계(1005)에서 두 최적의 정도의 템플리트가 선택된다. 따라서, 이것은 이들 두 템플리트의 특정 거리 사이에 있는 채널에 대한 마이크로폰에서 발생된 이벤트의 실질적인 거리를 나타내게 된다. 단계(1006)에서 상기 실질적인 거리는 템플리트 정도 사이의 차이의 비로 두 특정 거리 사이를 기입하여 확인된다. 이것으로 분석되는 채널에 의해 DA, DB 또는 DC가 되는 채널에 대한 특정 거리를 확인하게 된다. 단계(1007)에서 분석되도록 남아있는 다른 채널이 있는지를 확인하게 된다. 만일 그렇다면, 채널이 단계(1002)로 진행하게 된다. 반대로 각 거리(DA,DB,DC)가 확인된다. 단계(1008)에서 교차하는 원호는 각 특정 거리에 관한 구의 면을 가로지르는 것을 확인하게 되고, 단계(1009)에서는 위치(P)가 DA, DA 및 DC에 의해 확인되는 세 원호에 관한 인접한 집합점에 의해 규정되는 것을 확인하게 된다.
도 10의 단계(1004)에서 사용되는 템플리트는 도 11에 도시되어 있다. 템플리트(1101)는 마이크로폰에서 D=40)인 거리에 있는 이상적인 주파수 응답에 상응한다. 도 7에 있는 도면 부호 701에서 신호는 상기 템플리트와 거의 일치할 것이다. 템플리트(1102)는 특정 거리(D=25mm)를 갖고, 도 7에 도시된 위치(702)에 있는 플로트(plot)와 거의 상응한다. 템플리트(1103)는 특정거리(D=10mm)를 갖고 도 7에 있는 위치(703) 이후에 발생되는 신호에 관한 높은 수치 영역을 제공한 것이다. 템플리트(1104)는 마이크로폰 바로 위에 있는 손가락 끝과 상응하고, 도 7에 있는 위치(704)에 상응한다. 최적으로 상응하는 두 템플리트를 선택하여, 마이크로폰으로부터 발생되는 이상적인 거리가 상기 템플리트의 증정 거리 사이에 삽입되므로 인해 확인될 수 있다.
이벤트의 거리는 주파수 특성이 손가락 크기, 주어지는 압력 및 다른 다양한 요인에 의한 차이에 의해 변화될 수 있기 때문에 추상적인 거리로 여겨질 수 있다. 상기 DA, DB 및 DC인 거리가 세 특정 원호를 규정한다 하더라도 그 이상적인 집합 지점(P)은 도 12에 도시된다. 상기 이상적인 집합점은 이들 변형 요소와 상관없이 동일하다.
도 9의 단계(904)에서 나타낸 것과 같이 타격 위치의 확인은 도 13에 상세하게 나타내어진다. 단계(1301)에서 세 큰 채널(A,B,C)이 확인된다. 단계(1302)에서 이들 채널 중 첫 번째가 분석을 위하여 선택된다. 단계(1303)에서 신호가 여과된다. 상기 필터는 수행되는 최적의 분석의 결과에 따라 250Hz 이하의 주파수를 제거한다. 바람직하게 FIR 선형 위상 필터가 사용된다. 하여간 도 8에 도시된 흔적을 발생시키는 데에 사용되는 IIR 필터는 약간 떨어지는 결과의 정확성으로 채용될 수 있다. 단계(1304)에서 이벤트 시작 시간은 채널 데이터를 분석하여 확인된다. 단계(1305)에서는 다른 채널이 분석되도록 남아있는지 확인하여 만일 그렇다면, 단계(1302)로 진행된다. 반대로 시작 시간이 각 채널(A,B,C)에 관하여 확인된다면, 단계(1306)로 진행된다.
한 쌍의 채널에 관한 시작 시간 사이에 차이는 두 마이크로폰 사이 중간 지점으로부터 차이를 확인한다. 구의 면에서 상기 중간 지점은 라인으로 표현된다.단계(1306)에서 거리는 세 라인 또는 원호로 결과되어 구의 면을 가로질러 확인되는 각 시작 시간의 조합으로 확인된다. 단계(1307)에서 도 12에 도시된 것과 유사한 방식으로 일반적인 특정 위치가 확인된다. 이론적으로는 그런 두 원호가 요구된다. 하여간, 정확도를 개선하기 위하여 세 개가 사용된다. 만일 모두 sP 개의 마이크로폰에 대한 채널 데이터가 충분하게 질이 높다면, 네 개가 사용될 수 있다.
본 발명은 물체와 면 사이에 마찰에 의해 발생되는 소음을 분석에 의한 위치정보 발생 방법을 제공한다. 바람직하게 상기 마찰은 면을 가로지르는 손가락의 움직임에 의해 발생된다. 상기 면은 평평하거나 또는 규칙적 또는 불규칙적으로 굴곡지게 될 수 있다. 상기 면은 일시적 또는 영구적인 변형을 일으키는 탄성적으로 이루어지거나 또는 단단하게 구성될 수 있다. 본 발명은 사용자 손가락 사이에 어떠한 종류의 상호작용을 포함할 수 있고, 소리를 일으키는 어떤 면은 컴퓨터 환경에 관한 위치정보를 발생시키도록 분석될 수 있다. 이러한 방식으로 발생된 위치정보는 컴퓨터 환경의 표시장치 상의 주사면의 위치를 결정하는 정보와 결합될 수 있다. 위치와 방향정보의 조합은 소리 발생 터치 이벤트가 면의 방향에 관해 컴퓨터 환경에 관련되어 해석되는 면을 만들 수 있다.
상기 센서의 방향은 지구 자기장과 중력장에 관한 회전(RM,RG)에 의해 결정된다. 도 4에 도시된 방향 센서(405)는 도 14에 상세하게 도시된다. 자기장 센서(1401)와 중력장 센서(1402)는 주기가 각 자기장과 중력장 내의 방향이 확인되도록 측정되는 디지털 오실레이션 신호를 일으킨다. 멀티 플랙서과 카운터 회로(1403)는 발진회로에 관한 인터페이스와 제어신호를 제공하고, DSP(403)에 있는 타이머(502)에 의한 매우 정밀한 측정을 위해 적절한 양으로 주파수 감소를 나눈다.
상기 자기장 센서(1401)는 도 15와 16에 도시되어 있다. 도 15는 세 개의 서로 직교하는 인덕터를 나타낸다. 각 인덕터는 길이가 10mm이하이다. 도 16은 세 개의 인덕터와 관련된 지구 자기장의 양극과 크기를 감지하기에 적절한 회로를 상세하게 나타낸다. 논리 게이트(1601)는 선택 인덕터(1501,1502,1503)로 저항(1602)을 거쳐 파지티브(positive) 또는 네거티브(negative) DC 바이어스를 제공한다. 인덕터의 선택은 트라이-스테이트(tri-state) 논리 버퍼(1602,1603,1604)로 제공되는 논리 제어신호에 의해 제공된다. 작동 증폭기(1605)는 주파수가 선택 인덕터(1501,1502,1503)의 인덕턴스에 의해 결정되는 진폭을 지속하도록 증폭을 제공한다. 저항(1602)에 의해 제공되는 DC 바이어스는 포화로 상기 선택 인덕터의 코어를 나눈다.
거의 포화상태로 하여 코일의 인덕턴스는 코일의 권선과 코어가 고정된다 하더라도, 제공되는 필드에 대한 응답으로 변한다. 지구 자기장으로부터 결과된 포화 상태로 또는 멀리 부가적인 오프셋(offset)은 이러한 방식으로 검출된다. 상기 코일에 있는 DC 바이어스의 극성을 변화하여, 다른 결과 발진 주파수가 비교될 때, 지구 자기장의 극성이 결정될 수 있다. 만일 차이점이 없다면, 이것은 코일이 지구 자기장에 대하여 직각으로 배열되었다는 것을 나타낸다. 작동 증폭기(1605)로부터 출력은 카운터(1403)로 논리 신호를 제공하고, 상기 DSP(403)는 삼차원으로 자북의 배열에 의해 각 극에 있어서 각 코일에 관한 정밀한 발진 주파수를 결정한다. 상기회로는 전류의 밀리앰프(milliamps) 쌍이 작동되도록 요구되고, 상기 센서는 현저히 작고 비용이 저렴하다. 도 15에 도시된 적절한 인덕터는 켈리포니아 프리시즌 네비게이션 오브 멘로 파크(Precision Navigation of Menlo Park)로부터 입수할 수 있는 SEN-M 마그네토-인덕티브 센서이다. 이러한 방식으로 지구 자기장을 감지하는 부분 포화 인덕터의 사용은 미국 특허 4,851,775에 상세히 설명된다.
도 14에 도시된 중력장 센서(1402)는 도 17에 상세하게 도시된다. 둘러싸인 구형 컨테이너는 약 500kHz의 주파수로 자유공간에 대한 실질적으로 다른 관련 투과율을 갖는 액체로 반이 채워진다. 적절한 용액은 이 주파수에서 약 0.7의 관련 투과율을 갖는 수은이다. 세 개의 코일(1702,1703,1704)은 상기 컨테이너(1701)에 인접하게 감겨 서로 직교된다. 각 코일은 도 18에 도시된 것과 같이 발진기 회로에 연결된다. 각 코일은 동조 회로의 유도 부분을 형성하고, 또한 두 콘덴서를 포함한다. 논리 에이치 씨모스 노어 게이트(HCMOS NOR gate)(1801,1802,1803)는 증폭과 각 발진기 회로를 활성화하도록 선택 입력을 제공한다. 발진기로부터의 출력은 세 인풋 노어 게이트(1804)에서 결합되어 게이트(1801,1802 또는 1803)에 대한 높은 논리 입력으로 진폭을 위해 선택된 인덕터는 게이트(1804)의 출력이 직각파형으로 존재되는 특정 주파수를 갖는다. 상기 게이트(1804)의 출력은 카운터 회로(1403)로 제공된다. 상기 세 코일의 발진 주파수는 바로 인접한 수은의 양에 의한다. 상기 세 주파수는 DSP(403)에서 측정되고, 삽입된 룩업 테이블(look-up table)은 지구 중력장에 관련된 센서의 실질적인 방향을 결정하는 데에 사용된다. 도 18에 도시된 회로는 작동하기 위해 일 밀리앰프(milliamp) 보다 작게 요구된다.
자기 및 중력 상태의 필드에 대한 삼차원 벡터는 자북축과 수직 중력축에 관한 RM 및 RG인 구의 두 회전으로 표현될 수 있다.
RM과 RG를 확인하는 과정은 중력장과 자기장 센서로부터의 측정을 포함한다. 이것은 서로 간섭될 수 있고, 중력장 센서(1402)는 특히 상기 센서가 빠르게 이동된다면, 컨테이너(1701)에서 수은의 움직임에 의해 불안정하게 될 수 있다. 도 9에 도시된 구(905)의 방향을 확인하는 단계는 도 19에 상세하게 도시되어 있다. 단계(1902)에서 카르맨 여과(kalman filtering)는 RM의 값을 결정한다. 카르맨 필터는 전류측정에서 측정 신뢰성을 결정하고, 신뢰값이 낮을 때, 저역필터를 증가시킨다. 단계(1903)에서 중력에 의한 세로축 주위 구의 회전 RG가 결정되고, 단계(1904)에서 카르맨 필터는 이 값으로 제공된다. 단계(1905)에서 RM과 RG에 관한 여과된 값은 필요한 경우 나중에 컴퓨터(101)로 전송을 위하여 저장된다.
다른 실시예에 있어서, 지구 자기장은 큰 마그네토-저항 효과를 이용하는 실리콘 센서의 사용을 감지할 수 있다. 또 다른 실시예에 있어서, 지구 중력장은 고가이나 컴퓨터 환경을 조정하기 위한 동작 정보의 다른 근원으로 사용될 수 있는 볼(104)의 빠른 가속도의 검출을 용이하게 하는 가속도계를 사용하여 검출될 수 다.
연장된 사용 기간 이후에 배터리(407)는 재충전을 필요로 한다. 재충전을 위하여 유도 루프(305)는 1kHz 전원으로 제공되는 상응하는 다른 유도 루프와 인접하게 위치되어야 한다. 이것은 도 20에 도시된 것과 같은 충전 유닛에 위치될 수 있다. 구의 외측면은 유도 루프(305)의 위치에 바로 마주하는 마크를 갖고, 이러한마크는 구가 재충전 유닛(2001)에 위치될 때, 최상이 될 수 있다. 재충전자(2001)는 편리하게 발신기 회로(404)로부터의 데이터에 관한 수신기가 될 수 있고, 직렬연결(2002)은 컴퓨터 단말기(101)에 데이터에 대한 연결을 제공한다.
재충전자 및 수신기 유닛(2001)은 도 21에 상세하게 도시된다. 유도 루프와 발진기(2101)는 재충전하는 동안 센서(104)에 있는 유도 루프(305)에 교류 자기장을 제공한다. 사용하는 동안 상기 센서(104)는 무선 수신기(2102)로 무선 신호를 전송한다. 중앙처리장치(CPU)(2103)는 무선 링크를 통해 수신된 데이터의 에러를 수정한다. 유니버살 시리얼 버스USB) 인터페이스(2104)는 직렬케이블(2002)을 통해 컴퓨터 단말기(101)로 연결된다.
도 1에 도시된 컴퓨터 단말기(101)는 도 2에 상세하게 도시된다. 중앙처리장치(CPU)(2203)는 상기 단말기(101)에 관한 상호작용과 처리를 제공한다. CPU(2203)에 관한 명령과 데이터는 메일 메모리(2204)에 저장되고, 하드디스크 저장 장치(2205)는 데이터의 비휘발적인 저장과 몇몇 응용 소프트웨어를 용이하게 한다. 모뎀(2206)은 인터넷에 연결을 제공한다. 유니버설 시리얼 버스(USB) 인터페이스(2207)는 변환기와 수신기 장치(2002)에 대한 연결을 용이하게 한다. 터치 이벤트와 방향 데이터는 USB 인터페이스(2207)를 통해 구(104)로부터 수신된다. 그래픽 처리기(2208)는 표시장치(102) 상에 고해상도 그래픽 이미지의 표시를 촉진하도록 제공된 그래픽 랜더링 특성을 제공한다. 오디오 처리기(2209)는 컴퓨터 단말기(101)에 있는 확성기로 오디오 신호를 제공하고, 마이크로폰(2211)으로부터 오디오 신호를 수신한다.
도 22에 도시된 메인 메모리(2204)의 내용은 도 23에 상세하게 도시된다. 작동 시스템은 응용 소프트웨어(2302)를 위하여 일반적인 기능을 제공한다. 상기 센서(104)용 장치 드라이버(2303)는 또한 컴퓨터 단말기(101)가 켜지는 동안 메인 메모리(2204)에 저장된다. 상기 센서(104)를 작동하는 데에 필수적인 작동 시퀀스는 도 24에 상세하게 도시된다. 단계(2401)에서 상기 센서(104)는 도 20과 도 21에 도시된 충전자와 수신기 유닛(2001)을 이용하여 충전된다. 단계(2402)에서 상기 센서는 교정된다. 상기 센서를 사용하기 위하여, 상기 장치 드라이버(2303)가 지구 자기장과 관련하여 실질적으로는 단말기(101)와 관련하여 전, 후, 좌, 우 방향을 결정할 수 있도록 방향 데이터를 저장하는 것이 필요하다.
지구 자기장과 중력장 내에 센서의 방향이 단말기(101)와 관련된 방향을 효과적으로 제공하는 것이 가능하다 보여진다. 명백하게 이것은 사용자가 단말기 뒤에서 상기 센서를 작동했다면 표준에 맞지 않을 것이다. 하여간 센서를 실질적으로 작동시키기 위한 목적으로 지구 자기장과 중력장에 관련하여 이루어지는 구(104)의 면상의 접촉 동작이 컴퓨터 단말기(101)의 위치와 관련하여 이루어진다는 것으로 여겨질 수 있다. 만일 단말기 위치가 실질적으로 변한다면, 단계(2402)에서 다시 교정을 수행하는 것이 필요할 것이다. 단계(2403)에서 상기 센서(104)는 사용되고, 단계(2404)에서 상기 센서(104)는 재충전된다. 상기 충전자와 수신기 장치(2001)는 센서가 사용되지 않을 때는 상기 센서(104)가 충전자(2001)를 적절하게 휴식상태 유지시킬 수 있도록 설계된다.
도 24에 도시된 센서를 교정하는 단계(2402)는 도 25에 상세하게 도시된다.단계(2501)에서 컴퓨터는 사용자가 손가락을 상부 중앙 위에서 움직여 센서의 뒤에서 앞으로 드래그 하는 것을 확인한다. 이후에 상기 컴퓨터는 동일한 경향으로 왼쪽에서 오른쪽으로 사용자가 드래그 하는 것을 확인한다. 이 두 가지는 엄밀히 필요하지 않다 하더라도, 이것은 교정에 있어서 에러를 감소시킨다. 단계(2502)에서 구(104)에서 발생되는 방향 데이터는 지구 중력장의 세로축에 관하여 사용자 방향 각(AG)을 결정하기 위해 분석된다.
도 24에 도시된 센서를 사용하는 단계(2403)는 도 26에 상세하게 도시된다. 단계(2601)에서 터치 이벤트 및/또는 방향 데이터는 상기 센서(104)로부터 수신된다. 이것은 지구 자기장과 중력장에 관한 회전(RM,RG) 각을 포함한다. 단계(2602)에 있어서, 도 25의 단계(2502)에서 계산된 사용자 방향각(AG)은 회전값(SG)을 얻기 위해 구 회전각(RG)으로부터 차감 된다. 단계(2603)에서 터치 이벤트가 수신되는지를 확인한다. 만일 그렇지 않다면, 단계(2606)로 진행하게 된다. 반대의 경우에는 단계(2604)로 진행하게 된다. 단계(2604)에서 터치 이벤트의 구 좌표는 구의 방향에 관계없이 정지 좌표 시스템을 갖는 터치 이벤트 데이터에서 결과된 SG 및 RM에 대한 각과 동일하게 반대로 회전된다. 단계(26050)에서 터치 이벤트 데이터 결과는 처리되고, 최종적으로 단계(2606)에서 단말기 방향 데이터는 응용 소프트웨어(2302)의 사용을 위하여 장치 드라이버(2303)를 통해 작동 시스템(2301)으로 제공된다.
도 26에 도시된 터치 이벤트 데이터 처리 단계(2605)는 도 27에 상세하게 도시된다. 단계(2701)에서 큰 타격이 수신되는지 확인된다. 큰 타격은 사용자가 모드의 변화를 요구하여 센서를 매우 단단하게 타격 하는 것을 나타내는 매우 큰 네 개의 마이크로폰 채널에서 발생되는 오디오 데이터 중 하나이다. 만일 큰 타격이 수신된다면, 전류 모드가 바뀌는 단계(2702)로 진행하게 된다. 반대로 큰 타격이 단계(2701)에서 확인되지 않는다면, 단계(2703)로 진행하게 될 것이다. 단계(2703)에서는 현재 센서에 관한 선택된 모드가 그래픽 모드인지 문자 모드인지를 확인하게 된다. 만일 문자 모드가 선택된 다면, 단계(2706)로 진행하게 될 것이다. 반대로 그래픽 모드가 확인된다면, 단계(2704)로 진행하게 될 것이다. 단계(2704)에서 작은 타격은 마우스 버튼 클릭에 상응하는 것으로 해석된다. 손가락 드래그 이벤트는 커서의 X 좌표와 Y 좌표로 사용된다. 단계(2705)에서 커서위치는 갱신된다.
문자 모드가 사용될 때 단계(2703)에서 단계(2706)으로 진행된다. 단계(2706)에서 작은 타격은 일반적인 키보드에서 CAPS, CTRL 및 SHIFT 이벤트와 대응하게 해석된다. 단계(2707)에서 구의 면에 접촉 움직임은 기호(문자) 입력 이벤트로 해석된다. 반대로 고속 문자 입력을 위하여 짧은 형태가 사용될 수 있다.
다른 실시예에 있어서, DSP(403)는 마이크로폰(201,202,203,204)으로부터 발생된 오디오 신호의 데이터 비교를 수행한다. 비교된 오디오 데이터는 방향 데이터와 결합되어 표면 이벤트 특성을 결정하도록 분석을 위해 컴퓨터 단말기(101)로 전송된다.
상기 설명된 실시예에 있어서, 센서는 구의 면에 상의 터치 이벤트에 의해 만들어지는 소리를 요구하는 수동 장치이다. 다른 실시예에 있어서, 능동 센서가 제공된다. 소리는 구의 면으로 영향을 주게 될 수 있고, 면 압력 맵(map)은 간섭과반사에 의해 결과된 소리 특성으로부터 구성될 수 있다. 센서 외관이 단단한 물질로 만들어진다면, 초음파 사운드는 매우 세부적인 압력 맵을 이루도록 사용될 수 있다. 압력 데이터는 부가적인 데이터 입력 방식을 용이하게 하도록 사용될 수 있다. 감지 압력의 분석 방법은 도전율이 제공된 압력에 따라 변하는 복합된 압력 감도 전기 센서의 사용하는 것이다.
또 다른 실시예에 있어서, 터치 이벤트는 구의 면 근방 또는 내부에 묻힌 전기 컨덕터의 정전용량이 손 또는 손가락의 압력 부분에 의해 변하게 되는 전기 센서에 의해 감지된다.
센서의 원형 형태는 외관에 대한 어떠한 차이 또는 사용자에 대해 존재하는 느낌을 구분하지 않고 어떠한 각도로 회전이 용이하게 되도록 한다. 구의 터치 이벤트는 컴퓨터 표시장치(102)에 관련하여 만들어진다. 이것은 사용자와 단말기 사이의 공간으로 컴퓨터 환경을 연장하는 심리적인 효과를 갖게 된다.
바람직한 실시예에 있어서, 구의 전체 면이 접촉에 민감하다 하더라도, 재충전하는 동안 직접적인 전기적 연결을 제공하기 위한 목적으로 다른 실시예는 터치를 감지하는 것이 완전히 제공되지 않는 구의 미비한 부분을 포함 할 수 있는 것이 가능하다. 또한 어떤 실시예에 있어서는 구의 형상이 압착의 결과 또는 미리 변형되는 형상으로 변형될 수 있다.
삼차원 형상으로 단일화된 구는 모든 물체의 맵핑(mapping)을 위하여 적절한 형상을 제공할 수 있다. 전화 핸드세트와 같은 복합 형상은 구 센서(104)의 면에 대하여 지도화된 면을 가질 수 있고, 예를 들어 숫자를 다이얼 하는 핸드세트와 상호작용은 구와 상호작용을 통해 결과될 수 있다. 이와 다르게 그러한 방식으로 지도화된 삼차원 물체의 형상은 센서의 면에 터치 이벤트를 이용하여 변형될 수 있다. 따라서 변화된 형상은 구의 면에 대하여 다시 지도화되어 부가적인 변화가 만들어진다. 구의 전체 형상은 복합 형상과 형태의 다양한 변화로 상호작용을 하게 된다.

Claims (36)

  1. 실질적으로 전체가 구형상인 물체로 구성되며, 상기 물체의 면에 발생되는 터치 이벤트의 위치를 나타내는 위치 신호를 발생시키기 위한 터치 감지 수단;
    상기 물체의 방향을 확인하기 위한 방향 감지 수단;
    방향 데이터와 터치 데이터를 연결하기 위한 처리 수단; 및
    데이터 처리 시스템으로 처리된 데이터를 전송하도록 배열된 전송 수단을 포함하는 데이터 처리 시스템용 입력 장치.
  2. 제 1 항에 있어서, 상기 처리된 데이터는 상기 방향 신호에 관한 마킹에 의해 상기 표시 장치에 관련된 방향된 터치 이벤트 신호를 나타내는 것을 특징으로 하는 입력 장치.
  3. 제 2 항에 있어서, 상기 방향 감지 수단은 주위 자기장 센서를 포함하는 것을 특징으로 하는 입력 장치.
  4. 제 3 항에 있어서, 상기 자기장 센서는 세 개의 서로 직각인 자기장 검출기를 포함하는 것을 특징으로 하는 입력 장치.
  5. 제 2 항에 있어서, 상기 방향 감지 수단은 중력 감지 수단을 포함하는 것을특징으로 하는 입력 장치.
  6. 제 5 항에 있어서, 상기 중력 감지 수단은 외관 내에 가동 인덕터 코어 및 상기 가동 코어의 위치에 대한 응답하는 세 개의 서로 직각인 인덕터를 포함하는 것을 특징으로 하는 입력 장치.
  7. 제 6 항에 있어서, 상기 인덕터는 발진 회로를 포함하는 것을 특징으로하는 입력 장치.
  8. 제 7 항에 있어서, 상기 입력 장치는 상기 발진 회로에 의해 발생된 주파수를 측정하기 위한 카운터 수단을 포함하는 것을 특징으로 하는 입력 장치.
  9. 제 6 항에 있어서, 상기 입력 장치는 상기 인덕터의 인덕턴스를 측정하기 위한 수단, 및 중력에 관련된 구의 방향을 확인하기 위한 룩업 수단을 포함하는 상기 측정 수단을 처리하기 위한 처리 수단을 포함하는 것을 특징으로 하는 입력 장치.
  10. 제 1 항에 있어서, 상기 감지 수단은 다수개의 소리 변화기 수단을 포함하는 것을 특징으로 하는 입력 장치.
  11. 제 10 항에 있어서, 상기 구는 터치 이벤트에 대한 응답으로 소리를 발생시키는 면을 갖는 것을 특징으로 하는 입력 장치.
  12. 제 11 항에 있어서, 상기 소리 발생 면은 손가락의 드래그 움직임에 대한 응답으로 소음과 같은 소리를 발생시키는 것을 특징으로 하는 입력 장치.
  13. 제 11 항에 있어서, 상기 감지 수단은 다수개의 마이크로폰을 포함하는 것을 특징으로 하는 입력 장치.
  14. 제 13 항에 있어서, 상기 입력 장치는 터치 이벤트의 특성을 확인하기 위하여 상기 마이크로폰으로부터 발생된 신호를 비교하도록 배열된 처리 수단을 포함하는 것을 특징으로 하는 입력 장치.
  15. 제 14 항에 있어서, 상기 특성은 위치인 것을 특징으로 하는 입력 장치.
  16. 전체 외관이 구형인 그래픽 표시 수단을 가지며,
    상기 구형 면에 발생되는 터치 이벤트의 위치를 나타내는 위치 신호를 발생시키기 위한 터치 감지 수단,
    상기 위치 신호에 대한 응답으로 컴퓨터에 신호를 전송하도록 배열된 전송 수단,
    상기 구의 위치를 감지하기 위한 방향 감지 수단, 및
    상기 그래픽 표시 수단과 관련하여 실질적으로 터치 이벤트의 방향을 연이어 확인하기 위하여 상기 터치 감지 수단과 상기 방향 감지 수단으로부터 신호를 결합하도록 구성되는 처리수단을 포함하는 컴퓨터용 입력 장치.
  17. 제 16 항에 있어서, 상기 터치 감지 수단은 다수개의 마이크로폰과 터치 이벤트에 대한 응답으로 소리를 발생키는 면을 갖는 구를 포함하는 것을 특징으로 하는 컴퓨터용 입력 장치.
  18. 제 17 항에 있어서, 상기 구는 거친 면을 포함하는 것을 특징으로 하는 컴퓨터용 입력 장치.
  19. 제 16 항에 있어서, 상기 컴퓨터는 상기 센서에 관한 그래픽 또는 문자 모드를 선택하는 단계를 수행하고, 그래픽 모드인 경우 터치 이벤트에 대한 응답으로 그래픽 명령을 확인하기 위한 단계를 수행하며, 문자 모드인 경우 터치 이벤트에 대한 응답으로 문자를 확인하기 위한 단계를 수행하도록 구성될 수 있는 처리 수단을 포함하는 것을 특징으로 하는 컴퓨터용 입력 장치.
  20. 제 16 항에 있어서, 상기 센서는 재충전 셀 수단과 재충전 유도 루프 수단을 포함하는 것을 특징으로 하는 컴퓨터용 입력 장치.
  21. 실질적으로 구 형상을 가지며, 외면과 상기 면에 터치 이벤트의 위치를 나타내는 위치신호를 발생시키기 위한 터치 감지 수단; 방향을 확인하기 위한 방향 감지 수단; 및 데이터 처리 시스템으로 보내진 데이터를 전송하기 위한 전송 수단을 포함하는 센서의 면에 터치 이벤트의 위치를 확인하는 단계;
    상기 센서의 방향을 확인하는 단계; 및
    표시 장치에 실질적으로 관련하여 방향된 이벤트 신호를 발생시키도록 상기 방향을 표시하는 데이터와 함께 위치를 나타내는 데이터를 조합하는 단계를 포함하는 표시 장치 상에 그래픽 인터페이스를 표시하기 위한 데이터 처리 시스템에 관한 제어 신호를 발생시키기 위한 방법.
  22. 제 21 항에 있어서, 상기 터치 감지 수단은 음향 변환기 수단을 포함하고, 상기 위치 신호는 소리 신호를 처리하여 발생되는 것을 특징으로 하는 방법.
  23. 제 22 항에 있어서, 상기 소리 처리는 주파수 영역 분석을 포함하는 것을 특징으로 하는 방법.
  24. 제 23 항에 있어서, 상기 방법은 상기 센서에서 소리의 주파수 특성에 대한 응답으로 터치 이벤트의 센서로부터 거리를 확인하는 단계를 포함하는 것을 특징으로 하는 방법.
  25. 제 24 항에 있어서, 상기 거리는 위치를 확인하도록 결합되는 것을 특징으로 하는 방법.
  26. 제 25 항에 있어서, 상기 신호의 부가적인 처리는 위치 에러를 감소시키기 위해 수행되는 것을 특징으로 하는 방법.
  27. 제 23 항에 있어서, 상기 방법은 다수개의 음향 변환기 수단의 시작의 시간차를 측정하는 단계를 포함하는 것을 특징으로 하는 방법.
  28. 제 27 항에 있어서, 상기 소리는 상기 구의 면상의 타격 이벤트에 대한 응답으로 발생되는 것을 특징으로 하는 방법.
  29. 제 23 항에 있어서, 주파수 분석은 드래그 터치 이벤트의 특성을 확인하고 시작 시간 분석은 타격 터치 이벤트의 특성을 확인하는 데에 사용되는 것을 특징으로 하는 방법.
  30. 신호가 면 터치 위치 감지 구로부터 컴퓨터 환경으로 제공되는 컴퓨터 환경에서 삼차원 물체 모델로 상호작용 하도록
    상기 구로부터 상기 물체로 맵핑을 발생시키는 단계; 및
    상기 구로부터 터치 이벤트를 수신하여 상기 물체의 각 면 위치와 상호작용하도록 분석되는 단계를 포함하는 방법.
  31. 신호가 면 터치 위치 감지 구로부터 컴퓨터 환경으로 제공되는 컴퓨터 환경에서 삼차원 물체 모델로 상호작용 하도록
    상기 구로부터 상기 물체로 맵핑하는 단계;
    상기 구로부터 터치 이벤트를 수신하여 상기 물체의 각 면 위치와 상호작용 하도록 분석되는 단계;
    상기 물체를 갱신하는 단계; 및
    상기 구로부터 상기 물체로 새로운 맵핑을 발생시키는 단계를 포함하는 방법.
  32. 움직이는 물체와 면 사이에 상용작용 위치가 상기 구와 상기 물체 사이의 마찰에 의해 발생되는 소리의 분석으로 확인되는 컴퓨터용 위치 입력 신호를 발생시키는 방법.
  33. 제 32 항에 있어서, 상기 물체는 컴퓨터 사용자의 손가락인 것을 특징으로 하는 방법.
  34. 사용자 손가락과 면 사이에 상호작용 위치는 상기 면과 상기 손가락 사이의 마찰에 의해 소리를 발생시키고;
    상기 소리는 음향 변환기 수단에 의해 전기 신호로 변환되고; 그리고
    신호는 상호작용의 위치가 상기 컴퓨터에 의해 이루어진 환경에서 위치 특성을 제어하도록 컴퓨터로 전송된 소리로부터 유도되는 컴퓨터에 대한 위치 정보를 제공하는 방법.
  35. 도 1, 2, 3 및 4에 도시된 것과 실질적으로 같은 장치.
  36. 도 1, 2, 3 및 4에 도시된 것과 실질적으로 같은 방법.
KR1020027006959A 1999-12-06 2000-12-05 공간 위치를 결정하는 신호 처리 KR20020059829A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB9928682.5A GB9928682D0 (en) 1999-12-06 1999-12-06 Input apparatus and a method of generating control signals
GB9928682.5 1999-12-06
PCT/GB2000/004635 WO2001043063A1 (en) 1999-12-06 2000-12-05 Inputting data

Publications (1)

Publication Number Publication Date
KR20020059829A true KR20020059829A (ko) 2002-07-13

Family

ID=10865711

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020027006959A KR20020059829A (ko) 1999-12-06 2000-12-05 공간 위치를 결정하는 신호 처리

Country Status (8)

Country Link
US (3) US6891527B1 (ko)
EP (1) EP1236164A1 (ko)
JP (1) JP2003516594A (ko)
KR (1) KR20020059829A (ko)
CN (1) CN1408101A (ko)
AU (1) AU1719101A (ko)
GB (1) GB9928682D0 (ko)
WO (1) WO2001043063A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9811200B2 (en) 2015-08-04 2017-11-07 Hyundai Motor Company Touch input device, vehicle including the touch input device, and method for controlling the touch input device

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1912001A (en) * 1999-12-08 2001-06-18 Telefonaktiebolaget Lm Ericsson (Publ) A portable communication device and method
US7157649B2 (en) 1999-12-23 2007-01-02 New Transducers Limited Contact sensitive device
JP4613449B2 (ja) * 2001-06-01 2011-01-19 セイコーエプソン株式会社 出力サービス提供システム、仮想オブジェクト管理端末、移動体、仮想オブジェクト管理端末用プログラム及び移動体用プログラム、並びに出力サービス提供方法
GB0116310D0 (en) * 2001-07-04 2001-08-29 New Transducers Ltd Contact sensitive device
AU2003208397A1 (en) 2002-02-05 2003-09-02 Sensopad Technologies Limited Sensing apparatus and method
EP2267582B1 (en) * 2002-02-06 2012-05-09 Soundtouch Limited Touch pad
DE10247287A1 (de) * 2002-04-10 2003-10-30 Fraunhofer Ges Forschung Eingabegerät, System und Verfahren zur Steuerung von auf einer Anzeige darstellbaren Objekten
FR2841022B1 (fr) * 2002-06-12 2004-08-27 Centre Nat Rech Scient Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede
US20070135943A1 (en) * 2002-09-18 2007-06-14 Seiko Epson Corporation Output service providing system that updates information based on positional information, terminal and method of providing output service
US6871149B2 (en) 2002-12-06 2005-03-22 New Transducers Limited Contact sensitive device
WO2005055028A2 (de) * 2003-12-05 2005-06-16 Rupprecht & Partner Alphanumerische eingabevorrichtung
JP4588496B2 (ja) * 2004-03-25 2010-12-01 パイオニア株式会社 情報入力装置及び情報入力方法
GB2414309B (en) * 2004-05-18 2009-02-25 Simon Richard Daniel Spherical display and control device
US20090033630A1 (en) * 2004-06-04 2009-02-05 Koninklijke Philips Electronics, N.V. hand-held device for content navigation by a user
JP4122040B2 (ja) * 2004-08-27 2008-07-23 株式会社アイ・ピー・ビー 物体の姿勢に関連付けた固定情報を引き出す装置、物体姿勢に関連する情報を通信する装置
US8392486B2 (en) 2004-12-29 2013-03-05 Elo Touch Solutions, Inc. Method for determining the position of impacts
US8149209B1 (en) * 2005-12-16 2012-04-03 Eric Leebow Computer interface system
EP1821180A1 (en) * 2005-12-31 2007-08-22 Ball-IT Oy User operable pointing device such as mouse
WO2008047294A2 (en) * 2006-10-18 2008-04-24 Koninklijke Philips Electronics N.V. Electronic system control using surface interaction
US7948488B2 (en) * 2007-04-17 2011-05-24 Autodesk, Inc. Shape preserving mappings to a surface
US8493332B2 (en) 2007-06-21 2013-07-23 Elo Touch Solutions, Inc. Method and system for calibrating an acoustic touchscreen
US8730213B2 (en) 2007-07-02 2014-05-20 Elo Touch Solutions, Inc. Method and system for detecting touch events based on redundant validation
US8378974B2 (en) 2007-07-02 2013-02-19 Elo Touch Solutions, Inc. Method and system for detecting touch events based on magnitude ratios
EP2028584A1 (en) 2007-08-23 2009-02-25 STMicroelectronics S.r.l. Pointing and control device and method for a computer system
ATE545083T1 (de) 2007-12-21 2012-02-15 Tyco Electronics Services Gmbh Verfahren zur bestimmung der positionen mindestens zweier einschläge
KR101576148B1 (ko) * 2008-03-26 2015-12-09 마이크로칩 테크놀로지 저머니 Ⅱ 게엠베하 운트 콤파니 카게 다차원 제스처 평가 시스템 및 방법
US20100026654A1 (en) * 2008-07-29 2010-02-04 Honeywell International Inc. Coordinate input device
EP2175348A1 (en) * 2008-10-07 2010-04-14 Sensitive Object Tactile man-machine interface with data communication interface
US20100126784A1 (en) * 2008-11-26 2010-05-27 Honeywell International Inc. Continuously variable knob input device
DE112010002072T5 (de) * 2009-05-22 2012-10-11 Semiconductor Components Industries, Llc Verfahren und Vorrichtung zum Detektieren eines Haltezustands auf einer akustischen Berührungsoberfläche
US9696856B2 (en) 2009-09-29 2017-07-04 Elo Touch Solutions, Inc. Method and apparatus for detecting simultaneous touch events on a bending-wave touchscreen
US8432368B2 (en) * 2010-01-06 2013-04-30 Qualcomm Incorporated User interface methods and systems for providing force-sensitive input
JP2011203873A (ja) * 2010-03-24 2011-10-13 Nec Corp 情報処理装置、表示切換え方法、プログラム及び記録媒体
US8452260B2 (en) * 2010-03-25 2013-05-28 Hewlett-Packard Development Company, L.P. Methods and apparatus for unlocking an electronic device
CN103003777B (zh) * 2010-06-03 2016-09-07 希尔克瑞斯特实验室公司 手持装置的向前指点方向的确定
CN201820196U (zh) * 2010-06-28 2011-05-04 深圳富泰宏精密工业有限公司 多功能鼠标
JP5573426B2 (ja) * 2010-06-30 2014-08-20 ソニー株式会社 音声処理装置、音声処理方法、およびプログラム
JP2012027541A (ja) * 2010-07-20 2012-02-09 Sony Corp 接触圧検知装置および入力装置
KR101450491B1 (ko) 2010-08-27 2014-10-13 인텔 코오퍼레이션 원격 제어형 장치들의 트랜스코더 가능 클라우드
US9459733B2 (en) 2010-08-27 2016-10-04 Inputdynamics Limited Signal processing systems
JP2012123451A (ja) * 2010-12-06 2012-06-28 Sony Corp 情報処理装置、情報処理システム及び情報処理方法
US10198097B2 (en) 2011-04-26 2019-02-05 Sentons Inc. Detecting touch input force
US9189109B2 (en) 2012-07-18 2015-11-17 Sentons Inc. Detection of type of object used to provide a touch contact input
US9639213B2 (en) 2011-04-26 2017-05-02 Sentons Inc. Using multiple signals to detect touch input
US11327599B2 (en) 2011-04-26 2022-05-10 Sentons Inc. Identifying a contact type
US9477350B2 (en) 2011-04-26 2016-10-25 Sentons Inc. Method and apparatus for active ultrasonic touch devices
US9042571B2 (en) 2011-07-19 2015-05-26 Dolby Laboratories Licensing Corporation Method and system for touch gesture detection in response to microphone output
ITNA20110031A1 (it) * 2011-07-26 2013-01-27 Mario Buono Sistema di comando rotazionale a contatto riposizionabile.
JP5817322B2 (ja) * 2011-08-18 2015-11-18 ソニー株式会社 情報処理装置、情報処理システム及び操作デバイス
US8743069B2 (en) * 2011-09-01 2014-06-03 Google Inc. Receiving input at a computing device
JP2013084029A (ja) * 2011-10-06 2013-05-09 Sony Corp 表示制御装置
TWI488487B (zh) * 2011-10-18 2015-06-11 Acer Inc 利用手勢調整視訊影像壓縮的方法
US10235004B1 (en) 2011-11-18 2019-03-19 Sentons Inc. Touch input detector with an integrated antenna
KR101850680B1 (ko) 2011-11-18 2018-04-20 센톤스 아이엔씨. 터치 입력 힘 검출
EP2780782B1 (en) 2011-11-18 2020-05-13 Sentons Inc. Localized haptic feedback
US11340124B2 (en) 2017-08-14 2022-05-24 Sentons Inc. Piezoresistive sensor for detecting a physical disturbance
CN103218070B (zh) * 2012-01-18 2016-03-30 朱春生 掌控输入装置和掌控输入方法
JP2013210906A (ja) * 2012-03-30 2013-10-10 Sony Corp 制御方法、制御装置及びプログラム
US9348468B2 (en) 2013-06-07 2016-05-24 Sentons Inc. Detecting multi-touch inputs
US9524063B2 (en) 2012-07-18 2016-12-20 Sentons Inc. Detection of a number of touch contacts of a multi-touch input
US9513727B2 (en) 2012-07-18 2016-12-06 Sentons Inc. Touch input surface microphone
EP2818985B1 (en) * 2013-06-28 2021-05-12 Nokia Technologies Oy A hovering input field
US9588552B2 (en) 2013-09-11 2017-03-07 Sentons Inc. Attaching electrical components using non-conductive adhesive
US9459715B1 (en) 2013-09-20 2016-10-04 Sentons Inc. Using spectral control in detecting touch input
US9880671B2 (en) 2013-10-08 2018-01-30 Sentons Inc. Damping vibrational wave reflections
US10019075B2 (en) * 2013-10-24 2018-07-10 Chunsheng ZHU Control input apparatus
USD775331S1 (en) 2015-03-02 2016-12-27 Covidien Lp Hand-held antenna system
US10048811B2 (en) 2015-09-18 2018-08-14 Sentons Inc. Detecting touch input provided by signal transmitting stylus
CN113516752A (zh) * 2015-09-30 2021-10-19 苹果公司 基于显示器的取向信息显示对象的3d表示的方法、设备和程序
US10496187B2 (en) * 2016-09-23 2019-12-03 Apple Inc. Domed orientationless input assembly for controlling an electronic device
US10908741B2 (en) 2016-11-10 2021-02-02 Sentons Inc. Touch input detection along device sidewall
US10296144B2 (en) 2016-12-12 2019-05-21 Sentons Inc. Touch input detection with shared receivers
US10775941B2 (en) 2016-12-30 2020-09-15 Jason Francesco Heath Sensorized spherical input and output device, systems, and methods
US10126877B1 (en) 2017-02-01 2018-11-13 Sentons Inc. Update of reference data for touch input detection
GB201718267D0 (en) * 2017-11-03 2017-12-20 Hardie-Bick Anthony Richard Sensing apparatus
US10345960B2 (en) 2017-02-05 2019-07-09 Anthony Richard Hardie-Bick Transmitting data
US10585522B2 (en) 2017-02-27 2020-03-10 Sentons Inc. Detection of non-touch inputs using a signature
US10620335B2 (en) 2017-05-02 2020-04-14 Ascension Technology Corporation Rotating frequencies of transmitters
US11580829B2 (en) 2017-08-14 2023-02-14 Sentons Inc. Dynamic feedback for haptics
US20230338829A1 (en) * 2022-04-21 2023-10-26 Sony Interactive Entertainment Inc. Single unit deformable controller

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL7803764A (nl) * 1978-04-10 1979-10-12 Philips Nv Akoestische schrijfcombinatie, bevattende een schrijf- instrument met een bijbehorend schrijftablet.
US4514726A (en) * 1983-08-19 1985-04-30 Display Interface Corporation Noise mouse
US4578768A (en) * 1984-04-06 1986-03-25 Racine Marsh V Computer aided coordinate digitizing system
JPH0743631B2 (ja) 1986-03-17 1995-05-15 ソニー株式会社 3次元情報入力装置
US4839838A (en) * 1987-03-30 1989-06-13 Labiche Mitchell Spatial input apparatus
US4851775A (en) 1987-07-02 1989-07-25 Precision Navigation, Incorporated Digital compass and magnetometer having a sensor coil wound on a high permeability isotropic core
GB8810872D0 (en) * 1988-05-07 1988-06-08 Transalarm Ltd Security system
US5049862A (en) * 1989-10-06 1991-09-17 Communication Intelligence Corporation ("Cic") Keyless flat panel portable computer--computer aided notebook
US5063600A (en) * 1990-05-14 1991-11-05 Norwood Donald D Hybrid information management system for handwriting and text
JP3111087B2 (ja) * 1990-09-06 2000-11-20 シャープ株式会社 信号入力装置
US6094188A (en) * 1990-11-30 2000-07-25 Sun Microsystems, Inc. Radio frequency tracking system
US6738697B2 (en) * 1995-06-07 2004-05-18 Automotive Technologies International Inc. Telematics system for vehicle diagnostics
DE4143364A1 (de) * 1991-09-09 1993-09-30 Roman Koller Verfahren mit Anordnung zur Bildung einer Berührungserkennung, bzw. einer Berührungsfunktion
US5262777A (en) 1991-11-16 1993-11-16 Sri International Device for generating multidimensional input signals to a computer
US6597347B1 (en) 1991-11-26 2003-07-22 Itu Research Inc. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
KR940001227A (ko) * 1992-06-15 1994-01-11 에프. 제이. 스미트 터치 스크린 디바이스
GB9220422D0 (en) 1992-09-28 1992-11-11 Radiodetection Ltd Angle senor
US5666473A (en) 1992-10-08 1997-09-09 Science & Technology Corporation & Unm Tactile computer aided sculpting device
US5440639A (en) * 1992-10-14 1995-08-08 Yamaha Corporation Sound localization control apparatus
US5526022A (en) * 1993-01-06 1996-06-11 Virtual I/O, Inc. Sourceless orientation sensor
NL9300152A (nl) 1993-01-27 1994-08-16 Ricar Systems Nederland B V Bewegingssensor, alsmede alarmsysteem met een dergelijke bewegingssensor.
JPH07141094A (ja) 1993-11-12 1995-06-02 Hitachi Ltd 振動センサ型記号入力装置における記号認識方法
US20050192727A1 (en) * 1994-05-09 2005-09-01 Automotive Technologies International Inc. Sensor Assemblies
JP3568621B2 (ja) * 1995-04-20 2004-09-22 株式会社日立製作所 地図表示装置
US5757360A (en) * 1995-05-03 1998-05-26 Mitsubishi Electric Information Technology Center America, Inc. Hand held computer control device
JPH09149157A (ja) * 1995-11-24 1997-06-06 Casio Comput Co Ltd 通信端末装置
US5703623A (en) * 1996-01-24 1997-12-30 Hall; Malcolm G. Smart orientation sensing circuit for remote control
JP3760191B2 (ja) 1996-02-15 2006-03-29 株式会社アミテック 球体センサ
US5923318A (en) * 1996-04-12 1999-07-13 Zhai; Shumin Finger manipulatable 6 degree-of-freedom input device
GB2314470A (en) * 1996-06-18 1997-12-24 Tien Chung Lung Battery charging arrangement with inductively coupled charging device and rechargeable battery device
US6007095A (en) * 1997-02-05 1999-12-28 Automotive Systems Laboratory, Inc. Vehicle occupant position sensor
JP3419648B2 (ja) * 1997-05-27 2003-06-23 株式会社日立製作所 ナビゲーション装置
US5892837A (en) * 1997-08-29 1999-04-06 Eastman Kodak Company Computer program product for locating objects in an image
US6256021B1 (en) * 1998-09-15 2001-07-03 Ericsson Inc. Apparatus and method of configuring target areas within a touchable item of a touchscreen
US6351222B1 (en) * 1998-10-30 2002-02-26 Ati International Srl Method and apparatus for receiving an input by an entertainment device
US6259991B1 (en) * 1999-02-10 2001-07-10 X-Cyte Inc. Environmental location system
US6842505B1 (en) * 1999-04-05 2005-01-11 Estech Systems, Inc. Communications system enhanced with human presence sensing capabilities
US6674993B1 (en) * 1999-04-30 2004-01-06 Microvision, Inc. Method and system for identifying data locations associated with real world observations
US6545661B1 (en) * 1999-06-21 2003-04-08 Midway Amusement Games, Llc Video game system having a control unit with an accelerometer for controlling a video game
US7746321B2 (en) * 2004-05-28 2010-06-29 Erik Jan Banning Easily deployable interactive direct-pointing system and presentation control system and calibration method therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9811200B2 (en) 2015-08-04 2017-11-07 Hyundai Motor Company Touch input device, vehicle including the touch input device, and method for controlling the touch input device

Also Published As

Publication number Publication date
AU1719101A (en) 2001-06-18
EP1236164A1 (en) 2002-09-04
GB9928682D0 (en) 2000-02-02
US8436808B2 (en) 2013-05-07
US20050110773A1 (en) 2005-05-26
CN1408101A (zh) 2003-04-02
US6891527B1 (en) 2005-05-10
US20130241894A1 (en) 2013-09-19
JP2003516594A (ja) 2003-05-13
WO2001043063A1 (en) 2001-06-14

Similar Documents

Publication Publication Date Title
KR20020059829A (ko) 공간 위치를 결정하는 신호 처리
CN105320452B (zh) 利用人体作为输入机构的可佩带装置
US8354997B2 (en) Touchless user interface for a mobile device
CN105824431B (zh) 信息输入装置与方法
CN104169848B (zh) 检测触摸输入力
US5825351A (en) Method and apparatus for noise filtering for an input device
KR101253451B1 (ko) 음원의 위치를 감지할 수 있는 모바일 디바이스 및 그 제어 방법
US7348968B2 (en) Wireless force feedback input device
US8330061B2 (en) Compact input device
US8831240B2 (en) Bluetooth device and audio playing method using the same
CN102830795B (zh) 利用运动传感装置的远程控制
US20160085308A1 (en) Orientation adjustable multi-channel haptic device
AU2019246927A1 (en) Electronic device for providing hovering input effects and method for controlling the same
US20070130547A1 (en) Method and system for touchless user interface control
JPH06502509A (ja) 超音波位置標定方法および装置
KR20140097902A (ko) 햅틱 패턴을 생성하는 휴대 단말 및 방법
KR20150104808A (ko) 피드백을 출력하는 전자 장치 및 방법
CN105159539A (zh) 可穿戴设备的触控响应方法、装置及可穿戴设备
US20160139694A1 (en) User input device using alternating current magnetic field and electric device having same
KR20140136803A (ko) 진동 제어 방법 및 장치
CN205050078U (zh) 一种可穿戴设备
KR20140143052A (ko) 멀티 레벨 드라이버를 구비한 입력 장치 및 이를 포함하는 사용자 기기
US9958902B2 (en) Input device, input method, and program
CN206962880U (zh) 一种麦克风及移动终端
KR20140137629A (ko) 이어폰 연결을 감지하는 휴대 단말 및 방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid