JP2002323945A - コンピュータ入力装置に近接する物理的存在の感知に応答して情報を表示する方法 - Google Patents

コンピュータ入力装置に近接する物理的存在の感知に応答して情報を表示する方法

Info

Publication number
JP2002323945A
JP2002323945A JP2002069359A JP2002069359A JP2002323945A JP 2002323945 A JP2002323945 A JP 2002323945A JP 2002069359 A JP2002069359 A JP 2002069359A JP 2002069359 A JP2002069359 A JP 2002069359A JP 2002323945 A JP2002323945 A JP 2002323945A
Authority
JP
Japan
Prior art keywords
control
user
display
status information
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002069359A
Other languages
English (en)
Other versions
JP4737912B2 (ja
JP2002323945A5 (ja
Inventor
Kenneth P Hinckley
ピー.ヒンクリー ケネス
Steven N Bathiche
エヌ.バシチェ スティーブン
William Vong
ボン ウィリアム
James H Cauthorn
エイチ.コーソーン ジェームズ
Corey M Ladas
エム.レイダス コーリー
Kenneth V Fry
ブイ.フライ ケネス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2002323945A publication Critical patent/JP2002323945A/ja
Publication of JP2002323945A5 publication Critical patent/JP2002323945A5/ja
Application granted granted Critical
Publication of JP4737912B2 publication Critical patent/JP4737912B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0219Special purpose keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03549Trackballs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1037Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1043Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being characterized by constructional details
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/404Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network characterized by a local network connection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • G05G2009/04766Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks providing feel, e.g. indexing means, means to create counterforce
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • G05G2009/04774Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks with additional switches or sensors on the handle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection

Abstract

(57)【要約】 【課題】 補助用コントロールの機能およびステータス
を、そのコンテクスト(例えばアクティブな状態にある
アプリケーションやゲーム)に関係なく、より容易に決
定できる能力をユーザに提供する。 【解決手段】 コンピュータシステムで、タッチセンシ
ティブな補助用コントロールを有するタッチセンシティ
ブな入力装置を使用することにより、ユーザの行動を予
想する。ユーザの手がタッチセンシティブな入力装置に
接近すると、表示画面にフィードバックを表示する。ユ
ーザは、入力装置を起動せずにフィードバックを受け取
る。このフィードバックは、その入力装置によって制御
している機能に関連するステータス情報の形をとること
ができ、開かれているアプリケーションに応じて変化す
る。同様に、ユーザの手がタッチセンシティブな入力装
置から離れると、ユーザの手を感知することによって表
示したフィードバックを消す。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】技術分野本発明は、コンピュ
ータシステム用の入力装置に関する。より詳細には、本
発明は、コンピュータシステムにおけるタッチ検出可能
(タッチセンシティブと以下表現する)な入力装置の使
用に関する。
【0002】本出願は、1998年9月14日に出願さ
れ、連続番号09/152,434を割り振られ、本出
願の譲受人に譲渡された、Hinckley他による
「Proximity Sensor in a Co
mputer Input Device」という名称
の同時係属米国特許出願の一部係属出願である。この出
願は参照により本明細書に組み込む。本出願はまた、1
998年9月14日に出願され、連続番号09/15
2,432を割り振られ、本出願の譲受人に譲渡され
た、Hinckleyによる「A Techiniqu
e For Implementing a Two−
Handed Desktop Use Interf
ace For a Computer」という名称の
同時係属米国特許出願の一部係属出願である。この出願
は参照により本明細書に組み込む。本出願はさらに、1
998年9月14日に出願され、連続番号09/15
2,443を割り振られ、本出願の譲受人に譲渡され
た、Hinckley他による「Method of
Interacting With a Comput
erUsing a Proximity Senso
r in a Computer Input Dev
ice」という名称の同時係属米国特許出願の一部係属
出願である。この出願は参照により本明細書に組み込
む。
【0003】さらに、本出願は、1998年11月25
日に出願され、連続番号09/200,325を割り振
られ、本出願の譲受人に譲渡されたHinckleyに
よる「A Technique For Implem
enting an On−Demand Displ
ay Widget Through Control
led Fading Initiated By U
ser Contact With a Touch
Sensitive Input Device」とい
う名称の同時係属米国特許出願の一部係属出願である。
この出願は参照により本明細書に組み込むが、この出願
は、1998年9月14に出願され、連続番号60/1
00,261を割り当てられた「Toolglass
Improvements−On−Demand To
ol Sheet;Gesturing Throug
h Tool Sheets」という名称の米国仮特許
出願に対する優先権を主張している。本出願はまた、1
998年11月25日に出願され、連続番号09/20
0,321を割り振られ、本出願の譲受人に譲渡され
た、Hinckleyによる「A Technique
For Implementing an On−D
emand Tool Glass ForUse i
n a Desktop User Interfac
e」という名称の同時係属米国特許出願の一部係属出願
である。この出願は参照により本明細書に組み込むが、
この出願は、1998年9月14日に出願され連続番号
60/100,261を割り振られた「Toolgla
ss Improvements−On−Demand
Tool Sheet;Gesturing Thr
ough Tool Sheets」という名称の米国
仮特許出願に対する優先権を主張している。
【0004】本出願は、2000年4月5日に出願さ
れ、連続番号09/543,723を割り当てられ、本
出願の譲受人に譲渡されたHinckley他による
「Method of Interacting Wi
th a Computer Using a Pro
ximity Sensor in a Comput
er Input Device」という名称の同時係
属米国特許出願に関連する。この出願は参照により本明
細書に組み込むが、この出願は、上記に示した米国特許
出願番号09/152,443の係属出願である。
【0005】
【従来の技術】関連技術 キーボード、タッチパッド、トラックボール、ゲームコ
ントローラおよびマウスなどのコンピュータシステム用
の入力装置は、ジョイスティック、タッチパッド、トラ
ックボール、ヘッドセット、マイクロフォン、ボタン、
つまみ、ロッカースイッチ、トリガ、スライダ、ホイー
ル、生物測定学を応用したセンサなど、1つまたは複数
の補助用コントロールを含むことが多い。補助用コント
ロールは単独で使用することも、入力装置および他の補
助用コントロールと合わせて使用することも可能であ
る。
【0006】入力装置の大半は、トランスデューサまた
はスイッチを用いて入力信号を生成する。スイッチは通
例、キーボードのキーや、マウスのボタン、ジョイステ
ィック、およびゲームコントローラの中にある。トラン
スデューサはマウスおよびトラックボールの中にあり、
そのような装置の内部にあるボールの動きに基づくか、
または表面上での装置の移動を光学的に検出することに
よって電気信号を生成している。トランスデューサはヘ
ッドセットの中にもあり、この場合は音声信号を電気信
号に変換する。タッチパッドは、ユーザがタッチパッド
に触れると電気信号を提供するセンサを用いて入力信号
を生成するが、この信号は、タッチパッド内で接触の行
われた位置を含んでいる。
【0007】入力装置およびその補助用コントロールが
コンピュータに提供することのできる情報の量を増加す
ることが望まれるが、入力装置に追加することのできる
トランスデューサおよびスイッチの数は、ユーザが特定
のトランスデューサやスイッチが行う機能をすべて記憶
するための能力からおのずと制限され、また入力装置
(例えばキーボードやマウス)にスイッチおよびトラン
スデューサを配置するのに利用できる面積(real
estate)、あるいは少なくとも実行可能な形で利
用することのできる面積という実用面から制限される。
ユーザが1つ1つの補助用コントロールの機能を決定す
ることができるが、この能力も一般には、その補助用コ
ントロールが本来持つ、あるいはそれに近い固定した機
能(static label)に制限されてしまい、
それぞれの補助用コントロールを起動し、ボタンをクリ
ックし、メニューオプションを選択して、ヘルプファイ
ルを要求するか、ユーザマニュアルを読むことになる。
さらに補助用コントロールの機能は、ゲームあるいはア
プリケーションごとに変わる場合がある。したがって、
ある補助用コントロールの固定機能は、その入力装置と
その補助用コントロールの機能およびステータスがアプ
リケーションごとに変わる場合にはほとんど価値のない
ものになる。これに関して、ユーザが、あるゲームまた
はアプリケーションにおけるボタンおよび他のコントロ
ールの割り当てを覚えたとしても、別のゲームまたはア
プリケーションでは、同じボタンまたはコントロールに
異なる機能が割り当てられる可能性がある。同様に、補
助用コントロールが制御する機能のステータスは、一般
にはそのコントロールを起動することでしか決定するこ
とができない。
【0008】
【発明が解決しようとする課題】したがって、補助用コ
ントロールの機能およびステータスを、そのコンテクス
ト(例えばアクティブな状態にあるアプリケーションや
ゲーム)に関係なく、より容易に決定できる能力をユー
ザに提供することが必要とされている。
【0009】この必要性に対応するために、LEDや小
型LCDなどの表示器を入力装置およびその補助用コン
トロールに直接組み込んで、フィードバックまたは状態
情報を提供することが可能である。しかし、LEDやL
CDを個々の補助用コントロールと関連付けると、消費
電力量および入力装置のコストがいずれも増大する。さ
らに、LEDおよびLCDの出力形態は非常に限られて
おり、またメインの表示(例えばコンピュータモニタ)
から離れているので、ユーザは、コントロールの機能や
ステータスを決定するのに、常に画面から補助用コント
ロールに視線を移動しなければならない。このように常
に注意力の対象を移動していると、その時点のコンテク
ストを繰り返し把握し直さなければならないので、ユー
ザは精神的に疲労しかねない。したがって、コンピュー
タシステムで入力装置の補助用コントロールの機能およ
び/またはステータスを決定するための、より効率的
で、簡便かつ/または費用効果の高い方式を提供するこ
とが必要とされている。
【0010】
【課題を解決するための手段】本発明は、物理的な存在
を感知し、画面上の表示やコントロール自体における視
覚的フィードバック、聴覚的なフィードバック(例えば
音声や音楽)、あるいは触覚によるフィードバック(例
えばバイブレーション)を提供する、タッチセンシティ
ブな補助用コントロールを有するタッチセンシティブ式
入力装置を提供することにより、既存の入力装置に見ら
れる欠点の多くを克服する。
【0011】本発明の一態様では、キーボード、タッチ
パッド、トラックボール、ゲームコントローラ、モニ
タ、ジョイスティック、ステアリングホイール、ヘッド
セット、あるいはマウスといった入力装置の、キー、ボ
タン、つまみ、ロッカースイッチ、あるいはその他の補
助用コントロールに、ユーザの手との接触、あるいはそ
の著しい近接状態(proximity)を検出するセ
ンサを補うことができる。別の態様によると、補助用コ
ントロールの感知信号により、ユーザが起動する(例え
ば、押す、回す、回転する、あるいはその他の方法で)
ことなく接触したコントロールに関するステータス、状
態情報、ツールのヒント(tips)、ヘルプテキス
ト、またはその他のフィードバックの画面上表示をユー
ザに提供することができる。あるいは、画面上表示によ
って提供するフィードバックに代えて、またはそれに加
えて、聴覚あるいは触覚を利用したフィードバックをユ
ーザに提供することもできる。したがって、ユーザは様
々なボタンやその他のコントロールに触れるだけで、そ
れらの機能の割り当てやステータスを知ることができ、
あるいは他のフィードバックを得ることができる。ユー
ザはそのようなフィードバックにより、ユーザがそれに
続いてコントロールの起動を選択した場合にそのボタン
またはコントロールが行う動作の結果をより正確に理解
することができる。また、ユーザは、迅速かつ気軽にス
テータス情報を見ることができるようになる。
【0012】本発明の態様は、ユーザの手の検出に応答
して、補助用コントロールについてのコンテクストに即
したフィードバックを表示ウィジェット(displa
ywidget)(例えばグラフィカルユーザインタフ
ェース(GUI))などの画面上表示に提供することを
含む。このように、タッチセンシティブなコントロール
を使用して、ユーザの行為のコンテクストを予測するこ
とができる。状況のコンテクストは、コントロールをつ
かむ、コントロールに触れる、あるいは接近するといっ
たユーザによる予備段階の行為によって確定することが
できる。行為のコンテクストを知ると、コンピュータは
動作を開始し、ユーザの意思を予測することができる。
【0013】本発明の別の態様によると、補助用コント
ロールのコンテクストには、ゲーム、ユーティリティ、
および生産性管理(productivity)のアプ
リケーションなど各種アプリケーションを含むことがで
きるがこれらに限定しない。また、コンテクストは、ア
プリケーションまたはゲームの様々な部分ごとに変える
こともできる。
【0014】本発明の別の態様では、補助用コントロー
ルに近接した物理的存在、または接触した物理的存在の
検出に応答してGUIが表示されると、ユーザは、別の
補助用コントロールまたは入力装置を用いてそのGUI
と対話することができる。この入力装置には、マウス、
タッチパッド、あるいはキーパッドが含まれるがこれら
に限定しない。例えば、音量コントロール用のGUIが
表示されると、ユーザはマウスで音量を調節することが
できる。
【0015】本発明の別の態様では、その補助用コント
ロールを含む入力装置は、物理的存在(例えばユーザ)
がその装置またはそのコントロールに触れると、それを
直接検出するタッチセンサを備えることができ、これに
より、例えばユーザが装置と手との物理的な接触状態を
確立または解除した時など、「オンデマンド」方式でフ
ィードバックの表示および消去(dismissal)
を提供することができる。
【0016】例えば、ユーザが指で装置に触れるなどし
て装置またはコントロールへの接触を行ったことを反映
した、装置が提供する接触表示の変化があると、ツール
ヒントを表示することができる。装置から指を持ち上げ
るなどユーザが装置との物理的接触を解除したことを示
す変化があると、そのツールヒントをディスプレイから
消すことができる。本発明の一態様では、ユーザの注意
をそらさないように、このような変化が検出されるとそ
れに対応する所定のアニメーションシーケンスを開始す
ることができる。このシーケンスは規定の時間にわたっ
て行われるが、ここではユーザによる接触が始まると直
ちにフィードバックが次第に見えるようになり始め(通
例は見えない状態、つまり完全に透明な状態から、最終
的には所定の半透明または非透明な状態になる)、そし
て例えばユーザが手を装置から持ち上げるなど装置との
ユーザ接触が解除されると、フィードバックは直ちに次
第に消え始める(すなわち最終的には元の見えない状態
に戻る。)
【0017】本発明の別の態様では、ツールバー、スク
ロールバーなどは、物理的存在の検出に応答してのみ表
示画面に表示することができる。例を挙げると、起動は
行わずに補助用コントロールに触れるとツールバーを画
面上に表示することができ、コントロールとの接触を解
除するとツールバーを消すことができる。本発明の一態
様では、ユーザは、所望の場合には片方の手で補助用コ
ントロールまたは入力装置を使用してツールバーとのイ
ンタフェースをとりながら、ツールバーを画面上に表示
させた補助用コントロールへの接触を続けることができ
る。この態様によると、ディスプレイ上の乱雑さを低減
することができ、プログラムを実行する際の適切な時
に、ユーザの行為に一致し、かつそれによって制御する
方式で、利用可能なアプリケーション画面の範囲を拡大
することができる。この際、それを行うための著しい負
担が認識される形でユーザにかかることはない。これに
より、「ユーザ経験」が大幅に改善されるものと思われ
る。
【0018】当業者には、本発明の上記およびその他の
新奇の利点、詳細、実施形態、特徴、および目的が、以
下の本発明の詳細な説明、頭記の特許請求の範囲、およ
び添付図面から明らかになろう。本明細書に記載するこ
れらの事項は本発明を説明するのに有用である。
【0019】
【発明の実施の形態】本発明の例証的実施形態による
と、入力装置の補助用コントロールは、物理的存在(例
えばユーザの手やスタイラス)がコントロールに触れる
とそれを感知するように構成して、それにより「オンデ
マンド」方式で表示ウィジェットの表示および消去を提
供することができる。表示ウィジェットはグラフィカル
ユーザインタフェース(GUI)でよく、機能(例えば
ツールヒント)および/またはステータス情報などの情
報を「オンデマンド」方式で含むことができる。表示ウ
ィジェットの例示的なものには、ツールバー、ツールグ
ラスシート、スクロールバー、ウィンドウフレームおよ
びウィンドウ装飾、タイトルバー、フローティングツー
ルパレット、モーダルおよび非モーダルのダイアログボ
ックス、リストまたはコンボボックス、コントロール、
ボタンの設定、テキスト入力領域などが含まれる。
【0020】コントロールに指で触れるなどユーザが補
助用コントロールとの物理的接触を行ったことを反映し
た、入力装置が提供する接触表示の変化は、表示ウィジ
ェットを表示させることができる。コントロールから指
を持ち上げるなどユーザが補助用コントロールとの接触
を解除したことを示す変化は、表示ウィジェットを消す
ことができる。ユーザの注意をそらさないように、こう
した検出された変化があると、それに対応する所定のア
ニメーションシーケンスを開始することができる。この
アニメーションは規定の時間にわたって行われるが、こ
こではユーザの接触が開始すると、直ちに表示ウィジェ
ットが徐々に見えるようになり始め(通例は、見えない
状態、つまり完全に透明な状態から、最終的には所定の
半透明の状態になる)、そしてユーザが指をコントロー
ルから持ち上げるなど補助用コントロールとのユーザ接
触が解除されると、直ちに表示ウィジェットが徐々に消
え始める(すなわち最終的には元の見えない状態に戻
る)。さらに、使用する特定のタッチセンシティブな補
助用コントロールによっては、短い時間遅延、すなわち
「冷却期間」が経過した後にフェーディングを始めるこ
とが好ましい場合がある。例えば、ユーザはタッチパッ
ドの端まで達すると、手を「再クラッチ」して(例え
ば、短時間指を持ち上げてからパッドの中心部に置き直
すなど)ポインタとしての動きを続ける場合がある。こ
のようなことが起きたとき、直ちにフェーディングを開
始するのは表示ウィジェットにとって厄介であることが
考えられる。フェーディングの開始前に、継続的な指の
接触感知と組み合わせて短時間の時間遅延(例えば、約
0.5〜1.0秒間)を置くと、画面表示を全く変化さ
せずに上記のような短時間の再クラッチを行えるように
なる。同様に、ユーザが補助用コントロールに十分に長
い時間触れていない場合は、フェードインの開始前に、
ユーザ接触の解除の感知と組み合わせて同じような時間
遅延を置くと、不注意にわずかな時間接触したことによ
って表示ウィジェットがフェードインしてからフェード
アウトし、ユーザを別の点でいらだたせるのを防ぐこと
ができる。
【0021】さらに、本発明によると、表示ウィジェッ
ト(例えばツールバー)を「オンデマンド」で表示およ
び消去するためには、接触によって引き起こされる表示
および消去も容易に使用することができる。これは、ユ
ーザの都合のいい方の(preferred)手と、別
のタッチセンシティブな補助用コントロール、またはタ
ッチセンシティブなマウスなどの入力装置との接触を感
知することによって行う。接触の検出、具体的にはユー
ザが補助用コントロールまたは入力装置をつかんだこと
の検出に応答して表示ウィジェットを表示することによ
り、補助用コントロールまたは入力装置に手を伸ばし、
それをつかんだ際のユーザの行動に潜在的にあった表示
ウィジェットを利用したいというユーザの要望を活用す
ることができる。表示ウィジェットは、例えば接触(t
ouch contact)をやめたときなど、ユーザ
が補助用コントロールまたは入力装置から手を離すと消
える。このような方式で表示ウィジェットを表示および
消去すると、ユーザにさらにかかる認識可能な負担が生
じたとしてもごくわずかで済む点が好都合である。
【0022】図1およびそれに関連する説明は、本発明
を実施することができる適切なコンピューティング環境
の全般的な説明を簡潔に提供するものである。本発明は
少なくとも部分的には、プログラムモジュールなどパー
ソナルコンピュータで実行されるコンピュータ実行可能
命令の一般的な文脈で説明するが、それが必須である訳
ではない。一般にプログラムモジュールには、特定のタ
スクを実行する、または特定の抽象データタイプを実施
するルーチンプログラム、オブジェクト、構成要素、デ
ータ構造などが含まれる。さらに、当業者には、本発明
は他のコンピュータシステム構成でも実施できることが
理解されよう。これには、携帯用デバイス、マルチプロ
セッサシステム、マイクロプロセッサベースまたはプロ
グラマブルな消費者家電製品、ネットワークPC、ミニ
コンピュータ、メインフレームコンピュータなどが含ま
れる。本発明はまた、通信ネットワークを通じてリンク
された遠隔処理装置によってタスクを実行する分散型コ
ンピューティング環境で実施してもよい。分散型コンピ
ューティング環境の場合、プログラムモジュールはロー
カルおよびリモートどちらのメモリ記憶装置に置いても
よい。
【0023】図1を参照すると、本発明を実施するため
の例示的システムは、処理装置(CPU)21と、シス
テムメモリ22と、システムメモリ22を含む各種のシ
ステム構成要素を処理装置21に結合するシステムバス
23とを含んだ従来型パーソナルコンピュータ20を用
いる例証的コンピュータシステムを含む。システムバス
23は、各種のバスアーキテクチャのうち任意のものを
使用したメモリバスまたはメモリコントローラ、周辺バ
ス、ローカルバスを含む何種類かのバス構造の任意のも
のでよい。システムメモリ22は、読み出し専用メモリ
(ROM)24およびランダムアクセスメモリ(RA
M)25を含む。基本入出力(BIOS)26は、起動
時などにパーソナルコンピュータ20内の要素間の情報
転送を助ける基本ルーチンを含んでおり、ROM24に
記憶されている。パーソナルコンピュータ20はさら
に、ハードディスク(図示せず)との読み出しおよびそ
こへの書き込みを行うハードディスクドライブ27、取
り外し可能な磁気ディスク29との読み出しおよび書き
込みを行う磁気ディスクドライブ28、およびCD R
OMまたはその他の光媒体など取り外し可能な光ディス
ク31との読み出しまたは書き込みを行う光ディスクド
ライブ30を含む。ハードディスクドライブ27、磁気
ディスクドライブ28、光ディスクドライブ30はそれ
ぞれ、ハードディスクドライブインタフェース32、磁
気ディスクドライブインタフェース33、および光ディ
スクドライブインタフェース34によりシステムバス2
3に接続されている。これらドライブおよびそれに関連
するコンピュータ可読媒体は、コンピュータ可読命令、
データ構造、プログラムモジュール、およびその他パー
ソナルコンピュータ20のデータの不揮発性記憶を提供
する。
【0024】本明細書に示す例示的環境ではハードディ
スク、取り外し可能磁気ディスク29、および取り外し
可能光ディスク31を用いているが、当業者は、磁気カ
セット、フラッシュメモリカード、デジタルビデオディ
スク、ベルヌーイカートリッジ、ランダムアクセスメモ
リ(RAM)、読み出し専用メモリ(ROM)など、コ
ンピュータからのアクセスが可能なデータを記憶するこ
とができる他種のコンピュータ可読媒体もこの例示的動
作環境で使用できることを理解されよう。
【0025】ハードディスク、磁気ディスク29、光デ
ィスク31、ROM24またはRAM25には、オペレ
ーティングシステム35、1つまたは複数のアプリケー
ションプログラム36、他のプログラムモジュール3
7、プログラムデータ38、およびデバイスドライバ6
0を含む複数のプログラムモジュールを記憶することが
できる。デバイスドライバ60は、ユーザが入力装置4
3を通じて入力したコマンドおよび情報を処理する。入
力装置には、キーボード、マウス、ゲームコントロー
ラ、トラックボール、タッチパッドなどが含まれる。ま
たこれらの入力装置は、ジョイスティック、ゲームパッ
ド、タッチパッド、トラックボール、キー、ヘッドセッ
ト、モニタ、マイクロフォン、ボタン、つまみ、ロッカ
ースイッチ、トリガ、スライダ、ホイール、レバー、タ
ッチストリップ、生物測定学を応用したセンサなどの補
助用コントロールも有することができる。入力装置43
は、有線式または無線によりパーソナルコンピュータ2
0に結合することができる。
【0026】本発明の例示的実施形態によると、上記の
ような入力装置の少なくとも1つはタッチセンサ40を
含み、マウスなどの入力装置は、タッチセンサ40およ
び移動トランスデューサ42の両方を有することができ
る。タッチセンサ40は、ユーザの手などの物理的存在
が、入力装置43自体の1つあるいはその補助用コント
ロールに触れるとそれを示す信号を生成することができ
る。移動トランスデューサ42は、ユーザが入力装置の
一部を動かすとそれを示す信号を生成することができ
る。タッチセンサ40および移動トランスデューサ42
が生成した信号は、システムバス23に結合されたシリ
アルポートインタフェース46を通じ、処理装置21に
接続された導線に沿って渡すことができるが、接続はサ
ウンドカード、パラレルポート、ゲームポートあるいは
ユニバーサルシリアルバス(USB)など他のインタフ
ェースによって行ってもよい。
【0027】モニタ47または他タイプの表示装置も、
ビデオアダプタ48などのインタフェースを介してシス
テムバス23に接続することができる。パーソナルコン
ピュータは通例、モニタ47以外にも、スピーカ45お
よびプリンタ(図示せず)など他の周辺出力装置を含む
ことができる。
【0028】パーソナルコンピュータ20は、リモート
コンピュータ49など1つまたは複数のリモートコンピ
ュータへの論理接続を使用したネットワーク環境で動作
することができる。リモートコンピュータ49は、別の
パーソナルコンピュータ、携帯用デバイス、サーバ、ル
ータ、ネットワークPC、ピアデバイスまたは他のネッ
トワークノードでよく、また図1にはメモリ記憶装置5
0しか示していないが、通例は上記でパーソナルコンピ
ュータ20に関連して説明した要素の多数またはすべて
を含んでいる。図1に示す論理接続は、ローカルエリア
ネットワーク(LAN)51およびワイドエリアネット
ワーク(WAN)52を含む。このようなネットワーキ
ング環境は、オフィス、企業規模のコンピュータネット
ワーク、イントラネット、およびインターネットで一般
的に見られるものである。
【0029】LANネットワーキング環境で使用する場
合、パーソナルコンピュータ20は、ネットワークイン
タフェースすなわちアダプタ53を通じてローカルエリ
アネットワーク51に接続する。WANネットワーキン
グ環境で使用する場合、パーソナルコンピュータ20は
通例、インターネットなどのワイドエリアネットワーク
52を介した通信を確立するためのモデム54またはそ
の他の手段を含む。モデム54は外付け式でも内蔵型で
もよく、シリアルポートインタフェース46を介してシ
ステムバス23に接続される。ネットワーク環境では、
パーソナルコンピュータ20との関連で説明したプログ
ラムモジュール、またはその一部を、リモートのメモリ
記憶装置に記憶することができる。ここに示すネットワ
ーク接続は例示的なものであり、コンピュータ間に通信
リンクを確立する他の手段を使用できることは理解され
よう。例えば、ネットワークの1つまたは複数の部分間
にワイヤレスの通信リンクを設定することができる。
【0030】図2は、図1の入力装置43の一実施形態
の一部を拡大したブロック図である。入力装置43は、
4つのタッチセンサ100、102、104、および1
06の配列を含む。これらのセンサは、入力装置の4つ
の補助コントロールに対応することができる。各センサ
は、個々の導線108、110、112、および114
を通じて電気信号を生成し、この導線は、アナログから
デジタルへの変換器およびマルチプレクサ116に接続
されている。タッチセンサ100、102、104、お
よび106は、ユーザとセンサの一部との実際の接触に
基づいて、あるいはユーザとセンサとの著しい近接状態
に基づいて各々の電気信号を生成する。接触に依拠する
タッチセンサを接触センサと呼び、近接に依拠するタッ
チセンサを近接センサと呼ぶ。この応用例のコンテクス
トでは、タッチセンサに触れるとは、接触センサの場合
にはそれに接触したときであり、近接センサの場合には
ユーザが十分にセンサに接近したときである。本発明に
よると、センサは、「接触」と「接触解除(relea
se)」ではそれぞれに必要とされる接触の度合いが異
なるように構成できることを理解されたい。例えば、
「接触」のイベントを検出するためには接触が必要とさ
れるのに対し、「接触解除」のイベントを感知するに
は、接触が解除され近接状態がなくなることが必要とさ
れるなどである。同様に、純粋な近接センサの実施形態
では、「接触」イベントを感知するには非常に近づいた
近接状態が必要とされるが、「接触解除」イベントの感
知に必要とされる閾値(距離)はより高くすることがで
きる。
【0031】いくつかの接触センサの実施形態では、タ
ッチセンサは、触れるとキャパシタンスが変化する導電
性フィルムを含んでいる。このセンサはまた、導電性フ
ィルムのキャパシタンスの変化に基づいて電気信号を生
成する容量性測定回路も含む。当業者は、フォトダイオ
ードセンサ、圧電材料を利用したセンサ、および容量性
圧力センサなど、他の接触センサ技術も利用できること
を認識されよう。これらのセンサはいずれも本発明のコ
ンテクストで使用することができる。近接センサの一実
施形態では、タッチセンサは、LEDからの反射光を使
用してユーザがセンサに接近するとそれを検出する。こ
の例示的実施形態によりLEDを駆動し、反射光を感知
するのに使用するチップは、ニュージャージー州ブリッ
ジウォーターのHamamatsu Corporat
ionで製造することができる。別の近接センサの実施
形態では、入力装置近くの電界または磁界の変化を用い
て、ユーザが装置に接近するとそれを判定する。
【0032】本発明の実施形態では、タッチセンサは、
タッチセンサのどこでユーザが入力装置に触れるかや、
ユーザがセンサのどの部分に接近するかに関係なく、同
じ情報を提供することができる。このように、これらの
タッチセンサは接触データと位置データを分離する。図
2は、このタイプのタッチセンサを備えた例証的入力装
置を示している。
【0033】別の実施形態、例えばタッチパッド、タッ
チスクリーン、およびタッチタブレットを用いる実施形
態では、所与のタッチセンサは、ユーザがそのタッチセ
ンサのどこで接触を行ったか、あるいはユーザがそのタ
ッチセンサのどこでタッチセンサに最も近づいたかを示
す位置情報を提供することができる。このような装置で
は、装置に触れずに位置データを指定することはできな
い。また、位置を指定することなく装置に触れることも
できない。このように、これらの装置では接触の感知と
位置の感知が密接に結びついている。
【0034】図2を参照すると、アナログからデジタル
への変換器およびマルチプレクサ116は、導線10
8、110、112、および114にあるアナログの電
気信号を、線118で搬送されるデジタル値に変換す
る。線118はマイクロコントローラ120に接続され
ており、マイクロコントローラはマルチプレクサ116
を制御して4つのタッチセンサの状態を選択的に監視す
る。マイクロコントローラ120はまた、入力装置の他
の各種センサからの入力も受け取る。図を簡潔にするた
めに、これらの入力はまとめて入力122として示して
いる。当業者は、異なる入力装置および補助用コントロ
ールは、その入力装置中の運動センサの種類に応じて、
異なる入力信号を提供することを認識されよう。運動セ
ンサの例には、スイッチを閉じるのに必要な運動を表す
信号を提供するスイッチ、音声信号によって生じる空気
の動きを表す信号を提供するマイクロフォン、マウスボ
ール、トラックボールあるいはマウスホイールの動きを
表す信号を提供するエンコーダホイール、およびジョイ
スティックの動きを表す電気信号を提供する抵抗ワイ
パ、が含まれる。これらの運動センサはそれぞれ、コン
ピュータシステムに送る入力情報を生成することができ
る入力生成器として機能する。この入力情報は特定の入
力生成器に応じて、押すことのできるキーの状態、押す
ことのできるボタンの状態、サウンド情報、あるいは動
きの情報を含むことができる。
【0035】当業者には、マイクロコントローラ120
に連結する入力線の数は、入力装置のセンサ数と入力装
置の構成に応じて決まることも認識されよう。例えば、
キーボードの場合、マイクロコントローラは入力線を使
用して、補助用コントロールのいずれかが起動されてい
ないかどうかを判定する。マイクロコントローラは、マ
ルチプレクサ(図示せず)を使用して、キーボード上の
各補助用コントロールの状態を逐次テストすることによ
りこの判定を行う。これらの補助用コントロールの状態
の投入を検出するのに使用する技術は、キーボードの技
術分野ではよく知られている。
【0036】マウスまたはトラックボールでは、入力線
122は、スイッチの投入を検出するための線と、エン
コーダホイールの回転を検出するための線を含む。スイ
ッチは、マウスまたはトラックボールのボタンの下に配
置されている。エンコーダホイールは、マウスボールま
たはトラックボールの動きを把握する。通例、1つのエ
ンコーダホイールがX方向の動きを把握し、もう1つの
エンコーダホイールがY方向の動きを把握する。大半の
実施形態では、各エンコーダホイールは、それ自体に関
連付けられたマイクロコントローラ120への入力線を
持っている。マウスによっては、さらに別のエンコーダ
ホイールがマウスの上部にあるホイールの回転を把握す
る。
【0037】一部のマウスでは、線122を通じてマイ
クロコントローラ120に接続された、個別の光マイク
ロコントローラによってマウスのXおよびY方向の動き
を把握する。光マイクロコントローラは、光データを使
用してマウスの動きを判定する。光マイクロコントロー
ラはこの光データを運動値に変換し、これを入力線12
2に沿ってマイクロコントローラ120に伝送する。
【0038】ゲームパッドなどのゲームコントローラで
は、入力線122は、ゲームパッド上の複数スイッチの
投入を検出するための線と、ゲームパッドのホイールの
回転を検出するための線を含む。ジョイスティックの場
合、入力線122は、ジョイスティックの抵抗ワイパと
ジョイスティックのスイッチに接続された線を含むこと
ができる。ヘッドセットでは、線122は、マイクロフ
ォンによって生成されたアナログ電気信号の大きさを表
すマルチビットのデジタル値を搬送する複数の線を含
む。通例は、アナログからデジタルに変換する変換器が
このデジタル値を生成する。ヘッドセットの重量を減ら
すために、アナログからデジタルへの変換器およびマイ
クロコントローラ120は、コンピュータ中に位置する
サウンドボードの上に配置することができる。ヘッドセ
ットの重量をさらに減らすために、図2のマルチプレク
サおよびA/D変換器116もサウンドボードの上に実
施することができる。
【0039】マイクロコントローラ120は出力124
を生成し、これを図1のシリアルポートインタフェース
46に提供する。通例、出力124はシリアルのデジタ
ル値であり、どの運動センサまたはタッチセンサが起動
されたかを表す。キーボードの場合、このデジタル値
は、起動されたキーや、キーボード上の他の補助用コン
トロールまたはタッチセンサを一意に識別するスキャン
コードを含んでいる。マウスの場合、このデジタル値は
マウスパケットを含んでおり、これはマウスの各スイッ
チおよび各タッチセンサの現在の状態と、前回のマウス
パケットが送信されてからマウスホイールおよびマウス
ボールが移動した距離を記述する。
【0040】図3は、本発明のヘッドセット150の透
視図である。ヘッドセット150は、マイクロフォン1
52、支持ピース154、タッチセンサ156、および
出力線158を含む。支持ピース154は、ユーザの耳
の周囲で輪を描き、マイクロフォン152がユーザの口
の前に来るようにヘッドセットを支える設計になってい
る。
【0041】出力線158は、マイクロフォン152お
よびタッチセンサ156からの信号を伝搬する。いくつ
かの実施形態では、ヘッドセット150を、音声認識シ
ステムを含んだコンピュータシステムに接続する。その
ような実施形態では、音声認識システムは、ユーザがヘ
ッドセット150に触れていることをタッチセンサ15
6が示さない限り非アクティブになっている。音声認識
システムの起動は、ユーザが最初にヘッドセット150
に触れた際に、音声認識システムをランダムアクセスメ
モリにロードすることを含む。また、ランダムアクセス
メモリ中にある音声認識システムが入力音声信号を処理
できるように、それに指示を出すことも含むことができ
る。いずれの場合も、本発明は、ユーザがヘッドセット
に触れていることをヘッドセット150が示したときに
のみ音声認識システムを起動することにより、関係のな
い音声が音声認識システムで処理される可能性を低減し
ている。
【0042】図4Aは、本発明の例証的実施形態による
マウス170の一実施形態の透視図である。マウス17
0は、パームレスト172、左ボタン174、右ボタン
176、ホイール178、側面180、および出力線1
82を含む。パームレスト172、左ボタン174、側
面180の2つの側面領域184および186は、別々
の導電性フィルムで被覆されている。この導電性フィル
ムはそれぞれ、図2のセンサ100、102、104お
よび106など別々のセンサに接続され、その一部をな
す。
【0043】図4Bは、マウス170の下面図を示す。
マウス170は、トラックボールネスト192の中に置
かれたトラックボール190を含む。パームレスト17
2、側面180、左ボタン174、あるいは右ボタン1
76に加わる力によってマウス170を面上で動かす
と、トラックボール190がネスト192中で回転す
る。図4Cを参照すると、1対のエンコーダホイール1
94および196がこの回転を検出している。
【0044】図4Cは、マウス170の内部電子回路1
89の一部の透視図である。図が見やすいように、図4
Cではトラックボール190を省略している。内部の電
子回路189は、エンコーダ194および196を含
み、これが2つの直角方向のトラックボール190の動
きを検出する。エンコーダホイールはマイクロコントロ
ーラ200に提供する電気信号を生成する。マイクロコ
ントローラ200は、左ボタン174および右ボタン1
76の下にそれぞれ配置されたスイッチ202および2
04からの入力も受け取る。スイッチ202および20
4はそれぞれ、左ボタン174および右ボタン176が
ユーザによって押されるとそれを示す。マイクロコント
ローラ200は、ホイール178が押されたときにそれ
を示すスイッチ201からの信号、およびホイール17
8の回転運動を表すエンコーダホイール203からの信
号も受け取る。マイクロコントローラ200は、図4A
のパームレスト172、左ボタン174、および側面領
域184および186上の導電性フィルムに取り付けら
れた4つのセンサからの電気信号も受け取る。図4Cで
は、これら4つのセンサをまとめてセンサ配列206と
している。左ボタン174と側面領域184および18
6は、押すと起動して機能を実行する補助用コントロー
ルであってよい。
【0045】このように、本発明の例示的実施形態によ
るマウスは、マウスの特定の領域が触れられたとき、お
よびマウスの一部あるいはマウス全体が動かされたとき
に、それを検出することができる。具体的には、パーム
レスト172、左ボタン174、および側面領域184
および186上の導電性フィルムは、ユーザがこれらの
領域に触れるとそれを示す。ユーザがマウスを動かした
りボタンを押したりしなくとも、図4Aの導電性フィル
ムと関連付けられたセンサは、ユーザがマウスに触れる
と電気信号を発生することに留意されたい。エンコーダ
ホイール194および196は、ユーザがマウスを動か
すと1種類の(a separate)信号を発生し、
スイッチ202、204、および201は、ユーザがボ
タン174および176、およびホイール178をそれ
ぞれ押すと個別の電気信号を発生する。このように、本
発明による例示的マウスは、そのコントロールを操作す
るのに必要な手先の器用さをさらに必要とすることなく
機能を付加する。
【0046】本発明の代替実施形態では、トラックボー
ル190およびエンコーダホイール194および196
の代わりに、マウスが移動した表面の画像を収集してマ
ウスの位置の変化を判定する固体位置追跡装置を用い
る。この例示的実施形態によると、マウスは通例、表面
に光を当てるのに使用する光源と、表面の画像を収集す
るのに使用する光学システムと、様々な画像を比較し
て、マウスが移動しているか、また移動している場合に
はどの方向に移動しているかを判定するのに使用するプ
ロセッサとを含む。固体位置追跡装置は運動を電気信号
に変換することから、洗練されたトランスデューサまた
は運動センサと見なすことができる。
【0047】図5、6A〜6D、7A〜7B、8A〜8
B、9A〜9C、10A〜10H、11A〜11B、1
2A〜12B、13A〜13D、および14A〜14D
は、本発明の例証的実施形態によるマウスの代替構成を
示している。図5は、そのパームレスト600だけにタ
ッチセンサを有するマウスの上面図である。図6Aおよ
び6Bはそれぞれ、パームレストと、マウスの左側面に
センサを有する別個の例証的マウスの実施形態を示して
いる。側面図である図6Aでは、単一のセンサ602が
パームレストおよびマウスの左側面の両方を覆ってい
る。図6Bも側面図であるが、この場合は1つのセンサ
がパームレスト604を覆い、別のセンサが左側面60
6を覆っている。
【0048】図6Cおよび6Dは、それぞれパームレス
トとマウスの右側面にセンサを有する、本発明の別々の
例証的マウス実施形態を示している。右側面図である図
6Cでは、単一のセンサ603が右側面およびパームレ
ストの両方を覆っている。図6Dも右側面図であるが、
この場合は1つのセンサ605がパームレストを覆い、
別のセンサ607が右側面を覆っている。
【0049】図7Aおよび7Bはそれぞれ、パームレス
トおよびマウスの左側面に単一のセンサ608を有し、
マウスの左ボタン上に別のセンサ610を有する例示的
マウス実施形態の側面図と上面図である。図8Aおよび
8Bはそれぞれ、パームレストおよびマウスの左側面の
単一のタッチセンサ612、マウスの左ボタンのタッチ
センサ614、マウスの右ボタンのタッチセンサ616
を有する例示的マウス実施形態の側面図と上面図を示し
ている。
【0050】図9A〜9Cはそれぞれ、本発明の例証的
マウス690の左側面図、上面図、および右側面図を示
している。マウス690は、左側面センサ692、パー
ムセンサ694、右側面センサ696、およびボタンセ
ンサ698を含む。マウス690では、右側面センサ6
96および左側面センサ692は、パームセンサ694
とは別のものである。本発明の別の例証的実施形態で
は、この3センサを単一のセンサとして形成することが
できる。
【0051】図10A〜10Hは、様々な例示的マウス
実施形態の上面図を示すものであるが、マウスの左ボタ
ンのタッチセンサに可能な構成を示している。これらの
ボタン構成は、マウスの上に単独で配置しても、あるい
はマウスの他部分にある他のセンサと組み合わせて配置
してもよい。図10Aは、左ボタン全体にわたる単一の
固体センサ618を示す。図10Bは、6つのセンサス
トリップ620からなるセットを示しており、それぞれ
のセンサストリップは触れられると個別の電気信号を生
成する。図10Cは、隆起部628で分離された2つの
領域624および626を示す。領域624および62
6はどちらも、ボタン622の前端627で終わってい
る。図10Dは、隆起部636で分離された2つの領域
634および637を示しているが、領域634および
637はどちらもボタン630の側端631で終わって
いる。ボタン622および630の構成は、下記で述べ
るように文書を順に見ていく際に特に有用である。図1
0Eは、四角形641、642、643、および644
として形成された4つの個別のセンサ領域を有するボタ
ン640のボタン構成を示している。いくつかの実施形
態では、4つのセンサ領域を分ける線は、センサ領域と
は異なる形状的特徴を有する隆起部として形成する。図
10Fも、ボタン646上の4つの個別のセンサを示し
ている。図10Fでは、センサ領域650、651、お
よび652の3つがボタン646の前端部にあり、残り
のセンサ648がボタン646の残りの部分を覆ってい
る。図10Gは、キーパッドに似たレイアウトで9つの
センサ領域を配置したボタン660を示している。図1
0Hは、中央センサ674を囲む8つのセンサ672か
らなる外側の円を有するボタン670を示している。ボ
タン670の構成は、放射状のメニューを操作する際に
特に有用である。
【0052】図11Aおよび11Bは、マウスの両ボタ
ンに別々のセンサを含む例証的マウス実施形態を示して
いる。図11Aでは、ボタン700および702にはセ
ンサがあるが、パームレスト704にはセンサがない。
図11Bでは、ボタン706および708およびパーム
レスト710が個別のセンサを有する。
【0053】図12Aおよび12Bは、マウスの右側面
に沿って複数のセンサがある例示的マウス実施形態を示
す。図12Aは右側面図であるが、右側面上に2つのセ
ンサ720および722がある。図12Bでは、右側面
に3つのセンサ724、726、および728がある。
【0054】図13A〜13Dは、マウスの左側面に複
数のセンサがある例示的マウス実施形態の側面図を示
す。図13Aのマウスは、左側面に2つのセンサ734
および736を有する。図13Bのマウスは、それぞれ
一定の間隔で分離された3つのタッチセンサ738、7
40、および742を有する。図13Cのマウスも左側
面に3つのタッチセンサを有する。ただし図13Cで
は、センサ746と748の間に位置する真中のタッチ
センサ744は、表面が一段高くなっており、センサ7
46と748間の隆起部として形成されている。センサ
744の表面を高くすることにより、触覚によるフィー
ドバックをユーザに提供して、ユーザがマウスを見ずに
親指の位置を決められるようにしている。図13Dは、
マウスの左側面に複数のストリップ752があるマウス
実施形態を示す。
【0055】図12A〜12Bおよび図13A〜13D
の例示的実施形態はすべて、パームレストに置いたセン
サ、および/または左ボタンに置いたセンサ、および/
または右ボタンに置いたセンサと合わせて実施できるこ
とに留意されたい。
【0056】図14A〜14Dは、タッチセンサがマウ
スのホイールに近接した例証的マウス実施形態の上面図
である。図14Aでは、ホイール760の上に直接タッ
チセンサを置いている。図14Bでは、ホイール764
の前部に1つのタッチセンサ762を置き、ホイール7
64の後部に1つのタッチセンサ766を置いている。
図14Bの実施形態では、ホイール764にはタッチセ
ンサがない。図14Cでは、ホイール768の前部に1
つのタッチセンサ770を置き、ホイール768の後部
に1つのタッチセンサ772を置いている。さらに、ホ
イール768がタッチセンサを含む。図14Dの実施形
態では、ホイール774、ホイール774の前の前部領
域776、ホイール774の後ろの後部領域778、お
よびパームレスト780にタッチセンサを配置してい
る。
【0057】特に図5、6A〜6D、7A〜7B、8A
〜8B、9A〜9C、10A〜10H、11A〜11
B、12A〜12B、13A〜13D、および14A〜
14Dにおけるタッチセンサの位置に関して様々な例示
的実施形態を説明したが、センサはこの他の位置に含ん
でもよいことに留意されたい。例えば、一実施形態で例
示したタッチセンサの一部またはすべてを、別の実施形
態で例示したタッチセンサの一部またはすべてと組み合
わせることが可能である。さらに、図5、6A〜6D、
7A〜7B、8A〜8B、9A〜9C、10A〜10
H、11A〜11B、12A〜12B、13A〜13
D、および14A〜14Dに示すマウスの側面を含むが
これらに限定しないタッチセンサ位置の多くは、補助用
コントロールの上にある導電性フィルムでよく、この場
合そのコントロールを押すと起動して機能を実行するこ
とができることを理解されたい。この例では、コントロ
ールに触れると1セットの電気信号が生成され、コント
ロールを起動すると第2の電気信号セットが生成され
る。本発明の特定の例証的実施形態では、その補助用コ
ントロール(例えばボタン、ホイール)を含む各種のマ
ウスは、そのタッチセンシティブな表面に触れる物理的
存在(例えば指)、すなわち、表示ウィジェットを表示
画面上に表示すること、および/またはその他の(例え
ば音声や触覚による)フィードバックを生成することを
求める明示的なユーザ要求を表す物理的存在を検出する
ことができる。このフィードバックは、ステータス情
報、コントロールの機能、およびヘルプテキストといっ
た情報をユーザに提供することができる。この情報はア
プリケーションごとに異なってよい。本発明のいくつか
の実施形態では、表示画面上の表示ウィジェットの位置
は、タッチセンシティブな表面上での物理的存在の動き
の通りに表示することができる。
【0058】図15は、本発明の例証的トラックボール
220の透視図である。トラックボール220は、基部
222、ボタン224および226、およびボール22
8を含む。本発明の一実施形態では、トラックボール2
28は、基部222中の回転する3つの金属製ホイール
(図示せず)と接触する導電性フィルムで被覆すること
ができる。金属製ホイールの1つには、ホイールの後部
に位置し、スプリング力によってホイールに押し付けら
れる導電性シートが接触する。導電性シートはさらにタ
ッチセンサに接続され、ユーザがトラックボール228
に触れるとこのタッチセンサが電気信号を生成する。基
部222中の他の2つのホイールは、2つの直角方向の
運動センサ(図示せず)を形成し、基部222中のトラ
ックボール228の回転運動を把握することができる。
基部222はボタン224および226の下に2つのス
イッチを含んでおり、これはユーザがボタン224およ
び226を押すと電気信号を生成することができる。こ
のように、トラックボール220は、ユーザが単にボー
ル228に触れることに基づいて1種類の電気信号を提
供し、ユーザがトラックボール228を動かすか、ある
いはボタン224または226を押すのに基づいて別の
電気信号を提供することができる。また、起動すると機
能を実行することのできる1つまたは複数の補助用コン
トロールを、基部222上のトラックボール228の周
囲に配置してもよい。この補助用コントロールは、その
表面にタッチセンシティブな導電性フィルムを有するこ
とができ、ユーザがコントロールを押すのに応答して起
動し、機能を実行することができる。したがって、コン
トロールが触れられると1セットの電気信号を生成し、
コントロールが起動されると第2の電気信号セットを生
成する。本発明の例示的実施形態では、トラックボール
およびその補助用コントロール(例えばボタン)は、そ
のタッチセンシティブな表面に触れる物理的存在(例え
ば指)、すなわち、表示ウィジェットを表示画面上に表
示すること、および/またはその他の(例えば音声、触
覚による)フィードバックを生成することを求める明示
的なユーザ要求を表す物理的存在を検出することができ
る。フィードバックは、ステータス情報、コントロール
の機能、およびヘルプテキストといった情報をユーザに
提供することができる。この情報はアプリケーションご
とに異なってよい。本発明のいくつかの実施形態では、
表示画面上の表示ウィジェットの位置は、タッチセンシ
ティブな表面上での物理的存在の動きの通りに表示する
ことができる。
【0059】図16はジョイスティックを備えた例証的
ゲームコントローラの透視図であり、これは、基部24
2、ハンドル244、トリガ246、およびボタン24
8、250、252を含む。本発明の一実施形態では、
トリガ246は、基部242中のタッチセンサに接続さ
れた導電性フィルムで被覆することができる。さらに別
の実施形態では、ボタン248も、基部242中でそれ
とは別のタッチセンサに接続された導電性フィルムで被
覆することができる。トリガ246、およびボタン24
8、250、252はさらに、ユーザが個々のボタンま
たはトリガを押すと個別の電気信号を提供するスイッチ
に接続してもよい。ハンドル244は、基部242に対
するハンドル244の相対運動を追跡する1組のトラン
スデューサに接続することができる。このように、この
ゲームコントローラは、ユーザがトリガ246またはボ
タン248に触れると1セットの電気信号を提供し、ユ
ーザがハンドル244、またはトリガ246、ボタン2
48、250、252を動かすと別の電気信号セットを
提供することができる。
【0060】図17は、本発明による別の例証的ゲーム
コントローラの透視図である。図17には、ゲームパッ
ド260の形態のゲームコントローラを表している。ゲ
ームパッド260は、サイドボタン262および26
4、左手ボタン266、268、270、272、27
4、276、および右手ボタン278、280、28
2、284、286、288を有する。さらにゲームパ
ッド260は、開始ボタン290および選択ボタン29
2を有する。本発明のいくつかの実施形態では、サイド
ボタン262および264はそれぞれ、ゲームパッド2
60中で別々のタッチセンサに接続した導電性フィルム
で被覆することができる。ゲームパッド260はゲーム
パッドのボタンごとに1つの複数のスイッチも含むこと
ができる。したがって、いくつかの実施形態では、ゲー
ムパッド260は、ユーザがサイドボタン262および
264に触れたときにはそれを示す1セットの信号を提
供することができ、ユーザがゲームパッド260のボタ
ンを押すとそれを示す第2の電気信号セットを提供する
ことができる。
【0061】本発明の例証的実施形態では、その補助用
コントロール(例えばボタン、ジョイスティック、トリ
ガ)を含む図16および17のようなゲームコントロー
ラは、そのタッチセンシティブな表面に触れる物理的存
在(例えば指)、すなわち、表示ウィジェットを表示画
面に表示すること、および/または(例えば音声、触覚
による)その他のフィードバックを生成することを求め
る明示的なユーザ要求を表す物理的存在を検出すること
ができる。フィードバックは、ステータス情報、コント
ロールの機能、およびヘルプテキストなどの情報をユー
ザに提供することができる。この情報はアプリケーショ
ンごとに異なってよい。本発明のいくつかの実施形態で
は、表示画面上の表示ウィジェットの位置は、タッチセ
ンシティブな表面上での物理的存在の動きの通りに表示
することができる。
【0062】図18Aは、本発明の例示的実施形態によ
るキーボード300を示している。キーボード300
は、キーボードの左側に一般的なQWERTY配列30
2を有し、右側に数字キーパッド304を有する。数字
キーパッド304は数字0〜9を含んでおり、この数字
0〜9は3x3の枠に並んでいる。いくつかの実施形態
では、これら9つのキーすべてを導電性フィルムで被覆
することができる。別の実施形態では、キーボードの他
のキーおよび補助用コントロールを導電性フィルムで被
覆することができる。各キーの導電性フィルムは、キー
ボード300中の別々のタッチセンサに接続され、その
一部をなす。各キーが導電性フィルムを有するというこ
とは、それぞれのキーが2種類の信号を提供できること
を意味する。1つの信号は、ユーザがキーを押さずに触
れたときに提供することができ、第2の信号はユーザが
キーを押したときに提供することができる。
【0063】タッチセンサをさらに、キーボードケース
(casing)301の、スペースバー308の下の
部分306および307、矢印キー310の下の部分3
09、およびキーパッド304の下の部分311に配置
することができる。矢印キー310は通例、ユーザが表
示中でカーソルを動かすのに使用する。キーの上、およ
び部分306、307、309、311にタッチセンサ
を備えたキーボード300を示しているが、本発明の別
の例示的実施形態では、キーだけにタッチセンサを有す
るか、または部分306、307、309、311の1
つだけにタッチセンサを有してもよい。別の例示的実施
形態では、こうしたタッチセンサを別の組み合わせでキ
ーボード300に配置することができる。さらに、部分
306、307、309、311のタッチセンサの一部
またはすべてを近接センサにしてもよい。タッチセンサ
306、307、309、311は、ジョイスティッ
ク、ゲームパッド、タッチパッド、トラックボール、ボ
タン、つまみ、ロッカースイッチ、トリガ、スライダ、
ホイール、レバーなどを含むがこれらに限定しない多種
の補助用コントロールを表すことができる。近接センサ
は、ユーザの手がセンサに近づくとそれを検出すること
ができ、手が実際にセンサに接触する必要はない。一般
的に、ユーザが補助用コントロールに触れるがそれを起
動(例えば、押す、回す、回転する)しないと1種類の
信号が提供され、ユーザが補助用コントロールを起動す
ると第2の信号が提供される。本発明の例示的実施形態
では、その補助用コントロールを含むキーボードは、そ
のタッチセンシティブな表面に触れる物理的存在(例え
ば指)、すなわち、表示ウィジェットを表示画面上に表
示すること、および/または(例えば音声、触覚によ
る)その他のフィードバックを生成することを求める明
示的なユーザ要求を表す物理的存在を検出することがで
きる。フィードバックは、ステータス情報、コントロー
ルの機能、およびヘルプテキストなどの情報をユーザに
提供することができる。この情報はアプリケーションご
とに異なってよい。本発明のいくつかの実施形態では、
表示画面上の表示ウィジェットの位置は、タッチセンシ
ティブな表面上での物理的存在の動きの通りに表示する
ことができる。
【0064】図18Bは、本発明による別の例証的キー
ボードの一部を示しており、これはボタン312A〜3
12G、およびタッチセンシティブなコントロール用つ
まみ314を含む補助用コントロール入力を有する。ボ
タン312A〜312Gにはそれぞれタッチセンサがつ
いている。図18Cは本発明によるさらに別の例証的キ
ーボードを示すが、これはタッチセンシティブなロッカ
ースイッチ315、および各々タッチセンシティブなボ
タン312A〜312Gを備える。
【0065】図19は、本発明による例証的タッチパッ
ド2000の透視図である。このタッチパッドは、現在
カリフォルニア州サンホセのSynaptics Co
rporationから入手可能な従来型のタッチパッ
ドでよく、変更を加える必要はない。タッチパッド20
00は、タッチセンシティブな表面(タブレット)21
00からなっており、この表面は、ユーザの指が表面に
接触しその上を移動すると、指の2次元の位置と接触領
域(表面領域)を感知する。さらにタッチパッド200
0は、タッチセンシティブな表面の周辺に位置するボタ
ン2220、2240、2260、2280を含んでい
る。ボタン2220、2240、2260、2280の
1つまたは複数はタッチセンシティブでよい。このタッ
チパッドの出力は、図1に示すようなコンピュータシス
テムに送る(route)ことができる。本発明の実施
形態では、その補助用コントロールを含むタッチパッド
は、そのタッチセンシティブな表面に触れる物理的存在
(例えば指)、すなわち、表示画面上に表示ウィジェッ
トを表示すること、および/または(例えば音声、触覚
による)その他のフィードバックを生成することを要求
する明示的なユーザ要求を表す物理的存在を検出するこ
とができる。フィードバックは、ステータス情報、コン
トロールの機能、およびヘルプテキストなどの情報をユ
ーザに提供することができる。この情報はアプリケーシ
ョンごとに異なってよい。本発明のいくつかの実施形態
では、表示画面上の表示ウィジェットの位置は、タッチ
センシティブな表面上での物理的存在の動きの通りに表
示することができる。
【0066】以上の説明のように、入力装置のキー、ボ
タン、つまみ、ロッカースイッチ、あるいはその他の補
助用コントロールは、ユーザの手(例えば、指や手のひ
ら)あるいはスタイラスを含むがこれに限定しない物理
的存在の接触、またはその著しい近接状態を検出するセ
ンサで補うことができる。ここまで、マウス(図4A〜
14B)、トラックボール(図15)、ゲームコントロ
ーラ(図16および17)、キーボード(図18A〜1
8C)、およびタッチパッド(図19)を含む例証的な
入力装置を示し、それについて説明した。本発明の実施
形態によると、上記のような感知された信号を使用する
ことにより、ユーザが触れたコントローラに関連するス
テータスの画面表示、状態情報、またはその他のフィー
ドバックをユーザに提供することができる。
【0067】図20は、本発明の例示的実施形態による
メッセージルーティングシステムを説明するのに有用
な、コンピュータ20のより詳細なブロック図である。
図20で、入力装置43は、シリアルの2進信号をシリ
アルインタフェース46に提供する。入力装置43は、
上記で説明した、タッチセンサを有する入力装置および
その補助用コントロールのどれを含んでもよい。
【0068】シリアルインタフェース46は、入力装置
43からのシリアルの2進信号をパラレルのマルチビッ
ト値に変換し、それをデバイスドライバ60に渡す。本
発明の多くの実施形態では、デバイスドライバ60は、
図1のCPU21で実行するソフトウェアルーチンとし
て実施することができる。そのような実施形態では、デ
バイスドライバ60は入力装置固有のものにし、指定プ
ロトコルに基づいて特定の入力装置およびその補助用コ
ントロールと対話するように設計することができる。し
たがって、入力装置43がマウスである場合には、デバ
イスドライバ60は、マウスが生成したマウスパケット
をマウスパケットプロトコルを用いて受信するように設
計されたマウスドライバになる。入力装置43がキーボ
ードである場合、デバイスドライバ60は、キーが押さ
れていることまたはタッチセンサが触れられていること
を表すキーボードスキャンコードを受信するように設計
されたキーボードドライバになる。
【0069】デバイスドライバ60は、指定のプロトコ
ルに基いてマルチビット値をデバイスメッセージに変換
し、それをオペレーティングシステム35に渡す。この
デバイスメッセージは、入力装置でどのようなイベント
が起こったかを表す。例えばマウスのタッチセンサが触
れられた場合、このメッセージは特定のセンサが触れら
れていることを示す。タッチセンサから手が離れると、
タッチセンサから手が離れたことを示す別のメッセージ
がデバイスドライバ60によって生成される。
【0070】デバイスドライバ60によって生成された
メッセージは、このメッセージのルーティングを制御す
るオペレーティングシステム35に提供される。例証的
実施形態によると、デバイスメッセージは通常フォーカ
スアプリケーション812に送信される。フォーカスア
プリケーションとは、通例、ディスプレイで一番上にあ
るウィンドウを有するアプリケーションである。
【0071】いくつかの例証的実施形態では、オペレー
ティングシステム35は、そのオペレーティングシステ
ムに登録されたメッセージフックプロシージャのリスト
を維持している。そのような例証的実施形態では、オペ
レーティングシステム35は、デバイスメッセージをフ
ォーカスアプリケーション812に送信する前に、それ
をリストにある各メッセージフックプロシージャに逐次
渡す。このようなメッセージフックプロシージャを、図
20のメッセージフックプロシージャ810として包括
的に示している。メッセージフックプロシージャの大半
は、単にデバイスメッセージを評価して、何らかの措置
を講ずるべきかどうかを判定するものである。メッセー
ジフックプロシージャは、デバイスメッセージを評価す
ると値をオペレーティングシステム35に戻し、オペレ
ーティングシステムがそのデバイスメッセージをリスト
中の次のプロシージャに渡すことを示す。メッセージフ
ックプロシージャの中にはデバイスメッセージを「食べ
る」能力を有するものもあり、これは、オペレーティン
グシステムがそのデバイスメッセージを他のメッセージ
フックプロシージャまたはフォーカスアプリケーション
に渡すべきでないことを示す値をオペレーティングシス
テム35に戻すことによって行う。
【0072】メッセージフックプロシージャおよびフォ
ーカスアプリケーションは、特にタッチセンサが触れら
れたことを示すデバイスメッセージを使用して、下記で
説明する各種の機能を開始する。
【0073】例えば、図21および22が示すのは、図
4Aおよび図15それぞれのマウス170またはトラッ
クボール220など、本発明の例証的実施形態による入
力装置からの信号に基づいて生成されるデバイスメッセ
ージを利用する、本発明の各種のアプリケーションが表
示する画面の画像である。図21は、仮想デスクトップ
322を示す画面320の画像を表している。仮想デス
クトップ322は、アイコン324および326の画
像、ならびに開いたウィンドウ328を含んでいる。開
いたウィンドウ328は、ワシントン州レドモンドのマ
イクロソフト社製造のMicrosoft Word
(登録商標)として知られるワードプロセッシングアプ
リケーションに関連するものである。
【0074】ウィンドウ328で、開いた文書の文章中
にカレット330が置かれている。カレット330の位
置は、マウス170、またはトラックボール220のボ
ール228を動かすことによって決めることができる。
図21で、カレット330は、2本のより短い水平線の
間を延びる垂直線として表示されている。当業者は、カ
レット330は様々な形状にすることができ、通例デス
クトップ322上では矢印として表示されることを認識
されよう。
【0075】ウィンドウ328の文章中でのカレット3
30の位置によって、ツールヒント332が表示され
る。ツールヒント332は、カレット330の下にある
単語を誰が入力したのかを示している。
【0076】ウィンドウ328は、ウィンドウ328の
文書中に絵を書く際に使用することのできる描画ツール
を含んだツールバー334も含む。
【0077】図21に示すような本発明の例示的実施形
態によると、カレット330、ツールヒント332、お
よびツールバー334は、ユーザが、このワードプロセ
ッシングのアプリケーションであるツールヒントを提供
することを割り当てられた補助用コントロール(例え
ば、ボタンやボタンの組み合わせ)など入力装置の一部
に触れている間にのみ、ウィンドウ328中に表示され
る。ユーザがその入力装置に触れていないと、カレット
330、ツールヒント332、およびツールバー334
は消える。図22は、ユーザが入力装置の一部に触れて
いないときのディスプレイ320の画像を示している。
ユーザが入力装置に触れていないときにはツールバー3
34、カレット330、およびツールヒント332をな
くすことにより、本発明は、ウィンドウ328に見られ
る乱雑さを低減し、ユーザがウィンドウ328に示され
る文書を容易に読めるようにする。
【0078】当業者には、ユーザが入力装置に触れてい
ない際のカレット330、ツールヒント332、および
ツールバー334の消去は個別に制御できることが認識
されよう。したがって、ユーザはウィンドウ328をカ
スタマイズして、ユーザが入力装置から手を離すとツー
ルヒント332およびツールバー334は消えるが、カ
レット330は表示したままにすることが可能である。
さらに、アイテムが表示および再表示される際の速度も
制御することができる。したがって、ユーザが入力装置
から手を離してから触れると、画像が表示から徐々に消
え、そして徐々に表示上に戻すことが可能である。本発
明のいくつかの例証的実施形態では、なるべくユーザの
気を散らさないように、フェードアウト期間は0.7〜
1.0秒にし、カレットのフェードイン期間は0秒にし
て瞬時に表示されるようにし、ツールバーのフェードイ
ン期間は0.3秒にする。ある実施形態では、フェード
アウト時間は、ユーザが規定のデフォルト期間を用いて
設定できる変数にすることが可能である。
【0079】図23〜25は、図18Aのキーボード3
00からのキーボードメッセージの結果表示することの
できるプルダウンメニューを含んだ、一連の例証的表示
画面を示している。詳細には、図23の画面画像350
では、アプリケーションが、プルダウンメニュー356
の画像を含んだアクティブウィンドウ352を仮想デス
クトップ354上に生成している。プルダウンメニュー
356は、メニューバー358にある「Tools」の
名のメニュー見出しと関連付けられている。プルダウン
メニュー356は、ユーザがキーボード300の数字キ
ーパッド304のキーの1つに触れているが押してはい
ないことを示すキーボードメッセージに応答して表示さ
れる。
【0080】別の例示的実施形態では、ユーザは、数字
キーパッド304の数「4」および「6」を表すキーを
使用することにより、メニューバー358を左右に移動
することができる。ユーザがメニューバー358を横に
移動すると、それぞれのメニュー見出しについての異な
るプルダウンメニューを表示することができる。具体的
には、ユーザは数「4」を表すキーに触れることにより
キーボードメッセージをアプリケーションに送信させ、
アプリケーションは、ヘッダメニュー358中で現在の
メニュー見出しの左にあるメニュー見出しを表示するよ
うに表示を変更する。したがって、現在ウィンドウ35
2でメニュー見出し「Tools」についてのプルダウ
ンメニューが表示されている場合、数「4」を表すキー
に触れると、メニュー見出し「Insert」と関連付
けられたプルダウンメニューが表示される。同様に、ユ
ーザは数字キーパッド304の数「6」を表すキーに触
れることにより、現在のメニュー見出しの右のメニュー
見出しのプルダウンメニューを表示させることができ
る。したがって、現在表示されているプルダウンメニュ
ーがメニュー見出し「Tools」に関連づけられたも
ので、ユーザが数「6」を表すキーに触れた場合は、ヘ
ッダメニュー358中のメニュー見出し「Forma
t」と関連付けられたプルダウンメニューが表示される
ことになる。これを図24に示しているが、メニュー見
出し「Format」358についてのプルダウンメニ
ュー360が表示されている。
【0081】ユーザは、数字キーパッド304で数
「2」および「8」を表すキーに触れることにより、プ
ルダウンメニュー360などのプルダウンメニュー中で
上下にも移動することができる。ユーザがプルダウンメ
ニュー中を移動すると、プルダウンメニューの異なるア
イテムがハイライト表示される。ハイライト表示した項
目の一例は図25の項目362であるが、この図ではプ
ルダウンウィンドウ360の項目「Tabs」が現在の
項目としてハイライト表示されている。項目362が現
在の項目であるときにユーザが数「8」を表すキーに触
れると、それに関連付けられたキーボードメッセージを
受信するアプリケーションが、項目362の上に位置す
る項目364を現在の項目としてハイライト表示する。
項目362が現在の項目であるときにユーザが数「2」
を表すキーに触れると、項目362の下の項目366が
現在の項目としてハイライト表示される。
【0082】図24は、本発明の別の実施形態の説明に
も使用することができる。詳細には、プルダウンウィン
ドウ360は、カレットをメニュー見出し「Forma
t」の上に置き、図4Aおよび図15それぞれのマウス
170またはトラックボール220などのポインティン
グデバイスの選択ボタンを押すことによっても起動する
ことができる。ユーザは、ポインティングデバイスを項
目のリスト中で下方に移動することにより、プルダウン
ウィンドウ360中の項目を選択することができる。ユ
ーザが入力装置を移動すると、リスト中の個々の項目が
ハイライト表示される。
【0083】従来技術では、カレットをプルダウンメニ
ュー自体の外側に置いてもプルダウンメニュー360は
引き続き表示される。このプルダウンメニューを消す唯
一の方法は、メニュー自体の外側の領域でクリックする
ことである。しかし本発明の例証的実施形態によると、
プルダウンメニューを生成するアプリケーションは、ユ
ーザがポインティングデバイスから手を離したことを示
すマウスメッセージを受け取ると直ちにそのプルダウン
メニューを取り除く。これは、ユーザがヘッダメニュー
358と関連付けられたプルダウンウィンドウを閉じる
ために行わなければならない動きを減らすことによりユ
ーザの効率を改善する。
【0084】図26は、本発明の別の例示的実施形態に
よって表示される、放射状メニュー370を含む表示画
面の画像である。放射状メニュー370は、キャンセル
ボタン372の周囲に円形に配置された8つの項目37
1を含んでいる。放射状メニュー370は例えば、図1
8Aのキーボード300か、または図10Hのマウスの
ボタン670の上についたタッチセンサを使用して操作
することができる。
【0085】キーボード300を使用する場合、フォー
カスアプリケーションは、ユーザがキーパッド304の
キーの1つに触れたことを示すキーボードメッセージを
受け取ると放射状メニュー370を表示する。ユーザが
特定の項目をハイライト表示させるには、その項目と空
間的に関連づけられたキーパッド304中のキーに触れ
る。例えば放射状メニュー370の項目373をハイラ
イト表示するには、ユーザは、数「5」を表す中央キー
のすぐ上に位置する数「8」を表すキーに触れる。これ
は、キー「5」に対するキー「8」の空間的な位置づけ
が、項目373とキャンセルボタン372の空間的関係
と同じであるためである。ユーザが項目を選択するに
は、その項目をハイライト表示させるキーを押す。放射
状メニューを消すには、ユーザはキー「5」を押す。
【0086】図10Hのマウスのボタン670のタッチ
センサを使用して放射状メニューを操作するには、ユー
ザは単に放射状メニューの項目に対応するタッチセンサ
に触れればよい。単に対応するタッチセンサに触れるだ
けで、その項目がハイライト表示される。対応するタッ
チセンサに触れながらボタン670を押すとその項目が
選択される。アプリケーションは、2つの個別のマウス
メッセージに基づいて、2つのイベントが起こったこと
を判定する。第1のマウスメッセージは、どのタッチセ
ンサが現在触れられているかを示す。第2のマウスメッ
セージは左ボタンが押されたことを示す。
【0087】本発明の例証的実施形態によると、タッチ
センシティブなコントロールおよび装置の使用は、ユー
ザにとって透過にすることができる。状況のコンテクス
トは、コントロール装置をつかむ、装置に触れる、ある
いは接近するといった、コントロールとのユーザの前段
階的な行動によって示される。図18Bを参照し、例と
して、コントロール用つまみ314の現在の機能が、メ
ディアに関連する音声の音量のコントロールであるとす
る(システムで生成される他の音声の音量のコントロー
ルに対して)。この例で、ユーザが音量を変えたい場合
には、その手をコントロール用つまみ314に近づける
か、あるいはつまみに触れることが考えられる。ユーザ
がつまみを回してコントロール用つまみ314を起動す
る前に、図27に示すように、画面による音量表示の形
態の音量のステータスを含んだ音量コントロール用GU
Iを画面に表示することができる。するとユーザはコン
トロール用つまみ314を回して音量を調節するか、ま
たはコントロール用つまみ314を回さずにそれに触れ
ながら、キー(例えば矢印キー)、マウス、あるいはそ
の他のポインティングデバイスなど別のコントロールを
用いてポインタ(例えばカレットや矢印)をGUIの中
に移動し、音量を変えることができる。GUIが表示さ
れた状態でユーザがコントロール用つまみ314に触
れ、そしてキーまたはポインティングデバイスを使用し
て音量を変えた場合、音量状態の変化は直ちにGUI、
または表示画面上の他の場所に表示することができる。
ユーザがコントロール用つまみ314から手を離すと、
システムはそのGUIがもはや必要でないことを知り、
知覚可能な遅延を置かずにGUIを消すことができる。
実施形態によっては、ポインティングデバイスがGUI
との対話を続ける限り、あるいはカーソルがGUIの上
にある限りGUIは表示されている。
【0088】本発明の別の例証的実施形態では、ユーザ
が、その起動は行わずにコントロール用つまみ314に
接近するか、または触れると、瞬時にツールヒントなど
の表示ウィジェットを表示画面に表示することができ、
これによりコントロール用つまみ314の現在の機能を
識別することができる。ツールヒントは例えば、次のよ
うな機能の1つを示すことができるが、機能はこれに限
定するものではない。 1)オーディオおよびビデオアプリケーションを含む多
種アプリケーションのチューニング、2)メディアアプ
リケーションの音量コントロール、3)システムで生成
されるサウンドの音量コントロール、および4)複数の
設定(例えば、輝度、トリミング(croppin
g)、色など)を有する多数の機能のコントロール。別
の例証的実施形態では、ユーザがコントロール用つまみ
314などのコントロールに接近すると、LEDまたは
LCD単体により、あるいは表示画面の表示ウィジェッ
トに加えて、視覚的フィードバックを実際のコントロー
ル用つまみに提供することができる。さらに別の例証的
実施形態では、聴覚または触覚(例えばバイブレーショ
ン)によるフィードバックを単独で、または表示画面、
入力装置および/またはコントロールへの視覚的フィー
ドバックに加えて、または相互に提供することができ
る。したがって、入力装置またはコントロールは、ホス
トコンピュータを関係させ、あるいはホストコンピュー
タと情報を共用して、またはそのようなことは行わず
に、直接フィードバック(例えば音声によるフィードバ
ック)を提供することができる。さらに別の例示的実施
形態では、コントロール用つまみ314などのコントロ
ールの1つまたは複数の部分(例えば上面や側面)が独
自に接触やユーザの近接状態を検出し、コントロールの
どの部分が触れられているかに基づいてホストコンピュ
ータに対して独自のメッセージを生成することができ
る。
【0089】図18Cのキーボード入力装置に基づく本
発明の別の例証的実施形態では、タッチセンシティブな
ロッカースイッチ315を提供することができる。ある
コンテクストでは、ワシントン州レドモンドのマイクロ
ソフト社製造のWindows(登録商標)98などの
オペレーティングシステムで現在使用されている「Al
t」キーと「Tab」キーの組み合わせを使用するのと
同様に、ロッカースイッチ315によりユーザがアプリ
ケーションを切り替えることができる。すなわち、ロッ
カースイッチ315により、ユーザは実行中のアプリケ
ーション間を移動することができる。具体的には、ユー
ザがロッカースイッチ315に触れるか、あるいは接近
すると、現在実行中のアプリケーション各々のアイコン
を示す画面上表示が示され、図28に示すように最前面
にある(ウィンドウが重なる順序で一番上にある)アプ
リケーションがハイライト表示される。ユーザは、ロッ
カースイッチ315を押すことにより、ディスプレイの
最前面に持って行きたい所望のアプリケーションをハイ
ライト表示するために、アプリケーション間を移動する
ことができる。この順序は、アルファベット順、あるい
は前回各アプリケーションがディスプレイの最前面にあ
った時など、複数の方式で決定することができる。ロッ
カースイッチ315から手を離すとハイライト表示され
たアプリケーションが選択され、ディスプレイの最前面
に来る。タッチセンシティブなロッカースイッチ315
は、この他にも多数の応用例で使用できることを理解さ
れたい。これには、スイッチへのユーザ接触あるいは著
しい近接状態に応答して様々なアイテムを表示するこ
と、スイッチを押すのに応答してアイテムをハイライト
表示すること、およびスイッチの接触状態の解除、ある
いはスイッチから遠ざかることによりリストからアイテ
ムを選択すること、が含まれる。
【0090】例示的なキーボード入力装置の各種の補助
用コントロール、およびその接触に対するコンテクスト
に即した反応の例示的な実施を下の表1ないし表5に列
記する。各種のコントロールおよび反応は、ゲームコン
トローラ、トラックボール、マウス、タッチパッドなど
他の入力装置にも応用できることを理解されたい。
【0091】
【表1】
【0092】
【表2】
【0093】
【表3】
【0094】
【表4】
【0095】
【表5】
【0096】以下の表6では、本発明による例示的マウ
ス入力装置への接触に対する、コンテクストに即した反
応の例示的な技術について説明する。
【0097】
【表6】
【0098】タッチセンシティブなコントロールへのユ
ーザの接触に応答して画面に提供できる各種の視覚的フ
ィードバックに加えて、いまひとつの可能性は、キーの
組み合わせまたは他のコントロールに、それぞれコピー
機能(例えば「Ctrl」キーと「c」キーを同時
に)、およびペースト機能(例えば「Ctrl」キーと
「v」キーを同時に)を実行させるように設定する場合
に、図29Aおよび29Bに示すような標準的なツール
ヒントを表示することである。すなわち、ユーザが「C
trl」キーと「c」キーに同時に触れると、図29A
に表示する「Copy」のツールヒントが画面に現れ、
ユーザが「Ctrl」キーと「v」キーに同時に触れる
と、図29Bに示す「Paste」のツールヒントが画
面に現れる。
【0099】通例、画面上表示は、ユーザが触れる入力
装置に関係なくその時点のカーソルまたはポインタ(例
えばカレット)位置の近くに配置することができる。例
えば、キーボードのツールヒントをカーソルの隣に表示
することができる。画面上表示を上記の現在のカーソル
位置の右上に表示する(pop up)ことは有益であ
る。これは、ワシントン州レドモンドのマイクロソフト
社製造のWindows(登録商標)オペレーティング
システムで、ユーザがポインタをアイコンの上に乗せた
状態で停止している時に表示される、従来のツールヒン
トとその画面上表示が重なら(conflict wi
th)ないからである(従来のツールヒントは、ポイン
タまたはカーソルの右下に表示される)。ツールヒント
は、ユーザがポインティングデバイス(例えばマウス)
によりカーソルまたはポインタを移動すると、カーソル
またはポインタの後をたどって行くようにすることも、
またはそれが最初に表示された点に静止したままにする
こともできる。ツールヒントをカーソルとともに移動す
るよりも、それが表示される場所にツールヒントを維持
しておく方が実施が容易であり、かつより効率的であ
り、ユーザにも受け入れられやすいと考えられる。本発
明の別の例示的実施形態によると、表示ウィジェット
は、画面中央、その時アクティブな(「フォーカス」)
アプリケーションまたはウィジェット(例えばテキスト
入力ボックス)の中央、画面下部、あるいはシステムト
レーアイコンの上部、に表示することができる。
【0100】図30Aおよび30Bは、別の例示的な表
示ウィジェット(画面上表示)を示しているが、この図
では、本発明の例証的実施形態により、ユーザがプログ
ラマブルなキーボードホットキーおよびファンクション
「F」キーに触れるのに応答して表示することのでき
る、各アプリケーションについてのキーボードコントロ
ール機能を例示している。ユーザが単にキーに触れただ
けで起動しないと、画面上表示は、そのキーが何である
か、および/またはそのキーが行う動作を示すことがで
き、その機能は実際には実行されない。図30Aは、ユ
ーザがキーに触れるのに応答する、キーボードホットキ
ーの設定をカスタマイズする、あるいは見るための(例
えばマウスや他のポインティング装置によって)選択可
能なオプションを含んだキーボードホットキーのGUI
の画面上表示の例を示している。すなわち、ユーザはこ
のGUIの「Reassign HotKey」の領域
をクリックして、そのホットキー(キーの組み合わせで
もよい)の現在の機能を見、そのホットキーの機能を割
り当てを変えることができる。図30Bには、ユーザが
あるキーに触れるのに応答した、キーボードホットキー
の設定をカスタマイズする、あるいは見るための選択可
能なオプションを含んだキーボードホットキー用のGU
Iの画面上表示の別の例を提供する。図30Bが図30
Aと異なるのは、そのキーが何であるか、およびその動
作(例えば「マイコンピュータ」アプリケーションの起
動)についてのより詳しい情報をユーザに提供する点で
ある。実施形態によっては、触れることによって起動さ
れるGUIは、ユーザがそれに関連付けられたコントロ
ールに触れると直ちにキーボードフォーカスを受け取る
ことができる。これにより、ユーザは即座に上記の例
「Reassign HotKey」の「R」のキーを
打って、それに代わる機能を起動することができる。別
の実施形態では、接触によって起動するGUIはキーボ
ードフォーカスを受け取らない。ユーザは、マウスでG
UIをクリックするか、例えば「Alt」キーと「Ta
b」キーの組み合わせや、上層の(top leve
l)切り替えるための別の方法を用いてキーボードフォ
ーカスに切り替えなければならない。この後者の実施形
態は、ユーザがそれに受け取らせるつもりでないキーボ
ード入力を、接触で起動するGUIが受け取らないよう
にしている。好ましい実施形態は、特定の入力装置、そ
の装置のタッチセンシティブなコントロール、現在のア
プリケーション、あるいはユーザの嗜好の詳細に応じて
決まる。
【0101】本発明の別の例示的実施形態では、各ホッ
トキーにテキストマクロを割り当てることができ、この
場合はホットキーを起動すると、例えば画面上のカーソ
ル位置にテキストのブロックが挿入される。このような
コンテクストで使用する場合、あるホットキーに触れる
と、図31に示すようにそのホットキーに割り当てられ
たテキストマクロの全文ではなくとも少なくとも始めの
部分あるいはその他の部分が表示される。画面上表示の
ウィンドウは、テキスト全文を表示するために、そのテ
キストマクロに割り当てられたテキスト量に応じて自動
的にサイズを調整することができる。このコンテクスト
はスクロールコントロールと合わせて使用することもで
き、ユーザがそのテキストマクロを割り当てられたホッ
トキーに触れている間そのテキストをスクロールするこ
とができる。
【0102】先に述べたように、本発明のいくつかの例
示的実施形態によると聴覚または触覚によるフィードバ
ックを利用することができる。聴覚または触覚によるフ
ィードバックは、ディスプレイ上の視覚的なフィードバ
ックと合わせて、あるいはそれとは別に使用することが
できる。場合によっては、その際実行中のアプリケーシ
ョン、その際使用している入力装置、あるいはユーザの
好みにより、視覚的なフィードバックが適当ではなく聴
覚によるフィードバックが望ましい場合もある。
【0103】本発明のある実施形態によると、ユーザが
あるコントロールに触れると、適切なキュートーン(c
ue tone)やその他のサウンドなど聴覚によるフ
ィードバックを生成することができる。所望のオーディ
オキュートーンを、特定の機能またはコントロールに割
り当て(map)ることができる。音量、音の高低、お
よび音色を調整して、音声で生成されるコントロール機
能の通知など所望のサウンドをまねた適切なキューを作
ることができる。キューサウンドは、パラメトリックな
サウンドイベント要求を受け取り、MIDIウェーブテ
ーブルシンセサイザ662を使用し、音声生成装置64
0(例えば、Creative Labs AWE64
Goldカードサウンドボード)でそれを順番に配列
することによって生成することができる(図6参照)。
音声キューごとに正確な音声パラメータを設定し、その
音声キューを適切に合成し、キューをそれに対応するコ
ントロールおよび/または機能と関連付けるための具体
的な技術はすべて当業者には容易に明らかになるもので
あり、また本発明の一部を形成するものではないので説
明の簡略化のために省略している。
【0104】機能およびその他の情報を識別するための
聴覚的フィードバックは、ワシントン州レドモンドのマ
イクロソフト社製造のMS Game Voice(商
標)などゲームのアプリケーションおよび製品に特に有
用である。例えば、ゲーム製品は、パック(puck)
に取り付けられたヘッドセットマイクロフォンの組み合
わせを含むことがある。ユーザは、パックにより、自分
が一緒にプレーしている人々およびチームの複数の組み
合わせと選択的に話をすることができる。各々の者に
は、コード(1、2、3...)およびチーム(A、
B、C...)が自動的に割り当てられる。問題が生じ
うるのは、プレーヤがどのコードがどのプレーヤおよび
チームに対応しているのかを記憶しておかなければなら
ない場合である。ユーザがあるボタンが誰に割り当てら
れているかについての確認(reminder)が欲し
い場合は、あるコントロール(例えば数字キー)に触れ
ると、そのコードに割り当てられた者の名前の聴覚フィ
ードバックを自分のヘッドセットを通じて受け取ること
ができる。
【0105】表1ないし表5に明らかにした本発明の一
例示的実施形態では、入力装置上の複数の接触領域を使
用することにより、インターネットブラウザによって提
供されるウェブページ間を移動することができる。複数
のタッチセンシティブな領域を有し、ページ間を移動す
るのに有用な入力装置の例には、特に図10C、10
D、12A、12B、13A、13B、および13Cの
マウスが含まれる。図10Cの場合、領域624に触れ
てから領域626に触れるとページを戻る機能が開始さ
れ、領域626に触れてから領域624に触れるとペー
ジを進む機能が開始される。図10Dでは、領域637
に触れてから領域634に触れるとページを戻る機能が
開始され、領域634に触れてから領域637に触れる
とページを進む機能が開始される。図12Aおよび12
Bでは、それぞれ領域722および724に触れてか
ら、それぞれ領域720および728に触れるとページ
を進む機能が開始され、それぞれ流域720および72
8に触れてから、それぞれ領域722および724に触
れるとページを戻る機能が開始される。図13A、13
B、および13Cでは、それぞれ領域734、738、
746に触れてから、それぞれ領域736、742、7
48に触れるとページを進む機能が開始され、それぞれ
領域736、742、748に触れてから、それぞれ領
域734、738、746に触れるとページを戻る機能
が開始される。
【0106】本発明の例証的実施形態によるマウスは、
2つのタッチセンサに連続して触れる代わりに1つのタ
ッチセンサに触れるだけで、ページ間移動機能を開始す
るように構成できることに留意されたい。したがって、
図10Cでは、領域624に触れるとページを進む機能
が開始され、領域626に触れるとページを戻る機能を
開始することができる。同様に、図13Aの領域734
に触れることによりページを進む機能を開始し、図13
Aの領域736に触れることによりページを戻る機能を
開始することができる。これに関連して、本発明のタッ
チセンサは、1998年9月14日に出願された米国特
許出願第09/153,148号「INPUT DEV
ICE WITH FORWARD/BACKWARD
CONTROL」に記載されるサイドスイッチの機能
を提供するものである。上記発明の発明者は本発明の譲
受人にその出願を譲渡する義務を負っていた。
【0107】上記のようなタッチエリアを使用して行う
ページ間移動機能を図32〜34に示す。図32のディ
スプレイ460は、現在のページ464を表示したイン
ターネットブラウザウィンドウ462を示している。ユ
ーザは、現在のページ464の前に表示されていたイン
ターネットページに戻ることにより、図33のインター
ネットブラウザウィンドウ472に示す過去のページ4
70を表示することができる。ユーザは、上記のような
タッチセンサの組み合わせを使用して、図34のディス
プレイ480のブラウザウィンドウ478に示す次のペ
ージ476に進むことができる。次のページ476に進
むためには、ユーザはどこかの時点で次のページ476
から現在のページ464に戻らなければならない。
【0108】タッチセンシティブなコントロールへの接
触、あるいは著しい近接状態に対する様々な反応は組み
合わせて使用できることを理解されたい。例えば、ユー
ザがあるボタンに最初に接触した際にはそのボタンの機
能を表示することができる。一実施では、ユーザが規定
の時間量(例えば5秒間)よりも長くそのボタンへの接
触を続けると、より詳細なステータス情報を表示する
か、あるいはユーザがGUIを利用できるようにするこ
とが可能である。あるいは、所定の時間内にわたって同
じボタンに継続的に接触すると、そのボタンの機能が表
示されその後GUIが現れるなど異なるタイプの情報を
表示させることができる。最初の接触の後に触覚または
聴覚によるフィードバックを提供することもでき、所定
の時間内に2度目の接触があるか、規定の時間にわたっ
て接触が検出されると、1度目と同じ情報あるいはより
詳細な情報の表示が現れる。
【0109】入力装置またはその装置の補助用コントロ
ールとユーザとの接触、または近接状態が検出されるの
に応答して、表示ウィジェットの画面上表示が瞬時に起
こるようにすることが可能である。しばしば、例えばユ
ーザが単に触れるのではなくある機能を起動するために
コントロールまたは装置を起動する場合に、表示ウィジ
ェットが画面にすぐに現れて消えないように、画面への
表示ウィジェットの表示をわずかに遅らせることが望ま
しい場合がある。表示ウィジェットの表示を所定の時間
量遅らせることにより、アクティブ状態のアプリケーシ
ョンや、入力装置およびその補助用コントロールの動作
に精通しており、ある機能を起動するために装置または
そのコントロールを直ちに起動する(例えばボタンを押
すなど)ユーザに対して、例えばツールヒント情報を含
んだ表示ウィジェットを不必要に表示しないようにする
ことができる。表示の制御に対応するための本発明によ
るいくつかの例示的技術について以下で説明する。
【0110】本発明の一実施形態では、およそ0.3秒
間の短い時間を使用する。この例では、ユーザがこの短
時間以下にわたって、キーまたはその他のコントロール
に接触するが、それを起動しないと画面上表示が表示さ
れる。この短い時間に達する前にユーザがコントロール
を起動した場合は、ユーザがコントロールに接触したの
に応答する画面上表示は表示されない。
【0111】本発明のいくつかの実施形態によると、コ
ントロールを起動する(例えばつまみを回す)と、制御
されている機能の状態(例えば音量)が変化し、ユーザ
が状態(例えば音量設定)を変えると(例えば音量設定
用の)GUIを表示することができる。これに対し、短
時間全体にわたって起動せずに触れた場合は、その機能
の既存の状態(例えば現在の音量)を表すGUIを表示
させることができ、その状態は変化しない。
【0112】同様に、本発明の実施形態によると、ユー
ザがコントロールとの接触をやめた際の、画面上表示の
消去またはフェードアウトの制御にも短い時間を使用す
ることができる。この例では、画面上表示は短い時間中
には表示されたままで、その時間を過ぎると、画面上表
示は消えるか、またはフェードアウトする。短い時間に
達する前にユーザが再度コントロールに触れると、画面
上表示は表示されたままになる。これと同様の時間は、
ユーザによるコントロールへの接触を検出すると表示ウ
ィジェットを消去し(すなわち消えるか、またはフェー
ドアウトする)、コントロールとの接触をやめると表示
ウィジェットが再び現れるか、あるいはフェードインす
るような本発明の実施形態に応用できることを理解され
たい。
【0113】本発明の例証的実施形態によると、ツール
ヒントまたはその他の情報を含んだ表示ウィジェットを
表示する際、その表示の方式は、コントロール、タイム
アウト、およびマウスの動きなど他の情報を含む複数の
基準に基づくことができる。図35A〜35Cは、ツー
ルヒントのような表示ウィジェットを表示画面に表示さ
せるタッチセンシティブなマウスに関連する時間設定
(timing)および条件についての、3つの例示的
な代替案を図式的に示したものである。
【0114】図35Aは、短いタイムアウト(Δt)の
後にボタンのツールヒントが表示画面に表示される例示
的実施形態の時間設定図を示している。図でボタンに触
れる時間が短いタイムアウト期間(Δt)未満になって
いるように、ユーザがわずかな間ボタンに触れるか、起
動する前にわずかな間ボタンに触れるか、あるいはうっ
かりタッチセンサをかすった場合でも、タイムアウトが
ボタンツールを抑制している。また、図に示すように、
短いタイムアウト(Δt)よりも長くボタンに触れると
ツールヒントが表示される。このツールヒントは、ユー
ザがボタンとの接触を解除するまで表示されている。こ
の例では、マウスの動きはツールヒントの表示にまった
く影響を与えない。
【0115】本発明の例証的実施形態の図35Bの時間
設定図によると、ボタンのツールヒントは、ユーザがボ
タンに触れ(起動はしない)、マウスを動かした時には
表示されない。ユーザが、タイムアウト期間(Δt)に
わたってボタンへの接触を続け、マウスの移動をやめる
と、そのボタンのヒントが表示される。図35Aのよう
に、ツールヒントはユーザがボタンとの接触を解除する
まで表示されている。
【0116】図35Cに示す時間設定図では、ユーザが
ボタンに触れマウスが静止しているときに、ユーザがタ
イムアウト期間(Δt)にわたってそのボタンに触れ続
け、マウスを動かさないとツールヒントが表示される。
図35Aおよび35Bと同様に、このツールヒントはユ
ーザがボタンとの接触を解除するまで表示されている。
【0117】タッチセンシティブな入力用コントロール
についての表示の表示方式の別の態様は、ユーザによる
ボタンまたは他の入力用コントロールの起動に対する、
ツールヒントまたは他の表示ウィジェットの反応に関連
するものである。ユーザはコントロールを起動してしま
うと、もはやフィードバック(起動の結果行われる動
作、その他についての)を希望しない場合がある。例え
ば、ユーザがあるボタンをクリックした(ボタンダウン
イベント)時に、そのボタンのツールヒントを瞬時に消
す(またはフェードアウトする)ことができる。また、
ユーザがボタンへの接触を続けていてボタンアップイベ
ントが発生したときには、ボタンのツールヒントを再度
表示しても、または隠したままにしてもよい。このコン
ピュータシステムでは、ツールヒントが消える前に、そ
のボタンクリックをツールヒントに表示される情報と関
連付ける視覚的フィードバックを表示することもでき
る。図36Aに示す時間設定図で表すような例証的実施
形態によると、ボタンクリックによってボタンダウンイ
ベントが起こると、ユーザがそのボタンを離し、起動せ
ずにそのボタンに再度触れてから期間Δtが経過するま
で、そのボタンのツールヒントは再び表示されない。別
の表現で説明すると、図36Aに示すように、あるボタ
ンの起動後、そのボタンのタッチセンサの次の立ち上が
りエッジの後そのボタンのツールヒントは表示されな
い。図36Bの時間設定図によって表す本発明の別の実
施形態によると、ボタンダウンイベントの後にボタンア
ップイベントがあった後、タイムアウトΔtの経過時に
ユーザがそのボタンとの接触を維持していればボタンの
ツールヒントが再び表示される。
【0118】本発明の別の実施形態は、1つの入力装置
の複数のコントロールへの同時の接触に関するものであ
る。ユーザが第2のコントロールに触れながら、1つの
コントロールとの接触を維持した場合は、第2コントロ
ールについての画面上表示または他のフィードバックが
生成される。あるいは、例えばキーの組み合わせなどの
コントロールの組み合わせによって、特定の機能を定義
することができる。この例では、その組み合わせ(例え
ばキーの組み合わせ)のツールヒントは、2つのキーが
同時に触れられ起動されないときに表示されるが、第1
のキーへの接触に関連付けられたツールヒントがある場
合には、その上に重なる形で表示される。ユーザがコン
トロールの1つから手を離すと、画面上表示は完全に消
え、もう一方の触れられているコントロールについての
フィードバックを元の状態に戻すことができる。
【0119】本発明の別の実施形態では、GUIの形態
の画面上表示が表示される、あるいはフェードインする
と、そのGUIは、カーソルまたはポインタ(例えばマ
ウスの動きによる)をその中に置いても、ユーザがその
GUIを表示させたコントロール(例えばタッチセンシ
ティブなマウスのボタン)との接触をやめても表示され
ている。この例のGUIは、最終的には、そのGUIの
外側でのカーソルの動き(例えばマウスの動き)や別の
コントロールの起動に応答して、または、コンピュータ
がマウスの動きなどの入力を全く受信しない所定の非ア
クティブ期間(例えば5秒間)の後に消えることができ
る。
【0120】本発明の例証的実施形態によると、画面上
表示は、アニメーションによる変化を使用してフェード
インおよびフェードアウトすることができる。画面上表
示の表示および消去を制御する技術は、単独で使用して
も組み合わせて使用してもよいことを理解されたい。以
下で、アニメーションによる変化を提供する本発明の一
実施形態について図37との関連で説明する。
【0121】図37は、PC20内に位置し、Tool
Glassシートまたはツールバーのような表示ウィ
ジェットをオンデマンド方式で表示および消去するため
の、高レベルのソフトウェアおよびハードウェア構成要
素の簡略化ブロック図900を表している。図37に示
すように、これらの構成要素には、アプリケーション3
6、オペレーティングシステム35、ビデオアダプタ4
8、ディスプレイ47、入力インタフェース46、およ
び入力装置43が含まれる。アプリケーションプログラ
ム36(例えばワードプロセッシングまたは表計算のプ
ログラム)はその中にGUI910を含むことができ、
そのGUIの中に、フェードイン/フェードアウトアニ
メーションプロセス915と、ビットマップジェネレー
タ920を含むことができる。ビットマップジェネレー
タ920は、Tool Glassパターン922、ツ
ールバーパターン924、およびその他の表示ウィジェ
ットパターン926を含んでいる。他の構成要素には、
オペレーティングシステム35内の入力装置ドライバ6
0、およびグラフィックAPI(アプリケーションプロ
グラミングインタフェース)940が含まれる。
【0122】入力装置43から提供される接触出力は、
それぞれ線(lead)903および907で表すよう
に入力インタフェース46に加えることができる。この
インタフェースは、各入力装置のそれぞれのタッチセン
シティブな構成要素(例えば補助用コントロール)の接
触センサによってその時に接触が感知されているかまた
はされていないかを反映した個別の信号を生成すること
ができる。これらの信号は、線905で表すように、オ
ペレーティングシステム35内で構成要素を形成してい
る入力装置ドライバ60に送ることができる。このデバ
イスドライバは入力装置が生成した信号を解釈し、それ
に応答して適切なイベントを生成する。接触に関して
は、このイベントで、特定の入力装置と、例えば手の接
触が検出されるかなどそれに対応するタッチセンサの状
態を指示することができる。このイベントはオペレーテ
ィングシステム35によりアプリケーション36に渡
し、最終的にはそのアプリケーションの中のGUIプロ
セス910に渡すことができる。このプロセス中で、イ
ベントは、フェードイン/フェードアウトアニメーショ
ンプロセス915によって処理される。アニメーション
プロセスは、各入力装置の状態変化の発生、すなわちそ
の装置が手の接触の感知を開始したばかりであるかまた
は接触の感知をやめたところであるか、および表示ウィ
ジェット(例えばTool Glassまたはツールバ
ー)が現在表示されているかいないかに応答して、表示
ウィジェットを制御可能な方式でフェードインまたはフ
ェードアウトするための所定のアニメーションシーケン
スを生成する。
【0123】ビットマップジェネレータ920は、通例
はテクスチャマップである所定のパターン922、92
4、および926を記憶しているが、これらはそれぞれ
Tool Glassシート、所定のツールバー、およ
び/または他の表示ウィジェットを含む各種の表示ウィ
ジェット用である。通例、これらのパターンは別々のフ
ァイルとしてアプリケーション内に記憶されている。ア
プリケーションプログラム36が起動されると、そのア
プリケーションは、初期化中、またはウィジェットの変
更があればその後に、線930を介してこのパターンを
グラフィックAPI940にダウンロードする。グラフ
ィックAPI940はこのパターンをグラフィックアク
セラレータ(図示せず)に送り、その中にあるローカル
ストレージにテクスチャマップとして記憶させることが
できる。あるいは、このダウンロードはオペレーティン
グシステム35が提供するサービスによって管理しても
よい。
【0124】それに続く表示中に、アクセラレータはそ
のローカルストアから上記のマップを読み出し、それを
適切に多角形に埋め、その結果得られるマップを埋めた
パターンをディスプレイ47に描画する。次いで、制御
されたフェードインまたはフェードアウト動作のために
このマップをダウンロードすると、アニメーションプロ
セス915は、グラフィックアクセラレータがそれに対
応する表示ウィジェットのマップを埋めたパターンを描
画する際のアルファ透明値を変える。ツールバーの場
合、アルファ透明値は透明値の範囲全体にわたって変化
させる(すなわち、0〜1αの線形目盛でおよそ0αか
ら1.0αの間。この場合0αが完全な透明で、1.0
αが完全な不透明になる)。Tool Glassシー
トの場合、アルファ透明値は、通例0αからおよそ0.
7αの範囲で変化させる。つまり、最大の不透明度で描
画したTool Glassシートでも、その下にある
文書オブジェクトはなおシートを通して(多少ぼやけ
て)見ることができる。
【0125】基本的に、フェードインまたはフェードア
ウトの動作の場合、アニメーションプロセス915は、
所定の時間間隔にわたって一連の命令を発する。この命
令は具体的には、異なる表示フレームそれぞれに対す
る、特定の表示ウィジェットを表示する際にアルファ透
明値を連続的に変えさせる命令である。同じく線930
で表すように、この命令はオペレーティングシステム3
5に対して発行され、オペレーティングシステムは次い
でそれをグラフィックAPI940に渡し、最終的には
グラフィックアクセラレータに渡される。
【0126】フェードインは、およそ0.3〜0.5秒
など比較的短い時間(interval of tim
e)にわたって行うべきである。しかし、ユーザの気を
散らさないように、フェードアウトは約0.7〜1.0
秒など比較的長い時間をかけて行う方がよい。特にフェ
ードインの際には、この時間の間にアルファ透明値を一
般には非線形の方式で変化させる。経験により、一般に
画面アニメーションで使用される従来のスローイン/ス
ローアウト技術を利用することを選択した。この技術で
は、不透明度は最初、完全には透明でなくとも実質的に
透明な状態(つまり実質的に目に見えない状態)からや
や遅い速度で中間値まで変化し、次いでやや速度を速め
て別の中間値まで増加し、さらに速度を増すと再び速度
を落として最大の不透明度(例えばツールバーの場合は
1α、Tool Glassシートの場合は0.7α)
に達する。これは、時間の関数であるほぼ「S」字型の
不透明度曲線になる。これと同じ透明度の変化を、表示
ウィジェットをフェードアウトさせる際に使用する(た
だし方向は逆になる)。フェードインおよびフェードア
ウト期間中に不透明度を変化させるために、線形関数な
ど、他の時間ベースの不透明度関数を使用できることは
言うまでもない。最終的には、選択する特定の関数(フ
ェードアウトとフェードインに異なる関数を使用するこ
ともできる。実際、所望の場合には異なる表示ウィジェ
ットに上記のように異なる関数を使用することができ
る)は、適切なユーザによる試験を通じて経験的に決定
する可能性が高い。
【0127】さらに、人間の目は、通常の輝度では、青
の色調など他の色調よりも例えば赤の色調など特定の色
に対して高い感度を示す。このため、前者のような色を
含む表示ウィジェットをフェードインさせると、比較的
低い輝度であってもユーザの気を散らす可能性があり、
特にそのような色が鮮明になるのに従ってより気を散ら
す可能性がある。このようにユーザの気を散らすのを回
避するために、表示ウィジェットは、所望の配色および
輝度による最終的なマップを表示するまでは、特に人間
の目が最も高い感度を示す色について、異なるあるいは
変化する配色および輝度による数種のテクスチャマップ
によって表現することができる。この場合、最初にその
ウィジェットの白黒のテクスチャマップを表示し、次い
でフェードイン中の適切な時に、同じウィジェット用の
テクスチャマップで、望ましい配色を有し輝度が増した
テクスチャマップ(さらに言えば異なる配色でもよい)
を描画し、そしてフェードイン期間の最後に、最終的な
配色および輝度を有するテクスチャマップを描写する。
フェードアウトはこれと同様の方式で行うことができる
が、その順序は逆になる。例えば、表示ウィジェット
は、次第に輝度が低下する有色のテクスチャマップの連
続を使用して白黒のマップまでフェードアウトし、その
後白黒のマップがそれ自体で完全な透明までフェードア
ウトすることができる。あるいはフェードアウトの始め
に、ウィジェットの白黒マップに変化し、そこから完全
な透明までフェードアウトすることができる。
【0128】グラフィックアクセラレータを使用しない
場合は、線955で表すように、グラフィックAPI9
40が、グラフィック出力を直接ビデオアダプタ48
(具体的には、図示していないがその中にある標準的な
ビデオカード)に提供することができる。するとビデオ
アダプタ48は適切なビデオ信号を生成し、それをディ
スプレイ47に加える。この例では、コンピュータシス
テムは、ソフトウェア中のグラフィックアクセラレータ
から提供されるであろう適切なグラフィック機能を実施
するのに十分な速度で動作できる必要がある。さらに、
フェードインおよびフェードアウトのグラフィック機能
がサポートされない場合には、他の視覚技術によって表
示ウィジェットの表示および消去を行うことができる。
この技術には、例えば、ウィジェットを画面外の位置か
ら画面の上にスライドまたは移動(shuffle)す
ることにより、単にウィジェットを平行移動する技術、
ツールを瞬間的かつ完全に表示または消去する技術、ウ
ィジェットを回転させ(例えば、ツールバーが3Dの面
上にあり、回転して所定の位置につく場合など)、かつ
/またはインタフェースツールまたは文書の一部を徐々
に拡大する、あるいは徐々に縮小する技術、が含まれ
る。ただし、これらの技術では、ツールバーおよびTo
ol Glassシートのような表示ウィジェットは完
全に不透明な表示に限られる。これらの技術はいずれ
も、アルファ透明度をサポートするグラフィックアクセ
ラレータによるフェーディングと合わせて使用すること
もできる。
【0129】アルファ透明機能は、既存の幅広いグラフ
ィックアクセラレータでサポートされているが、この機
能は、D3D(WINDOWS(登録商標)オペレーテ
ィングシステムの標準コンポーネントとして、現在マイ
クロソフト社によって製造されている3Dグラフィック
API)、OpenGL(当技術分野で現在入手可
能)、またはGDI(歴史的には2Dの低レベルグラフ
ィック処理レイヤに過ぎない。現在マイクロソフト社が
製造しており、WINDOWS(登録商標)オペレーテ
ィングシステムの標準コンポーネントとして内蔵されて
いる)、など従来の2D(2次元)および3D(3次
元)のグラフィックAPIにより、よく知られる方式で
容易にソフトウェアでシミュレートすることができる。
【0130】表示画面が、ツールバーとTool Gl
assシートの両方(あるいは他の表示ウィジェットの
組み合わせ)を同時に表示する場合が考えられる。この
ような場合は、意図しない対話を行ったことによって、
両方のツールがフェードインまたはフェードアウトする
可能性がある。このような対話、およびそれに伴うユー
ザのフラストレーションを防ぐために、当技術の範囲内
にある適切な決定プロセスをアニメーションプロセス9
15に組み込んで、2つの表示ウィジェットの両方では
なく1つだけをフェードインまたはフェードアウトさせ
ることができる。例えば、両方のツールが表示されてい
て、ユーザがタッチマウス(TouchMouse)を
操作した場合は、Tool Glassだけをフェード
アウトさせ、ツールバーは完全に表示された状態を保
つ。特定の決定プロセスは、同時に表示することができ
る特定のウィジェットによって制御され、それらのウィ
ジェットの1つまたは複数の表示を継続する必要性は、
その時に実行中の動作、およびウィジェット間の相対的
な表示優先順位を含む、そのアプリケーションのその時
点のコンテクスト設定に基づく。
【0131】本発明は、接触の感知以外にも他の感知技
術を利用してオンデマンドの動作を起動することができ
ることを理解されたい。そのような感知技術には、例え
ば、皮膚電気反応、非接触の近接センサ、圧力センサ、
キーボード上のタッチ/近接センサからのイベント、G
PS(全地球測位システム)受信機からのデータ(ユー
ザの位置、またはモバイルコンピュータの位置)、カメ
ラからのビデオデータ、およびマイクロフォンからの音
声データなどである。
【0132】本発明の特定の実施形態について説明し、
図示したが、当業者はこれに修正変更を行うことができ
ることから、本発明はそれに限定されるものではないこ
とを理解されたい。本出願は、本明細書に開示し、特許
請求する基礎となる発明の精神および範囲内にある変更
修正すべてを意図している。
【図面の簡単な説明】
【図1】本発明の例証的実施形態によるコンピュータシ
ステムのブロック図である。
【図2】本発明による入力装置の例示的実施形態のより
詳細なブロック図である。
【図3】本発明の例証的実施形態によるヘッドセットの
透視図である。
【図4】(A)は本発明の例証的実施形態によるマウス
の透視図であり、(B)は(A)のマウスの下面図であ
り、(C)は(A)のマウスの例示的な回路基板の透視
図である。
【図5】本発明によるマウスの別の例証的実施形態の上
面図である。
【図6】(A)および(B)は本発明によるマウスの別
の例証的実施形態の左側面図であり、(C)および
(D)は本発明によるマウスの別の例証的実施形態の右
側面図である。
【図7】(A)および(B)はそれぞれ、本発明による
マウスの別の例証的実施形態の左側面図および上面図で
ある。
【図8】(A)および(B)はそれぞれ、本発明による
マウスの別の例証的実施形態の左側面図および上面図で
ある。
【図9】(A)〜(C)は順に(respective
ly)、本発明によるマウスの別の例証的実施形態の左
側面図、上面図、および右側面図である。
【図10】(A)〜(H)は本発明によるマウスボタン
の各種例示的実施形態の上面図である。
【図11】(A)は本発明によるマウスの別の例証的実
施形態の上面図であり、(B)は本発明によるマウスの
別の例証的実施形態の上面図である。
【図12】(A)および(B)は本発明によるマウスの
異なる例示的実施形態の右側面図である。
【図13】(A)〜(D)は本発明によるマウスの異な
る例示的実施形態の左側面図である。
【図14】(A)〜(D)は本発明による、ホイールに
近接したタッチセンサを示したマウスの各種例示的実施
形態の上面図である。
【図15】本発明による例証的トラックボールの透視図
である。
【図16】本発明によるジョイスティックを有する例示
的ゲームコントローラの透視図である。
【図17】本発明による例示的ゲームコントローラの透
視図である。
【図18】(A)は本発明による例証的キーボードの透
視図であり、(B)および(C)は本発明による例証的
キーボードの一部を示す図である。
【図19】本発明による例証的タッチパッドの透視図で
ある。
【図20】図1のコンピュータのより詳細なブロック図
である。
【図21】本発明の入力装置に触れる前に表示すること
のできる例証的画面表示の図である。
【図22】本発明の入力装置に触れた後の例証的画面表
示の画像の図である。
【図23】本発明により起動されたプルダウンメニュー
を示した例証的画面表示の画像の図である。
【図24】本発明により開かれた第2のプルダウンメニ
ューを示した例証的画面表示の画像の図である。
【図25】本発明によりプルダウンメニュー中で選択さ
れたアイテムを示した例証的画面表示の画像の図であ
る。
【図26】本発明による放射状メニューを示す例証的画
面表示の画像の図である。
【図27】本発明の例示的実施形態により表示画面に表
示することのできる例証的グラフィカルユーザインタフ
ェースの図である。
【図28】本発明の例示的実施形態により表示画面に表
示することのできる例証的な画面上表示の図である。
【図29】(A)および(B)は本発明の例示的実施形
態により表示画面に表示することのできる例証的なツー
ルヒントの視覚的フィードバックの図である。
【図30】(A)および(B)は本発明の例示的実施形
態により表示画面に表示することのできる例証的な視覚
的フィードバックの図である。
【図31】本発明の例示的実施形態により表示画面に表
示することのできる例証的な視覚的フィードバックの図
である。
【図32】現在のページを含んだウェブブラウザを示す
例証的画面表示の画像の図である。
【図33】以前閲覧したページを含んだウェブブラウザ
を示す例証的画面表示の画像の図である。
【図34】次のページを含んだウェブブラウザを示す例
証的画面表示の画像の図である。
【図35】(A)〜(C)は本発明の例証的実施形態に
よる、ツールヒントの表示を制御するための例証的時間
設定図である。
【図36】(A)および(B)は本発明の例証的実施形
態による、ツールヒントの表示を制御するための例証的
時間設定図である。
【図37】PC20内に位置し、本発明の例示的実施を
集合的に形成するソフトウェアおよびハードウェア構成
要素を簡略化した高レベルのブロック図900である。
【符号の説明】
20 パーソナルコンピュータ 21 処理装置(CPU) 22 システムメモリ 23 システムバス 24 読み出し専用メモリ 25 ランダムアクセスメモリ 26 BIOS 27 ハードディスクドライブ 28 磁気ディスクドライブ 29 取り外し可能磁気ディスク 30 光ディスクドライブ 31 光ディスク 32 ハードディスクドライブインタフェース 33 磁気ディスクドライブインタフェース 34 光ディスクドライブインタフェース 35 オペレーティングシステム 36 アプリケーションプログラム 37 プログラムモジュール 38 プログラムデータ 40 タッチセンサ 42 移動トランスデューサ 43 入力装置 45 スピーカ 46 シリアルポートインタフェース 47 モニタ 48 ビデオアダプタ 49 リモートコンピュータ 50 メモリ記憶装置 51 LAN 52 WAN 53 アダプタ 54 モデム 60 デバイスドライバ 100、102、104、106 タッチセンサ 108、110、112、114 導線 116 A/D変換器およびマルチプレクサ 118 線 120、200 マイクロコントローラ 122 入力(入力線、線) 124 出力 150 ヘッドセット 152 マイクロフォン 154 支持ピース 156 タッチセンサ 158 出力線 170、690 マウス 172、600、604、704、710、780 パ
ームレスト 174 左ボタン 176 右ボタン 178、764、768、774 ホイール 180 側面 182 出力線 184、186 側面領域 189 電子回路 190、220、228 トラックボール(ボール) 192 トラックボールネスト 194、196、203 エンコーダホイール 201、202、204 スイッチ 206 センサ配列 222、242 基部 224、226、248、250、252、312A〜
312G ボタン 244 ハンドル 246 トリガ 260 ゲームパッド 262、264 サイドボタン 266、268、270、272、274、276 左
手ボタン 278、280、282、284、286、288 右
手ボタン 290 開始ボタン 292 選択ボタン 300 キーボード 301 キーボードケース 302 QWERTY配列 304 数字キーパッド 306、307、309、311 部分 308 スペースバー 310 矢印キー 314 コントロール用つまみ 315 ロッカースイッチ 320、350 画面 322、354 仮想デスクトップ 328、352 ウィンドウ(アクティブウィンドウ) 324、326 アイコン 330 カレット 332 ツールヒント 334 ツールバー 356、360 プルダウンメニュー(プルダウンウィ
ンドウ) 358 メニューバー(ヘッダメニュー) 362、364、366、371、373 項目 370 放射状メニュー 372 キャンセルボタン 460、480 ディスプレイ 462、472、478 インターネットブラウザウィ
ンドウ 464、470、476 ページ 602、603、605、607、608、610、6
12、614、616、624、626、634、63
7 648、672、720、722、724、72
6、728、734、736、738、740、74
2、744、746、748、762、766、77
0、772 センサ(タッチセンサ、領域) 606 左側面 618 固体センサ 620、752 センサストリップ(ストリップ) 640 音声生成装置 662 MIDIウェーブテーブルシンセサイザ 224、226、622、630、646、660、7
00、702、706、708、2220、2240、
2260、2280 ボタン 613 側端 627 前端 628、636 隆起部 641、642、643、644、650、651、6
52 センサ領域 674 中央センサ 692 左側面センサ 694 パームセンサ 696 右側面センサ 698 ボタンセンサ 776 前部領域 778 後部領域 810 メッセージフックプロシージャ 812 フォーカスアプリケーション 900 ブロック図 903、905、907、930 線 910 GUI 915 フェードイン/フェードアウトアニメーション
プロセス 920 ビットマップジェネレータ 922、924、926 パターン 940 グラフィックAPI 2000 タッチパッド 2100 表面(タブレット)
───────────────────────────────────────────────────── フロントページの続き (72)発明者 スティーブン エヌ.バシチェ アメリカ合衆国 98052 ワシントン州 レッドモンド ノースイースト 60 13783 ナンバー127 (72)発明者 ウィリアム ボン アメリカ合衆国 98144 ワシントン州 シアトル サウス レイク ワシントン ブールバード 917 (72)発明者 ジェームズ エイチ.コーソーン アメリカ合衆国 98103 ワシントン州 シアトル ノース 47 ストリート 1403 (72)発明者 コーリー エム.レイダス アメリカ合衆国 98004 ワシントン州 ベルビュー ノースイースト 26 ストリ ート 10807 (72)発明者 ケネス ブイ.フライ アメリカ合衆国 98112 ワシントン州 シアトル イースト マクグロウ ストリ ート 2426 Fターム(参考) 5B020 DD02 GG13 5B087 AA09 BB12 BB21 BB29 DE03 5E501 AA02 AA06 AC37 BA05 CA03 CB02 CB03 CB05 CB09 CB10 CC20 EA40 FA06 FA09 FA42 FB43

Claims (47)

    【特許請求の範囲】
  1. 【請求項1】 コントロール用つまみおよび表示画面を
    有するコンピュータシステムにおいて、 前記コントロール用つまみが静止している所定の期間に
    わたって、前記コントロール用つまみに近接または接触
    している物理的存在を検出するステップと、 前記検出ステップに応答して表示画面上に表示ウィジェ
    ットを表示するステップであって、前記表示ウィジェッ
    トが、前記コントロール用つまみと関連付けられたステ
    ータス情報を提供するステップとを含むことを特徴とす
    る方法。
  2. 【請求項2】 前記ステータス情報に音量設定が含まれ
    ることを特徴とする請求項1に記載の方法。
  3. 【請求項3】 前記コントロール用つまみに近接または
    接触している前記物理的存在の検出を行いながら、前記
    コントロール用つまみ以外の入力用コントロールに応答
    して前記表示ウィジェット中の前記ステータス情報を変
    えるステップをさらに含むことを特徴とする請求項1に
    記載の方法。
  4. 【請求項4】 前記入力用コントロールがポインティン
    グデバイスであることを特徴とする請求項3に記載の方
    法。
  5. 【請求項5】 コントロールスイッチおよび表示画面を
    有するコンピュータシステムにおいて、 前記コントロールスイッチがその時点におけるスイッチ
    状態を維持する第1の所定期間にわたって、前記コント
    ロールスイッチに近接または接触している物理的存在を
    検出するステップと、 前記検出ステップに応答して前記表示画面に表示ウィジ
    ェットを表示するステップであって、前記表示ウィジェ
    ットが前記コントロールスイッチと関連付けられたステ
    ータス情報を提供するステップとを含むことを特徴とす
    る方法。
  6. 【請求項6】 前記コントロールスイッチが、ロッカー
    スイッチまたはダイヤルスイッチのいずれかであること
    を特徴とする請求項5に記載の方法。
  7. 【請求項7】 マルチメディアアプリケーションの場
    合、前記ステータス情報が、曲名、残りの曲時間、曲の
    長さ、アルバムタイトル、およびアルバム全体の長さの
    うち少なくとも1つを識別することを特徴とする請求項
    5に記載の方法。
  8. 【請求項8】 前記表示ステップが、マルチメディアコ
    ントロールパネルを表示することをさらに含むことを特
    徴とする請求項7に記載の方法。
  9. 【請求項9】 前記ステータス情報がゲームに関連する
    ことを特徴とする請求項5に記載の方法。
  10. 【請求項10】 前記コントロールスイッチ以外の入力
    用コントロールに応答して、前記表示ウィジェット中の
    前記ステータス情報を変えるステップをさらに含むこと
    を特徴とする請求項5に記載の方法。
  11. 【請求項11】 前記入力用コントロールがヘッドセッ
    トまたはマイクロフォンであることを特徴とする請求項
    10に記載の方法。
  12. 【請求項12】 前記ステータス情報が、現在実行中の
    アプリケーションを識別することを特徴とする請求項5
    に記載の方法。
  13. 【請求項13】 ユーザが前記コントロールスイッチを
    使用してアプリケーションを選択するのに応答して、前
    記識別されたアプリケーションを前記表示画面の最前面
    に配置するステップをさらに含むことを特徴とする請求
    項12に記載の方法。
  14. 【請求項14】 前記ステータス情報がタスクバーを含
    むことを特徴とする請求項5に記載の方法。
  15. 【請求項15】 前記表示ウィジェットを表示した状態
    で、第2の所定期間にわたる、前記コントロールスイッ
    チに近接または接触した前記物理的存在の不在を検出す
    るステップと、 前記物理的存在の前記不在の検出に応答して、前記表示
    ウィジェットの表示を中止するステップとをさらに含む
    ことを特徴とする請求項5に記載の方法。
  16. 【請求項16】 補助用コントロールを含む入力装置
    と、表示画面とを有するコンピュータシステムにおい
    て、 前記補助用コントロールがその時点におけるコントロー
    ル状態を維持する第1の所定期間にわたって、前記補助
    用コントロールに近接または接触している物理的存在を
    検出するステップと、 前記検出ステップに応答して前記表示画面に表示ウィジ
    ェットを表示するステップであって、前記表示ウィジェ
    ットが、前記補助用コントロールに関連付けられたステ
    ータス情報を提供するステップとを含むことを特徴とす
    る方法。
  17. 【請求項17】 前記補助用コントロールが、ジョイス
    ティックまたはホイールのいずれかであることを特徴と
    する請求項16に記載の方法。
  18. 【請求項18】 前記補助用コントロールが、ボタンま
    たはキーのいずれかであることを特徴とする請求項16
    に記載の方法。
  19. 【請求項19】 前記物理的存在がユーザの手であるこ
    とを特徴とする請求項16に記載の方法。
  20. 【請求項20】 前記表示ウィジェットを表示した状態
    で、第2の所定期間にわたる、前記補助用コントロール
    に近接または接触した前記物理的存在の不在を検出する
    ステップと、 前記第2の所定期間にわたる前記物理的存在の前記不在
    の検出に応答して、前記表示ウィジェットの表示を中止
    するステップとをさらに含むことを特徴とする請求項1
    6に記載の方法。
  21. 【請求項21】 前記表示ウィジェットを表示した状態
    で、第2の所定期間にわたる、前記補助用コントロール
    に近接または接触した前記物理的存在の不在を検出する
    ステップと、 前記検出ステップに応答して、前記表示画面上の前記表
    示ウィジェット内にポインタが置かれているかどうかを
    判定するステップと、 前記ポインタが前記表示ウィジェット内に置かれていな
    い場合、前記表示ウィジェットの表示を中止するステッ
    プとをさらに含むことを特徴とする請求項16に記載の
    方法。
  22. 【請求項22】 前記補助用コントロール以外の入力用
    コントロールを使用して、前記表示ウィジェット中の前
    記ステータス情報を変えるステップをさらに含むことを
    特徴とする請求項16に記載の方法。
  23. 【請求項23】 前記入力用コントロールが、ヘッドセ
    ットまたはマイクロフォンであることを特徴とする請求
    項22に記載の方法。
  24. 【請求項24】 前記入力用コントロールがポインティ
    ングデバイスであることを特徴とする請求項22に記載
    の方法。
  25. 【請求項25】 前記入力装置が、マウス、トラックボ
    ール、タッチパッド、キーボード、またはゲームコント
    ローラの1つであることを特徴とする請求項24に記載
    の方法。
  26. 【請求項26】 前記識別されるステータス情報が、ア
    クティブ状態の1つのアプリケーションにのみ適用でき
    ることを特徴とする請求項16に記載の方法。
  27. 【請求項27】 第1のアプリケーションがアクティブ
    である際に表示される、前記補助用コントロールに関連
    付けられたステータス情報のタイプが、第2のアプリケ
    ーションがアクティブである際に表示される、前記補助
    用コントロールに関連付けられたステータス情報のタイ
    プと異なることを特徴とする請求項16に記載の方法。
  28. 【請求項28】 前記ステータス情報が、メッセージン
    グ(messaging)に関連する情報であることを
    特徴とする請求項16に記載の方法。
  29. 【請求項29】 前記ステータス情報に、新着(ne
    w)または未読の、標準的優先度または高優先度のメッ
    セージの数、インボックスウィンドウ、最も新しく受信
    したメッセージの少なくとも1つに関する簡潔な情報、
    および警告ステータスの1つが含まれることを特徴とす
    る請求項28に記載の方法。
  30. 【請求項30】 ウェブブラウザがアクティブなアプリ
    ケーションであるときに、前記ステータス情報が、最も
    最近使用した検索の少なくとも1つ、最も最近得られた
    検索結果の少なくとも1つ、訪問することが可能な前の
    ウェブページおよび次のウェブページの識別、気に入っ
    ているウェブページのリスト、および現在のページロー
    ディング情報を含むことを特徴とする請求項16に記載
    の方法。
  31. 【請求項31】 前記ステータス情報がタスクバーを含
    むことを特徴とする請求項16に記載の方法。
  32. 【請求項32】 前記ステータス情報が、アクティブな
    アプリケーションを識別することを特徴とする請求項1
    6に記載の方法。
  33. 【請求項33】 前記ステータス情報が、プリンタのス
    テータス情報を提供することを特徴とする請求項16に
    記載の方法。
  34. 【請求項34】 前記ステータス情報が、クリップボー
    ドの内容を識別することを特徴とする請求項16に記載
    の方法。
  35. 【請求項35】 前記ステータス情報が、最も最近保存
    されたファイルの時刻、日付、場所、ファイルタイプ、
    およびサイズのうち少なくとも1つを識別することを特
    徴とする請求項16に記載の方法。
  36. 【請求項36】 前記補助用コントロールが数学演算子
    を表すキーであり、表計算のアプリケーションにおい
    て、前記ステータス情報が、前記数学演算子を表計算中
    のデータに適用した場合の結果を識別することを特徴と
    する請求項16に記載の方法。
  37. 【請求項37】 前記補助用コントロールが、前記表示
    画面のスクロール機能を制御するように構成され、前記
    ステータス情報が前記ホイールの設定を識別することを
    特徴とする請求項16に記載の方法。
  38. 【請求項38】 前記入力装置が、マウス、トラックボ
    ール、タッチパッド、キーボード、またはゲームコント
    ローラの1つであることを特徴とする請求項16に記載
    の方法。
  39. 【請求項39】 前記ステータス情報がゲームに関連す
    るものであることを特徴とする請求項16に記載の方
    法。
  40. 【請求項40】 入力装置および表示画面を有するコン
    ピュータシステムにおいて、 前記入力装置がその時点におけるコントロール状態を維
    持する第1の所定期間にわたって、前記入力装置に近接
    または接触している物理的存在を検出するステップと、 前記検出ステップに応答して、前記表示画面に表示され
    ている情報を画面から消すステップとを含むことを特徴
    とする方法。
  41. 【請求項41】 前記情報が表示ウィジェットを含むこ
    とを特徴とする請求項40に記載の方法。
  42. 【請求項42】 前記表示ウィジェットに、スクロール
    バーまたはツールバーが含まれることを特徴とする請求
    項41に記載の方法。
  43. 【請求項43】 前記表示画面から前記情報を消した
    後、第2の所定期間にわたる、前記入力装置に近接また
    は接触した前記物理的存在の不在を検出するステップ
    と、 前記第2の所定期間にわたる前記物理的存在の前記不在
    を検出するのに応答して、前記情報を前記表示画面に再
    度表示するステップとをさらに含むことを特徴とする請
    求項40に記載の方法。
  44. 【請求項44】 前記入力装置がポインティングデバイ
    スホイールであることを特徴とする請求項40に記載の
    方法。
  45. 【請求項45】 前記入力装置が、スクロール機能を制
    御するように構成されていることを特徴とする請求項4
    0に記載の方法。
  46. 【請求項46】 前記入力装置がホイールまたはタッチ
    パッドであることを特徴とする請求項45に記載の方
    法。
  47. 【請求項47】 前記入力装置が、ボタンまたはキーの
    いずれかであることを特徴とする請求項40に記載の方
    法。
JP2002069359A 2001-03-13 2002-03-13 コンピュータ入力装置に近接する物理的存在の感知に応答して情報を表示する方法 Expired - Fee Related JP4737912B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/804,496 2001-03-13
US09/804,496 US7256770B2 (en) 1998-09-14 2001-03-13 Method for displaying information responsive to sensing a physical presence proximate to a computer input device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008224168A Division JP4758464B2 (ja) 2001-03-13 2008-09-01 補助用コントロールおよび表示画面を有するコンピュータシステムおよび方法

Publications (3)

Publication Number Publication Date
JP2002323945A true JP2002323945A (ja) 2002-11-08
JP2002323945A5 JP2002323945A5 (ja) 2005-10-06
JP4737912B2 JP4737912B2 (ja) 2011-08-03

Family

ID=25189109

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2002069359A Expired - Fee Related JP4737912B2 (ja) 2001-03-13 2002-03-13 コンピュータ入力装置に近接する物理的存在の感知に応答して情報を表示する方法
JP2008224168A Expired - Fee Related JP4758464B2 (ja) 2001-03-13 2008-09-01 補助用コントロールおよび表示画面を有するコンピュータシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2008224168A Expired - Fee Related JP4758464B2 (ja) 2001-03-13 2008-09-01 補助用コントロールおよび表示画面を有するコンピュータシステムおよび方法

Country Status (3)

Country Link
US (2) US7256770B2 (ja)
EP (1) EP1241557A3 (ja)
JP (2) JP4737912B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008511077A (ja) * 2004-08-25 2008-04-10 アップル インコーポレイテッド ポータブルコンピュータの幅広タッチパッド
JP2009522669A (ja) * 2005-12-30 2009-06-11 アップル インコーポレイテッド マルチタッチ入力を備えた携帯電子装置
JP2010158995A (ja) * 2009-01-09 2010-07-22 Nippon Seiki Co Ltd 車両用表示装置
JP2012508427A (ja) * 2008-11-12 2012-04-05 アップル インコーポレイテッド 表面に載せた手に合わせたジェスチャーの発生
JP2012147341A (ja) * 2011-01-14 2012-08-02 Seiko Epson Corp 共通鍵交換方法、共通鍵生成方法、共通鍵交換システム、共通鍵交換装置、及びそのプログラム

Families Citing this family (220)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7373592B2 (en) * 1999-07-30 2008-05-13 Microsoft Corporation Modeless child windows for application programs
US6661410B2 (en) * 2001-09-07 2003-12-09 Microsoft Corporation Capacitive sensing and data input device power management
CN1280698C (zh) * 2001-09-24 2006-10-18 皇家飞利浦电子股份有限公司 交互式系统以及交互方法
US20080294300A1 (en) * 2001-10-19 2008-11-27 Ashmore C Rucker Method and apparatus for electronically controlling a motorized device
US20030076067A1 (en) * 2001-10-19 2003-04-24 Ashmore C. Rucker Method and apparatus for electronically controlling a motorized device
WO2003042807A1 (en) * 2001-11-12 2003-05-22 Ken Alvin Jenssen Control device (mouse) for computer
US20050078089A1 (en) * 2002-01-23 2005-04-14 Wen-Hsiu Kuo Computer mouse with multimedia hotkeys and processing method thereof
US20030137491A1 (en) * 2002-01-23 2003-07-24 Wen-Hsiu Kuo Computer mouse with multimedia hot-keys
US6703599B1 (en) * 2002-01-30 2004-03-09 Microsoft Corporation Proximity sensor with adaptive threshold
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7233318B1 (en) 2002-03-13 2007-06-19 Apple Inc. Multi-button mouse
EP1351120B1 (en) 2002-04-03 2017-10-25 Sony Mobile Communications Inc. A method of navigating in a virtual three-dimensional environment and an electronic device employing such method
WO2003083634A1 (en) * 2002-04-03 2003-10-09 Sony Ericsson Mobile Communications Ab A method of navigating in a virtual three-dimensional environment and an electronic device employing such method
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US6954867B2 (en) 2002-07-26 2005-10-11 Microsoft Corporation Capacitive sensing employing a repeatable offset charge
US7958455B2 (en) * 2002-08-01 2011-06-07 Apple Inc. Mode activated scrolling
US20040086314A1 (en) * 2002-11-06 2004-05-06 Peter Chen Standard keyboard supporting multimedia functions
WO2004061592A2 (en) * 2002-12-16 2004-07-22 Microsoft Corporation Systems and methods for interfacing with computer devices
AU2003297172A1 (en) * 2002-12-16 2004-07-22 Microsoft Corporation Systems and methods for interfacing with computer devices
EP1573713A4 (en) * 2002-12-16 2010-03-10 Microsoft Corp SYSTEMS AND METHODS OF INTERFA ACE WITH COMPUTER DEVICES
CN100479029C (zh) * 2002-12-16 2009-04-15 微软公司 与计算机装置接口的系统和方法
KR20050074268A (ko) * 2002-12-16 2005-07-18 마이크로소프트 코포레이션 컴퓨터 장치들과 인터페이싱하기 위한 시스템들 및 방법들
WO2004055660A2 (en) * 2002-12-18 2004-07-01 Koninklijke Philips Electronics N.V. Data processing system with input device
US20040252101A1 (en) * 2003-06-12 2004-12-16 International Business Machines Corporation Input device that detects user's proximity
FI114950B (fi) * 2003-06-24 2005-01-31 Nokia Corp Menetelmä päätelaitteen syöttö- ja näyttöosan visualisoimiseksi ja vastaava päätelaite
US20050115816A1 (en) * 2003-07-23 2005-06-02 Neil Gelfond Accepting user control
WO2005015373A2 (en) * 2003-08-11 2005-02-17 Koninklijke Philips Electronics N.V. A touch sensitive display
GB0320383D0 (en) * 2003-08-29 2003-10-01 Zoega Sean A Time display apparatus
DE202004010948U1 (de) * 2003-10-03 2004-10-14 Chen, Richard Fortentwickelte Maus
US8954420B1 (en) 2003-12-31 2015-02-10 Google Inc. Methods and systems for improving a search ranking using article information
US7620915B2 (en) 2004-02-13 2009-11-17 Ludwig Lester F Electronic document editing employing multiple cursors
US8099407B2 (en) 2004-03-31 2012-01-17 Google Inc. Methods and systems for processing media files
US8346777B1 (en) 2004-03-31 2013-01-01 Google Inc. Systems and methods for selectively storing event data
US7941439B1 (en) * 2004-03-31 2011-05-10 Google Inc. Methods and systems for information capture
US7333976B1 (en) 2004-03-31 2008-02-19 Google Inc. Methods and systems for processing contact information
US8386728B1 (en) 2004-03-31 2013-02-26 Google Inc. Methods and systems for prioritizing a crawl
US8161053B1 (en) 2004-03-31 2012-04-17 Google Inc. Methods and systems for eliminating duplicate events
US8275839B2 (en) 2004-03-31 2012-09-25 Google Inc. Methods and systems for processing email messages
US8631076B1 (en) 2004-03-31 2014-01-14 Google Inc. Methods and systems for associating instant messenger events
US7199353B2 (en) * 2004-05-12 2007-04-03 Mason Electric Co. Optical decoder systems and corresponding methods
US20060012577A1 (en) * 2004-07-16 2006-01-19 Nokia Corporation Active keypad lock for devices equipped with touch screen
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8113517B2 (en) 2004-07-30 2012-02-14 Wms Gaming Inc. Gaming machine chair
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
EP1646035B1 (en) * 2004-10-05 2013-06-19 Sony Europe Limited Mapped meta-data sound-playback device and audio-sampling/sample processing system useable therewith
US7802186B2 (en) * 2004-10-06 2010-09-21 Microsoft Corporation Property independent in-place editing
GB0427548D0 (en) * 2004-12-15 2005-01-19 Ibm Data processing system
US7417622B2 (en) * 2004-12-15 2008-08-26 Yankee Technology Co., Ltd. Mouse scroll device
US7334193B2 (en) * 2005-01-14 2008-02-19 Microsoft Corporation Start menu user tiles
DE202005001032U1 (de) * 2005-01-22 2005-05-12 Wessling, Herbert Spielautomat
WO2006086767A2 (en) * 2005-02-09 2006-08-17 Cirque Corporation A touchpad integrated into a key cap of a keyboard for improved user interaction
JP4717461B2 (ja) * 2005-02-14 2011-07-06 キヤノン株式会社 情報入力装置、情報入力方法及び情報入力プログラム
JP2006246259A (ja) * 2005-03-04 2006-09-14 Toshiba Corp 情報処理装置および音量制御方法
US20060244723A1 (en) * 2005-04-28 2006-11-02 Ching-Tzu Chen Method of using a mouse to carry out multimedia adjustments
US20060262116A1 (en) * 2005-05-19 2006-11-23 Hillcrest Laboratories, Inc. Global navigation objects in user interfaces
US7415352B2 (en) 2005-05-20 2008-08-19 Bose Corporation Displaying vehicle information
KR20070013492A (ko) * 2005-07-26 2007-01-31 삼성테크윈 주식회사 효율적인 입력 기능을 가진 디지털 영상 처리 장치 및 그제어 방법
US20070287540A1 (en) * 2005-09-08 2007-12-13 Brahmandam Kiran Soft key hot spot activation system and method
US8077153B2 (en) 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
JP4285500B2 (ja) * 2006-04-25 2009-06-24 トヨタ自動車株式会社 操作装置
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8395658B2 (en) * 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
JP4366393B2 (ja) * 2006-11-06 2009-11-18 アルプス電気株式会社 入力装置
US7831923B2 (en) * 2006-11-28 2010-11-09 International Business Machines Corporation Providing visual keyboard guides according to a programmable set of keys
US8970501B2 (en) 2007-01-03 2015-03-03 Apple Inc. Proximity and multi-touch sensor detection and demodulation
US7907974B2 (en) 2007-01-04 2011-03-15 Microsoft Corporation Scrollable computing device display
US8665225B2 (en) * 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
US8607167B2 (en) * 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
US8689132B2 (en) 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
US8650505B2 (en) * 2007-02-28 2014-02-11 Rpx Corporation Multi-state unified pie user interface
US20080218476A1 (en) * 2007-03-08 2008-09-11 Patel Bharat Bobby Apparatus and method for wrist supporting movement translator and mouse button device
US20080234842A1 (en) * 2007-03-21 2008-09-25 Microsoft Corporation Microphones as contact sensors for device control
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
KR20090019161A (ko) * 2007-08-20 2009-02-25 삼성전자주식회사 전자 장치 및 이를 조작하는 방법
DE102007043658A1 (de) * 2007-09-13 2009-03-26 Siemens Ag Steuerung eines scrollbaren Kontext-Menüs
US20090144621A1 (en) * 2007-12-04 2009-06-04 Microsoft Corporation Recording, playback, and visual representation of macros
WO2009071123A1 (en) * 2007-12-06 2009-06-11 Nokia Corporation Power reduction for touch screens
US10540861B2 (en) * 2007-12-20 2020-01-21 Ncr Corporation Sustained authentication of a customer in a physical environment
US20090172516A1 (en) * 2008-01-02 2009-07-02 Oracle International Corporation Providing Enhanced Information When a Pointing Device Points to a Specific Area In a Graphical User Interface
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
WO2009089050A1 (en) * 2008-01-08 2009-07-16 Cirque Corporation Game controller touchpad providing touch stick functionality and relative and absolute position input
US8232973B2 (en) 2008-01-09 2012-07-31 Apple Inc. Method, device, and graphical user interface providing word recommendations for text input
TW200933440A (en) * 2008-01-17 2009-08-01 Asustek Comp Inc Computer system and multi-media input device thereof
TWM339042U (en) * 2008-01-31 2008-08-21 Mobinnova Corp Input device
US8205157B2 (en) 2008-03-04 2012-06-19 Apple Inc. Methods and graphical user interfaces for conducting searches on a portable multifunction device
US20100020021A1 (en) * 2008-07-22 2010-01-28 General Electric Company Touch screen control system and method
US20100020022A1 (en) * 2008-07-24 2010-01-28 Dell Products L.P. Visual Feedback System For Touch Input Devices
US9335868B2 (en) 2008-07-31 2016-05-10 Apple Inc. Capacitive sensor behind black mask
GB2462434B (en) 2008-08-05 2013-02-06 Cursor Controls Ltd Pointing Device
JP5219705B2 (ja) * 2008-09-12 2013-06-26 富士通テン株式会社 情報処理装置および情報処理方法
US8050891B2 (en) * 2008-10-17 2011-11-01 Zeemote Technology Inc. Sensor mapping
US8446374B2 (en) * 2008-11-12 2013-05-21 Apple Inc. Detecting a palm touch on a surface
DE112009002612B4 (de) * 2008-12-04 2015-07-23 Mitsubishi Electric Corporation Anzeige-Eingabevorrichtung, Navigationssystem mit einer Anzeige-Eingabevorrichtung sowie Fahrzeuginformationssystem mit einer Anzeige-Eingabevorrichtung
US20100146449A1 (en) * 2008-12-09 2010-06-10 Michael William Brown Method, apparatus and system for management of application switching in an electronic device
US8660300B2 (en) * 2008-12-12 2014-02-25 Silicon Laboratories Inc. Apparatus and method for optical gesture recognition
TWM363635U (en) * 2009-03-04 2009-08-21 Chance Steel Mold Co Ltd Manipulation control device
US8589374B2 (en) 2009-03-16 2013-11-19 Apple Inc. Multifunction device with integrated search and application selection
US20100269060A1 (en) * 2009-04-17 2010-10-21 International Business Machines Corporation Navigating A Plurality Of Instantiated Virtual Desktops
KR20100128958A (ko) * 2009-05-29 2010-12-08 엘지전자 주식회사 영상표시장치 및 그 제어방법
KR101598336B1 (ko) * 2009-05-29 2016-02-29 엘지전자 주식회사 공간리모콘의 페어링방법 및 동작방법
KR101545490B1 (ko) * 2009-05-29 2015-08-21 엘지전자 주식회사 영상표시장치 및 그 동작방법
US20100306688A1 (en) * 2009-06-01 2010-12-02 Cho Su Yeon Image display device and operation method therefor
US8704958B2 (en) * 2009-06-01 2014-04-22 Lg Electronics Inc. Image display device and operation method thereof
KR101737366B1 (ko) * 2009-06-01 2017-05-18 엘지전자 주식회사 영상표시장치 및 그 제어방법
KR101572843B1 (ko) * 2009-06-03 2015-11-30 엘지전자 주식회사 영상 표시 장치 및 그 동작 방법
US20100309125A1 (en) * 2009-06-08 2010-12-09 Sellers Charles A Button To Change Modes of a Pointing Device
US8719714B2 (en) 2009-07-08 2014-05-06 Steelseries Aps Apparatus and method for managing operations of accessories
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
EP2467772B1 (en) * 2009-08-21 2019-02-20 Apple Inc. Methods and apparatus for capacitive sensing
CN102053748A (zh) * 2009-10-28 2011-05-11 鸿富锦精密工业(深圳)有限公司 一种多点式触摸屏热键管理系统及方法
US20110164066A1 (en) * 2010-01-04 2011-07-07 Todd Beals Electronic reading device
US8862576B2 (en) 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
JP5636678B2 (ja) * 2010-01-19 2014-12-10 ソニー株式会社 表示制御装置、表示制御方法及び表示制御プログラム
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US20120162071A1 (en) * 2010-02-22 2012-06-28 Liang Hsu Control device
US9628517B2 (en) * 2010-03-30 2017-04-18 Lenovo (Singapore) Pte. Ltd. Noise reduction during voice over IP sessions
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US8854316B2 (en) * 2010-07-16 2014-10-07 Blackberry Limited Portable electronic device with a touch-sensitive display and navigation device and method
CN102893236B (zh) 2010-07-20 2015-11-25 英派尔科技开发有限公司 增强现实临近检测
US20120215560A1 (en) 2010-07-21 2012-08-23 dbMotion Ltd. System and methods for facilitating computerized interactions with emrs
US8543942B1 (en) * 2010-08-13 2013-09-24 Adobe Systems Incorporated Method and system for touch-friendly user interfaces
US9326116B2 (en) 2010-08-24 2016-04-26 Rhonda Enterprises, Llc Systems and methods for suggesting a pause position within electronic text
USD669086S1 (en) * 2010-10-04 2012-10-16 Avaya Inc. Display screen with graphical user interface
JP5357128B2 (ja) * 2010-10-18 2013-12-04 Necアクセステクニカ株式会社 画面制御装置、プログラム及び方法
KR101932688B1 (ko) 2010-11-29 2018-12-28 삼성전자주식회사 휴대기기 및 이에 적용되는 ui 모드 제공 방법
FR2971066B1 (fr) 2011-01-31 2013-08-23 Nanotec Solution Interface homme-machine tridimensionnelle.
TWI515603B (zh) * 2011-03-28 2016-01-01 緯創資通股份有限公司 觸控反饋裝置、觸控反饋方法及觸控顯示裝置
US9086794B2 (en) 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
US10726088B1 (en) 2011-08-12 2020-07-28 Allscripts Software, Llc Computing system for presenting supplemental content in context
US20130055131A1 (en) * 2011-08-26 2013-02-28 Microsoft Corporation Animation for Cut and Paste of Content
US9182833B2 (en) * 2011-11-14 2015-11-10 Logitech Europe S.A. Control system for multi-zone input device
US8443297B1 (en) * 2012-06-15 2013-05-14 Google Inc. Dimming a window that is out of focus
US9786294B1 (en) 2012-07-30 2017-10-10 Amazon Technologies, Inc. Visual indication of an operational state
US9779757B1 (en) 2012-07-30 2017-10-03 Amazon Technologies, Inc. Visual indication of an operational state
KR102078390B1 (ko) 2012-07-30 2020-02-17 삼성전자 주식회사 멀티 터치를 통한 기하학적 도형을 그리는 방법 및 장치
KR101990567B1 (ko) * 2012-08-23 2019-06-18 삼성전자주식회사 외부 입력 장치와 결합된 모바일 장치 및 그 제어 방법
US8886372B2 (en) 2012-09-07 2014-11-11 The Boeing Company Flight deck touch-sensitive hardware controls
US8713433B1 (en) * 2012-10-16 2014-04-29 Google Inc. Feature-based autocorrection
US8698835B1 (en) * 2012-10-16 2014-04-15 Google Inc. Mobile device user interface having enhanced visual characteristics
US8612213B1 (en) 2012-10-16 2013-12-17 Google Inc. Correction of errors in character strings that include a word delimiter
TW201421194A (zh) * 2012-11-22 2014-06-01 Hon Hai Prec Ind Co Ltd 電子裝置
US10275117B2 (en) 2012-12-29 2019-04-30 Apple Inc. User interface object manipulations in a user interface
US10691230B2 (en) 2012-12-29 2020-06-23 Apple Inc. Crown input for a wearable electronic device
CN103914466B (zh) * 2012-12-31 2017-08-08 阿里巴巴集团控股有限公司 一种标签按钮管理的方法及系统
US9047472B2 (en) 2013-01-14 2015-06-02 International Business Machines Corporation Managing sensitive content
FR3002052B1 (fr) 2013-02-14 2016-12-09 Fogale Nanotech Procede et dispositif pour naviguer dans un ecran d'affichage et appareil comprenant une telle navigation
US20140253489A1 (en) * 2013-03-06 2014-09-11 Bryce T. Osoinach Systems and methods for indicating that an interface is being touched
US9721586B1 (en) 2013-03-14 2017-08-01 Amazon Technologies, Inc. Voice controlled assistant with light indicator
US9604147B2 (en) 2013-03-15 2017-03-28 Steelseries Aps Method and apparatus for managing use of an accessory
US9423874B2 (en) 2013-03-15 2016-08-23 Steelseries Aps Gaming accessory with sensory feedback device
US9687730B2 (en) 2013-03-15 2017-06-27 Steelseries Aps Gaming device with independent gesture-sensitive areas
KR102153366B1 (ko) 2013-08-30 2020-10-15 삼성전자 주식회사 전자 기기의 화면 전환 방법 및 장치
US10503388B2 (en) * 2013-09-03 2019-12-10 Apple Inc. Crown input for a wearable electronic device
KR20180128091A (ko) 2013-09-03 2018-11-30 애플 인크. 자기 특성을 갖는 사용자 인터페이스 객체를 조작하는 사용자 인터페이스
US10001817B2 (en) 2013-09-03 2018-06-19 Apple Inc. User interface for manipulating user interface objects with magnetic properties
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
USD752599S1 (en) * 2013-09-06 2016-03-29 Microsoft Corporation Display screen with graphical user interface
USD741343S1 (en) * 2013-09-06 2015-10-20 Microsoft Corporation Display screen with graphical user interface
US9170736B2 (en) 2013-09-16 2015-10-27 Microsoft Corporation Hover controlled user interface element
US9645651B2 (en) 2013-09-24 2017-05-09 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
US9569045B2 (en) 2014-05-21 2017-02-14 Apple Inc. Stylus tilt and orientation estimation from touch sensor panel images
US10204096B2 (en) * 2014-05-30 2019-02-12 Apple Inc. Device, method, and graphical user interface for a predictive keyboard
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
DE102014009302A1 (de) * 2014-06-26 2015-12-31 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102014009299A1 (de) * 2014-06-26 2015-12-31 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
WO2015200889A1 (en) 2014-06-27 2015-12-30 Apple Inc. Electronic device with rotatable input mechanism for navigating calendar application
US9594489B2 (en) 2014-08-12 2017-03-14 Microsoft Technology Licensing, Llc Hover-based interaction with rendered content
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
CN113824998A (zh) 2014-09-02 2021-12-21 苹果公司 音乐用户界面
TWI582641B (zh) 2014-09-02 2017-05-11 蘋果公司 按鈕功能性
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
KR102309281B1 (ko) * 2014-11-07 2021-10-08 삼성전자주식회사 오브젝트를 표시하는 방향 기반 전자 장치 및 방법
USD788813S1 (en) * 2014-11-14 2017-06-06 Microsoft Corporation Display screen with icon
US9984209B2 (en) 2015-02-13 2018-05-29 Medtronic, Inc. Graphical controls for programming medical device operation
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
US10091140B2 (en) * 2015-05-31 2018-10-02 Microsoft Technology Licensing, Llc Context-sensitive generation of conversational responses
USD772986S1 (en) 2015-06-11 2016-11-29 Oculus Vr, Llc Wireless game controller
US10205763B2 (en) * 2015-08-26 2019-02-12 Zhan Ma Method and apparatus for the single input multiple output (SIMO) media adaptation
US10007339B2 (en) 2015-11-05 2018-06-26 Oculus Vr, Llc Controllers with asymmetric tracking patterns
US9839840B2 (en) 2015-11-05 2017-12-12 Oculus Vr, Llc Interconnectable handheld controllers
US9990045B2 (en) 2015-11-12 2018-06-05 Oculus Vr, Llc Method and apparatus for detecting hand gestures with a handheld controller
US10130875B2 (en) 2015-11-12 2018-11-20 Oculus Vr, Llc Handheld controller with finger grip detection
US9804693B2 (en) * 2015-12-18 2017-10-31 Oculus Vr, Llc Handheld controller with activation sensors
US10386922B2 (en) 2015-12-30 2019-08-20 Facebook Technologies, Llc Handheld controller with trigger button and sensor retainer assembly
US10343059B2 (en) 2015-12-30 2019-07-09 Facebook Technologies, Llc Handheld controller with thumbstick guard
US9977494B2 (en) 2015-12-30 2018-05-22 Oculus Vr, Llc Tracking constellation assembly for use in a virtual reality system
US10441880B2 (en) 2015-12-30 2019-10-15 Facebook Technologies, Llc Handheld controller with spring-biased third finger button assembly
US11857869B2 (en) 2015-12-31 2024-01-02 Meta Platforms Technologies, Llc Handheld controller with hand detection sensors
US10963159B2 (en) * 2016-01-26 2021-03-30 Lenovo (Singapore) Pte. Ltd. Virtual interface offset
US20170329440A1 (en) * 2016-05-12 2017-11-16 Cirque Corporation Controller premonition using capacitive sensing
US10739972B2 (en) 2016-06-10 2020-08-11 Apple Inc. Device, method, and graphical user interface for managing electronic communications
USD835104S1 (en) 2016-09-27 2018-12-04 Oculus Vr, Llc Wireless game controller
US10283082B1 (en) 2016-10-29 2019-05-07 Dvir Gassner Differential opacity position indicator
EP3340031B1 (en) * 2016-12-21 2021-09-15 Nxp B.V. Motion detection circuits, and associated methods
US10226697B2 (en) 2017-06-01 2019-03-12 Microsoft Technology Licensing, Llc Input device with sector geared feedback trigger
US10850190B2 (en) 2017-06-01 2020-12-01 Microsoft Technology Licensing, Llc Input device with clutched force-feedback trigger
US10737172B2 (en) 2017-06-01 2020-08-11 Microsoft Technology Licensing, Llc Input device with force sensor feedback trigger
US10773159B2 (en) 2017-06-01 2020-09-15 Microsoft Technology Licensing, Llc Input device with linear geared feedback trigger
US10384123B2 (en) 2017-06-01 2019-08-20 Microsoft Technology Licensing, Llc Motor-driven adjustable-tension trigger
CN107340894A (zh) * 2017-09-06 2017-11-10 合肥庆响网络科技有限公司 计算机游戏鼠标
USD861709S1 (en) * 2018-01-09 2019-10-01 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
US10367540B1 (en) 2018-02-20 2019-07-30 Cypress Semiconductor Corporation System and methods for low power consumption by a wireless sensor device
CN108563342B (zh) * 2018-04-28 2021-12-10 京东方科技集团股份有限公司 鼠标及其使用方法
USD869493S1 (en) 2018-09-04 2019-12-10 Apple Inc. Electronic device or portion thereof with graphical user interface
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
DK179896B1 (en) 2018-09-11 2019-08-30 Apple Inc. CONTENT-BASED TACTILE OUTPUTS
WO2020142093A1 (en) * 2019-01-02 2020-07-09 Hewlett-Packard Development Company, L.P. OSDs FOR DISPLAY DEVICES
CN109947631B (zh) * 2019-03-27 2020-12-18 联想(北京)有限公司 一种数据处理方法及电子设备
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
US11262853B2 (en) 2020-03-10 2022-03-01 Cirque Corporation Measuring capacitance
US11416136B2 (en) 2020-09-14 2022-08-16 Apple Inc. User interfaces for assigning and responding to user inputs

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02153415A (ja) * 1988-12-06 1990-06-13 Hitachi Ltd キーボード装置
JPH0511913A (ja) * 1991-06-28 1993-01-22 Shimadzu Corp 表示装置用キーボード
JPH05150925A (ja) * 1991-05-31 1993-06-18 Philips Gloeilampenfab:Nv 人間−マシンインタフエースを具えた装置
US5311175A (en) * 1990-11-01 1994-05-10 Herbert Waldman Method and apparatus for pre-identification of keys and switches
JPH06175762A (ja) * 1992-12-09 1994-06-24 Matsushita Electric Ind Co Ltd キーボード入力装置
JPH09222876A (ja) * 1996-02-16 1997-08-26 Hitachi Ltd カーソル表示装置
JPH10289047A (ja) * 1997-04-14 1998-10-27 Hitachi Ltd キーボード
JP2000181602A (ja) * 1998-12-17 2000-06-30 Idec Izumi Corp スイッチ付処理システムおよびスイッチ装置
JP2000250677A (ja) * 1999-03-02 2000-09-14 Toshiba Corp マルチモーダルインターフェース装置及びマルチモーダルインターフェース方法
JP2000355256A (ja) * 1999-06-11 2000-12-26 Alpine Electronics Inc 車載用電子機器の操作装置

Family Cites Families (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1479584A (en) 1973-07-14 1977-07-13 Solartron Electronic Group Data terminals and data processing apparatus incorporating such terminals
US4317956A (en) 1980-11-10 1982-03-02 Bell Telephone Laboratories, Incorporated Remote chalkboard automatic cursor
US4403777A (en) 1981-01-08 1983-09-13 Mattel, Inc. Electronic game using phototransducer
JPH0322259A (ja) 1989-03-22 1991-01-30 Seiko Epson Corp 小型データ表示・再生装置
US5252951A (en) * 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
US5309172A (en) 1989-06-14 1994-05-03 Fox Charles S Computer data and command entry device
US6040821A (en) 1989-09-26 2000-03-21 Incontrol Solutions, Inc. Cursor tracking
US4977397A (en) 1989-10-13 1990-12-11 Sysgration Ltd. Touch-control computer house
WO1991017522A1 (en) 1990-05-01 1991-11-14 Wang Laboratories, Inc. Hands-free hardware keyboard
US5208903A (en) 1990-09-10 1993-05-04 Eastman Kodak Company Video image display for predicting color hardcopy image quality
JPH04357521A (ja) * 1990-10-10 1992-12-10 Fuji Xerox Co Ltd 情報処理装置
US5347295A (en) * 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
EP0498082B1 (en) 1991-02-01 1998-05-06 Koninklijke Philips Electronics N.V. Apparatus for the interactive handling of objects
US6005496A (en) 1991-04-10 1999-12-21 Kinesis Corporation Ergonomic keyboard apparatus
US5327160A (en) * 1991-05-09 1994-07-05 Asher David J Touch sensitive user interface for television control
EP0516228B1 (en) 1991-05-31 1999-12-15 Koninklijke Philips Electronics N.V. Device with a human-machine interface
US5250929A (en) 1991-07-29 1993-10-05 Conference Communications, Inc. Interactive overlay-driven computer display system
US5666113A (en) 1991-07-31 1997-09-09 Microtouch Systems, Inc. System for using a touchpad input device for cursor control and keyboard emulation
JP2827612B2 (ja) 1991-10-07 1998-11-25 富士通株式会社 タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。
WO1993014454A1 (en) 1992-01-10 1993-07-22 Foster-Miller, Inc. A sensory integrated data interface
US5818800A (en) 1992-04-06 1998-10-06 Barker; Bruce J. Voice recording device having portable and local modes of operation
US5589855A (en) 1992-08-14 1996-12-31 Transaction Technology, Inc. Visually impaired customer activated terminal method and system
US6100875A (en) 1992-09-03 2000-08-08 Ast Research, Inc. Keyboard pointing device
FR2697935B1 (fr) 1992-11-12 1995-01-13 Sextant Avionique Terminal de communication compact et ergonomique muni de surfaces de détection de proximité.
US5355148A (en) 1993-01-14 1994-10-11 Ast Research, Inc. Fingerpoint mouse
DE69432199T2 (de) 1993-05-24 2004-01-08 Sun Microsystems, Inc., Mountain View Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen
CA2124505C (en) 1993-07-21 2000-01-04 William A. S. Buxton User interface having simultaneously movable tools and cursor
US6097371A (en) 1996-01-02 2000-08-01 Microsoft Corporation System and method of adjusting display characteristics of a displayable data file using an ergonomic computer input device
JP2866591B2 (ja) * 1994-01-10 1999-03-08 インターナショナル・ビジネス・マシーンズ・コーポレイション オブジエクトの使用可能性の通知方法及び装置
US5982302A (en) 1994-03-07 1999-11-09 Ure; Michael J. Touch-sensitive keyboard/mouse
JP2939119B2 (ja) 1994-05-16 1999-08-25 シャープ株式会社 手書き文字入力表示装置および方法
US5530455A (en) 1994-08-10 1996-06-25 Mouse Systems Corporation Roller mouse for implementing scrolling in windows applications
US5559301A (en) 1994-09-15 1996-09-24 Korg, Inc. Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems
US5457480A (en) 1994-10-03 1995-10-10 Dell Usa Integrated mouse and numerical keypad device
US5592609A (en) * 1994-10-31 1997-01-07 Nintendo Co., Ltd. Video game/videographics program fabricating system and method with unit based program processing
US5805144A (en) 1994-12-14 1998-09-08 Dell Usa, L.P. Mouse pointing device having integrated touchpad
US5572238A (en) 1995-01-27 1996-11-05 Xerox Corporation Computer user interface for non-dominant hand assisted control
JP2859559B2 (ja) * 1995-05-26 1999-02-17 インターナショナル・ビジネス・マシーンズ・コーポレイション コンピュータ・ネットワーク・システム、コンピュータ・システム、及びクリップボード制御方法
US5973694A (en) * 1995-06-02 1999-10-26 Chatham Telecommunications, Inc., Method of communication using sized icons, text, and audio
US6166723A (en) 1995-11-17 2000-12-26 Immersion Corporation Mouse interface device providing force feedback
US6016520A (en) 1995-07-14 2000-01-18 Microsoft Corporation Method of viewing at a client viewing station a multiple media title stored at a server and containing a plurality of topics utilizing anticipatory caching
US5793356A (en) 1995-07-31 1998-08-11 Microsoft Corporation System and method for the software emulation of a computer joystick
US5694153A (en) 1995-07-31 1997-12-02 Microsoft Corporation Input device for providing multi-dimensional position coordinate signals to a computer
DE19528457C2 (de) * 1995-08-03 2001-03-08 Mannesmann Vdo Ag Bedieneinrichtung
US5666499A (en) 1995-08-04 1997-09-09 Silicon Graphics, Inc. Clickaround tool-based graphical interface with two cursors
US5675361A (en) 1995-08-23 1997-10-07 Santilli; Donald S. Computer keyboard pointing device
WO1997009709A1 (en) 1995-09-01 1997-03-13 Hunter Digital, Ltd. System for steering an electronically responsive device
US5767457A (en) 1995-11-13 1998-06-16 Cirque Corporation Apparatus and method for audible feedback from input device
US5847695A (en) 1996-01-04 1998-12-08 Siemens Business Communication Systems, Inc. Method and apparatus for implementing a dialpad on the surface of a mouse input device
US5914702A (en) 1996-03-04 1999-06-22 Hewlett-Packard Company Pointing device with wrap-around buttons
US5825356A (en) 1996-03-18 1998-10-20 Wall Data Incorporated Help system with semitransparent window for disabling controls
US5831597A (en) * 1996-05-24 1998-11-03 Tanisys Technology, Inc. Computer input device for use in conjunction with a mouse input device
US5841425A (en) 1996-07-31 1998-11-24 International Business Machines Corporation Ambidextrous computer input device
US5805159A (en) * 1996-08-22 1998-09-08 International Business Machines Corporation Mobile client computer interdependent display data fields
US6121960A (en) 1996-08-28 2000-09-19 Via, Inc. Touch screen systems and methods
JPH1069346A (ja) * 1996-08-28 1998-03-10 Alps Electric Co Ltd 座標入力装置およびその制御方法
JPH1091307A (ja) 1996-09-12 1998-04-10 Nec Software Ltd ブラインドタッチキーボード装置
US5854624A (en) 1996-09-12 1998-12-29 Innovative Device Technologies, Inc. Pocket-sized user interface for internet browser terminals and the like
US5877750A (en) 1996-09-17 1999-03-02 International Business Machines Corporation Method and apparatus for in-place line width selection for graphics applications
FR2753868A1 (fr) * 1996-09-25 1998-03-27 Technical Maintenance Corp Procede de selection d'un enregistrement sur un systeme numerique de reproduction audiovisuel et systeme pour mise en oeuvre du procede
US5905493A (en) 1996-11-13 1999-05-18 Unalink Communications, Inc. Color coded instructional scheme for computers and the like system, method and article of manufacture
US6686911B1 (en) * 1996-11-26 2004-02-03 Immersion Corporation Control knob with control modes and force feedback
KR100243031B1 (ko) 1996-11-27 2000-02-01 구자홍 컴퓨터 커서 조절장치
US5987345A (en) * 1996-11-29 1999-11-16 Arch Development Corporation Method and system for displaying medical images
US6088023A (en) * 1996-12-10 2000-07-11 Willow Design, Inc. Integrated pointing and drawing graphics system for computers
US5983245A (en) * 1996-12-27 1999-11-09 Apple Computer, Inc. Method and apparatus for implementing universal resource locator menus
US5973670A (en) 1996-12-31 1999-10-26 International Business Machines Corporation Tactile feedback controller for computer cursor control device
US5936612A (en) * 1997-05-30 1999-08-10 Wang; Yanqing Computer input device and method for 3-D direct manipulation of graphic objects
US6246405B1 (en) 1997-06-06 2001-06-12 Mci Communications Corporation Method and apparatus for managing a plurality of objects on a graphical user interface
US5910800A (en) 1997-06-11 1999-06-08 Microsoft Corporation Usage tips for on-screen touch-sensitive controls
US5910802A (en) 1997-06-11 1999-06-08 Microsoft Corporation Operating system for handheld computing device having taskbar auto hide
US5943052A (en) 1997-08-12 1999-08-24 Synaptics, Incorporated Method and apparatus for scroll bar control
US5973622A (en) 1997-09-12 1999-10-26 Acer Peripherals, Inc. Keyboard with a two-dimensional actuator for generating direction signals
US5995101A (en) * 1997-10-29 1999-11-30 Adobe Systems Incorporated Multi-level tool tip
US5977952A (en) 1997-10-29 1999-11-02 International Business Machines Corporation Method and system for an ambidextrous mouse
US6046728A (en) 1997-12-05 2000-04-04 Dell Usa, L.P. Keyboard actuated pointing device
KR100595917B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US6232968B1 (en) * 1998-03-31 2001-05-15 International Business Machines Corporation Data processor controlled display system with a plurality of switchable customized basic function interfaces for the control of varying types of operations
US6118450A (en) * 1998-04-03 2000-09-12 Sony Corporation Graphic user interface that is usable as a PC interface and an A/V interface
US6133916A (en) * 1998-04-08 2000-10-17 International Business Machines Corporation Graphical user interface providing access to files downloaded over a network
US6262717B1 (en) 1998-07-02 2001-07-17 Cirque Corporation Kiosk touch pad
US5977397A (en) * 1999-04-14 1999-11-02 Spohn; Ronald Removal of an impurity from a mixture with a codistillant
EP1052565A3 (en) * 1999-05-13 2005-05-11 Sony Corporation Information processing method and apparatus
US6680677B1 (en) 2000-10-06 2004-01-20 Logitech Europe S.A. Proximity detector to indicate function of a key

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02153415A (ja) * 1988-12-06 1990-06-13 Hitachi Ltd キーボード装置
US5311175A (en) * 1990-11-01 1994-05-10 Herbert Waldman Method and apparatus for pre-identification of keys and switches
JPH05150925A (ja) * 1991-05-31 1993-06-18 Philips Gloeilampenfab:Nv 人間−マシンインタフエースを具えた装置
JPH0511913A (ja) * 1991-06-28 1993-01-22 Shimadzu Corp 表示装置用キーボード
JPH06175762A (ja) * 1992-12-09 1994-06-24 Matsushita Electric Ind Co Ltd キーボード入力装置
JPH09222876A (ja) * 1996-02-16 1997-08-26 Hitachi Ltd カーソル表示装置
JPH10289047A (ja) * 1997-04-14 1998-10-27 Hitachi Ltd キーボード
JP2000181602A (ja) * 1998-12-17 2000-06-30 Idec Izumi Corp スイッチ付処理システムおよびスイッチ装置
JP2000250677A (ja) * 1999-03-02 2000-09-14 Toshiba Corp マルチモーダルインターフェース装置及びマルチモーダルインターフェース方法
JP2000355256A (ja) * 1999-06-11 2000-12-26 Alpine Electronics Inc 車載用電子機器の操作装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008511077A (ja) * 2004-08-25 2008-04-10 アップル インコーポレイテッド ポータブルコンピュータの幅広タッチパッド
JP2009522669A (ja) * 2005-12-30 2009-06-11 アップル インコーポレイテッド マルチタッチ入力を備えた携帯電子装置
JP2012508427A (ja) * 2008-11-12 2012-04-05 アップル インコーポレイテッド 表面に載せた手に合わせたジェスチャーの発生
US8502785B2 (en) 2008-11-12 2013-08-06 Apple Inc. Generating gestures tailored to a hand resting on a surface
JP2010158995A (ja) * 2009-01-09 2010-07-22 Nippon Seiki Co Ltd 車両用表示装置
JP2012147341A (ja) * 2011-01-14 2012-08-02 Seiko Epson Corp 共通鍵交換方法、共通鍵生成方法、共通鍵交換システム、共通鍵交換装置、及びそのプログラム

Also Published As

Publication number Publication date
JP4758464B2 (ja) 2011-08-31
JP2008287746A (ja) 2008-11-27
EP1241557A3 (en) 2007-01-24
JP4737912B2 (ja) 2011-08-03
US7256770B2 (en) 2007-08-14
US20010015718A1 (en) 2001-08-23
EP1241557A2 (en) 2002-09-18
US20050275637A1 (en) 2005-12-15
US7602382B2 (en) 2009-10-13

Similar Documents

Publication Publication Date Title
JP4758464B2 (ja) 補助用コントロールおよび表示画面を有するコンピュータシステムおよび方法
JP4138340B2 (ja) コンピュータシステムの補助用コントロールを検出してフィードバックを与える方法
AU2022235622B2 (en) Clock faces for an electronic device
US11782598B2 (en) Methods and interfaces for media control with dynamic feedback
US6333753B1 (en) Technique for implementing an on-demand display widget through controlled fading initiated by user contact with a touch sensitive input device
US7091954B2 (en) Computer keyboard and cursor control system and method with keyboard map switching
US6232957B1 (en) Technique for implementing an on-demand tool glass for use in a desktop user interface
US8638315B2 (en) Virtual touch screen system
JP4763695B2 (ja) タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース
US10613743B2 (en) User interface for receiving user input
US10386995B2 (en) User interface for combinable virtual desktops
US11797113B2 (en) Devices, methods, and graphical user interfaces for interaction with a control
JP2010262660A (ja) 小型ディスプレイ上でグラフィカルユーザインタフェースをナビゲートするためのシステムおよび方法
US20210247849A1 (en) Input device, signal processing unit thereto, and method to control the input device
JP2003248544A (ja) グラフィカルユーザインターフェース、情報処理装置の操作方法、情報処理装置、並びにプログラム
JP5414134B1 (ja) タッチ式入力システムおよび入力制御方法
US11188224B2 (en) Control method of user interface and electronic device
US20240086026A1 (en) Virtual mouse for electronic touchscreen display
JP2003248537A (ja) グラフィカルユーザインターフェース、情報処理装置の操作方法、情報処理装置、並びにプログラム
JP2003248547A (ja) 情報処理装置の入力デバイス、情報処理装置の操作方法、情報処理装置、並びにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050314

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080701

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080704

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080801

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110426

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees