JP2002287862A - コンピュータ入力装置に近接する物理的存在の感知に応答して情報を表示する方法 - Google Patents

コンピュータ入力装置に近接する物理的存在の感知に応答して情報を表示する方法

Info

Publication number
JP2002287862A
JP2002287862A JP2002069360A JP2002069360A JP2002287862A JP 2002287862 A JP2002287862 A JP 2002287862A JP 2002069360 A JP2002069360 A JP 2002069360A JP 2002069360 A JP2002069360 A JP 2002069360A JP 2002287862 A JP2002287862 A JP 2002287862A
Authority
JP
Japan
Prior art keywords
auxiliary control
user
display
detecting
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002069360A
Other languages
English (en)
Other versions
JP4138340B2 (ja
JP2002287862A5 (ja
Inventor
Kenneth P Hinckley
ピー.ヒンクリー ケネス
Steven N Bathiche
エヌ.バシチェ スティーブン
William Vong
ボン ウィリアム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2002287862A publication Critical patent/JP2002287862A/ja
Publication of JP2002287862A5 publication Critical patent/JP2002287862A5/ja
Application granted granted Critical
Publication of JP4138340B2 publication Critical patent/JP4138340B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • B60K35/10
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0219Special purpose keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03549Trackballs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1037Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1043Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being characterized by constructional details
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6027Methods for processing data by generating or executing the game program using adaptive systems learning from user actions, e.g. for skill level adjustment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • B60K2360/141
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • G05G2009/04766Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks providing feel, e.g. indexing means, means to create counterforce
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • G05G2009/04774Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks with additional switches or sensors on the handle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

(57)【要約】 【課題】 補助用コントロールの機能およびステータス
を、そのコンテクスト(例えばアクティブな状態にある
アプリケーションやゲーム)に関係なく、より容易に決
定できる能力をユーザに提供すること。 【解決手段】 コンピュータシステムで、タッチを検出
する補助用コントロールを有するタッチ検出入力装置を
使用して補助用コントロールに関する情報をユーザに与
える。ユーザの手がタッチ検出入力装置に接近すると、
表示画面にフィードバックを表示することができる。ユ
ーザは、補助用コントロールにタッチまたは極端に近接
することにより入力装置を起動せずにフィードバックを
受け取ることができる。このフィードバックは、補助用
コントロールまたは同時タッチの補助用コントールの組
み合わせに関するツールチップの形態をとる。ユーザの
手がタッチ検出入力装置から離れるとユーザの手の検出
により発生したフィードバックもなくなる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】技術分野 本発明は、コンピュータシステム用の入力装置に関す
る。より詳細には、本発明は、コンピュータシステムに
おけるタッチ検出可能(タッチセンシティブと以下表現
する)な入力装置の使用に関する。
【0002】本出願は、1998年9月14日に出願さ
れ、連続番号09/152,434を割り振られ、本出
願の譲受人に譲渡された、Hinckley他による
「Proximity Sensor in a Co
mputer Input Device」という名称
の同時係属米国特許出願の一部係属出願である。この出
願は参照により本明細書に組み込む。本出願はまた、1
998年9月14日に出願され、連続番号09/15
2,432を割り振られ、本出願の譲受人に譲渡され
た、Hinckleyによる「A Techiniqu
e For Implementing a Two−
Handed Desktop Use Interf
ace For a Computer」という名称の
同時係属米国特許出願の一部係属出願である。この出願
は参照により本明細書に組み込む。本出願はさらに、1
998年9月14日に出願され、連続番号09/15
2,443を割り振られ、本出願の譲受人に譲渡され
た、Hinckley他による「Method of
Interacting With a Comput
erUsing a Proximity Senso
r in a Computer Input Dev
ice」という名称の同時係属米国特許出願の一部係属
出願である。この出願は参照により本明細書に組み込
む。
【0003】さらに、本出願は、1998年11月25
日に出願され、連続番号09/200,325を割り振
られ、本出願の譲受人に譲渡されたHinckleyに
よる「A Technique For Implem
enting an On−Demand Displ
ay Widget Through Control
led Fading Initiated By U
ser Contact With a Touch
Sensitive Input Device」とい
う名称の同時係属米国特許出願の一部係属出願である。
この出願は参照により本明細書に組み込むが、この出願
は、1998年9月14に出願され、連続番号60/1
00,261を割り当てられた「Toolglass
Improvements−On−Demand To
ol Sheet;Gesturing Throug
h Tool Sheets」という名称の米国仮特許
出願に対する優先権を主張している。本出願はまた、1
998年11月25日に出願され、連続番号09/20
0,321を割り振られ、本出願の譲受人に譲渡され
た、Hinckleyによる「A Technique
For Implementing an On−D
emand Tool Glass ForUse i
n a Desktop User Interfac
e」という名称の同時係属米国特許出願の一部係属出願
である。この出願は参照により本明細書に組み込むが、
この出願は、1998年9月14日に出願され連続番号
60/100,261を割り振られた「Toolgla
ss Improvements−On−Demand
Tool Sheet;Gesturing Thr
ough Tool Sheets」という名称の米国
仮特許出願に対する優先権を主張している。
【0004】本出願は、2000年4月5日に出願さ
れ、連続番号09/543,723を割り当てられ、本
出願の譲受人に譲渡されたHinckley他による
「Method of Interacting Wi
th a Computer Using a Pro
ximity Sensor in a Comput
er Input Device」という名称の同時係
属米国特許出願に関連する。この出願は参照により本明
細書に組み込むが、この出願は、上記に示した米国特許
出願番号09/152,443の係属出願である。
【0005】
【従来の技術】関連技術 キーボード、タッチパッド、トラックボール、ゲームコ
ントローラおよびマウスなどのコンピュータシステム用
の入力装置は、ジョイスティック、タッチパッド、トラ
ックボール、ヘッドセット、マイクロフォン、ボタン、
つまみ、ロッカースイッチ、トリガ、スライダ、ホイー
ル、生物測定学を応用したセンサなど、1つまたは複数
の補助用コントロールを含むことが多い。補助用コント
ロールは単独で使用することも、入力装置および他の補
助用コントロールと合わせて使用することも可能であ
る。
【0006】入力装置の大半は、トランスデューサまた
はスイッチを用いて入力信号を生成する。スイッチは通
例、キーボードのキーや、マウスのボタン、ジョイステ
ィック、およびゲームコントローラの中にある。トラン
スデューサはマウスおよびトラックボールの中にあり、
そのような装置の内部にあるボールの動きに基づくか、
または表面上での装置の移動を光学的に検出することに
よって電気信号を生成している。トランスデューサはヘ
ッドセットの中にもあり、この場合は音声信号を電気信
号に変換する。タッチパッドは、ユーザがタッチパッド
に触れると電気信号を提供するセンサを用いて入力信号
を生成するが、この信号は、タッチパッド内で接触の行
われた位置を含んでいる。
【0007】入力装置およびその補助用コントロールが
コンピュータに提供することのできる情報の量を増加す
ることが望まれるが、入力装置に追加することのできる
トランスデューサおよびスイッチの数は、ユーザが特定
のトランスデューサやスイッチが行う機能をすべて記憶
するための能力からおのずと制限され、また入力装置
(例えばキーボードやマウス)にスイッチおよびトラン
スデューサを配置するのに利用できる面積(real
estate)、あるいは少なくとも実行可能な形で利
用することのできる面積という実用面から制限される。
ユーザが1つ1つの補助用コントロールの機能を決定す
ることができるが、この能力も一般には、その補助用コ
ントロールが本来持つ、あるいはそれに近い固定した機
能(static label)に制限されてしまい、
それぞれの補助用コントロールを起動し、ボタンをクリ
ックし、メニューオプションを選択して、ヘルプファイ
ルを要求するか、ユーザマニュアルを読むことになる。
さらに補助用コントロールの機能は、ゲームあるいはア
プリケーションごとに変わる場合がある。したがって、
ある補助用コントロールの固定機能は、その入力装置と
その補助用コントロールの機能およびステータスがアプ
リケーションごとに変わる場合にはほとんど価値のない
ものになる。これに関して、ユーザが、あるゲームまた
はアプリケーションにおけるボタンおよび他のコントロ
ールの割り当てを覚えたとしても、別のゲームまたはア
プリケーションでは、同じボタンまたはコントロールに
異なる機能が割り当てられる可能性がある。同様に、補
助用コントロールが制御する機能のステータスは、一般
にはそのコントロールを起動することでしか決定するこ
とができない。
【0008】
【発明が解決しようとする課題】したがって、補助用コ
ントロールの機能およびステータスを、そのコンテクス
ト(例えばアクティブな状態にあるアプリケーションや
ゲーム)に関係なく、より容易に決定できる能力をユー
ザに提供することが必要とされている。
【0009】この必要性に対応するために、LEDや小
型LCDなどの表示器を入力装置およびその補助用コン
トロールに直接組み込んで、フィードバックまたは状態
情報を提供することが可能である。しかし、LEDやL
CDを個々の補助用コントロールと関連付けると、消費
電力量および入力装置のコストがいずれも増大する。さ
らに、LEDおよびLCDの出力形態は非常に限られて
おり、またメインの表示(例えばコンピュータモニタ)
から離れているので、ユーザは、コントロールの機能や
ステータスを決定するのに、常に画面から補助用コント
ロールに視線を移動しなければならない。このように常
に注意力の対象を移動していると、その時点のコンテク
ストを繰り返し把握し直さなければならないので、ユー
ザは精神的に疲労しかねない。したがって、コンピュー
タシステムで入力装置の補助用コントロールの機能およ
び/またはステータスを決定するための、より効率的
で、簡便かつ/または費用効果の高い方式を提供するこ
とが必要とされている。
【0010】
【課題を解決するための手段】本発明は、物理的な存在
を感知し、画面上の表示やコントロール自体における視
覚的フィードバック、聴覚的なフィードバック(例えば
音声や音楽)、あるいは触覚によるフィードバック(例
えばバイブレーション)を提供する、タッチセンシティ
ブな補助用コントロールを有するタッチセンシティブ式
入力装置を提供することにより、既存の入力装置に見ら
れる欠点の多くを克服する。
【0011】本発明の一態様では、キーボード、タッチ
パッド、トラックボール、ゲームコントローラ、モニ
タ、ジョイスティック、ステアリングホイール、ヘッド
セット、あるいはマウスといった入力装置の、キー、ボ
タン、つまみ、ロッカースイッチ、あるいはその他の補
助用コントロールに、ユーザの手との接触、あるいはそ
の著しい近接状態(proximity)を検出するセ
ンサを補うことができる。別の態様によると、補助用コ
ントロールの感知信号により、ユーザが起動する(例え
ば、押す、回す、回転する、あるいはその他の方法で)
ことなく接触したコントロールに関するステータス、状
態情報、ツールのヒント(tips)、ヘルプテキス
ト、またはその他のフィードバックの画面上表示をユー
ザに提供することができる。あるいは、画面上表示によ
って提供するフィードバックに代えて、またはそれに加
えて、聴覚あるいは触覚を利用したフィードバックをユ
ーザに提供することもできる。したがって、ユーザは様
々なボタンやその他のコントロールに触れるだけで、そ
れらの機能の割り当てやステータスを知ることができ、
あるいは他のフィードバックを得ることができる。ユー
ザはそのようなフィードバックにより、ユーザがそれに
続いてコントロールの起動を選択した場合にそのボタン
またはコントロールが行う動作の結果をより正確に理解
することができる。また、ユーザは、迅速かつ気軽にス
テータス情報を見ることができるようになる。
【0012】本発明の態様は、ユーザの手の検出に応答
して、補助用コントロールについてのコンテクストに即
したフィードバックを表示ウィジェット(displa
ywidget)(例えばグラフィカルユーザインタフ
ェース(GUI))などの画面上表示に提供することを
含む。このように、タッチセンシティブなコントロール
を使用して、ユーザの行為のコンテクストを予測するこ
とができる。状況のコンテクストは、コントロールをつ
かむ、コントロールに触れる、あるいは接近するといっ
たユーザによる予備段階の行為によって確定することが
できる。行為のコンテクストを知ると、コンピュータは
動作を開始し、ユーザの意思を予測することができる。
【0013】本発明の別の態様によると、補助用コント
ロールのコンテクストには、ゲーム、ユーティリティ、
および生産性管理(productivity)のアプ
リケーションなど各種アプリケーションを含むことがで
きるがこれらに限定しない。また、コンテクストは、ア
プリケーションまたはゲームの様々な部分ごとに変える
こともできる。
【0014】本発明の別の態様では、補助用コントロー
ルに近接した物理的存在、または接触した物理的存在の
検出に応答してGUIが表示されると、ユーザは、別の
補助用コントロールまたは入力装置を用いてそのGUI
と対話することができる。この入力装置には、マウス、
タッチパッド、あるいはキーパッドが含まれるがこれら
に限定しない。例えば、音量コントロール用のGUIが
表示されると、ユーザはマウスで音量を調節することが
できる。
【0015】本発明の別の態様では、その補助用コント
ロールを含む入力装置は、物理的存在(例えばユーザ)
がその装置またはそのコントロールに触れると、それを
直接検出するタッチセンサを備えることができ、これに
より、例えばユーザが装置と手との物理的な接触状態を
確立または解除した時など、「オンデマンド」方式でフ
ィードバックの表示および消去(dismissal)
を提供することができる。
【0016】例えば、ユーザが指で装置に触れるなどし
て装置またはコントロールへの接触を行ったことを反映
した、装置が提供する接触表示の変化があると、ツール
ヒントを表示することができる。装置から指を持ち上げ
るなどユーザが装置との物理的接触を解除したことを示
す変化があると、そのツールヒントをディスプレイから
消すことができる。本発明の一態様では、ユーザの注意
をそらさないように、このような変化が検出されるとそ
れに対応する所定のアニメーションシーケンスを開始す
ることができる。このシーケンスは規定の時間にわたっ
て行われるが、ここではユーザによる接触が始まると直
ちにフィードバックが次第に見えるようになり始め(通
例は見えない状態、つまり完全に透明な状態から、最終
的には所定の半透明または非透明な状態になる)、そし
て例えばユーザが手を装置から持ち上げるなど装置との
ユーザ接触が解除されると、フィードバックは直ちに次
第に消え始める(すなわち最終的には元の見えない状態
に戻る。)
【0017】本発明の別の態様では、ツールバー、スク
ロールバーなどは、物理的存在の検出に応答してのみ表
示画面に表示することができる。例を挙げると、起動は
行わずに補助用コントロールに触れるとツールバーを画
面上に表示することができ、コントロールとの接触を解
除するとツールバーを消すことができる。本発明の一態
様では、ユーザは、所望の場合には片方の手で補助用コ
ントロールまたは入力装置を使用してツールバーとのイ
ンタフェースをとりながら、ツールバーを画面上に表示
させた補助用コントロールへの接触を続けることができ
る。この態様によると、ディスプレイ上の乱雑さを低減
することができ、プログラムを実行する際の適切な時
に、ユーザの行為に一致し、かつそれによって制御する
方式で、利用可能なアプリケーション画面の範囲を拡大
することができる。この際、それを行うための著しい負
担が認識される形でユーザにかかることはない。これに
より、「ユーザ経験」が大幅に改善されるものと思われ
る。
【0018】当業者には、本発明の上記およびその他の
新奇の利点、詳細、実施形態、特徴、および目的が、以
下の本発明の詳細な説明、頭記の特許請求の範囲、およ
び添付図面から明らかになろう。本明細書に記載するこ
れらの事項は本発明を説明するのに有用である。
【0019】
【発明の実施の形態】本発明の例証的実施形態による
と、入力装置の補助用コントロールは、物理的存在(例
えばユーザの手やスタイラス)がコントロールに触れる
とそれを感知するように構成して、それにより「オンデ
マンド」方式で表示ウィジェットの表示および消去を提
供することができる。表示ウィジェットはグラフィカル
ユーザインタフェース(GUI)でよく、機能(例えば
ツールヒント)および/またはステータス情報などの情
報を「オンデマンド」方式で含むことができる。表示ウ
ィジェットの例示的なものには、ツールバー、ツールグ
ラスシート、スクロールバー、ウィンドウフレームおよ
びウィンドウ装飾、タイトルバー、フローティングツー
ルパレット、モーダルおよび非モーダルのダイアログボ
ックス、リストまたはコンボボックス、コントロール、
ボタンの設定、テキスト入力領域などが含まれる。
【0020】コントロールに指で触れるなどユーザが補
助用コントロールとの物理的接触を行ったことを反映し
た、入力装置が提供する接触表示の変化は、表示ウィジ
ェットを表示させることができる。コントロールから指
を持ち上げるなどユーザが補助用コントロールとの接触
を解除したことを示す変化は、表示ウィジェットを消す
ことができる。ユーザの注意をそらさないように、こう
した検出された変化があると、それに対応する所定のア
ニメーションシーケンスを開始することができる。この
アニメーションは規定の時間にわたって行われるが、こ
こではユーザの接触が開始すると、直ちに表示ウィジェ
ットが徐々に見えるようになり始め(通例は、見えない
状態、つまり完全に透明な状態から、最終的には所定の
半透明の状態になる)、そしてユーザが指をコントロー
ルから持ち上げるなど補助用コントロールとのユーザ接
触が解除されると、直ちに表示ウィジェットが徐々に消
え始める(すなわち最終的には元の見えない状態に戻
る)。さらに、使用する特定のタッチセンシティブな補
助用コントロールによっては、短い時間遅延、すなわち
「冷却期間」が経過した後にフェーディングを始めるこ
とが好ましい場合がある。例えば、ユーザはタッチパッ
ドの端まで達すると、手を「再クラッチ」して(例え
ば、短時間指を持ち上げてからパッドの中心部に置き直
すなど)ポインタとしての動きを続ける場合がある。こ
のようなことが起きたとき、直ちにフェーディングを開
始するのは表示ウィジェットにとって厄介であることが
考えられる。フェーディングの開始前に、継続的な指の
接触感知と組み合わせて短時間の時間遅延(例えば、約
0.5〜1.0秒間)を置くと、画面表示を全く変化さ
せずに上記のような短時間の再クラッチを行えるように
なる。同様に、ユーザが補助用コントロールに十分に長
い時間触れていない場合は、フェードインの開始前に、
ユーザ接触の解除の感知と組み合わせて同じような時間
遅延を置くと、不注意にわずかな時間接触したことによ
って表示ウィジェットがフェードインしてからフェード
アウトし、ユーザを別の点でいらだたせるのを防ぐこと
ができる。
【0021】さらに、本発明によると、表示ウィジェッ
ト(例えばツールバー)を「オンデマンド」で表示およ
び消去するためには、接触によって引き起こされる表示
および消去も容易に使用することができる。これは、ユ
ーザの都合のいい方の(preferred)手と、別
のタッチセンシティブな補助用コントロール、またはタ
ッチセンシティブなマウスなどの入力装置との接触を感
知することによって行う。接触の検出、具体的にはユー
ザが補助用コントロールまたは入力装置をつかんだこと
の検出に応答して表示ウィジェットを表示することによ
り、補助用コントロールまたは入力装置に手を伸ばし、
それをつかんだ際のユーザの行動に潜在的にあった表示
ウィジェットを利用したいというユーザの要望を活用す
ることができる。表示ウィジェットは、例えば接触(t
ouch contact)をやめたときなど、ユーザ
が補助用コントロールまたは入力装置から手を離すと消
える。このような方式で表示ウィジェットを表示および
消去すると、ユーザにさらにかかる認識可能な負担が生
じたとしてもごくわずかで済む点が好都合である。
【0022】図1およびそれに関連する説明は、本発明
を実施することができる適切なコンピューティング環境
の全般的な説明を簡潔に提供するものである。本発明は
少なくとも部分的には、プログラムモジュールなどパー
ソナルコンピュータで実行されるコンピュータ実行可能
命令の一般的な文脈で説明するが、それが必須である訳
ではない。一般にプログラムモジュールには、特定のタ
スクを実行する、または特定の抽象データタイプを実施
するルーチンプログラム、オブジェクト、構成要素、デ
ータ構造などが含まれる。さらに、当業者には、本発明
は他のコンピュータシステム構成でも実施できることが
理解されよう。これには、携帯用デバイス、マルチプロ
セッサシステム、マイクロプロセッサベースまたはプロ
グラマブルな消費者家電製品、ネットワークPC、ミニ
コンピュータ、メインフレームコンピュータなどが含ま
れる。本発明はまた、通信ネットワークを通じてリンク
された遠隔処理装置によってタスクを実行する分散型コ
ンピューティング環境で実施してもよい。分散型コンピ
ューティング環境の場合、プログラムモジュールはロー
カルおよびリモートどちらのメモリ記憶装置に置いても
よい。
【0023】図1を参照すると、本発明を実施するため
の例示的システムは、処理装置(CPU)21と、シス
テムメモリ22と、システムメモリ22を含む各種のシ
ステム構成要素を処理装置21に結合するシステムバス
23とを含んだ従来型パーソナルコンピュータ20を用
いる例証的コンピュータシステムを含む。システムバス
23は、各種のバスアーキテクチャのうち任意のものを
使用したメモリバスまたはメモリコントローラ、周辺バ
ス、ローカルバスを含む何種類かのバス構造の任意のも
のでよい。システムメモリ22は、読み出し専用メモリ
(ROM)24およびランダムアクセスメモリ(RA
M)25を含む。基本入出力(BIOS)26は、起動
時などにパーソナルコンピュータ20内の要素間の情報
転送を助ける基本ルーチンを含んでおり、ROM24に
記憶されている。パーソナルコンピュータ20はさら
に、ハードディスク(図示せず)との読み出しおよびそ
こへの書き込みを行うハードディスクドライブ27、取
り外し可能な磁気ディスク29との読み出しおよび書き
込みを行う磁気ディスクドライブ28、およびCD R
OMまたはその他の光媒体など取り外し可能な光ディス
ク31との読み出しまたは書き込みを行う光ディスクド
ライブ30を含む。ハードディスクドライブ27、磁気
ディスクドライブ28、光ディスクドライブ30はそれ
ぞれ、ハードディスクドライブインタフェース32、磁
気ディスクドライブインタフェース33、および光ディ
スクドライブインタフェース34によりシステムバス2
3に接続されている。これらドライブおよびそれに関連
するコンピュータ可読媒体は、コンピュータ可読命令、
データ構造、プログラムモジュール、およびその他パー
ソナルコンピュータ20のデータの不揮発性記憶を提供
する。
【0024】本明細書に示す例示的環境ではハードディ
スク、取り外し可能磁気ディスク29、および取り外し
可能光ディスク31を用いているが、当業者は、磁気カ
セット、フラッシュメモリカード、デジタルビデオディ
スク、ベルヌーイカートリッジ、ランダムアクセスメモ
リ(RAM)、読み出し専用メモリ(ROM)など、コ
ンピュータからのアクセスが可能なデータを記憶するこ
とができる他種のコンピュータ可読媒体もこの例示的動
作環境で使用できることを理解されよう。
【0025】ハードディスク、磁気ディスク29、光デ
ィスク31、ROM24またはRAM25には、オペレ
ーティングシステム35、1つまたは複数のアプリケー
ションプログラム36、他のプログラムモジュール3
7、プログラムデータ38、およびデバイスドライバ6
0を含む複数のプログラムモジュールを記憶することが
できる。デバイスドライバ60は、ユーザが入力装置4
3を通じて入力したコマンドおよび情報を処理する。入
力装置には、キーボード、マウス、ゲームコントロー
ラ、トラックボール、タッチパッドなどが含まれる。ま
たこれらの入力装置は、ジョイスティック、ゲームパッ
ド、タッチパッド、トラックボール、キー、ヘッドセッ
ト、モニタ、マイクロフォン、ボタン、つまみ、ロッカ
ースイッチ、トリガ、スライダ、ホイール、レバー、タ
ッチストリップ、生物測定学を応用したセンサなどの補
助用コントロールも有することができる。入力装置43
は、有線式または無線によりパーソナルコンピュータ2
0に結合することができる。
【0026】本発明の例示的実施形態によると、上記の
ような入力装置の少なくとも1つはタッチセンサ40を
含み、マウスなどの入力装置は、タッチセンサ40およ
び移動トランスデューサ42の両方を有することができ
る。タッチセンサ40は、ユーザの手などの物理的存在
が、入力装置43自体の1つあるいはその補助用コント
ロールに触れるとそれを示す信号を生成することができ
る。移動トランスデューサ42は、ユーザが入力装置の
一部を動かすとそれを示す信号を生成することができ
る。タッチセンサ40および移動トランスデューサ42
が生成した信号は、システムバス23に結合されたシリ
アルポートインタフェース46を通じ、処理装置21に
接続された導線に沿って渡すことができるが、接続はサ
ウンドカード、パラレルポート、ゲームポートあるいは
ユニバーサルシリアルバス(USB)など他のインタフ
ェースによって行ってもよい。
【0027】モニタ47または他タイプの表示装置も、
ビデオアダプタ48などのインタフェースを介してシス
テムバス23に接続することができる。パーソナルコン
ピュータは通例、モニタ47以外にも、スピーカ45お
よびプリンタ(図示せず)など他の周辺出力装置を含む
ことができる。
【0028】パーソナルコンピュータ20は、リモート
コンピュータ49など1つまたは複数のリモートコンピ
ュータへの論理接続を使用したネットワーク環境で動作
することができる。リモートコンピュータ49は、別の
パーソナルコンピュータ、携帯用デバイス、サーバ、ル
ータ、ネットワークPC、ピアデバイスまたは他のネッ
トワークノードでよく、また図1にはメモリ記憶装置5
0しか示していないが、通例は上記でパーソナルコンピ
ュータ20に関連して説明した要素の多数またはすべて
を含んでいる。図1に示す論理接続は、ローカルエリア
ネットワーク(LAN)51およびワイドエリアネット
ワーク(WAN)52を含む。このようなネットワーキ
ング環境は、オフィス、企業規模のコンピュータネット
ワーク、イントラネット、およびインターネットで一般
的に見られるものである。
【0029】LANネットワーキング環境で使用する場
合、パーソナルコンピュータ20は、ネットワークイン
タフェースすなわちアダプタ53を通じてローカルエリ
アネットワーク51に接続する。WANネットワーキン
グ環境で使用する場合、パーソナルコンピュータ20は
通例、インターネットなどのワイドエリアネットワーク
52を介した通信を確立するためのモデム54またはそ
の他の手段を含む。モデム54は外付け式でも内蔵型で
もよく、シリアルポートインタフェース46を介してシ
ステムバス23に接続される。ネットワーク環境では、
パーソナルコンピュータ20との関連で説明したプログ
ラムモジュール、またはその一部を、リモートのメモリ
記憶装置に記憶することができる。ここに示すネットワ
ーク接続は例示的なものであり、コンピュータ間に通信
リンクを確立する他の手段を使用できることは理解され
よう。例えば、ネットワークの1つまたは複数の部分間
にワイヤレスの通信リンクを設定することができる。
【0030】図2は、図1の入力装置43の一実施形態
の一部を拡大したブロック図である。入力装置43は、
4つのタッチセンサ100、102、104、および1
06の配列を含む。これらのセンサは、入力装置の4つ
の補助コントロールに対応することができる。各センサ
は、個々の導線108、110、112、および114
を通じて電気信号を生成し、この導線は、アナログから
デジタルへの変換器およびマルチプレクサ116に接続
されている。タッチセンサ100、102、104、お
よび106は、ユーザとセンサの一部との実際の接触に
基づいて、あるいはユーザとセンサとの著しい近接状態
に基づいて各々の電気信号を生成する。接触に依拠する
タッチセンサを接触センサと呼び、近接に依拠するタッ
チセンサを近接センサと呼ぶ。この応用例のコンテクス
トでは、タッチセンサに触れるとは、接触センサの場合
にはそれに接触したときであり、近接センサの場合には
ユーザが十分にセンサに接近したときである。本発明に
よると、センサは、「接触」と「接触解除(relea
se)」ではそれぞれに必要とされる接触の度合いが異
なるように構成できることを理解されたい。例えば、
「接触」のイベントを検出するためには接触が必要とさ
れるのに対し、「接触解除」のイベントを感知するに
は、接触が解除され近接状態がなくなることが必要とさ
れるなどである。同様に、純粋な近接センサの実施形態
では、「接触」イベントを感知するには非常に近づいた
近接状態が必要とされるが、「接触解除」イベントの感
知に必要とされる閾値(距離)はより高くすることがで
きる。
【0031】いくつかの接触センサの実施形態では、タ
ッチセンサは、触れるとキャパシタンスが変化する導電
性フィルムを含んでいる。このセンサはまた、導電性フ
ィルムのキャパシタンスの変化に基づいて電気信号を生
成する容量性測定回路も含む。当業者は、フォトダイオ
ードセンサ、圧電材料を利用したセンサ、および容量性
圧力センサなど、他の接触センサ技術も利用できること
を認識されよう。これらのセンサはいずれも本発明のコ
ンテクストで使用することができる。近接センサの一実
施形態では、タッチセンサは、LEDからの反射光を使
用してユーザがセンサに接近するとそれを検出する。こ
の例示的実施形態によりLEDを駆動し、反射光を感知
するのに使用するチップは、ニュージャージー州ブリッ
ジウォーターのHamamatsu Corporat
ionで製造することができる。別の近接センサの実施
形態では、入力装置近くの電界または磁界の変化を用い
て、ユーザが装置に接近するとそれを判定する。
【0032】本発明の実施形態では、タッチセンサは、
タッチセンサのどこでユーザが入力装置に触れるかや、
ユーザがセンサのどの部分に接近するかに関係なく、同
じ情報を提供することができる。このように、これらの
タッチセンサは接触データと位置データを分離する。図
2は、このタイプのタッチセンサを備えた例証的入力装
置を示している。
【0033】別の実施形態、例えばタッチパッド、タッ
チスクリーン、およびタッチタブレットを用いる実施形
態では、所与のタッチセンサは、ユーザがそのタッチセ
ンサのどこで接触を行ったか、あるいはユーザがそのタ
ッチセンサのどこでタッチセンサに最も近づいたかを示
す位置情報を提供することができる。このような装置で
は、装置に触れずに位置データを指定することはできな
い。また、位置を指定することなく装置に触れることも
できない。このように、これらの装置では接触の感知と
位置の感知が密接に結びついている。
【0034】図2を参照すると、アナログからデジタル
への変換器およびマルチプレクサ116は、導線10
8、110、112、および114にあるアナログの電
気信号を、線118で搬送されるデジタル値に変換す
る。線118はマイクロコントローラ120に接続され
ており、マイクロコントローラはマルチプレクサ116
を制御して4つのタッチセンサの状態を選択的に監視す
る。マイクロコントローラ120はまた、入力装置の他
の各種センサからの入力も受け取る。図を簡潔にするた
めに、これらの入力はまとめて入力122として示して
いる。当業者は、異なる入力装置および補助用コントロ
ールは、その入力装置中の運動センサの種類に応じて、
異なる入力信号を提供することを認識されよう。運動セ
ンサの例には、スイッチを閉じるのに必要な運動を表す
信号を提供するスイッチ、音声信号によって生じる空気
の動きを表す信号を提供するマイクロフォン、マウスボ
ール、トラックボールあるいはマウスホイールの動きを
表す信号を提供するエンコーダホイール、およびジョイ
スティックの動きを表す電気信号を提供する抵抗ワイ
パ、が含まれる。これらの運動センサはそれぞれ、コン
ピュータシステムに送る入力情報を生成することができ
る入力生成器として機能する。この入力情報は特定の入
力生成器に応じて、押すことのできるキーの状態、押す
ことのできるボタンの状態、サウンド情報、あるいは動
きの情報を含むことができる。
【0035】当業者には、マイクロコントローラ120
に連結する入力線の数は、入力装置のセンサ数と入力装
置の構成に応じて決まることも認識されよう。例えば、
キーボードの場合、マイクロコントローラは入力線を使
用して、補助用コントロールのいずれかが起動されてい
ないかどうかを判定する。マイクロコントローラは、マ
ルチプレクサ(図示せず)を使用して、キーボード上の
各補助用コントロールの状態を逐次テストすることによ
りこの判定を行う。これらの補助用コントロールの状態
の投入を検出するのに使用する技術は、キーボードの技
術分野ではよく知られている。
【0036】マウスまたはトラックボールでは、入力線
122は、スイッチの投入を検出するための線と、エン
コーダホイールの回転を検出するための線を含む。スイ
ッチは、マウスまたはトラックボールのボタンの下に配
置されている。エンコーダホイールは、マウスボールま
たはトラックボールの動きを把握する。通例、1つのエ
ンコーダホイールがX方向の動きを把握し、もう1つの
エンコーダホイールがY方向の動きを把握する。大半の
実施形態では、各エンコーダホイールは、それ自体に関
連付けられたマイクロコントローラ120への入力線を
持っている。マウスによっては、さらに別のエンコーダ
ホイールがマウスの上部にあるホイールの回転を把握す
る。
【0037】一部のマウスでは、線122を通じてマイ
クロコントローラ120に接続された、個別の光マイク
ロコントローラによってマウスのXおよびY方向の動き
を把握する。光マイクロコントローラは、光データを使
用してマウスの動きを判定する。光マイクロコントロー
ラはこの光データを運動値に変換し、これを入力線12
2に沿ってマイクロコントローラ120に伝送する。
【0038】ゲームパッドなどのゲームコントローラで
は、入力線122は、ゲームパッド上の複数スイッチの
投入を検出するための線と、ゲームパッドのホイールの
回転を検出するための線を含む。ジョイスティックの場
合、入力線122は、ジョイスティックの抵抗ワイパと
ジョイスティックのスイッチに接続された線を含むこと
ができる。ヘッドセットでは、線122は、マイクロフ
ォンによって生成されたアナログ電気信号の大きさを表
すマルチビットのデジタル値を搬送する複数の線を含
む。通例は、アナログからデジタルに変換する変換器が
このデジタル値を生成する。ヘッドセットの重量を減ら
すために、アナログからデジタルへの変換器およびマイ
クロコントローラ120は、コンピュータ中に位置する
サウンドボードの上に配置することができる。ヘッドセ
ットの重量をさらに減らすために、図2のマルチプレク
サおよびA/D変換器116もサウンドボードの上に実
施することができる。
【0039】マイクロコントローラ120は出力124
を生成し、これを図1のシリアルポートインタフェース
46に提供する。通例、出力124はシリアルのデジタ
ル値であり、どの運動センサまたはタッチセンサが起動
されたかを表す。キーボードの場合、このデジタル値
は、起動されたキーや、キーボード上の他の補助用コン
トロールまたはタッチセンサを一意に識別するスキャン
コードを含んでいる。マウスの場合、このデジタル値は
マウスパケットを含んでおり、これはマウスの各スイッ
チおよび各タッチセンサの現在の状態と、前回のマウス
パケットが送信されてからマウスホイールおよびマウス
ボールが移動した距離を記述する。
【0040】図3は、本発明のヘッドセット150の透
視図である。ヘッドセット150は、マイクロフォン1
52、支持ピース154、タッチセンサ156、および
出力線158を含む。支持ピース154は、ユーザの耳
の周囲で輪を描き、マイクロフォン152がユーザの口
の前に来るようにヘッドセットを支える設計になってい
る。
【0041】出力線158は、マイクロフォン152お
よびタッチセンサ156からの信号を伝搬する。いくつ
かの実施形態では、ヘッドセット150を、音声認識シ
ステムを含んだコンピュータシステムに接続する。その
ような実施形態では、音声認識システムは、ユーザがヘ
ッドセット150に触れていることをタッチセンサ15
6が示さない限り非アクティブになっている。音声認識
システムの起動は、ユーザが最初にヘッドセット150
に触れた際に、音声認識システムをランダムアクセスメ
モリにロードすることを含む。また、ランダムアクセス
メモリ中にある音声認識システムが入力音声信号を処理
できるように、それに指示を出すことも含むことができ
る。いずれの場合も、本発明は、ユーザがヘッドセット
に触れていることをヘッドセット150が示したときに
のみ音声認識システムを起動することにより、関係のな
い音声が音声認識システムで処理される可能性を低減し
ている。
【0042】図4Aは、本発明の例証的実施形態による
マウス170の一実施形態の透視図である。マウス17
0は、パームレスト172、左ボタン174、右ボタン
176、ホイール178、側面180、および出力線1
82を含む。パームレスト172、左ボタン174、側
面180の2つの側面領域184および186は、別々
の導電性フィルムで被覆されている。この導電性フィル
ムはそれぞれ、図2のセンサ100、102、104お
よび106など別々のセンサに接続され、その一部をな
す。
【0043】図4Bは、マウス170の下面図を示す。
マウス170は、トラックボールネスト192の中に置
かれたトラックボール190を含む。パームレスト17
2、側面180、左ボタン174、あるいは右ボタン1
76に加わる力によってマウス170を面上で動かす
と、トラックボール190がネスト192中で回転す
る。図4Cを参照すると、1対のエンコーダホイール1
94および196がこの回転を検出している。
【0044】図4Cは、マウス170の内部電子回路1
89の一部の透視図である。図が見やすいように、図4
Cではトラックボール190を省略している。内部の電
子回路189は、エンコーダ194および196を含
み、これが2つの直角方向のトラックボール190の動
きを検出する。エンコーダホイールはマイクロコントロ
ーラ200に提供する電気信号を生成する。マイクロコ
ントローラ200は、左ボタン174および右ボタン1
76の下にそれぞれ配置されたスイッチ202および2
04からの入力も受け取る。スイッチ202および20
4はそれぞれ、左ボタン174および右ボタン176が
ユーザによって押されるとそれを示す。マイクロコント
ローラ200は、ホイール178が押されたときにそれ
を示すスイッチ201からの信号、およびホイール17
8の回転運動を表すエンコーダホイール203からの信
号も受け取る。マイクロコントローラ200は、図4A
のパームレスト172、左ボタン174、および側面領
域184および186上の導電性フィルムに取り付けら
れた4つのセンサからの電気信号も受け取る。図4Cで
は、これら4つのセンサをまとめてセンサ配列206と
している。左ボタン174と側面領域184および18
6は、押すと起動して機能を実行する補助用コントロー
ルであってよい。
【0045】このように、本発明の例示的実施形態によ
るマウスは、マウスの特定の領域が触れられたとき、お
よびマウスの一部あるいはマウス全体が動かされたとき
に、それを検出することができる。具体的には、パーム
レスト172、左ボタン174、および側面領域184
および186上の導電性フィルムは、ユーザがこれらの
領域に触れるとそれを示す。ユーザがマウスを動かした
りボタンを押したりしなくとも、図4Aの導電性フィル
ムと関連付けられたセンサは、ユーザがマウスに触れる
と電気信号を発生することに留意されたい。エンコーダ
ホイール194および196は、ユーザがマウスを動か
すと1種類の(a separate)信号を発生し、
スイッチ202、204、および201は、ユーザがボ
タン174および176、およびホイール178をそれ
ぞれ押すと個別の電気信号を発生する。このように、本
発明による例示的マウスは、そのコントロールを操作す
るのに必要な手先の器用さをさらに必要とすることなく
機能を付加する。
【0046】本発明の代替実施形態では、トラックボー
ル190およびエンコーダホイール194および196
の代わりに、マウスが移動した表面の画像を収集してマ
ウスの位置の変化を判定する固体位置追跡装置を用い
る。この例示的実施形態によると、マウスは通例、表面
に光を当てるのに使用する光源と、表面の画像を収集す
るのに使用する光学システムと、様々な画像を比較し
て、マウスが移動しているか、また移動している場合に
はどの方向に移動しているかを判定するのに使用するプ
ロセッサとを含む。固体位置追跡装置は運動を電気信号
に変換することから、洗練されたトランスデューサまた
は運動センサと見なすことができる。
【0047】図5、6A〜6D、7A〜7B、8A〜8
B、9A〜9C、10A〜10H、11A〜11B、1
2A〜12B、13A〜13D、および14A〜14D
は、本発明の例証的実施形態によるマウスの代替構成を
示している。図5は、そのパームレスト600だけにタ
ッチセンサを有するマウスの上面図である。図6Aおよ
び6Bはそれぞれ、パームレストと、マウスの左側面に
センサを有する別個の例証的マウスの実施形態を示して
いる。側面図である図6Aでは、単一のセンサ602が
パームレストおよびマウスの左側面の両方を覆ってい
る。図6Bも側面図であるが、この場合は1つのセンサ
がパームレスト604を覆い、別のセンサが左側面60
6を覆っている。
【0048】図6Cおよび6Dは、それぞれパームレス
トとマウスの右側面にセンサを有する、本発明の別々の
例証的マウス実施形態を示している。右側面図である図
6Cでは、単一のセンサ603が右側面およびパームレ
ストの両方を覆っている。図6Dも右側面図であるが、
この場合は1つのセンサ605がパームレストを覆い、
別のセンサ607が右側面を覆っている。
【0049】図7Aおよび7Bはそれぞれ、パームレス
トおよびマウスの左側面に単一のセンサ608を有し、
マウスの左ボタン上に別のセンサ610を有する例示的
マウス実施形態の側面図と上面図である。図8Aおよび
8Bはそれぞれ、パームレストおよびマウスの左側面の
単一のタッチセンサ612、マウスの左ボタンのタッチ
センサ614、マウスの右ボタンのタッチセンサ616
を有する例示的マウス実施形態の側面図と上面図を示し
ている。
【0050】図9A〜9Cはそれぞれ、本発明の例証的
マウス690の左側面図、上面図、および右側面図を示
している。マウス690は、左側面センサ692、パー
ムセンサ694、右側面センサ696、およびボタンセ
ンサ698を含む。マウス690では、右側面センサ6
96および左側面センサ692は、パームセンサ694
とは別のものである。本発明の別の例証的実施形態で
は、この3センサを単一のセンサとして形成することが
できる。
【0051】図10A〜10Hは、様々な例示的マウス
実施形態の上面図を示すものであるが、マウスの左ボタ
ンのタッチセンサに可能な構成を示している。これらの
ボタン構成は、マウスの上に単独で配置しても、あるい
はマウスの他部分にある他のセンサと組み合わせて配置
してもよい。図10Aは、左ボタン全体にわたる単一の
固体センサ618を示す。図10Bは、6つのセンサス
トリップ620からなるセットを示しており、それぞれ
のセンサストリップは触れられると個別の電気信号を生
成する。図10Cは、隆起部628で分離された2つの
領域624および626を示す。領域624および62
6はどちらも、ボタン622の前端627で終わってい
る。図10Dは、隆起部636で分離された2つの領域
634および637を示しているが、領域634および
637はどちらもボタン630の側端631で終わって
いる。ボタン622および630の構成は、下記で述べ
るように文書を順に見ていく際に特に有用である。図1
0Eは、四角形641、642、643、および644
として形成された4つの個別のセンサ領域を有するボタ
ン640のボタン構成を示している。いくつかの実施形
態では、4つのセンサ領域を分ける線は、センサ領域と
は異なる形状的特徴を有する隆起部として形成する。図
10Fも、ボタン646上の4つの個別のセンサを示し
ている。図10Fでは、センサ領域650、651、お
よび652の3つがボタン646の前端部にあり、残り
のセンサ648がボタン646の残りの部分を覆ってい
る。図10Gは、キーパッドに似たレイアウトで9つの
センサ領域を配置したボタン660を示している。図1
0Hは、中央センサ674を囲む8つのセンサ672か
らなる外側の円を有するボタン670を示している。ボ
タン670の構成は、放射状のメニューを操作する際に
特に有用である。
【0052】図11Aおよび11Bは、マウスの両ボタ
ンに別々のセンサを含む例証的マウス実施形態を示して
いる。図11Aでは、ボタン700および702にはセ
ンサがあるが、パームレスト704にはセンサがない。
図11Bでは、ボタン706および708およびパーム
レスト710が個別のセンサを有する。
【0053】図12Aおよび12Bは、マウスの右側面
に沿って複数のセンサがある例示的マウス実施形態を示
す。図12Aは右側面図であるが、右側面上に2つのセ
ンサ720および722がある。図12Bでは、右側面
に3つのセンサ724、726、および728がある。
【0054】図13A〜13Dは、マウスの左側面に複
数のセンサがある例示的マウス実施形態の側面図を示
す。図13Aのマウスは、左側面に2つのセンサ734
および736を有する。図13Bのマウスは、それぞれ
一定の間隔で分離された3つのタッチセンサ738、7
40、および742を有する。図13Cのマウスも左側
面に3つのタッチセンサを有する。ただし図13Cで
は、センサ746と748の間に位置する真中のタッチ
センサ744は、表面が一段高くなっており、センサ7
46と748間の隆起部として形成されている。センサ
744の表面を高くすることにより、触覚によるフィー
ドバックをユーザに提供して、ユーザがマウスを見ずに
親指の位置を決められるようにしている。図13Dは、
マウスの左側面に複数のストリップ752があるマウス
実施形態を示す。
【0055】図12A〜12Bおよび図13A〜13D
の例示的実施形態はすべて、パームレストに置いたセン
サ、および/または左ボタンに置いたセンサ、および/
または右ボタンに置いたセンサと合わせて実施できるこ
とに留意されたい。
【0056】図14A〜14Dは、タッチセンサがマウ
スのホイールに近接した例証的マウス実施形態の上面図
である。図14Aでは、ホイール760の上に直接タッ
チセンサを置いている。図14Bでは、ホイール764
の前部に1つのタッチセンサ762を置き、ホイール7
64の後部に1つのタッチセンサ766を置いている。
図14Bの実施形態では、ホイール764にはタッチセ
ンサがない。図14Cでは、ホイール768の前部に1
つのタッチセンサ770を置き、ホイール768の後部
に1つのタッチセンサ772を置いている。さらに、ホ
イール768がタッチセンサを含む。図14Dの実施形
態では、ホイール774、ホイール774の前の前部領
域776、ホイール774の後ろの後部領域778、お
よびパームレスト780にタッチセンサを配置してい
る。
【0057】特に図5、6A〜6D、7A〜7B、8A
〜8B、9A〜9C、10A〜10H、11A〜11
B、12A〜12B、13A〜13D、および14A〜
14Dにおけるタッチセンサの位置に関して様々な例示
的実施形態を説明したが、センサはこの他の位置に含ん
でもよいことに留意されたい。例えば、一実施形態で例
示したタッチセンサの一部またはすべてを、別の実施形
態で例示したタッチセンサの一部またはすべてと組み合
わせることが可能である。さらに、図5、6A〜6D、
7A〜7B、8A〜8B、9A〜9C、10A〜10
H、11A〜11B、12A〜12B、13A〜13
D、および14A〜14Dに示すマウスの側面を含むが
これらに限定しないタッチセンサ位置の多くは、補助用
コントロールの上にある導電性フィルムでよく、この場
合そのコントロールを押すと起動して機能を実行するこ
とができることを理解されたい。この例では、コントロ
ールに触れると1セットの電気信号が生成され、コント
ロールを起動すると第2の電気信号セットが生成され
る。本発明の特定の例証的実施形態では、その補助用コ
ントロール(例えばボタン、ホイール)を含む各種のマ
ウスは、そのタッチセンシティブな表面に触れる物理的
存在(例えば指)、すなわち、表示ウィジェットを表示
画面上に表示すること、および/またはその他の(例え
ば音声や触覚による)フィードバックを生成することを
求める明示的なユーザ要求を表す物理的存在を検出する
ことができる。このフィードバックは、ステータス情
報、コントロールの機能、およびヘルプテキストといっ
た情報をユーザに提供することができる。この情報はア
プリケーションごとに異なってよい。本発明のいくつか
の実施形態では、表示画面上の表示ウィジェットの位置
は、タッチセンシティブな表面上での物理的存在の動き
の通りに表示することができる。
【0058】図15は、本発明の例証的トラックボール
220の透視図である。トラックボール220は、基部
222、ボタン224および226、およびボール22
8を含む。本発明の一実施形態では、トラックボール2
28は、基部222中の回転する3つの金属製ホイール
(図示せず)と接触する導電性フィルムで被覆すること
ができる。金属製ホイールの1つには、ホイールの後部
に位置し、スプリング力によってホイールに押し付けら
れる導電性シートが接触する。導電性シートはさらにタ
ッチセンサに接続され、ユーザがトラックボール228
に触れるとこのタッチセンサが電気信号を生成する。基
部222中の他の2つのホイールは、2つの直角方向の
運動センサ(図示せず)を形成し、基部222中のトラ
ックボール228の回転運動を把握することができる。
基部222はボタン224および226の下に2つのス
イッチを含んでおり、これはユーザがボタン224およ
び226を押すと電気信号を生成することができる。こ
のように、トラックボール220は、ユーザが単にボー
ル228に触れることに基づいて1種類の電気信号を提
供し、ユーザがトラックボール228を動かすか、ある
いはボタン224または226を押すのに基づいて別の
電気信号を提供することができる。また、起動すると機
能を実行することのできる1つまたは複数の補助用コン
トロールを、基部222上のトラックボール228の周
囲に配置してもよい。この補助用コントロールは、その
表面にタッチセンシティブな導電性フィルムを有するこ
とができ、ユーザがコントロールを押すのに応答して起
動し、機能を実行することができる。したがって、コン
トロールが触れられると1セットの電気信号を生成し、
コントロールが起動されると第2の電気信号セットを生
成する。本発明の例示的実施形態では、トラックボール
およびその補助用コントロール(例えばボタン)は、そ
のタッチセンシティブな表面に触れる物理的存在(例え
ば指)、すなわち、表示ウィジェットを表示画面上に表
示すること、および/またはその他の(例えば音声、触
覚による)フィードバックを生成することを求める明示
的なユーザ要求を表す物理的存在を検出することができ
る。フィードバックは、ステータス情報、コントロール
の機能、およびヘルプテキストといった情報をユーザに
提供することができる。この情報はアプリケーションご
とに異なってよい。本発明のいくつかの実施形態では、
表示画面上の表示ウィジェットの位置は、タッチセンシ
ティブな表面上での物理的存在の動きの通りに表示する
ことができる。
【0059】図16はジョイスティックを備えた例証的
ゲームコントローラの透視図であり、これは、基部24
2、ハンドル244、トリガ246、およびボタン24
8、250、252を含む。本発明の一実施形態では、
トリガ246は、基部242中のタッチセンサに接続さ
れた導電性フィルムで被覆することができる。さらに別
の実施形態では、ボタン248も、基部242中でそれ
とは別のタッチセンサに接続された導電性フィルムで被
覆することができる。トリガ246、およびボタン24
8、250、252はさらに、ユーザが個々のボタンま
たはトリガを押すと個別の電気信号を提供するスイッチ
に接続してもよい。ハンドル244は、基部242に対
するハンドル244の相対運動を追跡する1組のトラン
スデューサに接続することができる。このように、この
ゲームコントローラは、ユーザがトリガ246またはボ
タン248に触れると1セットの電気信号を提供し、ユ
ーザがハンドル244、またはトリガ246、ボタン2
48、250、252を動かすと別の電気信号セットを
提供することができる。
【0060】図17は、本発明による別の例証的ゲーム
コントローラの透視図である。図17には、ゲームパッ
ド260の形態のゲームコントローラを表している。ゲ
ームパッド260は、サイドボタン262および26
4、左手ボタン266、268、270、272、27
4、276、および右手ボタン278、280、28
2、284、286、288を有する。さらにゲームパ
ッド260は、開始ボタン290および選択ボタン29
2を有する。本発明のいくつかの実施形態では、サイド
ボタン262および264はそれぞれ、ゲームパッド2
60中で別々のタッチセンサに接続した導電性フィルム
で被覆することができる。ゲームパッド260はゲーム
パッドのボタンごとに1つの複数のスイッチも含むこと
ができる。したがって、いくつかの実施形態では、ゲー
ムパッド260は、ユーザがサイドボタン262および
264に触れたときにはそれを示す1セットの信号を提
供することができ、ユーザがゲームパッド260のボタ
ンを押すとそれを示す第2の電気信号セットを提供する
ことができる。
【0061】本発明の例証的実施形態では、その補助用
コントロール(例えばボタン、ジョイスティック、トリ
ガ)を含む図16および17のようなゲームコントロー
ラは、そのタッチセンシティブな表面に触れる物理的存
在(例えば指)、すなわち、表示ウィジェットを表示画
面に表示すること、および/または(例えば音声、触覚
による)その他のフィードバックを生成することを求め
る明示的なユーザ要求を表す物理的存在を検出すること
ができる。フィードバックは、ステータス情報、コント
ロールの機能、およびヘルプテキストなどの情報をユー
ザに提供することができる。この情報はアプリケーショ
ンごとに異なってよい。本発明のいくつかの実施形態で
は、表示画面上の表示ウィジェットの位置は、タッチセ
ンシティブな表面上での物理的存在の動きの通りに表示
することができる。
【0062】図18Aは、本発明の例示的実施形態によ
るキーボード300を示している。キーボード300
は、キーボードの左側に一般的なQWERTY配列30
2を有し、右側に数字キーパッド304を有する。数字
キーパッド304は数字0〜9を含んでおり、この数字
0〜9は3x3の枠に並んでいる。いくつかの実施形態
では、これら9つのキーすべてを導電性フィルムで被覆
することができる。別の実施形態では、キーボードの他
のキーおよび補助用コントロールを導電性フィルムで被
覆することができる。各キーの導電性フィルムは、キー
ボード300中の別々のタッチセンサに接続され、その
一部をなす。各キーが導電性フィルムを有するというこ
とは、それぞれのキーが2種類の信号を提供できること
を意味する。1つの信号は、ユーザがキーを押さずに触
れたときに提供することができ、第2の信号はユーザが
キーを押したときに提供することができる。
【0063】タッチセンサをさらに、キーボードケース
(casing)301の、スペースバー308の下の
部分306および307、矢印キー310の下の部分3
09、およびキーパッド304の下の部分311に配置
することができる。矢印キー310は通例、ユーザが表
示中でカーソルを動かすのに使用する。キーの上、およ
び部分306、307、309、311にタッチセンサ
を備えたキーボード300を示しているが、本発明の別
の例示的実施形態では、キーだけにタッチセンサを有す
るか、または部分306、307、309、311の1
つだけにタッチセンサを有してもよい。別の例示的実施
形態では、こうしたタッチセンサを別の組み合わせでキ
ーボード300に配置することができる。さらに、部分
306、307、309、311のタッチセンサの一部
またはすべてを近接センサにしてもよい。タッチセンサ
306、307、309、311は、ジョイスティッ
ク、ゲームパッド、タッチパッド、トラックボール、ボ
タン、つまみ、ロッカースイッチ、トリガ、スライダ、
ホイール、レバーなどを含むがこれらに限定しない多種
の補助用コントロールを表すことができる。近接センサ
は、ユーザの手がセンサに近づくとそれを検出すること
ができ、手が実際にセンサに接触する必要はない。一般
的に、ユーザが補助用コントロールに触れるがそれを起
動(例えば、押す、回す、回転する)しないと1種類の
信号が提供され、ユーザが補助用コントロールを起動す
ると第2の信号が提供される。本発明の例示的実施形態
では、その補助用コントロールを含むキーボードは、そ
のタッチセンシティブな表面に触れる物理的存在(例え
ば指)、すなわち、表示ウィジェットを表示画面上に表
示すること、および/または(例えば音声、触覚によ
る)その他のフィードバックを生成することを求める明
示的なユーザ要求を表す物理的存在を検出することがで
きる。フィードバックは、ステータス情報、コントロー
ルの機能、およびヘルプテキストなどの情報をユーザに
提供することができる。この情報はアプリケーションご
とに異なってよい。本発明のいくつかの実施形態では、
表示画面上の表示ウィジェットの位置は、タッチセンシ
ティブな表面上での物理的存在の動きの通りに表示する
ことができる。
【0064】図18Bは、本発明による別の例証的キー
ボードの一部を示しており、これはボタン312A〜3
12G、およびタッチセンシティブなコントロール用つ
まみ314を含む補助用コントロール入力を有する。ボ
タン312A〜312Gにはそれぞれタッチセンサがつ
いている。図18Cは本発明によるさらに別の例証的キ
ーボードを示すが、これはタッチセンシティブなロッカ
ースイッチ315、および各々タッチセンシティブなボ
タン312A〜312Gを備える。
【0065】図19は、本発明による例証的タッチパッ
ド2000の透視図である。このタッチパッドは、現在
カリフォルニア州サンホセのSynaptics Co
rporationから入手可能な従来型のタッチパッ
ドでよく、変更を加える必要はない。タッチパッド20
00は、タッチセンシティブな表面(タブレット)21
00からなっており、この表面は、ユーザの指が表面に
接触しその上を移動すると、指の2次元の位置と接触領
域(表面領域)を感知する。さらにタッチパッド200
0は、タッチセンシティブな表面の周辺に位置するボタ
ン2220、2240、2260、2280を含んでい
る。ボタン2220、2240、2260、2280の
1つまたは複数はタッチセンシティブでよい。このタッ
チパッドの出力は、図1に示すようなコンピュータシス
テムに送る(route)ことができる。本発明の実施
形態では、その補助用コントロールを含むタッチパッド
は、そのタッチセンシティブな表面に触れる物理的存在
(例えば指)、すなわち、表示画面上に表示ウィジェッ
トを表示すること、および/または(例えば音声、触覚
による)その他のフィードバックを生成することを要求
する明示的なユーザ要求を表す物理的存在を検出するこ
とができる。フィードバックは、ステータス情報、コン
トロールの機能、およびヘルプテキストなどの情報をユ
ーザに提供することができる。この情報はアプリケーシ
ョンごとに異なってよい。本発明のいくつかの実施形態
では、表示画面上の表示ウィジェットの位置は、タッチ
センシティブな表面上での物理的存在の動きの通りに表
示することができる。
【0066】以上の説明のように、入力装置のキー、ボ
タン、つまみ、ロッカースイッチ、あるいはその他の補
助用コントロールは、ユーザの手(例えば、指や手のひ
ら)あるいはスタイラスを含むがこれに限定しない物理
的存在の接触、またはその著しい近接状態を検出するセ
ンサで補うことができる。ここまで、マウス(図4A〜
14B)、トラックボール(図15)、ゲームコントロ
ーラ(図16および17)、キーボード(図18A〜1
8C)、およびタッチパッド(図19)を含む例証的な
入力装置を示し、それについて説明した。本発明の実施
形態によると、上記のような感知された信号を使用する
ことにより、ユーザが触れたコントローラに関連するス
テータスの画面表示、状態情報、またはその他のフィー
ドバックをユーザに提供することができる。
【0067】図20は、本発明の例示的実施形態による
メッセージルーティングシステムを説明するのに有用
な、コンピュータ20のより詳細なブロック図である。
図20で、入力装置43は、シリアルの2進信号をシリ
アルインタフェース46に提供する。入力装置43は、
上記で説明した、タッチセンサを有する入力装置および
その補助用コントロールのどれを含んでもよい。
【0068】シリアルインタフェース46は、入力装置
43からのシリアルの2進信号をパラレルのマルチビッ
ト値に変換し、それをデバイスドライバ60に渡す。本
発明の多くの実施形態では、デバイスドライバ60は、
図1のCPU21で実行するソフトウェアルーチンとし
て実施することができる。そのような実施形態では、デ
バイスドライバ60は入力装置固有のものにし、指定プ
ロトコルに基づいて特定の入力装置およびその補助用コ
ントロールと対話するように設計することができる。し
たがって、入力装置43がマウスである場合には、デバ
イスドライバ60は、マウスが生成したマウスパケット
をマウスパケットプロトコルを用いて受信するように設
計されたマウスドライバになる。入力装置43がキーボ
ードである場合、デバイスドライバ60は、キーが押さ
れていることまたはタッチセンサが触れられていること
を表すキーボードスキャンコードを受信するように設計
されたキーボードドライバになる。
【0069】デバイスドライバ60は、指定のプロトコ
ルに基いてマルチビット値をデバイスメッセージに変換
し、それをオペレーティングシステム35に渡す。この
デバイスメッセージは、入力装置でどのようなイベント
が起こったかを表す。例えばマウスのタッチセンサが触
れられた場合、このメッセージは特定のセンサが触れら
れていることを示す。タッチセンサから手が離れると、
タッチセンサから手が離れたことを示す別のメッセージ
がデバイスドライバ60によって生成される。
【0070】デバイスドライバ60によって生成された
メッセージは、このメッセージのルーティングを制御す
るオペレーティングシステム35に提供される。例証的
実施形態によると、デバイスメッセージは通常フォーカ
スアプリケーション812に送信される。フォーカスア
プリケーションとは、通例、ディスプレイで一番上にあ
るウィンドウを有するアプリケーションである。
【0071】いくつかの例証的実施形態では、オペレー
ティングシステム35は、そのオペレーティングシステ
ムに登録されたメッセージフックプロシージャのリスト
を維持している。そのような例証的実施形態では、オペ
レーティングシステム35は、デバイスメッセージをフ
ォーカスアプリケーション812に送信する前に、それ
をリストにある各メッセージフックプロシージャに逐次
渡す。このようなメッセージフックプロシージャを、図
20のメッセージフックプロシージャ810として包括
的に示している。メッセージフックプロシージャの大半
は、単にデバイスメッセージを評価して、何らかの措置
を講ずるべきかどうかを判定するものである。メッセー
ジフックプロシージャは、デバイスメッセージを評価す
ると値をオペレーティングシステム35に戻し、オペレ
ーティングシステムがそのデバイスメッセージをリスト
中の次のプロシージャに渡すことを示す。メッセージフ
ックプロシージャの中にはデバイスメッセージを「食べ
る」能力を有するものもあり、これは、オペレーティン
グシステムがそのデバイスメッセージを他のメッセージ
フックプロシージャまたはフォーカスアプリケーション
に渡すべきでないことを示す値をオペレーティングシス
テム35に戻すことによって行う。
【0072】メッセージフックプロシージャおよびフォ
ーカスアプリケーションは、特にタッチセンサが触れら
れたことを示すデバイスメッセージを使用して、下記で
説明する各種の機能を開始する。
【0073】例えば、図21および22が示すのは、図
4Aおよび図15それぞれのマウス170またはトラッ
クボール220など、本発明の例証的実施形態による入
力装置からの信号に基づいて生成されるデバイスメッセ
ージを利用する、本発明の各種のアプリケーションが表
示する画面の画像である。図21は、仮想デスクトップ
322を示す画面320の画像を表している。仮想デス
クトップ322は、アイコン324および326の画
像、ならびに開いたウィンドウ328を含んでいる。開
いたウィンドウ328は、ワシントン州レドモンドのマ
イクロソフト社製造のMicrosoft Word
(登録商標)として知られるワードプロセッシングアプ
リケーションに関連するものである。
【0074】ウィンドウ328で、開いた文書の文章中
にカレット330が置かれている。カレット330の位
置は、マウス170、またはトラックボール220のボ
ール228を動かすことによって決めることができる。
図21で、カレット330は、2本のより短い水平線の
間を延びる垂直線として表示されている。当業者は、カ
レット330は様々な形状にすることができ、通例デス
クトップ322上では矢印として表示されることを認識
されよう。
【0075】ウィンドウ328の文章中でのカレット3
30の位置によって、ツールヒント332が表示され
る。ツールヒント332は、カレット330の下にある
単語を誰が入力したのかを示している。
【0076】ウィンドウ328は、ウィンドウ328の
文書中に絵を書く際に使用することのできる描画ツール
を含んだツールバー334も含む。
【0077】図21に示すような本発明の例示的実施形
態によると、カレット330、ツールヒント332、お
よびツールバー334は、ユーザが、このワードプロセ
ッシングのアプリケーションであるツールヒントを提供
することを割り当てられた補助用コントロール(例え
ば、ボタンやボタンの組み合わせ)など入力装置の一部
に触れている間にのみ、ウィンドウ328中に表示され
る。ユーザがその入力装置に触れていないと、カレット
330、ツールヒント332、およびツールバー334
は消える。図22は、ユーザが入力装置の一部に触れて
いないときのディスプレイ320の画像を示している。
ユーザが入力装置に触れていないときにはツールバー3
34、カレット330、およびツールヒント332をな
くすことにより、本発明は、ウィンドウ328に見られ
る乱雑さを低減し、ユーザがウィンドウ328に示され
る文書を容易に読めるようにする。
【0078】当業者には、ユーザが入力装置に触れてい
ない際のカレット330、ツールヒント332、および
ツールバー334の消去は個別に制御できることが認識
されよう。したがって、ユーザはウィンドウ328をカ
スタマイズして、ユーザが入力装置から手を離すとツー
ルヒント332およびツールバー334は消えるが、カ
レット330は表示したままにすることが可能である。
さらに、アイテムが表示および再表示される際の速度も
制御することができる。したがって、ユーザが入力装置
から手を離してから触れると、画像が表示から徐々に消
え、そして徐々に表示上に戻すことが可能である。本発
明のいくつかの例証的実施形態では、なるべくユーザの
気を散らさないように、フェードアウト期間は0.7〜
1.0秒にし、カレットのフェードイン期間は0秒にし
て瞬時に表示されるようにし、ツールバーのフェードイ
ン期間は0.3秒にする。ある実施形態では、フェード
アウト時間は、ユーザが規定のデフォルト期間を用いて
設定できる変数にすることが可能である。
【0079】図23〜25は、図18Aのキーボード3
00からのキーボードメッセージの結果表示することの
できるプルダウンメニューを含んだ、一連の例証的表示
画面を示している。詳細には、図23の画面画像350
では、アプリケーションが、プルダウンメニュー356
の画像を含んだアクティブウィンドウ352を仮想デス
クトップ354上に生成している。プルダウンメニュー
356は、メニューバー358にある「Tools」の
名のメニュー見出しと関連付けられている。プルダウン
メニュー356は、ユーザがキーボード300の数字キ
ーパッド304のキーの1つに触れているが押してはい
ないことを示すキーボードメッセージに応答して表示さ
れる。
【0080】別の例示的実施形態では、ユーザは、数字
キーパッド304の数「4」および「6」を表すキーを
使用することにより、メニューバー358を左右に移動
することができる。ユーザがメニューバー358を横に
移動すると、それぞれのメニュー見出しについての異な
るプルダウンメニューを表示することができる。具体的
には、ユーザは数「4」を表すキーに触れることにより
キーボードメッセージをアプリケーションに送信させ、
アプリケーションは、ヘッダメニュー358中で現在の
メニュー見出しの左にあるメニュー見出しを表示するよ
うに表示を変更する。したがって、現在ウィンドウ35
2でメニュー見出し「Tools」についてのプルダウ
ンメニューが表示されている場合、数「4」を表すキー
に触れると、メニュー見出し「Insert」と関連付
けられたプルダウンメニューが表示される。同様に、ユ
ーザは数字キーパッド304の数「6」を表すキーに触
れることにより、現在のメニュー見出しの右のメニュー
見出しのプルダウンメニューを表示させることができ
る。したがって、現在表示されているプルダウンメニュ
ーがメニュー見出し「Tools」に関連づけられたも
ので、ユーザが数「6」を表すキーに触れた場合は、ヘ
ッダメニュー358中のメニュー見出し「Forma
t」と関連付けられたプルダウンメニューが表示される
ことになる。これを図24に示しているが、メニュー見
出し「Format」358についてのプルダウンメニ
ュー360が表示されている。
【0081】ユーザは、数字キーパッド304で数
「2」および「8」を表すキーに触れることにより、プ
ルダウンメニュー360などのプルダウンメニュー中で
上下にも移動することができる。ユーザがプルダウンメ
ニュー中を移動すると、プルダウンメニューの異なるア
イテムがハイライト表示される。ハイライト表示した項
目の一例は図25の項目362であるが、この図ではプ
ルダウンウィンドウ360の項目「Tabs」が現在の
項目としてハイライト表示されている。項目362が現
在の項目であるときにユーザが数「8」を表すキーに触
れると、それに関連付けられたキーボードメッセージを
受信するアプリケーションが、項目362の上に位置す
る項目364を現在の項目としてハイライト表示する。
項目362が現在の項目であるときにユーザが数「2」
を表すキーに触れると、項目362の下の項目366が
現在の項目としてハイライト表示される。
【0082】図24は、本発明の別の実施形態の説明に
も使用することができる。詳細には、プルダウンウィン
ドウ360は、カレットをメニュー見出し「Forma
t」の上に置き、図4Aおよび図15それぞれのマウス
170またはトラックボール220などのポインティン
グデバイスの選択ボタンを押すことによっても起動する
ことができる。ユーザは、ポインティングデバイスを項
目のリスト中で下方に移動することにより、プルダウン
ウィンドウ360中の項目を選択することができる。ユ
ーザが入力装置を移動すると、リスト中の個々の項目が
ハイライト表示される。
【0083】従来技術では、カレットをプルダウンメニ
ュー自体の外側に置いてもプルダウンメニュー360は
引き続き表示される。このプルダウンメニューを消す唯
一の方法は、メニュー自体の外側の領域でクリックする
ことである。しかし本発明の例証的実施形態によると、
プルダウンメニューを生成するアプリケーションは、ユ
ーザがポインティングデバイスから手を離したことを示
すマウスメッセージを受け取ると直ちにそのプルダウン
メニューを取り除く。これは、ユーザがヘッダメニュー
358と関連付けられたプルダウンウィンドウを閉じる
ために行わなければならない動きを減らすことによりユ
ーザの効率を改善する。
【0084】図26は、本発明の別の例示的実施形態に
よって表示される、放射状メニュー370を含む表示画
面の画像である。放射状メニュー370は、キャンセル
ボタン372の周囲に円形に配置された8つの項目37
1を含んでいる。放射状メニュー370は例えば、図1
8Aのキーボード300か、または図10Hのマウスの
ボタン670の上についたタッチセンサを使用して操作
することができる。
【0085】キーボード300を使用する場合、フォー
カスアプリケーションは、ユーザがキーパッド304の
キーの1つに触れたことを示すキーボードメッセージを
受け取ると放射状メニュー370を表示する。ユーザが
特定の項目をハイライト表示させるには、その項目と空
間的に関連づけられたキーパッド304中のキーに触れ
る。例えば放射状メニュー370の項目373をハイラ
イト表示するには、ユーザは、数「5」を表す中央キー
のすぐ上に位置する数「8」を表すキーに触れる。これ
は、キー「5」に対するキー「8」の空間的な位置づけ
が、項目373とキャンセルボタン372の空間的関係
と同じであるためである。ユーザが項目を選択するに
は、その項目をハイライト表示させるキーを押す。放射
状メニューを消すには、ユーザはキー「5」を押す。
【0086】図10Hのマウスのボタン670のタッチ
センサを使用して放射状メニューを操作するには、ユー
ザは単に放射状メニューの項目に対応するタッチセンサ
に触れればよい。単に対応するタッチセンサに触れるだ
けで、その項目がハイライト表示される。対応するタッ
チセンサに触れながらボタン670を押すとその項目が
選択される。アプリケーションは、2つの個別のマウス
メッセージに基づいて、2つのイベントが起こったこと
を判定する。第1のマウスメッセージは、どのタッチセ
ンサが現在触れられているかを示す。第2のマウスメッ
セージは左ボタンが押されたことを示す。
【0087】本発明の例証的実施形態によると、タッチ
センシティブなコントロールおよび装置の使用は、ユー
ザにとって透過にすることができる。状況のコンテクス
トは、コントロール装置をつかむ、装置に触れる、ある
いは接近するといった、コントロールとのユーザの前段
階的な行動によって示される。図18Bを参照し、例と
して、コントロール用つまみ314の現在の機能が、メ
ディアに関連する音声の音量のコントロールであるとす
る(システムで生成される他の音声の音量のコントロー
ルに対して)。この例で、ユーザが音量を変えたい場合
には、その手をコントロール用つまみ314に近づける
か、あるいはつまみに触れることが考えられる。ユーザ
がつまみを回してコントロール用つまみ314を起動す
る前に、図27に示すように、画面による音量表示の形
態の音量のステータスを含んだ音量コントロール用GU
Iを画面に表示することができる。するとユーザはコン
トロール用つまみ314を回して音量を調節するか、ま
たはコントロール用つまみ314を回さずにそれに触れ
ながら、キー(例えば矢印キー)、マウス、あるいはそ
の他のポインティングデバイスなど別のコントロールを
用いてポインタ(例えばカレットや矢印)をGUIの中
に移動し、音量を変えることができる。GUIが表示さ
れた状態でユーザがコントロール用つまみ314に触
れ、そしてキーまたはポインティングデバイスを使用し
て音量を変えた場合、音量状態の変化は直ちにGUI、
または表示画面上の他の場所に表示することができる。
ユーザがコントロール用つまみ314から手を離すと、
システムはそのGUIがもはや必要でないことを知り、
知覚可能な遅延を置かずにGUIを消すことができる。
実施形態によっては、ポインティングデバイスがGUI
との対話を続ける限り、あるいはカーソルがGUIの上
にある限りGUIは表示されている。
【0088】本発明の別の例証的実施形態では、ユーザ
が、その起動は行わずにコントロール用つまみ314に
接近するか、または触れると、瞬時にツールヒントなど
の表示ウィジェットを表示画面に表示することができ、
これによりコントロール用つまみ314の現在の機能を
識別することができる。ツールヒントは例えば、次のよ
うな機能の1つを示すことができるが、機能はこれに限
定するものではない。1)オーディオおよびビデオアプ
リケーションを含む多種アプリケーションのチューニン
グ、2)メディアアプリケーションの音量コントロー
ル、3)システムで生成されるサウンドの音量コントロ
ール、および4)複数の設定(例えば、輝度、トリミン
グ(cropping)、色など)を有する多数の機能
のコントロール。別の例証的実施形態では、ユーザがコ
ントロール用つまみ314などのコントロールに接近す
ると、LEDまたはLCD単体により、あるいは表示画
面の表示ウィジェットに加えて、視覚的フィードバック
を実際のコントロール用つまみに提供することができ
る。さらに別の例証的実施形態では、聴覚または触覚
(例えばバイブレーション)によるフィードバックを単
独で、または表示画面、入力装置および/またはコント
ロールへの視覚的フィードバックに加えて、または相互
に提供することができる。したがって、入力装置または
コントロールは、ホストコンピュータを関係させ、ある
いはホストコンピュータと情報を共用して、またはその
ようなことは行わずに、直接フィードバック(例えば音
声によるフィードバック)を提供することができる。さ
らに別の例示的実施形態では、コントロール用つまみ3
14などのコントロールの1つまたは複数の部分(例え
ば上面や側面)が独自に接触やユーザの近接状態を検出
し、コントロールのどの部分が触れられているかに基づ
いてホストコンピュータに対して独自のメッセージを生
成することができる。
【0089】図18Cのキーボード入力装置に基づく本
発明の別の例証的実施形態では、タッチセンシティブな
ロッカースイッチ315を提供することができる。ある
コンテクストでは、ワシントン州レドモンドのマイクロ
ソフト社製造のWindows(登録商標)98などの
オペレーティングシステムで現在使用されている「Al
t」キーと「Tab」キーの組み合わせを使用するのと
同様に、ロッカースイッチ315によりユーザがアプリ
ケーションを切り替えることができる。すなわち、ロッ
カースイッチ315により、ユーザは実行中のアプリケ
ーション間を移動することができる。具体的には、ユー
ザがロッカースイッチ315に触れるか、あるいは接近
すると、現在実行中のアプリケーション各々のアイコン
を示す画面上表示が示され、図28に示すように最前面
にある(ウィンドウが重なる順序で一番上にある)アプ
リケーションがハイライト表示される。ユーザは、ロッ
カースイッチ315を押すことにより、ディスプレイの
最前面に持って行きたい所望のアプリケーションをハイ
ライト表示するために、アプリケーション間を移動する
ことができる。この順序は、アルファベット順、あるい
は前回各アプリケーションがディスプレイの最前面にあ
った時など、複数の方式で決定することができる。ロッ
カースイッチ315から手を離すとハイライト表示され
たアプリケーションが選択され、ディスプレイの最前面
に来る。タッチセンシティブなロッカースイッチ315
は、この他にも多数の応用例で使用できることを理解さ
れたい。これには、スイッチへのユーザ接触あるいは著
しい近接状態に応答して様々なアイテムを表示するこ
と、スイッチを押すのに応答してアイテムをハイライト
表示すること、およびスイッチの接触状態の解除、ある
いはスイッチから遠ざかることによりリストからアイテ
ムを選択すること、が含まれる。
【0090】例示的なキーボード入力装置の各種の補助
用コントロール、およびその接触に対するコンテクスト
に即した反応の例示的な実施を下の表1ないし表5に列
記する。各種のコントロールおよび反応は、ゲームコン
トローラ、トラックボール、マウス、タッチパッドなど
他の入力装置にも応用できることを理解されたい。
【0091】
【表1】
【0092】
【表2】
【0093】
【表3】
【0094】
【表4】
【0095】
【表5】
【0096】以下の表6では、本発明による例示的マウ
ス入力装置への接触に対する、コンテクストに即した反
応の例示的な技術について説明する。
【0097】
【表6】
【0098】タッチセンシティブなコントロールへのユ
ーザの接触に応答して画面に提供できる各種の視覚的フ
ィードバックに加えて、いまひとつの可能性は、キーの
組み合わせまたは他のコントロールに、それぞれコピー
機能(例えば「Ctrl」キーと「c」キーを同時
に)、およびペースト機能(例えば「Ctrl」キーと
「v」キーを同時に)を実行させるように設定する場合
に、図29Aおよび29Bに示すような標準的なツール
ヒントを表示することである。すなわち、ユーザが「C
trl」キーと「c」キーに同時に触れると、図29A
に表示する「Copy」のツールヒントが画面に現れ、
ユーザが「Ctrl」キーと「v」キーに同時に触れる
と、図29Bに示す「Paste」のツールヒントが画
面に現れる。
【0099】通例、画面上表示は、ユーザが触れる入力
装置に関係なくその時点のカーソルまたはポインタ(例
えばカレット)位置の近くに配置することができる。例
えば、キーボードのツールヒントをカーソルの隣に表示
することができる。画面上表示を上記の現在のカーソル
位置の右上に表示する(pop up)ことは有益であ
る。これは、ワシントン州レドモンドのマイクロソフト
社製造のWindows(登録商標)オペレーティング
システムで、ユーザがポインタをアイコンの上に乗せた
状態で停止している時に表示される、従来のツールヒン
トとその画面上表示が重なら(conflict wi
th)ないからである(従来のツールヒントは、ポイン
タまたはカーソルの右下に表示される)。ツールヒント
は、ユーザがポインティングデバイス(例えばマウス)
によりカーソルまたはポインタを移動すると、カーソル
またはポインタの後をたどって行くようにすることも、
またはそれが最初に表示された点に静止したままにする
こともできる。ツールヒントをカーソルとともに移動す
るよりも、それが表示される場所にツールヒントを維持
しておく方が実施が容易であり、かつより効率的であ
り、ユーザにも受け入れられやすいと考えられる。本発
明の別の例示的実施形態によると、表示ウィジェット
は、画面中央、その時アクティブな(「フォーカス」)
アプリケーションまたはウィジェット(例えばテキスト
入力ボックス)の中央、画面下部、あるいはシステムト
レーアイコンの上部、に表示することができる。
【0100】図30Aおよび30Bは、別の例示的な表
示ウィジェット(画面上表示)を示しているが、この図
では、本発明の例証的実施形態により、ユーザがプログ
ラマブルなキーボードホットキーおよびファンクション
「F」キーに触れるのに応答して表示することのでき
る、各アプリケーションについてのキーボードコントロ
ール機能を例示している。ユーザが単にキーに触れただ
けで起動しないと、画面上表示は、そのキーが何である
か、および/またはそのキーが行う動作を示すことがで
き、その機能は実際には実行されない。図30Aは、ユ
ーザがキーに触れるのに応答する、キーボードホットキ
ーの設定をカスタマイズする、あるいは見るための(例
えばマウスや他のポインティング装置によって)選択可
能なオプションを含んだキーボードホットキーのGUI
の画面上表示の例を示している。すなわち、ユーザはこ
のGUIの「Reassign HotKey」の領域
をクリックして、そのホットキー(キーの組み合わせで
もよい)の現在の機能を見、そのホットキーの機能を割
り当てを変えることができる。図30Bには、ユーザが
あるキーに触れるのに応答した、キーボードホットキー
の設定をカスタマイズする、あるいは見るための選択可
能なオプションを含んだキーボードホットキー用のGU
Iの画面上表示の別の例を提供する。図30Bが図30
Aと異なるのは、そのキーが何であるか、およびその動
作(例えば「マイコンピュータ」アプリケーションの起
動)についてのより詳しい情報をユーザに提供する点で
ある。実施形態によっては、触れることによって起動さ
れるGUIは、ユーザがそれに関連付けられたコントロ
ールに触れると直ちにキーボードフォーカスを受け取る
ことができる。これにより、ユーザは即座に上記の例
「Reassign HotKey」の「R」のキーを
打って、それに代わる機能を起動することができる。別
の実施形態では、接触によって起動するGUIはキーボ
ードフォーカスを受け取らない。ユーザは、マウスでG
UIをクリックするか、例えば「Alt」キーと「Ta
b」キーの組み合わせや、上層の(top leve
l)切り替えるための別の方法を用いてキーボードフォ
ーカスに切り替えなければならない。この後者の実施形
態は、ユーザがそれに受け取らせるつもりでないキーボ
ード入力を、接触で起動するGUIが受け取らないよう
にしている。好ましい実施形態は、特定の入力装置、そ
の装置のタッチセンシティブなコントロール、現在のア
プリケーション、あるいはユーザの嗜好の詳細に応じて
決まる。
【0101】本発明の別の例示的実施形態では、各ホッ
トキーにテキストマクロを割り当てることができ、この
場合はホットキーを起動すると、例えば画面上のカーソ
ル位置にテキストのブロックが挿入される。このような
コンテクストで使用する場合、あるホットキーに触れる
と、図31に示すようにそのホットキーに割り当てられ
たテキストマクロの全文ではなくとも少なくとも始めの
部分あるいはその他の部分が表示される。画面上表示の
ウィンドウは、テキスト全文を表示するために、そのテ
キストマクロに割り当てられたテキスト量に応じて自動
的にサイズを調整することができる。このコンテクスト
はスクロールコントロールと合わせて使用することもで
き、ユーザがそのテキストマクロを割り当てられたホッ
トキーに触れている間そのテキストをスクロールするこ
とができる。
【0102】先に述べたように、本発明のいくつかの例
示的実施形態によると聴覚または触覚によるフィードバ
ックを利用することができる。聴覚または触覚によるフ
ィードバックは、ディスプレイ上の視覚的なフィードバ
ックと合わせて、あるいはそれとは別に使用することが
できる。場合によっては、その際実行中のアプリケーシ
ョン、その際使用している入力装置、あるいはユーザの
好みにより、視覚的なフィードバックが適当ではなく聴
覚によるフィードバックが望ましい場合もある。
【0103】本発明のある実施形態によると、ユーザが
あるコントロールに触れると、適切なキュートーン(c
ue tone)やその他のサウンドなど聴覚によるフ
ィードバックを生成することができる。所望のオーディ
オキュートーンを、特定の機能またはコントロールに割
り当て(map)ることができる。音量、音の高低、お
よび音色を調整して、音声で生成されるコントロール機
能の通知など所望のサウンドをまねた適切なキューを作
ることができる。キューサウンドは、パラメトリックな
サウンドイベント要求を受け取り、MIDIウェーブテ
ーブルシンセサイザ662を使用し、音声生成装置64
0(例えば、Creative Labs AWE64
Goldカードサウンドボード)でそれを順番に配列
することによって生成することができる(図6参照)。
音声キューごとに正確な音声パラメータを設定し、その
音声キューを適切に合成し、キューをそれに対応するコ
ントロールおよび/または機能と関連付けるための具体
的な技術はすべて当業者には容易に明らかになるもので
あり、また本発明の一部を形成するものではないので説
明の簡略化のために省略している。
【0104】機能およびその他の情報を識別するための
聴覚的フィードバックは、ワシントン州レドモンドのマ
イクロソフト社製造のMS Game Voice(商
標)などゲームのアプリケーションおよび製品に特に有
用である。例えば、ゲーム製品は、パック(puck)
に取り付けられたヘッドセットマイクロフォンの組み合
わせを含むことがある。ユーザは、パックにより、自分
が一緒にプレーしている人々およびチームの複数の組み
合わせと選択的に話をすることができる。各々の者に
は、コード(1、2、3...)およびチーム(A、
B、C...)が自動的に割り当てられる。問題が生じ
うるのは、プレーヤがどのコードがどのプレーヤおよび
チームに対応しているのかを記憶しておかなければなら
ない場合である。ユーザがあるボタンが誰に割り当てら
れているかについての確認(reminder)が欲し
い場合は、あるコントロール(例えば数字キー)に触れ
ると、そのコードに割り当てられた者の名前の聴覚フィ
ードバックを自分のヘッドセットを通じて受け取ること
ができる。
【0105】表1ないし表5に明らかにした本発明の一
例示的実施形態では、入力装置上の複数の接触領域を使
用することにより、インターネットブラウザによって提
供されるウェブページ間を移動することができる。複数
のタッチセンシティブな領域を有し、ページ間を移動す
るのに有用な入力装置の例には、特に図10C、10
D、12A、12B、13A、13B、および13Cの
マウスが含まれる。図10Cの場合、領域624に触れ
てから領域626に触れるとページを戻る機能が開始さ
れ、領域626に触れてから領域624に触れるとペー
ジを進む機能が開始される。図10Dでは、領域637
に触れてから領域634に触れるとページを戻る機能が
開始され、領域634に触れてから領域637に触れる
とページを進む機能が開始される。図12Aおよび12
Bでは、それぞれ領域722および724に触れてか
ら、それぞれ領域720および728に触れるとページ
を進む機能が開始され、それぞれ流域720および72
8に触れてから、それぞれ領域722および724に触
れるとページを戻る機能が開始される。図13A、13
B、および13Cでは、それぞれ領域734、738、
746に触れてから、それぞれ領域736、742、7
48に触れるとページを進む機能が開始され、それぞれ
領域736、742、748に触れてから、それぞれ領
域734、738、746に触れるとページを戻る機能
が開始される。
【0106】本発明の例証的実施形態によるマウスは、
2つのタッチセンサに連続して触れる代わりに1つのタ
ッチセンサに触れるだけで、ページ間移動機能を開始す
るように構成できることに留意されたい。したがって、
図10Cでは、領域624に触れるとページを進む機能
が開始され、領域626に触れるとページを戻る機能を
開始することができる。同様に、図13Aの領域734
に触れることによりページを進む機能を開始し、図13
Aの領域736に触れることによりページを戻る機能を
開始することができる。これに関連して、本発明のタッ
チセンサは、1998年9月14日に出願された米国特
許出願第09/153,148号「INPUT DEV
ICE WITH FORWARD/BACKWARD
CONTROL」に記載されるサイドスイッチの機能
を提供するものである。上記発明の発明者は本発明の譲
受人にその出願を譲渡する義務を負っていた。
【0107】上記のようなタッチエリアを使用して行う
ページ間移動機能を図32〜34に示す。図32のディ
スプレイ460は、現在のページ464を表示したイン
ターネットブラウザウィンドウ462を示している。ユ
ーザは、現在のページ464の前に表示されていたイン
ターネットページに戻ることにより、図33のインター
ネットブラウザウィンドウ472に示す過去のページ4
70を表示することができる。ユーザは、上記のような
タッチセンサの組み合わせを使用して、図34のディス
プレイ480のブラウザウィンドウ478に示す次のペ
ージ476に進むことができる。次のページ476に進
むためには、ユーザはどこかの時点で次のページ476
から現在のページ464に戻らなければならない。
【0108】タッチセンシティブなコントロールへの接
触、あるいは著しい近接状態に対する様々な反応は組み
合わせて使用できることを理解されたい。例えば、ユー
ザがあるボタンに最初に接触した際にはそのボタンの機
能を表示することができる。一実施では、ユーザが規定
の時間量(例えば5秒間)よりも長くそのボタンへの接
触を続けると、より詳細なステータス情報を表示する
か、あるいはユーザがGUIを利用できるようにするこ
とが可能である。あるいは、所定の時間内にわたって同
じボタンに継続的に接触すると、そのボタンの機能が表
示されその後GUIが現れるなど異なるタイプの情報を
表示させることができる。最初の接触の後に触覚または
聴覚によるフィードバックを提供することもでき、所定
の時間内に2度目の接触があるか、規定の時間にわたっ
て接触が検出されると、1度目と同じ情報あるいはより
詳細な情報の表示が現れる。
【0109】入力装置またはその装置の補助用コントロ
ールとユーザとの接触、または近接状態が検出されるの
に応答して、表示ウィジェットの画面上表示が瞬時に起
こるようにすることが可能である。しばしば、例えばユ
ーザが単に触れるのではなくある機能を起動するために
コントロールまたは装置を起動する場合に、表示ウィジ
ェットが画面にすぐに現れて消えないように、画面への
表示ウィジェットの表示をわずかに遅らせることが望ま
しい場合がある。表示ウィジェットの表示を所定の時間
量遅らせることにより、アクティブ状態のアプリケーシ
ョンや、入力装置およびその補助用コントロールの動作
に精通しており、ある機能を起動するために装置または
そのコントロールを直ちに起動する(例えばボタンを押
すなど)ユーザに対して、例えばツールヒント情報を含
んだ表示ウィジェットを不必要に表示しないようにする
ことができる。表示の制御に対応するための本発明によ
るいくつかの例示的技術について以下で説明する。
【0110】本発明の一実施形態では、およそ0.3秒
間の短い時間を使用する。この例では、ユーザがこの短
時間以下にわたって、キーまたはその他のコントロール
に接触するが、それを起動しないと画面上表示が表示さ
れる。この短い時間に達する前にユーザがコントロール
を起動した場合は、ユーザがコントロールに接触したの
に応答する画面上表示は表示されない。
【0111】本発明のいくつかの実施形態によると、コ
ントロールを起動する(例えばつまみを回す)と、制御
されている機能の状態(例えば音量)が変化し、ユーザ
が状態(例えば音量設定)を変えると(例えば音量設定
用の)GUIを表示することができる。これに対し、短
時間全体にわたって起動せずに触れた場合は、その機能
の既存の状態(例えば現在の音量)を表すGUIを表示
させることができ、その状態は変化しない。
【0112】同様に、本発明の実施形態によると、ユー
ザがコントロールとの接触をやめた際の、画面上表示の
消去またはフェードアウトの制御にも短い時間を使用す
ることができる。この例では、画面上表示は短い時間中
には表示されたままで、その時間を過ぎると、画面上表
示は消えるか、またはフェードアウトする。短い時間に
達する前にユーザが再度コントロールに触れると、画面
上表示は表示されたままになる。これと同様の時間は、
ユーザによるコントロールへの接触を検出すると表示ウ
ィジェットを消去し(すなわち消えるか、またはフェー
ドアウトする)、コントロールとの接触をやめると表示
ウィジェットが再び現れるか、あるいはフェードインす
るような本発明の実施形態に応用できることを理解され
たい。
【0113】本発明の例証的実施形態によると、ツール
ヒントまたはその他の情報を含んだ表示ウィジェットを
表示する際、その表示の方式は、コントロール、タイム
アウト、およびマウスの動きなど他の情報を含む複数の
基準に基づくことができる。図35A〜35Cは、ツー
ルヒントのような表示ウィジェットを表示画面に表示さ
せるタッチセンシティブなマウスに関連する時間設定
(timing)および条件についての、3つの例示的
な代替案を図式的に示したものである。
【0114】図35Aは、短いタイムアウト(Δt)の
後にボタンのツールヒントが表示画面に表示される例示
的実施形態の時間設定図を示している。図でボタンに触
れる時間が短いタイムアウト期間(Δt)未満になって
いるように、ユーザがわずかな間ボタンに触れるか、起
動する前にわずかな間ボタンに触れるか、あるいはうっ
かりタッチセンサをかすった場合でも、タイムアウトが
ボタンツールを抑制している。また、図に示すように、
短いタイムアウト(Δt)よりも長くボタンに触れると
ツールヒントが表示される。このツールヒントは、ユー
ザがボタンとの接触を解除するまで表示されている。こ
の例では、マウスの動きはツールヒントの表示にまった
く影響を与えない。
【0115】本発明の例証的実施形態の図35Bの時間
設定図によると、ボタンのツールヒントは、ユーザがボ
タンに触れ(起動はしない)、マウスを動かした時には
表示されない。ユーザが、タイムアウト期間(Δt)に
わたってボタンへの接触を続け、マウスの移動をやめる
と、そのボタンのヒントが表示される。図35Aのよう
に、ツールヒントはユーザがボタンとの接触を解除する
まで表示されている。
【0116】図35Cに示す時間設定図では、ユーザが
ボタンに触れマウスが静止しているときに、ユーザがタ
イムアウト期間(Δt)にわたってそのボタンに触れ続
け、マウスを動かさないとツールヒントが表示される。
図35Aおよび35Bと同様に、このツールヒントはユ
ーザがボタンとの接触を解除するまで表示されている。
【0117】タッチセンシティブな入力用コントロール
についての表示の表示方式の別の態様は、ユーザによる
ボタンまたは他の入力用コントロールの起動に対する、
ツールヒントまたは他の表示ウィジェットの反応に関連
するものである。ユーザはコントロールを起動してしま
うと、もはやフィードバック(起動の結果行われる動
作、その他についての)を希望しない場合がある。例え
ば、ユーザがあるボタンをクリックした(ボタンダウン
イベント)時に、そのボタンのツールヒントを瞬時に消
す(またはフェードアウトする)ことができる。また、
ユーザがボタンへの接触を続けていてボタンアップイベ
ントが発生したときには、ボタンのツールヒントを再度
表示しても、または隠したままにしてもよい。このコン
ピュータシステムでは、ツールヒントが消える前に、そ
のボタンクリックをツールヒントに表示される情報と関
連付ける視覚的フィードバックを表示することもでき
る。図36Aに示す時間設定図で表すような例証的実施
形態によると、ボタンクリックによってボタンダウンイ
ベントが起こると、ユーザがそのボタンを離し、起動せ
ずにそのボタンに再度触れてから期間Δtが経過するま
で、そのボタンのツールヒントは再び表示されない。別
の表現で説明すると、図36Aに示すように、あるボタ
ンの起動後、そのボタンのタッチセンサの次の立ち上が
りエッジの後そのボタンのツールヒントは表示されな
い。図36Bの時間設定図によって表す本発明の別の実
施形態によると、ボタンダウンイベントの後にボタンア
ップイベントがあった後、タイムアウトΔtの経過時に
ユーザがそのボタンとの接触を維持していればボタンの
ツールヒントが再び表示される。
【0118】本発明の別の実施形態は、1つの入力装置
の複数のコントロールへの同時の接触に関するものであ
る。ユーザが第2のコントロールに触れながら、1つの
コントロールとの接触を維持した場合は、第2コントロ
ールについての画面上表示または他のフィードバックが
生成される。あるいは、例えばキーの組み合わせなどの
コントロールの組み合わせによって、特定の機能を定義
することができる。この例では、その組み合わせ(例え
ばキーの組み合わせ)のツールヒントは、2つのキーが
同時に触れられ起動されないときに表示されるが、第1
のキーへの接触に関連付けられたツールヒントがある場
合には、その上に重なる形で表示される。ユーザがコン
トロールの1つから手を離すと、画面上表示は完全に消
え、もう一方の触れられているコントロールについての
フィードバックを元の状態に戻すことができる。
【0119】本発明の別の実施形態では、GUIの形態
の画面上表示が表示される、あるいはフェードインする
と、そのGUIは、カーソルまたはポインタ(例えばマ
ウスの動きによる)をその中に置いても、ユーザがその
GUIを表示させたコントロール(例えばタッチセンシ
ティブなマウスのボタン)との接触をやめても表示され
ている。この例のGUIは、最終的には、そのGUIの
外側でのカーソルの動き(例えばマウスの動き)や別の
コントロールの起動に応答して、または、コンピュータ
がマウスの動きなどの入力を全く受信しない所定の非ア
クティブ期間(例えば5秒間)の後に消えることができ
る。
【0120】本発明の例証的実施形態によると、画面上
表示は、アニメーションによる変化を使用してフェード
インおよびフェードアウトすることができる。画面上表
示の表示および消去を制御する技術は、単独で使用して
も組み合わせて使用してもよいことを理解されたい。以
下で、アニメーションによる変化を提供する本発明の一
実施形態について図37との関連で説明する。
【0121】図37は、PC20内に位置し、Tool
Glassシートまたはツールバーのような表示ウィ
ジェットをオンデマンド方式で表示および消去するため
の、高レベルのソフトウェアおよびハードウェア構成要
素の簡略化ブロック図900を表している。図37に示
すように、これらの構成要素には、アプリケーション3
6、オペレーティングシステム35、ビデオアダプタ4
8、ディスプレイ47、入力インタフェース46、およ
び入力装置43が含まれる。アプリケーションプログラ
ム36(例えばワードプロセッシングまたは表計算のプ
ログラム)はその中にGUI910を含むことができ、
そのGUIの中に、フェードイン/フェードアウトアニ
メーションプロセス915と、ビットマップジェネレー
タ920を含むことができる。ビットマップジェネレー
タ920は、Tool Glassパターン922、ツ
ールバーパターン924、およびその他の表示ウィジェ
ットパターン926を含んでいる。他の構成要素には、
オペレーティングシステム35内の入力装置ドライバ6
0、およびグラフィックAPI(アプリケーションプロ
グラミングインタフェース)940が含まれる。
【0122】入力装置43から提供される接触出力は、
それぞれ線(lead)903および907で表すよう
に入力インタフェース46に加えることができる。この
インタフェースは、各入力装置のそれぞれのタッチセン
シティブな構成要素(例えば補助用コントロール)の接
触センサによってその時に接触が感知されているかまた
はされていないかを反映した個別の信号を生成すること
ができる。これらの信号は、線905で表すように、オ
ペレーティングシステム35内で構成要素を形成してい
る入力装置ドライバ60に送ることができる。このデバ
イスドライバは入力装置が生成した信号を解釈し、それ
に応答して適切なイベントを生成する。接触に関して
は、このイベントで、特定の入力装置と、例えば手の接
触が検出されるかなどそれに対応するタッチセンサの状
態を指示することができる。このイベントはオペレーテ
ィングシステム35によりアプリケーション36に渡
し、最終的にはそのアプリケーションの中のGUIプロ
セス910に渡すことができる。このプロセス中で、イ
ベントは、フェードイン/フェードアウトアニメーショ
ンプロセス915によって処理される。アニメーション
プロセスは、各入力装置の状態変化の発生、すなわちそ
の装置が手の接触の感知を開始したばかりであるかまた
は接触の感知をやめたところであるか、および表示ウィ
ジェット(例えばTool Glassまたはツールバ
ー)が現在表示されているかいないかに応答して、表示
ウィジェットを制御可能な方式でフェードインまたはフ
ェードアウトするための所定のアニメーションシーケン
スを生成する。
【0123】ビットマップジェネレータ920は、通例
はテクスチャマップである所定のパターン922、92
4、および926を記憶しているが、これらはそれぞれ
Tool Glassシート、所定のツールバー、およ
び/または他の表示ウィジェットを含む各種の表示ウィ
ジェット用である。通例、これらのパターンは別々のフ
ァイルとしてアプリケーション内に記憶されている。ア
プリケーションプログラム36が起動されると、そのア
プリケーションは、初期化中、またはウィジェットの変
更があればその後に、線930を介してこのパターンを
グラフィックAPI940にダウンロードする。グラフ
ィックAPI940はこのパターンをグラフィックアク
セラレータ(図示せず)に送り、その中にあるローカル
ストレージにテクスチャマップとして記憶させることが
できる。あるいは、このダウンロードはオペレーティン
グシステム35が提供するサービスによって管理しても
よい。
【0124】それに続く表示中に、アクセラレータはそ
のローカルストアから上記のマップを読み出し、それを
適切に多角形に埋め、その結果得られるマップを埋めた
パターンをディスプレイ47に描画する。次いで、制御
されたフェードインまたはフェードアウト動作のために
このマップをダウンロードすると、アニメーションプロ
セス915は、グラフィックアクセラレータがそれに対
応する表示ウィジェットのマップを埋めたパターンを描
画する際のアルファ透明値を変える。ツールバーの場
合、アルファ透明値は透明値の範囲全体にわたって変化
させる(すなわち、0〜1αの線形目盛でおよそ0αか
ら1.0αの間。この場合0αが完全な透明で、1.0
αが完全な不透明になる)。Tool Glassシー
トの場合、アルファ透明値は、通例0αからおよそ0.
7αの範囲で変化させる。つまり、最大の不透明度で描
画したTool Glassシートでも、その下にある
文書オブジェクトはなおシートを通して(多少ぼやけ
て)見ることができる。
【0125】基本的に、フェードインまたはフェードア
ウトの動作の場合、アニメーションプロセス915は、
所定の時間間隔にわたって一連の命令を発する。この命
令は具体的には、異なる表示フレームそれぞれに対す
る、特定の表示ウィジェットを表示する際にアルファ透
明値を連続的に変えさせる命令である。同じく線930
で表すように、この命令はオペレーティングシステム3
5に対して発行され、オペレーティングシステムは次い
でそれをグラフィックAPI940に渡し、最終的には
グラフィックアクセラレータに渡される。
【0126】フェードインは、およそ0.3〜0.5秒
など比較的短い時間(interval of tim
e)にわたって行うべきである。しかし、ユーザの気を
散らさないように、フェードアウトは約0.7〜1.0
秒など比較的長い時間をかけて行う方がよい。特にフェ
ードインの際には、この時間の間にアルファ透明値を一
般には非線形の方式で変化させる。経験により、一般に
画面アニメーションで使用される従来のスローイン/ス
ローアウト技術を利用することを選択した。この技術で
は、不透明度は最初、完全には透明でなくとも実質的に
透明な状態(つまり実質的に目に見えない状態)からや
や遅い速度で中間値まで変化し、次いでやや速度を速め
て別の中間値まで増加し、さらに速度を増すと再び速度
を落として最大の不透明度(例えばツールバーの場合は
1α、Tool Glassシートの場合は0.7α)
に達する。これは、時間の関数であるほぼ「S」字型の
不透明度曲線になる。これと同じ透明度の変化を、表示
ウィジェットをフェードアウトさせる際に使用する(た
だし方向は逆になる)。フェードインおよびフェードア
ウト期間中に不透明度を変化させるために、線形関数な
ど、他の時間ベースの不透明度関数を使用できることは
言うまでもない。最終的には、選択する特定の関数(フ
ェードアウトとフェードインに異なる関数を使用するこ
ともできる。実際、所望の場合には異なる表示ウィジェ
ットに上記のように異なる関数を使用することができ
る)は、適切なユーザによる試験を通じて経験的に決定
する可能性が高い。
【0127】さらに、人間の目は、通常の輝度では、青
の色調など他の色調よりも例えば赤の色調など特定の色
に対して高い感度を示す。このため、前者のような色を
含む表示ウィジェットをフェードインさせると、比較的
低い輝度であってもユーザの気を散らす可能性があり、
特にそのような色が鮮明になるのに従ってより気を散ら
す可能性がある。このようにユーザの気を散らすのを回
避するために、表示ウィジェットは、所望の配色および
輝度による最終的なマップを表示するまでは、特に人間
の目が最も高い感度を示す色について、異なるあるいは
変化する配色および輝度による数種のテクスチャマップ
によって表現することができる。この場合、最初にその
ウィジェットの白黒のテクスチャマップを表示し、次い
でフェードイン中の適切な時に、同じウィジェット用の
テクスチャマップで、望ましい配色を有し輝度が増した
テクスチャマップ(さらに言えば異なる配色でもよい)
を描画し、そしてフェードイン期間の最後に、最終的な
配色および輝度を有するテクスチャマップを描写する。
フェードアウトはこれと同様の方式で行うことができる
が、その順序は逆になる。例えば、表示ウィジェット
は、次第に輝度が低下する有色のテクスチャマップの連
続を使用して白黒のマップまでフェードアウトし、その
後白黒のマップがそれ自体で完全な透明までフェードア
ウトすることができる。あるいはフェードアウトの始め
に、ウィジェットの白黒マップに変化し、そこから完全
な透明までフェードアウトすることができる。
【0128】グラフィックアクセラレータを使用しない
場合は、線955で表すように、グラフィックAPI9
40が、グラフィック出力を直接ビデオアダプタ48
(具体的には、図示していないがその中にある標準的な
ビデオカード)に提供することができる。するとビデオ
アダプタ48は適切なビデオ信号を生成し、それをディ
スプレイ47に加える。この例では、コンピュータシス
テムは、ソフトウェア中のグラフィックアクセラレータ
から提供されるであろう適切なグラフィック機能を実施
するのに十分な速度で動作できる必要がある。さらに、
フェードインおよびフェードアウトのグラフィック機能
がサポートされない場合には、他の視覚技術によって表
示ウィジェットの表示および消去を行うことができる。
この技術には、例えば、ウィジェットを画面外の位置か
ら画面の上にスライドまたは移動(shuffle)す
ることにより、単にウィジェットを平行移動する技術、
ツールを瞬間的かつ完全に表示または消去する技術、ウ
ィジェットを回転させ(例えば、ツールバーが3Dの面
上にあり、回転して所定の位置につく場合など)、かつ
/またはインタフェースツールまたは文書の一部を徐々
に拡大する、あるいは徐々に縮小する技術、が含まれ
る。ただし、これらの技術では、ツールバーおよびTo
ol Glassシートのような表示ウィジェットは完
全に不透明な表示に限られる。これらの技術はいずれ
も、アルファ透明度をサポートするグラフィックアクセ
ラレータによるフェーディングと合わせて使用すること
もできる。
【0129】アルファ透明機能は、既存の幅広いグラフ
ィックアクセラレータでサポートされているが、この機
能は、D3D(WINDOWS(登録商標)オペレーテ
ィングシステムの標準コンポーネントとして、現在マイ
クロソフト社によって製造されている3Dグラフィック
API)、OpenGL(当技術分野で現在入手可
能)、またはGDI(歴史的には2Dの低レベルグラフ
ィック処理レイヤに過ぎない。現在マイクロソフト社が
製造しており、WINDOWS(登録商標)オペレーテ
ィングシステムの標準コンポーネントとして内蔵されて
いる)、など従来の2D(2次元)および3D(3次
元)のグラフィックAPIにより、よく知られる方式で
容易にソフトウェアでシミュレートすることができる。
【0130】表示画面が、ツールバーとTool Gl
assシートの両方(あるいは他の表示ウィジェットの
組み合わせ)を同時に表示する場合が考えられる。この
ような場合は、意図しない対話を行ったことによって、
両方のツールがフェードインまたはフェードアウトする
可能性がある。このような対話、およびそれに伴うユー
ザのフラストレーションを防ぐために、当技術の範囲内
にある適切な決定プロセスをアニメーションプロセス9
15に組み込んで、2つの表示ウィジェットの両方では
なく1つだけをフェードインまたはフェードアウトさせ
ることができる。例えば、両方のツールが表示されてい
て、ユーザがタッチマウス(TouchMouse)を
操作した場合は、Tool Glassだけをフェード
アウトさせ、ツールバーは完全に表示された状態を保
つ。特定の決定プロセスは、同時に表示することができ
る特定のウィジェットによって制御され、それらのウィ
ジェットの1つまたは複数の表示を継続する必要性は、
その時に実行中の動作、およびウィジェット間の相対的
な表示優先順位を含む、そのアプリケーションのその時
点のコンテクスト設定に基づく。
【0131】本発明は、接触の感知以外にも他の感知技
術を利用してオンデマンドの動作を起動することができ
ることを理解されたい。そのような感知技術には、例え
ば、皮膚電気反応、非接触の近接センサ、圧力センサ、
キーボード上のタッチ/近接センサからのイベント、G
PS(全地球測位システム)受信機からのデータ(ユー
ザの位置、またはモバイルコンピュータの位置)、カメ
ラからのビデオデータ、およびマイクロフォンからの音
声データなどである。
【0132】本発明の特定の実施形態について説明し、
図示したが、当業者はこれに修正変更を行うことができ
ることから、本発明はそれに限定されるものではないこ
とを理解されたい。本出願は、本明細書に開示し、特許
請求する基礎となる発明の精神および範囲内にある変更
修正すべてを意図している。
【図面の簡単な説明】
【図1】本発明の例証的実施形態によるコンピュータシ
ステムのブロック図である。
【図2】本発明による入力装置の例示的実施形態のより
詳細なブロック図である。
【図3】本発明の例証的実施形態によるヘッドセットの
透視図である。
【図4】(A)は本発明の例証的実施形態によるマウス
の透視図であり、(B)は(A)のマウスの下面図であ
り、(C)は(A)のマウスの例示的な回路基板の透視
図である。
【図5】本発明によるマウスの別の例証的実施形態の上
面図である。
【図6】(A)および(B)は本発明によるマウスの別
の例証的実施形態の左側面図であり、(C)および
(D)は本発明によるマウスの別の例証的実施形態の右
側面図である。
【図7】(A)および(B)はそれぞれ、本発明による
マウスの別の例証的実施形態の左側面図および上面図で
ある。
【図8】(A)および(B)はそれぞれ、本発明による
マウスの別の例証的実施形態の左側面図および上面図で
ある。
【図9】(A)〜(C)は順に(respective
ly)、本発明によるマウスの別の例証的実施形態の左
側面図、上面図、および右側面図である。
【図10】(A)〜(H)は本発明によるマウスボタン
の各種例示的実施形態の上面図である。
【図11】(A)は本発明によるマウスの別の例証的実
施形態の上面図であり、(B)は本発明によるマウスの
別の例証的実施形態の上面図である。
【図12】(A)および(B)は本発明によるマウスの
異なる例示的実施形態の右側面図である。
【図13】(A)〜(D)は本発明によるマウスの異な
る例示的実施形態の左側面図である。
【図14】(A)〜(D)は本発明による、ホイールに
近接したタッチセンサを示したマウスの各種例示的実施
形態の上面図である。
【図15】本発明による例証的トラックボールの透視図
である。
【図16】本発明によるジョイスティックを有する例示
的ゲームコントローラの透視図である。
【図17】本発明による例示的ゲームコントローラの透
視図である。
【図18】(A)は本発明による例証的キーボードの透
視図であり、(B)および(C)は本発明による例証的
キーボードの一部を示す図である。
【図19】本発明による例証的タッチパッドの透視図で
ある。
【図20】図1のコンピュータのより詳細なブロック図
である。
【図21】本発明の入力装置に触れる前に表示すること
のできる例証的画面表示の図である。
【図22】本発明の入力装置に触れた後の例証的画面表
示の画像の図である。
【図23】本発明により起動されたプルダウンメニュー
を示した例証的画面表示の画像の図である。
【図24】本発明により開かれた第2のプルダウンメニ
ューを示した例証的画面表示の画像の図である。
【図25】本発明によりプルダウンメニュー中で選択さ
れたアイテムを示した例証的画面表示の画像の図であ
る。
【図26】本発明による放射状メニューを示す例証的画
面表示の画像の図である。
【図27】本発明の例示的実施形態により表示画面に表
示することのできる例証的グラフィカルユーザインタフ
ェースの図である。
【図28】本発明の例示的実施形態により表示画面に表
示することのできる例証的な画面上表示の図である。
【図29】(A)および(B)は本発明の例示的実施形
態により表示画面に表示することのできる例証的なツー
ルヒントの視覚的フィードバックの図である。
【図30】(A)および(B)は本発明の例示的実施形
態により表示画面に表示することのできる例証的な視覚
的フィードバックの図である。
【図31】本発明の例示的実施形態により表示画面に表
示することのできる例証的な視覚的フィードバックの図
である。
【図32】現在のページを含んだウェブブラウザを示す
例証的画面表示の画像の図である。
【図33】以前閲覧したページを含んだウェブブラウザ
を示す例証的画面表示の画像の図である。
【図34】次のページを含んだウェブブラウザを示す例
証的画面表示の画像の図である。
【図35】(A)〜(C)は本発明の例証的実施形態に
よる、ツールヒントの表示を制御するための例証的時間
設定図である。
【図36】(A)および(B)は本発明の例証的実施形
態による、ツールヒントの表示を制御するための例証的
時間設定図である。
【図37】PC20内に位置し、本発明の例示的実施を
集合的に形成するソフトウェアおよびハードウェア構成
要素を簡略化した高レベルのブロック図900である。
【符号の説明】
20 パーソナルコンピュータ 21 処理装置(CPU) 22 システムメモリ 23 システムバス 24 読み出し専用メモリ 25 ランダムアクセスメモリ 26 BIOS 27 ハードディスクドライブ 28 磁気ディスクドライブ 29 取り外し可能磁気ディスク 30 光ディスクドライブ 31 光ディスク 32 ハードディスクドライブインタフェース 33 磁気ディスクドライブインタフェース 34 光ディスクドライブインタフェース 35 オペレーティングシステム 36 アプリケーションプログラム 37 プログラムモジュール 38 プログラムデータ 40 タッチセンサ 42 移動トランスデューサ 43 入力装置 45 スピーカ 46 シリアルポートインタフェース 47 モニタ 48 ビデオアダプタ 49 リモートコンピュータ 50 メモリ記憶装置 51 LAN 52 WAN 53 アダプタ 54 モデム 60 デバイスドライバ 100、102、104、106 タッチセンサ 108、110、112、114 導線 116 A/D変換器およびマルチプレクサ 118 線 120、200 マイクロコントローラ 122 入力(入力線、線) 124 出力 150 ヘッドセット 152 マイクロフォン 154 支持ピース 156 タッチセンサ 158 出力線 170、690 マウス 172、600、604、704、710、780 パ
ームレスト 174 左ボタン 176 右ボタン 178、764、768、774 ホイール 180 側面 182 出力線 184、186 側面領域 189 電子回路 190、220、228 トラックボール(ボール) 192 トラックボールネスト 194、196、203 エンコーダホイール 201、202、204 スイッチ 206 センサ配列 222、242 基部 224、226、248、250、252、312A〜
312G ボタン 244 ハンドル 246 トリガ 260 ゲームパッド 262、264 サイドボタン 266、268、270、272、274、276 左
手ボタン 278、280、282、284、286、288 右
手ボタン 290 開始ボタン 292 選択ボタン 300 キーボード 301 キーボードケース 302 QWERTY配列 304 数字キーパッド 306、307、309、311 部分 308 スペースバー 310 矢印キー 314 コントロール用つまみ 315 ロッカースイッチ 320、350 画面 322、354 仮想デスクトップ 328、352 ウィンドウ(アクティブウィンドウ) 324、326 アイコン 330 カレット 332 ツールヒント 334 ツールバー 356、360 プルダウンメニュー(プルダウンウィ
ンドウ) 358 メニューバー(ヘッダメニュー) 362、364、366、371、373 項目 370 放射状メニュー 372 キャンセルボタン 460、480 ディスプレイ 462、472、478 インターネットブラウザウィ
ンドウ 464、470、476 ページ 602、603、605、607、608、610、6
12、614、616、624、626、634、63
7 648、672、720、722、724、72
6、728、734、736、738、740、74
2、744、746、748、762、766、77
0、772 センサ(タッチセンサ、領域) 606 左側面 618 固体センサ 620、752 センサストリップ(ストリップ) 640 音声生成装置 662 MIDIウェーブテーブルシンセサイザ 224、226、622、630、646、660、7
00、702、706、708、2220、2240、
2260、2280 ボタン 613 側端 627 前端 628、636 隆起部 641、642、643、644、650、651、6
52 センサ領域 674 中央センサ 692 左側面センサ 694 パームセンサ 696 右側面センサ 698 ボタンセンサ 776 前部領域 778 後部領域 810 メッセージフックプロシージャ 812 フォーカスアプリケーション 900 ブロック図 903、905、907、930 線 910 GUI 915 フェードイン/フェードアウトアニメーション
プロセス 920 ビットマップジェネレータ 922、924、926 パターン 940 グラフィックAPI 2000 タッチパッド 2100 表面(タブレット)
───────────────────────────────────────────────────── フロントページの続き (72)発明者 スティーブン エヌ.バシチェ アメリカ合衆国 98052 ワシントン州 レッドモンド ノースイースト 60 13783 ナンバー127 (72)発明者 ウィリアム ボン アメリカ合衆国 98144 ワシントン州 シアトル サウス レイク ワシントン ブールバード 917 Fターム(参考) 5B020 CC12 CC17 DD02 GG13 5B087 AA09 AB12 BB12 BB21 DE03 DE06 5E501 AA02 AC37 BA05 BA08 CA03 CB02 CB09 CB20 EA40 FA06 FA32 FA42

Claims (31)

    【特許請求の範囲】
  1. 【請求項1】 入力装置および補助用コントロールを有
    するコンピュータシステムにおいて、 第1の補助用コントロールが非アクティブな状態を維持
    する所定期間にわたって、前記第1補助用コントロール
    に近接または接触している第1の物理的存在を検出する
    ステップと、 前記検出ステップに応答してフィードバックを生成する
    ステップであって、前記フィードバックが、前記第1の
    補助用コントロールの機能の表示を提供するステップと
    を含むことを特徴とする方法。
  2. 【請求項2】 前記フィードバックが聴覚によるフィー
    ドバックを含むことを特徴とする請求項1に記載の方
    法。
  3. 【請求項3】 前記入力装置がゲームコントローラであ
    ることを特徴とする請求項2に記載の方法。
  4. 【請求項4】 前記フィードバックが触覚によるフィー
    ドバックを含むことを特徴とする請求項1に記載の方
    法。
  5. 【請求項5】 前記フィードバックが、視覚的フィード
    バック、聴覚的フィードバック、および/または触覚的
    フィードバックのうち少なくとも1つを含むことを特徴
    とする請求項1に記載の方法。
  6. 【請求項6】 前記検出ステップが、前記第1の補助用
    コントロールおよびポインティングデバイスがどちらも
    非アクティブ状態を維持する前記第1の所定期間にわた
    り前記第1の物理的存在を検出することをさらに含むこ
    とを特徴とする請求項1に記載の方法。
  7. 【請求項7】 前記コンピュータシステムがさらに表示
    画面を含み、前記生成ステップが、前記検出ステップに
    応答して第1の表示ウィジェットを前記表示画面上に表
    示するステップをさらに含むことを特徴とする請求項1
    に記載の方法。
  8. 【請求項8】 前記第1の表示ウィジェットが、ユーザ
    がそれによって前記第1の補助用コントロールの機能の
    設定を変更することができるユーザインタフェースを含
    むことを特徴とする請求項7に記載の方法。
  9. 【請求項9】 前記第1の表示ウィジェットが、前記第
    1の補助用コントロールと関連付けられたテキストマク
    ロを識別することを特徴とする請求項7に記載の方法。
  10. 【請求項10】 前記第1の表示ウィジェットを表示し
    た状態で、第2の所定期間にわたる、前記第1の補助用
    コントロールに近接または接触した前記第1の物理的存
    在の不在を検出するステップと、 前記第2の所定期間にわたる前記第1の物理的存在の不
    在を検出するのに応答して、前記第1の表示ウィジェッ
    トの表示を中止するステップとをさらに含むことを特徴
    とする請求項7に記載の方法。
  11. 【請求項11】 第2の補助用コントロールの起動に応
    答して、前記第1表示ウィジェットの表示を中止するス
    テップをさらに含むことを特徴とする請求項7に記載の
    方法。
  12. 【請求項12】 前記第1の物理的存在が前記第1の補
    助用コントロールに近接または接触した状態を保ってい
    るときに、前記第2の補助用コントロールが非活動化さ
    れると、それに応答して前記第1の表示ウィジェットを
    表示するステップ、をさらに含むことを特徴とする請求
    項11に記載の方法。
  13. 【請求項13】 前記第2の補助用コントロールが前記
    第1の補助用コントロールであることを特徴とする請求
    項12に記載の方法。
  14. 【請求項14】 前記第2の補助用コントロールの非活
    動化後に、前記第1の物理的存在が前記第1の補助用コ
    ントロールとの接触をやめるか、またはもはやそれに近
    接していない状態になるまで、前記第1の表示ウィジェ
    ットの表示を使用不可にするステップ、をさらに含むこ
    とを特徴とする請求項11に記載の方法。
  15. 【請求項15】 前記第2の補助用コントロールが前記
    第1の補助用コントロールであることを特徴とする請求
    項14に記載の方法。
  16. 【請求項16】 前記第1の補助用コントロールと異な
    る第2の補助用コントロールに近接または接触した第2
    の物理的存在を検出するステップと、 前記第2の物理的存在の前記検出ステップに応答して別
    のフィードバックを生成するステップであって、前記別
    のフィードバックが、前記第2の補助用コントロールと
    関連付けられた機能を示すステップと、 前記第2の物理的存在の検出に応答して前記第1の表示
    ウィジェットの表示を中止するステップとをさらに含む
    ことを特徴とする請求項7に記載の方法。
  17. 【請求項17】 前記別のフィードバックを生成するス
    テップが、前記第2の物理的存在を検出する前記ステッ
    プに応答して、第2の表示ウィジェットを前記表示画面
    に表示することを含むことを特徴とする請求項16に記
    載の方法。
  18. 【請求項18】 前記別のフィードバックが、前記第1
    の補助用コントロールと前記第2の補助用コントロール
    の組み合わせに関連付けられた機能を示すことを特徴と
    する請求項16に記載の方法。
  19. 【請求項19】 前記第1の補助用コントロールおよび
    前記第2の補助用コントロールが前記入力装置の別々の
    コントロールに対応し、前記装置がキーボード入力装置
    であることを特徴とする請求項18に記載の方法。
  20. 【請求項20】 補助用コントロールを含む入力装置
    と、表示画面とを有するコンピュータシステムにおい
    て、第1の補助用コントロールに近接または接触した第
    1の物理的存在を検出するステップと、 前記検出ステップに応答して第1の表示ウィジェットを
    前記表示画面に表示するステップであって、前記第1の
    表示ウィジェットが、前記補助用コントロールと関連付
    けられたツールヒント(tool tip)を提供する
    ステップとを含むことを特徴とする方法。
  21. 【請求項21】 前記入力装置がキーボードであること
    を特徴とする請求項20に記載の方法。
  22. 【請求項22】 前記第1の補助用コントロールがボタ
    ンまたはキーであることを特徴とする請求項20に記載
    の方法。
  23. 【請求項23】 前記第1の補助用コントロールがキー
    の組み合わせであることを特徴とする請求項20に記載
    の方法。
  24. 【請求項24】 前記入力装置がポインティングデバイ
    スであり、前記第1の補助用コントロールがボタンであ
    ることを特徴とする請求項20に記載の方法。
  25. 【請求項25】 前記ツールヒントが、前記第1の補助
    用コントロールを活動化することによって起動されるア
    プリケーションを識別することを特徴とする請求項20
    に記載の方法。
  26. 【請求項26】 前記アプリケーションが、ワードプロ
    セッシング、表計算、ウェブブラウザ、ファイルエクス
    プローラ、計算機、またはメッセージングアプリケーシ
    ョンのうちの1つであることを特徴とする請求項25に
    記載の方法。
  27. 【請求項27】 前記検出ステップがさらに、前記第1
    補助用コントロールおよびポインティングデバイスの両
    方が非アクティブ状態を維持する第1の所定期間にわた
    る前記第1の物理的存在の検出を含むことを特徴とする
    請求項20に記載の方法。
  28. 【請求項28】 前記第1補助用コントロールと異なる
    第2の補助用コントロールに近接または接触した第2の
    物理的存在を検出するステップと、 前記第2の物理的存在の前記検出ステップに応答して第
    2の表示ウィジェットを前記表示画面に表示するステッ
    プであって、前記第2の表示ウィジェットが、前記第2
    補助用コントロールと関連付けられたツールヒントを提
    供するステップと、 前記第2の物理的存在の検出に応答して、前記第1表示
    ウィジェットの表示を中止するステップとをさらに含む
    ことを特徴とする請求項20に記載の方法。
  29. 【請求項29】 前記第2表示ウィジェットを表示する
    前記ステップが、前記第1の物理的存在および前記第2
    の物理的存在を同時に検出するのに応答して第2の表示
    ウィジェットを表示することを含み、前記第2の表示ウ
    ィジェットが、前記第1補助用コントロールと前記第2
    の補助用コントロールの組み合わせに関連付けられたツ
    ールヒントをあらわすことを特徴とする請求項28に記
    載の方法。
  30. 【請求項30】 前記検出ステップに応答して聴覚的な
    フィードバックを提供するステップをさらに含むことを
    特徴とする請求項20に記載の方法。
  31. 【請求項31】 前記検出ステップに応答して触覚によ
    るフィードバックを提供するステップをさらに含むこと
    を特徴とする請求項20に記載の方法。
JP2002069360A 2001-03-13 2002-03-13 コンピュータシステムの補助用コントロールを検出してフィードバックを与える方法 Expired - Fee Related JP4138340B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/804,383 2001-03-13
US09/804,383 US7358956B2 (en) 1998-09-14 2001-03-13 Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device

Publications (3)

Publication Number Publication Date
JP2002287862A true JP2002287862A (ja) 2002-10-04
JP2002287862A5 JP2002287862A5 (ja) 2005-09-08
JP4138340B2 JP4138340B2 (ja) 2008-08-27

Family

ID=25188821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002069360A Expired - Fee Related JP4138340B2 (ja) 2001-03-13 2002-03-13 コンピュータシステムの補助用コントロールを検出してフィードバックを与える方法

Country Status (3)

Country Link
US (1) US7358956B2 (ja)
EP (1) EP1241558A3 (ja)
JP (1) JP4138340B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339229A (ja) * 2004-05-27 2005-12-08 Nec Corp 入力機器及び入力システム
JP2008542915A (ja) * 2005-06-03 2008-11-27 アップル インコーポレイテッド 改良された入力メカニズムを備えたマウス
JP2009523267A (ja) * 2005-09-15 2009-06-18 アップル インコーポレイテッド トラックパッドデバイスの未加工データを処理するシステム及び方法
JP2009526314A (ja) * 2006-02-10 2009-07-16 マイクロソフト コーポレーション タッチ入力を確認するための方法
JP2010506302A (ja) * 2006-10-04 2010-02-25 イマーション コーポレーション 近接感知による触覚的効果
JP2010506304A (ja) * 2006-10-02 2010-02-25 グーグル・インコーポレーテッド 翻訳文とともに原文をユーザインタフェース上に表示すること
JP2011507075A (ja) * 2007-12-08 2011-03-03 フー チョン,ドゥック 指トリガ型センサ付マウス
JP2012043114A (ja) * 2010-08-18 2012-03-01 Giga-Byte Technology Co Ltd マウス及びタッチ入力結合装置
JP2012508427A (ja) * 2008-11-12 2012-04-05 アップル インコーポレイテッド 表面に載せた手に合わせたジェスチャーの発生
JP2013542531A (ja) * 2010-10-25 2013-11-21 ユイコ インコーポレイテッド 複雑な表面形状用のソリッドステートタッチセンサを備えた制御システム
JP2015008525A (ja) * 2009-02-27 2015-01-15 マイクロソフト コーポレーション ハンドヘルド装置用の保護シュラウド
JP2018152041A (ja) * 2017-03-13 2018-09-27 ウィキパッド,インコーポレーテッド タッチスクリーン入力を備えるコンピューティングデバイスおよびゲームコントローラの組み合わせ体

Families Citing this family (130)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7808479B1 (en) * 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US7265494B2 (en) 1998-10-09 2007-09-04 Azoteq Pty Ltd. Intelligent user interface with touch sensor technology
US9501178B1 (en) * 2000-02-10 2016-11-22 Intel Corporation Generating audible tooltips
US6859196B2 (en) * 2001-01-12 2005-02-22 Logitech Europe S.A. Pointing device with hand detection
US20050183017A1 (en) * 2001-01-31 2005-08-18 Microsoft Corporation Seekbar in taskbar player visualization mode
US7079110B2 (en) * 2001-04-30 2006-07-18 Microsoft Corporation Input device including a wheel assembly for scrolling an image in multiple directions
DE10121693C2 (de) * 2001-05-04 2003-04-30 Bosch Gmbh Robert Verfahren und Vorrichtung zum Detektieren des Kontakts von Händen mit dem Lenkrad
US6661410B2 (en) 2001-09-07 2003-12-09 Microsoft Corporation Capacitive sensing and data input device power management
JP2003140823A (ja) * 2001-11-08 2003-05-16 Sony Computer Entertainment Inc 情報入力デバイス及び情報処理プログラム
WO2003083634A1 (en) * 2002-04-03 2003-10-09 Sony Ericsson Mobile Communications Ab A method of navigating in a virtual three-dimensional environment and an electronic device employing such method
US7219308B2 (en) * 2002-06-21 2007-05-15 Microsoft Corporation User interface for media player program
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US20060256081A1 (en) * 2002-07-27 2006-11-16 Sony Computer Entertainment America Inc. Scheme for detecting and tracking user manipulation of a game controller body
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7958455B2 (en) * 2002-08-01 2011-06-07 Apple Inc. Mode activated scrolling
US7358963B2 (en) 2002-09-09 2008-04-15 Apple Inc. Mouse having an optically-based scrolling feature
JP4098054B2 (ja) * 2002-10-04 2008-06-11 カルソニックカンセイ株式会社 情報表示装置
US7046234B2 (en) * 2002-11-21 2006-05-16 Bloomberg Lp Computer keyboard with processor for audio and telephony functions
AU2003297172A1 (en) * 2002-12-16 2004-07-22 Microsoft Corporation Systems and methods for interfacing with computer devices
KR20050074268A (ko) * 2002-12-16 2005-07-18 마이크로소프트 코포레이션 컴퓨터 장치들과 인터페이싱하기 위한 시스템들 및 방법들
WO2004061592A2 (en) * 2002-12-16 2004-07-22 Microsoft Corporation Systems and methods for interfacing with computer devices
EP1573713A4 (en) * 2002-12-16 2010-03-10 Microsoft Corp SYSTEMS AND METHODS OF INTERFA ACE WITH COMPUTER DEVICES
JP2004237658A (ja) * 2003-02-07 2004-08-26 Minolta Co Ltd 電気機器
US7075516B2 (en) * 2003-03-07 2006-07-11 Microsoft Corporation Scroll wheel assembly for scrolling an image in multiple directions
US8042049B2 (en) * 2003-11-03 2011-10-18 Openpeak Inc. User interface for multi-device control
US8850327B2 (en) * 2003-04-30 2014-09-30 Lenovo (Singapore) Pte Ltd. Method and apparatus for dynamic sorting and displaying of listing data composition and automating the activation event
US7757182B2 (en) 2003-06-25 2010-07-13 Microsoft Corporation Taskbar media player
US7512884B2 (en) 2003-06-25 2009-03-31 Microsoft Corporation System and method for switching of media presentation
JP2005070898A (ja) * 2003-08-20 2005-03-17 Toshiba Corp 情報処理装置および表示制御方法
US7620915B2 (en) 2004-02-13 2009-11-17 Ludwig Lester F Electronic document editing employing multiple cursors
KR100585492B1 (ko) * 2004-04-22 2006-06-07 주식회사 유창이엔에스 마우스
US20050253813A1 (en) * 2004-05-14 2005-11-17 Sieg Philip M Enhanced visibility character identification system
US20060001657A1 (en) * 2004-07-02 2006-01-05 Logitech Europe S.A. Scrolling device
US8113517B2 (en) 2004-07-30 2012-02-14 Wms Gaming Inc. Gaming machine chair
US7443382B2 (en) * 2004-08-27 2008-10-28 Microsoft Corporation Scroll wheel carriage
US20060050167A1 (en) * 2004-09-07 2006-03-09 Vincent Skurdal Photo navigation on a digital camera
JP2006113859A (ja) * 2004-10-15 2006-04-27 Nec Corp 携帯情報端末及びその表示制御方法
US7417622B2 (en) * 2004-12-15 2008-08-26 Yankee Technology Co., Ltd. Mouse scroll device
US20060192772A1 (en) * 2005-02-28 2006-08-31 Ko Kambayashi Data control pen device
DE102005014774A1 (de) * 2005-03-31 2006-10-05 Siemens Ag Verfahren zur Eingabevorschau und Benutzerschnittstelle mit Eingabevorschau
US20060236264A1 (en) * 2005-04-18 2006-10-19 Microsoft Corporation Automatic window resize behavior and optimizations
JP4653561B2 (ja) * 2005-05-31 2011-03-16 株式会社東芝 情報処理装置および表示制御方法
US8799802B2 (en) * 2005-06-30 2014-08-05 Nokia Corporation Apparatus, method and computer program product enabling zoom function with multi-function key input that inhibits focus on a textually-responsive element
US20070008293A1 (en) * 2005-07-06 2007-01-11 International Business Machines Corporation Touch sensitive device and display
US7646378B2 (en) * 2005-09-01 2010-01-12 David Hirshberg System and method for user interface
US20100026652A1 (en) * 2005-09-01 2010-02-04 David Hirshberg System and method for user interface
CN101341460B (zh) 2005-12-22 2011-04-06 皇家飞利浦电子股份有限公司 用于用户互动的方法和器件
WO2007079425A2 (en) * 2005-12-30 2007-07-12 Apple Inc. Portable electronic device with multi-touch input
US20070198141A1 (en) * 2006-02-21 2007-08-23 Cmc Electronics Inc. Cockpit display system
US20100220062A1 (en) * 2006-04-21 2010-09-02 Mika Antila Touch sensitive display
JP4285500B2 (ja) * 2006-04-25 2009-06-24 トヨタ自動車株式会社 操作装置
EP2460570B1 (en) * 2006-05-04 2013-10-23 Sony Computer Entertainment America LLC Scheme for Detecting and Tracking User Manipulation of a Game Controller Body and for Translating Movements Thereof into Inputs and Game Commands
JP5301429B2 (ja) 2006-05-04 2013-09-25 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー ゲームコントローラ本体のユーザ操作を検出、追跡し、その動きを入力およびゲームコマンドに変換するための方式
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8781151B2 (en) * 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US20100005389A1 (en) * 2006-10-27 2010-01-07 Soren Borup Jensen Apparatus and method for a user to select one or more pieces of information
US7831923B2 (en) * 2006-11-28 2010-11-09 International Business Machines Corporation Providing visual keyboard guides according to a programmable set of keys
US7921370B1 (en) * 2006-11-29 2011-04-05 Adobe Systems Incorporated Object-level text-condition indicators
DE112006004162T5 (de) * 2006-11-29 2009-12-31 Razer (Asia-Pacific) Pte. Ltd. An einen Benutzer anpassbare Computer-Eingabeeinrichtung
US8120584B2 (en) * 2006-12-21 2012-02-21 Cypress Semiconductor Corporation Feedback mechanism for user detection of reference location on a sensing device
US8689132B2 (en) * 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
EP1973029B1 (en) * 2007-03-22 2010-07-21 Research In Motion Limited Input device for continuous gesturing within a user interface
KR20080095085A (ko) 2007-04-23 2008-10-28 삼성전자주식회사 회전 가능한 입력 수단을 이용한 사용자 인터페이스 방법및 장치
US20080284726A1 (en) * 2007-05-17 2008-11-20 Marc Boillot System and Method for Sensory Based Media Control
US8078984B2 (en) 2007-06-19 2011-12-13 Microsoft Corporation Virtual keyboard text replication
DE202007017303U1 (de) * 2007-08-20 2008-04-10 Ident Technology Ag Computermaus
FR2922035B1 (fr) 2007-10-08 2016-09-30 Dav Procede de commande d'un dispositif de commande a surface tactile et dispositif de commande electrique a surface tactile comportant des moyens de mise en oeuvre dudit procede
DE102008051756A1 (de) * 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
CN101878463B (zh) 2007-11-29 2013-07-31 皇家飞利浦电子股份有限公司 提供用户接口的方法
US20090172516A1 (en) * 2008-01-02 2009-07-02 Oracle International Corporation Providing Enhanced Information When a Pointing Device Points to a Specific Area In a Graphical User Interface
US9335868B2 (en) 2008-07-31 2016-05-10 Apple Inc. Capacitive sensor behind black mask
US20100077335A1 (en) * 2008-09-23 2010-03-25 Action Star Enterprise Co., Ltd. Method for transferring a file through a km device between associated computers
US9317140B2 (en) * 2009-03-30 2016-04-19 Microsoft Technology Licensing, Llc Method of making a multi-touch input device for detecting touch on a curved surface
US20100281268A1 (en) * 2009-04-30 2010-11-04 Microsoft Corporation Personalizing an Adaptive Input Device
US20100315335A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Pointing Device with Independently Movable Portions
US9703398B2 (en) * 2009-06-16 2017-07-11 Microsoft Technology Licensing, Llc Pointing device using proximity sensing
TW201101117A (en) * 2009-06-26 2011-01-01 Ibm Handheld device, method and computer program product for user selecting control unit of application program
US9737796B2 (en) 2009-07-08 2017-08-22 Steelseries Aps Apparatus and method for managing operations of accessories in multi-dimensions
US8719714B2 (en) 2009-07-08 2014-05-06 Steelseries Aps Apparatus and method for managing operations of accessories
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
EP2467772B1 (en) * 2009-08-21 2019-02-20 Apple Inc. Methods and apparatus for capacitive sensing
US8261211B2 (en) * 2009-10-01 2012-09-04 Microsoft Corporation Monitoring pointer trajectory and modifying display interface
US9513798B2 (en) * 2009-10-01 2016-12-06 Microsoft Technology Licensing, Llc Indirect multi-touch interaction
US20110138284A1 (en) * 2009-12-03 2011-06-09 Microsoft Corporation Three-state touch input system
JP2011142066A (ja) * 2009-12-11 2011-07-21 Sanyo Electric Co Ltd リチウム二次電池
US9326116B2 (en) 2010-08-24 2016-04-26 Rhonda Enterprises, Llc Systems and methods for suggesting a pause position within electronic text
US20120159318A1 (en) * 2010-12-15 2012-06-21 Microsoft Corporation Full screen view reading and editing user interface
US9547428B2 (en) 2011-03-01 2017-01-17 Apple Inc. System and method for touchscreen knob control
US20130063368A1 (en) * 2011-09-14 2013-03-14 Microsoft Corporation Touch-screen surface temperature control
US20130069874A1 (en) * 2011-09-19 2013-03-21 Bokam Engineering, Inc. Game-style universal computer controller
US8678927B2 (en) 2011-10-04 2014-03-25 Microsoft Corporation Game controller on mobile touch-enabled devices
DE102011055319B4 (de) * 2011-11-14 2015-08-27 Visteon Global Technologies Inc. Bedienvorrichtung eines Multifunktionssystems für Kraftfahrzeuge
US20130207715A1 (en) * 2012-02-13 2013-08-15 Nokia Corporation Method, Apparatus, Computer Program, Cable and System
US9329678B2 (en) 2012-08-14 2016-05-03 Microsoft Technology Licensing, Llc Augmented reality overlay for control devices
US8713433B1 (en) 2012-10-16 2014-04-29 Google Inc. Feature-based autocorrection
US9604147B2 (en) 2013-03-15 2017-03-28 Steelseries Aps Method and apparatus for managing use of an accessory
US9687730B2 (en) 2013-03-15 2017-06-27 Steelseries Aps Gaming device with independent gesture-sensitive areas
US9423874B2 (en) 2013-03-15 2016-08-23 Steelseries Aps Gaming accessory with sensory feedback device
US9645655B2 (en) 2013-03-29 2017-05-09 International Business Machines Corporation Integrated touchpad and keyboard
US20150082238A1 (en) * 2013-09-18 2015-03-19 Jianzhong Meng System and method to display and interact with a curve items list
US9463955B2 (en) 2014-02-14 2016-10-11 Thyssenkrupp Elevator Corporation Elevator operator interface with virtual activation
GB201416410D0 (en) * 2014-09-17 2014-10-29 Bond Adam Navigation system for a menu-driven graphical user interface
EP3040832A1 (en) * 2014-12-29 2016-07-06 Dassault Systèmes Setting a parameter
EP3040831A1 (en) * 2014-12-29 2016-07-06 Dassault Systèmes Setting a parameter
EP3040838B1 (en) * 2014-12-29 2021-04-21 Dassault Systèmes Setting a parameter
CN106293486B (zh) * 2015-05-29 2020-08-25 腾讯科技(深圳)有限公司 一种终端之间的交互方法及装置
US10250645B1 (en) * 2015-06-30 2019-04-02 Securus Technologies, Inc. Intelligent controlled-environment facility resident communication and media device interfaces with multitasking
US10324607B2 (en) * 2015-09-29 2019-06-18 Hexagon Technology Center Gmbh Message ribbon user interface for presenting real-time information and allowing user-selected redirection within a computer program
US10850192B2 (en) 2016-03-04 2020-12-01 Sony Interactive Entertainment Inc. Control apparatus and control program
JP6626576B2 (ja) * 2016-07-21 2019-12-25 株式会社ソニー・インタラクティブエンタテインメント 操作デバイス、及び制御システム
KR102171538B1 (ko) 2016-07-26 2020-10-29 주식회사 소니 인터랙티브 엔터테인먼트 정보 처리 시스템, 조작 장치, 및 조작 장치 제어 방법
CN109478099B (zh) 2016-07-26 2022-03-01 索尼互动娱乐股份有限公司 操作装置及操作装置的控制方法
GB2553769A (en) * 2016-09-08 2018-03-21 Sony Interactive Entertainment Inc Input device and method
CN107422938A (zh) * 2017-06-21 2017-12-01 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107688421A (zh) * 2017-08-29 2018-02-13 上海与德科技有限公司 一种在触控设备上显示3d界面的控制方法和系统
US10649555B2 (en) * 2017-09-28 2020-05-12 Htc Corporation Input interface device, control method and non-transitory computer-readable medium
WO2019070249A1 (en) 2017-10-04 2019-04-11 Hewlett-Packard Development Company, L.P. USER INTERFACES WITH STRAIN SENSORS
JP6949982B2 (ja) 2017-10-27 2021-10-13 株式会社ソニー・インタラクティブエンタテインメント 操作デバイス
CN108153432A (zh) * 2017-12-25 2018-06-12 重庆迪铭科技有限公司 多功能无线鼠标
US11135030B2 (en) * 2018-06-15 2021-10-05 Verb Surgical Inc. User interface device having finger clutch
CN109874060B (zh) * 2019-01-04 2021-04-27 烽火通信科技股份有限公司 一种浏览器嵌套隐藏页面的错误提示方法及系统
US11086413B2 (en) * 2019-02-26 2021-08-10 Yong Wang Context-dependent wheels and buttons
US11003255B2 (en) * 2019-02-26 2021-05-11 Yong Wang Context-dependent touchbands
WO2022189001A1 (en) * 2021-03-12 2022-09-15 Telefonaktiebolaget Lm Ericsson (Publ) Button with mechanical switch, electromagnetic sensor and haptic feedback, and method
US11731048B2 (en) * 2021-05-03 2023-08-22 Sony Interactive Entertainment LLC Method of detecting idle game controller

Family Cites Families (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1479584A (en) 1973-07-14 1977-07-13 Solartron Electronic Group Data terminals and data processing apparatus incorporating such terminals
US4317956A (en) 1980-11-10 1982-03-02 Bell Telephone Laboratories, Incorporated Remote chalkboard automatic cursor
US4403777A (en) * 1981-01-08 1983-09-13 Mattel, Inc. Electronic game using phototransducer
JPS6197732A (ja) 1984-10-17 1986-05-16 Sony Corp キ−入力装置
JPH0322259A (ja) * 1989-03-22 1991-01-30 Seiko Epson Corp 小型データ表示・再生装置
US5252951A (en) * 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
US5309172A (en) 1989-06-14 1994-05-03 Fox Charles S Computer data and command entry device
US6040821A (en) 1989-09-26 2000-03-21 Incontrol Solutions, Inc. Cursor tracking
US4977397A (en) 1989-10-13 1990-12-11 Sysgration Ltd. Touch-control computer house
WO1991017522A1 (en) * 1990-05-01 1991-11-14 Wang Laboratories, Inc. Hands-free hardware keyboard
US5208903A (en) 1990-09-10 1993-05-04 Eastman Kodak Company Video image display for predicting color hardcopy image quality
JPH04357521A (ja) * 1990-10-10 1992-12-10 Fuji Xerox Co Ltd 情報処理装置
US5347295A (en) * 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
US5311175A (en) 1990-11-01 1994-05-10 Herbert Waldman Method and apparatus for pre-identification of keys and switches
EP0498082B1 (en) * 1991-02-01 1998-05-06 Koninklijke Philips Electronics N.V. Apparatus for the interactive handling of objects
US6005496A (en) * 1991-04-10 1999-12-21 Kinesis Corporation Ergonomic keyboard apparatus
US5250929A (en) * 1991-07-29 1993-10-05 Conference Communications, Inc. Interactive overlay-driven computer display system
US5666113A (en) * 1991-07-31 1997-09-09 Microtouch Systems, Inc. System for using a touchpad input device for cursor control and keyboard emulation
JP2827612B2 (ja) * 1991-10-07 1998-11-25 富士通株式会社 タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。
JPH05158600A (ja) 1991-12-03 1993-06-25 Sharp Corp 情報処理装置
WO1993014454A1 (en) * 1992-01-10 1993-07-22 Foster-Miller, Inc. A sensory integrated data interface
US5818800A (en) * 1992-04-06 1998-10-06 Barker; Bruce J. Voice recording device having portable and local modes of operation
US6100875A (en) 1992-09-03 2000-08-08 Ast Research, Inc. Keyboard pointing device
FR2697935B1 (fr) * 1992-11-12 1995-01-13 Sextant Avionique Terminal de communication compact et ergonomique muni de surfaces de détection de proximité.
JP3939366B2 (ja) * 1992-12-09 2007-07-04 松下電器産業株式会社 キーボード入力装置
US5355148A (en) * 1993-01-14 1994-10-11 Ast Research, Inc. Fingerpoint mouse
DE69432199T2 (de) * 1993-05-24 2004-01-08 Sun Microsystems, Inc., Mountain View Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen
CA2124505C (en) * 1993-07-21 2000-01-04 William A. S. Buxton User interface having simultaneously movable tools and cursor
US6097371A (en) 1996-01-02 2000-08-01 Microsoft Corporation System and method of adjusting display characteristics of a displayable data file using an ergonomic computer input device
JP2866591B2 (ja) * 1994-01-10 1999-03-08 インターナショナル・ビジネス・マシーンズ・コーポレイション オブジエクトの使用可能性の通知方法及び装置
US5982302A (en) 1994-03-07 1999-11-09 Ure; Michael J. Touch-sensitive keyboard/mouse
JP2939119B2 (ja) 1994-05-16 1999-08-25 シャープ株式会社 手書き文字入力表示装置および方法
US5530455A (en) * 1994-08-10 1996-06-25 Mouse Systems Corporation Roller mouse for implementing scrolling in windows applications
US5559301A (en) 1994-09-15 1996-09-24 Korg, Inc. Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems
US5457480A (en) * 1994-10-03 1995-10-10 Dell Usa Integrated mouse and numerical keypad device
US5805144A (en) * 1994-12-14 1998-09-08 Dell Usa, L.P. Mouse pointing device having integrated touchpad
US5572238A (en) * 1995-01-27 1996-11-05 Xerox Corporation Computer user interface for non-dominant hand assisted control
JP2859559B2 (ja) * 1995-05-26 1999-02-17 インターナショナル・ビジネス・マシーンズ・コーポレイション コンピュータ・ネットワーク・システム、コンピュータ・システム、及びクリップボード制御方法
US6166723A (en) * 1995-11-17 2000-12-26 Immersion Corporation Mouse interface device providing force feedback
US6016520A (en) * 1995-07-14 2000-01-18 Microsoft Corporation Method of viewing at a client viewing station a multiple media title stored at a server and containing a plurality of topics utilizing anticipatory caching
US5694153A (en) * 1995-07-31 1997-12-02 Microsoft Corporation Input device for providing multi-dimensional position coordinate signals to a computer
US5793356A (en) * 1995-07-31 1998-08-11 Microsoft Corporation System and method for the software emulation of a computer joystick
US5666499A (en) * 1995-08-04 1997-09-09 Silicon Graphics, Inc. Clickaround tool-based graphical interface with two cursors
US5675361A (en) * 1995-08-23 1997-10-07 Santilli; Donald S. Computer keyboard pointing device
WO1997009709A1 (en) * 1995-09-01 1997-03-13 Hunter Digital, Ltd. System for steering an electronically responsive device
US5767457A (en) 1995-11-13 1998-06-16 Cirque Corporation Apparatus and method for audible feedback from input device
US5847695A (en) 1996-01-04 1998-12-08 Siemens Business Communication Systems, Inc. Method and apparatus for implementing a dialpad on the surface of a mouse input device
US5914702A (en) 1996-03-04 1999-06-22 Hewlett-Packard Company Pointing device with wrap-around buttons
US5825356A (en) 1996-03-18 1998-10-20 Wall Data Incorporated Help system with semitransparent window for disabling controls
US5831597A (en) * 1996-05-24 1998-11-03 Tanisys Technology, Inc. Computer input device for use in conjunction with a mouse input device
US5841425A (en) * 1996-07-31 1998-11-24 International Business Machines Corporation Ambidextrous computer input device
JPH1069346A (ja) * 1996-08-28 1998-03-10 Alps Electric Co Ltd 座標入力装置およびその制御方法
US6121960A (en) 1996-08-28 2000-09-19 Via, Inc. Touch screen systems and methods
US5854624A (en) * 1996-09-12 1998-12-29 Innovative Device Technologies, Inc. Pocket-sized user interface for internet browser terminals and the like
JPH1091307A (ja) 1996-09-12 1998-04-10 Nec Software Ltd ブラインドタッチキーボード装置
US5877750A (en) 1996-09-17 1999-03-02 International Business Machines Corporation Method and apparatus for in-place line width selection for graphics applications
FR2753868A1 (fr) * 1996-09-25 1998-03-27 Technical Maintenance Corp Procede de selection d'un enregistrement sur un systeme numerique de reproduction audiovisuel et systeme pour mise en oeuvre du procede
US5905493A (en) * 1996-11-13 1999-05-18 Unalink Communications, Inc. Color coded instructional scheme for computers and the like system, method and article of manufacture
US6686911B1 (en) * 1996-11-26 2004-02-03 Immersion Corporation Control knob with control modes and force feedback
KR100243031B1 (ko) 1996-11-27 2000-02-01 구자홍 컴퓨터 커서 조절장치
US5983245A (en) * 1996-12-27 1999-11-09 Apple Computer, Inc. Method and apparatus for implementing universal resource locator menus
US5973670A (en) * 1996-12-31 1999-10-26 International Business Machines Corporation Tactile feedback controller for computer cursor control device
US6246405B1 (en) * 1997-06-06 2001-06-12 Mci Communications Corporation Method and apparatus for managing a plurality of objects on a graphical user interface
US5910802A (en) 1997-06-11 1999-06-08 Microsoft Corporation Operating system for handheld computing device having taskbar auto hide
US5910800A (en) 1997-06-11 1999-06-08 Microsoft Corporation Usage tips for on-screen touch-sensitive controls
US5943052A (en) * 1997-08-12 1999-08-24 Synaptics, Incorporated Method and apparatus for scroll bar control
US5973622A (en) * 1997-09-12 1999-10-26 Acer Peripherals, Inc. Keyboard with a two-dimensional actuator for generating direction signals
US5995101A (en) * 1997-10-29 1999-11-30 Adobe Systems Incorporated Multi-level tool tip
US5977952A (en) * 1997-10-29 1999-11-02 International Business Machines Corporation Method and system for an ambidextrous mouse
US6046728A (en) 1997-12-05 2000-04-04 Dell Usa, L.P. Keyboard actuated pointing device
US6232968B1 (en) * 1998-03-31 2001-05-15 International Business Machines Corporation Data processor controlled display system with a plurality of switchable customized basic function interfaces for the control of varying types of operations
US6118450A (en) * 1998-04-03 2000-09-12 Sony Corporation Graphic user interface that is usable as a PC interface and an A/V interface
US6133916A (en) * 1998-04-08 2000-10-17 International Business Machines Corporation Graphical user interface providing access to files downloaded over a network
US6396477B1 (en) * 1998-09-14 2002-05-28 Microsoft Corp. Method of interacting with a computer using a proximity sensor in a computer input device
US6456275B1 (en) * 1998-09-14 2002-09-24 Microsoft Corporation Proximity sensor in a computer input device
JP2000132316A (ja) 1998-10-28 2000-05-12 Alps Electric Co Ltd キーボード装置を使用した入力装置
US5977397A (en) * 1999-04-14 1999-11-02 Spohn; Ronald Removal of an impurity from a mixture with a codistillant
EP1052565A3 (en) * 1999-05-13 2005-05-11 Sony Corporation Information processing method and apparatus
CN1282186A (zh) 1999-07-23 2001-01-31 电话通有限公司 为精简了数量的软键渐进地配置软键功能的方法和装置
US6680677B1 (en) * 2000-10-06 2004-01-20 Logitech Europe S.A. Proximity detector to indicate function of a key

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339229A (ja) * 2004-05-27 2005-12-08 Nec Corp 入力機器及び入力システム
US8279176B2 (en) 2005-06-03 2012-10-02 Apple Inc. Mouse with improved input mechanisms using touch sensors
JP2008542915A (ja) * 2005-06-03 2008-11-27 アップル インコーポレイテッド 改良された入力メカニズムを備えたマウス
JP2009523267A (ja) * 2005-09-15 2009-06-18 アップル インコーポレイテッド トラックパッドデバイスの未加工データを処理するシステム及び方法
JP2013069350A (ja) * 2005-09-15 2013-04-18 Apple Inc トラックパッドデバイスの未加工データを処理するシステム及び方法
JP2009526314A (ja) * 2006-02-10 2009-07-16 マイクロソフト コーポレーション タッチ入力を確認するための方法
US8312372B2 (en) 2006-02-10 2012-11-13 Microsoft Corporation Method for confirming touch input
JP2010506304A (ja) * 2006-10-02 2010-02-25 グーグル・インコーポレーテッド 翻訳文とともに原文をユーザインタフェース上に表示すること
US8577668B2 (en) 2006-10-02 2013-11-05 Google Inc. Displaying original text in a user interface with translated text
US10114820B2 (en) 2006-10-02 2018-10-30 Google Llc Displaying original text in a user interface with translated text
US9547643B2 (en) 2006-10-02 2017-01-17 Google Inc. Displaying original text in a user interface with translated text
JP2010506302A (ja) * 2006-10-04 2010-02-25 イマーション コーポレーション 近接感知による触覚的効果
JP2015158912A (ja) * 2006-10-04 2015-09-03 イマージョン コーポレーションImmersion Corporation 近接感知による触覚的効果
US9600075B2 (en) 2006-10-04 2017-03-21 Immersion Corporation Haptic effects with proximity sensing
US9250717B2 (en) 2007-12-08 2016-02-02 Duc Phu Truong Mouse with a finger triggered sensor
JP2011507075A (ja) * 2007-12-08 2011-03-03 フー チョン,ドゥック 指トリガ型センサ付マウス
JP2012508427A (ja) * 2008-11-12 2012-04-05 アップル インコーポレイテッド 表面に載せた手に合わせたジェスチャーの発生
JP2015008525A (ja) * 2009-02-27 2015-01-15 マイクロソフト コーポレーション ハンドヘルド装置用の保護シュラウド
US9621214B2 (en) 2009-02-27 2017-04-11 Microsoft Technology Licensing, Llc Protective shroud for handheld device
US9954993B2 (en) 2009-02-27 2018-04-24 Microsoft Technology Licensing, Llc Protective shroud for handheld device
JP2012043114A (ja) * 2010-08-18 2012-03-01 Giga-Byte Technology Co Ltd マウス及びタッチ入力結合装置
JP2013542531A (ja) * 2010-10-25 2013-11-21 ユイコ インコーポレイテッド 複雑な表面形状用のソリッドステートタッチセンサを備えた制御システム
JP2018152041A (ja) * 2017-03-13 2018-09-27 ウィキパッド,インコーポレーテッド タッチスクリーン入力を備えるコンピューティングデバイスおよびゲームコントローラの組み合わせ体

Also Published As

Publication number Publication date
US20010011995A1 (en) 2001-08-09
JP4138340B2 (ja) 2008-08-27
EP1241558A2 (en) 2002-09-18
EP1241558A3 (en) 2007-01-24
US7358956B2 (en) 2008-04-15

Similar Documents

Publication Publication Date Title
JP4758464B2 (ja) 補助用コントロールおよび表示画面を有するコンピュータシステムおよび方法
JP4138340B2 (ja) コンピュータシステムの補助用コントロールを検出してフィードバックを与える方法
US6333753B1 (en) Technique for implementing an on-demand display widget through controlled fading initiated by user contact with a touch sensitive input device
AU2020269232B2 (en) Clock faces for an electronic device
US6232957B1 (en) Technique for implementing an on-demand tool glass for use in a desktop user interface
US7091954B2 (en) Computer keyboard and cursor control system and method with keyboard map switching
US20230409191A1 (en) Methods and interfaces for media control with dynamic feedback
US10353570B1 (en) Thumb touch interface
JP4763695B2 (ja) タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース
US8638315B2 (en) Virtual touch screen system
US9092056B2 (en) Keyboard having selectively viewable glyphs
US10386995B2 (en) User interface for combinable virtual desktops
US11797113B2 (en) Devices, methods, and graphical user interfaces for interaction with a control
JPH1040014A (ja) 仮想ポインティング・デバイスの生成指示方法及び装置
US20210247849A1 (en) Input device, signal processing unit thereto, and method to control the input device
JP2003248544A (ja) グラフィカルユーザインターフェース、情報処理装置の操作方法、情報処理装置、並びにプログラム
JP2011159089A (ja) 情報処理装置
JP5414134B1 (ja) タッチ式入力システムおよび入力制御方法
US11188224B2 (en) Control method of user interface and electronic device
US20240086026A1 (en) Virtual mouse for electronic touchscreen display
JP2003248537A (ja) グラフィカルユーザインターフェース、情報処理装置の操作方法、情報処理装置、並びにプログラム
JP2003248547A (ja) 情報処理装置の入力デバイス、情報処理装置の操作方法、情報処理装置、並びにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050314

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080218

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20080219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080219

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080509

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080605

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130613

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees