JP2008287746A - 補助用コントロールおよび表示画面を有するコンピュータシステムおよび方法 - Google Patents

補助用コントロールおよび表示画面を有するコンピュータシステムおよび方法 Download PDF

Info

Publication number
JP2008287746A
JP2008287746A JP2008224168A JP2008224168A JP2008287746A JP 2008287746 A JP2008287746 A JP 2008287746A JP 2008224168 A JP2008224168 A JP 2008224168A JP 2008224168 A JP2008224168 A JP 2008224168A JP 2008287746 A JP2008287746 A JP 2008287746A
Authority
JP
Japan
Prior art keywords
auxiliary control
display
display screen
status information
widget
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008224168A
Other languages
English (en)
Other versions
JP4758464B2 (ja
Inventor
Kenneth P Hinckley
ピー.ヒンクリー ケネス
Steven N Bathiche
エヌ.バシチェ スティーブン
William Vong
ボン ウィリアム
James H Cauthorn
エイチ.コーソーン ジェームズ
Corey M Ladas
エム.レイダス コーリー
Kenneth V Fry
ブイ.フライ ケネス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2008287746A publication Critical patent/JP2008287746A/ja
Application granted granted Critical
Publication of JP4758464B2 publication Critical patent/JP4758464B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0219Special purpose keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03549Trackballs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1037Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1043Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being characterized by constructional details
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/404Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network characterized by a local network connection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • G05G2009/04766Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks providing feel, e.g. indexing means, means to create counterforce
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • G05G2009/04774Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks with additional switches or sensors on the handle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Position Input By Displaying (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの精神的疲労を低減する補助用コントロールを提供する。
【解決手段】第1および第2のコンテキストのそれぞれにおいて、ユーザが補助用コントロールに近接または接触すると、対応する第1および第2の表示用ウィジェットを表示する。
【選択図】図4

Description

本発明は、コンピュータシステム用の入力装置に関する。より詳細には、本発明は、コンピュータシステムにおけるタッチ検出可能(タッチセンシティブと以下表現する)な入力装置の使用に関する。
本出願は、1998年9月14日に出願され、連続番号09/152,434を割り振られ、本出願の譲受人に譲渡された、Hinckley他による「Proximity Sensor in a Computer Input Device」という名称の同時係属米国特許出願の一部係属出願である。この出願は参照により本明細書に組み込む。本出願はまた、1998年9月14日に出願され、連続番号09/152,432を割り振られ、本出願の譲受人に譲渡された、Hinckleyによる「A Techinique For Implementing a Two−Handed Desktop Use Interface For a Computer」という名称の同時係属米国特許出願の一部係属出願である。この出願は参照により本明細書に組み込む。本出願はさらに、1998年9月14日に出願され、連続番号09/152,443を割り振られ、本出願の譲受人に譲渡された、Hinckley他による「Method of Interacting With a Computer Using a Proximity Sensor in a Computer Input Device」という名称の同時係属米国特許出願の一部係属出願である。この出願は参照により本明細書に組み込む。
さらに、本出願は、1998年11月25日に出願され、連続番号09/200,325を割り振られ、本出願の譲受人に譲渡されたHinckleyによる「A Technique For Implementing an On−Demand Display Widget Through Controlled Fading Initiated By User Contact With a Touch Sensitive Input Device」という名称の同時係属米国特許出願の一部係属出願である。この出願は参照により本明細書に組み込むが、この出願は、1998年9月14に出願され、連続番号60/100,261を割り当てられた「Toolglass Improvements−On−Demand Tool Sheet;Gesturing Through Tool Sheets」という名称の米国仮特許出願に対する優先権を主張している。本出願はまた、1998年11月25日に出願され、連続番号09/200,321を割り振られ、本出願の譲受人に譲渡された、Hinckleyによる「A Technique For Implementing an On−Demand Tool Glass For Use in a Desktop User Interface」という名称の同時係属米国特許出願の一部係属出願である。この出願は参照により本明細書に組み込むが、この出願は、1998年9月14日に出願され連続番号60/100,261を割り振られた「Toolglass Improvements−On−Demand Tool Sheet;Gesturing Through Tool Sheets」という名称の米国仮特許出願に対する優先権を主張している。
本出願は、2000年4月5日に出願され、連続番号09/543,723を割り当てられ、本出願の譲受人に譲渡されたHinckley他による「Method of Interacting With a Computer Using a Proximity Sensor in a Computer Input Device」という名称の同時係属米国特許出願に関連する。この出願は参照により本明細書に組み込むが、この出願は、上記に示した米国特許出願番号09/152,443の係属出願である。
関連技術
キーボード、タッチパッド、トラックボール、ゲームコントローラおよびマウスなどのコンピュータシステム用の入力装置は、ジョイスティック、タッチパッド、トラックボール、ヘッドセット、マイクロフォン、ボタン、つまみ、ロッカースイッチ、トリガ、スライダ、ホイール、生物測定学を応用したセンサなど、1つまたは複数の補助用コントロールを含むことが多い。補助用コントロールは単独で使用することも、入力装置および他の補助用コントロールと合わせて使用することも可能である。
入力装置の大半は、トランスデューサまたはスイッチを用いて入力信号を生成する。スイッチは通例、キーボードのキーや、マウスのボタン、ジョイスティック、およびゲームコントローラの中にある。トランスデューサはマウスおよびトラックボールの中にあり、そのような装置の内部にあるボールの動きに基づくか、または表面上での装置の移動を光学的に検出することによって電気信号を生成している。トランスデューサはヘッドセットの中にもあり、この場合は音声信号を電気信号に変換する。タッチパッドは、ユーザがタッチパッドに触れると電気信号を提供するセンサを用いて入力信号を生成するが、この信号は、タッチパッド内で接触の行われた位置を含んでいる。
入力装置およびその補助用コントロールがコンピュータに提供することのできる情報の量を増加することが望まれるが、入力装置に追加することのできるトランスデューサおよびスイッチの数は、ユーザが特定のトランスデューサやスイッチが行う機能をすべて記憶するための能力からおのずと制限され、また入力装置(例えばキーボードやマウス)にスイッチおよびトランスデューサを配置するのに利用できる面積(real estate)、あるいは少なくとも実行可能な形で利用することのできる面積という実用面から制限される。ユーザが1つ1つの補助用コントロールの機能を決定することができるが、この能力も一般には、その補助用コントロールが本来持つ、あるいはそれに近い固定した機能(static label)に制限されてしまい、それぞれの補助用コントロールを起動し、ボタンをクリックし、メニューオプションを選択して、ヘルプファイルを要求するか、ユーザマニュアルを読むことになる。さらに補助用コントロールの機能は、ゲームあるいはアプリケーションごとに変わる場合がある。したがって、ある補助用コントロールの固定機能は、その入力装置とその補助用コントロールの機能およびステータスがアプリケーションごとに変わる場合にはほとんど価値のないものになる。これに関して、ユーザが、あるゲームまたはアプリケーションにおけるボタンおよび他のコントロールの割り当てを覚えたとしても、別のゲームまたはアプリケーションでは、同じボタンまたはコントロールに異なる機能が割り当てられる可能性がある。同様に、補助用コントロールが制御する機能のステータスは、一般にはそのコントロールを起動することでしか決定することができない。
したがって、補助用コントロールの機能およびステータスを、そのコンテキスト(例えばアクティブな状態にあるアプリケーションやゲーム)に関係なく、より容易に決定できる能力をユーザに提供することが必要とされている。
この必要性に対応するために、LEDや小型LCDなどの表示器を入力装置およびその補助用コントロールに直接組み込んで、フィードバックまたは状態情報を提供することが可能である。しかし、LEDやLCDを個々の補助用コントロールと関連付けると、消費電力量および入力装置のコストがいずれも増大する。さらに、LEDおよびLCDの出力形態は非常に限られており、またメインの表示(例えばコンピュータモニタ)から離れているので、ユーザは、コントロールの機能やステータスを決定するのに、常に画面から補助用コントロールに視線を移動しなければならない。このように常に注意力の対象を移動していると、その時点のコンテキストを繰り返し把握し直さなければならないので、ユーザは精神的に疲労しかねない。したがって、コンピュータシステムで入力装置の補助用コントロールの機能および/またはステータスを決定するための、より効率的で、簡便かつ/または費用効果の高い方式を提供することが必要とされている。
本発明は、物理的な存在を感知し、画面上の表示やコントロール自体における視覚的フィードバック、聴覚的なフィードバック(例えば音声や音楽)、あるいは触覚によるフィードバック(例えばバイブレーション)を提供する、タッチセンシティブな補助用コントロールを有するタッチセンシティブ式入力装置を提供することにより、既存の入力装置に見られる欠点の多くを克服する。
本発明の一態様では、キーボード、タッチパッド、トラックボール、ゲームコントローラ、モニタ、ジョイスティック、ステアリングホイール、ヘッドセット、あるいはマウスといった入力装置の、キー、ボタン、つまみ、ロッカースイッチ、あるいはその他の補助用コントロールに、ユーザの手との接触、あるいはその著しい近接状態(proximity)を検出するセンサを補うことができる。別の態様によると、補助用コントロールの感知信号により、ユーザが起動する(例えば、押す、回す、回転する、あるいはその他の方法で)ことなく接触したコントロールに関するステータス、状態情報、ツールのヒント(tips)、ヘルプテキスト、またはその他のフィードバックの画面上表示をユーザに提供することができる。あるいは、画面上表示によって提供するフィードバックに代えて、またはそれに加えて、聴覚あるいは触覚を利用したフィードバックをユーザに提供することもできる。したがって、ユーザは様々なボタンやその他のコントロールに触れるだけで、それらの機能の割り当てやステータスを知ることができ、あるいは他のフィードバックを得ることができる。ユーザはそのようなフィードバックにより、ユーザがそれに続いてコントロールの起動を選択した場合にそのボタンまたはコントロールが行う動作の結果をより正確に理解することができる。また、ユーザは、迅速かつ気軽にステータス情報を見ることができるようになる。
本発明の態様は、ユーザの手の検出に応答して、補助用コントロールについてのコンテキストに即したフィードバックを表示ウィジェット(display widget)(例えばグラフィカルユーザインタフェース(GUI))などの画面上表示に提供することを含む。このように、タッチセンシティブなコントロールを使用して、ユーザの行為のコンテキストを予測することができる。状況のコンテキストは、コントロールをつかむ、コントロールに触れる、あるいは接近するといったユーザによる予備段階の行為によって確定することができる。行為のコンテキストを知ると、コンピュータは動作を開始し、ユーザの意思を予測することができる。
本発明の別の態様によると、補助用コントロールのコンテキストには、ゲーム、ユーティリティ、および生産性管理(productivity)のアプリケーションなど各種アプリケーションを含むことができるがこれらに限定しない。また、コンテキストは、アプリケーションまたはゲームの様々な部分ごとに変えることもできる。
本発明の別の態様では、補助用コントロールに近接した物理的存在、または接触した物理的存在の検出に応答してGUIが表示されると、ユーザは、別の補助用コントロールまたは入力装置を用いてそのGUIと対話することができる。この入力装置には、マウス、タッチパッド、あるいはキーパッドが含まれるがこれらに限定しない。例えば、音量コントロール用のGUIが表示されると、ユーザはマウスで音量を調節することができる。
本発明の別の態様では、その補助用コントロールを含む入力装置は、物理的存在(例えばユーザ)がその装置またはそのコントロールに触れると、それを直接検出するタッチセンサを備えることができ、これにより、例えばユーザが装置と手との物理的な接触状態を確立または解除した時など、「オンデマンド」方式でフィードバックの表示および消去(dismissal)を提供することができる。
例えば、ユーザが指で装置に触れるなどして装置またはコントロールへの接触を行ったことを反映した、装置が提供する接触表示の変化があると、ツールヒントを表示することができる。装置から指を持ち上げるなどユーザが装置との物理的接触を解除したことを示す変化があると、そのツールヒントをディスプレイから消すことができる。本発明の一態様では、ユーザの注意をそらさないように、このような変化が検出されるとそれに対応する所定のアニメーションシーケンスを開始することができる。このシーケンスは規定の時間にわたって行われるが、ここではユーザによる接触が始まると直ちにフィードバックが次第に見えるようになり始め(通例は見えない状態、つまり完全に透明な状態から、最終的には所定の半透明または非透明な状態になる)、そして例えばユーザが手を装置から持ち上げるなど装置とのユーザ接触が解除されると、フィードバックは直ちに次第に消え始める(すなわち最終的には元の見えない状態に戻る。)
本発明の別の態様では、ツールバー、スクロールバーなどは、物理的存在の検出に応答してのみ表示画面に表示することができる。例を挙げると、起動は行わずに補助用コントロールに触れるとツールバーを画面上に表示することができ、コントロールとの接触を解除するとツールバーを消すことができる。本発明の一態様では、ユーザは、所望の場合には片方の手で補助用コントロールまたは入力装置を使用してツールバーとのインタフェースをとりながら、ツールバーを画面上に表示させた補助用コントロールへの接触を続けることができる。この態様によると、ディスプレイ上の乱雑さを低減することができ、プログラムを実行する際の適切な時に、ユーザの行為に一致し、かつそれによって制御する方式で、利用可能なアプリケーション画面の範囲を拡大することができる。この際、それを行うための著しい負担が認識される形でユーザにかかることはない。これにより、「ユーザ経験」が大幅に改善されるものと思われる。
当業者には、本発明の上記およびその他の新奇の利点、詳細、実施形態、特徴、および目的が、以下の本発明の詳細な説明、頭記の特許請求の範囲、および添付図面から明らかになろう。本明細書に記載するこれらの事項は本発明を説明するのに有用である。
本発明の例証的実施形態によると、入力装置の補助用コントロールは、物理的存在(例えばユーザの手やスタイラス)がコントロールに触れるとそれを感知するように構成して、それにより「オンデマンド」方式で表示ウィジェットの表示および消去を提供することができる。表示ウィジェットはグラフィカルユーザインタフェース(GUI)でよく、機能(例えばツールヒント)および/またはステータス情報などの情報を「オンデマンド」方式で含むことができる。表示ウィジェットの例示的なものには、ツールバー、ツールグラスシート、スクロールバー、ウィンドウフレームおよびウィンドウ装飾、タイトルバー、フローティングツールパレット、モーダルおよび非モーダルのダイアログボックス、リストまたはコンボボックス、コントロール、ボタンの設定、テキスト入力領域などが含まれる。
コントロールに指で触れるなどユーザが補助用コントロールとの物理的接触を行ったことを反映した、入力装置が提供する接触表示の変化は、表示ウィジェットを表示させることができる。コントロールから指を持ち上げるなどユーザが補助用コントロールとの接触を解除したことを示す変化は、表示ウィジェットを消すことができる。ユーザの注意をそらさないように、こうした検出された変化があると、それに対応する所定のアニメーションシーケンスを開始することができる。このアニメーションは規定の時間にわたって行われるが、ここではユーザの接触が開始すると、直ちに表示ウィジェットが徐々に見えるようになり始め(通例は、見えない状態、つまり完全に透明な状態から、最終的には所定の半透明の状態になる)、そしてユーザが指をコントロールから持ち上げるなど補助用コントロールとのユーザ接触が解除されると、直ちに表示ウィジェットが徐々に消え始める(すなわち最終的には元の見えない状態に戻る)。さらに、使用する特定のタッチセンシティブな補助用コントロールによっては、短い時間遅延、すなわち「冷却期間」が経過した後にフェーディングを始めることが好ましい場合がある。例えば、ユーザはタッチパッドの端まで達すると、手を「再クラッチ」して(例えば、短時間指を持ち上げてからパッドの中心部に置き直すなど)ポインタとしての動きを続ける場合がある。このようなことが起きたとき、直ちにフェーディングを開始するのは表示ウィジェットにとって厄介であることが考えられる。フェーディングの開始前に、継続的な指の接触感知と組み合わせて短時間の時間遅延(例えば、約0.5〜1.0秒間)を置くと、画面表示を全く変化させずに上記のような短時間の再クラッチを行えるようになる。同様に、ユーザが補助用コントロールに十分に長い時間触れていない場合は、フェードインの開始前に、ユーザ接触の解除の感知と組み合わせて同じような時間遅延を置くと、不注意にわずかな時間接触したことによって表示ウィジェットがフェードインしてからフェードアウトし、ユーザを別の点でいらだたせるのを防ぐことができる。
さらに、本発明によると、表示ウィジェット(例えばツールバー)を「オンデマンド」で表示および消去するためには、接触によって引き起こされる表示および消去も容易に使用することができる。これは、ユーザの都合のいい方の(preferred)手と、別のタッチセンシティブな補助用コントロール、またはタッチセンシティブなマウスなどの入力装置との接触を感知することによって行う。接触の検出、具体的にはユーザが補助用コントロールまたは入力装置をつかんだことの検出に応答して表示ウィジェットを表示することにより、補助用コントロールまたは入力装置に手を伸ばし、それをつかんだ際のユーザの行動に潜在的にあった表示ウィジェットを利用したいというユーザの要望を活用することができる。表示ウィジェットは、例えば接触(touch contact)をやめたときなど、ユーザが補助用コントロールまたは入力装置から手を離すと消える。このような方式で表示ウィジェットを表示および消去すると、ユーザにさらにかかる認識可能な負担が生じたとしてもごくわずかで済む点が好都合である。
図1およびそれに関連する説明は、本発明を実施することができる適切なコンピューティング環境の全般的な説明を簡潔に提供するものである。本発明は少なくとも部分的には、プログラムモジュールなどパーソナルコンピュータで実行されるコンピュータ実行可能命令の一般的な文脈で説明するが、それが必須である訳ではない。一般にプログラムモジュールには、特定のタスクを実行する、または特定の抽象データタイプを実施するルーチンプログラム、オブジェクト、構成要素、データ構造などが含まれる。さらに、当業者には、本発明は他のコンピュータシステム構成でも実施できることが理解されよう。これには、携帯用デバイス、マルチプロセッサシステム、マイクロプロセッサベースまたはプログラマブルな消費者家電製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータなどが含まれる。本発明はまた、通信ネットワークを通じてリンクされた遠隔処理装置によってタスクを実行する分散型コンピューティング環境で実施してもよい。分散型コンピューティング環境の場合、プログラムモジュールはローカルおよびリモートどちらのメモリ記憶装置に置いてもよい。
図1を参照すると、本発明を実施するための例示的システムは、処理装置(CPU)21と、システムメモリ22と、システムメモリ22を含む各種のシステム構成要素を処理装置21に結合するシステムバス23とを含んだ従来型パーソナルコンピュータ20を用いる例証的コンピュータシステムを含む。システムバス23は、各種のバスアーキテクチャのうち任意のものを使用したメモリバスまたはメモリコントローラ、周辺バス、ローカルバスを含む何種類かのバス構造の任意のものでよい。システムメモリ22は、読み出し専用メモリ(ROM)24およびランダムアクセスメモリ(RAM)25を含む。基本入出力(BIOS)26は、起動時などにパーソナルコンピュータ20内の要素間の情報転送を助ける基本ルーチンを含んでおり、ROM24に記憶されている。パーソナルコンピュータ20はさらに、ハードディスク(図示せず)との読み出しおよびそこへの書き込みを行うハードディスクドライブ27、取り外し可能な磁気ディスク29との読み出しおよび書き込みを行う磁気ディスクドライブ28、およびCD ROMまたはその他の光媒体など取り外し可能な光ディスク31との読み出しまたは書き込みを行う光ディスクドライブ30を含む。ハードディスクドライブ27、磁気ディスクドライブ28、光ディスクドライブ30はそれぞれ、ハードディスクドライブインタフェース32、磁気ディスクドライブインタフェース33、および光ディスクドライブインタフェース34によりシステムバス23に接続されている。これらドライブおよびそれに関連するコンピュータ可読媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、およびその他パーソナルコンピュータ20のデータの不揮発性記憶を提供する。
本明細書に示す例示的環境ではハードディスク、取り外し可能磁気ディスク29、および取り外し可能光ディスク31を用いているが、当業者は、磁気カセット、フラッシュメモリカード、デジタルビデオディスク、ベルヌーイカートリッジ、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)など、コンピュータからのアクセスが可能なデータを記憶することができる他種のコンピュータ可読媒体もこの例示的動作環境で使用できることを理解されよう。
ハードディスク、磁気ディスク29、光ディスク31、ROM24またはRAM25には、オペレーティングシステム35、1つまたは複数のアプリケーションプログラム36、他のプログラムモジュール37、プログラムデータ38、およびデバイスドライバ60を含む複数のプログラムモジュールを記憶することができる。デバイスドライバ60は、ユーザが入力装置43を通じて入力したコマンドおよび情報を処理する。入力装置には、キーボード、マウス、ゲームコントローラ、トラックボール、タッチパッドなどが含まれる。またこれらの入力装置は、ジョイスティック、ゲームパッド、タッチパッド、トラックボール、キー、ヘッドセット、モニタ、マイクロフォン、ボタン、つまみ、ロッカースイッチ、トリガ、スライダ、ホイール、レバー、タッチストリップ、生物測定学を応用したセンサなどの補助用コントロールも有することができる。入力装置43は、有線式または無線によりパーソナルコンピュータ20に結合することができる。
本発明の例示的実施形態によると、上記のような入力装置の少なくとも1つはタッチセンサ40を含み、マウスなどの入力装置は、タッチセンサ40および移動トランスデューサ42の両方を有することができる。タッチセンサ40は、ユーザの手などの物理的存在が、入力装置43自体の1つあるいはその補助用コントロールに触れるとそれを示す信号を生成することができる。移動トランスデューサ42は、ユーザが入力装置の一部を動かすとそれを示す信号を生成することができる。タッチセンサ40および移動トランスデューサ42が生成した信号は、システムバス23に結合されたシリアルポートインタフェース46を通じ、処理装置21に接続された導線に沿って渡すことができるが、接続はサウンドカード、パラレルポート、ゲームポートあるいはユニバーサルシリアルバス(USB)など他のインタフェースによって行ってもよい。
モニタ47または他タイプの表示装置も、ビデオアダプタ48などのインタフェースを介してシステムバス23に接続することができる。パーソナルコンピュータは通例、モニタ47以外にも、スピーカ45およびプリンタ(図示せず)など他の周辺出力装置を含むことができる。
パーソナルコンピュータ20は、リモートコンピュータ49など1つまたは複数のリモートコンピュータへの論理接続を使用したネットワーク環境で動作することができる。リモートコンピュータ49は、別のパーソナルコンピュータ、携帯用デバイス、サーバ、ルータ、ネットワークPC、ピアデバイスまたは他のネットワークノードでよく、また図1にはメモリ記憶装置50しか示していないが、通例は上記でパーソナルコンピュータ20に関連して説明した要素の多数またはすべてを含んでいる。図1に示す論理接続は、ローカルエリアネットワーク(LAN)51およびワイドエリアネットワーク(WAN)52を含む。このようなネットワーキング環境は、オフィス、企業規模のコンピュータネットワーク、イントラネット、およびインターネットで一般的に見られるものである。
LANネットワーキング環境で使用する場合、パーソナルコンピュータ20は、ネットワークインタフェースすなわちアダプタ53を通じてローカルエリアネットワーク51に接続する。WANネットワーキング環境で使用する場合、パーソナルコンピュータ20は通例、インターネットなどのワイドエリアネットワーク52を介した通信を確立するためのモデム54またはその他の手段を含む。モデム54は外付け式でも内蔵型でもよく、シリアルポートインタフェース46を介してシステムバス23に接続される。ネットワーク環境では、パーソナルコンピュータ20との関連で説明したプログラムモジュール、またはその一部を、リモートのメモリ記憶装置に記憶することができる。ここに示すネットワーク接続は例示的なものであり、コンピュータ間に通信リンクを確立する他の手段を使用できることは理解されよう。例えば、ネットワークの1つまたは複数の部分間にワイヤレスの通信リンクを設定することができる。
図2は、図1の入力装置43の一実施形態の一部を拡大したブロック図である。入力装置43は、4つのタッチセンサ100、102、104、および106の配列を含む。これらのセンサは、入力装置の4つの補助コントロールに対応することができる。各センサは、個々の導線108、110、112、および114を通じて電気信号を生成し、この導線は、アナログからデジタルへの変換器およびマルチプレクサ116に接続されている。タッチセンサ100、102、104、および106は、ユーザとセンサの一部との実際の接触に基づいて、あるいはユーザとセンサとの著しい近接状態に基づいて各々の電気信号を生成する。接触に依拠するタッチセンサを接触センサと呼び、近接に依拠するタッチセンサを近接センサと呼ぶ。この応用例のコンテキストでは、タッチセンサに触れるとは、接触センサの場合にはそれに接触したときであり、近接センサの場合にはユーザが十分にセンサに接近したときである。本発明によると、センサは、「接触」と「接触解除(release)」ではそれぞれに必要とされる接触の度合いが異なるように構成できることを理解されたい。例えば、「接触」のイベントを検出するためには接触が必要とされるのに対し、「接触解除」のイベントを感知するには、接触が解除され近接状態がなくなることが必要とされるなどである。同様に、純粋な近接センサの実施形態では、「接触」イベントを感知するには非常に近づいた近接状態が必要とされるが、「接触解除」イベントの感知に必要とされる閾値(距離)はより高くすることができる。
いくつかの接触センサの実施形態では、タッチセンサは、触れるとキャパシタンスが変化する導電性フィルムを含んでいる。このセンサはまた、導電性フィルムのキャパシタンスの変化に基づいて電気信号を生成する容量性測定回路も含む。当業者は、フォトダイオードセンサ、圧電材料を利用したセンサ、および容量性圧力センサなど、他の接触センサ技術も利用できることを認識されよう。これらのセンサはいずれも本発明のコンテキストで使用することができる。近接センサの一実施形態では、タッチセンサは、LEDからの反射光を使用してユーザがセンサに接近するとそれを検出する。この例示的実施形態によりLEDを駆動し、反射光を感知するのに使用するチップは、ニュージャージー州ブリッジウォーターのHamamatsu Corporationで製造することができる。別の近接センサの実施形態では、入力装置近くの電界または磁界の変化を用いて、ユーザが装置に接近するとそれを判定する。
本発明の実施形態では、タッチセンサは、タッチセンサのどこでユーザが入力装置に触れるかや、ユーザがセンサのどの部分に接近するかに関係なく、同じ情報を提供することができる。このように、これらのタッチセンサは接触データと位置データを分離する。図2は、このタイプのタッチセンサを備えた例証的入力装置を示している。
別の実施形態、例えばタッチパッド、タッチスクリーン、およびタッチタブレットを用いる実施形態では、所与のタッチセンサは、ユーザがそのタッチセンサのどこで接触を行ったか、あるいはユーザがそのタッチセンサのどこでタッチセンサに最も近づいたかを示す位置情報を提供することができる。このような装置では、装置に触れずに位置データを指定することはできない。また、位置を指定することなく装置に触れることもできない。このように、これらの装置では接触の感知と位置の感知が密接に結びついている。
図2を参照すると、アナログからデジタルへの変換器およびマルチプレクサ116は、導線108、110、112、および114にあるアナログの電気信号を、線118で搬送されるデジタル値に変換する。線118はマイクロコントローラ120に接続されており、マイクロコントローラはマルチプレクサ116を制御して4つのタッチセンサの状態を選択的に監視する。マイクロコントローラ120はまた、入力装置の他の各種センサからの入力も受け取る。図を簡潔にするために、これらの入力はまとめて入力122として示している。当業者は、異なる入力装置および補助用コントロールは、その入力装置中の運動センサの種類に応じて、異なる入力信号を提供することを認識されよう。運動センサの例には、スイッチを閉じるのに必要な運動を表す信号を提供するスイッチ、音声信号によって生じる空気の動きを表す信号を提供するマイクロフォン、マウスボール、トラックボールあるいはマウスホイールの動きを表す信号を提供するエンコーダホイール、およびジョイスティックの動きを表す電気信号を提供する抵抗ワイパ、が含まれる。これらの運動センサはそれぞれ、コンピュータシステムに送る入力情報を生成することができる入力生成器として機能する。この入力情報は特定の入力生成器に応じて、押すことのできるキーの状態、押すことのできるボタンの状態、サウンド情報、あるいは動きの情報を含むことができる。
当業者には、マイクロコントローラ120に連結する入力線の数は、入力装置のセンサ数と入力装置の構成に応じて決まることも認識されよう。例えば、キーボードの場合、マイクロコントローラは入力線を使用して、補助用コントロールのいずれかが起動されていないかどうかを判定する。マイクロコントローラは、マルチプレクサ(図示せず)を使用して、キーボード上の各補助用コントロールの状態を逐次テストすることによりこの判定を行う。これらの補助用コントロールの状態の投入を検出するのに使用する技術は、キーボードの技術分野ではよく知られている。
マウスまたはトラックボールでは、入力線122は、スイッチの投入を検出するための線と、エンコーダホイールの回転を検出するための線を含む。スイッチは、マウスまたはトラックボールのボタンの下に配置されている。エンコーダホイールは、マウスボールまたはトラックボールの動きを把握する。通例、1つのエンコーダホイールがX方向の動きを把握し、もう1つのエンコーダホイールがY方向の動きを把握する。大半の実施形態では、各エンコーダホイールは、それ自体に関連付けられたマイクロコントローラ120への入力線を持っている。マウスによっては、さらに別のエンコーダホイールがマウスの上部にあるホイールの回転を把握する。
一部のマウスでは、線122を通じてマイクロコントローラ120に接続された、個別の光マイクロコントローラによってマウスのXおよびY方向の動きを把握する。光マイクロコントローラは、光データを使用してマウスの動きを判定する。光マイクロコントローラはこの光データを運動値に変換し、これを入力線122に沿ってマイクロコントローラ120に伝送する。
ゲームパッドなどのゲームコントローラでは、入力線122は、ゲームパッド上の複数スイッチの投入を検出するための線と、ゲームパッドのホイールの回転を検出するための線を含む。ジョイスティックの場合、入力線122は、ジョイスティックの抵抗ワイパとジョイスティックのスイッチに接続された線を含むことができる。ヘッドセットでは、線122は、マイクロフォンによって生成されたアナログ電気信号の大きさを表すマルチビットのデジタル値を搬送する複数の線を含む。通例は、アナログからデジタルに変換する変換器がこのデジタル値を生成する。ヘッドセットの重量を減らすために、アナログからデジタルへの変換器およびマイクロコントローラ120は、コンピュータ中に位置するサウンドボードの上に配置することができる。ヘッドセットの重量をさらに減らすために、図2のマルチプレクサおよびA/D変換器116もサウンドボードの上に実施することができる。
マイクロコントローラ120は出力124を生成し、これを図1のシリアルポートインタフェース46に提供する。通例、出力124はシリアルのデジタル値であり、どの運動センサまたはタッチセンサが起動されたかを表す。キーボードの場合、このデジタル値は、起動されたキーや、キーボード上の他の補助用コントロールまたはタッチセンサを一意に識別するスキャンコードを含んでいる。マウスの場合、このデジタル値はマウスパケットを含んでおり、これはマウスの各スイッチおよび各タッチセンサの現在の状態と、前回のマウスパケットが送信されてからマウスホイールおよびマウスボールが移動した距離を記述する。
図3は、本発明のヘッドセット150の透視図である。ヘッドセット150は、マイクロフォン152、支持ピース154、タッチセンサ156、および出力線158を含む。支持ピース154は、ユーザの耳の周囲で輪を描き、マイクロフォン152がユーザの口の前に来るようにヘッドセットを支える設計になっている。
出力線158は、マイクロフォン152およびタッチセンサ156からの信号を伝搬する。いくつかの実施形態では、ヘッドセット150を、音声認識システムを含んだコンピュータシステムに接続する。そのような実施形態では、音声認識システムは、ユーザがヘッドセット150に触れていることをタッチセンサ156が示さない限り非アクティブになっている。音声認識システムの起動は、ユーザが最初にヘッドセット150に触れた際に、音声認識システムをランダムアクセスメモリにロードすることを含む。また、ランダムアクセスメモリ中にある音声認識システムが入力音声信号を処理できるように、それに指示を出すことも含むことができる。いずれの場合も、本発明は、ユーザがヘッドセットに触れていることをヘッドセット150が示したときにのみ音声認識システムを起動することにより、関係のない音声が音声認識システムで処理される可能性を低減している。
図4Aは、本発明の例証的実施形態によるマウス170の一実施形態の透視図である。マウス170は、パームレスト172、左ボタン174、右ボタン176、ホイール178、側面180、および出力線182を含む。パームレスト172、左ボタン174、側面180の2つの側面領域184および186は、別々の導電性フィルムで被覆されている。この導電性フィルムはそれぞれ、図2のセンサ100、102、104および106など別々のセンサに接続され、その一部をなす。
図4Bは、マウス170の下面図を示す。マウス170は、トラックボールネスト192の中に置かれたトラックボール190を含む。パームレスト172、側面180、左ボタン174、あるいは右ボタン176に加わる力によってマウス170を面上で動かすと、トラックボール190がネスト192中で回転する。図4Cを参照すると、1対のエンコーダホイール194および196がこの回転を検出している。
図4Cは、マウス170の内部電子回路189の一部の透視図である。図が見やすいように、図4Cではトラックボール190を省略している。内部の電子回路189は、エンコーダ194および196を含み、これが2つの直角方向のトラックボール190の動きを検出する。エンコーダホイールはマイクロコントローラ200に提供する電気信号を生成する。マイクロコントローラ200は、左ボタン174および右ボタン176の下にそれぞれ配置されたスイッチ202および204からの入力も受け取る。スイッチ202および204はそれぞれ、左ボタン174および右ボタン176がユーザによって押されるとそれを示す。マイクロコントローラ200は、ホイール178が押されたときにそれを示すスイッチ201からの信号、およびホイール178の回転運動を表すエンコーダホイール203からの信号も受け取る。マイクロコントローラ200は、図4Aのパームレスト172、左ボタン174、および側面領域184および186上の導電性フィルムに取り付けられた4つのセンサからの電気信号も受け取る。図4Cでは、これら4つのセンサをまとめてセンサ配列206としている。左ボタン174と側面領域184および186は、押すと起動して機能を実行する補助用コントロールであってよい。
このように、本発明の例示的実施形態によるマウスは、マウスの特定の領域が触れられたとき、およびマウスの一部あるいはマウス全体が動かされたときに、それを検出することができる。具体的には、パームレスト172、左ボタン174、および側面領域184および186上の導電性フィルムは、ユーザがこれらの領域に触れるとそれを示す。ユーザがマウスを動かしたりボタンを押したりしなくとも、図4Aの導電性フィルムと関連付けられたセンサは、ユーザがマウスに触れると電気信号を発生することに留意されたい。エンコーダホイール194および196は、ユーザがマウスを動かすと1種類の(a separate)信号を発生し、スイッチ202、204、および201は、ユーザがボタン174および176、およびホイール178をそれぞれ押すと個別の電気信号を発生する。このように、本発明による例示的マウスは、そのコントロールを操作するのに必要な手先の器用さをさらに必要とすることなく機能を付加する。
本発明の代替実施形態では、トラックボール190およびエンコーダホイール194および196の代わりに、マウスが移動した表面の画像を収集してマウスの位置の変化を判定する固体位置追跡装置を用いる。この例示的実施形態によると、マウスは通例、表面に光を当てるのに使用する光源と、表面の画像を収集するのに使用する光学システムと、様々な画像を比較して、マウスが移動しているか、また移動している場合にはどの方向に移動しているかを判定するのに使用するプロセッサとを含む。固体位置追跡装置は運動を電気信号に変換することから、洗練されたトランスデューサまたは運動センサと見なすことができる。
図5、6A〜6D、7A〜7B、8A〜8B、9A〜9C、10A〜10H、11A〜11B、12A〜12B、13A〜13D、および14A〜14Dは、本発明の例証的実施形態によるマウスの代替構成を示している。図5は、そのパームレスト600だけにタッチセンサを有するマウスの上面図である。図6Aおよび6Bはそれぞれ、パームレストと、マウスの左側面にセンサを有する別個の例証的マウスの実施形態を示している。側面図である図6Aでは、単一のセンサ602がパームレストおよびマウスの左側面の両方を覆っている。図6Bも側面図であるが、この場合は1つのセンサがパームレスト604を覆い、別のセンサが左側面606を覆っている。
図6Cおよび6Dは、それぞれパームレストとマウスの右側面にセンサを有する、本発明の別々の例証的マウス実施形態を示している。右側面図である図6Cでは、単一のセンサ603が右側面およびパームレストの両方を覆っている。図6Dも右側面図であるが、この場合は1つのセンサ605がパームレストを覆い、別のセンサ607が右側面を覆っている。
図7Aおよび7Bはそれぞれ、パームレストおよびマウスの左側面に単一のセンサ608を有し、マウスの左ボタン上に別のセンサ610を有する例示的マウス実施形態の側面図と上面図である。図8Aおよび8Bはそれぞれ、パームレストおよびマウスの左側面の単一のタッチセンサ612、マウスの左ボタンのタッチセンサ614、マウスの右ボタンのタッチセンサ616を有する例示的マウス実施形態の側面図と上面図を示している。
図9A〜9Cはそれぞれ、本発明の例証的マウス690の左側面図、上面図、および右側面図を示している。マウス690は、左側面センサ692、パームセンサ694、右側面センサ696、およびボタンセンサ698を含む。マウス690では、右側面センサ696および左側面センサ692は、パームセンサ694とは別のものである。本発明の別の例証的実施形態では、この3センサを単一のセンサとして形成することができる。
図10A〜10Hは、様々な例示的マウス実施形態の上面図を示すものであるが、マウスの左ボタンのタッチセンサに可能な構成を示している。これらのボタン構成は、マウスの上に単独で配置しても、あるいはマウスの他部分にある他のセンサと組み合わせて配置してもよい。図10Aは、左ボタン全体にわたる単一の固体センサ618を示す。図10Bは、6つのセンサストリップ620からなるセットを示しており、それぞれのセンサストリップは触れられると個別の電気信号を生成する。図10Cは、隆起部628で分離された2つの領域624および626を示す。領域624および626はどちらも、ボタン622の前端627で終わっている。図10Dは、隆起部636で分離された2つの領域634および637を示しているが、領域634および637はどちらもボタン630の側端631で終わっている。ボタン622および630の構成は、下記で述べるように文書を順に見ていく際に特に有用である。図10Eは、四角形641、642、643、および644として形成された4つの個別のセンサ領域を有するボタン640のボタン構成を示している。いくつかの実施形態では、4つのセンサ領域を分ける線は、センサ領域とは異なる形状的特徴を有する隆起部として形成する。図10Fも、ボタン646上の4つの個別のセンサを示している。図10Fでは、センサ領域650、651、および652の3つがボタン646の前端部にあり、残りのセンサ648がボタン646の残りの部分を覆っている。図10Gは、キーパッドに似たレイアウトで9つのセンサ領域を配置したボタン660を示している。図10Hは、中央センサ674を囲む8つのセンサ672からなる外側の円を有するボタン670を示している。ボタン670の構成は、放射状のメニューを操作する際に特に有用である。
図11Aおよび11Bは、マウスの両ボタンに別々のセンサを含む例証的マウス実施形態を示している。図11Aでは、ボタン700および702にはセンサがあるが、パームレスト704にはセンサがない。図11Bでは、ボタン706および708およびパームレスト710が個別のセンサを有する。
図12Aおよび12Bは、マウスの右側面に沿って複数のセンサがある例示的マウス実施形態を示す。図12Aは右側面図であるが、右側面上に2つのセンサ720および722がある。図12Bでは、右側面に3つのセンサ724、726、および728がある。
図13A〜13Dは、マウスの左側面に複数のセンサがある例示的マウス実施形態の側面図を示す。図13Aのマウスは、左側面に2つのセンサ734および736を有する。図13Bのマウスは、それぞれ一定の間隔で分離された3つのタッチセンサ738、740、および742を有する。図13Cのマウスも左側面に3つのタッチセンサを有する。ただし図13Cでは、センサ746と748の間に位置する真中のタッチセンサ744は、表面が一段高くなっており、センサ746と748間の隆起部として形成されている。センサ744の表面を高くすることにより、触覚によるフィードバックをユーザに提供して、ユーザがマウスを見ずに親指の位置を決められるようにしている。図13Dは、マウスの左側面に複数のストリップ752があるマウス実施形態を示す。
図12A〜12Bおよび図13A〜13Dの例示的実施形態はすべて、パームレストに置いたセンサ、および/または左ボタンに置いたセンサ、および/または右ボタンに置いたセンサと合わせて実施できることに留意されたい。
図14A〜14Dは、タッチセンサがマウスのホイールに近接した例証的マウス実施形態の上面図である。図14Aでは、ホイール760の上に直接タッチセンサを置いている。図14Bでは、ホイール764の前部に1つのタッチセンサ762を置き、ホイール764の後部に1つのタッチセンサ766を置いている。図14Bの実施形態では、ホイール764にはタッチセンサがない。図14Cでは、ホイール768の前部に1つのタッチセンサ770を置き、ホイール768の後部に1つのタッチセンサ772を置いている。さらに、ホイール768がタッチセンサを含む。図14Dの実施形態では、ホイール774、ホイール774の前の前部領域776、ホイール774の後ろの後部領域778、およびパームレスト780にタッチセンサを配置している。
特に図5、6A〜6D、7A〜7B、8A〜8B、9A〜9C、10A〜10H、11A〜11B、12A〜12B、13A〜13D、および14A〜14Dにおけるタッチセンサの位置に関して様々な例示的実施形態を説明したが、センサはこの他の位置に含んでもよいことに留意されたい。例えば、一実施形態で例示したタッチセンサの一部またはすべてを、別の実施形態で例示したタッチセンサの一部またはすべてと組み合わせることが可能である。さらに、図5、6A〜6D、7A〜7B、8A〜8B、9A〜9C、10A〜10H、11A〜11B、12A〜12B、13A〜13D、および14A〜14Dに示すマウスの側面を含むがこれらに限定しないタッチセンサ位置の多くは、補助用コントロールの上にある導電性フィルムでよく、この場合そのコントロールを押すと起動して機能を実行することができることを理解されたい。この例では、コントロールに触れると1セットの電気信号が生成され、コントロールを起動すると第2の電気信号セットが生成される。本発明の特定の例証的実施形態では、その補助用コントロール(例えばボタン、ホイール)を含む各種のマウスは、そのタッチセンシティブな表面に触れる物理的存在(例えば指)、すなわち、表示ウィジェットを表示画面上に表示すること、および/またはその他の(例えば音声や触覚による)フィードバックを生成することを求める明示的なユーザ要求を表す物理的存在を検出することができる。このフィードバックは、ステータス情報、コントロールの機能、およびヘルプテキストといった情報をユーザに提供することができる。この情報はアプリケーションごとに異なってよい。本発明のいくつかの実施形態では、表示画面上の表示ウィジェットの位置は、タッチセンシティブな表面上での物理的存在の動きの通りに表示することができる。
図15は、本発明の例証的トラックボール220の透視図である。トラックボール220は、基部222、ボタン224および226、およびボール228を含む。本発明の一実施形態では、トラックボール228は、基部222中の回転する3つの金属製ホイール(図示せず)と接触する導電性フィルムで被覆することができる。金属製ホイールの1つには、ホイールの後部に位置し、スプリング力によってホイールに押し付けられる導電性シートが接触する。導電性シートはさらにタッチセンサに接続され、ユーザがトラックボール228に触れるとこのタッチセンサが電気信号を生成する。基部222中の他の2つのホイールは、2つの直角方向の運動センサ(図示せず)を形成し、基部222中のトラックボール228の回転運動を把握することができる。基部222はボタン224および226の下に2つのスイッチを含んでおり、これはユーザがボタン224および226を押すと電気信号を生成することができる。このように、トラックボール220は、ユーザが単にボール228に触れることに基づいて1種類の電気信号を提供し、ユーザがトラックボール228を動かすか、あるいはボタン224または226を押すのに基づいて別の電気信号を提供することができる。また、起動すると機能を実行することのできる1つまたは複数の補助用コントロールを、基部222上のトラックボール228の周囲に配置してもよい。この補助用コントロールは、その表面にタッチセンシティブな導電性フィルムを有することができ、ユーザがコントロールを押すのに応答して起動し、機能を実行することができる。したがって、コントロールが触れられると1セットの電気信号を生成し、コントロールが起動されると第2の電気信号セットを生成する。本発明の例示的実施形態では、トラックボールおよびその補助用コントロール(例えばボタン)は、そのタッチセンシティブな表面に触れる物理的存在(例えば指)、すなわち、表示ウィジェットを表示画面上に表示すること、および/またはその他の(例えば音声、触覚による)フィードバックを生成することを求める明示的なユーザ要求を表す物理的存在を検出することができる。フィードバックは、ステータス情報、コントロールの機能、およびヘルプテキストといった情報をユーザに提供することができる。この情報はアプリケーションごとに異なってよい。本発明のいくつかの実施形態では、表示画面上の表示ウィジェットの位置は、タッチセンシティブな表面上での物理的存在の動きの通りに表示することができる。
図16はジョイスティックを備えた例証的ゲームコントローラの透視図であり、これは、基部242、ハンドル244、トリガ246、およびボタン248、250、252を含む。本発明の一実施形態では、トリガ246は、基部242中のタッチセンサに接続された導電性フィルムで被覆することができる。さらに別の実施形態では、ボタン248も、基部242中でそれとは別のタッチセンサに接続された導電性フィルムで被覆することができる。トリガ246、およびボタン248、250、252はさらに、ユーザが個々のボタンまたはトリガを押すと個別の電気信号を提供するスイッチに接続してもよい。ハンドル244は、基部242に対するハンドル244の相対運動を追跡する1組のトランスデューサに接続することができる。このように、このゲームコントローラは、ユーザがトリガ246またはボタン248に触れると1セットの電気信号を提供し、ユーザがハンドル244、またはトリガ246、ボタン248、250、252を動かすと別の電気信号セットを提供することができる。
図17は、本発明による別の例証的ゲームコントローラの透視図である。図17には、ゲームパッド260の形態のゲームコントローラを表している。ゲームパッド260は、サイドボタン262および264、左手ボタン266、268、270、272、274、276、および右手ボタン278、280、282、284、286、288を有する。さらにゲームパッド260は、開始ボタン290および選択ボタン292を有する。本発明のいくつかの実施形態では、サイドボタン262および264はそれぞれ、ゲームパッド260中で別々のタッチセンサに接続した導電性フィルムで被覆することができる。ゲームパッド260はゲームパッドのボタンごとに1つの複数のスイッチも含むことができる。したがって、いくつかの実施形態では、ゲームパッド260は、ユーザがサイドボタン262および264に触れたときにはそれを示す1セットの信号を提供することができ、ユーザがゲームパッド260のボタンを押すとそれを示す第2の電気信号セットを提供することができる。
本発明の例証的実施形態では、その補助用コントロール(例えばボタン、ジョイスティック、トリガ)を含む図16および17のようなゲームコントローラは、そのタッチセンシティブな表面に触れる物理的存在(例えば指)、すなわち、表示ウィジェットを表示画面に表示すること、および/または(例えば音声、触覚による)その他のフィードバックを生成することを求める明示的なユーザ要求を表す物理的存在を検出することができる。フィードバックは、ステータス情報、コントロールの機能、およびヘルプテキストなどの情報をユーザに提供することができる。この情報はアプリケーションごとに異なってよい。本発明のいくつかの実施形態では、表示画面上の表示ウィジェットの位置は、タッチセンシティブな表面上での物理的存在の動きの通りに表示することができる。
図18Aは、本発明の例示的実施形態によるキーボード300を示している。キーボード300は、キーボードの左側に一般的なQWERTY配列302を有し、右側に数字キーパッド304を有する。数字キーパッド304は数字0〜9を含んでおり、この数字0〜9は3x3の枠に並んでいる。いくつかの実施形態では、これら9つのキーすべてを導電性フィルムで被覆することができる。別の実施形態では、キーボードの他のキーおよび補助用コントロールを導電性フィルムで被覆することができる。各キーの導電性フィルムは、キーボード300中の別々のタッチセンサに接続され、その一部をなす。各キーが導電性フィルムを有するということは、それぞれのキーが2種類の信号を提供できることを意味する。1つの信号は、ユーザがキーを押さずに触れたときに提供することができ、第2の信号はユーザがキーを押したときに提供することができる。
タッチセンサをさらに、キーボードケース(casing)301の、スペースバー308の下の部分306および307、矢印キー310の下の部分309、およびキーパッド304の下の部分311に配置することができる。矢印キー310は通例、ユーザが表示中でカーソルを動かすのに使用する。キーの上、および部分306、307、309、311にタッチセンサを備えたキーボード300を示しているが、本発明の別の例示的実施形態では、キーだけにタッチセンサを有するか、または部分306、307、309、311の1つだけにタッチセンサを有してもよい。別の例示的実施形態では、こうしたタッチセンサを別の組み合わせでキーボード300に配置することができる。さらに、部分306、307、309、311のタッチセンサの一部またはすべてを近接センサにしてもよい。タッチセンサ306、307、309、311は、ジョイスティック、ゲームパッド、タッチパッド、トラックボール、ボタン、つまみ、ロッカースイッチ、トリガ、スライダ、ホイール、レバーなどを含むがこれらに限定しない多種の補助用コントロールを表すことができる。近接センサは、ユーザの手がセンサに近づくとそれを検出することができ、手が実際にセンサに接触する必要はない。一般的に、ユーザが補助用コントロールに触れるがそれを起動(例えば、押す、回す、回転する)しないと1種類の信号が提供され、ユーザが補助用コントロールを起動すると第2の信号が提供される。本発明の例示的実施形態では、その補助用コントロールを含むキーボードは、そのタッチセンシティブな表面に触れる物理的存在(例えば指)、すなわち、表示ウィジェットを表示画面上に表示すること、および/または(例えば音声、触覚による)その他のフィードバックを生成することを求める明示的なユーザ要求を表す物理的存在を検出することができる。フィードバックは、ステータス情報、コントロールの機能、およびヘルプテキストなどの情報をユーザに提供することができる。この情報はアプリケーションごとに異なってよい。本発明のいくつかの実施形態では、表示画面上の表示ウィジェットの位置は、タッチセンシティブな表面上での物理的存在の動きの通りに表示することができる。
図18Bは、本発明による別の例証的キーボードの一部を示しており、これはボタン312A〜312G、およびタッチセンシティブなコントロール用つまみ314を含む補助用コントロール入力を有する。ボタン312A〜312Gにはそれぞれタッチセンサがついている。図18Cは本発明によるさらに別の例証的キーボードを示すが、これはタッチセンシティブなロッカースイッチ315、および各々タッチセンシティブなボタン312A〜312Gを備える。
図19は、本発明による例証的タッチパッド2000の透視図である。このタッチパッドは、現在カリフォルニア州サンホセのSynaptics Corporationから入手可能な従来型のタッチパッドでよく、変更を加える必要はない。タッチパッド2000は、タッチセンシティブな表面(タブレット)2100からなっており、この表面は、ユーザの指が表面に接触しその上を移動すると、指の2次元の位置と接触領域(表面領域)を感知する。さらにタッチパッド2000は、タッチセンシティブな表面の周辺に位置するボタン2220、2240、2260、2280を含んでいる。ボタン2220、2240、2260、2280の1つまたは複数はタッチセンシティブでよい。このタッチパッドの出力は、図1に示すようなコンピュータシステムに送る(route)ことができる。本発明の実施形態では、その補助用コントロールを含むタッチパッドは、そのタッチセンシティブな表面に触れる物理的存在(例えば指)、すなわち、表示画面上に表示ウィジェットを表示すること、および/または(例えば音声、触覚による)その他のフィードバックを生成することを要求する明示的なユーザ要求を表す物理的存在を検出することができる。フィードバックは、ステータス情報、コントロールの機能、およびヘルプテキストなどの情報をユーザに提供することができる。この情報はアプリケーションごとに異なってよい。本発明のいくつかの実施形態では、表示画面上の表示ウィジェットの位置は、タッチセンシティブな表面上での物理的存在の動きの通りに表示することができる。
以上の説明のように、入力装置のキー、ボタン、つまみ、ロッカースイッチ、あるいはその他の補助用コントロールは、ユーザの手(例えば、指や手のひら)あるいはスタイラスを含むがこれに限定しない物理的存在の接触、またはその著しい近接状態を検出するセンサで補うことができる。ここまで、マウス(図4A〜14B)、トラックボール(図15)、ゲームコントローラ(図16および17)、キーボード(図18A〜18C)、およびタッチパッド(図19)を含む例証的な入力装置を示し、それについて説明した。本発明の実施形態によると、上記のような感知された信号を使用することにより、ユーザが触れたコントローラに関連するステータスの画面表示、状態情報、またはその他のフィードバックをユーザに提供することができる。
図20は、本発明の例示的実施形態によるメッセージルーティングシステムを説明するのに有用な、コンピュータ20のより詳細なブロック図である。図20で、入力装置43は、シリアルの2進信号をシリアルインタフェース46に提供する。入力装置43は、上記で説明した、タッチセンサを有する入力装置およびその補助用コントロールのどれを含んでもよい。
シリアルインタフェース46は、入力装置43からのシリアルの2進信号をパラレルのマルチビット値に変換し、それをデバイスドライバ60に渡す。本発明の多くの実施形態では、デバイスドライバ60は、図1のCPU21で実行するソフトウェアルーチンとして実施することができる。そのような実施形態では、デバイスドライバ60は入力装置固有のものにし、指定プロトコルに基づいて特定の入力装置およびその補助用コントロールと対話するように設計することができる。したがって、入力装置43がマウスである場合には、デバイスドライバ60は、マウスが生成したマウスパケットをマウスパケットプロトコルを用いて受信するように設計されたマウスドライバになる。入力装置43がキーボードである場合、デバイスドライバ60は、キーが押されていることまたはタッチセンサが触れられていることを表すキーボードスキャンコードを受信するように設計されたキーボードドライバになる。
デバイスドライバ60は、指定のプロトコルに基づいてマルチビット値をデバイスメッセージに変換し、それをオペレーティングシステム35に渡す。このデバイスメッセージは、入力装置でどのようなイベントが起こったかを表す。例えばマウスのタッチセンサが触れられた場合、このメッセージは特定のセンサが触れられていることを示す。タッチセンサから手が離れると、タッチセンサから手が離れたことを示す別のメッセージがデバイスドライバ60によって生成される。
デバイスドライバ60によって生成されたメッセージは、このメッセージのルーティングを制御するオペレーティングシステム35に提供される。例証的実施形態によると、デバイスメッセージは通常フォーカスアプリケーション812に送信される。フォーカスアプリケーションとは、通例、ディスプレイで一番上にあるウィンドウを有するアプリケーションである。
いくつかの例証的実施形態では、オペレーティングシステム35は、そのオペレーティングシステムに登録されたメッセージフックプロシージャのリストを維持している。そのような例証的実施形態では、オペレーティングシステム35は、デバイスメッセージをフォーカスアプリケーション812に送信する前に、それをリストにある各メッセージフックプロシージャに逐次渡す。このようなメッセージフックプロシージャを、図20のメッセージフックプロシージャ810として包括的に示している。メッセージフックプロシージャの大半は、単にデバイスメッセージを評価して、何らかの措置を講ずるべきかどうかを判定するものである。メッセージフックプロシージャは、デバイスメッセージを評価すると値をオペレーティングシステム35に戻し、オペレーティングシステムがそのデバイスメッセージをリスト中の次のプロシージャに渡すことを示す。メッセージフックプロシージャの中にはデバイスメッセージを「食べる」能力を有するものもあり、これは、オペレーティングシステムがそのデバイスメッセージを他のメッセージフックプロシージャまたはフォーカスアプリケーションに渡すべきでないことを示す値をオペレーティングシステム35に戻すことによって行う。
メッセージフックプロシージャおよびフォーカスアプリケーションは、特にタッチセンサが触れられたことを示すデバイスメッセージを使用して、下記で説明する各種の機能を開始する。
例えば、図21および22が示すのは、図4Aおよび図15それぞれのマウス170またはトラックボール220など、本発明の例証的実施形態による入力装置からの信号に基づいて生成されるデバイスメッセージを利用する、本発明の各種のアプリケーションが表示する画面の画像である。図21は、仮想デスクトップ322を示す画面320の画像を表している。仮想デスクトップ322は、アイコン324および326の画像、ならびに開いたウィンドウ328を含んでいる。開いたウィンドウ328は、ワシントン州レドモンドのマイクロソフト社製造のMicrosoft Word(登録商標)として知られるワードプロセッシングアプリケーションに関連するものである。
ウィンドウ328で、開いた文書の文章中にカレット330が置かれている。カレット330の位置は、マウス170、またはトラックボール220のボール228を動かすことによって決めることができる。図21で、カレット330は、2本のより短い水平線の間を延びる垂直線として表示されている。当業者は、カレット330は様々な形状にすることができ、通例デスクトップ322上では矢印として表示されることを認識されよう。
ウィンドウ328の文章中でのカレット330の位置によって、ツールヒント332が表示される。ツールヒント332は、カレット330の下にある単語を誰が入力したのかを示している。
ウィンドウ328は、ウィンドウ328の文書中に絵を書く際に使用することのできる描画ツールを含んだツールバー334も含む。
図21に示すような本発明の例示的実施形態によると、カレット330、ツールヒント332、およびツールバー334は、ユーザが、このワードプロセッシングのアプリケーションであるツールヒントを提供することを割り当てられた補助用コントロール(例えば、ボタンやボタンの組み合わせ)など入力装置の一部に触れている間にのみ、ウィンドウ328中に表示される。ユーザがその入力装置に触れていないと、カレット330、ツールヒント332、およびツールバー334は消える。図22は、ユーザが入力装置の一部に触れていないときのディスプレイ320の画像を示している。ユーザが入力装置に触れていないときにはツールバー334、カレット330、およびツールヒント332をなくすことにより、本発明は、ウィンドウ328に見られる乱雑さを低減し、ユーザがウィンドウ328に示される文書を容易に読めるようにする。
当業者には、ユーザが入力装置に触れていない際のカレット330、ツールヒント332、およびツールバー334の消去は個別に制御できることが認識されよう。したがって、ユーザはウィンドウ328をカスタマイズして、ユーザが入力装置から手を離すとツールヒント332およびツールバー334は消えるが、カレット330は表示したままにすることが可能である。さらに、アイテムが表示および再表示される際の速度も制御することができる。したがって、ユーザが入力装置から手を離してから触れると、画像が表示から徐々に消え、そして徐々に表示上に戻すことが可能である。本発明のいくつかの例証的実施形態では、なるべくユーザの気を散らさないように、フェードアウト期間は0.7〜1.0秒にし、カレットのフェードイン期間は0秒にして瞬時に表示されるようにし、ツールバーのフェードイン期間は0.3秒にする。ある実施形態では、フェードアウト時間は、ユーザが規定のデフォルト期間を用いて設定できる変数にすることが可能である。
図23〜25は、図18Aのキーボード300からのキーボードメッセージの結果表示することのできるプルダウンメニューを含んだ、一連の例証的表示画面を示している。詳細には、図23の画面画像350では、アプリケーションが、プルダウンメニュー356の画像を含んだアクティブウィンドウ352を仮想デスクトップ354上に生成している。プルダウンメニュー356は、メニューバー358にある「Tools」の名のメニュー見出しと関連付けられている。プルダウンメニュー356は、ユーザがキーボード300の数字キーパッド304のキーの1つに触れているが押してはいないことを示すキーボードメッセージに応答して表示される。
別の例示的実施形態では、ユーザは、数字キーパッド304の数「4」および「6」を表すキーを使用することにより、メニューバー358を左右に移動することができる。ユーザがメニューバー358を横に移動すると、それぞれのメニュー見出しについての異なるプルダウンメニューを表示することができる。具体的には、ユーザは数「4」を表すキーに触れることによりキーボードメッセージをアプリケーションに送信させ、アプリケーションは、ヘッダメニュー358中で現在のメニュー見出しの左にあるメニュー見出しを表示するように表示を変更する。したがって、現在ウィンドウ352でメニュー見出し「Tools」についてのプルダウンメニューが表示されている場合、数「4」を表すキーに触れると、メニュー見出し「Insert」と関連付けられたプルダウンメニューが表示される。同様に、ユーザは数字キーパッド304の数「6」を表すキーに触れることにより、現在のメニュー見出しの右のメニュー見出しのプルダウンメニューを表示させることができる。したがって、現在表示されているプルダウンメニューがメニュー見出し「Tools」に関連づけられたもので、ユーザが数「6」を表すキーに触れた場合は、ヘッダメニュー358中のメニュー見出し「Format」と関連付けられたプルダウンメニューが表示されることになる。これを図24に示しているが、メニュー見出し「Format」358についてのプルダウンメニュー360が表示されている。
ユーザは、数字キーパッド304で数「2」および「8」を表すキーに触れることにより、プルダウンメニュー360などのプルダウンメニュー中で上下にも移動することができる。ユーザがプルダウンメニュー中を移動すると、プルダウンメニューの異なるアイテムがハイライト表示される。ハイライト表示した項目の一例は図25の項目362であるが、この図ではプルダウンウィンドウ360の項目「Tabs」が現在の項目としてハイライト表示されている。項目362が現在の項目であるときにユーザが数「8」を表すキーに触れると、それに関連付けられたキーボードメッセージを受信するアプリケーションが、項目362の上に位置する項目364を現在の項目としてハイライト表示する。項目362が現在の項目であるときにユーザが数「2」を表すキーに触れると、項目362の下の項目366が現在の項目としてハイライト表示される。
図24は、本発明の別の実施形態の説明にも使用することができる。詳細には、プルダウンウィンドウ360は、カレットをメニュー見出し「Format」の上に置き、図4Aおよび図15それぞれのマウス170またはトラックボール220などのポインティングデバイスの選択ボタンを押すことによっても起動することができる。ユーザは、ポインティングデバイスを項目のリスト中で下方に移動することにより、プルダウンウィンドウ360中の項目を選択することができる。ユーザが入力装置を移動すると、リスト中の個々の項目がハイライト表示される。
従来技術では、カレットをプルダウンメニュー自体の外側に置いてもプルダウンメニュー360は引き続き表示される。このプルダウンメニューを消す唯一の方法は、メニュー自体の外側の領域でクリックすることである。しかし本発明の例証的実施形態によると、プルダウンメニューを生成するアプリケーションは、ユーザがポインティングデバイスから手を離したことを示すマウスメッセージを受け取ると直ちにそのプルダウンメニューを取り除く。これは、ユーザがヘッダメニュー358と関連付けられたプルダウンウィンドウを閉じるために行わなければならない動きを減らすことによりユーザの効率を改善する。
図26は、本発明の別の例示的実施形態によって表示される、放射状メニュー370を含む表示画面の画像である。放射状メニュー370は、キャンセルボタン372の周囲に円形に配置された8つの項目371を含んでいる。放射状メニュー370は例えば、図18Aのキーボード300か、または図10Hのマウスのボタン670の上についたタッチセンサを使用して操作することができる。
キーボード300を使用する場合、フォーカスアプリケーションは、ユーザがキーパッド304のキーの1つに触れたことを示すキーボードメッセージを受け取ると放射状メニュー370を表示する。ユーザが特定の項目をハイライト表示させるには、その項目と空間的に関連づけられたキーパッド304中のキーに触れる。例えば放射状メニュー370の項目373をハイライト表示するには、ユーザは、数「5」を表す中央キーのすぐ上に位置する数「8」を表すキーに触れる。これは、キー「5」に対するキー「8」の空間的な位置づけが、項目373とキャンセルボタン372の空間的関係と同じであるためである。ユーザが項目を選択するには、その項目をハイライト表示させるキーを押す。放射状メニューを消すには、ユーザはキー「5」を押す。
図10Hのマウスのボタン670のタッチセンサを使用して放射状メニューを操作するには、ユーザは単に放射状メニューの項目に対応するタッチセンサに触れればよい。単に対応するタッチセンサに触れるだけで、その項目がハイライト表示される。対応するタッチセンサに触れながらボタン670を押すとその項目が選択される。アプリケーションは、2つの個別のマウスメッセージに基づいて、2つのイベントが起こったことを判定する。第1のマウスメッセージは、どのタッチセンサが現在触れられているかを示す。第2のマウスメッセージは左ボタンが押されたことを示す。
本発明の例証的実施形態によると、タッチセンシティブなコントロールおよび装置の使用は、ユーザにとって透過にすることができる。状況のコンテキストは、コントロール装置をつかむ、装置に触れる、あるいは接近するといった、コントロールとのユーザの前段階的な行動によって示される。図18Bを参照し、例として、コントロール用つまみ314の現在の機能が、メディアに関連する音声の音量のコントロールであるとする(システムで生成される他の音声の音量のコントロールに対して)。この例で、ユーザが音量を変えたい場合には、その手をコントロール用つまみ314に近づけるか、あるいはつまみに触れることが考えられる。ユーザがつまみを回してコントロール用つまみ314を起動する前に、図27に示すように、画面による音量表示の形態の音量のステータスを含んだ音量コントロール用GUIを画面に表示することができる。するとユーザはコントロール用つまみ314を回して音量を調節するか、またはコントロール用つまみ314を回さずにそれに触れながら、キー(例えば矢印キー)、マウス、あるいはその他のポインティングデバイスなど別のコントロールを用いてポインタ(例えばカレットや矢印)をGUIの中に移動し、音量を変えることができる。GUIが表示された状態でユーザがコントロール用つまみ314に触れ、そしてキーまたはポインティングデバイスを使用して音量を変えた場合、音量状態の変化は直ちにGUI、または表示画面上の他の場所に表示することができる。ユーザがコントロール用つまみ314から手を離すと、システムはそのGUIがもはや必要でないことを知り、知覚可能な遅延を置かずにGUIを消すことができる。実施形態によっては、ポインティングデバイスがGUIとの対話を続ける限り、あるいはカーソルがGUIの上にある限りGUIは表示されている。
本発明の別の例証的実施形態では、ユーザが、その起動は行わずにコントロール用つまみ314に接近するか、または触れると、瞬時にツールヒントなどの表示ウィジェットを表示画面に表示することができ、これによりコントロール用つまみ314の現在の機能を識別することができる。ツールヒントは例えば、次のような機能の1つを示すことができるが、機能はこれに限定するものではない。1)オーディオおよびビデオアプリケーションを含む多種アプリケーションのチューニング、2)メディアアプリケーションの音量コントロール、3)システムで生成されるサウンドの音量コントロール、および4)複数の設定(例えば、輝度、トリミング(cropping)、色など)を有する多数の機能のコントロール。別の例証的実施形態では、ユーザがコントロール用つまみ314などのコントロールに接近すると、LEDまたはLCD単体により、あるいは表示画面の表示ウィジェットに加えて、視覚的フィードバックを実際のコントロール用つまみに提供することができる。さらに別の例証的実施形態では、聴覚または触覚(例えばバイブレーション)によるフィードバックを単独で、または表示画面、入力装置および/またはコントロールへの視覚的フィードバックに加えて、または相互に提供することができる。したがって、入力装置またはコントロールは、ホストコンピュータを関係させ、あるいはホストコンピュータと情報を共用して、またはそのようなことは行わずに、直接フィードバック(例えば音声によるフィードバック)を提供することができる。さらに別の例示的実施形態では、コントロール用つまみ314などのコントロールの1つまたは複数の部分(例えば上面や側面)が独自に接触やユーザの近接状態を検出し、コントロールのどの部分が触れられているかに基づいてホストコンピュータに対して独自のメッセージを生成することができる。
図18Cのキーボード入力装置に基づく本発明の別の例証的実施形態では、タッチセンシティブなロッカースイッチ315を提供することができる。あるコンテキストでは、ワシントン州レドモンドのマイクロソフト社製造のWindows(登録商標)98などのオペレーティングシステムで現在使用されている「Alt」キーと「Tab」キーの組み合わせを使用するのと同様に、ロッカースイッチ315によりユーザがアプリケーションを切り替えることができる。すなわち、ロッカースイッチ315により、ユーザは実行中のアプリケーション間を移動することができる。具体的には、ユーザがロッカースイッチ315に触れるか、あるいは接近すると、現在実行中のアプリケーション各々のアイコンを示す画面上表示が示され、図28に示すように最前面にある(ウィンドウが重なる順序で一番上にある)アプリケーションがハイライト表示される。ユーザは、ロッカースイッチ315を押すことにより、ディスプレイの最前面に持って行きたい所望のアプリケーションをハイライト表示するために、アプリケーション間を移動することができる。この順序は、アルファベット順、あるいは前回各アプリケーションがディスプレイの最前面にあった時など、複数の方式で決定することができる。ロッカースイッチ315から手を離すとハイライト表示されたアプリケーションが選択され、ディスプレイの最前面に来る。タッチセンシティブなロッカースイッチ315は、この他にも多数の応用例で使用できることを理解されたい。これには、スイッチへのユーザ接触あるいは著しい近接状態に応答して様々なアイテムを表示すること、スイッチを押すのに応答してアイテムをハイライト表示すること、およびスイッチの接触状態の解除、あるいはスイッチから遠ざかることによりリストからアイテムを選択すること、が含まれる。
例示的なキーボード入力装置の各種の補助用コントロール、およびその接触に対するコンテキストに即した反応の例示的な実施を下の表1ないし表5に列記する。各種のコントロールおよび反応は、ゲームコントローラ、トラックボール、マウス、タッチパッドなど他の入力装置にも応用できることを理解されたい。
Figure 2008287746
Figure 2008287746
Figure 2008287746
Figure 2008287746
Figure 2008287746
以下の表6では、本発明による例示的マウス入力装置への接触に対する、コンテキストに即した反応の例示的な技術について説明する。
Figure 2008287746
タッチセンシティブなコントロールへのユーザの接触に応答して画面に提供できる各種の視覚的フィードバックに加えて、いまひとつの可能性は、キーの組み合わせまたは他のコントロールに、それぞれコピー機能(例えば「Ctrl」キーと「c」キーを同時に)、およびペースト機能(例えば「Ctrl」キーと「v」キーを同時に)を実行させるように設定する場合に、図29Aおよび29Bに示すような標準的なツールヒントを表示することである。すなわち、ユーザが「Ctrl」キーと「c」キーに同時に触れると、図29Aに表示する「Copy」のツールヒントが画面に現れ、ユーザが「Ctrl」キーと「v」キーに同時に触れると、図29Bに示す「Paste」のツールヒントが画面に現れる。
通例、画面上表示は、ユーザが触れる入力装置に関係なくその時点のカーソルまたはポインタ(例えばカレット)位置の近くに配置することができる。例えば、キーボードのツールヒントをカーソルの隣に表示することができる。画面上表示を上記の現在のカーソル位置の右上に表示する(pop up)ことは有益である。これは、ワシントン州レドモンドのマイクロソフト社製造のWindows(登録商標)オペレーティングシステムで、ユーザがポインタをアイコンの上に乗せた状態で停止している時に表示される、従来のツールヒントとその画面上表示が重なら(conflict with)ないからである(従来のツールヒントは、ポインタまたはカーソルの右下に表示される)。ツールヒントは、ユーザがポインティングデバイス(例えばマウス)によりカーソルまたはポインタを移動すると、カーソルまたはポインタの後をたどって行くようにすることも、またはそれが最初に表示された点に静止したままにすることもできる。ツールヒントをカーソルとともに移動するよりも、それが表示される場所にツールヒントを維持しておく方が実施が容易であり、かつより効率的であり、ユーザにも受け入れられやすいと考えられる。本発明の別の例示的実施形態によると、表示ウィジェットは、画面中央、その時アクティブな(「フォーカス」)アプリケーションまたはウィジェット(例えばテキスト入力ボックス)の中央、画面下部、あるいはシステムトレーアイコンの上部、に表示することができる。
図30Aおよび30Bは、別の例示的な表示ウィジェット(画面上表示)を示しているが、この図では、本発明の例証的実施形態により、ユーザがプログラマブルなキーボードホットキーおよびファンクション「F」キーに触れるのに応答して表示することのできる、各アプリケーションについてのキーボードコントロール機能を例示している。ユーザが単にキーに触れただけで起動しないと、画面上表示は、そのキーが何であるか、および/またはそのキーが行う動作を示すことができ、その機能は実際には実行されない。図30Aは、ユーザがキーに触れるのに応答する、キーボードホットキーの設定をカスタマイズする、あるいは見るための(例えばマウスや他のポインティング装置によって)選択可能なオプションを含んだキーボードホットキーのGUIの画面上表示の例を示している。すなわち、ユーザはこのGUIの「Reassign HotKey」の領域をクリックして、そのホットキー(キーの組み合わせでもよい)の現在の機能を見、そのホットキーの機能を割り当てを変えることができる。図30Bには、ユーザがあるキーに触れるのに応答した、キーボードホットキーの設定をカスタマイズする、あるいは見るための選択可能なオプションを含んだキーボードホットキー用のGUIの画面上表示の別の例を提供する。図30Bが図30Aと異なるのは、そのキーが何であるか、およびその動作(例えば「マイコンピュータ」アプリケーションの起動)についてのより詳しい情報をユーザに提供する点である。実施形態によっては、触れることによって起動されるGUIは、ユーザがそれに関連付けられたコントロールに触れると直ちにキーボードフォーカスを受け取ることができる。これにより、ユーザは即座に上記の例「Reassign HotKey」の「R」のキーを打って、それに代わる機能を起動することができる。別の実施形態では、接触によって起動するGUIはキーボードフォーカスを受け取らない。ユーザは、マウスでGUIをクリックするか、例えば「Alt」キーと「Tab」キーの組み合わせや、上層の(top level)切り替えるための別の方法を用いてキーボードフォーカスに切り替えなければならない。この後者の実施形態は、ユーザがそれに受け取らせるつもりでないキーボード入力を、接触で起動するGUIが受け取らないようにしている。好ましい実施形態は、特定の入力装置、その装置のタッチセンシティブなコントロール、現在のアプリケーション、あるいはユーザの嗜好の詳細に応じて決まる。
本発明の別の例示的実施形態では、各ホットキーにテキストマクロを割り当てることができ、この場合はホットキーを起動すると、例えば画面上のカーソル位置にテキストのブロックが挿入される。このようなコンテキストで使用する場合、あるホットキーに触れると、図31に示すようにそのホットキーに割り当てられたテキストマクロの全文ではなくとも少なくとも始めの部分あるいはその他の部分が表示される。画面上表示のウィンドウは、テキスト全文を表示するために、そのテキストマクロに割り当てられたテキスト量に応じて自動的にサイズを調整することができる。このコンテキストはスクロールコントロールと合わせて使用することもでき、ユーザがそのテキストマクロを割り当てられたホットキーに触れている間そのテキストをスクロールすることができる。
先に述べたように、本発明のいくつかの例示的実施形態によると聴覚または触覚によるフィードバックを利用することができる。聴覚または触覚によるフィードバックは、ディスプレイ上の視覚的なフィードバックと合わせて、あるいはそれとは別に使用することができる。場合によっては、その際実行中のアプリケーション、その際使用している入力装置、あるいはユーザの好みにより、視覚的なフィードバックが適当ではなく聴覚によるフィードバックが望ましい場合もある。
本発明のある実施形態によると、ユーザがあるコントロールに触れると、適切なキュートーン(cue tone)やその他のサウンドなど聴覚によるフィードバックを生成することができる。所望のオーディオキュートーンを、特定の機能またはコントロールに割り当て(map)ることができる。音量、音の高低、および音色を調整して、音声で生成されるコントロール機能の通知など所望のサウンドをまねた適切なキューを作ることができる。キューサウンドは、パラメトリックなサウンドイベント要求を受け取り、MIDIウェーブテーブルシンセサイザ662を使用し、音声生成装置640(例えば、Creative Labs AWE64 Goldカードサウンドボード)でそれを順番に配列することによって生成することができる(図6参照)。音声キューごとに正確な音声パラメータを設定し、その音声キューを適切に合成し、キューをそれに対応するコントロールおよび/または機能と関連付けるための具体的な技術はすべて当業者には容易に明らかになるものであり、また本発明の一部を形成するものではないので説明の簡略化のために省略している。
機能およびその他の情報を識別するための聴覚的フィードバックは、ワシントン州レドモンドのマイクロソフト社製造のMS Game Voice(商標)などゲームのアプリケーションおよび製品に特に有用である。例えば、ゲーム製品は、パック(puck)に取り付けられたヘッドセットマイクロフォンの組み合わせを含むことがある。ユーザは、パックにより、自分が一緒にプレーしている人々およびチームの複数の組み合わせと選択的に話をすることができる。各々の者には、コード(1、2、3...)およびチーム(A、B、C...)が自動的に割り当てられる。問題が生じうるのは、プレーヤがどのコードがどのプレーヤおよびチームに対応しているのかを記憶しておかなければならない場合である。ユーザがあるボタンが誰に割り当てられているかについての確認(reminder)が欲しい場合は、あるコントロール(例えば数字キー)に触れると、そのコードに割り当てられた者の名前の聴覚フィードバックを自分のヘッドセットを通じて受け取ることができる。
表1ないし表5に明らかにした本発明の一例示的実施形態では、入力装置上の複数の接触領域を使用することにより、インターネットブラウザによって提供されるウェブページ間を移動することができる。複数のタッチセンシティブな領域を有し、ページ間を移動するのに有用な入力装置の例には、特に図10C、10D、12A、12B、13A、13B、および13Cのマウスが含まれる。図10Cの場合、領域624に触れてから領域626に触れるとページを戻る機能が開始され、領域626に触れてから領域624に触れるとページを進む機能が開始される。図10Dでは、領域637に触れてから領域634に触れるとページを戻る機能が開始され、領域634に触れてから領域637に触れるとページを進む機能が開始される。図12Aおよび12Bでは、それぞれ領域722および724に触れてから、それぞれ領域720および728に触れるとページを進む機能が開始され、それぞれ流域720および728に触れてから、それぞれ領域722および724に触れるとページを戻る機能が開始される。図13A、13B、および13Cでは、それぞれ領域734、738、746に触れてから、それぞれ領域736、742、748に触れるとページを進む機能が開始され、それぞれ領域736、742、748に触れてから、それぞれ領域734、738、746に触れるとページを戻る機能が開始される。
本発明の例証的実施形態によるマウスは、2つのタッチセンサに連続して触れる代わりに1つのタッチセンサに触れるだけで、ページ間移動機能を開始するように構成できることに留意されたい。したがって、図10Cでは、領域624に触れるとページを進む機能が開始され、領域626に触れるとページを戻る機能を開始することができる。同様に、図13Aの領域734に触れることによりページを進む機能を開始し、図13Aの領域736に触れることによりページを戻る機能を開始することができる。これに関連して、本発明のタッチセンサは、1998年9月14日に出願された米国特許出願第09/153,148号「INPUT DEVICE WITH FORWARD/BACKWARD CONTROL」に記載されるサイドスイッチの機能を提供するものである。上記発明の発明者は本発明の譲受人にその出願を譲渡する義務を負っていた。
上記のようなタッチエリアを使用して行うページ間移動機能を図32〜34に示す。図32のディスプレイ460は、現在のページ464を表示したインターネットブラウザウィンドウ462を示している。ユーザは、現在のページ464の前に表示されていたインターネットページに戻ることにより、図33のインターネットブラウザウィンドウ472に示す過去のページ470を表示することができる。ユーザは、上記のようなタッチセンサの組み合わせを使用して、図34のディスプレイ480のブラウザウィンドウ478に示す次のページ476に進むことができる。次のページ476に進むためには、ユーザはどこかの時点で次のページ476から現在のページ464に戻らなければならない。
タッチセンシティブなコントロールへの接触、あるいは著しい近接状態に対する様々な反応は組み合わせて使用できることを理解されたい。例えば、ユーザがあるボタンに最初に接触した際にはそのボタンの機能を表示することができる。一実施では、ユーザが規定の時間量(例えば5秒間)よりも長くそのボタンへの接触を続けると、より詳細なステータス情報を表示するか、あるいはユーザがGUIを利用できるようにすることが可能である。あるいは、所定の時間内にわたって同じボタンに継続的に接触すると、そのボタンの機能が表示されその後GUIが現れるなど異なるタイプの情報を表示させることができる。最初の接触の後に触覚または聴覚によるフィードバックを提供することもでき、所定の時間内に2度目の接触があるか、規定の時間にわたって接触が検出されると、1度目と同じ情報あるいはより詳細な情報の表示が現れる。
入力装置またはその装置の補助用コントロールとユーザとの接触、または近接状態が検出されるのに応答して、表示ウィジェットの画面上表示が瞬時に起こるようにすることが可能である。しばしば、例えばユーザが単に触れるのではなくある機能を起動するためにコントロールまたは装置を起動する場合に、表示ウィジェットが画面にすぐに現れて消えないように、画面への表示ウィジェットの表示をわずかに遅らせることが望ましい場合がある。表示ウィジェットの表示を所定の時間量遅らせることにより、アクティブ状態のアプリケーションや、入力装置およびその補助用コントロールの動作に精通しており、ある機能を起動するために装置またはそのコントロールを直ちに起動する(例えばボタンを押すなど)ユーザに対して、例えばツールヒント情報を含んだ表示ウィジェットを不必要に表示しないようにすることができる。表示の制御に対応するための本発明によるいくつかの例示的技術について以下で説明する。
本発明の一実施形態では、およそ0.3秒間の短い時間を使用する。この例では、ユーザがこの短時間以下にわたって、キーまたはその他のコントロールに接触するが、それを起動しないと画面上表示が表示される。この短い時間に達する前にユーザがコントロールを起動した場合は、ユーザがコントロールに接触したのに応答する画面上表示は表示されない。
本発明のいくつかの実施形態によると、コントロールを起動する(例えばつまみを回す)と、制御されている機能の状態(例えば音量)が変化し、ユーザが状態(例えば音量設定)を変えると(例えば音量設定用の)GUIを表示することができる。これに対し、短時間全体にわたって起動せずに触れた場合は、その機能の既存の状態(例えば現在の音量)を表すGUIを表示させることができ、その状態は変化しない。
同様に、本発明の実施形態によると、ユーザがコントロールとの接触をやめた際の、画面上表示の消去またはフェードアウトの制御にも短い時間を使用することができる。この例では、画面上表示は短い時間中には表示されたままで、その時間を過ぎると、画面上表示は消えるか、またはフェードアウトする。短い時間に達する前にユーザが再度コントロールに触れると、画面上表示は表示されたままになる。これと同様の時間は、ユーザによるコントロールへの接触を検出すると表示ウィジェットを消去し(すなわち消えるか、またはフェードアウトする)、コントロールとの接触をやめると表示ウィジェットが再び現れるか、あるいはフェードインするような本発明の実施形態に応用できることを理解されたい。
本発明の例証的実施形態によると、ツールヒントまたはその他の情報を含んだ表示ウィジェットを表示する際、その表示の方式は、コントロール、タイムアウト、およびマウスの動きなど他の情報を含む複数の基準に基づくことができる。図35A〜35Cは、ツールヒントのような表示ウィジェットを表示画面に表示させるタッチセンシティブなマウスに関連する時間設定(timing)および条件についての、3つの例示的な代替案を図式的に示したものである。
図35Aは、短いタイムアウト(Δt)の後にボタンのツールヒントが表示画面に表示される例示的実施形態の時間設定図を示している。図でボタンに触れる時間が短いタイムアウト期間(Δt)未満になっているように、ユーザがわずかな間ボタンに触れるか、起動する前にわずかな間ボタンに触れるか、あるいはうっかりタッチセンサをかすった場合でも、タイムアウトがボタンツールを抑制している。また、図に示すように、短いタイムアウト(Δt)よりも長くボタンに触れるとツールヒントが表示される。このツールヒントは、ユーザがボタンとの接触を解除するまで表示されている。この例では、マウスの動きはツールヒントの表示にまったく影響を与えない。
本発明の例証的実施形態の図35Bの時間設定図によると、ボタンのツールヒントは、ユーザがボタンに触れ(起動はしない)、マウスを動かした時には表示されない。ユーザが、タイムアウト期間(Δt)にわたってボタンへの接触を続け、マウスの移動をやめると、そのボタンのヒントが表示される。図35Aのように、ツールヒントはユーザがボタンとの接触を解除するまで表示されている。
図35Cに示す時間設定図では、ユーザがボタンに触れマウスが静止しているときに、ユーザがタイムアウト期間(Δt)にわたってそのボタンに触れ続け、マウスを動かさないとツールヒントが表示される。図35Aおよび35Bと同様に、このツールヒントはユーザがボタンとの接触を解除するまで表示されている。
タッチセンシティブな入力用コントロールについての表示の表示方式の別の態様は、ユーザによるボタンまたは他の入力用コントロールの起動に対する、ツールヒントまたは他の表示ウィジェットの反応に関連するものである。ユーザはコントロールを起動してしまうと、もはやフィードバック(起動の結果行われる動作、その他についての)を希望しない場合がある。例えば、ユーザがあるボタンをクリックした(ボタンダウンイベント)時に、そのボタンのツールヒントを瞬時に消す(またはフェードアウトする)ことができる。また、ユーザがボタンへの接触を続けていてボタンアップイベントが発生したときには、ボタンのツールヒントを再度表示しても、または隠したままにしてもよい。このコンピュータシステムでは、ツールヒントが消える前に、そのボタンクリックをツールヒントに表示される情報と関連付ける視覚的フィードバックを表示することもできる。図36Aに示す時間設定図で表すような例証的実施形態によると、ボタンクリックによってボタンダウンイベントが起こると、ユーザがそのボタンを離し、起動せずにそのボタンに再度触れてから期間Δtが経過するまで、そのボタンのツールヒントは再び表示されない。別の表現で説明すると、図36Aに示すように、あるボタンの起動後、そのボタンのタッチセンサの次の立ち上がりエッジの後そのボタンのツールヒントは表示されない。図36Bの時間設定図によって表す本発明の別の実施形態によると、ボタンダウンイベントの後にボタンアップイベントがあった後、タイムアウトΔtの経過時にユーザがそのボタンとの接触を維持していればボタンのツールヒントが再び表示される。
本発明の別の実施形態は、1つの入力装置の複数のコントロールへの同時の接触に関するものである。ユーザが第2のコントロールに触れながら、1つのコントロールとの接触を維持した場合は、第2コントロールについての画面上表示または他のフィードバックが生成される。あるいは、例えばキーの組み合わせなどのコントロールの組み合わせによって、特定の機能を定義することができる。この例では、その組み合わせ(例えばキーの組み合わせ)のツールヒントは、2つのキーが同時に触れられ起動されないときに表示されるが、第1のキーへの接触に関連付けられたツールヒントがある場合には、その上に重なる形で表示される。ユーザがコントロールの1つから手を離すと、画面上表示は完全に消え、もう一方の触れられているコントロールについてのフィードバックを元の状態に戻すことができる。
本発明の別の実施形態では、GUIの形態の画面上表示が表示される、あるいはフェードインすると、そのGUIは、カーソルまたはポインタ(例えばマウスの動きによる)をその中に置いても、ユーザがそのGUIを表示させたコントロール(例えばタッチセンシティブなマウスのボタン)との接触をやめても表示されている。この例のGUIは、最終的には、そのGUIの外側でのカーソルの動き(例えばマウスの動き)や別のコントロールの起動に応答して、または、コンピュータがマウスの動きなどの入力を全く受信しない所定の非アクティブ期間(例えば5秒間)の後に消えることができる。
本発明の例証的実施形態によると、画面上表示は、アニメーションによる変化を使用してフェードインおよびフェードアウトすることができる。画面上表示の表示および消去を制御する技術は、単独で使用しても組み合わせて使用してもよいことを理解されたい。以下で、アニメーションによる変化を提供する本発明の一実施形態について図37との関連で説明する。
図37は、PC20内に位置し、Tool Glassシートまたはツールバーのような表示ウィジェットをオンデマンド方式で表示および消去するための、高レベルのソフトウェアおよびハードウェア構成要素の簡略化ブロック図900を表している。図37に示すように、これらの構成要素には、アプリケーション36、オペレーティングシステム35、ビデオアダプタ48、ディスプレイ47、入力インタフェース46、および入力装置43が含まれる。アプリケーションプログラム36(例えばワードプロセッシングまたは表計算のプログラム)はその中にGUI910を含むことができ、そのGUIの中に、フェードイン/フェードアウトアニメーションプロセス915と、ビットマップジェネレータ920を含むことができる。ビットマップジェネレータ920は、Tool Glassパターン922、ツールバーパターン924、およびその他の表示ウィジェットパターン926を含んでいる。他の構成要素には、オペレーティングシステム35内の入力装置ドライバ60、およびグラフィックAPI(アプリケーションプログラミングインタフェース)940が含まれる。
入力装置43から提供される接触出力は、それぞれ線(lead)903および907で表すように入力インタフェース46に加えることができる。このインタフェースは、各入力装置のそれぞれのタッチセンシティブな構成要素(例えば補助用コントロール)の接触センサによってその時に接触が感知されているかまたはされていないかを反映した個別の信号を生成することができる。これらの信号は、線905で表すように、オペレーティングシステム35内で構成要素を形成している入力装置ドライバ60に送ることができる。このデバイスドライバは入力装置が生成した信号を解釈し、それに応答して適切なイベントを生成する。接触に関しては、このイベントで、特定の入力装置と、例えば手の接触が検出されるかなどそれに対応するタッチセンサの状態を指示することができる。このイベントはオペレーティングシステム35によりアプリケーション36に渡し、最終的にはそのアプリケーションの中のGUIプロセス910に渡すことができる。このプロセス中で、イベントは、フェードイン/フェードアウトアニメーションプロセス915によって処理される。アニメーションプロセスは、各入力装置の状態変化の発生、すなわちその装置が手の接触の感知を開始したばかりであるかまたは接触の感知をやめたところであるか、および表示ウィジェット(例えばTool Glassまたはツールバー)が現在表示されているかいないかに応答して、表示ウィジェットを制御可能な方式でフェードインまたはフェードアウトするための所定のアニメーションシーケンスを生成する。
ビットマップジェネレータ920は、通例はテクスチャマップである所定のパターン922、924、および926を記憶しているが、これらはそれぞれTool Glassシート、所定のツールバー、および/または他の表示ウィジェットを含む各種の表示ウィジェット用である。通例、これらのパターンは別々のファイルとしてアプリケーション内に記憶されている。アプリケーションプログラム36が起動されると、そのアプリケーションは、初期化中、またはウィジェットの変更があればその後に、線930を介してこのパターンをグラフィックAPI940にダウンロードする。グラフィックAPI940はこのパターンをグラフィックアクセラレータ(図示せず)に送り、その中にあるローカルストレージにテクスチャマップとして記憶させることができる。あるいは、このダウンロードはオペレーティングシステム35が提供するサービスによって管理してもよい。
それに続く表示中に、アクセラレータはそのローカルストアから上記のマップを読み出し、それを適切に多角形に埋め、その結果得られるマップを埋めたパターンをディスプレイ47に描画する。次いで、制御されたフェードインまたはフェードアウト動作のためにこのマップをダウンロードすると、アニメーションプロセス915は、グラフィックアクセラレータがそれに対応する表示ウィジェットのマップを埋めたパターンを描画する際のアルファ透明値を変える。ツールバーの場合、アルファ透明値は透明値の範囲全体にわたって変化させる(すなわち、0〜1αの線形目盛でおよそ0αから1.0αの間。この場合0αが完全な透明で、1.0αが完全な不透明になる)。Tool Glassシートの場合、アルファ透明値は、通例0αからおよそ0.7αの範囲で変化させる。つまり、最大の不透明度で描画したTool Glassシートでも、その下にある文書オブジェクトはなおシートを通して(多少ぼやけて)見ることができる。
基本的に、フェードインまたはフェードアウトの動作の場合、アニメーションプロセス915は、所定の時間間隔にわたって一連の命令を発する。この命令は具体的には、異なる表示フレームそれぞれに対する、特定の表示ウィジェットを表示する際にアルファ透明値を連続的に変えさせる命令である。同じく線930で表すように、この命令はオペレーティングシステム35に対して発行され、オペレーティングシステムは次いでそれをグラフィックAPI940に渡し、最終的にはグラフィックアクセラレータに渡される。
フェードインは、およそ0.3〜0.5秒など比較的短い時間(interval of time)にわたって行うべきである。しかし、ユーザの気を散らさないように、フェードアウトは約0.7〜1.0秒など比較的長い時間をかけて行う方がよい。特にフェードインの際には、この時間の間にアルファ透明値を一般には非線形の方式で変化させる。経験により、一般に画面アニメーションで使用される従来のスローイン/スローアウト技術を利用することを選択した。この技術では、不透明度は最初、完全には透明でなくとも実質的に透明な状態(つまり実質的に目に見えない状態)からやや遅い速度で中間値まで変化し、次いでやや速度を速めて別の中間値まで増加し、さらに速度を増すと再び速度を落として最大の不透明度(例えばツールバーの場合は1α、Tool Glassシートの場合は0.7α)に達する。これは、時間の関数であるほぼ「S」字型の不透明度曲線になる。これと同じ透明度の変化を、表示ウィジェットをフェードアウトさせる際に使用する(ただし方向は逆になる)。フェードインおよびフェードアウト期間中に不透明度を変化させるために、線形関数など、他の時間ベースの不透明度関数を使用できることは言うまでもない。最終的には、選択する特定の関数(フェードアウトとフェードインに異なる関数を使用することもできる。実際、所望の場合には異なる表示ウィジェットに上記のように異なる関数を使用することができる)は、適切なユーザによる試験を通じて経験的に決定する可能性が高い。
さらに、人間の目は、通常の輝度では、青の色調など他の色調よりも例えば赤の色調など特定の色に対して高い感度を示す。このため、前者のような色を含む表示ウィジェットをフェードインさせると、比較的低い輝度であってもユーザの気を散らす可能性があり、特にそのような色が鮮明になるのに従ってより気を散らす可能性がある。このようにユーザの気を散らすのを回避するために、表示ウィジェットは、所望の配色および輝度による最終的なマップを表示するまでは、特に人間の目が最も高い感度を示す色について、異なるあるいは変化する配色および輝度による数種のテクスチャマップによって表現することができる。この場合、最初にそのウィジェットの白黒のテクスチャマップを表示し、次いでフェードイン中の適切な時に、同じウィジェット用のテクスチャマップで、望ましい配色を有し輝度が増したテクスチャマップ(さらに言えば異なる配色でもよい)を描画し、そしてフェードイン期間の最後に、最終的な配色および輝度を有するテクスチャマップを描写する。フェードアウトはこれと同様の方式で行うことができるが、その順序は逆になる。例えば、表示ウィジェットは、次第に輝度が低下する有色のテクスチャマップの連続を使用して白黒のマップまでフェードアウトし、その後白黒のマップがそれ自体で完全な透明までフェードアウトすることができる。あるいはフェードアウトの始めに、ウィジェットの白黒マップに変化し、そこから完全な透明までフェードアウトすることができる。
グラフィックアクセラレータを使用しない場合は、線955で表すように、グラフィックAPI940が、グラフィック出力を直接ビデオアダプタ48(具体的には、図示していないがその中にある標準的なビデオカード)に提供することができる。するとビデオアダプタ48は適切なビデオ信号を生成し、それをディスプレイ47に加える。この例では、コンピュータシステムは、ソフトウェア中のグラフィックアクセラレータから提供されるであろう適切なグラフィック機能を実施するのに十分な速度で動作できる必要がある。さらに、フェードインおよびフェードアウトのグラフィック機能がサポートされない場合には、他の視覚技術によって表示ウィジェットの表示および消去を行うことができる。この技術には、例えば、ウィジェットを画面外の位置から画面の上にスライドまたは移動(shuffle)することにより、単にウィジェットを平行移動する技術、ツールを瞬間的かつ完全に表示または消去する技術、ウィジェットを回転させ(例えば、ツールバーが3Dの面上にあり、回転して所定の位置につく場合など)、かつ/またはインタフェースツールまたは文書の一部を徐々に拡大する、あるいは徐々に縮小する技術、が含まれる。ただし、これらの技術では、ツールバーおよびTool Glassシートのような表示ウィジェットは完全に不透明な表示に限られる。これらの技術はいずれも、アルファ透明度をサポートするグラフィックアクセラレータによるフェーディングと合わせて使用することもできる。
アルファ透明機能は、既存の幅広いグラフィックアクセラレータでサポートされているが、この機能は、D3D(WINDOWS(登録商標)オペレーティングシステムの標準コンポーネントとして、現在マイクロソフト社によって製造されている3DグラフィックAPI)、OpenGL(当技術分野で現在入手可能)、またはGDI(歴史的には2Dの低レベルグラフィック処理レイヤに過ぎない。現在マイクロソフト社が製造しており、WINDOWS(登録商標)オペレーティングシステムの標準コンポーネントとして内蔵されている)、など従来の2D(2次元)および3D(3次元)のグラフィックAPIにより、よく知られる方式で容易にソフトウェアでシミュレートすることができる。
表示画面が、ツールバーとTool Glassシートの両方(あるいは他の表示ウィジェットの組み合わせ)を同時に表示する場合が考えられる。このような場合は、意図しない対話を行ったことによって、両方のツールがフェードインまたはフェードアウトする可能性がある。このような対話、およびそれに伴うユーザのフラストレーションを防ぐために、当技術の範囲内にある適切な決定プロセスをアニメーションプロセス915に組み込んで、2つの表示ウィジェットの両方ではなく1つだけをフェードインまたはフェードアウトさせることができる。例えば、両方のツールが表示されていて、ユーザがタッチマウス(Touch Mouse)を操作した場合は、Tool Glassだけをフェードアウトさせ、ツールバーは完全に表示された状態を保つ。特定の決定プロセスは、同時に表示することができる特定のウィジェットによって制御され、それらのウィジェットの1つまたは複数の表示を継続する必要性は、その時に実行中の動作、およびウィジェット間の相対的な表示優先順位を含む、そのアプリケーションのその時点のコンテキスト設定に基づく。
本発明は、接触の感知以外にも他の感知技術を利用してオンデマンドの動作を起動することができることを理解されたい。そのような感知技術には、例えば、皮膚電気反応、非接触の近接センサ、圧力センサ、キーボード上のタッチ/近接センサからのイベント、GPS(全地球測位システム)受信機からのデータ(ユーザの位置、またはモバイルコンピュータの位置)、カメラからのビデオデータ、およびマイクロフォンからの音声データなどである。
本発明の特定の実施形態について説明し、図示したが、当業者はこれに修正変更を行うことができることから、本発明はそれに限定されるものではないことを理解されたい。本出願は、本明細書に開示し、特許請求する基礎となる発明の精神および範囲内にある変更修正すべてを意図している。
本発明の例証的実施形態によるコンピュータシステムのブロック図である。 本発明による入力装置の例示的実施形態のより詳細なブロック図である。 本発明の例証的実施形態によるヘッドセットの透視図である。 (A)は本発明の例証的実施形態によるマウスの透視図であり、(B)は(A)のマウスの下面図であり、(C)は(A)のマウスの例示的な回路基板の透視図である。 本発明によるマウスの別の例証的実施形態の上面図である。 (A)および(B)は本発明によるマウスの別の例証的実施形態の左側面図であり、(C)および(D)は本発明によるマウスの別の例証的実施形態の右側面図である。 (A)および(B)はそれぞれ、本発明によるマウスの別の例証的実施形態の左側面図および上面図である。 (A)および(B)はそれぞれ、本発明によるマウスの別の例証的実施形態の左側面図および上面図である。 (A)〜(C)は順に(respectively)、本発明によるマウスの別の例証的実施形態の左側面図、上面図、および右側面図である。 (A)〜(H)は本発明によるマウスボタンの各種例示的実施形態の上面図である。 (A)は本発明によるマウスの別の例証的実施形態の上面図であり、(B)は本発明によるマウスの別の例証的実施形態の上面図である。 (A)および(B)は本発明によるマウスの異なる例示的実施形態の右側面図である。 (A)〜(D)は本発明によるマウスの異なる例示的実施形態の左側面図である。 (A)〜(D)は本発明による、ホイールに近接したタッチセンサを示したマウスの各種例示的実施形態の上面図である。 本発明による例証的トラックボールの透視図である。 本発明によるジョイスティックを有する例示的ゲームコントローラの透視図である。 本発明による例示的ゲームコントローラの透視図である。 (A)は本発明による例証的キーボードの透視図であり、(B)および(C)は本発明による例証的キーボードの一部を示す図である。 本発明による例証的タッチパッドの透視図である。 図1のコンピュータのより詳細なブロック図である。 本発明の入力装置に触れる前に表示することのできる例証的画面表示の図である。 本発明の入力装置に触れた後の例証的画面表示の画像の図である。 本発明により起動されたプルダウンメニューを示した例証的画面表示の画像の図である。 本発明により開かれた第2のプルダウンメニューを示した例証的画面表示の画像の図である。 本発明によりプルダウンメニュー中で選択されたアイテムを示した例証的画面表示の画像の図である。 本発明による放射状メニューを示す例証的画面表示の画像の図である。 本発明の例示的実施形態により表示画面に表示することのできる例証的グラフィカルユーザインタフェースの図である。 本発明の例示的実施形態により表示画面に表示することのできる例証的な画面上表示の図である。 (A)および(B)は本発明の例示的実施形態により表示画面に表示することのできる例証的なツールヒントの視覚的フィードバックの図である。 (A)および(B)は本発明の例示的実施形態により表示画面に表示することのできる例証的な視覚的フィードバックの図である。 本発明の例示的実施形態により表示画面に表示することのできる例証的な視覚的フィードバックの図である。 現在のページを含んだウェブブラウザを示す例証的画面表示の画像の図である。 以前閲覧したページを含んだウェブブラウザを示す例証的画面表示の画像の図である。 次のページを含んだウェブブラウザを示す例証的画面表示の画像の図である。 (A)〜(C)は本発明の例証的実施形態による、ツールヒントの表示を制御するための例証的時間設定図である。 (A)および(B)は本発明の例証的実施形態による、ツールヒントの表示を制御するための例証的時間設定図である。 PC20内に位置し、本発明の例示的実施を集合的に形成するソフトウェアおよびハードウェア構成要素を簡略化した高レベルのブロック図900である。
符号の説明
20 パーソナルコンピュータ
21 処理装置(CPU)
22 システムメモリ
23 システムバス
24 読み出し専用メモリ
25 ランダムアクセスメモリ
26 BIOS
27 ハードディスクドライブ
28 磁気ディスクドライブ
29 取り外し可能磁気ディスク
30 光ディスクドライブ
31 光ディスク
32 ハードディスクドライブインタフェース
33 磁気ディスクドライブインタフェース
34 光ディスクドライブインタフェース
35 オペレーティングシステム
36 アプリケーションプログラム
37 プログラムモジュール
38 プログラムデータ
40 タッチセンサ
42 移動トランスデューサ
43 入力装置
45 スピーカ
46 シリアルポートインタフェース
47 モニタ
48 ビデオアダプタ
49 リモートコンピュータ
50 メモリ記憶装置
51 LAN
52 WAN
53 アダプタ
54 モデム
60 デバイスドライバ
100、102、104、106 タッチセンサ
108、110、112、114 導線
116 A/D変換器およびマルチプレクサ
118 線
120、200 マイクロコントローラ
122 入力(入力線、線)
124 出力
150 ヘッドセット
152 マイクロフォン
154 支持ピース
156 タッチセンサ
158 出力線
170、690 マウス
172、600、604、704、710、780 パームレスト
174 左ボタン
176 右ボタン
178、764、768、774 ホイール
180 側面
182 出力線
184、186 側面領域
189 電子回路
190、220、228 トラックボール(ボール)
192 トラックボールネスト
194、196、203 エンコーダホイール
201、202、204 スイッチ
206 センサ配列
222、242 基部
224、226、248、250、252、312A〜312G ボタン
244 ハンドル
246 トリガ
260 ゲームパッド
262、264 サイドボタン
266、268、270、272、274、276 左手ボタン
278、280、282、284、286、288 右手ボタン
290 開始ボタン
292 選択ボタン
300 キーボード
301 キーボードケース
302 QWERTY配列
304 数字キーパッド
306、307、309、311 部分
308 スペースバー
310 矢印キー
314 コントロール用つまみ
315 ロッカースイッチ
320、350 画面
322、354 仮想デスクトップ
328、352 ウィンドウ(アクティブウィンドウ)
324、326 アイコン
330 カレット
332 ツールヒント
334 ツールバー
356、360 プルダウンメニュー(プルダウンウィンドウ)
358 メニューバー(ヘッダメニュー)
362、364、366、371、373 項目
370 放射状メニュー
372 キャンセルボタン
460、480 ディスプレイ
462、472、478 インターネットブラウザウィンドウ
464、470、476 ページ
602、603、605、607、608、610、612、614、616、624、626、634、637 648、672、720、722、724、726、728、734、736、738、740、742、744、746、748、762、766、770、772 センサ(タッチセンサ、領域)
606 左側面
618 固体センサ
620、752 センサストリップ(ストリップ)
640 音声生成装置
662 MIDIウェーブテーブルシンセサイザ
224、226、622、630、646、660、700、702、706、708、2220、2240、2260、2280 ボタン
613 側端
627 前端
628、636 隆起部
641、642、643、644、650、651、652 センサ領域
674 中央センサ
692 左側面センサ
694 パームセンサ
696 右側面センサ
698 ボタンセンサ
776 前部領域
778 後部領域
810 メッセージフックプロシージャ
812 フォーカスアプリケーション
900 ブロック図
903、905、907、930 線
910 GUI
915 フェードイン/フェードアウトアニメーションプロセス
920 ビットマップジェネレータ
922、924、926 パターン
940 グラフィックAPI
2000 タッチパッド
2100 表面(タブレット)

Claims (34)

  1. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している第1の所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    第1のコンテキストにおいて前記検出するステップに応答して前記表示画面に第1の表示ウィジェットを表示するステップであって、前記第1の表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと、
    前記第1のコンテキストとは異なる第2のコンテキストにおいて、前記検出するステップに応答して前記表示画面に第2の表示ウィジェットを表示するステップであって、前記第2の表示ウィジェットは前記第2のコンテキストと関連付けられたステータス情報を提供するステップと
    を含むことを特徴とする方法。
  2. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと
    を備え、前記ステータス情報は、マルチメディアアプリケーションの場合、前記ステータス情報が、曲名、残りの曲時間、曲の長さ、アルバムタイトル、およびアルバム全体の長さのうち少なくとも1つを示すことを特徴とする方法。
  3. 前記表示するステップが、マルチメディアコントロールパネルを表示することをさらに含むことを特徴とする請求項に記載の方法。
  4. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと
    を備え、前記ステータス情報がゲームに関連することを特徴とする方法。
  5. 第1の補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    前記第1の補助用コントロールが現在の状態を維持している所定の期間にわたって、前記第1の補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと、
    前記第1の補助用コントロール以外の第2の補助用コントロールに応答して、前記表示ウィジェット中の前記ステータス情報を変えるステップと
    を含むことを特徴とする方法。
  6. 前記第1の補助用コントロールがヘッドセットまたはマイクロフォンであることを特徴とする請求項に記載の方法。
  7. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと
    を備え、前記ステータス情報が、現在実行中のアプリケーションを示すことを特徴とする方法。
  8. ユーザが前記補助用コントロールを使用してアプリケーションを選択するのに応答して、示される前記アプリケーションを前記表示画面の最前面に配置するステップをさらに含むことを特徴とする請求項に記載の方法。
  9. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと
    を備え、前記ステータス情報がタスクバーを含むことを特徴とする方法。
  10. 前記表示ウィジェットを表示した状態で、第2の所定期間にわたる、前記補助用コントロールに近接または接触した前記物理的存在の不在を検出するステップと、
    前記物理的存在の前記不在の検出に応答して、前記表示ウィジェットの表示を中止するステップと
    をさらに含むことを特徴とする請求項に記載の方法。
  11. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    前記補助用コントロールが現在のコントロール状態を維持する所定期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出ステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが、前記補助用コントロールに関連付けられたステータス情報を提供するステップと
    を備え、前記補助用コントロールがジョイスティックまたはホイールの1つであることを特徴とする方法。
  12. 前記補助用コントロールが、ボタンまたはキーのいずれかであることを特徴とする請求項5に記載の方法。
  13. 前記物理的存在がユーザの手であることを特徴とする請求項に記載の方法。
  14. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している第1の所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと、
    前記表示ウィジェットを表示した状態で、第2の所定期間にわたる、前記補助用コントロールに近接または接触した前記物理的存在の不在を検出するステップと、
    前記検出ステップに応答して、前記表示画面上の前記表示ウィジェット内にポインタが置かれているかどうかを判定するステップと、
    前記ポインタが前記表示ウィジェット内に置かれていない場合、前記表示ウィジェットの表示を中止するステップと
    をさらに含むことを特徴とする方法。
  15. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと
    を備え、前記ステータス情報が、アクティブ状態の1つのアプリケーションにのみ適用できることを示すことを特徴とする方法。
  16. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと
    を備え、第1のアプリケーションがアクティブである際に表示される、前記補助用コントロールに関連付けられたステータス情報のタイプが、第2のアプリケーションがアクティブである際に表示される、前記補助用コントロールに関連付けられたステータス情報のタイプと異なることを特徴とする方法。
  17. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと
    を備え、前記ステータス情報が、メッセージング(messaging)に関連する情報であることを特徴とする方法。
  18. 前記ステータス情報に、新着(new)または未読の、標準的優先度または高優先度のメッセージの数、インボックスウィンドウ、最も新しく受信したメッセージの少なくとも1つに関する簡潔な情報、および警告ステータスの1つが含まれることを特徴とする請求項17に記載の方法。
  19. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと
    を備え、ウェブブラウザがアクティブなアプリケーションであるときに、前記ステータス情報が、最も最近使用した検索の少なくとも1つ、最も最近得られた検索結果の少なくとも1つ、訪問することが可能な前のウェブページおよび次のウェブページの識別、気に入っているウェブページのリスト、および現在のページローディング情報を含むことを方法。
  20. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと
    を備え、前記ステータス情報が、プリンタのステータス情報を提供することを特徴とする方法。
  21. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと
    を備え、前記ステータス情報が、クリップボードの内容を示すことを特徴とする方法。
  22. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと
    を備え、前記ステータス情報が、最も最近保存されたファイルの時刻、日付、場所、ファイルタイプ、およびサイズのうち少なくとも1つを示すことを特徴とする方法。
  23. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと
    を備え、前記補助用コントロールが数学演算子を表すキーであり、表計算のアプリケーションにおいて、前記ステータス情報が、前記数学演算子を表計算中のデータに適用した場合の結果を示すことを特徴とする方法。
  24. 前記補助用コントロールが、前記表示画面のスクロール機能を制御するように構成され、前記ステータス情報が前記ホイールの設定を識別することを特徴とする請求項11に記載の方法。
  25. 補助用コントロールおよび表示画面を有するコンピュータシステムにおいて、
    補助用コントロールが現在の状態を維持している第1の所定の期間にわたって、前記補助用コントロールに近接または接触している物理的存在を検出するステップと、
    前記検出するステップに応答して前記表示画面に表示ウィジェットを表示するステップであって、前記表示ウィジェットが前記補助用コントロールと関連付けられたステータス情報を提供するステップと
    を備え、前記補助用コントロールが前記表示画面のスクロール機能を制御するように構成され、前記ステータス情報はホイールのセッティングを示すことを特徴とする方法。
  26. 前記情報が表示ウィジェットを含むことを特徴とする請求項25に記載の方法。
  27. 前記表示ウィジェットに、スクロールバーまたはツールバーが含まれることを特徴とする請求項26に記載の方法。
  28. 前記表示画面から前記情報を消した後、第2の所定期間にわたる、前記補助用コントロールに近接または接触した前記物理的存在の不在を検出するステップと、
    前記第2の所定期間にわたる前記物理的存在の前記不在を検出するのに応答して、前記情報を前記表示画面に再度表示するステップと
    をさらに含むことを特徴とする請求項25に記載の方法。
  29. 前記補助用コントロールがポインティングデバイスホイールであることを特徴とする請求項25に記載の方法。
  30. 前記補助用コントロールが、スクロール機能を制御するように構成されていることを特徴とする請求項25に記載の方法。
  31. 前記補助用コントロールがホイールまたはタッチパッドであることを特徴とする請求項30に記載の方法。
  32. 前記補助用コントロールが、ボタンまたはキーのいずれかであることを特徴とする請求項25に記載の方法。
  33. 前記第1の表示ウィジェットおよび前記第2の表示ウィジェットが異なることを特徴とする請求項に記載の方法。
  34. 前記第1の表示ウィジェットは第1のアプリケーションと関連付けられ、前記第2の表示ウィジェットは前記第1のアプリケーションとは異なる第2のアプリケーションと関連付けられることを特徴とする請求項1に記載の方法。
JP2008224168A 2001-03-13 2008-09-01 補助用コントロールおよび表示画面を有するコンピュータシステムおよび方法 Expired - Fee Related JP4758464B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/804,496 US7256770B2 (en) 1998-09-14 2001-03-13 Method for displaying information responsive to sensing a physical presence proximate to a computer input device
US09/804,496 2001-03-13

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002069359A Division JP4737912B2 (ja) 2001-03-13 2002-03-13 コンピュータ入力装置に近接する物理的存在の感知に応答して情報を表示する方法

Publications (2)

Publication Number Publication Date
JP2008287746A true JP2008287746A (ja) 2008-11-27
JP4758464B2 JP4758464B2 (ja) 2011-08-31

Family

ID=25189109

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2002069359A Expired - Fee Related JP4737912B2 (ja) 2001-03-13 2002-03-13 コンピュータ入力装置に近接する物理的存在の感知に応答して情報を表示する方法
JP2008224168A Expired - Fee Related JP4758464B2 (ja) 2001-03-13 2008-09-01 補助用コントロールおよび表示画面を有するコンピュータシステムおよび方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2002069359A Expired - Fee Related JP4737912B2 (ja) 2001-03-13 2002-03-13 コンピュータ入力装置に近接する物理的存在の感知に応答して情報を表示する方法

Country Status (3)

Country Link
US (2) US7256770B2 (ja)
EP (1) EP1241557A3 (ja)
JP (2) JP4737912B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088446A (ja) * 2010-10-18 2012-05-10 Nec Access Technica Ltd 画面制御装置、プログラム及び方法

Families Citing this family (226)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7834855B2 (en) * 2004-08-25 2010-11-16 Apple Inc. Wide touchpad on a portable computer
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7373592B2 (en) * 1999-07-30 2008-05-13 Microsoft Corporation Modeless child windows for application programs
US6661410B2 (en) 2001-09-07 2003-12-09 Microsoft Corporation Capacitive sensing and data input device power management
CN1280698C (zh) * 2001-09-24 2006-10-18 皇家飞利浦电子股份有限公司 交互式系统以及交互方法
US20030076067A1 (en) * 2001-10-19 2003-04-24 Ashmore C. Rucker Method and apparatus for electronically controlling a motorized device
US20080294300A1 (en) * 2001-10-19 2008-11-27 Ashmore C Rucker Method and apparatus for electronically controlling a motorized device
US7176882B2 (en) * 2001-11-12 2007-02-13 Ken Alvin Jenssen Hand held control device with dual mode joystick for pointing and scrolling
US20030137491A1 (en) * 2002-01-23 2003-07-24 Wen-Hsiu Kuo Computer mouse with multimedia hot-keys
US20050078089A1 (en) * 2002-01-23 2005-04-14 Wen-Hsiu Kuo Computer mouse with multimedia hotkeys and processing method thereof
US6703599B1 (en) * 2002-01-30 2004-03-09 Microsoft Corporation Proximity sensor with adaptive threshold
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7233318B1 (en) 2002-03-13 2007-06-19 Apple Inc. Multi-button mouse
WO2003083634A1 (en) * 2002-04-03 2003-10-09 Sony Ericsson Mobile Communications Ab A method of navigating in a virtual three-dimensional environment and an electronic device employing such method
EP1351120B1 (en) * 2002-04-03 2017-10-25 Sony Mobile Communications Inc. A method of navigating in a virtual three-dimensional environment and an electronic device employing such method
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US6954867B2 (en) * 2002-07-26 2005-10-11 Microsoft Corporation Capacitive sensing employing a repeatable offset charge
US7958455B2 (en) * 2002-08-01 2011-06-07 Apple Inc. Mode activated scrolling
US20040086314A1 (en) * 2002-11-06 2004-05-06 Peter Chen Standard keyboard supporting multimedia functions
JP2006510335A (ja) * 2002-12-16 2006-03-23 マイクロソフト コーポレーション コンピュータ装置とインタフェースをとるシステム及び方法
CN100411007C (zh) * 2002-12-16 2008-08-13 微软公司 与计算机设备接口的系统和方法
EP1573713A4 (en) * 2002-12-16 2010-03-10 Microsoft Corp SYSTEMS AND METHODS OF INTERFA ACE WITH COMPUTER DEVICES
AU2003297172A1 (en) * 2002-12-16 2004-07-22 Microsoft Corporation Systems and methods for interfacing with computer devices
WO2004061592A2 (en) * 2002-12-16 2004-07-22 Microsoft Corporation Systems and methods for interfacing with computer devices
WO2004055660A2 (en) * 2002-12-18 2004-07-01 Koninklijke Philips Electronics N.V. Data processing system with input device
US20040252101A1 (en) * 2003-06-12 2004-12-16 International Business Machines Corporation Input device that detects user's proximity
FI114950B (fi) * 2003-06-24 2005-01-31 Nokia Corp Menetelmä päätelaitteen syöttö- ja näyttöosan visualisoimiseksi ja vastaava päätelaite
US20050115816A1 (en) * 2003-07-23 2005-06-02 Neil Gelfond Accepting user control
CN1833219A (zh) * 2003-08-11 2006-09-13 皇家飞利浦电子股份有限公司 触敏显示器
GB0320383D0 (en) * 2003-08-29 2003-10-01 Zoega Sean A Time display apparatus
DE202004010948U1 (de) * 2003-10-03 2004-10-14 Chen, Richard Fortentwickelte Maus
US8954420B1 (en) 2003-12-31 2015-02-10 Google Inc. Methods and systems for improving a search ranking using article information
US7620915B2 (en) * 2004-02-13 2009-11-17 Ludwig Lester F Electronic document editing employing multiple cursors
US7333976B1 (en) 2004-03-31 2008-02-19 Google Inc. Methods and systems for processing contact information
US8631076B1 (en) 2004-03-31 2014-01-14 Google Inc. Methods and systems for associating instant messenger events
US8275839B2 (en) 2004-03-31 2012-09-25 Google Inc. Methods and systems for processing email messages
US7941439B1 (en) * 2004-03-31 2011-05-10 Google Inc. Methods and systems for information capture
US8346777B1 (en) 2004-03-31 2013-01-01 Google Inc. Systems and methods for selectively storing event data
US8099407B2 (en) 2004-03-31 2012-01-17 Google Inc. Methods and systems for processing media files
US8161053B1 (en) 2004-03-31 2012-04-17 Google Inc. Methods and systems for eliminating duplicate events
US8386728B1 (en) 2004-03-31 2013-02-26 Google Inc. Methods and systems for prioritizing a crawl
US7199353B2 (en) * 2004-05-12 2007-04-03 Mason Electric Co. Optical decoder systems and corresponding methods
US20060012577A1 (en) * 2004-07-16 2006-01-19 Nokia Corporation Active keypad lock for devices equipped with touch screen
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US8113517B2 (en) 2004-07-30 2012-02-14 Wms Gaming Inc. Gaming machine chair
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
EP1646035B1 (en) * 2004-10-05 2013-06-19 Sony Europe Limited Mapped meta-data sound-playback device and audio-sampling/sample processing system useable therewith
US7802186B2 (en) * 2004-10-06 2010-09-21 Microsoft Corporation Property independent in-place editing
GB0427548D0 (en) * 2004-12-15 2005-01-19 Ibm Data processing system
US7417622B2 (en) * 2004-12-15 2008-08-26 Yankee Technology Co., Ltd. Mouse scroll device
US7334193B2 (en) * 2005-01-14 2008-02-19 Microsoft Corporation Start menu user tiles
DE202005001032U1 (de) * 2005-01-22 2005-05-12 Wessling, Herbert Spielautomat
JP2008533559A (ja) * 2005-02-09 2008-08-21 サーク・コーポレーション ユーザの対話を改善するためのキーボードのキーキャップに一体化されたタッチパッド
JP4717461B2 (ja) * 2005-02-14 2011-07-06 キヤノン株式会社 情報入力装置、情報入力方法及び情報入力プログラム
JP2006246259A (ja) * 2005-03-04 2006-09-14 Toshiba Corp 情報処理装置および音量制御方法
US20060244723A1 (en) * 2005-04-28 2006-11-02 Ching-Tzu Chen Method of using a mouse to carry out multimedia adjustments
US20060262116A1 (en) * 2005-05-19 2006-11-23 Hillcrest Laboratories, Inc. Global navigation objects in user interfaces
US7415352B2 (en) 2005-05-20 2008-08-19 Bose Corporation Displaying vehicle information
KR20070013492A (ko) * 2005-07-26 2007-01-31 삼성테크윈 주식회사 효율적인 입력 기능을 가진 디지털 영상 처리 장치 및 그제어 방법
US20070287540A1 (en) * 2005-09-08 2007-12-13 Brahmandam Kiran Soft key hot spot activation system and method
CN102169415A (zh) * 2005-12-30 2011-08-31 苹果公司 具有多重触摸输入的便携式电子设备
US8077153B2 (en) * 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
JP4285500B2 (ja) * 2006-04-25 2009-06-24 トヨタ自動車株式会社 操作装置
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8395658B2 (en) * 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
JP4366393B2 (ja) * 2006-11-06 2009-11-18 アルプス電気株式会社 入力装置
US7831923B2 (en) * 2006-11-28 2010-11-09 International Business Machines Corporation Providing visual keyboard guides according to a programmable set of keys
US8970501B2 (en) 2007-01-03 2015-03-03 Apple Inc. Proximity and multi-touch sensor detection and demodulation
US7907974B2 (en) 2007-01-04 2011-03-15 Microsoft Corporation Scrollable computing device display
US8689132B2 (en) 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
US8665225B2 (en) * 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
US8607167B2 (en) * 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
US8650505B2 (en) * 2007-02-28 2014-02-11 Rpx Corporation Multi-state unified pie user interface
US20080218476A1 (en) * 2007-03-08 2008-09-11 Patel Bharat Bobby Apparatus and method for wrist supporting movement translator and mouse button device
US20080234842A1 (en) * 2007-03-21 2008-09-25 Microsoft Corporation Microphones as contact sensors for device control
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
KR20090019161A (ko) * 2007-08-20 2009-02-25 삼성전자주식회사 전자 장치 및 이를 조작하는 방법
DE102007043658A1 (de) * 2007-09-13 2009-03-26 Siemens Ag Steuerung eines scrollbaren Kontext-Menüs
US20090144621A1 (en) * 2007-12-04 2009-06-04 Microsoft Corporation Recording, playback, and visual representation of macros
WO2009071123A1 (en) * 2007-12-06 2009-06-11 Nokia Corporation Power reduction for touch screens
US10540861B2 (en) * 2007-12-20 2020-01-21 Ncr Corporation Sustained authentication of a customer in a physical environment
US20090172516A1 (en) * 2008-01-02 2009-07-02 Oracle International Corporation Providing Enhanced Information When a Pointing Device Points to a Specific Area In a Graphical User Interface
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
WO2009089050A1 (en) * 2008-01-08 2009-07-16 Cirque Corporation Game controller touchpad providing touch stick functionality and relative and absolute position input
US8232973B2 (en) 2008-01-09 2012-07-31 Apple Inc. Method, device, and graphical user interface providing word recommendations for text input
TW200933440A (en) * 2008-01-17 2009-08-01 Asustek Comp Inc Computer system and multi-media input device thereof
TWM339042U (en) * 2008-01-31 2008-08-21 Mobinnova Corp Input device
US8205157B2 (en) 2008-03-04 2012-06-19 Apple Inc. Methods and graphical user interfaces for conducting searches on a portable multifunction device
US20100020021A1 (en) * 2008-07-22 2010-01-28 General Electric Company Touch screen control system and method
US20100020022A1 (en) * 2008-07-24 2010-01-28 Dell Products L.P. Visual Feedback System For Touch Input Devices
US9335868B2 (en) 2008-07-31 2016-05-10 Apple Inc. Capacitive sensor behind black mask
GB2462434B (en) * 2008-08-05 2013-02-06 Cursor Controls Ltd Pointing Device
JP5219705B2 (ja) * 2008-09-12 2013-06-26 富士通テン株式会社 情報処理装置および情報処理方法
US8050891B2 (en) * 2008-10-17 2011-11-01 Zeemote Technology Inc. Sensor mapping
US8446374B2 (en) * 2008-11-12 2013-05-21 Apple Inc. Detecting a palm touch on a surface
US8502785B2 (en) * 2008-11-12 2013-08-06 Apple Inc. Generating gestures tailored to a hand resting on a surface
WO2010064389A1 (ja) * 2008-12-04 2010-06-10 三菱電機株式会社 表示入力装置
US20100146449A1 (en) * 2008-12-09 2010-06-10 Michael William Brown Method, apparatus and system for management of application switching in an electronic device
US8660300B2 (en) * 2008-12-12 2014-02-25 Silicon Laboratories Inc. Apparatus and method for optical gesture recognition
JP2010158995A (ja) * 2009-01-09 2010-07-22 Nippon Seiki Co Ltd 車両用表示装置
TWM363635U (en) * 2009-03-04 2009-08-21 Chance Steel Mold Co Ltd Manipulation control device
US8589374B2 (en) 2009-03-16 2013-11-19 Apple Inc. Multifunction device with integrated search and application selection
US20100269060A1 (en) * 2009-04-17 2010-10-21 International Business Machines Corporation Navigating A Plurality Of Instantiated Virtual Desktops
KR101545490B1 (ko) * 2009-05-29 2015-08-21 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR20100128958A (ko) * 2009-05-29 2010-12-08 엘지전자 주식회사 영상표시장치 및 그 제어방법
KR101598336B1 (ko) * 2009-05-29 2016-02-29 엘지전자 주식회사 공간리모콘의 페어링방법 및 동작방법
KR101737366B1 (ko) * 2009-06-01 2017-05-18 엘지전자 주식회사 영상표시장치 및 그 제어방법
US8704958B2 (en) * 2009-06-01 2014-04-22 Lg Electronics Inc. Image display device and operation method thereof
US20100306688A1 (en) * 2009-06-01 2010-12-02 Cho Su Yeon Image display device and operation method therefor
KR101572843B1 (ko) * 2009-06-03 2015-11-30 엘지전자 주식회사 영상 표시 장치 및 그 동작 방법
US20100309125A1 (en) * 2009-06-08 2010-12-09 Sellers Charles A Button To Change Modes of a Pointing Device
US8719714B2 (en) 2009-07-08 2014-05-06 Steelseries Aps Apparatus and method for managing operations of accessories
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
KR101471801B1 (ko) * 2009-08-21 2014-12-10 애플 인크. 정전용량 감지를 위한 방법 및 장치
CN102053748A (zh) * 2009-10-28 2011-05-11 鸿富锦精密工业(深圳)有限公司 一种多点式触摸屏热键管理系统及方法
US20110164066A1 (en) * 2010-01-04 2011-07-07 Todd Beals Electronic reading device
US8862576B2 (en) * 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
JP5636678B2 (ja) 2010-01-19 2014-12-10 ソニー株式会社 表示制御装置、表示制御方法及び表示制御プログラム
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US20120162071A1 (en) * 2010-02-22 2012-06-28 Liang Hsu Control device
US9628517B2 (en) * 2010-03-30 2017-04-18 Lenovo (Singapore) Pte. Ltd. Noise reduction during voice over IP sessions
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US8854316B2 (en) * 2010-07-16 2014-10-07 Blackberry Limited Portable electronic device with a touch-sensitive display and navigation device and method
JP5512884B2 (ja) * 2010-07-20 2014-06-04 エンパイア テクノロジー ディベロップメント エルエルシー 拡張現実の近接感知
US20120215560A1 (en) 2010-07-21 2012-08-23 dbMotion Ltd. System and methods for facilitating computerized interactions with emrs
US8543942B1 (en) * 2010-08-13 2013-09-24 Adobe Systems Incorporated Method and system for touch-friendly user interfaces
US9326116B2 (en) 2010-08-24 2016-04-26 Rhonda Enterprises, Llc Systems and methods for suggesting a pause position within electronic text
USD669086S1 (en) * 2010-10-04 2012-10-16 Avaya Inc. Display screen with graphical user interface
KR101932688B1 (ko) * 2010-11-29 2018-12-28 삼성전자주식회사 휴대기기 및 이에 적용되는 ui 모드 제공 방법
JP2012147341A (ja) * 2011-01-14 2012-08-02 Seiko Epson Corp 共通鍵交換方法、共通鍵生成方法、共通鍵交換システム、共通鍵交換装置、及びそのプログラム
FR2971066B1 (fr) 2011-01-31 2013-08-23 Nanotec Solution Interface homme-machine tridimensionnelle.
TWI515603B (zh) * 2011-03-28 2016-01-01 緯創資通股份有限公司 觸控反饋裝置、觸控反饋方法及觸控顯示裝置
US9086794B2 (en) 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
US10726088B1 (en) 2011-08-12 2020-07-28 Allscripts Software, Llc Computing system for presenting supplemental content in context
US20130055131A1 (en) * 2011-08-26 2013-02-28 Microsoft Corporation Animation for Cut and Paste of Content
US9367146B2 (en) 2011-11-14 2016-06-14 Logiteh Europe S.A. Input device with multiple touch-sensitive zones
US8443297B1 (en) * 2012-06-15 2013-05-14 Google Inc. Dimming a window that is out of focus
US9786294B1 (en) 2012-07-30 2017-10-10 Amazon Technologies, Inc. Visual indication of an operational state
US9779757B1 (en) * 2012-07-30 2017-10-03 Amazon Technologies, Inc. Visual indication of an operational state
KR102078390B1 (ko) 2012-07-30 2020-02-17 삼성전자 주식회사 멀티 터치를 통한 기하학적 도형을 그리는 방법 및 장치
KR101990567B1 (ko) * 2012-08-23 2019-06-18 삼성전자주식회사 외부 입력 장치와 결합된 모바일 장치 및 그 제어 방법
US8886372B2 (en) * 2012-09-07 2014-11-11 The Boeing Company Flight deck touch-sensitive hardware controls
US8713433B1 (en) * 2012-10-16 2014-04-29 Google Inc. Feature-based autocorrection
US8612213B1 (en) 2012-10-16 2013-12-17 Google Inc. Correction of errors in character strings that include a word delimiter
US8698835B1 (en) * 2012-10-16 2014-04-15 Google Inc. Mobile device user interface having enhanced visual characteristics
TW201421194A (zh) * 2012-11-22 2014-06-01 Hon Hai Prec Ind Co Ltd 電子裝置
US10275117B2 (en) 2012-12-29 2019-04-30 Apple Inc. User interface object manipulations in a user interface
US10691230B2 (en) 2012-12-29 2020-06-23 Apple Inc. Crown input for a wearable electronic device
CN103914466B (zh) * 2012-12-31 2017-08-08 阿里巴巴集团控股有限公司 一种标签按钮管理的方法及系统
US9047472B2 (en) 2013-01-14 2015-06-02 International Business Machines Corporation Managing sensitive content
FR3002052B1 (fr) 2013-02-14 2016-12-09 Fogale Nanotech Procede et dispositif pour naviguer dans un ecran d'affichage et appareil comprenant une telle navigation
US20140253489A1 (en) * 2013-03-06 2014-09-11 Bryce T. Osoinach Systems and methods for indicating that an interface is being touched
US9721586B1 (en) 2013-03-14 2017-08-01 Amazon Technologies, Inc. Voice controlled assistant with light indicator
US9687730B2 (en) 2013-03-15 2017-06-27 Steelseries Aps Gaming device with independent gesture-sensitive areas
US9423874B2 (en) 2013-03-15 2016-08-23 Steelseries Aps Gaming accessory with sensory feedback device
US9604147B2 (en) 2013-03-15 2017-03-28 Steelseries Aps Method and apparatus for managing use of an accessory
KR102153366B1 (ko) 2013-08-30 2020-10-15 삼성전자 주식회사 전자 기기의 화면 전환 방법 및 장치
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
US10503388B2 (en) * 2013-09-03 2019-12-10 Apple Inc. Crown input for a wearable electronic device
TWI545471B (zh) 2013-09-03 2016-08-11 蘋果公司 用於使用者介面物件操縱之電腦實施方法、非暫時性電腦可讀儲存媒體及電子器件
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
US10001817B2 (en) 2013-09-03 2018-06-19 Apple Inc. User interface for manipulating user interface objects with magnetic properties
USD741343S1 (en) * 2013-09-06 2015-10-20 Microsoft Corporation Display screen with graphical user interface
USD752599S1 (en) * 2013-09-06 2016-03-29 Microsoft Corporation Display screen with graphical user interface
US9170736B2 (en) 2013-09-16 2015-10-27 Microsoft Corporation Hover controlled user interface element
US9645651B2 (en) 2013-09-24 2017-05-09 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
US9569045B2 (en) 2014-05-21 2017-02-14 Apple Inc. Stylus tilt and orientation estimation from touch sensor panel images
US10255267B2 (en) 2014-05-30 2019-04-09 Apple Inc. Device, method, and graphical user interface for a predictive keyboard
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
DE102014009299A1 (de) * 2014-06-26 2015-12-31 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102014009302A1 (de) * 2014-06-26 2015-12-31 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
CN116243841A (zh) 2014-06-27 2023-06-09 苹果公司 尺寸减小的用户界面
US9594489B2 (en) 2014-08-12 2017-03-14 Microsoft Technology Licensing, Llc Hover-based interaction with rendered content
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
US10082892B2 (en) 2014-09-02 2018-09-25 Apple Inc. Button functionality
TWI676127B (zh) 2014-09-02 2019-11-01 美商蘋果公司 關於電子郵件使用者介面之方法、系統、電子器件及電腦可讀儲存媒體
CN110072131A (zh) 2014-09-02 2019-07-30 苹果公司 音乐用户界面
KR102309281B1 (ko) * 2014-11-07 2021-10-08 삼성전자주식회사 오브젝트를 표시하는 방향 기반 전자 장치 및 방법
USD788813S1 (en) * 2014-11-14 2017-06-06 Microsoft Corporation Display screen with icon
US9984209B2 (en) 2015-02-13 2018-05-29 Medtronic, Inc. Graphical controls for programming medical device operation
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
US10091140B2 (en) * 2015-05-31 2018-10-02 Microsoft Technology Licensing, Llc Context-sensitive generation of conversational responses
USD772986S1 (en) 2015-06-11 2016-11-29 Oculus Vr, Llc Wireless game controller
US10225301B2 (en) * 2015-08-26 2019-03-05 Zhan Ma Method and apparatus for use of input messages in media transport to support interactive communications
US10007339B2 (en) 2015-11-05 2018-06-26 Oculus Vr, Llc Controllers with asymmetric tracking patterns
US9839840B2 (en) 2015-11-05 2017-12-12 Oculus Vr, Llc Interconnectable handheld controllers
US10130875B2 (en) 2015-11-12 2018-11-20 Oculus Vr, Llc Handheld controller with finger grip detection
US9990045B2 (en) 2015-11-12 2018-06-05 Oculus Vr, Llc Method and apparatus for detecting hand gestures with a handheld controller
US9804693B2 (en) * 2015-12-18 2017-10-31 Oculus Vr, Llc Handheld controller with activation sensors
US10441880B2 (en) 2015-12-30 2019-10-15 Facebook Technologies, Llc Handheld controller with spring-biased third finger button assembly
US10343059B2 (en) 2015-12-30 2019-07-09 Facebook Technologies, Llc Handheld controller with thumbstick guard
US10386922B2 (en) 2015-12-30 2019-08-20 Facebook Technologies, Llc Handheld controller with trigger button and sensor retainer assembly
US9977494B2 (en) 2015-12-30 2018-05-22 Oculus Vr, Llc Tracking constellation assembly for use in a virtual reality system
US11857869B2 (en) 2015-12-31 2024-01-02 Meta Platforms Technologies, Llc Handheld controller with hand detection sensors
US10963159B2 (en) * 2016-01-26 2021-03-30 Lenovo (Singapore) Pte. Ltd. Virtual interface offset
KR102086941B1 (ko) * 2016-05-12 2020-03-11 서크 코퍼레이션 정전식 센싱을 이용한 컨트롤러 예감
US10739972B2 (en) 2016-06-10 2020-08-11 Apple Inc. Device, method, and graphical user interface for managing electronic communications
USD835104S1 (en) 2016-09-27 2018-12-04 Oculus Vr, Llc Wireless game controller
US10283082B1 (en) 2016-10-29 2019-05-07 Dvir Gassner Differential opacity position indicator
EP3340031B1 (en) * 2016-12-21 2021-09-15 Nxp B.V. Motion detection circuits, and associated methods
US10773159B2 (en) 2017-06-01 2020-09-15 Microsoft Technology Licensing, Llc Input device with linear geared feedback trigger
US10384123B2 (en) 2017-06-01 2019-08-20 Microsoft Technology Licensing, Llc Motor-driven adjustable-tension trigger
US10226697B2 (en) 2017-06-01 2019-03-12 Microsoft Technology Licensing, Llc Input device with sector geared feedback trigger
US10850190B2 (en) 2017-06-01 2020-12-01 Microsoft Technology Licensing, Llc Input device with clutched force-feedback trigger
US10737172B2 (en) 2017-06-01 2020-08-11 Microsoft Technology Licensing, Llc Input device with force sensor feedback trigger
CN107340894A (zh) * 2017-09-06 2017-11-10 合肥庆响网络科技有限公司 计算机游戏鼠标
USD861709S1 (en) * 2018-01-09 2019-10-01 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
US10367540B1 (en) 2018-02-20 2019-07-30 Cypress Semiconductor Corporation System and methods for low power consumption by a wireless sensor device
CN108563342B (zh) * 2018-04-28 2021-12-10 京东方科技集团股份有限公司 鼠标及其使用方法
USD869493S1 (en) 2018-09-04 2019-12-10 Apple Inc. Electronic device or portion thereof with graphical user interface
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
US10712824B2 (en) 2018-09-11 2020-07-14 Apple Inc. Content-based tactile outputs
US11474693B2 (en) 2019-01-02 2022-10-18 Hewlett-Packard Development Company, L.P. OSDs for display devices
CN109947631B (zh) * 2019-03-27 2020-12-18 联想(北京)有限公司 一种数据处理方法及电子设备
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
US11262853B2 (en) 2020-03-10 2022-03-01 Cirque Corporation Measuring capacitance
JP2023526928A (ja) 2020-05-18 2023-06-26 アップル インコーポレイテッド 電子デバイスの現在位置を表示及び改善するためのユーザインタフェース
US11416136B2 (en) 2020-09-14 2022-08-16 Apple Inc. User interfaces for assigning and responding to user inputs
CN117851148B (zh) * 2024-03-08 2024-05-14 深圳闪电鸟网络科技有限公司 手柄设备的多模式测试方法、装置、设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02153415A (ja) * 1988-12-06 1990-06-13 Hitachi Ltd キーボード装置
JPH0511913A (ja) * 1991-06-28 1993-01-22 Shimadzu Corp 表示装置用キーボード
JPH05150925A (ja) * 1991-05-31 1993-06-18 Philips Gloeilampenfab:Nv 人間−マシンインタフエースを具えた装置
US5311175A (en) * 1990-11-01 1994-05-10 Herbert Waldman Method and apparatus for pre-identification of keys and switches
JPH06175762A (ja) * 1992-12-09 1994-06-24 Matsushita Electric Ind Co Ltd キーボード入力装置
JPH09222876A (ja) * 1996-02-16 1997-08-26 Hitachi Ltd カーソル表示装置
JPH10289047A (ja) * 1997-04-14 1998-10-27 Hitachi Ltd キーボード
JP2000181602A (ja) * 1998-12-17 2000-06-30 Idec Izumi Corp スイッチ付処理システムおよびスイッチ装置
JP2000250677A (ja) * 1999-03-02 2000-09-14 Toshiba Corp マルチモーダルインターフェース装置及びマルチモーダルインターフェース方法
JP2000355256A (ja) * 1999-06-11 2000-12-26 Alpine Electronics Inc 車載用電子機器の操作装置

Family Cites Families (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1479584A (en) 1973-07-14 1977-07-13 Solartron Electronic Group Data terminals and data processing apparatus incorporating such terminals
US4317956A (en) 1980-11-10 1982-03-02 Bell Telephone Laboratories, Incorporated Remote chalkboard automatic cursor
US4403777A (en) 1981-01-08 1983-09-13 Mattel, Inc. Electronic game using phototransducer
JPH0322259A (ja) 1989-03-22 1991-01-30 Seiko Epson Corp 小型データ表示・再生装置
US5252951A (en) * 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
US5309172A (en) 1989-06-14 1994-05-03 Fox Charles S Computer data and command entry device
US6040821A (en) 1989-09-26 2000-03-21 Incontrol Solutions, Inc. Cursor tracking
US4977397A (en) 1989-10-13 1990-12-11 Sysgration Ltd. Touch-control computer house
WO1991017522A1 (en) 1990-05-01 1991-11-14 Wang Laboratories, Inc. Hands-free hardware keyboard
US5208903A (en) 1990-09-10 1993-05-04 Eastman Kodak Company Video image display for predicting color hardcopy image quality
JPH04357521A (ja) * 1990-10-10 1992-12-10 Fuji Xerox Co Ltd 情報処理装置
US5347295A (en) * 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
EP0498082B1 (en) 1991-02-01 1998-05-06 Koninklijke Philips Electronics N.V. Apparatus for the interactive handling of objects
US6005496A (en) 1991-04-10 1999-12-21 Kinesis Corporation Ergonomic keyboard apparatus
US5327160A (en) * 1991-05-09 1994-07-05 Asher David J Touch sensitive user interface for television control
EP0984348B1 (en) 1991-05-31 2002-04-10 Koninklijke Philips Electronics N.V. Device with a human-machine interface
US5250929A (en) 1991-07-29 1993-10-05 Conference Communications, Inc. Interactive overlay-driven computer display system
US5666113A (en) 1991-07-31 1997-09-09 Microtouch Systems, Inc. System for using a touchpad input device for cursor control and keyboard emulation
JP2827612B2 (ja) 1991-10-07 1998-11-25 富士通株式会社 タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。
WO1993014454A1 (en) 1992-01-10 1993-07-22 Foster-Miller, Inc. A sensory integrated data interface
US5818800A (en) 1992-04-06 1998-10-06 Barker; Bruce J. Voice recording device having portable and local modes of operation
US5589855A (en) 1992-08-14 1996-12-31 Transaction Technology, Inc. Visually impaired customer activated terminal method and system
US6100875A (en) 1992-09-03 2000-08-08 Ast Research, Inc. Keyboard pointing device
FR2697935B1 (fr) 1992-11-12 1995-01-13 Sextant Avionique Terminal de communication compact et ergonomique muni de surfaces de détection de proximité.
US5355148A (en) 1993-01-14 1994-10-11 Ast Research, Inc. Fingerpoint mouse
EP0626635B1 (en) 1993-05-24 2003-03-05 Sun Microsystems, Inc. Improved graphical user interface with method for interfacing to remote devices
CA2124505C (en) 1993-07-21 2000-01-04 William A. S. Buxton User interface having simultaneously movable tools and cursor
US6097371A (en) 1996-01-02 2000-08-01 Microsoft Corporation System and method of adjusting display characteristics of a displayable data file using an ergonomic computer input device
JP2866591B2 (ja) * 1994-01-10 1999-03-08 インターナショナル・ビジネス・マシーンズ・コーポレイション オブジエクトの使用可能性の通知方法及び装置
US5982302A (en) 1994-03-07 1999-11-09 Ure; Michael J. Touch-sensitive keyboard/mouse
JP2939119B2 (ja) 1994-05-16 1999-08-25 シャープ株式会社 手書き文字入力表示装置および方法
US5530455A (en) 1994-08-10 1996-06-25 Mouse Systems Corporation Roller mouse for implementing scrolling in windows applications
US5559301A (en) 1994-09-15 1996-09-24 Korg, Inc. Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems
US5457480A (en) 1994-10-03 1995-10-10 Dell Usa Integrated mouse and numerical keypad device
US5592609A (en) * 1994-10-31 1997-01-07 Nintendo Co., Ltd. Video game/videographics program fabricating system and method with unit based program processing
US5805144A (en) 1994-12-14 1998-09-08 Dell Usa, L.P. Mouse pointing device having integrated touchpad
US5572238A (en) 1995-01-27 1996-11-05 Xerox Corporation Computer user interface for non-dominant hand assisted control
JP2859559B2 (ja) * 1995-05-26 1999-02-17 インターナショナル・ビジネス・マシーンズ・コーポレイション コンピュータ・ネットワーク・システム、コンピュータ・システム、及びクリップボード制御方法
US5973694A (en) * 1995-06-02 1999-10-26 Chatham Telecommunications, Inc., Method of communication using sized icons, text, and audio
US6166723A (en) 1995-11-17 2000-12-26 Immersion Corporation Mouse interface device providing force feedback
US6016520A (en) 1995-07-14 2000-01-18 Microsoft Corporation Method of viewing at a client viewing station a multiple media title stored at a server and containing a plurality of topics utilizing anticipatory caching
US5694153A (en) 1995-07-31 1997-12-02 Microsoft Corporation Input device for providing multi-dimensional position coordinate signals to a computer
US5793356A (en) 1995-07-31 1998-08-11 Microsoft Corporation System and method for the software emulation of a computer joystick
DE19528457C2 (de) * 1995-08-03 2001-03-08 Mannesmann Vdo Ag Bedieneinrichtung
US5666499A (en) 1995-08-04 1997-09-09 Silicon Graphics, Inc. Clickaround tool-based graphical interface with two cursors
US5675361A (en) 1995-08-23 1997-10-07 Santilli; Donald S. Computer keyboard pointing device
AU6845096A (en) 1995-09-01 1997-03-27 Hunter Digital, Ltd System for steering an electronically responsive device
US5767457A (en) 1995-11-13 1998-06-16 Cirque Corporation Apparatus and method for audible feedback from input device
US5847695A (en) 1996-01-04 1998-12-08 Siemens Business Communication Systems, Inc. Method and apparatus for implementing a dialpad on the surface of a mouse input device
US5914702A (en) 1996-03-04 1999-06-22 Hewlett-Packard Company Pointing device with wrap-around buttons
US5825356A (en) 1996-03-18 1998-10-20 Wall Data Incorporated Help system with semitransparent window for disabling controls
US5831597A (en) * 1996-05-24 1998-11-03 Tanisys Technology, Inc. Computer input device for use in conjunction with a mouse input device
US5841425A (en) 1996-07-31 1998-11-24 International Business Machines Corporation Ambidextrous computer input device
US5805159A (en) * 1996-08-22 1998-09-08 International Business Machines Corporation Mobile client computer interdependent display data fields
CA2264167A1 (en) 1996-08-28 1998-03-05 Via, Inc. Touch screen systems and methods
JPH1069346A (ja) * 1996-08-28 1998-03-10 Alps Electric Co Ltd 座標入力装置およびその制御方法
JPH1091307A (ja) 1996-09-12 1998-04-10 Nec Software Ltd ブラインドタッチキーボード装置
US5854624A (en) 1996-09-12 1998-12-29 Innovative Device Technologies, Inc. Pocket-sized user interface for internet browser terminals and the like
US5877750A (en) 1996-09-17 1999-03-02 International Business Machines Corporation Method and apparatus for in-place line width selection for graphics applications
FR2753868A1 (fr) * 1996-09-25 1998-03-27 Technical Maintenance Corp Procede de selection d'un enregistrement sur un systeme numerique de reproduction audiovisuel et systeme pour mise en oeuvre du procede
US5905493A (en) 1996-11-13 1999-05-18 Unalink Communications, Inc. Color coded instructional scheme for computers and the like system, method and article of manufacture
US6686911B1 (en) * 1996-11-26 2004-02-03 Immersion Corporation Control knob with control modes and force feedback
KR100243031B1 (ko) 1996-11-27 2000-02-01 구자홍 컴퓨터 커서 조절장치
US5987345A (en) * 1996-11-29 1999-11-16 Arch Development Corporation Method and system for displaying medical images
US6088023A (en) * 1996-12-10 2000-07-11 Willow Design, Inc. Integrated pointing and drawing graphics system for computers
US5983245A (en) * 1996-12-27 1999-11-09 Apple Computer, Inc. Method and apparatus for implementing universal resource locator menus
US5973670A (en) 1996-12-31 1999-10-26 International Business Machines Corporation Tactile feedback controller for computer cursor control device
US5936612A (en) * 1997-05-30 1999-08-10 Wang; Yanqing Computer input device and method for 3-D direct manipulation of graphic objects
US6246405B1 (en) 1997-06-06 2001-06-12 Mci Communications Corporation Method and apparatus for managing a plurality of objects on a graphical user interface
US5910802A (en) 1997-06-11 1999-06-08 Microsoft Corporation Operating system for handheld computing device having taskbar auto hide
US5910800A (en) 1997-06-11 1999-06-08 Microsoft Corporation Usage tips for on-screen touch-sensitive controls
US5943052A (en) 1997-08-12 1999-08-24 Synaptics, Incorporated Method and apparatus for scroll bar control
US5973622A (en) 1997-09-12 1999-10-26 Acer Peripherals, Inc. Keyboard with a two-dimensional actuator for generating direction signals
US5977952A (en) 1997-10-29 1999-11-02 International Business Machines Corporation Method and system for an ambidextrous mouse
US5995101A (en) * 1997-10-29 1999-11-30 Adobe Systems Incorporated Multi-level tool tip
US6046728A (en) 1997-12-05 2000-04-04 Dell Usa, L.P. Keyboard actuated pointing device
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US6232968B1 (en) * 1998-03-31 2001-05-15 International Business Machines Corporation Data processor controlled display system with a plurality of switchable customized basic function interfaces for the control of varying types of operations
US6118450A (en) * 1998-04-03 2000-09-12 Sony Corporation Graphic user interface that is usable as a PC interface and an A/V interface
US6133916A (en) * 1998-04-08 2000-10-17 International Business Machines Corporation Graphical user interface providing access to files downloaded over a network
US6262717B1 (en) 1998-07-02 2001-07-17 Cirque Corporation Kiosk touch pad
US5977397A (en) * 1999-04-14 1999-11-02 Spohn; Ronald Removal of an impurity from a mixture with a codistillant
TW546583B (en) * 1999-05-13 2003-08-11 Sony Corp Information processing method and apparatus and medium
US6680677B1 (en) 2000-10-06 2004-01-20 Logitech Europe S.A. Proximity detector to indicate function of a key

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02153415A (ja) * 1988-12-06 1990-06-13 Hitachi Ltd キーボード装置
US5311175A (en) * 1990-11-01 1994-05-10 Herbert Waldman Method and apparatus for pre-identification of keys and switches
JPH05150925A (ja) * 1991-05-31 1993-06-18 Philips Gloeilampenfab:Nv 人間−マシンインタフエースを具えた装置
JPH0511913A (ja) * 1991-06-28 1993-01-22 Shimadzu Corp 表示装置用キーボード
JPH06175762A (ja) * 1992-12-09 1994-06-24 Matsushita Electric Ind Co Ltd キーボード入力装置
JPH09222876A (ja) * 1996-02-16 1997-08-26 Hitachi Ltd カーソル表示装置
JPH10289047A (ja) * 1997-04-14 1998-10-27 Hitachi Ltd キーボード
JP2000181602A (ja) * 1998-12-17 2000-06-30 Idec Izumi Corp スイッチ付処理システムおよびスイッチ装置
JP2000250677A (ja) * 1999-03-02 2000-09-14 Toshiba Corp マルチモーダルインターフェース装置及びマルチモーダルインターフェース方法
JP2000355256A (ja) * 1999-06-11 2000-12-26 Alpine Electronics Inc 車載用電子機器の操作装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088446A (ja) * 2010-10-18 2012-05-10 Nec Access Technica Ltd 画面制御装置、プログラム及び方法

Also Published As

Publication number Publication date
JP2002323945A (ja) 2002-11-08
US20010015718A1 (en) 2001-08-23
US20050275637A1 (en) 2005-12-15
JP4737912B2 (ja) 2011-08-03
EP1241557A3 (en) 2007-01-24
US7256770B2 (en) 2007-08-14
US7602382B2 (en) 2009-10-13
EP1241557A2 (en) 2002-09-18
JP4758464B2 (ja) 2011-08-31

Similar Documents

Publication Publication Date Title
JP4758464B2 (ja) 補助用コントロールおよび表示画面を有するコンピュータシステムおよび方法
JP4138340B2 (ja) コンピュータシステムの補助用コントロールを検出してフィードバックを与える方法
US10353570B1 (en) Thumb touch interface
EP3956758B1 (en) Systems and methods for interacting with a companion-display mode for an electronic device with a touch-sensitive display
US6333753B1 (en) Technique for implementing an on-demand display widget through controlled fading initiated by user contact with a touch sensitive input device
US6232957B1 (en) Technique for implementing an on-demand tool glass for use in a desktop user interface
JP4763695B2 (ja) タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース
US7091954B2 (en) Computer keyboard and cursor control system and method with keyboard map switching
US8638315B2 (en) Virtual touch screen system
KR20140112418A (ko) 사용자 접촉에 기초하여 그래픽 사용자 인터페이스를 표시하는 방법 및 디바이스
EP1969450A1 (en) Mobile device and operation method control available for using touch and drag
WO2012089921A1 (en) Method and apparatus for controlling a zoom function
JP2004038927A (ja) ディスプレイ及びタッチスクリーン
EP2569682A1 (en) User interface
WO2016183912A1 (zh) 菜单布局方法及装置
JP5414134B1 (ja) タッチ式入力システムおよび入力制御方法
US20150049020A1 (en) Devices and methods for electronic pointing device acceleration
JP5065838B2 (ja) 座標入力装置
US20240086026A1 (en) Virtual mouse for electronic touchscreen display
JP2003248537A (ja) グラフィカルユーザインターフェース、情報処理装置の操作方法、情報処理装置、並びにプログラム
JP2003248547A (ja) 情報処理装置の入力デバイス、情報処理装置の操作方法、情報処理装置、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101001

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110104

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110527

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110602

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees