JP5969626B2 - 高められたジェスチャ・ベースの対話のためのシステム及び方法 - Google Patents

高められたジェスチャ・ベースの対話のためのシステム及び方法 Download PDF

Info

Publication number
JP5969626B2
JP5969626B2 JP2014550738A JP2014550738A JP5969626B2 JP 5969626 B2 JP5969626 B2 JP 5969626B2 JP 2014550738 A JP2014550738 A JP 2014550738A JP 2014550738 A JP2014550738 A JP 2014550738A JP 5969626 B2 JP5969626 B2 JP 5969626B2
Authority
JP
Japan
Prior art keywords
user
gesture
computerized
control device
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014550738A
Other languages
English (en)
Other versions
JP2015507803A (ja
Inventor
ピノー、ジル
Original Assignee
ソフトキネティック ソフトウェア
ソフトキネティック ソフトウェア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソフトキネティック ソフトウェア, ソフトキネティック ソフトウェア filed Critical ソフトキネティック ソフトウェア
Publication of JP2015507803A publication Critical patent/JP2015507803A/ja
Application granted granted Critical
Publication of JP5969626B2 publication Critical patent/JP5969626B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/31Communication aspects specific to video games, e.g. between several handheld game devices at close range
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • A63F2300/1031Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection using a wireless connection, e.g. Bluetooth, infrared connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1037Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1043Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being characterized by constructional details
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1056Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving pressure sensitive buttons
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/302Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device specially adapted for receiving control signals not targeted to a display device or game input means, e.g. vibrating driver's seat, scent dispenser
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/402Communication between platforms, i.e. physical link to protocol
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Description

本発明は、人間とマシンの対話のためのシステム及び方法に関し、より詳細には、限定するものではないが、対話型のコンピュータ化されたシステムとの高められたジェスチャ・ベースの対話のためのワイヤレス・リモート制御デバイスに関わるものである。
人間とマシンの対話領域において、デバイス・コントローラが、人間のユーザとハードウェア・プラットフォームとの間のインタフェースとして長年の間使用されてきた。そのようなインタフェースを通して、ユーザは、手段を有するコンピュータ化されたシステムにコマンドを提供することができており、この手段は、それらのコマンドを受信する、それらのコマンドを処理する、及びそれらのコマンドによって処置を実行することを目的としている。デバイス・コントローラは、ワイヤード又はワイヤレスである場合があり、コンピュータ用のマウス・デバイス、コンピュータ・キーボード、TVリモート・コントローラ、ゲーム・コントローラ、パッド、仮想現実グローブ等を含み得る。これらのデバイス・コントローラ・システムのすべては、例えばトリガ・ボタン、多方向パッド、慣性センサ・ユニット等のような既知の感知デバイスを使用する、1つの共通の仕様を共有する。
さらに、仮想現実領域での、並びに家電領域での技術の進歩とともに、そのようなデバイス、又はそのようなデバイスの組合せを使用するいくつかのシステムが開発されてきた。特に今では、ユーザが、仮想現実環境内への没入を向上させるために、又はコンピュータ化されたシステムとの対話に関してのユーザ使用感を向上させるために、デバイス・コントローラを自ら携えて持ち歩くこと、それらのデバイス・コントローラを着用すること、又は触れて扱うことが必須となっている。
例えば、米国特許出願公開第2010/0304868号において、コンピュータ化されたシステムとの対話性(interactivity)のための、複数位置での3次元の触れて扱われるコントローラが説明されている。コントローラは、種々のアプリケーション及びシミュレーションに対する制御を提供し、一方で、ゲーム・クライアントのコンピュータ化されたシステムによって実行されるコンピュータ・プログラムの結果として生成される、2次元と3次元の両方のシナリオと対話するための直観的なインタフェースを提供する。そのようなゲーム・クライアントは、ローカルに記憶されたプログラムを実行することが可能な、又はユーザが異なる場所での別のユーザと対話することが可能であるようにインターネットに接続可能な、専用のゲーム機であり得る。コントローラは、コントローラの操作及び触れて扱うことに関して柔軟性をもたらすために、複数の位置で使用するように構成される。コントローラは、センサを有するハンドルを備え、それらのセンサ、例えば、ジャイロスコープ、加速度計、ボタン、ジョイスティック、及びトラックボールは、ハンドルに関する入力の特徴の動きを検出する。1つの実施例ではコントローラは、ハンドヘルドであり、ユーザの手の運動のみが、IEEE802.11仕様の範囲内にあるワイヤレス・プロトコルを使用する関連するゲーム機との対話のためのワイヤレス信号を提供する、「ロリポップ」モードで動作することが可能である。別の実施例ではコントローラは、やはりハンドヘルドであるが、カラー・ボールを追跡してジェスチャを検出し、ゲーム機により処理されることになる追加的なワイヤレス信号を提供する、2Dカメラと連関して動作させられる。さらなる実施例ではコントローラは、2つの手によって動作させられる場合がある。米国特許出願公開第2010/0304868号において説明されているコントローラの人間工学は、ユーザが手でコントローラを能動的且つ自発的に保持することを要求し、ジェスチャ・ベースの対話システム内部のジェスチャ認識のための、特に指の動きを含めた自由な自然な動きを可能にしない。
米国特許出願公開第2011/0269544号において、ゲーム機と対話するための、ハンドヘルドのコンピュータ入力デバイスが説明されている。デバイスは、上に突出部が形成される本体を備え、ユーザの手の親指及びそれ以外の指が、突出部のそれぞれの1つと係合する。各々の突出部は、ユーザの指の1つ又は複数に関する動きを検出するように構成される。ユーザの手、並びにそのユーザの親指及びそれ以外の指の動きが、ゲーム機により感知され、触覚フィードバックが、ゲーム機に送信されるコマンドに応答してユーザに提供され得る。1対のデバイスが利用され得るが、これらのデバイスは、一方のデバイスのみが右手に適合し、他方のデバイスが左手に適合するように触れて扱われる。米国特許出願公開第2011/0269544号において説明されているハンドヘルドの対話型のデバイスは、ユーザの手及び指への適合の観点からは人間工学的であるとみなされ得るものであるが、そのデバイスは、ユーザに動作のためにデバイスを把持するように要求し、自然なジェスチャ・ベースのコンピュータ化されたシステム内部のジェスチャ認識のための、手及び/又は指の自由な動きを許さない。
米国特許出願公開第2008/084385号では、手の上に着用され、表面に接触する必要なしに動作させられるコンピュータ・ポインティング・デバイスを説明している。コンピュータ・ポインティング・デバイス内部に位置するセンサが、ユーザの手の動きを感知し、それらの信号をホスト・コンピュータに対する信号に変換する。信号は、カーソル等々を動かし、右及び左のマウス・クリック並びにスクロール動作をもたらすために使用され得る。デバイスは、意図される動きのみがホスト・コンピュータに送信されるように活動化及び非活動化され得る。
名称「Providing Haptic Feedback Using the Kinect」、Brandon Shrewsbury、Dundee、Scotland、UK、2011年10月26日の論文において、ブザー・モータを利用して、Kinectシステムの視野の範囲内の物体のユーザに警告する、着用可能な振動触覚フィードバック・システムを有するグローブが提案されている。ブザー・モータは、手の掌上の最下段で指の個別の区間に位置合わせされる。
米国特許出願公開第2007/279380号では、手に取り付けられ得るコンピュータ入力デバイスを説明している。デバイスは、手の掌の一部分に巻き付けられ得る調整可能なバンドを含む。バンドが取り付けられる手の親指及びそれ以外の指により動作させられる、制御ボタン及びジョイスティックが設けられる。デバイスは、ワイヤレスで、又は取り付けられたケーブルを介してのいずれかで、コンピュータと通信する。
米国特許出願公開第2011/202306号では、没入型仮想現実システムを説明しており、そのシステムにおいて1つ又は複数の身体センサ・ユニットが、システムとの対話のために用いられる。身体センサ・ユニットはグローブ及びベストを含み、それらのグローブ及びベストは、グローブ又はベストが着用されるユーザの関連性のある部分の位置を決定するための感知要素を含む。表示ユニットが、ユーザの身体の部分の、そのユーザ自身の視点との正しい空間的関係にある仮想表現の観視のために設けられる。
Fratiらは、自身の論文である、名称「Using Kinect for hand tracking and rendering in wearable haptics」、World Haptics Conference(WHC)、2011、IEEE、IEEE、2011年6月21日、317〜321頁において、3次元イメージング・システムの視野の範囲内の位置感知に対する指パッド接触点での力フィードバックのためのモータを有する着用可能なハプティック(haptic)・デバイスを説明している。指先の位置などの主な手の点が、奥行きマップから算出される境界ボックスから抽出される、手追跡アルゴリズムが開示されている。しかしながら手の最も大きな部分が、手追跡アルゴリズムが適正に作動するためには視認可能でなければならず、特にいくつかのヒューリスティックス(heuristics:発見的研究)が、指の各々のアイデンティティを規定するために使用されており、これらのヒューリスティックスは、1つ又は複数の指の、全体又は部分が3次元イメージング・システムの視野内で遮蔽される場合、失敗する場合がある。
より最近では、イメージング感知信号分析に基づくジェスチャ認識技術が対話型のシステムを生み出しており、その対話型のシステムによってユーザは、そのような対話型のシステムを制御し実行するコンピュータ化されたシステムと対話するための所定のジェスチャを使用することにより、簡単にコマンドを提供することが可能になる。そのようなジェスチャ認識技術は、ユーザにより着用されるデバイスを何も利用せず、全身の動きの分析、又は手のみの動きの分析のいずれかを利用する。
しかしながら、独立的なハードウェア・ベースのコントローラ、又は自然なジェスチャ・ベースの動きのいずれかを使用するとき、遂行され得るあらかじめ規定される対話の数には限度が存在する。ハードウェアのリモート・コントローラ・デバイスに関しては、例えばそのデバイスは触れて扱われなければならず、そのデバイスは、指追跡、又は信頼性の高い手のジェスチャ認識をサポートしない。同様に、全身の自然なジェスチャ認識システムは、特定の動きがいくつかの他の動きの中でも排他的に遂行されることを要求するので、そのシステムによって、ボタンがリモート・コントローラ上で指により活動化されることが可能にされるのと同じ形で、簡単なクリック処置が遂行されることが可能にはならない。その上ジェスチャ認識システムを使用する場合、簡単なクリック処置、及び制御画面の周囲で手を動かすことを同時に遂行することは困難である。1つの理由は、クリック処置は、特定の場所で所定の継続時間の間に手の静止した構えを検出すること、又は時間の所定の期間の範囲内に、あらかじめ規定される軸、例えばZ軸若しくは奥行き軸に沿った前方及び後方の動きを検出することのいずれかにより遂行される傾向があるということである。したがって、ただ1つの手を利用して、同じ時間の範囲内で2つの処置を遂行することは可能ではない。
さらに、既存のリモート制御デバイスとの自然なジェスチャ認識システムの組合せは、既存の装置は触れて扱われなければならないと限定され、遂行及び認識され得るジェスチャの種類及び数に関して強い制約がもたらされる。
米国特許出願公開第2010/0304868号 米国特許出願公開第2011/0269544号 米国特許出願公開第2008/084385号 米国特許出願公開第2007/279380号 米国特許出願公開第2011/202306号
「Providing Haptic Feedback Using the Kinect」、Brandon Shrewsbury、Dundee、Scotland、UK、2011年10月26日 Fratiら、「Using Kinect for hand tracking and rendering in wearable haptics」、World Haptics Conference(WHC)、2011、IEEE、IEEE、2011年6月21日、317〜321頁
その人間工学が、コンピュータ化されたシステムと対話するためのジェスチャ分析システムと組み合わせて使用することに関して特異的である制御デバイスを提供することが、本発明の目的である。
コンピュータ化されたシステムに、追加的な機能性及び/又は付帯的な情報を提供する自然なジェスチャ認識システム内部で使用され得る制御デバイスを提供することが、本発明の別の目的である。
コンピュータ化されたシステムに関連するイメージング・システムにより追跡され得る、ユーザの位置及び動き又はジェスチャに関係する、追加的な、及び精緻化された、情報又はデータを提供するために使用され得る制御デバイスを提供することが、本発明のさらに別の目的である。
ユーザとコンピュータ化されたシステムとの間での情報の両方向の交換の形式で追加的な機能性を提供する自然なジェスチャ認識システム内部で使用され得る制御デバイスを提供することが、本発明のさらなる目的である。
コンピュータ化されたシステムとの、自然なジェスチャ・ベースの対話及びハードウェア・デバイス・ベースの対話の組合せを可能にすることにより、並びにデバイス自体又はジェスチャ認識システムのいずれかにより提供される個別の特徴的機能を制限することなく、コンピュータ化されたシステム内の制御デバイスを制御及び使用して、高められたユーザ使用感をもたらす方法を提供することが、本発明のさらなる目的である。
用語「制御手段」は本明細書では、それによってユーザが制御信号を入力することが可能である、ボタン、スイッチ、方向パッド、及びジョイスティック、並びに任意の他の適したデバイスを含むことが意図される。そのような他の適したデバイス、すなわち「付帯的な制御装置」は、例えば、及び限定するものではないが、コンピュータ化されたシステムに音声コマンドを提供するためのマイクロホン、加速度計、ジャイロスコープであり得る。
本発明の第1の態様によれば、3次元イメージング・システムを有する対話型のコンピュータ化されたシステムを制御する方法が提供され、この3次元イメージング・システムは、3次元カメラであって、それの錐台内部に存在するユーザの少なくとも1つの部分の3次元情報を提供するための3次元カメラを含み、方法は、a)ユーザの少なくとも1つの部分に関連することになる、ユーザ操作の(user−operated)制御デバイスを設けるステップであって、ユーザ操作のデバイスが、ハウジング、ハウジング内に装着される少なくとも1つの制御手段を含む感知モジュールであって、各々の制御手段が、動作させられるときに、コンピュータ化されたシステムに対する制御信号を生成することが可能である、感知モジュール、コンピュータ化されたシステム上で動作するアプリケーションにより生成される信号によってユーザにコンテキストのフィードバックを提供するためのハウジング内に装着される少なくとも1つのフィードバック・モジュール、ハウジング内部に位置する通信モジュールであって、その通信モジュールによって、各々の制御信号が、コンピュータ化されたシステムに送信され、各々のフィードバック信号が、コンピュータ化されたシステムから受信される、通信モジュール、並びにハウジング内に装着されるコントローラ・モジュールであって、各々の生成される制御信号によって、感知モジュール、通信モジュール、及びフィードバック・モジュールを制御する、コントローラ・モジュールを備える、設けるステップと、b)ユーザ操作のデバイス上の少なくとも1つの制御手段からの制御信号を生成するステップと、c)生成された制御信号を使用して、対話型のコンピュータ化されたシステムを制御するステップとを含み、この方法は、ユーザ操作の制御デバイスが関連するユーザの部分に関係する、ユーザ操作の制御デバイスにより提供される情報を使用して、3次元イメージング・システムにより測定される情報の曖昧さを解決するステップをさらに含むことを特徴とする。
方法は、d)コンピュータ化されたシステム上で実行するアプリケーションによってユーザにコンテキストのフィードバックを提供するステップをさらに含み得る。加えて方法は、e)ユーザ操作の制御デバイスを使用して、3次元カメラの錐台内部の、制御デバイスが関連するユーザの少なくとも部分に関係する情報を提供するステップを含む。
好ましくは、ステップe)は、制御デバイスが関連するユーザの部分に関係する、時空間に関係のある情報を提供するステップを含む。時空間に関係のある情報は、制御デバイスが関連するユーザの部分の、ステータス、加速度、方位、及び位置のうちの少なくとも1つを含む。
本発明の好適な実施例では、ユーザ操作の制御デバイスが関連するユーザの部分が、別の物体による遮蔽、ユーザの部分による遮蔽、及びそのユーザ操作の制御デバイスが関連するユーザの部分が3次元カメラの錐台の外側にあるということのうちの1つに起因して、3次元イメージング・カメラに対してもはや視認可能でないときに、そのユーザ操作の制御デバイスが関連するユーザの部分の位置を外挿するために情報が使用される。
加えて、ユーザの部分に関係する提供される情報は、位置、速度、加速度、及び/又は識別情報であり得る。情報は、デバイス自体により提供され得るものであり、又はデバイスから生じるデータを、ジェスチャ分析システムにより決定される他のデータと組み合わせることにより精緻化され得る。好適な実施例では、ユーザの一部分に関係する提供される情報は、好ましくは、3次元イメージング・システムにより測定される情報の曖昧さを解決するために使用され得る。
本発明のさらなる態様によれば、ジェスチャ・ベースの対話型のコンピュータ化されたシステムが提供され、このジェスチャ・ベースの対話型のコンピュータ化されたシステムは、3次元イメージング・システムと、ジェスチャ認識システムと、ユーザ操作の制御デバイスとを備え、このユーザ操作の制御デバイスは、ハウジング、ハウジング内に装着される少なくとも1つの制御手段を含む感知モジュールであって、各々の制御手段が、動作させられるときに、コンピュータ化されたシステムに対する制御信号を生成することが可能である、感知モジュール、コンピュータ化されたシステム上で動作するアプリケーションにより生成される信号によってユーザにコンテキストのフィードバックを提供するためのハウジング内に装着されるフィードバック・モジュール、ハウジング内部に位置する通信モジュールであって、その通信モジュールによって、各々の制御信号が、コンピュータ化されたシステムに送信され、各々のフィードバック信号が、コンピュータ化されたシステムから受信される、通信モジュール、並びにハウジング内に装着されるコントローラ・モジュールであって、各々の生成される制御信号によって、感知モジュール、通信モジュール、及びフィードバック・モジュールを制御する、コントローラ・モジュールを備え、このジェスチャ・ベースの対話型のコンピュータ化されたシステムはさらに、3次元イメージング・システム及びジェスチャ認識システムに関連するコンピュータ化されたシステムであって、3次元イメージング・システムにより捕捉される画像、及びジェスチャ認識システムにより認識されるジェスチャを処理する、コンピュータ化されたシステムを備え、このコンピュータ化されたシステムは、ジェスチャ認識システムにより認識されるジェスチャと連関する、ユーザ操作の制御デバイスからのデータを使用して、3次元イメージング・システムにより測定される情報の曖昧さを解決することを特徴とする。
特にこのジェスチャ・ベースの対話型のシステムによって、手により遂行されるジェスチャを使用する制御信号、及び制御デバイスと対話するユーザにより生成されるハードウェア・ベースの制御信号の入力が可能になる。その上制御デバイスは、対話型のコンピュータ化されたシステムにより規定されるコンテキストにおいて自然なジェスチャ対話により生成され得ない、所定の処置若しくは事象に関係する情報、個々のデータ又はパラメータを提供するために使用され得る。このことの実例は、手が表示画面上で手により制御されるカーソルを連続的にスクロールしている間にクリック処置を遂行すること、又は下記でより詳細に説明するようなドラッグ・アンド・ドロップ動作を遂行することである。
好ましくは、ハウジングは、掌側を画定する第1の表面を有する調整可能なバンドを備える。各々の制御ボタンが、調整可能なバンドの掌側上に装着され、ユーザの少なくとも1つの指により動作させられる。
調整可能なバンドは、背面側を画定する第2の表面もまた有し、背面側は、ユーザのいくつかの他の指により動作させられることになる少なくとも1つの制御ボタンを有し得る。これが、ユーザの他方の手からの指であり得るということが十分認識されよう。
加えて別の一部分が、第1の表面と第2の表面との間で画定され得るものであり、この一部分は、ユーザの親指により動作させられることになる少なくとも1つの制御手段を含む。
ユーザ操作のデバイスは調整可能なバンドを備えるので、そのデバイスは容易に、ユーザの四肢、例えば手の上に配置され得るとともに、そこから取り外され得る。このことは、複数の参加者がいる状況で、各々のユーザが、次のユーザに、又は一方の手から他方の手に、制御デバイスを迅速に渡すことが可能であるということを意味する。このことは、制御デバイスの使用が容易で直観的であり、左手用又は右手用に特有でないということもまた意味する。
調整可能なバンドの少なくとも一部分は可撓性材料を含む。1つの実施例では、バンドの全体が可撓性材料を含み得る。可撓性材料は弾性材料を含み得る。
可撓性材料を用意することは、バンドが、ユーザの手のサイズ及び性別にかかわらずユーザの手に容易に適合されることを可能にするものであり、快適であること、及び調整可能であることの両方である。
1つの実施例ではバンドは、単に手に対して滑らせて着脱され、そのことによって、ユーザ間の容易な引き渡しが可能になる。
1つの実施例ではバンドは、異なるサイズの手に適合するように調整可能であり、2部分の調整可能な留め具を備え得るものであり、2部分の調整可能な留め具の各々の部分は、調整可能なバンドのそれぞれの端部に位置する。好適な2部分の調整可能な留め具は面ファスナを備えるが、他の2部分の留め具、例えば磁気式又は機械式の閉鎖具システムもまた使用され得るということが十分認識されよう。
さらに本発明のジェスチャ・ベースの対話型のシステムは、コンピュータ化されたシステムに情報が提供され得る一方で、適切なジェスチャ認識システムにおいて同時に使用され得る手及び指の自由な動きが可能になるという利点を有する。例えばユーザ操作のデバイスは、ジェスチャ認識システムが、ユーザの手の骨格の手の骨格に適合し、その骨格を追跡することを可能にするように設計されている。
加えて、少なくとも1つの制御手段を有することにより、ユーザ操作のデバイスは、仮想環境内の物体とジェスチャ認識を使用して対話するときに有用である追加的な特徴的機能を提供し、例えば物体は、デバイス上のボタンを押下することにより掴まれ、ジェスチャを使用して別の場所に動かされ、ボタンを解放することによりその別の場所で解放される場合がある。その上、1つ又は複数の制御ボタンの動作は、ユーザが同時に、ジェスチャ認識システムにより要求されるような自然なジェスチャを使用することが可能であるということには干渉しない。
1つの実施例では、調整可能なバンドのフィードバック・モジュールは、少なくとも1つのバイブレータ要素もまた備え得る。バイブレータ要素は、着用されるときにユーザにより近い、調整可能なバンドの表面に近接して位置する。バイブレータ要素は、調整可能なバンドの掌側上、又は調整可能なバンドの別の部分上のいずれかに位置し得るが、好ましくはそのバイブレータ要素が、加速度計(複数可)又はジャイロスコープなどの制御情報を生成する他のユニットのいずれとも干渉しない場所に位置し得る。
加えてフィードバック・モジュールは、スピーカ・モジュール、表示画面、発光ダイオード・デバイス、及びマトリックス・タッチ・フィードバック・モジュールのうちの少なくとも1つをさらに備え得る。
本発明のより良好な理解のために、単に実例としての、付随する図面への参照を次に行う。
本発明の1つの単純な実施例による、制御デバイスの概略的な斜視背面図を例示する図である。 図1に示される制御デバイスの概略的な斜視正面図を例示する図である。 図1及び図2に示される制御デバイス、並びにその制御デバイスが対話するコントローラの構成要素を例示するブロック図を例示する図である。
本発明を、いくつかの個々の実施例に関して、及びある決まった図面を参照して説明するが、本発明はそれらには限定されない。説明する図面は、単に概略的であり、非限定的である。図面において、要素のいくつかのサイズ及び正確な位置は、例示的な目的のために、誇張され、縮尺を基にして描かれない場合がある。
本発明は、人間とマシンの対話領域に関係するものであり、特に、対話でのユーザ使用感を高めるために、自然なジェスチャ認識システムと組み合わせて使用されるように設計されるワイヤレス制御デバイスを使用するシステム及び方法に関係する。特に本発明の制御デバイスは、自然なジェスチャ認識ベースのコンピュータ化されたシステムに、前記ジェスチャ認識システムの特徴的機能を制限することなく、追加的な特徴的機能を提供する。さらにその制御デバイスは、ジェスチャ認識又はハードウェア・デバイス制御のいずれかのシステムのただ1つを使用するいかなるコンピュータ化されたシステムと比較してもユーザ使用感を高めるように、対話時間にユーザにフィードバック情報を提供することが可能である。
米国特許出願公開第2010/0304868号及び米国特許出願公開第2011/0269544号において説明されているコントローラ・デバイスは、制御装置を動作させ、関連するゲーム機の部分を形成するコンピュータ化されたシステムに制御信号を提供するために、一方又は両方の手の中に制御デバイスを保持することに関して活動的であるようにユーザに要求する。しかしながらユーザによっては、例えばその手が大人の手よりかなり小さい子供は、単一のサイズのデバイスに苦闘する傾向がある。当然ながら、異なる手のサイズのこの問題に対する解決策は、2つ以上のサイズのデバイスを提供することとなり、その結果、異なるサイズの手については、ユーザに対するコストの増大を伴って便宜が図られ得る。
全身の用途に対するマーカレスのジェスチャ・ベースの対話を設計するとき、3Dカメラにより提供される詳細な情報、例えば、人間の身体、手、又はさらに複雑には指の、最も精密度の高いツールを追跡する能力が不足していることに起因して、データを取得することが難題となることが多い。このことは特に、ユーザが3Dカメラから、典型的には3mを超える相当の距離にあり、コンピュータ化されたシステムが部屋内部のユーザの部分を追跡しているときに難題である。手のジェスチャ又は手の動きを追跡するときの1つの限界は、手が、活動的な状態にあるか、例えばアイテムを掴んでいるか、それとも活動的でない状態にあるか、例えば物体の上方を通過しているだけであるかを決定することが困難であるということである。
手のジェスチャ又は手の動きを追跡するときの別の限界は、ジェスチャ・ベースの認識システムは画面上の情報の表示に基づく傾向があるので、ジェスチャ・ベースの認識システムではユーザに対するフィードバックが不足しているということである。そのようなシステムでは、システムのユーザが、自分の手の仮想表現が仮想物体といつ接触しているかを推定することが困難であることが多い。視覚的なフィードバックの使用は、表示又は画面を雑然とした状態にする傾向があり、ユーザに充分に自然な、及び/又は没入型の感触を常にもたらすとは限らない。
マーカレスのジェスチャ認識システムでの1つのさらなる限界は、空間分解能が不足していること、曖昧さ、遮蔽に起因して、又は3Dカメラの視野内の物体、若しくはいくつかの潜在的な自己遮蔽のいずれかに起因して、又はその上、追跡されている物体が3Dカメラから(典型的には3mより大きい)相当の距離で離れているときに、手の方位を十分に高い精密度で認識することが可能でないということである。
本発明は、上記で述べた限界を克服し、デバイスの適した機能性、人間工学、及び使いやすさを考慮するリモート制御デバイスを提供する。リモート制御デバイスにより提供される主な特徴的機能は、
1. 少なくとも2つの信頼性の高い状態(及び好ましくはさらに多くのもの)を含む手のステータスに関する情報を提供すること、
2. 3Dカメラ・ベースのジェスチャ認識システムから決定されるデータを補足又は精緻化するための追加的なデータを提供すること、
3. システムの透過性及び使用性のバランスをとるために、ユーザに追加的なフィードバックを提供すること、並びに
4. アプリケーションとのマーカレスの全身の自然なジェスチャ対話を補足するのに適した人間工学的品質を提供すること
を含む。
本発明のデバイスは、手を覆って着用され得る、及び同じ手の指により動作させられ得る掌側上の少なくとも1つの制御ボタンを組み込むバンドを備え、ユーザの指はそれでもなお、それらの指が、制御デバイスが存在しない状態であるのと同じ形で自由に動くことが可能である。デバイスは、ゲーム機内のコンピュータ化されたシステムの部分を形成する3次元(3D)イメージング・システム(3Dカメラを含む)内部で使用され、そのことによって、ジェスチャとバンドからの直接の制御信号との両方が、実行している、及びコンピュータ化されたシステムにより制御されているゲームと対話する間に、ユーザ使用感を高めるようにシステムにより処理され得る。
図1及び図2では、本発明によるコントローラ・デバイス100が示されている。デバイス100は、図2でより明確に示されるように、3つの制御ボタン120、130、140が上に装着される調整可能なバンド110を備える。示されるようにバンド110は、ユーザの手150を覆って適合し、留め具160により手の上に定位置で保持される。留め具160は、バンド110がユーザの手150に適合するように調整され得る1つの位置をもたらす。典型的には留め具160は、手に適合するように調整され得る2部分の留め具を備え、その場合留め具の一方の部分は、バンドの一方の端部170に固定され、留め具の他方の部分は、バンドの他方の端部180に固定され、そのことによって、2つの端部170、180が重なるとき、バンド110は手150の周囲に固着させられる。1つのそのような2部分のファスナは、「面」ファスナ、例えばVelcro(登録商標)(The Velcro Company、Manchester、NH、米国の登録商標)である。しかしながら、他の形式の2部分のファスナ、例えばフック・アンド・アイ、磁石及び金属板、スナップ等もまた使用され得るということが十分認識されよう。
バンド110は、方位角及び重力の方向、並びに任意の方向での動きの速さ及び加速度を測定するために、少なくとも2軸加速度計、好ましくは3軸加速度計、及びジャイロスコープ(それは、バンドの内側に埋め込まれているので図示せず)を含む。このことは、デバイス100のサイズが任意のハンドヘルドの制御デバイスよりかなり小さくなり得るという利点を有する。さらに加速度計は、単に手150のピッチ及び/又はロールの傾斜を制御することにより、標準的なジョイスティック・デバイスの2つの制御軸の等価物をもたらすことが可能であり得る。
加えて加速度計は、デバイス100を着用するときの手150の加速度に関する信頼性及び精密度の高い値を提供する。加速度に関するこの信頼性及び精密度の高い値は、コンピュータ化されたシステム(図示せず)が手であると推測するものを検証するために使用され得る。手のこの推測は、逆運動学ベースのユーザの骨格適合処理を使用して、ユーザの部分を識別すること、及び特に、経時的に手の位置を識別することにより得られ得る。次いで、追跡される手の時空間特性が、データの識別及び精度を精緻化するために、経時的に、物を扱う手の位置に関して提供されるデバイス・データと比較され得る。特にデバイスにより提供される加速度値は、手が、コンピュータ化されたシステムの部分を形成する3Dカメラに対して、別の物体若しくは身体の部分による遮蔽に起因して、又は手が3Dカメラの視野から外れているために、もはや視認可能でないときに、手の位置を外挿するために使用され得る。
さらに、コンピュータ化されたシステムに渡される加速度計情報は、内に制御デバイスが位置する手によって各々の制御ボタンに対して機能及び/又は特徴的機能を自動的にロードすることが可能であるように、ユーザの部分の識別及び追跡と組み合わされる場合がある。例えば2デバイスの対話型のアプリケーションでは、右手内のデバイスが、個々のアプリケーションに対して前もって構成される場合があり、左手内のデバイスが、ユーザの左手内の制御デバイスから提供される加速度計情報によってさらに構成される場合がある。2つのデバイスを使用するとき、各々のデバイスの制御手段、すなわちボタンは、中にそれらが位置する手によって構成され得る。このことは、デバイスを左手から右手に変えるときに、デバイスからの加速度計及び/又はジャイロスコープのデータを、ジェスチャ認識システムにより決定される左手及び右手に対する時空間データと比較することにより自動的に遂行される。
トランシーバ・ユニット(やはり図示せず)もまた、関連するコンピュータ化されたシステムに、制御ボタン120、130、140により生成される制御信号を送信するためにバンド110の内側に埋め込まれる。加えて信号がさらに、コンピュータ化されたシステムから受信され得る。適した周波数帯域内の電磁放射が、コントローラ・デバイス100とその関連するコンピュータ化されたシステムとの間で信号を伝送するために使用され得る。
図1に示されるように留め具160は、好ましくは手150の甲上に位置し、図2に示されるように制御ボタン120、130、140は、手150の掌内に位置する。しかしながらバンド110が、バンドが直ちに、及び容易に、手の上に配置され手から取り外されることを可能にする、少なくとも1つの適した材料で作製される場合、留め具160を有することは必要ではない場合があるということが十分認識されよう。制御ボタン120、130、140に加えて、3Dカメラとの対話が非接触式の性質であることに起因して触感覚が不足していることを緩和する、フィードバック要素(図示せず)もまた、デバイス100の掌側上に位置し得る。フィードバック要素は、例えば、物体が、コンピュータ化されたシステム上で実行するゲームの仮想環境内でユーザの手の仮想表現に接触されたということを確認するために、要求に応じてブザーで知らせる、又は振動するバイブレータを備え得る。加えてフィードバック要素は、ユーザにオーディオ・フィードバック信号を提供する音響デバイスを備え得る。加えて他の形式のフィードバックが、代替形態として、又は追加形態としてのいずれかで実装され得る。これらの形式は、熱的な、電気的な、及び/又は接触式の配置構成を含み得る。
制御ボタン120、130、140が、図2に示されるようにバンド110の掌側上に位置することに加えて、他の制御手段又はボタン(図示せず)が、例えば他方の手によるような動作のために、バンドの背面側上に設けられる場合がある。他の制御手段又はボタンは、例えば親指による動作のために、デバイスの背面側と掌側との中間に設けられる場合もある。
各々の制御ボタン120、130、140は、ボタン上のユーザの指の圧力により制御されるいくつかの状態を有するアナログ・ボタンであり得る。代わりに各々の制御ボタン120、130、140は、ユーザの指による押下により「オン」状態と「オフ」状態との間で動作する2値状態ボタンを備え得る。制御ボタン120、130、140は、図3を参照して下記で説明するように、圧力及び/又は距離を表現する連続的な信号もまた提供し得る。加えてバイオメトリック・センサが、例えば心拍数及び電気皮膚反応を監視するために、バンド上に実装され得る。
個別の制御ボタンに対する代替形態として、連続的な感知表面、例えば制御パッドが設けられ得る。そのような制御パッド(図示せず)は、ユーザの親指による動作のために設けられ得るものであり、制御パッドは、ユーザが右利きであるか左利きであるかのいずれかのときに、親指によりアクセスされ得るバンド上の位置に位置する。
加えてボタンは、データを提供するためにユーザにより動作させられる必要がなく連続的なデータを提供する、圧力、曲げ、静電容量、及び/又は距離のセンサであり得る。
制御手段(すなわちボタン、加速度計等)に加えてデバイス100は、下記で図3を参照してより詳細に説明するように、電子部品、例えばバッテリ、マイクロコントローラ、及びワイヤレス・モジュールもまた含む。ユーザとのインタフェースのために直接使用されないすべての部品は、好ましくは、それらの部品が、コンピュータ化されたシステムとの対話を提供するために使用される掌の区域を雑然とした状態にしないように、バンド110の背面上に位置する。
加えて、制御デバイスへの追加的なセンサ及び/又はアクチュエータの接続を可能にする入出力ポートが設けられ得る。例えば、追加的な制御データ又は追加的な抵抗を提供して、追加的なコンテキストのフィードバックを提供する、アドオンの曲げセンサが、人さし指又は中指の周囲に適合するように設けられ得る。
バンド110は、可撓性であり手150の形状に直ちに一致するシリコーンを備え得る。加えてバンド110は、ボタンが、あらかじめ規定されている場合に、バンドが右手又は左手上に配置される場合に使用され得るように、バンド110が1つの特別な方位で着用され得るのみであるように形状設定される場合がある。より一般的には、バンド110は好ましくは、両手利きの使用をもたらすように、及び/又はユーザがより複雑な対話のために各々の手の上にバンドを有することを可能にするように、バンドが右手又は左手のいずれかの上に着用され得るように、少なくとも1つの平面に関して対称的である。バンド用にシリコーン材料のタイプを使用することにおいての1つの利点は、シリコーン材料のタイプは、制御ボタンがより容易な動作のために手の掌内に収まり続けることが可能であるように、ユーザの手による把持をもたらすということである。
代わりにバンド110は、制御手段、フィードバック手段、及びデバイス100の動作のための任意の他の必要な電子回路を収納することが可能である任意の他の適した材料で作製され得る。バンド110は、それらの特定の特性のために利用される異なる材料を備え得るものであり、例えば、手150の掌内に位置することになるバンド110の一部分は、高められた把持をもたらすようにシリコーンでできている場合があり、シリコーンに近接するバンド110の一部分は、適合が調整され得るように弾性のあるものである場合があり、ファスナ160は、適合が調整され得るように、及び手150上のデバイス100の位置設定を容易にするために、Velcroを備える場合がある。
使用の際にユーザは、自分の手150を覆ってデバイス100を配置し、2部分のファスナ160を使用して快適な適合のためにデバイス100を調整する。理想的には、手150上のデバイス100の適合とは、ユーザがデバイスを保持することとデバイスを着用することとの間でのバランスであり、すなわちユーザが、ボタン120、130、140が容易に動作させられ得る位置でデバイス100を維持する際に何の労力も働かせる必要がないということである。その上、デバイス100はグローブではなく、動作のために保持される必要がないということが十分認識されよう。さらにデバイスは、直ちに手にあてがわれ、手から取り外され得るものである。
一方の手にデバイスを有する状態でユーザは、奥行き感知3Dカメラなどの3Dイメージング・システムを含むジェスチャ認識手段と、コンテキストの命令及びフィードバック情報を提供するためのアプリケーションとに関連する、コンピュータ化されたシステムと対話することが可能である。1つの実施例ではユーザは、仮想環境の中心において画面上にアバターにより表現される場合があり、3Dカメラの錐台内部で行動し動くことが自由である。ユーザの動き及びジェスチャは、コンピュータ化されたシステム内で動作するソフトウェアにより認識される。フィードバックが、例えば、画面上に表示されるような仮想環境内の仮想物体にユーザの手がタッチしたときに指示するために振動の形式で、ユーザに提供される。
その最も単純な実施例ではバンドは、ユーザにより押下されるときに、関連するコンピュータ化されたシステムに信号を自動的に送出する、単一のボタンを備える。特にこの場合では、ユーザの好適な指、例えば人さし指又は中指の1つによる動作のために、手の掌に対するボタンの位置を調整することが可能である。
別の実施例では2つの長いボタンが、それらのボタンがユーザの好みによって異なる指により、又は同じ指により動作させられ得るように設けられる場合がある。デバイスのハードウェアのセット・アップが、デバイスの人間工学に起因して固定されている場合がある一方で、2つのボタンは、それらのボタンが、3つの最も使用される指、すなわち人さし指及び中指及び親指のうちの1つ又は2つをユーザが動かすことにより自然に動作させられ得る位置に位置し得る。例えば第1のボタン、すなわち人さし指に最も近いボタンが、親指により使用される場合があり、他方のボタンが、人さし指又は中指により使用される場合がある。
2つ以上のボタンが存在する、より進歩した実施例では、ユーザの指に対してボタンを位置合わせすることが可能である。ここで、4つ以上のボタンが、図1及び図2を参照して上記で説明したように設けられ得るということが十分認識されよう。加えて、ボタンの2つ以上の列が存在する場合がある。
ボタンの機能があらかじめ規定されている最も単純な実施例は別として、各々のボタンの機能は、固定されていない場合があり、ユーザ又はコンピュータ・システムにより規定可能であり得るということが十分認識されよう。より好適な実施例ではコンピュータ・システムは、コンピュータ化されたシステムにより動作させられるアプリケーションによって、又はコンピュータ化されたシステムにより走らされているアプリケーション内の1つの特別なコンテキストによって、制御手段、特にボタンを自動的且つ動的に事前設定するための手段を含み得る。
別の実施例では加速度計が、重力によって垂直方向を決定するために使用され得るとともに、各々のボタンの機能性が、それに応じて割り当てられる。
好適な実施例ではデバイスは、シーン内にあるアバターによりユーザが表現され得る仮想環境内で使用され得る。ユーザは、コンピュータ化されたシステムに関連する3Dカメラの錐台内部で自由に行動し動くことが可能であり、そのことによってユーザの動き及び/又はジェスチャは、本発明によって、コンピュータ化されたシステム内で走らされるソフトウェアにより認識及び追跡され得るものであり、次いで制御デバイス100の入力に関連付けられ得る。アバターをシーン内部で動かし対話させるために、ユーザは、制御デバイス100により提供される特徴的機能を、さらにはジェスチャ認識ソフトウェアにより提供される特徴的機能を使用する。
ボタン120、130、140により実装され得るいくつかの特徴的機能は、次のことを含む:
− 第1のボタンが押下されるとき、デバイス100の方位が、関連するコンピュータ化されたシステムに登録され、そのときから方向の変化が、デバイス100がユーザの手の中のジョイスティックであるかのように、並進の速さ、前方か後方か、及び左又は右への回転の速さを制御する。ボタンが解放されるとき、デバイス100により提供される誘導の制御が休止させられ、そのことによってユーザの動きが、仮想環境と直接対話するために使用される。
− 第2のボタンが押下されるとき、第1のボタンと同様の機構を使用して、ユーザは、仮想環境内のアバターの周囲の3Dカメラの回転を制御することが可能である。
− 第3のボタンが押下されるとき、「ドラッグ・アンド・ドロップ」機能が履行され得る。ここでは、最も近い「肉体的な」物体、すなわち、上にデバイス100が配置されるユーザの手に対して、仮想表現で最も近い物体が、仮想物体に向かって動き、その仮想物体を掴み、仮想物体は、ボタンが解放されない限りは手の動き及び方向にしたがう。ボタンが解放されるとき、物体は、ボタンが解放される時間での仮想環境に関するユーザの手の場所でドロップされる。
この特定の機能は、仮想環境内部で仮想物体を拾い上げる、運搬する、動かす、及び起動することが可能であるということをもたらす。
シーン内の物体とユーザのアバター表現との間で衝突が起こるとき、デバイスの掌上のバイブレータが、仮想的な衝撃の強度に比例し得る、又は物体が衝突したと考えられる材料の硬度に比例し得る強度で振動する。同様に振動の増大が、仮想物体の重量に関してユーザに情報を伝えるために使用され得る。
上に制御デバイス100が配置される手が、シーン内部で検出され得ることが重要であるということが十分認識されよう。このことは、手に対応する一部分を有するユーザの任意の骨格の表現を使用して行われ得る。仮想空間内の手の場所特定は、3軸加速度計からの出力を使用して、及びジャイロスコープの出力を追加的に使用して向上させられ得る。骨格の表現を使用するのではなく、すべてが3Dカメラの錐台内部にある、画像処理によるシーンの任意の識別される特徴部、例えば四肢、色付けされた物体、特定の形状、身体の部分等の動きが、デバイス100の加速度と、デバイスがその識別される特徴部に取り付けられている確率を評価するために比較される場合がある。
別の好適な実施例ではジャイロスコープが、デバイス100の内部に設けられ得るものであり、デバイスが取り付けられる、身体の部分、及び特に手の方位検出を向上させる情報を提供する。
別の好適な実施例ではジャイロスコープは、相対的な方位の測定結果ではなく絶対的な方位の測定結果を提供するために、コンパスにより置換される場合がある。これらの絶対的な測定結果の使用は、デバイスが取り付けられる、身体の部分、及び特に手の方位検出を向上させるためにもまた使用される。このことは、ジャイロスコープに加えてのことである場合がある。
加えて、複数の制御デバイスが同時に使用される場合がある。例えば単一のユーザが、各々の手の上の制御デバイスを使用する場合があり、又は複数のユーザが各々、一方の手の上の制御デバイスを使用する場合がある。これらの場合では使用される通信プロトコルは、各々の制御デバイスのアイデンティティ又は個別のアドレスの間で区別することが可能である必要がある。
次に図3に目を向けると、対話型のゲーム機又はコンピュータ・システム(図示せず)のための制御システム300のブロック図が示されている。制御システム300は、対話型のゲーム機に収納され、電子回路モジュール320を備える、コンピュータ化されたシステム310を備える。電子回路モジュール320は、マイクロコントローラ330及びトランシーバ340を備える。トランシーバ340は、Bluetooth(登録商標)(Bluetoothスペシャル・インタレスト・グループの登録商標)、Wi−Fi(商標)(Wi−Fiアライアンスの商標)、ZigBee(商標)(ZigBeeアライアンスの商標)、及び他の無線周波数(RF)帯域のうちの1つ又は複数上で動作する。[Bluetooth(登録商標)は2.4から2.48GHzの産業、科学、及び医療(ISM)帯域内で動作し、Wi−FiはIEEE802.11によって動作し、ZigBeeもまたIEEE802によって動作する。]当然ながらトランシーバ340は、例えば可視光及び赤外放射を使用する、他の通信システムを使用して動作し得る。トランシーバ340は、2つ以上のタイプの放射及び/又はRF帯域を使用して動作し得るということが十分認識されよう。この場合では、専用の送信及び受信モジュールが、各々のタイプの放射及び/又はRF帯域に対して設けられる。
トランシーバ340は、矢印335により指示されるような双方向通信のためにマイクロコントローラ330に接続され、マイクロコントローラ330により制御され、本発明による制御デバイス350からの信号を送受信する。制御デバイス350は、図1及び図2を参照して上記で説明したデバイス100に対応する。
制御デバイス350は、3つのユニット・グループ、すなわち感知ユニット360、駆動ユニット370、及びフィードバック・ユニット380を備える。感知ユニット360は、制御手段、すなわち、慣性感知ユニット400、2値状態パッド410、アナログ・パッド420、2値ジョイスティック430、アナログ・ジョイスティック440、2値状態ボタン450、及びアナログ・ボタン460を備える。これらの要素の1つのみが示されているが、1つの特別な構成によっては、制御デバイス350内に存在し得る、2つ以上のものが存在する場合があるということが十分認識されよう。
慣性感知ユニット400は、少なくとも2軸加速度計を含み得る。好適な実施例では慣性感知ユニットは、上記で説明したような単一の3軸加速度計、又はその各々がx、y、及びz軸のそれぞれの1つに位置合わせされる3つの個別の加速度計を含み得る。代わりに、又は加えて、慣性感知ユニット400は、x、y、及びz軸のそれぞれの1つに位置合わせされるジャイロスコープの要素もまた備え得る。
2値状態パッド410及びアナログ・パッド420は本質的には、中央部の押し又は2値状態に関して、平面内の少なくとも1つの感知可能な方向、例えば北、南、東、及び西の方向を有する、圧力を感知可能な入力デバイスである。そのようなパッドは、方向パッド、ジョイパッド、又はDパッドとして知られている。
2値状態パッド410の場合ではパッドは、連続的な平坦な形式のボタンを備え得るものであり、提供されるデータ値はデジタルであり、ユーザにより選定される方向に比例し、そのデータ値もまた「オン」又は「オフ」状態であり得る。
アナログ・パッド420の場合ではパッドは、連続的な多方向の2Dの平坦な形式のボタンを備え、提供されるデータ値はアナログであり、やはりユーザにより選定される方向に比例し、データ値は、ユーザの指が個々の方向において中心位置からどれだけ離れているかに応じて、各々の方向において連続的である。
加えて2値状態パッド410及びアナログ・パッド420は、中間状態が提供されるクロスフェーダ(cross-faders)又は多方向パッドであり得る。
2値ジョイスティック430及びアナログ・ジョイスティック440は、上記で説明したパッドと同様の形で動作するが、各々は、突出する要素、例えばスティックを有する表面を備え、その突出する要素は表面に直交する。2値状態パッド410を参照して上記で説明したように、2値ジョイスティック430は、デジタルであり、ユーザにより設定される方向に比例するデータ値を提供する。同様にアナログ・ジョイスティック440は、アナログであり、ユーザにより設定されるような個々の方向においての中心位置からの距離に比例するデータ値を提供する。
2値状態ボタン450は、ユーザの指により「オン」状態と「オフ」状態との間で動作させられ得る、少なくとも1つのボタンを備える。図2を参照して上記で説明したボタン120、130、140のうちの1つ又は複数は、2値状態ボタンであり得る。
アナログ・ボタン460は、ユーザの指により付与される圧力によりいくつかの異なる状態によって動作させられ得る、少なくとも1つのボタンを備える。前のように、図2を参照して上記で説明したボタン110、120、130のうちの1つ又は複数は、アナログ・ボタンであり得る。
感知ユニット360に接続されているのが、駆動ユニット370である。駆動ユニット370は、矢印475により指示されるように電子回路モジュール480に接続される電源470を含む。電源470は、矢印490により指示されるように、感知ユニット360内部の構成要素に、及び矢印495により指示されるように、下記で説明するような、フィードバック・ユニット380内部の構成要素にもまた、電力を提供する。電源470は、例えば、誘導を使用して、適した主電源への直接接続により、又はコンピュータ化されたシステム若しくは他の適したコンピュータ・デバイスへのUSB接続により、再充電可能であり得る、バッテリ又は他の可搬型の電気供給部であり得る。バッテリは、ユーザの動きにより、又は光起電力電池への接続により再充電される場合もある。1つの実施例では、制御デバイス350が光起電力電池(図示せず)もまた含む場合があり、その光起電力電池によってバッテリが、光レベルが充分に高いという条件のもとで絶えず充電される。
電子回路モジュール480は、マイクロコントローラ500、トランシーバ510、及び入出力(I/O:input/output)モジュール520を含む。マイクロコントローラ500は、示されるようなそれぞれの矢印515及び525により指示されるように、トランシーバ510及びI/Oモジュール520の両方に接続される。これらの接続は双方向接続であり、そのことによって情報は、要求に応じて、トランシーバ510及びI/Oモジュール520からマイクロコントローラ500に、並びにマイクロコントローラ500からトランシーバ510及びI/Oモジュール520に渡され得る。マイクロコントローラ500は、矢印365、385により指示されるように、感知ユニット360及びフィードバック・ユニット380内部の適したインタフェース(図示せず)を介して、感知ユニット360及びフィードバック・ユニット380にもまた接続される。各々のインタフェースは、感知ユニット360内部の構成要素400、410、420、430、440、450、460、及び下記でより詳細に説明するようなフィードバック・ユニット380内部の構成要素の各々を往来する信号を伝送するためのバス(やはり図示せず)に接続する。
I/Oモジュール520は、コンピュータ化されたシステム310に直接デバイス350を接続するためのUSBポートを含み得る。I/Oモジュール520は、電源が再充電可能なバッテリ・ユニットを備える場合、電源470を充電するための充電点もまた含み得る。加えて他のセンサが、ユーザの手の動き及び/又は位置に関係するさらなる情報を提供するように、I/Oモジュール520に取り付けられる場合がある。
フィードバック・ユニット380は、スピーカ・モジュール550、バイブレータ・モジュール560、表示画面モジュール570、発光ダイオード(LED:light−emitting diode)モジュール580、及びマトリックス・タッチ・フィードバック・モジュール590のうちの1つ又は複数を備える。デバイス100上に設けられるフィードバック構成要素の数は、提供されることになるフィードバックのタイプによって決まることになるということが十分認識されよう。上記で説明したようにバイブレータ・モジュール560は、ユーザに触覚フィードバックを提供するための好適な構成要素である。
スピーカ・モジュール550は、ユーザにオーディオ・フィードバックを提供するための少なくとも1つのスピーカ要素を備える。表示画面モジュール570及びLEDモジュール580は、ユーザに視覚的なフィードバックを提供し、表示画面モジュール570は、LEDモジュール580より詳細な情報を表示する能力を有する。1つの好適な実施例ではLEDは、色を緑(完全に充電されている)から黄(例えば、50%の充電)に、赤(再充電を必要とする)に変化させて、電源ステータス情報を提供することが可能である。
マトリックス・タッチ・フィードバック・モジュール590は、触感覚の形式でフィードバックを提供する、アクチュエータ、例えば、振動する要素又は電極のアレイを備える。図1及び図2を参照して上記で説明した制御デバイス100では、このモジュールは、そのモジュールが触感覚を刺激するようにユーザの肌に接して位置し得る区域内に位置する。
制御デバイスの本発明を特定の実施例を参照して説明したが、制御デバイスの他の実装形態もまた可能であるということが十分認識されよう。

Claims (20)

  1. 3次元イメージング・システム、ジェスチャ認識システム、および前記3次元イメージング・システムと前記ジェスチャ認識システムに関連するコンピュータ化されたシステムを有するジェスチャベース対話型コンピュータ化されたシステム制御する方法であって、前記3次元イメージング・システムが、3次元カメラであって、前記3次元カメラの錐台内部に存在するユーザの少なくとも1つの部分に関係する3次元情報を提供するための3次元カメラを含み、前記コンピュータ化されたシステムが、前記3次元イメージング・システムによって捕捉される画像と前記ジェスチャ認識システムによって識別されたジェスチャを処理し、
    前記方法が、
    a)前記ユーザの少なくとも1つの部分に関連することになる、ユーザ操作の制御デバイスを供給するステップであって、前記ユーザ操作の制御デバイスが、
    ハウジング、
    前記ハウジング内に装着される少なくとも1つの制御手段を含む少なくとも1つの感知モジュールであって、各々の制御手段が操作されたときに、前記コンピュータ化されたシステムに対する制御信号を生成するように構成された、少なくとも1つの感知モジュール、
    前記コンピュータ化されたシステム上で動作するアプリケーションによって前記ユーザにコンテキストのフィードバックを提供するように構成された、前記ハウジング内に装着される少なくとも1つのフィードバック・モジュール、
    前記ハウジング内部に位置する通信モジュールであって、各制御信号、前記コンピュータ化されたシステムに送信各フィードバック信号、前記コンピュータ化されたシステムから受信するように構成された通信モジュール、並びに
    前記ハウジング内に装着されるコントローラ・モジュールであって、各々の生成された制御信号によって、前記感知モジュール、前記通信モジュール、及び前記フィードバック・モジュールを制御するように構成された、コントロー
    備える、ステップと、
    b)前記ユーザ操作の制御デバイス上の少なくとも1つの制御手段からの制御信号を生成するステップと、
    c)前記生成された制御信号を使用して、前記対話型コンピュータ化されたシステムを制御するステップと
    を含む、方法において、
    前記ステップc)が、前記ジェスチャ認識システムから得られる情報とあわせて前記ユーザ操作の制御デバイスにより提供される情報を使用するステップを含み、
    前記ステップc)が、ジェスチャ認識システムからの情報とあわせて前記ユーザ操作の制御デバイスにより提供される情報を使用して、前記3次元イメージング・システムにより測定される情報の曖昧さを解決するステップを含み、前記ユーザ操作の制御デバイスにより提供される情報は、3次元カメラから決定される3次元情報を精緻化するように前記ジェスチャ認識システムからの情報とあわせて利用され、前記ユーザ操作の制御デバイスが関連する前記ユーザの前記部分が、別の物体による遮蔽、前記ユーザの別の部分による遮蔽、及び前記ユーザの前記部分が前記3次元カメラの前記錐台の外側にあるということのうちの1つに起因して、前記3次元イメージング・カメラに対してもはや視認可能でないときに、前記ユーザの前記部分の位置を外挿するために使用されることを特徴とする、方法。
  2. 前記コンピュータ化されたシステム上で実行するアプリケーションによって前記ユーザにコンテキストのフィードバックを提供する、請求項1に記載の方法。
  3. 前記ユーザ操作の制御デバイスを使用して、前記ユーザの前記部分が前記3次元カメラの前記錐台内部にあるとき、前記制御デバイスが関連する前記ユーザの少なくとも前記部分に関係する情報を提供する、請求項1又は2に記載の方法。
  4. 更に、前記制御デバイスが関連する前記ユーザの前記部分に関係する、時空間に関係のある情報を提供する、請求項3に記載の方法。
  5. 前記時空間に関係のある情報が、前記制御デバイスが関連する前記ユーザの前記部分の、ステータス、加速度、方位、及び位置のうちの少なくとも1つを含む、請求項4に記載の方法。
  6. ジェスチャ・ベースの対話型のコンピュータ化されたシステムであって、
    錐台内に存在するユーザの少なくとも1部分に関係する3次元情報を供給する3次元カメラを含む3次元イメージング・システムと、
    ジェスチャ認識システムと、
    前記3次元イメージング・システム及び前記ジェスチャ認識システムに関連するコンピュータ化されたシステムであって、前記3次元イメージング・システムにより捕捉される画像、及び前記ジェスチャ認識システムにより認識されるジェスチャを処理するように構成された、コンピュータ化されたシステムと、
    前記ユーザの少なくとも一部分に関係するように構成された、ユーザ操作の制御デバイスであって、
    ハウジング、
    前記ハウジング内に装着される少なくとも1つの制御手段を含む少なくとも1つの感知モジュールであって、各制御手段が操作されたときに、前記コンピュータ化されたシステムに対する制御信号を生成するように構成された、少なくとも1つの感知モジュール、
    前記コンピュータ化されたシステム上で動作するアプリケーションによって前記ユーザにコンテキストのフィードバックを提供するように構成され、前記ハウジング内に装着されるフィードバック・モジュール、
    前記ハウジング内部に位置する通信モジュールであって、各制御信号前記コンピュータ化されたシステムに送信し、各フィードバック信号を、前記コンピュータ化されたシステムから受信するように構成された、通信モジュール、および
    前記ハウジング内に装着されるコントローラ・モジュールであって、各々の生成される制御信号によって、前記感知モジュール、前記通信モジュール、及び前記フィードバック・モジュールを制御するように構成されたコントローラ、
    備えたユーザ操作の制御デバイスを含み、
    前記ジェスチャ・ベースの対話型のコンピュータ化されたシステムが、前記ジェスチャ認識システムにより提供される情報と合わせて前記ユーザ操作の制御デバイスにより提供される情報を使用するように構成され、
    前記3次元イメージング・システムにより測定される情報の曖昧さを解決するために、前記ユーザ操作の制御デバイスにより提供される情報は、3次元カメラから決定される3次元情報を精緻化するように前記ジェスチャ認識システムからの情報とあわせて利用され、前記ユーザ操作の制御デバイスが関連する前記ユーザの前記部分が、別の物体による遮蔽、前記ユーザの別の部分による遮蔽、及び前記ユーザの前記部分が前記3次元カメラの前記錐台の外側にあるということのうちの1つに起因して、前記3次元イメージング・カメラに対してもはや視認可能でないときに、前記ユーザの前記部分の位置を外挿するために使用されることを特徴とする、
    システム。
  7. 前記ハウジングが、掌側を画定する第1の表面を有する調整可能なバンドを備え、各々の制御ボタンが、前記掌側上に装着され、前記ユーザの少なくとも1つの指により動作させられる、請求項に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
  8. 前記調整可能なバンドが、背面側を画定する第2の表面を有し、前記背面側が、前記ユーザの他の指により動作させられることになる少なくとも1つの制御ボタンを有する、請求項に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
  9. 一部分が、前記第1の表面と前記第2の表面との間で画定され、前記一部分が、前記ユーザの親指により動作させられることになる少なくとも1つの制御ボタンを含む、請求項に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
  10. 前記調整可能なバンドの少なくとも一部分が可撓性材料を含む、請求項からまでのいずれか一項に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
  11. 前記可撓性材料が弾性材料を含む、請求項10に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
  12. 前記調整可能なバンドが、2部分の調整可能な留め具を備え、前記2部分の調整可能な留め具の各々の部分が、前記調整可能なバンドのそれぞれの端部に位置する、請求項から11までのいずれか一項に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
  13. 前記2部分の調整可能な留め具が面ファスナを備える、請求項12に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
  14. 前記2部分の調整可能な留め具が磁気閉鎖具及び機械閉鎖具のうちの1つを備える、請求項12に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
  15. 前記フィードバック・モジュールがバイブレータ要素を備える、請求項から14までのいずれか一項に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
  16. 前記バイブレータ要素が、着用されるときに前記ユーザにより近い、前記調整可能なバンドの表面に近接して位置する、請求項15に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
  17. 前記フィードバック・モジュールが、スピーカ・モジュール、表示画面、発光ダイオード・デバイス、及びマトリックス・タッチ・フィードバック・モジュールのうちの少なくとも1つをさらに備える、請求項15又は16に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
  18. 前記感知モジュールが、前記コンピュータ化されたシステムに音声コマンドを提供するためのマイクロホン、慣性感知ユニット、2値状態パッド、アナログ・パッド、2値ジョイスティック、アナログ・ジョイスティック、2値状態ボタン、アナログ・ボタン、光学センサ、及びコンパスのうちの少なくとも1つをさらに備える、請求項から17までのいずれか一項に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
  19. 前記ユーザ操作の制御デバイスが、人間工学的であり、平面に関して対称的であり、それにより、両手利きに応じたものである一方で、手のジェスチャ及び指のジェスチャの両方の対話が可能になる、請求項から18までのいずれか一項に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
  20. 前記デバイスの人間工学及び設計が、手で前記デバイスを活動的且つ自発的に保持することを要求せず、一方でそれでもなお自由な自然な動きを可能にする、請求項19に記載のジェスチャ・ベースの対話型のコンピュータ化されたシステム。
JP2014550738A 2012-01-09 2013-01-09 高められたジェスチャ・ベースの対話のためのシステム及び方法 Expired - Fee Related JP5969626B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12000116.9 2012-01-09
EP12000116.9A EP2613223A1 (en) 2012-01-09 2012-01-09 System and method for enhanced gesture-based interaction
PCT/EP2013/050318 WO2013104681A1 (en) 2012-01-09 2013-01-09 System and method for enhanced gesture-based interaction

Publications (2)

Publication Number Publication Date
JP2015507803A JP2015507803A (ja) 2015-03-12
JP5969626B2 true JP5969626B2 (ja) 2016-08-17

Family

ID=47563483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014550738A Expired - Fee Related JP5969626B2 (ja) 2012-01-09 2013-01-09 高められたジェスチャ・ベースの対話のためのシステム及び方法

Country Status (6)

Country Link
US (1) US9360944B2 (ja)
EP (1) EP2613223A1 (ja)
JP (1) JP5969626B2 (ja)
KR (1) KR101666096B1 (ja)
CN (1) CN104094196B (ja)
WO (1) WO2013104681A1 (ja)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8487759B2 (en) 2009-09-30 2013-07-16 Apple Inc. Self adapting haptic device
US10013058B2 (en) 2010-09-21 2018-07-03 Apple Inc. Touch-based user interface with haptic feedback
US10120446B2 (en) 2010-11-19 2018-11-06 Apple Inc. Haptic input device
WO2014009561A2 (en) 2012-07-13 2014-01-16 Softkinetic Software Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
US9178509B2 (en) 2012-09-28 2015-11-03 Apple Inc. Ultra low travel keyboard
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US9507562B2 (en) 2013-08-21 2016-11-29 Navico Holding As Using voice recognition for recording events
US10251382B2 (en) * 2013-08-21 2019-04-09 Navico Holding As Wearable device for fishing
WO2015047356A1 (en) * 2013-09-27 2015-04-02 Bodhi Technology Ventures Llc Band with haptic actuators
WO2015047343A1 (en) 2013-09-27 2015-04-02 Honessa Development Laboratories Llc Polarized magnetic actuators for haptic response
WO2015047364A1 (en) 2013-09-29 2015-04-02 Pearl Capital Developments Llc Devices and methods for creating haptic effects
WO2015047372A1 (en) 2013-09-30 2015-04-02 Pearl Capital Developments Llc Magnetic actuators for haptic response
US9317118B2 (en) 2013-10-22 2016-04-19 Apple Inc. Touch surface for simulating materials
WO2015088491A1 (en) 2013-12-10 2015-06-18 Bodhi Technology Ventures Llc Band attachment mechanism with haptic response
US10725550B2 (en) 2014-01-07 2020-07-28 Nod, Inc. Methods and apparatus for recognition of a plurality of gestures using roll pitch yaw data
WO2015105919A2 (en) * 2014-01-07 2015-07-16 Nod, Inc. Methods and apparatus recognition of start and/or stop portions of a gesture using an auxiliary sensor and for mapping of arbitrary human motion within an arbitrary space bounded by a user's range of motion
EP2891950B1 (en) 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
US10338685B2 (en) 2014-01-07 2019-07-02 Nod, Inc. Methods and apparatus recognition of start and/or stop portions of a gesture using relative coordinate system boundaries
US20150220158A1 (en) 2014-01-07 2015-08-06 Nod Inc. Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion
US10338678B2 (en) * 2014-01-07 2019-07-02 Nod, Inc. Methods and apparatus for recognition of start and/or stop portions of a gesture using an auxiliary sensor
DE112014006608B4 (de) 2014-04-21 2024-01-25 Apple Inc. Verfahren, Systeme und elektronische Vorrichtungen zum Bestimmen der Kräfteaufteilung für Multi-Touch-Eingabevorrichtungen elektronischer Vorrichtungen
US9606584B1 (en) 2014-07-01 2017-03-28 D.R. Systems, Inc. Systems and user interfaces for dynamic interaction with two- and three-dimensional medical image data using hand gestures
EP3195088A2 (en) 2014-09-02 2017-07-26 Apple Inc. Haptic notifications
EP3230832A4 (en) * 2014-12-08 2018-06-20 Rohit Seth Wearable wireless hmi device
CN107209582A (zh) * 2014-12-16 2017-09-26 肖泉 高直观性人机界面的方法和装置
CN104503589B (zh) * 2015-01-05 2018-02-16 京东方科技集团股份有限公司 体感识别系统及其识别方法
CN107407961A (zh) * 2015-01-19 2017-11-28 寇夫音乐有限公司 计算机的手持式控制器、计算机的控制系统和计算机系统
US10353467B2 (en) 2015-03-06 2019-07-16 Apple Inc. Calibration of haptic devices
AU2016100399B4 (en) 2015-04-17 2017-02-02 Apple Inc. Contracting and elongating materials for providing input and output for an electronic device
CN105045388A (zh) * 2015-07-07 2015-11-11 安徽瑞宏信息科技有限公司 一种基于手势与动作的交互控制的方法
CN104991650B (zh) * 2015-07-24 2018-08-03 广东虚拟现实科技有限公司 一种手势控制器及一种虚拟现实系统
US9836129B2 (en) 2015-08-06 2017-12-05 Navico Holding As Using motion sensing for controlling a display
WO2017044618A1 (en) 2015-09-08 2017-03-16 Apple Inc. Linear actuators for use in electronic devices
CN205427764U (zh) * 2015-10-19 2016-08-03 北京蚁视科技有限公司 一种手柄式手势识别装置
NZ742883A (en) * 2015-10-26 2023-04-28 Liang Kong Immersive all-in-one pc system
CN106648043A (zh) * 2015-11-02 2017-05-10 广东虚拟现实科技有限公司 用于控制器的信号采集方法及控制器
US10356493B2 (en) * 2015-12-22 2019-07-16 Google Llc Methods, systems, and media for presenting interactive elements within video content
US10039080B2 (en) 2016-03-04 2018-07-31 Apple Inc. Situationally-aware alerts
US10162414B2 (en) * 2016-03-04 2018-12-25 Htc Corporation Wireless control device, position calibrator and accessory
CN107149771A (zh) * 2016-03-04 2017-09-12 宏达国际电子股份有限公司 无线控制装置、位置标定器及配件
US10268272B2 (en) 2016-03-31 2019-04-23 Apple Inc. Dampening mechanical modes of a haptic actuator using a delay
CN105641926A (zh) * 2016-04-07 2016-06-08 深圳易万创新科技有限公司 带反馈功能的动作采集模拟系统及其方法
CN109414612B (zh) * 2016-04-19 2022-07-12 S·萨米特 虚拟现实触觉系统和装置
CN106094846A (zh) * 2016-05-31 2016-11-09 中国航空工业集团公司西安飞机设计研究所 一种飞机飞行控制方法
WO2020112986A1 (en) 2018-11-27 2020-06-04 Facebook Technologies, Inc. Methods and apparatus for autocalibration of a wearable electrode sensor system
US10948577B2 (en) 2016-08-25 2021-03-16 Navico Holding As Systems and associated methods for generating a fish activity report based on aggregated marine data
US10127886B2 (en) * 2016-10-14 2018-11-13 Microsoft Technology Licensing, Llc Modifying hand occlusion of holograms based on contextual information
CN109997096A (zh) * 2016-11-17 2019-07-09 索尼公司 振动呈现装置、振动呈现方法和程序
CN106843490B (zh) * 2017-02-04 2020-02-21 广东小天才科技有限公司 一种基于可穿戴设备的击球检测方法及可穿戴设备
JP6716028B2 (ja) * 2017-04-27 2020-07-01 株式会社ソニー・インタラクティブエンタテインメント 制御装置、情報処理システム、制御方法、及びプログラム
US10417827B2 (en) 2017-05-04 2019-09-17 Microsoft Technology Licensing, Llc Syndication of direct and indirect interactions in a computer-mediated reality environment
US10622538B2 (en) 2017-07-18 2020-04-14 Apple Inc. Techniques for providing a haptic output and sensing a haptic input using a piezoelectric body
WO2019077652A1 (ja) 2017-10-16 2019-04-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、コントローラデバイス、及び情報処理装置
CN112040858A (zh) 2017-10-19 2020-12-04 脸谱科技有限责任公司 用于识别与神经肌肉源信号相关的生物结构的系统和方法
CN107901057A (zh) * 2017-12-15 2018-04-13 佛山科学技术学院 一种用于操控机器人的手持人机交互设备
CN107977083B (zh) * 2017-12-20 2021-07-23 北京小米移动软件有限公司 基于vr系统的操作执行方法及装置
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
IT201800005195A1 (it) * 2018-05-09 2019-11-09 Dispositivo di controllo remoto di un dispositivo elettronico.
CN108803931B (zh) * 2018-06-11 2022-01-18 京东方科技集团股份有限公司 一种触控显示装置及汽车
EP3853698A4 (en) * 2018-09-20 2021-11-17 Facebook Technologies, LLC NEUROMUSCULAR TEXT ENTRY, WRITING AND DRAWING IN SYSTEMS WITH EXTENDED REALITY
US10691211B2 (en) 2018-09-28 2020-06-23 Apple Inc. Button providing force sensing and/or haptic output
US10599223B1 (en) 2018-09-28 2020-03-24 Apple Inc. Button providing force sensing and/or haptic output
CN111897413A (zh) * 2019-05-06 2020-11-06 异起(上海)智能科技有限公司 一种虚拟现实、增强现实、融合现实手部操作方法及装置
WO2020251566A1 (en) 2019-06-12 2020-12-17 Hewlett-Packard Development Company, L.P. Extended reality grasp controller
US11380470B2 (en) 2019-09-24 2022-07-05 Apple Inc. Methods to control force in reluctance actuators based on flux related parameters
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
CN114281185B (zh) * 2021-04-25 2023-10-27 浙江壹体科技有限公司 基于嵌入式平台的体态识别及体感交互系统和方法
JP7052128B1 (ja) * 2021-07-20 2022-04-11 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
US11809631B2 (en) 2021-09-21 2023-11-07 Apple Inc. Reluctance haptic engine for an electronic device
CN115167673A (zh) * 2022-07-06 2022-10-11 中科传媒科技有限责任公司 虚拟手势同步的实现方法、装置、设备及存储介质

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1084385A (en) 1913-06-05 1914-01-13 Noiseless Typewriter Co Type-writing machine.
KR100697729B1 (ko) * 1998-10-28 2007-04-13 비아, 인크 가요성-고정식 사용자 인터페이스 장치와 방법
JP2000298544A (ja) * 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd 入出力装置と入出力方法
JP3487237B2 (ja) * 1999-08-27 2004-01-13 日本電気株式会社 ポインティング装置とそれを用いたコンピュータシステム
JP2001142605A (ja) * 1999-11-10 2001-05-25 Shimadzu Corp 入力システム
SE0000850D0 (sv) * 2000-03-13 2000-03-13 Pink Solution Ab Recognition arrangement
US7042442B1 (en) * 2000-06-27 2006-05-09 International Business Machines Corporation Virtual invisible keyboard
SE523183C2 (sv) * 2001-09-14 2004-03-30 Perific Ab En protabel enhet för att inmata signaler till en perifer enhet, och användning av en sådan enhet
US7161579B2 (en) * 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
JP4058494B2 (ja) * 2003-07-14 2008-03-12 株式会社クリエイション・ルネ マグネット付きバンド
US8287373B2 (en) * 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US20060248478A1 (en) * 2005-01-18 2006-11-02 Forrest Liau Sensing input actions
JP2006209652A (ja) * 2005-01-31 2006-08-10 Alps Electric Co Ltd 入力装置および電子機器
JP2006312346A (ja) * 2005-05-06 2006-11-16 Nissan Motor Co Ltd コマンド入力装置
US20070279380A1 (en) * 2006-05-31 2007-12-06 Bruno Rafael Murillo Computer input device
US8125448B2 (en) * 2006-10-06 2012-02-28 Microsoft Corporation Wearable computer pointing device
JP2012501020A (ja) * 2008-08-25 2012-01-12 ウニヴェルジテート チューリッヒ プロレクトラート エムエヌヴェー 調整可能な仮想現実システム
JP5681633B2 (ja) * 2008-10-27 2015-03-11 株式会社ソニー・コンピュータエンタテインメント 視覚情報を通信するためのコントロールデバイス
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
US20100177039A1 (en) * 2009-01-10 2010-07-15 Isaac Grant Finger Indicia Input Device for Computer
JP5263833B2 (ja) * 2009-05-18 2013-08-14 国立大学法人 奈良先端科学技術大学院大学 ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法
JP2011186693A (ja) * 2010-03-08 2011-09-22 Brother Industries Ltd 情報入力装置
JP2011239279A (ja) * 2010-05-12 2011-11-24 Hitachi Consumer Electronics Co Ltd 遠隔制御装置および遠隔制御方法
US9086727B2 (en) * 2010-06-22 2015-07-21 Microsoft Technology Licensing, Llc Free space directional force feedback apparatus
US10055017B2 (en) * 2010-10-22 2018-08-21 Joshua Michael Young Methods devices and systems for creating control signals
US9939888B2 (en) * 2011-09-15 2018-04-10 Microsoft Technology Licensing Llc Correlating movement information received from different sources

Also Published As

Publication number Publication date
JP2015507803A (ja) 2015-03-12
CN104094196A (zh) 2014-10-08
US9360944B2 (en) 2016-06-07
KR101666096B1 (ko) 2016-10-13
KR20140128305A (ko) 2014-11-05
CN104094196B (zh) 2017-07-11
EP2613223A1 (en) 2013-07-10
WO2013104681A1 (en) 2013-07-18
US20140368428A1 (en) 2014-12-18

Similar Documents

Publication Publication Date Title
JP5969626B2 (ja) 高められたジェスチャ・ベースの対話のためのシステム及び方法
US10838495B2 (en) Devices for controlling computers based on motions and positions of hands
CN210573659U (zh) 计算机系统、头戴式设备、手指设备和电子设备
US10534431B2 (en) Tracking finger movements to generate inputs for computer systems
US9746933B2 (en) Systems and methods for natural motion interaction with a virtual environment
US10183217B2 (en) Hand-held controller using segmented capacitive touch trigger
US20230084527A1 (en) Hand-held controller using sensors for hand disambiguation
US20190369733A1 (en) Non-collocated haptic cues in immersive environments
JP2010108500A (ja) 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法
CN111638801A (zh) 用于手势辨识的控制器及其手势辨识的方法
RU179301U1 (ru) Перчатка виртуальной реальности
US11209916B1 (en) Dominant hand usage for an augmented/virtual reality device
RU187548U1 (ru) Перчатка виртуальной реальности
US20230142242A1 (en) Device for Intuitive Dexterous Touch and Feel Interaction in Virtual Worlds
KR20110044391A (ko) 입력 장치 및 방법
CN112783318A (zh) 人机交互系统和人机交互方法
RU2670649C1 (ru) Способ изготовления перчатки виртуальной реальности (варианты)
RU176318U1 (ru) Перчатка виртуальной реальности
RU2673406C1 (ru) Способ изготовления перчатки виртуальной реальности
RU176660U1 (ru) Перчатка виртуальной реальности
Stanković Lecture 6—Input Devices and Tracking
WO2019083405A1 (ru) Перчатка виртуальной реальности
Nguyen 3DTouch: Towards a Wearable 3D Input Device for 3D Applications
Zeeshan et al. Comparison of 3D UI Input Techniques to Established Methods
KR100940784B1 (ko) 인터페이스 장치

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151014

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160107

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160707

R150 Certificate of patent or registration of utility model

Ref document number: 5969626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees