JP2013510381A - 人間の動きに関連するキャラクタおよびコマンドを認識するためのハンドヘルドコンピュータシステムおよび技術 - Google Patents

人間の動きに関連するキャラクタおよびコマンドを認識するためのハンドヘルドコンピュータシステムおよび技術 Download PDF

Info

Publication number
JP2013510381A
JP2013510381A JP2012538914A JP2012538914A JP2013510381A JP 2013510381 A JP2013510381 A JP 2013510381A JP 2012538914 A JP2012538914 A JP 2012538914A JP 2012538914 A JP2012538914 A JP 2012538914A JP 2013510381 A JP2013510381 A JP 2013510381A
Authority
JP
Japan
Prior art keywords
handheld device
processor
movement
trajectory
gyroscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012538914A
Other languages
English (en)
Other versions
JP5882220B2 (ja
Inventor
ナシリ、スティーブ
サクス、デイビッド
カストロ、アレックス
グ、アンジャ
リン、シャン−フン
隆史 中山
リ、リチャード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
InvenSense Inc
Original Assignee
InvenSense Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by InvenSense Inc filed Critical InvenSense Inc
Publication of JP2013510381A publication Critical patent/JP2013510381A/ja
Application granted granted Critical
Publication of JP5882220B2 publication Critical patent/JP5882220B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2401Detail of input, input devices
    • A63F2009/2436Characteristics of the input
    • A63F2009/2442Sensors or detectors
    • A63F2009/2447Motion detector
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2105Dual mode as a secondary aspect
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • H04M1/67Preventing unauthorised calls from a telephone set by electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/68Gesture-dependent or behaviour-dependent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0251Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity
    • H04W52/0254Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity detecting a user operation or a tactile contact or a motion of the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0261Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level
    • H04W52/0264Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level by selectively disabling software applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0261Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level
    • H04W52/0267Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level by controlling user interface components
    • H04W52/027Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level by controlling user interface components by controlling a display operation or backlight unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0261Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level
    • H04W52/0274Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level by switching on or off the equipment or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Social Psychology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Psychiatry (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

人間の手のジェスチャーを認識するためのハンドヘルドコンピュータシステムおよび方法が開示されている。ハンドヘルドデバイスは、ジャイロスコープおよび加速度計を含む1つ以上のMEMSベース慣性センサーと、ミニチュアコンパスとを備えている。ユーザは、ハンドヘルドデバイスを手に持ちながら、意図的な手のジェスチャーを行う。コンピュータシステムは、ユーザのジェスチャーから導出された1組の異なる特徴に対応する1組の値と、データベース中に記憶されている値の組とを比較して、最も近い一致を選択する。選択された組に関係付けられているキャラクタが、ハンドヘルドデバイスのディスプレイ上に表示されるか、選択された組に関係付けられているコマンドが実行される。
【選択図】 図4

Description

関連出願に対する相互参照
本出願は、“人間の動きに関連するキャラクタおよびコマンドを認識するためのインテリジェントコンピュータシステムおよび技術”と題され、2009年11月9日に出願された、米国仮出願シリアル番号第61/259,288号の利益を主張する。上述の出願のすべては、参照によりここに組み込まれている。本出願は、“人間の動きに関連するキャラクタおよびコマンドを認識するためのハンドヘルドコンピュータシステムおよび技術”と題され、2010年7月8日に出願された、米国特許出願シリアル番号第12/832,707号の利益も主張する。上述の出願のすべては、参照によりここに組み込まれている。
発明の分野
本発明は、ハンドヘルドのコンピュータ化された人間の手のジェスチャーを認識するシステムに関し、特に、ジャイロスコープおよび加速度計を備えるマイクロマシンシステム(MEMS)ベースの慣性センサーと、ミニチュアコンパスとを有するハンドヘルドデバイスを含む、ハンドヘルドデバイスコンピュータシステムに関する。
発明の背景
手のジェスチャーは、目に見える手のアクションにより個人がメッセージを伝えることを可能にする非言語コミュニケーションの一形態である。数学的アルゴリズムにより人間のジェスチャーを解釈するという目的のために、手のジェスチャーの認識がコンピュータ技術でますます使用されるようになっている。手のジェスチャーの認識技術により、何らかの機械的なデバイスがなくても、人間がコンピュータとインターフェースして、自然に対話することが可能になる。例えば、ジェスチャー認識の概念を使用すると、コンピュータスクリーンを指差し、それにしたがってカーソルが動くようにすることが可能である。
手のジェスチャー認識の概念は、ビデオゲーム技術でもますます使用されるようになっており、ビデオゲーム技術では、プレーヤーの手のジェスチャーがハンドヘルドデバイスによりコンピュータシステムに通信される。例えば、任天堂株式会社により製作された家庭用ビデオゲームコンソールであるWii(登録商標)は、Wiiリモコン(登録商標)というワイヤレスコントローラを使用し、Wiiリモコンは、ハンドヘルドポインティングデバイスとして使用することができ、3次元での動きを検出することができる。Wiiリモコンは、ジェスチャーを表す、経時的な加速度の変化を調べることができる。
従来のジェスチャー認識コンピュータシステムおよびソフトウェアの正確性ならびに有用性に関係する多くの課題がある。一般的に、従来のシステムが線形センサーを頼りにしているのに対し、人間の手のジェスチャーは角度の動きを多く含んでいるため、従来のシステムは、それほど正確ではない。したがって、従来のシステムは、大きな手の動きのみを適切に認識することができ、互いにわずかにだけ異なる手のジェスチャーを適切に区別することができない。類似する手のジェスチャーを区別することができる認識システムを有することが望ましいだろう。
以下のものは、主題的な開示のいくつかの態様の基本的な理解を提供するために、主題的な開示の簡略化した概要を提示する。本概要は、主題的な開示のさまざまな実施形態の広範囲にわたる概略ではない。キーエレメントまたは重要なエレメントを識別することや、あるいは、何らかの範囲を線引きすることのどちらも意図していない。この唯一の目的は、後に提示するさらに詳細な説明に対する前置きとして、いくつかの概念を簡略化した形で提示することである。
本発明は、人間の手のジェスチャーを認識するための、新規で効率的なハンドヘルドコンピュータシステムおよび方法に関する。コンピュータシステムは、例えば、ジャイロスコープ、加速度計、および/または、コンパスのような、慣性センサーを備える遠隔ハンドヘルドデバイスを含む。トレーニングモードにおいて、ユーザは、コマンドまたはキャラクタを伝えるために、ハンドヘルドデバイスを手に持ちながら、意図的な手のジェスチャーを行う。慣性センサーによってジェスチャーの動きに関連するデータが捕捉され、提供される。データは、前処理され、フィルタリングされ、1組の別々の特徴に対応する1組の値に変換される。1組の値は、データベースに記憶され、コマンドまたはキャラクタが、この組に関係付けられる。データベースには、さまざまな手のジェスチャーが格納される。動作の間に、データ捕捉および変換の同じステップが、ユーザの手のジェスチャーに対して実行され、1組の値がデータベースと比較される。一致または最も近い一致に関係付けられているコマンドが実行されるか、あるいは、一致または最も近い一致に関係付けられているキャラクタがハンドヘルドデバイスのディスプレイ上に表示される。
先の目的および関連する目的を達成するために、1つ以上の態様は、後に完全に説明する特徴、および、特許請求の範囲中で特に指摘する特徴を含んでいる。以下の説明および添付した図面により、1つ以上の態様のうちのある例示的な態様を詳細に述べる。これらの特徴は、さまざまな態様の原理を用いることができるさまざまな方法のうちのいくつかだけを示しているが、本説明は、このようなすべての態様およびそれらの均等物を含むことを意図している。
同一の参照キャラクタが全体を通して同一の部分を指す添付図面とともに使用される、以下の詳細な説明を考えたときに、本発明の上の目的および利点と、他の目的および利点は明らかであるだろう。
図1は、本発明の方法のための例示的なフローダイヤグラムを示している。 図2は、本発明を実現することができる例示的なコンピュータネットワークを示している。 図3は、本発明を実現することができる例示的なコンピューティング環境を示している。 図4は、ユーザにリアルタイムフィードバックを提供する例示的なディスプレイを示している。 図5は、本発明のトレーニングモード方法のための例示的なフローダイヤグラムを示している。 図6は、本発明の認識モード方法のための例示的なフローダイヤグラムを示している。 図7は、本発明のジェスチャー認識エンジンにより使用することができる例示的なコンピュータモジュールを示している。 図8は、本発明の動作モード方法のための例示的なフローダイヤグラムを示している。 図9は、本発明の動作モード方法のための例示的なアルゴリズムを示している。 図10は、電力管理のために慣性センサーが使用される、本発明の例示的な実施形態にしたがったシステムを示している。 図11は、本発明の例示的な電力管理の方法を示している。 図12は、本発明の電力管理技術を実現することができる例示的なハンドヘルドデバイスを示している。 図13は、カメラアプリケーションがスリープモードからアクティブモードにスイッチされる、本発明の例示的な方法を示している。 図14は、ハンドヘルドデバイスがアクティブモードからスリープモードにスイッチされ、そしてアクティブモードに戻る、本発明の例示的な方法を示している。 図15は、慣性センサーおよび非慣性センサーを含む、本発明の例示的なハンドヘルドデバイスを示している。 図16は、慣性センサーにより提供されるデータを組み合わせるための、本発明の例示的な方法を示している。 図17は、角度の動きを線形の動きに相関させる、本発明の例示的な方法を示している。 図18は、ユーザ認証のためにマイクロフォンおよび慣性センサーが使用される、本発明の例示的な方法を示している。 図19は、ハンドセットスクリーンをロック解除するための、本発明の例示的な方法を示している。
詳細な説明
本発明は、人間の動きにより意図されたキャラクタまたはコマンドを認識して、キャラクタを表示するための、あるいは、コマンドを実行するための、システムおよび技術を開示する。クレームされている主題事項は、ここでは図面を参照して説明し、同一の参照番号は、全体を通して同一のエレメントを指すように使用される。以下の説明では、説明の目的上、主題的なイノベーションの完全な理解を提供するために、多くの特定の詳細および例を述べる。しかしながら、これらの特定の詳細がなくても、主題的なイノベーションを実施でき、主題的なイノベーションは、これらの特定の詳細および例によって限定されないことを当業者は理解するだろう。クレームされている主題事項の説明を容易にするために、よく知られている構造およびデバイスは、ブロックダイヤグラムの形で示されていることも、当業者は正しく認識するだろう。
本出願で使用するような、用語“コンポーネント”、“モジュール”、“システム”、または、これらに類するものは、必ずしもそうではないが、ハードウェアや、ハードウェアとソフトウェアの組み合わせや、ソフトウェアや、または、実行中のソフトウェアのいずれかである、コンピュータ関連エンティティを指すことがある。例えば、コンポーネントは、これらに限定されないが、プロセッサ上で動作しているプロセス、プロセッサ、オブジェクト、実行ファイル、実行のスレッド、プログラム、および/または、コンピュータであってもよい。例として、制御装置上で動作しているアプリケーションおよび制御装置の双方ともコンポーネントとすることができる。1つ以上のコンポーネントは、実行のプロセスおよび/またはスレッド内に存在することがあり、コンポーネントは、1つのコンピュータ上に局所化されていることがあり、および/または、2つ以上のコンピュータ間に分散されていることがある。
さらに、開示されている主題事項を実現するようにコンピュータを制御するために、標準のプログラミングおよび/またはエンジニアリング技法を使用して、ソフトウェア、ファームウェア、ハードウェア、あるいは、これらの何らかの組み合わせを生成させる、方法、装置、または、製造物として、クレームされている主題事項を実現してもよい。ここで使用されるような用語“製造物”は、何らかのコンピュータ読取可能デバイス、キャリア、または、媒体から、アクセス可能なコンピュータプログラムを含むことを意図している。例えば、コンピュータ読取可能媒体は、これらに限定されないが、磁気記憶デバイス(例えば、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ...)や、光ディスク(例えば、コンパクトディスク(CD)、デジタル多用途ディスク(DVD)...)や、スマートカードや、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ...)を含むことがある。さらに、電子メールを送受信する際に、あるいは、インターネットまたはローカルエリアネットワーク(LAN)のようなネットワークにアクセスする際に使用するもののような、コンピュータ読取可能な電子データを運ぶために、搬送波を用いることができることを正しく認識すべきである。当然、当業者は、クレームされている主題事項の範囲または精神から逸脱することなく、このコンフィギュレーションに対して多くの改良がなされてもよいことを認識するだろう。
さらに、例として、事例として、あるいは、例示としての役割を果たすことを意味するために、“例示的な”という文言がここで使用される。“例示的な”ものとして、ここで説明するいずれの態様または設計は、他の態様または設計と比較して、必ずしも好ましいものとして、または、利益のあるものとして解釈すべきではない。むしろ、例示的なという文言の使用は、具体的な形で概念を提示することを意図している。本出願で使用されているような、“または”という用語は、排他的な“または”というよりむしろ、包含的な“または”を意味することを意図している。それゆえ、そうではないと特に述べられていない限り、または、文脈から明らかでない限り、“XがAまたはBを用いる”は、自然な包含的順列のうちのいずれかを意味することを意図している。すなわち、XがAを用いる;XがBを用いる;あるいは、XがAおよびBの双方とも用いる場合、“XがAまたはBを用いる”は、先の例のうちのいずれのものの下でも満たされる。加えて、本願明細書および添付した特許請求の範囲で使用している冠詞“a”および“an”は、そうではないと特に述べられていない限り、または、単数形を意図する文脈から明らかでない限り、一般的に、“1つ以上”を意味すると解釈すべきである。
ここで使用されるような、“推測する”または“推測”という用語は、一般的に、イベントおよび/またはデータを通して捕捉されるような1組の観測から、システム、環境、および/または、ユーザの状態について推理するもしくは推測するプロセスのことを指す。推測は、特定の状況またはアクションを識別するために用いることができ、あるいは、例えば、状態に対する確率分布を発生させることができる。推測は、確率論的とすることができる−すなわち、データおよびイベントの考察に基づいての、対象の状態に対する確率分布の計算とすることができる。推測はまた、1組のイベントおよび/またはデータから、より高いレベルのイベントを構成するために用いられる技法のことを指すこともある。このような推測は、イベントが時間的に近いところで相関しているか否かにかかわらず、ならびに、イベントおよびデータが、1つまたはいくつかの、イベントならびにデータソースから到来したか否かにかかわらず、結果として、1組の観測されたイベントおよび/または記憶されたイベントデータからの、新しいイベントまたはアクションの構築になる。
MEMSベースのモーションセンサーは、加速度計とジャイロスコープを含んでいる。線形加速度を測定するために、加速度計を使用することができる。MEMSベースの加速度計の基礎となる物理メカニズムは、静電容量性、ピエゾ抵抗、電磁気、圧電、強誘電、光学、および、トンネリングを含む。MEMSベースの加速度計は、(プルーフマス、サイスミックマスとしても知られる)予め定められたテストマスを持つ片持ち梁からなるシンプルなデバイスとすることができる。外的な加速度の影響下で、マスは、その中立なポジションから逸れる。この逸れは、アナログな方法またはデジタルな方法で測定される。一般に、1組の固定された梁とプルーフマスに取り付けられた1組の梁との間のキャパシタンスが測定される。
他のタイプのMEMSベースの加速度計は、非常に小型のドームの底に小型ヒーターを含んでいることがあり、小型ヒーターは、ドーム内部の空気を熱して上昇させる。熱せられた空気がドームに達した場合に、ドーム上の熱電対が決定され、中心からの逸れは、センサーに適用される加速度の尺度である。一般的に、MEMSベースの加速度計は、面内で動作する、すなわち、ダイの平面の方向にのみ敏感であるように設計されている。2つのデバイスを単一のダイ上で垂直に統合することにより、2軸加速度計を作ることができる。追加の面外素子を追加することにより、3軸を測定することができる。積分回路を持つ加速度計は、読み出し回路と自己診断機能を提供する。
コンパスは、地球の磁極に対する方向を決定するために使用される機器である。コンパスは、それ自体を地球の磁界と自由に調整することができる磁化されたポインターからなる。ミニチュアコンパスは、通常、マイクロプロセッサにデータを提供する、例えば、ホールセンサーのような、2個または3個の磁界センサーから作られる。コンパスに対する正しい進行方向は、三角法を使用して計算される。当然、ミニチュアコンパスは、その向きに比例するデジタル信号またはアナログ信号のいずれかを出力するディスクリートコンポーネントである。制御装置またはマイクロプロセッサにより、この信号が解釈される。コンパスは、高較正内部回路を使用して、地球の磁界に対するコンパスの応答を測定することができる。市場で入手可能なミニチュアコンパスの例は、ハネウェルインターナショナル社により販売されているHMC1051Z 1軸磁気抵抗センサーおよびHMC1052 2軸磁気抵抗センサーと、旭化成エレクトロニクス株式会社により販売されているAK8973 3軸電子コンパスと、日本のアイチマイクロインテリジェント株式会社により販売されているAMI201(2軸)電子コンパスモジュールおよびAMI302(3軸)電子コンパスモジュールである。
ジャイロスコープは、角運動量の保存の法則に基づいて、向きを測定または維持するために使用されるデバイスである。MEMSベースのジャイロスコープは、振動するプルーフマスを使用する。典型的に、これらのマスは、高い周波数において振動する。センサーのハウジングが慣性空間で回転するときに、プルーフマス上にコリオリの力が誘発される。コリオリの力は、直交平面に振動を生じさせ、直交運動の振幅は、測定することができる。このタイプのデバイスは、コリオリ振動ジャイロとしても知られている。その理由は、発振の平面が回転されるときに、トランスデューサーにより検出される応答は、その運動の式のコリオリの項(“コリオリの力”)に起因するからである。振動する構造のジャイロスコープは、MEMS技術を使用した、音叉共振器、振動ホイール、または、ワイングラス型共振器として実現することができる。
本発明がMEMSベースのデバイスに限定されないこと、ここで開示するMEMSベースの実施形態は例示であること、ならびに、ハンドヘルドデバイスに組み込むことができる何らかの加速度計、コンパス、およびジャイロスコープにより本発明を実現できることを、当業者は正しく認識するだろう。ハンドヘルドデバイスに含めることができる、例えば、水晶センサーのような、他のタイプの慣性センサーを本発明で使用することもできることを、当業者は正しく認識するだろう。ミクロンまたはミリメーターのスケールにおける機械コンポーネントを含み、回路と組み合わせることができる、他のタイプの慣性センサーを、本発明で使用することもできる。
図1は、本発明の方法に対する例示的なフローダイヤグラム100を示している。フローダイヤグラム100は、トレーニングモードコンポーネント110と、認識モードコンポーネント130の2つのコンポーネントを含んでいる。トレーニングモード110において、ユーザは、ハンドヘルドデバイスの意図的な動きを空中で生じさせることにより開始する(ステップ112)。ユーザの意図的な動きは、コマンドまたはキャラクタに対応する。1つの実施形態では、ハンドヘルドデバイスは、MEMSベースのジャイロスコープおよび加速度計を備えることがある。別の実施形態では、ハンドヘルドデバイスは、MEMSベースのジャイロスコープおよび加速度計と、ミニチュアコンパスとを備えることがある。
ステップ114において、ハンドヘルドデバイスに埋め込まれているジャイロスコープ、加速度計、および、コンパスを使用することにより、ステップ112において行われたジェスチャーの軌道に関連するデータが抽出される。人間の動きの大部分は角度があるので、手によって空中に描かれた軌道は、ジャイロスコープを使用して、主として角度の動きで表現することができる。生のジャイロスコープデータは、角速度に比例するので、このデータを、何らかのオフセットを除去するように前処理して、角度の動きの推定を提供するために積分することができる。ヌル電圧としても知られるジャイロバイアスオフセットは、ジャイロがその受感軸の周りを回転しないときに測定される電圧である。バイアスオフセットを上回るジャイロ出力電圧測定は、1つの方向(例えば、時計回り)での回転を示す一方で、バイアスオフセットを下回る電圧測定は、反対方向(例えば、反時計回り)での回転を示す。
信号をきれいにするための追加のフィルタリングは、無意識の手の震えや、他の望ましくない高周波成分を除去することができる。震えは、人間の手に本質的に存在する、小さくて速い振動である。遅くて意図的でない動きを除去するためには、不感帯または類似のメカニズムを使用することができる。センサーの不感帯は、センサーが機能しないポイント、期間、エリア、または、ゾーンである。本特許出願の譲受人であるInvenSense社は、MEMSベースのジャイロスコープおよび加速度計を、ならびに/あるいは、ミニチュアコンパスを有する、ハンドヘルドデバイスの誤差を較正または訂正するための、独自の方法、ソフトウェア、および、アーキテクチャを開発してきた。異なるコマンドおよびキャラクタが、互いにわずかにだけ異なる手のジェスチャーによって表されているときでさえ、これらのイノベーションにより、ジェスチャー認識システムが、ユーザによって意図されたさまざまなコマンドおよびキャラクタを解釈して区別することが可能になる。
ステップ114に戻ると、ジャイロスコープのバイアスを安定させるのを助けるためと、重力の方向を決定するのを促進するためにも、加速度計のデータを使用することができる。加速度計のデータは、ジャイロスコープのデータと相関させて、空中での意図的な動きを示す強い線形成分、すなわち、モーメントアームを持つ回転と、ユーザの手の中での意図的でないデバイスの回転を示す、このような成分を持たない回転の成分とを区別することもできる。ハンドヘルドデバイスにコンパスを組み込んで、ヨー方向におけるジャイロスコープバイアスを安定させることもできる。この前処理の結果は、ヨーの角度の動きと、ピッチの角度の動きとに対応する、Xデータポイントと、Yデータポイントとを含む軌道である。ピッチ、ロール、および、ヨーは、角度として測定される物体の動きのことを指す。ピッチは、箱のふたのような上下の動きである。ヨーは、ちょうつがいのドアのような左右の動きである。ロールは、回転の動きである。
軌道を分離するのを助けるために、1つの実施形態では、ハンドヘルドデバイス上のボタンを使用して、意図的なジェスチャーの動きと、意図的でない動きまたはワインドアップの動きとを区別することができる。ジェスチャーの経過中にボタンを押さえることができ、あるいは、ジェスチャーの開始において1度、および、ジェスチャーの終わりにおいて1度、ボタンを押すことができる。別の実施形態では、ジェスチャーの始まりと終わりを決定するために、軌道のスピードを使用することがある。例えば、ユーザが、大きくて速い動きを開始したときに、ジェスチャーが開始したと仮定される。ある時間が経過して、動きの総量またはスピードが、何らかのしきい値を下回るまで減少したときに、ジェスチャーが終わったと仮定される。さらに別の実施形態では、何らかの動きが、ジェスチャーの動きでありうると仮定され、ジェスチャーを捕捉するために、移動窓法(moving window)のデータが使用される。
手の動きを使用して、予め定められた軌道を空中で描くという経験に、ユーザが慣れていないことがあるので、ユーザが軌道の制御を学習するのを助けるためにフィードバックを使用することができる。このケースでは、ジェスチャー認識アルゴリズムにおいて使用されるだろう軌道をユーザに知らせるために、軌道のXパスおよびYパスに対応するイメージを、例えば、コンピュータディスプレイ上に表示することができる。データベース構造における、記憶、問い合わせ、および、比較に適していることから、空間および時間において軌道を正規化することが有用であることを当業者は正しく認識するだろう。空間において軌道を正規化するために、総Xスパンならびに総Yスパンの最大量により決定された量または比率だけ、軌道をスケールダウンすることができる。時間において正規化するために、平均化を使用して、データポイントの数を減少させることができる。正規化の後で、すべての軌道は、同じサイズおよび同じ数のデータポイントを有するだろう。それにより、それらを形によって比較することがさらに容易になる。
ステップ116において、軌道データを、1組の選択された別々の特徴に対応する1組の値に変換することができる。1組の特徴の1つの例は、何らかの所定の時点における軌道の角度である。ピッチにおける変化をヨーにおける変化で除算した逆タンジェントを使用して、これを計算することができる。1組の特徴の別の例は、Xの二乗とYの二乗を足したものを構成する、半径の二乗成分である。1組の特徴の別の例は、ピッチのみ、すなわち、Yデータポイントのみを含むピッチ成分である。1組の特徴の別の例は、ヨーのみ、すなわち、Xデータポイントのみを含むヨー成分である。1組の特徴の別の例は、例えば、文字“U”を文字“V”と区別するのに有用な、軌道の変化のレートである。1組の特徴の別の例は、例えば、数字“8”を数字“0”と区別するのに有用な、交差するポイントの位置である。1組の特徴の別の例は、軌道内で軌道が方向を変える回数であり、方向における角度の変化は、しきい値よりも大きいという限定がある。本発明のシステムの前提および目的内で、他の組の類似するタイプの特徴も使用できることを、当業者は正しく認識するだろう。
ステップ118において、予め定められた組の別々の特徴に対応する1組の値が生成された後で、例えばID番号のような、対応する識別子とともに、所望のジェスチャーを示す1組の値をデータベースに記憶することができる。ステップ120において、データベースには、所望の特徴に対応する多くの組の値を格納することができ、データベースは、さまざまな識別子を所望のジェスチャーに関係付けることができる。以下は、ステップ120において生成することができる例示的なデータベースである。以下の表は、1組のN個の特徴、および、N個の特徴に対するM組の値を含んでいる。コマンドまたはキャラクタは、各組の値に関係付けられている。
Figure 2013510381
トレーニングモード110の間に格納されたデータベースは、その後、認識モード130の間に、ジェスチャー認識モードに対して使用することができる。認識モードでは、ステップ132において、ユーザは、ハンドヘルドデバイスを動かすか、または、彼/彼女の手だけを空中で動かすかのいずれかにより、手のジェスチャーを行う。ステップ134において、ハンドヘルドデバイスは、ハンドヘルドデバイスに埋め込まれているジャイロスコープ、加速度計、およびコンパスを使用することにより、ステップ132において行われたジェスチャーの軌道に関連するデータを抽出する。
ステップ136において、ステップ134において抽出された軌道データが、何らかの別々の特徴に対応する1組の値に変換される。トレーニングモード110においてステップ114およびステップ116がそれぞれ実現されたのと同じ方法または類似する方法で、ステップ134およびステップ136を実現することができる。ステップ138において、ステップ136において入力された軌道から決定された1組の値を、ジェスチャーライブラリ中に記憶されているすべての組の値か、または、ジェスチャーライブラリ中に記憶されている値の組のサブセットと比較することができる。このライブラリは、ステップ120においてトレーニングデータを使用することにより、または、ハードコード化されたデータを使用することにより、発生されたものである。ステップ140において、ユーザの入力軌道により発生された1組の値に一致する、または、最も近く一致する1組の値をライブラリから識別したときに、その組の値に対応するキャラクタが表示されるか、あるいは、その組の値に対応するコマンドが実行される。キャラクタは、英語または別の言語のアルファベットからの文字を含むことがある。使用されているような用語“キャラクタ”は、単語、フレーズ、または、署名も含むことがあることを、当業者は正しく認識するだろう。キャラクタは、例えば、ローマ数字のような、数字も含むことがある。例えば、マイクロソフト(登録商標)ワードのような、ワードプロセッシングアプリケーション文書において、キャラクタを表示することができる。
ステップ140において、特徴の組に対応するユーザ入力値の組と、ライブラリ内の特徴の組に対応する値の組とを比較するために、ルックアップテーブル、隠れマルコフモデル(HMM)、ニューラルネットワーク、および、サポートベクターマシンを含む、使用できるさまざまな技術が存在する。最適な実施形態では、最適化のために何らかの改良をされたHMMが使用される。HMMは、状態遷移行列および放出行列を含む。状態遷移行列では、各状態の後に次の状態が続くにちがいない左右モデルが使用される。
Figure 2013510381
放出行列では、特徴に対する各ライブラリ値により行列中での最適なポイントが与えられる行列を発生させるために、ライブラリからの特徴を使用することができるが、特徴に対するライブラリ値の両側に何らかの許容される確率がある。例えば、所定の状態が、所定のライブラリ特徴の組に対して特徴#4で記録されていた場合に、放出行列中の対応する列は、0ABCBA00等を含むかもしれない。
Cが高い確率に対応している場合に、BおよびAは、それぞれ、より低い確率に対応している。この行列は、バウム−ウェルチ方法のようなトレーニング方法を使用して発生されてもよく、または、特徴ライブラリから直接入力されてもよい。状態遷移行列および放出行列が発生された後で、前向きアルゴリズムまたはビタビアルゴリズムのような標準アルゴリズムを使用して、入力された特徴の組の値が、ライブラリの特徴の組の値に一致する確率を評価するために、これらの行列が使用されてもよい。過剰なスケーリング差を防ぐために、最終的な確率はログとして発生されてもよい。
入力軌道を評価するためにいくつかの異なる特徴の組が使用されるときに、各特徴の組に対して確率が発生されるだろう。例えば、確率Aは、角度の特徴に対する確率を反映し、確率Bは、半径の特徴に対する確率を反映する等である。すべてのタイプの特徴に対するすべての確率の、重み付けされた線形の組み合わせとして、最終的な確率が与えられることがあり、重みは、実験的に決定される。最も高い確率は、軌道に対する最良の一致を決定する。最も高い確率がしきい値を下回る場合には、一致は何も返されない。
1つの実施形態では、1組の数字、キャラクタ、または、類似する長さの他の軌道のような、1組の短いジェスチャーが、予めトレーニングされてもよい。各ジェスチャーに対して、1組の異なる軌道がトレーニングされてもよい。例えば、2は、下の左隅におけるループありで、または、下の左隅におけるループなしで、トレーニングされてもよい。予め定められた特徴の組のうちの1つに一致する軌道をユーザが入力したときに、デバイスのアプリケーションまたはオペレーティングシステムにおいて、イベントがトリガされる。1つの実施形態では、ジェスチャーは、アプリケーション内あるいはゲーム内でのモード変更またはイベントをトリガすることがある。別の実施形態では、ジェスチャーは、アプリケーションを開くか、または、閉じてもよく、あるいは、そうでなければ、オペレーティングシステム内で動作する1組のアプリケーションを制御してもよい。別の実施形態では、数字または文字は、プログラム内あるいはオペレーティングシステム内のリスト中のエレメントを示してもよい。
1つの例では、電話機内の連絡先リストにおいて、文字を描くことは、アルファベット中のその文字へと連絡先リストがスクロールすべきであることを示してもよい。別の例では、メインメニュー内で、(‘W’のような)文字を描くことは、(ウェブブラウザのような)アプリケーションを開始させてもよい。予め規定されたジェスチャーのリストは、デバイスのベンダーにより予めプログラミングされていてもよく、または、ユーザによりトレーニングされてもよく、または、その双方であってもよい。
別の実施形態では、一致することになる軌道は、デバイスをロック解除するために、デバイス上で動作しているプログラムをロック解除するために、あるいは、購入または他の金銭上の取引を成立させるために使用される認証信号であってもよい。このような認証信号は、署名に類似し、シンプルなキャラクタまたは数字よりも長いことがある。このような空中署名は、形および曲線の抽象的な組であってもよく、あるいは、空中で描かれる実際の署名であってもよい。ユーザによって描かれた軌道は、何らかの対立が起こった場合に、後に表示することができるように、データベース中に記憶させてもよい。ユーザによって描かれた軌道を、ユーザの予め定められた空中署名にリアルタイムで一致させてもよく、トリガするように意図されているイベントのトリガは、一致の確率が十分に高い場合にのみ成功する。
何人かのユーザは、他の人よりも長い署名を使いたいと思っていることがあるので、空中署名のような、任意に長い軌道を記録するために、すべてのユーザの署名に対して、ハードコード化された数の特徴を使用するのでは十分でないことがある。このケースでは、使用されることになる特徴の数は、署名内での方向の変化の数によって決定されてもよい。
別の実施形態では、すべての認識可能な軌道に対して、ハードコード化された数の特徴を使用することがあり、より長い軌道は、より短い軌道の組み合わせからなる。このケースでは、長い署名は、記録および比較されるさらに短い単位に解体されなければならず、正しい順序で認識が成功する1組のより短い軌道を長い署名が含んでいる場合にのみ、長い署名の認識は成功する。
1つの実施形態では、ユーザによって動かされるデバイスは、モーションセンサーとディスプレイの双方を組み込んでおり、フィードバック軌道とジェスチャー認識の結果とが、ディスプレイ上に描かれてもよい。このケースでは、デバイスは、ハンドセット、ポータブルゲーミングシステム、または、1組のモーションセンサーおよびディスプレイを含む他の電子システムであってもよい。別の実施形態では、デバイスは、モーションセンサーを含むが、ディスプレイを含んでいないことがあり、デバイスから物理的に離れているディスプレイが、フィードバックおよび結果を示してもよい。例えば、デバイスは、リモートコントロール、エアマウス、または、ゲームコントローラに類似してもよく、ディスプレイは、コンピュータ、TV、または、ゲームコンソールモニタであってもよい。図4は、ユーザにリアルタイムフィードバックを提供するための例示的なディスプレイを示している。この例では、ユーザが、ハンドヘルドデバイス400を動かすことによって空中に文字“W”を描いて、ディスプレイが、リアルタイムで軌道を表示した。
図5は、本発明に対するトレーニングモード方法からの例示的なフローダイヤグラム500を示している。この例では、ユーザは、ハンドヘルドデバイスを手に持ちながら、空中で文字“W”を描いた。ステップ502において、ハンドヘルドデバイス内部にある慣性センサーが、“W”の軌道に関連する生のデータを提供する。このデータは、ハンドヘルドデバイス内またはハンドヘルドデバイス外にあってもよいプロセッサにより、ノイズ等を取り除くために前処理され、正規化される。ステップ504において、軌道データは、1組の予め定められた別々の特徴に対応する1組の値に変換される。特徴の組に含まれる別々の特徴のタイプは、プログラム可能であることがあり、変更することができる。例として、組中の別々の特徴のうちの1つは、軌道が方向を変える回数を含むことがある。文字“W”のケースでは、その特徴の値は3であるだろう。この値は、その後、データベース中に記憶される。ステップ506において、コマンドまたはキャラクタが、“W”を表す1組の値に関係付けられる。1つの例では、“W”は、ワールドワイドウェブブラウザを開くまたは閉じるためのコマンドを表すことがある。別の例では、“W”は、単に、キャラクタWを表すことがあり、キャラクタWは、電子メール中またはワードプロセッシング文書中にタイプされ、入力され、または、表示されるものである。1組の値に関係付けられているキャラクタまたはコマンドは、ユーザプログラム可能とすることができる。
図6は、本発明にしたがった、ジェスチャーを認識するための例示的なフローダイヤグラム600を示している。この例では、ユーザは、慣性センサーを備えるハンドヘルドデバイスを手に持ちながら、空中で文字“U”を描く。ステップ602において、慣性センサーは、“U”の軌道に関連するデータを提供する。前処理およびフィルタリング後に、ステップ604において、軌道データは、選択されたグループの別々の特徴に対応する1組の値に変換される。ステップ606において、1組の値は、同じグループの別々の特徴に対応する値の組と比較され、一致または最も近い一致が見つけられる。例として、軌道の変化のレートは、“U”(よりゆるやかな変化)と“V”(より急な変化)とを差別化するので、ここでは有用な特徴であることがある。ステップ608において、アプリケーション中で、“U”に関係付けられているコマンドが実行されるか、または、文字“U”が表示される。
図7は、本発明のジェスチャー認識エンジン700により使用することができる例示的なコンピュータモジュールを示している。エンジンは、それぞれ、ハンドヘルドデバイスの動きの軌道に関連するデータを取得するため(702)と、軌道データを、選択された別々の特徴に対応する1組の値に変換するため(704)と、変換された組の値を、データ記憶装置中に記憶されている値の組と比較して、一致を見つけるため(706)と、一致に関係付けられているキャラクタを表示するか、または、一致に関係付けられているコマンドを実行するため(708)の、さまざまなモジュールを含んでいる。モジュール702〜708は、ハードウェア中、ソフトウェア中、または、ファームウェア中で実現することができる。モジュール702〜708は、単一のコンピュータ上または複数のコンピュータ上で実現することができる。モジュール702〜708は、プログラム可能であるか、または、ハードワイヤードとすることができる。
1つの実施形態では、描かれる軌道が、ハンドヘルドデバイスの座標系中にあってもよい。このケースでは、垂直に描かれる1は、ユーザが立っている場合には、地球に対して垂直であるだろうが、ユーザが横になっている場合には、水平であるかもしれない。軌道は、ハンドヘルドデバイスの座標系に対して常に同じであるだろう。
別の実施形態では、描かれる軌道は、地球の座標系中にあってもよく、または、モーションセンサーに取り付けられていない別個のディスプレイの座標系中にあってもよい。このケースでは、垂直に描かれる1は、1として正しく認識されるために、地球に対して常に垂直でなければならない。このケースでは、ジャイロスコープデータが、地球ではなく、デバイスの座標系中にあるので、重力の方向を決定するためと、ジャイロスコープデータを処理するために、加速度計データを使用することができる。センサー融合技術を使用して、リアルタイムでこれを行うことができ、または、ルックアップテーブルを使用して、後処理中でこれを行うことができる。
何らかの回転誤差なしに、正しい座標系で確実にジェスチャーを描くようにユーザが期待されることがないケースでは、比較アルゴリズムが、わずかに異なる角度オフセットを使用して複数回動作してもよく、最良の一致が最終的な確率として選ばれる。例えば、軌道は、0、22.5度、−22.5、45、および、−45の回転を持つライブラリ特徴の値の組と比較されてもよい。
ユーザまたはデバイスの設計者はまた、さまざまな方法で、認識しきい値を調整してもよい。軌道が、あるしきい値よりも空間において大きいか、または、あるしきい値よりも小さい場合にのみ、軌道は有効であるかもしれない。ジェスチャーの実行時間が、しきい値よりも長いか、または、しきい値よりも短い場合にのみ、軌道は有効であるかもしれない。ジェスチャーのスピードが、しきい値を上回るか、または、しきい値を下回ったままである場合にのみ、軌道は有効であるかもしれない。各個々のジェスチャーは、個別のしきい値を含んでいてもよく、他のジェスチャーと比べてジェスチャーに重み付けする、最終的な確率のスケール係数を含んでいてもよく、アプリケーションの設計者が、2つの類似するジェスチャーから、トリガがより容易であるジェスチャーを選ぶことが可能になる。
本発明のある態様にしたがうと、より長いジェスチャーを認識するために、長い軌道をセグメントに解体する技術を使用することができ、各セグメントは、個々の軌道のように扱われる。図8は、長いジェスチャーを処理するための、本発明の方法に対する例示的なフローダイヤグラムを示している。フローダイヤグラム800にしたがうと、ステップ802において、ハンドヘルドデバイスを振ることによりユーザによって作られた軌道が、セグメントに分割される。例えば、5文字の筆記体の単語は、5個のセグメントに分割することができる。セグメントの数は、予め定められた数を含むことができ、または、軌道全体の複雑さを解析することにより、例えば、軌道全体での方向の変化の数を計算することにより、決定することができる。ステップ804において、何らかの確率しきい値内で、各セグメントがライブラリ中で認識されるかどうか、すなわち、各セグメントがライブラリ中に一致を有しているかどうか、決定がなされ、一致が確実なレベルを示す確率の値が、セグメントに割り当てられる。各個々のセグメントが十分に認識された場合には、ステップ806において、最終的な確率の値、すなわち、軌道全体に対して累積的に計算された確率の値が計算される。さまざまな方法で、例えば、個々の確率値を平均化したり、または、共に乗算したりして、個々の確率値を組み合わせることにより、最終的な確率を計算することができる。ステップ808において、最終的な確率の値が最終的な確率のしきい値を満たしているかどうか、または、最終的な確率の値が最終的な確率のしきい値を超えたかどうか、決定がなされる。
ジェスチャーが認識されるためにユーザが超えなければならない最終的な確率のしきい値を決定することは、難しい。その理由は、異なる軌道は、異なるしきい値を必要とすることがあり、異なるユーザは、動きの正確さの程度が異なっていることがあるからである。ジェスチャーが何回かトレーニングされた場合に、確率のしきい値の決定を自動化することができる。例えば、ジェスチャー‘M’が5回トレーニングされた場合に、ライブラリは、M1、M2、M3、M4、および、M5と呼ばれる、ジェスチャー‘M’の5回の繰り返しをそのメモリ中に含んでいる。ユーザは、これらの5回の繰り返しはすべて同じジェスチャーであると考えているので、ライブラリ内で、軌道M1が、M2、M3、M4、および/または、M5として認識される可能性があるべきである。M1対M2、M1対M3、M1対M4等の一致の確率をチェックすることにより、1組の一致の確率を決定することができる。新しい‘M’が認識されるべき推奨される確率は、例えば、平均すること、または、最小の確率を選ぶことのような、何らかの方法で、個々の一致確率をすべて組み合わせることにより、決定することができる。
本発明のある態様にしたがうと、ユーザは、間にスペースのある複数のストロークを含むジェスチャーをトレーニングしたいことがある。例えば、中国語、韓国語、または、日本語のキャラクタをジェスチャーとしてトレーニングするときである。このケースでは、どの動きが“ストローク”に対応するのかを決定するためのメカニズムが、適切であるにちがいない。例えば、ハンドヘルドデバイスは、押されているときに、ユーザがストロークを“描いている”ことを示すボタンを含んでいることがある。ボタンが押されていないときには、これは、ユーザがストローク間を移動していることを示す。ユーザの手のジェスチャーがストローク間を移動しているときに、ユーザはカーソルの動きを見ることができ、それにより、次のストロークの始まりの所定の位置が明らかになるメカニズムもまた、適切であることがある。それゆえ、ユーザは、空中での手の動きを使用して、マルチストロークのキャラクタをディスプレイ上に描くことができる。
トレーニングの間に、各ストロークをジェスチャーとして記憶することができる。移動の動きは、前のジェスチャーの終わりと新しいジェスチャーの始まりとの間の直線を示す<x,y>ベクトルとして記憶することができる。各ストロークはまた、ストロークの始まりとストロークの終わりの間の直線を示すベクトルを有することもある。動作の間に、マルチストロークキャラクタが一致するためには、すべてのストロークおよび移動ベクトルが一致しなければならない。ユーザがストロークを伝えている間に、最初の数ストロークをデータベースのキャラクタに一致させるように試み、最も可能性のある一致を決定するオートコンプリート特徴をアクティブにすることができる。オートコンプリート提案の数が十分に小さいときには、ユーザは、単に、リストから正しいキャラクタを選択することができる。動作の間に、マルチストロークキャラクタは、正しい順序および正しいストロークの方向を有することがある一方で、ユーザは、トレーニングの間にマルチストロークキャラクタがライブラリ中に記憶された方法と比べて、必ずしも正確な順序または正確な方向で、ストロークを描く必要がないかもしれない。しかしながら、本発明のジェスチャー認識エンジンは、結果のキャラクタがそれでもなお所望のキャラクタに一致すると決定することができる。
図9は、ストロークを含むジェスチャーを認識するための本発明の例示的な技術を示している。トレーニングシーケンス910は、ストロークA、B、および、Cを持つ3ストロークのキャラクタに対するシーケンスを含んでいる。トレーニングシーケンス910は、正しいストローク順序とも呼ばれる。正しいストローク順序910は、ベクトルvA(Aの開始からAの終わりまで)と、vAB(ストロークAとストロークBの間の移動)と、vBと、vBCと、vCとを含む。HMM、ニューラルネットワーク、サポートベクターマシン、または、他の類似する技術であることがある所望のマシン学習技術を使用して、すべての3個のストロークおよび5個のベクトルを一致させるだろう。
動作の間に、ストロークA、B、および、Cを含む同じキャラクタが、異なる順序または間違った順序で描かれることがある。例えば、B、A、Cという間違った順序でのストローク920によりキャラクタが描かれた場合に、このキャラクタもまた、ライブラリ中の記憶されているキャラクタの変形したバージョンに対して一致することがある。ストロークB、A、および、Cによるキャラクタ、ならびに、ベクトルvB、vBA、vA、vAC、および、vCを比較することにより、一致を取得することができる。シンプルなベクトル計算を使用することにより、新しいベクトルを計算することができる:vAC=vAB+vB+vBC、かつ、vBA=−vB−vAB−vAである。加えて、間違った方向で描かれた1つ以上のストロークによりキャラクタが描かれた場合に、個々のストロークを逆にすることにより、および、記憶されているライブラリに対して結果をテストすることにより、一致を行うことができる。この方法で、サーチを行ってもよく、サーチでは、ライブラリ中に一致が見つかるまでか、または、何ら一致が見つからないまで、ストロークの順序および方向のすべての組み合わせをテストすることができる。
本発明のある態様にしたがうと、ジャイロスコープを備える慣性センサーは、ハンドヘルドデバイスに対する拡張された電力管理を提供するために使用される。電力管理は、電力をオフにすること、あるいは、アクティブでないときに、システム、コンポーネント、機能、または、アプリケーションを、より低い電力状態にスイッチすることを指す。バッテリー寿命を伸ばすためと、冷却要件を減少させるためと、ノイズを減少させるためと、エネルギーおよび冷却に対する動作コストを減少させるために、ハンドヘルドデバイスに対する電力管理が望ましい。より低い電力消費は、より低い熱放散も意味し、より低い熱放散は、システム安定性を増加させ、エネルギー使用を減少させ、コストを減少させ、環境への影響を減少させる。
図10は、電力管理のために慣性センサーが使用される、本発明の例示的な実施形態にしたがったシステムを示している。ハンドヘルドデバイス1000は、モーション処理ユニット1012に結合されているメインマイクロプロセッサ1008を備える。モーション処理ユニット1012は、慣性センサーモジュール1016に結合されているプロセッサ1014を含み、慣性センサーモジュール1016は、ジャイロスコープや、加速度計や、または、その双方を含むことがある。慣性センサーモジュール1016は、コンパスも含むことがある。プロセッサ1014は、ジャイロおよび加速度計1016を制御し、ジャイロおよび加速度計1016により提供される情報(または、データ)を処理する。プロセッサ1014は、コンパスを制御し、コンパスにより提供される情報を処理するために、コンパスに結合されることもある。プロセッサ1014は、プログラマブルモジュール1018と、メインマイクロプロセッサ1008にも結合されている。プログラマブルモジュール1018は、メインマイクロプロセッサ1018中のソフトウェアモジュールとして含まれることもある。プログラマブルモジュールは、モーション処理ユニット1012に含まれることもある。
メインマイクロプロセッサ1008は、主として、ハンドヘルドデバイス1000のコンポーネントの動作の管理を担っている。マイクロプロセッサ1008は、ネットワークブラウザ1002(例えば、インターネットブラウザ)と、ディスプレイ1004と、カメラ1006と、マイクロフォン1010と、キーパッド1020とを含むアプリケーション(または、コンポーネント)に結合されている。メインマイクロプロセッサ1008は、プログラマブルモジュール1018にも結合されている。プログラマブルモジュール1018は、マイクロプロセッサ1008により、キーパッド1020と、ネットワーク1022とに結合されている。キーパッド1020は、ユーザがそこからのプログラミングモジュール1018をプログラムすることができる、スマートフォンに対するキーパッドを含むことがある。ネットワーク1022は、ワイヤードネットワーク、ワイヤレスネットワークまたは光ネットワークや、インターネットや、ローカルエリアネットワーク(LAN)や、あるいは、そこからのプログラミングモジュール1018をプログラムすることができるコンピュータを含むことがある。
ディスプレイスクリーン1004は、必須のユーザインターフェースコンポーネントであり、スマートフォンを動作させるために必須である。ディスプレイ1004は、バッテリー電力を最も消費するハンドヘルドデバイス1000のコンポーネントのうちの1つでもある。本発明の態様にしたがうと、モーション処理ユニット1012は、ハンドセット1000のディスプレイ1004への依存を軽減するために使用される。図10において示されているように、ジャイロスコーププロセッサ1014およびジャイロ1016は、専用の電力区分に配置され、ディスプレイ1004およびメインプロセッサ1008から離れている。大きさの観点からいえば、慣性センサー1016の電力消費は、ディスプレイ1006の電力消費よりもかなり小さい。
図11は、本発明の例示的な電力管理方法を示している。フローダイヤグラム1100にしたがうと、ステップ1102において、さまざまな“ウェークアップ”コマンドを認識するようにプログラマブルモジュール1018がプログラムされる。“ウェークアップ”は、ハンドヘルドデバイス1000のコンポーネントを、低電力(すなわち、オフ)モードから、高電力(すなわち、オン)動作モードへとスイッチすることを指す。キーボード1020を使用することにより、ユーザによってプログラマブルモジュール1018をプログラムすることができる。プログラマブルモジュール1022は、ネットワーク1022を通して遠隔にプログラムすることもできる。例えば、インターネットにより、プログラマブルモジュール1022に“ウェークアップ”コマンドをアップロードすることができる。
プログラマブルモジュールは、さまざまな手のモーションおよびそれらの対応するコマンドを含むルックアップテーブルを含むことがある。モーションコマンドの例は、電話に出るコマンドを表す、シェークするアクションまたは特別な動きのパターン(すなわち、署名)と、カメラをオンにするコマンドを表す文字“C”の手書きモーションと、電話機のロックを解除する手のジェスチャーと、電話番号を短縮ダイヤルする手のジェスチャーと、他のユーザ特有のショートカットを表す手のモーションとを含むことがある。例えば、電話に出る、電話番号を短縮ダイヤルするといった、あるモーションコマンドに対して、ディスプレイ1004およびタッチパネル1020はオフになったままであることがある。
ステップ1104において、ハンドヘルドデバイス1000はスタンバイ(または、スリープモード、低電力モード、または、オフモード)中である。例えば、デバイス1000が、予め定められた期間の時間よりも長い間アイドルでいたために、デバイス1000が、スリープモードに入ることがある。スリープモードは、ハンドヘルドデバイス1000がその電力消費を著しく減少させる低電力モードのことを指すが、プログラミングコードをリセットするようにユーザに要求することなく、または、ハンドヘルドデバイス1000がリブートするのを待つことなく、デバイス1000が、即座に動作を再開する(すなわち、アクティブモードにスイッチバックする)ことが可能になる。スリープモードでは、ネットワークブラウザ1002と、ディスプレイ1004と、カメラ1006と、マイクロフォン1010とがオフにされ、メインマイクロプロセッサ1008は、その最低電力状態に減速される。しかしながら、本発明のある態様にしたがうと、ハンドヘルドデバイス1000がスリープモードであり、何らかのモーションコマンドに対する監視を続けているときに、モーション処理ユニット1012は、動作し続ける(すなわち、アクティブであり続ける)。
ステップ1106において、ユーザは、ユーザの所望のコマンドを表すハンドヘルドデバイス1000の動きを生じさせる。動きの軌道は、ジャイロ1016により検出される。本発明の1つの実施形態では、ジャイロ1016は、モーションの軌道を表すデータを発生させ、それをジャイロプロセッサ1014に提供する。ジャイロプロセッサ1014は、モーションの軌道データに対応するコマンドを識別するために、プログラマブルモジュール1018と通信する。ジャイロプロセッサ1014は、メインマイクロプロセッサ1008に、ウェークアップ信号(ステップ1108)と、ユーザのモーションコマンドの識別を提供する。ウェークアップ信号に応答して、メインマイクロプロセッサ1008は、スリープモードからアクティブ(すなわち、高電力)動作モードにスイッチする。
本発明の別の実施形態では、ジャイロプロセッサ1014は、メインプロセッサ1008に、ウェークアップ信号と、ユーザのモーションの軌道に関連するデータを提供する。ウェークアップ信号は、メインマイクロプロセッサ1008を、スリープモードからアクティブモードにスイッチさせる(ステップ1108)。ステップ1110において、メインマイクロプロセッサ1008は、ジャイロデータに対応するコマンドを識別するために、プログラマブルモジュール1018と通信する。ステップ1112において、メインマイクロプロセッサ1008は、コマンドを実行するように要求されるアプリケーションをウェークアップさせる(すなわち、アプリケーションをスリープモードからアクティブモードにスイッチさせる)。ステップ1114において、メインマイクロプロセッサ1008および現在アクティブなアプリケーションは、コマンドを実行する。したがって、本発明は、ハンドヘルドデバイスをウェークアップさせるために、ハンドヘルドデバイス上のプッシュ(または、ソフト)ボタンではなく、モーショントリガを使用する。
本発明の1つの実施形態では、ユーザのモーションを検出するためにジャイロ1016だけが使用される。ジャイロは、角度の動きを検出する。人間の手の動きの大半は角度があり、一般的に、線形の手の動きでさえ角度の動きを伴っているので、ジャイロ1016は、手のモーションを検出するのによく適している。図12において示されているように、ジャイロ1016は、ハンドヘルドデバイス1000のX軸、Y軸、およびZ軸の周りの、何らかの回転運動または角運動を検出することができる。したがって、本発明は、ハンドヘルドデバイス1000に対するモーションコマンドをプログラムし、検出し、実行するために、ユーザに、すべての3つの軸(X、Y、およびZ)に沿って360度の自由を提供する。本発明の別の実施形態では、モーション処理ユニット1012中に含まれているジャイロ1016および加速度計の双方により、ユーザのモーションの軌道が検出される。軌道に関係する角度の動きを検出するためにジャイロ1016が使用され、軌道に関係する線形の動きを検出するために加速度計が使用される。この実施形態では、プロセッサ1014は、ジャイロデータと加速度計データの双方を処理することができる。
本発明のある態様にしたがうと、ユーザの手の動きを検出するためのユーザインターフェースとして、モーション処理ユニット1012が使用される。本発明の例示的な実施形態では、モーション処理ユニット1012は、メインマイクロプロセッサ1008のサブシステムである。本発明の別の実施形態では、モーション処理ユニット1012は、メインマイクロプロセッサ1008により直接制御される。双方の実施形態において、例えば、ハンドヘルドデバイス1000が、予め定められた量の時間よりも長い間アイドルしたままであったために、アプリケーション1002、1004、1006、1010、1018、および1020がスリープモードに入ったときでさえ、メインマイクロプロセッサ1008およびモーション処理ユニット1012は、アクティブモードであり続ける。
したがって、図11において開示されている実施形態とは異なり、これらの実施形態では、メインマイクロプロセッサ1008は、アクティブモードであり続けるので、アウェークされる必要がない。ハンドヘルドデバイス1000の動きの検出に応答して、メインマイクロプロセッサ1008−MPU1012システムは、以下の機能のうちの少なくとも2つまたはすべてを自動的に実行する:ユーザの認証、動きに関係するコマンドの識別、関連するアプリケーションのウェークアップ(すなわち、スリープからアクティブモードへのスイッチ)、および、現在アウェークしているアプリケーションを使用することによるコマンドの実行である。
従来技術では、移動体電話機のようなハンドヘルドデバイスに対して、ハンドヘルドデバイスをスリープからアクティブモードにスイッチさせるために、ユーザは、ハンドヘルドデバイスのキーパッド(または、タッチパネル)上のボタンをプッシュしなければならない。このことは、ユーザが実行を望んでいない機能性がディスプレイの使用を要求しない場合でさえ、ハンドヘルドデバイスの高電力消費ディスプレイをアクティブモードにスイッチさせる。例えば、ユーザがミーティング中であり、彼/彼女のスマート移動体電話機を使用して、ミーティングの一部をオーディオ記録することを望んでいる場合に、従来技術では、オーディオ記録のためにディスプレイが必要なくとも、ユーザは、最初にディスプレイをアウェークして、その後、例えば、オーディオ記録アプリケーションを選択するために、ソフトキーまたはハードキーを押すことによって、オーディオ記録アプリケーションを選択しなければならない。したがって、従来技術は、電力と時間の浪費を生じさせ、ユーザによる複数のアクションを要求する。
本発明の実施形態にしたがうと、ユーザは、ミーティングをオーディオ記録したいという彼/彼女の望みを伝えるために、単一の予め定められたジェスチャー、例えば、文字“R”の形での空中軌道を作ることだけが必要である。ハンドヘルドデバイス1000の“R”のモーションに応答して、メインマイクロプロセッサ1008−MPU1012システムは、プログラマブルモジュール1018と自動的に通信して、ユーザがオーディオ記録アプリケーションの起動を望んでいると決定し、例えば、マイクロフォンのようなオーディオ記録アプリケーションコンポーネントをウェークアップするようにオーディオ記録アプリケーションへの関数呼び出しを行い、ミーティングのオーディオ記録を開始する。上のステップのすべては、ユーザによる単一の“R”のジェスチャーに応答して自動的に実行され、ディスプレイ1004のような関連のないアプリケーションをアウェークさせることなく実行される。本発明は、減少した数のステップ、より少ない電力消費、および、所望の機能を実行するための減少した時間の形で、従来技術に対する利点を提供する。
図13は、カメラアプリケーションをスリープモードからアクティブモードにスイッチさせる、本発明の例示的な方法を示している。フローダイヤグラム1300にしたがうと、ステップ1302において、ハンドヘルドデバイス1000はスリープモードであり、ユーザは、ユーザが写真を撮りたいと思う物体を見かける。ステップ1304において、ユーザは、ハンドヘルドデバイス1000を手に持ちながら、空中で“C”の手のジェスチャーを行う。ユーザは、彼/彼女の手首を回転させることにより、“C”のジェスチャーを行うことができる。ジャイロ1016は、“C”のジェスチャーを検出し、ジャイロプロセッサ1014に軌道データを提供する。1つの実施形態では、ジャイロプロセッサ1014は、メインマイクロプロセッサ1008をウェークアップさせる。別の実施形態では、メインマイクロプロセッサ1008は、デバイス1000がスリープモードであるときに、アクティブモードであり続け、ジャイロプロセッサ1014を直接制御するように構成されている。メインマイクロプロセッサ1008は、プログラマブルモジュール1018と通信し、“カメラをオンにする”ことを含む“C”のジェスチャーに対応するコマンドを識別する。
ステップ1306において、メインマイクロプロセッサ1008は、カメラアプリケーション1006をスリープからアクティブモードにスイッチさせる。メインプロセッサ1008は、プログラミングモジュール1018中に含まれるモーションコマンドに依存して、ディスプレイ1004をスリープからアクティブモードにスイッチさせることもできる。ネットワークブラウザ1002およびマイクロフォン1010は、スリープモードであり続ける。ディスプレイ1004がオンにされない場合に、ユーザは、カメラのビューファインダーを使用することによって物体を見ることができ、クリックボタンを使用して、写真を撮影することができる。カメラ1006とディスプレイ1004の双方がオンにされている場合に、ユーザは、ディスプレイ1004上で物体を見ることができ、クリックボタンを使用することにより、写真を撮ることができる。本発明は、プッシュボタンを要求することなく、特に、デバイスおよびアプリケーションをウェークアップさせるためのトリガとしてハンドヘルドデバイスの動きを使用することにより、ハンドヘルドデバイス内部のデバイスおよびアプリケーションをウェークアップさせる能力を提供する。
図14は、ハンドヘルドデバイスがアクティブモードからスリープモードにスイッチし、そして、アクティブモードに戻る、本発明の例示的な方法を示している。フローダイヤグラム1400にしたがうと、ステップ1402において、スマートフォン1000のメインマイクロプロセッサ1008およびジャイロプロセッサ1014は、アクティブモードである。ステップ1404において、ユーザは、テーブルトップ上に電話機1000を下向きに置く、すなわち、電話機1000のディスプレイスクリーン1004とキーパッド1020は下向きである。ステップ1406において、モーション処理ユニット1012は、電話機1000の向きが下を向いていることを検出する。ステップ1408において、電話機1000の下向きの向きに基づいて、プロセッサ1014と、メインマイクロプロセッサ1008と、プログラマブルモジュール1018は、マイクロフォン(または、スピーカー)1010をオフにさせ、電話機をミュートモードに設定させる。
ステップ1410において、ユーザは、ユーザが到来電話機コールに出たいことを示すために、例えば、電話機上のどこかを2回タッピングすることにより、電話機1000の動きを生じさせる。タッピングに起因する電話機1000の小さな角度の動きは、ジャイロ1016により検出される。応答して、ステップ1412において、ジャイロ1016と、ジャイロプロセッサ1014と、メインマイクロプロセッサ1008と、プログラマブルモジュール1018は、電話機1000を非ミュートのアクティブモードに戻させ、マイクロフォン1010をオンにさせる。
本発明のある態様にしたがうと、ユーザ認証を実行するために他のセンサーとの組み合わせで慣性センサーが使用される。図15は、慣性センサーと非慣性センサーとを含む本発明の例示的なハンドヘルドデバイスを示している。ハンドヘルドデバイス1500は、3つのタイプの慣性センサーを備える:ジャイロスコープ(1502)と、加速度計(1504)と、コンパス(1506)である。他の実施形態では、ハンドヘルドデバイスは、ジャイロスコープ(1502)のみか、あるいは、ジャイロスコープ(1502)および加速度計(1504)のいずれかを含むことがある。ハンドヘルドデバイス1500は、カメラ1510、RFセンサー1512、および、マイクロフォン1514を含む他のセンサーも備えている。他の実施形態では、ハンドヘルドデバイス1500は、これらの非慣性センサー1510、1512、または、1514のうちの1つあるいは2つだけを含むことがある。処理モジュール1508は、マイクロプロセッサとメモリを含むことがあり、センサー1502、1504、1506、1510、1512、および、1514により提供される情報を処理するために使用される。
本発明のある実施形態では、1つ以上のジャイロスコープ、加速度計、および/または、コンパスを含む慣性センサーと、メモリと、慣性センサーを制御するマイクロプロセッサが、基板上に位置している。基板は、慣性センサーによるモーション検出に応答して、ハンドヘルドデバイスに対するアプリケーションプロセッサをトリガする割り込みモジュールを含むこともある。
図16は、ジャイロスコープにより提供されるデータを、他の慣性センサーにより提供されるデータと組み合わせるための例示的な方法を示している。フローダイヤグラム1600は、サブフローダイヤグラム1610、1620、および、1630を含む。フローダイヤグラム1610にしたがうと、ハンドヘルドデバイス1500に対する軌道情報は、ジャイロスコープ1502を含むハンドヘルドデバイス1500の基準系において、ジャイロスコープから取得することができる(ステップ1612)。このケースでは、他のセンサーを使用することなく、ピッチおよびヨーのジャイロスコープ1502を個別に積分するので十分であることがあるが、ジャイロスコープ1502を較正するために他のセンサーもなお使用することができる(ステップ1614)。
フローダイヤグラム1620にしたがうと、地球の基準系において、ジャイロスコープ1502から軌道情報を取得することができる(ステップ1622)。このケースでは、地球に対するハンドヘルドデバイス1500の傾きを決定し(ステップ1624)、ヨーが地球に対して水平であり、ピッチが地球に対して垂直である軌道を形成する(ステップ1626)ために、ジャイロスコープ1502に加えて加速度計1504を使用することができる。
フローダイヤグラム1630にしたがうと、傾き補償のために加速度計1504を使用することなく、ハンドヘルドデバイス1500の基準系において、ジャイロスコープ1502から軌道情報を取得することができる(ステップ1632)。しかしながら、第3のジャイロ軸を使用して、ローリングする手首のモーションを検出することができ(1634)、軌道の間のこのローリングモーションに起因する何らかの歪みに対して軌道を補償することができる。磁力計1506は、地球の磁界を測定するために使用することもでき、何らかのジャイロスコープ1502ドリフトを補償するために使用することができる(ステップ1640)固定された測定の向きを提供する(ステップ1638)。
図17は、角度の動きを線形の動きに相関させる、本発明の例示的な方法を示している。フローダイヤグラム1700にしたがうと、ステップ1702において、ユーザは、ハンドヘルドデバイス1500の動きを生じさせる。人間の体の動きは主として角度があるので、ジャイロスコープベースのモーション追跡によく適している一方で、ユーザは、多くの線形モーションを含む軌道を実行してもよく、多くの線形モーションは、そのどちらも主として線形的である、黒板に書くことや、または、鉛筆で紙に書くことのような、線形の筆記での彼らの習慣または経験に起因するものである。
ステップ1704において、ハンドヘルドデバイス1500の角度の動きに関連する情報を取得するために、ジャイロ1502が使用される。ステップ1706において、ハンドヘルドデバイス1500の線形の動きに関連する情報を取得するために、加速度計1504が使用される。加速度計1504とジャイロスコープ1502の間のセンサー融合後に、ポジションの変化を決定するために、線形加速度を抽出して、二重積分することがある。しかしながら、センサーにおける不正確さのせいで、二重積分は安定しないことがあり、線形の動きについての正確な情報につながらないかもしれない。角度の動きは、たとえそれが小さい場合でも、角度の動きは二重積分を必要としないという事実に起因して、動きの方向と質を決定するために使用することができる。角度の動きを線形の動きに相関させることにより、角度の動きの間に発生する線形の動きが非常に小さい場合でさえも使用可能である、最終的な軌道を計算することができる(ステップ1708)。
図15に戻ると、本発明のある態様にしたがって、軌道形成を増大させるために、モーションセンサーとしてカメラ1510を使用することができる。カメラ1510ベースのモーション追跡は、相互相関、特徴追跡、オプティカルフロー、および、顔追跡のような、既存の技術を使用することができる。これらの技術は、軌道形成のために使用することができるピクセルの動きの情報を提供することができる。カメラ1510ベースの追跡は、通常、それ自体だけでは信頼できないが、安定したモーション追跡を提供するために、加速度計1504およびジャイロスコープ1502と組み合わせて使用することができる。ジャイロスコープ1502を使用して、角度の動きに相関させるピクセルの動きの量を抽出することにより、線形の動きに相関させるものとして、残りのピクセルの動きを識別することができる。
より正確な線形の軌道を提供するために、短い線形距離に対しては加速度計1504データを使用し、長い線形距離に対してはカメラ1510ピクセル追跡を使用する、センサー融合アルゴリズムを使用することができる。カメラ1510追跡は、ドリフトを減少させることにより、回転の動きを安定させるのを助けることができる。ジャイロスコープ1502および加速度計1504は、短い期間の時間に対してより正確な動きの情報を提供し、カメラ1510の視野内の、光の変化または動いている物体からの妨害を排除するのを助ける。
本発明のある態様にしたがうと、RF(無線周波数)ネットワーク、据え置き型のコンピュータシステム、または、別の類似するデバイスのような、何らかの外部基準1516に対する、RF信号の大きさと、いくつかのケースでは、RF信号の方向とを追跡することによるモーション追跡に対して、ハンドヘルドデバイス1500内のRFセンサー1512も使用してもよい。RF信号は、ブルートゥース(登録商標)、WiFi(登録商標)、GPS、赤外線、または、他の何らかのRF信号を含むことがある。何らかの外部基準系に対して、固定された基準を提供することにより、他のモーションセンサーを補完するために、信号追跡を使用することがある。ハンドヘルドデバイス1500によりRF信号を送出することができ、または、ハンドヘルドデバイス1500によりRF信号を受信することができ、あるいは、その双方である。
1つの実施形態では、例えば、ユーザの顔がタッチスクリーンに近い場合に、モーションセンサーを補完し、決定のために使用される近接センサーとしての役割も果たすために、同じ赤外線RF信号を使用することがある。別の実施形態では、各目的のために別個の赤外線信号を使用することができる。TVの制御、コンピュータの制御、メディアセンターの制御、または、ホームオートメーションシステムの制御のような、他の送信目的のために、RF信号を使用することもできる。専用のアンテナにより、または、地球の磁界の測定も担当する磁力計により、RF信号をピックアップすることができる。
本発明のある態様にしたがうと、モーション追跡センサーからの情報は、コンテキストを決定する他のセンサーからの情報と組み合わせられる。コマンドを実行すべきかどうか、コマンドの結果の性質、または、利用可能な1組のコマンドを決定するために、コンテキストが使用される。このようなコンテキスト測定センサーは、グローバルポジショニングシステム(GPS)、RFネットワーク内のデバイスの位置を決定するRFセンサー、タッチスクリーン、温度センサー、近接センサー、または、マイクロフォンのような、位置センサーを含むことがある。
図18は、ユーザ認証のためにマイクロフォンおよび慣性センサーが使用される、本発明の例示的な方法を示している。フローダイヤグラム1800にしたがうと、ステップ1802において、ユーザは、マイクロフォン1514を備えるハンドヘルドデバイス1500を使用して、空中署名を行う。ステップ1804において、ユーザのモーションを解析するために、1つ以上の慣性センサー1502、1504、および、1506が使用される。ステップ1806において、モーションジェスチャーの前の時間、モーションジェスチャーの間の時間、または、モーションジェスチャーの後の時間を含む、予め定められた時間あるいは予めプログラムされた時間において、あるサウンドまたは話された単語がマイクロフォン1514により検出されたかどうか決定がなされる。
サウンドは、例えば、ハンドヘルドデバイス1500をスクラッチするか、または、タッピングするかのいずれかによる、デバイスとの接触を通して生じたサウンドを含むことがある。スクラッチモーションは、見て真似るのが非常に難しく、認証手順をより安全にするだろう。タッピングあるいはスクラッチは、コマンドとして、または、認証の一部として使用することができる。タッピングあるいはスクラッチは、加速度計1504、ジャイロスコープ1502、磁力計1506、および、マイクロフォン(1514)により提供される情報の組み合わせにより、検出することができる。タッピングまたはスクラッチに応答して、加速度計1504、ジャイロスコープ1502、および、磁力計1506により検出されたモーション信号は、マイクロフォン1514により検出されたオーディオ信号と組み合わせることができる。これは、無意識のタッピング、例えば、手を切り替えることにより行われる無意識のタッピングを排除するのを助けることができる。これはまた、指の腹によるタッピングと、爪によるタッピングとを区別することを可能にする。ステップ1808において、ユーザの署名が、ライブラリ中の署名に一致し、マイクロフォンにより検出されたサウンドが、予め定められたサウンドまたは予めプログラムされたサウンドに一致する場合に、ユーザが認証に成功したとみなされる。したがって、ユーザ認証のために、モーションセンサーとマイクロフォンの双方が使用される。
図10および図15において示されているモーション処理デバイスおよびセンサーにより捕捉することができるモーション軌道は、生体の特色であり、個人のアイデンティティを認証するのに使用することができる。図19の方法により示されているように、ハンドセット1000、1500に対するモーションベースのアイデンティティ認証の応用が、スクリーンのロック解除である。従来のスマートフォンにおけるスクリーンのロック解除の標準的な設計では、スクリーンのロックを解除するために、ユーザは、4個の数字または文字のパスワードを入力するか、あるいは、ユーザ規定の線のパターンを入力することができる。このようなタッチパネルベースのスクリーンロックの欠点は、詐欺師が、ユーザの指紋よごれに基づいて、パスワードを推量できるということである。電話機のロックを解除するためのモーションコマンドを使用することにより、さらに高いレベルの安全性をユーザに提供する。
フローダイヤグラム1900にしたがうと、ステップ1902において、ハンドセット1000、1500のスクリーン(例えば、図10の1004)は、ロックされている。ステップ1904において、ユーザは、ハンドセット1000、1500を使用することにより、空中署名を実行する。ステップ1906において、ハンドセット1000、1500は、ユーザ署名が本物であることを検証する。ステップ1908において、ハンドセット1000、1500は、スクリーンのロックを解除する。モーションベースの
アイデンティティ認証は、幅広い範囲の応用を有している。これは、オンライン購入の間のスマートフォン上での煩わしいパスワードタイピングに容易に取って代わることができる。キオスクまたはスーパーマーケットでのレジの順番を待つ列において、ハンドセットは、捕捉した空中署名を、ブルートゥースまたは他のワイヤレス通信手段を通して、キャッシュレジスターに送ることができる。
さらに、スマートフォンは、モーションベースのアイデンティティ認証を実現できるプラットフォームというだけではない。慣性センサーおよびプロセッサを含むモーション処理ユニット(例えば、図10の1012)は、時計、キーチェーン、バッジ、または、ペンのような、身につけられる装飾品の中に配置することができるように、物理的に非常に小さく、低電力を消費する。モーション処理ユニットを持つバッジは、署名パターンとともにID(識別子)を送信する。これは、何者かがバッジを盗んで、無許可のエントリーを行うというリスクを防ぐ。生体の特性は、アクセス制御ポイントにおける安全性保護の追加のレイヤを提供する。生体認証方法は、家庭用、オフィス用、および、車用のアクセス制御や、TV番組の親によるコントロール用のアクセス制御や、あるいは、例えば、その所有者を認識するおもちゃにおけるもののような、娯楽目的のアクセス制御に適用することができる。
本発明のある態様にしたがうと、モーションコマンドを、常に数字やアルファベットのシンボルに関係付ける必要はない。モーションコマンドは、何らかの予め規定されたモーションパターンを含むことがある。例えば、ビデオゲームコンソールは、強力な攻撃を起動させるための特別な剣振りシーケンスを規定することができ、あるいは、オーケストラのゲームにおいて、指揮者が3ビートまたは4ビートのパターンを振るかどうかを決定することができる。モーションコマンドは、娯楽目的と教育目的の双方に対して使用することができる。例えば、ゴルフの生徒は、手のグリップが正しい方法でターンしているかどうかをチェックするために、モーション処理デバイスを手に持ち、スイングを練習することができる。また、テレビ(TV)のリモコンを使用することにより、ユーザは、空中で“C”を書いて、チャンネルをCNN(登録商標)に変えたり、または、“E”を書いて、チャンネルをESPN(登録商標)に変えることができる。
例示的なネットワーク環境および分散型環境
ここで説明したポインティングベースサービスおよび関連する実施形態に対する方法ならびにデバイスのさまざまな実施形態は、何らかのコンピュータにあるいは他のクライアントまたはサーバデバイスに関連して実現することができ、何らかのコンピュータあるいは他のクライアントまたはサーバデバイスは、コンピュータネットワークの一部として、または、分散型コンピューティング環境中で、展開することができ、何らかの種類のデータ記憶装置に接続することができることを当業者は正しく認識することができる。この点で、ここで説明したさまざまな実施形態は、任意の数のメモリまたは記憶装置ユニットを有する何らかのコンピュータシステムまたは環境で実現することができ、任意の数のアプリケーションおよびプロセスが、任意の数の記憶装置ユニットにわたって発生する。このことは、これらに限定されないが、遠隔記憶装置またはローカル記憶装置を有する、ネットワーク環境中あるいは分散型コンピューティング環境中に展開されているサーバコンピュータおよびクライアントコンピュータを持つ環境を含む。
図2は、例示的なネットワークコンピューティング環境または分散型コンピューティング環境の限定的でない概略図を提供する。分散型コンピューティング環境は、コンピューティングオブジェクト210、212等と、コンピューティングオブジェクトまたはデバイス220、222、224、226、228等とを含み、これらは、アプリケーション230、232、234、236、238により表されるプログラム、方法、データ記憶装置、プログラマブル論理等を含んでもよい。オブジェクト210、212等と、コンピューティングオブジェクトまたはデバイス220、222、224、226、228等とは、遠隔制御装置、PDA、オーディオ/ビデオデバイス、移動体電話機、MP3プレーヤー、ラップトップ等のような、異なるデバイスを含んでもよいことを正しく認識することができる。
各オブジェクト210、212等ならびにコンピューティングオブジェクトまたはデバイス220、222、224、226、228等は、通信ネットワーク240により、直接的にまたは間接的にのいずれかで、1つ以上の他のオブジェクト210、212等ならびにコンピューティングオブジェクトまたはデバイス220、222、224、226、228等と通信することができる。図2では、単一のエレメントとして示されているが、ネットワーク240は、図2のシステムにサービスを提供する他のコンピューティングオブジェクトおよびコンピューティングデバイスを含んでいてもよく、ならびに/あるいは、示されていない複数の相互に接続されたネットワークを表してもよい。各オブジェクト210、212等または220、222、224、226、228等は、API、または、他のオブジェクト、ソフトウェア、ファームウェア、ならびに/あるいは、ハードウェアを利用してもよい、さまざまな実施形態にしたがって提供されているような遅延相互作用モデルと通信するまたはこうした遅延相互作用モデルを実現するのに適した、アプリケーション230、232、234、236、238のような、アプリケーションも含むことができる。
分散型コンピューティング環境をサポートする、さまざまなシステム、コンポーネント、および、ネットワークコンフィギュレーションがある。例えば、コンピューティングシステムは、ワイヤードシステムあるいはワイヤレスシステムにより、ローカルネットワークまたは広い分散型ネットワークにより、互いに接続することができる。現在、多くのネットワークがインターネットに接続され、インターネットは、広い分散型コンピューティングのためのインフラストラクチャを提供し、多くの異なるネットワークを含んでいるが、さまざまな実施形態で説明したような技術に付帯的な例示的な通信のために、何らかのネットワークインフラストラクチャを使用することができる。
したがって、クライアント/サーバアーキテクチャ、ピア・ツー・ピアアーキテクチャ、または、ハイブリッドアーキテクチャのような、ネットワークトポロジーならびにネットワークインフラストラクチャの、ホストを利用することができる。クライアント/サーバアーキテクチャ、特に、ネットワークシステムでは、クライアントは、通常、例えば、サーバのような別のコンピュータにより提供される共有ネットワークリソースにアクセスするコンピュータである。図2の例示では、限定的でない例として、コンピュータ220、222、224、226、228等は、クライアントとして考えることができ、コンピュータ210、212等は、サーバとして考えることができ、ここで、サーバ210、212等は、クライアントコンピュータ220、222、224、226、228等からのデータの受信、データの記憶、データの処理、クライアントコンピュータ220、222、224、226、228等へのデータの送信のような、データサービスを提供するが、いずれのコンピュータも、状況に依存して、クライアント、サーバ、または、その双方として考えることができる。これらのコンピューティングデバイスのうちのいずれかは、データを処理してもよく、もしくは、遅延相互作用モデルに、および、1つ以上の実施形態に対してここで説明した関連技術に、関わることがあるサービスあるいはタスクを要求してもよい。
典型的に、サーバは、インターネットまたはワイヤレスネットワークインフラストラクチャのような、遠隔ネットワークまたはローカルネットワークを通して、アクセス可能な遠隔コンピュータシステムである。クライアントプロセスは、第1のコンピュータシステム中でアクティブであってもよく、サーバプロセスは、第2のコンピュータシステム中でアクティブであってもよく、通信媒体を通して互いに通信し、したがって、分散された機能性を提供し、複数のクライアントが、サーバの情報収集能力を活用することができる。方向ベースのサービスにしたがって利用される何らかのソフトウェアオブジェクトは、単独で提供することができ、あるいは、複数のコンピューティングデバイスまたはオブジェクトにわたって分散することができる。
例えば、通信ネットワーク/バス240がインターネットであるネットワーク環境では、サーバ210、212等は、ハイパーテキスト転送プロトコル(HTTP)のような、多数の既知のプロトコルのうちのいずれかを介して、クライアント220、222、224、226、228等が通信するウェブサーバとすることができる。サーバ210、212等は、分散型コンピューティング環境の特性であるように、クライアント220、222、224、226、228等としての役割も果たす。
例示的なコンピューティングデバイス
述べたように、ここで説明したさまざまな実施形態は、何らかのデバイスに適用し、ここで、ポインティングベースサービスと、対象のポイントとの遅延相互作用とを実行することが望ましいことがある。それゆえ、ハンドヘルドデバイス、ポータブルデバイス、および、他のコンピューティングデバイスと、すべての種類のコンピューティングオブジェクトとは、ここで説明したさまざまな実施形態に関連する使用に対して、すなわち、デバイスがポインティングベースサービスを要求することができるどこでも、考えられることを理解すべきである。したがって、図3において以下で説明する汎用遠隔コンピュータは一例に過ぎず、ネットワーク/バスの相互運用性および相互作用を有する何らかのクライアントにより、主題的な開示の実施形態が実現されてもよい。
要求されていないが、デバイスまたはオブジェクトに対するサービスの開発者による使用のために、オペレーティングシステムを介して、実施形態のうちのいずれかを部分的に実現することができ、ならびに/あるいは、動作可能なコンポーネントに関連して動作するアプリケーションソフトウェア内に含めることができる。クライアントワークステーション、サーバ、または、他のデバイスのような、1つ以上のコンピュータにより実行される、プログラムモジュールのような、コンピュータ実行可能な命令の一般的な文脈で、ソフトウェアが説明されてもよい。さまざまなコンピュータシステムコンフィギュレーションおよびプロトコルにより、ネットワーク対話を実施してもよいことを当業者は正しく認識するだろう。
したがって、図3は、実施形態のうちの1つ以上を実現してもよい適切なコンピューティングシステム環境300の例を示しているが、上で明確にしたように、コンピューティングシステム環境300は、適切なコンピューティング環境の一例に過ぎず、実施形態のうちのいずれかの使用または機能性の範囲に関して、何らかの限定を示唆することを意図していない。例示的な動作環境300で示されているコンポーネントのうちの何らかの1つまたは組み合わせに関連する何らかの依存性あるいは要件を有するものとして、コンピューティング環境300を解釈すべきでもない。
図3を参照すると、ここでの1つ以上の実施形態を実現するための例示的な遠隔デバイスは、ハンドヘルドコンピュータ310の形で、汎用コンピューティングデバイスを含むことがある。ハンドヘルドコンピュータ310のコンポーネントは、これらに限定されないが、処理ユニット320と、システムメモリ330と、システムメモリを含むさまざまなシステムコンポーネントを処理ユニット320に結合するシステムバス321とを含んでもよい。
コンピュータ310は、典型的に、さまざまなコンピュータ読取可能媒体を含み、コンピュータ310によりアクセスできる何らかの利用可能な媒体とすることができる。システムメモリ330は、リードオンリーメモリ(ROM)および/またはランダムアクセスメモリ(RAM)のような、揮発性メモリならびに/あるいは不揮発性メモリの形で、コンピュータ記憶媒体を含んでもよい。例として、これらに限定されないが、メモリ330は、オペレーティングシステム、アプリケーションプログラム、他のプログラムモジュール、および、プログラムデータも含んでもよい。
ユーザは、入力デバイス340を通してコンピュータ310にコマンドおよび情報を入力してもよい。モニタまたは他のタイプのディスプレイデバイスも、出力インターフェース350のようなインターフェースを介して、システムバス321に接続される。コンピュータは、モニタに加えて、スピーカーおよびプリンタのような、他の周辺出力デバイスも含んでもよく、これらは、出力インターフェース350を通して接続されてもよい。
コンピュータ310は、遠隔コンピュータ370のような、1つ以上の他の遠隔コンピュータに対する論理結合を使用して、ネットワーク環境または分散型環境で動作してもよい。遠隔コンピュータ370は、パーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ピアデバイスまたは他の共通ネットワークノード、あるいは、他の何らかの遠隔媒体消費または送信デバイスであってもよく、コンピュータ310に対して上で説明したエレメントのうちのいずれかまたはすべてを含んでもよい。図3において表されている論理結合は、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)のような、ネットワーク371を含むが、他のネットワーク/バスも含んでもよい。このようなネットワーキング環境は、家庭全体、オフィス全体、企業全体のコンピュータネットワーク、イントラネット、および、インターネットでは、珍しくない。
上で述べたように、さまざまなコンピューティングデバイス、ネットワーク、および、アドバタイジングアーキテクチャに関連して、例示的な実施形態を説明してきたが、根底にある概念は、周囲の対象ポイントについての情報を取り出すことが望ましい、任意のネットワークシステムならびに任意のコンピューティングデバイスまたはシステムに適用されてもよい。
例えば、アプリケーションおよびサービスが、ポインティングベースサービスを使用することを可能にする、適切なAPI、ツールキット、ドライバコード、オペレーティングシステム、制御、単独でのまたはダウンロード可能なソフトウェアオブジェクト等、ここで説明した実施形態のうちの1つ以上を実現する複数の方法がある。API(または、他のソフトウェアオブジェクト)の観点からばかりでなく、説明した実施形態のうちの1つ以上にしたがってポインティングプラットフォームサービスを提供するソフトウェアまたはハードウェアオブジェクトから、実施形態が考えられもてよい。ここで説明したさまざまなインプリメンテーションおよび実施形態は、ハードウェアにおいて全体的に、ハードウェアにおいて部分的に、および、ソフトウェアにおいて部分的に、さらに、ソフトウェアにおいても、存在する態様を有していてもよい。
例として、事例として、あるいは、例示としての役割を果たすことを意味するために、“例示的な”という文言がここで使用された。誤解を避けるために、ここで開示した主題事項は、このような例により限定されない。“例示的な”ものとして、ここで説明したいずれの態様または設計は、他の態様または設計と比較して、必ずしも好ましいものとして、または、利益のあるものとして解釈されるものではなく、当業者に知られている均等な例示的構造および技術を排除することを意味しない。さらに、“備える”、“有する”、“含む”という用語、および、他の類似する文言が、詳細な説明または特許請求の範囲のいずれかで使用される限り、誤解を避けるために、このような用語は、何らかの追加のエレメントまたは他のエレメントを排除することなく、制限のない移行語として“具備する”という用語に類似した方法で包含的であることが意図されている。
述べたように、ここで開示したさまざまな技術は、ハードウェアに、ソフトウェアに、または、適切な場合には、その双方に関連して実現されてもよい。ここで使用されているような、“コンポーネント”、“システム”という文言、および、これらに類するものは、同様に、コンピュータ関連エンティティを指すことを意図しており、コンピュータ関連エンティティは、ハードウェア、ハードウェアとソフトウェアとを組み合わせたもの、ソフトウェア、または実行中のソフトウェアのいずれかである。例えば、コンポーネントは、これらに限定されないが、プロセッサ上で実行しているプロセス、プロセッサ、オブジェクト、実行可能ファイル、実行のスレッド、プログラム、および/または、コンピュータであってもよい。例示として、コンピュータ上で実行しているアプリケーションおよびコンピュータの双方ともコンポーネントであることがある。1つ以上のコンポーネントは、実行のプロセスおよび/またはスレッド内に存在してもよく、コンポーネントは、1つのコンピュータ上に局所化されていてもよく、ならびに/あるいは、2つ以上のコンピュータ間に分散されていてもよい。
いくつかのコンポーネント間の対話に関して、先述のシステムを説明してきた。このようなシステムおよびコンポーネントは、このようなコンポーネントまたは特定のサブコンポーネント、特定のコンポーネントまたはサブコンポーネントのうちのいくつか、ならびに/あるいは、追加のコンポーネントを含むことがあり、先述のもののさまざまな置換および組み合わせにしたがうことができることを正しく認識することができる。サブコンポーネントは、ペアレントコンポーネント内に含まれる(階層型)のではなく、他のコンポーネントに通信可能に結合されるコンポーネントとして実現することもできる。さらに、1つ以上のコンポーネントは、組み合わせて、集合的な機能性を提供する単一のコンポーネントにしてもよく、または、いくつかの別個のサブコンポーネントに分割してもよく、統合された機能性を提供するためにこのようなサブコンポーネントに通信可能に結合するために、管理レイヤのような、何らかの1つ以上の中間レイヤが提供されてもよいことに留意すべきである。ここで説明した何らかのコンポーネントはまた、ここで特に説明していないが、当業者により一般的に知られている1つ以上の他のコンポーネントと対話してもよい。
上で説明した例示的なシステムを考慮すると、開示した主題的事項にしたがって実現されてもよい方法は、さまざまな図のフローチャートを参照して、より正しく認識されるだろう。説明を簡単にする目的のために、一連のブロックとして方法が示され、説明されているが、いくつかのブロックは、ここで表され、説明されているものとは異なる順序で、および/または、他のブロックと同時に、発生することがあるので、クレームされている主題事項は、ブロックの順序によって限定されないことを理解し、正しく認識すべきである。シーケンシャルでない、または、分岐しているフローが、フローチャートにより示されている場合に、同じ結果または類似する結果を達成する、さまざまな他の分岐、フローパス、および、ブロックの順序が、実現されてもよいことを正しく認識することができる。さらに、以下で説明する方法を実現するために、示されているすべてのブロックが必要とされるわけではない。
さまざまな図の好ましい実施形態に関連して、さまざまな実施形態を説明してきたが、他の類似する実施形態を使用してもよく、そこから逸脱することなく同じ機能を実行するために、説明した実施形態に対する改良または追加を行ってもよいことを理解すべきである。さらに、上で説明した実施形態のうちの1つ以上の態様は、複数の処理チップまたはデバイスにわたって実現されてもよく、記憶装置も、同様に、複数のデバイスにわたって生じさせてもよい。それゆえ、本発明を何らかの単一の実施形態に限定すべきではなく、添付の特許請求の範囲にしたがった広さおよび範囲で解釈すべきである。

Claims (44)

  1. ハンドヘルドデバイスにおいて、
    ジャイロスコープと加速度計を含む慣性センサーと、
    前記ハンドヘルドデバイスに結合されているプロセッサとを具備し、
    前記センサーは、前記ハンドヘルドデバイスの動きの軌道に関連するデータを提供するためのものであり、
    前記プロセッサは、前記軌道データを受け取って、前記軌道データを、複数の別々の特徴に対応する1組の値に変換するためのものであり、
    前記プロセッサは、前記1組の値をデータベース中に記憶させるためのものであり、
    前記プロセッサは、キャラクタまたはコマンドを前記1組の値に関係付けるためのものであり、
    前記軌道データは、前記ハンドヘルドデバイスの回転の軌道に関連するデータを含み、
    前記プロセッサは、複数のセンサーから受け取ったデータを融合するためのアルゴリズムを実行することにより、前記軌道データを1組の値に変換するためのものであるハンドヘルドデバイス。
  2. コンパスをさらに具備する請求項1記載のハンドヘルドデバイス。
  3. 前記複数の別々の特徴に対応する複数の組の値に関係付けられているキャラクタまたはコマンドを前記データベースに格納することをさらに含む請求項1記載のハンドヘルドデバイス。
  4. 前記動きの軌道をディスプレイ上にリアルタイムで表示するための前記ディスプレイをさらに具備する請求項1記載のハンドヘルドデバイス。
  5. 前記プロセッサは遠隔に位置し、前記プロセッサは、クラウドコンピューティング技術を使用することによりネットワークを通して前記ハンドヘルドデバイスと通信するためのものである請求項1記載のハンドヘルドデバイス。
  6. 前記複数の別々の特徴のうちの別々の特徴は、(i)ある時点における前記軌道の角度と、(ii)ヨーにおける変化でピッチにおける変化を除算した逆タンジェントと、(iii)前記ピッチ成分と、(iv)前記ヨー成分と、(v)前記軌道の変化のレートと、(vi)交差するポイントの位置と、(vii)前記軌道内で前記軌道が方向を変える回数とからなるグループから選択される請求項1記載のハンドヘルドデバイス。
  7. 前記ハンドヘルドデバイスの動きの軌道に関連するデータを提供するための慣性センサーと、
    前記軌道データを受け取って、前記軌道データを、複数の別々の特徴に対応する1組の値に変換するための前記プロセッサと、
    前記変換された組の値を、前記データベース中に記憶されている前記複数の別々の特徴に対応する値の組と比較するための前記プロセッサと、
    前記データベースから1組の値を選択するための前記プロセッサと、
    前記選択された組の値に関係付けられたキャラクタを表示するか、または、前記選択された組の値に関係付けられたコマンドを実行するための前記プロセッサとをさらに具備する請求項3記載のハンドヘルドデバイス。
  8. アルファベットからの文字と、ローマ数字と、ユーザの署名と、認証信号とからなるグループから、前記キャラクタを選択することができる請求項7記載のハンドヘルドデバイス。
  9. 前記コマンドは、前記ハンドヘルドデバイスのアプリケーションプログラムあるいはオペレーティングシステムにおける、モード変更またはイベントをトリガすることができる請求項7記載のハンドヘルドデバイス。
  10. 前記コマンドは、ビデオゲームにおける、モード変更またはイベントをトリガすることができる請求項7記載のハンドヘルドデバイス。
  11. 前記コマンドは、アプリケーションプログラムを開くまたは閉じることができ、オペレーティングシステム内で動作している1組のアプリケーションを制御することができる請求項7記載のハンドヘルドデバイス。
  12. 前記プロセッサは、ルックアップテーブルと、隠れマルコフモデル(HMM)と、ニューラルネットワークと、サポートベクターマシンとからなるグループから選択されたアルゴリズムデバイスを使用することにより、前記選択を実行するためのものである請求項7記載のハンドヘルドデバイス。
  13. 前記プロセッサは、前記軌道データを複数のセグメントに分割するためのものであり、
    前記プロセッサは、セグメントに関係付けられている前記軌道データを、複数の別々の特徴に対応する1組の値に変換するためのものであり、
    前記プロセッサは、前記セグメントに対する前記変換された組の値を、前記データベース中に記憶されている前記複数の別々の特徴に対応する値の組と比較するためのものであり、
    前記プロセッサは、前記データベースから1組の値を選択するためのものであり、
    前記プロセッサは、前記選択された組の値に関係付けられているキャラクタを表示するためのものである請求項7記載のハンドヘルドデバイス。
  14. 前記セグメントは文字を表し、前記複数のセグメントは大ざっぱな単語を表す請求項13記載のハンドヘルドデバイス。
  15. ジェスチャー認識のための方法において、
    ジャイロスコープを使用することにより、ハンドヘルドデバイスの動きの軌道に関連するデータを取得することと、
    前記軌道データを、複数の別々の特徴に対応する値に変換することと、
    前記変換された組の値を、データベース中に記憶されている前記複数の別々の特徴に対応する値の組と比較することと、
    前記比較に基づいて、前記データベースから1組の値を選択することと、
    前記選択した組の値に関係付けられているキャラクタを表示するか、または、前記選択した組の値に関係付けられているコマンドを実行することとを含み、
    前記軌道データは、前記ハンドヘルドデバイスの回転の動きと線形の動きに関連する方法。
  16. 前記ジャイロスコープと、加速度計およびコンパスからなるグループから選択されたセンサーとを使用することにより、前記軌道に関連するデータを取得することをさらに含む請求項15記載の方法。
  17. 前記加速度計により取得された前記線形の動きのデータを、前記ジャイロスコープにより取得された前記角度の動きのデータと相関させる請求項16記載の方法。
  18. 前記別々の特徴は、前記ハンドヘルドデバイスの角度の動きに関連する請求項15記載の方法。
  19. ユーザのさまざまな手のジェスチャーを、キャラクタまたはコマンドに関係付けることにより、前記データベースに格納する請求項15記載の方法。
  20. ハンドヘルドデバイスにおいて、
    ジャイロスコープと、
    加速度計と、
    コンパスと、
    前記ジャイロスコープと、前記加速度計と、前記コンパスとに結合されているプロセッサと、
    前記プロセッサに結合されているプログラマブルモジュールと、
    前記プロセッサに結合されており、複数の別々の特徴に対応する値の組と、前記値の組に関係付けられているキャラクタまたはコマンドとを含むメモリとを具備し、
    前記ジャイロスコープと、前記加速度計と、前記コンパスは、前記ハンドヘルドデバイスの動きの軌道に関連するデータを提供するためのものであり、
    前記プログラマブルモジュールは、前記軌道データを処理するための命令を前記プロセッサに提供するためのものであり、
    前記プロセッサは、前記プログラマブルモジュールにより提供される命令を使用することにより、前記軌道データを、前記複数の別々の特徴に対応する1組の値に変換するためのものであり、
    前記プロセッサは、前記変換された組の値を、前記データベース中に記憶されている値の組と比較して、最も近い一致を選択するためのものであり、
    前記プロセッサは、前記選択された組の値に関係付けられているキャラクタを表示するか、または、前記選択された組の値に関係付けられているコマンドを実行するためのものであり、
    前記プロセッサは、前記軌道データを使用して、前記ハンドヘルドデバイスの傾きを決定するためのものであり、
    前記軌道データは、前記ハンドヘルドデバイスの回転の動きに関連するデータを含むハンドヘルドデバイス。
  21. 前記軌道をリアルタイムで表示するためと、前記選択された組の値に関係付けられている前記キャラクタを表示するためのディスプレイをさらに具備する請求項20記載のハンドヘルドデバイス。
  22. ユーザを認証するための方法において、
    ハンドヘルドデバイスの空中での動きを生じさせることと、
    ジャイロスコープを使用して、前記動きの軌道に関連する情報を取得することと、
    前記情報をデータベースと比較することと、
    前記比較に基づいて前記ユーザを認証することとを含む方法。
  23. 前記動きは、前記ユーザの署名を表す請求項22記載の方法。
  24. 前記動きの発生の前の予め定められた時間期間内に、または、前記動きの発生の後の予め定められた時間期間内に、サウンドを発生させることと、
    前記ハンドヘルドデバイスに埋め込まれているマイクロフォンを使用することにより、前記サウンドを検出することと、
    前記ユーザを認証するために、前記検出したサウンドと、前記軌道情報とを使用することとを含む請求項22記載の方法。
  25. ハンドヘルドデバイスにおいて、
    第1のプロセッサと、
    前記第1のプロセッサに結合されている第1のコンポーネントと
    前記ハンドヘルドデバイスの第1の動きに関連する情報を提供するためのジャイロスコープとを具備し、
    前記第1のプロセッサは、前記第1の動きに応答して、前記第1のコンポーネントをアクティブ動作モードに入らせるためのものであるハンドヘルドデバイス。
  26. 前記第1のプロセッサに結合されているプログラマブルモジュールをさらに具備し、
    前記プログラマブルモジュールは、前記ハンドヘルドデバイスの前記第1の動きに関連する第1のコマンドを含み、
    前記第1のコマンドは、前記第1のコンポーネントを前記アクティブ動作モードに入らせるためのコマンドを含む請求項25記載のハンドヘルドデバイス。
  27. 前記第1のプロセッサは、マイクロプロセッサを備え、
    第2のプロセッサは、前記ジャイロスコープにより提供される情報を処理するために、前記ジャイロスコープに結合されている請求項25記載のハンドヘルドデバイス。
  28. 前記ジャイロスコープからの情報の受け取りに応答して、前記第1のプロセッサをアクティブ動作モードに入らせるための前記第2のプロセッサをさらに具備し、
    前記第2のプロセッサは、前記ジャイロスコープから受け取った情報を前記第1のプロセッサに提供するためのものである請求項27記載のハンドヘルドデバイス。
  29. 前記ハンドヘルドデバイスの前記第1の動きに関連する情報を提供するための加速度計をさらに具備し、
    前記第1のプロセッサは、前記ジャイロスコープと前記加速度計とにより提供される情報に基づいて、前記第1のコンポーネントをアクティブ動作モードに入らせるためのものである請求項28記載のハンドヘルドデバイス。
  30. 前記ハンドヘルドデバイスはスマートフォンを含む請求項25記載のハンドヘルドデバイス。
  31. カメラを備える前記第1のコンポーネントと、
    ディスプレイを備える第2のコンポーネントと、
    前記第1の動きに応答して、前記カメラをスリープモードからアクティブモードにスイッチさせるための前記第1のプロセッサとをさらに具備し、
    前記カメラが、前記アクティブモードの間に前記スリープモードよりも多い電力を使用するときに、前記ディスプレイは、前記第1の動きに応答して、前記スリープモードから前記アクティブモードにスイッチされない請求項25記載のハンドヘルドデバイス。
  32. 前記第1の動きに応答して、前記第1のプロセッサを、アクティブ動作モードに入らせるための第2のプロセッサは、前記ジャイロスコープに結合されている請求項25記載のハンドヘルドデバイス。
  33. マイクロプロセッサを備える前記第1のプロセッサと、
    カメラを備える前記第1のコンポーネントと、
    前記ジャイロスコープにより提供される情報を処理するために、前記ジャイロスコープに結合されている第2のプロセッサとをさらに具備し、
    前記マイクロプロセッサは、前記カメラ、ディスプレイ、マイクロフォン、ネットワークブラウザアプリケーションプログラム、および、キーパッドを含む複数のコンポーネントに結合され、
    前記マイクロプロセッサおよび前記複数のコンポーネントは、スリープ動作モードに設定され、
    前記第2のプロセッサは、前記第1の動きに応答して、前記マイクロプロセッサを、前記スリープモードから前記アクティブ動作モードにスイッチさせるためのものであり、
    前記マイクロプロセッサは、前記第1の動きに応答して、前記カメラを、前記スリープモードから前記アクティブ動作モードにスイッチさせるためのものであり、
    前記マイクロプロセッサは、前記第1の動きに応答して、前記ディスプレイを、前記スリープモードから前記アクティブ動作モードにスイッチさせないためのものであり、
    前記マイクロプロセッサは、第2の動きに応答して、前記ディスプレイを、前記スリープモードから前記アクティブ動作モードにスイッチさせるためのものであり、
    前記アクティブ動作モードは、前記スリープ動作モードよりも多い電力を必要とする請求項25記載のハンドヘルドデバイス。
  34. ハンドヘルドデバイスに対する電力を管理するための方法において、
    第1のコンポーネントを、スリープ動作モードに入らせることと、
    第1のプロセッサを、スリープ動作モードに入らせることと、
    前記ハンドヘルドデバイスの動きを生じさせることと、
    ジャイロスコープを使用して、前記動きを検出することと、
    前記動きに応答して、前記第1のプロセッサおよび前記第1のコンポーネントをアクティブ動作モードにスイッチさせることと、
    前記モードをスイッチさせるためのトリガとして前記動きを使用することとを含む方法。
  35. 加速度計を使用して、前記動きを検出することをさらに含む請求項34記載の方法。
  36. 前記ジャイロスコープにより検出された前記動きに関係付けられているコマンドを識別することをさらに含む請求項34記載の方法。
  37. 前記コマンドは、前記ハンドヘルドデバイス中に備えられているカメラを、スリープモードから、アクティブ動作モードにスイッチさせるためのコマンドを含む請求項36記載の方法。
  38. 前記コマンドは、ディスプレイを、スリープモードからアクティブ動作モードにスイッチさせるためのコマンドを含む請求項36記載の方法。
  39. 前記コマンドは、マイクロフォンを、スリープモードからアクティブ動作モードにスイッチさせるためのコマンドを含む請求項36記載の方法。
  40. ユーザが前記ハンドヘルドデバイスをタッピングすることにより、前記動きが生じる請求項39記載の方法。
  41. 前記動きに応答して、第2のコンポーネントを、アクティブ動作モードにスイッチさせないことをさらに含む請求項34記載の方法。
  42. 移動体電話機に対する電力を管理するための方法において、
    前記移動体電話機を第1のポジションに配置することと、
    ジャイロスコープを使用することにより、前記移動体電話機の前記第1のポジションを検出することと、
    前記第1のポジションの検出に応答して、前記移動体電話機のコンポーネントを、スリープ動作モードに入らせることとを含む方法。
  43. 加速度計を使用することにより、前記移動体電話機の前記第1のポジションを検出することをさらに含む請求項42記載の方法。
  44. 前記移動体電話機の前記ポジションを第2のポジションに変更することと、
    前記ジャイロスコープを使用することにより、前記移動体電話機の前記第2のポジションを検出することと、
    前記第2のポジションの検出に応答して、前記移動体電話機の前記コンポーネントを、アクティブ動作モードに入らせることとをさらに含む請求項42記載の方法。
JP2012538914A 2009-11-09 2010-11-09 人間の動きに関連するキャラクタおよびコマンドを認識するためのハンドヘルドコンピュータシステムおよび技術 Expired - Fee Related JP5882220B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US25928809P 2009-11-09 2009-11-09
US61/259,288 2009-11-09
US12/832,707 US9174123B2 (en) 2009-11-09 2010-07-08 Handheld computer systems and techniques for character and command recognition related to human movements
US12/832,707 2010-07-08
PCT/US2010/056065 WO2011057287A1 (en) 2009-11-09 2010-11-09 Handheld computer systems and techniques for character and command recognition related to human movements

Publications (2)

Publication Number Publication Date
JP2013510381A true JP2013510381A (ja) 2013-03-21
JP5882220B2 JP5882220B2 (ja) 2016-03-09

Family

ID=43970431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012538914A Expired - Fee Related JP5882220B2 (ja) 2009-11-09 2010-11-09 人間の動きに関連するキャラクタおよびコマンドを認識するためのハンドヘルドコンピュータシステムおよび技術

Country Status (6)

Country Link
US (2) US9174123B2 (ja)
EP (1) EP2499552B1 (ja)
JP (1) JP5882220B2 (ja)
CN (1) CN102725712B (ja)
TW (1) TWI582643B (ja)
WO (1) WO2011057287A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168802A (ja) * 2011-02-15 2012-09-06 Nec Corp 携帯端末における認証情報入力装置、方法およびプログラム
JP2014146337A (ja) * 2013-01-29 2014-08-14 Samsung Electronics Co Ltd デバイスの機能実行方法及びこのためのデバイス
JP2014529798A (ja) * 2011-09-01 2014-11-13 サムスン エレクトロニクスカンパニー リミテッド モーションに基づいて画面ロック解除を実行する携帯端末及びそのロック解除方法
JP2015506524A (ja) * 2012-02-15 2015-03-02 騰訊科技(深▲せん▼)有限公司Tencent Technology(Shenzhen) Company Limited ロック解除方法および装置、パスワード設定方法および装置
JP2015507263A (ja) * 2011-12-19 2015-03-05 マイクロソフト コーポレーション 複数センサ入力のためのセンサフュージョンインタフェース
JP2016063457A (ja) * 2014-09-19 2016-04-25 株式会社東芝 認証システム、認証装置および認証方法
JP2016129402A (ja) * 2016-02-29 2016-07-14 カシオ計算機株式会社 端末制御システム、端末制御方法及び電子機器
JP2016523396A (ja) * 2013-07-12 2016-08-08 フェイスブック,インク. モバイル・デバイス電極の分離
JP2016224852A (ja) * 2015-06-03 2016-12-28 富士通株式会社 情報処理装置、ジェスチャ検出方法、及びプログラム
CN106598208A (zh) * 2015-10-20 2017-04-26 中兴通讯股份有限公司 一种实现对智能移动设备进行控制的方法及装置
US10305993B2 (en) 2013-03-22 2019-05-28 Casio Computer Co., Ltd. Terminal control system, method for controlling terminal, and electronic device
JP2020013599A (ja) * 2014-12-08 2020-01-23 セス,ロヒット ウェアラブルワイヤレスhmiデバイス
JP2020161139A (ja) * 2019-03-26 2020-10-01 ソニー株式会社 電子機器のユーザを認証する方法

Families Citing this family (255)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8370639B2 (en) * 2005-06-16 2013-02-05 Sensible Vision, Inc. System and method for providing secure access to an electronic device using continuous facial biometrics
BRPI0718365A2 (pt) 2006-10-31 2013-11-12 Qualcomm Inc Equipamento e método para diversidade de recepção sem fio com base em sensor
US20100330940A1 (en) * 2006-10-31 2010-12-30 Qualcomm Incorporated Sensor-aided wireless combining
US20130217491A1 (en) * 2007-11-02 2013-08-22 Bally Gaming, Inc. Virtual button deck with sensory feedback
US8576169B2 (en) 2008-10-20 2013-11-05 Sensor Platforms, Inc. System and method for determining an attitude of a device undergoing dynamic acceleration
US9690386B2 (en) 2009-07-14 2017-06-27 Cm Hk Limited Method and apparatus for performing motion recognition using motion sensor fusion, and associated computer program product
US8544033B1 (en) 2009-12-19 2013-09-24 Cisco Technology, Inc. System and method for evaluating content in a digital signage environment
US9135352B2 (en) 2010-06-03 2015-09-15 Cisco Technology, Inc. System and method for providing targeted advertising through traffic analysis in a network environment
US20120038652A1 (en) * 2010-08-12 2012-02-16 Palm, Inc. Accepting motion-based character input on mobile computing devices
US8560229B1 (en) * 2010-09-15 2013-10-15 Google Inc. Sensor based activity detection
US9462444B1 (en) 2010-10-04 2016-10-04 Nortek Security & Control Llc Cloud based collaborative mobile emergency call initiation and handling distribution system
US20120086630A1 (en) * 2010-10-12 2012-04-12 Sony Computer Entertainment Inc. Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
US20120225703A1 (en) * 2010-10-21 2012-09-06 Aibelive Co., Ltd Method for playing a video game on a mobile device
US20120100900A1 (en) * 2010-10-21 2012-04-26 Aibelive Co., Ltd Method for operating a mobile device to control a main Unit in playing a video game
WO2012064309A1 (en) * 2010-11-11 2012-05-18 Echostar Ukraine L.L.C. Hearing and/or speech impaired electronic device control
US10395018B2 (en) 2010-11-29 2019-08-27 Biocatch Ltd. System, method, and device of detecting identity of a user and authenticating a user
US10476873B2 (en) 2010-11-29 2019-11-12 Biocatch Ltd. Device, system, and method of password-less user authentication and password-less detection of user identity
US10055560B2 (en) 2010-11-29 2018-08-21 Biocatch Ltd. Device, method, and system of detecting multiple users accessing the same account
US10586036B2 (en) 2010-11-29 2020-03-10 Biocatch Ltd. System, device, and method of recovery and resetting of user authentication factor
US9526006B2 (en) * 2010-11-29 2016-12-20 Biocatch Ltd. System, method, and device of detecting identity of a user of an electronic device
US11223619B2 (en) 2010-11-29 2022-01-11 Biocatch Ltd. Device, system, and method of user authentication based on user-specific characteristics of task performance
US11210674B2 (en) 2010-11-29 2021-12-28 Biocatch Ltd. Method, device, and system of detecting mule accounts and accounts used for money laundering
US20190158535A1 (en) * 2017-11-21 2019-05-23 Biocatch Ltd. Device, System, and Method of Detecting Vishing Attacks
US10298614B2 (en) * 2010-11-29 2019-05-21 Biocatch Ltd. System, device, and method of generating and managing behavioral biometric cookies
US11269977B2 (en) 2010-11-29 2022-03-08 Biocatch Ltd. System, apparatus, and method of collecting and processing data in electronic devices
US10949757B2 (en) 2010-11-29 2021-03-16 Biocatch Ltd. System, device, and method of detecting user identity based on motor-control loop model
US10083439B2 (en) 2010-11-29 2018-09-25 Biocatch Ltd. Device, system, and method of differentiating over multiple accounts between legitimate user and cyber-attacker
US10474815B2 (en) 2010-11-29 2019-11-12 Biocatch Ltd. System, device, and method of detecting malicious automatic script and code injection
US10728761B2 (en) 2010-11-29 2020-07-28 Biocatch Ltd. Method, device, and system of detecting a lie of a user who inputs data
US10621585B2 (en) 2010-11-29 2020-04-14 Biocatch Ltd. Contextual mapping of web-pages, and generation of fraud-relatedness score-values
US10776476B2 (en) 2010-11-29 2020-09-15 Biocatch Ltd. System, device, and method of visual login
US10069852B2 (en) 2010-11-29 2018-09-04 Biocatch Ltd. Detection of computerized bots and automated cyber-attack modules
US10032010B2 (en) 2010-11-29 2018-07-24 Biocatch Ltd. System, device, and method of visual login and stochastic cryptography
US10685355B2 (en) 2016-12-04 2020-06-16 Biocatch Ltd. Method, device, and system of detecting mule accounts and accounts used for money laundering
US10069837B2 (en) 2015-07-09 2018-09-04 Biocatch Ltd. Detection of proxy server
US10037421B2 (en) 2010-11-29 2018-07-31 Biocatch Ltd. Device, system, and method of three-dimensional spatial user authentication
US10917431B2 (en) 2010-11-29 2021-02-09 Biocatch Ltd. System, method, and device of authenticating a user based on selfie image or selfie video
US10404729B2 (en) 2010-11-29 2019-09-03 Biocatch Ltd. Device, method, and system of generating fraud-alerts for cyber-attacks
US10834590B2 (en) 2010-11-29 2020-11-10 Biocatch Ltd. Method, device, and system of differentiating between a cyber-attacker and a legitimate user
US10970394B2 (en) 2017-11-21 2021-04-06 Biocatch Ltd. System, device, and method of detecting vishing attacks
US9483292B2 (en) 2010-11-29 2016-11-01 Biocatch Ltd. Method, device, and system of differentiating between virtual machine and non-virtualized device
US10747305B2 (en) 2010-11-29 2020-08-18 Biocatch Ltd. Method, system, and device of authenticating identity of a user of an electronic device
US10164985B2 (en) 2010-11-29 2018-12-25 Biocatch Ltd. Device, system, and method of recovery and resetting of user authentication factor
US10897482B2 (en) 2010-11-29 2021-01-19 Biocatch Ltd. Method, device, and system of back-coloring, forward-coloring, and fraud detection
US10262324B2 (en) 2010-11-29 2019-04-16 Biocatch Ltd. System, device, and method of differentiating among users based on user-specific page navigation sequence
US10949514B2 (en) 2010-11-29 2021-03-16 Biocatch Ltd. Device, system, and method of differentiating among users based on detection of hardware components
CN102551685B (zh) * 2010-12-30 2015-04-01 世意法(北京)半导体研发有限责任公司 对象监视器
US8929609B2 (en) * 2011-01-05 2015-01-06 Qualcomm Incorporated Method and apparatus for scaling gesture recognition to physical dimensions of a user
US20140188499A1 (en) * 2011-01-13 2014-07-03 Kevin Bell Human action monitor
EP2686254B1 (de) * 2011-03-17 2018-08-15 SSI Schäfer Automation GmbH Steuerung und überwachung einer lager- und kommissionieranlage durch bewegung und sprache
GB2490108B (en) * 2011-04-13 2018-01-17 Nokia Technologies Oy A method, apparatus and computer program for user control of a state of an apparatus
CN102722240A (zh) * 2011-05-18 2012-10-10 北京大学深圳研究生院 一种文字信息输入系统、手写输入设备及方法
JP5806003B2 (ja) * 2011-06-01 2015-11-10 任天堂株式会社 ゲーム装置、ゲームプログラム、ゲーム制御方法およびゲームシステム
US20120313847A1 (en) * 2011-06-09 2012-12-13 Nokia Corporation Method and apparatus for contextual gesture recognition
US9277374B2 (en) * 2011-06-21 2016-03-01 Cisco Technology, Inc. Delivering wireless information associating to a facility
CN102624975A (zh) * 2011-06-30 2012-08-01 北京小米科技有限责任公司 一种移动终端解锁的方法
US9778737B1 (en) * 2011-08-31 2017-10-03 Amazon Technologies, Inc. Game recommendations based on gesture type
WO2013044310A1 (en) * 2011-09-30 2013-04-04 Cocoon Data Holdings Limited A system and method for distributing secured data
US9526127B1 (en) * 2011-11-18 2016-12-20 Google Inc. Affecting the behavior of a user device based on a user's gaze
WO2013085600A2 (en) 2011-12-05 2013-06-13 Greenwave Reality, Pte Ltd. Gesture based lighting control
KR20130069322A (ko) * 2011-12-14 2013-06-26 삼성전자주식회사 모션 인식을 이용하여 광고를 제공하는 광고 제공 장치 및 방법
US8792912B2 (en) 2011-12-22 2014-07-29 Cisco Technology, Inc. System and method for providing proximity-based dynamic content in a network environment
US9474969B2 (en) 2011-12-29 2016-10-25 Steelseries Aps Method and apparatus for determining performance of a gamer
US9459276B2 (en) * 2012-01-06 2016-10-04 Sensor Platforms, Inc. System and method for device self-calibration
WO2013104006A2 (en) * 2012-01-08 2013-07-11 Sensor Platforms, Inc. System and method for calibrating sensors for different operating environments
US9519769B2 (en) * 2012-01-09 2016-12-13 Sensible Vision, Inc. System and method for disabling secure access to an electronic device using detection of a predetermined device orientation
CN103207738A (zh) * 2012-01-12 2013-07-17 宏碁股份有限公司 无键盘时预加载操作系统的操作模块及其方法
US9683865B2 (en) * 2012-01-26 2017-06-20 Invensense, Inc. In-use automatic calibration methodology for sensors in mobile devices
US9389690B2 (en) * 2012-03-01 2016-07-12 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
US9390256B2 (en) * 2012-03-06 2016-07-12 Paypal, Inc. System and methods for secure entry of a personal identification number (PIN)
JP2013191916A (ja) * 2012-03-12 2013-09-26 Ntt Docomo Inc 携帯端末及び制御方法
US9063574B1 (en) 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
US9228842B2 (en) 2012-03-25 2016-01-05 Sensor Platforms, Inc. System and method for determining a uniform external magnetic field
KR101710771B1 (ko) 2012-05-18 2017-02-27 애플 인크. 지문 센서 입력에 기초하여 사용자 인터페이스를 조작하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
CN103229127A (zh) * 2012-05-21 2013-07-31 华为技术有限公司 一种非接触式手势控制方法及装置
CN102799361A (zh) * 2012-06-21 2012-11-28 华为终端有限公司 一种应用对象的调出方法及移动终端
US20140008496A1 (en) * 2012-07-05 2014-01-09 Zhou Ye Using handheld device to control flying object
KR20140027579A (ko) * 2012-07-06 2014-03-07 삼성전자주식회사 단말기의 사용자인증 수행 장치 및 방법
CN102739873B (zh) * 2012-07-13 2017-01-18 上海触乐信息科技有限公司 便携式终端设备滑行操作辅助信息输入控制功能的系统及方法
KR101958878B1 (ko) * 2012-08-01 2019-07-02 삼성전자 주식회사 단말의 보안 해제 방법 및 그 단말
KR101892233B1 (ko) * 2012-08-03 2018-08-27 삼성전자주식회사 휴대용 단말기에서 상황인식을 이용한 알람 서비스 방법 및 장치
TWI476626B (zh) 2012-08-24 2015-03-11 Ind Tech Res Inst 電子裝置之認證方法及密碼設定方法及認證系統
TWI469574B (zh) * 2012-10-04 2015-01-11 Powertech Ind Co Ltd 裝置自動關閉控制系統及其方法
CN103777740A (zh) * 2012-10-18 2014-05-07 富泰华工业(深圳)有限公司 便携式电子装置解锁系统及方法
US20140114464A1 (en) * 2012-10-23 2014-04-24 Christopher Williams System and method for remotely positioning an end effector
US9726498B2 (en) 2012-11-29 2017-08-08 Sensor Platforms, Inc. Combining monitoring sensor measurements and system signals to determine device context
US11194368B2 (en) * 2012-12-10 2021-12-07 Adobe Inc. Accelerometer-based biometric data
FR2999316A1 (fr) * 2012-12-12 2014-06-13 Sagemcom Broadband Sas Dispositif et procede de reconnaissance de gestes pour un controle d'interface utilisateur
EP2749985B1 (en) * 2012-12-27 2017-06-14 Vodafone Holding GmbH Unlocking a screen of a portable device
CN103064530B (zh) * 2012-12-31 2017-03-08 华为技术有限公司 输入处理方法和装置
EP2753092A1 (en) * 2013-01-02 2014-07-09 Samsung Electronics Co., Ltd Display apparatus, input apparatus, and method for compensating coordinates using the same
CN103049571A (zh) * 2013-01-04 2013-04-17 深圳市中兴移动通信有限公司 基于语音识别的索引菜单的方法、装置及其终端
CN103019530B (zh) * 2013-01-04 2016-09-28 深圳市中兴移动通信有限公司 基于手势识别的索引菜单的方法、装置及其终端
CN103529930B (zh) * 2013-01-04 2016-12-28 努比亚技术有限公司 基于体感识别的索引菜单的方法、装置及其终端
US9626015B2 (en) * 2013-01-08 2017-04-18 Leap Motion, Inc. Power consumption in motion-capture systems with audio and optical signals
US20140208333A1 (en) * 2013-01-22 2014-07-24 Motorola Mobility Llc Initialize a Computing Device to Perform an Action
US20140210703A1 (en) * 2013-01-31 2014-07-31 Samsung Electronics Co. Ltd. Method of unlocking and subsequent application launch in portable electronic device via orientation sensing
CN104049933B (zh) * 2013-03-11 2019-07-26 联想(北京)有限公司 一种信息处理的方法及电子设备
US9442570B2 (en) 2013-03-13 2016-09-13 Google Technology Holdings LLC Method and system for gesture recognition
US9245100B2 (en) * 2013-03-14 2016-01-26 Google Technology Holdings LLC Method and apparatus for unlocking a user portable wireless electronic communication device feature
US20140260704A1 (en) * 2013-03-15 2014-09-18 Invensense, Inc. Device and system for integrated sensor system (iss)
JP2014182748A (ja) * 2013-03-21 2014-09-29 Fujitsu Ltd 信号処理装置、信号処理方法、及び信号処理プログラム
DE102013205550A1 (de) * 2013-03-28 2014-10-02 Siemens Aktiengesellschaft Bereitstellen einer Autorisierungsbestätigung durch ein Gerät
US8914863B2 (en) 2013-03-29 2014-12-16 Here Global B.V. Enhancing the security of near-field communication
CN104143074A (zh) * 2013-05-07 2014-11-12 李东舸 一种用于基于运动特征信息生成运动特征码的方法和设备
CN104142939B (zh) * 2013-05-07 2019-07-02 杭州智棱科技有限公司 一种基于运动特征信息匹配特征码的方法与设备
CN104144520A (zh) 2013-05-07 2014-11-12 李东舸 一种设备间建立连接的方法、装置与系统
US9262915B2 (en) 2013-05-09 2016-02-16 KERBspace, Inc Intelligent urban communications portal and methods
US9485607B2 (en) 2013-05-14 2016-11-01 Nokia Technologies Oy Enhancing the security of short-range communication in connection with an access control device
EP3011483B1 (en) * 2013-06-20 2022-02-09 Biocatch Ltd. System, device, and method of detecting identity of a user of a mobile electronic device
US9280219B2 (en) * 2013-06-21 2016-03-08 Blackberry Limited System and method of authentication of an electronic signature
JP2015014953A (ja) * 2013-07-05 2015-01-22 ソニー株式会社 信号制御装置および信号制御システム
GB201313656D0 (en) * 2013-07-31 2013-09-11 Knauf Insulation Doo Skofja Loka Melting of vitrifiable material
KR102033077B1 (ko) 2013-08-07 2019-10-16 나이키 이노베이트 씨.브이. 제스처 인식 및 전력 관리를 갖는 손목 착용 운동 디바이스
US9552043B2 (en) * 2013-09-02 2017-01-24 Htc Corporation Handheld electronic device and operation method of the same
KR102136836B1 (ko) * 2013-09-09 2020-08-13 삼성전자주식회사 생체 신호들을 이용하여 사용자 인증을 수행하는 착용형 기기 및 그 착용형 기기의 인증 방법
US20150092520A1 (en) * 2013-09-27 2015-04-02 Google Inc. Adaptive Trigger Point For Smartwatch Gesture-to-Wake
WO2015066348A2 (en) * 2013-10-30 2015-05-07 Invensense, Inc. Method and system for estimating multiple modes of motion
US10248214B2 (en) * 2013-11-27 2019-04-02 Lenovo (Singapore) Pte. Ltd. Wearable device for writing and drawing
US11045366B2 (en) * 2013-12-05 2021-06-29 Now Technologies Zrt. Personal vehicle, and control apparatus and control method therefore
US9613202B2 (en) 2013-12-10 2017-04-04 Dell Products, Lp System and method for motion gesture access to an application and limited resources of an information handling system
US10423245B2 (en) 2014-01-31 2019-09-24 Qualcomm Incorporated Techniques for providing user input to a device
US10198696B2 (en) * 2014-02-04 2019-02-05 GM Global Technology Operations LLC Apparatus and methods for converting user input accurately to a particular system function
US9218034B2 (en) * 2014-02-13 2015-12-22 Qualcomm Incorporated User-directed motion gesture control
CN103793075B (zh) * 2014-02-14 2017-02-15 北京君正集成电路股份有限公司 一种应用在智能手表上的识别方法
TWI514258B (zh) * 2014-02-17 2015-12-21 Hooloop Corp 語音管理方法及系統,及其電腦程式產品
EP3117418B8 (en) * 2014-03-14 2020-01-01 Teledyne Detcon, Inc. Method and system for converting between protocols
US10274509B1 (en) * 2014-04-09 2019-04-30 Inertialwave Inertial motion tracking device
TWI590640B (zh) * 2014-04-25 2017-07-01 緯創資通股份有限公司 通話方法及其電子裝置
US9232331B2 (en) * 2014-05-08 2016-01-05 Microsoft Technology Licensing, Llc Hand-worn device for surface gesture input
US9633184B2 (en) * 2014-05-30 2017-04-25 Google Inc. Dynamic authorization
US10222868B2 (en) * 2014-06-02 2019-03-05 Samsung Electronics Co., Ltd. Wearable device and control method using gestures
ES2552881B1 (es) * 2014-06-02 2016-07-12 Samsung Electronics Iberia, S.A.U. Dispositivo portable y método de control mediante gestos
US10979862B2 (en) 2014-06-10 2021-04-13 Pb Inc. Tracking device system
US11792605B2 (en) 2014-06-10 2023-10-17 PB, Inc. Tracking device systems
US11145183B2 (en) 2014-06-10 2021-10-12 PB, Inc Tracking device programs, systems and methods
US9774410B2 (en) 2014-06-10 2017-09-26 PB, Inc. Radiobeacon data sharing by forwarding low energy transmissions to a cloud host
US9564774B2 (en) 2014-06-10 2017-02-07 Pb Inc. Reduced thickness tracking device
US10937286B2 (en) 2014-06-10 2021-03-02 Pb Inc. Radiobeacon data sharing by forwarding low energy transmissions to a cloud host
US9892626B2 (en) 2014-06-10 2018-02-13 Pb Inc. Tracking device program
US10580281B2 (en) 2014-06-10 2020-03-03 PB, Inc. Tracking device system
US11799573B2 (en) * 2014-06-10 2023-10-24 PB, Inc. Radiobeacon data sharing by forwarding low energy transmissions to a cloud host
KR102044227B1 (ko) * 2014-06-13 2019-11-13 후지필름 가부시키가이샤 패턴 형성 방법, 감활성광선성 또는 감방사선성 수지 조성물, 감활성광선성 또는 감방사선성 막, 전자 디바이스의 제조 방법 및 전자 디바이스
CN105205368A (zh) * 2014-06-17 2015-12-30 艾尔希格(开曼)股份有限公司 电子装置的随验即用方法
TW201600993A (zh) * 2014-06-18 2016-01-01 拓連科技股份有限公司 穿戴式電子裝置之認證方法及系統,及其電腦程式產品
TWI516986B (zh) * 2014-06-18 2016-01-11 拓連科技股份有限公司 穿戴式電子裝置之功能管理方法及系統,及其電腦程式產品
US10148692B2 (en) 2014-06-23 2018-12-04 Google Llc Aggregation of asynchronous trust outcomes in a mobile device
US9805201B2 (en) 2014-06-23 2017-10-31 Google Inc. Trust agents
US20160020908A1 (en) * 2014-07-18 2016-01-21 International Business Machines Corporation Document signing via mobile device gesture
US9684776B2 (en) 2014-07-29 2017-06-20 Google Inc. Allowing access to applications based on user authentication
US9639681B2 (en) 2014-07-29 2017-05-02 Google Inc. Allowing access to applications based on captured images
CN105334953B (zh) * 2014-07-30 2018-10-12 联想(北京)有限公司 一种操作体运动轨迹识别方法、微控制器及电子设备
CN110781469B (zh) 2014-08-07 2021-01-01 创新先进技术有限公司 一种身份认证方法及装置
US9740839B2 (en) 2014-08-13 2017-08-22 Google Technology Holdings LLC Computing device chording authentication and control
WO2016028629A1 (en) 2014-08-16 2016-02-25 Google Inc. Identifying gestures using motion data
TWI545943B (zh) 2014-08-26 2016-08-11 鴻海精密工業股份有限公司 多媒體設備及多媒體情境處理方法
EP2990085B1 (en) * 2014-08-29 2022-08-10 Nintendo Co., Ltd. Method and apparatus for estimating the value of an input in presence of a perturbing factor
US10660039B1 (en) 2014-09-02 2020-05-19 Google Llc Adaptive output of indications of notification data
EP3189400A4 (en) * 2014-09-05 2018-07-04 Ballcraft, LLC Motion detection for portable devices
KR102269797B1 (ko) * 2014-10-08 2021-06-28 엘지전자 주식회사 웨어러블 디바이스
US10275935B2 (en) 2014-10-31 2019-04-30 Fyusion, Inc. System and method for infinite synthetic image generation from multi-directional structured image array
US10262426B2 (en) 2014-10-31 2019-04-16 Fyusion, Inc. System and method for infinite smoothing of image sequences
JP6468823B2 (ja) * 2014-12-02 2019-02-13 三星電子株式会社Samsung Electronics Co.,Ltd. 生体識別システムおよび電子機器
US10115185B2 (en) 2014-12-05 2018-10-30 At&T Intellectual Property I, L.P. Dynamic image recognition model updates
US9569943B2 (en) 2014-12-30 2017-02-14 Google Inc. Alarm arming with open entry point
US10127785B2 (en) * 2014-12-30 2018-11-13 Google Llc Entry point opening sensor
US9501924B2 (en) 2014-12-30 2016-11-22 Google Inc. Home security system with automatic context-sensitive transition to different modes
US10142332B2 (en) * 2015-01-05 2018-11-27 Samsung Electronics Co., Ltd. Method and apparatus for a wearable based authentication for improved user experience
US10265621B2 (en) * 2015-01-20 2019-04-23 Disney Enterprises, Inc. Tracking specific gestures relative to user movement
US10706818B2 (en) * 2015-02-16 2020-07-07 Invensense, Inc. System and method for aligning sensor data to screen refresh rate
US9983680B2 (en) * 2015-03-23 2018-05-29 Intel Corporation Gesture recognition mechanism
US9746930B2 (en) 2015-03-26 2017-08-29 General Electric Company Detection and usability of personal electronic devices for field engineers
US9939907B2 (en) * 2015-06-15 2018-04-10 Motorola Mobility Llc Gesture detection using MEMS wind turbines
CN104951075B (zh) * 2015-06-23 2017-12-22 上海卓易科技股份有限公司 一种移动终端自定义手势的方法及移动终端
GB2539705B (en) 2015-06-25 2017-10-25 Aimbrain Solutions Ltd Conditional behavioural biometrics
US9952676B2 (en) * 2015-06-25 2018-04-24 Intel Corporation Wearable device with gesture recognition mechanism
US9804679B2 (en) 2015-07-03 2017-10-31 Google Inc. Touchless user interface navigation using gestures
CN105045391B (zh) * 2015-07-08 2019-01-15 深圳市Tcl云创科技有限公司 智能手表手势输入方法及智能手表
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10750161B2 (en) * 2015-07-15 2020-08-18 Fyusion, Inc. Multi-view interactive digital media representation lock screen
US10852902B2 (en) 2015-07-15 2020-12-01 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
CN105182760A (zh) * 2015-07-22 2015-12-23 小米科技有限责任公司 遥控智能家居设备的方法、装置及终端
MX2015009765A (es) * 2015-07-29 2017-01-30 Centro De Investigación Y Desarrollo Coatl S A De C V Metodo para el control remoto de dispositivos y/o servicios digitales autonomos e independientes via conectividad inalambrica mediante movimientos gesticulares.
KR102354330B1 (ko) * 2015-07-31 2022-01-21 삼성전자주식회사 스마트 디바이스 및 그 동작 방법
US9693711B2 (en) * 2015-08-07 2017-07-04 Fitbit, Inc. User identification via motion and heartbeat waveform data
KR101696602B1 (ko) * 2015-08-11 2017-01-23 주식회사 슈프리마 제스처를 이용한 생체 인증
US10495466B2 (en) * 2015-08-25 2019-12-03 Siemens Mobility, Inc. System and method for determining a location of a vehicle relative to a stopping point
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
CN105242780B (zh) * 2015-09-23 2018-05-18 谢小强 一种交互控制方法和装置
CN105207783B (zh) * 2015-10-26 2018-11-16 联动优势电子商务有限公司 一种用户可信度认证方法及装置
US10386203B1 (en) * 2015-11-05 2019-08-20 Invensense, Inc. Systems and methods for gyroscope calibration
US10361800B2 (en) 2015-11-18 2019-07-23 PB, Inc Radiobeacon data sharing by forwarding low energy transmissions to a cloud host
WO2017091735A1 (en) * 2015-11-24 2017-06-01 California Labs, Inc. Counter-top device and services for displaying, navigating, and sharing collections of media
US10324494B2 (en) 2015-11-25 2019-06-18 Intel Corporation Apparatus for detecting electromagnetic field change in response to gesture
CN106814836A (zh) * 2015-11-30 2017-06-09 鸿富锦精密工业(深圳)有限公司 节能方法及应用该节能方法的电子装置
US10599324B2 (en) * 2015-12-31 2020-03-24 Microsoft Technology Licensing, Llc Hand gesture API using finite state machine and gesture language discrete values
CN107534700B (zh) * 2016-03-14 2021-02-09 华为技术有限公司 一种用于终端的信息输入方法及终端
EP3437005A1 (en) * 2016-03-31 2019-02-06 FotoNation Limited Biometric recognition system
US10628568B2 (en) * 2016-03-31 2020-04-21 Fotonation Limited Biometric recognition system
US10298282B2 (en) 2016-06-16 2019-05-21 Intel Corporation Multi-modal sensing wearable device for physiological context measurement
EP3258678A1 (en) * 2016-06-16 2017-12-20 Nagravision S.A. Application and method to prevent undue call in a mobile device
GB2552032B (en) 2016-07-08 2019-05-22 Aimbrain Solutions Ltd Step-up authentication
US20180089586A1 (en) * 2016-09-29 2018-03-29 Stmicroelectronics S.R.L. Artificial neural networks for human activity recognition
US9942768B1 (en) * 2016-09-30 2018-04-10 International Business Machines Corporation Verifying a user utilizing gyroscopic movement
US10198122B2 (en) 2016-09-30 2019-02-05 Biocatch Ltd. System, device, and method of estimating force applied to a touch surface
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
US9769166B1 (en) * 2016-10-19 2017-09-19 International Business Machines Corporation Wearable sensor based system for person identification
US10579784B2 (en) 2016-11-02 2020-03-03 Biocatch Ltd. System, device, and method of secure utilization of fingerprints for user authentication
KR20180070086A (ko) * 2016-12-16 2018-06-26 현대자동차주식회사 차량, 및 그 제어방법
DE102016225644A1 (de) * 2016-12-20 2018-06-21 Bundesdruckerei Gmbh Verfahren und System zur verhaltensbasierten Authentifizierung eines Nutzers
TWI617823B (zh) * 2016-12-23 2018-03-11 旺玖科技股份有限公司 非接觸式智慧電池感測系統及方法
US10051112B2 (en) 2016-12-23 2018-08-14 Google Llc Non-intrusive user authentication system
US10483981B2 (en) 2016-12-30 2019-11-19 Microsoft Technology Licensing, Llc Highspeed/low power symbol compare
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US10367805B2 (en) * 2017-01-25 2019-07-30 Airsig Inc. Methods for dynamic user identity authentication
US10624561B2 (en) 2017-04-12 2020-04-21 Fitbit, Inc. User identification by biometric monitoring device
US11301064B2 (en) * 2017-05-12 2022-04-12 Razer (Asia-Pacific) Pte. Ltd. Pointing devices and methods for providing and inhibiting user inputs to a computing device
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
JP6822906B2 (ja) * 2017-06-23 2021-01-27 株式会社東芝 変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
US10397262B2 (en) 2017-07-20 2019-08-27 Biocatch Ltd. Device, system, and method of detecting overlay malware
EP3448077B1 (en) * 2017-08-23 2021-03-24 Vestel Elektronik Sanayi ve Ticaret A.S. Apparatus and method for controlling access to restricted content
HUP1700368A1 (hu) * 2017-09-04 2019-03-28 Solecall Kft Rendszer jelzési testgesztus érzékelésére és eljárás a rendszer betanítására
US11537840B2 (en) 2017-11-15 2022-12-27 Stmicroelectronics S.R.L. Method, system, and computer program product to employ a multi-layered neural network for classification
EP3724795A4 (en) * 2017-12-13 2021-10-06 Phone Pass Pty Ltd SYSTEM AND METHOD FOR PROVIDING AUTHENTICATION DATA AND ELECTRONIC DEVICE FOR RESPONDING TO AN AUTHENTICATION REQUEST FROM SUCH A SYSTEM
CN108209932A (zh) * 2018-02-11 2018-06-29 西南交通大学 医疗监护系统以及医疗监护方法
WO2019180511A1 (en) * 2018-03-19 2019-09-26 King Abdullah University Of Science And Technology Ultrasound based air-writing system and method
US10706396B2 (en) * 2018-03-19 2020-07-07 Capital One Services, Llc Systems and methods for translating a gesture to initiate a financial transaction
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
CN110415386A (zh) * 2018-04-27 2019-11-05 开利公司 基于姿势的进入控制系统的预编程场景数据的建模
CN110415387A (zh) 2018-04-27 2019-11-05 开利公司 包括设置在由用户携带的容纳件中的移动设备的姿势进入控制系统
CN110415389B (zh) * 2018-04-27 2024-02-23 开利公司 姿势进入控制系统和预测移动设备相对于用户所在部位的方法
US11501135B2 (en) * 2018-05-29 2022-11-15 British Cayman Islands Intelligo Technology Inc. Smart engine with dynamic profiles
WO2020017903A1 (en) * 2018-07-18 2020-01-23 Samsung Electronics Co., Ltd. Method and apparatus for managing unlocking of an electronic device
GB201812080D0 (en) * 2018-07-24 2018-09-05 Kano Computing Ltd Motion sensing controller
US11184858B2 (en) 2018-09-18 2021-11-23 PB, Inc. Bluecell devices and methods
US11678141B2 (en) 2018-09-18 2023-06-13 Pb Inc. Hybrid cellular Bluetooth tracking devices, methods and systems
CN113366508A (zh) * 2019-01-04 2021-09-07 蒂普爱可斯有限公司 执行电子设备特定功能的训练模型创建方法、执行相同功能的学习模型、专用芯片及其操作方法及电子设备和系统
US11928682B2 (en) * 2019-05-15 2024-03-12 Worldpay, Llc Methods and systems for generating a unique signature based on user movements in a three-dimensional space
US11698684B2 (en) 2019-09-06 2023-07-11 Warner Bros. Entertainment Inc. Gesture recognition device and method for sensing multi-factor assertion
GB2619595A (en) 2019-09-06 2023-12-13 Warner Bros Entertainment Inc Gesture-centric user interface
CN112462963A (zh) * 2019-09-09 2021-03-09 北京小米移动软件有限公司 非接触手势控制方法、装置及存储介质
US11409366B2 (en) * 2019-10-03 2022-08-09 Charles Isgar Gesture-based device activation system
CN112650409B (zh) 2019-10-09 2024-04-12 联咏科技股份有限公司 触摸驱动装置和触摸移动轨迹识别方法
TWI731635B (zh) * 2020-03-25 2021-06-21 技鼎股份有限公司 電腦自動比較揮桿動作過程之高爾夫球動作訓練方法
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces
US11592907B2 (en) * 2020-10-20 2023-02-28 Google Llc Gesture-triggered augmented-reality
TW202224872A (zh) 2020-12-28 2022-07-01 財團法人工業技術研究院 機械手臂校正系統及機械手臂校正系統方法
CN113326801A (zh) * 2021-06-22 2021-08-31 哈尔滨工程大学 一种基于信道状态信息的人体移动方向识别方法
US11606353B2 (en) 2021-07-22 2023-03-14 Biocatch Ltd. System, device, and method of generating and utilizing one-time passwords
GR1010625B (el) * 2023-08-31 2024-01-30 Δημητριος Κωνσταντινου Καρατσιουμπανης Μεθοδος επεξεργασιας δεδομενων εφαρμογης κοινωνικων γνωριμιων

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236174A (ja) * 2000-02-25 2001-08-31 Fujitsu Ltd 手書き文字入力装置及び手書き文字認識方法
JP2008299866A (ja) * 2004-03-23 2008-12-11 Fujitsu Ltd 携帯装置の傾斜及び並進運動成分の識別
WO2009026337A1 (en) * 2007-08-20 2009-02-26 Gesturetek, Inc. Enhanced rejection of out-of-vocabulary words
JP2009054129A (ja) * 2007-08-28 2009-03-12 Ind Technol Res Inst インタラクティブポインティングデバイス
JP2009165826A (ja) * 2008-01-11 2009-07-30 Sony Computer Entertainment America Inc ジェスチャカタログ生成および認識

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL92220A (en) 1989-11-06 1993-02-21 Ibm Israel Three-dimensional computer input device
US5252951A (en) * 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
US6249792B1 (en) * 1998-12-16 2001-06-19 Microsoft Corporation On-line dynamic file shrink facility
US7739061B2 (en) * 1999-02-12 2010-06-15 Pierre Bonnat Method and system for controlling a user interface of a device using human breath
US6549792B1 (en) * 1999-06-25 2003-04-15 Agere Systems Inc. Accelerometer influenced communication device
US20050110778A1 (en) 2000-12-06 2005-05-26 Mourad Ben Ayed Wireless handwriting input device using grafitis and bluetooth
US20030006959A1 (en) * 2001-07-09 2003-01-09 Marcelo Varanda Method of operating a handheld device for directional input
JP3815774B2 (ja) * 2001-10-12 2006-08-30 松下電器産業株式会社 電解質を含む電気化学素子
US6842991B2 (en) * 2002-07-31 2005-01-18 Robert W. Levi Gyro aided magnetic compass
US7030856B2 (en) 2002-10-15 2006-04-18 Sony Corporation Method and system for controlling a display device
CN101101520B (zh) * 2002-11-20 2012-11-14 皇家飞利浦电子股份有限公司 基于指示设备的用户接口系统
US7174043B2 (en) * 2003-02-25 2007-02-06 Evernote Corp. On-line handwriting recognizer
KR100518824B1 (ko) * 2003-03-17 2005-10-05 삼성전자주식회사 필기 모션 획 구분 인식 시스템 및 그 인식방법
US7233316B2 (en) * 2003-05-01 2007-06-19 Thomson Licensing Multimedia user interface
EP1709609B1 (en) * 2004-01-20 2020-05-27 III Holdings 6, LLC Advanced control device for home entertainment utilizing three dimensional motion technology
KR100537518B1 (ko) 2004-01-27 2005-12-19 삼성전자주식회사 공간에서 클릭 동작에 따른 포인팅 위치 조절 방법 및이를 위한 공간형 입력 장치
US7173604B2 (en) * 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
US7180500B2 (en) 2004-03-23 2007-02-20 Fujitsu Limited User definable gestures for motion controlled handheld devices
US20060061545A1 (en) 2004-04-02 2006-03-23 Media Lab Europe Limited ( In Voluntary Liquidation). Motion-activated control with haptic feedback
US7355583B2 (en) 2004-08-10 2008-04-08 Mitsubishi Electric Research Laboretories, Inc. Motion-based text input
US20060052109A1 (en) * 2004-09-07 2006-03-09 Ashman William C Jr Motion-based user input for a wireless communication device
GB2419433A (en) * 2004-10-20 2006-04-26 Glasgow School Of Art Automated Gesture Recognition
US20060164382A1 (en) 2005-01-25 2006-07-27 Technology Licensing Company, Inc. Image manipulation in response to a movement of a display
US7508384B2 (en) 2005-06-08 2009-03-24 Daka Research Inc. Writing system
US20070032748A1 (en) 2005-07-28 2007-02-08 608442 Bc Ltd. System for detecting and analyzing body motion
US20070027367A1 (en) * 2005-08-01 2007-02-01 Microsoft Corporation Mobile, personal, and non-intrusive health monitoring and analysis system
US7667686B2 (en) 2006-02-01 2010-02-23 Memsic, Inc. Air-writing and motion sensing input for portable devices
US7496286B2 (en) * 2006-06-05 2009-02-24 Memsic, Inc. Devices, systems, and methods for controlling a shutter
CA2595871C (en) * 2006-08-03 2012-01-31 Research In Motion Limited Motion-based user interface for handheld
US7961173B2 (en) * 2006-09-05 2011-06-14 Navisense Method and apparatus for touchless calibration
US20090182955A1 (en) * 2006-09-08 2009-07-16 Rao Cherukuri Application configuration across client devices of a local system
US7548203B2 (en) * 2006-09-15 2009-06-16 Nokia Corporation Performance and power management in direction of arrival determination by utilizing sensor information
TWI317498B (en) 2006-12-12 2009-11-21 Ind Tech Res Inst Inertial input apparatus with six-axial detection ability and the opearting method thereof
US20090265671A1 (en) * 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
US8250921B2 (en) * 2007-07-06 2012-08-28 Invensense, Inc. Integrated motion processing unit (MPU) with MEMS inertial sensing and embedded digital electronics
US20090262074A1 (en) 2007-01-05 2009-10-22 Invensense Inc. Controlling and accessing content using motion processing on mobile devices
US7971156B2 (en) 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
JP5307116B2 (ja) * 2007-03-23 2013-10-02 クゥアルコム・インコーポレイテッド マルチセンサデータの収集/処理
CN101365193A (zh) 2007-08-09 2009-02-11 财团法人Seoul大学校产学协力财团 用于基于用户行为模式执行用户认证的系统和方法
US8942764B2 (en) 2007-10-01 2015-01-27 Apple Inc. Personal media device controlled via user initiated movements utilizing movement based interfaces
US8344998B2 (en) 2008-02-01 2013-01-01 Wimm Labs, Inc. Gesture-based power management of a wearable portable electronic device with display
US8289162B2 (en) * 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236174A (ja) * 2000-02-25 2001-08-31 Fujitsu Ltd 手書き文字入力装置及び手書き文字認識方法
JP2008299866A (ja) * 2004-03-23 2008-12-11 Fujitsu Ltd 携帯装置の傾斜及び並進運動成分の識別
WO2009026337A1 (en) * 2007-08-20 2009-02-26 Gesturetek, Inc. Enhanced rejection of out-of-vocabulary words
JP2009054129A (ja) * 2007-08-28 2009-03-12 Ind Technol Res Inst インタラクティブポインティングデバイス
JP2009165826A (ja) * 2008-01-11 2009-07-30 Sony Computer Entertainment America Inc ジェスチャカタログ生成および認識

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168802A (ja) * 2011-02-15 2012-09-06 Nec Corp 携帯端末における認証情報入力装置、方法およびプログラム
JP2014529798A (ja) * 2011-09-01 2014-11-13 サムスン エレクトロニクスカンパニー リミテッド モーションに基づいて画面ロック解除を実行する携帯端末及びそのロック解除方法
JP2015507263A (ja) * 2011-12-19 2015-03-05 マイクロソフト コーポレーション 複数センサ入力のためのセンサフュージョンインタフェース
US10409836B2 (en) 2011-12-19 2019-09-10 Microsoft Technology Licensing, Llc Sensor fusion interface for multiple sensor input
JP2015506524A (ja) * 2012-02-15 2015-03-02 騰訊科技(深▲せん▼)有限公司Tencent Technology(Shenzhen) Company Limited ロック解除方法および装置、パスワード設定方法および装置
JP2014146337A (ja) * 2013-01-29 2014-08-14 Samsung Electronics Co Ltd デバイスの機能実行方法及びこのためのデバイス
US10852841B2 (en) 2013-01-29 2020-12-01 Samsung Electronics Co., Ltd. Method of performing function of device and device for performing the method
US10540013B2 (en) 2013-01-29 2020-01-21 Samsung Electronics Co., Ltd. Method of performing function of device and device for performing the method
US10305993B2 (en) 2013-03-22 2019-05-28 Casio Computer Co., Ltd. Terminal control system, method for controlling terminal, and electronic device
JP2016523396A (ja) * 2013-07-12 2016-08-08 フェイスブック,インク. モバイル・デバイス電極の分離
US9852281B2 (en) 2014-09-19 2017-12-26 Kabushiki Kaisha Toshiba Authentication system, authentication device, and authentication method
JP2016063457A (ja) * 2014-09-19 2016-04-25 株式会社東芝 認証システム、認証装置および認証方法
JP2020013599A (ja) * 2014-12-08 2020-01-23 セス,ロヒット ウェアラブルワイヤレスhmiデバイス
JP2021073598A (ja) * 2014-12-08 2021-05-13 セス,ロヒット ウェアラブルワイヤレスhmiデバイス
JP7178434B2 (ja) 2014-12-08 2022-11-25 セス,ロヒット ウェアラブルワイヤレスhmiデバイス
JP2016224852A (ja) * 2015-06-03 2016-12-28 富士通株式会社 情報処理装置、ジェスチャ検出方法、及びプログラム
JP2019502185A (ja) * 2015-10-20 2019-01-24 中興通訊股▲ふん▼有限公司Zte Corporation モバイルスマートデバイスに対する制御を実現する方法及び装置
CN106598208A (zh) * 2015-10-20 2017-04-26 中兴通讯股份有限公司 一种实现对智能移动设备进行控制的方法及装置
JP2016129402A (ja) * 2016-02-29 2016-07-14 カシオ計算機株式会社 端末制御システム、端末制御方法及び電子機器
JP2020161139A (ja) * 2019-03-26 2020-10-01 ソニー株式会社 電子機器のユーザを認証する方法

Also Published As

Publication number Publication date
JP5882220B2 (ja) 2016-03-09
CN102725712A (zh) 2012-10-10
US20120007713A1 (en) 2012-01-12
EP2499552A1 (en) 2012-09-19
US9174123B2 (en) 2015-11-03
TW201140386A (en) 2011-11-16
CN102725712B (zh) 2016-09-07
EP2499552B1 (en) 2018-06-27
TWI582643B (zh) 2017-05-11
US20160018902A1 (en) 2016-01-21
EP2499552A4 (en) 2015-07-22
WO2011057287A1 (en) 2011-05-12

Similar Documents

Publication Publication Date Title
JP5882220B2 (ja) 人間の動きに関連するキャラクタおよびコマンドを認識するためのハンドヘルドコンピュータシステムおよび技術
US7176886B2 (en) Spatial signatures
US7301528B2 (en) Distinguishing tilt and translation motion components in handheld devices
US7365735B2 (en) Translation controlled cursor
US7280096B2 (en) Motion sensor engagement for a handheld device
US8692764B2 (en) Gesture based user interface supporting preexisting symbols
US7301526B2 (en) Dynamic adaptation of gestures for motion controlled handheld devices
US7176888B2 (en) Selective engagement of motion detection
US7365736B2 (en) Customizable gesture mappings for motion controlled handheld devices
US7990365B2 (en) Motion controlled remote controller
US7173604B2 (en) Gesture identification of controlled devices
US7903084B2 (en) Selective engagement of motion input modes
US7176887B2 (en) Environmental modeling for motion controlled handheld devices
EP1728142B1 (en) Distinguishing tilt and translation motion components in handheld devices
US7180500B2 (en) User definable gestures for motion controlled handheld devices
US7301529B2 (en) Context dependent gesture response
CN102265242A (zh) 在移动设备上使用运动处理来控制和访问内容
KR20150049075A (ko) 사용자 인증 방법 및 이를 수행하는 장치
CN106598274B (zh) 基于运动传感器操作虚拟钥匙的方法和相应的用户终端
JP2013029983A (ja) 移動情報端末、画面方向変更方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160203

R150 Certificate of patent or registration of utility model

Ref document number: 5882220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees