JPWO2018020792A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JPWO2018020792A1
JPWO2018020792A1 JP2018529376A JP2018529376A JPWO2018020792A1 JP WO2018020792 A1 JPWO2018020792 A1 JP WO2018020792A1 JP 2018529376 A JP2018529376 A JP 2018529376A JP 2018529376 A JP2018529376 A JP 2018529376A JP WO2018020792 A1 JPWO2018020792 A1 JP WO2018020792A1
Authority
JP
Japan
Prior art keywords
information processing
processing apparatus
unit
state
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018529376A
Other languages
English (en)
Other versions
JP6891891B2 (ja
Inventor
高橋 慧
高橋  慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018020792A1 publication Critical patent/JPWO2018020792A1/ja
Application granted granted Critical
Publication of JP6891891B2 publication Critical patent/JP6891891B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3293Power saving characterised by the action undertaken by switching to a less power-consuming processor, e.g. sub-CPU
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0251Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity
    • H04W52/0254Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity detecting a user operation or a tactile contact or a motion of the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0261Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level
    • H04W52/0267Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level by controlling user interface components
    • H04W52/027Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level by controlling user interface components by controlling a display operation or backlight unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0261Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level
    • H04W52/0274Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level by switching on or off the equipment or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本技術の一形態に係る情報処理装置は、信号生成部と、第1の判別部と、第2の判別部とを具備する。上記信号生成部は、検出対象に取り付けられたセンサユニットの出力を処理し、上記検出対象の状態変化を検出したときにトリガ信号を生成する。上記第1の判別部は、上記トリガ信号を受けて休止状態から起動し、上記センサユニットの出力から上記検出対象の状態変化を第1の判別基準で判別し、判別が不可能な場合は判別不能信号を出力する。上記第2の判別部は、上記判別不能信号を受けて休止状態から起動し、上記センサユニットの出力から上記検出対象の状態変化を上記第1の判別基準とは異なる第2の判別基準で判別する。【選択図】図3

Description

本技術は、ウェアラブルデバイスに適用可能な情報処理装置、情報処理方法、及びプログラムに関する。
近年、眼鏡型や腕時計型等の種々のウェアラブルデバイスの開発が進められている。例えば特許文献1には、制御部、入力部、センサ部、記憶部、通信部、表示部等を備えたリストバンド型の表示制御装置が開示されている。また特許文献2には、機器の消費電力を抑えて電池の長寿命化を図ることが可能な電子機器が開示されている。
特開2015−125616号公報 WO2009/008411号
近年、ウェアラブルデバイス等の電子機器においては小型化、高機能化のほか、低消費電力化の要求が高まっている。このためには、例えばユーザの有意なジェスチャ入力を必要最小限の電力で検出することが求められる。
以上のような事情に鑑み、本技術の目的は、ユーザの状態変化を必要最小限の電力で実行することができる情報処理装置、情報処理方法及びプログラムを提供することにある。
本技術の一形態に係る情報処理装置は、信号生成部と、第1の判別部と、第2の判別部とを具備する。
上記信号生成部は、検出対象に取り付けられたセンサユニットの出力を処理し、上記検出対象の状態変化を検出したときにトリガ信号を生成する。
上記第1の判別部は、上記トリガ信号を受けて休止状態から起動し、上記センサユニットの出力から上記検出対象の状態変化を第1の判別基準で判別し、判別が不可能な場合は判別不能信号を出力する。
上記第2の判別部は、上記判別不能信号を受けて休止状態から起動し、上記センサユニットの出力から上記検出対象の状態変化を上記第1の判別基準とは異なる第2の判別基準で判別する。
上記情報処理装置において、第1の判別部は、検出対象の状態変化が検出されたときに起動し、第2の判別部は、第1の判別部における判別が不可能な場合に起動するように構成される。これにより電力消費を抑えつつ、検出対象の状態判別を行うことができる。
上記信号生成部は、上記検出対象の状態変化から上記検出対象を装着したユーザの動きを検出し、上記第1の判別部及び上記第2の判別部は、上記ユーザの動きの態様に基づき、予め設定された複数のジェスチャ候補から対応するジェスチャ候補の有無を判別するように構成されてもよい。
上記第1の判別部は、上記複数のジェスチャ候補の中から上記ユーザの動きの態様に対応するジェスチャ候補を特定する第1の判別処理を実行し、上記ジェスチャ候補の特定が不可能な場合は上記判別不能信号を出力するように構成されてもよい。
上記第2の判別部は、上記複数のジェスチャ候補の中から上記ユーザの動きの態様に最も相関の高いジェスチャ候補を特定する第2の判別処理を実行するように構成されてもよい。
上記情報処理装置は、上記複数のジェスチャ候補を設定する設定部をさらに具備してもよい。この場合、上記信号生成部は、設定された上記複数のジェスチャ候補の種類に応じて、上記トリガ信号を生成する基準を変更するように構成されてもよい。
上記信号生成部は、上記検出対象が装着された上記ユーザの腕の動きを検出し、上記第1の判別部及び上記第2の判別部は、上記ユーザの腕の振り上げ動作、振り下げ動作、ツイスト動作及びシェイク動作のいずれか1つを特定するように構成されてもよい。
上記第1の判別部及び上記第2の判別部は、上記検出対象の状態変化が判別された後、再び休止するように構成されてもよい。
上記情報処理装置は、上記センサユニットの出力を時系列的に記憶することが可能なバッファメモリをさらに具備してもよい。
本技術の一形態に係る情報処理方法は、検出対象に取り付けられたセンサユニットの出力に基づいて上記検出対象の状態変化に関する状態変化を検出したとき、上記検出対象の状態変化を第1の判別基準で判別する第1の判別部を休止状態から起動させることを含む。
上記第1の判別部で判別が不可能なとき、上記検出対象の状態変化を上記第1の判別基準とは異なる第2の判別基準で判別する第2の判別部が休止状態から起動させられる。
本技術の一形態に係るプログラムは、検出対象に取り付けられたセンサユニットの出力に基づいて上記検出対象の状態変化に関する状態変化を検出したとき、上記検出対象の状態変化を第1の判別基準で判別する第1の判別部を休止状態から起動させるステップと、
上記第1の判別部で判別が不可能なとき、上記検出対象の状態変化を上記第1の判別基準とは異なる第2の判別基準で判別する第2の判別部を休止状態から起動させるステップと
をコンピュータに実行させる。
以上のように、本技術によれば、ユーザの状態変化を必要最小限の電力で実行することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の第1の実施形態に係る情報処理装置を示す概略斜視図である。 上記情報処理装置の構成を説明するブロック図である。 上記情報処理装置における制御部の構成を示すブロック図である。 上記制御部における信号生成部の一構成例を示すブロック図である。 上記情報処理装置の典型的な動作例を示すシーケンス図である。 ジェスチャの例を示す模式図である。 本技術の第2の実施形態に係る情報処理装置の構成を示すブロック図である。 上記情報処理装置の作用を説明する図である。 本技術の第3の実施形態に係る情報処理装置の構成を示すブロック図である。 上記情報処理装置の一作用を説明する図である。 上記情報処理装置の動作例を説明するフローチャートである。 上記情報処理装置の動作例を説明するフローチャートである。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
<第1の実施形態>
図1は、本技術の第1の実施形態に係る情報処理装置を示す概略斜視図である。本実施形態の情報処理装置1は、腕時計型あるいはリストバンド型のウェアラブルデバイスで構成される。
本実施形態の情報処理装置1は、時刻表示等の基本機能のほか、ユーザの腕の動きを検出して表示や制御を切り替えるジェスチャ認識機能を有する。なお情報処理装置1は、仕様に応じて、電子メール等の送受信、ウェブ情報の閲覧、ユーザの生体情報の計測・管理等を行うことが可能な端末装置として用いられてもよい。
[全体構成]
情報処理装置1は、本体10と、本体10を支持しユーザの腕に取り付けられるバンド部20とを有する。
図2は、本体10の構成を説明するブロック図である。
本体10は、制御部11と、入力部12と、センサ部13と、記憶部14と、通信部15と、表示部16と、バッテリ17と、これらを収容する筐体18とを有する。
制御部11は、コンピュータで構成され、記憶部14又はその他の記憶媒体に記憶されたプログラムを実行することで、情報処理装置1の全体の動作を制御する。制御部11は、典型的には、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、SoC(System on Chip)などの単数又は複数のプロセッサを含む。
制御部11は、後述するように、センサ部13の出力に基づいて、情報処理装置1を装着するユーザの腕の動きや姿勢変化から、ユーザの有意なジェスチャ入力の有無や種類を判別し、その判別結果に応じて通信部15や表示部16等を制御する。
また制御部11は、後述するように、ユーザの有意な動作を検出するまでは、表示部16を消灯したり、ジェスチャの判別を行わないようにしたりして、バッテリ17の消費電力の低減を図るように構成されている。
入力部12は、ユーザによる入力操作を受け付けて制御部11へ出力する。入力部12は、キー、スイッチ等の各種のデバイスで構成されてもよいし、タッチセンサで構成されてもよい。入力部12がタッチセンサで構成される場合、表示部16と一体的に構成されてもよい。
センサ部13は、筐体18に作用する加速度を検出し、それを制御部11へ出力する。センサ部13は、主として、情報処理装置1を装着したユーザの腕の動きや姿勢を検出する機能を有する。
センサ部13は、典型的には、直交する3軸方向(図1におけるX,Y及びZ軸方向。以下同様)の加速度を検出することが可能な加速度センサを含むセンサユニットで構成される。センサ部13のサンプリング周波数は適宜設定可能であり、例えば8Hzである。
上記加速度センサは、各軸の加速度を検出する複数のセンサで構成されてもいし、単独のセンサで構成されてもよい。さらにセンサ部13は、加速度センサだけでなく、角速度センサ等の他のモーションセンサ、ユーザの体温や脈拍、発汗等を検出可能な生体センサ等を含んでもよい。
記憶部14は、典型的には、半導体メモリで構成され、制御部11を動作させるためのプログラム、ユーザの動き検出やジェスチャの判別に必要なパラメータや関数等を記憶する。また記憶部14は、プログラムによって使用される各種のデータを記憶することが可能に構成される。さらに記憶部14は、制御部11において実行される各種アプリケーションソフトウェアが格納される。
通信部15は、携帯情報端末やサーバ、他の情報処理装置1等と無線又は有線により通信可能に構成される。通信部15は、典型的には、情報処理装置1を装着するユーザの携帯情報端末(スマートホン、携帯電話、ノート型パーソナルコンピュータ等)と通信可能に構成される。通信部15は、通信回路やアンテナ等を含み、制御部11の出力を当該携帯情報端末へ送信し、あるいは、当該携帯情報端末からの入力情報を受信して制御部11へ出力する。
表示部16は、制御部11からの表示制御信号を受けて各種情報の表示を行うためのもので、情報処理装置1の画面を構成する。表示部16は、典型的には、LCD(Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイ等の表示素子を含む。表示部16は、制御部11の指令に基づき、時刻や入力キー、受信情報、計測情報等の各種画像の表示を行う。
バッテリ17は、本体10の動作に必要な電力を供給するためのもので、典型的には、一次電池、二次電池等の蓄電素子で構成される。またバッテリ17は、太陽光や振動等で発電可能な発電素子で構成されてもよい。
筐体18は、金属製又は合成樹脂製のケーシングであり、本実施形態では薄型の直方体形状を有する。これに限られず、筐体18は、円盤形状その他の幾何学的形状に形成されてもよい。筐体18は、バンド部20を介してユーザに装着可能に構成される。
本実施形態において、センサ部13は筐体18を検出対象とし、制御部11は筐体18の姿勢変化を通じてユーザの腕の動き(ジェスチャ)を判別するように構成される。これに限られず、センサ部13はユーザの腕に直接的に取り付けられてもよい。
[制御部の構成]
続いて制御部11の詳細について説明する。図3は、制御部11の構成を示すブロック図である。制御部11は、ユーザの腕の動きを検出し、その動きに応じた所定の処理を実行するように構成される。
制御部11は、判別回路部11Aと、実行回路部11Bとを有する。
判別回路部11Aは、センサ部13で検出されたユーザの動きがジェスチャ判別に有意な情報か否かを判別する回路である。実行回路部11Bは、判別されたジェスチャ動作に応じて各種アプリケーションを実行するメインプロセッサである。
判別回路部11Aは、信号生成部110と、判別部113と、リングバッファ114とを有する。判別部113は、第1の判別器111と、第2の判別器112とを有する。
(信号生成部)
信号生成部110は、センサ部13の出力を処理し、ユーザの姿勢に関する状態変化を検出したときにトリガ信号を生成するように構成される。
本実施形態において信号生成部110は、センサ部13の出力を処理し、ユーザの姿勢に関する状態変化の有無を検出する。ユーザの姿勢に関する状態変化とは、具体的には、ユーザの腕の動きを意味する。信号生成部110は、ユーザの動きを検出したとき、判別部113へトリガ信号を生成する。信号生成部110は、情報処理装置1の起動から常時稼働してセンサ部13の出力を監視するように構成される。
図4は、信号生成部110の一構成例を示すブロック図である。
信号生成部110は、ローパスフィルタ(LPF)101と、差分回路102と、ノルム算出回路103と、閾値判別回路104とを有する。
LPF101は、センサ部13の出力(3軸方向の加速度信号)から不要ノイズを除去して真に評価すべきジェスチャを検出するためのフィルタ関数である。LPF101のカットオフ周波数は、ユーザの歩行や走行、あるいは乗り物の搭乗中に生じ得る加速度信号の高周波成分を除去することが可能な適宜の値(例えば4Hz)に設定される。LPF101の出力は、差分回路102と、リングバッファ114とに出力される。
信号生成部110は、LPF101から出力された3軸方向の加速度信号をそれぞれ差分回路102によって時間微分し、ノルムを算出回路103によって算出する判別関数を有する。閾値判別回路104は、その判別関数の値が予め設定された閾値を超えるか否かを判別する。閾値判別回路104は、3軸方向各々について固有の閾値を有し、各軸のノルム値のうち少なくとも1つが閾値を超えるときはトリガ信号を生成して、これを第1の判別器111へ出力するように構成される。
(第1の判別器)
第1の判別器111は、トリガ信号を受けて休止状態(スリープ状態)から起動し、センサ部13の出力からユーザの腕の動きを第1の判別基準で判別し、判別が不可能な場合は判別不能信号を出力するように構成される。
第1の判別器111には、処理速度が比較的低い簡素なCPUを用いることができる。第1の判別器111は、信号生成部110がトリガ信号を生成するまで休止状態を維持することで、バッテリ17の電力消耗を低減する。
第1の判別器111は、ユーザの動きの態様に基づき、第1の判別基準によって、予め設定された複数のジェスチャ候補から対応するジェスチャ候補の有無を判別する。ユーザの動きの態様にはリングバッファ114に格納されたLPF101の出力データが参照され、ジェスチャ候補の判別には記憶部14に格納された複数のジェスチャ候補が参照される。複数のジェスチャ候補は特に限定されず、例えば、ユーザの腕の振り上げ動作、振り下げ動作、シェイク動作、ツイスト動作等が挙げられる(図6参照)。
この際、第1の判別器111は、上記複数のジェスチャ候補の中からユーザの動きの態様に対応するジェスチャ候補を特定する第1の判別処理を実行する。
第1の判別処理としては、例えば、記憶部14に格納された複数のジェスチャ候補の中から、ユーザの動きの態様を基礎づける加速度データに対応するデータを有するジェスチャ候補を特定する等の比較的簡素なアルゴリズムが実行される。この第1の判別処理でジェスチャ候補が特定されたとき、第1の判別器111は、特定したジェスチャ候補に関する情報を実行回路部11Bへ出力する。
一方、この第1の判別処理でジェスチャ候補の特定が不可能なとき、第1の判別器111は判別不能信号を出力する。ジェスチャ候補の特定が不可能なときとは、いずれのジェスチャ候補に該当するか認識できないときを含む。
(第2の判別器)
第2の判別器112は、判別不能信号を受けて休止状態から起動し、センサ部13の出力から筐体18の姿勢を第1の判別基準とは異なる第2の判別基準で判別するように構成される。
第2の判別器112は、第1の判別器111よりも消費電力が大きい、演算能力が高い、あるいは処理速度が速い、又はこれらの組み合わせである等、第1の判別器111よりも高性能なCPUで構成される。第2の判別器112は、第1の判別器111が判別不能信号を生成するまで休止状態を維持することで、バッテリ17の電力消耗を低減する。
第2の判別器112は、ユーザの動きの態様に基づき、予め設定された複数のジェスチャ候補から対応するジェスチャ候補の有無を判別する。ユーザの動きの態様にはリングバッファ114に格納されたLPF101の出力データが参照され、ジェスチャ候補の判別には記憶部14に格納された複数のジェスチャ候補が参照される。
このとき第2の判別器112は、複数のジェスチャ候補の中からユーザの動きの態様に最も相関の高いジェスチャ候補を特定する第2の判別処理を実行する。
第2の判別処理としては、上記第1の判別処理よりも高度なアルゴリズムが実行される。例えば機械学習の判別器を利用した演算等のような比較的演算量の多いアルゴリズムを用いることができる。このような高度な判別基準を採用することで、ユーザの意図に合致したジェスチャ候補である蓋然性の高いジェスチャ候補を精度よく特定することが可能となる。
第2の判別処理で特定されたジェスチャ候補に関する情報は、実行回路部11Bへ出力される。このジェスチャ候補に関する情報は、第1の判別器111から出力されてもよいし、第2の判別器112から出力されてもよい。
第1の判別器111及び第2の判別器112は、特定したジェスチャ候補に関する情報を実行回路部11Bへ出力したとき、あるいは、ユーザの動きに対応するジェスチャ候補が無いと判別したとき、再び休止状態に移行し、バッテリ17の電力消耗を抑える。特に第2の判別器112は、第1の判別部111よりも大きな消費電力を必要とするため、消費電力低減の観点から第2の判別器112を休止させておくメリットは高い。
(リングバッファ)
リングバッファ114は、センサ部13の出力(3軸方向各々の加速度信号)を時系列的に記憶することが可能なバッファメモリで構成される。リングバッファ114の容量は、第1及び第2の判別器111,112においてユーザの動きに対応するジェスチャ候補の特定に用いられる情報量があれば十分であり、例えば過去1秒分のセンサ情報を蓄積できる大きさであればよい。
[情報処理装置の動作]
続いて、本実施形態に係る情報処理方法について情報処理装置1の動作とともに説明する。図5は、情報処理装置1の典型的な動作例を示すシーケンス図である。ここでは、ジェスチャ認識のフローを説明する。
センサ部13は、各軸の加速度センサの値を所定時間間隔で読みだした後、その値にフィルタ関数(LPF101)を適用し、トリガ判別関数(差分回路102、ノルム算出回路103)を計算して、その値が一定値を超えるなど条件を満たすとトリガ発生(発動)イベントを行う(トリガ信号の生成)(ステップ101〜104)。
トリガが発生すると判別部113が起動し、ジェスチャの検出処理が行われる。ジェスチャ検出時には、トリガ発生前からのセンサ部13の出力がリングバッファ114に保持されているので、これも利用して計算が行われる。
ジェスチャ検出のアルゴリズムは複数に分割されており、まず軽量だが正確性に劣るアルゴリズムが第1の判別器111で計算される(ステップ105,106)。この結果、明確にジェスチャと認識できた場合は、ジェスチャイベントが発生される(ステップ108)。一方、このアルゴリズムで検出されなかったが、ジェスチャである可能性が残っている場合は、第2の判別器112を起動してより正確な処理で判断を行う(ステップ107)。これには機械学習による判別器を使ってもよい。ジェスチャが検出されるか不検出が決定され、その他の処理も終わると、第1及び第2の判別器111,112は再び休止状態に戻る。
図示の例では、第2の判別器112でジェスチャが認識されたとき、第1の判別器111においてジェスチャイベントが発生されるが、これに代えて、第2の判別器112においてジェスチャイベントが発生されてもよい。実行回路部11Bはジェスチャイベントを受信したとき、認識あるいは特定されたジェスチャ候補に関する情報に基づいてアプリケーションソフトウェアを実行する(ステップ109)。
なお、判別部113が起動する条件としては、センサ部13からのトリガの他に、定時的な割り込み、ユーザの操作等が挙げられる。定時割り込みは、動きが激しい時などにトリガの条件が厳しく設定されたとき、その後動きが少なくなってトリガが適切でない場合があるため、定期的に運動強度等からトリガの適切さを計算して再設定するものである。
図6A〜Dは、ジェスチャの種類の一例を示す模式図である。Aは腕の振り上げ動作、Bは腕の振り下げ動作、Cは腕振り(シェイク)動作、Dは腕回し(ツイスト)動作をそれぞれ示している。
図6Aの振り上げ動作は、主としてZ軸方向の加速度センサの出力で認識される。振り上げ動作が認識されると、ユーザが情報処理装置1の表示面16を上側に向けて表示を確認する操作と推定される。この場合、例えば、消灯状態に維持されていた表示部16が点灯し、現在時刻等の所定の情報を表示する。
図6Bの振り下げ動作は、主としてZ軸方向の加速度センサの出力で認識される。振り下げ動作が認識されると、ユーザによる表示部16の確認が終了した推定されるため、この場合は例えば、表示部16を点灯状態から消灯状態に遷移させる。
図6Cのシェイク動作は、主としてZ軸方向の加速度センサの出力で認識される。また、図6Dのツイスト動作は、主としてX軸方向及びY軸方向の加速度センサの出力で認識される。シェイク動作又はツイスト動作が認識されると、例えば、これらに対応するアプリケーションソフトウェアが実行される。あるいは、携帯情報端末等から再生される楽曲の選択や音量の調整等が実行されてもよい。
以上のように本実施形態の情報処理装置1は、ユーザの動きを認識するジェスチャ認識機能を有するため、ボタンやタッチパネルを操作せずとも入力操作が可能となり、ユーザの利便性が向上する。
また本実施形態においてジェスチャ認識のための判別部113は、処理速度が比較的低い簡素なCPU(第1の判別器111)と、処理速度が比較的高い高性能なCPU(第2の判別器112)とに分割され、トリガが発生されるまで休止モードで待機する。そして、トリガが発生したときはまず第1の判別器111が起動し、第2の判別器112は、第1の判別器111における判別が不可能な場合に起動するように構成される。これにより制御部11の平均消費電流を大幅に低減できるため、電力消費を最小限に抑えつつ、ユーザの動きに対応するジェスチャを認識することができる。
さらに本実施形態によれば、判別部113が休止している間もリングバッファ114にセンサ部13の出力が時系列的に蓄積されるため、判別部113が常時起動している場合と同様の精度のジェスチャ認識処理を実現することができる。
次に、第1の判別器111と第2の判別器112でのジェスチャ認識処理の分担方法について説明する。
一般にジェスチャとジェスチャでない動きを判別する際、明らかにジェスチャでない動きは比較的簡単な演算で判別できる場合がある。例えば、センサ値(センサ部13の出力)が一定値で全く変化が無かった場合、これがジェスチャである可能性は0である。もう少し複雑に動いていても、例えば振り上げジェスチャにおいて表示部16が下側を向いている場合、これが時計を見る振り上げジェスチャだった可能性は低い。
これに対し、センサ値にある程度複雑な動きがあり、簡単な演算だけではジェスチャかどうか判断できない場合がある。例えば振り上げジェスチャの例では、腕が下がった状態から上がった状態への動きは第1の判別器111での簡単な演算で振り上げジェスチャと認識できるが、腕が上がった状態の中での動きは第2の判別器112において複雑な判別アルゴリズムを用いて、ユーザが本当に画面を見たかったのか判別する必要が生じる。この複雑な判別アルゴリズムには、Deep Learning 等の機械学習器にかける手法を用いてもよい。なお、第1の判別器111での簡単な演算はルールベースの機械学習を用いない手法を使ってもよいし、後段の機械学習器よりも大幅に簡単な簡易的な機械学習の判別器を用いてもよい。
複数のジェスチャを認識する際に、認識するジェスチャの種類により第1及び第2の判別器111,112を使い分ける他の例を説明する。ここでは腕の上げ下げ、および指をタップする操作を検知するリストバンド端末を考える。
腕を上げた状態においては、端末は腕を下げる操作と指をタップする操作の両方を、加速度センサを用いて判別する。ここで、腕を下げる操作は大きな動きでかつ判別しやすいので、第1の判別器111において処理可能である。一方、指タップの判別は機械学習の判別器を用いた高速な演算が必要なので、第2の判別器112で処理する必要がある。ここで、ジェスチャは同時に一種類のみしか認識しないものとする。この場合、もし何らかの動きがあったとき、第1の判別器111で腕を下げる動きを認識し、もし認識されれば指タップの判別はする必要がないので、第2の判別器112は用いない。一方、腕を下げる動きが認識できず、かつ簡単なルールベースによるフィルタで指タップの可能性が検出された場合は、第2の判別器112で指タップの判別処理を行う。
<第2の実施形態>
図7は、本技術の第2の実施形態に係る情報処理装置における制御部211の構成を示すブロック図である。以下、第1の実施形態と異なる構成について主に説明し、第1の実施形態と同様の構成については同様の符号を付しその説明を省略または簡略化する。
本実施形態では制御部211が設定部115を有する点で第1の実施形態と相違する。設定部115は、実行回路部11Bからの要求を受けて、認識すべき複数のジェスチャ候補を設定するように構成される。
典型的には、ジェスチャ認識を実行する判別回路部11Aは、判別回路部11Aによって特定されたジェスチャを利用する実行回路部11Bからの要求を受けてジェスチャ認識を行い、ジェスチャを認識したら実行回路部11Bに対しジェスチャイベントを発行する。
本実施形態の判別回路部11Aは、アプリ起動時に実行回路部11Bから当該アプリの実行に必要な種類のジェスチャの要求を受けて、判別部113で判別すべき当該ジェスチャの種類を設定する。判別回路部11Aは、最初に要求された種類のジェスチャのみを認識してイベントとして実行回路部11Bに送信する。
アプリが複数存在する場合、設定部115は、それらのアプリが必要とするジェスチャを過不足なくカバーするようなジェスチャの種類を計算し、それに応じた認識処理を行う。例えば図8に示すように、実行回路部11Bが、第1のアプリB1として振り上げ(a)と振り下げ(b)、第2のアプリB2として振り上げ(a)とシェイクジェスチャ(c)を必要とする場合、判別回路部11Aは、振り上げ(a)、振り下げ(b)、シェイク(c)の3種類のジェスチャを認識して、要求している各アプリにイベントを通知する。
本実施形態によれば、判別すべきジェスチャ候補の数が制限されるため、判別部13における演算負荷が低減されるとともに、処理時間や演算処理に要する電力を低減することが可能となる。
一方、先に説明した通り、判別回路部11Aは複数のアプリケーションからのジェスチャ認識要求を受け付け、必要とされるジェスチャを認識する。ジェスチャの種類によって、トリガ関数やジェスチャ判別に用いる判別器、必要な加速度センサのモードが異なる場合があるが、それはアプリからの要求やその時の腕や端末の状態によって変わる。すなわち、判別回路部11Aが認識するジェスチャは、アプリからの要求だけではなく、ユーザの腕の状態によっても変化する。
そこで本実施形態では、判別回路部11Aは、認識すべきジェスチャの種類に応じて、信号生成部110におけるトリガ信号の生成基準を変更することが可能に構成される。トリガ信号の生成基準としては、例えば、加速度センサ(センサ部13)のサンプリング周波数、ローパスフィルタ101のカットオフ周波数、閾値判別回路104の閾値等のトリガ判別関数が挙げられる。トリガ信号の生成基準の変更は、例えば、設定部115において実行される。
例えば、振り上げ・振り下げのみを認識する場合には加速度センサのサンプリング周波数は低くし、動きを伴うジェスチャを利用する場合は加速度センサのサンプリング周波数を高くする。
すなわち腕ジェスチャ認識において、腕を上げ下げするジェスチャ(arm_up, arm_down)と、腕を回すジェスチャ(twist)、腕を振るジェスチャ(shake)の4種類を認識する際、arm_upとarm_downはジェスチャ開始時と終了時に腕の位置が変わっているので、加速度センサの周波数を低くして、かつトリガ関数としても重力加速度の方向変化を見るようなもので十分である。一方、後者のtwistとshakeを取る場合は、腕の位置が開始時と終了時で同じため、動き自体を観測する必要が生じ、加速度センサの周波数を高くし、かつトリガ関数として腕の動き自体を見るものが必要になる。前者のモードと後者のモードは同時に存在するものではなく、端末の状態としてどちらかを選択するものとする。ここで前者と後者の切り替えは、アプリの要求によりtwist/shakeの認識を必要とするかどうかで判断される。
また、振り上げと振り下げは腕の位置に変化が生じるため差分で発生するようなトリガを使えるが、シェイクやツイストでは腕の位置は元の位置に戻るため、差分ではなく加速度のノルムが一定値を超えるなどのトリガを設定する。つまり、図4において差分回路102の機能を無効化する。これにより、最も誤発動率が低いトリガを選択することができるとともに、状況に応じて、センサ部13や信号生成部110の消費電力を低減することができる。
<第3の実施形態>
続いて、本技術の第3の実施形態について説明する。
図9は、本実施形態の情報処理装置としてのセンサ装置310の構成を示すブロック図である。以下、第1の実施形態と異なる構成について主に説明し、第1の実施形態と同様の構成については同様の符号を付しその説明を省略または簡略化する。
センサ装置310は、トリガ機能付きのセンサユニット31と、CPU32と、リングバッファ33とを有する。センサユニット31は、第1の実施形態におけるセンサ部13と信号生成部110との混合回路に相当する。判別器32は、第1の実施形態における判別部113に相当し、センサユニット31からのトリガ信号を受信して起動する。リングバッファ33は、第1の実施形態におけるリングバッファ114に相当する。
なお、判別器32は、第1の実施形態と同様に第1及び第2の判別器111,112を備えていてもよいし、これらのうち一方のみであってもよい。以下、判別器32が単一のCPUで構成されている場合を例に挙げて説明する。
本実施形態では、センサユニット31自体がトリガ機能を持ち、トリガにより通常休止している判別器32を起動させる。トリガとして使用できる関数は限定されていてもよい。例えば、特定の軸がしきい値を超える、または全軸の絶対値がしきい値を超える、といった単純な機能しか持たないものとすることができる。
リストバンド型ウェアラブルデバイスで有用なトリガとして、
(a)Z軸方向の加速度センサの出力がしきい値を超えると発生する、
(b)X,Y,Z各軸方向の加速度センサの出力の前フレームとの差分がしきい値を超えると発生する、
の2つがある。前者は画面(表示部16)を上に向けたことに対応し、後者は動きがあったことに対応している。
ここで、(a)のトリガを用いると、歩行中や走行中に誤ってトリガが発生することは少ないものの、机に座って作業をしているなど、画面が既に上に向いている状況ではトリガを発生させることができない。一方、(b)のトリガを用いると、机に座っている時など様々な状況でトリガを発生させられるが、歩いている時や走っている時の誤発動が多くなってしまう。
そこで本実施形態では、腕の位置に応じて(a)のトリガと(b)のトリガとを使い分ける。判別器32が起動状態から休止状態に移行する直前に、その時の腕の位置によってトリガ検知回路の判定関数を設定する。
すなわち、センサユニット31の出力は、重力方向(Z軸方向)を含む多軸方向に沿った動きに関する信号を含む。センサ装置310は、腕の姿勢の状態変化を検出する直前の姿勢に応じて相互に異なる上記状態変化に関する複数の検出基準を有する。具体的に、センサ装置310は、前回ジェスチャ認識した腕の状態に応じて、重力方向に沿った腕の動きの態様に基づいて上記状態変化を検出する第1の検出モードと、上記多軸方向における上記検出対象の動きの態様に基づいて上記状態変化を検出する第2の検出モードとを切り替えて実行するように構成される。
例えば腕が下りている時にはZ軸方向加速度センサの出力が閾値を超えたことによるトリガ(以下、Z軸トリガともいう)をセットし、腕が上がっているときには3軸方向の加速度センサの出力のノルムが閾値を超えたことによるトリガ(以下、動きトリガともいう)をセットする。トリガが発生した際、必ずしも画面を点ける必要がなかった場合もあるが、そのような場合でも次回設定すべきトリガは毎回計算して求める。
腕が下がっているときにZ軸トリガをセットすることで、歩行・走行中のように動きが激しく誤発しやすい環境であってもローパスフィルタなどの付帯回路なしに誤発率を下げる事ができる。さらに腕が上がっているときは全軸を用いた動きトリガに切り替えることで、机で作業しているときに手首を軽くひねるだけで画面をつける事ができる。画面をつけずにトリガを切り替えることで、ユーザは現在のモードを意識することなく常に自然な所作で画面を点灯させることができる。
動きトリガの具体的なアルゴリズムとしては、リストバンドの加速度センサの各軸の絶対値が1Gより有意に大きい値(例えば1.2G)になったことで発動させるものが挙げられる。他にも、各軸のうちいずれかの軸において、前フレームとの加速度の差が0より有意に大きい (例えば0.2G)とき、発生するようにしてもよい。Z軸トリガの具体的なアルゴリズムとしては、Z軸方向の加速度がしきい値(例えば0.6G)を超えたことによって発動させるとよい。動きトリガは腕を上げているとき、例えば机での作業中に適する。Z軸トリガは腕を下げている時、例えば歩いている時やソファに座って腕を降ろしているときに適する。
図10は、Z軸トリガと動きトリガとの間の遷移関係を説明する図である。図11及び図12は、センサ装置310の動作例を説明するフローチャートである。
ここでは、トリガの切り替えをZ軸加速度acc_zによって行う例を説明する。Z軸トリガは、腕が動いたことを検知するものであり、動きトリガは、腕の上面、時計でいうと文字盤の方向の姿勢が変化したことを検知するものである。
Z軸トリガは、Z軸加速度acc_zが第1のしきい値 THRES_0を超えると発生し、判別器32が休止状態(スリープ状態)から復帰する(ステップ201)。トリガに紐付いた処理(判別器32によるジェスチャ認識処理)が終了した後、Z軸加速度acc_zの大きさが判定される(ステップ202,203)。Z軸加速度acc_zが引き続き THRES_0 を超えている場合は、検出モードを動きトリガに切り替え(ステップ204)、そうでない場合は、Z軸トリガを維持する(ステップ205)。動きトリガモードにある場合は、各軸の絶対値を見て発生する。判別器32はその後、休止する(ステップ206)。
動きトリガは、Z軸加速度acc_zが第2のしきい値 THRES_1を超えると発生し、判別器32が休止状態(スリープ状態)から復帰する(ステップ301)。トリガに紐付いた処理(判別器32によるジェスチャ認識処理)が終了した後、Z軸加速度acc_z と第2のしきい値 THRES_1 とを比較して(ステップ303)、THRES_1 より小さい場合はZ軸トリガに切り替え(ステップ304)、そうでない場合は、動きトリガを維持する(ステップ305)。THRES_1 は THRES_0 より小さくすることが好ましく、これによりZ軸加速度acc_z が THRES_0 に近い範囲で振動する場合、トリガが多発してしまうおそれをなくすことができる。
以上、本技術の実施形態について説明したが、本技術は上述の実施形態にのみ限定されるものではなく、種々変更を加え得ることは勿論である。
例えば以上の実施形態では、情報処理装置1としてリストバンド型のウェアラブルデバイスを例に挙げて説明したが、これに限られず、眼鏡型のウェアラブルデバイスにも本技術は適用可能である。この場合、ユーザの頭の動きで所定のジェスチャ(頷き、首振り等)を認識することが可能となる。
また以上の実施形態では、センサ部13を備えた情報処理装置1を例に挙げて説明したが、センサ部13と制御部11とは別機器で構成されてもよく、例えば制御部11は、センサ部13と無線ネットワーク等を介して通信可能な携帯情報端末やサーバ装置として構成されてもよい。
また、第3の実施形態で説明したセンサトリガの発生アルゴリズムが第1、第2の実施形態における信号生成部110に適用されてもよい。
さらに以上の実施形態では、ユーザのジェスチャ認識に用いられる情報処理装置を例に挙げて説明したが、これ以外にも、例えば、車両や無人自律飛行体の姿勢判別あるいは姿勢制御等にも本技術は適用可能である。
さらに以上の実施形態では、検出対象の状態変化としてユーザの姿勢変化を例に挙げて説明したが、これに限られず、ユーザの音声や心拍変化などの状態変化を検出し、認識するように情報処理装置が構成されてもよい。
なお、本技術は以下のような構成もとることができる。
(1) 検出対象に取り付けられたセンサユニットの出力を処理し、前記検出対象の状態変化を検出したときにトリガ信号を生成する信号生成部と、
前記トリガ信号を受けて休止状態から起動し、前記センサユニットの出力から前記検出対象の状態変化を第1の判別基準で判別し、判別が不可能な場合は判別不能信号を出力する第1の判別部と、
前記判別不能信号を受けて休止状態から起動し、前記センサユニットの出力から前記検出対象の状態変化を前記第1の判別基準とは異なる第2の判別基準で判別する第2の判別部と
を具備する情報処理装置。
(2)上記(1)に記載の情報処理装置であって、
前記信号生成部は、前記検出対象の状態変化から前記検出対象を装着したユーザの動きを検出し、
前記第1の判別部及び前記第2の判別部は、前記ユーザの動きの態様に基づき、予め設定された複数のジェスチャ候補から対応するジェスチャ候補の有無を判別する
情報処理装置。
(3)上記(2)に記載の情報処理装置であって、
前記第1の判別部は、前記複数のジェスチャ候補の中から前記ユーザの動きの態様に対応するジェスチャ候補を特定する第1の判別処理を実行し、前記ジェスチャ候補の特定が不可能な場合は前記判別不能信号を出力する
情報処理装置。
(4)上記(2)又は(3)に記載の情報処理装置であって、
前記第2の判別部は、前記複数のジェスチャ候補の中から前記ユーザの動きの態様に最も相関の高いジェスチャ候補を特定する第2の判別処理を実行する
情報処理装置。
(5)上記(2)〜(4)のいずれか1つに記載の情報処理装置であって、
前記複数のジェスチャ候補を設定する設定部をさらに具備し、
前記信号生成部は、設定された前記複数のジェスチャ候補の種類に応じて、前記トリガ信号を生成する基準を変更する
情報処理装置。
(6)上記(2)〜(5)のいずれか1つに記載の情報処理装置であって、
前記信号生成部は、前記検出対象が装着された前記ユーザの腕の動きを検出し、
前記第1の判別部及び前記第2の判別部は、前記ユーザの腕の振り上げ動作、振り下げ動作、ツイスト動作及びシェイク動作の何れか1つを特定する
情報処理装置。
(7)上記(1)〜(6)のいずれか1つに記載の情報処理装置であって、
前記第1の判別部及び前記第2の判別部は、前記検出対象の状態変化が判別された後、再び休止する
情報処理装置。
(8)上記(1)〜(7)のいずれか1つに記載の情報処理装置であって、
前記センサユニットの出力を時系列的に記憶することが可能なバッファメモリをさらに具備する
情報処理装置。
(9)上記(1)〜(8)のいずれか1つに記載の情報処理装置であって、
前記信号生成部は、前記検出対象の姿勢に関する状態変化を検出したときに前記トリガ信号を生成する
情報処理装置。
(10)上記(1)〜(9)のいずれか1つに記載の情報処理装置であって、
前記第2の判別部の消費電力は、前記第1の判別部の消費電力よりも大きい
情報処理装置。
(11)上記(1)〜(10)のいずれか1つに記載の情報処理装置であって、
前記信号生成部、前記第1の判別部および前記第2の判別部を格納するための筐体をさらに具備し、
前記筐体は、前記検出対象に装着可能に構成される
情報処理装置。
(12) 検出対象に取り付けられたセンサユニットの出力に基づいて前記検出対象の状態変化を検出したとき、前記検出対象の状態変化を第1の判別基準で判別する第1の判別部を休止状態から起動させ、
前記第1の判別部で判別が不可能なとき、前記検出対象の状態変化を前記第1の判別基準とは異なる第2の判別基準で判別する第2の判別部を休止状態から起動させる
情報処理方法。
(13) 検出対象に取り付けられたセンサユニットの出力に基づいて前記検出対象の状態変化に関する状態変化を検出したとき、前記検出対象の状態変化を第1の判別基準で判別する第1の判別部を休止状態から起動させるステップと、
前記第1の判別部で判別が不可能なとき、前記検出対象の状態変化を前記第1の判別基準とは異なる第2の判別基準で判別する第2の判別部を休止状態から起動させるステップと
をコンピュータに実行させるプログラム。
(14)判定すべき複数のジェスチャ候補を設定する設定部と、
ユーザに取り付けられたセンサユニットの出力を処理し、前記複数のジェスチャ候補に応じて定まる所定の検出基準に基づいて前記ユーザの動きに関する状態変化を検出したときにトリガ信号を生成する信号生成部と、
前記トリガ信号を受けて休止状態から起動し、前記センサユニットの出力に基づいて、前記複数のジェスチャ候補から前記ユーザの動きの態様に対応するジェスチャ候補の有無を判定する判定部と
を具備する情報処理装置。
(15)上記(14)に記載の情報処理装置であって、
前記信号生成部は、前記状態変化を検出する直前の検出対象の状態変化に応じて相互に異なる前記状態変化に関する複数の検出基準を有する
情報処理装置。
(16)ユーザに取り付けられたセンサユニットの出力を処理し、所定の検出基準に基づいて前記ユーザの動きに関する状態変化を検出したときにトリガ信号を生成する信号生成部と、
前記トリガ信号を受けて休止状態から起動し、前記センサユニットの出力に基づいて、前記複数のジェスチャ候補から前記ユーザの動きの態様に対応するジェスチャ候補の有無を判定する判定処理を実行し、前記判定処理の実行後に再び休止する判定部と、を具備し、
前記信号生成部は、前記判定部が休止したときの前記ユーザの状態変化に応じて前記所定の検出基準を切り替える
情報処理装置。
(17)上記(16)に記載の情報処理装置であって、
前記センサユニットの出力は、重力方向を含む多軸方向に沿った動きに関する信号を含み、
前記信号生成部は、前記重力方向における前記ユーザの動きの態様に基づいて前記状態変化を検出する第1の検出モードと、前記多軸方向における前記ユーザの動きの態様の時間変化に基づいて前記状態変化を検出する第2の検出モードとを選択的に切り替える
情報処理装置。
1…情報処理装置
11…制御部
11A…判別回路部
11B…実行回路部
13…センサ部
16…表示部
110…信号生成部
111…第1の判別器
112…第2の判別器
114…リングバッファ
115…設定部
310…センサ装置

Claims (13)

  1. 検出対象に取り付けられたセンサユニットの出力を処理し、前記検出対象の状態変化を検出したときにトリガ信号を生成する信号生成部と、
    前記トリガ信号を受けて休止状態から起動し、前記センサユニットの出力から前記検出対象の状態変化を第1の判別基準で判別し、判別が不可能な場合は判別不能信号を出力する第1の判別部と、
    前記判別不能信号を受けて休止状態から起動し、前記センサユニットの出力から前記検出対象の状態変化を前記第1の判別基準とは異なる第2の判別基準で判別する第2の判別部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記信号生成部は、前記検出対象の状態変化から前記検出対象を装着したユーザの動きを検出し、
    前記第1の判別部及び前記第2の判別部は、前記ユーザの動きの態様に基づき、予め設定された複数のジェスチャ候補から対応するジェスチャ候補の有無を判別する
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記第1の判別部は、前記複数のジェスチャ候補の中から前記ユーザの動きの態様に対応するジェスチャ候補を特定する第1の判別処理を実行し、前記ジェスチャ候補の特定が不可能な場合は前記判別不能信号を出力する
    情報処理装置。
  4. 請求項2に記載の情報処理装置であって、
    前記第2の判別部は、前記複数のジェスチャ候補の中から前記ユーザの動きの態様に最も相関の高いジェスチャ候補を特定する第2の判別処理を実行する
    情報処理装置。
  5. 請求項2に記載の情報処理装置であって、
    前記複数のジェスチャ候補を設定する設定部をさらに具備し、
    前記信号生成部は、設定された前記複数のジェスチャ候補の種類に応じて、前記トリガ信号を生成する基準を変更する
    情報処理装置。
  6. 請求項2に記載の情報処理装置であって、
    前記信号生成部は、前記検出対象が装着された前記ユーザの腕の動きを検出し、
    前記第1の判別部及び前記第2の判別部は、前記ユーザの腕の振り上げ動作、振り下げ動作、ツイスト動作及びシェイク動作の何れか1つを特定する
    情報処理装置。
  7. 請求項1に記載の情報処理装置であって、
    前記第1の判別部及び前記第2の判別部は、前記検出対象の状態変化が判別された後、再び休止する
    情報処理装置。
  8. 請求項1に記載の情報処理装置であって、
    前記センサユニットの出力を時系列的に記憶することが可能なバッファメモリをさらに具備する
    情報処理装置。
  9. 請求項1に記載の情報処理装置であって、
    前記信号生成部は、前記検出対象の姿勢に関する状態変化を検出したときに前記トリガ信号を生成する
    情報処理装置。
  10. 請求項1に記載の情報処理装置であって、
    前記第2の判別部の消費電力は、前記第1の判別部の消費電力よりも大きい
    情報処理装置。
  11. 請求項1に記載の情報処理装置であって、
    前記信号生成部、前記第1の判別部および前記第2の判別部を格納するための筐体をさらに具備し、
    前記筐体は、前記検出対象に装着可能に構成される
    情報処理装置。
  12. 検出対象に取り付けられたセンサユニットの出力に基づいて前記検出対象の状態変化を検出したとき、前記検出対象の状態変化を第1の判別基準で判別する第1の判別部を休止状態から起動させ、
    前記第1の判別部で判別が不可能なとき、前記検出対象の状態変化を前記第1の判別基準とは異なる第2の判別基準で判別する第2の判別部を休止状態から起動させる
    情報処理方法。
  13. 検出対象に取り付けられたセンサユニットの出力に基づいて前記検出対象の状態変化を検出したとき、前記検出対象の状態変化を第1の判別基準で判別する第1の判別部を休止状態から起動させるステップと、
    前記第1の判別部で判別が不可能なとき、前記検出対象の状態変化を前記第1の判別基準とは異なる第2の判別基準で判別する第2の判別部を休止状態から起動させるステップと
    をコンピュータに実行させるプログラム。
JP2018529376A 2016-07-25 2017-05-19 情報処理装置 Active JP6891891B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016145621 2016-07-25
JP2016145621 2016-07-25
PCT/JP2017/018811 WO2018020792A1 (ja) 2016-07-25 2017-05-19 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2018020792A1 true JPWO2018020792A1 (ja) 2019-05-09
JP6891891B2 JP6891891B2 (ja) 2021-06-18

Family

ID=61017053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018529376A Active JP6891891B2 (ja) 2016-07-25 2017-05-19 情報処理装置

Country Status (4)

Country Link
US (1) US11216072B2 (ja)
EP (1) EP3489802B1 (ja)
JP (1) JP6891891B2 (ja)
WO (1) WO2018020792A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT201900019037A1 (it) * 2019-10-16 2021-04-16 St Microelectronics Srl Metodo perfezionato per rilevare un gesto di inclinazione del polso e unita' elettronica e dispositivo elettronico indossabile che implementano il medesimo
DE102020209939A1 (de) * 2020-08-06 2022-02-10 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Erkennen von Kopfgesten

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013020311A (ja) * 2011-07-07 2013-01-31 Fujitsu Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP2015125766A (ja) * 2013-12-27 2015-07-06 株式会社Nttドコモ 画像認識装置、及び画像認識方法
JP2015179493A (ja) * 2014-02-27 2015-10-08 株式会社ログバー ジェスチャ入力システム
JP2015186183A (ja) * 2014-03-26 2015-10-22 株式会社Nttドコモ 通信端末及び通信方法
JP2016502721A (ja) * 2012-11-29 2016-01-28 アマゾン・テクノロジーズ、インコーポレイテッド 電子デバイスのためのジェスチャー検出管理

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2062106C (en) * 1991-12-23 2002-08-20 Gregg Marwin Object sensing system for bar code laser scanners
JP4127691B2 (ja) * 2004-10-04 2008-07-30 株式会社東芝 文字認識装置及びその方法
US8902155B2 (en) 2007-07-09 2014-12-02 Sony Corporation Electronic apparatus and control method therefor
US8131465B2 (en) * 2007-12-14 2012-03-06 Qualcomm Incorporated Motion detection for tracking
US9063731B2 (en) * 2012-08-27 2015-06-23 Samsung Electronics Co., Ltd. Ultra low power apparatus and method to wake up a main processor
JP2015064680A (ja) * 2013-09-24 2015-04-09 京セラ株式会社 電子機器、電子機器の制御方法、および電子機器の制御プログラム
JP2015125616A (ja) 2013-12-26 2015-07-06 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US9513703B2 (en) * 2013-12-27 2016-12-06 Intel Corporation Gesture-based waking and control system for wearable devices
WO2016010857A1 (en) * 2014-07-18 2016-01-21 Apple Inc. Raise gesture detection in a device
US9788277B2 (en) * 2015-01-15 2017-10-10 Mediatek Inc. Power saving mechanism for in-pocket detection
US9804679B2 (en) * 2015-07-03 2017-10-31 Google Inc. Touchless user interface navigation using gestures

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013020311A (ja) * 2011-07-07 2013-01-31 Fujitsu Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP2016502721A (ja) * 2012-11-29 2016-01-28 アマゾン・テクノロジーズ、インコーポレイテッド 電子デバイスのためのジェスチャー検出管理
JP2015125766A (ja) * 2013-12-27 2015-07-06 株式会社Nttドコモ 画像認識装置、及び画像認識方法
JP2015179493A (ja) * 2014-02-27 2015-10-08 株式会社ログバー ジェスチャ入力システム
JP2015186183A (ja) * 2014-03-26 2015-10-22 株式会社Nttドコモ 通信端末及び通信方法

Also Published As

Publication number Publication date
EP3489802A4 (en) 2019-07-31
US11216072B2 (en) 2022-01-04
JP6891891B2 (ja) 2021-06-18
US20200379573A1 (en) 2020-12-03
EP3489802A1 (en) 2019-05-29
WO2018020792A1 (ja) 2018-02-01
EP3489802B1 (en) 2021-04-28

Similar Documents

Publication Publication Date Title
US10990187B2 (en) Methods, systems, and apparatuses to update screen content responsive to user gestures
US10303239B2 (en) Raise gesture detection in a device
US9804679B2 (en) Touchless user interface navigation using gestures
KR102354330B1 (ko) 스마트 디바이스 및 그 동작 방법
US9641991B2 (en) Systems and methods for determining a user context by correlating acceleration data from multiple devices
EP3195098A2 (en) Remote user interface
CN106933425B (zh) 一种防止误触的方法和装置
US9563258B2 (en) Switching method and electronic device
AU2017100061B4 (en) Raise gesture detection in a device
US10725550B2 (en) Methods and apparatus for recognition of a plurality of gestures using roll pitch yaw data
CN111897263A (zh) 智能眼镜控制方法、装置、存储介质及电子设备
JP6891891B2 (ja) 情報処理装置
CN113220073B (zh) 一种控制方法、装置以及可穿戴设备
KR20190024297A (ko) 웨어러블 장치 및 이의 입력 방법
US10660039B1 (en) Adaptive output of indications of notification data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200428

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210510

R151 Written notification of patent or utility model registration

Ref document number: 6891891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151