JP5166316B2 - 状況認識装置及び状況認識方法 - Google Patents

状況認識装置及び状況認識方法 Download PDF

Info

Publication number
JP5166316B2
JP5166316B2 JP2009038204A JP2009038204A JP5166316B2 JP 5166316 B2 JP5166316 B2 JP 5166316B2 JP 2009038204 A JP2009038204 A JP 2009038204A JP 2009038204 A JP2009038204 A JP 2009038204A JP 5166316 B2 JP5166316 B2 JP 5166316B2
Authority
JP
Japan
Prior art keywords
situation
unit
mode
feature amount
extraction unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009038204A
Other languages
English (en)
Other versions
JP2010190861A (ja
Inventor
一成 大内
美和子 土井
和範 井本
匡晃 菊池
倫佳 穂坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009038204A priority Critical patent/JP5166316B2/ja
Priority to US12/708,818 priority patent/US8521681B2/en
Publication of JP2010190861A publication Critical patent/JP2010190861A/ja
Application granted granted Critical
Publication of JP5166316B2 publication Critical patent/JP5166316B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices

Description

本発明は、音情報に基づく対象物の状況認識に関する。
各種センサの小型化及び低消費電力化、センサ信号処理技術の発展に伴って、対象物の状況(例えば対象物の位置情報)に応じて適切なサービスを提供する状況依存型のアプリケーションが注目されている。状況依存型のアプリケーションとして、例えば工場のパトロール者に対して作業支援を提供する特定用のアプリケーション、携帯電話機のユーザに対して日常生活支援(例えば、天気予報の配信)を提供する一般用のアプリケーションなどが考えられる。このような状況依存型のアプリケーションにおける品質を向上させるためには、対象物の状況を正確に認識することが重要である。
対象物が位置情報を取得する手法の1つとしてGPSが広く知られている。しかしながら、対象物が建物に入ってしまうとGPSによる測位が困難になるという問題がある。例えば、前述した工場のパトロール者に対する作業支援を提供するアプリケーションの品質向上のためには、対象物(パトロール者が携行する端末)の屋内(工場内)における位置情報も利用可能となることが望ましい。
そこで、屋内において対象物が位置情報を取得する手法として、屋内に設置された機器から送信されるビーコン(無線、超音波)や無線電波強度に基づく測位が考えられる。しかし、ビーコンや無線電波強度に基づく測位は、遮蔽や反射の影響が大きく、機器の導入コストがかさむという問題がある。また、RFID技術を用いて屋内において対象物の位置情報を取得する手法も考えられる。しかし、いわゆるパッシブ型RFIDは通信可能距離が比較的短いので、対象物の位置情報を取得するためにユーザによる能動的な動作が必要となるという問題がある。一方、アクティブ型RFIDも配置次第で死角やマルチパスの影響が大きく、パッシブ型RFIDに比べて導入コストがかさむという問題がある。
また、音情報を利用して対象物が状況を認識する手法も提案されている。具体的には、対象物はマイクロホンによって周囲の音情報を取得し、当該音情報の特徴量と特定の状況に対応付けられる特徴量とを比較することにより状況を推定している(例えば、特許文献1、非特許文献1、非特許文献2)。マイクロホンは導入コストが小さいという利点がある。
特開2002−323371号公報
V. Peltonen, et al., "Computational Auditory Scene Recognition," Proc. of ICASSP2002, pp. 1941-1944, 2002. C. Clavel, et al., "Events Detection for An Audio-Based Surveillance System," Proc. of ICME2005, pp. 1306-1309, 2005.
前述した音情報に基づく対象物の状況認識において、特徴量の比較を行うために音情報を分析する必要がある。ここで、分析対象とする音情報をどのように定めるかが問題となる。従来技術は、ボタン操作等のユーザの能動的な動作によって分析対象を指定する手法か、常時分析する(即ち、全ての音情報を分析対象と指定する)手法のいずれかを採っている。
ユーザの能動的な動作によって分析対象を指定する手法は、分析処理のための計算量や消費電力を節約するためには有効であるが操作性に問題がある。一方、常時分析する手法は、ユーザの操作負担は小さいが分析処理のための計算量や消費電力量が大きく、対象物が計算能力及び電力に余裕のない携帯型端末である場合に特に問題である。また、そもそもユーザと共に対象物が移動している期間は、動きに伴う雑音が混入しやすいので状況認識の精度が劣化するおそれがある。
従って、本発明は対象物の状況を低消費電力かつ低計算量で高精度に認識することを目的とする。
対象物の動き情報を入力する第1の入力部と、前記対象物の周囲の音情報を入力する第2の入力部と、前記動き情報に基づいて前記対象物の動作状態を認識する認識部と、前記動作状態に基づいて選択的に前記音情報を抽出する第1の抽出部と、前記第1の抽出部が抽出した音情報から第1の特徴量を抽出する第2の抽出部と、前記第2の抽出部が前記第1の特徴量よりも以前に抽出した第2の特徴量と予め入力された特定の状況とが対応付けられているモデルが蓄積される蓄積部と、前記第1の特徴量と最も類似する第2の特徴量に対応付けられる特定の状況を、前記対象物の現在の状況として判定する判定部と、前記現在の状況を出力する出力部とを具備する。
本発明によれば、対象物の状況を低消費電力かつ低計算量で高精度に認識できる。
第1の実施形態に係る状況認識装置を示すブロック図。 図1の状況認識装置の一実装例を示す図。 図1の状況認識装置の一実装例を示す図。 図1の状況認識装置の一実装例を示す図。 図1の状況認識装置の動作を示すフローチャート。 図1の状況認識装置の使用例を示す図。 図1の動き情報入力部が入力する加速度の一例を示すグラフ図。 図1の動き情報入力部が入力する加速度の一例を示すグラフ図。 図7の加速度に基づく微分加速度を示すグラフ図。 図8の加速度に基づく微分加速度を示すグラフ図。 図7の加速度に基づくスカラーを示すグラフ図。 図8の加速度に基づくスカラーを示すグラフ図。 図1の状況認識装置の操作画面の一例を示す図。 図1の識別モデル蓄積部に蓄積される識別モデルの一例を示す図。 第2の実施形態に係る状況認識装置を示すブロック図。 図15の状況認識装置の動作を示すフローチャート。 第3の実施形態に係る状況認識システムを示すブロック図。
以下、図面を参照して、本発明の実施形態について説明する。
(第1の実施形態)
図1に示すように、本発明の第1の実施形態に係る状況認識装置100は、動き情報入力部101、音情報入力部102、動作状態認識部103、音情報抽出部104、特徴抽出部105、モード切替部106、状況入力部107、状況判定部108、判定結果出力部109及び識別モデル蓄積部110を有する。
状況認識装置100は、例えば図2に示すような腕時計型の独立した専用の装置として実装されてもよいし、図3に示すような携帯電話機の一機能として実装されてもよいし、図4に示すようなPDAの一機能として実装されてもよい。状況認識装置100は、ユーザによって携行されるものとするが、その態様は問わない。状況認識装置100が図2に示すような腕時計型の装置として実装されていればユーザは手首に装着すればよいし、状況認識装置100が図3及び図4に示すような携帯端末の一機能として実装されていればユーザは当該携帯端末をポケットや鞄に収納してもよいし手で直接保持してもよい。
状況認識装置100の使用態様は特に限定されないが、例えば工場内の装置点検作業の支援及び安全管理作業の支援に用いられる。具体的には図6に示すように、ユーザは管理棟を出発して建家A乃至Cに設けられている装置1乃至7に対して所定の点検作業を所定の順序で行って管理棟に戻るという使用態様を想定してよい。即ち、状況認識装置100は、ユーザが装置1乃至7のいずれに対する点検作業を行っているか(より正確には、状況認識装置100が装置1乃至7のいずれかの周辺に位置すること)を認識して適切な操作画面や音声アナウンスを提示したり(装置点検作業の支援)、状況認識装置100を携行するユーザの位置情報を外部に報知したり(安全管理作業の支援)したりする。
動き情報入力部101は、例えば加速度センサ、角速度センサ等の動きセンサで構成される。動き情報入力部101は、状況認識装置100の動き情報として加速度情報や角速度情報を取得する。前述したように状況認識装置100はユーザに携行されるため、上記動き情報にはユーザの動きが反映される。動き入力部101は動き情報を動作状態認識部103に入力する。以下の説明において、上記動き情報は3軸加速度であるものとするが、角速度または3軸以外の加速度(例えば1軸または2軸)でもよいし、これらの組み合わせであってもよい。また、動き情報入力部101による動き情報のサンプリング周期は任意でよいが、例えば50[ms]とする。
音情報入力部102は、例えばマイクロホンのような音センサで構成される。音情報入力部102は、状況認識装置100の周囲の音情報を取得する。尚、音情報入力部102が電力駆動する構成であれば、後述する音情報抽出部104の作用によって電力供給が停止/再開されてもよい。音情報入力部102は、音情報を音情報抽出部104に入力する。
動作状態認識部103は、動き情報入力部101からの動き情報に基づいて状況認識装置100を携行するユーザの動作状態を認識する。ここで、動作状態認識部103が認識可能な動作状態は、静止状態及び移動状態を少なくとも含むものとするが、これらに限られず歩行状態、走行状態、交通機関(自動車、自転車、電車等)による移動状態等の様々な動作状態を含んでもよい。動作状態認識部103は、例えば静止状態のような音情報の分析に適した動作状態を認識すると、音情報抽出部104の動作を開始させる。
以下、動作状態認識部103が利用可能な動作認識技術をいくつか紹介する。
動き情報入力部101が入力する動き情報(3軸加速度データ)は、例えば図7及び図8に示す通りである。具体的には、図7はユーザが静止した状態から歩き始めるとき(即ち、動作状態が静止状態から移動状態に遷移するとき)に得られる動き情報を示し、図8はユーザが歩みを止めて静止するとき(即ち、動作状態が移動状態から静止状態に遷移するとき)に得られる動き情報を示す。図7及び図8を概括すると、静止状態のときに得られる加速度の変動は小さく、移動状態のときに得られる加速度の変動は大きいといえる。
動作状態の第1の認識手法は、加速度の生波形または微分波形を利用する。図7及び図8に示す加速度の生波形を微分する(実際には、各データポイントに対応する加速度から、時間的に1つ前のデータポイントに対応する加速度を減算する)と、図9及び図10に示す加速度の微分波形(実際には、各データポイントに対応する微分加速度に相当する複数の値)が夫々得られる。第1の認識手法は、静止状態のときに加速度の変動が小さいことを利用する。例えば、1軸以上の微分加速度の絶対値に閾値を設け、所定の期間内に当該閾値を超える微分加速度の絶対値が得られれば当該期間の動作状態を移動状態として認識可能であり、当該閾値を超える微分加速度の絶対値が得られなければ当該期間の動作状態を静止状態として認識可能である。また、微分加速度でなく加速度の絶対値に対して同様の閾値処理を行うことも可能である。但し、加速度の絶対値(特に、Z軸加速度)に対して閾値処理を施す場合には、重力加速度の影響を考慮する必要がある。
動作状態の第2の認識手法は、加速度のスカラーを利用する。具体的には、次の数式(1)に示す演算を行うことにより、3軸加速度のスカラーAを得ることができる。
Figure 0005166316
数式(1)において、Xn、Yn及びZnは任意のデータポイントnにおけるX軸、Y軸及びZ軸加速度を夫々表し、Xn-1、Yn-1及びZn-1は上記データポイントnの直前(1つ前)のデータポイントn−1におけるX軸、Y軸及びZ軸加速度を夫々表す。図7及び図8に示す加速度データに対して数式(1)の演算を施すと、図11及び図12に示す加速度のスカラーが夫々得られる。第2の認識手法は、静止状態のときに得られる加速度のスカラーAが小さいことを利用する。例えば、加速度のスカラーAに閾値を設け、所定の期間内に当該閾値を超えるスカラーAが得られれば当該期間の動作状態を移動状態として認識可能であり、当該閾値を超える加速度のスカラーAが得られなければ当該期間の動作状態を静止状態として認識可能である。
その他、文献「K.Ouchi, et al., "LifeMinder: A wearable healthcare support system with timely instruction based on the user's context," IEICE Transactions on Information and Systems, Vol. E87-D, No. 6, pp. 1361-1369, 2004.」、文献「T. Iso, et al., Gait Analyzer based on a Cell Phone with a Single Threeaxis Accelerometer, Proceedings of MobileHCI' 06, pp. 141-144, 2006.」及び文献「池谷他、3軸加速度センサを用いた移動状況推定方式、情報処理学会研究報告 2008-UBI-19(14)、pp. 75-80、2008.」に記載されている既存の動作認識手法も適用可能である。
音情報抽出部104は、動作状態認識部103が静止状態を認識すると動作を開始する。具体的には、音情報抽出部104は音情報入力部102から音情報を抽出する。ここで、音情報入力部102が電力駆動する構成であれば、音情報抽出部104が動作を開始するときに初めて音情報入力部102に電力供給が開始されることが望ましい。一方、音情報入力部102が電力駆動しない構成であれば、音情報抽出部104は動作を開始するまで音情報入力部102からの音情報を受理しないことが望ましい。音情報抽出部104は、抽出した音情報を特徴抽出部105に入力する。音情報抽出部104が抽出する音情報は、特徴抽出部105による特徴量の分析対象となる。前述したように音情報抽出部104は、動作状態が静止状態であるときに音情報を抽出するので、ユーザの動きに伴う雑音の混入の少ないクリアな音情報が特徴抽出部105に入力される。
特徴抽出部105は、音情報抽出部104からの音情報の特徴量を抽出する。特徴抽出部105が抽出可能な特徴量は特に限定されないが、例えば周波数解析(FFT(Fast Fourier Transform)、ウェーブレット変換等)によって得られる周波数成分毎のパワースペクトル、ラウドネス、シャープネス、ラフネス、変動強度等の音質メトリクス等を含んでよい。また、特徴抽出部105による特徴量抽出処理の開始タイミングは任意であるが、例えば特徴量を抽出するために必要最低限のデータ量に相当する音情報を音情報抽出部104が抽出した時点が開始タイミングとなる。特徴抽出部105による特徴量抽出処理の終了タイミングも任意であるが、例えば静止状態が終了(即ち、音情報抽出部104による音情報抽出処理の終了)した時点、後述する判定モードにおいて状況判定部108の判定処理が終了した時点、後述する学習モードにおいて状況入力部107の入力処理が終了した時点等が終了タイミングとなる。特徴抽出部105は、開始タイミングから終了タイミングまでの間に所定の間隔で特徴量抽出処理を行う。
ここで、状況認識装置100の動作モードは、学習モードと判定モードとを少なくとも含む。学習モードとは、後述する識別モデルを生成し、識別モデル蓄積部111に蓄積することを目的とする動作モードである。判定モードとは、学習モードにおいて蓄積された識別モデルと特徴抽出部105が抽出した特徴量とを照合して現在の状況を判定することを目的とする動作モードである。学習モードにおいて、特徴抽出部105は特徴量を抽出すると、後述する状況入力部107が入力する特定の状況に対応付けて識別モデルとして識別モデル蓄積部110に蓄積させる。一方、判定モードにおいて、特徴抽出部105は特徴量を抽出すると、状況判定部108に入力する。
モード切替部106は、判定モードと学習モードとの間で状況認識装置100の動作モードの切替を行う。動作モードの切替を実現するための態様は特に限定されないが、例えばユーザが状況認識装置100の操作画面またはボタンを介して設定したい動作モードを指定してよい。
状況入力部107は、学習モードにおいて、識別モデルのパラメータとして特定の状況を予め入力する。図6の例であれば、状況入力部107は、状況認識装置100が装置1の周辺に位置すること等を入力する。状況入力部107は、例えば図13に示すようなユーザインタフェースを備えてもよい。図13に示すインタフェースでは、図6の装置1乃至7の各々の周辺に位置することを特定の状況として入力可能であり、学習モードにおいてユーザが適切な装置をプルダウンメニューで選択する。また、特定の装置の周辺で得られる音情報が当該装置の稼働中/非稼働中とで大きく異なる場合には、当該装置の周辺に位置することに加えて当該装置が稼働中であること/非稼働中であることも特定の状況の一パラメータとして入力してもよい。このように、特定の状況は1つのパラメータに限らず2以上のパラメータによって定義されてもよい。図13に示すインタフェースであれば、例えば操作画面に表示されている登録ボタンの押下によって識別モデルが生成されて識別モデル蓄積部110に蓄積される。
状況判定部108は、判定モードにおいて、状況認識装置100の現在の状況を判定する。具体的には、状況判定部108は、特徴抽出部105からの特徴量を、識別モデル蓄積部110から読み出した識別モデルのパラメータとしての特徴量とを比較し、最も類似する特徴量に対応付けられている特定の状況を現在の状況として判定する。ここで、類似の指標(類似度)は任意に定めてよい。例えば、特徴量が周波数成分毎のパワースペクトルであれば、状況判定部108は特徴抽出部105から入力されるパワースペクトルとの間の差分が最も小さくなるパワースペクトルに対応付けられている特定の状況を現在の状況として判定してもよい。また、状況判定部108は、MFCC(Mel-Frequency Cepstrum Coefficient)、隠れマルコフモデル(HMM;Hidden Markov Model)等を利用してもよい。
状況判定部108の動作タイミングは任意であるが、特徴抽出部105が連続動作する場合には状況判定部108も並行して連続動作することにより、現在の状況をリアルタイムに判定してもよい。
状況判定部108は、判定結果を判定結果出力部109に入力する。尚、状況判定部108は現在の状況を常に判定しなくてもよい。例えば、特徴抽出部105からの特徴量と最も類似する特徴量との間に比較的大きな差異(予め定められた差異)があれば、状況判定部108はエラーを示す判定結果を判定結果出力部109に入力してもよい。また、エラー判定の基準となる差異の程度は、設計的/実験的に定められてよい。
判定結果出力部109は、状況判定部108からの判定結果を出力する。判定結果の出力態様は特に限定されないが、判定結果出力部109は例えば状況認識装置100に備えられる画面に判定結果を示すテキストまたは画像を表示したり、無線LANのような通信手段を介して外部(例えば、管理棟に設置される端末)に判定結果を示すデータを送信したりする。更に、判定結果出力部109は、状況判定部108からの判定結果に応じて適切な操作画面または音声アナウンスを自動的に提示してもよい。
識別モデル蓄積部110には、状況認識装置100が認識可能な特定の状況を識別するための識別モデルが蓄積される。識別モデル蓄積部110には、前述したように、学習モードにおいて、状況入力部107から入力される特定の状況と特徴抽出部105から入力される特徴量とが対応付けて蓄積される。そして、識別モデル蓄積部110に蓄積されている識別モデルは、判定モードにおいて、状況判定部108によって適宜読み出される。
識別モデルは、例えば図14に示すようなデータセットとして識別モデル蓄積部110に蓄積される。図14のデータセットにおいて、数値1及び数値2は周波数及び当該周波数のパワーを夫々表す。
以下、図5を用いて状況認識装置100の動作を説明する。
まず、学習モード及び判定モードのいずれにおいても、音情報抽出部104は音情報入力部102からの音情報の入力をOFFにし(ステップS201)、処理はステップS202に進む。
ステップS202において、動き情報入力部101は動き情報を入力する。具体的には、動き情報入力部101は状況認識装置100の3軸加速度を計測する。次に、動作状態に認識部103はステップS202において抽出された動き情報に基づいて状況認識装置100を携行するユーザの動作状態を認識する。ステップS203における動作状態の認識結果が所定時間以上連続して静止状態であれば処理はステップS205に進み、そうでなければ処理はステップS202に戻る(ステップS204)。
ステップS205において、音情報抽出部104は音情報入力部102からの音情報の入力をONにする。次に、音情報抽出部104は音情報入力部102から入力される音情報を抽出する(ステップS206)。次に、特徴抽出部105はステップS206において抽出された音情報の特徴量を抽出する(ステップS207)。次に、状況認識装置100の動作モードが学習モードであれば処理はステップS209に進み、判定モードであれば処理はステップS210に進む(ステップS208)。
ステップS209において、状況入力部107は識別モデルのパラメータとなる特定の状況を入力する。次に、識別モデル蓄積部110において、ステップS207において抽出された特徴量と、ステップS209において入力された特定の状況とが対応付けられ、識別モデルとして蓄積され(ステップS210)、処理は終了する。
ステップS211において、状況判定部108はステップS207において抽出された特徴量を、識別モデル蓄積部110から読み出した識別モデルと照合し、現在の状況を判定する。次に、判定結果出力部109がステップS211における判定結果を出力し(ステップS212)、処理は終了する。
以上説明したように本実施形態に係る状況認識装置は、静止状態における音情報を抽出し、特徴量分析に基づく状況認識を行っている。従って本実施形態に係る状況認識装置によれば、ユーザの動きに伴う雑音混入の少ないクリアな音情報を分析対象として利用できるので、低計算量かつ低消費電力で高精度に状況を認識できる。
(第2の実施形態)
図15に示すように、本発明の第2の実施形態に係る状況認識装置300は、上記図1に示す状況認識装置100において、動作状態認識部103を動作状態認識部303、判定結果出力部109を判定結果出力部309に夫々置き換え、位置検出部311を更に設けている。以下の説明では、図15において図1と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
位置検出部311は、状況認識装置300の位置情報を検出する。位置検出部311は、GPS、ビーコン(無線、超音波)、無線電波強度、RFID技術等を利用して状況認識装置300の位置情報を検出する。尚、以下の説明において位置検出部311が利用する位置検出手法はGPSであるものとする。
GPSは、周知の通り衛星を利用して測位(緯度及び経度)を行う技術であって、特別な機器を別途設ける必要がないため、導入コストが低く抑えられる利点がある。特に、屋外においてGPSを利用した位置検出は有効である。従って、状況認識装置300は、屋外においてGPSを利用した位置検出を定期的に行い、屋内のように衛星が見通せない位置において前述した第1の実施形態と同様の状況認識を行うこととする。具体的には、位置検出部311が位置検出に成功している期間において動作状態認識部303は動作せず、位置検出部311による位置検出結果が判定結果出力部309を介して出力される。尚、位置検出部311による位置検出結果は、状況判定部108による状況判定処理に利用されてもよい。例えば、識別モデルのパラメータとして位置情報を特定の状況に対応付けておけば、状況判定部108は上記位置検出結果に基づいて現在の状況の判定精度を向上させることができる。尚、特定の状況に対応付けられる位置情報は、学習モードにおいて検出されてもよいし、学習モードを経ずに直接指定されてもよい。
以下、位置検出部311による位置検出結果の活用例を紹介する。
図6のような使用環境において、位置検出部311は、管理棟から建家Aに至るまでの期間と、建家Aから建家Bに至るまでの期間と、建家Bから建家Cに至るまでの期間と、建家Cから管理棟に戻るまでの期間とにおける位置情報を検出できるものと想定される。従って、位置検出部311の最新の位置検出結果を利用すれば、状況判定部108が照合対象とする識別モデルを絞り込んで計算量を削減したり、特定の識別モデルの優先度を高くして状況認識精度を向上させたりすることができる。具体的には、位置検出部311の最新の(最も遅い)位置検出結果が建家Aの入り口周辺であれば、状況判定において状況判定部108は装置1及び装置2に関する識別モデルを照合の対象として絞り込んだり、他の装置に関する識別モデルに比べて高い類似度を与えたりすればよい。
また、何らかの原因で位置情報が正しく検出されなかったため、最新の位置検出結果が建家Bの入り口周辺であるにも関わらず、装置3、装置4及び装置5に関する識別モデルの特徴量と特徴抽出部105が現在抽出している特徴量とが大きく異なる場合も想定される。このような場合には、状況判定部108は最新の位置検出結果が得られてからの経過時間、点検作業のルート等に基づいて現在位置が建家C内であることを推定し、装置6及び装置7に関する識別モデルを照合の対象に加えたり、他の装置に関する識別モデルに比べて高い類似度を与えたりしてもよい。
一方、最新の位置検出結果が得られてからの経過時間が比較的短いにも関わらず、当該位置検出結果に基づき特定される建家内の装置に関する識別モデルの特徴量と特徴抽出部105が現在抽出している特徴量とが大きく異なる場合には、ユーザが倒れている、ルートを誤っている、装置が異常音を発している等の状況が考えられるため状況判定部108は現在の状況が異常であることを判定してもよい。
以下、図16を用いて状況認識装置300の動作を説明する。
まず、学習モード及び判定モードのいずれにおいても、音情報抽出部104は音情報入力部102からの音情報の入力をOFFにし(ステップS401)、処理はステップS402に進む。
ステップS402において、位置検出部311が状況認識装置300の位置情報を検出可能であれば処理はステップS403に進み、そうでなければ処理はステップS404に進む。ステップS403において、位置検出部311は状況認識装置300の位置情報を検出し、処理はステップS402に戻る。
ステップS404において、動き情報入力部101は動き情報を入力する。具体的には、動き情報入力部101は状況認識装置300の3軸加速度を計測する。次に、動作状態に認識部303はステップS404において抽出された動き情報に基づいて状況認識装置300を携行するユーザの動作状態を認識する。ステップS405における動作状態の認識結果が所定時間以上連続して静止状態であれば処理はステップS407に進み、そうでなければ処理はステップS402に戻る。
ステップS407において、音情報抽出部104は音情報入力部102からの音情報の入力をONにする。次に、音情報抽出部104は音情報入力部102から入力される音情報を抽出する(ステップS408)。次に、特徴抽出部105はステップS408において抽出された音情報の特徴量を抽出する(ステップS409)。次に、状況認識装置300の動作モードが学習モードであれば処理はステップS411に進み、判定モードであれば処理はステップS412に進む(ステップS410)。
ステップS411において、状況入力部107は識別モデルのパラメータとなる特定の状況を入力する。次に、識別モデル蓄積部110において、ステップS409において抽出された特徴量と、ステップS411において入力された特定の状況とが対応付けられ、識別モデルとして蓄積され(ステップS412)、処理は終了する。
ステップS413において、状況判定部108はステップS409において抽出された特徴量を、識別モデル蓄積部110から読み出した識別モデルと照合し、現在の状況を判定する。次に、判定結果出力部109がステップS413における判定結果を出力し(ステップS414)、処理は終了する。
以上説明したように、本実施形態に係る状況認識装置は、音情報だけでなく位置検出結果を利用して状況認識を行っている。従って、本実施形態に係る状況認識装置によれば、前述した第1の実施形態に係る状況認識装置に比べて更に低計算量かつ高精度に状況を認識できる。
尚、本実施形態において特定の位置を基準とした高度を検出可能な高度検出部が更に設けられてもよい。例えば、気圧センサを利用する場合には点検作業のスタート時点における管理棟出口の気圧を基準値とすることにより、相対的な高度を検出できる。高度検出部を設ければ、平面位置のみならず高度(建屋内のフロア)も利用できるため、本実施形態に係る状況認識装置の計算量を更に削減し、状況認識の精度を更に向上させることができる。また、ある状況(例えば装置1周辺に位置すること)から別の状況(例えば装置2周辺に位置すること)に至るまでの移動時間、歩数等の移動情報や動作認識結果(例えば、動作状態の遷移)も状況判定に利用されてもよい。
(第3の実施形態)
図17に示すように、本発明の第3の実施形態に係る状況認識システムは、端末500及びサーバ600で構成される。以下の説明では、図17において図15と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
端末500は、動き情報入力部101、音情報入力部102、動作状態認識部303、音情報抽出部104、判定結果出力部309、位置検出部311及び通信部512を有する。端末500は、前述した状況認識装置100及び状況認識装置300と同様にユーザが携行するものとする。サーバ600は、特徴抽出部105、モード切替部106、状況判定部108、識別モデル蓄積部110及び通信部613を有する。通信部512及び通信部613を介して端末500とサーバ600との間で適宜無線通信が行われる。
以上説明したように、本実施形態に係る状況認識システムは、端末が動き情報、音情報、位置情報等を抽出し、サーバが状況認識処理を行っている。従って、本実施形態に係る状況認識システムによれば、消費電力及び計算量の負担の大きい状況認識処理をサーバに行わせるため、ユーザに携行させる端末に要求される演算処理性能やバッテリ性能を低く抑えることができる。
尚、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記各実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、各実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。
100・・・状況認識装置
101・・・動き情報入力部
102・・・音情報入力部
103・・・動作状態認識部
104・・・音情報抽出部
105・・・特徴抽出部
106・・・モード切替部
107・・・状況入力部
108・・・状況判定部
109・・・判定結果出力部
110・・・識別モデル蓄積部
300・・・状況認識装置
303・・・動作状態認識部
309・・・判定結果出力部
311・・・位置検出部
500・・・端末
512・・・通信部
600・・・サーバ
613・・・通信部

Claims (9)

  1. 対象物の動き情報を入力する第1の入力部と、
    前記対象物の周囲の音情報を入力する第2の入力部と、
    前記動き情報に基づいて前記対象物の動作状態を認識する認識部と、
    前記動作状態に基づいて選択的に前記音情報を抽出する第1の抽出部と、
    前記第1の抽出部が抽出した音情報から第1の特徴量を抽出する第2の抽出部と、
    前記第2の抽出部が前記第1の特徴量よりも以前に抽出した第2の特徴量と予め入力された特定の状況とが対応付けられているモデルが蓄積される蓄積部と、
    前記第1の特徴量と最も類似する第2の特徴量に対応付けられる特定の状況を、前記対象物の現在の状況として判定する判定部と、
    前記現在の状況を出力する出力部と
    第1のモードと第2のモードとの間で動作モードを切り替える切替部と、
    前記第2のモードにおいて前記特定の状況を入力する第3の入力部と
    を具備し、
    前記第2の抽出部は、前記第1のモードにおいて前記第1の特徴量を抽出し、前記第2のモードにおいて前記第2の特徴量を抽出して前記第3の入力部が入力する特定の状況と対応付けて前記モデルとして前記蓄積部に蓄積し、
    前記第2のモードにおいて前記第3の入力部が入力する特定の状況の少なくとも一部は、前記対象物が特定の装置の周辺に位置することを示すパラメータによって定義される、
    ことを特徴とする状況認識装置。
  2. 前記特定の状況の少なくとも一部は、前記対象物が前記特定の装置の周辺に位置することを示すパラメータに加えて当該特定の装置が稼働中または非稼働中であることを示すパラメータによって定義されることを特徴とする請求項1記載の状況認識装置。
  3. 前記第2の抽出部は、前記第1の特徴量を抽出するために必要最低限なデータ量に相当する音情報を前記第1の抽出部が抽出した時点から前記第1の特徴量の抽出を開始することを特徴とする請求項1または2記載の状況認識装置。
  4. 前記対象物の位置情報を検出する位置検出部を更に具備し、
    前記モデルは、前記第2の特徴量及び当該第2の特徴量が抽出される以前に検出された位置情報と、前記特定の状況とが対応付けられていることを特徴とする請求項1乃至3のいずれか1項記載の状況認識装置。
  5. 前記モデルは、前記第2の特徴量及び当該第2の特徴量が抽出される以前において最も遅く検出された位置情報と、前記特定の状況とが対応付けられていることを特徴とする請求項4記載の状況認識装置。
  6. 前記モデルは、前記特定の状況と、前記第2の特徴量及び当該特定の状況に至るまでに前記認識部によって認識された動作状態とが対応付けられていることを特徴とする請求項1乃至5のいずれか1項記載の状況認識装置。
  7. 前記判定部は、前記位置検出部が最も遅く検出した位置情報に基づき候補となるモデルを絞り込み、前記候補となるモデルに含まれる第2の特徴量のいずれとも前記第1の特徴量が類似しない場合には現在の状況が異常であることを判定することを特徴とする請求項1乃至6のいずれか1項記載の状況認識装置。
  8. 前記対象物の高度情報を検出する高度検出部を更に具備し、
    前記モデルは、前記第2の特徴量及び当該第2の特徴量が抽出される以前において最も遅く検出された高度情報と、前記特定の状況とが対応付けられていることを特徴とする請求項1乃至7のいずれか1項記載の状況認識装置。
  9. 対象物の動き情報を入力することと、
    前記対象物の周囲の音情報を入力することと、
    前記動き情報に基づいて前記対象物の動作状態を認識することと、
    第1の抽出部が、前記動作状態に基づいて選択的に前記音情報を抽出することと、
    第2の抽出部が、前記第1の抽出部が抽出した音情報から第1の特徴量を抽出することと、
    前記第2の抽出部が前記第1の特徴量よりも以前に抽出した第2の特徴量と予め入力された特定の状況とが対応付けられているモデルを蓄積部に蓄積することと、
    前記第1の特徴量と最も類似する第2の特徴量に対応付けられる特定の状況を、前記対象物の現在の状況として判定することと、
    前記現在の状況を出力することと
    第1のモードと第2のモードとの間で動作モードを切り替えることと、
    前記第2のモードにおいて前記特定の状況を入力することと
    を具備し、
    前記第2の抽出部は、前記第1のモードにおいて前記第1の特徴量を抽出し、前記第2のモードにおいて前記第2の特徴量を抽出して入力される特定の状況と対応付けて前記モデルとして前記蓄積部に蓄積し、
    前記第2のモードにおいて入力される特定の状況の少なくとも一部は、前記対象物が特定の装置の周辺に位置することを示すパラメータによって定義される、
    ことを特徴とする状況認識方法。
JP2009038204A 2009-02-20 2009-02-20 状況認識装置及び状況認識方法 Expired - Fee Related JP5166316B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009038204A JP5166316B2 (ja) 2009-02-20 2009-02-20 状況認識装置及び状況認識方法
US12/708,818 US8521681B2 (en) 2009-02-20 2010-02-19 Apparatus and method for recognizing a context of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009038204A JP5166316B2 (ja) 2009-02-20 2009-02-20 状況認識装置及び状況認識方法

Publications (2)

Publication Number Publication Date
JP2010190861A JP2010190861A (ja) 2010-09-02
JP5166316B2 true JP5166316B2 (ja) 2013-03-21

Family

ID=42631738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009038204A Expired - Fee Related JP5166316B2 (ja) 2009-02-20 2009-02-20 状況認識装置及び状況認識方法

Country Status (2)

Country Link
US (1) US8521681B2 (ja)
JP (1) JP5166316B2 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2481191A (en) 2010-02-25 2011-12-21 Sita Information Networking Computing Ireland Ltd Graphical development tool for software application development
KR101165537B1 (ko) * 2010-10-27 2012-07-16 삼성에스디에스 주식회사 사용자 장치 및 그의 사용자의 상황 인지 방법
SG190038A1 (en) 2010-12-21 2013-06-28 Sita N V Reservation system and method
CN103999102B (zh) 2011-08-03 2017-07-11 Sita信息网络处理美国有限公司 物品处理和跟踪系统及其方法
US20130066815A1 (en) * 2011-09-13 2013-03-14 Research In Motion Limited System and method for mobile context determination
GB2499288A (en) 2012-02-09 2013-08-14 Sita Inf Networking Computing Usa Inc Path determination
US8805360B2 (en) 2012-02-14 2014-08-12 Apple Inc. Wi-Fi process
US9600169B2 (en) 2012-02-27 2017-03-21 Yahoo! Inc. Customizable gestures for mobile devices
JP5895716B2 (ja) * 2012-06-01 2016-03-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10292105B2 (en) * 2012-10-16 2019-05-14 Apple Inc. Motion-based adaptive scanning
US9124981B2 (en) * 2012-11-14 2015-09-01 Qualcomm Incorporated Systems and methods for classification of audio environments
JP2014132732A (ja) * 2013-01-07 2014-07-17 Kddi Corp 家電状態推定装置
US10320908B2 (en) 2013-03-25 2019-06-11 Sita Information Networking Computing Ireland Limited In-flight computing device for aircraft cabin crew
GB2523441A (en) 2014-02-19 2015-08-26 Sita Information Networking Computing Ireland Ltd Reservation system and method therefor
JP6258172B2 (ja) * 2014-09-22 2018-01-10 株式会社東芝 音情報処理装置及びシステム
JP6247619B2 (ja) * 2014-09-22 2017-12-13 株式会社東芝 生体情報測定装置
WO2016047494A1 (ja) 2014-09-22 2016-03-31 株式会社 東芝 生体情報測定装置及びシステム
KR101625304B1 (ko) 2014-11-18 2016-05-27 경희대학교 산학협력단 음향 정보에 기초한 사용자 다수 행위 인식 방법
US10001546B2 (en) 2014-12-02 2018-06-19 Sita Information Networking Computing Uk Limited Apparatus for monitoring aircraft position
WO2016193648A1 (en) 2015-06-01 2016-12-08 Sita Information Networking Computing Uk Limited Method and system for monitoring aircraft status
JP6524814B2 (ja) * 2015-06-18 2019-06-05 Tdk株式会社 会話検出装置及び会話検出方法
JP6448477B2 (ja) * 2015-06-19 2019-01-09 株式会社東芝 行動判定装置及び行動判定方法
JP6651730B2 (ja) * 2015-08-07 2020-02-19 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置、及び情報処理プログラム
JP6577324B2 (ja) * 2015-10-09 2019-09-18 株式会社東芝 行動判定装置及び行動判定方法
USD836625S1 (en) 2016-12-08 2018-12-25 Sita Information Networking Computing Canada, Inc. Self-service kiosk
US10620013B2 (en) 2017-03-09 2020-04-14 Sita Information Networking Computing Usa, Inc. Testing apparatus and method for testing a location-based application on a mobile device
US10360785B2 (en) 2017-04-07 2019-07-23 Sita Information Networking Computing Usa, Inc. Article tracking system and method
USD881961S1 (en) 2017-05-19 2020-04-21 Sita Information Networking Computing Usa, Inc. Robot
US11410088B2 (en) 2017-11-03 2022-08-09 Sita Ypenburg B.V. Systems and methods for interactions between ticket holders and self service functions
JP7343290B2 (ja) 2019-03-29 2023-09-12 太陽誘電株式会社 判定システム、情報処理装置、サーバ、プログラムおよび判定方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2647211A1 (fr) * 1989-05-16 1990-11-23 Caterpillar Inc Appareil et procede pour la mesure automatique de la puissance sonore emise par une source de bruit
JP3570163B2 (ja) * 1996-07-03 2004-09-29 株式会社日立製作所 動作及び行動の認識方法及び装置及びシステム
JPH11117875A (ja) * 1997-10-14 1999-04-27 Tokyo Gas Co Ltd 音響によるコンプレッサの監視装置
JP2000317002A (ja) * 1999-05-12 2000-11-21 Japan Steel Works Ltd:The 身体の転倒検出・防御方法および装置
JP2002323371A (ja) * 2001-04-27 2002-11-08 Toshiba Corp 音響診断装置及び音響診断方法
JP4239635B2 (ja) * 2003-03-20 2009-03-18 ソニー株式会社 ロボット装置、その動作制御方法、及びプログラム
JP4257230B2 (ja) * 2004-02-26 2009-04-22 株式会社東芝 移動ロボット
JP2005341543A (ja) * 2005-04-04 2005-12-08 Noriyuki Sugimoto 節電型自動録画機能付き携帯電話機
JP4455417B2 (ja) * 2005-06-13 2010-04-21 株式会社東芝 移動ロボット、プログラム及びロボット制御方法
JP4486922B2 (ja) * 2005-12-16 2010-06-23 国立大学法人東北大学 救助要請通信システム
US8532667B2 (en) * 2007-03-02 2013-09-10 Aegis Mobility, Inc. System and methods for monitoring the geospatial context associated with a mobile communication device
EP2136358A4 (en) * 2007-03-16 2011-01-19 Panasonic Corp LANGUAGE ANALYSIS DEVICE, LANGUAGE ANALYSIS PROCEDURE, LANGUAGE ANALYSIS PROGRAM AND SYSTEM INTEGRATION CIRCUIT
JP2010016444A (ja) * 2008-07-01 2010-01-21 Toshiba Corp 状況認識装置、状況認識方法、及び無線端末装置
JP2010016443A (ja) * 2008-07-01 2010-01-21 Toshiba Corp 状況認識装置、状況認識方法、及び無線端末装置

Also Published As

Publication number Publication date
JP2010190861A (ja) 2010-09-02
US20100217588A1 (en) 2010-08-26
US8521681B2 (en) 2013-08-27

Similar Documents

Publication Publication Date Title
JP5166316B2 (ja) 状況認識装置及び状況認識方法
US10217055B2 (en) Methods and systems for sensor-based driving data collection
US20200380961A1 (en) Method and Apparatus for Evaluating Trigger Phrase Enrollment
CN107172590B (zh) 基于移动终端的活动状态信息处理方法、装置及移动终端
US10504031B2 (en) Method and apparatus for determining probabilistic context awareness of a mobile device user using a single sensor and/or multi-sensor data fusion
US9443202B2 (en) Adaptation of context models
KR101061443B1 (ko) 전자 기기, 이동 단말기 및 이를 이용한 기능 수행 방법
KR101367964B1 (ko) 복합 센서를 이용한 사용자 상황 인식 방법
CN110972112B (zh) 地铁运行方向的确定方法、装置、终端及存储介质
US9571925B1 (en) Systems and methods of reducing acoustic noise
US10430896B2 (en) Information processing apparatus and method that receives identification and interaction information via near-field communication link
CN103366221A (zh) 信息处理装置及信息处理方法
US20190180756A1 (en) Voice recognition method and voice recognition apparatus
JP6784044B2 (ja) 行動解析装置、行動解析方法及びプログラム
JP2010016444A (ja) 状況認識装置、状況認識方法、及び無線端末装置
US11006238B1 (en) Method for profiling based on foothold and terminal using the same
CN112116908B (zh) 唤醒音频确定方法、装置、设备及存储介质
CN113225624A (zh) 一种语音识别耗时确定方法和装置
KR101646140B1 (ko) 이동 단말 및 그 제어 방법
KR101768692B1 (ko) 전자 출력 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
JP2010145715A (ja) 辞書学習装置及びその方法
JP6738084B2 (ja) 作業推定装置、作業推定方法、および作業推定プログラム
KR20170094527A (ko) 전자 출력 장치, 방법 및 컴퓨터 판독 가능한 기록 매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5166316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees