JP6258172B2 - 音情報処理装置及びシステム - Google Patents
音情報処理装置及びシステム Download PDFInfo
- Publication number
- JP6258172B2 JP6258172B2 JP2014192750A JP2014192750A JP6258172B2 JP 6258172 B2 JP6258172 B2 JP 6258172B2 JP 2014192750 A JP2014192750 A JP 2014192750A JP 2014192750 A JP2014192750 A JP 2014192750A JP 6258172 B2 JP6258172 B2 JP 6258172B2
- Authority
- JP
- Japan
- Prior art keywords
- sound information
- unit
- user
- processing apparatus
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
本発明の実施形態は、音情報処理装置及びシステムに関する。
従来、マイクにより集音した音情報から、発話情報などを取得する音情報処理装置が利用されている。音情報処理装置では、マイクを間欠的に動作させる方法などが提案されている。
低消費電力な音情報処理装置及びシステムを提供する。
一実施形態に係る音情報処理装置は、動き情報取得部と、睡眠判定部と、第1行動状態判定部と、音情報取得部と、制御部と、を備える。動き情報取得部は、ユーザの動き情報を取得する。睡眠判定部は、動き情報に基づいて、ユーザが睡眠中か判定する。第1行動状態判定部は、ユーザが覚醒中の場合に、動き情報に基づいて、ユーザの行動状態を判定する。音情報取得部は、ユーザの周囲の音情報を間欠的に取得する。制御部は、睡眠判定部及び第1行動状態判定部の判定結果に基づいて、音情報取得部を制御する。
以下、本発明の実施形態について図面を参照して説明する。
(第1実施形態)
第1実施形態に係る音情報処理装置(以下、「処理装置」という)及び音情報処理システム(以下、「処理システム」という)について、図1〜図6を参照して説明する。本実施形態に係る処理装置及び処理システムは、マイクにより集音した音情報に基づいて、ユーザの発話情報を算出する。
第1実施形態に係る音情報処理装置(以下、「処理装置」という)及び音情報処理システム(以下、「処理システム」という)について、図1〜図6を参照して説明する。本実施形態に係る処理装置及び処理システムは、マイクにより集音した音情報に基づいて、ユーザの発話情報を算出する。
まず、第1実施形態に係る処理装置100の機能構成について、図1を参照して説明する。本実施形態に係る処理装置100は、例えば、ウェアラブル端末やスマートフォンなどの、ユーザが装着又は携帯可能なデバイスにより構成される。図1は、処理装置100の機能構成を示すブロック図である。
図1に示すように、この処理装置100は、動き情報取得部1と、睡眠判定部2と、第1行動状態判定部3と、制御部4と、音情報取得部5と、音声情報検出部6と、非音声特徴量算出部7と、第2行動状態判定部8と、音声特徴量算出部9と、発話情報算出部10と、を備える。
動き情報取得部1は、ユーザの動き情報を取得する。動き情報は、例えば、加速度や角速度であるが、これに限られない。動き情報取得部1は、これらの動き情報を検出する加速度センサや角速度センサ(ジャイロセンサ)などの動き情報センサを含み、動き情報センサの出力信号から、動き情報を取得する。動き情報測定部1は、処理装置100の動作中に、常時或いは任意の時間間隔で間欠的に動作し、動き情報を取得する。また、動き情報取得部1が取得する動き情報は、1つであってもよいし、複数であってもよい。
睡眠判定部2は、動き情報取得部1が取得したユーザの動き情報に基づいて、ユーザが睡眠中か判定する。睡眠判定部2は、例えば、動き情報からユーザの体動量などの特徴量を算出し、算出した特徴量に基づいて、ユーザが睡眠中か判定することができる。
第1行動状態判定部3は、動き情報取得部1が取得したユーザの動き情報に基づいて、ユーザの行動状態を判定する。第1行動状態判定部3は、睡眠判定部2の判定結果を取得し、ユーザが覚醒中の場合のみ、ユーザの行動状態を判定する。したがって、睡眠判定部2によりユーザは睡眠中と判定された場合、第1行動状態判定部3は、動作しない。
第1行動状態判定部3は、例えば、動き情報からユーザの体動量などの特徴量を算出し、算出した特徴量の平均値、分散値、最大値、及びパターンなどに基づいて、ユーザの行動状態を判定する。第1行動状態判定部3が判定する行動状態には、例えば、睡眠、覚醒、完全静止(処理装置を非装着)、歩行、走行、電車・車・バスに乗車、自転車を運転、飛行機に搭乗、乗船、水泳、テニス、個人競技スポーツ、団体競技スポーツ、食事、飲食、デスクワーク、仰臥、及び着席が含まれるが、これに限られない。
制御部4は、睡眠判定部2及び第1行動状態判定部3の判定結果を取得し、判定結果に基づいて、音情報取得部5などの動作を制御する。具体的には、制御部4は、睡眠判定部2及び第1行動状態判定部3から取得したユーザの行動状態が、非発話状態である場合、音情報取得部5の動作を停止させる。これにより、処理装置100の消費電力を低減することができる。
非発話状態は、ユーザが発話しない、或いは、集音に適さない行動状態として、予め設定された行動状態である。非発話状態には、例えば、睡眠、完全静止(処理装置を非装着)、走行、自転車を運転、水泳、テニス、個人競技スポーツ、及び団体競技スポーツが含まれるが、これに限られない。
これに対して、発話状態は、ユーザが発話する、或いは、集音に適した行動状態として、予め設定された行動状態である。発話状態には、例えば、覚醒、歩行、電車・車・バスに乗車、飛行機に搭乗、乗船、食事、飲食、デスクワーク、仰臥、及び着席が含まれるが、これに限られない。なお、発話状態は、非発話状態ではない行動状態として設定されてもよい。
また、制御部4は、ユーザの行動状態に基づいて、音情報取得部5、音声情報検出部6、非音声特徴量算出部7、第2行動状態判定部8、音声特徴量算出部9、及び発話情報算出部10の少なくとも1つの動作を制御してもよい。具体的には、制御部4は、ユーザの行動状態が、非発話状態である場合、上記の各構成の動作を停止させるのが好ましい。これにより、処理装置100の消費電力をさらに低減することができる。
音情報取得部5は、マイクを含み、処理装置100を装着又は携帯したユーザの周囲の音情報を、所定の時間間隔で間欠的に取得する。音情報取得部5が取得する音情報には、人の声である音声の情報(音声情報)と、音声以外の音の情報(非音声情報)と、が含まれる。音情報取得部5による音情報の取得間隔は、例えば、1秒間隔や1分間隔など、任意に設定可能である。なお、音情報取得部5は、AD変換器、フィルタ、及び増幅器などを含んでもよい。
ここで、図2は、音情報取得部5の動作の一例を示す図である。図2において、制御部4は、マイクのON・OFFを制御することにより、音情報取得部5の動作を制御している。また、非発話状態として、走行及び睡眠が設定されており、制御部4は、ユーザが走行中及び睡眠中の場合に、マイクをOFFしている。走行と歩行を判別するのに、移動速度あるいは運動強度を用いてもよい。音情報取得部5をこのように制御することにより、マイクを単純に間欠的に動作させる場合に比べて、図2の点線区間でマイクをOFFにできるため、処理装置100の消費電力を低減することができる。なお、図2に示すように、行動状態が体動量などの特徴量の範囲に応じて設定される場合、制御部4は、特徴量に応じて音情報取得部5の動作を制御してもよい。
音声情報検出部6は、音声情報取得部5が取得した音情報から音声情報を検出する。音声情報検出部6は、例えば、音声区間検出によって、音声情報を検出する。音情報は、音声情報と非音声情報とからなるため、音声情報検出部6が音声情報を検出することにより、音声情報以外の音情報が非音声情報として検出される。
非音声特徴量算出部7は、音声情報検出部6により検出された非音声情報の特徴量(以下、「非音声特徴量」という)を算出する。非音声特徴量には、例えば、音声のピッチ、周波数、強度、エンベロープ、及びサウンドスペクトログラムなどが含まれるが、これに限られない。非音声特徴量は、第2行動状態判定部8が判定する行動状態に応じて選択される。
第2行動状態判定部8は、非音声特徴量算出部7が算出した非音声特徴量に基づいて、ユーザの行動状態を判定する。すなわち、第2行動状態判定部8は、ユーザの周囲の音から、ユーザの行動状態を判定する。例えば、大内ら「携帯電話搭載センサによるリアルタイム生活行動認識システム」情報処理学会論文誌(2012年6月)などを用いる。第2行動状態判定部8が判定する行動状態には、例えば、トイレ洗浄、冷蔵庫開閉、歯磨き、掃除機をかける、テレビ視聴、髭剃り、ドライヤ、アイロンをかける、及び皿洗いが含まれるが、これに限られない。
音声特徴量算出部9は、音声情報検出部6により検出された音声情報の特徴量(以下、「音声特徴量」という)を算出する。音声特徴量には、例えば、周波数、強度、及びサウンドスペクトログラムなどが含まれるが、これに限られない。音声特徴量は、発話情報算出部10が算出する発話情報に応じて選択される。
発話情報算出部10は、音声特徴量算出部9が算出した音声特徴量に基づいて、発話情報を算出する。発話情報には、ユーザ発話量と、ユーザ発話時間と、が含まれるが、これに限られない。
発話情報算出部10は、例えば、ユーザの音声の特徴量から生成した音響モデルを予め記憶しておき、この音響モデルに基づいて、音声情報からユーザの発話を音声区間検出してもよい。例えば、中川ら「発話間のVQひずみを用いた話者交替識別と話者クラスタリング」電子情報通信学会論文誌D-II(2002年11月)などを用いて、他人が混ざっているか、自分だけの発話かを特徴量と音響モデルとで話者判別することで、話者区間の分離を行う。これにより、音声情報を、ユーザの発話と、ユーザ以外の人(他人)の発話と、に分類することができる。この場合、発話情報算出部10は、発話情報として、ユーザ発話量と、ユーザ発話時間と、他人発話量と、他人発話時間と、会話時間と、ユーザの発話割合と、を算出してもよい。
また、発話情報算出部10は、ユーザの音響モデルを、ユーザの行動状態毎に記憶してもよい。このような音響モデルには、例えば、電話中の音響モデル、対人で会話中の音響モデル、及びテレビを視聴中の音響モデルなどが含まれる。なお、テレビの視聴中は音楽・効果音が多いことが特徴的なため、これらの特徴量を使って音響モデルを作成する。行動状態毎の音響モデルを用いることにより、ユーザが発話した際の状態(例えば、会話中や独り言など)を取得することができる。
次に、第1実施形態に係る処理装置100のハードウェア構成について、図3を参照して説明する。本実施形態に係る処理装置100は、コンピュータ装置を備える。動き情報センサやマイクなどの出力信号は、コンピュータ装置に入力され、所定の処理を施される。図3は、コンピュータ装置の構成を示すブロック図である。
図3に示すように、コンピュータ装置は、CPU(中央演算装置)101と、入力インターフェース102と、表示装置103と、通信装置104と、主記憶装置105と、外部記憶装置106とを備え、これらはバス107により相互に接続されている。
CPU101は、主記憶装置105上で、音声情報処理プログラム(以下、「処理プログラム」という)を実行する。CPU101が、処理プログラムを実行することにより、上述の各機能構成が実現される。
本実施形態において、コンピュータ装置は、第1プロセッサP1と、第2プロセッサP2と、の2つのCPU101を備えるのが好ましい。図1に示すように、第1プロセッサP1は、睡眠判定部2と、第1行動状態判定部3と、制御部4と、を構成するCPUであり、第2プロセッサP2は、音声情報検出部6と、非音声特徴量算出部7と、第2行動状態判定部8と、音声特徴量算出部9と、発話情報算出部10と、を構成するCPUである。
このような構成により、ユーザの行動状態が非発話状態である場合、制御部4は、第2プロセッサP2の動作を停止させることができる。これにより、全ての機能構成を単一のCPU101により構成し、個々の機能構成における処理を停止する場合に比べて、消費電力を効果的に低減することができる。
入力インターフェース102は、キーボード、マウス、及びタッチパネルなどの入力装置からの操作信号を、処理装置に入力する。入力インターフェース102の方式は、例えば、USBやイーサネットであるが、これに限られない。動き情報センサやマイクは、この入力インターフェース102を介してコンピュータ装置に接続されてもよい。
表示装置103は、処理装置から出力される映像信号を表示する。表示装置は、例えば、LCD(液晶ディスプレイ)、CRT(ブラウン管)、及びPDP(プラズマディスプレイ)であるが、これに限られない。コンピュータ装置により取得された発話情報や行動状態などの情報は、この表示装置103により表示することができる。
通信装置104は、コンピュータ装置が外部装置と無線又は有線で通信するための装置である。コンピュータ装置により取得された発話情報や行動状態などの情報は、この通信装置104を介して外部装置に送信することができる。外部装置は、例えば、スマートフォンやサーバであるが、これに限られない。動き情報センサやマイクの出力信号は、通信装置104を介してコンピュータ装置に入力されてもよい。
主記憶装置105は、処理プログラムの実行の際に、処理プログラム、処理プログラムの実行に必要なデータ、及び処理プログラムの実行により生成されたデータなどを記憶する。処理プログラムは、主記憶装置105上で展開され、実行される。主記憶装置105は、例えば、RAM、DRAM、SRAMであるが、これに限られない。
外部記憶装置106は、処理プログラム、処理プログラムの実行に必要なデータ、及び処理プログラムの実行により生成されたデータなどを記憶する。これらのプログラムやデータは、処理プログラムの実行の際に、主記憶装置105に読み出される。外部記憶装置106は、例えば、ハードディスク、光ディスク、フラッシュメモリ、及び磁気テープであるが、これに限られない。
なお、処理プログラムは、コンピュータ装置に予めインストールされていてもよいし、CD−ROMなどの記憶媒体に記憶されていてもよい。また、処理プログラムは、インターネット上にアップロードされているものをダウンロードしたものでもよい。
次に、本実施形態に係る処理装置100の動作について、図4を参照して具体的に説明する。以下では、動き情報は、加速度であり、加速度から特徴量として体動量が算出されるものとするが、上述の通り、動き情報やその特徴量はこれに限られない。図4は、処理装置100の動作を示すフローチャートである。
図4に示すように、処理装置100による音情報の処理が開始すると、ステップS1において、音情報の取得間隔などが初期設定される。処理装置100の処理は、例えば、処理装置100の電源がオンになったタイミングや、ユーザからの開始信号に応じて開始される。
次に、ステップS2において、動き情報取得部1は、ユーザの加速度を取得する。すなわち、動き情報取得部1は、加速度センサの出力信号から、ユーザの加速度を算出する。加速度センサは、例えば、1軸、2軸、又は3軸の加速度センサであるが、これに限られない。
ステップS3において、睡眠判定部2は、動き情報取得部1が取得した加速度からユーザの体動量を算出する。睡眠判定部2は、体動量として、例えば、2軸又は3軸の合成加速度や、合成加速度の平均値や、合成加速度がある特定の閾値を超えた回数を算出する。睡眠判定部2は、算出した体動量に基づいて、ユーザが睡眠中か否か判定する。判定結果は、制御部4に送信される。ユーザが睡眠中の場合(ステップS3のYES)、処理はステップS4に進み、ユーザが覚醒中の場合(ステップS3のNO)、処理はステップS6に進む。
ユーザが睡眠中の場合、ステップS4において、制御部4は、マイクをOFFすることにより、音情報取得部5の動作を停止させる。また、制御部4は、第2プロセッサP2の動作を停止させる。すなわち、制御部4は、音声情報検出部6、非音声特徴量算出部7、第2行動状態判定部8、音声特徴量算出部9、及び発話情報算出部10の動作を停止させる。
その後、ステップS5において、処理装置100は、処理を終了するか判定する。処理装置100による処理は、例えば、処理装置100の電源がオフになったタイミングや、ユーザからの終了信号に応じて終了される(ステップS5のYES)。処理を終了しない場合(ステップS5のNO)、処理はステップS2に戻る。
これに対して、ユーザが覚醒中の場合、ステップS6において、第1行動状態判定部3は、動き情報取得部1が取得した加速度からユーザの体動量を算出し、体動量に基づいて、ユーザの行動状態を判定する。判定結果は制御部4に送信される。
ステップS7において、制御部4は、ユーザの行動状態が非発話状態か判定する。ユーザの行動状態が非発話状態である場合(ステップS7のYES)、処理はステップS4に進み、非発話状態ではない場合(ステップS7のNO)、処理はステップS8に進む。
ステップS8において、音情報取得部5は、所定の取得タイミングに音情報を取得する。すなわち、マイクにより集音し、マイクの出力信号にAD変換などの所定の処理を施し、音情報を生成する。
次に、ステップS9において、音声情報検出部6が、音情報から音声情報を検出する。音声情報検出部6によって音声情報が検出された場合(ステップS10のYES)、処理はステップS11に進み、音声情報が検出されなかった場合(ステップS10のNO)、処理はステップS13に進む。
音声情報が検出された場合、ステップS11において、音声特徴量算出部9は、音声情報から音声特徴量を算出する。
そして、ステップS12において、発話情報算出部10は、音声特徴量から話者を判定し、ユーザの発話時間及び発話量や、第3者の発話時間及び発話量などの、発話情報を算出する。以上の処理により得られた発話情報は、例えば、表示装置103に表示される。その後、処理はステップS5に進む。
これに対して、音声情報が検出されなかった場合、ステップS13において、非音声特徴量算出部7は、非音声情報から非音声特徴量を算出する。
そして、ステップS14において、第2行動状態判定部8は、非音声特徴量から、ユーザの行動状態を判定する。こうして得られたユーザの行動状態は、例えば、表示装置103に表示される。その後、処理はステップS5に進む。
処理装置100は、処理が終了するまでの間、以上のステップS1からステップS14の処理を、音情報の取得間隔ごとに繰り返す。
以上説明した通り、本実施形態に係る処理装置100は、マイクが間欠的に動作するとともに、ユーザの行動状態が非発話状態の場合にはマイクが動作しない。ここで、処理装置100の消費電力について検討する。
例えば、200mAhのバッテリで14日間動作可能なコンピュータ装置(動き情報センサを含む)の場合、コンピュータ装置は1時間あたり595μA(=200mAh/14日×24h)の電力を消費する。処理装置100を、このコンピュータ装置と、消費電力が700μAのマイクと、により構成した場合、マイクを常時動作させると、処理装置100の動作時間は6.43日となる。
これに対して、マイクを1/5の時間だけ間欠的に動作させると、処理装置100の動作時間は11.33日となる。睡眠中にマイクの動作を停止させると、睡眠時間が8時間/日の場合、処理装置100の動作時間は12.10日となる。覚醒中の非発話状態のときにマイクの動作を停止させると、処理装置100の動作時間は12.10日よりさらに長期化する。
このように、本実施形態によれば、処理装置100の消費電力を低減し、動作時間を長期化することができる。これにより、バッテリや処理装置100の小型化も可能になる。
また、本実施形態に係る処理装置100は、ユーザの発話時間、発話量、及び会話時間などの発話情報を継続的に容易に取得することができる。処理装置100によって取得した発話情報は、メンタルヘルスケアや高齢者の認知症予防のために利用することができる。
なお、上記の説明において、非音声特徴量算出部7と音声特徴量算出部9とは、排他的に動作したが、音情報に音声の区間と非音声の区間とが両方含まれる場合には、同時に動作してもよい。
さらに、処理装置100は、発話情報算出部10が算出した発話情報に基づいて、ユーザのストレスを推定するストレス推定部11を備えてもよい。ストレス推定部11は、ユーザのストレスを、発話情報のみから推定してもよいし、図示しない光電脈波センサから求めた脈拍数や心電図センサから求めた心拍数を用いた自律神経解析により推定したストレスを、発話情報によって補正することにより、推定してもよい。
以上の説明において、処理装置100が単一の装置により構成される場合について説明したが、処理装置100は、複数の装置からなる処理システム200として構成することも可能である。そこで、本実施形態に係る処理システム200について、図5及び図6を参照して説明する。図5は、本実施形態に係る処理システム200の一例を示す概略構成図である。
図5に示すように、処理システム200は、センサノード端末201と、ホスト端末202と、サーバ203と、を備える。センサノード端末201、ホスト端末202、及びサーバ203は、有線又は無線で通信可能に接続されている。
センサノード端末201(音情報処理装置)は、例えば、指輪型、腕輪型、及びシール型などのウェアラブル端末であり、ユーザの動き情報やユーザの周囲の音情報を取得する。図6に示すように、センサノード端末201は、動き情報取得部1と、睡眠判定部2と、第1行動状態判定部3と、制御部4と、音情報取得部5と、音情報検出部6と、非音声特徴量算出部7と、音声特徴量算出部9と、を備える。センサノード端末201は、非音声特徴量算出部7により算出した非音声特徴量と、音声特徴量算出部9により算出した音声特徴量と、をホスト端末202に送信する。
ホスト端末202は、例えば、スマートフォンであり、発話情報を算出するアプリケーションをインストールされている。図6に示すように、ホスト端末202は、第2行動状態判定部8と、発話情報算出部10と、を備える。ホスト端末202は、センサノード端末201から受信した音声情報及び非音声情報に基づいて、ユーザの発話情報及び行動状態を取得し、サーバ203に送信する。
サーバ203は、例えば、ヘルスケアサービスを提供するクラウドサーバである。図6に示すように、サーバ203は、ストレス推定部11を備える。サーバ203は、ホスト端末202から受信した行動状態や発話情報を記憶すると共に、発話情報からユーザのストレスを推定する。サーバ203は、記憶した行動状態や発話情報の履歴情報、推定されたストレス、及びユーザに対するアドバイスなどの情報を、ホスト端末202に送信する。
以上説明した通り、本実施形態に係るセンサノード端末201は、マイクが間欠的に動作するとともに、ユーザの行動状態が非発話状態の場合にはマイクが動作しない。したがて、本実施形態に依れば、センサノード端末201の消費電力を低減し、動作時間を長期化することができる。これにより、バッテリやセンサノード端末201の小型化も可能になる。
なお、本実施形態に係る処理システム200において、センサノード端末201、ホスト端末202、及びサーバ203がそれぞれ備える機能構成は、図6に限られない。例えば、音声情報検出部6、非音声特徴量算出部7、及び音声特徴量算出部9は、センサノード端末201ではなく、ホスト端末202が備えてもよい。また、ストレス推定部11は、サーバ203ではなく、ホスト端末202が備えてもよい。さらに、ホスト端末202を備えず、サーバ203が第2行動状態判定部8及び発話情報算出部10を備えてもよい。
(第2実施形態)
第2実施形態に係る処理装置100について、図7及び図8を参照して説明する。図7は、本実施形態に係る処理装置100の機能構成を示すブロック図である。図7に示すように、処理装置100は、音声情報検出部6が音情報取得部5を制御すると共に、感情認識部12を更に備える。他の構成は第1実施形態と同様である。
第2実施形態に係る処理装置100について、図7及び図8を参照して説明する。図7は、本実施形態に係る処理装置100の機能構成を示すブロック図である。図7に示すように、処理装置100は、音声情報検出部6が音情報取得部5を制御すると共に、感情認識部12を更に備える。他の構成は第1実施形態と同様である。
本実施形態において、音声情報検出部6は、音情報から音声情報を検出した場合、音声情報を検出していない場合に比べて、音情報取得部5による音情報の取得間隔を短くする。これにより、ユーザの発話時の音声情報を効率的に取得することができる。
感情認識部12は、音声特徴量算出部9が算出した感情認識のための音声特徴量に基づいて、ユーザの感情認識を行う。感情認識部12は、例えば、ユーザの喜怒哀楽、興奮の度合い、及び声の張りなどのラベルを音声情報に付与する。例えば、声の張りについては、杉浦ら「波形特徴に着目した声の張りパラメータに関する検討」日本音響学会講演論文集(2008年9月)などを用いる。感情認識部12は、第2プロセッサP2により構成されるのが好ましい。
次に、本実施形態に係る処理装置100の動作について、図8を参照して説明する。図8は、本実施形態に係る処理装置100の動作を示すフローチャートである。図8に示すように、本実施形態に係る処理装置100の動作は、ステップS15,16,S17をさらに備える。他の処理は第1実施形態と同様である。
本実施形態において、音情報から音声情報が検出された場合(ステップS10のYES)、処理はステップS16に進む。ステップS16において、音情報検出部6は、音情報取得部5による音情報の取得間隔を、音声情報を検出した場合の短い取得間隔に制御する。
そして、音声特徴量算出部9が音声特徴量を算出した後(ステップS11)、ステップ17において、感情認識部12は、算出された音声特徴量からユーザの感情認識を行い、処理はステップS12に進む。
これに対して、音情報から音声情報が検出されなかった場合(ステップS10のNO)、処理はステップS15に進む。ステップS15において、音情報検出部6は、音情報取得部5による音情報の取得間隔を、音声情報を検出しなかった場合(非音声情報を検出した場合)の長い取得間隔に制御する。その後、処理はステップS13に進む。
以上説明した通り、本実施形態に係る処理装置100は、音声情報が検出された場合、音情報の取得間隔を短くする。これにより、音声情報を効率的に取得することができる。また、感情認識部12により、ユーザの感情認識をすることができる。
なお、本実施形態において、ステップS16の処理は、音情報から音声情報が検出された場合、ステップS10からステップS5までの間の任意のタイミングで行うことができる。また、ステップS17の処理は、ステップ11からステップS5までの間の任意のタイミングで行うことができる。
さらに、本実施形態に係る処理システム200は、ホスト端末202が感情認識部12を備えてもよいし、サーバ203が感情認識部を備えてもよい。
(第3実施形態)
第3実施形態に係る処理装置100について、図9を参照して説明する。図9は、本実施形態に係る処理装置100の機能構成を示すブロック図である。図9に示すように、処理装置100は、睡眠状態判定部13と、いびき検出部14と、を更に備える。他の構成は第1実施形態と同様である。
第3実施形態に係る処理装置100について、図9を参照して説明する。図9は、本実施形態に係る処理装置100の機能構成を示すブロック図である。図9に示すように、処理装置100は、睡眠状態判定部13と、いびき検出部14と、を更に備える。他の構成は第1実施形態と同様である。
睡眠状態判定部13は、動き情報取得部1が取得したユーザの動き情報に基づいて、ユーザの眠りの深さを判定する。睡眠状態判定部13は、例えば、動き情報からユーザの体動量などの特徴量を算出し、算出した特徴量に基づいて、ユーザの眠りが浅いか深いかを判定することができる。
睡眠状態判定部13は、睡眠判定部2の判定結果を取得し、ユーザが睡眠中の場合のみ、ユーザの眠りの深さを判定する。したがって、睡眠判定部2によりユーザは覚醒中と判定された場合、睡眠状態判定部13は動作しない。睡眠状態判定部13は、第1プロセッサP1により構成されるのが好ましい。
第1実施形態において、制御部4は、ユーザが睡眠中の場合、音情報取得部5及び第2プロセッサP2を停止させたが、本実施形態では、制御部4は、ユーザが睡眠中であっても、睡眠状態判定部13がユーザの眠りは浅いと判定した場合、音情報取得部5、音声情報検出部6、音声特徴量算出部9、及びいびき検出部14を動作させる。
いびき検出部14は、音声特徴量算出部9が算出したいびき検出のための音声特徴量に基づいて、ユーザのいびきを検出する。このような音声特徴量として、フォルマント周波数、エンベロープ、ピーク周波数などが挙げられる。いびき検出部14は、第2プロセッサP2により構成されるのが好ましい。
次に、本実施形態に係る処理装置100の動作について、図10を参照して説明する。図10は、本実施形態に係る処理装置100の動作を示すフローチャートである。図10に示すように、本実施形態に係る処理装置の動作は、ステップS18〜ステップS23を更に備える。他の処理は第1実施形態と同様である。
本実施形態において、ユーザが睡眠中の場合(ステップS3のYES)、処理はステップS18に進む。ステップS18において、睡眠状態判定部13は、ユーザの眠りの深さを判定する。ユーザの眠りが深い場合(ステップS18のYES)、処理はステップS4に進み、ユーザの眠りが浅い場合(ステップS18のNO)、処理はステップS19に進む。
ステップS19において、音情報取得部5は、所定の取得タイミングに音情報を取得する。すなわち、マイクにより集音し、マイクの出力信号にAD変換などの所定の処理を施し、音情報を生成する。
次に、ステップS20において、音声情報検出部6が、音情報から音声情報を検出する。音声情報検出部6によって音声情報が検出されなかった場合(ステップS21のNO)、処理はステップS5に進み、音声情報が検出された場合(ステップS21のYES)、処理はステップS22に進む。
音声情報が検出された場合、ステップS22において、音声特徴量算出部9は、音声情報からいびきを検出するための音声特徴量を算出する。
そして、ステップS23において、いびき検出部14は、音声特徴量からいびきを検出する。その後、処理はステップS5に進む。
以上説明した通り、本実施形態に係る処理装置100は、ユーザの眠りが浅い場合に、音声特徴量からユーザのいびきを検出する。睡眠時無呼吸症候群(SAS)の患者は、声帯を使ったいびきをかく。このため、本実施形態に係る処理装置100を用いてユーザのいびきを検出して集音することにより、睡眠時無呼吸症候群の診断を行うことができる。
なお、本実施形態に係る処理システム200は、ホスト端末202がいびき検出部14を備えてもよいし、サーバ203がいびき検出部14を備えてもよい。
なお、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、各実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。
1:動き情報取得部、2:睡眠判定部、3:第1行動状態判定部、4:制御部、5:音情報取得部、6:音声情報検出部、7:非音声特徴量算出部、8:第2行動状態判定部、9:音声特徴量算出部、10:発話情報算出部、11:ストレス推定部、12:感情認識部、13:睡眠状態判定部、14:いびき検出部、100:音情報処理装置、101:CPU、102:入力インターフェース、103:表示装置、104:通信装置、105:主記憶装置、107:バス、P1:第1プロセッサ、P2:第2プロセッサ、200:音情報処理システム、201:センサノード端末、202:ホスト端末、203:サーバ
Claims (16)
- ユーザの動き情報を取得する動き情報取得部と、
前記動き情報に基づいて、前記ユーザが睡眠中か判定する睡眠判定部と、
前記ユーザが覚醒中の場合に、前記動き情報に基づいて、前記ユーザの行動状態を判定する第1行動状態判定部と、
前記ユーザの周囲の音情報を間欠的に取得する音情報取得部と、
前記睡眠判定部及び前記第1行動状態判定部の判定結果に基づいて、前記音情報取得部を制御する制御部と、
を備える音情報処理装置。 - 前記音情報から音声情報を検出する音声情報検出部を更に備える
請求項1に記載の音情報処理装置。 - 前記音情報に含まれる前記音声情報の特徴量を算出する音声特徴量算出部を更に備える
請求項1又は請求項2に記載の音情報処理装置。 - 前記音情報に含まれる非音声情報の特徴量を算出する非音声特徴量算出部を更に備える
請求項1〜請求項3のいずれか1項に記載の音情報処理装置。 - 前記制御部は、前記ユーザが睡眠中の場合、前記音声情報取得部の動作を停止させる
請求項1〜請求項4のいずれか1項に記載の音情報処理装置。 - 前記制御部は、前記ユーザが睡眠中の場合、前記音声情報検出部、前記音声特徴量算出部、及び前記非音声特徴量算出部の少なくとも1つの動作を停止させる
請求項2〜請求項5のいずれか1項に記載の音情報処理装置。 - 前記睡眠判定部、前記第1行動状態判定部、及び前記制御部の少なくとも1つを構成する第1プロセッサと、
前記音声情報検出部、前記音声特徴量算出部、及び前記非音声特徴量算出部の少なくとも1つを構成する第2プロセッサと、
を備える請求項1〜請求項6のいずれか1項に記載の音情報処理装置。 - 前記音声情報検出部は、前記音声情報の検出結果に基づいて、前記音情報取得部による前記音情報の取得間隔を制御する
請求項2〜請求項7のいずれか1項に記載の音情報処理装置。 - 前記音声情報検出部は、前記音声情報を検出した場合、前記音声情報を検出しない場合に比べて、前記音情報取得部による前記音情報の取得間隔を短くする
請求項2〜請求項8のいずれか1項に記載の音情報処理装置。 - 前記ユーザが睡眠中の場合、前記動き情報に基づいて、前記ユーザの眠りの深さを判定する睡眠状態判定部を更に備える
請求項1〜請求項9のいずれか1項に記載の音情報処理装置。 - 前記音声特徴量に基づいて、発話情報を算出する発話情報算出部を更に備える
請求項3〜請求項10のいずれか1項に記載の音情報処理装置。 - 前記非音声特徴量に基づいて、前記ユーザの行動状態を判定する第2行動状態判定部を更に備える
請求項4〜請求項11のいずれか1項に記載の音情報処理装置。 - 前記発話情報に基づいて、前記ユーザのストレスを推定するストレス推定部を更に備える。
請求項11又は請求項12に記載の音情報処理装置。 - 前記音声特徴量に基づいて、感情認識を行う感情認識部を更に備える
請求項3〜請求項13のいずれか1項に記載の音情報処理装置。 - 前記音声特徴量に基づいて、いびきを検出するいびき検出部を更に備える
請求項3〜請求項13のいずれか1項に記載の音情報処理装置。 - 請求項1〜請求項10のいずれか1項に記載の音情報処理装置と、
前記非音声特徴量に基づいて前記ユーザの行動状態を判定する第2行動状態判定部、前記音声特徴量に基づいて発話情報を算出する発話情報算出部、前記音声特徴量に基づいて感情認識を行う感情認識部、及び前記音声特徴量に基づいていびきを検出するいびき検出部の少なくとも1つを備えるホスト端末と、
を備える音情報処理システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014192750A JP6258172B2 (ja) | 2014-09-22 | 2014-09-22 | 音情報処理装置及びシステム |
PCT/JP2015/076103 WO2016047494A1 (ja) | 2014-09-22 | 2015-09-15 | 生体情報測定装置及びシステム |
US15/444,620 US10849569B2 (en) | 2014-09-22 | 2017-02-28 | Biological information measurement device and system |
US17/083,545 US20210038168A1 (en) | 2014-09-22 | 2020-10-29 | Biological information measurement device and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014192750A JP6258172B2 (ja) | 2014-09-22 | 2014-09-22 | 音情報処理装置及びシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016059765A JP2016059765A (ja) | 2016-04-25 |
JP6258172B2 true JP6258172B2 (ja) | 2018-01-10 |
Family
ID=55796706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014192750A Active JP6258172B2 (ja) | 2014-09-22 | 2014-09-22 | 音情報処理装置及びシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6258172B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016047494A1 (ja) | 2014-09-22 | 2016-03-31 | 株式会社 東芝 | 生体情報測定装置及びシステム |
JP6569992B2 (ja) * | 2016-05-02 | 2019-09-04 | パナソニックIpマネジメント株式会社 | 認知症情報出力システム及び制御プログラム |
CN112135564B (zh) * | 2018-05-23 | 2024-04-02 | 松下知识产权经营株式会社 | 摄食吞咽功能评价方法、记录介质、评价装置以及评价系统 |
JP7174589B2 (ja) * | 2018-10-10 | 2022-11-17 | 大和ハウス工業株式会社 | 健康状態判定システム |
CN110367934B (zh) * | 2019-07-25 | 2023-02-03 | 深圳大学 | 一种基于非语音身体声音的健康监测方法及监测系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006263054A (ja) * | 2005-03-23 | 2006-10-05 | Konica Minolta Sensing Inc | 呼吸器系疾患関連解析データの取得方法、オキシメータシステム及びその動作プログラム、オキシメータ並びに酸素補給システム |
JP2008043356A (ja) * | 2006-08-10 | 2008-02-28 | A & D Co Ltd | 血圧監視装置 |
JP5166316B2 (ja) * | 2009-02-20 | 2013-03-21 | 株式会社東芝 | 状況認識装置及び状況認識方法 |
JP5552853B2 (ja) * | 2010-03-17 | 2014-07-16 | セイコーエプソン株式会社 | 生体情報測定装置、生体情報測定方法、および生体情報測定プログラム |
JP5788251B2 (ja) * | 2011-07-25 | 2015-09-30 | オムロンヘルスケア株式会社 | 睡眠時情報検出装置および睡眠時情報検出装置における検出方法 |
JP2013150660A (ja) * | 2012-01-24 | 2013-08-08 | Rohm Co Ltd | 睡眠センサ |
-
2014
- 2014-09-22 JP JP2014192750A patent/JP6258172B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016059765A (ja) | 2016-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6258172B2 (ja) | 音情報処理装置及びシステム | |
CN108366732B (zh) | 困倦起始检测 | |
JP4917373B2 (ja) | 生体情報推定装置及びそれを搭載した電子機器 | |
US8712760B2 (en) | Method and mobile device for awareness of language ability | |
Benba et al. | Voiceprints analysis using MFCC and SVM for detecting patients with Parkinson's disease | |
EP3918535A1 (en) | Efficient wellness measurement in ear-wearable devices | |
Ma et al. | Oesense: employing occlusion effect for in-ear human sensing | |
US10083397B2 (en) | Personalized intelligent wake-up system and method based on multimodal deep neural network | |
US20180018985A1 (en) | System and method for detecting repetitive speech | |
US11800996B2 (en) | System and method of detecting falls of a subject using a wearable sensor | |
US20210038168A1 (en) | Biological information measurement device and system | |
Schuller et al. | Automatic recognition of physiological parameters in the human voice: Heart rate and skin conductance | |
JP2004310034A (ja) | 対話エージェントシステム | |
JP2006071936A (ja) | 対話エージェント | |
JP2009163431A (ja) | コミュニケーション算定装置、会合関数算定装置、会合関数算定方法および会合関数算定用プログラム | |
US20180054688A1 (en) | Personal Audio Lifestyle Analytics and Behavior Modification Feedback | |
US11751813B2 (en) | System, method and computer program product for detecting a mobile phone user's risky medical condition | |
WO2022161067A1 (zh) | 一种睡前状态检测方法及设备 | |
JP6306071B2 (ja) | 推定装置、推定プログラム、推定装置の作動方法および推定システム | |
US11918346B2 (en) | Methods and systems for pulmonary condition assessment | |
Myakala et al. | An intelligent system for infant cry detection and information in real time | |
WO2019198299A1 (ja) | 情報処理装置及び情報処理方法 | |
EP3288035A2 (en) | Personal audio lifestyle analytics and behavior modification feedback | |
WO2020189340A1 (ja) | 情報処理装置および情報処理方法、並びにプログラム | |
Bellodi et al. | Dialogue support for memory impaired people |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171206 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6258172 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |