JP6766346B2 - 情報処理装置、活動状態検出プログラムおよび活動状態検出方法 - Google Patents

情報処理装置、活動状態検出プログラムおよび活動状態検出方法 Download PDF

Info

Publication number
JP6766346B2
JP6766346B2 JP2015234038A JP2015234038A JP6766346B2 JP 6766346 B2 JP6766346 B2 JP 6766346B2 JP 2015234038 A JP2015234038 A JP 2015234038A JP 2015234038 A JP2015234038 A JP 2015234038A JP 6766346 B2 JP6766346 B2 JP 6766346B2
Authority
JP
Japan
Prior art keywords
sound
feature amount
sound data
space
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015234038A
Other languages
English (en)
Other versions
JP2017102612A (ja
Inventor
成幸 小田嶋
成幸 小田嶋
金岡 利知
利知 金岡
勝司 三浦
勝司 三浦
桂樹 岡林
桂樹 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015234038A priority Critical patent/JP6766346B2/ja
Priority to US15/361,948 priority patent/US10109298B2/en
Publication of JP2017102612A publication Critical patent/JP2017102612A/ja
Application granted granted Critical
Publication of JP6766346B2 publication Critical patent/JP6766346B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Description

本発明は、情報処理装置、活動状態検出プログラムおよび活動状態検出方法に関する。
高齢化社会の到来に伴い、独居高齢者の安否を自動的に確認する「見守りサービス」への期待が高まっている。見守りサービスは、家庭内に取り付けたセンサの情報を用いて高齢者の様子を確認するのが一般的である。例えば、ポットに取り付けたセンサを用いた見守り(象印マホービン株式会社「みまもりホットライン」、http://http://www.mimamori.net/)や、家庭内に焦電センサを複数配置した見守り(立山科学グループ「みまもリンク」、https://www.tateyama.jp/mimamolink/outline.html)等がサービス化されている。
しかし、これらの見守り技術のうち、単一のセンサによるもの(例:ポットセンサ)は見守りの検出範囲が狭く、また複数のセンサを用いるものはセンサの設置コストが高いという問題がある。
そこで、ここでは、少ないセンサで広いカバー範囲を実現することのできる、「音情報」を用いた見守り技術について取り扱う。音情報を用いた異常等の検出の技術がいくつか知られている(例えば、特許文献1―6等を参照)。
見守りシステムでは、見守られるユーザ(被見守りユーザ)の「活動状態」と「非活動状態」の判定を行う。具体的には、「活動状態」は、図1の左側に示すように、被見守りユーザが在室し、かつ起床して活動を行っている場合である。人間の行動で出る音から「活動状態」であると認識することができる。「非活動状態」は、図1の右側に示すように、被見守りユーザが不在であるか、在室していても就寝中であるとか静かにしていて音を立てない状態であることを指す。機械(洗濯機、ファン)等の出す音から「非活動状態」であると認識することができる。
これらの「活動状態」「非活動状態」の認識は、例えば被見守りユーザが倒れていることの検出や、夜間の徘徊の検出等、見守りサービスの実現に有用な情報を提供する。なお、部屋の外の音、例えば雨音や自動車の音が鳴っていたとしても、部屋の中で人間が活動していなければ「非活動」として検出するのが好ましい。
特開2011−237865号公報 特開2004−101216号公報 特開2013−225248号公報 特開2000−275096号公報 特開2015−108990号公報 特開平8−329373号公報
上述したように、「活動状態」「非活動状態」の認識は見守りサービスの基本的な情報となるが、人の活動に起因する音と外部の音とを区別できない場合があり、判定精度の向上が求められていた。
そこで、一側面では、人が存在しうる空間での人の活動状態の判定精度を向上することを目的とする。
一つの形態では、情報処理装置が、人が存在しうる空間で収集された第1音を取得する取得手段と、前記第1音を所定の時間幅に分割した各音データの特徴量をそれぞれ抽出する抽出手段と、生活音を所定の時間幅に分割した各音データに対する特徴量がクラスタリングされた結果が記憶された記憶部を参照して、抽出された前記第1音の各音データの特徴量に対応するクラスタをそれぞれ特定する特定手段と、前記第1音の各音データに対応するクラスタの種類数が所定値以上であれば、前記空間で人の活動が行われ、そうでなければ人の活動が行われていないと判定する判定手段と、を有する。
人が存在しうる空間での人の活動状態の判定精度を向上することができる。
活動状態および非活動状態の認識の例を示す図である。 情報処理装置のハードウェア構成例を示す図である。 情報処理装置のソフトウェア構成例を示す図である。 音特徴DBおよび音クラスタDBのデータ構造例を示す図である。 学習時の処理例を示すフローチャートである。 認識時の処理例を示すフローチャートである。 認識時の処理例を示す図である。 「音の多様性」の指標の計算の処理例を示すフローチャート(その1)である。 ヒストグラム上のクラスタの出現と指標の関係の例を示す図(その1)である。 「音の多様性」の指標の計算の処理例を示すフローチャート(その2)である。 ヒストグラム上のクラスタの出現と指標の関係の例を示す図(その2)である。 活動状態の判定の例を示す図である。
以下、本発明の好適な実施形態につき説明する。
<活動状態、非活動状態の検出>
生活音を用い、頑健な活動状態検出を行う方式として、「人間の活動に特有の音」は長時間にわたって生活音を取り続けると僅かであることを利用するものがある。例えば、冷蔵庫のファン音等の人間の活動に関係ない音(背景音)は常時鳴り続ける一方、人間の会話音、食器音等の人間の活動に関係する音(活動音)は、常時鳴り続けるわけではないため、各々の音ごとの頻度を取れば、背景音の頻度は高く、活動音の頻度は低くなることが想定される。そこで、学習データ中での頻度が低い活動音が多数検出された場合に活動状態と検出することができる。
「音の種類」はクラスタリング処理によって自動的に抽出することができるため、予め家庭環境で長時間の生活音を蓄積し、クラスタリング処理を行った上でクラスタ毎の頻度を算出して学習処理を行う。認識時には入力音をクラスタとの対応付けを行って活動音か否かを判定することで、「音の種類」の定義付けなしに活動音の抽出が可能である。一般的に用いられる「特定音を検出したら活動と見なす」アプローチ(例えば、「咳払いの音」が検出されたら「活動」として検出する)では、各家庭環境の差に頑健になるために細かな網羅的な定義付(例えば「金属のドア」「木のドア」等)が必要となる。また、その細かな定義付に対応する大量の音データが必要になるため、事実上は環境の差異に頑健とすることは困難である。前述した頻度に基づいて活動音を背景音から区別する方式では、音の種類の定義付を回避できるため、環境の差に頑健としやすいという利点がある。なお、活動検出時のロバスト性(頑健性)を高めるため、一定時間の時間幅(例えば10分間)での活動音検出数をカウントし、活動音検出数が一定以上の場合に「活動」と検出する。
しかし、上述した方式では、例えば雨音のように、普段は頻度が低いが、活動に関係なく低頻度の音が多数出る場合があり、その場合に活動状態であると誤検出してしまう問題がある。例えば、人が不在の時間帯と雨の時間帯が重なった場合、活動状態であると誤検出してしまい、状態を正確に検出できなくなる。雨の時間帯を活動状態であると誤検出しないようにする方針として、単純には「雨音」を多く含むような学習データを与え、頻度を再計算する方法も考えられる。しかし、背景音として扱うべき「雨音」は活動音として扱うべき音に類似した「水道音」があるため(両者は同じ「水音」である)、「雨音」を背景音として頑健に認識することは難しい。従って、学習データの変更による解決は困難である。
そこで、上述した問題を回避するため、音情報を用いて生活者の活動状態を判定するシステムにおいて、一定時間内に観測された音の多様性を指標として活動状態を判定する手法を開示する。これは、例えば活動と見なすべき「皿洗い」時は、水音(水道音)以外にも食器音や蛇口音などの多種の音がする可能性が高い一方、背景音と見なすべき「雨」の時は、人が活動していなければ水音(雨音)しかしないことが期待される。そのため、活動音と背景音(非活動音)を見分ける基準として、多種の音がしているか否かが重要な手がかりとなることが期待されるからである。
より具体的には、生活音を用いてユーザの活動状態を認識するシステムにおいて、一定時間内の音の多様性に基づき、活動状態を判定する。実施例としては、音の多様性として、一定時間ウィンドウ内のクラスタの種類数を用いることが可能である。この方式により、天候等で雨音のような低頻度の音が一時的に多数出る場合において「活動状態」と誤検出することを防止することができる。更に、音の多様性として、正規化されたヒストグラムのp次ノルム(0<p<1)を用いることにより、頑健性を増した活動検出手法を提供する。詳細については、以下に説明する。
<構成>
図2は活動状態検出装置を構成する情報処理装置1のハードウェア構成例を示す図である。図2において、情報処理装置1は、汎用コンピュータ、ワークステーション、デスクトップ型PC(パーソナルコンピュータ)、ノートブック型PC等である。情報処理装置1は、CPU(Central Processing Unit)11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、大容量記憶装置14、入力部15、出力部16、通信部(送信部)17、読取部18を含む。各構成要素はバスで接続されている。
CPU11はROM13に記憶された制御プログラム1Pに従いハードウェア各部を制御する。RAM12は例えばSRAM(Static RAM)、DRAM(Dynamic RAM)、フラッシュメモリ等である。RAM12はCPU11によるプログラムの実行時に使用するデータを一時的に記憶する。
大容量記憶装置14は、例えばHDD(Hard Disk Drive)、SSD(Solid State Drive)等である。大容量記憶装置14には、後述する各種データベースが記憶される。また、制御プログラム1Pを大容量記憶装置14に記憶するようにしておいてもよい。
入力部15は情報処理装置1にデータを入力するためのキーボート、マウス等を含む。また、生活音を収集する例えばマイク15aが接続され、マイク15aから収集された生活音は電気信号となり、入力部15に入力される。なお、本明細書において、「音」とは、空気中の振動をマイクで取得する狭義の「音」に限らず、例えば空気中、物質中、液体中を伝搬する「振動」を、例えばマイクやピエゾ素子、レーザ微小変位計といった測定装置で計測した場合も含む広義の概念である。
出力部16は情報処理装置1の画像出力を表示装置16aに、音声出力をスピーカ等に行うためのものである。
通信部17はネットワークを介して、他のコンピュータと通信を行う。読取部18はCD(Compact Disk)−ROM、DVD(Digital Versatile Disc)−ROMを含む可搬型記憶媒体1Mを読み取る。CPU11が読取部18を介して、制御プログラム1Pを可搬型記憶媒体1Mより読み取り、大容量記憶装置14に記憶してもよい。また、ネットワークを介して他のコンピュータからCPU11が制御プログラム1Pをダウンロードし、大容量記憶装置14に記憶してもよい。さらにまた、半導体メモリから、CPU11が制御プログラム1Pを読み込んでもよい。
図3は情報処理装置1のソフトウェア構成例を示す図である。図3において、情報処理装置1は、入力部101と特徴算出部103と音特徴DB105と学習部106と音クラスタDB109と活動判定部110と出力部115とを備えている。入力部101は、生活音入力部102を含んでいる。特徴算出部103は、音特徴計算部104を含んでいる。学習部106は、クラスタリング処理部107とクラスタ発生頻度計算部108とを含んでいる。活動判定部110は、音クラスタマッチング部111とヒストグラム計算部112と多様性指標計算部113と活動/非活動判定部114とを含んでいる。出力部115は、活動状態出力部116を含んでいる。
入力部101の生活音入力部102は、マイク15aから収集された音をデータ(音データ)として取得する。また、生活音入力部102は、音データを特徴算出部103に渡す。
特徴算出部103の音特徴計算部104は、音声データを時間ウィンドウにより区切り、区切られた時間毎の音響特徴を示す特徴量を算出する。算出した特徴量は音特徴DB105に記憶する。
図4(a)は音特徴DB105のデータ構造例を示している。音特徴DB105は、タイムスタンプと特徴量の各列を含む。タイムスタンプには、音データのタイムスタンプを記憶する。特徴量には、音データの特徴量の値を記憶する。音データの特徴量としては、次のような値、すなわち、
・音波形そのもの
・音波形をフィルタにかけたもの(例えば、Deep Learningのモデルに入力)
・音の周波数スペクトル(音波形にFFTをかけたもの)
・メルスペクトル特徴量(スペクトル)
・MFCC特徴量(ケプストラム)
・PLP特徴量(ケプストラム)
・ゼロクロッシングレート(音波形がゼロ点を交差した回数)
・音量(平均、最大値、実効値等)
等を用いることができる。
図3に戻り、学習部106のクラスタリング処理部107は、所定期間毎、音特徴DB105が更新される毎などのタイミングで、音特徴DB105が記憶している特徴量をクラスタリングする。クラスタ発生頻度計算部108は、各クラスタの発生頻度を計算し、音クラスタDB109に記憶する。なお、各クラスタの発生頻度は、活動音と背景音とを区別するために用いることができるが、後続の処理において活動音と背景音とを区別する必要がない場合は、計算を省略することができる。
図4(b)は音クラスタDB109のデータ構造例を示している。音クラスタDB109は、クラスタID、特徴量、発生頻度の各列を含む。クラスタIDは各クラスタを特定するIDを記憶する。特徴量は各クラスタの特徴量、すなわち、各クラスタの中心座標やクラスタに含まれるデータの中央値などのクラスタの代表値を記憶する。発生頻度は各クラスタの発生頻度を記憶する。発生頻度の計算を省略する場合は、発生頻度の項目はなくなる。
図3に戻り、活動判定部110の音クラスタマッチング部111は、認識時において音特徴計算部104より受け取った特徴量と音クラスタDB109に記憶してある各クラスタの特徴量とのマッチングを行い、処理対象となっている音が所属すべきクラスタを決定し、クラスタのIDを出力する。
ヒストグラム計算部112は、所定時間内において出現するクラスタのID毎に出現回数を計数する。多様性指標計算部113は、ヒストグラム計算部112により計数されたクラスタのID毎の出現回数から、音の多様性の指標を計算する。音の多様性の指標の詳細は後述する。活動/非活動判定部114は、多様性指標計算部113により計算された音の多様性の指標の値から、活動状態であるか非活動状態であるかを判定する。
出力部115の活動状態出力部116は、活動判定部110の多様性指標計算部113により判定された「活動状態」「非活動状態」を外部に出力する。例えば、ネットワーク2を介して予め登録されたアドレスの端末装置3(スマートフォン、PC等)に「活動状態」であるか「非活動状態」であるかを通知する。
なお、図3では、情報処理装置1として、いわゆるスタンドアロンの構成について説明したが、機能の一部をクラウド構成(ネットワーク上のサーバによる処理を利用する構成)とすることができる。入力部101は物理的に設置されるマイク15aとの結びつきが強いため、特徴算出部103以降の任意の部分をクラウド側の処理に委ねることができる。
<動作>
図5は学習時の処理例を示すフローチャートである。図5において、特徴算出部103の音特徴計算部104は、入力部101の生活音入力部102からリアルタイムに出力される音データまたは予め蓄積された音データを入力する。そして、音特徴計算部104は、音データを一定時間区切りの時間窓に分割し、音響特徴を抽出し、特徴量を音特徴DB105に記憶する(ステップS11)。
次いで、学習部106のクラスタリング処理部107は、音特徴DB105に記憶された特徴量に基づき、クラスタリング処理を行い、似通った音響特徴のクラスタを抽出する(ステップS12)。
次いで、クラスタ発生頻度計算部108は、クラスタ毎の発生頻度を計算する(ステップS13)。抽出したクラスタおよび発生頻度は音クラスタDB109に記憶する。
図6は認識時の処理例を示すフローチャートである。図6において、特徴算出部103の音特徴計算部104は、入力部101の生活音入力部102からリアルタイムに出力される音データと学習済のクラスタ(音クラスタDB109)を入力する。そして、音特徴計算部104は、音データを一定時間区切りの時間窓に分割し、音響特徴を抽出し、特徴量を活動判定部110に渡す(ステップS21)。図7(a)は、音データから特徴量を抽出する様子を示している。
次いで、図6に戻り、活動判定部110の音クラスタマッチング部111は、特徴算出部103から渡された特徴量の示す音響特徴に基づいて音クラスタDB109に記憶されたクラスタと対応付け(マッチング)を行い、最近傍のクラスタを抽出する(ステップS22)。図7(b)は、特徴量をクラスタにマッチングする様子を示している。
次いで、図6に戻り、ヒストグラム計算部112は、一定時間幅で、割り当てられた最近傍クラスタのヒストグラムを計算する(ステップS23)。図7(c)は、クラスタごとの頻度を示すヒストグラムの例を示している。
次いで、図6に戻り、多様性指標計算部113は、ヒストグラムに基づいて「音の多様性」の指標を計算する(ステップS24)。なお、ヒストグラムには、活動音に基づくクラスタの出現と背景音に基づくクラスタの出現とが含まれ、両者を区別なく「音の多様性」の指標を計算してもよいし、活動音に基づくクラスタの出現のみに基づいて「音の多様性」の指標を計算してもよい。活動音と背景音を区別するには、クラスタ発生頻度計算部108により計算された各クラスタの発生頻度を用いることができる。「音の多様性」の指標の計算の詳細については後述する。
次いで、活動/非活動判定部114は、ヒストグラムから計算された「音の多様性」の指標が所定の閾値以上であるか否か判断し(ステップS25)、閾値以上であると判断した場合(ステップS25のYes)は「活動状態」と判断し(ステップS26)、閾値以上でないと判定した場合(ステップS25のNo)は「非活動状態」と判定する(ステップS27)。
[音の多様性の指標の計算例(その1)]
図8は「音の多様性」の指標の計算の処理例を示すフローチャートであり、音の多様性の指標として、一定時間ウィンドウ内のクラスタの種類数(一定時間内の時間ウィンドウ内に1回以上出現したクラスタの数)を求めるようにしたものである。
図8において、多様性指標計算部113は、ヒストグラム計算部112が計算したヒストグラムを入力とし(ステップS31)、変数Resultに「0」を設定する(ステップS32)。
次いで、多様性指標計算部113は、ヒストグラムのビンのうちの一つの値を取り出し(ステップS33)、ビンの値が0より大きいか否か判断する(ステップS34)。
多様性指標計算部113は、ビンの値が0より大きいと判断した場合(ステップS34のYes)は、変数Resultをインクリメント(1加算)する(ステップS35)。
多様性指標計算部113は、ビンの値が0より大きくないと判断した場合(ステップS34のNo)および変数Resultのインクリメント(ステップS35)の後、ヒストグラムの全てのビンを取り出したか否か判断し(ステップS36)、取り出していない場合はヒストグラムのビンのうちの一つの値の取り出し(ステップS33)から処理を繰り返す。多様性指標計算部113は、ヒストグラムの全てのビンを取り出した場合、変数Resultを音の多様性の指標として出力する(ステップS37)。
[音の多様性の指標の計算例(その2)]
上述した一定時間ウィンドウ内のクラスタの種類数を音の多様性の指標とする場合、入力される音データにノイズが含まれる場合に脆弱な面がある。図9は、ヒストグラムから出現したクラスタ数を計算した例を示している。図9(a)は1クラスタに集中して出現している場合(出現したクラスタ数:1)、図9(c)は4クラスタに等分散に出現している場合(出現したクラスタ数:4)であり、それぞれの出現したクラスタ数は大きく異なる値となっている。
しかし、図9(b)は殆どが1つのクラスタに集中して出現した一方、他クラスタにもごく少数出現した場合となり、直感的には図9(a)と図9(c)の中間程度の値となるはずであるが、出現クラスタ数は「4」となり、図9(c)のクラスタが等分散した場合と同じになる。従って、この計算方法では「特定のクラスタに集中したが、他のクラスタもごく少数出た場合」と「全てのクラスタが等しく出現した場合」を見分けることができず、突発的にノイズ音がした場合の影響を強く受けることとなる。
そこで、この問題に対応するため、音の多様性の指標として、クラスタのヒストグラムの次数が1未満のp次ノルムを用いる方式を開示する。p次ノルムは、
||x||=|x|+|x|+・・・+|x|
で計算される。ただし、xは、ヒストグラムのi番目のビンの値である。
p次ノルムは、非ゼロの成分の個数を大きく反映する一方、各成分の大きさも反映した値を出力するため、「特定のクラスタに集中したが、他のクラスタもごく少数出た場合」と「全てのクラスタが等しく出現した場合」では異なる値を出力することが可能となる。
図10はp次ノルムによる「音の多様性」の指標の計算の処理例を示すフローチャートである。図10において、多様性指標計算部113は、ヒストグラム計算部112が計算したヒストグラムを入力とし(ステップS41)、変数Resultに「0」を設定する(ステップS42)。
次いで、多様性指標計算部113は、ヒストグラムのビンのうちの一つの値を取り出し(ステップS43)、変数Resultにビンの値をp乗したものを加える(ステップS44)。
次いで、多様性指標計算部113は、ヒストグラムの全てのビンを取り出したか否か判断し(ステップS45)、取り出していない場合はヒストグラムのビンのうちの一つの値の取り出し(ステップS43)から処理を繰り返す。多様性指標計算部113は、ヒストグラムの全てのビンを取り出した場合、変数Resultを音の多様性の指標として出力する(ステップS46)。
図11はヒストグラム上のクラスタの出現と指標の関係の例を示す図であり、p=0.1としている。ヒストグラムは図9のクラスタ出現数の場合と同じとしており、図9では(b)と(c)で同じ値が出力されていたが、図11のp次ノルムでは(b)と(c)で異なる値が出力されており、ノイズ頑健性が増していることがわかる。
[活動状態の判定の例]
図12は活動状態の判定の例を示す図であり、横右方向に時間が経過するものとし、(a)に示すように、被見守りユーザが睡眠→不在→睡眠という状態にあり、不在の前半において雨が降ったとする。
図12(b)はp次ノルムによる音の多様性の指標の変化を示しており、所定の閾値を超えた時点(起床、帰宅、入室、トイレ、起床)で活動状態が検出されている。なお、出現したクラスタの種類数を用いた場合についても、ノイズ音による影響が若干加わるが、指標の変化は同様となる。
図12(c)は、比較のために、頻度から活動音と認識された特徴音の所定時間内の個数の変化を示しており、帰宅、入出といった活動状態は正確に認識されているが、雨の時間帯において雨音を活動音と認識したため、活動指標が高くなってしまっている。そのため、不在時にもかかわらず活動状態と誤検出される可能性が高い。この点、図12(b)では、雨の時間帯における指標は低い値に保たれ、帰宅/入室などの活動を検出すべき箇所では指標が高くなっており、活動を頑健に検出できていることがわかる。
<総括>
以上説明したように、本実施形態によれば、人が存在しうる空間での人の活動状態の判定精度を向上することができる。
以上、好適な実施の形態により説明した。ここでは特定の具体例を示して説明したが、特許請求の範囲に定義された広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により限定されるものと解釈してはならない。
以上の説明に関し、更に以下の項を開示する。
(付記1)
人が存在しうる空間で収集された音を取得する取得手段と、
所定の時間幅に対する前記音の特徴量を抽出する抽出手段と、
抽出された前記特徴量の成分を基に、特徴量ごとに特徴量の成分と識別子とが対応付けられた記憶部を参照して、抽出された前記特徴量に対応する識別子を特定する特定手段と、
複数の前記特徴量での前記識別子の出現パターンを計数すると共に、該出現パターンの種類の数を計数する計数手段と、
前記種類の数が所定値以上であれば、前記空間で人の活動が行われ、そうでなければ人の活動が行われていないと判定する判定手段と、
を有することを特徴とする情報処理装置。
(付記2)
人が存在しうる空間で収集された音を取得する取得手段と、
所定の時間幅に対する前記音の特徴量を抽出する抽出手段と、
抽出された前記特徴量の成分を基に、特徴量ごとに特徴量の成分と識別子とが対応付けられた記憶部を参照して、抽出された前記特徴量に対応する識別子を特定する特定手段と、
複数の前記特徴量での前記識別子の出現パターンを計数すると共に、該出現パターンごとの数のp次ノルムの値を計算する計算手段と、
前記p次ノルムの値が所定値以上であれば、前記空間で人の活動が行われ、そうでなければ人の活動が行われていないと判定する判定手段と、
を有することを特徴とする情報処理装置。
(付記3)
前記判定手段の判定結果を所定の端末装置に通知する通知手段
を有することを特徴とする付記1または2に記載の情報処理装置。
(付記4)
人が存在しうる空間で収集された音を取得し、
所定の時間幅に対する前記音の特徴量を抽出し、
抽出された前記特徴量の成分を基に、特徴量ごとに特徴量の成分と識別子とが対応付けられた記憶部を参照して、抽出された前記特徴量に対応する識別子を特定し、
複数の前記特徴量での前記識別子の出現パターンを計数すると共に、該出現パターンの種類の数を計数し、
前記種類の数が所定値以上であれば、前記空間で人の活動が行われ、そうでなければ人の活動が行われていないと判定する、
処理をコンピュータに実行させることを特徴とする活動状態検出プログラム。
(付記5)
人が存在しうる空間で収集された音を取得し、
所定の時間幅に対する前記音の特徴量を抽出し、
抽出された前記特徴量の成分を基に、特徴量ごとに特徴量の成分と識別子とが対応付けられた記憶部を参照して、抽出された前記特徴量に対応する識別子を特定し、
複数の前記特徴量での前記識別子の出現パターンを計数すると共に、該出現パターンごとの数のp次ノルムの値を計算し、
前記p次ノルムの値が所定値以上であれば、前記空間で人の活動が行われ、そうでなければ人の活動が行われていないと判定する、
処理をコンピュータに実行させることを特徴とする活動状態検出プログラム。
(付記6)
前記判定する処理の判定結果を所定の端末装置に通知する、
処理をコンピュータに実行させることを特徴とする付記4または5に記載の活動状態検出プログラム。
(付記7)
人が存在しうる空間で収集された音を取得し、
所定の時間幅に対する前記音の特徴量を抽出し、
抽出された前記特徴量の成分を基に、特徴量ごとに特徴量の成分と識別子とが対応付けられた記憶部を参照して、抽出された前記特徴量に対応する識別子を特定し、
複数の前記特徴量での前記識別子の出現パターンを計数すると共に、該出現パターンの種類の数を計数し、
前記種類の数が所定値以上であれば、前記空間で人の活動が行われ、そうでなければ人の活動が行われていないと判定する、
処理をコンピュータが実行することを特徴とする活動状態検出方法。
(付記8)
人が存在しうる空間で収集された音を取得し、
所定の時間幅に対する前記音の特徴量を抽出し、
抽出された前記特徴量の成分を基に、特徴量ごとに特徴量の成分と識別子とが対応付けられた記憶部を参照して、抽出された前記特徴量に対応する識別子を特定し、
複数の前記特徴量での前記識別子の出現パターンを計数すると共に、該出現パターンごとの数のp次ノルムの値を計算し、
前記p次ノルムの値が所定値以上であれば、前記空間で人の活動が行われ、そうでなければ人の活動が行われていないと判定する、
処理をコンピュータが実行することを特徴とする活動状態検出方法。
(付記9)
前記判定する処理の判定結果を所定の端末装置に通知する、
処理をコンピュータが実行することを特徴とする付記7または8に記載の活動状態検出方法。
生活音入力部102は「取得手段」の一例である。音特徴計算部104は「抽出手段」の一例である。音クラスタマッチング部111は「特定手段」の一例である。ヒストグラム計算部112および多様性指標計算部113は「計数手段」の一例である。活動/非活動判定部114は「判定手段」の一例である。活動状態出力部116は「通知手段」の一例である。
1 情報処理装置
11 CPU
12 RAM
13 ROM
14 大容量記憶装置
15 入力部
15a マイク
16 出力部
16a 表示装置
17 通信部
18 読取部
1P 制御プログラム
1M 可搬型記憶媒体
101 入力部
102 生活音入力部
104 音特徴計算部
105 音特徴DB
106 学習部
107 クラスタリング処理部
108 クラスタ発生頻度計算部
109 音クラスタDB
110 活動判定部
111 音クラスタマッチング部
112 ヒストグラム計算部
113 多様性指標計算部
114 活動/非活動判定部
115 出力部
116 活動状態出力部
2 ネットワーク
3 端末装置

Claims (7)

  1. 人が存在しうる空間で収集された第1音を取得する取得手段と、
    前記第1音を所定の時間幅に分割した各音データの特徴量をそれぞれ抽出する抽出手段と、
    生活音を所定の時間幅に分割した各音データに対する特徴量がクラスタリングされた結果が記憶された記憶部を参照して、抽出された前記第1音の各音データの特徴量に対応するクラスタをそれぞれ特定する特定手段と、
    前記第1音の各音データに対応するクラスタの種類数が所定値以上であれば、前記空間で人の活動が行われ、そうでなければ人の活動が行われていないと判定する判定手段と、
    を有することを特徴とする情報処理装置。
  2. 人が存在しうる空間で収集された第1音を取得する取得手段と、
    前記第1音を所定の時間幅に分割した各音データの特徴量をそれぞれ抽出する抽出手段と、
    生活音を所定の時間幅に分割した各音データに対する特徴量がクラスタリングされた結果が記憶された記憶部を参照して、抽出された前記第1音の各音データの特徴量に対応するクラスタをそれぞれ特定する特定手段と、
    前記特定手段により特定された各クラスタの出現数をそれぞれ所定数乗した値の合計値が所定値以上であれば、前記空間で人の活動が行われ、そうでなければ人の活動が行われていないと判定する判定手段と、
    を有することを特徴とする情報処理装置。
  3. 前記判定手段の判定結果を所定の端末装置に通知する通知手段
    を有することを特徴とする請求項1または2に記載の情報処理装置。
  4. 人が存在しうる空間で収集された第1音を取得する取得し、
    前記第1音を所定の時間幅に分割した各音データの特徴量をそれぞれ抽出し、
    生活音を所定の時間幅に分割した各音データに対する特徴量がクラスタリングされた結果が記憶された記憶部を参照して、抽出された前記第1音の各音データの特徴量に対応するクラスタをそれぞれ特定し、
    前記第1音の各音データに対応するクラスタの種類数が所定値以上であれば、前記空間で人の活動が行われ、そうでなければ人の活動が行われていないと判定する、
    処理をコンピュータに実行させることを特徴とする活動状態検出プログラム。
  5. 人が存在しうる空間で収集された第1音を取得し、
    前記第1音を所定の時間幅に分割した各音データの特徴量をそれぞれ抽出し、
    生活音を所定の時間幅に分割した各音データに対する特徴量がクラスタリングされた結果が記憶された記憶部を参照して、抽出された前記第1音の各音データの特徴量に対応するクラスタをそれぞれ特定し、
    特定した各クラスタの出現数をそれぞれ所定数乗した値の合計値が所定値以上であれば、前記空間で人の活動が行われ、そうでなければ人の活動が行われていないと判定する、
    処理をコンピュータに実行させることを特徴とする活動状態検出プログラム。
  6. 人が存在しうる空間で収集された第1音を取得する取得し、
    前記第1音を所定の時間幅に分割した各音データの特徴量をそれぞれ抽出し、
    生活音を所定の時間幅に分割した各音データに対する特徴量がクラスタリングされた結果が記憶された記憶部を参照して、抽出された前記第1音の各音データの特徴量に対応するクラスタをそれぞれ特定し、
    前記第1音の各音データに対応するクラスタの種類数が所定値以上であれば、前記空間で人の活動が行われ、そうでなければ人の活動が行われていないと判定する、
    処理をコンピュータが実行することを特徴とする活動状態検出方法。
  7. 人が存在しうる空間で収集された第1音を取得し、
    前記第1音を所定の時間幅に分割した各音データの特徴量をそれぞれ抽出し、
    生活音を所定の時間幅に分割した各音データに対する特徴量がクラスタリングされた結果が記憶された記憶部を参照して、抽出された前記第1音の各音データの特徴量に対応するクラスタをそれぞれ特定し、
    特定した各クラスタの出現数をそれぞれ所定数乗した値の合計値が所定値以上であれば、前記空間で人の活動が行われ、そうでなければ人の活動が行われていないと判定する、
    処理をコンピュータが実行することを特徴とする活動状態検出方法。
JP2015234038A 2015-11-30 2015-11-30 情報処理装置、活動状態検出プログラムおよび活動状態検出方法 Active JP6766346B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015234038A JP6766346B2 (ja) 2015-11-30 2015-11-30 情報処理装置、活動状態検出プログラムおよび活動状態検出方法
US15/361,948 US10109298B2 (en) 2015-11-30 2016-11-28 Information processing apparatus, computer readable storage medium, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015234038A JP6766346B2 (ja) 2015-11-30 2015-11-30 情報処理装置、活動状態検出プログラムおよび活動状態検出方法

Publications (2)

Publication Number Publication Date
JP2017102612A JP2017102612A (ja) 2017-06-08
JP6766346B2 true JP6766346B2 (ja) 2020-10-14

Family

ID=58778346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015234038A Active JP6766346B2 (ja) 2015-11-30 2015-11-30 情報処理装置、活動状態検出プログラムおよび活動状態検出方法

Country Status (2)

Country Link
US (1) US10109298B2 (ja)
JP (1) JP6766346B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7119912B2 (ja) * 2018-10-31 2022-08-17 富士通株式会社 行動認識方法、行動認識プログラムおよび行動認識装置
CN115132191B (zh) * 2022-06-30 2024-05-28 济南大学 基于机器学习的抗噪声语音识别方法及系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06324699A (ja) * 1993-05-11 1994-11-25 N T T Data Tsushin Kk 連続音声認識装置
JPH08329373A (ja) 1995-05-29 1996-12-13 Yamato Protec Co セキュリティ方法及びセキュリティシステム
US6290654B1 (en) * 1998-10-08 2001-09-18 Sleep Solutions, Inc. Obstructive sleep apnea detection apparatus and method using pattern recognition
JP3164100B2 (ja) 1999-03-25 2001-05-08 住友電気工業株式会社 交通音源種別識別装置
JP3905769B2 (ja) * 2002-02-14 2007-04-18 イーエス東芝エンジニアリング株式会社 安否確認装置
JP3757921B2 (ja) 2002-09-05 2006-03-22 株式会社デンソー 浴室内人体異常検知装置
US8812313B2 (en) * 2008-12-17 2014-08-19 Nec Corporation Voice activity detector, voice activity detection program, and parameter adjusting method
JP5017246B2 (ja) * 2008-12-18 2012-09-05 株式会社東芝 辞書学習装置及びその方法
JP2011191542A (ja) * 2010-03-15 2011-09-29 Nec Corp 音声分類装置、音声分類方法、及び音声分類用プログラム
JP2011237865A (ja) 2010-05-06 2011-11-24 Advanced Telecommunication Research Institute International 生活空間の見守りシステム
US20130281883A1 (en) * 2012-04-19 2013-10-24 Fujitsu Limited Recording medium, apnea determining apparatus, and apnea determining method
JP2013225248A (ja) 2012-04-23 2013-10-31 Nec Corp 音識別システム、音識別装置、音識別方法およびプログラム
JP6082341B2 (ja) 2013-12-05 2017-02-15 株式会社日立ソリューションズ 異常検出装置及び異常検出方法

Also Published As

Publication number Publication date
US20170154639A1 (en) 2017-06-01
JP2017102612A (ja) 2017-06-08
US10109298B2 (en) 2018-10-23

Similar Documents

Publication Publication Date Title
US10176705B1 (en) Audio monitoring and sound identification process for remote alarms
US8972252B2 (en) Signal processing apparatus having voice activity detection unit and related signal processing methods
CN106611596B (zh) 模拟信息特征提取的基于时间的频率调谐
Ntalampiras et al. Acoustic detection of human activities in natural environments
US20210201889A1 (en) System and Method for Determining Occupancy
Droghini et al. A Combined One‐Class SVM and Template‐Matching Approach for User‐Aided Human Fall Detection by Means of Floor Acoustic Features
CN105183946A (zh) 一种基于空调的降噪方法及系统
US10613619B2 (en) Ultra-low power mode for a low-cost force-sensing device
JP6766346B2 (ja) 情報処理装置、活動状態検出プログラムおよび活動状態検出方法
CN105812990A (zh) 用于声分析的工作循环式麦克风/传感器
US20220122592A1 (en) Energy efficient custom deep learning circuits for always-on embedded applications
EP3193317A1 (en) Activity classification from audio
CN105848061B (zh) 一种控制方法及电子设备
US9629582B2 (en) Apnea episode determination device and apnea episode determination method
WO2013190551A1 (en) Method of classifying glass break sounds in an audio signal
TWI609193B (zh) 基於調頻聲波的空間擾動偵測方法與裝置
US20230370786A1 (en) Acoustic activity detection
CN106409312B (zh) 音频分类器
Srinivasan et al. Presence detection using wideband audio-ultrasound sensor
CN114710419B (zh) 基于开关电源声音的设备工作状态单点监测方法、装置及存储介质
WO2023280228A1 (zh) 提示方法及相关设备
KR102405957B1 (ko) 음파 및 전파를 이용한 생활안전 모니터링 시스템
JP6031863B2 (ja) 心音分析装置、心音分析方法および心音分析プログラム
JP5672309B2 (ja) 音響信号処理装置、音響信号処理方法及び音響信号処理プログラム
CN116269317A (zh) 一种打鼾行为的检测方法、装置、设备及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200831

R150 Certificate of patent or registration of utility model

Ref document number: 6766346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150