JP2016126479A - 特徴音抽出方法、特徴音抽出装置、コンピュータプログラム、配信システム - Google Patents

特徴音抽出方法、特徴音抽出装置、コンピュータプログラム、配信システム Download PDF

Info

Publication number
JP2016126479A
JP2016126479A JP2014266102A JP2014266102A JP2016126479A JP 2016126479 A JP2016126479 A JP 2016126479A JP 2014266102 A JP2014266102 A JP 2014266102A JP 2014266102 A JP2014266102 A JP 2014266102A JP 2016126479 A JP2016126479 A JP 2016126479A
Authority
JP
Japan
Prior art keywords
sound
feature
sound data
period
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014266102A
Other languages
English (en)
Other versions
JP6467915B2 (ja
Inventor
成幸 小田嶋
Shigeyuki Odajima
成幸 小田嶋
美和 岡林
Miwa Okabayashi
美和 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014266102A priority Critical patent/JP6467915B2/ja
Publication of JP2016126479A publication Critical patent/JP2016126479A/ja
Application granted granted Critical
Publication of JP6467915B2 publication Critical patent/JP6467915B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】生活音の中に、複数の特徴箇所が存在する場合でも、最も特徴的な箇所を特定し、特定箇所に係る音声を抽出する特徴音抽出方法等を提供する。
【解決手段】コンピュータにより実行する特徴音抽出方法において、音データを所定時間毎に区切り、区切られた期間毎に音データの周波数成分を含む特徴量を算出し、期間毎に算出した音データの周波数成分を含む特徴量の1以上の成分値xに対して、区間a≦x≦a(0≦a<a≦∞)において、xで微分又は劣微分した関数が単調減少であり、下記の式を満たす関数値の下界Tが存在する関数f(x)を作用させ、作用させた結果に基づき、前記期間毎の特徴量を求め、求めた期間毎の特徴量に基づいて、特徴音データを抽出する処理を行う。
Figure 2016126479

【選択図】図2

Description

本発明は、生活音の中から、特徴的な箇所を抽出する技術等に関する。
近年、生活音センシング・提示による高齢者見守りサービス、コミュニケーションサービスが検討されている。これらのサービスに共通する要素技術として、全ての音を聞かずとも様子がわかるための、生活音の要約技術がある。生活音の要約技術とは、収集した生活音の中から、ドアの開閉音や人の笑い声などの特徴的な箇所を抽出し、提示する技術である。
従来、信号の特徴的な箇所を抽出する技術として、定常状態のデータを取得しておき、その定常状態からのズレに基づき異変検出する方法がある(例えば、特許文献1)。
特開2004−295861号公報
しかし、生活音においては、エアコンのファンの音、水の音、咳払いの音など、特徴度合いが異なる複数の特徴的な箇所を含むという性質がある。そのため、定常状態からのズレの度合いを閾値で判断し、提示するか否かを判定する方法では、特徴箇所が全て提示されてしまうか、特徴度合いが弱い箇所が全く提示されなくなるという問題が生じる。
1つの側面では、生活音の中に、複数の特徴箇所が存在しうる場合でも、最も特徴的な箇所を特定し、当該特定箇所に係る音声を抽出する特徴音抽出方法等を提供することを目的とする。
1つ態様では、コンピュータにより実行する特徴音抽出方法は、音データを所定時間毎に区切り、区切られた期間毎に音データの周波数成分を含む特徴量を算出し、前記期間毎に算出した音データの周波数成分を含む特徴量の1以上の成分値xに対して、区間a≦x≦a(0≦a<a≦∞)において、xで微分又は劣微分した関数が単調減少であり、下記の式を満たす関数値の下界Tが存在する関数f(x)を作用させ、作用させた結果に基づき、前記期間毎の特徴量を求め、求めた期間毎の特徴量に基づいて、特徴音データを抽出する。
Figure 2016126479

方法の一観点によれば、生活音の中から、最も特徴的な箇所を抽出することが可能となる。
特徴音抽出装置のハードウェア構成を示すブロック図である。 特徴音抽出装置の機能構成例を示すブロック図である。 生活音DBのレコードレイアウトの一例を示す説明図である。 音特徴DBのレコードレイアウトの一例を示す説明図である。 音クラスタDBのレコードレイアウトの一例を示す説明図である。 ダイジェスト表示DBのレコードレイアウトの一例を示す説明図である。 特徴音DBのレコードレイアウトの一例を示す説明図である。 メイン処理の手順の一例を示すフローチャートである。 特徴スコア計算処理の手順の一例を示すフローチャートである。 特徴計算処理の一例を示すブロック線図である。 特徴計算処理の手順の一例を示すフローチャートである。 フィルタの入出力関係の一例を示すグラフである。 特徴量の一例を示すグラフである。 出力抑制処理の手順の一例を示すフローチャートである。 提示処理の手順の一例を示すフローチャートである。 出力抑制処理、提示処理の具体例を示す説明図である。 在・不在判定処理の手順の一例を示すフローチャートである。 在・不在判定処理の具体例を示す説明図である。 ダイジェスト表示の一例を示す説明図である。 発生頻度計算処理の手順の一例を示すフローチャートである。 出力抑制処理の手順の一例を示すフローチャートである。 出力抑制処理の具体例を示す説明図である。 出力抑制処理の他の例を示す説明図である。 フィルタの入出力の関係の一例を示すグラフである。 配信システムの構成の一例を示す説明図である。
実施の形態1
以下、本発明の実施の形態を、図面を参照して説明する。図1は特徴音抽出装置1
のハードウェア構成を示すブロック図である。特徴音抽出装置1は、汎用コンピュータ、ワークステーション、デスクトップ型PC(パーソナルコンピュータ)、ノートブック型PC等である。特徴音抽出装置1は、CPU(Central Processing Unit)11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、大容量記憶装置14、入力部15、出力部16、通信部17(送信部)、読取り部18を含む。各構成はバスで接続されている。
CPU11はROM13に記憶された制御プログラム1Pに従いハードウェア各部を制御する。RAM12は例えばSRAM(Static RAM)、DRAM(Dynamic RAM)、フラッシュメモリである。RAM12はCPU11によるプログラムの実行時に発生するデータを一時的に記憶する。
大容量記憶装置14は、例えばハードディスク、SSD(Solid State Drive)などである。大容量記憶装置14には、後述する各種データベースが記憶されている。また、制御プログラム1Pを大容量記憶装置14に記憶するようにしておいても良い。
入力部15は特徴音抽出装置1にデータを入力するためのキーボード、マウスなどを含む。また、生活音を収集する例えば、マイク15aが接続され、マイク15aから収集された生活音は電気信号となり、入力部15に入力される。
なお、本明細書において、「音」とは、空気中の振動をマイクで取得する狭義の「音」に限らず、例えば空気中、物質中、液体中を伝搬する「振動」を、例えばマイクやピエゾ素子、レーザ微小変位計といった測定装置で計測した場合も含む広義の概念である。
出力部16は特徴音抽出装置1の画像出力を表示装置16aに、音声出力をスピーカなどに行うためのものである。
通信部17はネットワークを介して、他のコンピュータと通信を行う。読取り部18はCD(Compact Disk)−ROM、DVD(Digital Versatile Disc)−ROMを含む可搬型記憶媒体1aを読み取る。CPU11が読取り部18を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、大容量記憶装置14に記憶しても良い。また、ネットワークを介して他のコンピュータからCPU11が制御プログラム1Pをダウンロードし、大容量記憶装置14に記憶しても良い。さらにまた、半導体メモリ1bから、CPU11が制御プログラム1Pを読み込んでも良い。
図2は特徴音抽出装置1の機能構成例を示すブロック図である。特徴音抽出装置1の各機能部は、大容量記憶装置14に記憶された制御プログラム1Pと、CPU11、RAM12等のハードウェア資源とが協働して動作することにより実現される。
特徴音抽出装置1は、入力部110、特徴スコア計算部120、クラスタリング部130、ダイジェスト表示生成部140、出力抑制部150及び提示部160、並びに、生活音DB14a、音特徴DB14b、音クラスタDB14c、ダイジェスト表示DB14d及び特徴音DB14eを含む。
入力部110は生活音入力部111を含む。入力部110はハードウェアである入力部15に対応する機能部である。特徴スコア計算部120は、音特徴計算部121(算出部、フィルタ部)、音クラスタマッチング・スコア計算部122(特徴量算出部)を含む。クラスタリング部130はクラスタリング処理部131、クラスタ発生頻度計算部132を含む。ダイジェスト表示生成部140は在/不在判定部141(計数部、判定部)を含む。出力抑制部150は特徴箇所出力抑制部151(抽出部)を含む。提示部160はGUI表示部161、音声提示部162を含む。
生活音DB14a、音特徴DB14b、音クラスタDB14c、ダイジェスト表示DB14d及び特徴音DB14eは、大容量記憶装置14に記憶されている。
図3は生活音DB14aのレコードレイアウトの一例を示す説明図である。生活音DB14aはタイムスタンプ、音ファイル名の各列を含む。タイムスタンプには生活音を取得した時刻を記憶する。タイムスタンプとする時刻は、音ファイルとして記憶される生活音の冒頭の時刻や末尾の時刻などである。音ファイル名には、ファイル名を記憶する。
図4は音特徴DB14bのレコードレイアウトの一例を示す説明図である。音特徴DB14bはタイムスタンプ、特徴量の各列を含む。タイムスタンプには、音データのタイムスタンプを記憶する。特徴量には、音データの特徴量の値を記憶する。
図5は音クラスタDB14cのレコードレイアウトの一例を示す説明図である。音クラスタDB14cはクラスタID、特徴量、発生頻度の各列を含む。クラスタIDは各クラスタを特定するIDを記憶する。特徴量は各クラスタの特徴量、すなわち、各クラスタの中心座標やクラスタに含まれるデータの中央値などのクラスタの代表値を記憶する。発生頻度は各クラスタの発生頻度を記憶する。
図6はダイジェスト表示DB14dのレコードレイアウトの一例を示す説明図である。ダイジェスト表示DB14dは開始時刻、終了時刻、ダイジェストIDの各列を含む。開始時刻、終了時刻は、人の在または不在を示す時間帯の開始、終了の時刻を記憶する。ダイジェストIDは人の在又は不在を示すIDを記憶する。例えば、ID=1は在を示し、ID=0は不在を示す。
図7は特徴音DB14eのレコードレイアウトの一例を示す説明図である。特徴音DB14eはタイムスタンプ、スコア、クラスタIDの各列を含む。タイムスタンプは音データが観測された日時を記憶する。スコアは音データの発生頻度を記憶する。クラスタIDは特徴音が属するクラスタのIDを記憶する。
次に、特徴音抽出装置1の動作概要を説明する。生活音入力部111はマイク15aから収集された音をデータ(音データ)として生活音DB14aに記憶する。生活音DB14aに記憶する音声データの形式は、WAV(RIFF waveform Audio Format)、AIFF(Audio Interchange File Format)といった非圧縮形式でも良いし、MP3(MPEG−1 Audio Layer−3)、WMA(Windows Media(登録商標) Audio)といった圧縮形式でも良い。また、生活音入力部111は音データを音特徴計算部121に渡す。
音特徴計算部121は音声データを時間ウィンドウにより区切り、区切られた時間毎に特徴量を算出する。算出した特徴量は音特徴DB14bに記憶する。クラスタリング処理部131は所定期間毎、音特徴DB14bが更新される毎などのタイミングで、音特徴DB14bが記憶している特徴量をクラスタリングする。クラスタ発生頻度計算部132は各クラスタの発生頻度を計算し、音クラスタDB14cに記憶する。また、音特徴計算部121は算出した特徴量を音クラスタマッチング・スコア計算部122に渡す。
音クラスタマッチング・スコア計算部122は、音特徴計算部121より受け取った特徴量と音クラスタDB14cに記憶してある各クラスタの特徴量とのマッチングを行い、処理対象となっている音が所属すべきクラスタを決定する。所属すべきクラスタの発生頻度は、例えば区切られた音声データの発生頻度としてもよいし、特徴量の近傍に存在するクラスタの発生頻度の重みづけ和を用いてもよい。音クラスタマッチング・スコア計算部122は、以上の処理結果として、区切られた音声データ毎に、所属すべきクラスタのID、発生頻度、区切られた音声のタイムスタンプを、特徴音DB14eに記憶する。
特徴箇所出力抑制部151は、特徴音DB14eに記憶されたデータより一定時間分、例えば30分間分のデータを取り出し、発生頻度の最も低い音データを特定し、特定した音データのタイムスタンプを出力する。
在/不在判定部141は、上述の一時記憶領域に蓄えられたデータより一定時間分のデータを取り出し、入力データとする。また、在/不在判定部141は、音クラスタDB14cから、背景音テーブル(図示しない)を作成する。非背景音テーブルは、各音クラスタに背景音または非背景音の種別を付与したものである。背景音、非背景音の区別は、発生頻度を基に決定する。在/不在判定部141は、入力データに含まれる非背景音の出現回数を求め、当該出現回数が予め定めた閾値を越えていれば人が居たと判定し、当該出現回数が閾値以下であれば人は居なかったと判定する。在/不在判定部141は、判定結果をダイジェスト表示DB14dに記憶する。
音声提示部162は、特徴箇所出力抑制部151が出力した音データのスコアが所定の閾値を越えたもののみを提示する。なお、ここでのスコアは例えば発生頻度とは反比例するスコアとしてよい。
GUI表示部161はダイジェスト表示DB14dに基づいて、在・不在の判定結果を示す表示画面を表示装置16aに表示させる。
次に、特徴音抽出装置1の動作を詳細に説明する。図8はメイン処理の手順の一例を示すフローチャートである。特徴音抽出装置1のCPU11は、特徴スコア計算処理を行う(ステップS1)。続いて、CPU11は出力抑制処理を行う(ステップS2)。最後に、CPU11は提示処理を行う(ステップS3)。
図9は特徴スコア計算処理の手順の一例を示すフローチャートである。特徴音抽出装置1のCPU11は特徴量計算を行う(ステップS11)。図10は特徴量計算処理の一例を示すブロック線図である。図10は特徴量計算処理の概要を示している。特徴量計算処理は、例えば高域強調処理、FFT(Fast Fourier Transform)処理、雑音除去処理、メルフィルタ処理、スペクトル成分の累乗処理の順で行ってよい。音データから算出した周波数成分を含む特徴量(例えばメルスペクトル)を算出した後にスペクトル成分の累乗処理を行う点が、本実施の形態の特徴である。特徴量計算処理の詳細について、図11を用いて説明する。なお、以下の例は、音データから算出した周波数成分を含む特徴量として、メルスペクトルを用いる場合のものである。
図11は特徴量計算処理の手順の一例を示すフローチャートである。特徴音抽出装置1のCPU11は入力された音データを所定時間毎に区切り、区切られた期間毎に処理を行う。すなわち、CPU11は時間ウィンドウを設定し、時間ウィンドウ内のデータを処理し、処理が終了した場合、時間ウィンドウをずらして、同様の処理を繰り返し行う。CPU11は時間ウィンドウ内のデータを取得する(ステップS21)。CPU11は時間ウィンドウ内のデータに対して、高域強調(ステップS22)、FFT(ステップS23)、振幅計算(ステップS24)、雑音除去(ステップS25)、メルスペクトル抽出(ステップS26)の各処理を行う。これらの処理については、公知の技術であるので、説明を省略する。
続いて、CPU11はステップS26で得たメルスペクトルに対して、フィルタを適用する(ステップS27)。CPU11はフィルタを適用したメルスペクトルを特徴量として出力する(ステップS28)。CPU11は処理を呼び出し元に戻す。
ここで、フィルタは乗数pが1乗未満の累乗関数であり、例えば、以下の式で表される。
Figure 2016126479

図12は、フィルタの入出力関係の一例を示すグラフである。横軸が入力、縦軸が出力である。横軸、縦軸とも無次元である。乗数pの値が1であるグラフf1は参考のために表示しており、フィルタとしては用いない。グラフf2は乗数pの値が0.5の場合、グラフf3は乗数pが0.25の場合である。1乗未満の乗数を持つ累乗フィルタは、図12で示すように、1以上の値を持つ場合には出力を抑制する効果を有し、また1以下の入力に対しても必ず0以上の値を持つことが保証される。したがって、メルスペクトル特徴を用いた場合に生じる、細かい音量で大幅に特徴量形状が異なる問題と、logフィルタを用いた場合に生じる、1以下の出力で値が発散する問題は解決される。更に、特徴量に音量と周波数成分が同時に考慮されるため、音量・周波数成分を別個の処理で取り扱う必要がなく、処理が容易である。
図13は特徴量の一例を示すグラフである。横軸は周波数で、単位はKHzである。縦軸はスペクトル値で無次元数である。図13Aが咳払い声、図13Bがファン音から得た特徴量である。両図を比較すると明らかのように、両者で大きく特徴量形状(スペクトル値)が異なっている。したがって、非背景音(咳払い声)と背景音(ファン音)とを類別するのに適した特徴量であると言える。
図9に戻り、CPU11は特徴量計算で得た音特徴(特徴量)を音特徴DB14bに記憶する(ステップS12)。続いて、CPU11は特徴量と、音クラスタDB14cに記憶されている各クラスタの特徴量とのマッチングを行う(ステップS13)。CPU11はマッチングした音クラスタのIDと発生頻度を出力する(ステップS14)。CPU11は処理を呼び出し元に戻す。図8に戻り、CPU11は出力抑制処理(ステップS2)を行う。
出力抑制処理について説明する。実施の形態1における出力抑制処理は、すでに蓄積されている一定時間分の音データを処理対象とするバッチ処理を前提としている。処理対象となる音データは、音クラスタID、発生頻度スコア、タイムスタンプを含んでいる。図14は出力抑制処理の手順の一例を示すフローチャートである。特徴音抽出装置1のCPU11は各音データの抑制フラグをFalseとし、特徴箇所リストFを空集合にする(ステップS31)。抑制フラグは対応する音を抑制するか否かを示すフラグである。抑制フラグがTrueの場合、出力抑制を意味するので音は出力されない。抑制フラグがFalseの場合、出力を抑制しないことを意味するので音を出力する。また特徴箇所リストFは、特徴音が含まれる箇所のリストである。特徴箇所は、例えば、特徴音のタイムスタンプである。
CPU11は音クラスタDB14cを参照し、発生頻度の低い順に音クラスタをソートする(ステップS32)。CPU11は、ソートした結果から得られるIDの順列を音クラスタリストとして、RAM12などに記憶する。CPU11は音クラスタリストの先頭のクラスタを処理対象クラスタとして選択する(ステップS33)。CPU11は、処理対象となっている音データの中で、選択したクラスと同じクラスタIDを持つ音データを取得し、リストLに格納する(ステップS34)。
CPU11はリストLから先頭の音データsを取得する(ステップS35)。CPU11はsの抑制フラグがFalseで、かつ、発生頻度スコアが閾値を超えているか否かを判定する(ステップS36)。CPU11は、抑制フラグがFalseで、かつ、発生頻度スコアが閾値を超えていると判定した場合(ステップS36でYES)、音データsのタイムスタンプを特徴箇所リストFに追加する(ステップS37)。なお、閾値は予め定められているものとする。CPU11は音データsの周囲(前後)一定時間の抑制フラグの値をTrueとする(ステップS38)。CPU11はリストLに未処理の音データがあるか否かを判定する(ステップS39)。CPU11は、抑制フラグがTrueか、または、発生頻度スコアが閾値以下であると判定した場合(ステップS36でNO)、処理をステップS39に移す。CPU11は、リストLに未処理の音データがあると判定した場合(ステップS39でYES)、処理をステップS35に戻す。CPU11は、リストLに未処理の音データがないと判定した場合(ステップS39でNO)、処理していないクラスタが音クラスタDB14cにあるか否かを判定する(ステップS40)。CUP11は、未処理クラスタがあると判定とした場合(ステップS40でYES)、処理をステップS33に戻す。CPU11は、未処理クラスタがないと判定した場合(ステップS40でNO)、特徴箇所リストを出力する(ステップS41)。CPU11は出力抑制処理を終了し、処理を呼び出し元に戻す。再び、図8に戻り、CPU11は提示処理(ステップS3)を実行し、メイン処理を終了する。
提示処理について説明する。図15は提示処理の手順の一例を示すフローチャートである。特徴音抽出装置1のCPU11は、出力抑制処理によって得られた特徴箇所リストに基づき、特徴音DB14eから特徴箇所に対応する音データ(特徴音データ)を取得する(ステップS51)。CPU11は取得した特徴音データのスコアが、閾値Tiを超えているか否かを判定する(ステップS52)。閾値Tiは予め定めておいても良いし、提示処理を実行するに当たり定めても良い。閾値Tiは、多くの特徴音を確認したい場合は小さめの値とし、そうでない場合は大きめの値とすれば良い。CPU11は、スコアが閾値を超えている判定した場合(ステップS52でYES)、特徴音を再生する(ステップS53)。CPU11は、未処理の特徴音データがあるか否かを判定する(ステップS54)。CPU11は、未処理の特徴音データがあると判定した場合(ステップS54でYES)、処理をステップS51に戻す。CPU11は、未処理の特徴音データがないと判定した場合(ステップS54でNO)、提示処理を終了し、処理を呼び出し元に戻す。CPU11は、スコアが閾値以下であると判定した場合(ステップS52でNO)、処理をステップS54に移す。
次に、出力抑制処理、提示処理の具体例を示す。図16は出力抑制処理、提示処理の具体例を示す説明図である。図16では横軸を時間、縦軸を振幅として、音声信号の波形を示している。波形と重なる矩形は時間ウィンドウで区切られる期間を示している。波形の上に示しているのは、期間毎の特徴度合いのスコアである。図16に2つの例を示している。2つの例ともに時間ウィンドウで区切られた期間が7つ(K1からK7、K11からK17)示され、そのうち、5つの期間で出力抑制処理が行われる例である。図16の例に示されている特徴度合いのスコアは、発生頻度と反比例するスコアであり、発生頻度が低いほど大きな値となるスコアである。図16の左側の例では、期間K4のスコアが0.5であり、他の期間K1からK3、K5からK7のスコアはいずれも0.1となっている。出力抑制処理の対象とする期間K2からK6において、期間K4が0.5で他の期間に比べて、スコアが大きいため、期間K4の音が提示される。図16の右側の例では、期間K15のスコアが1.0であり、他の期間K11からK14、K16からK17のスコアはいずれも0.5となっている。出力抑制処理の対象とする期間K12からK16において、期間K15が1.0で他の期間に比べて、スコアが大きいため、期間K15の音が提示される。このように、出力抑制処理では、複数の期間中で特徴音を判定して提示するので、スコアが0.5の音であっても提示される場合もあれば、提示されない場合もある。すなわち、少数の特徴的な箇所が抽出され、閾値による一律的な判定の場合のように、全部出力されるか、全部出力されないかの何れかのようになってしまうことを防ぐことが可能となる。
続いて、人の在・不在判定について説明する。図17は在・不在判定処理の手順の一例を示すフローチャートである。特徴音抽出装置1のCPU11は、特徴音DB14eから過去一定時間に抽出された音データを取得する(ステップS61)。CPU11は取得した音データの中で、背景音に含まれない音データの個数Cを算出する(ステップS62)。CPU11は個数Cが閾値を超えているか否かを判定する(ステップS63)。CPU11は個数Cが閾値を超えていると判定した場合(ステップS63でYES)、戻り値を在とする(ステップS64)。CPU11は個数Cが閾値以下であると判定した場合(ステップS63でNO)、戻り値を不在とする(ステップS65)。CPU11は在・不在判定処理を終了する。CPU11は、在・不在判定処理を適切な回数、繰り返し実行することにより、ダイジェスト表示DB14dを作成する。なお、背景音テーブルは、在・不在判定処理が実行される前に作成されているものとする。
図18は在・不在判定処理の具体例を示す説明図である。図18に示す波形などは図16と同様である。図18の左側は音データの例を示している。図18の右側には背景音テーブルを概念的に表現したものを記載している。音データは期間K21からK30の10期間のデータである。音データには、咳払いの音、テレビの音、ファンの音の3種類の音が含まれている。また、背景音テーブルにより、咳払いの音、テレビの音は非背景音と定義され、ファンの音は背景音と定義されている。図18の音データにおいては、期間K21、K22、K24がファンの音、期間K23、K29が咳払いの音、期間K25からK28、K30がテレビの音となっている。したがって、非背景音(図18ではマルを付している。)の数が7、背景音(図18ではバツを付している。)の数が3となっている。例えば、閾値が6であれば、期間K21からK30に掛けての時間帯には、人が居たと判定する。なお、図18で定義された音データ、背景音データ等は一例であり、環境の差異により、別の音が背景音として定義されていることもありうる。
図19はダイジェスト表示の一例を示す説明図である。ダイジェスト表示では過去24時間について表示される。図19に示す例では、ハッチングが掛かっている期間が人の不在期間19aを、ハッチングがない期間が人の在期間19bを表している。在期間19bでは、さらに特徴音が発生した箇所19cが矢印により示されている。さらに現在の時刻も矢印19dにより示されている。
以上のように、在・不在判定処理により、細かな瞬間の情報と共に、比較的長時間の傾向を示すことが可能となる。
図20は発生頻度計算処理の手順の一例を示すフローチャートである。発生頻度計算処理は、クラスタリング部130が行う処理であり、音クラスタDB14cを更新する処理である。CPU11は、音特徴DB14bから特徴量データを取得する(ステップS71)。CPU11は、特徴量データのクラスタリング処理を行う(ステップS72)。ここで、クラスタリング処理としては、例えばk−means法のようなクラスタ数を固定するハードクラスタリング手法、例えばWard法のような階層クラスタリング手法やDP−means法のようなクラスタ数を動的に決定するハードクラスタリング手法、例えばEM法による混合ガウスモデルの最適化に基づく方法やマルコフ連鎖モンテカルロ法による階層ベイズ法に基づく方法といったソフトクラスタリング手法を用いてもよい。
CPU11は得られたクラスタの発生頻度を算出する(ステップS73)。CPU11は処理結果、クラスタID、クラスタの発生頻度、特徴量(例えばクラスタ中心座標)を音クラスタDB14cに記憶する(ステップS74)。CPU11は発生頻度計算処理を終了する。
発生頻度計算処理は、所定量の音データが得られる毎に実行しても良いし、時間ウィンドウ毎に特徴量が算出される毎に行っても良い。
以上のように、実施の形態1においては、乗数が1以下の累乗関数をフィルタとして採用したことにより、メルスペクトル特徴を用いた場合に生じる、細かい音量で大幅に特徴量形状が異なる問題と、logフィルタを用いた場合に生じる、1以下の出力で値が発散する問題は解決される。また、出力抑制処理により、少数の特徴的な箇所が抽出され、閾値による一律的な判定の場合のように、全部出力されるか、全部出力されないかの何れかのようになってしまうことを防ぐことが可能となる。すなわち、生活音の中から、最も特徴的な箇所を抽出することが可能となる。さらに、在・不在判定処理により、細かな瞬間の情報と共に、比較的長時間の傾向を示すことが可能となる。
実施の形態2
実施の形態2では、出力抑制処理をオンラインで行う。実施の形態2において、特徴音抽出装置1の構成は、実施の形態1と同様であるので、説明を省略する。特徴音抽出装置1が行う処理についても、出力抑制処理を除いて、実施の形態1と同様であるので、以下の説明おいては、主として実施の形態1と異なる部分について説明する。
図21は出力抑制処理の手順の一例を示すフローチャートである。特徴音抽出装置1のCPU11は、新たに入力された時間ウィンドウで区切られた音の情報、入力音情報Rを取得する(ステップS81)。入力音情報Rは、音クラスタID、発生頻度スコア、タイムスタンプを含む。CPU11は、リングバッファの示すインデクス(index)の要素を取り出し、構造体Eに設定する(ステップS82)。CPU11は、Eが最大値要素と同じか否かを判定する(ステップS83)。最大値要素とは、発生頻度と例えば反比例するスコアが最も大きい要素としてよい。
CPU11はEが最大値要素と同じと判定した場合(ステップS83でYES)、特徴音DB14eにEを記憶する(ステップS84)。CPU11は最大値要素をクリアする、すなわち、NULLとする(ステップS85)。CPU11は入力音情報Rをリングバッファに登録する(ステップS86)。CPU11は、Eが最大値要素と同じでないと判定した場合(ステップS83でNO)、処理をステップS86に移す。
CPU11は最大要素がクリアされたか、または最大値要素のスコアが、入力音情報Rのスコアよりも大きいか否かを判定する(ステップS87)。CPU11は、最大要素がクリアされたか、または最大値要素のスコアが、入力音情報Rのスコアよりも大きい場合(ステップS87でYES)、最大値要素をRとする(ステップS88)。CPU11は出力抑制処理を終了する。CPU11は、最大値要素がNULLでもなく、最大値要素のスコアが、入力音情報Rのスコア以下の場合(ステップS87でNO)、出力抑制処理を終了する。
提示処理では、リングバッファ記憶されているデータの中で、最大値要素と同じスコア持つものが1つであり、かつ未だに提示されていないデータに対応する音データを再生する。
図22は出力抑制処理の具体例を示す説明図である。図22の上段に示す波形等については、図16と同様である。図22の中段、下段は、リングバッファRiの状態を示している。図22に示す例では、リングバッファRiはR1、R2、R3の3つのバッファからなる。上向き矢印がインデクスの位置を示す。縦に並ぶ値は各バッファに格納されている値を示している。上から順に、スコア、クラスタID、タイムスタンプの順である。図22は、入力音情報Rとして、期間K36のデータが入力された場合を示す。RのスコアSは1.0、音クラスタIDは01、タイムスタンプは12:33である。最大値要素は、スコアSは2.0、音クラスタIDは02、タイムスタンプは12:30である。図22の中段に示すように、リングバッファRiの示すインデックスIの要素は、最大値要素と同じであるから、最大値要素は一度クリアされ、入力音情報Rに基づいた値に更新されている(図22の下段参照)。
実施の形態2では、オンライン処理を行うことにより、ほぼリアルタイムに特徴音の提示が可能となる。
実施の形態3
実施の形態3では、出力抑制処理が実施の形態1とは異なる。実施の形態3において、特徴音抽出装置1の構成は、実施の形態1と同様であるので、説明を省略する。特徴音抽出装置1が行う処理についても、出力抑制処理を除いて、実施の形態1と同様であるので、以下の説明においては、主として実施の形態1と異なる部分について説明する。
図23は出力抑制処理の他の例を示す説明図である。図23に示す波形等については、図16と同様である。実施の形態3では、単純に最大スコアとなる1箇所を選択するのではなく、特徴箇所内の評価スコアの和が最大となるように選択する。図23に示す例では、期間3つを1つのグループとして評価スコアの和を求めている。本例における音データの種別は、図23の右側に示すように、咳払いの音、テレビの音、ファンの音の3種類である。評価スコアの値は、それぞれ2.0、1.0、0.0である。グループg1は、咳払いの音が1つ、テレビの音はなし、ファンの音が1つであるため、評価値の和S(W)は次のように計算される。S(W)=2.0×1+1.0×0+0.0×1=2.0
同様に計算すると、グループg2の評価スコアは1.0、グループg3の評価スコアは3.0である。したがって、グループg3が提示候補となる。
実施の形態3においては、複数箇所をグループ化して、グループごとに出力抑制処理を行うので、できるだけ多くの種類の音が含まれるように提示することが可能となる。
累乗フィルタ以外のフィルタの例
上述において、フィルタは累乗フィルタに限られない。次の2つの要件を満たすものであれば、フィルタとして採用可能である。1の要件は、0以上のある閾値a以下で最小値Tを取るものである。これは、xが小さい時に値を発散させないためである。他の1の要件は、閾値aを超え範囲ではxで微分又は劣微分した値が単調減少となることである。これは、強い音の時には、その影響を下げるためである。
図24はフィルタの入出力の関係の一例を示すグラフである。横軸は入力、縦軸は出力で、横軸、縦軸とも無次元である。図24Aは1乗以下の累乗関数を示している。図24Bは最小値が0でないフィルタ関数を示している。図24Cはx=0では最小値とはならないフィルタ関数を示している。図24Dは局所的に値が大きく変動するフィルタ関数を示している。いずれのフィルタ関数も、上述の条件を満たしているため、実施の形態1から3において、累乗フィルタに替えて、図24に示したフィルタを採用してもよい。なお、図24に示すのはフィルタの例であり、これらに限られるものではない。
実施の形態4
上述した実施の形態1から実施の形態3の特徴音抽出装置1をプレイスサーバ(配信装置)と連携した配信システムを構成することも可能である。図25は配信システムの構成の一例を示す説明図である。配信システムは、特徴音抽出装置1、プレイスサーバ2、端末機3、ルータ4を含む。プレイスサーバ2、端末機3は、それぞれ、汎用コンピュータ、ワークステーション、デスクトップ型PC(パーソナルコンピュータ)、ノートブック型PC、タブレットPC、スマートフォン等である。特徴音抽出装置1及び端末機3はルータ4、ネットワークNを介して、プレイスサーバ2と接続されている。ルータ4は必須の構成ではなく、特徴音抽出装置1及び端末機3は直接、ネットワークNと接続されても良い。端末機3の台数は適宜、定めれば良い。また、図25に示す例では、特徴音抽出装置1、端末機3、ルータ4は同一の空間SPに設置されている。
プレイスサーバ2は、制御部21、記憶部22、通信部23(受信部、配信部)を含む。制御部21はCPU、RAM、ROM等を含み、ハードウェア各部を制御する。記憶部22は特徴音抽出装置1や端末機3に配信するコンピュータプログラムなどを記憶する。通信部23はネットワークN、ルータ4を介して、特徴音抽出装置1や端末機3と通信を行う。
プレイスサーバ2の制御部21は通信部23を介して、特徴音抽出装置1の在/不在判定部141(判定部)より人の在/不在の判定結果を受け取る。制御部21は受け取った判定結果に基づいて、通信部23を介して、コンピュータプログラムを特徴音抽出装置1に配信する。特徴音抽出装置1は、受信したコンピュータプログラムをさらに、端末機3に配信する。端末機3は、受信したコンピュータプログラムを実行する。それにより、端末機3は、人の在/不在に応じた動作を行う。
配信システムの一例としては、CAI(Computer−Assisted Instruction または Computer−Aided Instruction)においての利用である。特徴音抽出装置1、端末機3、ルータ4が設置されている空間SPを1つの教室とする。特徴音抽出装置1が、空間SPに人が不在と判定した場合、端末機3には、スリープ状態を保つコンピュータプログラムを実行させ、消費電力の節約を行う。特徴音抽出装置1が、空間SPに人が存在すると判定した場合、端末機3にコンピュータプログラムの配信を行い、端末機3の利用を可能とする。空間SPが学校のパソコンルームの場合には、プレイスサーバ2に時間割の情報を記憶させ、時間帯に応じて、適切な教科の教育用プログラムを配信すれば良い。
実施の形態4では、人の在/不在により、端末機3の動作を変更することが可能となるので、端末機3の利用者又は管理者が動作変更の操作を行う必要がないという効果を奏する。
各実施例で記載されている技術的特徴(構成要件)はお互いに組合せ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
以上の実施の形態に関し、さらに以下の付記を開示する。
(付記1)
音データを所定時間毎に区切り、
区切られた期間毎に音データの周波数成分を含む特徴量を算出し、
前記期間毎に算出した音データの周波数成分を含む特徴量の1以上の成分値xに対して、
区間a≦x≦a(0≦a<a≦∞)において、xで微分又は劣微分した関数が単調減少であり、下記の式を満たす関数値の下界Tが存在する関数f(x)を作用させ、
作用させた結果に基づき、前記期間毎の特徴量を求め、
求めた期間毎の特徴量に基づいて、特徴音データを抽出する
処理をコンピュータにより実行する特徴音抽出方法。
Figure 2016126479

(付記2)
前記関数f(x)は、下記の式で示す乗数pが1未満の累乗関数である
付記1に記載の特徴音抽出方法。
Figure 2016126479
(付記3)
前記期間毎の特徴量をクラスタリング処理して音データの種別分けを行い、
夫々の音の種別毎の発生頻度に基づいて、特徴音データを抽出する
付記1又は2に記載の特徴音抽出方法。
(付記4)
前記発生頻度から音データの種別毎の評価指標を算出し、複数の前記期間の中で評価指標が最大となる種別の音データを特徴音データと判定し、判定した特徴音データを抽出する
付記3に記載の特徴音抽出方法。
(付記5)
前記特徴音データと判定した音データの評価指標の値が閾値よりも小さい場合は、特徴音データを抽出しない
付記4に記載の特徴音抽出方法。
(付記6)
前記発生頻度から音データの種別毎の評価指標を算出し、
前記期間を所定数含む評価区間夫々に含まれる音データの評価指標を加算し、
加算した評価指標が最大となる評価区間を特定し、
特定した評価区間に含まれる音データを特徴音データとして抽出する
付記4又は5に記載の特徴音抽出方法。
(付記7)
前記音データは、人が存在しうる空間で収集されたものであり、
所定の時間幅に対して、前記特徴音データの出現回数をカウントし、
出現回数が所定値以上であれば、前記空間に人は存在し、そうでなければ存在しないと判定する
付記4から6のいずれか1つに記載の特徴音抽出方法。
(付記8)
音データを所定時間毎に区切り、区切られた期間毎に音データの周波数成分を含む特徴量を算出する算出部と、
前記期間毎に算出した音データの周波数成分を含む特徴量の1以上の成分値xに対して、区間a≦x≦a(0≦a<a≦∞)において、xで微分又は劣微分した関数が単調減少であり、下記の式を満たす関数値の下界Tが存在する関数f(x)を作用させるフィルタ部と、
作用させた結果に基づき、前記期間毎の特徴量を算出する特徴量算出部と、
求めた期間毎の特徴量に基づいて、特徴音データを抽出する抽出部と
を備える特徴音抽出装置。
Figure 2016126479

(付記9)
音データを所定時間毎に区切り、
区切られた期間毎に音データの周波数成分を含む特徴量を算出し、
前記期間毎に算出した音データの周波数成分を含む特徴量の1以上の成分値xに対して、
区間a≦x≦a(0≦a<a≦∞)において、xで微分又は劣微分した関数が単調減少であり、下記の式を満たす関数値の下界Tが存在する関数f(x)を作用させ、
作用させた結果に基づき、前記期間毎の特徴量を求め、
求めた期間毎の特徴量に基づいて、特徴音データを抽出する
処理をコンピュータに実行させるコンピュータプログラム。
Figure 2016126479

(付記10)
人が存在しうる空間で収集された音データを所定時間毎に区切り、区切られた期間毎に音データの周波数成分を含む特徴量を算出する算出部と、
前記期間毎に算出した音データの周波数成分を含む特徴量の1以上の成分値xに対して、区間a≦x≦a(0≦a<a≦∞)において、xで微分又は劣微分した関数が単調減少であり、下記の式を満たす関数値の下界Tが存在する関数f(x)を作用させるフィルタ部と、
作用させた結果に基づき、前記期間毎の特徴量を算出する特徴量算出部と、
求めた期間毎の特徴量に基づいて、特徴音データを抽出する抽出部と、
所定の時間幅に対して、抽出した特徴音データの出現回数をカウントする計数部と、
出現回数が所定以上であれば、前記空間に人が存在すると判定し、そうでなければ存在しないと判定する判定部と、
判定した結果を送信する送信部と
を有する特徴音抽出装置、及び
前記判定した結果を受信する受信部と、
受信した結果に基づいて、前記特徴音抽出装置に所定のコンピュータプログラムを配信する配信部と
を有する配信装置を
備える配信システム。
Figure 2016126479

1 特徴音抽出装置
11 CPU
12 RAM
13 ROM
14 大容量記憶装置
14a 生活音DB
14b 音特徴DB
14c 音クラスタDB
14d ダイジェスト表示DB
14e 特徴音DB
15 入力部
15a マイク
16 出力部
16a 表示装置
17 通信部
18 読取り部
1P 制御プログラム
1a 可搬型記憶媒体
1b 半導体メモリ
110 入力部
111 生活音入力部
120 特徴スコア計算部
121 音特徴計算部
122 音クラスタマッチング・スコア計算部
130 クラスタリング部
131 クラスタリング処理部
132 クラスタ発生頻度計算部
140 ダイジェスト表示生成部
141 在/不在判定部
150 出力抑制部
151 特徴箇所出力抑制部
160 提示部
161 GUI表示部
162 音声提示部
2 プレイスサーバ
3 端末機
4 ルータ
N ネットワーク

Claims (5)

  1. 音データを所定時間毎に区切り、
    区切られた期間毎に音データの周波数成分を含む特徴量を算出し、
    前記期間毎に算出した音データの周波数成分を含む特徴量の1以上の成分値xに対して、
    区間a≦x≦a(0≦a<a≦∞)において、xで微分又は劣微分した関数が単調減少であり、下記の式を満たす関数値の下界Tが存在する関数f(x)を作用させ、
    作用させた結果に基づき、前記期間毎の特徴量を求め、
    求めた期間毎の特徴量に基づいて、特徴音データを抽出する
    処理をコンピュータにより実行する特徴音抽出方法。
    Figure 2016126479

  2. 前記関数f(x)は、下記の式で示す乗数pが1未満の累乗関数である
    請求項1に記載の特徴音抽出方法。
    Figure 2016126479
  3. 音データを所定時間毎に区切り、区切られた期間毎に音データの周波数成分を含む特徴量を算出する算出部と、
    前記期間毎に算出した音データの周波数成分を含む特徴量の1以上の成分値xに対して、区間a≦x≦a(0≦a<a≦∞)において、xで微分又は劣微分した関数が単調減少であり、下記の式を満たす関数値の下界Tが存在する関数f(x)を作用させるフィルタ部と、
    作用させた結果に基づき、前記期間毎の特徴量を算出する特徴量算出部と、
    求めた期間毎の特徴量に基づいて、特徴音データを抽出する抽出部と
    を備える特徴音抽出装置。
    Figure 2016126479

  4. 音データを所定時間毎に区切り、
    区切られた期間毎に音データの周波数成分を含む特徴量を算出し、
    前記期間毎に算出した音データの周波数成分を含む特徴量の1以上の成分値xに対して、
    区間a≦x≦a(0≦a<a≦∞)において、xで微分又は劣微分した関数が単調減少であり、下記の式を満たす関数値の下界Tが存在する関数f(x)を作用させ、
    作用させた結果に基づき、前記期間毎の特徴量を求め、
    求めた期間毎の特徴量に基づいて、特徴音データを抽出する
    処理をコンピュータに実行させるコンピュータプログラム。
    Figure 2016126479

  5. 人が存在しうる空間で収集された音データを所定時間毎に区切り、区切られた期間毎に音データの周波数成分を含む特徴量を算出する算出部と、
    前記期間毎に算出した音データの周波数成分を含む特徴量の1以上の成分値xに対して、区間a≦x≦a(0≦a<a≦∞)において、xで微分又は劣微分した関数が単調減少であり、下記の式を満たす関数値の下界Tが存在する関数f(x)を作用させるフィルタ部と、
    作用させた結果に基づき、前記期間毎の特徴量を算出する特徴量算出部と、
    求めた期間毎の特徴量に基づいて、特徴音データを抽出する抽出部と、
    所定の時間幅に対して、抽出した特徴音データの出現回数をカウントする計数部と、
    出現回数が所定以上であれば、前記空間に人が存在すると判定し、そうでなければ存在しないと判定する判定部と、
    判定した結果を送信する送信部と
    を有する特徴音抽出装置、及び
    前記判定した結果を受信する受信部と、
    受信した結果に基づいて、前記特徴音抽出装置に所定のコンピュータプログラムを配信する配信部と
    を有する配信装置を
    備える配信システム。
    Figure 2016126479

JP2014266102A 2014-12-26 2014-12-26 特徴音抽出方法、特徴音抽出装置、コンピュータプログラム、配信システム Active JP6467915B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014266102A JP6467915B2 (ja) 2014-12-26 2014-12-26 特徴音抽出方法、特徴音抽出装置、コンピュータプログラム、配信システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014266102A JP6467915B2 (ja) 2014-12-26 2014-12-26 特徴音抽出方法、特徴音抽出装置、コンピュータプログラム、配信システム

Publications (2)

Publication Number Publication Date
JP2016126479A true JP2016126479A (ja) 2016-07-11
JP6467915B2 JP6467915B2 (ja) 2019-02-13

Family

ID=56357972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014266102A Active JP6467915B2 (ja) 2014-12-26 2014-12-26 特徴音抽出方法、特徴音抽出装置、コンピュータプログラム、配信システム

Country Status (1)

Country Link
JP (1) JP6467915B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021176770A1 (ja) * 2020-03-06 2021-09-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 行動識別方法、行動識別装置及び行動識別プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100085188A1 (en) * 2008-09-09 2010-04-08 Herdic Peter C Intruder Detector and Classifier
JP2011154130A (ja) * 2010-01-26 2011-08-11 Kanazawa Univ 音声識別装置及びこれを用いた音声識別システム
JP2011186932A (ja) * 2010-03-10 2011-09-22 Panasonic Electric Works Co Ltd ネットワーク装置
JP2011237865A (ja) * 2010-05-06 2011-11-24 Advanced Telecommunication Research Institute International 生活空間の見守りシステム
WO2012108218A1 (ja) * 2011-02-09 2012-08-16 日本電気株式会社 事象検知システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100085188A1 (en) * 2008-09-09 2010-04-08 Herdic Peter C Intruder Detector and Classifier
JP2011154130A (ja) * 2010-01-26 2011-08-11 Kanazawa Univ 音声識別装置及びこれを用いた音声識別システム
JP2011186932A (ja) * 2010-03-10 2011-09-22 Panasonic Electric Works Co Ltd ネットワーク装置
JP2011237865A (ja) * 2010-05-06 2011-11-24 Advanced Telecommunication Research Institute International 生活空間の見守りシステム
WO2012108218A1 (ja) * 2011-02-09 2012-08-16 日本電気株式会社 事象検知システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021176770A1 (ja) * 2020-03-06 2021-09-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 行動識別方法、行動識別装置及び行動識別プログラム

Also Published As

Publication number Publication date
JP6467915B2 (ja) 2019-02-13

Similar Documents

Publication Publication Date Title
JP6929383B2 (ja) 音声クエリの検出および抑制
US10347250B2 (en) Utterance presentation device, utterance presentation method, and computer program product
US10679256B2 (en) Relating acoustic features to musicological features for selecting audio with similar musical characteristics
Zhang et al. Comparing acoustic analyses of speech data collected remotely
WO2020177190A1 (zh) 一种处理方法、装置及设备
JP2017058483A (ja) 音声処理装置、音声処理方法及び音声処理プログラム
WO2021151310A1 (zh) 语音通话的噪声消除方法、装置、电子设备及存储介质
WO2020042583A1 (zh) 潜力绩优人员类型识别方法、系统、计算机装置及介质
JP6535497B2 (ja) 楽曲推薦システム、プログラム及び楽曲推薦方法
Pillos et al. A Real-Time Environmental Sound Recognition System for the Android OS.
Vrysis et al. Extending temporal feature integration for semantic audio analysis
CN109410972B (zh) 生成音效参数的方法、装置及存储介质
JP6467915B2 (ja) 特徴音抽出方法、特徴音抽出装置、コンピュータプログラム、配信システム
US20150169727A1 (en) Information processing apparatus, information processing method, and system
Thanoon et al. Biometric information based on distribution of arabic letters according to their outlet
US11404064B2 (en) Information processing apparatus and speech analysis method
Butler et al. Classifying crowd behavior at collegiate basketball games using acoustic data
US9398387B2 (en) Sound processing device, sound processing method, and program
JP2006251042A (ja) 情報処理装置、情報処理方法およびプログラム
EP3125540A1 (en) Information presentation method, information presentation apparatus, and program
WO2019187107A1 (ja) 情報処理装置、制御方法、及びプログラム
Lukasik Long term cepstral coefficients for violin identification
JP6733452B2 (ja) 音声分析プログラム、音声分析装置、及び音声分析方法
Kawamoto et al. Method for Analyzing Interactions in Pedagogical Environments using Environmental Sound Analysis
JP6726082B2 (ja) 防犯に関わる音の判定方法及び情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181231

R150 Certificate of patent or registration of utility model

Ref document number: 6467915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150