JP6527768B2 - 情報処理方法及び装置 - Google Patents

情報処理方法及び装置 Download PDF

Info

Publication number
JP6527768B2
JP6527768B2 JP2015136047A JP2015136047A JP6527768B2 JP 6527768 B2 JP6527768 B2 JP 6527768B2 JP 2015136047 A JP2015136047 A JP 2015136047A JP 2015136047 A JP2015136047 A JP 2015136047A JP 6527768 B2 JP6527768 B2 JP 6527768B2
Authority
JP
Japan
Prior art keywords
frame
feature amount
feature
sound
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015136047A
Other languages
English (en)
Other versions
JP2017020793A (ja
Inventor
翔太 藤丸
翔太 藤丸
渉 今竹
渉 今竹
淳宏 桜井
淳宏 桜井
晋太 木村
晋太 木村
Original Assignee
株式会社アニモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アニモ filed Critical 株式会社アニモ
Priority to JP2015136047A priority Critical patent/JP6527768B2/ja
Publication of JP2017020793A publication Critical patent/JP2017020793A/ja
Application granted granted Critical
Publication of JP6527768B2 publication Critical patent/JP6527768B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Description

本発明は、音データから特徴的なデータを抽出する技術に関する。
ある文献には、シャープネスとケプストラムの最大ピーク値とをパラメータとして、線型の識別関数をサポートベクターマシン(SVM)で生成し、異常音検出ができるようにする技術が開示されている。
また、他の文献には、非日常音と危険状態の検出システムにおいて、過去の音との類似度を算出するが開示されている。
さらに他の文献には、音響分析による設備の監視方法において、全体の音圧レベルあるいは特定周波数の音圧レベルが所定値を超え、しかも、その音圧レベルが所定値を超えている状態が所定の時間継続した場合にだけ、異常と判断する技術が開示されている。
さらに他の文献には、異常音に類似する様々な音響が存在する環境下においても、誤検知を頻発することのない音響による異常検知装置において、音響信号の音の立ち上がり率、ピーク音量、立ち下がり減衰率、継続時間を算出して、閾値と照合することにより、破壊音か否かを判定することが開示されている。
さらに他の文献には、入力された騒音の時間波形を、所定時間毎に切り出して、FFTをかけてパワースペクトルを求め、それにIFFTをかけて自己相関関数を求め、その値が時間軸上で過渡的に変化する場合に、異常音が発生している可能性があると判断できる、と開示されている。
このように異常音や非日常音の発生を検出するための様々な技術が存在しているが、このような異常音や非日常音及びその発生状況を後から確認したり活用する場面は想定されていない。
小池 竜之祐,クグレ マウリスオ,黒柳 奨,"音による危険察知のための評価指標の検討",電子情報通信学会技術研究報告. NC, ニューロコンピューティング,電子情報通信学会技術研究報告. NC, ニューロコンピューティング 113(500), 183-188, 2014-03-10 河本 満,浅野 太,車谷 浩一,"マイクロフォンアレイを用いた音環境の見守りによる非日常音と危険状態の検出システム",社団法人 情報処理学会 研究報告,2008年7月17日,p20−26
特開平8−271330号公報 特開2012−58944号公報 特開2000−214052号公報
従って、本発明の目的は、一側面によれば、音データから特徴的なデータを抽出するための新規な技術を提供することである。
本発明に係る情報処理方法は、(A)音データにおける各フレームについて、当該フレームにおける音の特徴量を算出し、データ格納部に格納する特徴量算出ステップと、(B)データ格納部に格納された各フレームについての特徴量に基づき、音データにおける特徴区間を特定する特定ステップとを含む。
一側面によれば、音データから特徴的なデータを抽出することができるようになる。
図1は、実施の形態に係る情報処理装置の構成例を示す図である。 図2は、特徴量算出部の構成例を示す図である。 図3は、実施の形態に係る処理フローを示す図である。 図4は、特徴量算出処理の処理フローを示す図である。 図5は、区間抽出処理の処理フローを示す図である。 図6は、区間抽出処理の処理フローを示す図である。 図7(a)は、特徴量の時間変化を表し、(b)は、抽出される区間を表し、(c)は、区間の間隔を表し、(d)及び(e)は、区間の結合を説明するための図である。
本発明の実施の形態では、音データから、特徴的な区間を例えば音の異常度合い又は音の非日常度合いに基づき抽出して、例えば当該特徴的な区間の音データによる音の要約データを生成する。
本発明の一実施の形態に係る情報処理装置100の構成例を図1に示す。本実施の形態に係る情報処理装置100は、第1データ格納部101と、特徴量算出部102と、第2データ格納部103と、区間抽出部104と、第3データ格納部105と、出力処理部106と、出力データ格納部107とを有する。情報処理装置100は、例えばパーソナルコンピュータであり、図示した構成要素の他に、キーボードやマウスなどの入力部、表示装置などの出力装置、他のコンピュータとインターネットやLAN(Local Area Network)などのネットワークを介して接続するための通信部、周辺機器などに接続するためのインタフェース等をさらに有している。
第1データ格納部101は、例えば、マイクなどを用いて収録された音データを格納する。特徴量算出部102は、第1データ格納部101に格納されている音データに対して後に詳細に述べる処理を行って、単位時間(以下、フレームと呼ぶ)毎に特徴量を算出し、第2データ格納部103に格納する。なお、第1データ格納部101は、区間抽出部104で用いられる設定データをも格納しているものとする。設定データは、例えば目標要約率xと、変動許容幅dとを含む。
区間抽出部104は、第2データ格納部103に格納されている各フレームの特徴量に基づき、音データにおいて特徴的な時間帯(以下、特徴区間と呼ぶ)を抽出し、当該特徴区間を特定するためのデータを第3データ格納部105に格納する。なお、特徴区間を抽出する際には、第1データ格納部101に格納されている設定データを用いる。
出力処理部106は、第1データ格納部101に格納されている音データから、第3データ格納部105に格納されている特徴区間を特定するためのデータを用いて、特徴区間の音データを抽出し、出力データ格納部107に格納する。
特徴量算出部102は、例えば図2に示すような構成を有する。すなわち、特徴量算出部102は、フレーム分割部1021と、第1音量分析部1022と、変化分析部1023と、第1BPF(Band-Pass Filter)1024と、第2音量分析部1025と、第2BPF1026と、第3音量分析部1027と、周期性抽出部1028と、乗算器1029乃至1033と、加算器1034とを含む。
フレーム分割部1021は、音データを単位時間(フレーム)毎に分割して、フレームの音データを第1音量分析部1022と、第1BPF1024と、第2BPF1026と、周期性抽出部1028とに出力する。
第1音量分析部1022は、フレームの音データにおける音量(例えば平均値など)を算出する。音量は、例えば音圧レベル(dB SPL(Sound Pressure Level))として測定される。0dB SPLは、人間の知覚で感知できる最低の気圧変化である20μPaに相当する。本実施の形態では、音量は単純な音量として算出される場合もあれば、定常的な騒音レベルを求め、その騒音レベルから対象音がどれくらい大きな音であるかを表す騒音相対音量(騒音レベルに対する相対音量)を用いるようにしても良い。このようにすれば、測定場所で意味のある目立った音(異常音又は非日常音)の指標値が得られるようになる。例えば、騒音レベルが70dB SPLの場所で、85dB SPLの音は、騒音相対音量は15dBとなる。
変化分析部1023は、フレーム内の音量の変化を分析する処理を行う。具体的には、音の出だしの場面であれば、音量の立ち上がり速度(dB/秒)を算出し、音が止む場面であれば、音量の立ち下がり速度を算出する。このようなスピードが大きいものは、聴覚上のマッハ効果で目立った音と人間に認識されやすい。なお、立ち上がりのみに着目するようにしても良い。
第1BPF1024は、フレームの音データから第1の周波数帯域(例えば500Hzから5000Hz(音声のフォルマントが存在する帯域))のみを抽出し、第2音量分析部1025に出力する。人間の耳は周波数帯によって感度が異なっているので、例えば上で述べたような周波数帯に着目するものである。第2音量分析部1025は、第1BPF1024からの出力に対して音量を算出する。処理内容は第1音量分析部1022と同様である。
第2BPF1026は、フレームの音データから第2の周波数帯域(例えば2000Hzから4500Hz(特に耳の感度が高い帯域。音声の第2フォルマント及び第3フォルマントが存在する帯域。又はスポーツの審判などが使用している笛の帯域など。))のみを抽出して、第3音量分析部1027に出力する。第3音量分析部1027は、第2BPF1026からの出力に対して音量を算出する。処理内容は第1音量分析部1022と同様である。
周期性抽出部1028は、フレーム内において自己相関関数の最大値を算出する。周期性抽出部1028の処理は、例えば従来技術の欄で述べた方法により行われる。
乗算器1029は、第1音量分析部1022の出力pに対して予め定められた係数a1を乗じて加算器1034に出力する。乗算器1030は、変化分析部1023の出力p_speedに対して予め定められた係数a2を乗じて加算器1034に出力する。
乗算器1031は、第2音量分析部1025の出力p_band1に対して予め定められた係数a3を乗じて加算器1034に出力する。乗算器1032は、第3音量分析部1027の出力p_band2に対して予め定められた係数a4を乗じて加算器1034に出力する。乗算器1033は、周期性抽出部1028の出力periodicityに対して予め定められた係数a5を乗じて加算器1034に出力する。
加算器1034は、乗算器1029乃至1033の出力と、予め定められた係数a0とを加算して、特徴量として、第2データ格納部103に格納する。
なお、特徴量を算出する際に用いるパラメータについては、これらに限定されるものではなく、例えば所定レベル以上の音量が継続する時間をさらに用いるようにしても良いし、従来用いられている他のパラメータを加えるようにしても良い。さらに、上で述べたパラメータの一部を採用するようにしても良い。
さらに係数a0乃至a5については、従来技術で述べられているSVMを用いて算出する。具体的には、抽出すべき異常音などについてb=a0+a1×p+a2×p_speed+a3×p_band1+a4×p_band2+a5×periodicityを算出すると0を超える値になり、それ以外の音などについてbを算出すると0未満となるように、係数a0乃至a5を算出する。但し、例えば経験則によってパラメータの重み付けを行って、係数a0乃至a5を設定するようにしても良い。
次に、図3乃至図7を用いて、情報処理装置100の処理内容を説明する。
まず、情報処理装置100は、例えばユーザによる音データ及び設定データの入力を受け付け、第1データ格納部101に格納する(図3:ステップS1)。そして、特徴量算出部102は、第1データ格納部101に格納されているデータを用いて特徴量算出処理を実行し、処理結果を第2データ格納部103に格納する(ステップS3)。特徴量算出処理については、図4を用いて説明する。
まず、フレーム分割部1021は、第1データ格納部101に格納されている音データを単位時間毎に分割する(図4:ステップS11)。この際、フレーム総数imaxを特定する。また、特徴量算出部102は、カウンタiを1に初期化する(ステップS13)。
そうすると、第1音量分析部1022は、i番目のフレームについての音量を算出する(ステップS15)。また、変化分析部1023は、i番目のフレームについて音量の立ち上がり速度又は立ち下がり速度を算出する(ステップS17)。
さらに、第1BPF1024は、i番目のフレームについて第1の周波数帯域の成分のみを抽出して、第2音量分析部1025は、当該第1の周波数帯域に係る音量を算出する(ステップS19)。同様に、第2BPF1026は、i番目のフレームについて第2の周波数帯域の成分のみを抽出して、第3音量分析部1027は、当該第2の周波数帯域に係る音量を算出する(ステップS21)。さらに、周期性抽出部1028は、i番目のフレームについてフレーム内の自己相関係数の最大値を算出する(ステップS23)。
ステップS15乃至S23については、図2に示すように並列に行っても良いし、図4に示すように順番に行っても良い。順番は入れ替え可能である。
そして、乗算器1029乃至1033と加算器1034は、算出されたパラメータの値からi番目のフレームについての特徴量biを算出し、第2データ格納部103に格納する(ステップS25)。
そして、特徴量算出部102は、iがimaxを超えたか否かを判断する(ステップS27)。iがimaxを超えていない場合には、特徴量算出部102は、iを1インクリメントし(ステップS29)、処理はステップS15に戻る。一方、iがimaxを超えた場合には、処理は呼び出し元の処理に戻る。
このような処理を行うことで、各フレームについて音の異常度合い又は音の非日常度合いを表す指標値である特徴量が算出される。
図3の処理の説明に戻って、次に、区間抽出部104は、第2データ格納部103に格納されているデータを用いて区間抽出処理を実行し、処理結果を第3データ格納部105に格納する(ステップS5)。区間抽出処理については、図5乃至図7を用いて説明する。
まず、区間抽出部104は、算出された特徴量の系列biの中から、最大値fMaxを算出する(図5:ステップS31)。また、区間抽出部104は、以下の設定を行う(ステップS33)。
fth =fMAX/2
fSearchMax =fMax
fSearchMin =0
すなわち、閾値fthに、最大値fMaxの半分を設定する。また、閾値の上限値fSearchMaxに、最大値fMaxを設定する。さらに、閾値の下限値fSearchMinに、0を設定する。
そして、区間抽出部104は、目標要約率xと変動許容幅dから、要約時間の上限dMax及び下限dMinを算出する(ステップS35)。具体的には、音データの時間長Lとすると、L×x−d=dMinと算出し、L×x+d=dMaxと算出する。dが割合を表す場合には、L×x×(1−d)=dMinとなり、L×x×(1+d)=dMaxとなる。
また、区間抽出部104は、特徴量の系列biから、閾値fthを超えている区間(すなわちフレーム列)を抽出し、例えば第3データ格納部105に格納する(ステップS37)。
例えば、図7(a)に示すような特徴量の系列biが得られたものと仮定する。すなわち、縦軸は特徴量を表し、横軸は時間を表しており、特徴量の時間変化が示されている。ここでは、特徴量の系列をアナログ的に示しているが、実際には離散的な値として得られる。この例では、特徴量がfthを超える4つの区間が抽出される。すなわち、図7(b)に示すように、区間a乃至dが抽出される。なお、区間のデータについては、開始時刻及び終了時刻のデータを含むものとする。
そして、区間抽出部104は、抽出された区間のうち未処理の区間を1つ特定する(ステップS39)。ここでは処理を簡単にするため、出現順に未処理の区間を特定するものとする。すなわち、図7(b)の場合、区間aから特定する。
その後、区間抽出部104は、特定された区間の終了時刻と次の区間の開始時刻との時間差が所定時間以内であるか否かを判断する(ステップS41)。例えば、図7(b)の場合には、区間aの終了時刻と区間bの開始時刻との差は、矢印Aで表される。区間bの終了時刻と区間cの開始時刻との差は、矢印Bで表される。区間cの終了時刻と区間dの開始時刻との差は、矢印Cで表される。
図7(c)の場合、矢印Aの長さは長いので、ステップS41の条件を満たさないと判断される。一方、矢印B及びCの長さは短いので、ステップS41の条件を満たすものと判断される。
矢印Aのように時間差が所定時間より長い場合には(ステップS41:Noルート)、処理はステップS49に移行する。一方、矢印B及びCのように時間差が所定時間以内である場合には(ステップS41:Yesルート)、区間抽出部104は、特定された区間が既に結合済みであるか否かを判断する(ステップS43)。最初は結合されていないので、未結合であると判断される。
特定された区間が未結合である場合には、区間抽出部104は、特定された区間と次の区間を結合し、結合後の区間についてのデータを第3データ格納部105に格納する(ステップS47)。例えば、結合後の区間の開始時刻及び終了時刻と、結合後の区間に含まれる各区間の開始時刻及び終了時刻とを格納する。図7(c)の場合、区間bと区間cとが結合されて、その間の期間と共に、図7(d)に示すように、結合区間b1が生成される。なお、結合区間b1についてのデータについては、その開始時刻及び終了時刻に加えて、区間b及びcのデータを含む。そして処理はステップS49に移行する。なお、結合された次の区間についても、ステップS39ではステップS37で抽出された区間として、処理対象となる。
一方、特定された区間が結合済みである場合、すなわち、特定された区間が、結合後の区間に含まれるいずれかの区間に該当する場合には、区間抽出部104は、特定された区間を含む結合区間に、次の区間を結合し、さらなる結合後の区間についてのデータを第3データ格納部105に格納する(ステップS45)。図7(b)及び(c)に示すように、区間cと区間dの間の矢印Cも短くてステップS41の条件を満たすため、区間cを処理の対象としたとき、区間dは、区間cと結合されることになる。しかし、既に区間cは結合されているので、図7(e)に示すように、区間cを含む結合区間b1にさらに区間dを結合することになって、結合区間b2が生成される。結合区間b2についてのデータは、その開始時刻及び終了時刻に加えて、区間b、c及びdについてのデータを含む。そして処理はステップS49に移行する。
その後、区間抽出部104は、ステップS37で抽出した区間のうち未処理の区間が存在するか否かを判断する(ステップS49)。未処理の区間が存在する場合には、処理はステップS39に戻る。一方、未処理の区間が存在しない場合には、処理は端子Aを介して図6の処理に移行する。
このように図7(e)に示すように、図7(a)の例では、区間a及び結合区間b2が特徴区間として特定される。
図6の処理の説明に移行して、区間抽出部104は、抽出された孤立区間(抽出されたが結合されなかった区間。図7(e)の区間a)及び結合区間の合計時間を算出する(ステップS51)。そして、区間抽出部104は、合計時間がdMin未満であるか否かを判断する(ステップS53)。合計時間がdMin未満である場合には、閾値fthが高すぎて、目標要約率xに適合するような要約ができないことを意味する。従って、合計時間がdMin未満であれば、区間抽出部104は、以下の設定を行う(ステップS55)。その後処理は端子Bを介して図5のステップS37に戻る。
fSearchMax =fth
fth =(fth+fSearchMin)/2
すなわち、閾値の上限値fSearchMaxに、現在の閾値fthを設定し、閾値fthを、下げるように設定する。
一方、合計時間がdMin以上である場合には、区間抽出部104は、合計時間がdMaxを超えたか判断する(ステップS57)。合計時間がdMaxを超えるということは、閾値fthが低すぎることを意味する。従って、合計時間がdMaxを超えた場合、区間抽出部104は、以下の設定を行う(ステップS59)。その後処理は端子Bを介して図5のステップS37に戻る。
fSearchMin =fth
fth =(fth+fSearchMax)/2
すなわち、閾値の下限値fSearchMinに、現在の閾値fthを設定し、閾値fthを、上げるように設定する。
一方、合計時間がdMaxを超えていない場合には、ちょうど良い合計時間の区間が抽出されたことになる。本実施の形態では、このような合計時間の区間を特徴区間と呼ぶことにする。なお、区間抽出部104は、特徴区間を特定するためのデータ(例えば開始時刻及び終了時刻の組み合わせ)を第3データ格納部105に格納する。そして、処理は図3の処理に戻る。
図3の処理の説明に戻って、出力処理部106は、第2データ格納部103に格納されている特徴量の系列及び第3データ格納部105に格納されている特徴区間のデータを、例えば表示装置に表示する(ステップS7)。
例えば図7(a)及び(e)のようなデータを表示装置に表示する。ユーザは、このような表示を確認の上、特徴区間の音データを抽出するように指示するようにしても良い。なお、ユーザは、特徴区間を入力装置を用いて修正するような指示を行うようにしても良い。また、ユーザは、自動的に抽出された特徴区間に加えて抽出すべき区間を追加指定するようにしても良い。
その後、出力処理部106は、第1データ格納部101に格納されている音データから、特徴区間(自動抽出された特徴区間のまま、修正後の特徴区間、追加された区間を含む特徴区間など)における音データを抽出して結合し、出力データ格納部107に格納する(ステップS9)。なお、特徴区間を特定するためのデータを出力データ格納部107に格納するようにしてもよい。また、特徴区間における音データに付随する他のデータを取得して、出力データ格納部107に格納するようにしてもよい。さらに、スピーカなどがあれば、スピーカから特徴区間における音データを出力するようにしても良い。
このようにすれば、音データから特徴的なデータを抽出できるようになる。より具体的には、特徴的な区間を特定でき、その区間の音データも抽出できる。
以上本発明の実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、処理フローについては、処理結果が変わらない限り、処理順番を入れ替えたり、並列に実行するようにしても良い。また、図1及び図2に示したような機能ブロック構成は、プログラムモジュール構成とは一致しない場合もある。
また、図5及び図6では、区間の結合を行う例を示したが、区間の結合を行わないようにしても良い。例えば、特徴量が閾値を超えるようなフレームを抽出することのみを行うようにしても良い。さらに、上で述べたように閾値の調整は行うが、区間の結合を行わないようにしてもよい。
また、出力処理部106は、データを、ネットワークに接続された他のコンピュータに出力するようにしても良い。すなわち、情報処理装置100が、サーバ装置であって、クライアント装置である他のコンピュータからの指示に従って処理を行い、処理結果をクライアント装置に送信するようにしても良い。
なお、上で述べた情報処理装置100は、コンピュータ装置であって、メモリとCPU(Central Processing Unit)とハードディスク・ドライブ(HDD:Hard Disk Drive)と表示装置に接続される表示制御部とリムーバブル・ディスク用のドライブ装置と入力装置とネットワークに接続するための通信制御部とがバスで接続されている。オペレーティング・システム(OS:Operating System)及び本実施例における処理を実施するためのアプリケーション・プログラムは、HDDに格納されており、CPUにより実行される際にはHDDからメモリに読み出される。CPUは、アプリケーション・プログラムの処理内容に応じて表示制御部、通信制御部、ドライブ装置を制御して、所定の動作を行わせる。また、処理途中のデータについては、主としてメモリに格納されるが、HDDに格納されるようにしてもよい。本発明の実施例では、上で述べた処理を実施するためのアプリケーション・プログラムはコンピュータ読み取り可能なリムーバブル・ディスクに格納されて頒布され、ドライブ装置からHDDにインストールされる。インターネットなどのネットワーク及び通信制御部を経由して、HDDにインストールされる場合もある。このようなコンピュータ装置は、上で述べたCPU、メモリなどのハードウエアとOS及びアプリケーション・プログラムなどのプログラムとが有機的に協働することにより、上で述べたような各種機能を実現する。
以上述べた本実施の形態をまとめると以下のようになる。
本実施の形態に係る情報処理方法は、(A)音データにおける各フレームについて、当該フレームにおける音の特徴量を算出し、データ格納部に格納する特徴量算出ステップと、(B)データ格納部に格納された各フレームについての特徴量に基づき、音データにおける特徴区間を特定する特定ステップとを含む。
このようにすれば、音データから特徴的なデータを抽出できるようになる。例えば、音の特徴量が大きいフレームを抽出することで、特徴的な区間が抽出できるようになる。
なお、上で述べた音の特徴量が、音の異常度合いを表す特徴量、又は音の非日常度合いを表す特徴量である場合もある。例えば、例えば、街角、家庭内、事務所内、店舗内、駅構内、空港ロビー内、工場内といった様々な場所で録音された音データにおいて、突然大きな物音がした区間や、人が叫んだ声を含む区間などが、要約として抽出できるようになる。
さらに、上で述べた情報処理方法は、(C)音データから、特定された特徴区間内のデータを抽出するステップをさらに含むようにしても良い。これによって、音データの要約音データが生成され、録音場所における状況把握を効率的に行うことができるようになる。
また、上で述べた特定ステップが、特徴量が閾値以上となるフレームを特定し、特定したフレームから音データにおける特徴区間を構成するステップを含むようにしても良い。このような簡易な方法でもある程度有効な特徴区間が得られる。
また、上で述べた特定ステップが、特徴量が閾値以上となるフレームの合計時間が、予め定められた範囲内に収まるように閾値を決定し、特徴量が、決定した閾値以上となるフレームから音データにおける特徴区間を構成する構成ステップを含むようにしても良い。このような方法を採用しても、長時間の音データから、一定の時間的範囲に限定された特徴的な区間を特定できるようになる。よって、音データの効率的な確認又は活用が可能となる。
さらに、上で述べた特定ステップが、特徴量が閾値以上となる第1のフレームと、第1のフレームに挟まれ且つ特徴量が閾値未満であり且つ所定時間以内で連続する第2のフレームとの合計時間が、予め定められた範囲内に収まるように閾値を決定し、決定した閾値についての第1のフレームと第2のフレームとから音データにおける特徴区間を構成する構成ステップを含むようにしても良い。
このようにすれば、より状況を正しく把握できるような区間を一定範囲に時間を制限しつつ特定できるようになる。
なお、上で述べた特徴量算出ステップは、各フレームについて、全体音量についての指標値と、人間の耳の感度に基づき設定された所定周波数帯における音量についての指標値と、音の周期性についての指標値と、音量の変化度合いについての指標値とのうち少なくともいずれかに基づき、音の特徴量を算出するステップを含むようにしても良い。より適切に異常度合い又は非日常度合いを特定できる。
なお、上記方法をコンピュータに行わせるためのプログラムを作成することができ、当該プログラムは、例えばフレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納される。尚、中間的な処理結果はメインメモリ等の記憶装置に一時保管される。
101 第1データ格納部 102 特徴量算出部
103 第2データ格納部 104 区間抽出部
105 第3データ格納部 106 出力処理部
107 出力データ格納部

Claims (6)

  1. 音データにおける各フレームについて、当該フレームにおける音の特徴量を算出し、データ格納部に格納する特徴量算出ステップと、
    前記データ格納部に格納された各前記フレームについての前記特徴量に基づき、前記音データにおける特徴区間を特定する特定ステップと、
    を、コンピュータに実行させるためのプログラムであって、
    前記特定ステップが、
    前記特徴量が閾値以上となるフレームの合計時間が、予め定められた範囲内に収まるように前記閾値を決定し、前記特徴量が、決定した前記閾値以上となるフレームから前記音データにおける特徴区間を構成する構成ステップ
    を含むプログラム
  2. 音データにおける各フレームについて、当該フレームにおける音の特徴量を算出し、データ格納部に格納する特徴量算出ステップと、
    前記データ格納部に格納された各前記フレームについての前記特徴量に基づき、前記音データにおける特徴区間を特定する特定ステップと、
    を、コンピュータに実行させるためのプログラムであって、
    前記特定ステップが、
    前記特徴量が閾値以上となる第1のフレームと、前記第1のフレームに挟まれ且つ前記特徴量が閾値未満であり且つ所定時間以内で連続する第2のフレームとの合計時間が、予め定められた範囲内に収まるように前記閾値を決定し、決定した前記閾値についての前記第1のフレームと前記第2のフレームとから前記音データにおける特徴区間を構成する構成ステップ
    を含むプログラム
  3. 音データにおける各フレームについて、当該フレームにおける音の特徴量を算出し、データ格納部に格納する特徴量算出ステップと、
    前記データ格納部に格納された各前記フレームについての前記特徴量に基づき、前記音データにおける特徴区間を特定する特定ステップと、
    を含み、
    前記特定ステップが、
    前記特徴量が閾値以上となるフレームの合計時間が、予め定められた範囲内に収まるように前記閾値を決定し、前記特徴量が、決定した前記閾値以上となるフレームから前記音データにおける特徴区間を構成する構成ステップ
    を含み、コンピュータが実行する情報処理方法。
  4. 音データにおける各フレームについて、当該フレームにおける音の特徴量を算出し、データ格納部に格納する特徴量算出ステップと、
    前記データ格納部に格納された各前記フレームについての前記特徴量に基づき、前記音データにおける特徴区間を特定する特定ステップと、
    を含み、
    前記特定ステップが、
    前記特徴量が閾値以上となる第1のフレームと、前記第1のフレームに挟まれ且つ前記特徴量が閾値未満であり且つ所定時間以内で連続する第2のフレームとの合計時間が、予め定められた範囲内に収まるように前記閾値を決定し、決定した前記閾値についての前記第1のフレームと前記第2のフレームとから前記音データにおける特徴区間を構成する構成ステップ
    を含み、コンピュータが実行する情報処理方法。
  5. 音データにおける各フレームについて、当該フレームにおける音の特徴量を算出し、データ格納部に格納する特徴量算出手段と、
    前記データ格納部に格納された各前記フレームについての前記特徴量に基づき、前記音データにおける特徴区間を特定する特定手段と、
    を有し、
    前記特定手段が、
    前記特徴量が閾値以上となるフレームの合計時間が、予め定められた範囲内に収まるように前記閾値を決定し、前記特徴量が、決定した前記閾値以上となるフレームから前記音データにおける特徴区間を構成する手段
    を有する情報処理装置。
  6. 音データにおける各フレームについて、当該フレームにおける音の特徴量を算出し、データ格納部に格納する特徴量算出手段と、
    前記データ格納部に格納された各前記フレームについての前記特徴量に基づき、前記音データにおける特徴区間を特定する特定手段と、
    を有し、
    前記特定手段が、
    前記特徴量が閾値以上となる第1のフレームと、前記第1のフレームに挟まれ且つ前記特徴量が閾値未満であり且つ所定時間以内で連続する第2のフレームとの合計時間が、予め定められた範囲内に収まるように前記閾値を決定し、決定した前記閾値についての前記第1のフレームと前記第2のフレームとから前記音データにおける特徴区間を構成する手段
    を有する情報処理装置。
JP2015136047A 2015-07-07 2015-07-07 情報処理方法及び装置 Active JP6527768B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015136047A JP6527768B2 (ja) 2015-07-07 2015-07-07 情報処理方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015136047A JP6527768B2 (ja) 2015-07-07 2015-07-07 情報処理方法及び装置

Publications (2)

Publication Number Publication Date
JP2017020793A JP2017020793A (ja) 2017-01-26
JP6527768B2 true JP6527768B2 (ja) 2019-06-05

Family

ID=57889403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015136047A Active JP6527768B2 (ja) 2015-07-07 2015-07-07 情報処理方法及び装置

Country Status (1)

Country Link
JP (1) JP6527768B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019235035A1 (ja) * 2018-06-08 2019-12-12 パナソニックIpマネジメント株式会社 収音解析システム及び収音解析方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3803311B2 (ja) * 2001-08-08 2006-08-02 日本電信電話株式会社 音声処理方法及びその方法を使用した装置及びそのプログラム
JP2007228287A (ja) * 2006-02-23 2007-09-06 Aiphone Co Ltd インターホン装置
JP5046000B2 (ja) * 2007-02-21 2012-10-10 ソニー株式会社 検出装置、方法、及びプログラム
JP5627962B2 (ja) * 2010-09-08 2014-11-19 セコム株式会社 異常検知装置
JP5652945B2 (ja) * 2010-12-13 2015-01-14 綜合警備保障株式会社 音検出装置および音検出方法
JP5811642B2 (ja) * 2011-07-05 2015-11-11 ヤマハ株式会社 音声記録サーバ装置及び音声記録システム
WO2013179254A1 (en) * 2012-05-31 2013-12-05 Ben Gurion University Of The Negev Research And Development Authority Apparatus and method for diagnosing sleep quality

Also Published As

Publication number Publication date
JP2017020793A (ja) 2017-01-26

Similar Documents

Publication Publication Date Title
CN102436821B (zh) 一种自适应调节音效的方法和设备
KR101122838B1 (ko) 음원 신호 분리 장치 및 방법, 및 피치 검출 장치 및 방법
CN107645696B (zh) 一种啸叫检测方法和装置
JP2020525817A (ja) 声紋認識方法、装置、端末機器および記憶媒体
US10290322B2 (en) Audio and video synchronizing perceptual model
US9646592B2 (en) Audio signal analysis
EP2927906B1 (en) Method and apparatus for detecting voice signal
JP6174856B2 (ja) 雑音抑制装置、その制御方法、及びプログラム
JP2015050685A (ja) オーディオ信号処理装置および方法、並びにプログラム
JP5614261B2 (ja) 雑音抑制装置、雑音抑制方法、及びプログラム
JP6527768B2 (ja) 情報処理方法及び装置
CN111312287A (zh) 一种音频信息的检测方法、装置及存储介质
JP5915281B2 (ja) 音響処理装置
CN112669797B (zh) 音频处理方法、装置、电子设备及存储介质
JP5774191B2 (ja) オーディオ信号において卓越周波数を減衰させるための方法および装置
CN113709291A (zh) 音频处理方法、装置、电子设备及可读存储介质
CN111782859A (zh) 一种音频可视化方法、装置和存储介质
CN112927713A (zh) 音频特征点的检测方法、装置和计算机存储介质
JP3350713B2 (ja) 騒音源の種類を特定する方法、その装置および媒体
Rämö et al. Real-time perceptual model for distraction in interfering audio-on-audio scenarios
JP5193130B2 (ja) 電話音声区間検出装置およびそのプログラム
JP7278161B2 (ja) 情報処理装置、プログラム及び情報処理方法
CN115728382A (zh) 水果成熟度检测方法、装置、设备及存储介质
JP2011217139A (ja) 信号処理装置および方法、並びにプログラム
CN110335623A (zh) 音频数据处理方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190513

R150 Certificate of patent or registration of utility model

Ref document number: 6527768

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250