JP6890867B1 - 評価プログラム、及び評価システム - Google Patents

評価プログラム、及び評価システム Download PDF

Info

Publication number
JP6890867B1
JP6890867B1 JP2021004238A JP2021004238A JP6890867B1 JP 6890867 B1 JP6890867 B1 JP 6890867B1 JP 2021004238 A JP2021004238 A JP 2021004238A JP 2021004238 A JP2021004238 A JP 2021004238A JP 6890867 B1 JP6890867 B1 JP 6890867B1
Authority
JP
Japan
Prior art keywords
evaluation
data
sound
sound data
evaluation result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021004238A
Other languages
English (en)
Other versions
JP2022108980A (ja
Inventor
継 河合
継 河合
Original Assignee
クリスタルメソッド株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クリスタルメソッド株式会社 filed Critical クリスタルメソッド株式会社
Priority to JP2021004238A priority Critical patent/JP6890867B1/ja
Application granted granted Critical
Publication of JP6890867B1 publication Critical patent/JP6890867B1/ja
Publication of JP2022108980A publication Critical patent/JP2022108980A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

【課題】環境が変化した場合においても、ノイズデータから抽出した評価用音データを高精度に評価できる評価プログラム及び評価システムを提供する。【解決手段】目的信号音及び周辺環境音に基づくノイズデータの評価を支援する評価プログラムであって、ノイズデータを取得する取得ステップと、取得ステップにより取得したノイズデータから評価用音データを抽出する抽出ステップと、予め取得された参照用音データと、参照用音データに対する評価を示す参照用評価結果とを一対のデータセットとする評価用学習データを複数用いて、機械学習により生成された判定モデルを参照して、評価用音データに対する評価結果を生成する判定ステップとを、コンピュータに実行させる。【選択図】図11

Description

本発明は、評価プログラム、及び評価システムに関する。
近年の音響処理技術の進展に伴い、コネクタ嵌合時等に発生するコネクタ音等の目的信号音を捉えて検知する自動監視システム技術が注目を集めている。これらの機能を実現する装置は屋外や工場などの周辺環境音を含む環境下で用いられることが多い。このため、目的信号音の入力のときに、目的信号音及び周辺環境音に基づくノイズデータが入力されてしまい異常音検出率の低下などを招く。このため、高精度の異常音検出を実現するには、ノイズデータに混入した周辺環境音を排除し、目的信号音のみを抽出する装置が必要であり、例えば特許文献1の音響信号強調装置が知られている。
特許文献1では、目的信号と雑音が混入した入力信号から、目的信号または雑音の特徴を重み付けした信号を出力し、結合係数を用いて目的信号の強調を行った強調信号を出力し、強調信号から目的信号または雑音の特徴の重み付けを解除する。また、特許文献1では、強調信号から目的信号または雑音の特徴の重み付けを解除し、ニューラルネットワークの学習を行うための教師信号に対して目的信号または雑音の特徴を重み付けした信号を出力し、重み付けされた信号と、出力信号との学習誤差が設定値以下の値となる結合係数を出力する。これにより、特許文献1では、学習データが少ない状況においても高品質な音響信号の強調信号を得ることができる音響信号強調装置に関する技術が開示されている。
国際公開番号WO2017/141317号公報
一方、工場等の周辺環境音は、現場や作業内容等によって変化する。例えば、周辺の機械の種類や性能、又は周辺の環境が異なると、周辺環境音は変化する。ここで、特許文献1では、ノイズデータから目的信号音を抽出するために、上記の環境下に合わせた学習データを取得する必要がある。このため、特許文献1では、環境が変化した場合、ノイズデータから抽出した評価用音データを評価する際、目的信号音と合致する精度が低くなり得る。このため、環境が変化した場合においても、評価用音データを高精度に評価することが求められている。
そこで本発明は、上述した問題に鑑みて案出されたものであり、その目的とするところは、環境が変化した場合においても、ノイズデータから抽出した評価用音データを高精度に評価できる評価プログラム、及び評価システムを提供することにある。
第1発明に係る評価プログラムは、目的信号音と周辺環境音とが混入した音に基づくノイズデータの評価を支援する評価プログラムであって、前記ノイズデータを取得する取得ステップと、前記取得ステップにより取得したノイズデータから、前記ノイズデータに含まれる前記目的信号音を抽出するために前記ノイズデータから抽出される評価用音データを抽出する抽出ステップと、予め取得された参照用音データと前記参照用音データに対する評価を示す参照用評価結果とを一対のデータセットとする評価用学習データを複数用いて、機械学習により生成された判定モデルを参照して、前記評価用音データに対する評価結果を生成する判定ステップとをコンピュータに実行させ、前記参照用音データは、学習用目的信号音のみに基づく第1参照用音データと、前記学習用目的信号音及び前記周辺環境音に基づく第2参照用音データとを含み、前記参照用評価結果は、前記第1参照用音データに対する評価を示す参照用第1評価結果と、前記第2参照用音データに対する評価を示し、前記参照用第1評価結果と異なる参照用第2評価結果とを含み、前記データセットは、前記第1参照用音データと前記参照用第1評価結果とを一対とする第1データセット、及び前記第2参照用音データと前記参照用第2評価結果とを一対とする第2データセットを含むことを特徴とする。
第2発明に係る評価プログラムは、目的信号音と周辺環境音とが混入した音に基づくノイズデータの評価を支援する評価プログラムであって、前記ノイズデータを取得する取得ステップと、前記取得ステップにより取得したノイズデータから、前記ノイズデータに含まれる前記目的信号音を抽出するために前記ノイズデータから抽出される評価用音データを抽出する抽出ステップと、予め取得された参照用音データと前記参照用音データに対する評価を示す参照用評価結果とを一対のデータセットとする評価用学習データを複数用いて、機械学習により生成された判定モデルを参照して、前記評価用音データに対する評価結果を生成する判定ステップとをコンピュータに実行させ、前記抽出ステップは、予め取得された参照用ノイズデータと前記参照用ノイズデータに紐づく参照用評価用音データとを一対のデータセットとする抽出用学習データを複数用いて、機械学習により生成された抽出モデルを参照して、前記ノイズデータから前記評価用音データを抽出することを特徴とする。
第3発明に係る評価プログラムは、第発明において、前記抽出モデルは、前記参照用ノイズデータと、実際に録音された目的信号音に基づく前記参照用評価用音データ、又は擬似的に生成された前記参照用評価用音データとを一対のデータセットとする抽出用学習データを用いて、機械学習により生成されることを特徴とする。
第4発明に係る評価プログラムは、第2発明又は第3発明において、前記参照用音データは、学習用目的信号音に基づく第1参照用音データと、前記学習用目的信号音とは異なる音に基づく第2参照用音データとを含み、前記参照用評価結果は、前記第1参照用音データに対する評価を示す参照用第1評価結果と、前記第2参照用音データに対する評価を示し、前記参照用第1評価結果とは異なる参照用第2評価結果とを含み、前記データセットは、前記第1参照用音データと前記参照用第1評価結果とを一対とする第1データセット、及び前記第2参照用音データと前記参照用第2評価結果とを一対とする第2データセットを含むことを特徴とする。
第5発明に係る評価プログラムは、第1発明又は第4発明において、前記判定ステップは、前記評価用音データが前記第1参照用音データと類似又は一致する場合、前記評価用音データが正常であることを示す第1評価結果を生成し、前記評価用音データが前記第2参照用音データと類似又は一致する場合、前記評価用音データが異常であることを示す第2評価結果を生成することを特徴とする。
第6発明に係る評価プログラムは、第1発明〜第5発明のいずれかにおいて、前記取得ステップは、前記目的信号音及び前記周辺環境音から生成されたスペクトログラムを示す画像データを含む前記ノイズデータを取得することを特徴とする。
第7発明に係る評価プログラムは、第1発明〜第6発明の何れかにおいて、前記目的信号音は、コネクタ音であることを特徴とする。
第8発明に係る評価システムは、目的信号音と周辺環境音とが混入した音に基づくノイズデータの評価を支援する評価システムであって、前記ノイズデータを取得する取得手段と、前記取得手段により取得したノイズデータから、前記ノイズデータに含まれる前記目的信号音を抽出するために前記ノイズデータから抽出される評価用音データを抽出する抽出手段と、予め取得された参照用音データと前記参照用音データに対する評価を示す参照用評価結果とを一対のデータセットとする評価用学習データを複数用いて、機械学習により生成された判定モデルが記憶されたデータベースと、前記判定モデルを参照して、前記評価用音データに対する評価結果を生成する判定手段を備え、前記参照用音データは、学習用目的信号音のみに基づく第1参照用音データと、前記学習用目的信号音及び前記周辺環境音に基づく第2参照用音データとを含み、前記参照用評価結果は、前記第1参照用音データに対する評価を示す参照用第1評価結果と、前記第2参照用音データに対する評価を示し、前記参照用第1評価結果と異なる参照用第2評価結果とを含み、前記データセットは、前記第1参照用音データと前記参照用第1評価結果とを一対とする第1データセット、及び前記第2参照用音データと前記参照用第2評価結果とを一対とする第2データセットを含むことを特徴とする。
第9発明に係る評価システムは、目的信号音と周辺環境音とが混入した音に基づくノイズデータの評価を支援する評価システムであって、前記ノイズデータを取得する取得手段と、前記取得手段により取得したノイズデータから、前記ノイズデータに含まれる前記目的信号音を抽出するために前記ノイズデータから抽出される評価用音データを抽出する抽出手段と、予め取得された参照用音データと前記参照用音データに対する評価を示す参照用評価結果とを一対のデータセットとする評価用学習データを複数用いて、機械学習により生成された判定モデルが記憶されたデータベースと、前記判定モデルを参照して、前記評価用音データに対する評価結果を生成する判定手段を備え、前記抽出手段は、予め取得された参照用ノイズデータと前記参照用ノイズデータに紐づく参照用評価用音データとを一対のデータセットとする抽出用学習データを複数用いて、機械学習により生成された抽出モデルを参照して、前記ノイズデータから前記評価用音データを抽出することを特徴とする。
第1発明〜第9発明によれば、予め取得された参照用音データと参照用評価結果とを一対のデータセットとする評価用学習データを用いて、機械学習により生成された判定モデルを参照して、評価用音データに対する評価結果を生成する。即ち、評価プログラムを利用する環境を踏まえた参照用音データを用意することで、評価用音データに対する適切な評価結果を生成することができる。例えば、参照用音データとして、環境の変化に依存しない参照用音データを用いることで、抽出された評価用音データが環境の変化によってバラツキが生じたときも、評価用音データの評価に生じる影響を抑制できる。このため、環境が変化した場合においても、ノイズデータから抽出した評価用音データを高精度に評価することが可能となる。
特に、第発明によれば、参照用音データは、学習用目的信号音に基づく第1参照用音データと、学習用目的信号音とは異なる音に基づく第2参照用音データとを含み、データセットは、第1参照用音データと参照用第1評価結果とを一対とする第1データセット、及び第2参照用音データと参照用第2評価結果とを一対とする第2データセットを含む。例えば、第1参照用音データとして、抽出の対象となる学習用目的信号音に基づく第1参照用音データを用いて、第2参照用音データとして、上述した学習用目的信号音とは異なる環境の変化に伴い発生した音に基づく第2参照用音データを用いることで、抽出された評価用音データが環境の変化によってバラツキが生じたときも、評価用音データが抽出の対象となる学習用目的信号音を示すか否かを評価できる。このため、環境が変化した場合においても、ノイズデータから抽出した評価用音データをより高精度に評価できる。
特に、第発明によれば、参照用音データは、学習用目的信号音のみに基づく第1参照用音データと、学習用目的信号音及び周辺環境音に基づく第2参照用音データとを含み、データセットは、第1参照用音データと参照用第1評価結果とを一対とする第1データセット、及び第2参照用音データと第2評価結果とを一対とする第2データセットを含む。これにより、環境の変化に伴い周辺環境音が変化した場合においても、評価用音データに周辺環境音が含まれているか否かを判定することができ、より適切な評価結果を生成することが可能となる。このため、環境が変化した場合においても、ノイズデータから抽出した評価用音データをより高精度に評価できる。
特に、第発明によれば、判定ステップは、評価用音データが第1参照用音データと類似又は一致する場合、評価用音データが正常であることを示す第1評価結果を生成し、評価用音データが第2参照用音データと類似又は一致する場合、評価用音データが異常であることを示す第2評価結果を生成する。これにより、評価用音データが目的信号音を示す音データであるかを評価する際、評価者の主観に伴う評価のバラつきを抑制できる。このため、ノイズデータから抽出した評価用音データに対し、評価者の経験や知見等に依らず定量的な評価を実現することができる。
特に、第発明によれば、取得ステップは、目的信号音及び周辺環境音から生成されたスペクトログラムを示す画像データを含むノイズデータを取得する。これにより、目的信号音及び周辺環境音から生成されたスペクトログラムの画像データから評価用音データを抽出することが可能となる。このため、スペクトログラムの画像データを含むノイズデータから抽出した評価用音データを高精度に評価できる。
特に、第発明によれば、抽出ステップは、予め取得された参照用ノイズデータと参照用ノイズデータに紐づく参照用評価用音データとを一対のデータセットとする抽出用学習データを複数用いて、機械学習により生成された抽出モデルを参照して、ノイズデータから評価用音データを抽出する。これにより、ノイズデータから評価用音データを高精度に抽出し、評価することができる。このため、ノイズデータから抽出した評価用音データをより高精度に評価できる。
特に、第発明によれば、抽出モデルは、参照用ノイズデータと、実際に録音された目的信号音に基づく参照用評価用音データ、又は擬似的に生成された参照用評価用音データとを一対のデータセットとする抽出用学習データを用いて、機械学習により生成される。これにより、実際に録音された目的信号音に基づく評価用音データや擬似的に生成された評価用音データを学習データとすることが可能となり、想定される環境に適した学習データを容易に取得することができる。このため、環境が変化した場合においても、ノイズデータから抽出した評価用音データをより高精度に評価できる。
図1は、実施形態における評価システムの一例を示す模式図である。 図2は、実施形態における評価システムの動作の一例を示す模式図である。 図3(a)は、音データの一例を示す模式図であり、図3(b)は、スペクトログラムの一例を示す模式図である。 図4(a)は、抽出モデルの学習方法の一例を示す模式図であり、図4(b)は、判定モデルの学習方法の一例を示す模式図である。 図5は、第1データセット及び第2データセットを用いた判定モデルの学習方法の一例を示す模式図である。 図6は、抽出モデルの一例を示す模式図である。 図7は、判定モデルの一例を示す模式図である。 図8は、第1データセット及び第2データセットを用いた判定モデルの一例を示す模式図である。 図9(a)は、実施形態における評価装置の構成の一例を示す模式図であり、図9(b)は、実施形態における評価装置の機能の一例を示す模式図であり、図9(c)は、DB生成部の一例を示す模式図である。 図10は、処理部の一例を示す模式図である。 図11は、実施形態における評価システムの動作の一例を示すフローチャートである。
以下、本発明を適用した実施形態における評価プログラム、及び評価システムの一例について、図面を参照しながら説明する。
図を用いて、本実施形態における評価システム100、及び評価装置1の一例について説明する。図1は、本実施形態における評価システム100の一例を示す模式図である。図2は、本実施形態における評価システム100の動作の一例を示す模式図である。図4、図5は、本実施形態における学習方法の一例を示す模式図である。
<評価システム100>
評価システム100は、目的信号音及び周辺環境音に基づくノイズデータを取得し、取得したノイズデータの評価を支援するために用いられる。
目的信号音は、ノイズデータから抽出する対象となる音である。目的信号音は、例えばコネクタ音等のような工場において評価すべき特定の音、会議や通話等で発生する音声、テレビ等の電子機器から発生する音、音楽の中の特定の楽器から発生する音等がある。以下、目的信号音としての一例として、コネクタ音を用いた場合について説明する。
評価システム100は、ノイズデータから評価用音データを抽出し、例えば学習データを用いた機械学習により生成されたデータベースを参照し、評価用音データに対する評価結果を生成することで、評価用音データを評価する。
評価システム100は、例えば図1に示すように、評価装置1を備える。評価システム100は、例えば端末2及びサーバ3の少なくとも何れかを備えてもよい。評価装置1は、例えば通信網4を介して端末2やサーバ3と接続される。
評価システム100では、例えば図2に示すように、評価装置1は、ノイズデータを取得する。その後、評価装置1は、例えば抽出モデルを参照して、ノイズデータから評価用音データを抽出する。その後、評価装置1は、判定モデルを参照して、評価用音データに対する評価結果を生成する。これにより、評価システム100では、ノイズデータから抽出した評価用音データを評価できる。
抽出モデルは、入力されたノイズデータから、評価用音データを出力するモデルである。抽出モデルは、例えば機械学習により、生成されてもよい。抽出モデルは、例えば一組の予め取得された参照用ノイズデータと、参照用評価用音データとを学習データ(抽出用学習データ)として用いて、生成される。抽出モデルは、複数の抽出用学習データを用いた機械学習により構築された学習済みモデルが用いられてもよい。なお、抽出モデルは、ノイズデータから評価用音データを抽出し得る手段であれば、例えばPLS分析等の公知の技術を用いてもよい。
判定モデルは、機械学習により生成される。判定モデルとして、例えば参照用音データを入力データとし、参照用音データに対する評価を示す参照用評価結果を出力データとして、入力データと出力データとを一組の学習データ(評価用学習データ)として用いて、生成される。判定モデルは、複数の評価用学習データを用いた機械学習により構築された、評価用音データから評価結果を生成するための学習済みモデルが用いられる。
ノイズデータは、例えば評価システム100によって出力される評価用音データを抽出するために用いられる。ノイズデータは、例えば図示しないマイク等の収音装置により収集された音に基づき生成される。ノイズデータは、コネクタ音及び周辺環境音に基づくデータである。ノイズデータとして、例えば後述する音データと同じデータ形式が用いられる。また、ノイズデータは、コネクタ音及び周辺環境音から生成されたスペクトログラムの画像データを含んでもよい。
音データは、音を符号化したものである。音の符号化には例えば、量子化ビット数とサンプリング周波数と時間とで定まる長さのビット列として表されるパルス符号変調(PCM)方式に基づくものと、音の波の疎密を1bitで表現して一定の間隔で標本化するパルス密度変調(PDM)方式に基づくものなどがある。また、音データは、例えば図3(a) に示すように、時間軸に対する振幅で示される。また、音データは、音から生成されたスペクトログラムの画像データを含んでいてもよい。
スペクトログラムは、例えば図3(b) に示すように、時間軸及び周波数軸に対する強度(振幅)で示され、例えばフーリエ変換(例えば短時間フーリエ変換)を用いて音データから変換される。スペクトログラムは、画像データとして用いられ、例えば1ピクセル×1ピクセルは、0.064sec×15.624Hzの範囲に対応する。
評価用音データ、参照用評価用音データ及び参照用音データとして、例えば上述した音データのデータ形式が用いられる。評価用音データは、評価装置1によりノイズデータから抽出される。評価用音データは、ノイズデータに含まれるコネクタ音の特徴を示す。評価用音データは、評価装置1により、例えば判定モデルを参照し、評価結果を生成するために用いられる。
参照用評価用音データは、抽出モデルを機械学習により生成する際、抽出用学習データとして用いられる。参照用評価用音データは、コネクタ音の特徴を示す。参照用評価用音データとして、例えば予め取得された評価用音データが用いられる。参照用評価用音データは、例えば実際に録音されたコネクタ音に基づく音データと、擬似的に生成された音データとの少なくとも何れかであってもよい。
参照用音データは、判定モデルを機械学習により生成する際、評価用学習データとして用いられる。参照用音データは、評価対象となるコネクタ音の特徴、及び環境音の特徴の少なくとも何れかを示す。参照用音データは、例えば予め取得された学習用コネクタ音に基づく音データが用いられる。参照用音データは、例えば学習用コネクタ音とは異なる音に基づく音データであってもよい。また、参照用音データは、学習用コネクタ音及び周辺環境音に基づく音データであってもよい。
参照用音データ及び参照用評価用音データは、例えばGAN(Generative Adversarial Network)やオートエンコーダをモデルとした機械学習を用いて、生成された生成用データベース、特に、Conditional GANの一種であるpix2pixをモデルとした機械学習を用いて、生成された生成用データベースを用いて擬似的に生成されてもよい。
参照用音データは、例えば第1参照用音データと、第1参照用音データとは異なる第2参照用音データとを含む。また、参照用音データは、例えば第3、第4参照用音データのように、それぞれ異なる3種類以上の音データを含んでもよい。
コネクタ音は、コネクタ嵌合時に発生する音である。また、学習用コネクタ音は、学習データの取得の際に用いられるコネクタ音である。学習用コネクタ音は、例えば目的のコネクタ音と同じ特徴を含むコネクタ音である。
周辺環境音は、例えば工場内における装置の稼働音、空調音、人の発話等の音声等の雑音である。
評価結果は、例えば評価用音データに対する評価を示すデータである。評価結果は、例えば評価用音データが、目的のコネクタ音の特徴を示す音データであるかどうか、又は目的のコネクタ音の特徴を示す音データとの類似度を示すデータである。評価結果として、例えば評価用音データが目的のコネクタ音の特徴を示す音データであり、正常であることを示す「OK」、及び、評価用音データが目的のコネクタ音の特徴を示す音データとは異なり、異常であることを示す「NG」の2種類が用いられてもよい。評価結果は、例えば百分率等の3段階以上の連関度で示してもよい。また、評価結果は、例えば評価用音データに周辺環境音が含まれているかどうかを示すデータであってもよい。
参照用評価結果は、判定モデルを機械学習により生成する際、評価用学習データとして用いられる。参照用評価結果は、例えば第1評価結果と、第2評価結果とを含む。第1評価結果は、第1参照用音データに対する評価を示す。第2評価結果は、第2参照用音データに対する評価を示し、第1評価結果とは異なるデータを示す。また、参照用評価結果は、例えば第3、第4参照用音データのように、3種類以上の評価結果を含んでもよい。
<学習方法>
本実施形態における学習方法は、入力されたノイズデータから評価用音データを抽出するために用いられる抽出モデル、及び評価用音データに対する評価結果を生成するために用いられる判定モデルを生成する際に用いられる。
学習方法は、例えば図4(a)に示すように、抽出モデルを生成する。学習方法は、参照用ノイズデータを第1入力データとし、参照用評価用音データを第1出力データとして、第1入力データと第1出力データとを一対のデータセットとする抽出用学習データを取得する。学習方法は、複数の抽出用学習データを用いた機械学習により、ノイズデータから評価用音データを抽出するための抽出モデルを生成する。
また、学習方法は、例えば図4(b)に示すように、判定モデルを生成する。学習方法は、参照用音データを第2入力データとし、参照用評価結果を第2出力データとして、第2入力データと第2出力データとを一対のデータセットとする評価用学習データを取得する。学習方法は、複数の評価用学習データを用いた機械学習により、評価用音データから評価結果を生成するための判定モデルを生成する。
また、判定モデルの学習方法は、例えば図5に示すように、第1参照用音データと参照用第1評価結果とを一対の第1データセットとする。判定モデルの学習方法は、第2参照用音データと参照用第2評価結果とを一対の第2データセットとする。判定モデルの学習方法は、上述した第1データセット及び第2データセットを含むデータセットを用いた機械学習により、評価用音データから評価結果を生成するための判定モデルを生成してもよい。
学習方法では、例えばニューラルネットワークをモデルとした機械学習を用いて、上述したデータベースを生成する。上述したデータベースは、例えばCNN(Convolution Neural Network) 等のニューラルネットワークをモデルとした機械学習を用いて生成されるほか、任意のモデルが用いられてもよい。
抽出モデルには、例えば参照用ノイズデータ(第1入力データ)と参照用評価用音データ(第1出力データ)との間における連関度を有する第1連関性が記憶される。連関度は、第1入力データと第1出力データとの繋がりの度合いを示しており、例えば連関度が高いほど各データの繋がりが強いと判断することができる。連関度は、例えば百分率等の3値以上(3段階以上)で示されるほか、2値(2段階)で示されてもよい。
例えば第1連関性は、多対多の情報(複数の第1入力データ、対、複数の第1出力データ)の間における繋がりの度合いにより構築される。第1連関性は、機械学習の過程で適宜更新され、例えば複数の第1入力データ、及び複数の第1出力データに基づいて最適化された関数(分類器)を示す。なお、第1連関性は、例えば各データの間における繋がりの度合いを示す複数の連関度を有してもよい。連関度は、例えばデータベースがニューラルネットワークで構築される場合、重み変数に対応させることができる。
このため、評価システム100では、例えば分類器の判定した結果を全て踏まえた第1連関性を用いて、ノイズデータに適した評価用音データを選択する。これにより、ノイズデータが、参照用ノイズデータと同一又は類似である場合のほか、非類似である場合においても、ノイズデータに適した評価用音データを定量的に選択することができる。
第1連関性は、例えば図6に示すように、複数の第1出力データと、複数の第1入力データとの間における繋がりの度合いを示してもよい。この場合、第1連関性を用いることで、複数の第1出力データ(図6では「参照用評価用音データA」〜「参照用評価用音データC」)のそれぞれに対し、複数の第1入力データ(図6では「参照用ノイズデータA」〜「参照用ノイズデータC」)の関係の度合いを紐づけて記憶させることができる。このため、例えば第1連関性を介して、1つの第1出力データに対して、複数の第1入力データを紐づけることができる。これにより、ノイズデータに対して多角的な評価用音データの選択を実現することができる。
第1連関性は、例えば各第1出力データと、各第1入力データとをそれぞれ紐づける複数の連関度を有する。連関度は、例えば百分率、10段階、又は5段階等の3段階以上で示され、例えば線の特徴(例えば太さ等)で示される。例えば、第1入力データに含まれる「参照用ノイズデータA」は、第1出力データに含まれる「参照用評価用音データA」との間の連関度AA「73%」を示し、第1出力データに含まれる「参照用評価用音データB」との間の連関度AB「12%」を示す。すなわち、「連関度」は、各データ間における繋がりの度合いを示しており、例えば連関度が高いほど、各データの繋がりが強いことを示す。
また、抽出モデルは、第1入力データと第1出力データとの間に少なくとも1以上の隠れ層が設けられ、機械学習させるようにしてもよい。第1入力データ又は隠れ層データの何れか一方又は両方において上述した連関度が設定され、これが各データの重み付けとなり、これに基づいて出力の選択が行われる。そして、この連関度がある閾値を超えた場合に、その出力を選択するようにしてもよい。
判定モデルには、例えば参照用音データ(第2入力データ)と参照用評価結果(第2出力データ)との間における連関度を有する第2連関性が記憶される。連関度は、第2入力データと第2出力データとの繋がりの度合いを示しており、例えば連関度が高いほど各データの繋がりが強いと判断することができる。連関度は、例えば百分率等の3値以上(3段階以上)で示されるほか、2値(2段階)で示されてもよい。
例えば第2連関性は、多対多の情報(複数の第2入力データ、対、複数の第2出力データ)の間における繋がりの度合いにより構築される。第2連関性は、機械学習の過程で適宜更新され、例えば複数の第2入力データ、及び複数の第2出力データに基づいて最適化された関数(分類器)を示す。なお、第2連関性は、例えば各データの間における繋がりの度合いを示す複数の連関度を有してもよい。連関度は、例えばデータベースがニューラルネットワークで構築される場合、重み変数に対応させることができる。
このため、評価システム100では、例えば分類器の判定した結果を全て踏まえた第2連関性を用いて、評価用音データに適した評価結果を選択する。これにより、評価用音データが、参照用評価用音データと同一又は類似である場合のほか、非類似である場合においても、評価用音データに適した評価結果を定量的に選択することができる。
第2連関性は、例えば図7に示すように、複数の第2出力データと、複数の第2入力データとの間における繋がりの度合いを示してもよい。この場合、第2連関性を用いることで、複数の第2出力データ(図7では「参照用評価結果A」〜「参照用評価結果C」)のそれぞれに対し、複数の第2入力データ(図7では「参照用音データA」〜「参照用音データC」)の関係の度合いを紐づけて記憶させることができる。このため、例えば第2連関性を介して、1つの第2出力データに対して、複数の第2入力データを紐づけることができる。これにより、評価用音データに対して多角的な評価結果の選択を実現することができる。
第2連関性は、例えば各第2出力データと、各第2入力データとをそれぞれ紐づける複数の連関度を有する。連関度は、例えば百分率、10段階、又は5段階等の3段階以上で示され、例えば線の特徴(例えば太さ等)で示される。例えば、第2入力データに含まれる「参照用音データA」は、第2出力データに含まれる「参照用評価結果A」との間の連関度AA「73%」を示し、第2出力データに含まれる「参照用評価結果B」との間の連関度AB「12%」を示す。すなわち、「連関度」は、各データ間における繋がりの度合いを示しており、例えば連関度が高いほど、各データの繋がりが強いことを示す。
また、判定モデルは、第2入力データと第2出力データとの間に少なくとも1以上の隠れ層が設けられ、機械学習させるようにしてもよい。第2入力データ又は隠れ層データの何れか一方又は両方において上述した連関度が設定され、これが各データの重み付けとなり、これに基づいて出力の選択が行われる。そして、この連関度がある閾値を超えた場合に、その出力を選択するようにしてもよい。
また、判定モデルには、例えば第1参照用音データと参照用第1評価結果との間における連関度を有する第3連関性、及び第2参照用音データと参照用第2評価結果との間における連関度を有する第4連関性が記憶されてもよい。第3連関度は第1参照用音データと参照用第1評価結果との間における連関度を有することに対して、第4連関度は、第2参照用音データと参照用第2評価結果との間における連関度を有する点で異なる。
例えば第3連関性は、複数の第1参照用音データ、対、複数の参照用第1評価結果の間における繋がりの度合いにより構築される。第3連関性は、機械学習の過程で適宜更新される。第3連関性は、例えば図8に示すように、第1データセットを参照し、複数の参照用第1評価結果と、複数の第1参照用音データとの間における繋がりの度合いを示してもよい。これにより、例えば第3連関性を介して、1つの参照用第1評価結果に対して、複数の第1参照用音データを紐づけることができる。これにより、第1参照用音データに対して多角的な参照用第1評価結果の選択を実現することができる。また、第3連関性は、例えば参照用第1評価結果と、第1参照用音データとの間に少なくとも1以上の隠れ層が設けられ、機械学習させるようにしてもよい。
例えば第4連関性は、複数の第2参照用音データ、対、複数の参照用第2評価結果の間における繋がりの度合いにより構築される。第4連関性は、機械学習の過程で適宜更新される。第4連関性は、例えば図8に示すように、第2データセットを参照し、複数の参照用第2評価結果と、複数の第2参照用音データとの間における繋がりの度合いを示してもよい。これにより、例えば第4連関性を介して、1つの参照用第2評価結果に対して、複数の第2参照用音データを紐づけることができる。これにより、第2参照用音データに対して多角的な参照用第2評価結果の選択を実現することができる。また、第4連関性は、例えば参照用第2評価結果と、第2参照用音データとの間に少なくとも1以上の隠れ層が設けられ、機械学習させるようにしてもよい。
また、判定モデルは、第1データセット及び第2データセットのみからなる評価用学習データを用いて、第3連関性及び第4連関性を学習した場合、異なるデータセットの入力に対する出力の連関度がなくてもよい。判定モデルは、例えば第1参照用音データに対する参照用第2評価結果の連関度がなくてもよい。
<評価装置1>
次に、図9、図10を参照して、本実施形態における評価装置1の一例を説明する。図9(a)は、本実施形態における評価装置1の構成の一例を示す模式図であり、図9(b)は、本実施形態における評価装置1の機能の一例を示す模式図である。図9(c)は、DB生成部16の一例を示す模式図である。図10は、処理部12の一例を示す模式図である。
評価装置1として、例えばラップトップ(ノート)PC又はデスクトップPC等の電子機器が用いられる。評価装置1は、例えば図9(a)に示すように、筐体10と、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、保存部104と、I/F105〜107とを備える。各構成101〜107は、内部バス110により接続される。
CPU101は、評価装置1全体を制御する。ROM102は、CPU101の動作コードを格納する。RAM103は、CPU101の動作時に使用される作業領域である。保存部104は、データベースや学習対象データ等の各種情報が記憶される。保存部104として、例えばHDD(Hard Disk Drive)のほか、SSD(Solid State Drive)等のデータ保存装置が用いられる。なお、例えば評価装置1は、図示しないGPU(Graphics Processing Unit)を有してもよい。
I/F105は、通信網4を介して、必要に応じて端末2、サーバ3、ウェブサイト等との各種情報の送受信を行うためのインターフェースである。I/F106は、入力部108との情報の送受信を行うためのインターフェースである。入力部108として、例えばキーボードが用いられ、評価装置1の使用者等は、入力部108を介して、各種情報、又は評価装置1の制御コマンド等を入力する。また、入力部108は、収音が可能な図示しないマイクを備えていてもよい。I/F107は、表示部109との各種情報の送受信を行うためのインターフェースである。表示部109は、保存部104に保存された各種情報、又は評価結果等を表示する。表示部109として、ディスプレイが用いられ、例えばタッチパネル式の場合、入力部108と一体に設けられる。また、表示部109は、スピーカが用いられてもよい。
図9(b)は、評価装置1の機能の一例を示す模式図である。評価装置1は、取得部11と、処理部12と、出力部14と、記憶部15とを備え、例えばDB生成部16を有してもよい。DB生成部16は、例えば図9(c)に示すように、抽出モデル生成部161と、判定モデル生成部162とを有する。なお、図9(b)、図9(c)、図10に示した各機能は、CPU101が、RAM103を作業領域として、保存部104等に記憶されたプログラムを実行することにより実現され、例えば人工知能等により制御されてもよい。
<<取得部11>>
取得部11は、ノイズデータを取得する。取得したデータは、上述した評価用音データを抽出する際に用いられる。取得部11は、例えば入力部108から入力されたノイズデータを取得するほか、例えば通信網4を介して、端末2等からノイズデータを取得してもよい。
取得部11は、例えば上述した各種モデルの生成に用いられる学習データを取得してもよい。取得部11は、例えば入力部108から入力された学習データを取得するほか、例えば通信網4を介して、端末2等から学習データを取得してもよい。
例えば、抽出モデルの生成に用いられる抽出用学習データとして、参照用ノイズデータ及び参照用評価用音データが挙げられる。また、例えば判定モデルの生成に用いられる評価用学習データとして、参照用音データ及び参照用評価結果が挙げられる。
<<処理部12>>
処理部12は、例えば抽出モデルを参照し、ノイズデータから評価用音データを抽出し、判定モデルを参照し、評価用音データに対する評価結果を生成する。
処理部12は、図10に示すように、取得部11に接続される抽出処理部121を有する。また、処理部12は、抽出処理部121に接続される評価処理部122を有する。
抽出処理部121は、例えば抽出モデルを参照し、ノイズデータから評価用音データを抽出する。抽出処理部121は、例えば抽出モデルを参照し、ノイズデータに対して、連関性の最も高い評価用音データを抽出する。ほか、例えば予め設定された閾値以上の連関度を有する複数の参照用評価用音データを、評価用音データとして選択してもよい。また、選択される参照用評価用音データの数については、任意に設定できる。
評価処理部122は、例えば判定モデルを参照し、評価用音データを入力として、入力に対する評価結果を生成する。評価処理部122は、例えば判定モデルを参照し、評価用音データに対して、連関性の最も高い評価結果を抽出する。ほか、例えば予め設定された閾値以上の連関度を有する複数の参照用評価結果を、評価結果として選択してもよい。また、選択される参照用評価結果の数については、任意に設定できる。
<<出力部14>>
出力部14は、評価結果を出力する。出力部14は、I/F107を介して表示部109に評価結果を出力するほか、例えばI/F105を介して、端末2等に評価結果を出力する。
<<記憶部15>>
記憶部15は、保存部104に保存されたデータベース等の各種データを必要に応じて取り出す。記憶部15は、取得部11、処理部12、DB生成部16により取得又は生成された各種データを、必要に応じて保存部104に保存する。
<<DB生成部16>>
DB生成部16は、複数の学習データを用いた機械学習によりデータベースを生成する。機械学習には、例えば上述したニューラルネットワーク等が用いられる。
DB生成部16は、例えば、抽出モデル生成部161と、判定モデル生成部162とを有する。
抽出モデル生成部161は、例えば一対の参照用ノイズデータと、参照用評価用音データと、を抽出用学習データとして、複数の抽出用学習データを用いた機械学習により抽出モデルを生成する。
判定モデル生成部162は、例えば一対の参照用音データと、参照用評価結果と、を評価用学習データとして、複数の評価用学習データを用いた機械学習により判定モデルを生成する。
判定モデル生成部162は、例えば第1参照用音データと参照用第1評価結果とを一対の第1データセットとし、第2参照用音データと参照用第2評価結果とを一対の第2データセットとし、第1データセット及び第2データセットを含む複数の評価用学習データを用いた機械学習により、判定モデルを生成してもよい。
<端末2>
端末2は、例えば評価システム100を用いたサービスのユーザ等が保有し、通信網4を介して評価装置1と接続される。端末2は、例えばデータベースを生成する電子機器を示してもよい。端末2は、例えばパーソナルコンピュータや、タブレット端末等の電子機器が用いられる。端末2は、例えば評価装置1の備える機能のうち、少なくとも一部の機能を備えてもよい。また、端末2は、ノイズデータ、及び各学習データを取得するための図示しないマイクを備えていてもよい。端末2は、ユーザに評価用音データの評価結果を提示できる図示しないディスプレイ、又はスピーカを備えていてもよい。
<サーバ3>
サーバ3は、通信網4を介して評価装置1と接続される。サーバ3は、過去の各種データ等が記憶され、必要に応じて評価装置1から各種データが送信される。サーバ3は、例えば評価装置1の備える機能のうち、少なくとも一部の機能を備えてもよく、例えば評価装置1の代わりに少なくとも一部の処理を行ってもよい。サーバ3は、例えば評価装置1の保存部104に記憶された各種データのうち少なくとも一部が記憶され、例えば保存部104の代わりに用いられてもよい。
<通信網4>
通信網4は、例えば評価装置1が通信回路を介して接続されるインターネット網等である。通信網4は、いわゆる光ファイバ通信網で構成されてもよい。また、通信網4は、有線通信網のほか、無線通信網等の公知の通信技術で実現してもよい。
(評価システムの動作)
次に、本実施形態における評価システム100の動作の一例について説明する。図11は、本実施形態における評価システム100の動作の一例を示すフローチャートである。
<取得手段S110>
取得手段S110は、例えば収音装置により収音された音に基づき生成されたノイズデータを取得する。取得手段S110では、例えば取得部11が、ノイズデータを取得する。また、取得部11は、例えば上述した抽出モデルの抽出用学習データに含まれる参照用ノイズデータと同じ形式のノイズデータを取得してもよい。取得部11は、例えば端末2等からノイズデータを取得するほか、例えば記憶部15を介して、保存部104に取得したノイズデータを保存してもよい。
<抽出手段S120>
抽出手段S120は、取得手段S110で取得したノイズデータから評価用音データを抽出する。抽出手段S120は、例えば抽出処理部121が、上述した学習方法により予め生成された抽出モデルを参照し、ノイズデータから評価用音データを抽出する。また、抽出手段S120は、例えば判定モデルの評価用学習データに含まれる参照用音データと同じ形式の評価用音データを抽出してもよい。また、抽出手段S120は、抽出モデルを用いることなく、他の公知の技術によって、ノイズデータから評価用音データを抽出してもよい。
また、抽出手段S120は、例えば記憶部15を介して、ノイズデータから抽出した評価用音データを保存部104に保存してもよい。なお、取得した各データは、例えばサーバ3や他の評価装置1に送信されてもよい。
<判定手段S130>
判定手段S130は、例えば判定モデルを参照し、抽出手段S120で抽出した評価用音データに対する評価結果を生成する。判定手段S130では、例えば評価処理部122は、予め生成された判定モデルを参照し、抽出手段S120で抽出した評価用音データに対する評価結果を生成する。例えば、参照用音データとして、環境の変化に依存しない目的のコネクタ音に基づく音データを用いることで、抽出された評価用音データが環境の変化によってバラツキが生じたときも、評価用音データの評価に生じる影響を抑制できる。このため、環境が変化した場合においても、ノイズデータから抽出した評価用音データを高精度に評価することが可能となる。
また、判定手段S130において、第1データセット及び第2データセットを含む複数の評価用学習データを用いた機械学習により、生成された判定モデルを参照してもよい。この場合、判定手段S130において、ノイズデータから抽出した評価用音データが、第1データセットに含まれる第1参照用音データ、又は第2データセットに含まれる第2参照用音データのどちらと一致又は類似するかを判定する。さらに判定手段S130において、評価用音データと一致又は類似する方の参照用音データと参照用評価結果の連関性を参照し、評価用音データに対する評価結果を決定する。
また、判定手段S130において、例えば、第1参照用音データとして、目的のコネクタ音の特徴を示す音データを用いて、第2参照用音データとして、上述した目的のコネクタ音とは異なる音の特徴を示す音データを用いて生成された判定モデルを参照してもよい。この場合、ノイズデータから抽出した評価用音データが、第1参照用音データ、又は第2参照用音データのどちらと一致又は類似するかを判定する。このとき、例えば評価用音データが第1参照用音データと一致又は類似する場合、第1参照用音データと参照用第1評価結果の第3連関性を参照し、評価用音データに対する評価結果として、参照用第1評価結果に含まれる評価結果を決定する。この場合、参照用第1評価結果は、評価用音データと、目的のコネクタ音の特徴を示す音データとの類似度を百分率で示したものでもよい。また、参照用第1評価結果に含まれる評価結果は、ノイズデータから目的のコネクタ音に基づく音データを正常に抽出できたことを示す「OK」等であってもよい。また、例えば評価用音データが第2参照用音データと一致又は類似する場合、第2参照用音データと参照用第2評価結果の第4連関性を参照し、評価用音データに対する評価結果として、参照用第2評価結果に含まれる評価結果を決定する。この場合、参照用第2評価結果に含まれる評価は、ノイズデータから抽出した評価用音データに異常があることを示す「NG」等であってもよい。これにより、抽出された評価用音データが環境の変化によってバラツキが生じたときも、評価用音データが目的のコネクタ音を示すか否かを評価できる。このため、環境が変化した場合においても、ノイズデータから抽出した評価用音データをより高精度に評価できる。また、目的のコネクタ音とは異なる音は、例えばコネクタの嵌合に異常があったときのコネクタの嵌合時に発生する音であってもよい。
また、判定手段S130において、例えば、第1参照用音データとして、目的のコネクタ音のみの特徴を示す音データを用いて、第2参照用音データとして、上述した学習用コネクタ音及び周辺環境音に基づく音データを用いてもよい。この場合、ノイズデータから抽出した評価用音データが、第1参照用音データ、又は第2参照用音データのどちらと一致又は類似するかを判定する。さらに判定手段S130において、評価用音データと一致又は類似する方の参照用音データと参照用評価結果の連関性を参照し、評価用音データに対する評価結果を決定する。これにより、環境の変化に伴い周辺環境音が変化した場合においても、評価用音データに周辺環境音が含まれるか否かを判定することができ、より適切な評価結果を生成することが可能となる。このため、環境が変化した場合においても、ノイズデータから抽出した評価用音データをより高精度に評価できる。
判定手段S130は、例えば記憶部15を介して、生成した評価結果を保存部104に保存してもよい。なお、取得した評価結果は、例えば端末2やサーバ3や他の評価装置1に送信されてもよい。生成する評価結果はひとつの評価用音データに対して複数の評価結果を取得してもよい。
<出力手段S140>
出力手段S140では、例えば出力部14は、判定手段S130により生成された評価結果を、表示部109や端末2等に出力する。
上述した各手段を行うことで、本実施形態における評価システム100の動作が完了する。なお、上記では目的信号音の一例として、コネクタ音を用いた場合について説明したが、他の音を用いた場合についても同様の効果が得られるため、説明を省略する。
本発明の実施形態を説明したが、この実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 :評価装置
2 :端末
3 :サーバ
4 :通信網
10 :筐体
11 :取得部
12 :処理部
14 :出力部
15 :記憶部
16 :DB生成部
100 :評価システム
101 :CPU
102 :ROM
103 :RAM
104 :保存部
105 :I/F
106 :I/F
107 :I/F
108 :入力部
109 :表示部
110 :内部バス
121 :抽出処理部
122 :評価処理部
161 :抽出モデル生成部
162 :判定モデル生成部
S110 :取得手段
S120 :抽出手段
S130 :判定手段
S140 :出力手段

Claims (9)

  1. 目的信号音と周辺環境音とが混入した音に基づくノイズデータの評価を支援する評価プログラムであって、
    前記ノイズデータを取得する取得ステップと、
    前記取得ステップにより取得したノイズデータから、前記ノイズデータに含まれる前記目的信号音を抽出するために前記ノイズデータから抽出される評価用音データを抽出する抽出ステップと、
    予め取得された参照用音データと前記参照用音データに対する評価を示す参照用評価結果とを一対のデータセットとする評価用学習データを複数用いて、機械学習により生成された判定モデルを参照して、前記評価用音データに対する評価結果を生成する判定ステップとをコンピュータに実行させ
    前記参照用音データは、
    学習用目的信号音のみに基づく第1参照用音データと、
    前記学習用目的信号音及び前記周辺環境音に基づく第2参照用音データと
    を含み、
    前記参照用評価結果は、
    前記第1参照用音データに対する評価を示す参照用第1評価結果と、
    前記第2参照用音データに対する評価を示し、前記参照用第1評価結果と異なる参照用第2評価結果と
    を含み、
    前記データセットは、
    前記第1参照用音データと前記参照用第1評価結果とを一対とする第1データセット、及び
    前記第2参照用音データと前記参照用第2評価結果とを一対とする第2データセット
    を含むこと
    を特徴とする評価プログラム。
  2. 目的信号音と周辺環境音とが混入した音に基づくノイズデータの評価を支援する評価プログラムであって、
    前記ノイズデータを取得する取得ステップと、
    前記取得ステップにより取得したノイズデータから、前記ノイズデータに含まれる前記目的信号音を抽出するために前記ノイズデータから抽出される評価用音データを抽出する抽出ステップと、
    予め取得された参照用音データと前記参照用音データに対する評価を示す参照用評価結果とを一対のデータセットとする評価用学習データを複数用いて、機械学習により生成された判定モデルを参照して、前記評価用音データに対する評価結果を生成する判定ステップとをコンピュータに実行させ
    前記抽出ステップは、予め取得された参照用ノイズデータと前記参照用ノイズデータに紐づく参照用評価用音データとを一対のデータセットとする抽出用学習データを複数用いて、機械学習により生成された抽出モデルを参照して、前記ノイズデータから前記評価用音データを抽出すること
    を特徴とする評価プログラム。
  3. 前記抽出モデルは、
    前記参照用ノイズデータと、
    実際に録音された目的信号音に基づく前記参照用評価用音データ、又は擬似的に生成された前記参照用評価用音データと
    を一対のデータセットとする抽出用学習データを用いて、機械学習により生成されること
    を特徴とする請求項に記載の評価プログラム。
  4. 前記参照用音データは、
    学習用目的信号音に基づく第1参照用音データと、
    前記学習用目的信号音とは異なる音に基づく第2参照用音データと
    を含み、
    前記参照用評価結果は、
    前記第1参照用音データに対する評価を示す参照用第1評価結果と、
    前記第2参照用音データに対する評価を示し、前記参照用第1評価結果とは異なる参照用第2評価結果と
    を含み、
    前記データセットは、
    前記第1参照用音データと前記参照用第1評価結果とを一対とする第1データセット、及び
    前記第2参照用音データと前記参照用第2評価結果とを一対とする第2データセット
    を含むこと
    を特徴とする請求項2又は請求項3に記載の評価プログラム。
  5. 前記判定ステップは、
    前記評価用音データが前記第1参照用音データと類似又は一致する場合、前記評価用音データが正常であることを示す第1評価結果を生成し、
    前記評価用音データが前記第2参照用音データと類似又は一致する場合、前記評価用音データが異常であることを示す第2評価結果を生成すること
    を特徴とする請求項又は請求項に記載の評価プログラム。
  6. 前記取得ステップは、前記目的信号音及び前記周辺環境音から生成されたスペクトログラムを示す画像データを含む前記ノイズデータを取得すること
    を特徴とする請求項1〜の何れか1項記載の評価プログラム。
  7. 前記目的信号音は、コネクタ音であること
    を特徴とする請求項1〜の何れか1項記載の評価プログラム。
  8. 目的信号音と周辺環境音とが混入した音に基づくノイズデータの評価を支援する評価システムであって、
    前記ノイズデータを取得する取得手段と、
    前記取得手段により取得したノイズデータから、前記ノイズデータに含まれる前記目的信号音を抽出するために前記ノイズデータから抽出される評価用音データを抽出する抽出手段と、
    予め取得された参照用音データと前記参照用音データに対する評価を示す参照用評価結果とを一対のデータセットとする評価用学習データを複数用いて、機械学習により生成された判定モデルが記憶されたデータベースと、
    前記判定モデルを参照して、前記評価用音データに対する評価結果を生成する判定手段を備え
    前記参照用音データは、
    学習用目的信号音のみに基づく第1参照用音データと、
    前記学習用目的信号音及び前記周辺環境音に基づく第2参照用音データと
    を含み、
    前記参照用評価結果は、
    前記第1参照用音データに対する評価を示す参照用第1評価結果と、
    前記第2参照用音データに対する評価を示し、前記参照用第1評価結果と異なる参照用第2評価結果と
    を含み、
    前記データセットは、
    前記第1参照用音データと前記参照用第1評価結果とを一対とする第1データセット、及び
    前記第2参照用音データと前記参照用第2評価結果とを一対とする第2データセット
    を含むこと
    を特徴とする評価システム。
  9. 目的信号音と周辺環境音とが混入した音に基づくノイズデータの評価を支援する評価システムであって、
    前記ノイズデータを取得する取得手段と、
    前記取得手段により取得したノイズデータから、前記ノイズデータに含まれる前記目的信号音を抽出するために前記ノイズデータから抽出される評価用音データを抽出する抽出手段と、
    予め取得された参照用音データと前記参照用音データに対する評価を示す参照用評価結果とを一対のデータセットとする評価用学習データを複数用いて、機械学習により生成された判定モデルが記憶されたデータベースと、
    前記判定モデルを参照して、前記評価用音データに対する評価結果を生成する判定手段を備え
    前記抽出手段は、予め取得された参照用ノイズデータと前記参照用ノイズデータに紐づく参照用評価用音データとを一対のデータセットとする抽出用学習データを複数用いて、機械学習により生成された抽出モデルを参照して、前記ノイズデータから前記評価用音データを抽出すること
    を特徴とする評価システム。
JP2021004238A 2021-01-14 2021-01-14 評価プログラム、及び評価システム Active JP6890867B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021004238A JP6890867B1 (ja) 2021-01-14 2021-01-14 評価プログラム、及び評価システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021004238A JP6890867B1 (ja) 2021-01-14 2021-01-14 評価プログラム、及び評価システム

Publications (2)

Publication Number Publication Date
JP6890867B1 true JP6890867B1 (ja) 2021-06-18
JP2022108980A JP2022108980A (ja) 2022-07-27

Family

ID=76429659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021004238A Active JP6890867B1 (ja) 2021-01-14 2021-01-14 評価プログラム、及び評価システム

Country Status (1)

Country Link
JP (1) JP6890867B1 (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020172861A (ja) * 2019-04-08 2020-10-22 富士通株式会社 異常判別方法、異常判別装置および異常判別プログラム

Also Published As

Publication number Publication date
JP2022108980A (ja) 2022-07-27

Similar Documents

Publication Publication Date Title
Warden Speech commands: A dataset for limited-vocabulary speech recognition
Zhang et al. Comparing acoustic analyses of speech data collected remotely
US11790912B2 (en) Phoneme recognizer customizable keyword spotting system with keyword adaptation
Vampola et al. Human vocal tract resonances and the corresponding mode shapes investigated by three-dimensional finite-element modelling based on CT measurement
CN112164407B (zh) 音色转换方法及装置
WO2021237923A1 (zh) 智能配音方法、装置、计算机设备和存储介质
CN113939870A (zh) 为基于生成和检索的应用学习有效音乐特征的技术
WO2021213135A1 (zh) 音频处理方法、装置、电子设备和存储介质
CN110910898B (zh) 一种语音信息处理的方法和装置
KR20220053475A (ko) 전자 장치 및 이의 제어 방법
JP6890867B1 (ja) 評価プログラム、及び評価システム
JP2020027182A (ja) 学習データ生成方法、学習方法、及び評価装置
KR102222637B1 (ko) 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법
JP6367748B2 (ja) 認識装置、映像コンテンツ提示システム
WO2023141565A1 (en) Data augmentation system and method for multi-microphone systems
JP6843450B1 (ja) 教師データ生成方法、学習済みモデルを生成する方法、装置、記録媒体、プログラム、情報処理装置
US20200357414A1 (en) Display apparatus and method for controlling thereof
JP7055529B1 (ja) 意味判定プログラム、及び意味判定システム
KR20220080999A (ko) 복수의 멀티미디어 컨텐츠들을 참조하여 사용자 단말기와 통신하는 네트워크 서버 및 방법
US20230343312A1 (en) Music Enhancement Systems
CN111916065B (zh) 用于处理语音的方法和装置
JP6993034B1 (ja) コンテンツ再生方法、及びコンテンツ再生システム
US12033614B2 (en) System and method for secure data augmentation for speech processing systems
Ayu et al. Audio detection (Audition): Android based sound detection application for hearing-impaired using AdaBoostM1 classifier with REPTree weaklearner
WO2022137960A1 (ja) プログラムおよび会話システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210114

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210114

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210519

R150 Certificate of patent or registration of utility model

Ref document number: 6890867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250