JP2019039901A - 背景騒音下における対象音の近似官能評価方法および背景騒音下における対象音の近似官能評価システム - Google Patents
背景騒音下における対象音の近似官能評価方法および背景騒音下における対象音の近似官能評価システム Download PDFInfo
- Publication number
- JP2019039901A JP2019039901A JP2018019856A JP2018019856A JP2019039901A JP 2019039901 A JP2019039901 A JP 2019039901A JP 2018019856 A JP2018019856 A JP 2018019856A JP 2018019856 A JP2018019856 A JP 2018019856A JP 2019039901 A JP2019039901 A JP 2019039901A
- Authority
- JP
- Japan
- Prior art keywords
- target sound
- subject
- evaluation
- loudness
- background noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
Description
前記被評価物から生じる対象音を取得する対象音取得ステップと、
前記被評価物の使用環境での背景騒音を取得する背景騒音取得ステップと、
前記背景騒音取得ステップにて取得した背景騒音に基づいて、擬似的な背景騒音である疑似ランダム信号を作成する疑似ランダム信号作成ステップと、
前記対象音取得ステップで取得した対象音と、前記疑似ランダム信号作成ステップで作成した疑似ランダム信号とを結合して、対象音と背景騒音を含む混合対象音信号であるミックス音源を作成するミックス音源作成ステップと、
前記対象音取得ステップで取得した対象音のラウドネスN′subjectと、前記疑似ランダム信号作成ステップで作成した疑似ランダム信号のラウドネスNBGNと、前記ミックス音源作成ステップで作成したミックス音源のラウドネスNsubjectを、それぞれ求めるラウドネス算出ステップと、
前記ラウドネス算出ステップで求めた対象音のラウドネスN′subjectから、対象音のラフネスR′subjectを求めるラフネス算出ステップと、
前記対象音のラウドネスN′subjectとラフネスR′subjectを用いることで、背景騒音を考慮しない被評価物からの対象音に対する聴感印象の評価推定値EST′が求まる下式(1)における全体係数αを、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラウドネスN″subjectと、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラフネスR″subjectと、前記被評価物から生じる対象音に応じて予め設定されたラウドネス係数Aと、前記被評価物から生じる対象音に応じて予め設定されたラフネス係数Bと、前記被評価物から生じる対象音に応じて予め設定された補正値Cと、前記被評価物から生じる対象音の評価基準となる境界値として予め設定された評価基準閾値EST″と、を用いて下式(2)によって求める全体係数α算出ステップと、
EST′=α(A×N′subject+B×R′subject+C) …(1)
α=EST″/(A×N″subject+B×R″subject+C) …(2)
前記ラウドネス算出ステップで求めたラウドネスNsubjectおよびラウドネスNBGNと、前記ラフネス算出ステップで求めたラフネスR′subjectと、前記全体係数α算出ステップで求めた全体係数αとから、背景騒音を考慮した被評価物からの対象音に対する聴感印象の評価推定値ESTを下式(3)により求める評価推定値算出ステップと、
EST=α{A×(Nsubject−NBGN)+B×R′subject+C} …(3)
前記評価推定値算出ステップで求めた式(3)の評価推定値を、前記評価基準閾値と比較することにより、対象音の近似的な官能評価を行う近似官能評価ステップと、
を行うことを特徴とする。
前記被評価物から生じる対象音を取得する対象音取得ステップと、
前記被評価物の使用環境での背景騒音を取得する背景騒音取得ステップと、
前記背景騒音取得ステップにて取得した背景騒音に基づいて、擬似的な背景騒音である疑似ランダム信号を作成する疑似ランダム信号作成ステップと、
前記対象音取得ステップで取得した対象音と、前記疑似ランダム信号作成ステップで作成した疑似ランダム信号とを結合して、対象音と背景騒音を含む混合対象音信号であるミックス音源を作成するミックス音源作成ステップと、
前記対象音取得ステップで取得した対象音のラウドネスN′subjectと、前記疑似ランダム信号作成ステップで作成した疑似ランダム信号のラウドネスNBGNと、前記ミックス音源作成ステップで作成したミックス音源のラウドネスNsubjectを、それぞれ求めるラウドネス算出ステップと、
前記ラウドネス算出ステップで求めた対象音のラウドネスN′subjectから、対象音のラフネスR′subjectを求めるラフネス算出ステップと、
前記ラウドネス算出ステップで求めたミックス音源のラウドネスNsubjectと、疑似ランダム信号のラウドネスNBGNとから、対象音のシャープネスS′subjectを求めるシャープネス算出ステップと、
前記対象音のラウドネスN′subjectとラフネスR′subjectとシャープネスS′subjectを用いることで、背景騒音を考慮しない被評価物からの対象音に対する聴感印象の評価推定値EST′sharpnessが求まる下式(4)における全体係数αを、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラウドネスN″subjectと、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラフネスR″subjectと、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値シャープネスS″subjectと、前記被評価物から生じる対象音に応じて予め設定されたラウドネス係数Aと、前記被評価物から生じる対象音に応じて予め設定されたラフネス係数Bと、前記被評価物から生じる対象音に応じて予め設定されたシャープネス係数Cと、前記被評価物から生じる対象音に応じて予め設定された補正値Dと、前記被評価物から生じる対象音の評価基準となる境界値として予め設定された評価基準閾値EST″sharpnessと、を用いて下式(5)によって求める全体係数α算出ステップと、
EST′sharpness=α(A×N′subject+B×R′subject+C×S′subject+D) …(4)
α=EST″sharpness/(A×N″subject+B×R″subject+C×S″subject+D) …(5)
前記ラウドネス算出ステップで求めたラウドネスNsubjectおよびラウドネスNBGNと、前記ラフネス算出ステップで求めたラフネスR′subjectと、前記シャープネス算出ステップで求めたシャープネスS′subjectと、前記全体係数α算出ステップで求めた全体係数αとから、背景騒音を考慮した被評価物からの対象音に対する聴感印象の評価推定値ESTsharpnessを下式(6)により求める評価推定値算出ステップと、
ESTsharpness=α{A×(Nsubject−NBGN)+B×R′subject+C×S′subject+D} …(6)
前記評価推定値算出ステップで求めた式(6)の評価推定値ESTsharpnessを、前記評価基準閾値EST″sharpnessと比較することにより、対象音の近似的な官能評価を行う近似官能評価ステップと、
を行うことを特徴とする。
前記被評価物から生じる対象音を取得する対象音取得ステップと、
前記被評価物の使用環境での背景騒音を取得する背景騒音取得ステップと、
前記背景騒音取得ステップにて取得した背景騒音に基づいて、擬似的な背景騒音である疑似ランダム信号を作成する疑似ランダム信号作成ステップと、
前記対象音取得ステップで取得した対象音と、前記疑似ランダム信号作成ステップで作成した疑似ランダム信号とを結合して、対象音と背景騒音を含む混合対象音信号であるミックス音源を作成するミックス音源作成ステップと、
前記対象音取得ステップで取得した対象音のラウドネスN′subjectと、前記疑似ランダム信号作成ステップで作成した疑似ランダム信号のラウドネスNBGNと、前記ミックス音源作成ステップで作成したミックス音源のラウドネスNsubjectを、それぞれ求めるラウドネス算出ステップと、
前記ラウドネス算出ステップで求めたミックス音源のラウドネスNsubjectと、疑似ランダム信号のラウドネスNBGNとから、対象音のシャープネスS′subjectを求めるシャープネス算出ステップと、
前記対象音のラウドネスN′subjectとシャープネスS′subjectを用いることで、背景騒音を考慮しない被評価物からの対象音に対する聴感印象の評価推定値EST′sharpness2が求まる下式(7)における全体係数αを、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラウドネスN″subjectと、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値シャープネスS″subjectと、前記被評価物から生じる対象音に応じて予め設定されたラウドネス係数Aと、前記被評価物から生じる対象音に応じて予め設定されたシャープネス係数Bと、前記被評価物から生じる対象音に応じて予め設定された補正値Cと、前記被評価物から生じる対象音の評価基準となる境界値として予め設定された評価基準閾値EST″sharpness2と、を用いて下式(8)によって求める全体係数α算出ステップと、
EST′sharpness2=α(A×N′subject+B×S′subject+C) …(7)
α=EST″sharpness2/(A×N″subject+B×S″subject+C) …(8)
前記ラウドネス算出ステップで求めたラウドネスNsubjectおよびラウドネスNBGNと、前記シャープネス算出ステップで求めたシャープネスS′subjectと、前記全体係数α算出ステップで求めた全体係数αとから、背景騒音を考慮した被評価物からの対象音に対する聴感印象の評価推定値ESTsharpness2を下式(9)により求める評価推定値算出ステップと、
ESTsharpness2=α{A×(Nsubject−NBGN)+B×S′subject+C} …(9)
前記評価推定値算出ステップで求めた式(9)の評価推定値ESTsharpness2を、前記評価基準閾値EST″sharpness2と比較することにより、対象音の近似的な官能評価を行う近似官能評価ステップと、
を行うことを特徴とする。
前記被評価物から生じる対象音を取得する対象音取得装置と、
前記被評価物の使用環境での背景騒音を取得する背景騒音取得装置と、
前記対象音取得装置により取得された対象音と、前記背景騒音取得装置により取得された背景騒音とを用いて、被評価物の使用環境での背景騒音を考慮した対象音に対する聴感印象の評価推定値を求め、該評価推定値に基づいて、被評価物から生じる対象音の近似官能評価を行う対象音評価装置と、
を備えることを特徴とする。
前記背景騒音取得装置にて取得した背景騒音に基づいて、擬似的な背景騒音である疑似ランダム信号を作成する疑似ランダム信号作成手段と、
前記対象音取得装置で取得した対象音と、前記疑似ランダム信号作成手段で作成した疑似ランダム信号とを結合して、対象音と背景騒音を含む混合対象音信号であるミックス音源を作成するミックス音源作成手段と、
前記対象音取得装置で取得した対象音のラウドネスN′subjectと、前記疑似ランダム信号作成手段で作成した疑似ランダム信号のラウドネスNBGNと、前記ミックス音源作成手段で作成したミックス音源のラウドネスNsubjectを、それぞれ求めるラウドネス算出手段と、
前記ラウドネス算出手段で求めた対象音のラウドネスN′subjectから、対象音のラフネスR′subjectを求めるラフネス算出手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラウドネスN″subjectを記憶する閾値ラウドネス記憶手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラフネスR″subjectを記憶する閾値ラフネス記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたラウドネス係数Aを記憶するラウドネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたラフネス係数Bを記憶するラフネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定された補正値Cを記憶する補正値記憶手段と、
前記被評価物から生じる対象音の評価基準となる境界値として予め設定された評価基準閾値EST″を記憶する評価基準閾値記憶手段と、
前記対象音のラウドネスN′subjectとラフネスR′subjectを用いることで、背景騒音を考慮しない被評価物からの対象音に対する聴感印象の評価推定値EST′が求まる下式(1)における全体係数αを、下式(2)によって求める全体係数α算出手段と、
EST′=α(A×N′subject+B×R′subject+C) …(1)
α=EST″/(A×N″subject+B×R″subject+C) …(2)
前記ラウドネス算出手段で求めたラウドネスNsubjectおよびラウドネスNBGNと、前記ラフネス算出手段で求めたラフネスR′subjectと、前記全体係数α算出手段で求めた全体係数αとから、背景騒音を考慮した被評価物からの対象音に対する聴感印象の評価推定値ESTを下式(3)により求める評価推定値算出手段と、
EST=α{A×(Nsubject−NBGN)+B×R′subject+C} …(3)
前記評価推定値算出手段で求めた式(3)の評価推定値ESTを、前記評価基準閾値EST″と比較することにより、対象音の近似的な官能評価を行う近似官能評価手段と、
を備えることを特徴とする。
前記背景騒音取得装置にて取得した背景騒音に基づいて、擬似的な背景騒音である疑似ランダム信号を作成する疑似ランダム信号作成手段と、
前記対象音取得装置で取得した対象音と、前記疑似ランダム信号作成手段で作成した疑似ランダム信号とを結合して、対象音と背景騒音を含む混合対象音信号であるミックス音源を作成するミックス音源作成手段と、
前記対象音取得装置で取得した対象音のラウドネスN′subjectと、前記疑似ランダム信号作成手段で作成した疑似ランダム信号のラウドネスNBGNと、前記ミックス音源作成手段で作成したミックス音源のラウドネスNsubjectを、それぞれ求めるラウドネス算出手段と、
前記ラウドネス算出手段で求めた対象音のラウドネスN′subjectから、対象音のラフネスR′subjectを求めるラフネス算出手段と、
前記ラウドネス算出手段で求めたミックス音源のラウドネスNsubjectと、疑似ランダム信号のラウドネスNBGNとから、対象音のシャープネスS′subjectを求めるシャープネス算出手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラウドネスN″subjectを記憶する閾値ラウドネス記憶手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラフネスR″subjectを記憶する閾値ラフネス記憶手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値シャープネスS″subjectを記憶する閾値シャープネス記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたラウドネス係数Aを記憶するラウドネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたラフネス係数Bを記憶するラフネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたシャープネス係数Cを記憶するシャープネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定された補正値Dを記憶する補正値記憶手段と、
前記被評価物から生じる対象音の評価基準となる境界値として予め設定された評価基準閾値EST″sharpnessを記憶する評価基準閾値記憶手段と、
前記対象音のラウドネスN′subjectとラフネスR′subjectとシャープネスS′subjectを用いることで、背景騒音を考慮しない被評価物からの対象音に対する聴感印象の評価推定値EST′sharpnessが求まる下式(4)における全体係数αを、下式(5)によって求める全体係数α算出手段と、
EST′sharpness=α(A×N′subject+B×R′subject+C×S′subject+D) …(4)
α=EST″sharpness/(A×N″subject+B×R″subject+C×S″subject+D) …(5)
前記ラウドネス算出手段で求めたラウドネスNsubjectおよびラウドネスNBGNと、前記ラフネス算出手段で求めたラフネスR′subjectと、前記シャープネス算出手段で求めたシャープネスS′subjectと、前記全体係数α算出手段で求めた全体係数αとから、背景騒音を考慮した被評価物からの対象音に対する聴感印象の評価推定値ESTsharpnessを下式(6)により求める評価推定値算出手段と、
ESTsharpness=α{A×(Nsubject−NBGN)+B×R′subject+C×S′subject+D} …(6)
前記評価推定値算出手段で求めた式(6)の評価推定値ESTsharpnessを、前記評価基準閾値EST″sharpnessと比較することにより、対象音の近似的な官能評価を行う近似官能評価手段と、
を備えることを特徴とする。
前記背景騒音取得装置にて取得した背景騒音に基づいて、擬似的な背景騒音である疑似ランダム信号を作成する疑似ランダム信号作成手段と、
前記対象音取得装置で取得した対象音と、前記疑似ランダム信号作成手段で作成した疑似ランダム信号とを結合して、対象音と背景騒音を含む混合対象音信号であるミックス音源を作成するミックス音源作成手段と、
前記対象音取得装置で取得した対象音のラウドネスN′subjectと、前記疑似ランダム信号作成手段で作成した疑似ランダム信号のラウドネスNBGNと、前記ミックス音源作成手段で作成したミックス音源のラウドネスNsubjectを、それぞれ求めるラウドネス算出手段と、
前記ラウドネス算出手段で求めたミックス音源のラウドネスNsubjectと、疑似ランダム信号のラウドネスNBGNとから、対象音のシャープネスS′subjectを求めるシャープネス算出手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラウドネスN″subjectを記憶する閾値ラウドネス記憶手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値シャープネスS″subjectを記憶する閾値シャープネス記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたラウドネス係数Aを記憶するラウドネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたシャープネス係数Bを記憶するシャープネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定された補正値Cを記憶する補正値記憶手段と、
前記被評価物から生じる対象音の評価基準となる境界値として予め設定された評価基準閾値EST″sharpness2を記憶する評価基準閾値記憶手段と、
前記対象音のラウドネスN′subjectとシャープネスS′subjectを用いることで、背景騒音を考慮しない被評価物からの対象音に対する聴感印象の評価推定値EST′sharpness2が求まる下式(7)における全体係数αを、下式(8)によって求める全体係数α算出手段と、
EST′sharpness2=α(A×N′subject+B×S′subject+C) …(7)
α=EST″sharpness2/(A×N″subject+B×S″subject+C) …(8)
前記ラウドネス算出手段で求めたラウドネスNsubjectおよびラウドネスNBGNと、前記シャープネス算出手段で求めたシャープネスS′subjectと、前記全体係数α算出手段で求めた全体係数αとから、背景騒音を考慮した被評価物からの対象音に対する聴感印象の評価推定値ESTsharpness2を下式(9)により求める評価推定値算出手段と、
ESTsharpness2=α{A×(Nsubject−NBGN)+BS′subject+C} …(9)
前記評価推定値算出手段で求めた式(9)の評価推定値ESTsharpness2を、前記評価基準閾値EST″sharpness2と比較することにより、対象音の近似的な官能評価を行う近似官能評価手段と、
を備えることを特徴とする。
10 音信号収集装置
11 集音マイク
20 対象音評価装置
21 フィルタ手段
22 疑似ランダム信号作成手段
23 ミックス音源作成手段
24a ラウドネス算出手段
24b ラフネス算出手段
25 全体係数α算出手段
26a 閾値ラウドネス記憶手段
26b 閾値ラフネス記憶手段
26c ラウドネス係数記憶手段
26d ラフネス係数記憶手段
26e 補正値記憶手段
26f 評価基準値記憶手段
27 評価推定値算出手段
28 近似官能評価手段
29 評価結果報知手段
30 被評価物
41 半無響室
42 被評価物使用環境
Claims (11)
- 背景騒音下で被評価物から生じる対象音に対する聴感印象の官能評価と相関性の高い近似的な官能評価を行う背景騒音下における対象音の近似官能評価方法であって、
前記被評価物から生じる対象音を取得する対象音取得ステップと、
前記被評価物の使用環境での背景騒音を取得する背景騒音取得ステップと、
前記背景騒音取得ステップにて取得した背景騒音に基づいて、擬似的な背景騒音である疑似ランダム信号を作成する疑似ランダム信号作成ステップと、
前記対象音取得ステップで取得した対象音と、前記疑似ランダム信号作成ステップで作成した疑似ランダム信号とを結合して、対象音と背景騒音を含む混合対象音信号であるミックス音源を作成するミックス音源作成ステップと、
前記対象音取得ステップで取得した対象音のラウドネスN′subjectと、前記疑似ランダム信号作成ステップで作成した疑似ランダム信号のラウドネスNBGNと、前記ミックス音源作成ステップで作成したミックス音源のラウドネスNsubjectを、それぞれ求めるラウドネス算出ステップと、
前記ラウドネス算出ステップで求めた対象音のラウドネスN′subjectから、対象音のラフネスR′subjectを求めるラフネス算出ステップと、
前記対象音のラウドネスN′subjectとラフネスR′subjectを用いることで、背景騒音を考慮しない被評価物からの対象音に対する聴感印象の評価推定値EST′が求まる下式(1)における全体係数αを、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラウドネスN″subjectと、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラフネスR″subjectと、前記被評価物から生じる対象音に応じて予め設定されたラウドネス係数Aと、前記被評価物から生じる対象音に応じて予め設定されたラフネス係数Bと、前記被評価物から生じる対象音に応じて予め設定された補正値Cと、前記被評価物から生じる対象音の評価基準となる境界値として予め設定された評価基準閾値EST″と、を用いて下式(2)によって求める全体係数α算出ステップと、
EST′=α(A×N′subject+B×R′subject+C) …(1)
α=EST″/(A×N″subject+B×R″subject+C) …(2)
前記ラウドネス算出ステップで求めたラウドネスNsubjectおよびラウドネスNBGNと、前記ラフネス算出ステップで求めたラフネスR′subjectと、前記全体係数α算出ステップで求めた全体係数αとから、背景騒音を考慮した被評価物からの対象音に対する聴感印象の評価推定値ESTを下式(3)により求める評価推定値算出ステップと、
EST=α{A×(Nsubject−NBGN)+B×R′subject+C} …(3)
前記評価推定値算出ステップで求めた式(3)の評価推定値を、前記評価基準閾値と比較することにより、対象音の近似的な官能評価を行う近似官能評価ステップと、
を行うことを特徴とする背景騒音下における対象音の近似官能評価方法。 - 被評価物から生じる対象音に対する聴感印象の官能評価と相関性の高い近似的な官能評価を行う背景騒音下における対象音の近似官能評価方法であって、
前記被評価物から生じる対象音を取得する対象音取得ステップと、
前記被評価物の使用環境での背景騒音を取得する背景騒音取得ステップと、
前記背景騒音取得ステップにて取得した背景騒音に基づいて、擬似的な背景騒音である疑似ランダム信号を作成する疑似ランダム信号作成ステップと、
前記対象音取得ステップで取得した対象音と、前記疑似ランダム信号作成ステップで作成した疑似ランダム信号とを結合して、対象音と背景騒音を含む混合対象音信号であるミックス音源を作成するミックス音源作成ステップと、
前記対象音取得ステップで取得した対象音のラウドネスN′subjectと、前記疑似ランダム信号作成ステップで作成した疑似ランダム信号のラウドネスNBGNと、前記ミックス音源作成ステップで作成したミックス音源のラウドネスNsubjectを、それぞれ求めるラウドネス算出ステップと、
前記ラウドネス算出ステップで求めた対象音のラウドネスN′subjectから、対象音のラフネスR′subjectを求めるラフネス算出ステップと、
前記ラウドネス算出ステップで求めたミックス音源のラウドネスNsubjectと、疑似ランダム信号のラウドネスNBGNとから、対象音のシャープネスS′subjectを求めるシャープネス算出ステップと、
前記対象音のラウドネスN′subjectとラフネスR′subjectとシャープネスS′subjectを用いることで、背景騒音を考慮しない被評価物からの対象音に対する聴感印象の評価推定値EST′sharpnessが求まる下式(4)における全体係数αを、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラウドネスN″subjectと、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラフネスR″subjectと、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値シャープネスS″subjectと、前記被評価物から生じる対象音に応じて予め設定されたラウドネス係数Aと、前記被評価物から生じる対象音に応じて予め設定されたラフネス係数Bと、前記被評価物から生じる対象音に応じて予め設定されたシャープネス係数Cと、前記被評価物から生じる対象音に応じて予め設定された補正値Dと、前記被評価物から生じる対象音の評価基準となる境界値として予め設定された評価基準閾値EST″sharpnessと、を用いて下式(5)によって求める全体係数α算出ステップと、
EST′sharpness=α(A×N′subject+B×R′subject+C×S′subject+D) …(4)
α=EST″sharpness/(A×N″subject+B×R″subject+C×S″subject+D) …(5)
前記ラウドネス算出ステップで求めたラウドネスNsubjectおよびラウドネスNBGNと、前記ラフネス算出ステップで求めたラフネスR′subjectと、前記シャープネス算出ステップで求めたシャープネスS′subjectと、前記全体係数α算出ステップで求めた全体係数αとから、背景騒音を考慮した被評価物からの対象音に対する聴感印象の評価推定値ESTsharpnessを下式(6)により求める評価推定値算出ステップと、
ESTsharpness=α{A×(Nsubject−NBGN)+B×R′subject+C×S′subject+D} …(6)
前記評価推定値算出ステップで求めた式(6)の評価推定値ESTsharpnessを、前記評価基準閾値EST″sharpnessと比較することにより、対象音の近似的な官能評価を行う近似官能評価ステップと、
を行うことを特徴とする背景騒音下における対象音の近似官能評価方法。 - 被評価物から生じる対象音に対する聴感印象の官能評価と相関性の高い近似的な官能評価を行う背景騒音下における対象音の近似官能評価方法であって、
前記被評価物から生じる対象音を取得する対象音取得ステップと、
前記被評価物の使用環境での背景騒音を取得する背景騒音取得ステップと、
前記背景騒音取得ステップにて取得した背景騒音に基づいて、擬似的な背景騒音である疑似ランダム信号を作成する疑似ランダム信号作成ステップと、
前記対象音取得ステップで取得した対象音と、前記疑似ランダム信号作成ステップで作成した疑似ランダム信号とを結合して、対象音と背景騒音を含む混合対象音信号であるミックス音源を作成するミックス音源作成ステップと、
前記対象音取得ステップで取得した対象音のラウドネスN′subjectと、前記疑似ランダム信号作成ステップで作成した疑似ランダム信号のラウドネスNBGNと、前記ミックス音源作成ステップで作成したミックス音源のラウドネスNsubjectを、それぞれ求めるラウドネス算出ステップと、
前記ラウドネス算出ステップで求めたミックス音源のラウドネスNsubjectと、疑似ランダム信号のラウドネスNBGNとから、対象音のシャープネスS′subjectを求めるシャープネス算出ステップと、
前記対象音のラウドネスN′subjectとシャープネスS′subjectを用いることで、背景騒音を考慮しない被評価物からの対象音に対する聴感印象の評価推定値EST′sharpness2が求まる下式(7)における全体係数αを、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラウドネスN″subjectと、前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値シャープネスS″subjectと、前記被評価物から生じる対象音に応じて予め設定されたラウドネス係数Aと、前記被評価物から生じる対象音に応じて予め設定されたシャープネス係数Bと、前記被評価物から生じる対象音に応じて予め設定された補正値Cと、前記被評価物から生じる対象音の評価基準となる境界値として予め設定された評価基準閾値EST″sharpness2と、を用いて下式(8)によって求める全体係数α算出ステップと、
EST′sharpness2=α(A×N′subject+B×S′subject+C) …(7)
α=EST″sharpness2/(A×N″subject+B×S″subject+C) …(8)
前記ラウドネス算出ステップで求めたラウドネスNsubjectおよびラウドネスNBGNと、前記シャープネス算出ステップで求めたシャープネスS′subjectと、前記全体係数α算出ステップで求めた全体係数αとから、背景騒音を考慮した被評価物からの対象音に対する聴感印象の評価推定値ESTsharpness2を下式(9)により求める評価推定値算出ステップと、
ESTsharpness2=α{A×(Nsubject−NBGN)+B×S′subject+C} …(9)
前記評価推定値算出ステップで求めた式(9)の評価推定値ESTsharpness2を、前記評価基準閾値EST″sharpness2と比較することにより、対象音の近似的な官能評価を行う近似官能評価ステップと、
を行うことを特徴とする背景騒音下における対象音の近似官能評価方法。 - 前記対象音は、被評価物から生じる対象騒音とし、
前記被評価物から生じる対象騒音が背景騒音下で気になるか気にならないかの気になり度合を評価推定値として求め、
上記気になり度合の評価推定値に基づいて、背景騒音下における対象騒音の気になり度合を近似官能評価するようにしたことを特徴とする請求項1〜請求項3の何れか1項に記載の背景騒音下における対象音の近似官能評価方法。 - 前記対象音は、サイン音源としての被評価物から出力されるサイン音とし、
前記被評価物から出力されるサイン音が背景騒音下で注意を喚起するか喚起しないかの注意喚起度合を評価推定値として求め、
上記注意喚起度合の評価推定値に基づいて、背景騒音下におけるサイン音の注意喚起度合を近似官能評価するようにしたことを特徴とする請求項1〜請求項3の何れか1項に記載の背景騒音下における対象音の近似官能評価方法。 - 背景騒音下で被評価物から生じる対象音に対する聴感印象の官能評価と相関性の高い近似的な官能評価を行う背景騒音下における対象音の近似官能評価システムであって、
前記被評価物から生じる対象音を取得する対象音取得装置と、
前記被評価物の使用環境での背景騒音を取得する背景騒音取得装置と、
前記対象音取得装置により取得された対象音と、前記背景騒音取得装置により取得された背景騒音とを用いて、被評価物の使用環境での背景騒音を考慮した対象音に対する聴感印象の評価推定値を求め、該評価推定値に基づいて、被評価物から生じる対象音の近似官能評価を行う対象音評価装置と、
を備えることを特徴とする背景騒音下における対象音の近似官能評価システム。 - 前記対象音評価装置は、
前記背景騒音取得装置にて取得した背景騒音に基づいて、擬似的な背景騒音である疑似ランダム信号を作成する疑似ランダム信号作成手段と、
前記対象音取得装置で取得した対象音と、前記疑似ランダム信号作成手段で作成した疑似ランダム信号とを結合して、対象音と背景騒音を含む混合対象音信号であるミックス音源を作成するミックス音源作成手段と、
前記対象音取得装置で取得した対象音のラウドネスN′subjectと、前記疑似ランダム信号作成手段で作成した疑似ランダム信号のラウドネスNBGNと、前記ミックス音源作成手段で作成したミックス音源のラウドネスNsubjectを、それぞれ求めるラウドネス算出手段と、
前記ラウドネス算出手段で求めた対象音のラウドネスN′subjectから、対象音のラフネスR′subjectを求めるラフネス算出手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラウドネスN″subjectを記憶する閾値ラウドネス記憶手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラフネスR″subjectを記憶する閾値ラフネス記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたラウドネス係数Aを記憶するラウドネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたラフネス係数Bを記憶するラフネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定された補正値Cを記憶する補正値記憶手段と、
前記被評価物から生じる対象音の評価基準となる境界値として予め設定された評価基準閾値EST″を記憶する評価基準閾値記憶手段と、
前記対象音のラウドネスN′subjectとラフネスR′subjectを用いることで、背景騒音を考慮しない被評価物からの対象音に対する聴感印象の評価推定値EST′が求まる下式(1)における全体係数αを、下式(2)によって求める全体係数α算出手段と、
EST′=α(A×N′subject+B×R′subject+C) …(1)
α=EST″/(A×N″subject+B×R″subject+C) …(2)
前記ラウドネス算出手段で求めたラウドネスNsubjectおよびラウドネスNBGNと、前記ラフネス算出手段で求めたラフネスR′subjectと、前記全体係数α算出手段で求めた全体係数αとから、背景騒音を考慮した被評価物からの対象音に対する聴感印象の評価推定値ESTを下式(3)により求める評価推定値算出手段と、
EST=α{A×(Nsubject−NBGN)+B×R′subject+C} …(3)
前記評価推定値算出手段で求めた式(3)の評価推定値ESTを、前記評価基準閾値EST″と比較することにより、対象音の近似的な官能評価を行う近似官能評価手段と、
を備えることを特徴とする請求項6に記載の背景騒音下における対象音の近似官能評価システム。 - 前記対象音評価装置は、
前記背景騒音取得装置にて取得した背景騒音に基づいて、擬似的な背景騒音である疑似ランダム信号を作成する疑似ランダム信号作成手段と、
前記対象音取得装置で取得した対象音と、前記疑似ランダム信号作成手段で作成した疑似ランダム信号とを結合して、対象音と背景騒音を含む混合対象音信号であるミックス音源を作成するミックス音源作成手段と、
前記対象音取得装置で取得した対象音のラウドネスN′subjectと、前記疑似ランダム信号作成手段で作成した疑似ランダム信号のラウドネスNBGNと、前記ミックス音源作成手段で作成したミックス音源のラウドネスNsubjectを、それぞれ求めるラウドネス算出手段と、
前記ラウドネス算出手段で求めた対象音のラウドネスN′subjectから、対象音のラフネスR′subjectを求めるラフネス算出手段と、
前記ラウドネス算出手段で求めたミックス音源のラウドネスNsubjectと、疑似ランダム信号のラウドネスNBGNとから、対象音のシャープネスS′subjectを求めるシャープネス算出手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラウドネスN″subjectを記憶する閾値ラウドネス記憶手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラフネスR″subjectを記憶する閾値ラフネス記憶手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値シャープネスS″subjectを記憶する閾値シャープネス記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたラウドネス係数Aを記憶するラウドネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたラフネス係数Bを記憶するラフネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたシャープネス係数Cを記憶するシャープネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定された補正値Dを記憶する補正値記憶手段と、
前記被評価物から生じる対象音の評価基準となる境界値として予め設定された評価基準閾値EST″sharpnessを記憶する評価基準閾値記憶手段と、
前記対象音のラウドネスN′subjectとラフネスR′subjectとシャープネスS′subjectを用いることで、背景騒音を考慮しない被評価物からの対象音に対する聴感印象の評価推定値EST′sharpnessが求まる下式(4)における全体係数αを、下式(5)によって求める全体係数α算出手段と、
EST′sharpness=α(A×N′subject+B×R′subject+C×S′subject+D) …(4)
α=EST″sharpness/(A×N″subject+B×R″subject+C×S″subject+D) …(5)
前記ラウドネス算出手段で求めたラウドネスNsubjectおよびラウドネスNBGNと、前記ラフネス算出手段で求めたラフネスR′subjectと、前記シャープネス算出手段で求めたシャープネスS′subjectと、前記全体係数α算出手段で求めた全体係数αとから、背景騒音を考慮した被評価物からの対象音に対する聴感印象の評価推定値ESTsharpnessを下式(6)により求める評価推定値算出手段と、
ESTsharpness=α{A×(Nsubject−NBGN)+B×R′subject+C×S′subject+D} …(6)
前記評価推定値算出手段で求めた式(6)の評価推定値ESTsharpnessを、前記評価基準閾値EST″sharpnessと比較することにより、対象音の近似的な官能評価を行う近似官能評価手段と、
を備えることを特徴とする請求項6に記載の背景騒音下における対象音の近似官能評価システム。 - 前記対象音評価装置は、
前記背景騒音取得装置にて取得した背景騒音に基づいて、擬似的な背景騒音である疑似ランダム信号を作成する疑似ランダム信号作成手段と、
前記対象音取得装置で取得した対象音と、前記疑似ランダム信号作成手段で作成した疑似ランダム信号とを結合して、対象音と背景騒音を含む混合対象音信号であるミックス音源を作成するミックス音源作成手段と、
前記対象音取得装置で取得した対象音のラウドネスN′subjectと、前記疑似ランダム信号作成手段で作成した疑似ランダム信号のラウドネスNBGNと、前記ミックス音源作成手段で作成したミックス音源のラウドネスNsubjectを、それぞれ求めるラウドネス算出手段と、
前記ラウドネス算出手段で求めたミックス音源のラウドネスNsubjectと、疑似ランダム信号のラウドネスNBGNとから、対象音のシャープネスS′subjectを求めるシャープネス算出手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値ラウドネスN″subjectを記憶する閾値ラウドネス記憶手段と、
前記被評価物から生じる対象音として許容あるいは目標となる値として予め設定された閾値シャープネスS″subjectを記憶する閾値シャープネス記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたラウドネス係数Aを記憶するラウドネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定されたシャープネス係数Bを記憶するシャープネス係数記憶手段と、
前記被評価物から生じる対象音に応じて予め設定された補正値Cを記憶する補正値記憶手段と、
前記被評価物から生じる対象音の評価基準となる境界値として予め設定された評価基準閾値EST″sharpness2を記憶する評価基準閾値記憶手段と、
前記対象音のラウドネスN′subjectとシャープネスS′subjectを用いることで、背景騒音を考慮しない被評価物からの対象音に対する聴感印象の評価推定値EST′sharpness2が求まる下式(7)における全体係数αを、下式(8)によって求める全体係数α算出手段と、
EST′sharpness2=α(A×N′subject+B×S′subject+C) …(7)
α=EST″sharpness2/(A×N″subject+B×S″subject+C) …(8)
前記ラウドネス算出手段で求めたラウドネスNsubjectおよびラウドネスNBGNと、前記シャープネス算出手段で求めたシャープネスS′subjectと、前記全体係数α算出手段で求めた全体係数αとから、背景騒音を考慮した被評価物からの対象音に対する聴感印象の評価推定値ESTsharpness2を下式(9)により求める評価推定値算出手段と、
ESTsharpness2=α{A×(Nsubject−NBGN)+BS′subject+C} …(9)
前記評価推定値算出手段で求めた式(9)の評価推定値ESTsharpness2を、前記評価基準閾値EST″sharpness2と比較することにより、対象音の近似的な官能評価を行う近似官能評価手段と、
を備えることを特徴とする請求項6に記載の背景騒音下における対象音の近似官能評価システム。 - 前期対象音取得装置は、被評価物から生じる対象騒音を取得するものとし、
前記対象音評価装置は、前記被評価物から生じる対象騒音が背景騒音下で気になるか気にならないかの気になり度合を評価推定値として求め、該気になり度合の評価推定値に基づいて、背景騒音下における対象騒音の気になり度合を近似官能評価するようにしたことを特徴とする請求項6〜請求項9の何れか1項に記載の背景騒音下における対象音の近似官能評価システム。 - 前記対象音取得装置は、サイン音源としての被評価物から出力されるサイン音を取得するものとし、
前記対象音評価装置は、前記被評価物から出力されるサイン音が背景騒音下で注意を喚起するか喚起しないかの注意喚起度合を評価推定値として求め、該注意喚起度合の評価推定値に基づいて、背景騒音下におけるサイン音の注意喚起度合を近似官能評価するようにしたことを特徴とする請求項6〜請求項9の何れか1項に記載の背景騒音下における対象音の近似官能評価システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017162405 | 2017-08-25 | ||
JP2017162405 | 2017-08-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019039901A true JP2019039901A (ja) | 2019-03-14 |
JP6980270B2 JP6980270B2 (ja) | 2021-12-15 |
Family
ID=65725543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018019856A Active JP6980270B2 (ja) | 2017-08-25 | 2018-02-07 | 背景騒音下における対象音の近似官能評価方法および背景騒音下における対象音の近似官能評価システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6980270B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113243915A (zh) * | 2021-05-10 | 2021-08-13 | 西北工业大学 | 一种基于音频注入的烦恼感抑制定量评价方法 |
WO2022173041A1 (ja) * | 2021-02-15 | 2022-08-18 | ダイキン工業株式会社 | 異常音判定システム、異常音判定装置、及びプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5735976U (ja) * | 1980-08-08 | 1982-02-25 | ||
JP2012047483A (ja) * | 2010-08-24 | 2012-03-08 | Railway Technical Research Institute | 鉄道車両内騒音の評価方法 |
JP2014201300A (ja) * | 2013-04-10 | 2014-10-27 | 三菱電機株式会社 | 車両接近通報装置及び車両接近通報方法 |
-
2018
- 2018-02-07 JP JP2018019856A patent/JP6980270B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5735976U (ja) * | 1980-08-08 | 1982-02-25 | ||
JP2012047483A (ja) * | 2010-08-24 | 2012-03-08 | Railway Technical Research Institute | 鉄道車両内騒音の評価方法 |
JP2014201300A (ja) * | 2013-04-10 | 2014-10-27 | 三菱電機株式会社 | 車両接近通報装置及び車両接近通報方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022173041A1 (ja) * | 2021-02-15 | 2022-08-18 | ダイキン工業株式会社 | 異常音判定システム、異常音判定装置、及びプログラム |
JP2022124477A (ja) * | 2021-02-15 | 2022-08-25 | ダイキン工業株式会社 | 異常音判定システム、異常音判定装置、及びプログラム |
JP7288218B2 (ja) | 2021-02-15 | 2023-06-07 | ダイキン工業株式会社 | 異常音判定システム、異常音判定装置、及びプログラム |
CN113243915A (zh) * | 2021-05-10 | 2021-08-13 | 西北工业大学 | 一种基于音频注入的烦恼感抑制定量评价方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6980270B2 (ja) | 2021-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Leighton | Are some people suffering as a result of increasing mass exposure of the public to ultrasound in air? | |
Leventhall et al. | A review of published research on low frequency noise and its effects | |
Szychowska et al. | The influence of audio-visual interactions on the annoyance ratings for wind turbines | |
US9191764B2 (en) | Binaural audio signal-based applications | |
JP6980270B2 (ja) | 背景騒音下における対象音の近似官能評価方法および背景騒音下における対象音の近似官能評価システム | |
CN118338220A (zh) | 减轻耳鸣的助听器音频输出方法、音频输出设备及计算机可读存储介质 | |
Rajala et al. | Hearing threshold, loudness, and annoyance of infrasonic versus non-infrasonic frequencies | |
Leighton et al. | Public exposure to airborne ultrasound and very high frequency sound | |
Aydın et al. | Assessment of sound environment pleasantness by sound quality metrics in urban spaces | |
Stojmenova et al. | On the selection of stimulus for the Auditory Variant of the Detection Response Task Method for driving experiments | |
Blauert et al. | Product-sound quality: A new aspect of machinery noise | |
Laroche et al. | Detection and reaction thresholds for reverse alarms in noise with and without passive hearing protection | |
Von Hünerbein et al. | Wind turbine amplitude modulation: research to improve understanding as to its cause & effect | |
Warner et al. | Thresholds of Discomfort for Complex Stimuli | |
Genuit et al. | Relationship between environmental noise, sound quality, soundscape | |
Thorne | Assessing intrusive noise and low amplitude sound | |
Gandhi et al. | Noise Pollution, Awareness, Prevention and Control | |
CN107111921A (zh) | 用于有效的可听警报设置的方法和设备 | |
Rouch et al. | Relation between perceived urgency of alarm signals and psychoacoustic parameters | |
Schlauch et al. | Pure-tone–spondee threshold relationships in functional hearing loss: a test of loudness contribution | |
Defréville et al. | Unpleasantness of urban sound environment based on identification of sources: a perceptive and an acoustic approach | |
Flindell | Human response to sound | |
Moon et al. | Applying signal detection theory to determine the ringtone volume of a mobile phone under ambient noise | |
Taghipour et al. | Relative duration of quiet periods between events influences noise annoyance: A laboratory experiment with helicopter sounds | |
FL1NDELL | Fundamentals of human response to sound |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201210 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211029 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6980270 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |