JP2014006692A - Hearing impression amount estimating device and program therefor - Google Patents

Hearing impression amount estimating device and program therefor Download PDF

Info

Publication number
JP2014006692A
JP2014006692A JP2012141774A JP2012141774A JP2014006692A JP 2014006692 A JP2014006692 A JP 2014006692A JP 2012141774 A JP2012141774 A JP 2012141774A JP 2012141774 A JP2012141774 A JP 2012141774A JP 2014006692 A JP2014006692 A JP 2014006692A
Authority
JP
Japan
Prior art keywords
psychological state
auditory impression
acoustic
amount
impression amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012141774A
Other languages
Japanese (ja)
Other versions
JP5941350B2 (en
Inventor
Norifumi Oide
訓史 大出
Akio Ando
彰男 安藤
Kenji Ozawa
賢司 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2012141774A priority Critical patent/JP5941350B2/en
Publication of JP2014006692A publication Critical patent/JP2014006692A/en
Application granted granted Critical
Publication of JP5941350B2 publication Critical patent/JP5941350B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a hearing impression amount estimating device that can present an accurate hearing impression amount.SOLUTION: A hearing impression amount estimating device 1 includes: acoustic signal analysis means 10 for obtaining an acoustic analysis value by acoustic analysis; a database 20 for storing a mental state transition model 21 and a probability distribution model 23; mental state estimating means 30 for estimating a mental state of a listener by applying maximum likelihood estimation processing or random number generation processing with the acoustic analysis value to the mental state transition model; probability distribution model extracting means 40 for generating an extraction condition that conforms a mental state of a test subject with the mental state of the listener; and hearing impression amount estimating means 50 for calculating a hearing impression amount corresponding to the acoustic analysis value, from the probability distribution model.

Description

本発明は、聴取者が感じた音の特徴の程度を示す聴覚印象量を推定する聴覚印象量推定装置及びそのプログラムに関する。   The present invention relates to an auditory impression amount estimation device for estimating an auditory impression amount indicating a degree of a feature of a sound felt by a listener, and a program thereof.

収音再生技術の発展に伴い、22.2マルチチャンネル音響システムやWave Field Synthesisなど、臨場感が高い多様な音響システムが提案されている。このため、これら音響システムにおいて、その品質を客観的に評価することが求められている。   Along with the development of sound collection and reproduction technology, various acoustic systems with a high sense of realism, such as 22.2 multi-channel acoustic system and Wave Field Synthesis, have been proposed. For this reason, in these acoustic systems, it is required to objectively evaluate the quality.

従来から、符号化された音に対する客観評価方法として、PEAQ(Perceptual Evaluation of Audio Quality)が提案されており、ITU(International Telecommunication Union)で規格化されている(非特許文献1参照)。この非特許文献1に記載の技術は、人の聴覚末梢系を模擬しており、聴覚中枢系を簡易なニューラルネットワークで代用したものである。   Conventionally, PEAQ (Perceptual Evaluation of Audio Quality) has been proposed as an objective evaluation method for encoded sound, and is standardized by ITU (International Telecommunication Union) (see Non-Patent Document 1). The technology described in Non-Patent Document 1 simulates a human auditory peripheral system, and substitutes the auditory central system with a simple neural network.

近年、収音再生技術の品質を評価する指標として、臨場感という感性情報が注目されている。この臨場感は、あたかもその場にいるような感じを示すが、音響空間の再現度だけでなく、心理効果(例えば、「心が揺さぶられた」)に対しても影響を受けることが知られている(非特許文献2参照)。また、臨場感の前提となる聴覚印象は、聴取者の嗜好や心理状態等の様々な条件によって、異なることが知られている(非特許文献3参照)。さらに、心理状態は、急速に変化してすぐに定常状態になる情動や、比較的長時間持続する情動など、情動の種類によって状態遷移の時定数が異なることが知られている。さらに、情動の種類によって、影響を与える聴覚印象が異なると考えられる。   In recent years, sensibility information called realism has attracted attention as an index for evaluating the quality of sound collection and reproduction technology. This sense of presence shows the feeling of being there, but it is known that it is influenced not only by the reproducibility of the acoustic space, but also by psychological effects (for example, “the heart is shaken”). (See Non-Patent Document 2). In addition, it is known that the auditory impression, which is the premise of a sense of reality, varies depending on various conditions such as the listener's preference and psychological state (see Non-Patent Document 3). Furthermore, it is known that the time constant of state transition differs depending on the type of emotion, such as emotions that change rapidly and immediately become a steady state, or emotions that last for a relatively long time. Furthermore, it is thought that the auditory impression that influences differs depending on the type of emotion.

ここで、人間が感じる音響品質の客観評価方法として、例えば、特許文献1に記載の発明が提案されている。この特許文献1に記載の発明は、音響特徴量から聴覚印象量を一意に決定し、その聴覚印象量から臨場感を推定するものである。   Here, for example, an invention described in Patent Document 1 has been proposed as an objective evaluation method of sound quality felt by humans. The invention described in Patent Document 1 uniquely determines an auditory impression amount from an acoustic feature amount, and estimates a sense of reality from the auditory impression amount.

特開2011−250049号公報JP 2011-250049 A

ITU−R BS.1387ITU-R BS. 1387 電子情報通信学会技術研究報告 HIP2008−132,“「臨場感」に関するイメージ調査”,聴覚研究会資料 Vol.40,No.1,H−2010−1IEICE Technical Report HIP2008-132, “Image Survey on“ Realism ””, Hearing Society Document Vol.40, No.1, H-2010-1 日本音響学会2010年度春季研究発表会講演論文集2−1−7,“A study of influences of word and phone accuracies on unsupervised HMM-based speech synthesis”Proceedings of the Acoustical Society of Japan 2010 Spring Meeting 2-1-7, “A study of influences of word and phone accuracies on unsupervised HMM-based speech synthesis”

しかし、特許文献1に記載の発明では、音響特徴量から聴覚印象量を一意に決定するため、心理状態が聴覚印象量に反映されておらず、聴覚印象量が正確でないという問題がある。このため、特許文献1に記載の発明では、推定した臨場感が、必ずしも聴取者が実際に感じている臨場感を正確に表していない。   However, the invention described in Patent Document 1 has a problem that the psychological state is not reflected in the auditory impression amount because the auditory impression amount is uniquely determined from the acoustic feature amount, and the auditory impression amount is not accurate. For this reason, in the invention described in Patent Document 1, the estimated presence is not necessarily an accurate representation of the presence actually felt by the listener.

そこで、本発明は、前記した問題を解決し、正確な聴覚印象量を提示できる聴覚印象量推定装置及びそのプログラムを提供することを課題とする。   Therefore, an object of the present invention is to solve the above-described problems and provide an auditory impression amount estimation device and a program thereof that can present an accurate auditory impression amount.

前記した課題に鑑みて、本願第1発明に係る聴覚印象量推定装置は、音響信号が再生されたときの、聴取者が感じた音の特徴の程度を示す聴覚印象量を推定する聴覚印象量推定装置であって、音響信号分析手段と、心理状態遷移モデルデータベースと、心理状態推定手段と、確率分布モデルデータベースと、抽出条件生成手段と、聴覚印象量算出手段と、を備えることを特徴とする。   In view of the above-described problem, the auditory impression amount estimation device according to the first invention of the present application estimates an auditory impression amount that indicates a degree of a sound feature felt by a listener when an acoustic signal is reproduced. An estimation device comprising: an acoustic signal analysis unit; a psychological state transition model database; a psychological state estimation unit; a probability distribution model database; an extraction condition generation unit; and an auditory impression amount calculation unit. To do.

かかる構成によれば、聴覚印象量推定装置は、音響信号分析手段によって、音響信号が入力され、入力された音響信号の音響特徴量である音響分析値を、音響信号を音響分析して求める。   According to this configuration, the auditory impression amount estimation device obtains an acoustic analysis value, which is an acoustic feature amount of the inputted acoustic signal, by acoustic analysis of the acoustic signal by the acoustic signal analysis means.

ここで、音響特徴量としては、例えば、基本周波数の時間変化パターン、周波数特性、周波数特性の分類クラス、レベルの時間変化パターン、ラウドネス、ラフネス、シャープネス、両耳間時間差、両耳間レベル差、両耳間相関度、両耳間相関関数の幅があげられる。そして、聴覚印象量推定装置は、これら音響特徴量の1つ以上を音響分析する。   Here, as the acoustic feature amount, for example, time change pattern of fundamental frequency, frequency characteristics, frequency characteristic classification class, level time change pattern, loudness, roughness, sharpness, interaural time difference, interaural level difference, The binaural correlation degree and the width of the binaural correlation function can be given. Then, the auditory impression amount estimation device acoustically analyzes one or more of these acoustic feature amounts.

また、聴覚印象量推定装置は、音響特徴量を評価条件とし、評価条件毎に主観評価実験を行って被験者の心理状態の遷移確率を設定した心理状態遷移モデルが、心理状態遷移モデルデータベースに予め記憶されている。また、聴覚印象量推定装置は、心理状態推定手段によって、心理状態遷移モデルに設定された心理状態の遷移確率と、乱数発生処理で発生させた乱数とによって、聴取者の心理状態を推定する。   In addition, the auditory impression amount estimation device uses a psychological state transition model in which a psychological state transition model is set in advance by performing a subjective evaluation experiment for each evaluation condition and setting a probability of transition of the subject's psychological state. It is remembered. Moreover, the auditory impression amount estimation device estimates the psychological state of the listener by the psychological state estimating means based on the psychological state transition probability set in the psychological state transition model and the random number generated in the random number generation process.

また、聴覚印象量推定装置は、被験者の心理状態毎に主観評価実験を行って聴覚印象量と音響特徴量とを予め対応付けた確率分布モデルが、確率分布モデルデータベースに記憶されている。従って、聴覚印象量推定装置は、確率分布モデル抽出手段によって、この確率分布モデルに含まれる被験者の心理状態と、心理状態推定手段で推定された聴取者の心理状態との間で一致する心理状態である抽出条件を、生成することができる。   The auditory impression amount estimation device stores a probability distribution model in which the auditory impression amount and the acoustic feature amount are associated in advance by performing a subjective evaluation experiment for each psychological state of the subject in the probability distribution model database. Therefore, the auditory impression amount estimation device uses the probability distribution model extraction unit to match the psychological state of the subject included in the probability distribution model with the psychological state of the listener estimated by the psychological state estimation unit. An extraction condition can be generated.

また、聴覚印象量推定装置は、聴覚印象量算出手段によって、確率分布モデルから、抽出条件に一致する聴覚印象量及び音響特徴量を抽出し、抽出した聴覚印象量及び音響特徴量に、音響特徴量の区間毎に予め設定された確率関数を適用することで、音響分析値に対応する聴覚印象量を算出する。つまり、聴覚印象量推定装置は、確率分布モデルの全モデルデータ(聴覚印象量及び音響特徴量)のうち、聴取者の心理状態に一致するモデルデータのみを抽出する。従って、聴覚印象量推定装置が提示する聴覚印象量は、聴取者の心理状態が反映されることになる。   The auditory impression amount estimation device extracts the auditory impression amount and the acoustic feature amount that match the extraction condition from the probability distribution model by the auditory impression amount calculation means, and the extracted acoustic impression amount and the acoustic feature amount have an acoustic feature. By applying a probability function set in advance for each section of the amount, an auditory impression amount corresponding to the acoustic analysis value is calculated. That is, the auditory impression amount estimation device extracts only model data that matches the psychological state of the listener from all model data (auditory impression amount and acoustic feature amount) of the probability distribution model. Therefore, the auditory impression amount presented by the auditory impression amount estimation device reflects the psychological state of the listener.

なお、心理状態とは、聴取者や被験者の気持ちを示すものである。
聴覚印象とは、聴取者や被験者が感じた音の特徴を言葉で表現(ラベリング)したものである。
聴覚印象量とは、聴覚印象の程度、つまり、聴覚印象を数値化したものである。
聴取者とは、音響信号を実際に聴取する者である。
被験者とは、心理状態遷移モデル又は確率分布モデルを構築するときの主観評価実験の対象者である。
The psychological state indicates the feelings of the listener and the subject.
An auditory impression is a representation (labeling) of the characteristics of sounds felt by the listener or subject.
The auditory impression amount is a numerical value of the degree of the auditory impression, that is, the auditory impression.
A listener is a person who actually listens to an acoustic signal.
A subject is a subject of a subjective evaluation experiment when constructing a psychological state transition model or a probability distribution model.

また、本願第2発明に係る聴覚印象量推定装置は、聴取者に依存する設定パラメータとして、聴取者の嗜好が入力される設定パラメータ入力手段をさらに備え、心理状態遷移モデルデータベースが、評価条件に音響特徴量及び被験者の嗜好が含まれる心理状態遷移モデルを記憶することを特徴とする。
かかる構成によれば、聴覚印象量推定装置は、聴取者の嗜好を心理状態の推定結果に反映させることができる。
なお、嗜好とは、聴取者や被験者の好みを示すものである。
Moreover, the auditory impression amount estimation device according to the second invention of the present application further includes setting parameter input means for inputting a listener's preference as a setting parameter depending on the listener, and the psychological state transition model database is set as an evaluation condition. A psychological state transition model including an acoustic feature amount and a subject's preference is stored.
According to this configuration, the auditory impression amount estimation device can reflect the listener's preference in the psychological state estimation result.
The preference indicates the preference of the listener or the subject.

また、本願第3発明に係る聴覚印象量推定装置は、聴取者の生体情報を測定する生体情報測定手段をさらに備え、心理状態遷移モデルデータベースが、さらに、評価条件に被験者の生体情報が含まれる心理状態遷移モデルを記憶することを特徴とする。
かかる構成によれば、聴覚印象量推定装置は、聴取者の生体情報を心理状態の推定結果に反映させることができる。
Moreover, the auditory impression amount estimation device according to the third invention of the present application further includes biological information measuring means for measuring the biological information of the listener, the psychological state transition model database further includes the biological information of the subject in the evaluation condition. A psychological state transition model is stored.
According to this configuration, the auditory impression amount estimation device can reflect the listener's biological information in the psychological state estimation result.

また、本願第4発明に係る聴覚印象量推定装置は、心理状態遷移モデルデータベースが、被験者の心理状態が段階的に遷移する心理状態遷移モデルを記憶することを特徴とする。
かかる構成によれば、聴覚印象量推定装置は、聴取者の心理状態の遷移を詳細に把握することができる。
Moreover, the auditory impression amount estimation device according to the fourth invention of the present application is characterized in that the psychological state transition model database stores a psychological state transition model in which the psychological state of the subject changes stepwise.
According to this configuration, the auditory impression amount estimation device can grasp in detail the transition of the listener's psychological state.

また、本願第5発明に係る聴覚印象量推定装置は、心理状態遷移モデルデータベースが、被験者の心理状態に含まれる内部状態が遷移する心理状態遷移モデルを記憶することを特徴とする。
かかる構成によれば、聴覚印象量推定装置は、聴取者の心理状態の遷移を詳細に把握することができる。
なお、内部状態とは、聴取者や被験者の心理状態を言葉で表現(ラベリング)したものである。ここでは、内部状態とは、心理状態遷移モデルを構成する1単位(1ユニット)のことである。
Moreover, the auditory impression amount estimation apparatus according to the fifth invention of the present application is characterized in that the psychological state transition model database stores a psychological state transition model in which an internal state included in the psychological state of the subject changes.
According to this configuration, the auditory impression amount estimation device can grasp in detail the transition of the listener's psychological state.
In addition, an internal state expresses (labels) the psychological state of a listener or a test subject with words. Here, the internal state is one unit (one unit) constituting the psychological state transition model.

なお、本願第1発明に係る聴覚印象量推定装置は、CPU、データベース等のハードウェア資源を備える一般的なコンピュータを、前記した各手段として協調動作させる聴覚印象量推定プログラムによって実現することもできる。この聴覚印象量推定プログラムは、通信回線を介して配布しても良く、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   In addition, the auditory impression amount estimation apparatus according to the first invention of the present application can also be realized by an auditory impression amount estimation program that causes a general computer including hardware resources such as a CPU and a database to operate in cooperation with each other as described above. . This auditory impression amount estimation program may be distributed via a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

本発明によれば、以下のような優れた効果を奏する。
本願第1発明によれば、聴取者の心理状態が聴覚印象量に反映されるため、正確な聴覚印象量を提示することができる。
本願第2発明によれば、聴取者の心理状態に加えて、聴取者の嗜好が心理状態の推定結果に反映されるため、より正確な聴覚印象量を提示することができる。
According to the present invention, the following excellent effects can be obtained.
According to the first invention of the present application, since the psychological state of the listener is reflected in the auditory impression amount, an accurate auditory impression amount can be presented.
According to the second invention of this application, in addition to the listener's psychological state, the listener's preference is reflected in the psychological state estimation result, so that a more accurate auditory impression amount can be presented.

本願第3発明によれば、聴取者の生体情報が心理状態の推定結果に反映されるため、より正確な聴覚印象量を提示することができる。
本願第4,5発明によれば、聴取者の心理状態の遷移を詳細に把握できるため、より正確な聴覚印象量を提示することができる。
According to the third aspect of the present invention, since the listener's biological information is reflected in the psychological state estimation result, a more accurate auditory impression amount can be presented.
According to the fourth and fifth aspects of the present invention, since the transition of the psychological state of the listener can be grasped in detail, a more accurate auditory impression amount can be presented.

本発明の第1実施形態に係る聴覚印象量推定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the auditory impression amount estimation apparatus which concerns on 1st Embodiment of this invention. 図1のデータベースに記憶された心理状態遷移モデルの第1例を説明する図である。It is a figure explaining the 1st example of the psychological state transition model memorize | stored in the database of FIG. 図1のデータベースに記憶された心理状態遷移モデルの第2例を説明する図である。It is a figure explaining the 2nd example of the psychological state transition model memorize | stored in the database of FIG. 図1のデータベースに記憶された心理状態遷移モデルの第3例を説明する図である。It is a figure explaining the 3rd example of the psychological state transition model memorize | stored in the database of FIG. (a)〜(c)は第1実施形態において抽出条件の生成理由を説明する図である。(A)-(c) is a figure explaining the production | generation reason of extraction conditions in 1st Embodiment. (a)〜(e)は第1実施形態において抽出条件の生成理由を説明する図である。(A)-(e) is a figure explaining the production | generation reason of extraction conditions in 1st Embodiment. 図1の聴覚印象量算出手段による聴覚印象量の算出と、臨場感推定値算出手段による臨場感推定値の算出とを説明する図である。It is a figure explaining the calculation of the auditory impression amount by the auditory impression amount calculating means of FIG. 1, and the calculation of the realistic feeling estimated value by the realistic feeling estimated value calculating means. 図1の聴覚印象量提示手段が聴覚印象量及び臨場感推定値を棒グラフ形式で提示した例を説明する図である。It is a figure explaining the example which the auditory impression amount presentation means of FIG. 1 presented the auditory impression amount and the realistic sensation estimated value in a bar graph format. 図1の聴覚印象量提示手段が聴覚印象量及び臨場感推定値を相関図形式で提示した例を説明する図である。It is a figure explaining the example which the auditory impression amount presentation means of FIG. 1 presented the auditory impression amount and the realistic sensation estimated value in the form of a correlation diagram. 本発明の第2実施形態に係る聴覚印象量推定装置において、聴覚印象量及び臨場感推定値の算出を説明する図である。In the auditory impression amount estimation device according to the second embodiment of the present invention, FIG. 本発明の第2実施形態に係る聴覚印象量推定装置において、聴覚印象量及び臨場感推定値を棒グラフ形式で提示した例を説明する図である。It is a figure explaining the example which presented the auditory impression amount and the realistic sensation estimated value in the bar graph format in the auditory impression amount estimation apparatus according to the second embodiment of the present invention. 本発明の第2実施形態に係る聴覚印象量推定装置において、聴覚印象量及び臨場感推定値をレーダーチャート形式で提示した例を説明する図である。It is a figure explaining the example which presented the auditory impression amount and the realistic sensation estimated value in the radar chart format in the auditory impression amount estimation device according to the second embodiment of the present invention. 本発明の第2実施形態に係る聴覚印象量推定装置の全体動作を示すフローチャートである。It is a flowchart which shows the whole operation | movement of the auditory impression amount estimation apparatus which concerns on 2nd Embodiment of this invention. 図13のステップS1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of step S1 of FIG. 図13のステップS2の動作を示すフローチャートである。It is a flowchart which shows operation | movement of step S2 of FIG. 図13のステップS3の動作を示すフローチャートである。It is a flowchart which shows operation | movement of step S3 of FIG. 図13のステップS4の動作を示すフローチャートである。It is a flowchart which shows operation | movement of step S4 of FIG. 本発明の変形例1において、心理状態遷移モデルを説明する図である。In the modification 1 of this invention, it is a figure explaining a psychological state transition model. 本発明の変形例2において、心理状態遷移モデルを説明する図である。In the modification 2 of this invention, it is a figure explaining a psychological state transition model. (a)〜(d)は本発明の変形例2において遷移確率の設定を説明する図である。(A)-(d) is a figure explaining the setting of the transition probability in the modification 2 of this invention. (a)及び(b)は本発明の変形例2において遷移確率の選択を説明する図である。(A) And (b) is a figure explaining selection of a transition probability in the modification 2 of this invention.

以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.

(第1実施形態)
[聴覚印象量推定装置の構成]
図1を参照し、本発明の第1実施形態に係る聴覚印象量推定装置1の構成について説明する。
聴覚印象量推定装置1は、聴取者が再生音場音響信号(音響信号)を聴いたときの聴覚印象量と、臨場感の推定値とを提示するものである。このため、聴覚印象量推定装置1は、音響信号分析手段10と、データベース20と、心理状態推定手段30と、確率分布モデル抽出手段(抽出条件生成手段)40と、聴覚印象量推定手段50とを備える。
なお、設定パラメータ入力手段60及び生体情報測定手段70は、後記する。
(First embodiment)
[Configuration of hearing impression estimation device]
With reference to FIG. 1, the structure of the auditory impression amount estimation apparatus 1 which concerns on 1st Embodiment of this invention is demonstrated.
The auditory impression amount estimation device 1 presents an auditory impression amount when a listener listens to a reproduced sound field acoustic signal (acoustic signal) and an estimated value of presence. For this reason, the auditory impression amount estimation device 1 includes an acoustic signal analysis unit 10, a database 20, a psychological state estimation unit 30, a probability distribution model extraction unit (extraction condition generation unit) 40, and an auditory impression amount estimation unit 50. Is provided.
The setting parameter input means 60 and the biological information measurement means 70 will be described later.

まず、音響信号分析手段10に入力される再生音場音響信号について説明する。
再生音場音響信号は、再生音場で収音された音響信号(実際に再現された音響空間で計測された音響信号)である。例えば、再生音場音響信号は、コンサートホールでのオーケストラ生演奏を収音した音響信号を、リビングルームのオーディオ機器により再生して、その再生音を収音した音響信号である。
First, the reproduced sound field acoustic signal input to the acoustic signal analyzing means 10 will be described.
The reproduced sound field acoustic signal is an acoustic signal collected in the reproduced sound field (an acoustic signal measured in an actually reproduced acoustic space). For example, the reproduced sound field acoustic signal is an acoustic signal obtained by collecting an acoustic signal obtained by playing an orchestra live performance in a concert hall using an audio device in a living room.

このとき、音響空間の計測(再生音場音響信号の収音)には、例えば、人間の頭部を模擬した計測装置(ダミーヘッドに設置されたマイクロホン)を用いることができる。
また、音響空間の計測には、複数のマイクロホンを用いて空間的な情報を取得できる計測装置を用いてもよい。例えば、複数のマイクロホンを配置して、音量や位相を比較することで、音の到来方向を算出することができる。このとき、信号間相関(ダミーヘッドの場合は、両耳間相関)を算出することで、音の拡がり感を空間的な情報として取得できる。
At this time, for example, a measurement device simulating a human head (a microphone installed on a dummy head) can be used for measurement of the acoustic space (sound collection of a reproduced sound field acoustic signal).
For measurement of the acoustic space, a measuring device that can acquire spatial information using a plurality of microphones may be used. For example, the sound arrival direction can be calculated by arranging a plurality of microphones and comparing the volume and phase. At this time, by calculating the correlation between signals (in the case of a dummy head, the correlation between both ears), it is possible to acquire a sense of sound expansion as spatial information.

音響信号分析手段10は、再生音場音響信号が入力され、入力された再生音場音響信号の音響特徴量である音響分析値を、再生音場音響信号を音響分析して求めるものである。例えば、音響信号分析手段10は、ラウドネス推定値、音圧レベル、周波数特性、両耳間相互相関度、両耳間レベル差、両耳間位相差、基本周波数の時間変化パターン、周波数特性の分類クラス、レベルの時間変化パターン、ラフネス、シャープネス、両耳間相関関数の幅等の音響特徴量を、音響分析値として算出する。そして、音響信号分析手段10は、算出した音響分析値を、確率分布モデル抽出手段40に出力する。   The acoustic signal analysis means 10 receives a reproduced sound field acoustic signal and obtains an acoustic analysis value that is an acoustic feature amount of the input reproduced sound field acoustic signal by acoustic analysis of the reproduced sound field acoustic signal. For example, the acoustic signal analysis means 10 can calculate the estimated loudness value, sound pressure level, frequency characteristics, interaural cross-correlation, interaural level difference, interaural phase difference, time-varying pattern of fundamental frequency, and frequency characteristic classification. Acoustic features such as class, level temporal change pattern, roughness, sharpness, and width of interaural correlation function are calculated as acoustic analysis values. Then, the acoustic signal analysis unit 10 outputs the calculated acoustic analysis value to the probability distribution model extraction unit 40.

ここで、音響信号分析手段10は、音響特徴量として、音像の方向を求めてもよい。例えば、両耳間レベル差及び両耳間位相差から、聴取者に対する音像の角度を求める。音像の方向を4方向で表す場合、音響信号分析手段10は、求めた音像の角度が聴取者の正面90°の範囲内であれば音像の方向を「正面」とし、この音像の角度が聴取者の左右90°の範囲内であれば音像の方向を「側面」とし、この音像の角度が聴取者の背面90°の範囲内であれば音像の方向を「背面」とする。
さらに、音響信号分析手段10は、音像の方向を、45°の範囲内で区分された8方向で表してもよい。
Here, the acoustic signal analysis unit 10 may obtain the direction of the sound image as the acoustic feature amount. For example, the angle of the sound image with respect to the listener is obtained from the interaural level difference and the interaural phase difference. When the direction of the sound image is represented by four directions, the acoustic signal analyzing means 10 determines that the direction of the sound image is “front” if the angle of the obtained sound image is within the range of 90 ° in front of the listener, and the angle of the sound image is If the angle is within the range of 90 ° to the left and right of the listener, the direction of the sound image is “side”, and if the angle of the sound image is within the range of 90 ° to the back of the listener, the direction of the sound image is “back”.
Furthermore, the acoustic signal analysis means 10 may represent the direction of the sound image in eight directions divided within a 45 ° range.

なお、これら音響分析の手法は、一般的なものであるため説明を省略する。また、音響信号分析手段10が求める音響特徴量は、音響分析可能なものであればよく、これらに限定されないことは言うまでもない。また、音響信号分析手段10がどの音響特徴量を求めるかは、手動で設定することができる。   Note that these acoustic analysis methods are general and will not be described. Needless to say, the acoustic feature amount required by the acoustic signal analyzing means 10 is not limited to this as long as it can be analyzed. Moreover, it can be set manually which acoustic feature-value which the acoustic signal analysis means 10 calculates | requires.

データベース20は、後記する心理状態推定手段30及び聴覚印象量推定手段50が用いる様々な情報が予め記憶されたデータベースである。例えば、データベース20は、評価用音響信号と、心理状態遷移モデル21と、確率分布モデル23と、重み係数とを記憶している。   The database 20 is a database in which various information used by a psychological state estimation unit 30 and an auditory impression amount estimation unit 50 described later are stored in advance. For example, the database 20 stores an acoustic signal for evaluation, a psychological state transition model 21, a probability distribution model 23, and a weighting coefficient.

評価用音響信号は、心理状態遷移モデル21及び確率分布モデル23を構築するときの主観評価実験において、被験者が聴いた音響信号である。この評価用音響信号は、再生音場音響信号が含まれてもよく、再生音場音響信号が含まれなくてもよい。   The evaluation acoustic signal is an acoustic signal heard by the subject in the subjective evaluation experiment when the psychological state transition model 21 and the probability distribution model 23 are constructed. The evaluation acoustic signal may include a reproduced sound field acoustic signal or may not include a reproduced sound field acoustic signal.

心理状態遷移モデル21は、音響特徴量を評価条件とし、評価条件毎に主観評価実験を行って被験者の心理状態間の遷移確率を求めたものである。
評価条件(メタデータ)とは、心理状態遷移モデル21を構築するための主観評価実験を行った条件である。
なお、心理状態遷移モデル21の構築については後記する。
The psychological state transition model 21 uses the acoustic feature amount as an evaluation condition and performs a subjective evaluation experiment for each evaluation condition to obtain a transition probability between the psychological states of the subject.
The evaluation condition (metadata) is a condition for performing a subjective evaluation experiment for constructing the psychological state transition model 21.
The construction of the psychological state transition model 21 will be described later.

心理状態とは、聴取者や被験者の気持ちを示すものであり、例えば、ゾクッとするような感動を示す「感動(ゾクッ)」、感動が特にない「平常」、ジーンとするような感動を示す「感動(ジーン)」といったものがある。   The psychological state indicates the feelings of the listener and the subject, for example, “impression” that indicates a thrilling impression, “normal” that does not have a particular impression, and a impression that is a generous impression. There is something like "impressed (gene)".

この他、心理状態には、例えば、「楽しい」、「悲しい」、「イライラ」といったものがある。
さらに、心理状態は、カテゴリーで区分してもよい。例えば、「抑鬱」というカテゴリーの心理状態には、「気がかりな」、「不安な」、「自信がない」という心理状態が含まれる。また、例えば、「敵意」というカテゴリーの心理状態には、「攻撃的な」、「憎らしい」、「むっとした」という心理状態が含まれる。また、例えば、「倦怠」というカテゴリーの心理状態には、「つまらない」、「疲れた」、「退屈な」という心理状態が含まれる。また、例えば、「活動的快」というカテゴリーの心理状態には、「活気のある」、「気力に満ちた」、「はつらつとした」という心理状態が含まれる。また、例えば、「非活動的快」というカテゴリーの心理状態には、「のんびりした」、「のどかな」、「おっとりした」という心理状態が含まれる。また、例えば、「親和」というカテゴリーの心理状態には、「いとおしい」、「愛らしい」、「すてきな」という心理状態が含まれる(参考文献1参照)。
参考文献1:「多面的感情状態尺度の作成」、寺崎他、心理学研究、第62号、pp.350-356、1992
Other psychological states include, for example, “fun”, “sad”, and “irritated”.
Further, the psychological state may be classified by category. For example, the psychological state of the category “depression” includes psychological states “not concerned”, “anxious”, “not confident”. Further, for example, the psychological state of the category “hostility” includes psychological states of “aggressive”, “hateful”, and “muty”. Further, for example, the psychological state of the category “Fatigue” includes psychological states of “boring”, “tired”, and “boring”. Further, for example, the psychological state of the category “active pleasure” includes psychological states of “lively”, “full of energy”, and “hot”. Further, for example, the psychological state of the category “inactive pleasure” includes psychological states of “relaxed”, “idle”, and “moist”. For example, the psychological state of the category “affinity” includes psychological states of “Ioioi”, “Adorable”, and “Nice” (see Reference 1).
Reference 1: “Creation of a multifaceted emotional state scale”, Terasaki et al., Psychological Research, No. 62, pp. 350-356, 1992

前記した心理状態とは別に、設定パラメータは、興味の有無を含めてもよい。
興味とは、評価対象(再生音場音響信号A及び評価用音響信号)に対する聴取者や被験者の関心を示すものである。例えば、興味の有無は、「興味が有る」を‘0’、「興味が無い」を‘1’のような2値を設定してもよい。また、興味の有無として、「大変興味が有る」、「そこそこ興味が有る」、「全く興味が無い」等に対応する値を段階的に設定してもよい。
Apart from the psychological state described above, the setting parameter may include the presence or absence of interest.
The interest indicates the interest of the listener or the subject with respect to the evaluation target (reproduced sound field acoustic signal A and evaluation acoustic signal). For example, the presence / absence of interest may be set to a binary value such as “0” for “interested” and “1” for “not interested”. Further, as the presence / absence of interest, values corresponding to “very interested”, “appreciably interested”, “not interested at all”, and the like may be set stepwise.

確率分布モデル23は、被験者の心理状態毎に主観評価実験を行って、モデルデータ(聴覚印象量及び音響特徴量)を予め対応付けたものである。
聴覚印象とは、聴取者や被験者が感じた音の特徴を言葉で表現(ラベリング)したものであり、例えば、「広がり感」、「明るい」といったものがある。
聴覚印象量とは、聴覚印象の程度、つまり、聴覚印象を数値化したものである。
なお、確率分布モデル23の構築については後記する。
The probability distribution model 23 performs a subjective evaluation experiment for each subject's psychological state, and associates model data (auditory impression amount and acoustic feature amount) in advance.
The auditory impression is a word that expresses (labels) the characteristics of the sound felt by the listener or the subject, and includes, for example, “expansion” and “bright”.
The auditory impression amount is a numerical value of the degree of the auditory impression, that is, the auditory impression.
The construction of the probability distribution model 23 will be described later.

重み係数は、臨場感推定値に対する聴覚印象量の寄与率を示すものであり、重回帰分析、数量化I類等の多変量解析により求めることができる。
重回帰分析では、複数の観測値(説明変数)から変数(目的変数)を予測するとき、予測誤差が最も少なくなるように寄与率を算出する。本実施形態では、観測値(説明変数)を音響特徴量の確率分布モデル23から求めた聴覚印象量とし、変数(目的変数)を臨場感推定値とした重回帰分析を行う。このことから、重み係数は、データベース20に記憶されている観測値に依存することになる。
The weighting coefficient indicates the contribution ratio of the auditory impression amount to the realistic sensation estimated value, and can be obtained by multivariate analysis such as multiple regression analysis and quantification type I.
In the multiple regression analysis, when a variable (object variable) is predicted from a plurality of observed values (explanatory variables), the contribution rate is calculated so that the prediction error is minimized. In the present embodiment, a multiple regression analysis is performed in which the observed value (explanatory variable) is the auditory impression amount obtained from the probability distribution model 23 of the acoustic feature amount, and the variable (objective variable) is the estimated presence value. For this reason, the weighting coefficient depends on the observation value stored in the database 20.

なお、多変量解析により重み係数を求める例を説明したが、学習手法は、これに限定されない。例えば、重み係数は、ニューラルネットワーク、遺伝的アルゴリズム等の機械学習で求めることもできる。   In addition, although the example which calculates | requires a weighting coefficient by multivariate analysis was demonstrated, the learning method is not limited to this. For example, the weighting factor can be obtained by machine learning such as a neural network or a genetic algorithm.

<心理状態遷移モデルの構築:第1例>
以下、図2〜図4を参照し、心理状態遷移モデル21の構築について、第1例〜第3例を説明する(適宜図1参照)。
図2に示すように、第1例の心理状態遷移モデル21は、「感動(ゾクッ)」と、「平常」と、「感動(ジーン)」との間のように、ある心理状態から別の心理状態に遷移する。また、心理状態遷移モデル21は、「平常」を維持するように、同一の心理状態を維持する。
<Construction of psychological state transition model: first example>
Hereinafter, the first to third examples of the construction of the psychological state transition model 21 will be described with reference to FIGS. 2 to 4 (see FIG. 1 as appropriate).
As shown in FIG. 2, the psychological state transition model 21 of the first example is different from a certain psychological state, such as between “impression”, “normal”, and “impression”. Transition to psychological state. The psychological state transition model 21 maintains the same psychological state so as to maintain “normal”.

この図2では、被験者の心理状態を、「感動(ゾクッ)」、「平常」、「感動(ジーン)」として説明する。
また、丸中の文字が心理状態を示し、心理状態が遷移する経路を矢印で示す(図3も同様)。
また、心理状態の遷移確率をPとする(x=11,12,13,21,22,31,33)。例えば、遷移確率P11は、「平常」から遷移せずに「平常」を維持する確率を示す。また、例えば、遷移確率P12は、「平常」から「感動(ジーン)」へ遷移する確率を示す。
In FIG. 2, the psychological state of the subject is described as “impression”, “normal”, and “impression”.
Moreover, the character in a circle shows a psychological state, and the path | route in which a psychological state changes is shown by the arrow (FIG. 3 is also the same).
Also, let P x be the psychological state transition probability (x = 11, 12, 13, 21, 22, 31, 33). For example, the transition probability P 11 indicates the probability of maintaining “normal” without making a transition from “normal”. Further, for example, the transition probability P 12 indicates the probability of transition from “normal” to “impression (gene)”.

心理状態遷移モデル21は、複数の被験者に主観評価実験を行って、構築できる。具体的には、評価用音響信号を被験者に聴かせながら、心理状態の変化(遷移)をフェーダにより入力させる。このフェーダは、左端が「感動(ゾクッ)」を示し、中央が「平常」を示し、右端が「感動(ジーン)」を示している。また、被験者がフェーダを移動させることで、評価用音響信号を聞いたときの心理状態の変化を入力できる。   The psychological state transition model 21 can be constructed by subjecting a plurality of subjects to subjective evaluation experiments. Specifically, a psychological state change (transition) is input by a fader while allowing the subject to listen to the evaluation acoustic signal. In this fader, the left end indicates “impression”, the center indicates “normal”, and the right end indicates “impression”. Moreover, the test subject can move the fader to input a change in the psychological state when the evaluation acoustic signal is heard.

また、評価用音響信号を被験者に聴かせている間、評価用音響信号の「ラウドネス」を測定しておく。そして、心理状態の変化及び「ラウドネス」の関係から、「感動(ゾクッ)」と、「平常」と、「感動(ジーン)」との間での遷移確率Pを示す心理状態遷移モデル21を求めることができる Further, while the evaluation acoustic signal is heard by the subject, the “loudness” of the evaluation acoustic signal is measured. Then, from the relationship between the change in the psychological state and the “loudness”, the psychological state transition model 21 indicating the transition probability P x between “impression”, “normal”, and “impression” is generated. Can ask

ここで、急激な音量の変化があるとゾクッとするような感動が得られることが知られている(参考文献2参照)。このため、心理状態遷移モデル21では、評価用音響信号の時刻t,tにおけるラウドネス推定値の差分が予め設定された閾値以上となる場合、「平常」から「感動(ジーン)」への遷移確率P12の値を高く設定してもよい。 Here, it is known that when there is a sudden change in sound volume, a shocking impression can be obtained (see Reference 2). For this reason, in the psychological state transition model 21, when the difference between the estimated loudness values at the times t 1 and t 2 of the evaluation acoustic signal is greater than or equal to a preset threshold value, “normal” is changed to “impression (gene)”. the value of the transition probability P 12 may be set high.

参考文献2:O.Grewe,et al,“Listening to music as a re-creative process:Physiological, psychological, and psychoacoustical correlates of chills and strong emotions. ”Music Perception,Vol.24,No.3,pp.297-314,2007.   Reference 2: O. Grewe, et al, “Listening to music as a re-creative process: Physiological, psychological, and psychoacoustical correlates of chills and strong emotions.” Music Perception, Vol. 24, No. 3, pp. 297 -314,2007.

<心理状態遷移モデルの構築:第2例>
図3に示すように、第2例の心理状態遷移モデル21は、「感動(ジーン)高」と、「感動(ジーン)中」と、「感動(ジーン)低」との間のように、ある心理状態が段階的に遷移する。
<Construction of psychological state transition model: second example>
As shown in FIG. 3, the psychological state transition model 21 of the second example is between “impressed (gene) high”, “impressed (gene)”, and “excited (gene) low”. A certain psychological state transitions in stages.

例えば、心理状態遷移モデル21では、ジーンとするような感動の強度に応じて、「感動(ジーン)高」と、「感動(ジーン)中」と、「感動(ジーン)低」というように3段階で設定されている。   For example, in the psychological state transition model 21, according to the intensity of impression such as “gene”, “excitement (gene) high”, “excitement (gene)”, and “excitement (gene) low” 3 It is set in stages.

ここで、「感動(ジーン)高」は、ジーンとするような感動の強度が高いことを示す。また、「感動(ジーン)低」は、ジーンとするような感動の強度が低いことを示す。また、「感動(ジーン)中」は、ジーンとするような感動の強度が「感動(ジーン)高」及び「感動(ジーン)低」との中間であることを示す。   Here, “impression (gene) high” indicates that the intensity of impression that is generous is high. Further, “low impression (gene)” indicates that the intensity of impression such as a gene is low. In addition, “in the middle of impression” indicates that the intensity of impression as a gene is intermediate between “impression (gene) high” and “impression (gene) low”.

以上のように、第2例では、心理状態の強度を反映させた心理状態遷移モデル21を構築し、聴取者の心理状態の遷移を詳細に把握することが可能となる。
なお、第2例では、遷移確率Pを第1例と同様に設定できるため、説明及び図示を省略した。
As described above, in the second example, it is possible to construct the psychological state transition model 21 that reflects the strength of the psychological state and grasp the transition of the psychological state of the listener in detail.
In the second example, the transition probability P x can be set in the same manner as in the first example, and thus the description and illustration are omitted.

<心理状態遷移モデルの構築:第3例>
図4に示すように、第3例の心理状態遷移モデル21は、「平常」に含まれる内部状態「無関心」と、「関心」と、「高関心」との間のように、同一の心理状態に含まれる内部状態が遷移する。また、心理状態遷移モデル21は、「平常」に含まれる「高関心」と、「感動」に含まれる内部状態「感動低」との間のように、異なる心理状態に含まれる内部状態でも遷移する。
<Construction of psychological state transition model: third example>
As shown in FIG. 4, the psychological state transition model 21 of the third example has the same psychological state between the internal states “indifference”, “interest”, and “high interest” included in “normal”. The internal state included in the state transitions. The psychological state transition model 21 also transitions even in internal states included in different psychological states, such as between “high interest” included in “normal” and internal states “low emotion” included in “impression”. To do.

この内部状態とは、聴取者や被験者の心理状態を言葉で表現(ラベリング)したものである。ここで、内部状態とは、心理状態遷移モデル21を構成する1単位(1ユニット)のことである。
例えば、心理状態が「平常」であれば、内部状態は、関心が無いことを示す「無関心」と、関心があることを示す「関心」と、関心が高いことを示す「高関心」とになる。
また、例えば、心理状態が「感動」であれば、内部状態は、感動が低いことを示す「感動低」と、感動が高いことを示す「感動高」とになる。
また、例えば、心理状態が「嫌悪」であれば、内部状態は、否定していることを示す「否定」と、険悪なことを示す「険悪」とになる。
This internal state expresses (labels) the psychological state of the listener or subject in words. Here, the internal state is one unit (one unit) constituting the psychological state transition model 21.
For example, if the psychological state is “normal”, the internal state is divided into “indifference” indicating that there is no interest, “interest” indicating that it is interested, and “high interest” that indicates high interest. Become.
For example, if the psychological state is “impressed”, the internal state is “impressed low” indicating that the emotion is low and “impressed high” indicating that the emotion is high.
Further, for example, if the psychological state is “disgust”, the internal state is “denial” indicating that it is denied, and “rough” indicating that it is violent.

このように、第3例では、「平常」という心理状態を内部状態で区別することで、各内部状態から別の心理状態である「感動」へ遷移する確率を変えることができる。従って、第3例では、聴取者の心理状態の遷移を詳細に把握することが可能となる。   As described above, in the third example, by distinguishing the psychological state “normal” from the internal state, it is possible to change the probability of transition from each internal state to “impression”, which is another psychological state. Therefore, in the third example, it is possible to grasp in detail the transition of the listener's psychological state.

また、一度、心理状態が「感動」になってから「平常」に戻った場合、そのときの内部状態が、次に「感動」に戻りやすい「高関心」であると考えられる。従って、図4に示すように、「感動低」から「関心」のように、ある内部状態に戻らない心理状態遷移モデル21を構築することもできる。   Also, if the psychological state once becomes “impressed” and then returns to “normal”, the internal state at that time is considered to be “high interest” that is likely to return to “impressed” next. Therefore, as shown in FIG. 4, a psychological state transition model 21 that does not return to a certain internal state, such as “impression low” to “interest”, can be constructed.

なお、図4では、破線内側の文字が心理状態を示し、丸中の文字が内部状態を示し、心理状態が遷移する経路を矢印で示す。
また、第3例では、遷移確率Pを第1例と同様に設定できるため、説明及び図示を省略した。
また、例えば、心理状態遷移モデル21は、前記した第1例〜第3例のうち、任意の手法で構築できる。
In FIG. 4, the character inside the broken line indicates the psychological state, the character in the circle indicates the internal state, and the path through which the psychological state transitions is indicated by an arrow.
In the third example, since the transition probability P x can be set in the same manner as in the first example, the description and illustration are omitted.
Further, for example, the psychological state transition model 21 can be constructed by any method among the first to third examples described above.

<確率分布モデルの構築>
確率分布モデル23の構築について説明する。
例えば、聴覚印象の「広がり感」、両耳間相互相関度、音圧レベル、音源の方向、直前の音の広がり、及び、聴取者の嗜好の影響を受けると考えられる。そこで、音響特徴量を「両耳間相互相関度」とし、聴覚印象を「広がり感」として説明する。
<Construction of probability distribution model>
The construction of the probability distribution model 23 will be described.
For example, it is considered to be influenced by the “spreading feeling” of the auditory impression, the degree of intercorrelation between both ears, the sound pressure level, the direction of the sound source, the spread of the immediately preceding sound, and the listener's preference. Therefore, the acoustic feature quantity is described as “interaural cross-correlation”, and the auditory impression is described as “expansion”.

この確率分布モデル23は、複数の聴取者(被験者)に対して主観評価実験を行って、構築できる。具体的には、評価用音響信号を被験者に聴かせると共に、評価用音響信号の「両耳間相互相関度」を測定しておく。また、「平常」といった被験者の心理状態も、この被験者に予め回答させておく。   The probability distribution model 23 can be constructed by performing subjective evaluation experiments on a plurality of listeners (subjects). Specifically, the subject is made to listen to the evaluation acoustic signal, and the “interaural cross-correlation” of the evaluation acoustic signal is measured in advance. In addition, the subject's psychological state such as “normal” is also answered in advance by the subject.

ここで、様々な心理状態で評価用音響信号を聴いたときに感じた「広がり感」の程度を被験者に回答させて、「広がり感」の聴覚印象量として求める。そして、評価用音響信号の「両耳間相互相関度」と、被験者が回答した「広がり感」の聴覚印象量とを対応付けて、モデルデータとして求める。このとき、各モデルデータには、このモデルデータを対応付けたときの心理状態を付加する。この主観評価実験を、心理状態が「平常」や「感動(ゾクッ)」といった、複数の被験者に対して行い、様々な心理状態におけるモデルデータを求める。その結果、確率分布モデル23は、「平常」、「感動(ゾクッ)」といった心理状態が個々のモデルデータに付加されることになる。   Here, the degree of “expansion” felt when listening to the evaluation acoustic signal in various psychological states is answered by the subject, and the auditory impression amount of “expansion” is obtained. Then, the “interaural cross-correlation degree” of the acoustic signal for evaluation is associated with the auditory impression amount of “expansion” answered by the subject to obtain model data. At this time, the psychological state when the model data is associated is added to each model data. This subjective evaluation experiment is performed on a plurality of subjects whose psychological states are “normal” and “impressed”, and model data in various psychological states is obtained. As a result, the probability distribution model 23 adds psychological states such as “normal” and “impression” to each model data.

図1に戻り、聴覚印象量推定装置1の構成について、説明を続ける。
心理状態推定手段30は、心理状態遷移モデル21に設定された心理状態の遷移確率と、乱数発生処理で発生させた乱数とによって、聴取者の心理状態を推定するものである。つまり、心理状態推定手段30は、乱数発生処理を用いて確率的に、最も尤からしい聴取者の心理状態を推定する。
Returning to FIG. 1, the description of the configuration of the auditory impression amount estimation device 1 will be continued.
The psychological state estimation means 30 estimates the psychological state of the listener based on the psychological state transition probability set in the psychological state transition model 21 and the random number generated by the random number generation process. That is, the psychological state estimation means 30 estimates the most likely listener's psychological state stochastically using random number generation processing.

ここで、「平常」から「感動(ジーン)」と、「平常」から「感動(ゾクッ)」とのように、同一の心理状態から別々の心理状態に遷移する可能性がある(図2参照)。この場合、心理状態推定手段30は、「平常」から「感動(ジーン)」及び「感動(ゾクッ)」に遷移するか否かを、遷移確率P12,P13と、遷移確率P12,P13それぞれで発生させた乱数との比較により判定する。例えば、遷移確率P12,P13の最大値、平均値又は中央値の何れかを基準値とし、この基準値と乱数とを比較し、基準値から乱数が最も離れている心理状態を推定結果としてもよい。そして、心理状態推定手段30は、推定された聴取者の心理状態を確率分布モデル抽出手段40に出力する。 Here, there is a possibility of transition from the same psychological state to different psychological states, such as “normal” to “impression (gene)” and “normal” to “impression (zoku)” (see FIG. 2). ). In this case, the psychological state estimating means 30 determines whether or not the transition is made from “normal” to “impression (gene)” and “impression (zock)”, the transition probabilities P 12 and P 13 and the transition probabilities P 12 and P 13. Judgment is made by comparison with random numbers generated in each of 13 . For example, the maximum value, average value, or median value of the transition probabilities P 12 and P 13 is used as a reference value, the reference value is compared with a random number, and the psychological state where the random number is farthest from the reference value is estimated. It is good. Then, the psychological state estimating unit 30 outputs the estimated psychological state of the listener to the probability distribution model extracting unit 40.

確率分布モデル抽出手段40は、確率分布モデル23に含まれる被験者の心理状態と、心理状態推定手段30で推定された聴取者の心理状態との間で一致する心理状態である抽出条件を、生成するものである。   The probability distribution model extraction unit 40 generates an extraction condition that is a psychological state that matches between the psychological state of the subject included in the probability distribution model 23 and the psychological state of the listener estimated by the psychological state estimation unit 30. To do.

例えば、確率分布モデル23では、被験者の心理状態が「感動(ゾクッ)」及び「平常」であることとする。また、心理状態推定手段30で推定された聴取者の心理状態が「感動(ゾクッ)」であることとする。この場合、確率分布モデル23に含まれる全モデルデータの心理状態のなかで、心理状態推定手段30の推定結果に一致する心理状態は、「感動(ゾクッ)」である。従って、確率分布モデル抽出手段40は、例えば、「感動(ゾクッ)」を示す抽出条件を生成し、聴覚印象量推定手段50に出力する。さらに、確率分布モデル抽出手段40は、音響信号分析手段10から入力された音響分析値を、聴覚印象量推定手段50に出力する。   For example, in the probability distribution model 23, the psychological state of the subject is “impressed” and “normal”. In addition, it is assumed that the psychological state of the listener estimated by the psychological state estimating unit 30 is “impression”. In this case, among the psychological states of all the model data included in the probability distribution model 23, the psychological state that matches the estimation result of the psychological state estimating means 30 is “impression”. Accordingly, the probability distribution model extraction unit 40 generates, for example, an extraction condition indicating “impression” and outputs the extraction condition to the auditory impression amount estimation unit 50. Further, the probability distribution model extraction unit 40 outputs the acoustic analysis value input from the acoustic signal analysis unit 10 to the auditory impression amount estimation unit 50.

<抽出条件の生成理由>
図5,図6を参照し、抽出条件を生成する理由について、説明する。
図5(a)に示すように、音響特徴量は、音響信号の時間に応じて変化し、これに伴って聴覚印象量も変化する。このため、感動といった心理状態は、音響信号の途中(例えば、音楽を聴いている途中)で変化することがある。
この図5(a)では、各時間の音響特徴量を実線で図示し、この音響特徴量の平均値を破線で図示した。
<Reason for generating extraction conditions>
The reason for generating the extraction condition will be described with reference to FIGS.
As shown in FIG. 5A, the acoustic feature amount changes according to the time of the acoustic signal, and the auditory impression amount also changes accordingly. For this reason, a psychological state such as impression may change in the middle of an acoustic signal (for example, while listening to music).
In FIG. 5A, the acoustic feature quantity at each time is shown by a solid line, and the average value of the acoustic feature quantity is shown by a broken line.

従来の確率分布モデル90では、図5(b)に示すように、各モデルデータの音響特徴量に音響分析結果の平均値や最大値が用いられ、各モデルデータの聴覚印象量に聴取後の評価値が用いられている。
この図5(b)では、音響信号の各時間でのモデルデータを黒丸で図示した。つまり、図5(b)の確率分布モデル90では、黒丸のそれぞれが、異なる時間でのモデルデータを示している。
In the conventional probability distribution model 90, as shown in FIG. 5B, the average value or the maximum value of the acoustic analysis result is used as the acoustic feature amount of each model data, and the auditory impression amount of each model data is the amount after hearing. Evaluation values are used.
In FIG. 5B, the model data at each time of the acoustic signal is illustrated by black circles. That is, in the probability distribution model 90 of FIG. 5B, each black circle indicates model data at a different time.

しかし、図5(c)に示すように、音響特徴量が同じ結果であっても、被験者の心理状態によって聴覚印象量が異なることがある。
この図5(c)では、ある音響信号を聴取したとき、感動したと回答した被験者から求めた聴覚印象量の平均値を実線で図示し、全聴取者の平均値を破線で図示し、感動しないと回答した被験者から求めた聴覚印象量の平均値を一点鎖線で図示した。
However, as shown in FIG. 5C, even if the acoustic feature amount is the same, the auditory impression amount may differ depending on the psychological state of the subject.
In FIG. 5 (c), when listening to a certain acoustic signal, the average value of the auditory impression obtained from the subject who has been impressed is illustrated by a solid line, the average value of all listeners is illustrated by a broken line, The average value of the amount of auditory impression obtained from the subject who answered that he / she did not was shown by a one-dot chain line.

例えば、図6(a)に示すように、確率分布モデル23の全モデルデータから回帰直線を描く。
この図6では、評価用音響信号の各時間でのモデルデータを黒丸で図示した。つまり、図6の確率分布モデル23では、黒丸のそれぞれが、異なる時間でのモデルデータを示している。
For example, as shown in FIG. 6A, a regression line is drawn from all model data of the probability distribution model 23.
In FIG. 6, model data at each time of the evaluation acoustic signal is illustrated by black circles. That is, in the probability distribution model 23 of FIG. 6, each black circle represents model data at a different time.

また、図6(b)に示すように、確率分布モデル23において、評価用音響信号の聴取後に感動したと回答した被験者から求めたモデルデータ(黒丸)と、評価用音響信号の聴取後に感動しないと回答した被験者から求めたモデルデータ(白丸)とを分類した。例えば、感動したと回答した被験者であっても、評価用音響信号の前半では感動していないことがあり、モデルデータの分散が大きくなる。その結果、図6(c)に示すように、図6(b)の全黒丸から求めた回帰直線(実線)と、全白丸から求めた回帰直線(破線)との誤差が大きくなる。   In addition, as shown in FIG. 6B, in the probability distribution model 23, model data (black circle) obtained from the subject who answered that he / she was impressed after listening to the evaluation acoustic signal and the evaluation acoustic signal were not impressed. Model data (white circles) obtained from subjects who answered, were classified. For example, even if the subject replied that they were impressed, they may not be impressed in the first half of the evaluation acoustic signal, and the dispersion of the model data becomes large. As a result, as shown in FIG. 6C, the error between the regression line (solid line) obtained from all black circles in FIG. 6 (b) and the regression line obtained from all white circles (broken line) increases.

また、図6(d)に示すように、確率分布モデル23において、感動している心理状態の被験者から求めたモデルデータ(黒丸)と、感動していない心理状態の被験者から求めたモデルデータ(白丸)とを分類した。ここで、図6(b)に示すように、評価用音響信号の聴取後に感動したと回答した被験者から求めたモデルデータにも、図6(d)に示すように、時系列データとして扱うと、感動していない心理状態であった被験者から求めたモデルデータが含まれている(符号91参照)。従って、図6(e)に示すように、図6(d)の全黒丸から求めた回帰直線と、全白丸から求めた回帰直線とを描くと、両者の誤差が小さくなる。言い換えるなら、抽出条件で確率分布モデル23のモデルデータを絞り込むことで、回帰直線の誤差が小さくなる。   Further, as shown in FIG. 6D, in the probability distribution model 23, model data (black circles) obtained from a subject in a psychological state that is moved and model data (black circles) obtained from a subject in a psychological state that is not moved ( White circle). Here, as shown in FIG. 6 (b), model data obtained from a subject who answered that he / she was impressed after listening to the evaluation acoustic signal is treated as time series data as shown in FIG. 6 (d). The model data obtained from the subject who was in an unimpressed psychological state is included (see reference numeral 91). Therefore, as shown in FIG. 6E, when a regression line obtained from the all black circles in FIG. 6D and a regression line obtained from the all white circles are drawn, the error between the two becomes small. In other words, the error of the regression line is reduced by narrowing down the model data of the probability distribution model 23 under the extraction condition.

図1に戻り、聴覚印象量推定装置1の構成について、説明を続ける。
聴覚印象量推定手段50は、聴覚印象量及び臨場感推定値を算出し、提示するものである。この聴覚印象量推定手段50は、聴覚印象量算出手段51と、臨場感推定値算出手段53と、聴覚印象量提示手段55とを備える。
Returning to FIG. 1, the description of the configuration of the auditory impression amount estimation device 1 will be continued.
The auditory impression amount estimation means 50 calculates and presents the auditory impression amount and the realistic sensation estimated value. The auditory impression amount estimating means 50 includes an auditory impression amount calculating means 51, a realistic sensation estimated value calculating means 53, and an auditory impression amount presenting means 55.

聴覚印象量算出手段51は、確率分布モデル23から、確率分布モデル抽出手段40で生成された抽出条件に一致するモデルデータを抽出し、抽出したモデルデータに、音響特徴量の区間毎に予め設定された確率関数を適用することで、確率分布モデル抽出手段40から入力された音響分析値に対応する聴覚印象量を算出するものである。
臨場感推定値算出手段53は、聴覚印象量算出手段51が算出した聴覚印象量に、予め設定された重み係数を乗じた値を、臨場感推定値として算出するものである。
The auditory impression amount calculation means 51 extracts model data that matches the extraction conditions generated by the probability distribution model extraction means 40 from the probability distribution model 23, and is preset in the extracted model data for each section of the acoustic feature amount. By applying the obtained probability function, the auditory impression amount corresponding to the acoustic analysis value input from the probability distribution model extraction means 40 is calculated.
The realistic sensation estimated value calculating unit 53 calculates a value obtained by multiplying the auditory impression amount calculated by the auditory impression amount calculating unit 51 by a preset weighting coefficient as the realistic sensation estimated value.

<聴覚印象量及び臨場感推定値の算出>
図7を参照し、聴覚印象量算出手段51による聴覚印象量を算出と、臨場感推定値算出手段53による臨場感推定値の算出とを説明する(適宜図1参照)。
聴覚印象量算出手段51は、全てのモデルデータが含まれる確率分布モデル23から、抽出条件に一致するモデルデータを抽出する。例えば、確率分布モデル23に含まれる全モデルデータの心理状態が「感動(ゾクッ)」及び「平常」であり、抽出条件が「感動(ゾクッ)」である場合を考える。この場合、聴覚印象量算出手段51は、確率分布モデル23から、「感動(ゾクッ)」のモデルデータを抽出する。
<Calculation of auditory impression and realistic sensation>
With reference to FIG. 7, calculation of the auditory impression amount by the auditory impression amount calculating unit 51 and calculation of the realistic sensation estimated value by the realistic sensation estimated value calculating unit 53 will be described (see FIG. 1 as appropriate).
The auditory impression amount calculation means 51 extracts model data that matches the extraction condition from the probability distribution model 23 including all model data. For example, consider a case where the psychological states of all model data included in the probability distribution model 23 are “impressed” and “normal”, and the extraction condition is “impressed”. In this case, the auditory impression amount calculation unit 51 extracts “impression” model data from the probability distribution model 23.

また、聴覚印象量算出手段51は、図7に示すように、確率分布モデルの音響特徴量(横軸方向)を所定の区間に分割する。そして、聴覚印象量算出手段51は、分割した各区間のうち、音響分析値が含まれる区間を求める。さらに、聴覚印象量算出手段51は、抽出したモデルデータに、求めた区間の確率関数(例えば、正規分布、二項分布)を適用し、音響特徴量に対応する聴覚印象量を求める。ここで、聴覚印象量算出手段51は、確率関数に従って、聴覚印象量の存在確率を算出する。例えば、聴覚印象量算出手段51は、乱数を発生させ、その乱数値を存在確率の累積度数とみなして、聴覚印象量を算出する。   Further, as shown in FIG. 7, the auditory impression amount calculation unit 51 divides the acoustic feature amount (horizontal axis direction) of the probability distribution model into predetermined sections. And the auditory impression amount calculation means 51 calculates | requires the area in which an acoustic analysis value is contained among each divided | segmented area. Furthermore, the auditory impression amount calculation unit 51 applies a probability function (eg, normal distribution, binomial distribution) of the obtained section to the extracted model data, and calculates an auditory impression amount corresponding to the acoustic feature amount. Here, the auditory impression amount calculating means 51 calculates the existence probability of the auditory impression amount according to a probability function. For example, the auditory impression amount calculation means 51 generates a random number, regards the random value as the cumulative frequency of existence probability, and calculates the auditory impression amount.

このとき、臨場感推定値の信頼性を向上させるため、聴覚印象量算出手段51は、乱数を複数回発生させて累積度数を複数回算出し、算出した全累積度数の平均値を、聴覚印象量として算出してもよい。さらに、聴覚印象量算出手段51は、リアルタイムで臨場感推定値を算出する場合、聴覚印象量の時間変化が予め設定された範囲内に収まるようにしてもよい。   At this time, in order to improve the reliability of the realistic sensation estimation value, the auditory impression amount calculation means 51 generates a random number a plurality of times to calculate a cumulative frequency a plurality of times, and calculates the average value of all the calculated cumulative frequencies as an auditory impression. It may be calculated as a quantity. Further, the auditory impression amount calculation means 51 may calculate the temporal change of the auditory impression amount within a preset range when calculating the realistic sensation estimated value in real time.

臨場感推定値算出手段53は、データベース20から、確率分布モデル23に対応する重み係数を読み出す。そして、臨場感推定値算出手段53は、算出した聴覚印象量と、読み出した重み係数とを乗じて、臨場感推定値を算出する。   The realistic sensation estimated value calculation means 53 reads the weighting coefficient corresponding to the probability distribution model 23 from the database 20. Then, the realistic sensation estimated value calculating unit 53 calculates the realistic sensation estimated value by multiplying the calculated auditory impression amount and the read weight coefficient.

図1に戻り、聴覚印象量推定手段50の説明を続ける。
聴覚印象量提示手段55は、聴覚印象量算出手段51が算出した聴覚印象量と、臨場感推定値算出手段53が算出した臨場感推定値とを提示するものである。ここで、聴覚印象量提示手段55は、聴覚印象量及び臨場感推定値を、グラフィカルな形式で提示する。
Returning to FIG. 1, the description of the auditory impression amount estimation means 50 will be continued.
The auditory impression amount presenting means 55 presents the auditory impression amount calculated by the auditory impression amount calculating means 51 and the realistic feeling estimated value calculated by the realistic feeling estimated value calculating means 53. Here, the auditory impression amount presenting means 55 presents the auditory impression amount and the realistic sensation estimated value in a graphical format.

<聴覚印象量及び臨場感推定値の提示>
図8,図9を参照し、聴覚印象量提示手段55による聴覚印象量及び臨場感推定値の提示について、説明する。
図8に示すように、聴覚印象量提示手段55は、例えば、聴覚印象量及び臨場感推定値を棒グラフ形式で提示する。具体的には、聴覚印象量提示手段55は、聴覚印象量算出手段51が算出した聴覚印象量(例えば、「広がり感」)を、棒グラフ96として提示する。また、聴覚印象量提示手段55は、臨場感推定値算出手段53が算出した臨場感推定値を、棒グラフ97として提示する。このとき、聴覚印象量提示手段55は、確率分布モデル抽出手段40が生成した抽出条件98を提示してもよい。
<Presentation of auditory impression and realistic sensation>
The presentation of the auditory impression amount and the realistic sensation estimated value by the auditory impression amount presenting means 55 will be described with reference to FIGS.
As shown in FIG. 8, the auditory impression amount presenting means 55 presents, for example, the auditory impression amount and the realistic sensation estimated value in a bar graph format. Specifically, the auditory impression amount presenting unit 55 presents the auditory impression amount (for example, “expansion”) calculated by the auditory impression amount calculating unit 51 as a bar graph 96. The auditory impression amount presenting means 55 presents the realistic sensation estimated value calculated by the realistic sensation estimated value calculating means 53 as a bar graph 97. At this time, the auditory impression amount presenting means 55 may present the extraction condition 98 generated by the probability distribution model extracting means 40.

また、図9に示すように、聴覚印象量提示手段55は、聴覚印象量及び臨場感推定値を相関図形式で提示してもよい。この相関図は、縦軸が臨場感推定値を示し、横軸が聴覚印象量(例えば、「広がり感」)を示す。そして、聴覚印象量算出手段51が算出した聴覚印象量と、臨場感推定値算出手段53が算出した臨場感推定値とを示す点99を、この相関図にプロットする。   Moreover, as shown in FIG. 9, the auditory impression amount presenting means 55 may present the auditory impression amount and the realistic sensation estimated value in the form of a correlation diagram. In this correlation diagram, the vertical axis represents the realistic sensation estimation value, and the horizontal axis represents the amount of auditory impression (for example, “expansion”). Then, a point 99 indicating the auditory impression amount calculated by the auditory impression amount calculating means 51 and the realistic feeling estimated value calculated by the realistic feeling estimated value calculating means 53 is plotted in this correlation diagram.

以上のように、本発明の第1実施形態に係る聴覚印象量推定装置1は、聴覚印象量算出手段51が、確率分布モデル23の全てのモデルデータのうち、聴取者の心理状態に一致するモデルデータのみを抽出する。これによって、聴覚印象量推定装置1は、聴取者の心理状態を聴覚印象量に反映させ、正確な聴覚印象量を提示することができる。さらに、聴覚印象量推定装置1は、この聴覚印象量から臨場感の推定値を算出するため、聴取者が実際に感じている臨場感を正確に提示することができる。
なお、聴覚印象量推定装置1の動作は、第2実施形態と同様のため、説明を後記する。
As described above, in the auditory impression amount estimation device 1 according to the first embodiment of the present invention, the auditory impression amount calculation unit 51 matches the psychological state of the listener among all model data of the probability distribution model 23. Extract model data only. Thus, the auditory impression amount estimation device 1 can reflect the psychological state of the listener in the auditory impression amount and present an accurate auditory impression amount. Furthermore, since the auditory impression amount estimation device 1 calculates an estimated value of the realistic sensation from the auditory impression amount, the realistic sensation actually felt by the listener can be accurately presented.
The operation of the auditory impression amount estimation device 1 is the same as that of the second embodiment, and will be described later.

(第2実施形態)
[聴覚印象量推定装置の構成]
図10を参照し、本発明の第2実施形態に係る聴覚印象量推定装置1Aの構成について、第1実施形態と異なる点を説明する(適宜図1参照)。
聴覚印象量推定装置1Aは、i種類の音響分析値からj種類の聴覚印象量を算出することが、第1実施形態と異なる(但し、i>1、j>1を満たす整数)。このため、聴覚印象量推定装置1Aは、音響信号分析手段10と、データベース20と、心理状態推定手段30と、確率分布モデル抽出手段40Aと、聴覚印象量推定手段50Aとを備える。
なお、本実施形態では、互いに異なる音響分析値及び聴覚印象量が1対1で対応付けられた確率分布モデルを記憶することとする(つまり、i=j)。
(Second Embodiment)
[Configuration of hearing impression estimation device]
With reference to FIG. 10, a different point from 1st Embodiment is demonstrated about the structure of the auditory impression amount estimation apparatus 1A which concerns on 2nd Embodiment of this invention (refer FIG. 1 suitably).
The auditory impression amount estimation device 1A differs from the first embodiment in calculating j types of auditory impression amounts from i types of acoustic analysis values (however, an integer satisfying i> 1 and j> 1). Therefore, the auditory impression amount estimation device 1A includes an acoustic signal analysis unit 10, a database 20, a psychological state estimation unit 30, a probability distribution model extraction unit 40A, and an auditory impression amount estimation unit 50A.
In the present embodiment, it is assumed that a probability distribution model in which different acoustic analysis values and auditory impression amounts are associated one-to-one is stored (that is, i = j).

音響信号分析手段10は、ラウドネス推定値、音圧レベル、周波数特性、両耳間相互相関度、両耳間レベル差、両耳間位相差、基本周波数の時間変化パターン、周波数特性の分類クラス、レベルの時間変化パターン、ラフネス、シャープネス、両耳間相関関数の幅等の音響特徴量のうち、i種類を音響分析値として求める。   The acoustic signal analyzing means 10 includes an estimated loudness value, sound pressure level, frequency characteristics, interaural cross-correlation, interaural level difference, interaural phase difference, fundamental frequency time change pattern, frequency characteristic classification class, Among acoustic feature quantities such as level temporal change pattern, roughness, sharpness, and width of interaural correlation function, i types are obtained as acoustic analysis values.

データベース20は、評価用音響信号と、心理状態遷移モデル21と、j種類の確率分布モデルQと、確率分布モデルQ毎の重み係数Wとを記憶する。
つまり、データベース20は、図10に示すように、1種類目の音響特徴量(音響分析値1)及び1種類目の聴覚印象量(聴覚印象量1)が対応付けられた確率分布モデルQを記憶する。
また、データベース20は、2種類目の音響特徴量(音響分析値2)及び2種類目の聴覚印象量(聴覚印象量2)が対応付けられた確率分布モデルQを記憶する。
また、データベース20は、3種類目の音響特徴量(音響分析値3)及び3種類目の聴覚印象量(聴覚印象量3)が対応付けられた確率分布モデルQを記憶する。
また、データベース20は、4種類目の音響特徴量(音響分析値4)及び4種類目の聴覚印象量(聴覚印象量4)が対応付けられた確率分布モデルQを記憶する。
また、データベース20は、i種類目の音響特徴量(音響分析値i)及びj種類目の聴覚印象量(聴覚印象量j)が対応付けられた確率分布モデルQを記憶する。
Database 20 stores the evaluation sound signal, the psychological state transition model 21, and j different probability distribution models Q j, and a weighting coefficient W j for each probability distribution model Q j.
That is, as shown in FIG. 10, the database 20 has a probability distribution model Q 1 in which the first type of acoustic feature quantity (acoustic analysis value 1) and the first type of auditory impression quantity (auditory impression quantity 1) are associated with each other. Remember.
Furthermore, database 20, the acoustic feature quantity of the second type (acoustic analysis value 2) and auditory impression of second kind (auditory impression of 2) stores a probability distribution model Q 2 to which associated.
The database 20 stores a probability distribution model Q 3 which acoustic features of third type (acoustic analysis 3) and auditory impression of third type (auditory impression of 3) is associated.
The database 20 stores a probability distribution model Q 4 of acoustic features of fourth type (acoustic analysis value 4) and auditory impression of fourth type (auditory impression of 4) are associated.
In addition, the database 20 stores a probability distribution model Q j in which the i-th acoustic feature value (acoustic analysis value i) and the j-th auditory impression amount (auditory impression amount j) are associated with each other.

聴覚印象量推定手段50Aは、聴覚印象量算出手段51Aと、臨場感推定値算出手段53Aと、聴覚印象量提示手段55Aとを備える。
聴覚印象量算出手段51Aは、j種類の確率分布モデルQのそれぞれから、抽出条件に一致するモデルデータを抽出し、抽出したモデルデータを参照して、j種類の聴覚印象量を算出する。
なお、聴覚印象量の算出方法は、聴覚印象量算出手段51と同様のため、説明を省略する。
The auditory impression amount estimating unit 50A includes an auditory impression amount calculating unit 51A, a sense of presence estimated value calculating unit 53A, and an auditory impression amount presenting unit 55A.
The auditory impression amount calculating unit 51A extracts model data that matches the extraction condition from each of the j types of probability distribution models Qj , and calculates the j types of auditory impression amounts with reference to the extracted model data.
Note that the method of calculating the auditory impression amount is the same as that of the auditory impression amount calculating unit 51, and thus description thereof is omitted.

臨場感推定値算出手段53Aは、聴覚印象量算出手段51Aが算出したj種類の聴覚印象量と、確率分布モデルQ毎の重み係数Wとを乗じた値の合計を、臨場感推定値として算出する。
具体的には、臨場感推定値算出手段53Aは、1種類目の聴覚印象量と、確率分布モデルQの重み係数Wとの乗算値を算出する。また、臨場感推定値算出手段53Aは、2種類目の聴覚印象量と、確率分布モデルQの重み係数Wとの乗算値を算出する。また、臨場感推定値算出手段53Aは、3種類目の聴覚印象量と、確率分布モデルQの重み係数Wとの乗算値を算出する。また、臨場感推定値算出手段53Aは、4種類目の聴覚印象量と、確率分布モデルQの重み係数Wとの乗算値を算出する。また、臨場感推定値算出手段53Aは、j種類目の聴覚印象量と、確率分布モデルQの重み係数Wとの乗算値を算出する。そして、臨場感推定値算出手段53Aは、j個の乗算値を合計し、臨場感推定値を算出する
The realistic sensation estimated value calculation means 53A is the total estimated value obtained by multiplying the j types of auditory impression amounts calculated by the auditory impression amount calculation means 51A and the weighting factor W j for each probability distribution model Q j. Calculate as
Specifically, realistic estimate calculation unit 53A calculates the auditory impression of the first type, the multiplication value of the weighting factor W 1 of the probability distribution model Q 1. Also, realistic estimate calculation unit 53A calculates the auditory impression of the second type, the multiplication value of the weight coefficient W 2 of the probability distribution model Q 2. Also, realistic estimate calculation unit 53A calculates the auditory impression of third type, the multiplication value of the weighting factor W 3 of the probability distribution model Q 3. Also, realistic estimate calculation unit 53A calculates the auditory impression of fourth type, the multiplication value of the weighting factor W 4 of the probability distribution model Q 4. Also, realistic estimate calculation unit 53A calculates the auditory impression of j types th, the multiplication value of the weighting coefficient W j of the probability distribution model Q j. Then, the realistic sensation estimated value calculation unit 53A adds the j multiplied values to calculate the realistic sensation estimated value.

<聴覚印象量及び臨場感推定値の提示>
図11,図12を参照し、聴覚印象量提示手段55Aによる聴覚印象量及び臨場感推定値の提示について、説明する。
聴覚印象量提示手段55Aは、聴覚印象量及び臨場感推定値を、グラフィカルな形式で提示する。ここでは、聴覚印象量として、「移動感」及び「広がり感」を求めたこととする。
<Presentation of auditory impression and realistic sensation>
With reference to FIG. 11 and FIG. 12, the presentation of the auditory impression amount and the realistic sensation estimated value by the auditory impression amount presenting means 55A will be described.
The auditory impression amount presenting means 55A presents the auditory impression amount and the realistic sensation estimated value in a graphical format. Here, it is assumed that “movement feeling” and “expansion feeling” are obtained as the auditory impression amount.

図11に示すように、聴覚印象量提示手段55Aは、「移動感」と、「広がり感」と、臨場感推定値とを棒グラフ形式で提示してもよい。
また、図12に示すように、聴覚印象量提示手段55Aは、「移動感」と、「広がり感」と、臨場感推定値とを、レーダーチャート形式で提示してもよい。
As shown in FIG. 11, the auditory impression amount presenting means 55 </ b> A may present “movement feeling”, “expansion feeling”, and a sense of presence estimated value in a bar graph format.
Also, as shown in FIG. 12, the auditory impression amount presenting means 55A may present the “movement feeling”, “expansion feeling”, and the realistic sensation estimated value in a radar chart format.

[聴覚印象量推定装置の全体動作]
図13を参照し、聴覚印象量推定装置1Aの全体動作について説明する(適宜図1参照)。
この図13では、聴覚印象量推定装置1Aは、入力された再生音場音響信号から、聴覚印象量及び臨場感推定値をリアルタイムで算出することとする。
[Overall operation of hearing impression estimation device]
With reference to FIG. 13, the overall operation of the hearing impression estimation device 1A will be described (see FIG. 1 as appropriate).
In FIG. 13, the auditory impression amount estimation device 1A calculates the auditory impression amount and the realistic sensation estimation value in real time from the input reproduced sound field acoustic signal.

聴覚印象量推定装置1Aは、音響信号分析手段10によって、再生音場音響信号を音響分析して、音響分析値を求める(ステップS1)。
聴覚印象量推定装置1Aは、心理状態推定手段30によって、聴取者の心理状態を推定する(ステップS2)。
聴覚印象量推定装置1Aは、確率分布モデル抽出手段40Aによって、抽出条件を生成する(ステップS3)。
The auditory impression amount estimation apparatus 1A acoustically analyzes the reproduced sound field acoustic signal by the acoustic signal analysis means 10 to obtain an acoustic analysis value (step S1).
The auditory impression amount estimating device 1A estimates the psychological state of the listener by the psychological state estimating means 30 (step S2).
The auditory impression amount estimation device 1A generates an extraction condition by the probability distribution model extraction unit 40A (step S3).

聴覚印象量推定装置1Aは、聴覚印象量算出手段51Aによって聴覚印象量を算出し、臨場感推定値算出手段53Aによって臨場感推定値を算出する(ステップS4)。
聴覚印象量推定装置1Aは、聴覚印象量提示手段55Aによって、リアルタイム処理中の聴覚印象量及び臨場感推定値を提示する(ステップS5)。
The auditory impression amount estimation device 1A calculates the auditory impression amount by the auditory impression amount calculation means 51A, and calculates the realistic feeling estimated value by the realistic feeling estimated value calculation means 53A (step S4).
The auditory impression amount estimation device 1A presents the auditory impression amount presenting means 55A and the auditory impression amount and the realistic sensation estimation value during real-time processing (step S5).

聴覚印象量推定装置1Aは、再生音場音響信号が末尾に達したか否かによって、全体処理を終了するか否かを判定する(ステップS6)。
再生音場音響信号が末尾に達していない場合(ステップS6でNo)、聴覚印象量推定装置1Aは、全体処理を終了しないと判定し、後記するカウンタci,cjをインクリメントし、ステップS1の処理に戻る。
The auditory impression amount estimation device 1A determines whether or not to end the entire process depending on whether or not the reproduced sound field acoustic signal has reached the end (step S6).
When the reproduced sound field acoustic signal does not reach the end (No in step S6), the auditory impression amount estimation device 1A determines that the overall processing is not ended, increments counters ci and cj described later, and performs the processing in step S1. Return to.

再生音場音響信号が末尾に達した場合(ステップS6でYes)、聴覚印象量推定装置1Aは、全体処理を終了すると判定し、ステップS7の処理に進む。
聴覚印象量推定装置1Aは、聴覚印象量提示手段55Aによって、全体処理終了後の聴覚印象量及び臨場感推定値を提示する(ステップS7)。
When the reproduced sound field acoustic signal reaches the end (Yes in step S6), the auditory impression amount estimation device 1A determines that the entire process is finished, and proceeds to the process of step S7.
The auditory impression amount estimation device 1A presents the auditory impression amount presentation unit 55A with the auditory impression amount presentation means 55A and the auditory impression amount and the realistic sensation estimated value after the entire process is completed (step S7).

[音響信号分析処理]
図14を参照し、図13の音響信号分析処理(ステップS1)について説明する(適宜図1参照)。
音響信号分析手段10は、再生音場音響信号から所定区間を切り出す(ステップS11)。
[Acoustic signal analysis processing]
The acoustic signal analysis process (step S1) in FIG. 13 will be described with reference to FIG. 14 (see FIG. 1 as appropriate).
The acoustic signal analysis means 10 cuts out a predetermined section from the reproduced sound field acoustic signal (step S11).

音響信号分析手段10は、過去に切り出した区間の再生音場音響信号を、図示を省略したメモリから読み出す(ステップS12)。
なお、音響信号分析手段10は、レベルの時間変化パターン等の音響特徴量を用いる場合、過去区間の再生音場音響信号が必要になるため、ステップS12の処理を行う。
The acoustic signal analysis means 10 reads the reproduced sound field acoustic signal of the section cut out in the past from a memory (not shown) (step S12).
Note that the acoustic signal analysis means 10 performs the process of step S12 because the reproduced sound field acoustic signal of the past section is required when the acoustic feature quantity such as the level temporal change pattern is used.

音響信号分析手段10は、カウンタciが音響特徴量種類数N以下であるか否かを判定する(ステップS13)。
カウンタciが音響特徴量種類数N以下の場合(ステップS13でYes)、音響信号分析手段10は、ステップS14の処理に進む。
なお、音響特徴量種類数Nは、音響分析の対象となる音響特徴量の種類数を示しており、予め設定される(N=i)。
The acoustic signal analysis means 10 determines whether or not the counter ci is equal to or less than the number N of acoustic feature quantity types (step S13).
When the counter ci is equal to or less than the number N of acoustic feature quantity types (Yes in step S13), the acoustic signal analysis unit 10 proceeds to the process of step S14.
The acoustic feature quantity type number N indicates the number of acoustic feature quantity types to be subjected to acoustic analysis, and is preset (N = i).

音響信号分析手段10は、ci個目の音響特徴量により音響分析値を算出する。そして、音響信号分析手段10は、ステップS11の処理に戻る(ステップS14)。   The acoustic signal analysis means 10 calculates an acoustic analysis value from the ci-th acoustic feature amount. And the acoustic signal analysis means 10 returns to the process of step S11 (step S14).

カウンタciが音響特徴量種類数Nを越える場合(ステップS13でNo)、音響信号分析手段10は、ステップS15の処理に進む。
音響信号分析手段10は、ステップS11で切り出した再生音場音響信号をメモリに記憶し、処理を終了する(ステップS15)。
つまり、音響信号分析手段10は、N種類の音響分析値を算出する。
If the counter ci exceeds the number N of acoustic feature quantity types (No in step S13), the acoustic signal analysis means 10 proceeds to the process of step S15.
The acoustic signal analyzing means 10 stores the reproduced sound field acoustic signal cut out in step S11 in the memory, and ends the process (step S15).
That is, the acoustic signal analysis means 10 calculates N types of acoustic analysis values.

[心理状態推定処理]
図15を参照し、図11の心理状態推定処理(ステップS2)について説明する(適宜図1参照)。
心理状態推定手段30は、過去に推定した心理状態を、図示を省略したメモリから読み出す(ステップS21)。
[Psychological state estimation processing]
The psychological state estimation process (step S2) in FIG. 11 will be described with reference to FIG.
The psychological state estimating means 30 reads the psychological state estimated in the past from a memory not shown (step S21).

心理状態推定手段30は、カウンタcjが聴覚印象種類数L以下であるか否かを判定する(ステップS22)。
カウンタciが聴覚印象種類数L以下の場合(ステップS22でYes)、心理状態推定手段30は、ステップS23の処理に進む。
心理状態推定手段30は、心理状態遷移モデル21に設定された心理状態の遷移確率と、乱数発生処理で発生させた乱数とによって、心理状態を推定する(ステップS23)。
聴覚印象種類数Lは、推定する聴覚印象の種類数を示している(L=j)。
The psychological state estimation means 30 determines whether or not the counter cj is equal to or less than the number L of auditory impression types (step S22).
If the counter ci is less than or equal to the number L of auditory impression types (Yes in step S22), the psychological state estimating means 30 proceeds to the process of step S23.
The psychological state estimation means 30 estimates the psychological state from the psychological state transition probability set in the psychological state transition model 21 and the random number generated in the random number generation process (step S23).
The number L of auditory impressions indicates the number of types of auditory impressions to be estimated (L = j).

カウンタciが聴覚印象種類数Lを越える場合(ステップS22でNo)、心理状態推定手段30は、ステップS24の処理に進む。
心理状態推定手段30は、ステップS23で推定した心理状態をメモリに記憶し、処理を終了する(ステップS24)。
なお、心理状態推定手段30は、現在の心理状態を推定するため、心理状態推定モデル21において、過去の心理状態から現在の心理状態に至った経路を参照する必要がるため、ステップS24の処理を行う。
If the counter ci exceeds the number L of auditory impression types (No in step S22), the psychological state estimating means 30 proceeds to the process of step S24.
The psychological state estimating means 30 stores the psychological state estimated in step S23 in the memory and ends the process (step S24).
Since the psychological state estimating means 30 needs to refer to the path from the past psychological state to the current psychological state in the psychological state estimating model 21 in order to estimate the current psychological state, the process of step S24 I do.

[抽出条件生成処理]
図16を参照し、図13の抽出条件生成処理(ステップS3)について説明する(適宜図1参照)。
確率分布モデル抽出手段40Aは、カウンタciが、音響特徴量種類数N及びパラメータ設定種類数Mの加算値以下であるか否かを判定する(ステップS31)。
なお、パラメータ設定種類数Mは、設定パラメータに設定されたパラメータの種類数であり、本実施形態では、設定パラメータを利用しないためゼロである。
[Extraction condition generation process]
The extraction condition generation process (step S3) in FIG. 13 will be described with reference to FIG. 16 (see FIG. 1 as appropriate).
The probability distribution model extraction unit 40A determines whether or not the counter ci is equal to or smaller than the addition value of the number N of acoustic feature quantity types and the number M of parameter setting types (step S31).
The parameter setting type number M is the number of parameter types set in the setting parameter, and is zero in this embodiment because the setting parameter is not used.

カウンタciが加算値(N+M)以下の場合(ステップS31でYes)、確率分布モデル抽出手段40Aは、ステップS32の処理に進む。
確率分布モデル抽出手段40Aは、確率分布モデルに含まれる被験者の心理状態と、心理状態推定手段30で推定された聴取者の心理状態との間で一致する心理状態である抽出条件を、生成する(ステップS32)。
確率分布モデル抽出手段40Aは、ci番目の抽出条件をメモリに記憶し、ステップS21の処理に戻る(ステップS33)。
When the counter ci is equal to or smaller than the addition value (N + M) (Yes in step S31), the probability distribution model extraction unit 40A proceeds to the process of step S32.
The probability distribution model extraction unit 40A generates an extraction condition that is a psychological state that matches between the psychological state of the subject included in the probability distribution model and the psychological state of the listener estimated by the psychological state estimation unit 30. (Step S32).
The probability distribution model extraction unit 40A stores the ci-th extraction condition in the memory and returns to the process of step S21 (step S33).

カウンタciが加算値(N+M)を越える場合(ステップS31でNo)、確率分布モデル抽出手段40Aは、ステップS34の処理に進む。
確率分布モデル抽出手段40Aは、ステップS33で記憶した抽出条件を聴覚印象量推定手段50に出力する(ステップS34)。
When the counter ci exceeds the added value (N + M) (No in step S31), the probability distribution model extracting unit 40A proceeds to the process of step S34.
The probability distribution model extraction unit 40A outputs the extraction condition stored in step S33 to the auditory impression amount estimation unit 50 (step S34).

[聴覚印象量・臨場感推定値算出処理]
図17を参照し、図13の聴覚印象量・臨場感推定値算出処理(ステップS4)について説明する(適宜図1参照)。
聴覚印象量推定手段50Aは、カウンタcjが聴覚印象種類数L以下であるか否かを判定する(ステップS41)。
カウンタcjが聴覚印象種類数L以下の場合(ステップS41でYes)、聴覚印象量推定手段50Aは、ステップS42の処理に進む。
[Hearing impression / realistic estimated value calculation processing]
With reference to FIG. 17, the auditory impression amount / realistic feeling estimated value calculation process (step S4) of FIG. 13 will be described (see FIG. 1 as appropriate).
The auditory impression amount estimation unit 50A determines whether or not the counter cj is equal to or smaller than the number L of auditory impression types (step S41).
When the counter cj is less than or equal to the number L of auditory impression types (Yes in step S41), the auditory impression amount estimation unit 50A proceeds to the process of step S42.

聴覚印象量算出手段51Aは、確率分布モデルから、抽出条件に一致するモデルデータを抽出する(ステップS42)。
聴覚印象量算出手段51Aは、抽出したモデルデータを参照して、音響分析値に対応するj番目の聴覚印象量を算出し、ステップS31の処理に戻る(ステップS43)。
The auditory impression amount calculating means 51A extracts model data that matches the extraction condition from the probability distribution model (step S42).
The auditory impression amount calculating unit 51A refers to the extracted model data, calculates the jth auditory impression amount corresponding to the acoustic analysis value, and returns to the process of step S31 (step S43).

カウンタcjが聴覚印象種類数Lを超える場合(ステップS41でNo)、聴覚印象量推定手段50Aは、ステップS44の処理に進む。
臨場感推定値算出手段53Aは、各聴覚印象量と、各聴覚印象量を算出した確率分布モデルの重み係数とを乗じた値を、臨場感推定値として算出する(ステップS44)。
When the counter cj exceeds the number L of auditory impression types (No in step S41), the auditory impression amount estimation unit 50A proceeds to the process of step S44.
The realistic sensation estimated value calculation means 53A calculates a value obtained by multiplying each auditory impression amount by the weighting coefficient of the probability distribution model for calculating each auditory impression amount as the realistic sensation estimated value (step S44).

以上のように、本発明の第2実施形態に係る聴覚印象量推定装置1Aは、複数の音響特徴量が1つの聴覚印象に寄与する場合でも、第1実施形態と同様、聴覚印象量及び臨場感を正確に提示することができる。   As described above, the auditory impression amount estimation device 1A according to the second embodiment of the present invention, even when a plurality of acoustic feature amounts contribute to one auditory impression, as in the first embodiment, The feeling can be presented accurately.

(第3実施形態)
図1に戻り、本発明の第3実施形態に係る聴覚印象量推定装置1Bについて、第1実施形態と異なる点を説明する。
(Third embodiment)
Returning to FIG. 1, the auditory impression amount estimation device 1 </ b> B according to the third embodiment of the present invention will be described while referring to differences from the first embodiment.

聴覚印象量推定装置1Bは、心理状態遷移モデル21Bの評価条件に嗜好がさらに含まれる点が第1実施形態と異なる。このため、聴覚印象量推定装置1Bは、音響信号分析手段10と、データベース20Bと、心理状態推定手段30Bと、確率分布モデル抽出手段40と、聴覚印象量推定手段50と、設定パラメータ入力手段60とを備える。   The auditory impression amount estimation device 1B is different from the first embodiment in that preference is further included in the evaluation condition of the psychological state transition model 21B. Therefore, the auditory impression amount estimation device 1B includes the acoustic signal analysis means 10, the database 20B, the psychological state estimation means 30B, the probability distribution model extraction means 40, the auditory impression amount estimation means 50, and the setting parameter input means 60. With.

データベース20Bは、評価条件に嗜好がさらに含まれる心理状態遷移モデル21Bを記憶する。
ここで、心理状態遷移モデル21Bは、第1実施形態と同様、音響特徴量(例えば、ラウドネス推定値)を評価条件として、心理状態の遷移確率Pが設定される。
なお、ラウドネス推定値を評価条件とした遷移確率Pを「遷移確率Px|L」と呼ぶ。
The database 20B stores a psychological state transition model 21B in which preference is further included in the evaluation condition.
Here, in the psychological state transition model 21B, the psychological state transition probability P x is set using an acoustic feature quantity (for example, an estimated loudness value) as an evaluation condition, as in the first embodiment.
The transition probability P x using the estimated loudness value as an evaluation condition is referred to as “transition probability P x | L ”.

この場合、評価条件として、「穏やか」といった被験者の嗜好も、この被験者に予め回答させる。例えば、興味がある対象に対しては感動しやすいことが知られている(参考文献3参照)。このため、後記する設定パラメータの聴取者の嗜好と、被験者の嗜好とが一致する場合、「平常」から「感動(ジーン)」への遷移確率P12を高く設定する。このようにして、聴取者毎に固有の心理状態遷移モデル21Bを構築することもできる。
参考文献3:戸梶、“『感動』喚起のメカニズムについて”,認知科学,Vol.8,No.4,pp.360-368,2001
なお、嗜好を評価条件とした遷移確率Pを「遷移確率Px|p」と呼ぶ。
In this case, the subject's preference such as “gentle” as an evaluation condition is also made to be answered in advance by the subject. For example, it is known that it is easy to be impressed with respect to an object of interest (see Reference 3). Therefore, the preference of the listener's configuration parameters to be described later, when the preference of the subject matches, sets a high transition probability P 12 from "normal" to "impress (Gene)". In this way, a unique psychological state transition model 21B can be constructed for each listener.
Reference 3: Togashi, “Mechanism of“ Kan ””, Cognitive Science, Vol. 8, No. 4, pp. 360-368, 2001
The transition probability P x with preference as an evaluation condition is referred to as “transition probability P x | p ”.

嗜好とは、聴取者や被験者の好みを示すものであり、例えば、「好き」、「嫌い」、「穏やか」、「激しい」といったものがある。また、嗜好は、「クラシックが好き」といったように、コンテンツの種類に対する聴取者の好みであってもよい。ここで、嗜好は、後記する主観評価実験により予め定義することができる。   The preference indicates the preference of the listener or the subject, and examples thereof include “like”, “dislike”, “gentle”, and “severe”. The preference may be a listener's preference for the type of content, such as “I like classic”. Here, the preference can be defined in advance by a subjective evaluation experiment described later.

ここでは、心理状態推定手段30Bよりも先に設定パラメータ入力手段60を説明する。
設定パラメータ入力手段60は、聴取者に依存する設定パラメータを入力するものである。例えば、聴取者が、図示を省略したマウス、キーボードを介して、「穏やか」、「激しい」というように予め定義された嗜好から、この聴取者自身にあった嗜好(例えば、「穏やか」)を入力(選択)する。すると、設定パラメータ入力手段60は、聴取者の嗜好が「穏やか」を示す設定パラメータを生成する。そして、設定パラメータ入力手段60は、生成した設定パラメータを心理状態推定手段30Bに出力する。
Here, the setting parameter input means 60 will be described prior to the psychological state estimation means 30B.
The setting parameter input means 60 inputs setting parameters depending on the listener. For example, the listener can change the preference (for example, “gentle”) that the listener himself has from a predefined preference such as “gentle” or “severe” via a mouse or keyboard (not shown). Enter (select). Then, the setting parameter input unit 60 generates a setting parameter indicating that the listener's preference is “gentle”. Then, the setting parameter input unit 60 outputs the generated setting parameter to the psychological state estimation unit 30B.

前記した心理状態とは別に、設定パラメータは、興味の有無を含めてもよい。
興味とは、評価対象(再生音場音響信号A及び評価用音響信号)に対する聴取者や被験者の関心を示すものである。例えば、興味の有無は、「興味が有る」を‘0’、「興味が無い」を‘1’のような2値を設定してもよい。また、興味の有無として、「大変興味が有る」、「そこそこ興味が有る」、「全く興味が無い」等に対応する値を段階的に設定してもよい。
Apart from the psychological state described above, the setting parameter may include the presence or absence of interest.
The interest indicates the interest of the listener or the subject with respect to the evaluation target (reproduced sound field acoustic signal A and evaluation acoustic signal). For example, the presence / absence of interest may be set to a binary value such as “0” for “interested” and “1” for “not interested”. Further, as the presence / absence of interest, values corresponding to “very interested”, “appreciably interested”, “not interested at all”, and the like may be set stepwise.

また、同じ音を聴いた場合でも聴取時間帯が異なると、聴取者のバイオリズムや疲労の影響により、聴覚印象が異なる場合も考えられる。そこで、設定パラメータは、このバイオリズムや疲労の影響を反映させるべく、聴取時間帯を含めてもよい。
聴取時間帯とは、聴取者や被験者が音(音楽)を聴く時間帯を示すものであり、例えば、「平日の21時から22時」、「休日の10時から12時」といったものがある。
なお、聴取者は、聴取者の嗜好と同様、聴取者の興味及び聴取時間帯といった設定パラメータを設定パラメータ入力手段60に入力(選択)できる。
In addition, even when listening to the same sound, if the listening time zone is different, the auditory impression may be different due to the influence of the listener's biorhythm and fatigue. Therefore, the setting parameter may include a listening time zone in order to reflect the influence of this biorhythm and fatigue.
The listening time zone indicates a time zone in which the listener or the subject listens to sound (music). For example, there are “weekdays from 21:00 to 22:00” and “holiday from 10:00 to 12:00”. .
Note that the listener can input (select) the setting parameters such as the listener's interest and the listening time zone to the setting parameter input means 60 as well as the listener's preference.

心理状態推定手段30Bは、心理状態遷移モデル21Bに設定された心理状態の遷移確率と、乱数発生処理で発生させた乱数とによって、聴取者の心理状態を推定するものである。   The psychological state estimating means 30B estimates the psychological state of the listener based on the psychological state transition probability set in the psychological state transition model 21B and the random number generated in the random number generation process.

前記したように、心理状態遷移モデル21Bは、「平常」から「感動(ジーン)」への同一経路であっても、評価条件に音響特徴量及び被験者の嗜好という2種類が含まれるため、2種類の遷移確率P12|L,P12|pが存在する。このため、心理状態推定手段30Bは、以下で説明するように、心理状態を推定する。 As described above, even if the psychological state transition model 21B is the same route from “normal” to “impressed (gene)”, the evaluation condition includes two types of the acoustic feature amount and the subject's preference. There are types of transition probabilities P 12 | L and P 12 | p . For this reason, the psychological state estimating means 30B estimates the psychological state as described below.

例えば、遷移確率P12|L,P12|pが0.1から1.0までの値で正規化され、遷移確率P12|L=0.6、遷移確率P12|p=0.4であるとする。この場合、乱数を生成し、生成した乱数が遷移確率P12|Lを超えたか否かを判定する。ここで、乱数が遷移確率P12|Lを超えた場合、心理状態推定手段30Bは、「平常」から「感動(ジーン)」に遷移させる。一方、乱数が遷移確率P12|Lを超えない場合、心理状態推定手段30Bは、再度乱数を生成し、再生成した乱数が遷移確率P12|pを超えたか否かにより、「平常」を「感動(ジーン)」に遷移させるか否かを判定する。 For example, the transition probabilities P 12 | L and P 12 | p are normalized with values from 0.1 to 1.0, the transition probability P 12 | L = 0.6, and the transition probability P 12 | p = 0.4. Suppose that In this case, a random number is generated, and it is determined whether or not the generated random number exceeds the transition probability P 12 | L. Here, when the random number exceeds the transition probability P 12 | L , the psychological state estimation means 30B makes a transition from “normal” to “impression (gene)”. On the other hand, if the random number does not exceed the transition probability P 12 | L , the psychological state estimation unit 30B generates the random number again, and sets “normal” depending on whether the re-generated random number exceeds the transition probability P 12 | p. It is determined whether or not to make a transition to “impression (gene)”.

以上のように、本発明の第3実施形態に係る聴覚印象量推定装置1Bは、聴取者の心理状態に加えて、聴取者の嗜好が心理状態の推定結果に反映されるため、より正確な聴覚印象量を提示することができる。   As described above, the auditory impression amount estimation device 1B according to the third embodiment of the present invention reflects the listener's preference in the psychological state estimation result in addition to the listener's psychological state. The amount of auditory impression can be presented.

(第4実施形態)
本発明の第4実施形態に係る聴覚印象量推定装置1Cについて、第3実施形態と異なる点を説明する。
(Fourth embodiment)
The auditory impression amount estimation device 1 </ b> C according to the fourth embodiment of the present invention will be described with respect to differences from the third embodiment.

聴覚印象量推定装置1Cは、心理状態遷移モデル21Cの評価条件に生態情報がさらに含まれる点が第1実施形態と異なる。このため、聴覚印象量推定装置1Cは、音響信号分析手段10と、データベース20Cと、心理状態推定手段30Cと、確率分布モデル抽出手段40と、聴覚印象量推定手段50と、設定パラメータ入力手段60と、生体情報測定手段70とを備える。   The auditory impression amount estimation device 1C is different from the first embodiment in that ecological information is further included in the evaluation condition of the psychological state transition model 21C. For this reason, the auditory impression amount estimation device 1C includes the acoustic signal analysis means 10, the database 20C, the psychological state estimation means 30C, the probability distribution model extraction means 40, the auditory impression amount estimation means 50, and the setting parameter input means 60. And biological information measuring means 70.

データベース20Cは、評価条件に生体情報がさらに含まれる心理状態遷移モデル21Cを記憶する。例えば、生体情報は、聴取者や被験者の脳波計測値、心拍数又は発汗量である。   The database 20C stores a psychological state transition model 21C in which biological information is further included in the evaluation condition. For example, the biometric information is a brain wave measurement value, a heart rate, or a sweating amount of a listener or a subject.

ここで、心理状態遷移モデル21Cは、第1実施形態と同様、音響特徴量(例えば、ラウドネス推定値)及び被験者の嗜好を評価条件として、心理状態の遷移確率が設定される。このとき、評価条件として、評価用音響信号を聴取している被験者の生態情報を予め測定する。このようにして、心理状態遷移モデル21Cを構築することができる。   Here, similarly to the first embodiment, the psychological state transition model 21 </ b> C is set with the transition probability of the psychological state using the acoustic feature amount (for example, estimated loudness value) and the subject's preference as evaluation conditions. At this time, the biological information of the subject who is listening to the evaluation acoustic signal is measured in advance as an evaluation condition. In this way, the psychological state transition model 21C can be constructed.

ここでは、心理状態推定手段30Cよりも先に生体情報測定手段70を説明する。
生体情報測定手段70は、聴取者の生体情報を測定するものである。例えば、生体情報測定手段70は、再生音場音響信号を聴いたときの聴取者の生体情報として計測する。そして、生体情報測定手段70は、測定した生体情報を心理状態推定手段30Cに出力する。
Here, the biological information measuring means 70 will be described prior to the psychological state estimating means 30C.
The biological information measuring means 70 measures the biological information of the listener. For example, the biological information measuring unit 70 measures the biological information of the listener when listening to the reproduced sound field acoustic signal. Then, the biological information measuring unit 70 outputs the measured biological information to the psychological state estimating unit 30C.

心理状態推定手段30Cは、心理状態遷移モデル21Cに設定された心理状態の遷移確率と、乱数発生処理で発生させた乱数とによって、聴取者の心理状態を推定するものである。   The psychological state estimation means 30C estimates the listener's psychological state from the psychological state transition probability set in the psychological state transition model 21C and the random number generated in the random number generation process.

前記したように、心理状態遷移モデル21Cは、「平常」から「感動(ジーン)」への同一経路であっても、評価条件に音響特徴量と被験者の嗜好と生態情報という3種類が含まれるため、3種類の遷移確率が存在する。従って、心理状態推定手段30Cは、3種類の遷移確率毎に乱数を発生させ、予め設定した基準数(例えば、3)以上、発生させた乱数が遷移確率を超えたか否かを判定する。そして、基準数以上の乱数が遷移確率を超えた場合、心理状態推定手段30Cは、心理状態を遷移させる。一方、基準数以上の乱数が遷移確率を超えない場合、心理状態推定手段30Cは、心理状態を遷移させない。   As described above, the psychological state transition model 21 </ b> C includes three types of the evaluation condition, that is, the acoustic feature amount, the subject's preference, and the ecological information even in the same route from “normal” to “impression (gene)”. Therefore, there are three types of transition probabilities. Accordingly, the psychological state estimating means 30C generates random numbers for each of the three types of transition probabilities, and determines whether or not the generated random numbers exceed the transition probability by a preset reference number (for example, 3) or more. When a random number equal to or greater than the reference number exceeds the transition probability, the psychological state estimation unit 30C causes the psychological state to transition. On the other hand, when a random number equal to or greater than the reference number does not exceed the transition probability, the psychological state estimation unit 30C does not cause the psychological state to transition.

以上のように、本発明の第4実施形態に係る聴覚印象量推定装置1Cは、聴取者の生体情報が心理状態の推定結果に反映されるため、より正確な聴覚印象量を提示することができる。   As described above, the auditory impression amount estimation device 1C according to the fourth embodiment of the present invention can present a more accurate auditory impression amount because the biological information of the listener is reflected in the estimation result of the psychological state. it can.

以上、本発明の各実施形態について説明したが、本発明はこれに限定されるものではなく、その趣旨を変えない範囲で実施することができる。実施形態の変形例を以下に示す。   As mentioned above, although each embodiment of this invention was described, this invention is not limited to this, It can implement in the range which does not change the meaning. The modification of embodiment is shown below.

(変形例1)
図18を参照し、本発明の変形例1に係る聴覚印象量推定装置1について、第1実施形態と異なる点を説明する。
図18に示すように、心理状態遷移モデル21では、「感動(ジーン)」及び「感動(ゾクッ)」というように、2種類の心理状態を強度に応じて段階的に遷移させる点が第1実施形態と異なる。
(Modification 1)
With reference to FIG. 18, the difference from the first embodiment will be described regarding the auditory impression amount estimation device 1 according to the first modification of the present invention.
As shown in FIG. 18, the psychological state transition model 21 has a first point in which two types of psychological states are changed in stages according to the strength, such as “impression (gene)” and “impression (zoku)”. Different from the embodiment.

ここで、心理状態遷移モデル21では、「感動(ジーン)」及び「感動(ゾクッ)」のそれぞれが、強度に応じて3段階に設定されている。そして、心理状態遷移モデル21では、「感動(ジーン)」及び「感動(ゾクッ)高」が段階毎に組み合わされている。例えば、「感動(ジーン・低)(ゾクッ・低)」は、ジーンとするような感動の強度が低く、かつ、ゾクッとするような感動の強度が低い心理状態を示す。   Here, in the psychological state transition model 21, each of “impression (gene)” and “impression” is set in three stages according to the strength. In the psychological state transition model 21, “impression (gene)” and “impression (high)” are combined at each stage. For example, “impression (gene low) (slow / low)” indicates a psychological state in which the intensity of emotion such as jean is low and the intensity of emotion such as jerk is low.

(変形例2)
図19を参照し、本発明の変形例2に係る聴覚印象量推定装置1について、第1実施形態と異なる点を説明する(適宜図1参照)。
この変形例2では、心理状態推定手段30が、音響信号分析手段10から入力された音響分析値に従って、心理状態遷移モデル21の遷移確率を選択することが、第1実施形態と異なる。
(Modification 2)
With reference to FIG. 19, the auditory impression amount estimation device 1 according to the second modification of the present invention will be described with respect to differences from the first embodiment (see FIG. 1 as appropriate).
The second modification is different from the first embodiment in that the psychological state estimating unit 30 selects the transition probability of the psychological state transition model 21 according to the acoustic analysis value input from the acoustic signal analyzing unit 10.

本変形例では、心理状態遷移モデル21は、図19に示すように、心理状態が「平常」及び「感動」との間で遷移する単純なモデルであることとする。また、音響分析値が「音圧レベル」であることとする。   In the present modification, the psychological state transition model 21 is a simple model in which the psychological state transitions between “normal” and “impressed” as shown in FIG. The acoustic analysis value is assumed to be “sound pressure level”.

心理状態遷移モデル21は、「平常」から「感動」までの同一経路であっても、音圧レベルの差に応じて、複数の遷移確率P12を設定できる。例えば、心理状態遷移モデル21は、音圧レベルの差が平坦なときの遷移確率P12|平と、音圧レベルの差が上昇するときの遷移確率P12|昇と、音圧レベルの差が下降するときの遷移確率P12|降とを設定できる。 Psychological state transition model 21 may be the same path from "normal" to "excitement", according to the difference between the sound pressure level can be set a plurality of transition probabilities P 12. For example, the psychological state transition model 21, the transition probability P 12 when the difference between the sound pressure level flat | and flat, the transition probability P 12 when the difference between the sound pressure level increases | and Noboru, the difference in sound pressure level It is possible to set the transition probability P 12 |

この音圧レベルの差は、「レベル差」と呼ぶ。本変形例では、音圧レベルの差は、音圧レベルが低から高に大きく変化する「上昇」と、音圧レベルが高から低に大きく変化する「下降」と、音圧レベルが大きく変化しない「平坦」とに区分される。   This difference in sound pressure level is called a “level difference”. In this modification, the difference in sound pressure level changes greatly between “rising” when the sound pressure level changes greatly from low to high and “falling” when the sound pressure level changes greatly from high to low. Not classified as “flat”.

<遷移確率の設定>
図20を参照し、心理状態遷移モデル21に遷移確率を設定する手法を説明する。
図20(b)では、第1被験者の感動の変化を実線で図示し、第2被験者の感動の変化を破線で図示し、第3被験者の感動の変化を一点鎖線で図示した。
図20(c)では、図20(b)の各時刻をサンプル点1〜8として図示した。
<Setting transition probability>
A method for setting a transition probability in the psychological state transition model 21 will be described with reference to FIG.
In FIG. 20 (b), the change in the impression of the first subject is shown by a solid line, the change in the impression of the second subject is shown by a broken line, and the change of the impression of the third subject is shown by a one-dot chain line.
In FIG.20 (c), each time of FIG.20 (b) was illustrated as sample points 1-8.

図20(d)では、サンプル点1〜8において、レベル差と、被験者の感動の変化との関係を図示した。また、図20(d)では、レベル差が平坦な場合を「平」、レベル差が上昇の場合を「昇」、レベル差が下降の場合を「降」と略記した。また、図20(d)では、被験者の感動が高い状態を「高」と図示し、被験者の感動が低い状態を「低」と図示した。また、図20(d)では、第1被験者の感動状態を「感動状態1」と図示し、第2被験者の感動状態を「感動状態2」と図示し、第3被験者の感動状態を「感動状態3」と図示した。   FIG. 20D illustrates the relationship between the level difference and the change in the impression of the subject at the sample points 1 to 8. In FIG. 20D, the level difference is abbreviated as “flat”, the level difference as “rise”, and the level difference as “down”. In FIG. 20D, a state where the subject's impression is high is illustrated as “high”, and a state where the subject's impression is low is illustrated as “low”. In FIG. 20D, the impression state of the first subject is illustrated as “impression state 1”, the impression state of the second subject is illustrated as “impression state 2”, and the impression state of the third subject is “impression”. Stated 3 ".

まず、図20(a)に示すように、評価用音響信号の音圧レベルを所定の時間単位で算出して、音圧レベルの変化を示すレベル差を求める。このとき、図20(b)に示すように、複数(例えば、3名)の被験者に評価用音響信号を聴かせながら、感動の変化をフェーダにより入力させる。
以後の説明では、評価用音響信号の聴取開始時、全被験者の感動が低い状態であることとする。
First, as shown in FIG. 20A, the sound pressure level of the evaluation acoustic signal is calculated in a predetermined time unit to obtain a level difference indicating a change in the sound pressure level. At this time, as shown in FIG. 20 (b), a change in emotion is input by a fader while allowing a plurality of (for example, three) subjects to listen to an evaluation acoustic signal.
In the following description, it is assumed that the impression of all subjects is low at the start of listening to the evaluation acoustic signal.

図20(d)に示すように、サンプル点1,2では、レベル差が「平坦」であり、被験者全員の感動が「低」から変化していない。このため、心理状態が「平常」を維持する可能性が高いと考えられる。従って、レベル差が「平坦」のときの遷移確率P11|平は、全被験者の数と、感動が「低」から変化しなかった被験者数との比により、3/3となる。 As shown in FIG. 20 (d), at sample points 1 and 2, the level difference is “flat” and the impressions of all the subjects have not changed from “low”. For this reason, it is considered that the psychological state is highly likely to maintain “normal”. Therefore, the transition probability P 11 | flat when the level difference is “flat” is 3/3 based on the ratio between the number of all subjects and the number of subjects whose impression has not changed from “low”.

また、サンプル点3では、レベル差が「上昇」であり、被験者のうち2人で感動が「低」から「高」に変化している。このため、心理状態が「平常」から「感動」に遷移する可能性が高いと考えられる。従って、レベル差が「上昇」のときの遷移確率P12|昇は、全被験者の数と、感動が「低」から「高」に変化した被験者数との比により、2/3となる。 Further, at the sample point 3, the level difference is “increased”, and the impression has changed from “low” to “high” in two of the subjects. For this reason, it is considered that there is a high possibility that the psychological state transitions from “normal” to “impressed”. Therefore, the transition probability P 12 | rise when the level difference is “rise” is 2/3 based on the ratio between the number of all subjects and the number of subjects whose impression has changed from “low” to “high”.

一方、サンプル点3において、被験者の残り1人は、感動が「低」から変化していない。従って、レベル差が「上昇」のときの遷移確率P11|昇は、被験者全員と、感動が「低」から変化しなかった被験者との比で表すと、1/3となる。 On the other hand, at the sample point 3, the impression of the remaining one of the subjects has not changed from “low”. Therefore, the transition probability P 11 | rising when the level difference is “rising” is 1/3 when expressed by the ratio of all the subjects and the subjects whose impressions have not changed from “low”.

以上の手順により、心理状態遷移モデル21において、レベル差が「平坦」のときの遷移確率P11|平,P12|平,P21|平,P22|平と、レベル差が「上昇」のときの遷移確率P11|昇,P12|昇,P21|昇,P22|昇と、レベル差が「下降」のときの遷移確率P11|降,P12|降,P21|降,P22|降とを全て設定することが好ましい。
なお、評価用音響信号を別の信号に代えることや、主観評価実験を繰返し行うことで、遷移確率の正確性を向上させることができる。
With the above procedure, in the psychological state transition model 21, the level difference is “increased” with the transition probabilities P 11 | flat , P 12 | flat , P 21 | flat , P 22 | flat when the level difference is “ flat ”. Transition probabilities P 11 | ascending , P 12 | ascending , P 21 | ascending , P 22 | ascending, and transition probabilities P 11 | descending , P 12 | descending , P 21 | descending, P 22 | it is preferable to set all the descending and.
It should be noted that the accuracy of the transition probability can be improved by replacing the evaluation acoustic signal with another signal or repeatedly performing subjective evaluation experiments.

<遷移確率の選択>
図21を参照し、音響分析値に従って遷移確率を選択する手法について説明する。
この図21では、心理状態が平常の場合を「常」、心理状態が感動の場合を「感」と略記した。
<Selection of transition probability>
A method for selecting a transition probability according to an acoustic analysis value will be described with reference to FIG.
In FIG. 21, the case where the psychological state is normal is abbreviated as “normal”, and the case where the psychological state is impressed are abbreviated as “feel”.

図21(a)に示すように、心理状態推定手段30は、時系列で入力される評価用音響信号の音圧レベルを、レベル差が同一となるような分割区間に分割する。そして、心理状態推定手段30は、レベル差に従って、分割区間毎に遷移確率を選択する。   As shown in FIG. 21A, the psychological state estimation means 30 divides the sound pressure level of the evaluation acoustic signal input in time series into divided sections in which the level difference is the same. And the psychological state estimation means 30 selects a transition probability for every division | segmentation area according to a level difference.

つまり、心理状態推定手段30は、先頭の分割区間ではレベル差が「平坦」のため、心理状態遷移モデル21に設定された12種類の遷移確率のうち、レベル差が「平坦」に対応する遷移確率P11|平,P12|平,P21|平,P22|平を選択する。そして、心理状態推定手段30は、第1実施形態と同様、選択した遷移確率P11|平,P12|平,P21|平,P22|平と、乱数とによって、先頭の分割区間における聴取者の心理状態を推定する。 That is, since the level difference is “flat” in the first divided section, the psychological state estimation means 30 has transitions corresponding to “flat” among the 12 types of transition probabilities set in the psychological state transition model 21. Probabilities P 11 | Plane , P 12 | Plane , P 21 | Plane , P 22 | Plane are selected. Then, the psychological state estimating means 30 is the same as in the first embodiment in the first divided section based on the selected transition probabilities P 11 | flat , P 12 | flat , P 21 | flat , P 22 | Estimate the listener's psychological state.

また、心理状態推定手段30は、2番目の分割区間ではレベル差が「上昇」のため、遷移確率P11|昇,P12|昇,P21|昇,P22|昇を選択し、第1実施形態と同様、2番目の分割区間における聴取者の心理状態を推定する。さらに、心理状態推定手段30は、4番目の分割区間ではレベル差が「下降」のため、遷移確率P11|降,P12|降,P21|降,P22|降を選択し、第1実施形態と同様、4番目の分割区間における聴取者の心理状態を推定する。
なお、3,5番目の分割区間は、先頭の分割区間と同様に遷移確率を選択するため、説明を省略した。
The psychological state estimation means 30 selects the transition probabilities P 11 | ascending , P 12 | ascending , P 21 | ascending , P 22 | As in the first embodiment, the psychological state of the listener in the second divided section is estimated. Further, the psychological state estimating means 30 selects the transition probabilities P 11 | down , P 12 | down , P 21 | down , P 22 | down because the level difference is “down” in the fourth divided section. As in the first embodiment, the psychological state of the listener in the fourth divided section is estimated.
In addition, since the transition probability is selected for the third and fifth divided sections in the same manner as the first divided section, the description is omitted.

前記したように、急激な音量の変化があると、感動が喚起されることが知られている(参考文献2参照)。そこで、心理状態推定手段30は、「平常」から「感動」への遷移確率P12|平,P12|昇,P12|降を、レベル差に従って選択できる。その結果、心理状態推定手段30は、例えば、音圧レベルが大きく変化したタイミングで、「平常」から「感動」への遷移確率P12を高くできる。 As described above, it is known that when there is a sudden change in volume, impression is aroused (see Reference 2). Therefore, the psychological state estimating means 30 can select the transition probabilities P 12 | normal, P 12 | ascending , P 12 | descending from “normal” to “impressed” according to the level difference. As a result, psychological state estimation means 30, for example, at the timing when the sound pressure level has changed greatly, can increase the transition probabilities P 12 to the "impression" from the "normal".

なお、図21(b)に示すように、遷移確率を選択する条件が音圧レベル1種類だけに限定されず、平均音圧レベルといった他の音響特徴量、生体情報又は臨場感推定値を組み合わせてもよい。つまり、変形例2に係る聴覚印象量推定装置1は、第1実施形態と同様、第2〜4実施形態にも適用することができる。   As shown in FIG. 21 (b), the condition for selecting the transition probability is not limited to only one type of sound pressure level, and other acoustic feature quantities such as an average sound pressure level, biological information, or realistic feeling estimated values are combined. May be. That is, the auditory impression amount estimation device 1 according to the modified example 2 can be applied to the second to fourth embodiments as in the first embodiment.

(その他変形例)
前記した各実施形態では、心理状態遷移モデル21及び確率分布モデル23を記憶するデータベースを一体化して説明したが、本発明は、これに限定されない。つまり、本発明は、心理状態遷移モデル21を記憶する心理状態遷移モデルデータベースと、確率分布モデル23を記憶する確率分布モデルデータベースとを別々に構成してもよい。
(Other variations)
In each of the above-described embodiments, the database storing the psychological state transition model 21 and the probability distribution model 23 has been described as being integrated. However, the present invention is not limited to this. That is, according to the present invention, the psychological state transition model database that stores the psychological state transition model 21 and the probability distribution model database that stores the probability distribution model 23 may be configured separately.

前記した各実施形態では、臨場感推定値を算出することとして説明したが、本発明は、臨場感推定値を算出せずともよい。この場合、聴覚印象量推定装置1は、臨場感推定値算出手段53を備えず、聴覚印象量提示手段55が聴覚印象量のみを提示する。   In each of the above-described embodiments, it has been described that the realistic sensation estimated value is calculated. However, the present invention may not calculate the realistic sensation estimated value. In this case, the auditory impression amount estimation device 1 does not include the realistic sensation estimated value calculation unit 53, and the auditory impression amount presentation unit 55 presents only the auditory impression amount.

前記した各実施形態では、心理状態が抽出条件であることとして説明したが、本発明は、これに限定されない。つまり、確率分布モデル23は、音圧レベルや両耳間相互相関度等の音響特徴量及び被験者の嗜好でさらに細かく分類可能としてもよい。そして、確率分布モデル抽出手段40は、音響信号分析手段10の音響分析値や、設定パラメータ入力手段60の設定パラメータを満たすモデルデータを抽出できるような抽出条件を生成する。   In each of the above-described embodiments, the psychological state is described as the extraction condition, but the present invention is not limited to this. That is, the probability distribution model 23 may be further finely classified according to acoustic feature amounts such as sound pressure level and interaural cross-correlation and subject preference. Then, the probability distribution model extraction unit 40 generates an extraction condition that can extract model data that satisfies the acoustic analysis value of the acoustic signal analysis unit 10 and the setting parameters of the setting parameter input unit 60.

第2実施形態では、音響分析値及び聴覚印象量が1対1で対応付けられた確率分布モデルを説明したが、本発明の確率分布モデルは、これに限定されない。つまり、本発明は、条件付き確率として複数の音響分析値に、1つの音響分析値を対応付けた確率分布モデルを用いてもよい。   In the second embodiment, the probability distribution model in which the acoustic analysis value and the auditory impression amount are associated one-to-one has been described. However, the probability distribution model of the present invention is not limited to this. That is, the present invention may use a probability distribution model in which one acoustic analysis value is associated with a plurality of acoustic analysis values as conditional probabilities.

さらに、本発明では、複数の聴覚印象量から総合的な音響品質を評価する場合、ニューラルネットワーク又は重回帰分析を用いて、確率分布モデル23を複数構築することができる。この場合、各聴覚印象量が総合印象へ与える影響度についても、聴取者の心理状態によって確率分布モデル23を切り換えることで、心理状態が反映された音響品質の客観評価を行うことができる。
なお、総合印象とは、個別の印象に対する総合的な印象であり、好ましさ、ふさわしさと言うこともできる。
Furthermore, in the present invention, when evaluating the overall acoustic quality from a plurality of auditory impression amounts, a plurality of probability distribution models 23 can be constructed using a neural network or multiple regression analysis. In this case, regarding the degree of influence of each auditory impression amount on the overall impression, an objective evaluation of the acoustic quality reflecting the psychological state can be performed by switching the probability distribution model 23 depending on the psychological state of the listener.
The overall impression is an overall impression with respect to individual impressions, and can be said to be favorable or appropriate.

1,1A,1B,1C 聴覚印象量推定装置
10 音響信号分析手段
20,20B,20C データベース(心理状態遷移モデルデータベース、確率分布モデルデータベース)
30,30B,30C 心理状態推定手段
40,40A 確率分布モデル抽出手段(抽出条件生成手段)
50,50A 聴覚印象量推定手段
51,51A 聴覚印象量算出手段
53,53A 臨場感推定値算出手段
55,55A 聴覚印象量提示手段
60 設定パラメータ入力手段
70 生体情報測定手段
1, 1A, 1B, 1C Auditory impression estimation device 10 Acoustic signal analysis means 20, 20B, 20C Database (psychological state transition model database, probability distribution model database)
30, 30B, 30C Psychological state estimation means 40, 40A Probability distribution model extraction means (extraction condition generation means)
50, 50A Auditory impression amount estimation means 51, 51A Auditory impression amount calculation means 53, 53A Presence sense value calculation means 55, 55A Auditory impression amount presentation means 60 Setting parameter input means 70 Biological information measurement means

Claims (6)

音響信号が再生されたときの、聴取者が感じた音の特徴の程度を示す聴覚印象量を推定する聴覚印象量推定装置であって、
前記音響信号が入力され、入力された前記音響信号の音響特徴量である音響分析値を、当該音響信号を音響分析して求める音響信号分析手段と、
前記音響特徴量を評価条件とし、前記評価条件毎に主観評価実験を行って被験者の心理状態の遷移確率を設定した心理状態遷移モデルを、予め記憶する心理状態遷移モデルデータベースと、
前記心理状態遷移モデルに設定された心理状態の遷移確率と、乱数発生処理で発生させた乱数とによって、前記聴取者の心理状態を推定する心理状態推定手段と、
被験者の心理状態毎に主観評価実験を行って前記聴覚印象量と前記音響特徴量とを予め対応付けた確率分布モデルを、記憶する確率分布モデルデータベースと、
前記確率分布モデルに含まれる被験者の心理状態と、前記心理状態推定手段で推定された聴取者の心理状態との間で一致する心理状態である抽出条件を、生成する抽出条件生成手段と、
前記確率分布モデルから、前記抽出条件に一致する聴覚印象量及び音響特徴量を抽出し、抽出した前記聴覚印象量及び前記音響特徴量に、当該音響特徴量の区間毎に予め設定された確率関数を適用することで、前記音響分析値に対応する聴覚印象量を算出する聴覚印象量算出手段と、
を備えることを特徴とする聴覚印象量推定装置。
A hearing impression amount estimation device for estimating an auditory impression amount indicating a degree of a characteristic of a sound felt by a listener when an acoustic signal is reproduced,
The acoustic signal is input, and an acoustic analysis value that is an acoustic feature value of the input acoustic signal is obtained by acoustic analysis of the acoustic signal; and
A psychological state transition model database that prestores a psychological state transition model in which the acoustic feature amount is an evaluation condition, and a psychological state transition model in which a subjective evaluation experiment is performed for each of the evaluation conditions to set a psychological state transition probability of the subject
A psychological state estimating means for estimating the psychological state of the listener based on a transition probability of the psychological state set in the psychological state transition model and a random number generated by random number generation processing;
A probability distribution model database for storing a probability distribution model in which a subjective evaluation experiment is performed for each psychological state of the subject and the auditory impression amount and the acoustic feature amount are associated in advance;
Extraction condition generation means for generating an extraction condition that is a psychological state that matches between the psychological state of the subject included in the probability distribution model and the psychological state of the listener estimated by the psychological state estimation means;
The auditory impression amount and the acoustic feature amount that match the extraction condition are extracted from the probability distribution model, and a probability function set in advance for each section of the acoustic feature amount in the extracted auditory impression amount and the acoustic feature amount. By applying the auditory impression amount calculating means for calculating the auditory impression amount corresponding to the acoustic analysis value,
An auditory impression amount estimation device comprising:
前記聴取者に依存する設定パラメータとして、前記聴取者の嗜好が入力される設定パラメータ入力手段をさらに備え、
前記心理状態遷移モデルデータベースは、前記評価条件に前記音響特徴量及び前記被験者の嗜好が含まれる心理状態遷移モデルを記憶することを特徴とする請求項1に記載の聴覚印象量推定装置。
A setting parameter input means for inputting the preference of the listener as a setting parameter depending on the listener;
The auditory impression amount estimation apparatus according to claim 1, wherein the psychological state transition model database stores a psychological state transition model in which the evaluation feature includes the acoustic feature amount and the subject's preference.
前記聴取者の生体情報を測定する生体情報測定手段をさらに備え、
前記心理状態遷移モデルデータベースは、さらに、前記評価条件に前記被験者の生体情報が含まれる心理状態遷移モデルを記憶することを特徴とする請求項2に記載の聴覚印象量推定装置。
Further comprising biological information measuring means for measuring the biological information of the listener,
The auditory impression amount estimation apparatus according to claim 2, wherein the psychological state transition model database further stores a psychological state transition model in which the biological condition information of the subject is included in the evaluation condition.
前記心理状態遷移モデルデータベースは、前記被験者の心理状態が段階的に遷移する心理状態遷移モデルを記憶することを特徴とする請求項1から請求項3の何れか一項に記載の聴覚印象量推定装置。   The auditory impression amount estimation according to any one of claims 1 to 3, wherein the psychological state transition model database stores a psychological state transition model in which the psychological state of the subject gradually changes. apparatus. 前記心理状態遷移モデルデータベースは、前記被験者の心理状態に含まれる内部状態が遷移する心理状態遷移モデルを記憶することを特徴とする請求項1から請求項3の何れか一項に記載の聴覚印象量推定装置。   The auditory impression according to any one of claims 1 to 3, wherein the psychological state transition model database stores a psychological state transition model in which an internal state included in the psychological state of the subject changes. Quantity estimation device. 音響信号が再生されたときの、聴取者が感じた音の特徴の程度を示す聴覚印象量を推定するために、音響特徴量を評価条件とし、前記評価条件毎に主観評価実験を行って被験者の心理状態間の遷移確率を求めた心理状態遷移モデルを予め記憶する心理状態遷移モデルデータベースと、前記被験者の心理状態毎に主観評価実験を行って前記聴覚印象量と音響特徴量とを予め対応付けた確率分布モデルを記憶する確率分布モデルデータベースとを備えるコンピュータを、
前記音響信号が入力され、入力された前記音響信号の音響特徴量である音響分析値を、当該音響信号を音響分析して求める音響信号分析手段、
前記心理状態遷移モデルに設定された心理状態の遷移確率と、乱数発生処理で発生させた乱数とによって、前記聴取者の心理状態を推定する心理状態推定手段、
前記確率分布モデルに含まれる被験者の心理状態と、前記心理状態推定手段で推定された聴取者の心理状態との間で一致する心理状態である抽出条件を、生成する抽出条件生成手段、
前記確率分布モデルから、前記抽出条件に一致する聴覚印象量及び音響特徴量を抽出し、抽出した前記聴覚印象量及び前記音響特徴量に、当該音響特徴量の区間毎に予め設定された確率関数を適用することで、前記音響分析値に対応する聴覚印象量を算出する聴覚印象量算出手段、
として機能させるための聴覚印象量推定プログラム。
In order to estimate the auditory impression amount indicating the degree of the feature of the sound felt by the listener when the acoustic signal is reproduced, the acoustic feature amount is used as an evaluation condition, and a subjective evaluation experiment is performed for each of the evaluation conditions. A psychological state transition model database for preliminarily storing a psychological state transition model for which a transition probability between psychological states of the subject is stored, and subjecting the auditory impression amount and the acoustic feature amount in advance by performing a subjective evaluation experiment for each psychological state of the subject A computer comprising a probability distribution model database for storing the attached probability distribution model,
Acoustic signal analysis means for inputting the acoustic signal and obtaining an acoustic analysis value which is an acoustic feature value of the inputted acoustic signal by acoustic analysis of the acoustic signal;
Psychological state estimation means for estimating the psychological state of the listener based on the transition probability of the psychological state set in the psychological state transition model and the random number generated in the random number generation process;
Extraction condition generating means for generating an extraction condition that is a psychological state that matches between the psychological state of the subject included in the probability distribution model and the psychological state of the listener estimated by the psychological state estimating means;
The auditory impression amount and the acoustic feature amount that match the extraction condition are extracted from the probability distribution model, and a probability function set in advance for each section of the acoustic feature amount in the extracted auditory impression amount and the acoustic feature amount. By applying the auditory impression amount calculating means for calculating the auditory impression amount corresponding to the acoustic analysis value,
Auditory impression estimation program to function as
JP2012141774A 2012-06-25 2012-06-25 Auditory impression estimation device and program thereof Expired - Fee Related JP5941350B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012141774A JP5941350B2 (en) 2012-06-25 2012-06-25 Auditory impression estimation device and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012141774A JP5941350B2 (en) 2012-06-25 2012-06-25 Auditory impression estimation device and program thereof

Publications (2)

Publication Number Publication Date
JP2014006692A true JP2014006692A (en) 2014-01-16
JP5941350B2 JP5941350B2 (en) 2016-06-29

Family

ID=50104354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012141774A Expired - Fee Related JP5941350B2 (en) 2012-06-25 2012-06-25 Auditory impression estimation device and program thereof

Country Status (1)

Country Link
JP (1) JP5941350B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078194A (en) * 2012-10-12 2014-05-01 Jamamaru Co Ltd Evaluation value collection method
WO2016039463A1 (en) * 2014-09-12 2016-03-17 ヤマハ株式会社 Acoustic analysis device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020134220A1 (en) * 2001-03-21 2002-09-26 Hiroaki Yamane Play list generation device, audio information provision device, audio information provision system, method, program and recording medium
JP2006031637A (en) * 2004-07-21 2006-02-02 Sharp Corp Musical piece retrieval system and musical piece retrieval method
US20070033050A1 (en) * 2005-08-05 2007-02-08 Yasuharu Asano Information processing apparatus and method, and program
JP2007114798A (en) * 2006-11-14 2007-05-10 Matsushita Electric Ind Co Ltd Music retrieval device, music retrieval method, and program and recording medium thereof
JP2008197813A (en) * 2007-02-09 2008-08-28 Toshiba Corp Musical piece providing system and musical piece providing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020134220A1 (en) * 2001-03-21 2002-09-26 Hiroaki Yamane Play list generation device, audio information provision device, audio information provision system, method, program and recording medium
JP2006031637A (en) * 2004-07-21 2006-02-02 Sharp Corp Musical piece retrieval system and musical piece retrieval method
US20070033050A1 (en) * 2005-08-05 2007-02-08 Yasuharu Asano Information processing apparatus and method, and program
JP2007114798A (en) * 2006-11-14 2007-05-10 Matsushita Electric Ind Co Ltd Music retrieval device, music retrieval method, and program and recording medium thereof
JP2008197813A (en) * 2007-02-09 2008-08-28 Toshiba Corp Musical piece providing system and musical piece providing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078194A (en) * 2012-10-12 2014-05-01 Jamamaru Co Ltd Evaluation value collection method
WO2016039463A1 (en) * 2014-09-12 2016-03-17 ヤマハ株式会社 Acoustic analysis device
JP2016057570A (en) * 2014-09-12 2016-04-21 ヤマハ株式会社 Acoustic analysis device

Also Published As

Publication number Publication date
JP5941350B2 (en) 2016-06-29

Similar Documents

Publication Publication Date Title
Kang et al. Towards soundscape indices
Giannoulis et al. Detection and classification of acoustic scenes and events: An IEEE AASP challenge
Giannoulis et al. A database and challenge for acoustic scene classification and event detection
Cartwright et al. Social-EQ: Crowdsourcing an Equalization Descriptor Map.
McAdams et al. The psychomechanics of simulated sound sources: Material properties of impacted thin plates
Brambilla et al. Merging physical parameters and laboratory subjective ratings for the soundscape assessment of urban squares
CN105448305A (en) Speech processing device and speech processing method
Gontier et al. Estimation of the perceived time of presence of sources in urban acoustic environments using deep learning techniques
Mehrabi et al. Similarity measures for vocal-based drum sample retrieval using deep convolutional auto-encoders
Mumtaz et al. Nonintrusive perceptual audio quality assessment for user-generated content using deep learning
JP5961048B2 (en) Auditory impression estimation device and program thereof
JP5941350B2 (en) Auditory impression estimation device and program thereof
US20100235169A1 (en) Speech differentiation
Seiça et al. Contrasts and similarities between two audio research communities in evaluating auditory artefacts
Mo et al. An investigation into how reverberation effects the space of instrument emotional characteristics
Adami et al. On similarity and density of applause sounds
CN113450811A (en) Method and equipment for performing transparent processing on music
JP5658483B2 (en) Reality estimation device and program thereof
Tang et al. Assessment of the subjective perception of music quality using psychoacoustic approach
Schmele et al. Three dimensional sonification of fMRI brain data in the musical composition neurospaces
Brambilla et al. Measurements and Techniques in Soundscape Research
JP2009036862A (en) Information processor for sound processing, sound processing method, program, and sound retrieval system
Rao et al. A study on music based audio and brain signal processing
WO2023139849A1 (en) Emotion estimation method, content determination method, program, emotion estimation system, and content determination system
Bergner Towards soundscape fingerprinting: development, analysis and assessment of underlying acoustic dimensions to describe acoustic environments

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160520

R150 Certificate of patent or registration of utility model

Ref document number: 5941350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees