JP2008216623A - Sound device and speech correcting method - Google Patents

Sound device and speech correcting method Download PDF

Info

Publication number
JP2008216623A
JP2008216623A JP2007053789A JP2007053789A JP2008216623A JP 2008216623 A JP2008216623 A JP 2008216623A JP 2007053789 A JP2007053789 A JP 2007053789A JP 2007053789 A JP2007053789 A JP 2007053789A JP 2008216623 A JP2008216623 A JP 2008216623A
Authority
JP
Japan
Prior art keywords
sound
sound output
unit
sub
main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007053789A
Other languages
Japanese (ja)
Other versions
JP4939259B2 (en
Inventor
Yoshifumi Fujino
好文 藤野
Takashi Nakanishi
崇 中西
Takeshi Aoki
武史 青木
Kensaku Yoshida
健作 吉田
Nobuhiro Tomota
伸寛 友田
Keitaro Sugawara
啓太郎 菅原
Makoto Hasegawa
真 長谷川
Shinichi Sato
伸一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2007053789A priority Critical patent/JP4939259B2/en
Publication of JP2008216623A publication Critical patent/JP2008216623A/en
Application granted granted Critical
Publication of JP4939259B2 publication Critical patent/JP4939259B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P20/00Technologies relating to chemical industry
    • Y02P20/50Improvements relating to the production of bulk chemicals
    • Y02P20/52Improvements relating to the production of bulk chemicals using catalysts, e.g. selective catalysts

Abstract

<P>PROBLEM TO BE SOLVED: To suitably correct a speech according to a listening position. <P>SOLUTION: A sub sound extracting unit 230 generates extracted data ERD consisting of a characteristic component estimated to have correlation with a consonant component of a sound output from a main sound output unit 130M. Then a delay unit 240 generates delay sound data DAD having been signal-delayed so that a sub sound output unit 130S outputs a sound of a specified component in sound output timing determined by the position relation between the sound output position of the sub sound output unit 130S and a position of interest for sound volume feeling correction. Then a level adjusting unit 220S adjusts the sound volume data of the delay sound data DAD while taking a detection result DNL of a noise level detector 250 into consideration to generate sub output sound data SAD. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、音響装置及び音声補正方法に関する。   The present invention relates to an acoustic device and a sound correction method.

従来から、車両等の移動体には様々な電装品が搭載され、利用者の利用に供されている。こうした電装品の一つとして、車に搭載される音響装置であるカーオーディオ装置がある。かかるカーオーディオ装置では、あらかじめ定められた位置に配置されたスピーカから車内空間に音楽等の再生音を出力するようになっている。そして、スピーカから出力された音を、車内の聴取者が聴取するようになっている。   Conventionally, various electric components are mounted on a moving body such as a vehicle and are used by users. As one of such electrical components, there is a car audio device that is an acoustic device mounted on a car. In such a car audio device, a reproduction sound such as music is output to a vehicle interior space from a speaker arranged at a predetermined position. A listener in the vehicle listens to the sound output from the speaker.

ところで、車の走行時にはエンジン音、風切り音等の走行騒音が発生し、車内における再生音の聴取環境が悪化する。かかる走行騒音は、エンジンの回転数、路面の状態、窓の開閉の状態等によって変化する。   By the way, when the vehicle is traveling, traveling noise such as engine noise and wind noise is generated, and the environment for listening to reproduced sound in the vehicle deteriorates. Such traveling noise varies depending on the engine speed, road surface condition, window open / closed condition, and the like.

こうした走行騒音に対応し、聴取者に対して少しでも良好な聴取環境を提供するために、車内の騒音(以下、「ノイズ音」ともいう)レベル又は騒音レベルに対応する量を測定し、その測定結果に基づいてスピーカからの出力音量を調整する技術が提案されている(例えば、特許文献1,2参照:以下、「従来例」という)。こうした従来例の技術では、騒音レベルが高くなる程、スピーカからの出力音量を大きくするようになっている。   In order to respond to such driving noise and provide a listener with a favorable listening environment, the noise level in the vehicle (hereinafter also referred to as “noise noise”) or the amount corresponding to the noise level is measured. Techniques have been proposed for adjusting the output volume from a speaker based on the measurement result (see, for example, Patent Documents 1 and 2: hereinafter referred to as “conventional example”). In such a conventional technique, the higher the noise level, the higher the output volume from the speaker.

特開昭57−41014号公報JP-A-57-41014 特開平7−94985号公報JP-A-7-94985

上述した従来例では、スピーカから出力された音の音圧はスピーカからの距離が大きくなる程小さくなるので、スピーカから離れた位置にいる聴取者にとって適切な音量感となるようにスピーカからの出力音量を調節すると、スピーカに近い位置にいる聴取者にとっては、過大な音量となってしまう。   In the conventional example described above, the sound pressure of the sound output from the speaker decreases as the distance from the speaker increases, so that the sound output from the speaker is suitable for a listener away from the speaker. When the volume is adjusted, the volume is excessive for the listener who is close to the speaker.

一方、スピーカに近い位置にいる聴取者にとって適切な音量感となるようにスピーカからの出力音量を調節すると、スピーカから遠い位置にいる聴取者にとっては、過小な音量となってしまう。こうした音量調整を行うと、過小な音量となる位置において、特にセリフ等の人の発声に係る音声が聞き取りにくくなってしまう。   On the other hand, when the output volume from the speaker is adjusted so that the volume level is appropriate for the listener who is close to the speaker, the volume is too low for the listener who is far from the speaker. When such a volume adjustment is performed, it becomes difficult to hear a voice related to a person's utterance such as a speech at a position where the volume is too low.

このため、スピーカからと遠い位置の聴取者及びスピーカに近い位置の聴取者の双方が、セリフ音等の人の発声に係る音声を明瞭に、かつ、快適に聞き取ることができるようにする技術が待望されている。かかる要請に応えることが、本発明が解決すべき課題の一つとして挙げられる。   For this reason, there is a technology that enables both a listener far from the speaker and a listener close to the speaker to clearly and comfortably hear speech related to a person's utterance such as speech sounds. Long-awaited. Meeting this requirement is one of the problems to be solved by the present invention.

本発明は、上記の事情を鑑みてなされたものであり、聴取位置に応じて、適切に音声を補正することができる新たな音響装置及び音声補正方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a new acoustic device and a sound correction method capable of appropriately correcting sound according to a listening position.

請求項1に記載の発明は、所定空間へ向けて音を出力するメイン音出力手段と;前記メイン音出力手段から出力される音の子音成分と相関があると推定される特定成分を抽出する抽出手段と;前記メイン音出力手段の音出力位置よりも前記所定空間内の特定聴取位置に近い位置に音出力位置が設定され、前記特定聴取位置へ向けて音を出力するサブ音出力手段と;前記メイン音出力手段の音出力位置、前記サブ音出力手段の音出力位置及び前記特定聴取位置の位置関係を考慮して定まる音出力タイミング及び音量で、前記抽出手段により抽出された成分の音を前記サブ音出力手段から出力させる音声補正手段と;を備えることを特徴とする音響装置である。   The invention according to claim 1 extracts a main sound output means for outputting a sound toward a predetermined space; and a specific component estimated to have a correlation with a consonant component of a sound output from the main sound output means. Extraction means; sub sound output means for setting the sound output position closer to the specific listening position in the predetermined space than the sound output position of the main sound output means, and outputting the sound toward the specific listening position; The sound of the component extracted by the extraction means at a sound output timing and volume determined in consideration of the positional relationship among the sound output position of the main sound output means, the sound output position of the sub sound output means and the specific listening position; Sound correction means for outputting the sound from the sub sound output means.

請求項8に記載の発明は、メイン音出力手段から所定空間へ向けて音を出力するメイン音出力工程と;前記メイン音出力手段から出力される音の子音成分と相関があると推定される特定成分を抽出する抽出工程と;前記メイン音出力手段の音出力位置よりも前記所定空間内の特定聴取位置に近い位置に音出力位置が設定され、前記特定聴取位置へ向けて音を出力するサブ音出力手段の音出力位置、前記メイン音出力手段の音出力位置及び特定聴取位置の位置関係を考慮して定まる音出力タイミング及び音量で、前記特定成分の音を前記サブ音出力手段から出力する補正音出力工程と;を備える音声補正方法である。   The invention according to claim 8 is presumed to correlate with a main sound output step of outputting sound from the main sound output means toward a predetermined space; and a consonant component of the sound output from the main sound output means. An extraction step of extracting a specific component; a sound output position is set closer to a specific listening position in the predetermined space than a sound output position of the main sound output means, and a sound is output toward the specific listening position The sound of the specific component is output from the sub sound output means at a sound output timing and volume determined in consideration of the positional relationship between the sound output position of the sub sound output means, the sound output position of the main sound output means and the specific listening position. And a corrected sound output step.

請求項9に記載の発明は、請求項8に記載の音声補正方法を、演算手段に実行させる、ことを特徴とする音声補正プログラムである。   A ninth aspect of the present invention is a voice correction program that causes a calculation means to execute the voice correction method according to the eighth aspect.

請求項10に記載の発明は、請求項9に記載の音声補正プログラムが、演算手段により読み取り可能に記録されている、ことを特徴とする記録媒体である。   A tenth aspect of the present invention is a recording medium in which the voice correction program according to the ninth aspect of the invention is recorded so as to be readable by a calculation means.

以下、本発明の一実施形態を、図1〜図6を参照して説明する。なお、以下の説明において、同一又は同等の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, an embodiment of the present invention will be described with reference to FIGS. In the following description, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.

[構成]
図1には、一実施形態に係る音響装置100の構成がブロック図にて示されている。この音響装置100は、車両CAR(図2参照)に搭載される音響装置であり、図1に示されるように、制御ユニット110と、記憶装置120とを備えている。また、音響装置100は、メイン音出力手段としてのメイン音出力ユニット130Mと、サブ音出力手段としてのサブ音出力ユニット130Sと、ノイズ測定手段の一部としての集音ユニット140とを備えている。さらに、音響装置100は、表示ユニット150と、操作入力ユニット160とを備えている。
[Constitution]
FIG. 1 is a block diagram illustrating a configuration of an audio device 100 according to an embodiment. The acoustic device 100 is an acoustic device mounted on a vehicle CAR (see FIG. 2), and includes a control unit 110 and a storage device 120 as shown in FIG. The acoustic device 100 also includes a main sound output unit 130M as main sound output means, a sub sound output unit 130S as sub sound output means, and a sound collection unit 140 as part of noise measurement means. . Furthermore, the acoustic device 100 includes a display unit 150 and an operation input unit 160.

なお、制御ユニット110以外の要素120〜160は、制御ユニット110に接続されている。   Elements 120 to 160 other than the control unit 110 are connected to the control unit 110.

記憶装置120は、固定ディスク装置、DVD(Digital Versatile Disk)が挿入されたDVDドライブ装置等から構成されている。この記憶装置120には、楽曲等が圧縮された形式の音データ(以下、「音コンテンツデータ」と呼ぶ)1211,1212,…をはじめとして、音響装置100の動作のために必要な様々なデータが記憶される。制御ユニット110は、記憶装置120の記憶領域にアクセス可能であり、当該記憶領域へデータを書き込んだり、当該記憶領域からのデータを読み取ったりすることができるようになっている。 The storage device 120 includes a fixed disk device, a DVD drive device in which a DVD (Digital Versatile Disk) is inserted, and the like. The storage device 120 includes various data necessary for the operation of the acoustic device 100, including sound data (hereinafter referred to as "sound content data") 121 1 , 121 2 ,. Data is stored. The control unit 110 can access a storage area of the storage device 120, and can write data into the storage area and read data from the storage area.

メイン音出力ユニット130Mは、(i)制御ユニット110から受信したデジタル音声データをアナログ信号に変換するDA変換器(Digital to Analog Converter)と、(ii)当該DA変換器から出力されたアナログ信号を増幅する増幅器と、(iii)増幅されたアナログ信号を音声に変換するスピーカ131Mとを備えて構成されている。このメイン音出力ユニット130は、制御ユニット110による制御のもとで、案内用音声、音楽等を再生して出力する。   The main sound output unit 130M includes (i) a DA converter (Digital to Analog Converter) that converts digital audio data received from the control unit 110 into an analog signal, and (ii) an analog signal output from the DA converter. It comprises an amplifier that amplifies, and (iii) a speaker 131M that converts the amplified analog signal into sound. The main sound output unit 130 reproduces and outputs guidance voice, music, and the like under the control of the control unit 110.

サブ音出力ユニット130Sは、上記のメイン音出力ユニット130Mとほぼ同様に構成されている。すなわち、サブ音出力ユニット130Sは、(i)制御ユニット110から受信したデジタル音声データをアナログ信号に変換するDA変換器(Digital to Analog Converter)と、(ii)当該DA変換器から出力されたアナログ信号を増幅する増幅器と、(iii)増幅されたアナログ信号を音声に変換するスピーカ131Sとを備えて構成されている。このメイン音出力ユニット130Mは、制御ユニット110による制御のもとで、案内用音声、音楽等を再生して出力する。   The sub sound output unit 130S is configured in substantially the same manner as the main sound output unit 130M. That is, the sub sound output unit 130S includes (i) a DA converter (Digital to Analog Converter) that converts digital audio data received from the control unit 110 into an analog signal, and (ii) an analog output from the DA converter. It comprises an amplifier that amplifies the signal and (iii) a speaker 131S that converts the amplified analog signal into sound. The main sound output unit 130M reproduces and outputs guidance voice, music, and the like under the control of the control unit 110.

なお、本実施形態では、図2に示されるように、メイン音出力ユニット130Mのスピーカ131Mは、車両CAR内の音場空間ASPの前方、例えばダッシュボード内に配置されている。また、サブ音出力ユニット130Sのスピーカ131Sは、運転席の背もたれの左側上部に配置されている。なお、本実施形態では、車内の音場空間ASPにおける運転手席に着座した聴取者LSN1の左耳の位置P1が通常聴取位置であり、運転手席側の後部座席に着座した聴取者LSN2の左耳の位置P2を特定聴取位置であることを想定している。なお、スピーカ131Sと特定聴取位置P2の間の距離は、スピーカ131Mと特定聴取位置P2との間の距離の1/2以下であるとの条件が満たされることが望ましい。本実施形態では、この条件が満たされるようになっている。   In the present embodiment, as shown in FIG. 2, the speaker 131M of the main sound output unit 130M is disposed in front of the sound field space ASP in the vehicle CAR, for example, in the dashboard. Further, the speaker 131S of the sub sound output unit 130S is disposed on the upper left side of the backrest of the driver's seat. In this embodiment, the position P1 of the left ear of the listener LSN1 seated in the driver's seat in the sound field space ASP in the vehicle is the normal listening position, and the listener LSN2 seated in the rear seat on the driver's seat side. It is assumed that the position P2 of the left ear is a specific listening position. It is desirable that the condition that the distance between the speaker 131S and the specific listening position P2 is ½ or less of the distance between the speaker 131M and the specific listening position P2. In the present embodiment, this condition is satisfied.

図1に戻り、集音ユニット140は、(i)周囲の音を収集して電気的なアナログ音声信号とするマイクロフォン、(ii)マイクロフォンから出力されたアナログ音声信号を増幅する増幅器、(iii)増幅されたアナログ音声信号をデジタル音声信号に変換するAD変換器(Analog to Digital Converter)とを備えて構成されている。ここで、マイクロフォンは、音場空間ASP内の所定の騒音検出位置に配置されている。集音ユニット140による集音結果は制御ユニット110に報告される。   Returning to FIG. 1, the sound collection unit 140 includes (i) a microphone that collects ambient sounds and generates an electrical analog audio signal, (ii) an amplifier that amplifies the analog audio signal output from the microphone, and (iii) An AD converter (Analog to Digital Converter) that converts an amplified analog audio signal into a digital audio signal is provided. Here, the microphone is disposed at a predetermined noise detection position in the sound field space ASP. The sound collection result by the sound collection unit 140 is reported to the control unit 110.

表示ユニット150は、(i)液晶表示パネル、有機EL(Electro Luminescence)パネル、PDP(Plasma Display Panel)等の表示デバイスと、(ii)制御ユニット110から送出された表示制御データに基づいて、表示ユニット150全体の制御を行うグラフィックレンダラ等の表示コントローラと、(iii)表示画像データを記憶する表示画像メモリ等を備えて構成されている。この表示ユニット150は、制御ユニット110による制御のもとで、操作ガイダンス情報等を表示する。   The display unit 150 displays (i) a display device such as a liquid crystal display panel, an organic EL (Electro Luminescence) panel, or a PDP (Plasma Display Panel), and (ii) a display control data sent from the control unit 110. The display unit includes a display controller such as a graphic renderer that controls the entire unit 150, and (iii) a display image memory that stores display image data. The display unit 150 displays operation guidance information and the like under the control of the control unit 110.

操作入力ユニット160は、音響装置100の本体部に設けられたキー部、あるいはキー部を備えるリモート入力装置等により構成される。ここで、本体部に設けられたキー部としては、表示ユニット150の表示デバイスに設けられたタッチパネルを用いることができる。なお、キー部を有する構成に代えて、音声入力する構成を採用することもできる。   The operation input unit 160 is configured by a key unit provided in the main body of the audio device 100 or a remote input device including the key unit. Here, as a key part provided in the main body part, a touch panel provided in a display device of the display unit 150 can be used. In addition, it can replace with the structure which has a key part, and can also employ | adopt the structure which inputs a voice.

この操作入力ユニット160を利用者が操作することにより、音響装置100の動作内容の設定が行われる。例えば、再生楽曲の設定、楽曲の検索設定等を、利用者が操作入力ユニット160を利用して行う。こうした入力内容は、操作入力ユニット160から制御ユニット110へ送られる。   When the user operates the operation input unit 160, the operation content of the acoustic device 100 is set. For example, the user uses the operation input unit 160 to set the playback music, search for music, and the like. Such input contents are sent from the operation input unit 160 to the control unit 110.

制御ユニット110は、音響装置100の全体を統括制御する。この制御ユニット110は、図3に示されるように、デジタル音データ生成部210と、レベル調整部220Mとを備えている。また、制御ユニット110は、抽出手段としてのサブ音抽出部230と、音声補正手段の一部としての遅延部240と、音声補正手段の一部としてのレベル調整部220Sとを備えている。さらに、制御ユニット110は、ノイズ測定手段の一部としての騒音レベル検出部250とを備えている。   The control unit 110 performs overall control of the audio device 100. As shown in FIG. 3, the control unit 110 includes a digital sound data generation unit 210 and a level adjustment unit 220M. The control unit 110 includes a sub sound extraction unit 230 as an extraction unit, a delay unit 240 as a part of the audio correction unit, and a level adjustment unit 220S as a part of the audio correction unit. Furthermore, the control unit 110 includes a noise level detection unit 250 as a part of the noise measurement unit.

デジタル音データ生成部210は、再生すべき音コンテンツの指定入力がなされたことが操作入力ユニット160から報告されると、当該再生すべき音コンテンツに対応する音コンテンツデータ121j(j=1,2,…)を記憶装置120からデータACDとして読み出して展開し、デジタル音データADDを生成する。そして、デジタル音データ生成部210は、生成されたデジタル音データADDをレベル調整部220M及びサブ音抽出部230へ送る。 When the operation input unit 160 reports that the sound content to be reproduced has been designated, the digital sound data generator 210 generates sound content data 121 j (j = 1, j) corresponding to the sound content to be reproduced. 2,...) Is read out from the storage device 120 as data ACD and expanded to generate digital sound data ADD. Then, the digital sound data generation unit 210 sends the generated digital sound data ADD to the level adjustment unit 220M and the sub sound extraction unit 230.

レベル調整部220Mは、デジタル音データ生成部210から受けたデジタル音データADDの音量レベルを増幅又は減衰させて、メイン出力音データMADを生成する。かかる増幅又は減衰の増幅率又は減衰率は、騒音レベル検出部250からの検出結果DNLに従って、レベル調整部220Mにおいて定められる。   The level adjustment unit 220M amplifies or attenuates the volume level of the digital sound data ADD received from the digital sound data generation unit 210 to generate main output sound data MAD. The amplification factor or attenuation factor of the amplification or attenuation is determined by the level adjustment unit 220M according to the detection result DNL from the noise level detection unit 250.

レベル調整部220Mは、生成されたメイン出力音データMADをメイン音出力ユニット130Mへ送る。この結果、音コンテンツデータ121jとして記憶装置120に記憶されている音コンテンツが再生されて、メイン音出力ユニット130Mのスピーカ131Mから音場空間ASPへ向けて出力される。 The level adjustment unit 220M sends the generated main output sound data MAD to the main sound output unit 130M. As a result, the sound content stored in the storage device 120 as the sound content data 121 j is reproduced and output from the speaker 131M of the main sound output unit 130M toward the sound field space ASP.

本実施形態においては、レベル調整部220Mは、通常聴取位置P1付近において適切な音量感となる音量でスピーカ131Mからの音出力がなされるように、音量レベルを調整する。なお、レベル調整部220Mにおける騒音レベル検出部250からの検出結果DNLに基づくレベル調整の態様は、事前の実験、事前のシミュレーション、経験等に基づいて、予め定められる。   In the present embodiment, the level adjustment unit 220M adjusts the volume level so that sound is output from the speaker 131M at a volume that provides an appropriate volume feeling in the vicinity of the normal listening position P1. Note that the level adjustment mode based on the detection result DNL from the noise level detection unit 250 in the level adjustment unit 220M is determined in advance based on a prior experiment, a prior simulation, experience, or the like.

サブ音抽出部230は、デジタル音データ生成部210から受けたデジタル音データADDにおける子音成分と相関があると推定される特定成分を抽出する。本実施形態では、かかる特定成分として、デジタル音データADDが再生された場合の音における第3ホルマント周波数及び第4ホルマント周波数を含み、第2ホルマント周波数を含まない連続的な周波数範囲の成分が抽出されるようになっている。このサブ音抽出部230は、図4に示されるように、スペクトル解析部231と、フィルタ部232とを備えている。   The sub sound extraction unit 230 extracts a specific component estimated to have a correlation with a consonant component in the digital sound data ADD received from the digital sound data generation unit 210. In the present embodiment, as the specific component, a component in a continuous frequency range including the third formant frequency and the fourth formant frequency in the sound when the digital sound data ADD is reproduced and not including the second formant frequency is extracted. It has come to be. As shown in FIG. 4, the sub sound extraction unit 230 includes a spectrum analysis unit 231 and a filter unit 232.

スペクトル解析部231は、デジタル音データADDに基づいて、デジタル音データADDが再生された場合の音における音量の周波数分布を求める。こうして、求められた周波数分布の例が、図5に示されている。   Based on the digital sound data ADD, the spectrum analysis unit 231 obtains a frequency distribution of sound volume in the sound when the digital sound data ADD is reproduced. An example of the frequency distribution thus obtained is shown in FIG.

スペクトル解析部231は、求められた周波数分布に基づいて、サブ音抽出用情報を求める。本実施形態では、サブ音抽出用情報を求めるに際して、まず、第1〜第3ホルマント周波数F1〜F3を抽出する(図5参照)。引き続き、スペクトル解析部231は、抽出された第2ホルマント周波数F2及び第3ホルマント周波数F3、並びに当該周波数分布に基づいて、第2ホルマント周波数F2と第3ホルマント周波数F3との間の周波数である閾値周波数FTHを求める(図5参照)。図4に戻り、スペクトル解析部231は、求められた閾値周波数FTHを、サブ音抽出用情報ERFとして、フィルタ部232へ送る。   The spectrum analysis unit 231 obtains sub sound extraction information based on the obtained frequency distribution. In this embodiment, when obtaining the sub sound extraction information, first, first to third formant frequencies F1 to F3 are extracted (see FIG. 5). Subsequently, the spectrum analysis unit 231 determines a threshold value that is a frequency between the second formant frequency F2 and the third formant frequency F3 based on the extracted second formant frequency F2 and third formant frequency F3 and the frequency distribution. The frequency FTH is obtained (see FIG. 5). Returning to FIG. 4, the spectrum analysis unit 231 sends the obtained threshold frequency FTH to the filter unit 232 as sub sound extraction information ERF.

なお、本実施形態では、第2ホルマント周波数F2と第3ホルマント周波数F3との間において音量が最小となる周波数を閾値周波数FTHとして求めるようになっている(図5参照)。   In the present embodiment, the frequency at which the volume is minimum between the second formant frequency F2 and the third formant frequency F3 is obtained as the threshold frequency FTH (see FIG. 5).

フィルタ部232は、スペクトル解析部231からのサブ音抽出用情報ERFに従って、デジタル音データADDから特定成分を抽出する。そして、フィルタ部232は、抽出結果を抽出データERDとして、遅延部240へ送る。   The filter unit 232 extracts a specific component from the digital sound data ADD in accordance with the sub sound extraction information ERF from the spectrum analysis unit 231. Then, the filter unit 232 sends the extraction result to the delay unit 240 as extraction data ERD.

本実施形態では、フィルタ部232は、サブ音抽出用情報ERF、すなわち閾値周波数FTH以上の周波数成分を通過させる可変ハイパスフィルタとして構成されている。かかる可変ハイパスフィルタとして構成されたフィルタ部232により抽出された抽出データERDが再生された場合における音の周波数分布の例が図6に示されている。   In the present embodiment, the filter unit 232 is configured as a variable high-pass filter that passes the sub sound extraction information ERF, that is, a frequency component equal to or higher than the threshold frequency FTH. FIG. 6 shows an example of the frequency distribution of sound when the extracted data ERD extracted by the filter unit 232 configured as such a variable high-pass filter is reproduced.

図3に戻り、遅延部240は、サブ音抽出部230から抽出データERDを受け、予め定められた遅延時間TDだけ遅延させて、遅延音データDADを生成する。ここで、遅延時間TDは、メイン音出力ユニット130Mのスピーカ131Mから出力された音が特定聴取位置P2に到達する時刻よりも、サブ音出力ユニット130Sのスピーカ131Sから出力された音が特定聴取位置P2に到達する時刻が僅かに遅くなるように、予め定められる。すなわち、遅延時間TDは、メイン音出力ユニット130Mのスピーカ131Mから特定聴取位置P2までの距離と、サブ音出力ユニット130Sのスピーカ131Sから特定聴取位置P2までの距離との差、及び、音場空間ASP内で音聴取中において想定される最低温度に基づいて、予め設計段階で定められる。かかる遅延時間TDの情報は、遅延部240に組み込まれている。   Returning to FIG. 3, the delay unit 240 receives the extraction data ERD from the sub sound extraction unit 230 and delays it by a predetermined delay time TD to generate the delay sound data DAD. Here, the delay time TD indicates that the sound output from the speaker 131S of the sub sound output unit 130S is at the specific listening position than the time when the sound output from the speaker 131M of the main sound output unit 130M reaches the specific listening position P2. It is determined in advance so that the time to reach P2 is slightly delayed. That is, the delay time TD is the difference between the distance from the speaker 131M of the main sound output unit 130M to the specific listening position P2 and the distance from the speaker 131S of the sub sound output unit 130S to the specific listening position P2, and the sound field space. It is determined in advance in the design stage based on the minimum temperature assumed during sound listening in the ASP. Information on the delay time TD is incorporated in the delay unit 240.

レベル調整部220Sは、遅延部240から受けた遅延音データDADの音量レベルを増幅又は減衰させて、サブ出力音データSADを生成する。かかる増幅又は減衰の増幅率又は減衰率は、メイン音出力ユニット130Mのスピーカ131Mから特定聴取位置P2までの距離と、サブ音出力ユニット130Sのスピーカ131Sから特定聴取位置P2までの距離と、騒音レベル検出部250からの検出結果DNLに従って、レベル調整部220Sにおいて定められる。   The level adjustment unit 220S amplifies or attenuates the volume level of the delay sound data DAD received from the delay unit 240, and generates sub output sound data SAD. The amplification factor or attenuation factor of the amplification or attenuation includes the distance from the speaker 131M of the main sound output unit 130M to the specific listening position P2, the distance from the speaker 131S of the sub sound output unit 130S to the specific listening position P2, and the noise level. The level adjustment unit 220S determines the detection result DNL from the detection unit 250.

なお、レベル調整部220Sは、適切な音量感及び明瞭感を実現するとの観点から、音量調整を行う。かかる音量調整の態様は、事前の実験、事前のシミュレーション、経験等に基づいて、予め定められる。本実施形態では、レベル調整部220Sは、特定聴取位置P2におけるスピーカ131Sから出力された音における特定成分の音量が、特定聴取位置P2におけるスピーカ131Mから出力された音における特定成分の音量を超えない範囲であり、かつ、メイン音出力ユニット130Mのスピーカ131Mから出力された音における特定成分の通常聴取位置P1における音量と特定聴取位置P2における音量との差を超えない範囲で、サブ出力音データSADの音量レベルを調整するようになっている。   The level adjustment unit 220S performs volume adjustment from the viewpoint of realizing an appropriate volume feeling and clarity. Such a volume adjustment mode is determined in advance based on a prior experiment, a prior simulation, an experience, or the like. In the present embodiment, in the level adjustment unit 220S, the volume of the specific component in the sound output from the speaker 131S at the specific listening position P2 does not exceed the volume of the specific component in the sound output from the speaker 131M at the specific listening position P2. The sub output sound data SAD is within a range and does not exceed the difference between the volume at the normal listening position P1 and the volume at the specific listening position P2 of the specific component in the sound output from the speaker 131M of the main sound output unit 130M. The volume level is adjusted.

レベル調整部220Sは、生成されたサブ出力音データSADをサブ音出力ユニット130Sへ送る。この結果、スピーカ131Mから出力された音の特定成分の音が、騒音レベル検出部250による検出結果に応じた音量で、サブ音出力ユニット130Sのスピーカ131Sから音場空間ASPへ向けて出力される。   The level adjustment unit 220S sends the generated sub output sound data SAD to the sub sound output unit 130S. As a result, the sound of the specific component of the sound output from the speaker 131M is output from the speaker 131S of the sub sound output unit 130S toward the sound field space ASP at a volume corresponding to the detection result by the noise level detection unit 250. .

騒音レベル検出部250は、集音ユニット140からの集音データAADに基づいて、騒音検出位置の周辺の騒音レベルを検出する。なお、騒音検出位置の周辺の騒音レベルと、音場空間ASP内の全般における騒音レベルとは相関があることから、騒音検出位置の周辺の騒音レベルを検出することにより、音場空間ASP内の全般における騒音レベルを推定できる。かかる相関は、音場空間ASPを車内空間として有する車種によって異なるが、事前に実験、シミュレーションなどによって求められているものとする。   The noise level detection unit 250 detects the noise level around the noise detection position based on the sound collection data AAD from the sound collection unit 140. Since the noise level around the noise detection position and the noise level in the sound field space ASP in general have a correlation, the noise level around the noise detection position is detected to detect the noise level in the sound field space ASP. The noise level in general can be estimated. Such correlation differs depending on the vehicle type having the sound field space ASP as the vehicle interior space, but is assumed to be obtained in advance by experiments, simulations, and the like.

本実施形態では、騒音レベル検出部250は、メイン音出力ユニット130M又はサブ音出力ユニット130Sから出力される音には通常は含まれないか、含まれたとしてもパワーの小さな周波数帯域の音の集音データAADにおけるパワーに基づいて、騒音検出位置の周辺の騒音レベルを検出するようになっている。騒音レベル検出部250による検出結果は、上述したように、検出結果DNLとして、レベル調整部220M,220Sへ送られる。   In the present embodiment, the noise level detector 250 is not usually included in the sound output from the main sound output unit 130M or the sub sound output unit 130S, or even if it is included, Based on the power in the sound collection data AAD, the noise level around the noise detection position is detected. As described above, the detection result by the noise level detection unit 250 is sent to the level adjustment units 220M and 220S as the detection result DNL.

[動作]
次に、上記のように構成された音響装置100の動作について、主に音量感及び明瞭感の補正処理に着目して説明する。
[Operation]
Next, the operation of the acoustic device 100 configured as described above will be described mainly focusing on the correction processing of volume feeling and clarity.

音響装置100では、通電が開始されると、集音ユニット140による集音動作と、騒音レベル検出部250による騒音検出位置における騒音レベルの検出動作とが開始される。そして、当該検出動作は、通電期間にわたって継続される。   In the acoustic device 100, when energization is started, the sound collection operation by the sound collection unit 140 and the noise level detection operation at the noise detection position by the noise level detection unit 250 are started. And the said detection operation is continued over an electricity supply period.

利用者が、操作ユニット160に再生すべき音コンテンツの指定を入力すると、操作ユニット160からその旨が制御ユニット110に報告される。この報告を受けた制御ユニット110では、まず、デジタル音データ生成部210が、指定された音コンテンツに対応する音コンテンツデータ121j(j=1,2,…)を記憶装置120からデータACDとして読み出す。 When the user inputs the designation of the sound content to be reproduced to the operation unit 160, the operation unit 160 reports that fact to the control unit 110. In the control unit 110 that has received this report, first, the digital sound data generation unit 210 converts the sound content data 121 j (j = 1, 2,...) Corresponding to the designated sound content from the storage device 120 as data ACD. read out.

引き続き、デジタル音データ生成部210は、読み出された音コンテンツデータ121jを展開し、デジタル音データADDを生成する。こうして生成されたデジタル音データADDは、デジタル音データ生成部210から、レベル調整部220M及びサブ音抽出部230へ送られる。 Subsequently, the digital sound data generation unit 210 expands the read sound content data 121 j to generate digital sound data ADD. The digital sound data ADD thus generated is sent from the digital sound data generation unit 210 to the level adjustment unit 220M and the sub sound extraction unit 230.

デジタル音データ生成部210からのデジタル音データADDを受けたレベル調整部220Mは、騒音レベル検出部250からの検出結果DNLに従って、デジタル音データADDの音量レベルを増幅又は減衰させて、メイン出力音データMADを生成する。かかるメイン出力音データMADを生成に際し、レベル調整部220Mは、騒音レベル検出部250からの検出結果DNLを参照し、通常聴取位置P1付近において適切な音量感及び明瞭感となる音量でスピーカ131Mからの音出力がなされるように、メイン出力音データMADの音量レベルを調整する。   Upon receiving the digital sound data ADD from the digital sound data generation unit 210, the level adjustment unit 220M amplifies or attenuates the volume level of the digital sound data ADD in accordance with the detection result DNL from the noise level detection unit 250, and outputs the main output sound. Data MAD is generated. When generating the main output sound data MAD, the level adjustment unit 220M refers to the detection result DNL from the noise level detection unit 250, and from the speaker 131M with a sound volume that is appropriate and clear in the vicinity of the normal listening position P1. The volume level of the main output sound data MAD is adjusted so that the sound output is performed.

上記のようにして生成されたメイン出力音データMADは、レベル調整部220Mからメイン音出力ユニット130Mへ送られる。メイン出力音データMADを受けたメイン音出力ユニット130Mは、メイン出力音データMADを再生して、スピーカ130Mから音場空間ASPへ向けて出力する。スピーカ131Mから出力された音は、音場空間ASP内を伝搬し、音場空間ASP内の聴取者により聴取される。   The main output sound data MAD generated as described above is sent from the level adjustment unit 220M to the main sound output unit 130M. The main sound output unit 130M that has received the main output sound data MAD reproduces the main output sound data MAD and outputs it from the speaker 130M toward the sound field space ASP. The sound output from the speaker 131M propagates in the sound field space ASP and is heard by a listener in the sound field space ASP.

上記のようにして行われるメイン音出力ユニット130Mの音再生の結果、通常聴取位置P1における聴取者LSN1は、常にほぼ適切な音量感及び明瞭感でスピーカ131Mから出力された音を聴取することができる。一方、特定聴取位置P2において聴取する聴取者LSN2は、スピーカ131Mから出力された音のみでは音量不足、及び、当該音が人の発声に係る音声である場合には明瞭性の不足を感じる。特に、騒音レベルが大きくなると、音量不足及び明瞭性不足を顕著に感じるようになる。   As a result of the sound reproduction of the main sound output unit 130M performed as described above, the listener LSN1 at the normal listening position P1 can always listen to the sound output from the speaker 131M with almost appropriate volume and clarity. it can. On the other hand, the listener LSN2 who listens at the specific listening position P2 feels that the sound is insufficient only with the sound output from the speaker 131M, and lack of clarity when the sound is voice related to human speech. In particular, when the noise level increases, a lack of sound volume and a lack of clarity become noticeable.

以上のレベル調整部220Mによるメイン出力音データMADの生成及びメイン音出力ユニット130Mによる音出力の動作と並行して、サブ音抽出部230、遅延部240及びレベル調整部220Sにより、デジタル音データADDに基づくサブ音出力データSADの生成及びサブ音出力ユニット130Sによる音出力の動作が行われる。この動作においては、まず、デジタル音データ生成部210からのデジタル音データADDを受けたサブ音抽出部230が、デジタル音データADDにおける特定成分の抽出を行う。   In parallel with the generation of the main output sound data MAD by the level adjustment unit 220M and the sound output operation by the main sound output unit 130M, the digital sound data ADD is obtained by the sub sound extraction unit 230, the delay unit 240, and the level adjustment unit 220S. The sub sound output data SAD is generated based on the sound and the sound output operation by the sub sound output unit 130S is performed. In this operation, first, the sub sound extraction unit 230 that has received the digital sound data ADD from the digital sound data generation unit 210 extracts a specific component from the digital sound data ADD.

かかる特定部分の抽出に際して、サブ音抽出部230では、まず、スペクトル解析部231が、デジタル音データADDに基づいて、デジタル音データADDが再生された場合の音における音量の周波数分布を求める(図5参照)。引き続き、スペクトル解析部231は、求められた周波数分布に基づいて、サブ音抽出用情報ERFを求める。本実施形態では、上述したように、スペクトル解析部231が、第1〜第3ホルマント周波数F1〜F3を抽出した後、抽出された第2ホルマント周波数F2及び第3ホルマント周波数F3、並びに当該周波数分布に基づいて、サブ音抽出用情報ERFとして、第2ホルマント周波数F2と第3ホルマント周波数F3との間の周波数である閾値周波数FTHを求める(図5参照)。そして、スペクトル解析部231は、求められたサブ音抽出用情報ERFをフィルタ部232へ送る。   In the extraction of the specific part, in the sub sound extraction unit 230, first, the spectrum analysis unit 231 obtains the frequency distribution of the sound volume when the digital sound data ADD is reproduced based on the digital sound data ADD (FIG. 5). Subsequently, the spectrum analysis unit 231 obtains the sub sound extraction information ERF based on the obtained frequency distribution. In the present embodiment, as described above, after the spectrum analysis unit 231 extracts the first to third formant frequencies F1 to F3, the extracted second formant frequency F2 and third formant frequency F3, and the frequency distribution are extracted. Based on the above, a threshold frequency FTH that is a frequency between the second formant frequency F2 and the third formant frequency F3 is obtained as the sub sound extraction information ERF (see FIG. 5). Then, the spectrum analyzing unit 231 sends the obtained sub sound extraction information ERF to the filter unit 232.

サブ音抽出用情報ERFを受けたフィルタ部232は、サブ音抽出用情報ERFに従って、デジタル音データADDから特定成分を抽出する。本実施形態では、フィルタ部232は、サブ音抽出用情報ERF、すなわち閾値周波数FTH以上の周波数成分を通過させることにより、デジタル音データADDから特定成分として抽出する。そして、フィルタ部232は、抽出された特性成分を抽出データERD(図6参照)として、遅延部240へ送る。   The filter unit 232 that has received the sub sound extraction information ERF extracts a specific component from the digital sound data ADD in accordance with the sub sound extraction information ERF. In the present embodiment, the filter unit 232 extracts the sub sound extraction information ERF, that is, the frequency component equal to or higher than the threshold frequency FTH, so as to extract the specific component from the digital sound data ADD. Then, the filter unit 232 sends the extracted characteristic component to the delay unit 240 as extracted data ERD (see FIG. 6).

サブ音データERDを受けた遅延部240は、サブ音データERDを遅延時間TDだけ遅延させて、遅延音データDADを生成する。こうして生成された遅延音データDADは、レベル調整部220Sへ送られる。なお、遅延時間TDは、上述のように定められているので、メイン音出力ユニット130Mのスピーカ131Mから出力された音の特定成分が特定聴取位置P2に到達する時刻よりも、サブ音出力ユニット130Sのスピーカ131Sから出力された特定成分の音が特定聴取位置P2に到達する時刻が僅かに遅くなるようになる。   Upon receiving the sub sound data ERD, the delay unit 240 delays the sub sound data ERD by the delay time TD to generate the delay sound data DAD. The delay sound data DAD generated in this way is sent to the level adjustment unit 220S. Since the delay time TD is determined as described above, the sub sound output unit 130S is more effective than the time when the specific component of the sound output from the speaker 131M of the main sound output unit 130M reaches the specific listening position P2. The time at which the sound of the specific component output from the speaker 131S reaches the specific listening position P2 is slightly delayed.

遅延部240からの遅延音データDADを受けたレベル調整部220Sは、上述したように、騒音レベル検出部250からの検出結果DNLを考慮しつつ、特定聴取位置P2におけるスピーカ131Sから出力された音の音量が、特定聴取位置P2におけるスピーカ131Mから出力された音の特定成分の音量を超えない範囲で、特定聴取位置P2における聴取者の音量感及び明瞭感を改善すべく音量レベルを調整して、サブ出力音データSADを生成する。こうして生成されたサブ出力音データSADは、レベル調整部220Sからサブ音出力ユニット130Sへ送られる。   The level adjustment unit 220S that has received the delay sound data DAD from the delay unit 240, as described above, considers the detection result DNL from the noise level detection unit 250, and outputs the sound output from the speaker 131S at the specific listening position P2. The volume level is adjusted so as to improve the volume and clarity of the listener at the specific listening position P2 in a range that does not exceed the volume of the specific component of the sound output from the speaker 131M at the specific listening position P2. Sub output sound data SAD is generated. The sub output sound data SAD generated in this way is sent from the level adjustment unit 220S to the sub sound output unit 130S.

サブ出力音データSADを受けたサブ音出力ユニット130Sは、サブ出力音データSADを再生して、スピーカ131Sから音場空間ASPへ向けて出力する。スピーカ131Sから出力された音は、音場空間ASP内を伝搬し、音場空間ASP内の聴取者LSN2により聴取される。   The sub sound output unit 130S that has received the sub output sound data SAD reproduces the sub output sound data SAD and outputs it from the speaker 131S toward the sound field space ASP. The sound output from the speaker 131S propagates in the sound field space ASP and is heard by the listener LSN2 in the sound field space ASP.

この結果、特定聴取位置P2の聴取者LSN2は、メイン音出力ユニット130Mを出力源とする音、及び、音量感及び明瞭感の不足を改善するためのサブ音出力ユニット130Sを出力源とする音の双方を聴取することになる。   As a result, the listener LSN2 at the specific listening position P2 outputs a sound using the main sound output unit 130M as an output source and a sound using the sub sound output unit 130S for improving the lack of volume and clarity. Both will be heard.

以上説明したように、本実施形態では、通常聴取位置P1において適切な音量感及び明瞭感を生じさせるメインのスピーカ131Mからの出力音量では音量の不足を感じる特定聴取位置P2に向けて、サブのスピーカ131Sから、子音成分と相関があると推定される特定成分の音を、音量感及び明瞭感の不足を補充する観点から定められた音量で出力する。このため、スピーカ131Sから出力される音による近接音圧迫を低減しつつ、特定聴取位置P2における聴取者の音量感及び明瞭感を改善することができる。   As described above, in the present embodiment, the sub-volume toward the specific listening position P2 where the output volume from the main speaker 131M that produces an appropriate volume feeling and clarity at the normal listening position P1 feels that the volume is insufficient. From the speaker 131S, the sound of the specific component estimated to have a correlation with the consonant component is output at a volume determined from the viewpoint of supplementing the lack of volume and clarity. For this reason, it is possible to improve the sense of volume and clarity of the listener at the specific listening position P2 while reducing the proximity sound pressure due to the sound output from the speaker 131S.

また、本実施形態では、サブのスピーカ131Sから出力された特定成分の音が、メインのスピーカ131Mから出力された音よりも遅れて特定聴取位置P2に到達するように、サブのスピーカ131Sからの特定成分の音の出力タイミングが調整される。このため、いわゆる先行音効果により、近接音圧迫が更に低減されるとともに、上記の音出力方向に関する感覚の維持にも貢献できる。   In the present embodiment, the sound of the specific component output from the sub speaker 131S arrives at the specific listening position P2 later than the sound output from the main speaker 131M. The output timing of the sound of the specific component is adjusted. For this reason, the so-called preceding sound effect can further reduce the proximity sound compression and contribute to the maintenance of the sensation regarding the sound output direction.

[実施形態の変形]
本発明は、上記の実施形態に限定されるものではなく、様々な変形が可能である。
[Modification of Embodiment]
The present invention is not limited to the above-described embodiment, and various modifications are possible.

例えば、上記の実施形態においては、メイン音出力ユニット130Mのスピーカ131Mは、車両CAR内の音場空間ASPの前方に配置されるとともに、サブ音出力ユニット130Sのスピーカ131Sは、運転席の背もたれの左側上部に配置されているようにしたが、スピーカ131M及びスピーカ131Sは、他の位置に配設されていてもよい。   For example, in the above embodiment, the speaker 131M of the main sound output unit 130M is disposed in front of the sound field space ASP in the vehicle CAR, and the speaker 131S of the sub sound output unit 130S is a backrest of the driver's seat. Although arranged on the upper left side, the speaker 131M and the speaker 131S may be arranged at other positions.

また、上記の実施形態においては、メイン音出力ユニット130Mはスピーカ131Mのみを有するようにしたが、例えばメイン音出力ユニットを5.1chサラウンドシステムにおける音出力ユニットとし、当該5.1chサラウンドシステムにおいてセリフ音声出力が割り当てられるセンタースピーカに対応して、サブ音出力ユニットを用意するようにすることもできる。   In the above embodiment, the main sound output unit 130M has only the speaker 131M. However, for example, the main sound output unit is a sound output unit in a 5.1ch surround system, and a line in the 5.1ch surround system is used. A sub sound output unit can be prepared corresponding to the center speaker to which the sound output is assigned.

また、上記の実施形態においては、フィルタ部232を可変ハイパスフィルタとして構成したが、通過させる周波数範囲を可変とできる可変バンドパスフィルタとして構成することもできる。この場合には、スペクトル解析部231が、第3ホルマント周波数F3及び第4ホルマント周波数F4(図5参照)を含み、第2ホルマント周波数F2を含まないことを条件とする周波数範囲を予め定められた方式に従って求め、当該周波数範囲の最小周波数値及び最大周波数値を、サブ音抽出用情報ERFとして、フィルタ部232に報告するようにすればよい。   In the above-described embodiment, the filter unit 232 is configured as a variable high-pass filter. However, the filter unit 232 may be configured as a variable band-pass filter that can vary a frequency range to be passed. In this case, the spectrum analysis unit 231 has a predetermined frequency range that includes the third formant frequency F3 and the fourth formant frequency F4 (see FIG. 5) and does not include the second formant frequency F2. The minimum frequency value and the maximum frequency value in the frequency range may be calculated according to the method and reported to the filter unit 232 as the sub sound extraction information ERF.

また、車両に搭載され、音響装置としても機能するナビゲーション装置等が、本実施形態の音響装置100の機能を有するようにしてもよい。   A navigation device or the like that is mounted on a vehicle and also functions as an audio device may have the function of the audio device 100 of the present embodiment.

また、上記の実施形態においては、車両に搭載される音響装置に本発明を適用したが、車両以外の他の移動体に搭載される音響装置にも本発明を適用することもできるし、移動体に搭載されない音響装置にも本発明を適用することもできる。   In the above embodiment, the present invention is applied to an acoustic device mounted on a vehicle. However, the present invention can also be applied to an acoustic device mounted on a moving body other than the vehicle. The present invention can also be applied to an acoustic device that is not mounted on the body.

なお、上記の実施形態における制御ユニット110を中央処理装置(CPU:Central Processing Unit)、DSP(Digital Signal Processor)、読出専用メモリ(ROM:Read Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)等を備えた演算手段としてのコンピュータとして構成し、上記の実施形態における処理を、予め用意されたプログラムを当該コンピュータで実行するようにしてもよい。このプログラムはハードディスク、CD−ROM、DVD等のコンピュータで読み取り可能な記録媒体に記録され、当該コンピュータによって記録媒体から読み出されて実行される。また、このプログラムは、CD−ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配送の形態で取得されるようにしてもよい。   In addition, the control unit 110 in the above embodiment includes a central processing unit (CPU), a DSP (Digital Signal Processor), a read only memory (ROM), and a random access memory (RAM). It is also possible to configure the computer as a computing means including the above, and execute the processing in the above-described embodiment on a computer prepared in advance. This program is recorded on a computer-readable recording medium such as a hard disk, CD-ROM, or DVD, and is read from the recording medium and executed by the computer. The program may be acquired in a form recorded on a portable recording medium such as a CD-ROM or DVD, or may be acquired in a form of delivery via a network such as the Internet. Also good.

本発明の一実施形態に係る音響装置の構成を概略的に示すブロック図である。1 is a block diagram schematically showing a configuration of an audio device according to an embodiment of the present invention. 図1のメイン音出力ユニットのスピーカ及びサブ音出力ユニットのスピーカの配置位置を説明するための図である。It is a figure for demonstrating the arrangement position of the speaker of the main sound output unit of FIG. 1, and the speaker of a sub sound output unit. 図1の制御ユニットの構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the control unit of FIG. 図3のサブ音抽出部の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the sub sound extraction part of FIG. 図3のデジタル音データ生成部から出力されるデータを再生した音の周波数分布を説明するための図である。It is a figure for demonstrating the frequency distribution of the sound which reproduced | regenerated the data output from the digital sound data generation part of FIG. 図4のサブ音抽出部による抽出結果を再生した音の周波数分布を説明するための図である。It is a figure for demonstrating the frequency distribution of the sound which reproduced | regenerated the extraction result by the sub sound extraction part of FIG.

符号の説明Explanation of symbols

100 … 音響装置
130M … メイン音出力ユニット(メイン音出力手段)
130S … サブ音出力ユニット(サブ音出力手段)
140 … 集音ユニット(ノイズ測定手段の一部)
220S … レベル調整部(音声補正手段の一部)
230 … サブ音抽出部(抽出手段)
240 … 遅延部(音声補正手段の一部)
250 … 騒音レベル検出部(ノイズ測定手段の一部)
DESCRIPTION OF SYMBOLS 100 ... Sound apparatus 130M ... Main sound output unit (main sound output means)
130S: Sub sound output unit (sub sound output means)
140 ... Sound collecting unit (part of noise measuring means)
220S ... Level adjustment unit (part of sound correction means)
230 ... Sub sound extraction unit (extraction means)
240 ... delay unit (part of sound correction means)
250 ... Noise level detector (part of noise measurement means)

Claims (10)

所定空間へ向けて音を出力するメイン音出力手段と;
前記メイン音出力手段から出力される音の子音成分と相関があると推定される特定成分を抽出する抽出手段と;
前記メイン音出力手段の音出力位置よりも前記所定空間内の特定聴取位置に近い位置に音出力位置が設定され、前記特定聴取位置へ向けて音を出力するサブ音出力手段と;
前記メイン音出力手段の音出力位置、前記サブ音出力手段の音出力位置及び前記特定聴取位置の位置関係を考慮して定まる音出力タイミング及び音量で、前記抽出手段により抽出された成分の音を前記サブ音出力手段から出力させる音声補正手段と;
を備えることを特徴とする音響装置。
Main sound output means for outputting sound toward a predetermined space;
Extraction means for extracting a specific component estimated to be correlated with a consonant component of the sound output from the main sound output means;
Sub sound output means for setting the sound output position closer to the specific listening position in the predetermined space than the sound output position of the main sound output means, and outputting the sound toward the specific listening position;
The sound of the component extracted by the extraction means is obtained at a sound output timing and volume determined in consideration of the positional relationship between the sound output position of the main sound output means, the sound output position of the sub sound output means, and the specific listening position. Audio correction means for outputting from the sub sound output means;
An acoustic device comprising:
前記特定成分は、前記メイン音出力手段から出力される音における第3ホルマント周波数及び第4ホルマント周波数を含み、第2ホルマント周波数を含まない連続的な周波数範囲の成分である、ことを特徴とする請求項1に記載の音響装置。   The specific component is a component in a continuous frequency range including the third formant frequency and the fourth formant frequency in the sound output from the main sound output unit and not including the second formant frequency. The acoustic device according to claim 1. 前記音声補正手段は、前記サブ音出力手段から出力された前記特定成分を有する音に対応する前記メイン音出力手段から出力された前記特定成分の音よりも遅れて前記特定聴取位置に到達するように、前記サブ音出力手段からの音出力を制御する、ことを特徴とする請求項1又は2に記載の音響装置。   The sound correcting means reaches the specific listening position later than the sound of the specific component output from the main sound output means corresponding to the sound having the specific component output from the sub sound output means. The sound apparatus according to claim 1, wherein a sound output from the sub sound output means is controlled. 前記音声補正手段は、前記サブ音出力手段から出力された前記特定成分を有する音の前記特定聴取位置における音量を、前記メイン音出力手段から出力された前記特定成分の音の前記特定聴取位置における音量よりも小さくなるように、前記サブ音出力手段からの音出力を制御する、ことを特徴とする請求項1〜3のいずれか一項に記載の音響装置。   The sound correction unit is configured to calculate the volume at the specific listening position of the sound having the specific component output from the sub-sound output unit at the specific listening position of the sound of the specific component output from the main sound output unit. The sound apparatus according to any one of claims 1 to 3, wherein the sound output from the sub sound output means is controlled so as to be smaller than a volume. 前記特定聴取位置におけるノイズレベルを測定するノイズ測定手段を更に備え、
前記音声補正手段は、前記ノイズ測定手段による測定結果を更に考慮して、前記サブ音出力手段から出力させる音の音量を定める、
ことを特徴とする請求項1〜4のいずれか一項に記載の音響装置。
Noise measuring means for measuring a noise level at the specific listening position;
The sound correction means determines the sound volume to be output from the sub sound output means, further considering the measurement result by the noise measurement means.
The acoustic device according to any one of claims 1 to 4, wherein
前記サブ音出力手段の音出力位置は、前記メイン音出力手段の音出力位置と前記特定聴取位置とを結ぶ線分の近傍に設定される、ことを特徴とする請求項1〜5のいずれか一項に記載の音響装置。   6. The sound output position of the sub sound output means is set in the vicinity of a line segment connecting the sound output position of the main sound output means and the specific listening position. The acoustic device according to one item. 移動体に搭載されるとともに、前記所定空間が前記移動体の内部空間である、ことを特徴とする請求項1〜6のいずれか一項に記載の音響装置。   The acoustic device according to claim 1, wherein the acoustic device is mounted on a moving body, and the predetermined space is an internal space of the moving body. メイン音出力手段から所定空間へ向けて音を出力するメイン音出力工程と;
前記メイン音出力手段から出力される音の子音成分と相関があると推定される特定成分を抽出する抽出工程と;
前記メイン音出力手段の音出力位置よりも前記所定空間内の特定聴取位置に近い位置に音出力位置が設定され、前記特定聴取位置へ向けて音を出力するサブ音出力手段の音出力位置、前記メイン音出力手段の音出力位置及び特定聴取位置の位置関係を考慮して定まる音出力タイミング及び音量で、前記特定成分の音を前記サブ音出力手段から出力する補正音出力工程と;を備える音声補正方法。
A main sound output step of outputting sound from the main sound output means toward a predetermined space;
An extraction step of extracting a specific component estimated to be correlated with a consonant component of the sound output from the main sound output means;
The sound output position of the sub sound output means for setting the sound output position to a position closer to the specific listening position in the predetermined space than the sound output position of the main sound output means, and outputting the sound toward the specific listening position; A correction sound output step of outputting the sound of the specific component from the sub sound output means at a sound output timing and volume determined in consideration of the positional relationship between the sound output position of the main sound output means and the specific listening position. Audio correction method.
請求項8に記載の音声補正方法を、演算手段に実行させる、ことを特徴とする音声補正プログラム。   A sound correction program for causing a calculation means to execute the sound correction method according to claim 8. 請求項9に記載の音声補正プログラムが、演算手段により読み取り可能に記録されている、ことを特徴とする記録媒体。   10. A recording medium in which the audio correction program according to claim 9 is recorded so as to be readable by an arithmetic means.
JP2007053789A 2007-03-05 2007-03-05 Acoustic device and sound correction method Expired - Fee Related JP4939259B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007053789A JP4939259B2 (en) 2007-03-05 2007-03-05 Acoustic device and sound correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007053789A JP4939259B2 (en) 2007-03-05 2007-03-05 Acoustic device and sound correction method

Publications (2)

Publication Number Publication Date
JP2008216623A true JP2008216623A (en) 2008-09-18
JP4939259B2 JP4939259B2 (en) 2012-05-23

Family

ID=39836738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007053789A Expired - Fee Related JP4939259B2 (en) 2007-03-05 2007-03-05 Acoustic device and sound correction method

Country Status (1)

Country Link
JP (1) JP4939259B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145127A1 (en) * 2012-03-27 2013-10-03 パイオニア株式会社 Sound reproduction device
JPWO2013145127A1 (en) * 2012-03-27 2015-08-03 パイオニア株式会社 Audio playback device

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5741014A (en) * 1980-08-25 1982-03-06 Hitachi Ltd Mobile acoustic apparatus
JPS63265300A (en) * 1987-04-22 1988-11-01 シャープ株式会社 Voice feature extraction system
JPH0216610A (en) * 1988-07-05 1990-01-19 Fujitsu Ltd Constant-voltage power supply circuit
JPH0794985A (en) * 1993-09-17 1995-04-07 Sumitomo Electric Ind Ltd Sound volume control circuit for on-vehicle audio device
JPH0968997A (en) * 1995-08-30 1997-03-11 Sony Corp Method and device for processing voice
JPH1132395A (en) * 1997-07-11 1999-02-02 Sony Corp Processing circuit for audio signal
JP2000341800A (en) * 1999-05-27 2000-12-08 Fujitsu Ten Ltd Acoustic system in vehicle compartment
JP2001112083A (en) * 1999-10-13 2001-04-20 Kajima Corp Sound image localizing public address method utilizing distributed speakers and public address system
JP2004032463A (en) * 2002-06-27 2004-01-29 Kajima Corp Method for dispersively speech amplifying to localize sound image by following to speaker movement and dispersively speech amplifying system
JP2004104210A (en) * 2002-09-05 2004-04-02 Takenaka Komuten Co Ltd Acoustic device, acoustic facility and building
JP2005223445A (en) * 2004-02-03 2005-08-18 Sony Corp Volume controller
JP2006203683A (en) * 2005-01-21 2006-08-03 Univ Of Tokushima Auditory sense auxiliary equipment, sound signal processing method, sound signal processing program, computer-readable recording medium, and recording equipment
JP2006279548A (en) * 2005-03-29 2006-10-12 Fujitsu Ten Ltd On-vehicle speaker system and audio device
JP2007036608A (en) * 2005-07-26 2007-02-08 Yamaha Corp Headphone set
JP2007036610A (en) * 2005-07-26 2007-02-08 Yamaha Corp Sound production device
JP2007282011A (en) * 2006-04-10 2007-10-25 Matsushita Electric Ind Co Ltd Loudspeaker apparatus

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5741014A (en) * 1980-08-25 1982-03-06 Hitachi Ltd Mobile acoustic apparatus
JPS63265300A (en) * 1987-04-22 1988-11-01 シャープ株式会社 Voice feature extraction system
JPH0216610A (en) * 1988-07-05 1990-01-19 Fujitsu Ltd Constant-voltage power supply circuit
JPH0794985A (en) * 1993-09-17 1995-04-07 Sumitomo Electric Ind Ltd Sound volume control circuit for on-vehicle audio device
JPH0968997A (en) * 1995-08-30 1997-03-11 Sony Corp Method and device for processing voice
JPH1132395A (en) * 1997-07-11 1999-02-02 Sony Corp Processing circuit for audio signal
JP2000341800A (en) * 1999-05-27 2000-12-08 Fujitsu Ten Ltd Acoustic system in vehicle compartment
JP2001112083A (en) * 1999-10-13 2001-04-20 Kajima Corp Sound image localizing public address method utilizing distributed speakers and public address system
JP2004032463A (en) * 2002-06-27 2004-01-29 Kajima Corp Method for dispersively speech amplifying to localize sound image by following to speaker movement and dispersively speech amplifying system
JP2004104210A (en) * 2002-09-05 2004-04-02 Takenaka Komuten Co Ltd Acoustic device, acoustic facility and building
JP2005223445A (en) * 2004-02-03 2005-08-18 Sony Corp Volume controller
JP2006203683A (en) * 2005-01-21 2006-08-03 Univ Of Tokushima Auditory sense auxiliary equipment, sound signal processing method, sound signal processing program, computer-readable recording medium, and recording equipment
JP2006279548A (en) * 2005-03-29 2006-10-12 Fujitsu Ten Ltd On-vehicle speaker system and audio device
JP2007036608A (en) * 2005-07-26 2007-02-08 Yamaha Corp Headphone set
JP2007036610A (en) * 2005-07-26 2007-02-08 Yamaha Corp Sound production device
JP2007282011A (en) * 2006-04-10 2007-10-25 Matsushita Electric Ind Co Ltd Loudspeaker apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145127A1 (en) * 2012-03-27 2013-10-03 パイオニア株式会社 Sound reproduction device
JPWO2013145127A1 (en) * 2012-03-27 2015-08-03 パイオニア株式会社 Audio playback device
US9503817B2 (en) 2012-03-27 2016-11-22 Pioneer Corporation Sound reproduction device

Also Published As

Publication number Publication date
JP4939259B2 (en) 2012-05-23

Similar Documents

Publication Publication Date Title
US9892721B2 (en) Information-processing device, information processing method, and program
JP6338425B2 (en) Vibroacoustic apparatus, vibroacoustic output method, and vibroacoustic program
JP2015206989A (en) Information processing device, information processing method, and program
CN109983782B (en) Conversation assistance device and conversation assistance method
JP2006217210A (en) Audio device
JP4939259B2 (en) Acoustic device and sound correction method
JP4680099B2 (en) Audio processing apparatus and audio processing method
JP2012163692A (en) Voice signal processing system, voice signal processing method, and voice signal processing method program
KR20200141253A (en) Vehicle and controlling method of vehicle
JPWO2010073336A1 (en) Sound field correction device
JP2008096487A (en) Engine sound modification device
JP2006333396A (en) Audio signal loudspeaker
JP2009086481A (en) Sound device, reverberations-adding method, reverberations-adding program, and recording medium thereof
JP2008061113A (en) Acoustic apparatus and sound volume impression correction method
WO2009116150A1 (en) Overtone production device, acoustic device, and overtone production method
JP2005286876A (en) Environmental sound presentation instrument and hearing-aid adjusting arrangement
JP4928967B2 (en) AUDIO DEVICE, ITS METHOD, PROGRAM, AND RECORDING MEDIUM
JP2011035584A (en) Acoustic device, phase correction method, phase correction program, and recording medium
JP6798561B2 (en) Signal processing equipment, signal processing methods and programs
JP2008078976A (en) Acoustic device
JP5054477B2 (en) Hearing aid
JP2010217268A (en) Low delay signal processor generating signal for both ears enabling perception of direction of sound source
JP2006074409A (en) Voice output device
US20240009421A1 (en) Emotional care apparatus and method thereof
JP4652709B2 (en) On-vehicle acoustic device, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120224

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4939259

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees