JP2015050493A - Information processing unit, av receiver, and program - Google Patents

Information processing unit, av receiver, and program Download PDF

Info

Publication number
JP2015050493A
JP2015050493A JP2013178773A JP2013178773A JP2015050493A JP 2015050493 A JP2015050493 A JP 2015050493A JP 2013178773 A JP2013178773 A JP 2013178773A JP 2013178773 A JP2013178773 A JP 2013178773A JP 2015050493 A JP2015050493 A JP 2015050493A
Authority
JP
Japan
Prior art keywords
sound
image
listening environment
pseudo
field effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013178773A
Other languages
Japanese (ja)
Other versions
JP6326743B2 (en
Inventor
篤志 臼井
Atsushi Usui
篤志 臼井
雄太 湯山
Yuta Yuyama
雄太 湯山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2013178773A priority Critical patent/JP6326743B2/en
Publication of JP2015050493A publication Critical patent/JP2015050493A/en
Application granted granted Critical
Publication of JP6326743B2 publication Critical patent/JP6326743B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Stereophonic System (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve an information processing unit that provides information that a user can intuitively understand that what pseudo reflected sound is generated.SOLUTION: In a space having a hearing position G as an original point, a voice analyzing section 201 uses, as a distance D, a delay time from a direct sound included in sound field effect information, and displays an image of a pseudo reflected sound in a position determined by a direction from the hearing position G. The size L of the image of a pseudo reflected sound is changed according to the ratio of the level of reflected sound to the level of direct sound. Using input of a predetermined level or higher as direct sound, the voice analyzing section 201 calculates the display position of pseudo reflected sound, and generates an image of the pseudo reflected sound in a calculated display position. For example, if an R channel, L channel, and C channel for an input audio signal simultaneously receive input of a predetermined level or higher, a display position calculated from these direct sounds and the image 501 of a pseudo reflected sound corresponding to the level are generated.

Description

この発明は、オーディオ信号に音場効果を付与する装置に接続される、あるいは当該装置に内蔵される情報処理装置に関する。   The present invention relates to an information processing apparatus that is connected to a device that imparts a sound field effect to an audio signal or is built in the device.

従来、コンテンツの音に音場効果を付与する音場制御装置が提案されている(例えば、特許文献1参照。)。音場効果とは、コンサートホール等の音響空間で発生する反射音を模擬した擬似反射音を再生することで、部屋に居ながらにして実際のコンサートホール等の別の空間に居るような臨場感を聴取者に体感させるものである。   Conventionally, there has been proposed a sound field control device that imparts a sound field effect to the sound of content (see, for example, Patent Document 1). The sound field effect is the reproduction of simulated reflection sound that simulates the reflection sound generated in an acoustic space such as a concert hall, so that you can feel like you are in another space such as an actual concert hall while staying in the room. The listener can experience this.

図8は、音場効果を説明するための概念図である。図8(A)は音場制御装置に接続するスピーカの配置図であり、図8(B)は音場効果を付与した音を再生した場合の直接音及び擬似反射音の音源分布のイメージ図であり、図8(C)はある音響空間のインパルス応答を示す図(直接音と擬似反射音の発生時間とレベルを示すグラフ)である。   FIG. 8 is a conceptual diagram for explaining the sound field effect. FIG. 8A is an arrangement diagram of speakers connected to the sound field control device, and FIG. 8B is an image diagram of the sound source distribution of the direct sound and the pseudo-reflected sound when the sound with the sound field effect is reproduced. FIG. 8C is a diagram showing an impulse response of a certain acoustic space (a graph showing the generation time and level of the direct sound and the pseudo reflection sound).

音場制御装置は、まず図8(A)に示すように、聴取位置Jの周囲に設置された複数(この例では5つ)のスピーカSP1〜スピーカSP5からの再生音の音量および到達タイミングが聴取位置Jにおいて同等になるように、予め各スピーカに供給する信号のゲインや遅延量を調整する。   First, as shown in FIG. 8A, the sound field control device has a volume and arrival timing of reproduced sounds from a plurality (five in this example) of speakers SP1 to SP5 installed around the listening position J. The gain and delay amount of the signal supplied to each speaker are adjusted in advance so as to be equivalent at the listening position J.

そして、音場制御装置は、ユーザが選択した音響空間(例えばコンサートホール)に対応する音場効果情報に基づいて、入力されたオーディオ信号から擬似反射音に対応した信号を生成し、元のオーディオ信号に付与する。音場効果情報は、ある音響空間で発生する反射音群のインパルス応答(図8(C)を参照)や反射音群の音源位置を示す情報を含むものである。音場制御装置は、音場効果情報に基づいて、各スピーカに供給する信号のゲイン比率および遅延量を変化させることで、図8(B)に示すように、複数の音源位置に擬似反射音を生成する。   Then, the sound field control device generates a signal corresponding to the pseudo reflection sound from the input audio signal based on the sound field effect information corresponding to the acoustic space (for example, concert hall) selected by the user, and the original audio Append to signal. The sound field effect information includes information indicating the impulse response of the reflected sound group generated in a certain acoustic space (see FIG. 8C) and the sound source position of the reflected sound group. Based on the sound field effect information, the sound field control device changes the gain ratio and the delay amount of the signal supplied to each speaker, and as shown in FIG. Is generated.

特許第2755208号公報Japanese Patent No. 2755208

しかし、ユーザは、選択する音響空間について、どのような擬似反射音が生成されているのか(どの方向からどの程度の音量の擬似反射音が到来するのか)、直感的に理解し難い。   However, it is difficult for the user to intuitively understand what pseudo-reflected sound is generated for the acoustic space to be selected (how much pseudo-reflected sound comes from which direction).

そこで、この発明は、どのような擬似反射音が生成されているのか、ユーザが直感的に理解することができるような情報を提供する情報処理装置を実現することを目的とする。   Therefore, an object of the present invention is to realize an information processing apparatus that provides information that allows a user to intuitively understand what kind of pseudo-reflected sound is generated.

この発明の情報処理装置は、聴取環境を示す情報を取得し、当該聴取環境を示す情報に基づいて、現在の聴取環境に対応する映像を生成する聴取環境映像生成手段と、オーディオ信号に擬似反射音を付与するための音場効果情報を取得し、当該音場効果情報に含まれる前記擬似反射音の音源位置、発生タイミング、およびレベルを示す情報に基づいて、前記聴取環境に対応する映像に擬似反射音の映像を重畳する音場効果映像生成手段と、を備えたことを特徴とする。   The information processing apparatus according to the present invention obtains information indicating a listening environment and generates a video corresponding to the current listening environment based on the information indicating the listening environment, and pseudo-reflection on the audio signal. Sound field effect information for providing sound is acquired, and based on information indicating the sound source position, generation timing, and level of the pseudo-reflected sound included in the sound field effect information, video corresponding to the listening environment is displayed. Sound field effect image generation means for superimposing an image of the pseudo-reflected sound.

このように、本発明の情報処理装置は、聴取環境を示す情報(例えば部屋の大きさを示す情報)を取得し、聴取環境を模式的に示した映像(例えば部屋を立体的に示した映像)を生成する。生成された映像は、自装置の表示器に表示される、または映像信号として他の表示装置に出力され、当該他の表示装置で表示される。聴取環境を示す情報は、例えばユーザが複数のテンプレートの中から選択したものが取得される。または、聴取環境に設置されたスピーカから測定音(ノイズ音等)を出力し、聴取位置に設置したマイクで収音することで、聴取環境の伝達特性を測定し、測定結果から聴取環境(部屋の大きさ等)を推定してもよい。   As described above, the information processing apparatus of the present invention acquires information indicating the listening environment (for example, information indicating the size of the room), and schematically shows the listening environment (for example, a video showing the room in three dimensions). ) Is generated. The generated video is displayed on the display device of the device itself, or output to another display device as a video signal and displayed on the other display device. As the information indicating the listening environment, for example, information selected by the user from a plurality of templates is acquired. Or, output the measurement sound (noise sound, etc.) from the speaker installed in the listening environment, and pick up the sound with the microphone installed at the listening position, measure the transfer characteristics of the listening environment, and use the measurement results to determine the listening environment (room) May be estimated.

そして、このような部屋の映像に擬似反射音の映像が重ねて表示されるため、どのような擬似反射音が生成されているのか、ユーザが直感的に理解することができる。   And since the image | video of a pseudo reflection sound is superimposed and displayed on the image | video of such a room, a user can understand intuitively what kind of pseudo reflection sound is produced | generated.

なお、音場効果映像生成手段は、音場効果情報に含まれる前記擬似反射音の音源位置、発生タイミング、およびレベルを示す情報に基づいて、擬似反射音の映像を変化させることが好ましい。音場効果情報は、音源位置として聴取位置からの方位(水平角度および垂直角度を示す情報)、直接音からの遅延時間、および直接音のレベルに対する反射音のレベルの割合、からなる。したがって、音場効果映像生成手段は、聴取位置を原点とする3次元空間において、遅延時間を距離として、聴取位置からの方位および距離で定まる位置に擬似反射音の映像を表示し、レベルに応じて擬似反射音の大きさを変化させる。   The sound field effect image generating means preferably changes the image of the pseudo reflection sound based on information indicating the sound source position, generation timing, and level of the pseudo reflection sound included in the sound field effect information. The sound field effect information includes an orientation from the listening position (information indicating a horizontal angle and a vertical angle) as a sound source position, a delay time from the direct sound, and a ratio of the reflected sound level to the direct sound level. Therefore, the sound field effect image generating means displays the image of the pseudo reflected sound at a position determined by the azimuth and distance from the listening position, with the delay time as the distance, in the three-dimensional space having the listening position as the origin, and according to the level. To change the magnitude of the pseudo reflection sound.

また、聴取環境を示す情報には、当該聴取環境におけるスピーカの配置を示す情報が含まれ、聴取環境映像生成手段は、聴取環境に対応する映像において、スピーカの配置に対応する映像を表示することが好ましい。   Further, the information indicating the listening environment includes information indicating the arrangement of the speakers in the listening environment, and the listening environment video generation means displays the video corresponding to the speaker arrangement in the video corresponding to the listening environment. Is preferred.

また、聴取環境に対応する映像に、音場効果情報に対応する音響空間の映像を重畳することで、音場効果によりどのような音響空間が再現されているのかを提示するようにしてもよい。   In addition, by superimposing the image of the acoustic space corresponding to the sound field effect information on the image corresponding to the listening environment, what kind of acoustic space is reproduced by the sound field effect may be presented. .

なお、本発明の情報処理装置は、オーディオ信号に擬似反射音を付与して出力するオーディオ信号処理部と、聴取環境に対応する映像の信号を出力する映像信号出力部と、を備えたAVレシーバに内蔵される機能であってもよいし、スマートフォンやパーソナルコンピュータ等の情報処理装置に実行されるプログラムとしても実現可能である。   The information processing apparatus according to the present invention includes an audio signal processing unit that outputs a pseudo reflection sound to an audio signal, and a video signal output unit that outputs a video signal corresponding to a listening environment. It may be a function built in the computer, or may be realized as a program executed by an information processing apparatus such as a smartphone or a personal computer.

この発明によれば、どのような擬似反射音が生成されているのか、ユーザが直感的に理解することができる。   According to the present invention, the user can intuitively understand what kind of pseudo-reflected sound is generated.

オーディオシステムの構成を示したブロック図である。It is the block diagram which showed the structure of the audio system. AVレシーバおよびユーザ端末の機能ブロック図を示した図である。It is the figure which showed the functional block diagram of AV receiver and a user terminal. 測定音の測定結果(時間軸)を示した図である。It is the figure which showed the measurement result (time axis) of the measurement sound. 周波数特性を示した図である。It is the figure which showed the frequency characteristic. 図5(A)は聴取環境を模式的に示した映像であり、図5(B)は音響空間の映像を示した図である。FIG. 5A is an image schematically showing a listening environment, and FIG. 5B is a diagram showing an image of an acoustic space. 図6(A)は聴取環境を模式的に示した映像に音響空間の映像を重畳した場合の図であり、図6(B)は直接音および擬似反射音の映像を重畳した場合の図である。FIG. 6A is a diagram in the case where the image of the acoustic space is superimposed on the image schematically showing the listening environment, and FIG. 6B is a diagram in the case where the image of the direct sound and the pseudo reflected sound is superimposed. is there. 擬似反射音の映像を生成する手法を説明する図である。It is a figure explaining the method of producing | generating the image | video of a pseudo reflection sound. 音場効果を説明するための概念図である。It is a conceptual diagram for demonstrating a sound field effect.

図1(A)は、本発明の情報処理装置を備えたオーディオシステムの構成を示すブロック図である。図1(B)は、聴取環境を平面視した模式図である。オーディオシステムは、AVレシーバ1、ユーザ端末2、マイク3、コンテンツ再生機器5、表示装置7、および複数のスピーカ10(スピーカ10L、スピーカ10R、スピーカ10SL、スピーカ10SR、およびスピーカ10C)を備えている。   FIG. 1A is a block diagram illustrating a configuration of an audio system including the information processing apparatus of the present invention. FIG. 1B is a schematic view of the listening environment in plan view. The audio system includes an AV receiver 1, a user terminal 2, a microphone 3, a content reproduction device 5, a display device 7, and a plurality of speakers 10 (speaker 10L, speaker 10R, speaker 10SL, speaker 10SR, and speaker 10C). .

複数のスピーカ10は、聴取環境において、聴取位置Gの周囲に設置されている。この例では、聴取位置の正面(以下、聴取位置の正面を0°の方位とし、時計回りに正の角度とする。)にスピーカ10Cが設置され、聴取位置の右前方(45°の方位)にスピーカ10Rが設置され、聴取位置の右後方(135°の方位)にスピーカ10SRが設置され、聴取位置の左後方(225°の方位)にスピーカ10SLが設置され、聴取位置の左前方(315°の方位)にスピーカ10Lが設置される態様を示す。   The plurality of speakers 10 are installed around the listening position G in the listening environment. In this example, the speaker 10C is installed in front of the listening position (hereinafter, the front of the listening position is set to 0 ° azimuth and is set to a positive angle in the clockwise direction), and right front of the listening position (45 ° azimuth). The speaker 10R is installed at the right rear (135 ° azimuth) of the listening position, the speaker 10SL is installed at the left rear (225 ° azimuth) of the listening position, and the left front (315) of the listening position. A mode in which the speaker 10L is installed in the direction (°).

AVレシーバ1は、入力部11、DSP12、映像処理部13、CPU14、メモリ15、出力部16、およびネットワークI/F17を備えている。   The AV receiver 1 includes an input unit 11, a DSP 12, a video processing unit 13, a CPU 14, a memory 15, an output unit 16, and a network I / F 17.

入力部11は、コンテンツ再生機器5からコンテンツデータを受信して、当該コンテンツデータから抽出されるオーディオ信号をDSP12に出力するとともに、コンテンツデータから抽出される映像信号を映像処理部13に出力する。なお、入力部11は、オーディオ信号と映像信号とをそれぞれ個別に外部機器から入力することも可能であるし、アナログ信号を受信した場合には、デジタル信号に変換して出力する機能も有する。   The input unit 11 receives content data from the content reproduction device 5, outputs an audio signal extracted from the content data to the DSP 12, and outputs a video signal extracted from the content data to the video processing unit 13. Note that the input unit 11 can individually input an audio signal and a video signal from external devices, and also has a function of converting an analog signal into a digital signal when the analog signal is received.

CPU14は、メモリ15に記憶されているプログラムを読み出し、入力部11、DSP12、映像処理部13、およびネットワークI/F17の制御を行う。   The CPU 14 reads a program stored in the memory 15 and controls the input unit 11, DSP 12, video processing unit 13, and network I / F 17.

映像処理部13は、映像信号出力部に相当し、CPU14の制御に従って、入力部11から入力された映像信号に所定の処理(例えばアップスケール処理等)を施して表示装置7に出力する。   The video processing unit 13 corresponds to a video signal output unit, and performs predetermined processing (for example, upscaling processing) on the video signal input from the input unit 11 and outputs the video signal to the display device 7 under the control of the CPU 14.

DSP12は、オーディオ信号処理部に相当し、CPU14の制御に従って、入力部11から入力されたオーディオ信号に所定の処理を施す。ここでは、音場効果を付与する場合について説明する。   The DSP 12 corresponds to an audio signal processing unit, and performs predetermined processing on the audio signal input from the input unit 11 under the control of the CPU 14. Here, a case where a sound field effect is applied will be described.

図2は、AVレシーバ1およびユーザ端末2の機能ブロック図を示した図である。AVレシーバ1の音場効果付与部101、聴取環境測定部102、および加算器103は、DSP12によって実現される。音場効果付与部101は、入力されたオーディオ信号から擬似反射音を生成する。音場効果付与部101で生成された擬似反射音は、加算器103で元のオーディオ信号に加算されて出力される。   FIG. 2 is a functional block diagram of the AV receiver 1 and the user terminal 2. The sound field effect applying unit 101, the listening environment measuring unit 102, and the adder 103 of the AV receiver 1 are realized by the DSP 12. The sound field effect applying unit 101 generates a pseudo reflected sound from the input audio signal. The pseudo reflected sound generated by the sound field effect applying unit 101 is added to the original audio signal by the adder 103 and output.

擬似反射音は、メモリ15に記憶されている音場効果情報に基づいて生成される。音場効果情報は、ある音響空間で発生する反射音群のインパルス応答、および反射音群の音源位置を示す情報を含むものである。具体的には、各擬似反射音の聴取位置からの方位(水平方位および垂直方位)を示す情報、直接音からの遅延時間(発生タイミングを示す情報)、および直接音のレベルに対する反射音のレベルの割合を示す情報(レベルを示す情報)が含まれている。   The pseudo reflected sound is generated based on the sound field effect information stored in the memory 15. The sound field effect information includes information indicating an impulse response of a reflected sound group generated in a certain acoustic space and a sound source position of the reflected sound group. Specifically, information indicating the azimuth (horizontal azimuth and vertical azimuth) from the listening position of each pseudo-reflected sound, delay time from the direct sound (information indicating the generation timing), and the level of the reflected sound relative to the level of the direct sound The information indicating the ratio (information indicating the level) is included.

音場効果付与部101は、ユーザが選択した音場効果に対応する音場効果情報をメモリ15から読み出し、読み出した音場効果情報に基づいて、各スピーカに供給するオーディオ信号の分配ゲイン比率を変化させることで、擬似反射音を生成する。例えば、図1(B)に示すように、聴取位置Gの左側(270°の水平方位)に擬似反射音を生成する場合には、音源位置に最も近い2つのスピーカ10Lおよびスピーカ10SLに、所定の遅延量および所定のゲイン比率(例えば1:1)でオーディオ信号を供給する。図1(B)においては平面図を示し、水平方位のみ説明したが、垂直方位についても同様に、音源位置に最も近い2つのスピーカ10にオーディオ信号を供給することで、擬似反射音を生成することができる。ただし、全てのスピーカ10が同じ高さに存在する場合は、垂直方位については考慮しない。また、入力部11から入力されるオーディオ信号がマルチチャンネルである場合、音場効果付与部101は、モノラル信号にミックスダウンした信号から擬似反射音を生成する。   The sound field effect providing unit 101 reads out sound field effect information corresponding to the sound field effect selected by the user from the memory 15, and based on the read sound field effect information, determines the distribution gain ratio of the audio signal supplied to each speaker. By changing, a pseudo reflected sound is generated. For example, as shown in FIG. 1B, in the case where a pseudo reflected sound is generated on the left side (270 ° horizontal orientation) of the listening position G, the two speakers 10L and 10SL closest to the sound source position are given predetermined sounds. An audio signal is supplied with a delay amount and a predetermined gain ratio (eg, 1: 1). In FIG. 1B, a plan view is shown and only the horizontal direction has been described. Similarly, in the vertical direction as well, a pseudo reflected sound is generated by supplying audio signals to the two speakers 10 closest to the sound source position. be able to. However, when all the speakers 10 are at the same height, the vertical orientation is not considered. When the audio signal input from the input unit 11 is multi-channel, the sound field effect imparting unit 101 generates a pseudo reflected sound from a signal mixed down to a monaural signal.

図1(A)に戻り、DSP12の出力オーディオ信号は、出力部16に入力される。出力部16は、当該出力オーディオ信号を、スピーカ10L、スピーカ10R、スピーカ10SL、スピーカ10SR、およびスピーカ10Cに出力する。   Returning to FIG. 1A, the output audio signal of the DSP 12 is input to the output unit 16. The output unit 16 outputs the output audio signal to the speaker 10L, the speaker 10R, the speaker 10SL, the speaker 10SR, and the speaker 10C.

そして、この実施形態のオーディオシステムは、聴取環境を模式的に示した映像(図5(A)を参照)を生成し、上記音場効果付与部101で生成される擬似反射音に対応する映像(図6(B)を参照)と音場効果情報に対応する音響空間の映像(図5(B)を参照)とを重畳することで、どのような音響空間が再現され、どのような擬似反射音が生成されているのか、ユーザが直感的に理解することができるものである。   Then, the audio system of this embodiment generates an image (see FIG. 5A) schematically showing the listening environment, and an image corresponding to the pseudo reflected sound generated by the sound field effect applying unit 101. By superimposing the image of the acoustic space corresponding to the sound field effect information (see FIG. 5B) (see FIG. 6B), what kind of acoustic space is reproduced and what kind of simulation The user can intuitively understand whether the reflected sound is generated.

このような映像は、ユーザ端末2で生成され、当該ユーザ端末2の表示器(ここではタッチパネル24)で表示される。   Such a video is generated by the user terminal 2 and displayed on the display device (here, the touch panel 24) of the user terminal 2.

ユーザ端末2は、スマートフォンやパーソナルコンピュータ等の情報処理装置であり、ネットワークI/F21、CPU22、メモリ23、およびタッチパネル24を備えている。AVレシーバ1とユーザ端末2は、ネットワークI/F17およびネットワークI/F21を介して接続されている。   The user terminal 2 is an information processing apparatus such as a smartphone or a personal computer, and includes a network I / F 21, a CPU 22, a memory 23, and a touch panel 24. The AV receiver 1 and the user terminal 2 are connected via a network I / F 17 and a network I / F 21.

CPU22は、メモリ23からプログラムを読み出して、ネットワークI/F21およびタッチパネル24を制御する。図2に示すように、ユーザ端末2は、当該プログラムにより、機能的に、音声解析部201、聴取環境解析部202、および表示部203を実行する。   The CPU 22 reads a program from the memory 23 and controls the network I / F 21 and the touch panel 24. As illustrated in FIG. 2, the user terminal 2 functionally executes a voice analysis unit 201, a listening environment analysis unit 202, and a display unit 203 according to the program.

まず、聴取環境解析部202について説明する。聴取環境解析部202は、本発明の聴取環境映像生成手段に相当し、聴取環境を示す情報(例えば部屋の大きさを示す情報)を取得し、聴取環境を模式的に示した映像(例えば部屋を立体的に示した映像)を生成する。   First, the listening environment analysis unit 202 will be described. The listening environment analysis unit 202 corresponds to the listening environment image generation means of the present invention, acquires information indicating the listening environment (for example, information indicating the size of the room), and an image (for example, a room) schematically showing the listening environment Is generated in a three-dimensional manner.

聴取環境を示す情報は、例えばタッチパネル24に複数のテンプレートを表示し、ユーザが表示されたテンプレートから聴取環境に近いものを選択することで得られる。テンプレートは、例えば図5(A)のような部屋を立体的に表した映像200である。選択されたテンプレートが現在の聴取環境に対応する映像200として生成される。生成された聴取環境に対応する映像200は、表示部203に出力される。   The information indicating the listening environment is obtained, for example, by displaying a plurality of templates on the touch panel 24 and selecting a template close to the listening environment from the displayed templates. The template is, for example, an image 200 that three-dimensionally represents a room as shown in FIG. The selected template is generated as an image 200 corresponding to the current listening environment. Video 200 corresponding to the generated listening environment is output to display unit 203.

なお、AVレシーバ1の聴取環境測定部102がスピーカ10から測定音(ホワイトノイズ等)を出力し、当該測定音を聴取位置Gに設置したマイク3で収音することで、聴取環境の伝達特性を測定し、この測定結果を受信することで聴取環境(部屋の大きさ等)を推定する、あるいは推定した聴取環境から上記テンプレートを絞り込むことも可能である。   Note that the listening environment measurement unit 102 of the AV receiver 1 outputs measurement sound (white noise or the like) from the speaker 10 and picks up the measurement sound with the microphone 3 installed at the listening position G, thereby transmitting the listening environment transfer characteristics. It is also possible to estimate the listening environment (room size, etc.) by receiving the measurement result, or to narrow down the template from the estimated listening environment.

AVレシーバ1の聴取環境測定部102は、例えば図3(A)に示すように、スピーカ10から測定音を出力してから所定レベル以上の信号をマイク3から入力するまでの経過時間および各信号の音圧レベルを示す情報を、測定結果としてユーザ端末2の聴取環境解析部202に出力する。最も経過時間が短い高レベルの信号は、スピーカ10からマイク3への直接音とみなされる。直接音の後に観測される高レベルの信号は、スピーカ10から出力された測定音が部屋の壁面等に反射してからマイク3に至る反射音であるとみなされる。聴取環境測定部102は、このような測定を全てのスピーカ10について行う。   For example, as shown in FIG. 3A, the listening environment measuring unit 102 of the AV receiver 1 includes an elapsed time from when the measurement sound is output from the speaker 10 until a signal of a predetermined level or more is input from the microphone 3, and each signal. Information indicating the sound pressure level is output to the listening environment analysis unit 202 of the user terminal 2 as a measurement result. The high level signal with the shortest elapsed time is regarded as a direct sound from the speaker 10 to the microphone 3. A high-level signal observed after the direct sound is regarded as a reflected sound that reaches the microphone 3 after the measurement sound output from the speaker 10 is reflected on the wall surface of the room. The listening environment measurement unit 102 performs such measurement for all the speakers 10.

なお、AVレシーバ1は、上記直接音に対応する信号の経過時間および音圧レベルに基づいて、各スピーカ10から出力される音の到達タイミングおよび再生音の音量が聴取位置Gにおいて同等になるように、予め各スピーカ10に供給する信号のゲインや遅延量を調整することができる。   Note that the AV receiver 1 makes the arrival timing of the sound output from each speaker 10 and the volume of the reproduced sound equal at the listening position G based on the elapsed time and sound pressure level of the signal corresponding to the direct sound. In addition, the gain and delay amount of the signal supplied to each speaker 10 can be adjusted in advance.

聴取環境解析部202は、受信した測定結果の反射音群に基づいて聴取環境を推定する。例えば、図3(B)の反射音群は、図3(A)の反射音群に比べて各反射音の間隔が長く、反射音の数が少ない。このように各反射音の間隔が長く、反射音の数が少ない場合、スピーカ10およびマイク3と壁面等の距離が遠く、広い部屋であると推定することができる。したがって、聴取環境解析部202は、各スピーカ10の測定結果に基づいて、部屋の大きさを推定することができる。聴取環境解析部202は、推定した部屋の大きさに対応するテンプレートをタッチパネル24に表示する。例えば、スピーカ10Rおよびスピーカ10SRの測定結果は、右側の壁までの距離に相当するため、スピーカ10Rおよびスピーカ10SRの測定結果から推定される右側の壁までの距離が長いと判断した場合、右側の壁面までの距離が長いテンプレートをタッチパネル24に表示する。   The listening environment analysis unit 202 estimates the listening environment based on the reflected sound group of the received measurement results. For example, the reflected sound group in FIG. 3B has a longer interval between the reflected sounds and a smaller number of reflected sounds than the reflected sound group in FIG. Thus, when the interval between the reflected sounds is long and the number of reflected sounds is small, it can be estimated that the speaker 10 and the microphone 3 are far away from the wall surface and the like and the room is wide. Therefore, the listening environment analysis unit 202 can estimate the size of the room based on the measurement result of each speaker 10. The listening environment analysis unit 202 displays a template corresponding to the estimated room size on the touch panel 24. For example, since the measurement results of the speaker 10R and the speaker 10SR correspond to the distance to the right wall, if it is determined that the distance to the right wall estimated from the measurement results of the speaker 10R and the speaker 10SR is long, A template having a long distance to the wall surface is displayed on the touch panel 24.

また、聴取環境解析部202は、測定結果から得られる周波数特性を解析して、壁面の材質等を推定することもできる。例えば、図4(A)に示すようなフラットな周波数特性に対して、図4(B)に示すような高域が減衰する周波数特性を有する場合、壁面にカーテン等の吸音性の高い材質が配置されていると判断することができる。この判断も、各スピーカ10の測定結果に基づいて行われる。例えば、聴取環境解析部202は、スピーカ10Rおよびスピーカ10SRの測定結果の周波数特性を解析し、聴取位置の右側の壁に吸音性の高いカーテンが配置されていると判断した場合、上記テンプレートにおいて聴取位置の右側にカーテンの映像を重畳してタッチパネル24に表示する。   The listening environment analysis unit 202 can also analyze the frequency characteristics obtained from the measurement results and estimate the wall material and the like. For example, when a flat frequency characteristic as shown in FIG. 4 (A) has a frequency characteristic that attenuates a high frequency as shown in FIG. 4 (B), a material having a high sound absorption property such as a curtain is formed on the wall surface. It can be judged that it is arranged. This determination is also made based on the measurement result of each speaker 10. For example, when the listening environment analysis unit 202 analyzes the frequency characteristics of the measurement results of the speaker 10R and the speaker 10SR and determines that a curtain having a high sound absorption property is disposed on the right wall of the listening position, the listening environment analysis unit 202 The curtain image is superimposed on the right side of the position and displayed on the touch panel 24.

なお、AVレシーバ1から受信した測定結果のうち、直接音に対応する信号の経過時間および音圧レベルは、聴取環境におけるスピーカの配置を示す情報に相当する。したがって、聴取環境解析部202は、図5(A)に示すように、スピーカ10L、スピーカ10R、スピーカ10SL、スピーカ10SR、およびスピーカ10Cをそれぞれ模式的に表したスピーカ映像202L、スピーカ映像202R、スピーカ映像202SL、スピーカ映像202SR、スピーカ映像202Cを表示する。また、この例では、表示装置7に対応するスクリーン205も表示している。ただし、このようなスピーカの配置に対応する映像や表示装置に対応する映像を表示することは本発明において必須の構成ではない。   Of the measurement results received from the AV receiver 1, the elapsed time and the sound pressure level of the signal corresponding to the direct sound correspond to information indicating the arrangement of the speakers in the listening environment. Therefore, as shown in FIG. 5A, the listening environment analysis unit 202 includes a speaker image 202L, a speaker image 202R, and a speaker schematically representing the speaker 10L, the speaker 10R, the speaker 10SL, the speaker 10SR, and the speaker 10C, respectively. Video 202SL, speaker video 202SR, and speaker video 202C are displayed. In this example, a screen 205 corresponding to the display device 7 is also displayed. However, displaying an image corresponding to such a speaker arrangement or an image corresponding to a display device is not an essential configuration in the present invention.

表示部203は、以上のようにして生成された聴取環境に対応する映像200に対して、音場効果付与部101が付与する音場効果に対応する音響空間の映像を重畳する。例えば、図5(B)に示すような、ステージ302および客席303を有したコンサートホール301の映像をメモリ23から読み出し、図6(A)に示すような重畳映像を作成する。そして、表示部203は、この重畳映像に、図6(B)に示すような擬似反射音の映像501(この例では円形状のアイコン)をさらに重畳する。擬似反射音の映像は、音声解析部201で生成される。   The display unit 203 superimposes the image of the acoustic space corresponding to the sound field effect provided by the sound field effect applying unit 101 on the image 200 corresponding to the listening environment generated as described above. For example, an image of a concert hall 301 having a stage 302 and a guest seat 303 as shown in FIG. 5B is read from the memory 23, and a superimposed image as shown in FIG. 6A is created. The display unit 203 further superimposes a pseudo reflected sound image 501 (a circular icon in this example) as shown in FIG. 6B on the superimposed image. The image of the pseudo reflection sound is generated by the sound analysis unit 201.

音声解析部201は、本発明の音場効果映像生成手段に相当し、音場効果付与部101から受信した音場効果情報に基づいて、擬似反射音の映像を生成する。図7は、擬似反射音の映像を生成する手法を説明するための図である。   The sound analysis unit 201 corresponds to the sound field effect image generation means of the present invention, and generates a pseudo reflected sound image based on the sound field effect information received from the sound field effect applying unit 101. FIG. 7 is a diagram for explaining a method of generating a pseudo reflected sound image.

音声解析部201は、聴取位置Gを原点とする空間(この例では3次元空間)において、音場効果情報に含まれている直接音からの遅延時間を距離Dとして、聴取位置Gからの水平方位θ(正面を0°)および垂直方位φ(水平を0°)で定まる位置に擬似反射音の映像を表示する。擬似反射音の映像の大きさLは、直接音のレベルに対する反射音のレベルの割合によって変化させる。そして、音声解析部201は、AVレシーバ1からオーディオ信号を入力し、当該オーディオ信号に所定レベル以上の入力があった場合に、当該所定レベル以上の入力を直接音として、擬似反射音の表示位置を計算し、計算された表示位置に擬似反射音の映像を生成する。   The voice analysis unit 201 uses the delay time from the direct sound included in the sound field effect information as the distance D in the space having the listening position G as the origin (in this example, a three-dimensional space). The image of the pseudo reflected sound is displayed at a position determined by the azimuth θ (front is 0 °) and the vertical azimuth φ (horizontal is 0 °). The image size L of the pseudo reflected sound is changed according to the ratio of the level of the reflected sound to the level of the direct sound. Then, the audio analysis unit 201 inputs an audio signal from the AV receiver 1, and when the audio signal is input at a predetermined level or higher, the sound analysis unit 201 uses the input at the predetermined level or higher as a direct sound to display the pseudo reflected sound display position. And an image of pseudo reflection sound is generated at the calculated display position.

例えば、図6(B)に示すように、入力オーディオ信号のRチャンネル、Lチャンネル、およびCチャンネルに同時に所定レベル以上の入力があった場合に、Rチャンネルに対応する直接音の映像401R、Lチャンネルに対応する直接音の映像401L、およびCチャンネルに対応する直接音の映像401Cを生成するとともに、これらの直接音(ミックスダウンされた信号)から計算される表示位置およびレベルに対応する擬似反射音の映像501を生成する。図6(B)においては静止画として示しているが、直接音に対する擬似反射音は、時々刻々と変化し、アニメーションとして表示されるものである。   For example, as shown in FIG. 6B, when the input audio signal has R channel, L channel, and C channel having inputs of a predetermined level or more at the same time, direct sound images 401R, L corresponding to the R channel are provided. The direct sound image 401L corresponding to the channel and the direct sound image 401C corresponding to the C channel are generated, and the pseudo reflection corresponding to the display position and the level calculated from these direct sounds (mixed down signals). A sound image 501 is generated. Although shown as a still image in FIG. 6B, the pseudo reflection sound with respect to the direct sound changes every moment and is displayed as an animation.

なお、直接音の映像を表示することは必須ではない。また、直接音の映像を表示する場合には、直接音と擬似反射音の映像を異なるもの(例えば異なる色)にすることが好ましい。   It is not essential to display a direct sound image. In addition, when displaying a direct sound image, it is preferable that the direct sound image and the pseudo reflected sound image be different (for example, different colors).

以上のようにして生成された直接音および擬似反射音の映像が表示部203に出力される。表示部203は、上記聴取環境に対応する映像、スピーカの配置を示す映像、および音場効果に対応する音響空間の映像、に直接音および擬似反射音の映像を重畳する。   The images of the direct sound and the pseudo reflected sound generated as described above are output to the display unit 203. The display unit 203 superimposes the images of the direct sound and the pseudo-reflected sound on the image corresponding to the listening environment, the image indicating the arrangement of the speakers, and the image of the acoustic space corresponding to the sound field effect.

以上のようにして生成された映像は、自装置のタッチパネル24に表示される、または映像信号として他の表示装置(例えばAVレシーバ1)に出力され、当該他の表示装置(AVレシーバ1に接続されている表示装置7)で表示される。   The video generated as described above is displayed on the touch panel 24 of the device itself, or is output as a video signal to another display device (for example, AV receiver 1), and connected to the other display device (AV receiver 1). Displayed on the display device 7).

これにより、ユーザは、どのような音響空間が再現され、どのような擬似反射音が生成されているのか、直感的に理解することができる。   Thereby, the user can intuitively understand what acoustic space is reproduced and what kind of pseudo-reflected sound is generated.

なお、この例では、直接音および擬似反射音を示す映像として、円形状のアイコンを示したが、他の映像(例えばベクトルや雲の様な映像)を表示してもよい。また、周波数特性を示す映像として、高音の場合は音源位置から聴取位置へ向かうベクトルの表示を行い、低音の場合は音源位置から周囲に円形状に拡がるアイコンを表示する態様としてもよい。   In this example, a circular icon is shown as an image showing the direct sound and the pseudo-reflected sound. However, other images (for example, images such as vectors and clouds) may be displayed. Further, as an image showing frequency characteristics, a vector from the sound source position to the listening position may be displayed in the case of a high sound, and an icon that extends in a circular shape from the sound source position may be displayed in the case of a low sound.

また、本実施形態では、音声解析部201、聴取環境解析部202、および表示部203をユーザ端末2のプログラムにより実行する例を示したが、AVレシーバ1において実行してもよいし、パーソナルコンピュータ等の他の情報処理端末において実行してもよい。   In the present embodiment, the audio analysis unit 201, the listening environment analysis unit 202, and the display unit 203 are executed by the program of the user terminal 2, but may be executed by the AV receiver 1 or a personal computer. It may be executed in other information processing terminals such as.

1…AVレシーバ
2…ユーザ端末
3…マイク
5…コンテンツ再生機器
7…表示装置
10L,10R,10SL,10SR,10C…スピーカ
11…入力部
12…DSP
13…映像処理部
14…CPU
15…メモリ
16…出力部
22…CPU
23…メモリ
24…タッチパネル
101…音場効果付与部
102…聴取環境測定部
103…加算器
201…音声解析部
202…聴取環境解析部
203…表示部
DESCRIPTION OF SYMBOLS 1 ... AV receiver 2 ... User terminal 3 ... Microphone 5 ... Content reproduction apparatus 7 ... Display apparatus 10L, 10R, 10SL, 10SR, 10C ... Speaker 11 ... Input part 12 ... DSP
13 ... Video processing unit 14 ... CPU
15 ... Memory 16 ... Output unit 22 ... CPU
DESCRIPTION OF SYMBOLS 23 ... Memory 24 ... Touch panel 101 ... Sound field effect provision part 102 ... Listening environment measurement part 103 ... Adder 201 ... Speech analysis part 202 ... Listening environment analysis part 203 ... Display part

Claims (6)

聴取環境を示す情報を取得し、当該聴取環境を示す情報に基づいて、現在の聴取環境に対応する映像を生成する聴取環境映像生成手段と、
オーディオ信号に擬似反射音を付与するための音場効果情報を取得し、当該音場効果情報に基づいて、前記聴取環境に対応する映像に擬似反射音の映像を重畳する音場効果映像生成手段と、
を備えたことを特徴とする情報処理装置。
Listening environment video generation means for acquiring information indicating the listening environment and generating a video corresponding to the current listening environment based on the information indicating the listening environment;
Sound field effect image generating means for acquiring sound field effect information for giving a pseudo reflection sound to an audio signal and superimposing a pseudo reflection sound image on an image corresponding to the listening environment based on the sound field effect information When,
An information processing apparatus comprising:
前記音場効果映像生成手段は、前記音場効果情報に含まれる前記擬似反射音の音源位置、発生タイミング、およびレベルを示す情報に基づいて、前記擬似反射音の映像を変化させることを特徴とする請求項1に記載の情報処理装置。   The sound field effect image generating means changes the image of the pseudo reflection sound based on information indicating a sound source position, generation timing, and level of the pseudo reflection sound included in the sound field effect information. The information processing apparatus according to claim 1. 前記聴取環境を示す情報には、当該聴取環境におけるスピーカの配置を示す情報が含まれ、
前記聴取環境映像生成手段は、前記聴取環境に対応する映像において、スピーカの配置に対応する映像を表示することを特徴とする請求項1または請求項2に記載の情報処理装置。
The information indicating the listening environment includes information indicating the arrangement of speakers in the listening environment,
The information processing apparatus according to claim 1, wherein the listening environment image generation unit displays an image corresponding to an arrangement of speakers in the image corresponding to the listening environment.
前記聴取環境に対応する映像に、前記音場効果情報に対応する音響空間の映像を重畳することを特徴とする請求項1乃至請求項4のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 1, wherein an image of an acoustic space corresponding to the sound field effect information is superimposed on an image corresponding to the listening environment. 請求項1乃至請求項4のいずれかに記載の情報処理装置と、
前記オーディオ信号から擬似反射音を生成して当該オーディオ信号に付与する音場効果付与部と、
前記聴取環境に対応する映像の信号を出力する映像信号出力部と、
を備えたことを特徴とするAVレシーバ。
An information processing apparatus according to any one of claims 1 to 4,
A sound field effect applying unit that generates a pseudo-reflected sound from the audio signal and applies the pseudo reflected sound to the audio signal;
A video signal output unit for outputting a video signal corresponding to the listening environment;
An AV receiver characterized by comprising:
聴取環境を示す情報を取得し、当該聴取環境を示す情報に基づいて、現在の聴取環境に対応する映像を生成する聴取環境映像生成ステップと、
オーディオ信号に擬似反射音を付与するための音場効果情報を取得し、当該音場効果情報に含まれる前記擬似反射音の音源位置、発生タイミング、およびレベルを示す情報に基づいて、前記聴取環境に対応する映像に擬似反射音の映像を重畳する音場効果映像生成ステップと、
を情報処理装置に実行させることを特徴とするプログラム。
Obtaining information indicating the listening environment, and generating a video corresponding to the current listening environment based on the information indicating the listening environment;
Obtaining sound field effect information for giving a pseudo-reflected sound to an audio signal, and based on the information indicating the sound source position, generation timing, and level of the pseudo-reflected sound included in the sound field effect information, the listening environment A sound field effect image generation step of superimposing a pseudo reflection sound image on an image corresponding to
A program characterized by causing an information processing apparatus to execute.
JP2013178773A 2013-08-30 2013-08-30 Information processing apparatus, AV receiver, and program Active JP6326743B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013178773A JP6326743B2 (en) 2013-08-30 2013-08-30 Information processing apparatus, AV receiver, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013178773A JP6326743B2 (en) 2013-08-30 2013-08-30 Information processing apparatus, AV receiver, and program

Publications (2)

Publication Number Publication Date
JP2015050493A true JP2015050493A (en) 2015-03-16
JP6326743B2 JP6326743B2 (en) 2018-05-23

Family

ID=52700194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013178773A Active JP6326743B2 (en) 2013-08-30 2013-08-30 Information processing apparatus, AV receiver, and program

Country Status (1)

Country Link
JP (1) JP6326743B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212573A (en) * 2016-05-25 2017-11-30 ヤマハ株式会社 Sound effect generation device, sound effect generation method and program
JP2018206385A (en) * 2017-06-02 2018-12-27 ネイバー コーポレーションNAVER Corporation Method and device for actively providing information suitable for position and space for user
CN116709154A (en) * 2022-10-25 2023-09-05 荣耀终端有限公司 Sound field calibration method and related device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5990897A (en) * 1982-11-15 1984-05-25 松下電器産業株式会社 Audio apparatus
JPS61257099A (en) * 1985-05-10 1986-11-14 Nippon Gakki Seizo Kk Acoustic control device
JPH0546193A (en) * 1991-08-19 1993-02-26 Matsushita Electric Ind Co Ltd Reflected sound extraction device
JPH06313731A (en) * 1991-07-17 1994-11-08 Onkyo Corp Reflected sound simulator
JPH11331995A (en) * 1998-05-08 1999-11-30 Alpine Electronics Inc Sound image controller
JP2006157210A (en) * 2004-11-26 2006-06-15 Victor Co Of Japan Ltd Multichannel sound field processing apparatus
JP2006214740A (en) * 2005-02-01 2006-08-17 Ono Sokki Co Ltd Acoustic measurement system
JP2007116363A (en) * 2005-10-19 2007-05-10 Fujitsu Ten Ltd Acoustic space control apparatus
JP2011015050A (en) * 2009-06-30 2011-01-20 Nittobo Acoustic Engineering Co Ltd Array for beam forming, and sound source exploration/measurement system using the same

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5990897A (en) * 1982-11-15 1984-05-25 松下電器産業株式会社 Audio apparatus
JPS61257099A (en) * 1985-05-10 1986-11-14 Nippon Gakki Seizo Kk Acoustic control device
JPH06313731A (en) * 1991-07-17 1994-11-08 Onkyo Corp Reflected sound simulator
JPH0546193A (en) * 1991-08-19 1993-02-26 Matsushita Electric Ind Co Ltd Reflected sound extraction device
JPH11331995A (en) * 1998-05-08 1999-11-30 Alpine Electronics Inc Sound image controller
JP2006157210A (en) * 2004-11-26 2006-06-15 Victor Co Of Japan Ltd Multichannel sound field processing apparatus
JP2006214740A (en) * 2005-02-01 2006-08-17 Ono Sokki Co Ltd Acoustic measurement system
JP2007116363A (en) * 2005-10-19 2007-05-10 Fujitsu Ten Ltd Acoustic space control apparatus
JP2011015050A (en) * 2009-06-30 2011-01-20 Nittobo Acoustic Engineering Co Ltd Array for beam forming, and sound source exploration/measurement system using the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212573A (en) * 2016-05-25 2017-11-30 ヤマハ株式会社 Sound effect generation device, sound effect generation method and program
JP2018206385A (en) * 2017-06-02 2018-12-27 ネイバー コーポレーションNAVER Corporation Method and device for actively providing information suitable for position and space for user
CN116709154A (en) * 2022-10-25 2023-09-05 荣耀终端有限公司 Sound field calibration method and related device
CN116709154B (en) * 2022-10-25 2024-04-09 荣耀终端有限公司 Sound field calibration method and related device

Also Published As

Publication number Publication date
JP6326743B2 (en) 2018-05-23

Similar Documents

Publication Publication Date Title
CN107168518B (en) Synchronization method and device for head-mounted display and head-mounted display
KR102008771B1 (en) Determination and use of auditory-space-optimized transfer functions
JP5992210B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
US20180310114A1 (en) Distributed Audio Capture and Mixing
CN110089134A (en) Method for reproduction space distribution sound
JP5449330B2 (en) Angle-dependent motion apparatus or method for obtaining a pseudo-stereoscopic audio signal
JP2022163173A (en) Distributed audio capturing techniques for virtual reality (vr), augmented reality (ar) and mixed reality (mr) systems
EP3048818B1 (en) Audio signal processing apparatus
JP2011517547A (en) Surround sound generation from microphone array
US9769585B1 (en) Positioning surround sound for virtual acoustic presence
US10390131B2 (en) Recording musical instruments using a microphone array in a device
JP2023517720A (en) Reverb rendering
US9826332B2 (en) Centralized wireless speaker system
JP2015207959A (en) Acoustic processing device
JP6326743B2 (en) Information processing apparatus, AV receiver, and program
WO2017135194A1 (en) Information processing device, information processing system, control method and program
JP6550756B2 (en) Audio signal processor
Nowak et al. On the perception of apparent source width and listener envelopment in wave field synthesis
Valente et al. Comparing perceived auditory width to the visual image of a performing ensemble in contrasting bi-modal environments
JP2017212573A (en) Sound effect generation device, sound effect generation method and program
JP7231412B2 (en) Information processing device and information processing method
Kearney et al. Design of an interactive virtual reality system for ensemble singing
JP6503752B2 (en) AUDIO SIGNAL PROCESSING DEVICE, AUDIO SIGNAL PROCESSING METHOD, PROGRAM, AND AUDIO SYSTEM
JP6614241B2 (en) Ear shape analysis device, information processing device, ear shape analysis method, and information processing method
JP7267096B2 (en) AUDIO EFFECT CONTROL SYSTEM, AUDIO EFFECT CONTROL DEVICE, RECEIVING DEVICE, AUDIO EFFECT CONTROL METHOD, RECEIVER CONTROL METHOD AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180402

R151 Written notification of patent or utility model registration

Ref document number: 6326743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151