JP2008131589A - Content reproducing apparatus, method thereof, program thereof, and recording medium recorded with the program - Google Patents

Content reproducing apparatus, method thereof, program thereof, and recording medium recorded with the program Download PDF

Info

Publication number
JP2008131589A
JP2008131589A JP2006317500A JP2006317500A JP2008131589A JP 2008131589 A JP2008131589 A JP 2008131589A JP 2006317500 A JP2006317500 A JP 2006317500A JP 2006317500 A JP2006317500 A JP 2006317500A JP 2008131589 A JP2008131589 A JP 2008131589A
Authority
JP
Japan
Prior art keywords
audio
unit
video
delay
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006317500A
Other languages
Japanese (ja)
Inventor
Shinjiro Kato
慎治郎 加藤
Hisashi Kihara
久 木原
Momotoshi Furunobu
百年 古信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2006317500A priority Critical patent/JP2008131589A/en
Publication of JP2008131589A publication Critical patent/JP2008131589A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Stereophonic System (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a content reproducing apparatus and a content reproducing method which can reproduce high-definition audio and video. <P>SOLUTION: An FIR linear phased filter is used for post-stage channel separation processing in a post-stage separation section of an audio preamplifier unit 140A, frequency separation processing and acoustic characteristic adjustment processing in a channel signal adjusting section of the audio preamplifier unit 140A. Therefore, deterioration of phase characteristics does not occur in such processing. Furthermore, lip-sync is attained under delay control in the audio preamplifier unit 140A and delay control in a display control unit 170A. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、コンテンツ再生装置、コンテンツ再生方法、コンテンツ再生プログラム及び当該コンテンツ再生プログラムが記録された記録媒体に関する。   The present invention relates to a content reproduction apparatus, a content reproduction method, a content reproduction program, and a recording medium on which the content reproduction program is recorded.

近年におけるDVD(Digital Versatile Disk)等の記録媒体を利用したコンテンツ収納技術及びコンテンツ再生技術の進展に伴い、音声と映像とを含む映画等のコンテンツを再生するコンテンツ再生装置が普及してきている。こうしたコンテンツ再生装置を利用することにより、利用者は、コンテンツの再生結果である音声と映像とを楽しむことができる。   With the progress of content storage technology and content playback technology using recording media such as DVD (Digital Versatile Disk) in recent years, content playback devices that play back content such as movies including audio and video have become widespread. By using such a content playback device, the user can enjoy the audio and video that are the playback results of the content.

かかるコンテンツ再生装置では、一般に、音声の再生に際して行われる音響調整にIIR(Infinite Impulse Response)フィルタ又はアナログトーンコントロール回路を用いている(特許文献1等参照:以下、従来例という)。このため、記録媒体等からの音声コンテンツデータ及び映像コンテンツデータをそのままデコードして再生しても、再生音声のスピーカからの出力タイミングと再生映像の表示デバイスにおける表示タイミングとの間において時間ズレは殆ど発生しない。この結果、利用者は、感覚的に大きな違和感を生じさせずに、再生音声や再生画像を視聴することができていた。   In such a content reproduction apparatus, generally, an IIR (Infinite Impulse Response) filter or an analog tone control circuit is used for acoustic adjustment performed at the time of audio reproduction (see Patent Document 1, etc .: hereinafter referred to as a conventional example). For this reason, even if audio content data and video content data from a recording medium or the like are decoded and reproduced as they are, there is almost no time difference between the output timing of the reproduced audio from the speaker and the display timing of the reproduced video on the display device. Does not occur. As a result, the user was able to view the reproduced sound and the reproduced image without causing a great sense of incongruity.

特開平8−182097号公報JP-A-8-182097

上述した従来例の再生技術では、音響調整にIIRフィルタ又はアナログトーンコントロール回路を用いているので、オリジナルの音声コンテンツを忠実に再生した場合から位相周波数特性に乱れを生じる。また、音声を出力するスピーカには、コイルやキャパシタを用いたマルチウエイスピーカを用い、時にはクロスオーバ周波数が異なるものが使用されている。   In the conventional reproduction technique described above, an IIR filter or an analog tone control circuit is used for sound adjustment. Therefore, the phase frequency characteristics are disturbed from the case where the original audio content is reproduced faithfully. As a speaker for outputting sound, a multiway speaker using a coil or a capacitor is used, and sometimes speakers having different crossover frequencies are used.

さらに、マルチチャンネルサラウンド方式を採用する場合には、複数のスピーカを使用することになるが、これらの複数のスピーカを聴取位置から等距離に配置することが、コンテンツ再生装置を設置する室の環境面から困難である場合があった。特に車両にコンテンツ再生装置を搭載する場合には、複数のスピーカを車室内の聴取位置から等距離に配置することができない場合がしばしば発生する。このため、各スピーカから聴取位置までの音声伝達特性である振幅特性や位相特性を同一とすることは、一般には困難である。   Furthermore, when a multi-channel surround system is adopted, a plurality of speakers are used. However, it is necessary to arrange these speakers at an equal distance from the listening position so that the environment of the room in which the content reproduction apparatus is installed In some cases, it was difficult. In particular, when a content reproduction apparatus is mounted on a vehicle, there are often cases where a plurality of speakers cannot be arranged at an equal distance from the listening position in the passenger compartment. For this reason, it is generally difficult to make the amplitude characteristics and phase characteristics, which are sound transmission characteristics from each speaker to the listening position, the same.

IIRフィルタ又はアナログトーンコントロール回路を採用する音響調整装置では、振幅特性を補正することは可能であるが、位相特性までを補正することはできない。さらに、複数のスピーカを採用する場合には、各スピーカが固有の位相伝達特性を有することが一般的である。   An acoustic adjustment device employing an IIR filter or an analog tone control circuit can correct the amplitude characteristic, but cannot correct the phase characteristic. Further, when a plurality of speakers are employed, each speaker generally has a unique phase transfer characteristic.

このため、マルチチャンネルサラウンド方式を採用した場合においても、視聴位置における高品質な音声の再生と、当該音声との関係で視聴位置において違和感を発生させることがない映像の再生が可能な技術が待望されている。かかる要請に応えることが、本発明が解決するべき課題の一つとして挙げられる。   For this reason, even when the multi-channel surround system is adopted, there is a long-awaited technology capable of reproducing high-quality audio at the viewing position and reproducing video that does not cause a sense of incongruity at the viewing position in relation to the audio. Has been. Meeting this requirement is one of the problems to be solved by the present invention.

本発明は、上記の事情を鑑みてなされたものであり、高品位な音声及び映像を再生することができるコンテンツ再生装置及びコンテンツ再生方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a content reproduction apparatus and a content reproduction method capable of reproducing high-quality audio and video.

請求項1に記載の発明は、音声コンテンツ及び映像コンテンツを含むコンテンツを再生するコンテンツ再生装置であって、前記音声コンテンツに由来する音声信号の周波数分離調整及び周波数特性調整の少なくとも一方を、直線位相型の有限インパルス応答フィルタを利用して行う音響調整手段と;前記音声信号を音声遅延時間だけ遅延させる音声遅延手段と;前記音響調整手段により調整され、かつ、前記音声遅延手段により遅延された信号に基づいて音声を再生し、所定の音場空間へ向けて出力する音声出力手段と;前記音場空間の視聴位置における前記音声出力手段から出力された音声との同期用に定められた映像遅延時間だけ、前記映像コンテンツに由来する映像信号を遅延させる映像遅延手段と;前記映像遅延手段により遅延された映像信号に基づいて、映像を再生表示する表示手段と;を備えることを特徴とするコンテンツ再生装置である。   The invention according to claim 1 is a content playback apparatus for playing back content including audio content and video content, wherein at least one of frequency separation adjustment and frequency characteristic adjustment of an audio signal derived from the audio content is performed in a linear phase. Sound adjusting means using a finite impulse response filter of the type; sound delay means for delaying the sound signal by a sound delay time; and a signal adjusted by the sound adjusting means and delayed by the sound delay means Audio output means for reproducing sound based on the sound field and outputting the sound toward a predetermined sound field space; and a video delay determined for synchronization with the sound output from the sound output means at the viewing position of the sound field space Video delay means for delaying a video signal derived from the video content by time; and delayed by the video delay means A content reproduction apparatus, characterized in that it comprises a; based on the video signal, and display means for reproducing and displaying the image.

請求項8に記載の発明は、音声コンテンツ及び映像コンテンツを含むコンテンツを再生するコンテンツ再生方法であって、前記音声コンテンツに由来する音声信号に関する音響特性を、直線位相型の有限インパルス応答フィルタを利用して調整する音響特性調整工程と;前記音声信号を音声遅延時間だけ遅延させる音声遅延工程と;前記音響特性調整工程において音響特性が調整され、かつ、前記音声遅延工程において遅延された音声信号に基づいて再生された音声を、所定の音場空間へ向けて出力させる音声出力工程と;前記音場空間における視聴位置において前記音声出力工程で出力された音声との同期用に定められた映像遅延時間だけ、前記映像コンテンツに由来する映像信号を遅延させる映像遅延工程と;前記映像遅延工程において遅延された映像信号に基づいて再生された映像を表示させる表示工程と;を備えることを特徴とするコンテンツ再生方法である。   The invention according to claim 8 is a content reproduction method for reproducing content including audio content and video content, and uses a linear phase type finite impulse response filter for the acoustic characteristics related to the audio signal derived from the audio content. An audio characteristic adjustment step for adjusting the audio signal; an audio delay step for delaying the audio signal by an audio delay time; and an audio signal whose audio characteristic is adjusted in the audio characteristic adjustment step and delayed in the audio delay step. A sound output step for outputting sound reproduced based on a predetermined sound field space; and a video delay determined for synchronization with the sound output in the sound output step at a viewing position in the sound field space. A video delay step of delaying a video signal derived from the video content by time; A content playback method characterized by comprising a; and a display step of displaying the image reproduced on the basis of the cast video signal.

請求項9に記載の発明は、請求項7に記載のコンテンツ再生方法を演算手段に実行させる、ことを特徴とするコンテンツ再生プログラムである。   A ninth aspect of the present invention is a content reproduction program characterized by causing a calculation means to execute the content reproduction method according to the seventh aspect.

請求項10に記載の発明は、請求項8に記載のコンテンツ再生プログラムが、演算手段により読み取り可能に記録された記録媒体である。   A tenth aspect of the present invention is a recording medium on which the content reproduction program according to the eighth aspect of the present invention is recorded so as to be readable by the calculation means.

以下、本発明の実施形態を、図1〜図18を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to FIGS. In the following description and drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.

[第1実施形態]
まず、本発明の第1実施形態を、図1〜図13を参照して説明する。
[構成]
図1には、第1実施形態に係るコンテンツ再生装置100Aの概略的な構成がブロック図にて示されている。なお、以下の説明においては、コンテンツ再生装置100Aは、車両CR(図9参照)に搭載される装置であるものとする。
[First Embodiment]
First, a first embodiment of the present invention will be described with reference to FIGS.
[Constitution]
FIG. 1 is a block diagram showing a schematic configuration of a content reproduction apparatus 100A according to the first embodiment. In the following description, content reproduction device 100A is assumed to be a device mounted on vehicle CR (see FIG. 9).

図1に示されるように、コンテンツ再生装置100Aは、DVDドライブユニット110と、ドライブ制御ユニット120Aとを備えている。また、コンテンツ再生装置100Aは、テスト音声検出手段の一部としての集音ユニット130と、オーディオプリアンプユニット140Aと、オーディオメインアンプユニット150と、音声出力手段としてのスピーカユニット1601〜1607とを備えている。 As shown in FIG. 1, the content reproduction apparatus 100A includes a DVD drive unit 110 and a drive control unit 120A. The content reproduction apparatus 100A includes a sound collection unit 130 as a part of the test sound detection means, an audio preamplifier unit 140A, an audio main amplifier unit 150, and speaker units 160 1 to 160 7 as sound output means. I have.

また、コンテンツ再生装置100Aは、表示制御ユニット170Aと、表示手段としての表示ユニット180Aとを備えている。さらに、コンテンツ再生装置100Aは、操作入力手段としての操作入力ユニット190を備えている。   The content playback apparatus 100A includes a display control unit 170A and a display unit 180A as a display unit. Furthermore, the content reproduction apparatus 100A includes an operation input unit 190 as an operation input unit.

なお、ドライブ制御ユニット120A、オーディオプリアンプユニット140A及び表示制御ユニット170Aは、例えばIEEE1394で規定されるバス300を介して、相互に接続されている。   The drive control unit 120A, the audio preamplifier unit 140A, and the display control unit 170A are connected to each other via a bus 300 defined by, for example, IEEE1394.

DVDドライブユニット110は、ドライブ制御指令DCTとしてデータ読出指令をドライブ制御ユニット120Aから受けた場合には、装填されたDVDに記録された音声コンテンツ及び映像コンテンツを含むコンテンツのデータ等を読み取って、読取データ信号RDDとしてドライブ制御ユニット120Aへ送る。また、DVDドライブユニット110は、ドライブ制御指令DCTとして指定データを含むデータ書込指令をドライブ制御ユニット120Aから受けた場合には、装填されたDVDに指定データを記録する。   When the DVD drive unit 110 receives a data read command from the drive control unit 120A as the drive control command DCT, the DVD drive unit 110 reads the content data including the audio content and the video content recorded on the loaded DVD, and reads the read data. The signal RDD is sent to the drive control unit 120A. Further, when the DVD drive unit 110 receives a data write command including the specified data as the drive control command DCT from the drive control unit 120A, the DVD drive unit 110 records the specified data on the loaded DVD.

なお、DVDには、音声コンテンツが、マルチチャンネルサラウンド方式の一つである6.1chサラウンド方式で記録されている。かかる6.1chサラウンド方式では、音声チャンネルとして、フロントセンタチャンネル(以下、「FCチャンネル」とも記す)、フロントレフトチャンネル(以下、「FLチャンネル」とも記す)、フロントライトチャンネル(以下、「FRチャンネル」とも記す)、リアセンタチャンネル(以下、「RCチャンネル」とも記す)、リアレフトチャンネル(以下、「RLチャンネル」とも記す)、リアライトチャンネル(以下、「RRチャンネル」とも記す)、サブウーハチャンネル(以下、「SWチャンネル」とも記す)が用意されている。   Note that audio content is recorded on the DVD in the 6.1ch surround system, which is one of the multi-channel surround systems. In the 6.1ch surround system, as a sound channel, a front center channel (hereinafter also referred to as “FC channel”), a front left channel (hereinafter also referred to as “FL channel”), a front right channel (hereinafter referred to as “FR channel”). ), Rear center channel (hereinafter also referred to as “RC channel”), rear left channel (hereinafter also referred to as “RL channel”), rear right channel (hereinafter also referred to as “RR channel”), subwoofer channel (hereinafter referred to as “RC channel”). , Also referred to as “SW channel”).

また、DVDには、映像コンテンツがMPEG形式でコード化されて記録されているものとする。   In addition, it is assumed that video content is encoded and recorded in the MPEG format on the DVD.

ドライブ制御ユニット120Aは、図2に示されるように、ドライブ制御部121Aと、バスインターフェース部122とを備えている。また、ドライブ制御ユニット120Aは、データ出力選択部123と、音声/映像分離部124Aとを備えている。さらに、ドライブ制御ユニット120Aは、テスト信号生成手段としての同期調整信号発生部125を備えている。   The drive control unit 120A includes a drive control unit 121A and a bus interface unit 122, as shown in FIG. Further, the drive control unit 120A includes a data output selection unit 123 and an audio / video separation unit 124A. Further, the drive control unit 120A includes a synchronization adjustment signal generator 125 as a test signal generator.

ドライブ制御部121Aは、操作入力ユニット190から報告された利用者による指令入力IPDに従って、DVDドライブユニット110に対してドライブ制御指令DCTを発行することにより、DVDに記録されたデータの読取、及び、DVDへのデータ書込をDVDドライブユニット110に行わせる。また、ドライブ制御部121Aは、オーディオプリアンプユニット140A及び表示制御ユニット170Aとの間で通信を行い、動作協調を図る。   The drive control unit 121A issues a drive control command DCT to the DVD drive unit 110 in accordance with the user command input IPD reported from the operation input unit 190, thereby reading data recorded on the DVD and DVD Data is written to the DVD drive unit 110. The drive control unit 121A communicates with the audio preamplifier unit 140A and the display control unit 170A to achieve operation coordination.

さらに、ドライブ制御部121Aは、ドライブ制御ユニット120Aの他の構成要素122〜125を制御する。かかる制御を行うことにより、DVDに記録されたコンテンツにおける音声コンテンツのデータのオーディオプリアンプユニット140Aへの送信、及び、DVDに記録されたコンテンツにおける映像コンテンツのデータの表示制御ユニット170Aへの送信を制御する。   Furthermore, the drive control unit 121A controls the other components 122 to 125 of the drive control unit 120A. By performing such control, transmission of audio content data in the content recorded on the DVD to the audio preamplifier unit 140A and transmission of video content data in the content recorded on the DVD to the display control unit 170A are controlled. To do.

バスインターフェース部122は、ドライブ制御部121Aによる制御のもとで、ドライブ制御ユニット120Aの内部回路とバス300とのインターフェーシングを行う。このバスインターフェース部122を利用することにより、ドライブ制御ユニット120Aと、オーディオプリアンプユニット140A及び表示制御ユニット170Aとの間で、バス300を介した通信が可能となっている。   The bus interface unit 122 interfaces the internal circuit of the drive control unit 120A and the bus 300 under the control of the drive control unit 121A. By using the bus interface unit 122, communication via the bus 300 is possible between the drive control unit 120A, the audio preamplifier unit 140A, and the display control unit 170A.

データ出力選択部123は、ドライブ制御部121Aからの出力選択指令DOSに従って、DVDドライブユニット110からの読取データ信号RDDを、音声/映像分離部124A又はドライブ制御部121Aのいずれかへ向けて出力する。すなわち、読取データ信号RDDがコンテンツのデータ信号であることから、出力選択指令DOSにより音声/映像分離部124Aへ向けて出力すべきことがドライブ制御部121Aから指令された場合には、データ出力選択部123は、読取データ信号RDDをコンテンツデータ信号CTDとして、音声/映像分離部124Aへ送る。一方、読取データ信号RDDがコンテンツのデータ信号ではないことから、出力選択指令DOSによりドライブ制御部121Aへ向けて出力すべきことがドライブ制御部121Aから指令された場合には、データ出力選択部123は、読取データ信号RDDを非コンテンツデータ信号ECDとして、ドライブ制御部121Aへ送る。   The data output selection unit 123 outputs the read data signal RDD from the DVD drive unit 110 to either the audio / video separation unit 124A or the drive control unit 121A in accordance with the output selection command DOS from the drive control unit 121A. That is, since the read data signal RDD is a data signal of content, when the drive control unit 121A instructs to output to the audio / video separation unit 124A by the output selection command DOS, the data output selection is performed. The unit 123 sends the read data signal RDD as the content data signal CTD to the audio / video separation unit 124A. On the other hand, since the read data signal RDD is not a content data signal, when the drive control unit 121A instructs the output of the drive control unit 121A by the output selection command DOS, the data output selection unit 123 Sends the read data signal RDD as the non-content data signal ECD to the drive control unit 121A.

音声/映像分離部124Aは、ドライブ制御部121Aからのデータ選択指令SLDに従って、データ出力選択部123からのコンテンツデータ信号CTD、及び、後述する同期調整信号発生部125からの同期調整用データ信号SJDのいずれかを選択し、選択されたデータ信号に含まれる音声データ成分と映像データ成分とを分離する。こうして分離された音声データ成分が音声データ信号ADDとしてバスインターフェース部122へ向けて出力されるとともに、分離された映像データ成分が映像データ信号IDDとしてバスインターフェース部122へ向けて出力される。この結果、バス300を介して、音声データ信号ADDがオーディオプリアンプユニット140Aへ送られるとともに、映像データ信号IDDが表示制御ユニット170Aへ送られる。   The audio / video separation unit 124A, in accordance with the data selection command SLD from the drive control unit 121A, the content data signal CTD from the data output selection unit 123 and the synchronization adjustment data signal SJD from the synchronization adjustment signal generation unit 125 described later. Is selected, and the audio data component and the video data component included in the selected data signal are separated. The separated audio data component is output to the bus interface unit 122 as the audio data signal ADD, and the separated video data component is output to the bus interface unit 122 as the video data signal IDD. As a result, the audio data signal ADD is sent to the audio preamplifier unit 140A via the bus 300, and the video data signal IDD is sent to the display control unit 170A.

同期調整信号発生部125は、ドライブ制御部121Aからの信号発生指令SJGに従って、予め定められた同期調整用データ信号SJDを発生して、音声/映像分離部124Aへ向けて送る。ここで、同期調整用データ信号SJDは、テスト音声データ信号とテスト映像データ信号から構成されている。なお、同期調整信号発生部125は、テスト音声データ信号として、後述するFCチャンネルのデータ信号及びRCチャンネルのデータ信号のいずれかを発生するようになっている。かかるFCチャンネル及びRCチャンネルのいずれのチャンネルのデータ信号を発生するかは、操作入力ユニット190への利用者による操作入力に従って、ドライブ制御部121Aが、信号発生指令SJGにおけるパラメータ値によって指定するようになっている。   The synchronization adjustment signal generator 125 generates a predetermined synchronization adjustment data signal SJD in accordance with a signal generation command SJG from the drive controller 121A, and sends it to the audio / video separation unit 124A. Here, the synchronization adjustment data signal SJD includes a test audio data signal and a test video data signal. The synchronization adjustment signal generator 125 generates either a FC channel data signal or an RC channel data signal, which will be described later, as a test audio data signal. Whether the data signal of the FC channel or the RC channel is generated is specified by the drive control unit 121A by the parameter value in the signal generation command SJG according to the operation input by the user to the operation input unit 190. It has become.

ここで、視聴想定位置(後述する集音ユニット130のマイクロフォンの設置位置)における音声と映像との同期ズレの発生原因の要素になると考えられる、ドライブ制御ユニット120Aにおける音声関連信号の主な遅延と、映像関連信号の主な遅延とについて考察すると、次の通りとなる。なお、音声/映像分離部124Aが受けるコンテンツデータ信号CTD及び同期調整用データ信号SJDの段階では、音声と映像とが完全に同期しているものとし、この段階における遅延を0であるとして、以下の説明を行う。   Here, the main delay of the audio-related signal in the drive control unit 120A, which is considered to be an element of the cause of the occurrence of the synchronization deviation between the audio and the video at the assumed viewing position (the installation position of the microphone of the sound collection unit 130 described later) Considering the main delay of the video-related signal, it is as follows. Note that at the stage of the content data signal CTD and the synchronization adjustment data signal SJD received by the audio / video separation unit 124A, it is assumed that the audio and video are completely synchronized, and the delay at this stage is 0. Will be explained.

まず、音声関連信号の遅延について考察する。ドライブ制御ユニット120Aでは、音声関連信号の遅延は、最初に、音声/映像分離部124Aにおけるコンテンツデータ信号CTDから音声データ信号ADDの分離処理の際に発生する(遅延時間DA11)。また、バスインターフェース部122における音声データ信号ADDのオーディオプリアンプユニット140Aへの送信処理の際においても遅延が発生する(遅延時間DA12)。 First, let us consider the delay of audio-related signals. In the drive control unit 120A, the delay of the audio-related signal first occurs during the separation process of the audio data signal ADD from the content data signal CTD in the audio / video separation unit 124A (delay time DA1 1 ). Also, a delay occurs during the transmission process of the audio data signal ADD to the audio preamplifier unit 140A in the bus interface unit 122 (delay time DA1 2 ).

この結果、ドライブ制御ユニット120Aにおける音声関連の遅延時間DA1は、遅延時間DA11と遅延時間DA12との和と評価できる。ここで、遅延時間DA11と遅延時間DA12とは、ドライブ制御ユニット120Aの設計段階において推定可能であることから、ドライブ制御ユニット120Aにおける音声関連信号の遅延時間DA1は、事前に推定可能なものとなっている。 As a result, the audio-related delay time DA1 in the drive control unit 120A can be evaluated as the sum of the delay time DA1 1 and the delay time DA1 2 . Here, since the delay time DA1 1 and the delay time DA1 2 can be estimated at the design stage of the drive control unit 120A, the delay time DA1 of the audio-related signal in the drive control unit 120A can be estimated in advance. It has become.

次に、映像関連信号の遅延について考察する。ドライブ制御ユニット120Aにおける映像関連信号の遅延は、上記の音声関連信号の遅延と同様に、音声/映像分離部124Aにおけるコンテンツデータ信号CTDから映像データ信号IDDの分離処理の際(遅延時間DI11)、及び、バスインターフェース部122における映像データ信号IDDの表示制御ユニット170Aへの送信処理の際に遅延が発生する(遅延時間DI12)。この結果、ドライブ制御ユニット120Aにおける映像関連信号の遅延時間DI1は、遅延時間DI11と遅延時間DI12との和となると評価される。ここで、遅延時間DI11と遅延時間DI12とは、ドライブ制御ユニット120Aの設計段階において推定可能であることから、ドライブ制御ユニット120Aにおける映像関連信号の遅延時間DI1は、事前に推定可能なものとなっている。 Next, the delay of video related signals will be considered. The delay of the video-related signal in the drive control unit 120A is similar to the delay of the audio-related signal described above when the audio / video separation unit 124A separates the content data signal CTD from the video data signal IDD (delay time DI1 1 ). In addition, a delay occurs during the transmission processing of the video data signal IDD to the display control unit 170A in the bus interface unit 122 (delay time DI1 2 ). As a result, the delay time DI1 of the video related signal in the drive control unit 120A is evaluated to be the sum of the delay time DI1 1 and the delay time DI1 2 . Here, since the delay time DI1 1 and the delay time DI1 2 can be estimated at the design stage of the drive control unit 120A, the delay time DI1 of the video-related signal in the drive control unit 120A can be estimated in advance. It has become.

図1に戻り、集音ユニット130は、(i)周囲の音を収集して電気的なアナログ音声信号とするマイクロフォン、(ii)マイクロフォンから出力されたアナログ音声信号を増幅する増幅器、(iii)増幅されたアナログ音声信号をデジタル音声信号に変換するAD変換器(Analog to Digital Converter)とを備えて構成されている。ここで、マイクロフォンは、音場空間ASP(後述する図9参照)における所定位置(例えば、運転席に視聴者が着席した場合における視聴者の耳の位置と想定される位置の近傍)に配置されている。集音ユニット130による集音結果は、集音結果情報AADとしてオーディオプリアンプユニット140Aに報告される。   Returning to FIG. 1, the sound collection unit 130 includes (i) a microphone that collects ambient sounds and generates an electrical analog audio signal, (ii) an amplifier that amplifies the analog audio signal output from the microphone, and (iii) An AD converter (Analog to Digital Converter) that converts an amplified analog audio signal into a digital audio signal is provided. Here, the microphone is arranged at a predetermined position in the sound field space ASP (see FIG. 9 to be described later) (for example, in the vicinity of the position assumed to be the viewer's ear when the viewer is seated in the driver's seat). ing. The sound collection result by the sound collection unit 130 is reported to the audio preamplifier unit 140A as sound collection result information AAD.

オーディオプリアンプユニット140Aは、図3に示されるように、遅延制御手段の一部及びテスト音声検出手段の一部としてのオーディオ制御部141Aと、バスインターフェース部142とを備えている。また、オーディオプリアンプユニット140Aは、フロー制御バッファ143と、チャンネル処理部144とを備えている。さらに、オーディオプリアンプユニット140Aは、アナログ変換部145と、音量調整部146とを備えている。   As shown in FIG. 3, the audio preamplifier unit 140 </ b> A includes an audio control unit 141 </ b> A as a part of the delay control unit and a part of the test sound detection unit, and a bus interface unit 142. The audio preamplifier unit 140A includes a flow control buffer 143 and a channel processing unit 144. Furthermore, the audio preamplifier unit 140A includes an analog conversion unit 145 and a volume adjustment unit 146.

オーディオ制御部141Aは、ドライブ制御ユニット120A及び表示制御ユニット170Aとの間で通信を行い、動作協調を図る。また、オーディオ制御部141Aは、オーディオプリアンプユニット140Aの他の構成要素142〜144,146を制御する。かかる制御には、フロー制御バッファ143を利用したデータフロー制御、チャンネル処理部144を利用したチャンネル信号調整制御及び音声遅延制御、並びに音量調整部146を利用した音量調整制御が含まれている。   The audio control unit 141A communicates with the drive control unit 120A and the display control unit 170A to achieve operation coordination. In addition, the audio control unit 141A controls the other components 142 to 144 and 146 of the audio preamplifier unit 140A. Such control includes data flow control using the flow control buffer 143, channel signal adjustment control and audio delay control using the channel processing unit 144, and volume adjustment control using the volume adjustment unit 146.

データフロー制御に際して、オーディオ制御部141Aは、データ読出クロックDRCを生成する。そして、オーディオ制御部141Aは、データ読出クロックDRCをフロー制御バッファ143へ送る。   In the data flow control, the audio control unit 141A generates a data read clock DRC. Then, the audio control unit 141A sends the data read clock DRC to the flow control buffer 143.

チャンネル信号調整制御には、周波数分離制御と音響特性調整制御が含まれる。このうちの周波数分離制御に際して、オーディオ制御部141Aは、予め定められた周波数分離情報に従って、チャンネル分離制御指令CSC及びチャンネル処理制御指令CPCを生成する。ここで、チャンネル処理制御指令CPCの生成に際しては、オーディオ制御部141Aは、後述のようにして行われる音響特性調整制御も更に考慮するようになっている。   The channel signal adjustment control includes frequency separation control and acoustic characteristic adjustment control. In the frequency separation control, the audio control unit 141A generates a channel separation control command CSC and a channel processing control command CPC according to predetermined frequency separation information. Here, in the generation of the channel processing control command CPC, the audio control unit 141A further considers the acoustic characteristic adjustment control performed as described later.

音響特性調整制御に際して、オーディオ制御部141Aは、集音ユニット130による集音結果AADに基づく雑音レベルの推定結果を参照する。かかる雑音レベルの推定に際して、オーディオ制御部141Aは、スピーカユニット1601〜1607から出力される音には通常は含まれないか、含まれたとしてもパワーの小さな周波数帯域(例えば、10Hz程度の可聴域外)の音の集音結果におけるパワーに基づいて、集音位置の騒音レベルを推定するようになっている。そして、集音位置における騒音レベルと、音場空間ASP内の全般における騒音レベルとは相関があることから、集音位置の騒音レベルを推定することにより、音場空間ASP内の全般における騒音レベルを推定する。なお、集音位置における騒音レベルと、音場空間ASP内の全般における騒音レベルとの相関は、音場空間ASPを車内空間として有する車種によって異なるが、事前に実験、シミュレーション等によって求められており、オーディオ制御部141Aに登録されている。 In the acoustic characteristic adjustment control, the audio control unit 141A refers to the noise level estimation result based on the sound collection result AAD by the sound collection unit 130. When estimating the noise level, the audio control unit 141A is not usually included in the sound output from the speaker units 160 1 to 160 7, or even if included, the frequency band with a low power (for example, about 10 Hz) is included. The noise level at the sound collection position is estimated based on the power in the sound collection result of the sound outside the audible range. Since the noise level at the sound collection position and the overall noise level in the sound field space ASP are correlated, the noise level in the sound field space ASP is estimated by estimating the noise level at the sound collection position. Is estimated. The correlation between the noise level at the sound collection position and the overall noise level in the sound field space ASP varies depending on the vehicle type having the sound field space ASP as the vehicle interior space, but has been obtained in advance through experiments, simulations, and the like. Are registered in the audio control unit 141A.

音声遅延制御に際して、オーディオ制御部141Aは、3種類の音声遅延制御を行う。第1の音声遅延制御では、オーディオ制御部141Aは、コンテンツ再生装置100Aにおける音声再生に関連する各部における処理による推定遅延時間、及び、後述する映像再生に関連する各部における処理による推定遅延時間に基づいて、スピーカユニット1601〜1607の各スピーカからの音声出力タイミングを同期させるとともに、当該音声出力タイミングと表示ユニット180Aにおける映像表示タイミングとを同期させるべく、遅延制御指令DLCを生成して、後述する信号遅延部230へ送る。なお、コンテンツ再生装置100Aにおける音声再生及び映像再生に関連する各部における処理による推定遅延時間は設計段階において既知のものであることから、当該推定遅延時間に基づいて定められる初期音声遅延時間は、予め定められ、オーディオ制御部141A内に登録されている。 In the audio delay control, the audio control unit 141A performs three types of audio delay control. In the first audio delay control, the audio control unit 141A is based on an estimated delay time due to processing in each unit related to audio reproduction in the content reproduction apparatus 100A and an estimated delay time due to processing in each unit related to video reproduction to be described later. Te, along with synchronizing the audio output timing from the speakers of the speaker unit 160 1 to 160 7, in order to synchronize the video display timing on the display unit 180A and the sound output timing, and generates a delay control command DLC, later To the signal delay unit 230. Since the estimated delay time due to the processing in each part related to audio reproduction and video reproduction in the content reproduction apparatus 100A is known at the design stage, the initial audio delay time determined based on the estimated delay time is determined in advance. Defined and registered in the audio control unit 141A.

第2の音声遅延制御では、オーディオ制御部141Aは、オーディオ制御部141A内部のテスト音源を用い、各スピーカから順次パルス状のテスト音声を出力させる。そして、集音ユニット130によるテスト音声の集音結果AADに基づいて、各スピーカからの出力音声の集音位置における同期を図るべく、遅延制御指令DLCを生成して、信号遅延部230へ送る。   In the second audio delay control, the audio control unit 141A uses the test sound source in the audio control unit 141A and sequentially outputs pulsed test audio from each speaker. Then, based on the sound collection result AAD of the test sound by the sound collection unit 130, a delay control command DLC is generated and sent to the signal delay unit 230 in order to synchronize the sound collection position of the output sound from each speaker.

第3の音声遅延制御では、オーディオ制御部141Aは、上述した同期調整信号発生部125が発生したテスト音声データ信号に基づく出力音声の集音ユニット130による集音結果AADを検出する。この検出結果と、表示制御ユニット170Aから報告された、同期調整信号発生部125が発生したテスト映像データ信号に基づく表示ユニット180Aにおける表示タイミングの検出結果とに基づいて、オーディオ制御部141Aは、リップシンクを図るべく、遅延制御指令DLCを生成して、信号遅延部230へ送る。なお、第3の音声遅延制御に際して信号遅延部230に対する遅延時間の設定のみではリップシンクを図れない場合には、オーディオ制御部141Aは、リップシンクのために必要となる表示制御ユニット170Aにおける付加遅延時間を算出して、表示制御ユニット170Aへ送る。   In the third sound delay control, the audio control unit 141A detects the sound collection result AAD by the sound collection unit 130 of the output sound based on the test sound data signal generated by the synchronization adjustment signal generation unit 125 described above. Based on the detection result and the detection result of the display timing in the display unit 180A based on the test video data signal generated by the synchronization adjustment signal generation unit 125 reported from the display control unit 170A, the audio control unit 141A In order to achieve synchronization, a delay control command DLC is generated and sent to the signal delay unit 230. When the lip sync cannot be achieved only by setting the delay time for the signal delay unit 230 in the third audio delay control, the audio control unit 141A adds the additional delay in the display control unit 170A necessary for the lip sync. The time is calculated and sent to the display control unit 170A.

音量調整制御に際して、オーディオ制御部141Aは、操作入力ユニット190に入力され、ドライブ制御部121Aからバス300を介して報告された音量調整指令に従って、音量調整制御指令VLCを生成する。生成された音量調整制御指令VLCは、オーディオ制御部141Aから、音量調整部146へ送られる。   In the volume adjustment control, the audio control unit 141A generates a volume adjustment control command VLC in accordance with the volume adjustment command input to the operation input unit 190 and reported via the bus 300 from the drive control unit 121A. The generated volume adjustment control command VLC is sent from the audio control unit 141A to the volume adjustment unit 146.

バスインターフェース部142は、オーディオ制御部141Aによる制御のもとで、オーディオプリアンプユニット140Aの内部回路とバス300とのインターフェーシングを行う。このバスインターフェース部142を利用することにより、オーディオプリアンプユニット140Aと、ドライブ制御ユニット120A及び表示制御ユニット170Aとの間で、バス300を介した通信が可能となっている。   The bus interface unit 142 interfaces the internal circuit of the audio preamplifier unit 140A and the bus 300 under the control of the audio control unit 141A. By using this bus interface unit 142, communication via the bus 300 is possible between the audio preamplifier unit 140A, the drive control unit 120A, and the display control unit 170A.

フロー制御バッファ143は、FIFO(First-In First-Out)として構成されており、ドライブ制御ユニット120Aから送られた音声データ信号ADDを、バス300及びバスインターフェース部142を介して受け、順次格納する。そして、フロー制御バッファ143は、オーディオ制御部141Aからのデータ読出クロックDRCに従って、格納されたデータをデータ信号FCDとしてチャンネル処理部144へ向けて順次送られる。   The flow control buffer 143 is configured as a first-in first-out (FIFO), receives the audio data signal ADD sent from the drive control unit 120A via the bus 300 and the bus interface unit 142, and sequentially stores them. . The flow control buffer 143 sequentially sends the stored data as the data signal FCD toward the channel processing unit 144 in accordance with the data read clock DRC from the audio control unit 141A.

チャンネル処理部144は、オーディオ制御部141Aからのチャンネル処理制御指令CPCに従って、フロー制御バッファ143からのデータ信号FCDに基づいて、6.1chサラウンド方式における各チャンネルに対応するチャンネルデータ信号PCD1〜PCD7を生成し、アナログ変換部145へ送られる。このチャンネル処理部144は、図4に示されるように、個別チャンネル信号生成手段としてのチャンネル分離部210と、音響調整手段としてのチャンネル信号調整部220と、音声遅延手段としての信号遅延部230とを備えている。 The channel processing unit 144 performs channel data signals PCD 1 to PCD corresponding to each channel in the 6.1ch surround system based on the data signal FCD from the flow control buffer 143 according to the channel processing control command CPC from the audio control unit 141A. 7 is generated and sent to the analog conversion unit 145. As shown in FIG. 4, the channel processing unit 144 includes a channel separation unit 210 as an individual channel signal generation unit, a channel signal adjustment unit 220 as an acoustic adjustment unit, and a signal delay unit 230 as an audio delay unit. It has.

チャンネル分離部210は、チャンネル処理指令CPCの一部であるチャンネル分離制御指令CSCに従って、データ信号FCDからFC〜SWチャンネル用のスピーカユニット1601〜1607に対応する分離チャンネルデータ信号SCD1〜SCD7を生成する。このチャンネル分離部210は、図5に示されるように、前段分離手段としての前段分離部211と、後段分離手段としての後段分離部212とを備えている。 Channel separation section 210, according to the channel separation control command CSC is a part of the channel processing instructions CPC, separation channel data signal SCD 1 ~SCD corresponding the data signal FCD to the speaker unit 160 1-160 7 for FC~SW channel Generate 7 . As shown in FIG. 5, the channel separation unit 210 includes a front stage separation unit 211 as a front stage separation unit and a rear stage separation unit 212 as a rear stage separation unit.

前段分離部211は、データ信号FCDに含まれるチャンネル指定情報に従って、データ信号FCDを、上述したFCチャンネル、FLチャンネル、FRチャンネル、RCチャンネル、RLチャンネル、RRチャンネル及びSWチャンネルに対応するデータ信号FSD1〜FSD7に分離する。こうして生成されたデータ信号FSD1〜FSD7は、後段分離部212へ送られる。 The pre-stage separation unit 211 converts the data signal FCD into the data signal FSD corresponding to the above-described FC channel, FL channel, FR channel, RC channel, RL channel, RR channel, and SW channel according to the channel designation information included in the data signal FCD. 1 to FSD 7 Data signals FSD 1 to FSD 7 generated in this way are sent to the post-separation unit 212.

後段分離部212は、チャンネル分離制御指令CSCに従って、前段分離部211からのデータ信号FSD1〜FSD7を再構成して、分離チャンネルデータ信号SCD1〜SCD7を生成する。この後段分離部212は、図6に示されるように、フィルタセット2151〜2156と、ローパスフィルタ(LPF)2177と、加算手段としての加算器218とを備えている。ここで、フィルタセット215k(k=1〜6)のそれぞれは、高周波成分抽出手段としてのハイパスフィルタ(HPF)216kと、低周波成分抽出手段としてのLPF217kとを含んでいる。 The rear stage separation unit 212 reconfigures the data signals FSD 1 to FSD 7 from the front stage separation unit 211 according to the channel separation control command CSC, and generates separated channel data signals SCD 1 to SCD 7 . As shown in FIG. 6, the post-stage separation unit 212 includes filter sets 215 1 to 215 6 , a low-pass filter (LPF) 217 7, and an adder 218 as addition means. Here, each of the filter sets 215 k (k = 1 to 6) includes a high-pass filter (HPF) 216 k as high-frequency component extraction means and LPF 217 k as low-frequency component extraction means.

HPF216kのそれぞれは、NH1タップのFIR直線位相型フィルタとして構成され、所定周波数f1よりも高い周波数成分に対応するデータ信号を選択的に通過させる。このHPF216kのタップ係数は、オーディオ制御部141Aにより、チャンネル分離制御指令CSCの一部である高域分離制御指令CSHkとして指定される。HPF216kから出力されたデータ信号は、分離チャンネルデータ信号SCDkとしてチャンネル信号調整部220へ送られる。 Each of the HPFs 216 k is configured as an NH 1- tap FIR linear phase filter, and selectively passes a data signal corresponding to a frequency component higher than the predetermined frequency f 1 . The tap coefficient of the HPF 216 k is designated by the audio control unit 141A as a high frequency separation control command CSH k that is a part of the channel separation control command CSC. The data signal output from the HPF 216 k is sent to the channel signal adjustment unit 220 as the separated channel data signal SCD k .

なお、所定周波数f1は、SWチャンネルの音としてのみスピーカユニット1607から出力させるべきサブウーハ音の予め定められた周波数帯域の上限周波数となるように定められる。 The predetermined frequency f 1 is determined only as the upper limit frequency of the predetermined frequency band of the subwoofer sound to be output from the speaker unit 160 7 as the sound of the SW channel.

LPF217j(j=1〜7)のそれぞれは、NL1タップのFIR直線位相型フィルタとして構成され、所定周波数f1よりも低い周波数成分を選択的に通過させる。このLPF216jのタップ係数は、オーディオ制御部141Aにより、チャンネル分離制御指令CSCの一部である低域分離制御指令CSLkとして指定される。LPF217jから出力されたデータ信号は、加算器218へ送られる。 Each of the LPFs 217 j (j = 1 to 7) is configured as an NL 1- tap FIR linear phase filter and selectively passes a frequency component lower than the predetermined frequency f 1 . The tap coefficient of the LPF 216 j is designated as a low frequency separation control command CSL k that is a part of the channel separation control command CSC by the audio control unit 141A. The data signal output from the LPF 217 j is sent to the adder 218.

加算器218は、LPF217j(j=1〜7)から出力されたデータ信号の和を算出する。この算出結果は、分離チャンネルデータ信号SCD7としてチャンネル信号調整部220へ送られる。 The adder 218 calculates the sum of the data signals output from the LPF 217 j (j = 1 to 7). The calculation result is sent to the channel signal adjustment unit 220 as the separated channel data signal SCD 7 .

図4に戻り、チャンネル信号調整部220は、チャンネル処理指令CPCの一部であるチャンネル信号調整指令ACCに従って、チャンネル分離部210からの分離チャンネルデータ信号SCD1〜SCD7から調整チャンネルデータ信号ACD1〜ACD7を生成する。このチャンネル信号調整部220は、図7に示されるように、個別音響特性調整手段としてのフィルタセット2211〜2216を備えている。ここで、フィルタセット221k(k=1〜6)のそれぞれは、ハイパスフィルタ(HPF)222kと、LPF223kとを含んでいる。 Returning to FIG. 4, the channel signal adjustment unit 220 performs the adjustment channel data signal ACD 1 from the separation channel data signals SCD 1 to SCD 7 from the channel separation unit 210 according to the channel signal adjustment command ACC that is a part of the channel processing command CPC. ~ ACD 7 is produced. As shown in FIG. 7, the channel signal adjusting unit 220 includes filter sets 221 1 to 221 6 as individual acoustic characteristic adjusting means. Here, each of the filter sets 221 k (k = 1 to 6) includes a high-pass filter (HPF) 222 k and an LPF 223 k .

HPF222kのそれぞれは、NH2タップのFIR直線位相型フィルタとして構成され、所定周波数f2(>f1)よりも高い周波数成分に対応するデータ信号を選択するとともに、そのデータ信号に関する音響調整を行う。このHPF222kのタップ係数は、オーディオ制御部141Aにより、チャンネル信号調整指令ACCの一部である高域調整制御指令ACHkとして指定される。HPF222kから出力された高域調整チャンネルデータ信号ACDHkは、調整チャンネルデータ信号ACDkの一部して信号遅延部230へ送られる。 Each of the HPFs 222 k is configured as an NH 2 tap FIR linear phase filter, selects a data signal corresponding to a frequency component higher than a predetermined frequency f 2 (> f 1 ), and performs acoustic adjustment on the data signal. Do. The tap coefficient of the HPF 222 k is designated by the audio control unit 141A as a high frequency adjustment control command ACH k that is a part of the channel signal adjustment command ACC. High-frequency adjustment channel data signal AcDH k output from HPF222 k is sent to a part of the adjustment channel data signal ACD k to the signal delay unit 230.

なお、所定周波数f2は、後述するスピーカユニット160kにおける高音域スピーカ160Hkと低音域スピーカ160Lkとの出力音声周波数の棲み分けに従って、予め定められる。 The predetermined frequency f 2 in accordance with the segregation of the output sound frequency of the high frequency range speaker 160H k and bass speaker 160L k of the speaker units 160 k to be described later, are predetermined.

LPF223kのそれぞれは、NL2タップのFIR直線位相型フィルタとして構成され、所定周波数f2よりも低い周波数成分を選択的に通過させる。このLPF223kのタップ係数は、オーディオ制御部141Aにより、チャンネル信号調整指令ACCの一部である低域分離制御指令ACLkとして指定される。LPF223kから出力された低域調整チャンネルデータ信号ACDLkは、調整チャンネルデータ信号ACDkの一部として信号遅延部230へ送られる。 Each of the LPFs 223 k is configured as an NL 2- tap FIR linear phase filter, and selectively passes a frequency component lower than the predetermined frequency f 2 . The LPF 223 k tap coefficient is designated by the audio control unit 141A as a low-frequency separation control command ACL k that is a part of the channel signal adjustment command ACC. Low-frequency adjustment channel data signal ACDL k output from LPF223 k is sent to the signal delay unit 230 as a part of the adjustment channel data signal ACD k.

なお、分離チャンネルデータ信号SCD7は、チャンネル信号調整部220においては何等の調整処理が施されずに、そのまま調整チャンネルデータ信号ACD7のとして信号遅延部230へ送られる。 The separated channel data signal SCD 7 is sent to the signal delay unit 230 as it is as the adjusted channel data signal ACD 7 without being subjected to any adjustment processing in the channel signal adjustment unit 220.

図4に戻り、信号遅延部230は、オーディオ制御部141Aからの遅延制御指令DLCに従って、調整チャンネルデータ信号ACDj(j=1〜7)のそれぞれを遅延させて、チャンネルデータ信号PCDjを生成する。ここで、調整チャンネルデータ信号ACDk(k=1〜6)は、高域調整チャンネルデータ信号ACDHkと低域調整チャンネルデータ信号ACDLkとから構成されているが、これらの信号ACDHk,ACDLkについても、信号遅延部230は、個別に遅延を付与する。 Returning to FIG. 4, the signal delay unit 230 generates the channel data signal PCD j by delaying each of the adjusted channel data signals ACD j (j = 1 to 7) according to the delay control command DLC from the audio control unit 141A. To do. Here, the adjustment channel data signal ACCD k (k = 1 to 6) is composed of a high-frequency adjustment channel data signal ACDH k and a low-frequency adjustment channel data signal ACDL k, and these signals ACDH k and ACDL. Also for k , the signal delay unit 230 individually gives a delay.

この信号遅延部230は、図8に示されるように、個別音声遅延手段としての遅延器セット2311〜2316と遅延器2337とを備えている。ここで、遅延器セット231k(k=1〜6)のそれぞれは、遅延器232kと遅延器233kとを備えている。 The signal delay unit 230, as shown in FIG. 8, and a delay device 233 7 a delay unit set 231 1-231 6 as a separate audio delay means. Here, each of the delay set 231 k (k = 1 to 6) includes a delay 232 k and a delay 233 k .

遅延器232kは、遅延制御指令DLCの一部である高域遅延指定DCHkで指定された遅延時間DHkだけ高域調整チャンネルデータ信号ACDHkを遅延させる。遅延器232kによる遅延結果である高域チャンネルデータ信号PCDHkは、チャンネルデータ信号PCDkの一部としてアナログ変換部145へ送られる。 The delay unit 232 k delays the high-frequency adjustment channel data signal ACDH k by the delay time DH k specified by the high-frequency delay specification DCH k that is a part of the delay control command DLC. The high-frequency channel data signal PCDH k that is the result of delay by the delay device 232 k is sent to the analog conversion unit 145 as a part of the channel data signal PCD k .

遅延器233kは、遅延制御指令DLCの一部である低域遅延指定DCLkで指定された遅延時間DLkだけ低域調整チャンネルデータ信号ACDLkを遅延させる。遅延器233kによる遅延結果である低域チャンネルデータ信号PCDLkは、チャンネルデータ信号PCDkの一部としてアナログ変換部145へ送られる。 The delay unit 233 k delays the low-frequency adjustment channel data signal ACDL k by the delay time DL k specified by the low-frequency delay specification DCL k that is a part of the delay control command DLC. The low-frequency channel data signal PCDL k that is a result of delay by the delay device 233 k is sent to the analog conversion unit 145 as a part of the channel data signal PCD k .

遅延器2337は、遅延制御指令DLCの一部であるサブウーハ域遅延指定DCL7で指定された遅延時間DL7だけ調整チャンネルデータ信号ACD7を遅延させる。遅延器2337による遅延結果であるチャンネルデータ信号PCD7は、アナログ変換部145へ送られる。 The delay unit 233 7 delays the adjustment channel data signal ACD 7 by the delay time DL 7 specified by the subwoofer delay specification DCL 7 which is a part of the delay control command DLC. The channel data signal PCD 7 that is the result of delay by the delay unit 233 7 is sent to the analog conversion unit 145.

図3に戻り、アナログ変換部145は、チャンネル信号処理部144からのチャンネルデータ信号PCD1〜PCD7に含まれる13種のデジタルデータ信号を、それぞれアナログ信号に変換する。このアナログ変換部145は、当該13種のデジタルデータ信号に対応して、互いに同様に構成された13個のDA(Digital to Analogue)変換器を備えている。 Returning to FIG. 3, the analog conversion unit 145 converts the 13 types of digital data signals included in the channel data signals PCD 1 to PCD 7 from the channel signal processing unit 144 into analog signals. The analog conversion unit 145 includes 13 DA (Digital to Analogue) converters configured similarly to each other corresponding to the 13 types of digital data signals.

アナログ変換部145によるアナログ変換結果であるアナログ信号PBS1〜PBS7は、音量調整部146へ送られる。なお、アナログ信号PBSk(k=1〜6)のそれぞれには、高域チャンネルデータ信号PCDHkのアナロク変換信号及び低域チャンネルデータ信号PCDLkのアナロク変換信号の2種のアナロク信号が含まれている。 Analog signals PBS 1 to PBS 7 that are analog conversion results by the analog conversion unit 145 are sent to the volume adjustment unit 146. Each of the analog signals PBS k (k = 1 to 6) includes two types of analog signals, an analog conversion signal of the high-frequency channel data signal PCDH k and an analog conversion signal of the low-frequency channel data signal PCDL k. ing.

音量調整部146は、オーディオ制御部141Aからの音量調整制御指令VLCに従って、アナログ変換部145からのアナログ信号PBS1〜PBS7に含まれる13種のアナログ信号のレベルのそれぞれを、互いに同様に構成された増幅器により調整する。この調整の結果は、プリアンプ出力信号PAS1〜PAS7としてオーディオメインアンプユニット150へ送られる。 The volume adjustment unit 146 is configured in the same manner as each of the 13 types of analog signals included in the analog signals PBS 1 to PBS 7 from the analog conversion unit 145 in accordance with the volume adjustment control command VLC from the audio control unit 141A. It adjusts with the amplifier which was made. The result of this adjustment is sent to the audio main amplifier unit 150 as preamplifier output signals PAS 1 to PAS 7 .

ここで、視聴想定位置における音声と映像との同期ズレの発生原因に要素になると考えられる、オーディオプリアンプユニット140Aにおける音声関連信号の主な遅延を、信号遅延部230以外について考察すると、次の通りとなる。   Here, the main delay of the audio-related signal in the audio preamplifier unit 140A, which is considered to be a factor in the occurrence of the synchronization deviation between the audio and the video at the assumed viewing position, is considered as follows, except for the signal delay unit 230. It becomes.

オーディオプリアンプユニット140Aでは、バスインターフェース部142における音声データ信号ADDのオーディオプリアンプユニット140A内部への出力処理の際に遅延が発生する(遅延時間DA21)。引き続き、フロー制御バッファ143への音声データADDの入力から、データ読出クロックDRCによるデータ読み出しまでの遅延(平均遅延時間DA22)が発生する。 In the audio preamplifier unit 140A, a delay occurs when the bus interface unit 142 outputs the audio data signal ADD to the audio preamplifier unit 140A (delay time DA2 1 ). Subsequently, a delay (average delay time DA2 2 ) from the input of the audio data ADD to the flow control buffer 143 to the data reading by the data reading clock DRC is generated.

次に、前段分離部211におけるデータ信号FCDからデータ信号FSD1〜FSD7への分離処理に際して遅延(遅延時間DA23)が発生する。引き続き、後段分離部212におけるデータ信号FSD1〜FSD7基づく分離チャンネルデータ信号SCD1〜SCD7の生成処理に際して遅延が発生する。 Next, a delay (delay time DA2 3 ) occurs during the separation process from the data signal FCD to the data signals FSD 1 to FSD 7 in the pre-stage separation unit 211. Subsequently, delays in generating processing of the data signal FSD 1 ~FSD 7 based separation channel data signal SCD 1 ~SCD 7 at a subsequent stage separation unit 212.

ここで、分離チャンネルデータ信号SCDk(k=1〜6)のそれぞれの生成に際しては、NH1タップの直線位相型のFIRフィルタである216kによる遅延(遅延時間DA24H(=NH1/(2fS);fSは、音声データ信号におけるサンプリング周波数))が発生する。一方、分離チャンネルデータ信号SCD7の生成に際しては、NL1タップの直線位相型のFIAフィルタである217kによる遅延(遅延時間DA24L(=NL1/(2fS))、及び、加算器218における加算処理による遅延(遅延時間DA24A)が発生する。 Here, in each generation of the separation channel data signal SCD k (k = 1~6) is delayed by 216 k is linear phase FIR filter of NH 1 tap (delay time DA2 4H (= NH 1 / ( 2f S ); f S is the sampling frequency in the audio data signal)). On the other hand, when the separated channel data signal SCD 7 is generated, a delay (delay time DA2 4L (= NL 1 / (2f S )) due to 217 k which is an NL 1- tap linear phase type FIA filter, and an adder 218 Causes a delay (delay time DA2 4A ) due to the addition processing in FIG.

次いで、チャンネル信号処理部220における分離チャンネルデータ信号SCD1〜SCD7に基づく調整チャンネルデータ信号ACD1〜ACD7の生成処理に際して遅延が発生する。ここで、高域調整チャンネルデータ信号ACDHkのそれぞれの生成に際しては、NH2タップの直線位相型のFIRフィルタである222kによる遅延(遅延時間DA25H(=NH2/(2fS))が発生する。一方、低域調整チャンネルデータ信号ACDLkのそれぞれの生成に際しては、NL2タップの直線位相型のFIAフィルタである223kによる遅延(遅延時間DA25L(=NL2/(2fS))が発生する。 Then, delay occurs in generating processing for adjusting channel data signal ACD 1 ~ACD 7 based on the separation channel data signal SCD 1 ~SCD 7 in the channel signal processor 220. Here, when each of the high-frequency adjustment channel data signals ACDH k is generated, a delay (delay time DA2 5H (= NH 2 / (2f S )) due to 222 k which is an NH 2 tap linear phase type FIR filter is generated. On the other hand, when each low-frequency adjustment channel data signal ACDL k is generated, a delay (delay time DA2 5L (= NL 2 / (2f S )) by 223 k , which is an NL 2- tap linear phase type FIA filter, is generated. ) Occurs.

信号遅延部230を介した後は、アナログ変換部145におけるアナログ変換処理に際して、チャンネルデータ信号PCD1〜PCD7における13種の信号に共通した遅延(遅延時間DA26)が発生する。引き続き、音量調整部146における音量調整処理に際して、プリアンプ出力信号PAS1〜PAS7における13種の信号にほぼ共通した遅延(遅延時間DA27)が発生する。 After passing through the signal delay unit 230, a delay common to the 13 types of signals in the channel data signals PCD 1 to PCD 7 (delay time DA2 6 ) occurs during the analog conversion processing in the analog conversion unit 145. Subsequently, when the sound volume adjustment processing in volume adjusting unit 146, substantially common delay 13 kinds of the signal at the preamplifier output signal PAS 1 ~PAS 7 (delay time DA2 7) is generated.

以上より、オーディオプリアンプユニット140Aにおいては、プリアンプ出力信号PASHk(k=1〜6)の生成に際して、次の(1)で表される遅延時間DA2Hkの遅延が発生すると評価される。
DA2Hk=(DA21+DA22+DA23+DA24H+DA25H+DA26+DA27)+DHk=DA2H+DHk …(1)
From the above, in the audio preamplifier unit 140A, upon generation of the preamplifier output signal PASH k (k = 1 to 6), the delay of the delay time DA2H k represented by the following (1) is estimated to occur.
DA2H k = (DA2 1 + DA2 2 + DA2 3 + DA2 4H + DA2 5H + DA2 6 + DA2 7 ) + DH k = DA2 H + DH k (1)

また、オーディオプリアンプユニット140Aにおいては、プリアンプ出力信号PASLk(k=1〜6)の生成に際して、次の(2)で表される遅延時間DA2Lkの遅延が発生すると評価される。
DA2Lk=(DA21+DA22+DA23+DA24L+DA25L+DA26+DA27)+DLk=DA2L+DLk …(2)
In the audio preamplifier unit 140A, upon generation of the preamplifier output signal PASL k (k = 1 to 6), the delay of the delay time DA2L k represented by the following (2) is estimated to occur.
DA2L k = (DA2 1 + DA2 2 + DA2 3 + DA2 4L + DA2 5L + DA2 6 + DA2 7 ) + DL k = DA2 L + DL k (2)

また、オーディオプリアンプユニット140Aにおいては、プリアンプ出力信号PASL7の生成に際して、次の(3)で表される遅延時間DA2L7の遅延が発生すると評価される。
DA2L7=(DA21+DA22+DA23+DA24L+DA24A+DA26+DA27)+DL7=DA2SW+DL7 …(3)
Further, in the audio preamplifier unit 140A, it is evaluated that the delay of the delay time DA2L 7 represented by the following (3) occurs when the preamplifier output signal PASL 7 is generated.
DA2L 7 = (DA2 1 + DA2 2 + DA2 3 + DA2 4L + DA2 4A + DA2 6 + DA2 7 ) + DL 7 = DA2 SW + DL 7 (3)

図1に戻り、オーディオメインアンプユニット150は、オーディオプリアンプユニット140Aからのプリアンプ出力信号PAS1〜PAS7における13種のアナログ信号をそれぞれ増幅し、出力音声信号AOS1〜AOS7を生成する。ここで、出力音声信号AOSk(k=1〜6)のそれぞれには、高域出力音声信号AOSHk及び低域出力音声信号AOSLkの2種のアナログ信号が含まれている(図10参照)。このオーディオメインアンプユニット150は、プリアンプ出力信号PAS1〜PAS7における13種のアナログ信号のそれぞれに対応して配設され、互いに同様に構成された増幅器を備えて構成されている。オーディオメインアンプユニット150においては、出力音声信号AOS1〜AOS7における13種のアナログ信号にほぼ共通した遅延(遅延時間DA3)が発生すると評価される。 Returning to FIG. 1, the audio main amplifier unit 150 amplifies the 13 types of analog signals in the preamplifier output signals PAS 1 to PAS 7 from the audio preamplifier unit 140A, and generates output audio signals AOS 1 to AOS 7 . Here, each of the output audio signals AOS k (k = 1 to 6) includes two kinds of analog signals of the high frequency output audio signal AOSH k and the low frequency output audio signal AOSL k (see FIG. 10). ). The audio main amplifier unit 150 is provided corresponding to each of 13 types of analog signals in the preamplifier output signals PAS 1 to PAS 7 and includes amplifiers configured in the same manner. In the audio main amplifier unit 150, it is evaluated that a delay (delay time DA3) substantially common to 13 types of analog signals in the output audio signals AOS 1 to AOS 7 occurs.

スピーカユニット1601〜1607は、オーディオメインアンプユニット150からの出力音声信号AOS1〜AOS7に従って、音声を音場空間ASPへ向けて出力する。ここで、スピーカユニット160k(k=1〜6)のそれぞれは、図10に示されるように、高域スピーカ160Hk及び低域スピーカ160Lkを含んでいる。ここで、高域スピーカ160Hkは、互いに同様に構成されている。また、低域スピーカ160Lkは、互いに同様に構成されている。そして、高域スピーカ160Hkは、高域出力音声信号AOSHkに従って音声出力を行う。また、低域スピーカ160Lkは、低域出力音声信号AOSLkに従って音声出力を行う。 The speaker units 160 1 to 160 7 output sound toward the sound field space ASP according to the output sound signals AOS 1 to AOS 7 from the audio main amplifier unit 150. Here, each of the speaker units 160 k (k = 1~6), as shown in FIG. 10, includes a high-frequency speaker 160H k and low speaker 160L k. Here, the high-frequency speakers 160H k are configured in the same manner. The low-frequency speakers 160L k are configured in the same manner. Then, the high frequency speaker 160H k performs audio output according to the high frequency output audio signal AOSH k . The low-frequency speaker 160L k performs audio output according to the low frequency output audio signal AOSL k.

また、スピーカユニット1607は、図11に示されるように、サブウーハ音声用の低域スピーカ160L7を含んでいる。そして、低域スピーカ160L7は、低域出力音声信号AOSL7に従って音声出力を行う。 The speaker units 160 7, as shown in FIG. 11, includes a low-frequency speaker 160L 7 for subwoofer audio. The low frequency speaker 160L 7 performs audio output according to the low frequency output audio signal AOSL 7.

スピーカユニット1601〜1607においては、高域スピーカ160Hkのそれぞれからの音声出力に際して遅延時間DA4Hの遅延が発生し、低域スピーカ160Lkからの音声出力に際して遅延時間DA4Lの遅延が発生する。また、低域スピーカ160L7からの音声出力に際して遅延時間DA47の遅延が発生すると評価される。 In the speaker units 160 1 to 160 7 , a delay time DA4 H occurs when the sound is output from each of the high-frequency speakers 160H k , and a delay time DA4 L occurs when the sound is output from the low-frequency speakers 160L k. To do. Also, it is evaluated as the delay time DA4 7 delay time of the audio output from the low-frequency speakers 160L 7 occurs.

以上のドライブ制御ユニット120A、オーディオプリアンプユニット140A、オーディオメインアンプユニット150及びスピーカユニット1601〜1607における音声信号関連信号の遅延をまとめると、次の通りとなる。 The drives control unit 120A, an audio preamplifier unit 140A, summarized the delay of the audio signal related signals in an audio main amplifier unit 150 and speaker unit 160 1 to 160 7, the following.

高域スピーカ160Hk(k=1〜6)からの音声出力については、音声/映像分離部124Aが受けるコンテンツデータ信号CTD及び同期調整用データ信号SJDの段階から、次の(4)式で表される遅延時間DATHの遅延が発生する。
DATH=DA1+DA2H+DHk+DA3+DA4H …(4)
The audio output from the high frequency speaker 160H k (k = 1 to 6) is expressed by the following equation (4) from the stage of the content data signal CTD and the synchronization adjustment data signal SJD received by the audio / video separation unit 124A. delay delay time DAT H is generated to be.
DAT H = DA 1 + DA2 H + DH k + DA3 + DA4 H (4)

また、低域スピーカ160Lkからの音声出力については、音声/映像分離部124Aが受けるコンテンツデータ信号CTD及び同期調整用データ信号SJDの段階から、次の(5)式で表される遅延時間DATLの遅延が発生する。
DATL=DA1+DA2L+DLk+DA3+DA4L …(5)
For audio output from the low-frequency speaker 160L k , the delay time DAT represented by the following equation (5) from the stage of the content data signal CTD and the synchronization adjustment data signal SJD received by the audio / video separation unit 124A. L delay occurs.
DAT L = DA 1 + DA2 L + DL k + DA3 + DA4 L (5)

また、低域スピーカ160L7からの音声出力については、音声/映像分離部124Aが受けるコンテンツデータ信号CTD及び同期調整用データ信号SJDの段階から、次の(6)式で表される遅延時間DAT7の遅延が発生する。
DAT7=DA1+DA2SW+DLk+DA3+DA47 …(6)
Also, the audio output from the low-frequency speakers 160L 7, from the stage of the content data signals CTD and the synchronization adjustment data signal SJD audio / video separation unit 124A receives the delay time is expressed by the following equation (6) DAT 7 delays occur.
DAT 7 = DA 1 + DA2 SW + DL k + DA3 + DA4 7 (6)

図1の表示制御ユニット170Aは、図12に示されるように、遅延制御手段の一部としての表示制御部171Aと、バスインターフェース部172とを備えている。また、表示制御ユニット170は、映像遅延手段としての映像遅延部173と、デコード部174とを備えている。   As shown in FIG. 12, the display control unit 170A in FIG. 1 includes a display control unit 171A and a bus interface unit 172 as a part of the delay control means. In addition, the display control unit 170 includes a video delay unit 173 and a decoding unit 174 as video delay means.

表示制御部171Aは、ドライブ制御ユニット120A及びオーディオプリアンプユニット140Aとの間で通信を行い、動作協調を図る。また、表示制御部171Aは、表示制御ユニット170Aの他の構成要素172〜174を制御する。かかる制御には、映像遅延部173を利用した映像遅延制御、デコード部174を利用したデコード制御、及び表示デバイス制御が含まれている。   The display control unit 171A communicates with the drive control unit 120A and the audio preamplifier unit 140A to achieve operation coordination. Further, the display control unit 171A controls the other components 172 to 174 of the display control unit 170A. Such control includes video delay control using the video delay unit 173, decode control using the decoding unit 174, and display device control.

映像遅延制御に際して、表示制御部171Aは、2種類の遅延制御を行う。第1の映像遅延制御では、表示制御部171Aは、コンテンツ再生装置100Aにおける映像再生に関連する各部における処理による推定遅延時間、及び、上述した音声再生に関する各部における処理による推定遅延時間に基づいて、スピーカユニット1601〜1607の各スピーカからの音声出力タイミングと表示ユニット180Aにおける映像表示タイミングとを同期させるべく、遅延制御指令DRCを生成して、映像遅延部173へ送る。なお、上述したように、コンテンツ再生装置100Aにおける音声再生及び映像再生に関連する各部における処理による推定遅延時間は設計段階において既知のものであることから、当該推定遅延時間に基づいて定められる初期映像遅延時間は、予め定められ、表示制御部171A内に登録されている。 In the video delay control, the display control unit 171A performs two types of delay control. In the first video delay control, the display control unit 171A, based on the estimated delay time due to processing in each unit related to video playback in the content playback device 100A, and the estimated delay time due to processing in each unit related to audio playback described above, in order to synchronize the video display timing on the display unit 180A and the sound output timing from the speakers of the speaker unit 160 1 to 160 7, and generates a delay control command DRC, sent to image delay unit 173. As described above, since the estimated delay time due to the processing in each part related to audio reproduction and video reproduction in the content reproduction apparatus 100A is known at the design stage, the initial video determined based on the estimated delay time The delay time is predetermined and registered in the display control unit 171A.

第2の映像遅延制御では、表示制御部171Aは、オーディオプリアンプユニット140Aから受信した付加遅延時間を初期映像遅延時間に加算した補正映像遅延時間を算出する。そして、表示制御部171Aは、補正映像遅延時間の設定指令を、遅延制御指令DRCとして映像遅延部173へ送る。   In the second video delay control, the display control unit 171A calculates a corrected video delay time obtained by adding the additional delay time received from the audio preamplifier unit 140A to the initial video delay time. Then, the display control unit 171A sends a correction video delay time setting command to the video delay unit 173 as a delay control command DRC.

表示デバイス制御では、表示制御部171Aは、表示ユニット180Aにおける表示デバイスが例えば液晶ディスプレイの場合には、例えばバックライトの点灯又は滅灯を制御するための表示デバイス制御指令DPCを生成する。生成された表示デバイス制御指令DPCは、表示ユニット180Aへ送られる。   In the display device control, when the display device in the display unit 180A is, for example, a liquid crystal display, the display control unit 171A generates a display device control command DPC for controlling, for example, turning on or off the backlight. The generated display device control command DPC is sent to the display unit 180A.

また、表示制御部171Aは、表示ユニット180Aから上述したテスト映像データ信号を検出した旨をテスト映像データ検出結果SDDとして受けると、直ちにその旨をオーディオプリアンプユニット140Aへ報告する。   Further, when the display control unit 171A receives from the display unit 180A that the test video data signal described above has been detected as the test video data detection result SDD, it immediately reports that fact to the audio preamplifier unit 140A.

バスインターフェース部172は、表示制御部171Aによる制御のもとで、表示制御ユニット170Aの内部回路とバス300とのインターフェーシングを行う。このバスインターフェース部172を利用することにより、表示制御ユニット170Aと、ドライブ制御ユニット120A及びオーディオプリアンプユニット140Aとの間で、バス300を介した通信が可能となっている。   The bus interface unit 172 interfaces the internal circuit of the display control unit 170A and the bus 300 under the control of the display control unit 171A. By using the bus interface unit 172, communication via the bus 300 is possible between the display control unit 170A, the drive control unit 120A, and the audio preamplifier unit 140A.

映像遅延部173は、ドライブ制御ユニット120Aから送られた映像データ信号IDDを、バス300及びバスインターフェース部172を介して受け、表示制御部171Aからの遅延制御指令DRCに従って遅延をさせる(遅延時間DM)。この遅延結果は、遅延映像信号D1Dとして、デコード部174へ送られる。   The video delay unit 173 receives the video data signal IDD sent from the drive control unit 120A via the bus 300 and the bus interface unit 172, and delays it according to the delay control command DRC from the display control unit 171A (delay time DM ). The delay result is sent to the decoding unit 174 as a delayed video signal D1D.

デコード部174は、デコード制御指令DCCによる表示制御部171Aの制御のもとで、MPEGコード化されている遅延映像信号DIDをデコードして、出力映像データ信号DMDを生成する。生成された出力映像データ信号DMDは、表示ユニット180Aへ送られる。   The decode unit 174 decodes the MPEG-encoded delayed video signal DID under the control of the display control unit 171A according to the decode control command DCC, and generates an output video data signal DMD. The generated output video data signal DMD is sent to the display unit 180A.

ここで、視聴想定位置における音声と映像との同期ズレの発生原因に要素になると考えられる、表示制御ユニット170Aにおける映像関連信号の主な遅延を、映像遅延部173以外について考察すると、次の通りとなる。   Here, considering the main delay of the video-related signal in the display control unit 170A, which is considered to be a factor in the occurrence of the synchronization deviation between the audio and the video at the assumed viewing position, except for the video delay unit 173, it is as follows. It becomes.

表示制御ユニット170Aでは、バスインターフェース部172における映像データ信号IDDのオーディオプリアンプユニット140A内部への出力処理の際に遅延(遅延時間DI21)が発生する。そして、映像遅延部173を介した後には、デコード部174におけるデコード処理の際に遅延(遅延時間DI22)が発生する。 In the display control unit 170A, a delay (delay time DI2 1 ) occurs when the bus interface unit 172 outputs the video data signal IDD to the audio preamplifier unit 140A. Then, after passing through the video delay unit 173, a delay (delay time DI2 2 ) occurs during the decoding process in the decoding unit 174.

したがって、表示制御ユニット170Aでは、映像関連信号について、次の(7)式で表される遅延時間DI2Tの遅延が発生すると評価される。
DI2T=(DI21+DI22)+DM=DI2+DM …(7)
Therefore, the display control unit 170A evaluates that the delay of the delay time DI2T represented by the following equation (7) occurs for the video related signal.
DI2T = (DI2 1 + DI2 2 ) + DM = DI2 + DM (7)

図1の表示ユニット180Aは、図13に示されるように、アナログ変換部181と、表示デバイス182とを備えている。さらに、表示ユニット180Aは、テスト映像検出手段としてのテスト映像データ信号検出部183を備えている。   The display unit 180A of FIG. 1 includes an analog conversion unit 181 and a display device 182 as shown in FIG. Further, the display unit 180A includes a test video data signal detection unit 183 as test video detection means.

アナログ変換部181は、表示制御ユニット170Aからの出力映像データ信号DMDを出力映像アナログ信号MOSに変換する。このアナログ変換部181は、同様に構成された必要な数のDA変換器を備えて構成される。出力映像アナログ信号MOSは、表示デバイスへ送られる。   The analog conversion unit 181 converts the output video data signal DMD from the display control unit 170A into an output video analog signal MOS. The analog conversion unit 181 includes a necessary number of DA converters configured similarly. The output video analog signal MOS is sent to the display device.

表示デバイス182は、アナログ変換部181からの出力映像アナログ信号MOSに従って、映像表示を行う。この表示デバイス182は、液晶表示パネル等から構成されている。   The display device 182 performs video display according to the output video analog signal MOS from the analog conversion unit 181. The display device 182 includes a liquid crystal display panel or the like.

テスト映像データ信号検出部183は、出力映像アナログ信号MOSにおけるテスト映像データ信号に由来する信号を検出する。テスト映像データ信号検出部183は、検出結果を、テスト映像データ検出結果SDDとして表示制御ユニット170Aへ送る。   The test video data signal detector 183 detects a signal derived from the test video data signal in the output video analog signal MOS. The test video data signal detection unit 183 sends the detection result as the test video data detection result SDD to the display control unit 170A.

ここで、視聴想定位置における音声と映像との同期ズレの発生原因に要素になると考えられる、表示ユニット180Aにおける映像関連信号の主な遅延を考察すると、次の通りとなる。   Here, the main delay of the video-related signal in the display unit 180A, which is considered to be a factor in the occurrence of the synchronization shift between the audio and the video at the assumed viewing position, is as follows.

表示ユニット180Aでは、まず、アナログ変換部181におけるアナログ変換処理に際して、遅延(遅延時間DA31)が発生する。引き続き、表示デバイス182における
映像表示に際して遅延(遅延時間DA32)の遅延が発生する。
In the display unit 180A, first, a delay (delay time DA3 1 ) occurs during the analog conversion processing in the analog conversion unit 181. Subsequently, a delay (delay time DA3 2 ) occurs when displaying video on the display device 182.

したがって、表示制御ユニット170Aでは、映像関連信号について、次の(8)式で表される遅延時間DI3の遅延が発生すると評価される。
DI3=(DI31+DI32) …(8)
Therefore, the display control unit 170A evaluates that the delay of the delay time DI3 expressed by the following equation (8) occurs for the video related signal.
DI3 = (DI3 1 + DI3 2 ) (8)

以上のドライブ制御ユニット120A、表示制御ユニット170A及び表示ユニット180Aにおける映像信号関連信号の遅延をまとめると、表示デバイス182における表示出力については、音声/映像分離部124Aが受けるコンテンツデータ信号CTD及び同期調整用データ信号SJDの段階から、次の(9)式で表される遅延時間DMTの遅延が発生する。
DMT=DI1+DI2+DM+DI3 …(9)
When the delays of the video signal related signals in the drive control unit 120A, the display control unit 170A, and the display unit 180A are summarized, the display output in the display device 182 includes the content data signal CTD and the synchronization adjustment received by the audio / video separation unit 124A. The delay of the delay time DMT represented by the following equation (9) occurs from the stage of the data signal SJD.
DMT = DI1 + DI2 + DM + DI3 (9)

なお、オーディオプリアンプユニット140Aのオーディオ制御部141Aに登録される遅延時間(DHk,DLk,DL7)の初期値である上述した初期音声遅延時間(FDHk,FDLk,FDL7)、及び、表示制御ユニット170Aの表示制御部171Aに登録される遅延時間DMの初期値である上述した初期映像遅延時間FDMは、次の(10)式を満たすように、予め定められる。
DATH=DATL=DAT7=DMT …(10)
The initial voice delay time (FDH k , FDL k , FDL 7 ), which is the initial value of the delay time (DH k , DL k , DL 7 ) registered in the audio control unit 141A of the audio preamplifier unit 140A, and The initial video delay time FDM, which is the initial value of the delay time DM registered in the display control unit 171A of the display control unit 170A, is determined in advance so as to satisfy the following equation (10).
DAT H = DAT L = DAT 7 = DMT (10)

図1の操作入力ユニット190は、コンテンツ再生装置100Aの本体部に設けられたキー部、あるいはキー部を備えるリモート入力装置等により構成される。ここで、本体部に設けられたキー部としては、表示ユニット180Aの表示デバイス182に設けられたタッチパネルを用いることができる。なお、キー部を有する構成に代えて、音声入力する構成を採用することもできる。   The operation input unit 190 in FIG. 1 includes a key unit provided in the main body of the content reproduction device 100A, or a remote input device including the key unit. Here, a touch panel provided on the display device 182 of the display unit 180A can be used as the key unit provided on the main body. In addition, it can replace with the structure which has a key part, and can also employ | adopt the structure which inputs a voice.

この操作入力ユニット190を利用者が操作することにより、コンテンツ再生装置100Aの動作内容の設定が行われる。例えば、再生コンテンツの設定、コンテンツの検索設定等を、利用者が操作入力ユニット190を利用して行う。こうした入力内容は、操作入力ユニット190からドライブ制御ユニット120Aのドライブ制御部121Aへ送られる。   When the user operates the operation input unit 190, the operation content of the content reproduction apparatus 100A is set. For example, a user performs setting of playback content, content search setting, and the like using the operation input unit 190. Such input contents are sent from the operation input unit 190 to the drive control unit 121A of the drive control unit 120A.

<動作>
次に、上記のように構成されたコンテンツ再生装置100Aの動作について、主に、オーディオ制御部141Aによる信号遅延部230に対する遅延時間(DHk(k=1〜6),DLk,DL7)の設定処理、及び、表示制御部171Aによる遅延時間DMの設定処理に主に着目して説明する。
<Operation>
Next, with respect to the operation of the content playback apparatus 100A configured as described above, mainly the delay time (DH k (k = 1 to 6), DL k , DL 7 ) for the signal delay unit 230 by the audio control unit 141A. Will be described mainly focusing on the setting processing of the delay time DM by the display control unit 171A.

コンテンツ再生装置100Aの電源が投入される等して、コンテンツ再生装置100Aが動作を開始すると、初期化処理が行われる。かかる初期化処理においては、後述する補正音声遅延時間(CDHk,CDLk,CDL7)が登録されていない場合には、上述した第1の音声遅延制御が行われる。すなわち、オーディオ制御部141Aが、信号遅延部230に対して、遅延時間(DHk,DLk,DL7)として初期音声遅延時間(FDHk,FDLk,FDL7)を設定する遅延制御指令DLCを発行する。 When the content reproduction apparatus 100A starts operating, for example, when the content reproduction apparatus 100A is turned on, initialization processing is performed. In the initialization process, when the later-described corrected sound delay time (CDH k , CDL k , CDL 7 ) is not registered, the first sound delay control described above is performed. That is, the audio control unit 141A sets the initial audio delay time (FDH k , FDL k , FDL 7 ) as the delay time (DH k , DL k , DL 7 ) for the signal delay unit 230. Is issued.

また、後述する補正映像遅延時間CDMが登録されていない場合には、上述した第1の映像遅延制御が行われる。すなわち、表示制御部171Aが、映像遅延部173に対して、遅延時間DMとして初期映像遅延時間FDMを設定する遅延制御指令DRCを発行する。   Further, when a corrected video delay time CDM described later is not registered, the first video delay control described above is performed. That is, the display control unit 171A issues a delay control command DRC for setting the initial video delay time FDM as the delay time DM to the video delay unit 173.

初期音声遅延時間(FDHk,FDLk,FDL7)の設定が行われると、信号遅延部230における遅延器232kにおいて、高域調整チャンネルデータ信号ACDHkに対して初期音声遅延時間FDHkの遅延が付与され、高域チャンネルデータ信号PCDHkが生成されるようになる。また、信号遅延部230における遅延器233j(j=1〜7)において、低域調整チャンネルデータ信号ACDLjに対して初期音声遅延時間FDLjの遅延が付与され、低域チャンネルデータ信号PCDLkが生成されるようになる。 When the initial audio delay times (FDH k , FDL k , FDL 7 ) are set, the delay unit 232 k in the signal delay unit 230 sets the initial audio delay time FDH k to the high frequency adjustment channel data signal ACDH k . A delay is added and the high-frequency channel data signal PCDH k is generated. Further, in the delay unit 233 j (j = 1 to 7) in the signal delay unit 230, a delay of the initial audio delay time FDL j is given to the low frequency adjustment channel data signal ACDL j , and the low frequency channel data signal PCDL k. Will be generated.

一方、初期映像遅延時間FDMの設定が行われると、映像遅延部173において、映像データ信号IDDに対して初期映像遅延時間FDMの遅延が付与され、遅延映像信号DIDが生成されるようになる。   On the other hand, when the initial video delay time FDM is set, the video delay unit 173 adds a delay of the initial video delay time FDM to the video data signal IDD to generate the delayed video signal DID.

この結果、音声コンテンツ及び映像コンテンツを含むコンテンツをDVDから読み取って再生を行った場合において、スピーカユニット1601〜1607からの音声コンテンツの再生音声の出力タイミングと、表示ユニット180Aにおける映像コンテンツの再生映像の表示タイミングとが同期するようになる。 As a result, in the case of performing reading and reproducing content including audio content and video content from DVD, the output timing of the reproduced sound of the audio content from the speaker unit 160 1 to 160 7, reproduction of the video content on the display unit 180A The video display timing is synchronized.

上記のような初期化処理の後、スピーカユニット1601〜1607における13種のスピーカ160H1〜161H6,160L1〜161L7から出力された音声の想定視聴位置における到達タイミングの同期制御実行指令が、利用者により操作入力ユニット190に入力されると、その旨がドライブ制御部121Aに報告される。この報告を受けたドライブ制御部121Aは、バス300を介して、音声同期指令をオーディオ制御部141Aへ送る。 After the initialization process as described above, the synchronization control command of the arrival timing of supposition viewing position of the audio output from the speaker unit 160 1 13 kinds of speaker 160H in ~160 7 1 ~161H 6, 160L 1 ~161L 7 Is input to the operation input unit 190 by the user, the fact is reported to the drive control unit 121A. Upon receiving this report, the drive control unit 121A sends a voice synchronization command to the audio control unit 141A via the bus 300.

音声同期指令を受けたオーディオ制御部141Aは、上述した第2の音声遅延制御を行う。この第2の音声遅延制御では、まず、オーディオ制御部141A内部のテスト音源を用い、各スピーカから順次パルス状のテスト音声を出力させる。このテスト音声は、想定視聴位置に配置されたマイクロフォンを有する集音ユニット130により集音され、その結果が集音結果AADとしてオーディオ制御部141Aに報告される。   The audio control unit 141A that has received the audio synchronization command performs the second audio delay control described above. In the second audio delay control, first, a test sound source inside the audio control unit 141A is used to sequentially output pulsed test audio from each speaker. The test sound is collected by the sound collection unit 130 having a microphone arranged at the assumed viewing position, and the result is reported to the audio control unit 141A as the sound collection result AAD.

集音結果AADを受けたオーディオ制御部141Aは、集音結果AADを解析して、各スピーカからの出力音声が想定視聴位置に到達するまでの時間の相違を求める。引き続き、求められた時間の相違に基づいて、オーディオ制御部141Aは、信号遅延部230で現在設定されている遅延時間の補正値である補正音声遅延時間を算出する。そして、オーディオ制御部141Aは、算出された補正音声遅延時間を補正音声遅延時間(CDHk,CDLk,CDL7)を内部に登録するとともに、遅延時間(DHk,DLk,DL7)として設定する遅延制御指令DLCを発行する。 Upon receiving the sound collection result AAD, the audio control unit 141A analyzes the sound collection result AAD and obtains a time difference until the output sound from each speaker reaches the assumed viewing position. Subsequently, based on the obtained time difference, the audio control unit 141A calculates a corrected audio delay time that is a correction value of the delay time currently set by the signal delay unit 230. Then, the audio control unit 141A registers the calculated corrected audio delay time as the corrected audio delay time (CDH k , CDL k , CDL 7 ) as the delay time (DH k , DL k , DL 7 ). A delay control command DLC to be set is issued.

この結果、音声コンテンツ及び映像コンテンツを含むコンテンツをDVDから読み取って再生を行った場合において、スピーカユニット1601〜1607からの音声コンテンツの再生音声の想定視聴位置への到達タイミングの同期が図られるようになる。 As a result, in the case of performing reading and reproducing content including audio content and video content from DVD, the synchronization is achieved in the arrival timing of the assumed viewing position of the reproduced sound of the audio content from the speaker unit 160 1 to 160 7 It becomes like this.

この後、再生音声と再生映像との同期制御実行指令が利用者により操作入力ユニット190に入力されると、その旨がドライブ制御部121Aに報告される。この報告を受けたドライブ制御部121Aは、バス300を介して、リップシンク指令をオーディオ制御部141A及び表示制御部171Aへ送る。また、ドライブ制御部121Aは、同期調整信号発生部125に対して信号発生指令SJGを発行するとともに、信号発生指令SJGを選択して処理すべきことを音声/映像分離部124Aにデータ選択指令SLDにより通知する。   Thereafter, when a user inputs a synchronization control execution command between the reproduced audio and the reproduced video to the operation input unit 190, the fact is reported to the drive control unit 121A. Upon receiving this report, the drive control unit 121A sends a lip sync command to the audio control unit 141A and the display control unit 171A via the bus 300. In addition, the drive control unit 121A issues a signal generation command SJG to the synchronization adjustment signal generation unit 125, and selects that the signal generation command SJG is to be processed to the audio / video separation unit 124A. Notify by.

信号発生指令SJGを受けた同期調整信号発生部125は、同期調整用データ信号SJDを発生し、音声/映像分離部124Aへ向けて送る。音声/映像分離部124Aは、同期調整用データ信号SJDをテスト音声データ信号とテスト映像データ信号とに分離し、テスト音声データ信号を音声データ信号ADDとしてバスインターフェース部122へ送るとともに、テスト映像データ信号を映像データ信号IDDとしてバスインターフェース部122へ送る。そして、バスインターフェース部122からは、ドライブ制御部121Aによる制御のもとで、音声データ信号ADDがバス300を介してオーディオプリアンプユニット140Aへ送られるとともに、映像データ信号IDDがバス300を介して表示制御ユニット170Aへ送られる   Upon receiving the signal generation command SJG, the synchronization adjustment signal generation unit 125 generates a synchronization adjustment data signal SJD and sends it to the audio / video separation unit 124A. The audio / video separation unit 124A separates the synchronization adjustment data signal SJD into a test audio data signal and a test video data signal, and sends the test audio data signal to the bus interface unit 122 as the audio data signal ADD. The signal is sent to the bus interface unit 122 as a video data signal IDD. Then, the audio data signal ADD is sent from the bus interface unit 122 to the audio preamplifier unit 140A through the bus 300 under the control of the drive control unit 121A, and the video data signal IDD is displayed through the bus 300. Sent to control unit 170A

リップシンク指令を受けたオーディオ制御部141Aは、上述した第3の音声遅延制御を行う。この第3の音声遅延制御では、テスト音声データ信号である音声データ信号ADDに基づく音声をスピーカユニット1601又はスピーカユニット1604から音声を出力させる。この音声は、想定視聴位置に配置されたマイクロフォンを有する集音ユニット130により集音され、その結果が集音結果AADとしてオーディオ制御部141Aに報告される。 Upon receiving the lip sync command, the audio control unit 141A performs the above-described third audio delay control. The third in the audio delay control causes the output speech sound based on the audio data signal ADD which is a test audio data signal from the speaker unit 160 1 or the speaker unit 160 4. This sound is collected by the sound collection unit 130 having a microphone arranged at the assumed viewing position, and the result is reported to the audio control unit 141A as the sound collection result AAD.

集音結果AADを受けたオーディオ制御部141Aは、集音結果AADを解析して、テスト音声データ信号に基づく出力音声が想定視聴位置に到達したタイミングを求める。一方、表示ユニット180Aのテスト映像データ信号検出部183は、出力映像アナログ信号MOSにおけるテスト映像データ信号に由来する信号を検出する。テスト映像データ信号検出部183は、検出結果を、テスト映像データ検出結果SDDとして表示制御ユニット170Aへ送る。   Upon receiving the sound collection result AAD, the audio control unit 141A analyzes the sound collection result AAD and obtains the timing at which the output sound based on the test sound data signal reaches the assumed viewing position. On the other hand, the test video data signal detector 183 of the display unit 180A detects a signal derived from the test video data signal in the output video analog signal MOS. The test video data signal detection unit 183 sends the detection result as the test video data detection result SDD to the display control unit 170A.

テスト映像データ検出結果SDDを受けたオーディオ制御部141Aは、上述したようにして求めたテスト音声データ信号に基づく出力音声が想定視聴位置に到達したタイミングと、テスト映像データ信号検出部183によるテスト映像データ信号に由来する信号の検出タイミングとの差を求める。引き続き、求められたタイミング差に基づいて、オーディオ制御部141Aは、現在信号遅延部230で設定されている遅延時間の補正値である補正音声遅延時間(CDHk,CDLk,CDL7)を新たに算出する。そして、オーディオ制御部141Aは、新たに算出された補正音声遅延時間を補正音声遅延時間(CDHk,CDLk,CDL7)として内部に登録するとともに、遅延時間(DHk,DLk,DL7)として設定する遅延制御指令DLCを発行する。 The audio control unit 141A that has received the test video data detection result SDD, the timing at which the output audio based on the test audio data signal obtained as described above reaches the assumed viewing position, and the test video by the test video data signal detection unit 183 The difference from the detection timing of the signal derived from the data signal is obtained. Subsequently, based on the obtained timing difference, the audio control unit 141A newly sets a corrected audio delay time (CDH k , CDL k , CDL 7 ) that is a correction value of the delay time currently set by the signal delay unit 230. To calculate. Then, the audio control unit 141A registers the newly calculated corrected sound delay time as a corrected sound delay time (CDH k , CDL k , CDL 7 ) and also delay time (DH k , DL k , DL 7). ) Is issued as a delay control command DLC.

なお、第2又は第3の映像遅延制御の処理の実行により補正音声遅延時間(CDHk,CDLk,CDL7)が登録された場合には、上述した初期化処理においては、補正音声遅延時間(CDHk,CDLk,CDL7)が信号遅延部230に設定されるようになっている。 If the corrected audio delay time (CDH k , CDL k , CDL 7 ) is registered by executing the second or third video delay control process, the corrected audio delay time is used in the initialization process described above. (CDH k , CDL k , CDL 7 ) is set in the signal delay unit 230.

第3の音声遅延制御に際して信号遅延部230に対する遅延時間の設定のみではリップシンクを図れない場合には、オーディオ制御部141Aは、リップシンクのために必要となる表示制御ユニット170Aにおける付加遅延時間を算出して、表示制御部171Aへバス300を介して送る。この付加遅延時間を受けた表示制御部171Aは、上述した第2の映像遅延制御を行う。この第2の映像遅延制御では、表示制御部171Aは、映像遅延部173で現在設定されている遅延時間に付加遅延時間を加算又は減算したものを新たな補正映像遅延時間として算出する。そして、表示制御部171Aは、算出された新たな補正映像遅延時間を補正映像遅延時間CDMとして内部に登録するとともに、遅延時間DMを設定する遅延制御指令DRCを発行する。   When the lip sync cannot be achieved only by setting the delay time for the signal delay unit 230 in the third audio delay control, the audio control unit 141A sets the additional delay time in the display control unit 170A necessary for the lip sync. Calculate and send to the display control unit 171A via the bus 300. Upon receiving this additional delay time, the display control unit 171A performs the second video delay control described above. In the second video delay control, the display control unit 171A calculates a new corrected video delay time by adding or subtracting the additional delay time to the delay time currently set by the video delay unit 173. Then, the display control unit 171A registers the calculated new corrected video delay time as a corrected video delay time CDM and issues a delay control command DRC for setting the delay time DM.

この結果、音声コンテンツ及び映像コンテンツを含むコンテンツをDVDから読み取って再生を行った場合において、スピーカユニット1601〜1607からの音声コンテンツの再生音声の想定視聴位置への到達タイミングと、映像コンテンツの再生映像の表示タイミングとの同期が図られるようになる。 As a result, in the case of performing reading and reproducing content including audio content and video content from DVD, the arrival timing of the assumed viewing position of the reproduced sound of the audio content from the speaker unit 160 1 to 160 7, the video content Synchronization with the display timing of the playback video is achieved.

なお、第2の映像遅延制御の処理の実行により補正映像遅延時間CDMが登録された場合には、上述した初期化処理においては、補正映像遅延時間CDMが映像遅延部173に設定されるようになっている。   When the corrected video delay time CDM is registered by executing the second video delay control process, the corrected video delay time CDM is set in the video delay unit 173 in the initialization process described above. It has become.

以上のようなリップシンクが実現される状態で、DVDに記録されたコンテンツの再生指令が利用者により操作入力ユニットに入力されると、その旨がドライブ制御部121Aに報告される。この報告を受けたドライブ制御部121Aは、バス300を介して、コンテンツ再生指令をオーディオ制御部141A及び表示制御部171Aへ送る。また、ドライブ制御部121Aは、DVDドライブユニット110からの読取データ信号RDDを音声/映像分離部124Aへ向けて出力すべきことをデータ出力選択部123に出力選択指令DOSにより通知するとともに、コンテンツデータ信号DTDを選択して処理すべきことを音声/映像分離部124Aにデータ選択指令SLDにより通知する。   When a playback command for content recorded on a DVD is input to the operation input unit by the user in a state where the lip sync as described above is realized, a message to that effect is reported to the drive control unit 121A. Receiving this report, the drive control unit 121A sends a content reproduction command to the audio control unit 141A and the display control unit 171A via the bus 300. In addition, the drive control unit 121A notifies the data output selection unit 123 that the read data signal RDD from the DVD drive unit 110 should be output to the audio / video separation unit 124A by the output selection command DOS, and the content data signal The audio / video separation unit 124A is notified by the data selection command SLD that the DTD should be selected and processed.

引き続き、ドライブ制御部121Aは、DVDドライブユニット110を制御して、DVDからコンテンツデータを読み取る。こうして読み取られたコンテンツデータは、データ出力選択部123から出力されるコンテンツデータ信号CTDとして、音声/映像分離部124Aへ送られる。   Subsequently, the drive control unit 121A controls the DVD drive unit 110 to read content data from the DVD. The content data read in this way is sent to the audio / video separation unit 124A as a content data signal CTD output from the data output selection unit 123.

コンテンツデータ信号CTDを受けた音声/映像分離部124Aは、コンテンツデータ信号CTDを音声コンテンツデータ信号と映像コンテンツデータ信号とに分離し、音声コンテンツデータ信号を音声データ信号ADDとしてバスインターフェース部122へ送るとともに、映像コンテンツデータ信号を映像データ信号IDDとしてバスインターフェース部122へ送る。そして、バスインターフェース部122からは、ドライブ制御部121Aによる制御のもとで、音声データ信号ADDがバス300を介してオーディオプリアンプユニット140Aへ送られるとともに、映像データ信号IDDがバス300を介して表示制御ユニット170Aへ送られる   Upon receiving the content data signal CTD, the audio / video separation unit 124A separates the content data signal CTD into an audio content data signal and a video content data signal, and sends the audio content data signal to the bus interface unit 122 as the audio data signal ADD. At the same time, the video content data signal is sent to the bus interface unit 122 as the video data signal IDD. Then, the audio data signal ADD is sent from the bus interface unit 122 to the audio preamplifier unit 140A through the bus 300 under the control of the drive control unit 121A, and the video data signal IDD is displayed through the bus 300. Sent to control unit 170A

音声コンテンツデータ信号である音声データ信号ADDを受けたオーディオプリアンプユニット140Aでは、オーディオ制御部141Aによる制御のもとで、上述したフロー制御処理、前段チャンネル分離処理、後段チャンネル分離処理、周波数分離処理、集音ユニット130における集音結果に含まれる雑音レベルに基づく音響特性調整処理、音声遅延処理、アナログ変換処理及び音量調整処理が施される。ここで、後段チャンネル分離処理、周波数分離処理及び音響特性調整処理に際してはFIR直線位相型フィルタが用いられるので、IIRフィルタを用いた場合等における位相特性の劣化が発生しないようになっている。オーディオプリアンプユニット140Aにおける処理結果は、プリアンプ出力信号PAS1〜PAS7としてオーディオメインアンプユニット150へ送られる。 In the audio preamplifier unit 140A that has received the audio data signal ADD that is the audio content data signal, under the control of the audio control unit 141A, the above-described flow control process, pre-stage channel separation process, post-stage channel separation process, frequency separation process, An acoustic characteristic adjustment process based on the noise level included in the sound collection result in the sound collection unit 130, a sound delay process, an analog conversion process, and a volume adjustment process are performed. Here, since the FIR linear phase type filter is used in the post-stage channel separation process, the frequency separation process, and the acoustic characteristic adjustment process, the deterioration of the phase characteristic in the case of using the IIR filter or the like does not occur. The processing result in the audio preamplifier unit 140A is sent to the audio main amplifier unit 150 as preamplifier output signals PAS 1 to PAS 7 .

プリアンプ出力信号PAS1〜PAS7を受けたオーディオメインアンプユニット150は、予め定められた増幅処理を行い、出力音声信号AOS1〜AOS7として、スピーカユニット1601〜1607へ送る。そして、スピーカユニット1601〜1607は、オーディオメインアンプユニット150からの出力音声信号AOS1〜AOS7に従って、音声コンテンツの再生音声を音場空間ASPへ向けて出力する。 The audio main amplifier unit 150 that has received the preamplifier output signals PAS 1 to PAS 7 performs a predetermined amplification process and sends the amplified audio signals AOS 1 to AOS 7 to the speaker units 160 1 to 160 7 . Then, the speaker units 160 1 to 160 7 output the reproduced audio of the audio content toward the sound field space ASP according to the output audio signals AOS 1 to AOS 7 from the audio main amplifier unit 150.

一方、映像コンテンツデータ信号である映像データ信号IDDを受けた表示制御ユニット170Aでは、表示制御部171Aによる制御のもとで、上述した映像遅延処理及びデコード処理が施される。表示制御ユニット170Aにおける処理結果は、出力映像データ信号DMDとして、表示ユニット180Aへ送られる。   On the other hand, in the display control unit 170A that has received the video data signal IDD that is a video content data signal, the video delay process and the decoding process described above are performed under the control of the display control unit 171A. The processing result in the display control unit 170A is sent to the display unit 180A as an output video data signal DMD.

出力映像データ信号DMDを受けた表示ユニット180Aでは、まず、アナログ変換処理が施される。この後、映像コンテンツの再生映像が表示される。   In the display unit 180A that has received the output video data signal DMD, first, analog conversion processing is performed. Thereafter, a playback video of the video content is displayed.

こうした再生音声と再生映像については、上述のようにしてリップシンクが図られている。このため、少なくとも想定視聴位置の近傍の利用者には、高品位な音声及び映像が提供される。   For such reproduced audio and reproduced video, lip sync is achieved as described above. For this reason, at least a user near the assumed viewing position is provided with high-quality audio and video.

以上説明したように、本実施形態では、オーディオプリアンプユニット140Aにおける後段チャンネル分離処理、周波数分離処理及び音響特性調整処理に際してはFIR直線位相型フィルタが用いられる。このため、これらの処理において位相特性の劣化が発生しない。また、オーディオプリアンプユニット140Aにおける遅延制御及び表示制御ユニット170Aにおける遅延制御により、リップシンクを図ることができる。したがって、本実施形態によれば、高品位な音声及び映像を再生することができる。   As described above, in the present embodiment, the FIR linear phase filter is used in the subsequent channel separation processing, frequency separation processing, and acoustic characteristic adjustment processing in the audio preamplifier unit 140A. For this reason, phase characteristics are not deteriorated in these processes. Also, lip sync can be achieved by the delay control in the audio preamplifier unit 140A and the delay control in the display control unit 170A. Therefore, according to the present embodiment, high-quality audio and video can be reproduced.

また、本実施形態では、利用者からの再生音声と再生映像との同期制御実行指令に応答して、同期調整信号発生部125がテスト音声データ信号とテスト映像データ信号を含む信号発生指令SJGを発生する。そして、テスト音声データ信号に基づく出力音声の集音ユニット130による検出結果と、テスト映像データ信号に基づく表示ユニット180Aにおける表示タイミングの検出結果とに基づいて、リップシンクを図るべく、遅延制御を行う。このため、リップシンクのための遅延制御を自動的に行うことができ、利用者の利便性を向上することができる。   Further, in this embodiment, in response to the synchronization control execution command between the playback audio and playback video from the user, the synchronization adjustment signal generator 125 generates a signal generation command SJG including the test audio data signal and the test video data signal. appear. Then, based on the detection result of the output sound collection unit 130 based on the test audio data signal and the display timing detection result on the display unit 180A based on the test video data signal, delay control is performed to achieve lip synchronization. . For this reason, the delay control for the lip sync can be automatically performed, and the convenience for the user can be improved.

[第2実施形態]
次に、本発明の第2実施形態を、図14〜図18を主に参照し、他の図面を適宜参照して説明する。なお、本実施形態においても、第1実施形態の場合と同様に、車両に搭載されるコンテンツ再生装置を例示して説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference mainly to FIGS. 14 to 18 and other drawings as appropriate. In the present embodiment, as in the case of the first embodiment, a content playback device mounted on a vehicle will be described as an example.

[構成]
図14には、第2実施形態に係るコンテンツ再生装置100Bの概略的な構成がブロック図にて示されている。この図14に示されるように、コンテンツ再生装置100Bは、第1実施形態のコンテンツ再生装置と比べて、ドライブ制御ユニット120A、オーディオプリアンプユニット140A、表示制御ユニット170A及び表示ユニット180Aに代えて、ドライブ制御ユニット120B、オーディオプリアンプユニット140B、表示制御ユニット170B及び表示ユニット180Bを備える点が異なっている。以下、この相違点に主に着目して説明する。
[Constitution]
FIG. 14 is a block diagram illustrating a schematic configuration of a content reproduction device 100B according to the second embodiment. As shown in FIG. 14, the content playback apparatus 100B is different from the content playback apparatus of the first embodiment in that a drive control unit 120A, an audio preamplifier unit 140A, a display control unit 170A, and a display unit 180A are replaced with a drive. The difference is that a control unit 120B, an audio preamplifier unit 140B, a display control unit 170B, and a display unit 180B are provided. Hereinafter, this difference will be mainly described.

ドライブ制御ユニット120Bは、図15に示されるように、ドライブ制御ユニット120Aと比べて、ドライブ制御部121A及び音声/映像分離部124Aに代えて、ドライブ制御部121B及び音声/映像分離部124Bを備える点、及び、同期調整信号発生部125を備えていない点が異なる。   As shown in FIG. 15, the drive control unit 120B includes a drive control unit 121B and an audio / video separation unit 124B in place of the drive control unit 121A and the audio / video separation unit 124A, as compared with the drive control unit 120A. The difference is that the synchronization adjustment signal generator 125 is not provided.

ドライブ制御部121Bは、ドライブ制御部121Aと比べて、信号発生指令SJGの発行を行わない点、及び、データ選択指令SLDに代えて、音声/映像分離処理の実行及び非実行を制御する分離処理制御指令SPCを音声/映像分離部124Bに対して発行する点が異なっている。また、ドライブ制御部121Bは、ドライブ制御部121Aと比べて、音声コンテンツの再生音声及び映像コンテンツの再生映像を視聴している利用者が操作入力ユニット190に入力した同期調整指令で指定された補正時間をオーディオプリアンプユニット140Bへバス300を介して送る点、及び、最終的な補正時間を遅延補正時間として、DVDの識別情報又はコンテンツの識別情報に関連付けて記憶する点が異なっている。   Compared to the drive control unit 121A, the drive control unit 121B does not issue the signal generation command SJG, and instead of the data selection command SLD, a separation process that controls execution and non-execution of the audio / video separation process The difference is that the control command SPC is issued to the audio / video separation unit 124B. In addition, the drive control unit 121B is compared with the drive control unit 121A in the correction specified by the synchronization adjustment command input to the operation input unit 190 by the user who is viewing the playback audio of the audio content and the playback video of the video content. The difference is that the time is sent to the audio preamplifier unit 140B via the bus 300, and the final correction time is stored as a delay correction time in association with the DVD identification information or the content identification information.

音声/映像分離部124Bは、音声/映像分離部124Aと比べて、コンテンツデータCTDについてのみ音声/映像分離処理を行う点が異なっている。   The audio / video separation unit 124B is different from the audio / video separation unit 124A in that the audio / video separation process is performed only on the content data CTD.

図14のオーディオプリアンプユニット140Bは、図16に示されるように、オーディオプリアンプユニット140Aと比べて、オーディオ制御部141Aに代えて、オーディオ制御部141Bを備える点が異なっている。このオーディオ制御部141Bは、オーディオ制御部141Aと比べて、上述した第3の音声遅延処理に代えて、オーディオ制御部141Bからの補正時間に従った第4の音声遅延処理を行う点が異なっている。   As shown in FIG. 16, the audio preamplifier unit 140B in FIG. 14 is different from the audio preamplifier unit 140A in that an audio control unit 141B is provided instead of the audio control unit 141A. This audio control unit 141B differs from the audio control unit 141A in that it performs a fourth audio delay process according to the correction time from the audio control unit 141B instead of the third audio delay process described above. Yes.

第4の音声遅延処理では、オーディオ制御部141Bは、信号遅延部230で現在設定されている遅延時間のそれぞれに補正時間を加算又は減算したものを新たな補正音声遅延時間として算出する。そして、オーディオ制御部141Bは、算出された新たな補正音声遅延時間を設定する遅延制御指令DLCを発行する。   In the fourth audio delay process, the audio control unit 141B calculates a new corrected audio delay time by adding or subtracting the correction time to each of the delay times currently set by the signal delay unit 230. Then, the audio control unit 141B issues a delay control command DLC for setting the calculated new corrected sound delay time.

なお、オーディオ制御部141Bは、第4の音声遅延処理において算出された新たな補正音声遅延時間の登録は行わない。また、第4の音声遅延制御に際して信号遅延部230に対する遅延時間の設定のみでは補正時間分の遅延補正ができない場合には、オーディオ制御部141Bは、付加遅延時間を算出して、後述する表示制御部171Bへバス300を介して送る。   Note that the audio control unit 141B does not register the new corrected audio delay time calculated in the fourth audio delay process. If the delay correction for the correction time cannot be performed only by setting the delay time for the signal delay unit 230 in the fourth audio delay control, the audio control unit 141B calculates the additional delay time and performs display control to be described later. The data is sent to the part 171B via the bus 300.

図14の表示制御ユニット170Bは、図17に示されるように、表示制御ユニット170Aと比べて、表示制御部171Aに代えて、表示制御部171Bを備える点が異なっている。この表示制御部171Bは、表示制御部171Aと比べて、テスト映像データ信号を検出した旨の受信を行わない点、及び、上述した第2の映像遅延処理において算出された新たな補正映像遅延時間の登録を行わない点が異なっている。   As shown in FIG. 17, the display control unit 170B in FIG. 14 is different from the display control unit 170A in that a display control unit 171B is provided instead of the display control unit 171A. Compared with the display control unit 171A, the display control unit 171B does not receive that the test video data signal has been detected, and a new corrected video delay time calculated in the second video delay process described above. The point of not registering is different.

図14の表示ユニット180Bは、図18に示されるように、表示ユニット180Aと比べて、テスト映像データ信号検出部183を備えていない点が異なっている。   As shown in FIG. 18, the display unit 180B of FIG. 14 is different from the display unit 180A in that the test video data signal detector 183 is not provided.

<動作>
次に、上記のように構成されたコンテンツ再生装置100Bの動作について、主に、オーディオ制御部141Bによる信号遅延部230に対する遅延時間(DHk,(k=1〜6)DLk,DL7)の設定処理、及び、表示制御部171Bによる遅延時間DMの設定処理に主に着目して説明する。
<Operation>
Next, with respect to the operation of the content reproduction apparatus 100B configured as described above, mainly the delay time (DH k , (k = 1 to 6) DL k , DL 7 ) for the signal delay unit 230 by the audio control unit 141B. Will be described mainly focusing on the setting processing of the delay time DM by the display control unit 171B.

コンテンツ再生装置100Bの電源が投入される等して、コンテンツ再生装置100Bが動作を開始すると、初期化処理が行われる。かかる初期化処理においては、第1実施形態の場合と同様に、補正音声遅延時間(CDHk,CDLk,CDL7)が登録されていない場合には、上述した第1の音声遅延制御の設定が行われる。また、上述した第1の映像遅延制御が行われる。 When the content reproduction apparatus 100B starts operation, for example, when the content reproduction apparatus 100B is turned on, an initialization process is performed. In this initialization process, as in the case of the first embodiment, when the corrected audio delay time (CDH k , CDL k , CDL 7 ) is not registered, the setting of the first audio delay control described above is performed. Is done. Further, the first video delay control described above is performed.

この結果、音声コンテンツ及び映像コンテンツを含むコンテンツをDVDから読み取って再生を行った場合において、スピーカユニット1601〜1607からの音声コンテンツの再生音声の出力タイミングと、表示ユニット180Bにおける映像コンテンツの再生映像の表示タイミングとが同期するようになる。 As a result, in the case of performing reading and reproducing content including audio content and video content from DVD, the output timing of the reproduced sound of the audio content from the speaker unit 160 1 to 160 7, reproduction of the video content on the display unit 180B The video display timing is synchronized.

上記のような初期化処理の後、スピーカユニット1601〜1607における13種のスピーカ160H1〜161H6,160L1〜161L7から出力された音声の想定視聴位置における到達タイミングの同期制御実行指令が、利用者により操作入力ユニット190に入力されると、その旨がドライブ制御部121Bに報告される。この報告を受けたドライブ制御部121Bは、バス300を介して、音声同期指令をオーディオ制御部141Bへ送る。そして、音声同期指令を受けたオーディオ制御部141Bが、第1実施形態の場合と同様に、上述した第2の音声遅延制御を行う。 After the initialization process as described above, the synchronization control command of the arrival timing of supposition viewing position of the audio output from the speaker unit 160 1 13 kinds of speaker 160H in ~160 7 1 ~161H 6, 160L 1 ~161L 7 Is input to the operation input unit 190 by the user, the fact is reported to the drive control unit 121B. Upon receiving this report, the drive control unit 121B sends a voice synchronization command to the audio control unit 141B via the bus 300. Then, the audio control unit 141B that has received the audio synchronization command performs the above-described second audio delay control as in the case of the first embodiment.

この結果、音声コンテンツ及び映像コンテンツを含むコンテンツをDVDから読み取って再生を行った場合において、スピーカユニット1601〜1607からの音声コンテンツの再生音声の想定視聴位置への到達タイミングの同期が図られるようになる。 As a result, in the case of performing reading and reproducing content including audio content and video content from DVD, the synchronization is achieved in the arrival timing of the assumed viewing position of the reproduced sound of the audio content from the speaker unit 160 1 to 160 7 It becomes like this.

なお、第2の映像遅延制御の処理の実行により補正音声遅延時間(CDHk,CDLk,CDL7)が登録された場合には、上述した初期化処理においては、補正音声遅延時間(CDHk,CDLk,CDL7)が信号遅延部230に設定されるようになっている。 Incidentally, by executing the processing of the second image delay control adjustment sound delay time (CDH k, CDL k, CDL 7) when is registered, in the initialization processing described above, correction sound delay time (CDH k , CDL k , CDL 7 ) are set in the signal delay unit 230.

この後、DVDに記録されたコンテンツの再生指令が利用者により操作入力ユニット190に入力されると、その旨がドライブ制御部121Bに報告される。この報告を受けたドライブ制御部121Bは、DVDドライブユニット110からの読取データ信号RDDをドライブ制御ユニット121Bへ向けて出力すべきことをデータ出力選択部123に出力選択指令DOSにより通知する   Thereafter, when a reproduction command for the content recorded on the DVD is input to the operation input unit 190 by the user, this is reported to the drive control unit 121B. Receiving this report, the drive control unit 121B notifies the data output selection unit 123 of the output selection command DOS that the read data signal RDD from the DVD drive unit 110 should be output to the drive control unit 121B.

引き続き、ドライブ制御部121Bは、DVDドライブユニット110を制御して、DVDから識別情報を読み取る。そして、読み取られたDVDの識別情報に関連付けられている補正遅延時間が登録されているか否かを判定する。この判定の結果が否定的であった場合には、ドライブ制御部121Bは、補正遅延時間をオーディオ制御部141Bへ送ることなく、読取データ信号RDDを音声/映像分離部124Bへ向けて出力すべきことをデータ出力選択部123に出力選択指令DOSにより通知するとともに、音声/映像分離部124Bに対して音声/映像分離処理の開始を分離処理制御指令SPCにより通知する。   Subsequently, the drive control unit 121B controls the DVD drive unit 110 to read identification information from the DVD. Then, it is determined whether or not the correction delay time associated with the read DVD identification information is registered. If the result of this determination is negative, the drive control unit 121B should output the read data signal RDD to the audio / video separation unit 124B without sending the correction delay time to the audio control unit 141B. This is notified to the data output selection unit 123 by the output selection command DOS, and the start of the audio / video separation processing is notified to the audio / video separation unit 124B by the separation processing control command SPC.

次に、ドライブ制御部121Bは、DVDドライブユニット110を制御して、DVDからコンテンツデータを読み取る。こうして読み取られたコンテンツデータは、データ出力選択部123から出力されるコンテンツデータ信号CTDとして、音声/映像分離部124Bへ送られる。   Next, the drive control unit 121B controls the DVD drive unit 110 to read content data from the DVD. The content data read in this way is sent to the audio / video separation unit 124B as the content data signal CTD output from the data output selection unit 123.

コンテンツデータ信号CTDを受けた音声/映像分離部124Bは、第1実施形態の場合と同様に、コンテンツデータ信号CTDを音声コンテンツデータ信号と映像コンテンツデータ信号とに分離し、音声コンテンツデータ信号を音声データ信号ADDとしてバスインターフェース部122へ送るとともに、映像コンテンツデータ信号を映像データ信号IDDとしてバスインターフェース部122へ送る。そして、バスインターフェース部122からは、ドライブ制御部121Bによる制御のもとで、音声データ信号ADDがバス300を介してオーディオプリアンプユニット140Bへ送られるとともに、映像データ信号IDDがバス300を介して表示制御ユニット170Bへ送られる   The audio / video separation unit 124B that has received the content data signal CTD separates the content data signal CTD into an audio content data signal and a video content data signal, and converts the audio content data signal into audio, as in the first embodiment. A data signal ADD is sent to the bus interface unit 122 and a video content data signal is sent to the bus interface unit 122 as a video data signal IDD. Then, the audio data signal ADD is sent from the bus interface unit 122 to the audio preamplifier unit 140B through the bus 300 under the control of the drive control unit 121B, and the video data signal IDD is displayed through the bus 300. Sent to control unit 170B

音声コンテンツデータ信号である音声データ信号ADDを受けたオーディオプリアンプユニット140Bでは、第1実施形態の場合と同様に、オーディオ制御部141Bによる制御のもとで、上述したフロー制御処理、前段チャンネル分離処理、後段チャンネル分離処理、周波数分離処理、集音ユニット130における集音結果に含まれる雑音レベルに基づく音響特性調整処理、音声遅延処理、アナログ変換処理及び音量調整処理が施される。オーディオプリアンプユニット140Bにおける処理結果は、プリアンプ出力信号PAS1〜PAS7としてオーディオメインアンプユニット150へ送られる。 In the audio preamplifier unit 140B that has received the audio data signal ADD that is the audio content data signal, the flow control process and the pre-stage channel separation process described above are controlled under the control of the audio control unit 141B, as in the first embodiment. Then, subsequent channel separation processing, frequency separation processing, acoustic characteristic adjustment processing based on the noise level included in the sound collection result in the sound collection unit 130, audio delay processing, analog conversion processing, and volume adjustment processing are performed. The processing result in the audio preamplifier unit 140B is sent to the audio main amplifier unit 150 as preamplifier output signals PAS 1 to PAS 7 .

プリアンプ出力信号PAS1〜PAS7を受けたオーディオメインアンプユニット150は、第1実施形態の場合と同様に、予め定められた増幅処理を行い、出力音声信号AOS1〜AOS7として、スピーカユニット1601〜1607へ送る。そして、スピーカユニット1601〜1607は、オーディオメインアンプユニット150からの出力音声信号AOS1〜AOS7に従って、音声コンテンツの再生音声を音場空間ASPへ向けて出力する。 The audio main amplifier unit 150 that receives the preamplifier output signals PAS 1 to PAS 7 performs a predetermined amplification process as in the case of the first embodiment, and outputs the speaker units 160 as output audio signals AOS 1 to AOS 7. Send to 1 ~ 160 7 Then, the speaker units 160 1 to 160 7 output the reproduced audio of the audio content toward the sound field space ASP according to the output audio signals AOS 1 to AOS 7 from the audio main amplifier unit 150.

一方、映像コンテンツデータ信号である映像データ信号IDDを受けた表示制御ユニット170Bでは、第1実施形態の場合とどうように、表示制御部171Bによる制御のもとで、上述した映像遅延処理及びデコード処理が施される。表示制御ユニット170Bにおける処理結果は、出力映像データ信号DMDとして、表示ユニット180Bへ送られる。   On the other hand, in the display control unit 170B that has received the video data signal IDD that is a video content data signal, the video delay processing and decoding described above are controlled under the control of the display control unit 171B, as in the case of the first embodiment. Processing is performed. The processing result in the display control unit 170B is sent to the display unit 180B as an output video data signal DMD.

出力映像データ信号DMDを受けた表示ユニット180Bでは、第1実施形態の場合と同様に、アナログ変換処理が施される。この後、映像コンテンツの再生映像が表示される。   In the display unit 180B that has received the output video data signal DMD, analog conversion processing is performed as in the case of the first embodiment. Thereafter, a playback video of the video content is displayed.

こうした音声コンテンツ及び映像コンテンツの再生中に、再生音声と再生映像との同期補正制御実行指令が利用者により操作入力ユニット190に入力されると、その旨がドライブ制御部121Bに報告される。この報告を受けたドライブ制御部121Bは、バス300を介して、補正制御実行指令に対応する補正遅延時間をオーディオ制御部141Bへ送る。   When a user issues a synchronization correction control execution command for playback audio and playback video to the operation input unit 190 during playback of such audio content and video content, this is reported to the drive control unit 121B. Upon receiving this report, the drive control unit 121B sends a correction delay time corresponding to the correction control execution command to the audio control unit 141B via the bus 300.

補正遅延時間を受けたオーディオ制御部141Bは、上述した第4の音声遅延制御を行う。すなわち、オーディオ制御部141Bは、信号遅延部230で現在設定されている遅延時間のそれぞれに補正時間を加算又は減算したものを新たな補正音声遅延時間として算出する。そして、表示制御部171Bは、算出された新たな補正音声遅延時間を設定する遅延制御指令DRCを発行する。   The audio control unit 141B that has received the correction delay time performs the above-described fourth audio delay control. That is, the audio control unit 141B calculates a new corrected audio delay time by adding or subtracting the correction time to each of the delay times currently set by the signal delay unit 230. Then, the display control unit 171B issues a delay control command DRC for setting the calculated new corrected audio delay time.

なお、オーディオ制御部141Bは、第4の音声遅延処理において算出された新たな補正音声遅延時間の登録は行わない。また、第4の音声遅延制御に際して信号遅延部230に対する遅延時間の設定のみでは補正時間分の遅延補正ができない場合には、オーディオ制御部141Bは、付加遅延時間を算出して、表示制御部171Bへバス300を介して送る。この付加遅延時間を受けた表示制御部171Bは、第1実施形態の場合と同様に、上述した第2の映像遅延制御を行う。   Note that the audio control unit 141B does not register the new corrected audio delay time calculated in the fourth audio delay process. If the delay correction for the correction time cannot be performed only by setting the delay time for the signal delay unit 230 in the fourth audio delay control, the audio control unit 141B calculates the additional delay time and displays the display control unit 171B. To the bus 300. Upon receiving this additional delay time, the display control unit 171B performs the above-described second video delay control as in the case of the first embodiment.

以上のようなリップリンクのための遅延制御は、視聴位置における利用者が満足するリップシンクが実現するまで繰り返される。そして、リップシンクのための遅延時間調整が終了したことが利用者により操作入力ユニット190に入力されると、その旨がドライブ制御部121Bに報告される。この報告を受けたドライブ制御部121Bは、DVDドライブユニット110を制御して、その時点における最終補正遅延時間をDVDの識別情報に関連付けて、内部に登録する。   The delay control for the lip link as described above is repeated until a lip sync satisfying the user at the viewing position is realized. Then, when the user inputs to the operation input unit 190 that the delay time adjustment for lip sync has been completed, the fact is reported to the drive control unit 121B. Upon receiving this report, the drive control unit 121B controls the DVD drive unit 110 and registers the final correction delay time at that time in association with the DVD identification information.

この結果、音声コンテンツ及び映像コンテンツの再生音声と再生とのリップシンクが、利用者の視聴位置において図られるようになる。   As a result, the lip sync between the playback audio and playback of the audio content and video content is achieved at the viewing position of the user.

なお、以上のようにして補正遅延時間が内部に登録されると、ドライブ制御部121Bは、コンテンツの再生指令が利用者により操作入力ユニットに入力され、その旨の報告を受けると、内部に登録された補正遅延時間を読み取って、読み取られた補正遅延時間をオーディオ制御部141Bへ送るようになっている。   When the correction delay time is registered inside as described above, the drive control unit 121B inputs the content reproduction command to the operation input unit by the user and receives the report to that effect, and registers it internally. The corrected correction delay time is read, and the read correction delay time is sent to the audio control unit 141B.

以上説明したように、本実施形態では、オーディオプリアンプユニット140Bにおける後段チャンネル分離処理、周波数分離処理及び音響特性調整処理に際してはFIR直線位相型フィルタが用いられる。このため、これらの処理において位相特性の劣化が発生しない。また、オーディオプリアンプユニット140Bにおける遅延制御及び表示制御ユニット170Bにおける遅延制御により、リップシンクを図ることができる。したがって、本実施形態によれば、高品位な音声及び映像を再生することができる。   As described above, in the present embodiment, the FIR linear phase filter is used in the subsequent channel separation processing, frequency separation processing, and acoustic characteristic adjustment processing in the audio preamplifier unit 140B. For this reason, phase characteristics are not deteriorated in these processes. Further, lip sync can be achieved by the delay control in the audio preamplifier unit 140B and the delay control in the display control unit 170B. Therefore, according to the present embodiment, high-quality audio and video can be reproduced.

また、本実施形態では、音声コンテンツの再生音声と映像コンテンツの再生映像を視聴する利用者による同期補正制御実行指令に従って、リップシンクのための遅延制御を行う。このため、コンテンツデータ信号CTDの段階で再生音声と再生映像との同期が図られていない場合であっても、視聴位置におけるリップシンクを実現することができる。   In this embodiment, delay control for lip sync is performed in accordance with a synchronization correction control execution command by a user who views the playback audio of the audio content and the playback video of the video content. Therefore, even when the playback audio and playback video are not synchronized at the stage of the content data signal CTD, lip sync at the viewing position can be realized.

[実施形態の変形]
本発明は、上記の実施形態に限定されるものではなく、様々な変形が可能である。
[Modification of Embodiment]
The present invention is not limited to the above-described embodiment, and various modifications are possible.

例えば、上記の第1実施形態に、第2実施形態で採用したリップシンクの手動調整機能を更に実装することもできる。   For example, the manual adjustment function of the lip sync adopted in the second embodiment can be further mounted on the first embodiment.

また、上記の第1及び第2実施形態では、ドライブ制御ユニット、オーディオプリアンプユニット及び表示制御ユニットごとに制御部を設けるようにした。これに対し、これらの制御ユニットについて、任意の2つの制御部を1つの制御部として構成することもできるし、2つの制御部を1つの制御部として構成することもできる。   In the first and second embodiments, a control unit is provided for each drive control unit, audio preamplifier unit, and display control unit. On the other hand, about these control units, arbitrary two control parts can also be constituted as one control part, and two control parts can also be constituted as one control part.

また、上記の第1及び第2実施形態では、6.1chサラウンド方式について例示したが、5.1サラウンド方式等の他の方式を採用することもできる。   In the first and second embodiments described above, the 6.1 channel surround system has been exemplified. However, other systems such as the 5.1 surround system may be employed.

また、上記の第1及び第2実施形態では、6.1chサラウンド方式における各チャンネルに対応して、13個のスピーカを備えることがしたが、各チャンネルに対応する音を適宜混合し、12個以下又は14個以上のスピーカから音出力をさせるようにすることもできる。   In the first and second embodiments described above, 13 speakers are provided corresponding to each channel in the 6.1ch surround system, but the sound corresponding to each channel is appropriately mixed to obtain 12 speakers. It is also possible to output sound from the following or 14 or more speakers.

また、車両に搭載され、コンテテンツ再生装置としても機能するナビゲーション装置等が、本実施形態のコンテンツ再生装置100A又は100Bの機能を有するようにしてもよい。   Further, a navigation device or the like that is mounted on a vehicle and also functions as a content playback device may have the function of the content playback device 100A or 100B of the present embodiment.

また、上記の第1及び第2実施形態では、DVDに格納されたコンテンツデータを再生するコンテンツ再生装置に本発明を適用したが、地上デジタルテレビ放送等の放送波の受信装置であって、音声信号を、例えば2チャンネル構成から6.1チャンネル構成に変換して利用者に提供する装置に本発明を適用することもできる。   In the first and second embodiments described above, the present invention is applied to a content playback device that plays back content data stored on a DVD. The present invention can also be applied to an apparatus that converts a signal from, for example, a 2-channel configuration to a 6.1-channel configuration and provides it to the user.

また、上記の実施形態においては、車両に搭載されるコンテンツ再生装置に本発明を適用したが、車両以外の他の移動体に搭載される音響再生機能を有する装置に本発明を適用することもできるし、移動体に搭載されない音響再生機能を有する装置に本発明を適用することもできる。   In the above embodiment, the present invention is applied to a content playback apparatus mounted on a vehicle. However, the present invention may be applied to an apparatus having an acoustic playback function mounted on a mobile body other than the vehicle. In addition, the present invention can be applied to an apparatus having a sound reproduction function that is not mounted on a moving body.

なお、上記の第1及び第2実施形態におけるドライブ制御ユニット120A,120B、オーディオプリアンプユニット140A,140B及び表示制御ユニット170A,170Bを中央処理装置(CPU:Central Processing Unit)、DSP(Digital Signal Processor)、読出専用メモリ(ROM:Read Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)等を備えて構成し、予め用意されたプログラムを当該コンピュータで実行することにより、上記の実施形態における処理を行うようにしてもよい。このプログラムはハードディスク、CD−ROM、DVD等のコンピュータで読み取り可能な記録媒体に記録され、当該コンピュータによって記録媒体から読み出されて実行される。また、このプログラムは、CD−ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配送の形態で取得されるようにしてもよい。   The drive control units 120A and 120B, the audio preamplifier units 140A and 140B, and the display control units 170A and 170B in the first and second embodiments described above are replaced with a central processing unit (CPU) and a DSP (Digital Signal Processor). , A read only memory (ROM), a random access memory (RAM), and the like, and by executing a program prepared in advance on the computer, the processing in the above embodiment is performed. You may make it perform. This program is recorded on a computer-readable recording medium such as a hard disk, CD-ROM, or DVD, and is read from the recording medium and executed by the computer. The program may be acquired in a form recorded on a portable recording medium such as a CD-ROM or DVD, or may be acquired in a form of delivery via a network such as the Internet. Also good.

本発明の第1実施形態に係るコンテンツ再生装置の構成を概略的に示す図である。It is a figure which shows roughly the structure of the content reproduction apparatus which concerns on 1st Embodiment of this invention. 図1のドライブ制御ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the drive control unit of FIG. 図1のオーディオプリアンプユニットの構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of an audio preamplifier unit in FIG. 1. 図3のチャンネル処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the channel process part of FIG. 図4のチャンネル分離部の構成を示すブロック図である。FIG. 5 is a block diagram illustrating a configuration of a channel separation unit in FIG. 4. 図5の後段分離部の構成を示すブロック図である。It is a block diagram which shows the structure of the back | latter stage separation part of FIG. 図4のチャンネル信号調整部の構成を示すブロック図である。FIG. 5 is a block diagram illustrating a configuration of a channel signal adjustment unit in FIG. 4. 図4の信号遅延部の構成を示すブロック図である。FIG. 5 is a block diagram illustrating a configuration of a signal delay unit in FIG. 4. 図1の7つのスピーカユニットの配置位置を説明するための図である。It is a figure for demonstrating the arrangement position of the seven speaker units of FIG. 図1のスピーカユニットの構成を説明するための図(その1)である。FIG. 3 is a (first) diagram for explaining the configuration of the speaker unit of FIG. 1; 図1のスピーカユニットの構成を説明するための図(その2)である。FIG. 3 is a second diagram for explaining the configuration of the speaker unit in FIG. 1; 図1の表示制御ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the display control unit of FIG. 図1の表示ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the display unit of FIG. 本発明の第2実施形態に係るコンテンツ再生装置の構成を概略的に示す図である。It is a figure which shows schematically the structure of the content reproduction apparatus which concerns on 2nd Embodiment of this invention. 図14のドライブ制御ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the drive control unit of FIG. 図14のオーディオプリアンプユニットの構成を示すブロック図である。FIG. 15 is a block diagram illustrating a configuration of the audio preamplifier unit in FIG. 14. 図14の表示制御ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the display control unit of FIG. 図14の表示ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the display unit of FIG.

符号の説明Explanation of symbols

100A,100B … コンテンツ再生装置
125 … 同期調整信号発生部(テスト信号生成手段)
130 … 集音ユニット(テスト音声検出手段の一部)
140A … オーディオプリアンプユニット(遅延制御手段の一部及びテ
テスト手段の一部)
140B … オーディオプリアンプユニット(遅延制御手段の一部)
1601〜1607 … スピーカユニット(音声出力手段)
171A,171B … 表示制御部(遅延制御手段の一部)
173 … 映像遅延部(映像遅延手段)
180A,180B … 表示ユニット(表示手段)
183 … テスト映像データ信号検出部(テスト映像検出手段)
210 … チャンネル分離部(個別チャンネル信号生成手段)
211 … 前段分離部(前段分離手段)
212 … 後段分離部(後段分離手段)
2161〜2166 … ハイパスフィルタ(高周波成分抽出手段)
2171〜2176 … ローパスフィルタ(低周波成分抽出手段)
218 … 加算器(加算手段)
220 … チャンネル信号調整部(音響調整手段)
2211〜2216 … フィルタセット(個別音響特性調整手段)
230 … 信号遅延部(音声遅延手段)
2311〜2316 … 遅延器セット(個別音声遅延手段の一部)
2337 … 遅延器(個別音声遅延手段の一部)
100A, 100B ... Content playback device 125 ... Synchronization adjustment signal generator (test signal generator)
130 ... Sound collecting unit (part of test sound detection means)
140A: Audio preamplifier unit (part of delay control means and
Part of the test method)
140B: Audio preamplifier unit (part of delay control means)
160 1 to 160 7 ... Speaker unit (audio output means)
171A, 171B ... Display control unit (part of delay control means)
173 ... Video delay unit (video delay means)
180A, 180B ... display unit (display means)
183 ... Test video data signal detector (test video detector)
210 ... Channel separation section (individual channel signal generation means)
211 ... Pre-stage separation section (pre-stage separation means)
212 ... latter stage separation part (second stage separation means)
216 1 to 216 6 ... High pass filter (high frequency component extracting means)
217 1 to 217 6 ... Low-pass filter (low frequency component extraction means)
218 ... Adder (addition means)
220 ... Channel signal adjustment unit (acoustic adjustment means)
221 1 to 221 6 ... Filter set (individual acoustic characteristic adjusting means)
230 ... Signal delay unit (voice delay means)
231 1 to 231 6 ... Delayer set (part of individual audio delay means)
233 7 ... Delay device (part of individual audio delay means)

Claims (10)

音声コンテンツ及び映像コンテンツを含むコンテンツを再生するコンテンツ再生装置であって、
前記音声コンテンツに由来する音声信号の周波数分離調整及び周波数特性調整の少なくとも一方を、直線位相型の有限インパルス応答フィルタを利用して行う音響調整手段と;
前記音声信号を音声遅延時間だけ遅延させる音声遅延手段と;
前記音響調整手段により調整され、かつ、前記音声遅延手段により遅延された信号に基づいて音声を再生し、所定の音場空間へ向けて出力する音声出力手段と;
前記音場空間の視聴位置における前記音声出力手段から出力された音声との同期用に定められた映像遅延時間だけ、前記映像コンテンツに由来する映像信号を遅延させる映像遅延手段と;
前記映像遅延手段により遅延された映像信号に基づいて、映像を再生表示する表示手段と;
を備えることを特徴とするコンテンツ再生装置。
A content playback device for playing back content including audio content and video content,
Acoustic adjustment means for performing at least one of frequency separation adjustment and frequency characteristic adjustment of an audio signal derived from the audio content using a linear phase type finite impulse response filter;
Audio delay means for delaying the audio signal by an audio delay time;
Sound output means for reproducing sound based on the signal adjusted by the sound adjusting means and delayed by the sound delay means, and outputting the sound toward a predetermined sound field space;
Video delay means for delaying the video signal derived from the video content by a video delay time determined for synchronization with the audio output from the audio output means at the viewing position in the sound field space;
Display means for reproducing and displaying video based on the video signal delayed by the video delay means;
A content playback apparatus comprising:
前記音声遅延手段に対して前記音声遅延時間を指定するとともに、前記映像遅延手段に対して前記映像遅延時間を指定する遅延制御手段を更に備える、ことを特徴とする請求項1に記載のコンテンツ再生装置。   2. The content reproduction according to claim 1, further comprising delay control means for designating the audio delay time for the audio delay means and designating the video delay time for the video delay means. apparatus. 前記音声信号に代るテスト音声信号を生成するとともに、前記映像信号に代る前記テスト音声信号と所定の時間関係を有するテスト映像信号を生成するテスト信号生成手段と;
前記テスト音声信号に基づいて前記音声出力手段により出力された音声の前記視聴位置への到達タイミングを検出するテスト音声検出手段と;
前記テスト映像信号に基づく前記表示手段における表示タイミングを検出するテスト映像検出手段と;を更に備え、
前記遅延制御手段は、前記テスト音声検出手段及び前記テスト映像検出手段による検出結果に基づいて、前記音声遅延時間及び前記映像遅延時間の少なくとも一方の調整を行う、ことを特徴とする請求項2に記載のコンテンツ再生装置。
Test signal generating means for generating a test audio signal in place of the audio signal and generating a test video signal having a predetermined time relationship with the test audio signal in place of the video signal;
Test voice detection means for detecting the arrival timing of the voice output by the voice output means based on the test voice signal to the viewing position;
Test video detection means for detecting display timing on the display means based on the test video signal;
The delay control unit adjusts at least one of the audio delay time and the video delay time based on detection results of the test audio detection unit and the test video detection unit. The content reproduction device described.
操作指令が入力される操作入力手段を更に備え、
前記遅延制御手段は、前記操作入力手段に前記音声出力手段による音声出力のタイミングと前記表示手段による映像表示タイミングとの調整指令が入力された場合に、前記音声遅延時間及び前記映像遅延時間の少なくとも一方の調整を行う、ことを特徴とする請求項2又は3に記載のコンテンツ再生装置。
It further comprises operation input means for inputting an operation command,
The delay control unit is configured to input at least one of the audio delay time and the video delay time when an instruction to adjust the audio output timing by the audio output unit and the video display timing by the display unit is input to the operation input unit. 4. The content reproduction apparatus according to claim 2, wherein one adjustment is performed.
前記コンテンツは記録媒体に記録され、
前記調整の結果である最終調整値を前記記録媒体の識別情報と関連付けて記録する遅延調整値記録手段を更に備え、
前記遅延制御手段は、前記最終調整値が記録されていた場合には、前記記録媒体に記録された前記最終調整値に基づいて、前記音声遅延時間及び前記映像遅延時間の少なくとも一方の調整を行う、
ことを特徴とする請求項4に記載のコンテンツ再生装置。
The content is recorded on a recording medium,
A delay adjustment value recording means for recording the final adjustment value as a result of the adjustment in association with the identification information of the recording medium;
When the final adjustment value is recorded, the delay control unit adjusts at least one of the audio delay time and the video delay time based on the final adjustment value recorded on the recording medium. ,
The content reproduction apparatus according to claim 4, wherein
前記音声コンテンツに基づき、前記音声信号として複数種のチャンネルごとの個別チャンネル信号を生成する個別チャンネル信号生成手段を更に備え、
前記音響調整手段は、前記個別チャンネル信号のそれぞれに対応して設けられ、直線位相型の有限インパルス応答フィルタを利用して、前記個別チャンネル信号に関する音響特性を調整する複数の個別音響特性調整手段を備え、
前記音声遅延手段は、前記個別チャンネル信号のそれぞれに対応して設けられ、前記個別チャンネル信号に対応する個別音声遅延時間だけ前記個別チャンネル信号を遅延させる複数の個別音声遅延手段を備える、
ことを特徴とする請求項1〜5のいずれか一項に記載のコンテンツ再生装置。
Further comprising individual channel signal generation means for generating an individual channel signal for each of a plurality of types of channels as the audio signal based on the audio content;
The acoustic adjustment means is provided corresponding to each of the individual channel signals, and uses a linear phase type finite impulse response filter to adjust a plurality of individual acoustic characteristic adjustment means for adjusting the acoustic characteristics of the individual channel signals. Prepared,
The audio delay means is provided corresponding to each of the individual channel signals, and includes a plurality of individual audio delay means for delaying the individual channel signal by an individual audio delay time corresponding to the individual channel signal.
The content reproduction device according to claim 1, wherein the content reproduction device is a content reproduction device.
前記個別チャンネル信号生成手段は、
前記音声コンテンツにおけるチャンネル指定に基づき、複数の信号に分離する前段分離手段と;
前記前段分離手段で分離された信号に基づいて、前記個別チャンネル信号を生成する後段分離手段と;を備え、
前記後段分離手段は、
前記前段分離手段で分離された信号のそれぞれにおける所定周波数未満の成分を、直線位相型の有限インパルス応答フィルタを利用して抽出する低周波成分抽出手段と;
前記低周波成分抽出手段により抽出された複数の信号の和を算出することにより、前記個別チャンネル信号における特定個別チャンネルの信号を生成する加算手段と;
前記特定個別チャンネル以外のチャンネルに対応して前記前段分離手段から出力された信号における所定周波数以上の成分を、直線位相型の有限インパルス応答フィルタを利用して抽出することにより、前記個別チャンネル信号における前記特定個別チャンネルの信号以外の信号を生成する高周波成分抽出手段と;を備える
ことを特徴とする請求項6に記載のコンテンツ再生装置。
The individual channel signal generating means includes
Pre-separation means for separating into a plurality of signals based on channel designation in the audio content;
A post-separation unit that generates the individual channel signal based on the signal separated by the pre-separation unit;
The latter stage separation means includes
Low frequency component extraction means for extracting a component having a frequency less than a predetermined frequency in each of the signals separated by the preceding separation means using a linear phase type finite impulse response filter;
Adding means for generating a signal of a specific individual channel in the individual channel signal by calculating a sum of a plurality of signals extracted by the low frequency component extracting means;
By extracting a component having a frequency equal to or higher than a predetermined frequency in a signal output from the preceding stage separation unit corresponding to a channel other than the specific individual channel by using a linear phase type finite impulse response filter, The content reproduction apparatus according to claim 6, further comprising: a high frequency component extraction unit that generates a signal other than the signal of the specific individual channel.
音声コンテンツ及び映像コンテンツを含むコンテンツを再生するコンテンツ再生方法であって、
前記音声コンテンツに由来する音声信号に関する音響特性を、直線位相型の有限インパルス応答フィルタを利用して調整する音響特性調整工程と;
前記音声信号を音声遅延時間だけ遅延させる音声遅延工程と;
前記音響特性調整工程において音響特性が調整され、かつ、前記音声遅延工程において遅延された音声信号に基づいて再生された音声を、所定の音場空間へ向けて出力させる音声出力工程と;
前記音場空間における視聴位置において前記音声出力工程で出力された音声との同期用に定められた映像遅延時間だけ、前記映像コンテンツに由来する映像信号を遅延させる映像遅延工程と;
前記映像遅延工程において遅延された映像信号に基づいて再生された映像を表示させる表示工程と;
を備えることを特徴とするコンテンツ再生方法。
A content playback method for playing back content including audio content and video content,
An acoustic characteristic adjustment step of adjusting an acoustic characteristic related to an audio signal derived from the audio content using a linear phase type finite impulse response filter;
An audio delay step of delaying the audio signal by an audio delay time;
A sound output step of outputting a sound reproduced based on the sound signal delayed in the sound delay step and having a sound property adjusted in the sound property adjustment step toward a predetermined sound field space;
A video delay step of delaying a video signal derived from the video content by a video delay time determined for synchronization with the audio output in the audio output step at a viewing position in the sound field space;
A display step of displaying the video reproduced based on the video signal delayed in the video delay step;
A content reproduction method comprising:
請求項8に記載のコンテンツ再生方法を演算手段に実行させる、ことを特徴とするコンテンツ再生プログラム。   A content reproduction program for causing a calculation means to execute the content reproduction method according to claim 8. 請求項9に記載のコンテンツ再生プログラムが、演算手段により読み取り可能に記録された記録媒体。   A recording medium on which the content reproduction program according to claim 9 is recorded so as to be readable by a calculation means.
JP2006317500A 2006-11-24 2006-11-24 Content reproducing apparatus, method thereof, program thereof, and recording medium recorded with the program Pending JP2008131589A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006317500A JP2008131589A (en) 2006-11-24 2006-11-24 Content reproducing apparatus, method thereof, program thereof, and recording medium recorded with the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006317500A JP2008131589A (en) 2006-11-24 2006-11-24 Content reproducing apparatus, method thereof, program thereof, and recording medium recorded with the program

Publications (1)

Publication Number Publication Date
JP2008131589A true JP2008131589A (en) 2008-06-05

Family

ID=39556960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006317500A Pending JP2008131589A (en) 2006-11-24 2006-11-24 Content reproducing apparatus, method thereof, program thereof, and recording medium recorded with the program

Country Status (1)

Country Link
JP (1) JP2008131589A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017221407A1 (en) * 2016-06-24 2017-12-28 ヤマハ株式会社 Synchronization setting device, distribution system, synchronization setting method, and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04326274A (en) * 1991-04-25 1992-11-16 Toshiba Corp Magnetic recording and reproducing device
JP2001045600A (en) * 1999-07-29 2001-02-16 Kenwood Corp Audio reproduction system and balance adjustment device
JP2002315099A (en) * 2001-04-12 2002-10-25 Alpine Electronics Inc On-vehicle audio visual system
JP2002369300A (en) * 2001-06-12 2002-12-20 Pioneer Electronic Corp Method and apparatus for reproducing audio signal
WO2005004537A2 (en) * 2003-06-25 2005-01-13 Harman International Industries, Incorporated Bass management systems
JP2005027163A (en) * 2003-07-04 2005-01-27 Pioneer Electronic Corp Audio data processing device, audio data processing method, its program, and recording medium recording program thereon
JP2005303967A (en) * 2004-03-17 2005-10-27 Sony Corp Measuring apparatus, measuring method, and program
JP2005303945A (en) * 2004-04-16 2005-10-27 Sharp Corp Surround-sound system
JP2006129372A (en) * 2004-11-01 2006-05-18 Kenwood Corp Signal processor and sound reproduction system
JP2006310930A (en) * 2005-04-26 2006-11-09 Sony Corp Acoustic apparatus, time delay calculation method, and time delay calculation program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04326274A (en) * 1991-04-25 1992-11-16 Toshiba Corp Magnetic recording and reproducing device
JP2001045600A (en) * 1999-07-29 2001-02-16 Kenwood Corp Audio reproduction system and balance adjustment device
JP2002315099A (en) * 2001-04-12 2002-10-25 Alpine Electronics Inc On-vehicle audio visual system
JP2002369300A (en) * 2001-06-12 2002-12-20 Pioneer Electronic Corp Method and apparatus for reproducing audio signal
WO2005004537A2 (en) * 2003-06-25 2005-01-13 Harman International Industries, Incorporated Bass management systems
JP2007525075A (en) * 2003-06-25 2007-08-30 ハーマン インターナショナル インダストリーズ インコーポレイテッド Bus management system
JP2005027163A (en) * 2003-07-04 2005-01-27 Pioneer Electronic Corp Audio data processing device, audio data processing method, its program, and recording medium recording program thereon
JP2005303967A (en) * 2004-03-17 2005-10-27 Sony Corp Measuring apparatus, measuring method, and program
JP2005303945A (en) * 2004-04-16 2005-10-27 Sharp Corp Surround-sound system
JP2006129372A (en) * 2004-11-01 2006-05-18 Kenwood Corp Signal processor and sound reproduction system
JP2006310930A (en) * 2005-04-26 2006-11-09 Sony Corp Acoustic apparatus, time delay calculation method, and time delay calculation program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017221407A1 (en) * 2016-06-24 2017-12-28 ヤマハ株式会社 Synchronization setting device, distribution system, synchronization setting method, and program
JPWO2017221433A1 (en) * 2016-06-24 2019-01-31 ヤマハ株式会社 Synchronization setting device, distribution system, synchronization setting method, and program
US10917465B2 (en) 2016-06-24 2021-02-09 Yamaha Corporation Synchronization setting device and distribution system

Similar Documents

Publication Publication Date Title
CN104604254B (en) Sound processing apparatus, method
JP4327886B1 (en) SOUND QUALITY CORRECTION DEVICE, SOUND QUALITY CORRECTION METHOD, AND SOUND QUALITY CORRECTION PROGRAM
JP4679647B2 (en) Video / audio playback apparatus and video / audio playback method
WO2009107202A1 (en) Acoustic signal processing device and acoustic signal processing method
JP4844622B2 (en) Volume correction apparatus, volume correction method, volume correction program, electronic device, and audio apparatus
JP2008227595A (en) Signal processing apparatus, signal processing method and program
JP2005027163A (en) Audio data processing device, audio data processing method, its program, and recording medium recording program thereon
WO2006008865A1 (en) Acoustic characteristic adjuster
JP2007318604A (en) Digital audio signal processor
JP5931182B2 (en) Apparatus, method and computer program for generating a stereo output signal for providing additional output channels
JP4002548B2 (en) Equalization circuit
JP2001231090A (en) Sub-woofer system
JP2007158873A (en) Voice correcting device
JP2008131589A (en) Content reproducing apparatus, method thereof, program thereof, and recording medium recorded with the program
JP5032463B2 (en) Stereo sound reproduction device and stereo sound reproduction program
JP5316560B2 (en) Volume correction device, volume correction method, and volume correction program
US20130245798A1 (en) Method and apparatus for signal processing based upon characteristics of music
JP7004627B2 (en) Video / audio playback system, video display device and video display method
JP2008225474A (en) Device and method for shaping a digital audio signal
JP4943806B2 (en) AUDIO DEVICE, ITS METHOD, PROGRAM, AND RECORDING MEDIUM
JP2009206612A (en) Audio apparatus, sound reproduction method, sound reproduction program and recording medium thereof
JP2012027101A (en) Sound playback apparatus, sound playback method, program, and recording medium
JPH1141699A (en) Acoustic processing circuit
JP2006339694A5 (en)
KR100808201B1 (en) Method for synchronizing audio/video data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111102