JP2007081780A - Reproduction controller, display, and reproduction system - Google Patents

Reproduction controller, display, and reproduction system Download PDF

Info

Publication number
JP2007081780A
JP2007081780A JP2005266393A JP2005266393A JP2007081780A JP 2007081780 A JP2007081780 A JP 2007081780A JP 2005266393 A JP2005266393 A JP 2005266393A JP 2005266393 A JP2005266393 A JP 2005266393A JP 2007081780 A JP2007081780 A JP 2007081780A
Authority
JP
Japan
Prior art keywords
data
audio data
output
audio
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005266393A
Other languages
Japanese (ja)
Inventor
Hiroyuki Hashimoto
浩幸 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005266393A priority Critical patent/JP2007081780A/en
Publication of JP2007081780A publication Critical patent/JP2007081780A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Receiver Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reliably synchronize the output timing of sounds based on sound data output to an sound output unit over a network with the display timing of a picture on a display. <P>SOLUTION: The reproduction controller comprises a data generator for generating a pair of reproducing picture data and reproducing sound data to be synchronously reproducing, based on picture-sound data, a data output unit for outputting reproduced sound data to a sound output unit over a network, a control unit for controlling the data output unit to output reproducing sound data together with outputting reproducing picture data for displaying pictures, and a sound collector for collecting sounds. The control unit controls the data output unit to change the display timing of the picture, based on the reproducing picture data according to the time length from a time point of outputting specified sound data from a sound unit (step 73) to a time point of collecting sounds by the sound collector, based on the specified sound data (steps 79, 81). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、映像音声データに基づいて再生用映像データおよび再生用音声データを生成して再生用映像データを表示部に出力してその再生用映像データに基づく映像を表示させると共に再生用音声データを音声出力装置に出力してその再生用音声データに基づく音声を出力させる再生制御装置、その再生制御装置と表示部とを備えた表示装置、並びに、再生制御装置と表示部と音声出力装置とを備えた再生システムに関するものである。   The present invention generates reproduction video data and reproduction audio data based on video / audio data, outputs the reproduction video data to a display unit, displays a video based on the reproduction video data, and reproduces the reproduction audio data. Is output to the audio output device to output sound based on the reproduction audio data, a display device including the reproduction control device and a display unit, and the reproduction control device, the display unit, and the audio output device, It is related with the reproduction | regeneration system provided with.

この種の再生制御装置に関連する技術として、映像音声伝送送信装置(以下、「送信装置」ともいう)と、映像音声伝送受信装置(以下、「受信装置」ともいう)とを備えた映像音声伝送システム(以下、「伝送システム」ともいう)が特開2004−104554号公報に開示されている。この伝送システムの使用に際しては、まず、送信装置の映像入力端子および音声入力端子に例えばビデオテープレコーダ等の再生装置を接続すると共に、送信装置の音声出力端子に音声出力装置(オーディオアンプ)を接続し、かつ、受信装置の映像出力端子に液晶ビデオプロジェクタ等の表示装置を接続する。次いで、再生装置によるビデオテープの再生処理を開始させてアナログ映像信号およびアナログ音声信号を出力させる。この際に、この伝送システムでは、送信装置が再生装置から出力されたアナログ映像信号に基づいてデジタル映像信号を生成して受信装置に送信すると共に、受信装置が送信されたデジタル映像信号に基づいてアナログ映像信号を生成して表示装置に出力する。これにより、受信装置から出力されたアナログ映像信号に基づく映像が表示装置によって表示される。また、送信装置では、A/D変換回路が再生装置から出力されたアナログ音声信号をデジタル音声信号に変換すると共に、D/A変換回路が変換されたデジタル音声信号をアナログ音声信号に変換して音声出力装置に出力する。これにより、送信装置から出力されたアナログ音声信号に基づく音声が音声出力装置によって出力される。   As a technology related to this type of playback control device, a video / audio transmission / reception device (hereinafter also referred to as “transmission device”) and a video / audio transmission / reception device (hereinafter also referred to as “reception device”) are provided. A transmission system (hereinafter also referred to as “transmission system”) is disclosed in Japanese Patent Application Laid-Open No. 2004-104554. When using this transmission system, first, a playback device such as a video tape recorder is connected to the video input terminal and audio input terminal of the transmission device, and an audio output device (audio amplifier) is connected to the audio output terminal of the transmission device. In addition, a display device such as a liquid crystal video projector is connected to the video output terminal of the receiving device. Next, the playback process of the video tape by the playback device is started to output an analog video signal and an analog audio signal. At this time, in this transmission system, the transmission device generates a digital video signal based on the analog video signal output from the reproduction device and transmits the digital video signal to the reception device, and the reception device based on the transmitted digital video signal. An analog video signal is generated and output to a display device. Thereby, the video based on the analog video signal output from the receiving device is displayed by the display device. In the transmission device, the A / D conversion circuit converts the analog audio signal output from the reproduction device into a digital audio signal, and the D / A conversion circuit converts the converted digital audio signal into an analog audio signal. Output to the audio output device. Thereby, the sound based on the analog sound signal output from the transmission device is output by the sound output device.

この場合、この伝送システムでは、送信装置と受信装置との間においてデジタル映像信号を無線通信によって送受信する構成を採用している。このため、両装置間におけるデジタル映像信号の送受信量(データ量)を小さくすべく、送信装置においてデジタル映像信号を圧縮処理すると共に、圧縮されているデジタル映像信号を受信装置において伸長処理する構成が採用されている。この結果、この伝送装置では、再生装置から出力されたアナログ映像信号については、対応する映像が表示装置によって表示されるまでの間にデジタル映像データの圧縮処理および伸長処理が実行されるのに対して、再生装置から出力されたアナログ音声信号については、デジタル音声データの圧縮処理および伸長処理等が実行されることなく音声出力装置(オーディオアンプおよびスピーカ)から対応する音声が出力される。したがって、この伝送システムでは、送信装置のA/D変換回路とD/A変換回路との間に遅延回路を設けて音声出力装置にアナログ音声信号を出力するまでの間に所定の遅延時間(デジタル映像データの圧縮処理および伸長処理に要する時間長の遅延時間)を生じさせている。これにより、圧縮処理および伸長処理の有無に起因して、スクリーンに映像が表示されるタイミングとスピーカから音声が出力されるタイミングとが非同期状態となる(音声に対して映像が遅れて表示される)事態を回避している。
特開2004−104554号公報(第7−8頁、図1)
In this case, this transmission system employs a configuration in which a digital video signal is transmitted and received by wireless communication between the transmission device and the reception device. For this reason, in order to reduce the transmission / reception amount (data amount) of the digital video signal between both devices, the transmission device compresses the digital video signal, and the receiving device expands the compressed digital video signal. It has been adopted. As a result, in this transmission device, the analog video signal output from the playback device is subjected to digital video data compression processing and decompression processing until the corresponding video is displayed on the display device. As for the analog audio signal output from the playback device, the corresponding audio is output from the audio output device (audio amplifier and speaker) without executing the compression processing and decompression processing of the digital audio data. Therefore, in this transmission system, a delay circuit is provided between the A / D conversion circuit and the D / A conversion circuit of the transmission device, and a predetermined delay time (digital) is output until the analog audio signal is output to the audio output device. The delay time of the time length required for the compression processing and decompression processing of the video data is generated. As a result, the timing at which the video is displayed on the screen and the timing at which the audio is output from the speaker become asynchronous due to the presence or absence of the compression processing and the decompression processing (the video is displayed with a delay with respect to the audio) ) Avoiding the situation.
JP 2004-104554 A (page 7-8, FIG. 1)

ところが、従来の伝送システムには、以下の問題点がある。すなわち、この伝送システムでは、デジタル映像データの圧縮処理および伸長処理に要する時間長に応じてアナログ音声信号を音声出力装置に出力するタイミングを遅延させることで、映像の表示タイミングと音声の出力タイミングとを同期させる構成が採用されている。一方、今日では、例えばDLNA(Digital Living Network Alliance )によって、再生装置、表示装置および音声出力装置等を相互にネットワーク接続してデジタル映像データやデジタル音声データを各装置間で送受信させて再生する利用形態が提案されている。この場合、ネットワークを介して各装置間でデジタルデータを送受信させる構成では、各装置間でデジタルデータを送受信するのに要する時間がネットワーク環境(装置の設置環境)に応じて相違する。また、ネットワークの利用状態などに応じてネットワークトラフィックが変化し、この点に起因して各装置間においてデジタルデータの送受信に要する時間が変化することもある。   However, the conventional transmission system has the following problems. That is, in this transmission system, by delaying the timing of outputting an analog audio signal to the audio output device in accordance with the time length required for the compression processing and decompression processing of digital video data, the video display timing and audio output timing are The structure which synchronizes is employ | adopted. On the other hand, today, for example, by DLNA (Digital Living Network Alliance), a playback device, a display device, an audio output device, and the like are connected to each other via a network, and digital video data and digital audio data are transmitted and received between the devices for playback. A form has been proposed. In this case, in the configuration in which digital data is transmitted and received between the devices via the network, the time required for transmitting and receiving the digital data between the devices differs depending on the network environment (device installation environment). In addition, network traffic changes depending on the network usage state, etc., and due to this point, the time required for transmission / reception of digital data between devices may change.

したがって、圧縮処理および伸長処理に要する時間に応じて遅延時間を1つの時間長に規定している従来の伝送システムの構成を採用し、ネットワークを介してデジタル音声データを音声出力装置に送信しようとした場合には、ネットワーク環境の相違やネットワークトラフィックの変化に起因してデジタル音声データの送受信に要する時間が変化したときに、映像の表示タイミングと音声の出力タイミングとが非同期状態となることがある。具体的には、例えば、ネットワークトラフィックが悪化したときには、ネットワークトラフィックが良好であるときと比較して、音声出力装置によるデジタル音声データの受信が完了するまでに長い時間を要するため、映像の表示タイミングよりも音声の出力タイミングが遅れる事態が生じる。このように、各装置をネットワーク接続した環境下で従来の伝送システムの構成を採用して映像音声データを再生したときには、映像の表示タイミングと音声の出力タイミングとを同期させるのが困難であるという問題点が存在する。   Accordingly, the configuration of the conventional transmission system in which the delay time is defined as one time length according to the time required for the compression processing and the decompression processing is used to transmit digital audio data to the audio output device via the network. If the time required for digital audio data transmission / reception changes due to differences in network environment or changes in network traffic, the video display timing and audio output timing may become asynchronous. . Specifically, for example, when the network traffic deteriorates, it takes a longer time to complete the reception of the digital audio data by the audio output device than when the network traffic is good. This causes a situation where the audio output timing is delayed. In this way, when video / audio data is reproduced by adopting the configuration of a conventional transmission system in an environment where each device is connected to a network, it is difficult to synchronize the video display timing and the audio output timing. There is a problem.

本発明は、かかる問題点に鑑みてなされたものであり、ネットワークを介して音声出力装置に出力した音声データに基づく音声の出力タイミングと表示部による映像の表示タイミングとを確実に同期させ得る再生制御装置、表示装置および再生システムを提供することを主目的とする。   The present invention has been made in view of such problems, and reproduction that can reliably synchronize the audio output timing based on the audio data output to the audio output device via the network and the video display timing of the display unit. A main object is to provide a control device, a display device, and a playback system.

上記目的を達成すべく、本発明に係る再生制御装置は、同期して再生すべき一対の再生用映像データおよび再生用音声データを映像音声データに基づいて生成するデータ生成部と、ネットワークを介して前記再生用音声データを音声出力装置に出力するデータ出力部と、前記再生用映像データに基づく映像を表示させるべく当該再生用映像データを表示部に出力すると共に前記データ出力部を制御して前記再生用音声データを出力させる制御部と、音声を集音する集音部とを備え、前記制御部が、前記データ出力部を制御して前記音声出力装置に所定の音声データを出力させた時点から当該所定の音声データに基づく音声が前記集音部によって集音された時点までの時間長に応じて、前記再生用映像データに基づく前記映像の前記表示部による表示タイミングと前記データ出力部による前記再生用音声データの出力タイミングとの少なくとも一方を変更する。なお、本明細書における「音声」には、人体における発生気管から発せられる音のみならず、鳥の鳴き声、風の音および音楽等の各種の「音」が含まれる。   In order to achieve the above object, a playback control device according to the present invention includes a data generation unit that generates a pair of playback video data and playback audio data to be played back synchronously based on video and audio data, and a network. A data output unit for outputting the reproduction audio data to an audio output device; and outputting the reproduction video data to the display unit to display a video based on the reproduction video data and controlling the data output unit. A control unit that outputs the reproduction audio data; and a sound collection unit that collects audio, and the control unit controls the data output unit to output predetermined audio data to the audio output device. The display unit of the video based on the video data for reproduction according to the time length from the time point to the time when the sound based on the predetermined audio data is collected by the sound collecting unit. Changing at least one of the output timing of the reproduced audio data by the data output unit and the display timing. Note that the “speech” in this specification includes not only sounds emitted from the generated trachea in the human body but also various “sounds” such as bird calls, wind sounds and music.

この再生制御装置によれば、所定の音声データを出力させた時点から所定の音声データに基づく音声が集音された時点までの時間長に応じて制御部が映像の表示タイミングと再生用音声データの出力タイミングとの少なくとも一方を変更することにより、デジタル音声データを出力する際の遅延時間を1つの時間長に規定している従来の伝送システムとは異なり、例えば、ネットワーク環境の相違に起因して再生用音声データを出力した時点からその再生用音声データに対応する音声が出力される時点までの時間長が相違するときであっても、そのネットワーク環境下における音声出力の遅延時間に応じて映像の表示タイミングと再生用音声データの出力タイミングとの少なくとも一方を変更して映像の表示タイミングと音声の出力タイミングとを確実に同期させることができる。また、再生制御装置と音声出力装置との間において例えばタイムコントロール機能を有する特殊なプロトコルで通信することなく、httpやftp等の極く一般的なプロトコルで通信可能となるため、極く一般的な汎用のネットワークアダプタを用いてデータ出力部を構成し、再生制御装置や音声出力装置を安価に構成することができる。   According to this playback control device, the control unit controls the video display timing and the playback audio data according to the length of time from when the predetermined audio data is output to when the audio based on the predetermined audio data is collected. Unlike conventional transmission systems in which the delay time for outputting digital audio data is defined as one time length by changing at least one of the output timings of, for example, due to differences in network environments Even when the time length from the time when the audio data for playback is output to the time when the audio corresponding to the audio data for playback is output differs, depending on the delay time of the audio output under the network environment Change video display timing and playback audio data output timing to change video display timing and audio output timing It is possible to reliably synchronize and. In addition, since it is possible to communicate with a very general protocol such as http or ftp without communicating with a reproduction control device and an audio output device using a special protocol having a time control function, for example, it is extremely common. A general-purpose network adapter can be used to configure the data output unit, and the playback control device and the audio output device can be configured at low cost.

また、本発明に係る再生制御装置は、前記制御部が、前記データ出力部を制御して前記所定の音声データとして前記再生用音声データを出力させ、前記集音部によって集音された前記音声に基づいて生成された比較用音声データと当該再生用音声データとを比較した結果に基づき、当該比較用音声データに対応する当該再生用音声データを出力させた時点から当該比較用音声データに対応する音声が集音された時点までの時間長を特定する第1の特定処理を実行し、当該特定した時間長に応じて前記映像の表示タイミングと前記再生用音声データの出力タイミングとの少なくとも一方を変更する。   Further, in the reproduction control apparatus according to the present invention, the control unit controls the data output unit to output the reproduction audio data as the predetermined audio data, and the sound collected by the sound collection unit Corresponding to the audio data for comparison from the time when the audio data for reproduction corresponding to the audio data for comparison is output based on the result of comparing the audio data for comparison and the audio data for reproduction generated based on A first specifying process for specifying a time length until the time when the sound to be collected is collected, and at least one of the display timing of the video and the output timing of the playback audio data according to the specified time length To change.

この再生制御装置によれば、制御部が比較用音声データに対応する再生用音声データを出力させた時点から比較用音声データに対応する音声が集音された時点までの時間長を特定する第1の特定処理を実行し、第1の特定処理によって特定した時間長に応じて映像の表示タイミングと再生用音声データの出力タイミングとの少なくとも一方を変更することにより、デジタル音声データを出力する際の遅延時間を1つの時間長に規定している従来の伝送システムとは異なり、映像音声データの再生時にネットワークトラフィックが変化して再生用音声データを出力した時点からその再生用音声データに対応する音声が出力される時点までの時間長が変化したとしても、その時間長の変化に応じて映像の表示タイミングと再生用音声データの出力タイミングとの少なくとも一方を変更して映像の表示タイミングと音声の出力タイミングとを確実に同期させることができる。   According to this reproduction control apparatus, the time length from the time when the control unit outputs the reproduction audio data corresponding to the comparison audio data to the time when the audio corresponding to the comparison audio data is collected is specified. When the digital audio data is output by executing one specific process and changing at least one of the video display timing and the reproduction audio data output timing in accordance with the time length specified by the first specific process Unlike the conventional transmission system in which the delay time is defined as one time length, when the audio / video data is reproduced, the network traffic is changed and the reproduction audio data is output from the time when the reproduction audio data is output. Even if the time length until the audio is output changes, the video display timing and audio data for playback are output according to the change in the time length. And an output timing of the display timing and the audio of the video can be reliably synchronized by changing at least one of the timing.

さらに、本発明に係る再生制御装置は、時間差特定用音声データを記憶する第1の記憶部を備え、前記制御部が、前記データ出力部を制御して前記所定の音声データとして前記時間差特定用音声データを出力させ、当該時間差特定用音声データと前記比較用音声データとを比較した結果に基づき、当該比較用音声データに対応する当該時間差特定用音声データを出力させた時点から当該比較用音声データに対応する音声が集音された時点までの時間長を特定する第2の特定処理を前記第1の特定処理に先立って実行し、当該第1の特定処理時において、前記再生用音声データを出力させた時点から前記第2の特定処理によって特定した時間長だけ経過した時点において生成された前記比較用音声データと当該再生用音声データとを比較する。   Furthermore, the playback control device according to the present invention includes a first storage unit that stores time difference specifying audio data, and the control unit controls the data output unit to specify the time difference specifying data as the predetermined audio data. Based on the result of outputting the audio data and comparing the audio data for time difference identification and the audio data for comparison, the audio for comparison is output from the time when the audio data for time difference identification corresponding to the audio data for comparison is output. Prior to the first specifying process, a second specifying process for specifying a length of time until the sound corresponding to the data is collected is executed prior to the first specifying process. The comparison audio data generated at the time when the time length specified by the second specifying process has elapsed from the time when the output is output is compared with the reproduction audio data.

この再生制御装置では、制御部が比較用音声データに対応する時間差特定用音声データを出力させた時点から比較用音声データに対応する音声が集音された時点までの時間長を特定する第2の特定処理を第1の特定処理に先立って実行し、第1の特定処理時において、再生用音声データを出力させた時点から第2の特定処理によって特定した時間長だけ経過した時点において生成された比較用音声データと再生用音声データとを比較する。したがって、この再生制御装置によれば、第2の特定処理を実行することなく映像音声データの再生時に再生用音声データを出力した時点から再生用音声データに対応する音声が出力された時までの時間長に応じて映像の表示タイミングと音声の出力タイミングとを同期させる構成とは異なり、映像音声データの再生開始直後から映像の表示タイミングと音声の出力タイミングとを同期させることができる。また、映像音声データの再生処理と並行して第1の特定処理を実行することにより、映像音声データの再生中にネットワークトラフィックが変化するなどして再生用音声データに基づく音声の出力に要する時間が変化したとしても、第1の特定処理によって特定される特定される時間長に基づいて映像の表示タイミングと再生用音声データの出力タイミングとの少なくとも一方を変更して映像の表示タイミングと音声の出力タイミングとを同期させた状態を維持することができる。   In this reproduction control apparatus, the control unit specifies the time length from the time when the time difference specifying sound data corresponding to the comparison sound data is output to the time when the sound corresponding to the comparison sound data is collected. Is generated prior to the first specific process, and at the time when the time length specified by the second specific process elapses from the time when the reproduction audio data is output in the first specific process. The comparison audio data and the reproduction audio data are compared. Therefore, according to this playback control apparatus, from the time when the playback audio data is output during playback of the video / audio data without executing the second specific processing, the time from when the audio corresponding to the playback audio data is output. Unlike the configuration in which the video display timing and the audio output timing are synchronized according to the time length, the video display timing and the audio output timing can be synchronized immediately after the start of reproduction of the video / audio data. Further, by executing the first specific process in parallel with the reproduction process of the video / audio data, the network traffic changes during the reproduction of the video / audio data and the time required for outputting the audio based on the reproduction audio data Is changed, at least one of the video display timing and the playback audio data output timing is changed based on the specified time length specified by the first specifying process to change the video display timing and the audio A state in which the output timing is synchronized can be maintained.

また、本発明に係る再生制御装置は、前記再生用音声データを記憶する第2の記憶部を備え、前記制御部が、前記第1の特定処理時において、前記データ出力部を制御して出力させた前記再生用音声データのうちの所定時間分の当該再生用音声データを前記第2の記憶部に記憶させると共に、当該第2の記憶部に記憶させた前記再生用音声データのうちの第1の時点から第2の時点までの間に出力された当該再生用音声データと前記比較用音声データとを比較し、当該比較用音声データに対応する前記再生用音声データが前記第1の時点から前記第2の時点までに出力された当該再生用音声データのなかに存在しなかったときに、当該第1の時点と当該第2の時点との少なくとも一方を予め規定された時間分だけ相違する時点に変更する変更処理を実行し、当該変更処理後の前記第1の時点から当該変更処理後の前記第2の時点までの間に出力された前記再生用音声データと前記比較用音声データとを比較する。   The reproduction control apparatus according to the present invention further includes a second storage unit that stores the reproduction audio data, and the control unit controls and outputs the data output unit during the first specific processing. The reproduction audio data for a predetermined time of the reproduced audio data that has been played is stored in the second storage unit, and the reproduction audio data stored in the second storage unit is stored in the second storage unit. The audio data for reproduction output from the time point 1 to the second time point is compared with the audio data for comparison, and the audio data for reproduction corresponding to the audio data for comparison is the first time point. When there is no reproduction audio data output from the first time to the second time point, at least one of the first time point and the second time point is different by a predetermined time. Change to change to Run the physical, comparing the audio for the comparison with the output said reproduced audio data between the first time after the change process until the second time after the changing process data.

この再生制御装置では、第1の特定処理時において、出力した再生用音声データのうちの所定時間分の再生用音声データを第2の記憶部に記憶させ、その再生用音声データのうちの第1の時点から第2の時点までの間に出力された再生用音声データと比較用音声データとを比較し、比較用音声データに対応する再生用音声データが第1の時点から第2の時点までに出力された再生用音声データのなかに存在しなかったときに、第1の時点と第2の時点との少なくとも一方を予め規定された時間分だけ相違する時点に変更する変更処理を実行し、変更処理後の第1の時点から変更処理後の第2の時点までの間に出力された再生用音声データと比較用音声データとを比較する。したがって、この再生制御装置によれば、データ出力部から出力した再生用音声データのすべてを第2の記憶部に記憶させて、そのすべてを比較対象として比較用音声データと比較する構成とは異なり、少ない記憶容量の記憶素子で第2の記憶部を構成することができると共に、第1の時点および第2の時点を自動的に変更して比較用音声データに対応する再生用音声データを確実に検出することができる。また、比較用音声データに対応する再生用音声データが第1の時点から第2の時点までに出力された再生用音声データのなかに存在しなかったときに、変更処理時において、第1の時点と第2の時点との双方を予め規定された時間分だけ相違する時点にそれぞれ変更することで、第1の特定処理において比較すべき再生用音声データのデータサイズ(データブロック数)を少なくして短時間で処理することができる。   In this playback control device, during the first specific processing, the playback audio data for a predetermined time of the output playback audio data is stored in the second storage unit, and the first of the playback audio data is stored. The reproduction audio data output from the time point 1 to the second time point is compared with the comparison audio data, and the reproduction audio data corresponding to the comparison audio data is obtained from the first time point to the second time point. Change processing for changing at least one of the first time point and the second time point to a time point that differs by a predetermined time when it does not exist in the playback audio data output until Then, the reproduction audio data output from the first time after the change processing to the second time after the change processing is compared with the comparison audio data. Therefore, according to this reproduction control apparatus, the reproduction audio data output from the data output unit is all stored in the second storage unit, and all of the audio data is compared with the comparison audio data for comparison. The second storage unit can be configured with a storage element having a small storage capacity, and the first time point and the second time point can be automatically changed to ensure reproduction sound data corresponding to the comparison sound data. Can be detected. Further, when the reproduction audio data corresponding to the comparison audio data does not exist in the reproduction audio data output from the first time point to the second time point, the first time is changed during the change process. By changing both the time point and the second time point to different time points by a predetermined time, the data size (number of data blocks) of the reproduction audio data to be compared in the first specific process is reduced. And can be processed in a short time.

さらに、本発明に係る再生制御装置は、時間差特定用音声データを記憶する第1の記憶部を備え、前記制御部が、前記データ出力部を制御して前記所定の音声データとして前記時間差特定用音声データを出力させ、前記集音部によって集音された前記音声に基づいて生成された比較用音声データと当該時間差特定用音声データとを比較した結果に基づき、当該比較用音声データに対応する当該時間差特定用音声データを出力させた時点から当該比較用音声データに対応する音声が集音された時点までの時間長を特定する第2の特定処理を実行し、当該特定した時間長に応じて前記映像の表示タイミングと前記再生用音声データの出力タイミングとの少なくとも一方を変更する。   Furthermore, the playback control device according to the present invention includes a first storage unit that stores time difference specifying audio data, and the control unit controls the data output unit to specify the time difference specifying data as the predetermined audio data. Corresponding to the comparison voice data based on a result of outputting the voice data and comparing the comparison voice data generated based on the voice collected by the sound collection unit and the time difference specifying voice data A second specifying process for specifying the time length from the time when the time difference specifying sound data is output to the time when the sound corresponding to the comparison sound data is collected is executed, and according to the specified time length Then, at least one of the display timing of the video and the output timing of the reproduction audio data is changed.

この再生制御装置によれば、制御部が比較用音声データに対応する時間差特定用音声データを出力させた時点から比較用音声データに対応する音声が集音された時点までの時間長を特定する第2の特定処理を実行し、第2の特定処理によって特定した時間長に応じて映像の表示タイミングと再生用音声データの出力タイミングとの少なくとも一方を変更することにより、映像音声データの再生に先立って第2の特定処理によって特定した遅延時間(時間長)に基づき、映像音声データの再生処理中に第1の特定処理等を実行することなく、映像の表示タイミングと音声の出力タイミングとを同期させることができる。   According to this reproduction control apparatus, the time length from the time when the control unit outputs the time difference specifying sound data corresponding to the comparison sound data to the time when the sound corresponding to the comparison sound data is collected is specified. By executing the second specific process and changing at least one of the video display timing and the reproduction audio data output timing in accordance with the time length specified by the second specific process, the video / audio data can be reproduced. Based on the delay time (time length) specified by the second specifying process in advance, the video display timing and the audio output timing are determined without executing the first specifying process or the like during the playback process of the video / audio data. Can be synchronized.

また、本発明に係る再生制御装置は前記制御部が前記映像の表示タイミングおよび前記再生用音声データの出力タイミングのうちの当該表示タイミングのみを前記特定した時間長に応じて変更する。   In the playback control apparatus according to the present invention, the control unit changes only the display timing of the video display timing and the playback audio data output timing according to the specified time length.

この再生制御装置によれば、制御部が再生用映像データに基づく映像の表示タイミングのみを変更することにより、再生用音声データの出力タイミングを変更して映像の表示タイミングと音声の出力タイミングとを同期させる構成とは異なり、音声出力装置から出力される音声を途切れさせることなく映像の表示タイミングと音声の出力タイミングとを同期させることができる。したがって、音声が途切れるといった違和感を認識させることなく映像音声データを再生することができる。   According to this playback control apparatus, the control unit changes only the video display timing based on the video data for playback, thereby changing the output timing of the audio data for playback to change the video display timing and the audio output timing. Unlike the synchronized configuration, the video display timing and the audio output timing can be synchronized without interrupting the audio output from the audio output device. Therefore, it is possible to reproduce the video / audio data without recognizing the uncomfortable feeling that the sound is interrupted.

また、本発明に係る表示装置は、上記のいずれかの再生制御装置と、前記表示部とを備えて構成されている。   A display device according to the present invention includes any one of the reproduction control devices described above and the display unit.

この表示装置によれば、上記の再生制御装置と表示部とを備えたことにより、例えば、外部装置としての表示部に再生用映像データを出力して映像を表示させる構成とは異なり、再生用映像データを表示部に出力した時点から再生用映像データに基づく映像が表示部によって表示される時点までの時間長を十分に短くすることができるしたがって、第1の特定処理によって特定した時間長(遅延時間)に基づき、再生用映像データに基づく映像の表示を遅延させることなく、変更した表示タイミングで映像を正確に表示させることができる。   According to this display device, since the playback control device and the display unit are provided, for example, unlike a configuration in which video data for playback is output and displayed on a display unit as an external device, The time length from the time when the video data is output to the display unit to the time when the video based on the playback video data is displayed by the display unit can be sufficiently shortened. Therefore, the time length specified by the first specifying process ( The video can be accurately displayed at the changed display timing without delaying the display of the video based on the playback video data.

また、本発明に係る再生システムは、上記のいずれかの再生制御装置と、前記表示部と、前記音声出力装置とを備えて構成されている。   The playback system according to the present invention includes any one of the playback control devices described above, the display unit, and the audio output device.

この再生システムによれば、上記の再生制御装置と表示部と音声出力装置とを備えたことにより、再生用映像データに基づく映像の表示タイミングと、その再生用映像データと同期して再生すべき再生用音声データに基づく音声の出力タイミングとを同期させて映像音声データDを再生することができる。   According to this playback system, since the playback control device, the display unit, and the audio output device are provided, the video display timing based on the playback video data and the playback video data should be played back in synchronization. The audio / video data D can be reproduced in synchronization with the audio output timing based on the audio data for reproduction.

以下、本発明に係る再生制御装置、表示装置および再生システムの最良の形態について、添付図面を参照して説明する。図1に示すプロジェクタ1は、本発明に係る再生制御装置と本発明における表示部とを一体的に構成した表示装置の一例であって、ネットワークNを介してコンテンツ配信サーバ2やオーディオアンプ3等に接続されている。なお、プロジェクタ1、コンテンツ配信サーバ2およびオーディオアンプ3の間に存在するDHCPサーバ等の各種サーバについては、本発明についての理解を容易とするために、その図示および説明を省略する。また、プロジェクタ1とオーディオアンプ3とは、一例として、プロジェクタ1による映像を表示するためのスクリーンと共に同じ居室内に設置されているものとする。この場合、この例では、プロジェクタ1、オーディオアンプ3、およびオーディオアンプ3に接続されたスピーカ4によって本発明における再生システムが構成されている。   Hereinafter, the best mode of a playback control device, a display device, and a playback system according to the present invention will be described with reference to the accompanying drawings. A projector 1 shown in FIG. 1 is an example of a display device in which a playback control device according to the present invention and a display unit according to the present invention are integrated, and includes a content distribution server 2, an audio amplifier 3, and the like via a network N. It is connected to the. Note that illustration and description of various servers such as a DHCP server existing between the projector 1, the content distribution server 2 and the audio amplifier 3 are omitted in order to facilitate understanding of the present invention. Further, as an example, the projector 1 and the audio amplifier 3 are installed in the same room together with a screen for displaying an image by the projector 1. In this case, in this example, the reproduction system according to the present invention is configured by the projector 1, the audio amplifier 3, and the speaker 4 connected to the audio amplifier 3.

プロジェクタ1は、本発明に係る表示装置の一例であって、通常のプロジェクタに相当する映像表示部14の他に、ネットワークアダプタ11、映像音声処理部12および再生処理部13を備え、コンテンツ配信サーバ2から出力される映像音声データDに基づく映像を図示しないスクリーンに表示可能に構成されている。この場合、映像音声データDは、一例として、MPEG−2に準拠した動画データで構成されている。また、このプロジェクタ1は、後述するように、映像音声データDに基づいて生成した音声データDa1をオーディオアンプ3にネットワークNを介して出力可能に構成されている。ネットワークアダプタ11は、ネットワークNに接続して各種デジタルデータを送受信する装置であって、コンテンツ配信サーバ2から映像音声データDおよび音声データDc等を受信する。また、ネットワークアダプタ11は、本発明におけるデータ出力部に相当し、後述する制御部28の制御に従い、ネットワークNを介してオーディオアンプ3に音声データDa1等を出力する。映像音声処理部12は、本発明におけるデータ生成部に相当し、コンテンツ配信サーバ2から出力された(ネットワークNを介して受信した)映像音声データDに基づき、同期して同時に再生すべき一対の映像データDvおよび音声データDaを生成して再生処理部13に出力する。   The projector 1 is an example of a display device according to the present invention, and includes a network adapter 11, a video / audio processing unit 12, and a reproduction processing unit 13 in addition to a video display unit 14 corresponding to a normal projector, and a content distribution server. The video based on the video / audio data D output from 2 can be displayed on a screen (not shown). In this case, the video / audio data D is composed of moving image data compliant with MPEG-2 as an example. Further, as will be described later, the projector 1 is configured to be able to output audio data Da1 generated based on the video / audio data D to the audio amplifier 3 via the network N. The network adapter 11 is a device that is connected to the network N and transmits / receives various digital data, and receives video / audio data D, audio data Dc, and the like from the content distribution server 2. The network adapter 11 corresponds to a data output unit in the present invention, and outputs audio data Da1 and the like to the audio amplifier 3 via the network N according to the control of the control unit 28 described later. The video / audio processing unit 12 corresponds to the data generation unit in the present invention, and is based on the video / audio data D (received via the network N) output from the content distribution server 2 and should be reproduced simultaneously in a synchronized manner. Video data Dv and audio data Da are generated and output to the reproduction processing unit 13.

再生処理部13は、映像データ記憶部21、音声データ記憶部22、音声処理部23、バッファ24、タイマ25、マイク26、A/Dコンバータ27、制御部28およびタイミングデータ記憶部29を備え、映像音声データDに基づく映像および音声の再生に際して映像表示部14による映像の表示タイミングとオーディオアンプ3による音声の出力タイミングとを同期させる機能を有している。映像データ記憶部21は、制御部28の制御に従い、映像音声処理部12によって生成された映像データDv(本発明における再生用映像データの一例)を記憶する。音声データ記憶部22は、制御部28の制御に従い、映像音声処理部12によって生成された音声データDa(本発明における再生用音声データの一例)を記憶すると共に、本発明における第1の記憶部を構成して、ネットワークNを介して受信した音声データDc(本発明における時間差特定用音声データの一例)を記憶する。音声処理部23は、制御部28の制御に従い、音声データDaまたは音声データDcに基づいて音声データDa1を生成する。この場合、音声データDa1は、一例として、MP3(MPEG-1 Audio Layer-III)に準拠して構成されている。また、音声データDa1に代えて例えばLPCM方式の音声データDa2を生成して出力する構成を採用することもできる。   The reproduction processing unit 13 includes a video data storage unit 21, an audio data storage unit 22, an audio processing unit 23, a buffer 24, a timer 25, a microphone 26, an A / D converter 27, a control unit 28, and a timing data storage unit 29. It has a function of synchronizing the video display timing by the video display unit 14 and the audio output timing by the audio amplifier 3 when reproducing video and audio based on the video / audio data D. The video data storage unit 21 stores video data Dv (an example of playback video data in the present invention) generated by the video / audio processing unit 12 under the control of the control unit 28. The audio data storage unit 22 stores the audio data Da (an example of reproduction audio data in the present invention) generated by the video / audio processing unit 12 according to the control of the control unit 28, and the first storage unit in the present invention. Is stored, and voice data Dc received via the network N (an example of time difference specifying voice data in the present invention) is stored. The audio processing unit 23 generates audio data Da1 based on the audio data Da or the audio data Dc under the control of the control unit 28. In this case, the audio data Da1 is configured based on MP3 (MPEG-1 Audio Layer-III) as an example. Further, instead of the audio data Da1, for example, a configuration in which LPCM audio data Da2 is generated and output may be employed.

バッファ24は、本発明における第2の記憶部に相当し、制御部28の制御に従い、ネットワークアダプタ11からオーディオアンプ3に出力された音声データDa1のうちの所定時間分の音声データ(音声データDa1の一部:以下、「音声データDa11」ともいう)を記憶する。この場合、このプロジェクタ1では、後述するタイミング特定処理90(図4参照)の開始時においては、一例として500ms分の音声データDa11をバッファ24に記憶させるように設定されている。タイマ25は、制御部28の制御に従って所定のタイミングが到来するまでの時間を計時する。マイク26は、本発明における集音部に相当し、プロジェクタ1の周囲の音声を集音して音声信号Sa2を生成し、A/Dコンバータ27に出力する。この場合、マイク26は、一例として、無指向性のマイクで構成されている。A/Dコンバータ27は、マイク26から出力された音声信号Sa2をA/D変換処理して音声データDa3(本発明における比較用音声データの一例)を生成する。なお、マイク26とA/Dコンバータ27との間に各種のフィルタやアンプ等を配設した構成や、A/Dコンバータ27と制御部28との間に各種のフィルタ等を配設した構成を採用することもできる。制御部28は、プロジェクタ1の各部を総括的に制御する。また、制御部28は、本発明における制御部を構成し、後述するように、タイミング特定処理60,90および再生処理70(図2〜4参照)を実行して映像音声データDに基づく映像の表示タイミングと音声の出力タイミングとを同期させる。タイミングデータ記憶部29は、制御部28の制御に従い、第1基準タイミングデータDt1および第2基準タイミングデータDt2を記憶する。   The buffer 24 corresponds to the second storage unit in the present invention, and the audio data (audio data Da1) for a predetermined time out of the audio data Da1 output from the network adapter 11 to the audio amplifier 3 according to the control of the control unit 28. (Hereinafter also referred to as “audio data Da11”). In this case, the projector 1 is set to store the audio data Da11 for 500 ms in the buffer 24 as an example at the start of a timing specifying process 90 (see FIG. 4) described later. The timer 25 measures the time until a predetermined timing comes according to the control of the control unit 28. The microphone 26 corresponds to a sound collecting unit in the present invention, collects sound around the projector 1, generates an audio signal Sa <b> 2, and outputs it to the A / D converter 27. In this case, the microphone 26 is configured as an omnidirectional microphone, for example. The A / D converter 27 performs A / D conversion processing on the audio signal Sa2 output from the microphone 26 to generate audio data Da3 (an example of comparison audio data in the present invention). A configuration in which various filters and amplifiers are disposed between the microphone 26 and the A / D converter 27, and a configuration in which various filters are disposed between the A / D converter 27 and the control unit 28. It can also be adopted. The control unit 28 comprehensively controls each unit of the projector 1. In addition, the control unit 28 constitutes a control unit in the present invention, and executes timing specification processing 60 and 90 and playback processing 70 (see FIGS. 2 to 4), as will be described later. The display timing and the audio output timing are synchronized. The timing data storage unit 29 stores the first reference timing data Dt1 and the second reference timing data Dt2 according to the control of the control unit 28.

映像表示部14は、本発明における表示部の一例であって、バッファ31、投射機構32および表示制御部33を備えている。バッファ31は、再生処理部13から出力された映像データDvを一時的に記憶する。投射機構32は、一例として、ランプ駆動制御部および光学エンジン等を備え、表示制御部33から出力された映像信号Svに基づく各種映像を図示しないスクリーンに表示する。具体的には、投射機構32は、出力された映像信号Svに基づいてランプからの投射光を光変調してスクリーンに投射光Lを投射することで各種映像を表示する。この場合、上記の光学エンジンは、例えば、光変調素子(一例として、デジタルマイクロミラーデバイスや液晶ライトバルブ)と、投射レンズ(いずれも図示せず)とを備え、メタルハライドランプや高圧水銀ランプで構成されたランプを光源として投射光Lを射出する構成が採用されている。また、ランプ駆動制御部は、表示制御部33の制御に従い、ランプを点灯させるためのランプ駆動パルスを生成して供給する。表示制御部33は、映像データDvに基づいて映像信号Svを生成すると共に、投射機構32を制御して映像信号Svに基づく映像を表示させる。なお、上記の映像表示部14に代えて、スクリーンを一体化したリアプロジェクタや、液晶ディスプレイおよびプラズマディスプレイ等の各種ディスプレイを搭載した構成を採用することができる。   The video display unit 14 is an example of a display unit in the present invention, and includes a buffer 31, a projection mechanism 32, and a display control unit 33. The buffer 31 temporarily stores the video data Dv output from the reproduction processing unit 13. As an example, the projection mechanism 32 includes a lamp drive control unit and an optical engine, and displays various videos based on the video signal Sv output from the display control unit 33 on a screen (not shown). Specifically, the projection mechanism 32 displays various images by optically modulating the projection light from the lamp based on the output video signal Sv and projecting the projection light L onto the screen. In this case, the optical engine includes, for example, a light modulation element (for example, a digital micromirror device or a liquid crystal light valve) and a projection lens (both not shown), and includes a metal halide lamp or a high-pressure mercury lamp. A configuration in which the projection light L is emitted using the lamp as a light source is employed. The lamp drive control unit generates and supplies a lamp drive pulse for lighting the lamp according to the control of the display control unit 33. The display control unit 33 generates a video signal Sv based on the video data Dv, and controls the projection mechanism 32 to display a video based on the video signal Sv. Instead of the video display unit 14 described above, a configuration in which a rear projector with an integrated screen, and various displays such as a liquid crystal display and a plasma display can be employed.

一方、コンテンツ配信サーバ2は、ネットワークN(インターネット)を介して各種の映像音声データDを配信するサーバであって、ネットワークアダプタ41、記憶装置42および制御装置43を備えている。ネットワークアダプタ41は、ネットワークNに接続する装置であって、制御装置43の制御に従い、プロジェクタ1や図示しないパーソナルコンピュータ等に映像音声データDを出力(配信)すると共に、プロジェクタ1等の要求に応じて音声データDcを出力する。記憶装置42は、プロジェクタ1等に出力する複数の映像音声データDや音声データDc等を記憶する。制御装置43は、ネットワークアダプタ41を制御して記憶装置42に記憶されている映像音声データDや音声データDcをプロジェクタ1等に出力する。この場合、コンテンツ配信サーバ2とプロジェクタ1との間においては、一例としてhttpおよびftp等の標準的な通信プロトコルによって映像音声データD等が送受信される。   On the other hand, the content distribution server 2 is a server that distributes various types of video / audio data D via the network N (Internet), and includes a network adapter 41, a storage device 42, and a control device 43. The network adapter 41 is a device connected to the network N, and outputs (distributes) the video / audio data D to the projector 1 or a personal computer (not shown) according to the control of the control device 43 and responds to the request from the projector 1 and the like. Audio data Dc. The storage device 42 stores a plurality of video / audio data D, audio data Dc, and the like output to the projector 1 and the like. The control device 43 controls the network adapter 41 to output the video / audio data D and the audio data Dc stored in the storage device 42 to the projector 1 and the like. In this case, video / audio data D and the like are transmitted and received between the content distribution server 2 and the projector 1 by a standard communication protocol such as http and ftp as an example.

オーディオアンプ3は、プロジェクタ1から出力された音声データDa1に基づく音声信号Sa1をスピーカ4に出力して音声を出力させる。この場合、この例では、オーディオアンプ3およびスピーカ4によって本発明における音声出力装置が構成されている。また、オーディオアンプ3は、ネットワークアダプタ51、デコーダ52、D/Aコンバータ53およびアンプ54を備えている。ネットワークアダプタ51は、オーディオアンプ3をネットワークNに接続する装置であって、プロジェクタ1から出力された音声データDa1等を受信する。デコーダ52は、例えば、MP3形式の音声データDa1をデコードしてLPCM方式の音声データDa2を生成する。D/Aコンバータ53は、デコーダ52によって生成された音声データDa2(または、プロジェクタ1から出力された音声データDa2)をD/A変換処理して音声信号Sa1を生成する。アンプ54は、音声信号Sa1を増幅してスピーカ4に出力する。スピーカ4は、オーディオアンプ3から出力された音声信号Sa1に基づく音声を出力する。   The audio amplifier 3 outputs an audio signal Sa1 based on the audio data Da1 output from the projector 1 to the speaker 4 to output audio. In this case, in this example, the audio amplifier 3 and the speaker 4 constitute an audio output device according to the present invention. The audio amplifier 3 includes a network adapter 51, a decoder 52, a D / A converter 53, and an amplifier 54. The network adapter 51 is a device that connects the audio amplifier 3 to the network N, and receives the audio data Da1 and the like output from the projector 1. For example, the decoder 52 decodes the MP3 format audio data Da1 to generate LPCM audio data Da2. The D / A converter 53 performs D / A conversion processing on the audio data Da2 generated by the decoder 52 (or the audio data Da2 output from the projector 1) to generate an audio signal Sa1. The amplifier 54 amplifies the audio signal Sa1 and outputs it to the speaker 4. The speaker 4 outputs audio based on the audio signal Sa1 output from the audio amplifier 3.

次に、プロジェクタ1の全体的な動作について、図面を参照して説明する。このプロジェクタ1の使用に際しては、一例として、プロジェクタ1、スクリーン、オーディオアンプ3およびスピーカ4の設置が完了し、プロジェクタ1およびオーディオアンプ3をネットワークNにそれぞれ接続した状態において、プロジェクタ1の初期設定処理の1つとして、映像音声データD(動画コンテンツ)の再生時に映像の表示タイミングと音声の出力タイミングとを同期させるための基準タイミングを特定させる。具体的には、設定開始を指示された際に、制御部28が図2に示すタイミング特定処理60(本発明における「第2の特定処理」の一例)を開始する。このタイミング特定処理60(以下、「特定処理60」ともいう)では、制御部28は、まず、タイミングチェック用の音声データDcが音声データ記憶部22に記憶されているか否かを判別する(ステップ61)。この際に、音声データ記憶部22に音声データDcが記憶されていないときには、制御部28は、ネットワークアダプタ11を制御してコンテンツ配信サーバ2に接続し、コンテンツ配信サーバ2から音声データDcを出力(送信)させて音声データ記憶部22に記憶させる(ステップ62)。次いで、制御部28は、バッファ24を消去(クリア)すると共にタイマ25をリセット(初期化)する(ステップ63)。   Next, the overall operation of the projector 1 will be described with reference to the drawings. When the projector 1 is used, as an example, when the projector 1, the screen, the audio amplifier 3 and the speaker 4 are completely installed, and the projector 1 and the audio amplifier 3 are connected to the network N, the initial setting process of the projector 1 is performed. As one of them, the reference timing for synchronizing the video display timing and the audio output timing at the time of reproduction of the video / audio data D (moving image content) is specified. Specifically, when the setting start is instructed, the control unit 28 starts the timing specifying process 60 (an example of “second specifying process” in the present invention) shown in FIG. In this timing specifying process 60 (hereinafter, also referred to as “specifying process 60”), the control unit 28 first determines whether or not the audio data Dc for timing check is stored in the audio data storage unit 22 (step). 61). At this time, when the audio data Dc is not stored in the audio data storage unit 22, the control unit 28 controls the network adapter 11 to connect to the content distribution server 2 and outputs the audio data Dc from the content distribution server 2. (Send) and store in the voice data storage unit 22 (step 62). Next, the control unit 28 erases (clears) the buffer 24 and resets (initializes) the timer 25 (step 63).

続いて、制御部28は、音声データDcに基づいて生成した音声データDa1のオーディオアンプ3への出力を開始する(ステップ64)。具体的には、制御部28は、音声処理部23を制御して音声データDcに基づく音声データDa1を生成させると共に、ネットワークアダプタ11を制御して音声データDa1をオーディオアンプ3に出力させる。また、制御部28は、音声データDa1の出力開始と同時にタイマ25を制御して計時を開始させると共に、ネットワークアダプタ11から出力した音声データDa1のうちの所定時間分の音声データDa11をバッファ24に記憶させる。さらに、制御部28は、映像表示部14を制御して、例えば「初期設定処理中です。大きな音をたてずに暫くお待ち下さい」とのメッセージをスクリーンに表示させる。また、制御部28は、音声データDa1の出力開始と共にA/Dコンバータ27を制御して、マイク26によって集音された音声に基づく音声データDa3を生成させる。この際に、プロジェクタ1から出力された音声データDa1を受信したオーディオアンプ3では、デコーダ52が音声データDa1をデコードして音声データDa2を生成し、D/Aコンバータ53が音声データDa2をD/A変換処理して音声信号Sa1を生成し、アンプ54が音声信号Sa1を増幅してスピーカ4に出力する。この結果、プロジェクタ1から出力された音声データDa1に基づく音声がスピーカ4から出力される。   Subsequently, the control unit 28 starts outputting the audio data Da1 generated based on the audio data Dc to the audio amplifier 3 (step 64). Specifically, the control unit 28 controls the audio processing unit 23 to generate audio data Da1 based on the audio data Dc, and controls the network adapter 11 to output the audio data Da1 to the audio amplifier 3. Further, the control unit 28 controls the timer 25 simultaneously with the start of the output of the audio data Da1 to start timing, and the audio data Da11 for a predetermined time out of the audio data Da1 output from the network adapter 11 is stored in the buffer 24. Remember me. Furthermore, the control unit 28 controls the video display unit 14 to display, for example, a message “Initial setting process in progress. Please wait for a while without making a loud sound” on the screen. In addition, the control unit 28 controls the A / D converter 27 together with the start of outputting the audio data Da1, and generates audio data Da3 based on the sound collected by the microphone 26. At this time, in the audio amplifier 3 that receives the audio data Da1 output from the projector 1, the decoder 52 decodes the audio data Da1 to generate the audio data Da2, and the D / A converter 53 converts the audio data Da2 into the D / D. The audio signal Sa1 is generated by performing the A conversion process, and the amplifier 54 amplifies the audio signal Sa1 and outputs it to the speaker 4. As a result, sound based on the sound data Da1 output from the projector 1 is output from the speaker 4.

また、プロジェクタ1では、A/Dコンバータ27から出力される音声データDa3に基づき、制御部28が所定の音圧を超える音声がマイク26によって集音されたか否かを監視する(ステップ65)。また、オーディオアンプ3(スピーカ4)によって音声データDa1に基づく音声が出力されて所定の音圧を超える音声がマイク26によって集音されたときには、制御部28は、バッファ24に記憶させた音声データDa11と、A/Dコンバータ27によって生成された音声データDa3とを比較し(ステップ66)、音圧パターンが対応するものか否かを判別する(ステップ67)。この際に、A/Dコンバータ27から出力された音声データDa3(すなわち、オーディオアンプ3によってスピーカ4から出力された音声)の音圧パターンと対応する音圧パターンであると判別したときには、制御部28は、タイマ25による計時結果に基づき、ネットワークアダプタ11を制御して音声データDa1をオーディオアンプ3に出力させた時点から、音声データDa3の音圧パターンと対応する音圧パターンの音声データDa11(音声データDa1の一部)を検出した時点までの時間長を音声出力についての遅延時間として演算し、その演算結果に基づいて第1基準タイミングデータDt1を生成してタイミングデータ記憶部29に記憶させる(ステップ68)。この後、制御部28は、音声データDcに基づいて生成された音声データDa1の出力が完了したときに(ステップ69)、この特定処理60を終了する。   In the projector 1, based on the audio data Da3 output from the A / D converter 27, the control unit 28 monitors whether or not the audio exceeding the predetermined sound pressure is collected by the microphone 26 (step 65). When the audio based on the audio data Da1 is output by the audio amplifier 3 (speaker 4) and the audio exceeding the predetermined sound pressure is collected by the microphone 26, the control unit 28 stores the audio data stored in the buffer 24. Da11 and the audio data Da3 generated by the A / D converter 27 are compared (step 66), and it is determined whether or not the sound pressure pattern corresponds (step 67). At this time, when it is determined that the sound pressure pattern corresponds to the sound pressure pattern of the sound data Da3 output from the A / D converter 27 (that is, the sound output from the speaker 4 by the audio amplifier 3), the control unit 28, from the time when the network adapter 11 is controlled to output the audio data Da1 to the audio amplifier 3 based on the time measurement result by the timer 25, the audio data Da11 ( The time length until the time point when a part of the audio data Da1 is detected is calculated as a delay time for the audio output, and the first reference timing data Dt1 is generated based on the calculation result and stored in the timing data storage unit 29. (Step 68). Thereafter, the control unit 28 ends the specifying process 60 when the output of the audio data Da1 generated based on the audio data Dc is completed (step 69).

一方、コンテンツ配信サーバ2によって配信された映像音声データD(動画コンテンツ)を再生する際には、制御部28は、再生開始を指示された際に、図3に示す再生処理70を開始する。この再生処理70では、制御部28は、まず、第1基準タイミングデータDt1がタイミングデータ記憶部29に記憶されているか否かを判別し(ステップ71)、記憶されていないと判別したときには、前述した特定処理60を実行する。また、第1基準タイミングデータDt1がタイミングデータ記憶部29に記憶されていると判別したとき、または、上記の特定処理60を完了したときには、制御部28は、図4に示すタイミング特定処理90(本発明における「第1の特定処理」の一例)を開始する(ステップ72)。この場合、(図4に示すように、)タイミング特定処理90(以下、「特定処理90」ともいう)は、映像音声データDに基づいて生成された映像データDvに対応する映像の表示タイミングと、音声データDaに対応する音声の出力タイミングとを同期させるための基準タイミングを特定するための処理であり、このタイミング特定処理90が制御部28によって再生処理70と並行して実行されることで、再生中の映像音声データDについての映像の表示タイミングと音声の出力タイミングとの正確な同期が図られ、その状態が再生完了まで維持される。   On the other hand, when the video / audio data D (moving image content) distributed by the content distribution server 2 is reproduced, the control unit 28 starts the reproduction processing 70 shown in FIG. 3 when the reproduction start is instructed. In the reproduction process 70, the control unit 28 first determines whether or not the first reference timing data Dt1 is stored in the timing data storage unit 29 (step 71). The specified process 60 is executed. When it is determined that the first reference timing data Dt1 is stored in the timing data storage unit 29, or when the specifying process 60 is completed, the control unit 28 performs the timing specifying process 90 (shown in FIG. 4). An example of “first specific process” in the present invention is started (step 72). In this case, as shown in FIG. 4, the timing specifying process 90 (hereinafter, also referred to as “specifying process 90”) includes the display timing of the video corresponding to the video data Dv generated based on the video / audio data D. This is a process for specifying the reference timing for synchronizing the output timing of the audio corresponding to the audio data Da, and this timing specifying process 90 is executed in parallel with the reproduction process 70 by the control unit 28. The video display timing and the audio output timing of the video / audio data D being reproduced are accurately synchronized, and this state is maintained until the reproduction is completed.

具体的には、制御部28は、特定処理90において、タイマ25を初期化して計時を開始させると共に、後述する音圧パターンの比較範囲についてのパラメータを初期化する(ステップ91)。次いで、制御部28は、映像音声処理部12を制御することにより、コンテンツ配信サーバ2から出力された映像音声データDに基づいて映像データDvおよび音声データDaを生成させると共に、音声処理部23を制御して、音声データDaに基づく音声データDa1を生成させる。この際に、制御部28は、同期して再生すべき一対の映像データDvおよび音声データDa1の双方について所定のデータ量毎にブロック化すると共に、ブロック化した映像データDvおよび音声データDa1の各データブロックを再生すべきタイミングを特定可能なタイムスタンプを各データブロック毎に付与する(ステップ92)。この結果、同期して再生すべき(同一タイミングで同時に再生すべき)映像データDvおよび音声データDa1(データブロック)に同一のタイムスタンプが付与される。また、タイムスタンプが付与された映像データDvは、制御部28によって映像表示部14に出力されてバッファ31に記憶され、音声データDa1は、ネットワークアダプタ11からネットワークNを介してオーディオアンプ3に出力される(再生処理70におけるステップ73)。また、制御部28は、ネットワークアダプタ11から出力した音声データDa1のうちの所定時間分の音声データDa11(データブロック)をバッファ24に記憶させる。   Specifically, in the specifying process 90, the control unit 28 initializes the timer 25 to start timing, and initializes a parameter for a sound pressure pattern comparison range, which will be described later (step 91). Next, the control unit 28 controls the video / audio processing unit 12 to generate the video data Dv and the audio data Da based on the video / audio data D output from the content distribution server 2, and the audio processing unit 23. Control is performed to generate audio data Da1 based on the audio data Da. At this time, the control unit 28 blocks both the pair of video data Dv and audio data Da1 to be reproduced in synchronism with each other for a predetermined amount of data, and each of the blocked video data Dv and audio data Da1. A time stamp capable of specifying the timing for reproducing the data block is given to each data block (step 92). As a result, the same time stamp is given to the video data Dv and the audio data Da1 (data block) to be reproduced synchronously (to be reproduced simultaneously at the same timing). The video data Dv with the time stamp is output to the video display unit 14 by the control unit 28 and stored in the buffer 31, and the audio data Da1 is output from the network adapter 11 to the audio amplifier 3 via the network N. (Step 73 in the reproduction process 70). Further, the control unit 28 causes the buffer 24 to store the audio data Da11 (data block) for a predetermined time among the audio data Da1 output from the network adapter 11.

この場合、制御部28は、一例として、音声データDa1の出力を開始した時点から音声データDa11のバッファ24への記憶を開始すると共に、第1基準タイミングデータDt1に基づいて特定される第1基準タイミングが到来する都度、バッファ24内の音声データDa11を最新の音声データDa11(音声データDa1の他の一部)に更新する。この際に、制御部28は、音声データDa11の更新時点以前の100ms分の音声データ(100ms分のデータブロック)と、更新時点以後の400ms分の音声データ(400ms分のデータブロック)とを音声データDa11としてバッファ24に記憶させる。なお、特定処理90の開始直後(すなわち、オーディオアンプ3に対する音声データDa1の出力開始直後)においては、図5に示すように、音声データDa1の出力開始時点から400ms分の音声データのみが音声データDa11としてバッファ24に記憶される。また、第1基準タイミングが到来した時点以降においては、図6に示すように、例えば、第1基準タイミングが到来する以前の100ms分の音声データと、第1基準タイミングが到来した後の400ms分の音声データとが音声データDa11としてバッファ24に記憶される。   In this case, as an example, the control unit 28 starts storing the audio data Da11 in the buffer 24 from the time when the output of the audio data Da1 is started, and also specifies the first reference specified based on the first reference timing data Dt1. Each time the timing arrives, the audio data Da11 in the buffer 24 is updated to the latest audio data Da11 (another part of the audio data Da1). At this time, the control unit 28 outputs the voice data for 100 ms (data block for 100 ms) before the update time of the voice data Da11 and the voice data for 400 ms (data block for 400 ms) after the update time. The data is stored in the buffer 24 as data Da11. Note that immediately after the start of the specific process 90 (that is, immediately after the start of output of the audio data Da1 to the audio amplifier 3), as shown in FIG. 5, only the audio data for 400 ms from the start of output of the audio data Da1 is the audio data. It is stored in the buffer 24 as Da11. In addition, after the time when the first reference timing has arrived, for example, as shown in FIG. 6, for example, 100 ms of audio data before the arrival of the first reference timing and 400 ms after the arrival of the first reference timing. Are stored in the buffer 24 as audio data Da11.

一方、制御部28は、再生処理70において、タイミングデータ記憶部29に記憶させた第1基準タイミングデータDt1とタイマ25による計時結果とに基づき、第1基準タイミングが到来したと判別したとき、すなわち、前述した特定処理60において音声データDcに対応する音声データDa1の出力開始時点から、音声データDa1に対応する音声がマイク26によって集音された時点までの時間長と同じ時間が経過したときに(ステップ74)、映像表示部14を制御してバッファ31に記憶されている映像データDvに対応する映像の表示を開始させる(「再生用映像データに基づく映像の表示部による表示タイミング」を変化させる一例:ステップ75)。この際に、映像表示部14では、表示制御部33が制御部28の制御に従ってバッファ31から映像データDvを読み出して映像信号Svを生成し、生成した映像信号Svを投射機構32に出力する。これに応じて、投射機構32が映像信号Svに基づく映像を投射するための投射光Lをスクリーンに向けて射出する。これにより、映像データDv(映像信号Sv)に基づく映像がスクリーンに表示される。   On the other hand, when the control unit 28 determines in the reproduction process 70 that the first reference timing has arrived based on the first reference timing data Dt1 stored in the timing data storage unit 29 and the time measurement result by the timer 25, that is, When the time length equal to the time length from when the sound corresponding to the audio data Da1 is collected by the microphone 26 from the output start time of the audio data Da1 corresponding to the audio data Dc in the specific process 60 described above has elapsed. (Step 74), the video display unit 14 is controlled to start displaying the video corresponding to the video data Dv stored in the buffer 31 (the “display timing by the video display unit based on the video data for reproduction” is changed) An example of this: Step 75). At this time, in the video display unit 14, the display control unit 33 reads the video data Dv from the buffer 31 under the control of the control unit 28 to generate the video signal Sv, and outputs the generated video signal Sv to the projection mechanism 32. In response to this, the projection mechanism 32 emits projection light L for projecting an image based on the image signal Sv toward the screen. Thereby, the video based on the video data Dv (video signal Sv) is displayed on the screen.

また、制御部28は、特定処理90において、タイミングデータ記憶部29に記憶させた第1基準タイミングデータDt1とタイマ25による計時結果とに基づき、後述する許容時間だけ第1基準タイミングよりも早い所定のタイミングが到来したと判別したときに(ステップ93)、A/Dコンバータ27を制御してマイク26によって集音された音声に基づく音声データDa3の生成を開始させる。この場合、前述した特定処理60では、音声データDcに対応する音声データDa1の出力時点から、その音声データDa1に対応する音声がマイク26によって集音される時点まで(集音された音声に基づく音声データDa3が生成された時点まで)の間に第1基準タイミングデータDt1に対応する時間長の遅延が生じている。したがって、音声データDaに対応する音声データDa1の出力時点から、その音声データDa1に対応する音声がマイク26によって集音される時点までの間にも第1基準タイミングデータDt1に対応する時間長と等しいか、または、ほぼ等しい時間の遅延が生じることとなる。   In addition, in the specific process 90, the control unit 28 is predetermined earlier than the first reference timing by an allowable time described later based on the first reference timing data Dt1 stored in the timing data storage unit 29 and the time measurement result by the timer 25. Is determined (step 93), the A / D converter 27 is controlled to start generating the audio data Da3 based on the sound collected by the microphone 26. In this case, in the specific process 60 described above, from the output time point of the sound data Da1 corresponding to the sound data Dc to the time point when the sound corresponding to the sound data Da1 is collected by the microphone 26 (based on the collected sound). A delay of a time length corresponding to the first reference timing data Dt1 occurs until the audio data Da3 is generated). Accordingly, the time length corresponding to the first reference timing data Dt1 is also from the time when the sound data Da1 corresponding to the sound data Da is output until the time when the sound corresponding to the sound data Da1 is collected by the microphone 26. An equal or approximately equal time delay will occur.

このため、特定処理90において、音声データDaに基づく音声データDa1の出力開始直後からA/Dコンバータ27による音声データDa3の生成を開始させた場合、第1基準タイミングデータDt1に対応する第1基準タイミングが到来するまでの間に無音の音声データDa3(音声データDa1に対応する音声が含まれていない音声データDa3)が生成されることとなる。さらに、ネットワークトラフィックの変化に起因して、第1基準タイミングデータDt1に対応する第1基準タイミングとは僅かに相違するタイミングで音声が出力されることもある。したがって、このプロジェクタ1では、第1基準タイミングデータDt1に対応する第1基準タイミングに対して±100msのばらつき許容範囲を規定すると共に、特定処理90において、第1基準タイミングデータDt1に対応する第1基準タイミングよりも100ms分だけ早いタイミングが到来するまで待機した後に(ステップ93)、A/Dコンバータ27を制御して音声データDa3の生成を開始させる。この結果、無音状態の音声データDa3についての比較処理(後述するステップ95の処理)を不要とし、かつ、ネットワークトラフィックが変化して音声データDa1に対応する音声が僅かに早いタイミングで出力されたとしても、その音声をマイク26によって集音して音声データDa3を生成することが可能となっている。   Therefore, in the specific process 90, when the generation of the audio data Da3 by the A / D converter 27 is started immediately after the output of the audio data Da1 based on the audio data Da is started, the first reference corresponding to the first reference timing data Dt1. Silent audio data Da3 (audio data Da3 not including audio corresponding to the audio data Da1) is generated until the timing arrives. Furthermore, due to a change in network traffic, audio may be output at a timing slightly different from the first reference timing corresponding to the first reference timing data Dt1. Therefore, in the projector 1, a variation allowable range of ± 100 ms is defined for the first reference timing corresponding to the first reference timing data Dt1, and the first corresponding to the first reference timing data Dt1 is specified in the specifying process 90. After waiting until a timing 100 ms earlier than the reference timing arrives (step 93), the A / D converter 27 is controlled to start generating the audio data Da3. As a result, it is assumed that the comparison processing (processing in step 95 described later) for the silent audio data Da3 is unnecessary, and that the audio corresponding to the audio data Da1 is output at a slightly early timing due to a change in network traffic. However, the sound can be collected by the microphone 26 to generate the sound data Da3.

次いで、制御部28は、A/Dコンバータ27から出力された音声データDa3に基づき、所定の音圧を超える音声がマイク26によって集音されたか否かを監視する(ステップ94)。この際に、オーディオアンプ3(スピーカ4)によって音声データDa1に基づく音声が出力された際には、所定の音圧を超える音声がマイク26によって集音されて対応する音声データDa3がA/Dコンバータ27によって生成される。これに応じて、制御部28は、バッファ24に記憶させた音声データDa11(音声データDa1の一部)と、A/Dコンバータ27によって生成された音声データDa3とを比較し(ステップ95)、音圧パターンが対応しているか否かを判別する(ステップ96)。具体的には、制御部28は、図5に示すように、音声データDa1の出力開始時点(時点t0)から400ms分の音声データDa11のうちの、時点t0(本発明における第1の時点)から時点t2(本発明における第2の時点)までの100ms分の音声データDa11(データブロック)を比較範囲とし、この比較範囲内に、音声データDa3の音圧パターンと対応する音圧パターンの音声データDa11(データブロック)が存在するか否かを判別する。   Next, the control unit 28 monitors whether or not a sound exceeding a predetermined sound pressure is collected by the microphone 26 based on the sound data Da3 output from the A / D converter 27 (step 94). At this time, when sound based on the sound data Da1 is output by the audio amplifier 3 (speaker 4), sound exceeding a predetermined sound pressure is collected by the microphone 26 and the corresponding sound data Da3 is A / D. It is generated by the converter 27. In response to this, the control unit 28 compares the audio data Da11 (part of the audio data Da1) stored in the buffer 24 with the audio data Da3 generated by the A / D converter 27 (step 95). It is determined whether or not the sound pressure pattern corresponds (step 96). Specifically, as shown in FIG. 5, the control unit 28 sets a time point t0 (first time point in the present invention) of the audio data Da11 for 400 ms from the output start time point (time point t0) of the audio data Da1. The audio data Da11 (data block) for 100 ms from the time point t2 to the time point t2 (second time point in the present invention) is set as a comparison range, and the sound pressure pattern corresponding to the sound pressure pattern of the audio data Da3 is included in the comparison range. It is determined whether or not data Da11 (data block) exists.

この際に、A/Dコンバータ27から出力された音声データDa3(すなわち、オーディオアンプ3によってスピーカ4から出力された音声)の音圧パターンと対応する音圧パターンの音声データDa11を検出したときには、制御部28は、音声データDaに基づく音声データDa1の再生(音声データDa1に対応する音声の出力)に要した時間長(遅延時間)を演算する。具体的には、制御部28は、音声データDa3の音圧パターンと対応する音圧パターンの音声データDa11(データブロック)を特定することにより、音声データDa1の出力開始時点から第1基準タイミングデータDt1に対応する遅延時間が経過した時点においてマイク26によって集音された音声に対応する音声データDa3が、いずれの時点においてネットワークアダプタ11から出力された音声データDa1(音声データDa11:データブロック)に対応する音声であるかを特定する。また、制御部28は、タイマ25による計時結果と、特定した音声データDa11(データブロック)に付与されたタイムスタンプとに基づき、第2基準タイミングデータDt2を生成してタイミングデータ記憶部29に記憶させる(ステップ97)。   At this time, when the sound data Da11 having the sound pressure pattern corresponding to the sound pressure pattern of the sound data Da3 output from the A / D converter 27 (that is, the sound output from the speaker 4 by the audio amplifier 3) is detected, The control unit 28 calculates the time length (delay time) required for reproducing the audio data Da1 based on the audio data Da (outputting the audio corresponding to the audio data Da1). Specifically, the control unit 28 specifies the sound data Da11 (data block) having a sound pressure pattern corresponding to the sound pressure pattern of the sound data Da3, so that the first reference timing data from the output start time of the sound data Da1. The audio data Da3 corresponding to the sound collected by the microphone 26 at the time when the delay time corresponding to Dt1 has elapsed becomes the audio data Da1 (audio data Da11: data block) output from the network adapter 11 at any time. Specify whether the corresponding voice. Further, the control unit 28 generates the second reference timing data Dt2 based on the time measurement result by the timer 25 and the time stamp given to the specified audio data Da11 (data block), and stores it in the timing data storage unit 29. (Step 97).

一方、制御部28は、再生処理70において、映像データDvの再生を開始させた後に(ステップ75)、タイミングデータ記憶部29に第2基準タイミングデータDt2が記憶されているか否かを判別する(ステップ76)。この際に、第2基準タイミングデータDt2がタイミングデータ記憶部29に記憶されていないとき(特定処理90による第2基準タイミングデータDt2の生成が完了していないとき)には、制御部28は、映像音声データDの再生が完了したか否かを判別し(ステップ77)、完了していないときには、タイミングデータ記憶部29に第2基準タイミングデータDt2が記憶されているか否か(第2基準タイミングデータDt2の記憶が完了したか否か)を再び判別する(ステップ76)。また、特定処理90において第2基準タイミングデータDt2の生成処理が完了してタイミングデータ記憶部29に記憶させた際には、第1基準タイミングデータDt1に基づいて特定される第1基準タイミングと、第2基準タイミングデータDt2に基づいて特定される第2基準タイミングとの時間的な早さを比較する。   On the other hand, after starting the reproduction of the video data Dv in the reproduction process 70 (step 75), the control unit 28 determines whether or not the second reference timing data Dt2 is stored in the timing data storage unit 29 (step 75). Step 76). At this time, when the second reference timing data Dt2 is not stored in the timing data storage unit 29 (when the generation of the second reference timing data Dt2 by the specifying process 90 is not completed), the control unit 28 It is determined whether or not the reproduction of the video / audio data D has been completed (step 77). If the reproduction has not been completed, whether or not the second reference timing data Dt2 is stored in the timing data storage unit 29 (second reference timing). It is determined again whether or not the storage of the data Dt2 has been completed (step 76). When the generation process of the second reference timing data Dt2 is completed in the specifying process 90 and stored in the timing data storage unit 29, the first reference timing specified based on the first reference timing data Dt1, The temporal speed is compared with the second reference timing specified based on the second reference timing data Dt2.

この際に、第1基準タイミングが第2基準タイミングよりも早いとき、すなわち、前述した特定処理60において音声データDcに対応する音声データDa1の出力開始時点から、その音声データDa1に対応する音声が出力された時点までに要した遅延時間よりも、映像音声データDに基づいて生成された音声データDaに対応する音声データDa1の出力開始時点から、その音声データDa1に対応する音声が出力された時点までに要した遅延時間の方が長いときには(ステップ78)、制御部28は、映像表示部14に対する映像データDvの出力を所定時間(一例として、第1基準タイミングと第2基準タイミングとの時間差分)だけ停止させる(ステップ79)。この結果、例えばネットワークトラフィックが良好となって音声データDa1の出力から対応する音声の出力までに要する時間が特定処理60の実行時よりも長くなったとしても、映像音声データDに基づいて生成された映像データDvに対応する映像の表示タイミングと、同じ映像音声データDに基づいて生成された音声データDa(映像データDvと同期して再生されるべき音声データDa)に対応する音声の出力タイミングとが同期させられる。   At this time, when the first reference timing is earlier than the second reference timing, that is, from the output start point of the audio data Da1 corresponding to the audio data Dc in the above-described specific processing 60, the audio corresponding to the audio data Da1 is received. The audio corresponding to the audio data Da1 is output from the output start time of the audio data Da1 corresponding to the audio data Da generated based on the video / audio data D than the delay time required until the output. When the delay time required until the time is longer (step 78), the control unit 28 outputs the video data Dv to the video display unit 14 for a predetermined time (for example, the first reference timing and the second reference timing). (Time difference) is stopped (step 79). As a result, for example, even if the network traffic is good and the time required from the output of the audio data Da1 to the output of the corresponding audio is longer than when the specifying process 60 is executed, the network traffic is generated based on the video / audio data D. The video display timing corresponding to the video data Dv and the audio output timing corresponding to the audio data Da (audio data Da to be reproduced in synchronization with the video data Dv) generated based on the same video / audio data D And are synchronized.

これに対して、第1基準タイミングが第2基準タイミングよりも遅いとき、すなわち、前述した特定処理60において音声データDcに対応する音声データDa1の出力開始時点から、その音声データDa1に対応する音声が出力された時点までに要した遅延時間よりも、映像音声データDに基づいて生成された音声データDaに対応する音声データDa1の出力開始時点から対応する音声が出力された時点までに要した遅延時間の方が短いときには(ステップ80)、制御部28は、映像表示部14に対して出力している映像データDvを所定時間分(一例として、第1基準タイミングと第2基準タイミングとの時間差分)だけスキップさせる(ステップ81)。この結果、例えばネットワークトラフィックが悪化して音声データDa1の出力から対応する音声の出力までに要する時間が特定処理60の実行時よりも短くなったとしても、映像音声データDに基づいて生成された映像データDvに対応する映像の表示タイミングと、同じ映像音声データDに基づいて生成された音声データDaに対応する音声の出力タイミングとが同期させられる。   On the other hand, when the first reference timing is later than the second reference timing, that is, from the output start time of the audio data Da1 corresponding to the audio data Dc in the above-described specific processing 60, the audio corresponding to the audio data Da1. The time required from the start of output of the audio data Da1 corresponding to the audio data Da generated based on the audio / video data D to the time when the corresponding audio is output is longer than the delay time required until the When the delay time is shorter (step 80), the control unit 28 outputs the video data Dv output to the video display unit 14 for a predetermined time (for example, a first reference timing and a second reference timing). (Time difference) is skipped (step 81). As a result, for example, even if the time required from the output of the audio data Da1 to the output of the corresponding audio becomes shorter than the execution time of the specifying process 60 due to the deterioration of the network traffic, it is generated based on the video / audio data D. The video display timing corresponding to the video data Dv and the audio output timing corresponding to the audio data Da generated based on the same video / audio data D are synchronized.

一方、制御部28は、特定処理90において、バッファ24に記憶させた音声データDa11のうちの時点t1aから時点t2aまでの間に出力された音声データDa11(データブロック:図6参照)の各音圧パターンと、A/Dコンバータ27によって生成された音声データDa3の音圧パターンとが対応していないと判別したときには(ステップ96)、音声データDa3と比較する比較範囲(バッファ24に記憶されている各音声データDa11のうちのいずれを比較対象とするかのパラメータ)を変更する(本発明における変更処理:ステップ99)。具体的には、制御部28は、対応する音圧パターンの音声データDa11が存在しなかった比較範囲(図6に示す比較範囲)の時点t1a(第1の時点)および時点t2a(第2の時点)をそれぞれ25ms分だけ後の時点(本発明における「予め規定された時間分だけ相違する時点」の一例)に変更して、図7に示すように時点t1b(変更処理後の第1の時点)から時点t2b(変更処理後の第2の時点)までの200msの範囲内(第1基準タイミング以前の75ms分、および第1基準タイミング後の125ms分)において出力された音声データDa1に対応する音声データDa11を新たな比較範囲として規定する。なお、変更処理によって比較範囲が過剰に拡がる事態を回避するために時点t1a(第1の時点)および時点t2a(第2の時点)の双方を同じ時間だけそれぞれ変更するのが好ましいが、時点t1a(第1の時点)および時点t2a(第2の時点)のいずれか一方のみを変更する構成を採用することもできる。   On the other hand, the control unit 28 determines each sound of the audio data Da11 (data block: see FIG. 6) output from the time t1a to the time t2a among the audio data Da11 stored in the buffer 24 in the specifying process 90. When it is determined that the pressure pattern does not correspond to the sound pressure pattern of the sound data Da3 generated by the A / D converter 27 (step 96), a comparison range (stored in the buffer 24) to be compared with the sound data Da3. Parameter of which one of the audio data Da11 to be compared is to be compared) (change process in the present invention: step 99). Specifically, the control unit 28 includes a time point t1a (first time point) and a time point t2a (second time point) in the comparison range (comparison range illustrated in FIG. 6) in which the sound data Da11 having the corresponding sound pressure pattern does not exist. (Time point) is changed to a time point 25 ms later (an example of “a time point that differs by a predetermined time” in the present invention), and a time point t1b (first time after the change process) is changed as shown in FIG. Corresponding to the audio data Da1 output within the range of 200 ms from the time point to the time point t2b (second time point after the change process) (75 ms before the first reference timing and 125 ms after the first reference timing). The audio data Da11 to be performed is defined as a new comparison range. In order to avoid a situation in which the comparison range is excessively expanded by the change process, it is preferable to change both the time point t1a (first time point) and the time point t2a (second time point) by the same time, but the time point t1a It is also possible to adopt a configuration in which only one of (first time) and time t2a (second time) is changed.

次いで、制御部28は、新たに規定した比較範囲を対象とする比較処理(前述したステップ95の処理)が可能であるか否かを判別する(ステップ100)。具体的には、制御部28は、比較範囲に対応する音声データDa11のバッファ24内への記憶が可能か否か、すなわち、新たに規定した時点t2bが第1基準タイミング後の400ms以内に到来するか否かを判別する。この際に、新たに規定した比較範囲を対象とする比較処理が可能であると判別したときに、制御部28は、映像音声データDに基づく映像の表示および音声の出力(映像音声データDの再生)が完了したか否かを判別し(ステップ98)、再生が完了していないと判別したときには、映像データDvおよび音声データDa1にタイムスタンプを付与すると共に(ステップ92)、ステップ93以降の処理を実行する。   Next, the control unit 28 determines whether or not the comparison process (the process of step 95 described above) targeting the newly defined comparison range is possible (step 100). Specifically, the control unit 28 determines whether or not the audio data Da11 corresponding to the comparison range can be stored in the buffer 24, that is, the newly defined time t2b arrives within 400 ms after the first reference timing. It is determined whether or not to do so. At this time, when it is determined that the comparison process for the newly specified comparison range is possible, the control unit 28 displays video and outputs audio based on the video / audio data D (video / audio data D). It is determined whether or not (reproduction) has been completed (step 98). When it is determined that reproduction has not been completed, time stamps are given to the video data Dv and the audio data Da1 (step 92), and the steps after step 93 are performed. Execute the process.

また、ステップ99における比較範囲の変更処理が複数回に亘って実行されることで第1基準タイミング以後の200msから400msまでの200ms分の音声データ(音声データDa11)を比較範囲とした状態において、音声データDa3の音圧パターンと対応する音圧パターンの音声データDa11がその比較範囲内に存在しなかったときに、制御部28は、ステップ95における比較処理が不可能であると判別する(ステップ100)。この際に、制御部28は、バッファ24内に記憶させる音声データDa11のデータ量(バッファサイズ)を拡大する(ステップ101)。具体的には、制御部28は、まず、第1基準タイミング以後の200msから400msまでの200ms分(本発明における「第1の時点から第2の時点まで」の一例)の音声データDa1に対応する音声データDa11を比較範囲とした状態において、対応する音圧パターンの音声データDa11が検出されなかったときに(ステップ96)、第1基準タイミング後225ms(図8に示す時点t1c)から425ms(図8に示す時点t2c)までの200ms分(本発明における「変更処理後の第1の時点から変更処理後の第2の時点まで」の一例)の範囲を新たな比較範囲として規定する(ステップ99)。次いで、制御部28は、図8に示すように、バッファサイズを100ms分だけ拡大して、第1基準タイミング以前の100ms分の音声データと、第1基準タイミング後の500ms分の音声データとの合計600ms分の音声データを音声データDa11(データブロック)としてバッファ24に記憶させるように規定する(ステップ101)。このように、新たな比較範囲を対象とする比較処理が不可能であると判別したときに、制御部28は、最大で1000ms分の音声データDa11をバッファ24に記憶させるようにバッファサイズを拡大する(ステップ101)。   In addition, in the state where the comparison range changing process in step 99 is executed a plurality of times, the voice data (voice data Da11) for 200 ms from 200 ms to 400 ms after the first reference timing is set as the comparison range. When the sound data Da11 having a sound pressure pattern corresponding to the sound pressure pattern of the sound data Da3 does not exist within the comparison range, the control unit 28 determines that the comparison process in step 95 is impossible (step 95). 100). At this time, the control unit 28 increases the data amount (buffer size) of the audio data Da11 stored in the buffer 24 (step 101). Specifically, the control unit 28 first corresponds to the audio data Da1 for 200 ms from 200 ms to 400 ms after the first reference timing (an example of “from the first time point to the second time point” in the present invention). When the audio data Da11 having the corresponding sound pressure pattern is not detected in the state where the audio data Da11 to be compared is in the comparison range (step 96), 425 ms (from time t1c shown in FIG. 8) after 225 ms (first time). A range of 200 ms up to the time point t2c) shown in FIG. 8 (an example of “from the first time point after the change process to the second time point after the change process” in the present invention) is defined as a new comparison range (step 99). Next, as shown in FIG. 8, the control unit 28 increases the buffer size by 100 ms, and the audio data for 100 ms before the first reference timing and the audio data for 500 ms after the first reference timing are obtained. It is defined that the audio data for a total of 600 ms is stored in the buffer 24 as audio data Da11 (data block) (step 101). As described above, when it is determined that the comparison process for the new comparison range is impossible, the control unit 28 increases the buffer size so that the audio data Da11 for 1000 ms at maximum is stored in the buffer 24. (Step 101).

一方、対応する音圧パターンの音声データDa11が検出されず、しかも、バッファサイズの拡大によってバッファサイズを上限まで拡大させたときには(この例では、1000ms分の音声データDa11を記憶させるように規定した状態:ステップ102)、制御部28は、前述した比較範囲についてのパラメータおよびバッファサイズを初期化すると共に、第1基準タイミングデータDt1を一例として500ms分だけ早いタイミングに補正する(ステップ103)。この結果、次の第1基準タイミングが到来したとき(すなわち、補正以前の第1基準タイミングよりも500ms早いタイミングが到来したとき)には、補正前の第1基準タイミング以前600msの時点から補正前の第1基準タイミング以前100msの時点までの500ms分の音声データDa11がバッファ24に記憶されることとなる。   On the other hand, when the audio data Da11 having the corresponding sound pressure pattern is not detected and the buffer size is increased to the upper limit by increasing the buffer size (in this example, it is defined that the audio data Da11 for 1000 ms is stored. State: Step 102), the control unit 28 initializes the parameter and buffer size for the comparison range described above, and corrects the first reference timing data Dt1 to an earlier timing by 500 ms as an example (Step 103). As a result, when the next first reference timing arrives (that is, when a timing 500 ms earlier than the first reference timing before the correction has arrived), the time before the first reference timing before the correction is 600 ms before the correction. The audio data Da11 for 500 ms up to the point of 100 ms before the first reference timing is stored in the buffer 24.

このように、比較範囲の変更(ステップ99)、バッファサイズの拡大(ステップ101)および第1基準タイミングの補正(ステップ103)を実行した後にステップ92以降の一連の処理を実行して、音声データDa3の音圧パターンと対応する音圧パターンの音声データDa11がバッファ24内に記憶されていると判別したときには(ステップ96)、制御部28は、前述したように第2基準タイミングデータDt2を生成してタイミングデータ記憶部29に記憶させる(ステップ97)。これにより、再生処理70のステップ78,80において第1基準タイミングデータDt1に対応する第1基準タイミングと第2基準タイミングデータDt2に対応する第2基準タイミングとが比較され、その比較結果に応じて映像データDvの出力タイミング(映像データDvに基づく映像の表示タイミング)が変更される。この結果、映像データDv(音声データDa1)に対応する音声の出力タイミングと、映像データDvに対応する映像の表示タイミングとが同期させられる。   As described above, after the comparison range is changed (step 99), the buffer size is enlarged (step 101), and the first reference timing is corrected (step 103), a series of processes from step 92 onward is executed to obtain the audio data. When it is determined that the sound data Da11 of the sound pressure pattern corresponding to the sound pressure pattern of Da3 is stored in the buffer 24 (step 96), the control unit 28 generates the second reference timing data Dt2 as described above. Then, it is stored in the timing data storage unit 29 (step 97). As a result, the first reference timing corresponding to the first reference timing data Dt1 is compared with the second reference timing corresponding to the second reference timing data Dt2 in steps 78 and 80 of the reproduction process 70, and the second reference timing corresponding to the second reference timing data Dt2 is compared. The output timing of the video data Dv (video display timing based on the video data Dv) is changed. As a result, the audio output timing corresponding to the video data Dv (audio data Da1) and the video display timing corresponding to the video data Dv are synchronized.

さらに、制御部28は、再生処理70において、映像データDvの出力を停止したとき(ステップ79)、出力する映像データDvをスキップしたとき(ステップ81)、および第1基準タイミングが第2基準タイミングと一致すると判別したとき(ステップ80)のいずれかの時点において、映像音声データDに基づく映像の表示および音声の出力(映像音声データDの再生)が完了したか否かを判別する(ステップ77)。この際に、再生を完了していないと判別したときには、制御部28は、新たな第2基準タイミングデータDt2をタイミングデータ記憶部29に記憶させたか否か(新たな第2基準タイミングデータDt2の記憶が完了したか否か)を監視する(ステップ76)。また、映像音声データDの再生が完了したと判別したときには(ステップ77)、制御部28は、この再生処理70を終了する。   Further, in the reproduction process 70, the control unit 28 stops the output of the video data Dv (step 79), skips the video data Dv to be output (step 81), and the first reference timing is the second reference timing. It is determined whether or not video display and audio output based on the video / audio data D (reproduction of the video / audio data D) has been completed at any point in time (step 77). ). At this time, if it is determined that the reproduction is not completed, the control unit 28 determines whether or not the new second reference timing data Dt2 is stored in the timing data storage unit 29 (the new second reference timing data Dt2 Whether the storage is completed is monitored (step 76). When it is determined that the reproduction of the video / audio data D has been completed (step 77), the control unit 28 ends the reproduction process 70.

このように、このプロジェクタ1によれば、所定の音声データ(この例では、音声データDc,Daに対応する音声データDa1)を出力させた時点から所定の音声データに基づく音声が集音された時点(音声データDa3の音圧パターンと対応する音圧パターンの音声データDa11が検出された時点)までの時間長に応じて制御部28が映像データDvに基づく映像の映像表示部14による表示タイミングを変更することにより、デジタル音声データを出力する際の遅延時間を1つの時間長に規定している従来の伝送システムとは異なり、例えば、ネットワーク環境の相違に起因して音声データDa1を出力した時点からその音声データDa1に対応する音声が出力される時点までの時間長が相違するときであっても、そのネットワーク環境下における音声出力の遅延時間に応じて映像データDvに基づく映像の表示タイミングを変更して映像の表示タイミングと音声の出力タイミングとを確実に同期させることができる。また、プロジェクタ1とオーディオアンプ3との間において例えばタイムコントロール機能を有する特殊なプロトコルで通信することなく、httpやftp等の極く一般的なプロトコルで通信可能となるため、極く一般的な汎用のネットワークアダプタ11,51を用いてプロジェクタ1やオーディオアンプ3を安価に構成することができる。   Thus, according to the projector 1, the sound based on the predetermined sound data is collected from the time when the predetermined sound data (in this example, the sound data Da1 corresponding to the sound data Dc, Da) is output. Display timing by the video display unit 14 of the video based on the video data Dv by the control unit 28 according to the time length until the time (the time when the audio data Da11 of the sound pressure pattern corresponding to the sound pressure pattern of the audio data Da3 is detected) Unlike the conventional transmission system in which the delay time when outputting digital audio data is defined as one time length, for example, the audio data Da1 is output due to a difference in the network environment. Even when the time length from the time point to the time point when the sound corresponding to the sound data Da1 is output is different, the network And an output timing of the display timing and the audio of the video can be reliably synchronized by changing the display timing of the video based on the video data Dv in accordance with the delay time of the audio output at the border under. Further, since communication is possible between the projector 1 and the audio amplifier 3 by using a very general protocol such as http or ftp without using a special protocol having a time control function, for example, it is extremely common. The projector 1 and the audio amplifier 3 can be configured at low cost using the general-purpose network adapters 11 and 51.

また、このプロジェクタ1では、制御部28が音声データDa3に対応する時間差特定用音声データ(この例では、音声データDc基づいて生成した音声データDa1)を出力させた時点から音声データDa3に対応する音声が集音された時点までの時間長を特定するタイミング特定処理60を実行し、タイミング特定処理90におけるステップ95において、再生用音声データ(この例では、音声データDa基づいて生成した音声データDa1)を出力させた時点からタイミング特定処理60によって特定した時間長だけ経過した時点(この例では、第1基準タイミングデータDt1に基づいて特定される第1基準タイミングが到来した時点)において生成された音声データDa3と再生用音声データとを比較する。したがって、このプロジェクタ1によれば、特定処理60を実行することなく(第1基準タイミングデータDt1を生成するための基準タイミングを特定する処理を実行することなく)映像音声データDの再生時に音声データDaに対応する音声データDa1を出力した時点から音声データDa1に対応する音声が出力された時までの時間長に応じて映像の表示タイミングと音声の出力タイミングとを同期させる構成とは異なり、映像音声データDの再生開始直後から映像の表示タイミングと音声の出力タイミングとを同期させることができる。また、再生処理70と並行して特定処理90を実行することにより、映像音声データDの再生中にネットワークトラフィックが変化するなどして音声データDa1に基づく音声の出力に要する時間が変化したとしても、特定処理90によって生成される第2基準タイミングデータDt2に基づいて映像データDvに対応する映像の表示タイミングを逐次変更して映像の表示タイミングと音声の出力タイミングとを同期させた状態を維持することができる。   In the projector 1, the control unit 28 corresponds to the audio data Da3 from the time when the time difference specifying audio data (in this example, the audio data Da1 generated based on the audio data Dc) corresponding to the audio data Da3 is output. The timing specifying process 60 for specifying the length of time until the sound is collected is executed, and in step 95 of the timing specifying process 90, the playback audio data (in this example, the audio data Da1 generated based on the audio data Da1) is executed. ) Is generated at the time when the time length specified by the timing specification processing 60 has elapsed from the time of output (in this example, when the first reference timing specified based on the first reference timing data Dt1 has arrived) The audio data Da3 is compared with the reproduction audio data. Therefore, according to the projector 1, the audio data is reproduced when the video / audio data D is reproduced without executing the specifying process 60 (without executing the process of specifying the reference timing for generating the first reference timing data Dt1). Unlike the configuration in which the video display timing and the audio output timing are synchronized according to the length of time from when the audio data Da1 corresponding to Da is output to when the audio corresponding to the audio data Da1 is output, Immediately after the start of reproduction of the audio data D, the video display timing and the audio output timing can be synchronized. Moreover, even if the time required for outputting the audio based on the audio data Da1 is changed by executing the specifying process 90 in parallel with the reproduction process 70, for example, the network traffic changes during the reproduction of the video / audio data D. The video display timing corresponding to the video data Dv is sequentially changed based on the second reference timing data Dt2 generated by the specifying process 90 to maintain a state in which the video display timing and the audio output timing are synchronized. be able to.

さらに、このプロジェクタ1では、出力した再生用音声データ(この例では、音声データDa基づいて生成した音声データDa1)のうちの所定時間分(一例として、500ms分)の再生用音声データ(音声データDa11)をバッファ24に記憶させ、タイミング特定処理90において、バッファ24に記憶されている再生用音声データのうちの第1の時点(例えば、時点t1a)から第2の時点(例えば、時点t2a)までの間に出力された再生用音声データと音声データDa3とを比較し、音声データDa3に対応する再生用音声データが第1の時点から第2の時点までの間に出力された再生用音声データのなかに存在しなかったときに、第1の時点と第2の時点とを予め規定された時間分(この例では、25ms分)だけ後の時点にそれぞれ変更して変更処理後の第1の時点(この例では、時点t1b)から変更処理後の第2の時点(この例では、時点t2b)までの間に出力された再生用音声データと音声データDa3とを比較する。したがって、このプロジェクタ1によれば、ネットワークアダプタ11から出力した音声データDa1のすべてを音声データDa11としてバッファ24に記憶させてそのすべてを比較対象として音声データDa3と比較する構成とは異なり、少ない記憶容量の記憶素子でバッファ24を構成することができると共に、第1の時点および第2の時点を自動的に変更して音声データDa3に対応する再生用音声データを確実に検出することができる。また、音声データDa3に対応する再生用音声データが第1の時点から第2の時点までに出力された再生用音声データのなかに存在しなかったときに、上記の変更処理時において、第1の時点と第2の時点との双方を予め規定された時間分だけ相違する時点(この例では、後の時点)にそれぞれ変更することで、特定処理90のステップ95において比較すべき音声データDa11のデータサイズ(データブロック数)を少なくして短時間で処理することができる。   Further, in the projector 1, reproduction audio data (audio data, for example, for 500 ms) of the output reproduction audio data (in this example, audio data Da1 generated based on the audio data Da). Da11) is stored in the buffer 24, and in the timing specifying process 90, the first time (for example, time t1a) to the second time (for example, time t2a) of the reproduction audio data stored in the buffer 24 is stored. Audio data Da3 is compared with the audio data for reproduction output before and the audio data for reproduction corresponding to the audio data Da3 is output between the first time point and the second time point. A time point after the first time point and the second time point by a predetermined time (25 ms in this example) when there is no data in the data Reproduction audio data and audio output between the first time after the change processing (time t1b in this example) and the second time after the change processing (time t2b in this example) The data Da3 is compared. Therefore, according to the projector 1, unlike the configuration in which all of the audio data Da1 output from the network adapter 11 is stored in the buffer 24 as the audio data Da11 and compared with the audio data Da3 as a comparison target, the amount of storage is small. The buffer 24 can be configured with a storage element having a capacity, and the reproduction time data corresponding to the sound data Da3 can be reliably detected by automatically changing the first time point and the second time point. Further, when the reproduction audio data corresponding to the audio data Da3 does not exist in the reproduction audio data output from the first time point to the second time point, the first change process performs the first time. The audio data Da11 to be compared in step 95 of the specifying process 90 is changed by changing each of the time point of the second time point and the second time point to a time point that is different by a predetermined time (in this example, a later time point). Can be processed in a short time with a reduced data size (number of data blocks).

また、このプロジェクタ1によれば、映像データDvに基づく映像の表示タイミングのみを変更することにより、音声データDaに基づく音声データDa1の出力タイミングを変更して映像の表示タイミングと音声の出力タイミングとを同期させる構成とは異なり、オーディオアンプ3(スピーカ4)から出力される音声を途切れさせることなく映像の表示タイミングと音声の出力タイミングとを同期させることができる。したがって、音声が途切れるといった違和感を認識させることなく映像音声データDを再生することができる。   Further, according to the projector 1, by changing only the video display timing based on the video data Dv, the output timing of the audio data Da1 based on the audio data Da is changed to change the video display timing and the audio output timing. Unlike the configuration of synchronizing the video, the video display timing and the audio output timing can be synchronized without interrupting the audio output from the audio amplifier 3 (speaker 4). Therefore, it is possible to reproduce the video / audio data D without recognizing the uncomfortable feeling that the sound is interrupted.

また、このプロジェクタ1によれば、本発明に係る再生制御装置と本発明における表示部とを備えて一体的に構成したことにより、例えば、外部装置としての表示部に映像データDvを出力して映像を表示させる構成とは異なり、映像表示部14に映像データDvを出力した時点から映像データDvに基づく映像が表示される時点までの時間長を十分に短くすることができるしたがって、特定処理90によって特定した時間長(遅延時間)に基づき、映像データDvに基づく映像の表示を遅延させることなく、変更した表示タイミングで映像を正確に表示させることができる。   Further, according to the projector 1, since the playback control device according to the present invention and the display unit according to the present invention are integrally configured, for example, the video data Dv is output to the display unit as an external device. Unlike the configuration in which the video is displayed, the time length from when the video data Dv is output to the video display unit 14 to when the video based on the video data Dv is displayed can be sufficiently shortened. Based on the time length (delay time) specified by the above, the video can be accurately displayed at the changed display timing without delaying the display of the video based on the video data Dv.

また、本発明に係る再生システムによれば、プロジェクタ1(本発明に係る再生制御装置および本発明における表示部)と、オーディオアンプ3およびスピーカ4(音発明における音声出力装置)とを備えて構成したことにより、映像データDvに基づく映像の表示タイミングと、その映像データDvと同期して再生すべき音声データDaに基づく音声の出力タイミングとを同期させて映像音声データDを再生することができる。   The reproduction system according to the present invention includes the projector 1 (the reproduction control device according to the present invention and the display unit according to the present invention), the audio amplifier 3 and the speaker 4 (the audio output device according to the sound invention). Thus, the video / audio data D can be reproduced by synchronizing the video display timing based on the video data Dv and the audio output timing based on the audio data Da to be reproduced in synchronization with the video data Dv. .

なお、本発明は、上記の構成に限定されない。例えば、上記のプロジェクタ1では、プロジェクタ1の初期設定処理の1つとして特定処理60を実行した後に、特定処理60によって生成された第1基準タイミングデータDt1を利用して再生処理70と特定処理90とを並行して実行する構成を採用しているが、映像の表示タイミングと音声の出力タイミングとを同期させるための基準タイミングを特定する処理(上記の特定処理60,90と同様の処理)については、例えばプロジェクタ1の初期設定時と、映像音声データDの再生時とのいずれか一方のみに実行する構成を採用することができる。具体的には、特定処理60を実行することなく、かつ、上記の再生処理70に代えて図9に示す再生処理110を実行することで映像の表示タイミングと音声の出力タイミングとを同期させることができる。   In addition, this invention is not limited to said structure. For example, in the projector 1 described above, after executing the specifying process 60 as one of the initial setting processes of the projector 1, the reproduction process 70 and the specifying process 90 are performed using the first reference timing data Dt1 generated by the specifying process 60. The processing for specifying the reference timing for synchronizing the video display timing and the audio output timing (the same processing as the above-described specific processing 60 and 90) is employed. For example, it is possible to adopt a configuration that is executed only at one of the initial setting of the projector 1 and the reproduction of the video / audio data D. Specifically, the video display timing and the audio output timing are synchronized by executing the reproduction process 110 shown in FIG. 9 without executing the specifying process 60 and instead of the reproduction process 70 described above. Can do.

この再生処理110では、映像音声データDの再生を指示された際に、まず、前述した特定処理90を開始させる(ステップ111)。この場合、再生処理110と並行して実行する特定処理90では、ステップ93におけるタイミングの到来までの待機を実行せずに、その他のステップについては前述した処理と同様に実行する。したがって、この特定処理90についての説明を省略する。次いで、制御部28が、音声データDaに基づく音声データDa1のオーディオアンプ3への出力を開始すると共に(ステップ112)、映像表示部14による映像データDvの再生を開始させる(ステップ113)。続いて、制御部28は、第2基準タイミングデータDt2がタイミングデータ記憶部29に記憶されているか否かを判別する(ステップ114)。この際に、第2基準タイミングデータDt2の記憶が完了していないときには、制御部28は、映像音声データDの再生が完了したか否かを判別し(ステップ115)、再生が完了していないときには、第2基準タイミングデータDt2が記憶されたか否かを判別する(ステップ114)。また、並行して実行している特定処理90によって第2基準タイミングデータDt2を生成してタイミングデータ記憶部29に記憶させた際には、制御部28は、生成された(タイミングデータ記憶部29に記憶させた)第2基準タイミングデータDt2に基づく第2基準タイミングが変化したか否かを判別し(ステップ116)、変化が生じていないときには、映像音声データDの再生が完了したか否かを判別した後に(ステップ115)、新たな第2基準タイミングデータDt2が記憶されたか否かを判別する(ステップ114)。   In the reproduction process 110, when the reproduction of the video / audio data D is instructed, first, the above-described specifying process 90 is started (step 111). In this case, in the specific process 90 executed in parallel with the reproduction process 110, the other steps are executed in the same manner as described above without executing the standby until the timing comes in step 93. Therefore, the description about this specific process 90 is abbreviate | omitted. Next, the control unit 28 starts outputting the audio data Da1 based on the audio data Da to the audio amplifier 3 (step 112), and also starts the reproduction of the video data Dv by the video display unit 14 (step 113). Subsequently, the control unit 28 determines whether or not the second reference timing data Dt2 is stored in the timing data storage unit 29 (step 114). At this time, when the storage of the second reference timing data Dt2 is not completed, the control unit 28 determines whether or not the reproduction of the video / audio data D is completed (step 115), and the reproduction is not completed. Sometimes, it is determined whether or not the second reference timing data Dt2 is stored (step 114). Further, when the second reference timing data Dt2 is generated and stored in the timing data storage unit 29 by the specific processing 90 executed in parallel, the control unit 28 is generated (timing data storage unit 29 Whether or not the second reference timing based on the second reference timing data Dt2 has changed (step 116). If no change has occurred, whether or not the reproduction of the video / audio data D has been completed is determined. (Step 115), it is determined whether or not new second reference timing data Dt2 has been stored (step 114).

一方、第2基準タイミングに変化が生じたときには(ステップ116)、制御部28は、第2基準タイミングに遅れが生じたか否かを判別する(ステップ117)。この際に、遅れが生じているときには、映像表示部14に対する映像データDvの出力を所定時間だけ(第2基準タイミングが遅れた時間分だけ)一時的に停止する(ステップ118)。これにより、映像の表示タイミングと音声の出力タイミングとが同期させられる。また、第2基準タイミングが早くなったときには(ステップ117)、制御部28は、映像表示部14に対する映像データDvの出力を所定時間分だけ(第2基準タイミングが早まった分だけ)スキップする(ステップ119)。これにより、映像の表示タイミングと音声の出力タイミングとが同期させられる。この後、制御部28は、映像音声データDの再生が完了したか否かを判別し(ステップ115)、完了したときにこの再生処理110を終了する。   On the other hand, when a change occurs in the second reference timing (step 116), the control unit 28 determines whether or not a delay occurs in the second reference timing (step 117). At this time, if there is a delay, the output of the video data Dv to the video display unit 14 is temporarily stopped for a predetermined time (for the time for which the second reference timing is delayed) (step 118). Thereby, the video display timing and the audio output timing are synchronized. When the second reference timing is advanced (step 117), the control unit 28 skips the output of the video data Dv to the video display unit 14 by a predetermined time (by the amount by which the second reference timing is advanced) ( Step 119). Thereby, the video display timing and the audio output timing are synchronized. Thereafter, the control unit 28 determines whether or not the reproduction of the video / audio data D is completed (step 115), and ends the reproduction processing 110 when the reproduction is completed.

このように、再生処理70に代えて再生処理110を実行するプロジェクタ1によれば、制御部28が音声データDa3に対応する再生用音声データ(この例では、音声データDa基づいて生成した音声データDa1)を出力させた時点から音声データDa3に対応する音声が集音された時点までの時間長を特定するタイミング特定処理90を実行し、タイミング特定処理90によって特定した時間長(この例では、第2基準タイミングデータDt2)に応じて映像データDvに基づく映像の映像表示部14による表示タイミングを変更することにより、デジタル音声データを出力する際の遅延時間を1つの時間長に規定している従来の伝送システムとは異なり、映像音声データDの再生時にネットワークトラフィックが変化して音声データDa1を出力した時点からその音声データDa1に対応する音声が出力される時点までの時間長が変化したとしても、その時間長の変化に応じて映像データDvに基づく映像の表示タイミングを変更して映像の表示タイミングと音声の出力タイミングとを確実に同期させることができる。   As described above, according to the projector 1 that executes the reproduction process 110 instead of the reproduction process 70, the control unit 28 reproduces audio data corresponding to the audio data Da3 (in this example, audio data generated based on the audio data Da). The timing specifying process 90 for specifying the time length from the time when Da1) is output to the time when the sound corresponding to the audio data Da3 is collected is executed, and the time length specified by the timing specifying process 90 (in this example, By changing the display timing of the video based on the video data Dv by the video display unit 14 according to the second reference timing data Dt2), the delay time when outputting the digital audio data is defined as one time length. Unlike the conventional transmission system, the network traffic changes when the audio / video data D is played, and the audio data Even if the time length from the time when a1 is output to the time when the sound corresponding to the audio data Da1 is changed, the display timing of the video based on the video data Dv is changed according to the change in the time length. The video display timing and the audio output timing can be reliably synchronized.

また、上記の再生処理70,110に代えて、図10に示す再生処理120を実行することで映像音声データDに基づく映像の表示タイミングと音声の出力タイミングとを同期させる構成を採用することもできる。この再生処理120では、映像音声データDの再生開始を指示された際に、制御部28がタイミングデータ記憶部29に第1基準タイミングデータDt1が記憶されているか否かを判別する(ステップ121)。また、第1基準タイミングデータDt1が記憶されていないときには、制御部28は、前述した特定処理60を実行する。この結果、チェック用の音声データDcを利用して特定した第1基準タイミングについての第1基準タイミングデータDt1がタイミングデータ記憶部29に記憶される。次に、制御部28は、ネットワークアダプタ11を制御して音声データDaに基づいて生成された音声データDa1のオーディオアンプ3への出力を開始させると共に(ステップ122)、第1基準タイミングデータDt1に基づいて特定される第1基準タイミングが到来するまで待機する(ステップ123)。また、第1基準タイミングが到来したときには、制御部28は、映像音声データDに基づいて生成した映像データDvの映像表示部14による再生を開始させる(ステップ124)。これにより、特定処理60によって特定された遅延時間分だけ映像データDvに基づく映像の表示が遅れることにより、音声データDa1に基づく音声の出力タイミングと、映像表示部14による映像の表示タイミングとが同期する。この後、制御部28は、映像音声データDの再生が完了したときに(ステップ125)、この再生処理120を終了する。   Further, instead of the above-described reproduction processes 70 and 110, it is possible to adopt a configuration in which the reproduction process 120 shown in FIG. 10 is executed to synchronize the video display timing and the audio output timing based on the video / audio data D. it can. In this reproduction process 120, when the reproduction start of the video / audio data D is instructed, the control unit 28 determines whether or not the first reference timing data Dt1 is stored in the timing data storage unit 29 (step 121). . In addition, when the first reference timing data Dt1 is not stored, the control unit 28 executes the specifying process 60 described above. As a result, the first reference timing data Dt1 for the first reference timing specified using the check audio data Dc is stored in the timing data storage unit 29. Next, the control unit 28 controls the network adapter 11 to start outputting the audio data Da1 generated based on the audio data Da to the audio amplifier 3 (step 122), and causes the first reference timing data Dt1 to be output. It waits until the first reference timing specified based on it arrives (step 123). When the first reference timing has arrived, the control unit 28 starts reproduction of the video data Dv generated based on the video / audio data D by the video display unit 14 (step 124). As a result, the display of the video based on the video data Dv is delayed by the delay time specified by the specifying process 60, so that the audio output timing based on the audio data Da1 and the video display timing by the video display unit 14 are synchronized. To do. Thereafter, when the reproduction of the video / audio data D is completed (step 125), the control unit 28 ends the reproduction processing 120.

このように、再生処理70,110に代えて再生処理120を実行するプロジェクタ1によれば、制御部28が音声データDa3に対応する時間差特定用音声データ(この例では、音声データDc基づいて生成した音声データDa1)を出力させた時点から音声データDa3に対応する音声が集音された時点までの時間長を特定するタイミング特定処理60を実行して、タイミング特定処理60によって特定した時間長(この例では、第1基準タイミングデータDt1)に応じて映像データDvに基づく映像の映像表示部14による表示タイミングを変更することにより、映像音声データDの再生に先立って特定処理60によって特定した遅延時間(第1基準タイミングデータDt1)に基づき、映像音声データDの再生処理中に特定処理90等を実行することなく、映像の表示タイミングと音声の出力タイミングとを同期させることができる。   Thus, according to the projector 1 that executes the reproduction process 120 instead of the reproduction processes 70 and 110, the control unit 28 generates the time difference specifying audio data corresponding to the audio data Da3 (in this example, generated based on the audio data Dc). The timing specifying process 60 for specifying the time length from the time when the audio data Da1) is output to the time when the sound corresponding to the audio data Da3 is collected is executed, and the time length specified by the timing specifying process 60 ( In this example, the delay specified by the specifying process 60 prior to the reproduction of the video / audio data D by changing the display timing of the video based on the video data Dv by the video display unit 14 according to the first reference timing data Dt1). Based on the time (first reference timing data Dt1), the specific process 9 is performed during the reproduction process of the video / audio data D. Without executing or the like, it is possible to synchronize the output timing of the display timing and audio images.

さらに、前述したプロジェクタ1では、音声データDa1の出力時点から対応する音声の出力時点までの時間長(遅延時間)に応じて、映像データDvに基づく映像の表示タイミングのみを変更することで映像の表示タイミングと音声の出力タイミングとを同期させる構成を採用しているが、本発明はこれに限定されない。例えば、上記の遅延時間分だけ音声データDa1をスキップして出力することで映像の表示タイミングと音声の出力タイミングとを同期させる構成を採用することができる。また、映像データDvに基づく映像の表示タイミングと、オーディオアンプ3への音声データDa1の出力タイミングとの双方を変化させることで映像の表示タイミングと音声の出力タイミングとを同期させる構成を採用することもできる。これらの構成を採用した場合にも、前述したプロジェクタ1と同様にして、ネットワーク環境の相違やネットワークトラフィックの変化に影響されることなく、映像の表示タイミングと音声の出力タイミングとを確実に同期させることができる。   Further, the projector 1 described above changes only the video display timing based on the video data Dv according to the time length (delay time) from the output time of the audio data Da1 to the corresponding audio output time. Although a configuration is adopted in which the display timing and the audio output timing are synchronized, the present invention is not limited to this. For example, it is possible to employ a configuration in which the video display timing and the audio output timing are synchronized by skipping and outputting the audio data Da1 by the delay time. In addition, the video display timing and the audio output timing are synchronized by changing both the video display timing based on the video data Dv and the output timing of the audio data Da1 to the audio amplifier 3. You can also. Even when these configurations are adopted, similarly to the projector 1 described above, the video display timing and the audio output timing are reliably synchronized without being affected by the difference in the network environment or the change in the network traffic. be able to.

また、プロジェクタ1の設置が完了した状態で特定処理60を実行する例について説明したが、特定処理60の実行タイミングは初期設定処理時に限定されず、例えば、プロジェクタ1の電源投入時や、利用者が指定した任意のタイミングで実行する構成を採用することができる。さらに、特定処理60において音声データDa1の出力を開始した際に(ステップ64)、所定のメッセージを映像表示部14に表示させる構成を採用しているが、メッセージに代えて、例えば広告映像やリラクゼーション映像等の各種映像を表示させることもできる。また、本発明に係る再生制御装置をプロジェクタ1に搭載した例について説明したが、投射機構32に代えて、液晶表示器、プラズマ表示器、有機EL表示器およびCRT等の各種表示器を備えた表示装置に本発明に係る再生制御装置を搭載することができる。さらに、本発明は、表示装置に再生制御装置を搭載した構成に限定されず、外部装置としての表示装置に映像信号Svを出力して映像を表示させる構成を採用することもできる。この場合、例えば屋外広告表示システムのように音声出力装置と表示装置とが遠く離れた場所に設置されている状態であっても、本発明に係る再生制御装置を用いることによって映像の表示タイミングと音声の出力タイミングとを確実に同期させることができる。   Moreover, although the example which performs the specific process 60 in the state which installation of the projector 1 was completed was demonstrated, the execution timing of the specific process 60 is not limited at the time of an initial setting process, For example, when the power supply of the projector 1 is turned on, a user Can be adopted to execute at an arbitrary timing designated by. Furthermore, when the output of the audio data Da1 is started in the specifying process 60 (step 64), a configuration is adopted in which a predetermined message is displayed on the video display unit 14, but instead of the message, for example, an advertisement video or relaxation Various images such as images can also be displayed. Moreover, although the example which mounted the reproduction | regeneration control apparatus based on this invention in the projector 1 was replaced with the projection mechanism 32, various displays, such as a liquid crystal display, a plasma display, an organic electroluminescence display, and CRT, were provided. The reproduction control device according to the present invention can be mounted on the display device. Furthermore, the present invention is not limited to a configuration in which a playback control device is mounted on a display device, and a configuration in which a video signal Sv is output to a display device as an external device to display a video can be employed. In this case, for example, even in a state where the audio output device and the display device are installed far away as in an outdoor advertisement display system, the display timing of the video can be obtained by using the playback control device according to the present invention. The sound output timing can be reliably synchronized.

さらに、コンテンツ配信サーバ2から取得した映像音声データDを再生する例について説明したが、本発明における映像音声データは、ネットワークNを介して取得した動画コンテンツに限定されず、例えばDVDプレーヤ等の各種再生装置から出力される映像音声データDや、チューナを介して受信した映像音声データD等がこれに含まれる。また、本発明における時間差特定用音声データ(音声データDc)についても、コンテンツ配信サーバ2等から取得したものに限定されず、本発明に係る再生制御装置内に予め記憶させた音声データを利用する構成を採用することができる。   Furthermore, the example of reproducing the video / audio data D acquired from the content distribution server 2 has been described. However, the video / audio data in the present invention is not limited to the moving image content acquired via the network N, and may be various types such as a DVD player. This includes video / audio data D output from the playback apparatus, video / audio data D received via a tuner, and the like. Also, the time difference specifying audio data (audio data Dc) in the present invention is not limited to the data acquired from the content distribution server 2 or the like, but uses audio data stored in advance in the reproduction control apparatus according to the present invention. A configuration can be employed.

プロジェクタ1の構成を示す構成図である。1 is a configuration diagram showing a configuration of a projector 1. FIG. タイミング特定処理60のフローチャートである。5 is a flowchart of timing specifying processing 60. 再生処理70のフローチャートである。10 is a flowchart of a reproduction process 70. タイミング特定処理90のフローチャートである。10 is a flowchart of timing specifying processing 90; バッファ24内に記憶した音声データDa11の概念図である。4 is a conceptual diagram of audio data Da11 stored in a buffer 24. FIG. バッファ24内に記憶した音声データDa11の他の概念図である。It is another conceptual diagram of the audio data Da11 stored in the buffer 24. バッファ24内に記憶した音声データDa11のさらに他の概念図である。FIG. 14 is still another conceptual diagram of the audio data Da11 stored in the buffer 24. バッファ24内に記憶した音声データDa11のさらに他の概念図である。FIG. 14 is still another conceptual diagram of the audio data Da11 stored in the buffer 24. 再生処理110のフローチャートである。10 is a flowchart of a reproduction process 110. 再生処理120のフローチャートである。10 is a flowchart of a reproduction process 120.

符号の説明Explanation of symbols

1 プロジェクタ、3 オーディオアンプ、4 スピーカ、11 ネットワークアダプタ、12 映像音声処理部、13 再生処理部、14 映像表示部、23 音声処理部、24 バッファ、25 タイマ、26 マイク、27 A/Dコンバータ、28 制御部、29 タイミングデータ記憶部、60,90 タイミング特定処理、70,110,120 再生処理、D 映像音声データ、Da,Da1〜Da3,Da11,Dc 音声データ、Dt1 第1基準タイミングデータ、Dt2 第2基準タイミングデータ、Dv 映像データ、N ネットワーク、Sa1,Sa2 音声信号、Sv 映像信号、t0,t2,t1a,t2a,t1b,t2b,t1b,t2b 時点   1 projector, 3 audio amplifier, 4 speaker, 11 network adapter, 12 video / audio processing unit, 13 playback processing unit, 14 video display unit, 23 audio processing unit, 24 buffer, 25 timer, 26 microphone, 27 A / D converter, 28 control unit, 29 timing data storage unit, 60, 90 timing specifying process, 70, 110, 120 reproduction process, D video / audio data, Da, Da1 to Da3, Da11, Dc audio data, Dt1 first reference timing data, Dt2 Second reference timing data, Dv video data, N network, Sa1, Sa2 audio signal, Sv video signal, t0, t2, t1a, t2a, t1b, t2b, t1b, t2b

Claims (8)

同期して再生すべき一対の再生用映像データおよび再生用音声データを映像音声データに基づいて生成するデータ生成部と、ネットワークを介して前記再生用音声データを音声出力装置に出力するデータ出力部と、前記再生用映像データに基づく映像を表示させるべく当該再生用映像データを表示部に出力すると共に前記データ出力部を制御して前記再生用音声データを出力させる制御部と、音声を集音する集音部とを備え、
前記制御部は、前記データ出力部を制御して前記音声出力装置に所定の音声データを出力させた時点から当該所定の音声データに基づく音声が前記集音部によって集音された時点までの時間長に応じて、前記再生用映像データに基づく前記映像の前記表示部による表示タイミングと前記データ出力部による前記再生用音声データの出力タイミングとの少なくとも一方を変更する再生制御装置。
A data generation unit that generates a pair of reproduction video data and reproduction audio data to be reproduced in synchronization based on the video / audio data, and a data output unit that outputs the reproduction audio data to an audio output device via a network And a controller for outputting the playback video data to the display unit and controlling the data output unit to output the playback audio data to display video based on the playback video data; And a sound collecting part
The control unit controls the data output unit to output a predetermined audio data from the audio output device to a time from when the sound based on the predetermined audio data is collected by the sound collection unit. A playback control device that changes at least one of a display timing of the video based on the playback video data by the display unit and an output timing of the playback audio data by the data output unit according to the length.
前記制御部は、前記データ出力部を制御して前記所定の音声データとして前記再生用音声データを出力させ、前記集音部によって集音された前記音声に基づいて生成された比較用音声データと当該再生用音声データとを比較した結果に基づき、当該比較用音声データに対応する当該再生用音声データを出力させた時点から当該比較用音声データに対応する音声が集音された時点までの時間長を特定する第1の特定処理を実行し、当該特定した時間長に応じて前記映像の表示タイミングと前記再生用音声データの出力タイミングとの少なくとも一方を変更する請求項1記載の再生制御装置。   The control unit controls the data output unit to output the reproduction audio data as the predetermined audio data, and the comparison audio data generated based on the audio collected by the sound collection unit; Based on the result of comparison with the audio data for reproduction, the time from when the audio data for reproduction corresponding to the audio data for comparison is output to the time when the audio corresponding to the audio data for comparison is collected The playback control apparatus according to claim 1, wherein a first specifying process for specifying a length is executed, and at least one of the display timing of the video and the output timing of the playback audio data is changed according to the specified time length. . 時間差特定用音声データを記憶する第1の記憶部を備え、
前記制御部は、前記データ出力部を制御して前記所定の音声データとして前記時間差特定用音声データを出力させ、当該時間差特定用音声データと前記比較用音声データとを比較した結果に基づき、当該比較用音声データに対応する当該時間差特定用音声データを出力させた時点から当該比較用音声データに対応する音声が集音された時点までの時間長を特定する第2の特定処理を前記第1の特定処理に先立って実行し、当該第1の特定処理時において、前記再生用音声データを出力させた時点から前記第2の特定処理によって特定した時間長だけ経過した時点において生成された前記比較用音声データと当該再生用音声データとを比較する請求項2記載の再生制御装置。
A first storage unit for storing time difference specifying voice data;
The control unit controls the data output unit to output the time difference specifying sound data as the predetermined sound data, and based on a result of comparing the time difference specifying sound data and the comparison sound data, A second specifying process for specifying a length of time from when the time difference specifying sound data corresponding to the comparison sound data is output to when the sound corresponding to the comparison sound data is collected; The comparison generated at the time when the time specified by the second specific process has elapsed from the time when the reproduction audio data was output at the time of the first specific process. The reproduction control apparatus according to claim 2, wherein the audio data for reproduction is compared with the audio data for reproduction.
前記再生用音声データを記憶する第2の記憶部を備え、
前記制御部は、前記第1の特定処理時において、前記データ出力部を制御して出力させた前記再生用音声データのうちの所定時間分の当該再生用音声データを前記第2の記憶部に記憶させると共に、当該第2の記憶部に記憶させた前記再生用音声データのうちの第1の時点から第2の時点までの間に出力された当該再生用音声データと前記比較用音声データとを比較し、当該比較用音声データに対応する前記再生用音声データが前記第1の時点から前記第2の時点までに出力された当該再生用音声データのなかに存在しなかったときに、当該第1の時点と当該第2の時点との少なくとも一方を予め規定された時間分だけ相違する時点に変更する変更処理を実行し、当該変更処理後の前記第1の時点から当該変更処理後の前記第2の時点までの間に出力された前記再生用音声データと前記比較用音声データとを比較する請求項2または3記載の再生制御装置。
A second storage unit for storing the reproduction audio data;
The control unit controls the data output unit to output the reproduction audio data for a predetermined time in the second storage unit during the first specific process. The reproduction audio data output from the first time point to the second time point of the reproduction sound data stored in the second storage unit and the comparison sound data, And when the reproduction audio data corresponding to the comparison audio data does not exist in the reproduction audio data output from the first time point to the second time point, A change process for changing at least one of the first time point and the second time point to a time point that differs by a predetermined time is executed, and after the change process from the first time point after the change process Until the second time point Playback control apparatus according to claim 2 or 3 wherein the output has been the reproduced audio data is compared with the comparison audio data.
時間差特定用音声データを記憶する第1の記憶部を備え、
前記制御部は、前記データ出力部を制御して前記所定の音声データとして前記時間差特定用音声データを出力させ、前記集音部によって集音された前記音声に基づいて生成された比較用音声データと当該時間差特定用音声データとを比較した結果に基づき、当該比較用音声データに対応する当該時間差特定用音声データを出力させた時点から当該比較用音声データに対応する音声が集音された時点までの時間長を特定する第2の特定処理を実行し、当該特定した時間長に応じて前記映像の表示タイミングと前記再生用音声データの出力タイミングとの少なくとも一方を変更する請求項1記載の再生制御装置。
A first storage unit for storing time difference specifying voice data;
The control unit controls the data output unit to output the time difference specifying audio data as the predetermined audio data, and the comparison audio data generated based on the audio collected by the sound collection unit And when the sound corresponding to the comparison sound data is collected from the time when the time difference specifying sound data corresponding to the comparison sound data is output based on the result of comparing the time difference specifying sound data with the time difference specifying sound data 2. The second specifying process of specifying a time length until the time is performed, and at least one of the display timing of the video and the output timing of the reproduction audio data is changed according to the specified time length. Playback control device.
前記制御部は、前記映像の表示タイミングおよび前記再生用音声データの出力タイミングのうちの当該表示タイミングのみを前記特定した時間長に応じて変更する請求項1から5のいずれかに記載の再生制御装置。   The reproduction control according to any one of claims 1 to 5, wherein the control unit changes only the display timing of the display timing of the video and the output timing of the audio data for reproduction according to the specified time length. apparatus. 請求項1から6のいずれかに記載の再生制御装置と、前記表示部とを備えて構成されている表示装置。   A display device comprising the reproduction control device according to claim 1 and the display unit. 請求項1から6のいずれかに記載の再生制御装置と、前記表示部と、前記音声出力装置とを備えて構成されている再生システム。   A playback system comprising the playback control device according to claim 1, the display unit, and the audio output device.
JP2005266393A 2005-09-14 2005-09-14 Reproduction controller, display, and reproduction system Withdrawn JP2007081780A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005266393A JP2007081780A (en) 2005-09-14 2005-09-14 Reproduction controller, display, and reproduction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005266393A JP2007081780A (en) 2005-09-14 2005-09-14 Reproduction controller, display, and reproduction system

Publications (1)

Publication Number Publication Date
JP2007081780A true JP2007081780A (en) 2007-03-29

Family

ID=37941619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005266393A Withdrawn JP2007081780A (en) 2005-09-14 2005-09-14 Reproduction controller, display, and reproduction system

Country Status (1)

Country Link
JP (1) JP2007081780A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010541323A (en) * 2007-09-21 2010-12-24 トムソン ライセンシング Apparatus and method for synchronizing user observable signals
US8977330B2 (en) 2010-12-06 2015-03-10 Fujitsu Ten Limited In-vehicle apparatus
WO2015052908A1 (en) * 2013-10-11 2015-04-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Transmission method, reception method, transmission device, and reception device
JP2015076881A (en) * 2013-10-11 2015-04-20 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Transmission method, reception method, transmission device, and reception device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010541323A (en) * 2007-09-21 2010-12-24 トムソン ライセンシング Apparatus and method for synchronizing user observable signals
US8977330B2 (en) 2010-12-06 2015-03-10 Fujitsu Ten Limited In-vehicle apparatus
WO2015052908A1 (en) * 2013-10-11 2015-04-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Transmission method, reception method, transmission device, and reception device
JP2015076881A (en) * 2013-10-11 2015-04-20 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Transmission method, reception method, transmission device, and reception device
JP2019169948A (en) * 2013-10-11 2019-10-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Transmission method, reception method, transmission device, and reception device

Similar Documents

Publication Publication Date Title
TWI556656B (en) Audio player with bluetooth function and audio playing method thereof
US20120155657A1 (en) Communication device and communication methods
KR100902013B1 (en) Tiled-display system and synchronization method in the system
WO2006011400A1 (en) Information processing device and method, recording medium, and program
JP2006237918A (en) Information processing system, reproducing terminal and reproducing method, information processing apparatus and method, and program
CN108366283A (en) The media sync playback method of more equipment rooms
US20160267878A1 (en) Display control apparatus, display control system, and display control method
US7738772B2 (en) Apparatus and method for synchronizing video data and audio data having different predetermined frame lengths
JP2007081780A (en) Reproduction controller, display, and reproduction system
JP5212593B2 (en) Projector, projection system, and projection method
JP4256710B2 (en) AV transmission method, AV transmission device, AV transmission device, and AV reception device
JP2017147594A (en) Audio apparatus
JP2005079614A (en) Mobile sound output apparatus, contents reproducing apparatus, wireless channel control method, and synchronization control method
JP6956354B2 (en) Video signal output device, control method, and program
US10925014B2 (en) Method and apparatus for synchronization in a network
JP4168269B2 (en) Mobile phone terminal and synchronization control method for mobile phone terminal
JPWO2019163085A1 (en) Content playback program, content playback method, and content playback system
JPH11313273A (en) Display device
JP6575684B2 (en) Synchronization setting device, distribution system, synchronization setting method, and program
JP2007134963A (en) Reproduction system and server
JP2010085688A (en) Projector, conference system, sound source direction determination method, and camera control method
US9864565B2 (en) Output system, output apparatus, and power control method
JP7406169B2 (en) Synchronous control device, synchronous control method, and synchronous control program
US11657777B2 (en) Control method for display device and display device
US11704088B2 (en) Intelligent control method and electronic device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070405

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081202