JP2007082155A - 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体 - Google Patents
画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体 Download PDFInfo
- Publication number
- JP2007082155A JP2007082155A JP2005271035A JP2005271035A JP2007082155A JP 2007082155 A JP2007082155 A JP 2007082155A JP 2005271035 A JP2005271035 A JP 2005271035A JP 2005271035 A JP2005271035 A JP 2005271035A JP 2007082155 A JP2007082155 A JP 2007082155A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- audio
- image data
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/04—Synchronising
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2368—Multiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4122—Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4341—Demultiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/24—Systems for the transmission of television signals using pulse code modulation
- H04N7/52—Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
- H04N7/54—Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal the signals being synchronous
- H04N7/56—Synchronising systems therefor
Abstract
【課題】 画像音声データ出力装置に接続される音声出力装置に特別なデバイス等を実装することなく、画像出力及び音声出力のタイミングを確保することのできる画像音声出力システムを提供すること。
【解決手段】画像音声出力システムを構成する画像音声データ出力装置は、画像音声データに含まれる画像データ及び音声データを分離する手段226と、分離された画像データを、伝送路を介して画像表示装置に送信する手段21、27と、画像表示装置側で再生させようとする画像データを解析する手段224と、解析結果に基づいて、画像データを再生する時間に応じた音声出力調整時間を生成する手段227と、生成された音声出力調整時間に基づいて、画像再生のタイミングに同期して音声出力を調整する手段228とを備えている。
【選択図】図3
Description
このようなシステムでは、伝送路としてUSBやIEEE1394等のシリアル伝送のインターフェースが用いられ、これらのインターフェース接続用のケーブルは、従来の一般的なRGBビデオケーブル等と比較すると、細くて取り回しが楽であることから、今後このようなインターフェースで接続される形態が増加することが予想される。
この場合、動画像データは、画像表示装置とデータ出力装置との間のシリアル伝送路を介して送受信されるが、このとき動画像データは伝送のために適当な形式に符号化されて伝送されることとなる。
このバッファ処理と復号処理、さらには画像の走査・形成には、必ず画像表示装置固有の処理時間が必要となるので、データ出力装置が動画像データを画像表示装置側に伝送すると同時に、その動画像に付随する音声を再生出力すると、音声データの再生出力が動画像の再生出力よりも早くなされてしまい、動画像出力と音声出力のタイミング、いわゆるリップシンクが一致せず、観察者に違和感を与えることとなる。
前記画像音声データ出力装置は、
前記画像音声データに含まれる画像データ及び音声データを分離する画像音声データ分離手段と、
分離された前記画像データを、前記伝送路を介して前記画像表示装置に送信する画像データ送信手段と、
分離された前記音声データを出力する音声データ出力手段と、
前記画像データ送信手段により前記画像表示装置に送信し、該画像表示装置で再生させようとする画像データを解析し、前記解析の結果を取得する画像データ解析手段と、
この画像データ解析手段の解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成する音声出力調整時間生成手段と、
この音声出力調整時間生成手段により生成された音声出力調整時間に基づいて、前記画像表示装置で表示される画像再生のタイミングに同期して、分離された前記音声データによる音声出力を調整する音声出力同期調整手段とを備え、
前記画像表示装置は、
前記画像音声データ出力装置から送信された画像データを受信する画像データ受信手段と、
この画像データ受信手段で受信された画像データの再生処理を行う画像処理手段と、
この画像処理手段により処理された画像データに基づいて、画像を形成する画像形成手段とを備えていることを特徴とする画像音声出力システム。
また、再生時間算出手段による再生時間の算出は、例えば、上記動画像データ形式に応じた一定の関数が設定され、これに基づいて算出してもよく、詳しくは後述するが圧縮形式に応じた再生時間が記録されたルックアップテーブルのようなものを参照して算出しても良い。
また、画像データ解析手段により、画像データの圧縮形式に応じて音声出力調整時間が生成されるため、画像データの圧縮形式に応じて最適なタイミングで音声出力させることができる。
前記画像データ出力装置は、
前記画像データの解像度とビットレートのいずれか、又はその両者の組合せに応じた再生時間を記録したルックアップテーブルを有する再生時間記録手段を備え、
前記音声出力調整時間生成手段は、前記再生時間記録手段に記録されたルックアップテーブルを参照して音声出力調整時間を生成するのが好ましい。
この発明によれば、画像表示装置での再生時間に大きく影響される動画像の解像度及びビットレート等に応じた再生時間がルックアップテーブル上に記録されているため、音声出力調整時間生成手段は、画像データ解析手段で取得された画像データの形式に基づいて、ルックアップテーブルを参照して簡単に音声出力調整時間を生成することができる。
前記伝送路は、双方向通信可能であり、
前記画像表示装置は、
前記画像形成手段により形成される画像の表示状態を設定する表示状態設定手段と、
この表示状態設定手段により設定された設定情報を、前記画像音声データ出力装置に前記伝送路を介して送信する設定情報送信手段とを備え、
前記画像処理手段は、前記表示状態設定手段により設定された設定情報に基づいて、画像データの再生処理を行い、
前記画像音声データ出力装置は、
前記画像表示装置から送信された設定情報を受信する設定情報受信手段と、
この設定情報受信手段で受信された設定情報に基づいて、前記画像表示装置の画像処理手段による画像処理時間を算出する処理時間算出手段とを備え、
前記音声出力調整時間生成手段は、この処理時間算出手段で算出された画像処理時間を加味して音声出力調整時間を生成するのが好ましい。
この発明によれば、画像表示装置が設定情報送信手段を備え、画像音声データ処理装置が設定情報受信手段、処理時間算出手段を備えていることにより、画像表示装置側で表示状態の設定を変更した際に、音声出力調整時間生成手段は、この画像処理の時間をも加味して音声出力調整時間を生成することができるので、より画像出力のタイミングに近い状態で音声出力させることができる。
本発明の画像音声データ出力装置は、
画像音声データが出力可能とされ、双方向通信可能な伝送路を介して接続された画像表示装置に前記画像データを出力して画像を表示させる画像音声データ出力装置であって、
前記画像音声データに含まれる画像データ及び音声データを分離する画像音声データ分離手段と、
分離された前記画像データを、前記伝送路を介して前記画像表示装置に送信する画像データ送信手段と、
分離された前記音声データを出力する音声データ出力手段と、
前記画像データ送信手段により前記画像表示装置に送信し、該画像表示装置で再生させようとする画像データを解析し、前記解析の結果を取得する画像データ解析手段と、
この画像データ解析手段の解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成する音声出力調整時間生成手段と、
この音声出力調整時間生成手段により生成された音声出力調整時間に基づいて、前記画像表示装置で表示される画像再生のタイミングに同期して、分離された前記音声データ出力手段による音声出力を調整する音声出力同期調整手段とを備えていることを特徴とする。
画像データ及び音声データが出力可能とされ、伝送路を介して接続された画像表示装置に前記画像データを出力して画像を表示させるために、
前記画像音声データに含まれる画像データ及び音声データを分離する画像音声データ分離手段と、
分離された前記画像データを、前記伝送路を介して前記画像表示装置に送信する画像データ送信手段と、
分離された前記音声データを出力する音声データ出力手段と、
前記画像データ送信手段により前記画像表示装置に送信し、該画像表示装置で再生させようとする画像データを解析し、前記解析の結果を取得する画像データ解析手段と、
この画像データ解析手段の解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成する音声出力調整時間生成手段と、
この音声出力調整時間生成手段により生成された音声出力調整時間に基づいて、前記画像表示装置で表示される画像再生のタイミングに同期して、分離された前記音声データ出力手段による音声出力を調整する音声出力同期調整手段とを備えた画像音声データ出力装置に用いられ、前記音声出力調整時間生成手段による音声出力調整時間生成用のデータが記録されたコンピュータ読み取り可能な記録媒体であって、
前記画像データの解像度とビットレートのいずれか、又はその両者の組合せに応じた再生時間を記録したルックアップテーブルとして記録したことを特徴とする。
また、音声処理プログラム中に前記画像データの解像度とビットレートのいずれか、又はその両者の組合せに応じた再生時間データが担持されたものとしても構成することができる。
■1.第1実施形態
図1には、本発明の第1実施形態に係る画像音声出力システム1が示されており、この画像音声出力システム1は、画像データ出力装置としてのコンピュータ2、画像表示装置としてのプロジェクタ3、及びこれらを接続する伝送路としてのUSBケーブル4を備えて構成され、コンピュータ2から出力される画像データは、USBケーブル4を介してプロジェクタ3に入力され、コンピュータ2のローカルディスプレイ上の画像をスクリーン上に投射画像として表示できるシステムである。また、コンピュータ2には、内蔵されるサウンドカードに接続されるスピーカ9が設けられ、このスピーカ9は、プロジェクタ3からの投射画像中の動画像に応じて音声出力を行う。
USBケーブル4は、USB1.1、USB2.0等の規格に準拠したケーブルであり、接続機器及び被接続機器間で双方向通信が行うことができる。
画像データ出力装置としてのコンピュータ2は、図2に示されるように、マザーボード上に設けられたチップセット21と、バスラインを介して接続されるCPU22、メインメモリ23、ビデオカード24、光ディスク装置25、ハードディスク装置26、及びUSBポート27、及びサウンドカード28とを備えて構成される。
CPU22は、メインメモリ23を作業領域として種々のプログラムを実行する演算処理装置として機能する部分であり、図2では図示を略したが、オペレーティングシステム等を実行することにより生成されるグラフィックデータ等もこのCPU22において生成される。
光ディスク装置25は、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクメディアを再生する装置であり、圧縮された動画像データを記憶した光ディスクを挿入すると、光ディスク装置25は、光ディスクに記憶された動画像データを再生し、チップセット21を介して演算処理装置22に付帯するメインメモリ23に動画像データを出力する。
USBポート27は、前述したUSBケーブル4が接続されるコンピュータ2側の端子であり、このUSBポート27の入出力制御は、前述したチップセット21が行い、これらが本発明にいうデータ送信手段として機能する。
サウンドカード28は、詳しくは後述するが、CPU22で復号されたデジタル形式の音声データをアナログ形式の音声信号に変換し、増幅してスピーカ9から音声出力させる部分である。このサウンドカード28もまた、必ずしも別体のデバイスである必要はなく、チップセット21に内蔵のサウンド処理機能であってもよい。
差分データ生成部221Aは、例えば、コンピュータ2のリフレッシュレートの周期で更新されるグラフィック画像の差分データを生成する部分であり、例えば、更新前後の画像をそれぞれキャプチャしておき、両者を比較して変更された部分を差分データとして生成する。
グラフィックデータ取得部221Bは、差分データ生成部221Aで生成された差分データをグラフィックデータとして取得し、取得されたグラフィックデータを、後述するデータ多重化手段225に出力する部分である。
動画像データ取得手段223は、光ディスク装置25やハードディスク装置26からビットストリームとして順次入力される動画像データMPGを復号することなく、圧縮されたままの状態で動画像データとして取得する部分であり、動画像データの圧縮形式としては、MPEG2、MPEG4、MotionJPEG等が挙げられる。
また、この動画像データ解析手段224は、上述した解析結果を後述する音声出力調整時間生成手段227に出力する。
そして、このデータ多重化手段225で多重化されたデータは、チップセット21を介して、シリアルデータとしてUSBポート27から送信出力される。
音声出力調整時間生成手段227は、動画像データ解析手段224による動画像データの解析結果に基づいて、プロジェクタ3において動画像データが再生・表示されるまでの時間を算出し、音声出力を遅延させる音声出力調整時間を生成する部分であり、動画像データ解析手段224から入力された動画像データのビットレート、解像度等の画像属性情報に基づいて、LUT229を探索する。
尚、このドライバプログラムは、要するにデータ参照できるような形であればよく、実行ファイルは初めからコンピュータ2が保有しており、この実行ファイルで参照可能なテーブル構造のデータであってもよく、また、内部にLUT229に関するデータを担持させた実行可能なプログラムであってもよい。
再生時間が取得されたら、音声出力調整時間生成手段227は、取得された再生時間に基づいて、音声出力を遅延させる音声出力調整時間を生成する。生成された音声出力調整時間は、音声出力同期調整手段228に出力される。
オーディオデコーダ230は、画像音声分離手段226で分離された音声データを復号する部分であり、復号された音声データは、サウンドカード28に出力される。
遅延バッファ281は、オーディオデコーダ230で復号された音声データを記憶し、音声出力同期調整手段228からの調整制御指令に基づいて、記憶された音声データを順次D/Aコンバータ282に出力する。
D/Aコンバータ282は、遅延バッファ281に格納されたデジタル形式の音声データをアナログ形式の音声信号に変換して出力する部分である。
アンプ283は、D/Aコンバータ282によりアナログ変換された音声信号を増幅し、スピーカ9に出力する部分であり、これにより復号された音声データが音声としてスピーカ9から出力されるようになる。
画像表示装置としてのプロジェクタ3は、図5に示されるように、光学像を形成する光学エンジン5と、コンピュータ2から送信出力された画像データの画像処理を行う画像処理手段6とを備えて構成される。
光学エンジン5は、光源装置51、インテグレータ照明光学系52、画像形成手段としての液晶パネル53、色合成光学系54、及び投射レンズ55を備えて構成される。
具体的には、この画像処理手段6は、USBポート61、USBコントローラ62、CPU63、メインメモリ64、ビデオラスタライザ65、デマルチプレクサ66、ビデオフレームメモリ67、イメージプロセッサ68、及びパネルコントローラ69を備えて構成される。
CPU63は、メインメモリ64を作業領域として種々のプログラムを実行することにより、画像処理手段6の全体の制御を行う部分である。
ビデオラスタライザ65は、MPEG2等の形式の動画像データを復号し、動画像ラスタデータを生成する部分であり、このビデオラスタライザ65で復号された動画像ラスタデータは、後述するビデオフレームメモリ67に描き込まれる。
ビデオフレームメモリ67は、各種回路素子で形成された画像ラスタデータを蓄積し、最終的に液晶パネル53で表示させる表示ラスタデータを格納する部分であり、パネルコントローラ69による液晶パネル53のデータ書き込み周期に応じて、表示ラスタデータが描き替えられる。
走査手段としてのパネルコントローラ69は、液晶パネル53の駆動制御を行う回路素子であり、このパネルコントローラ69により液晶パネル53の画像表示領域中の各画素の駆動制御が行われる。尚、本実施形態の場合、前述したように三板式のプロジェクタ3であるため、図示を略したが、R、G、Bの色光毎の液晶パネル53に対してパネルコントローラ69はそれぞれ設けられている。
以上において、本実施形態では、画像処理手段6は複数の回路素子を組み合わせて構成しているが、画像処理手段のハードウエア構成は必ずしもこれに限らず、極めて高性能な演算処理装置であれば、1チップマイクロプロセッサによりすべての処理を行うことも可能である。
前述した画像処理手段6の各回路素子のうち、デマルチプレクサ66は、データ逆多重化手段661及びデコーダ662を機能的手段として備え、ビデオラスタライザ65は、ディクリプタ651、ビデオデコーダ652、スケーラ653、及びYUV−RGBコンバータ654を機能的手段として備えている。また、CPU63は、画面更新の同期を取るために、同期信号生成手段631を機能的手段として備えている。
そして、このデータ逆多重化手段661は、分離したグラフィックデータをデコーダ662に、動画像データをディクリプタ651に、動画像表示領域データをデコーダ662及びスケーラ653に、画像属性情報に含まれるフレームレート、コンピュータ2で設定されたリフレッシュレート、及び差分データとして入力されるグラフィックデータの画面更新周期等の情報を同期信号生成手段631に出力する。
また、このデコーダ662は、データ逆多重化手段661から出力された動画像表示領域データに基づいて、動画像を表示させるべき領域をグラフィック画像中に設定し、イメージプロセッサが動画像をオーバレイにより合成するためのカラーキーとして利用可能な色でその領域を塗りつぶす。そして、動画像が表示される部分以外の領域のグラフィックデータを生成する。
ビデオデコーダ652は、圧縮された状態で送信された動画像データの復号を行う部分であり、例えば、圧縮形式がMPEG2のような場合、圧縮状態の動画像データを、可変長符号の復号、逆走査、逆量子化、逆DCT、動き補償等の各ステップを経てラスタデータ形式の動画像データに復号する。
YUV−RGBコンバータ654は、動画像データのYUV形式のデータを画像表示装置で処理可能なRGB形式に変換する部分であり、変換は一定の関係式に基づいて行われる。
同期信号生成手段631は、データ逆多重化手段661から出力される画面更新に関する情報に基づいて、パネルコントローラ69の画面更新用の同期信号を生成する部分であり、本実施形態では、動画像データのシリアルヘッダから得られるフレームレートに基づいて、同期信号が生成される。また、この同期信号生成手段631で生成された同期信号は、イメージプロセッサ68にも出力され、イメージプロセッサ68は、この同期信号に基づいて、ビデオフレームメモリ67への表示ラスタデータの描き込みのタイミングを設定している。
次に、前述した構成の画像音声出力システム1の作用を図7及び図8に示されるフローチャートに基づいて説明する。
(3-1)コンピュータ2側の処理
まず、グラフィック画像データ取得手段221は、現在表示中のグラフィック画像をキャプチャし、これをグラフィックデータとして取得する(処理S1)。
次に、グラフィック画像データ取得手段221の差分データ生成部221Aは、前回キャプチャされたグラフィック画像と、今回キャプチャされたグラフィック画像とに基づいて、更新された部分となる差分データの生成を行う(処理S2)。これと並行して、動画像表示領域生成手段222は、キャプチャされたグラフィック画像に基づいて、動画像表示領域の画面上のX−Y位置、大きさ、解像度等の動画像表示領域データを生成する(処理S3)。
動画像データ取得手段223は、分離された動画像データをラスタライズ処理することなく取得する(処理S5)。次に、動画像データ解析手段224は、取得された動画像データのシーケンスヘッダ及びシーケンスエクステンション(MPEG2の場合)等の部分から、動画像データのフレームレート、ビットレート、アスペクト比、解像度等の諸情報を画像属性情報として取得する(処理S6)。
上記の各種情報が得られたら、データ多重化手段225は、これらのデータを前述したMPEG−TSやMPEG−PSなどの形式で多重化する(処理S7)。多重化されたデータは、チップセット21が有するUSBコントローラとしての機能により符号化され、USBポート27からUSBケーブル4を介してプロジェクタ3に送信出力される(処理S8)。
これと並行して処理S6において、動画像データ解析手段224は、ビットレート、解像度等の解析結果を出力し、この解析結果は、音声出力調整時間生成手段227で取得される(処理S11)。
音声出力調整時間生成手段227は、取得された解析結果に基づいて、LUT229内を探索し(処理S12)、解析結果に適合するレベル及びプロファイル、あるいはビットレート及び解像度に応じた再生時間を抽出する。次に、音声出力調整時間生成手段227は、取得された再生時間に基づいて、音声出力調整時間を生成し、生成した音声出力調整時間を音声出力同期調整手段228に出力する(処理S13)。
D/Aコンバータ282は、遅延バッファ281から入力された音声データを順次アナログ変換し、アンプ283によって増幅し、スピーカ9から音声を出力させる(処理S15)。
コンピュータ2からの多重化されたデータは、USBポート61及びUSBコントローラ62で受信され(処理S16)、さらにUSBコントローラ62により画像処理手段6で処理可能な形式に復号され、データ逆多重化手段661に出力される。
データ逆多重化手段661は、多重化されたデータを個別のグラフィックデータ、動画像表示領域データ、動画像データ、及び画像属性情報に分離する(処理S17)。
デコーダ662は、分離されたグラフィックデータを差分データとして取得し(処理S18)、更新前のグラフィック画像に基づいて、差分データの部分のみを描き替えたグラフィックデータを更新する(処理S19)。
デコーダ662によるグラフィックデータのラスタライズ、ビデオラスタライザ65によるラスタライズが終了したら、イメージプロセッサ68は、各々のラスタライズされたデータを合成して、表示ラスタデータを生成する(処理S23)。さらに、イメージプロセッサ68は、液晶パネル53に固有の画像補正処理を行って、パネルコントローラ69による走査によって液晶パネル53上に光学像を形成し、投射レンズ55を介してスクリーン上に投射画像を表示させる(処理S24)。
さらに、音声出力調整時間生成手段227が動画像データ解析手段224による解析結果に基づいて、LUT229内を探索して、音声出力調整時間を生成しているので、簡単な処理で音声出力調整時間を生成することができる。
次に、本発明の第2実施形態について説明する。尚、以下の説明では、既に説明した部分と同一の部分については、同一符号を付してその説明を省略する。
前述の第1実施形態では、図3に示されるように、音声出力同期調整手段228は、音声出力調整時間による音声データ出力のタイミングを、サウンドカード28を構成する遅延バッファ281に記憶された音声データの出力を遅延させることにより調整していた。
オーディオデコーダ230で復号された音声データを出力する際、サウンドカード28への出力のタイミングを、音声出力調整時間に基づいて調整している点が相違する。
すなわち、第2実施形態に係る音声出力同期調整手段428は、図9に示されるように、オーディオデコーダ230で復号された音声データを、CPU22に付帯するメインメモリ23に格納した段階で、音声出力調整時間生成手段227で生成された音声出力調整時間に応じて遅延させてサウンドカード28に出力するように構成されている。
このような本実施形態によっても、前述した第1実施形態で述べた作用及び効果と同様の作用及び効果を享受することができる。
次に、本発明の第3実施形態について説明する。
前述の第1実施形態では、音声出力調整時間生成手段227による音声出力調整時間の生成は、専ら動画像データ解析手段224で解析された解析結果に基づいたものであった。
これに対して、第3実施形態に係る画像音声出力システムは、図10及び図11に示されるように、プロジェクタの画像処理手段7側で表示設定を変更した際に、プロジェクタの画像処理手段7からその設定情報がコンピュータ8側に出力され、コンピュータ8側ではこの変更された設定情報による画像処理に要する時間を加味して音声出力調整時間を生成している点が相違する。
操作パネル71は、プロジェクタの外装ケースに設けられた複数のスイッチ群を備えて構成され、視聴者はこの操作パネル71を操作したり、USBケーブルを介して接続されるコンピュータを操作することにより、プロジェクタの投射画像を好みの色調に変化させたり、入力された動画像データの走査形式、例えば、インターレース形式を所望の方式でプログレッシブ形式に変換したり、スクリーン上に投射された台形状の投射画像を長方形状の適切な投射画像に変更したりすることが可能となる。
設定情報送信手段73は、表示状態設定手段72で設定された設定情報を取得し、USBコントローラ62及びUSBポート61を介してコンピュータ8に送信出力する部分である。
処理時間算出手段81は、受信された設定情報に基づいて、各処理に応じた処理時間を算出する部分であり、本実施形態では図示を略したが、LUT229内に格納された設定処理に応じた処理時間が記憶されたLUTを参照することにより、各処理により必要な処理時間を算出する。
音声出力調整時間生成手段82は、第1実施形態と同様に、動画像データ解析手段224の解析結果、及び処理時間算出手段81で算出された処理時間に基づいて、音声出力調整時間を生成する。
以下、この音声出力調整時間生成手段82による音声出力調整時間の生成手順について、図12に示される模式図について説明する。
一方、処理時間算出手段81は、プロジェクタ側から送信された設定情報に基づいて、どのような処理が行われたかを区分し、各設定のステージに応じた処理時間を算出する(処理S26〜処理S28)。例えば、本実施形態では3段階の設定処理が行われているが、Stage1の処理としてIP変換、Stage2の処理としてはスケーリング、Stage3の処理としてはγ補正等が考えられる。
音声出力調整時間生成手段82は、処理S25で取得されたPTSvにこの積算見積積算時間ΔTを加えて、設定処理を加味した際のあるフレームの出力時刻PTSv’を算出する(処理S30)。
また、本実施形態では、設定処理は処理S26〜処理S28という3段階で説明していたが、これに限らず、より多くの処理も各処理の処理時間を加算することによって、増加させることも可能である。
なお、本発明は前述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、前記実施形態では、画像音声データ出力装置としてコンピュータ2、8を採用していたが、本発明はこれに限られない。すなわち、画像音声データ出力装置として、DVD再生装置やゲーム機器等の装置を採用してもよい。
また、前記実施形態では、画像表示装置として液晶プロジェクタ3を採用していたが、本発明はこれに限られず、DLP等の液晶以外の光変調装置を備えたプロジェクタや、バックライト形式の液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等のディスプレイに本発明を採用してもよい。
その他、本発明の実施の際の具体的な構造及び形状等は、本発明の目的を達成できる範囲で他の構造等としてもよい。
Claims (8)
- 画像音声データを出力可能な画像音声データ出力装置と、この画像音声データ出力装置と伝送路を介して接続され、前記画像音声データ出力装置から出力された画像データに基づいて、画像を表示する画像表示装置とを備えた画像音声出力システムであって、
前記画像音声データ出力装置は、
前記画像音声データに含まれる画像データ及び音声データを分離する画像音声データ分離手段と、
分離された前記画像データを、前記伝送路を介して前記画像表示装置に送信する画像データ送信手段と、
分離された前記音声データを出力する音声データ出力手段と、
前記画像データ送信手段により前記画像表示装置に送信し、該画像表示装置で再生させようとする画像データを解析し、前記解析の結果を取得する画像データ解析手段と、
この画像データ解析手段の解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成する音声出力調整時間生成手段と、
この音声出力調整時間生成手段により生成された音声出力調整時間に基づいて、前記画像表示装置で表示される画像再生のタイミングに同期して、分離された前記音声データによる音声出力を調整する音声出力同期調整手段とを備え、
前記画像表示装置は、
前記画像音声データ出力装置から送信された画像データを受信する画像データ受信手段と、
この画像データ受信手段で受信された画像データの再生処理を行う画像処理手段と、
この画像処理手段により処理された画像データに基づいて、画像を形成する画像形成手段とを備えていることを特徴とする画像音声出力システム。 - 請求項1に記載の画像音声出力システムにおいて、
前記画像データ出力装置は、
前記画像データの解像度とビットレートのいずれか、又はその両者の組合せに応じた再生時間を記録したルックアップテーブルを有する再生時間記録手段を備え、
前記音声出力調整時間生成手段は、前記再生時間記録手段に記録されたルックアップテーブルを参照して音声出力調整時間を生成することを特徴とする画像音声出力システム。 - 請求項1又は請求項2に記載の画像音声出力システムにおいて、
前記伝送路は、双方向通信可能であり、
前記画像表示装置は、
前記画像形成手段により形成される画像の表示状態を設定する表示状態設定手段と、
この表示状態設定手段により設定された設定情報を、前記画像音声データ出力装置に前記伝送路を介して送信する設定情報送信手段とを備え、
前記画像処理手段は、前記表示状態設定手段により設定された設定情報に基づいて、画像データの再生処理を行い、
前記画像音声データ出力装置は、
前記画像表示装置から送信された設定情報を受信する設定情報受信手段と、
この設定情報受信手段で受信された設定情報に基づいて、前記画像表示装置の画像処理手段による画像処理時間を算出する処理時間算出手段とを備え、
前記音声出力調整時間生成手段は、この処理時間算出手段で算出された画像処理時間を加味して音声出力調整時間を生成することを特徴とする画像音声出力システム。 - 画像音声データが出力可能とされ、双方向通信可能な伝送路を介して接続された画像表示装置に画像データを出力して画像を表示させる画像音声データ出力装置であって、
前記画像音声データに含まれる画像データ及び音声データを分離する画像音声データ分離手段と、
分離された前記画像データを、前記伝送路を介して前記画像表示装置に送信する画像データ送信手段と、
分離された前記音声データを出力する音声データ出力手段と、
前記画像データ送信手段により前記画像表示装置に送信し、該画像表示装置で再生させようとする画像データを解析し、前記解析の結果を取得する画像データ解析手段と、
この画像データ解析手段の解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成する音声出力調整時間生成手段と、
この音声出力調整時間生成手段により生成された音声出力調整時間に基づいて、前記画像表示装置で表示される画像再生のタイミングに同期して、分離された前記音声データ出力手段による音声出力を調整する音声出力同期調整手段とを備えていることを特徴とする画像音声データ出力装置。 - 画像データ及び音声データが出力可能とされ、伝送路を介して接続された画像表示装置に前記画像データを出力して画像を表示させるために、
前記画像音声データに含まれる画像データ及び音声データを分離する画像音声データ分離手段と、
分離された前記画像データを、前記伝送路を介して前記画像表示装置に送信する画像データ送信手段と、
分離された前記音声データを出力する音声データ出力手段と、
前記画像データ送信手段により前記画像表示装置に送信し、該画像表示装置で再生させようとする画像データを解析し、前記解析の結果を取得する画像データ解析手段と、
この画像データ解析手段の解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成する音声出力調整時間生成手段と、
この音声出力調整時間生成手段により生成された音声出力調整時間に基づいて、前記画像表示装置で表示される画像再生のタイミングに同期して、分離された前記音声データによる音声出力を調整する音声出力同期調整手段とを備えた画像音声データ出力装置に用いられ、前記音声出力調整時間生成手段による音声出力調整時間生成用のデータが記録されたコンピュータ読み取り可能な記録媒体であって、
前記画像データの解像度とビットレートのいずれか、又はその両者の組合せに応じた再生時間を記録したルックアップテーブルとして記録したことを特徴とする記録媒体。 - 画像音声データが出力可能とされ、伝送路を介して接続された画像表示装置に前記画像データを出力して画像を表示させる画像音声データ出力装置上で実行される音声処理プログラムであって、
前記画像音声データを画像データ及び音声データに分離するステップと、
前記画像表示装置で再生させようとする画像データを解析するステップと、
解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成するステップと、
生成された音声出力調整時間に基づいて、前記音声データによる音声出力を調整するステップとを前記画像データ出力装置に実行させることを特徴とする音声処理プログラム。 - 請求項6に記載の音声処理プログラムにおいて、
前記画像表示装置による再生時間の算出に際して用いられ、前記画像データの解像度とビットレートのいずれか、又はその両者の組合せに応じた再生時間データが担持されていることを特徴とする音声処理プログラム。 - 請求項6又は請求項7に記載の音声処理プログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005271035A JP4375313B2 (ja) | 2005-09-16 | 2005-09-16 | 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体 |
US11/531,482 US7729593B2 (en) | 2005-09-16 | 2006-09-13 | Image and sound output system, image and sound data output device, and recording medium |
CNB2006101541895A CN100505889C (zh) | 2005-09-16 | 2006-09-18 | 图像声音输出系统、装置、声音处理程序和记录介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005271035A JP4375313B2 (ja) | 2005-09-16 | 2005-09-16 | 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007082155A true JP2007082155A (ja) | 2007-03-29 |
JP4375313B2 JP4375313B2 (ja) | 2009-12-02 |
Family
ID=37879182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005271035A Expired - Fee Related JP4375313B2 (ja) | 2005-09-16 | 2005-09-16 | 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7729593B2 (ja) |
JP (1) | JP4375313B2 (ja) |
CN (1) | CN100505889C (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009157078A1 (ja) * | 2008-06-26 | 2009-12-30 | 富士通マイクロエレクトロニクス株式会社 | 映像音声データ出力装置および映像音声データ出力方法 |
JP2010541354A (ja) | 2007-09-28 | 2010-12-24 | トムソン ライセンシング | 他の装置に送信された受信ストリームを同期可能な通信技術 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4991129B2 (ja) * | 2005-07-19 | 2012-08-01 | Necディスプレイソリューションズ株式会社 | 映像音声再生装置および映像音声再生方法 |
JP2011022727A (ja) * | 2009-07-14 | 2011-02-03 | Sony Corp | 画像処理装置および画像処理方法 |
JP5688255B2 (ja) * | 2010-09-15 | 2015-03-25 | 日立マクセル株式会社 | 映像処理装置、表示装置及び映像処理方法 |
TWI411233B (zh) * | 2010-12-24 | 2013-10-01 | Univ Nat Chiao Tung | 數位類比轉換裝置 |
CN105224500B (zh) * | 2015-10-09 | 2017-12-08 | 四川特伦特科技股份有限公司 | 一种利用多核处理器的vpx背板 |
US10027994B2 (en) * | 2016-03-23 | 2018-07-17 | Dts, Inc. | Interactive audio metadata handling |
KR20180068069A (ko) * | 2016-12-13 | 2018-06-21 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
CN110545411B (zh) * | 2018-05-29 | 2021-06-15 | 中强光电股份有限公司 | 投影机、投影系统以及其传输延迟的侦测方法 |
CN109600564B (zh) * | 2018-08-01 | 2020-06-02 | 北京微播视界科技有限公司 | 用于确定时间戳的方法和装置 |
US20220150566A1 (en) * | 2020-11-06 | 2022-05-12 | Telstar USA LLC | Video Display System |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3500667B2 (ja) | 1993-08-18 | 2004-02-23 | ソニー株式会社 | テレビ会議システムおよび同期方法 |
US6587641B1 (en) * | 1998-07-21 | 2003-07-01 | Matsushita Electric Industrial Co., Ltd. | Apparatus for simultaneously writing and outputting data stream |
GB0000874D0 (en) * | 2000-01-14 | 2000-03-08 | Koninkl Philips Electronics Nv | Latency handling for interconnected devices |
JP2002290932A (ja) | 2001-03-27 | 2002-10-04 | Toshiba Corp | デジタル放送受信装置とその制御方法 |
JP2002344898A (ja) * | 2001-05-17 | 2002-11-29 | Pioneer Electronic Corp | 映像表示装置、音声調整装置及び映像音声出力装置、並びに映像音声同期方法 |
JP4048870B2 (ja) | 2002-08-06 | 2008-02-20 | セイコーエプソン株式会社 | プロジェクタシステム |
JP4256710B2 (ja) | 2003-04-16 | 2009-04-22 | パナソニック株式会社 | Av伝送方法及びav伝送装置、並びにav送信装置及びav受信装置 |
-
2005
- 2005-09-16 JP JP2005271035A patent/JP4375313B2/ja not_active Expired - Fee Related
-
2006
- 2006-09-13 US US11/531,482 patent/US7729593B2/en not_active Expired - Fee Related
- 2006-09-18 CN CNB2006101541895A patent/CN100505889C/zh not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010541354A (ja) | 2007-09-28 | 2010-12-24 | トムソン ライセンシング | 他の装置に送信された受信ストリームを同期可能な通信技術 |
WO2009157078A1 (ja) * | 2008-06-26 | 2009-12-30 | 富士通マイクロエレクトロニクス株式会社 | 映像音声データ出力装置および映像音声データ出力方法 |
JP5212473B2 (ja) * | 2008-06-26 | 2013-06-19 | 富士通セミコンダクター株式会社 | 映像音声データ出力装置および映像音声データ出力方法 |
US8842218B2 (en) | 2008-06-26 | 2014-09-23 | Fujitsu Semiconductor Limited | Video/audio data output device and method |
Also Published As
Publication number | Publication date |
---|---|
JP4375313B2 (ja) | 2009-12-02 |
CN100505889C (zh) | 2009-06-24 |
US7729593B2 (en) | 2010-06-01 |
CN1933604A (zh) | 2007-03-21 |
US20070065112A1 (en) | 2007-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4375313B2 (ja) | 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体 | |
US8063894B2 (en) | Image display system, image display device, and image data output device | |
JP6671022B2 (ja) | 表示装置、表示方法及びコンピュータプログラム | |
JP6558599B2 (ja) | 再生装置、再生方法、及び、コンピュータプログラム | |
JP6355521B2 (ja) | デジタル放送受信装置及び方法 | |
US7453522B2 (en) | Video data processing apparatus | |
US8810563B2 (en) | Transmitting apparatus, stereoscopic image data transmitting method, receiving apparatus, and stereoscopic image data receiving method | |
WO2019069482A1 (ja) | 映像表示システム及び映像表示方法 | |
JP2007258872A (ja) | 再生装置および再生装置の再生方法 | |
JP3791904B2 (ja) | マルチディスプレイ装置 | |
WO2018235338A1 (ja) | 映像表示装置及び映像表示方法 | |
JP2010263382A (ja) | 送信装置、立体画像データの送信方法、受信装置、立体画像データの受信方法、中継装置および立体画像データの中継方法 | |
WO2019008819A1 (ja) | 映像表示装置及び映像表示方法 | |
US8593575B2 (en) | Video display apparatus for shortened-delay processing of a video signal and video processing method | |
JP2009296081A (ja) | 映像再生装置 | |
JP2020501387A (ja) | ディスプレイ装置及びその制御方法 | |
JP2020092444A (ja) | 表示装置、表示方法及びコンピュータプログラム | |
JP2011158915A (ja) | 画像表示システム、画像表示装置、画像表示装置の制御方法、及び画像表示システムによる画像表示方法 | |
JP6868797B2 (ja) | 変換方法及び変換装置 | |
JP2002185849A (ja) | 出力装置、及びテレシネ表示方法 | |
JP5538604B2 (ja) | 立体画像データ送信方法および立体画像データ送信装置 | |
JP5583297B2 (ja) | 立体画像データ受信方法および立体画像データ受信装置 | |
JP5577477B1 (ja) | 立体画像データ受信方法および立体画像データ受信装置 | |
JP2006180091A (ja) | コンテンツ合成装置及び方法 | |
JP5577476B1 (ja) | 立体画像データ送信方法および立体画像データ送信装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20070704 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20070813 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071012 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090818 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090831 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4375313 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120918 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130918 Year of fee payment: 4 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |