JP2007082155A - 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体 - Google Patents

画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体 Download PDF

Info

Publication number
JP2007082155A
JP2007082155A JP2005271035A JP2005271035A JP2007082155A JP 2007082155 A JP2007082155 A JP 2007082155A JP 2005271035 A JP2005271035 A JP 2005271035A JP 2005271035 A JP2005271035 A JP 2005271035A JP 2007082155 A JP2007082155 A JP 2007082155A
Authority
JP
Japan
Prior art keywords
image
data
audio
image data
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005271035A
Other languages
English (en)
Other versions
JP4375313B2 (ja
Inventor
Norihiko Yamada
紀彦 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005271035A priority Critical patent/JP4375313B2/ja
Priority to US11/531,482 priority patent/US7729593B2/en
Priority to CNB2006101541895A priority patent/CN100505889C/zh
Publication of JP2007082155A publication Critical patent/JP2007082155A/ja
Application granted granted Critical
Publication of JP4375313B2 publication Critical patent/JP4375313B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • H04N7/54Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal the signals being synchronous
    • H04N7/56Synchronising systems therefor

Abstract


【課題】 画像音声データ出力装置に接続される音声出力装置に特別なデバイス等を実装することなく、画像出力及び音声出力のタイミングを確保することのできる画像音声出力システムを提供すること。
【解決手段】画像音声出力システムを構成する画像音声データ出力装置は、画像音声データに含まれる画像データ及び音声データを分離する手段226と、分離された画像データを、伝送路を介して画像表示装置に送信する手段21、27と、画像表示装置側で再生させようとする画像データを解析する手段224と、解析結果に基づいて、画像データを再生する時間に応じた音声出力調整時間を生成する手段227と、生成された音声出力調整時間に基づいて、画像再生のタイミングに同期して音声出力を調整する手段228とを備えている。
【選択図】図3

Description

本発明は、画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体に関する。
近年、コンピュータの画像処理の高機能化に伴い、従来画像表示装置で行っていた画像処理をコンピュータで処理させ、処理後の画像処理データをデジタル形式で画像表示装置側に伝送し、プロジェクタ等の画像表示装置により画像を表示させるシステムが提案されている(例えば、特許文献1参照)。
このようなシステムでは、伝送路としてUSBやIEEE1394等のシリアル伝送のインターフェースが用いられ、これらのインターフェース接続用のケーブルは、従来の一般的なRGBビデオケーブル等と比較すると、細くて取り回しが楽であることから、今後このようなインターフェースで接続される形態が増加することが予想される。
ところで、プロジェクタ等の画像表示装置は、近年、ホームシアター等の用途で用いられることが多くなり、上述したコンピュータで画像処理を行った画像データを、画像表示装置に出力して表示させることがあり、画像表示装置上でビデオ画像やゲーム画像等の動画像を表示し、これらの動画像に伴う音声をコンピュータ等のデータ出力装置側で再生出力することが考えられる。
この場合、動画像データは、画像表示装置とデータ出力装置との間のシリアル伝送路を介して送受信されるが、このとき動画像データは伝送のために適当な形式に符号化されて伝送されることとなる。
符号化されるということは、表示装置側ではそれをもとの動画像に復元するための復号処理が必要であるということであり、伝送においては符号化データを適切に伝送するためのバッファ処理が、画像表示装置及びデータ出力装置のどちらにおいても必要であるということである。
このバッファ処理と復号処理、さらには画像の走査・形成には、必ず画像表示装置固有の処理時間が必要となるので、データ出力装置が動画像データを画像表示装置側に伝送すると同時に、その動画像に付随する音声を再生出力すると、音声データの再生出力が動画像の再生出力よりも早くなされてしまい、動画像出力と音声出力のタイミング、いわゆるリップシンクが一致せず、観察者に違和感を与えることとなる。
このような課題に対して、映像表示装置に固有の遅延要素に基づく遅延時間情報、すなわち、映像のデータが受信されてから表示されるに至るまでに要する時間の情報を、映像音声出力装置又はアンプ等の音声調整装置に送出し、この遅延時間情報に基づいて各部の遅延バッファを適切に動作させることで対応することが考えられる(例えば、特許文献2参照)。
特開2004−69996号公報(図1) 特開2002−344898号公報(図4)
しかしながら、前記特許文献2に記載された技術では、遅延時間情報をやりとりするために機器間で所定の通信処理を行うことが必要であり、この通信処理を行う仕組みとなる通信処理プログラムを各機器に実装しなければならず、各機器の開発コスト、製造コストが増加してしまうという問題がある。
本発明の目的は、画像音声データ出力装置に接続される画像表示装置に特別な通信処理プログラム等を実装することなく、画像出力及び音声出力のタイミングを確保することのできる画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及びこの音声処理プログラムを記録した記録媒体を提供することにある。
本発明は、画像音声データを出力可能な画像音声データ出力装置と、この画像音声データ出力装置と伝送路を介して接続され、前記画像音声データ出力装置から出力された画像データに基づいて、画像を表示する画像表示装置とを備えた画像音声出力システムであって、
前記画像音声データ出力装置は、
前記画像音声データに含まれる画像データ及び音声データを分離する画像音声データ分離手段と、
分離された前記画像データを、前記伝送路を介して前記画像表示装置に送信する画像データ送信手段と、
分離された前記音声データを出力する音声データ出力手段と、
前記画像データ送信手段により前記画像表示装置に送信し、該画像表示装置で再生させようとする画像データを解析し、前記解析の結果を取得する画像データ解析手段と、
この画像データ解析手段の解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成する音声出力調整時間生成手段と、
この音声出力調整時間生成手段により生成された音声出力調整時間に基づいて、前記画像表示装置で表示される画像再生のタイミングに同期して、分離された前記音声データによる音声出力を調整する音声出力同期調整手段とを備え、
前記画像表示装置は、
前記画像音声データ出力装置から送信された画像データを受信する画像データ受信手段と、
この画像データ受信手段で受信された画像データの再生処理を行う画像処理手段と、
この画像処理手段により処理された画像データに基づいて、画像を形成する画像形成手段とを備えていることを特徴とする画像音声出力システム。
ここで、画像データとしては、動画像圧縮データが考えられ、例えば、MPEG2、MPEG4、MotionJPEG等の圧縮形式で圧縮された動画像データが考えられる。
また、再生時間算出手段による再生時間の算出は、例えば、上記動画像データ形式に応じた一定の関数が設定され、これに基づいて算出してもよく、詳しくは後述するが圧縮形式に応じた再生時間が記録されたルックアップテーブルのようなものを参照して算出しても良い。
この発明によれば、音声出力同期調整手段により、画像音声データ出力装置側の内部処理で画像出力及び音声出力の同期が取られるので、例えば、サウンドボード及びこれに接続されるスピーカ等の音声データ出力装置で遅延時間情報を処理することなく、画像出力と音声出力のタイミングを一致させることができる。従って、画像表示装置等の各機器に遅延時間情報を処理するためのプログラム等の仕組みを実装する必要がなく、各機器の開発コスト、製造コストの低減を図ることができる。
また、画像データ解析手段により、画像データの圧縮形式に応じて音声出力調整時間が生成されるため、画像データの圧縮形式に応じて最適なタイミングで音声出力させることができる。
本発明では、
前記画像データ出力装置は、
前記画像データの解像度とビットレートのいずれか、又はその両者の組合せに応じた再生時間を記録したルックアップテーブルを有する再生時間記録手段を備え、
前記音声出力調整時間生成手段は、前記再生時間記録手段に記録されたルックアップテーブルを参照して音声出力調整時間を生成するのが好ましい。
この発明によれば、画像表示装置での再生時間に大きく影響される動画像の解像度及びビットレート等に応じた再生時間がルックアップテーブル上に記録されているため、音声出力調整時間生成手段は、画像データ解析手段で取得された画像データの形式に基づいて、ルックアップテーブルを参照して簡単に音声出力調整時間を生成することができる。
本発明では、
前記伝送路は、双方向通信可能であり、
前記画像表示装置は、
前記画像形成手段により形成される画像の表示状態を設定する表示状態設定手段と、
この表示状態設定手段により設定された設定情報を、前記画像音声データ出力装置に前記伝送路を介して送信する設定情報送信手段とを備え、
前記画像処理手段は、前記表示状態設定手段により設定された設定情報に基づいて、画像データの再生処理を行い、
前記画像音声データ出力装置は、
前記画像表示装置から送信された設定情報を受信する設定情報受信手段と、
この設定情報受信手段で受信された設定情報に基づいて、前記画像表示装置の画像処理手段による画像処理時間を算出する処理時間算出手段とを備え、
前記音声出力調整時間生成手段は、この処理時間算出手段で算出された画像処理時間を加味して音声出力調整時間を生成するのが好ましい。
ここで、画像表示装置側での表示状態設定手段による表示状態の設定としては、例えば、IP(Interlace to Progressive)変換、スケーリング、γ補正等が考えられる。
この発明によれば、画像表示装置が設定情報送信手段を備え、画像音声データ処理装置が設定情報受信手段、処理時間算出手段を備えていることにより、画像表示装置側で表示状態の設定を変更した際に、音声出力調整時間生成手段は、この画像処理の時間をも加味して音声出力調整時間を生成することができるので、より画像出力のタイミングに近い状態で音声出力させることができる。
本発明の画像音声出力システムを構成するサブコンビネーション発明としては、画像データ出力装置があり、具体的には、以下の構成を具備する。
本発明の画像音声データ出力装置は、
画像音声データが出力可能とされ、双方向通信可能な伝送路を介して接続された画像表示装置に前記画像データを出力して画像を表示させる画像音声データ出力装置であって、
前記画像音声データに含まれる画像データ及び音声データを分離する画像音声データ分離手段と、
分離された前記画像データを、前記伝送路を介して前記画像表示装置に送信する画像データ送信手段と、
分離された前記音声データを出力する音声データ出力手段と、
前記画像データ送信手段により前記画像表示装置に送信し、該画像表示装置で再生させようとする画像データを解析し、前記解析の結果を取得する画像データ解析手段と、
この画像データ解析手段の解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成する音声出力調整時間生成手段と、
この音声出力調整時間生成手段により生成された音声出力調整時間に基づいて、前記画像表示装置で表示される画像再生のタイミングに同期して、分離された前記音声データ出力手段による音声出力を調整する音声出力同期調整手段とを備えていることを特徴とする。
また、本発明のサブコンビネーション発明としてのコンピュータ読み取り可能な記録媒体は、
画像データ及び音声データが出力可能とされ、伝送路を介して接続された画像表示装置に前記画像データを出力して画像を表示させるために、
前記画像音声データに含まれる画像データ及び音声データを分離する画像音声データ分離手段と、
分離された前記画像データを、前記伝送路を介して前記画像表示装置に送信する画像データ送信手段と、
分離された前記音声データを出力する音声データ出力手段と、
前記画像データ送信手段により前記画像表示装置に送信し、該画像表示装置で再生させようとする画像データを解析し、前記解析の結果を取得する画像データ解析手段と、
この画像データ解析手段の解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成する音声出力調整時間生成手段と、
この音声出力調整時間生成手段により生成された音声出力調整時間に基づいて、前記画像表示装置で表示される画像再生のタイミングに同期して、分離された前記音声データ出力手段による音声出力を調整する音声出力同期調整手段とを備えた画像音声データ出力装置に用いられ、前記音声出力調整時間生成手段による音声出力調整時間生成用のデータが記録されたコンピュータ読み取り可能な記録媒体であって、
前記画像データの解像度とビットレートのいずれか、又はその両者の組合せに応じた再生時間を記録したルックアップテーブルとして記録したことを特徴とする。
さらに、サブコンビネーション発明としては、コンピュータ等の画像音声データ出力装置に、前記各機能的手段として機能させる音声処理プログラムとすることも可能であり、この音声処理プログラムを記録した記録媒体としても構成することができる。
また、音声処理プログラム中に前記画像データの解像度とビットレートのいずれか、又はその両者の組合せに応じた再生時間データが担持されたものとしても構成することができる。
以下、本発明の実施の一形態を図面に基づいて説明する。
■1.第1実施形態
図1には、本発明の第1実施形態に係る画像音声出力システム1が示されており、この画像音声出力システム1は、画像データ出力装置としてのコンピュータ2、画像表示装置としてのプロジェクタ3、及びこれらを接続する伝送路としてのUSBケーブル4を備えて構成され、コンピュータ2から出力される画像データは、USBケーブル4を介してプロジェクタ3に入力され、コンピュータ2のローカルディスプレイ上の画像をスクリーン上に投射画像として表示できるシステムである。また、コンピュータ2には、内蔵されるサウンドカードに接続されるスピーカ9が設けられ、このスピーカ9は、プロジェクタ3からの投射画像中の動画像に応じて音声出力を行う。
USBケーブル4は、USB1.1、USB2.0等の規格に準拠したケーブルであり、接続機器及び被接続機器間で双方向通信が行うことができる。
(1)コンピュータ2の構造
画像データ出力装置としてのコンピュータ2は、図2に示されるように、マザーボード上に設けられたチップセット21と、バスラインを介して接続されるCPU22、メインメモリ23、ビデオカード24、光ディスク装置25、ハードディスク装置26、及びUSBポート27、及びサウンドカード28とを備えて構成される。
CPU22は、メインメモリ23を作業領域として種々のプログラムを実行する演算処理装置として機能する部分であり、図2では図示を略したが、オペレーティングシステム等を実行することにより生成されるグラフィックデータ等もこのCPU22において生成される。
ビデオカード24は、コンピュータ2に入力された画像データの画像処理を行って、コンピュータ2に付帯するローカルディスプレイに画像表示を行う部分であり、このビデオカード24は、図示を略したが、ローカルディスプレイへの出力用の画像処理を行うプロセッサと、処理すべき画像データを記憶するビデオメモリ等を備えている。尚、本実施形態では、このようなローカルディスプレイを備えた構成としているが、コンピュータ2は必ずしもローカルディスプレイを備えている必要はない。また、このビデオカード24は、必ずしも別体のデバイスである必要はなく、チップセット21に内蔵のグラフィック機能であってもよい。
光ディスク装置25は、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクメディアを再生する装置であり、圧縮された動画像データを記憶した光ディスクを挿入すると、光ディスク装置25は、光ディスクに記憶された動画像データを再生し、チップセット21を介して演算処理装置22に付帯するメインメモリ23に動画像データを出力する。
ハードディスク装置26は、CPU22で実行されるプログラムやコンピュータ2を操作することにより生成したデータを記憶する記憶装置であり、このハードディスク装置26にも画像データを記憶可能であり、CPU22上で動作するプログラムの要求に応じて記憶された画像データを出力することができる。
USBポート27は、前述したUSBケーブル4が接続されるコンピュータ2側の端子であり、このUSBポート27の入出力制御は、前述したチップセット21が行い、これらが本発明にいうデータ送信手段として機能する。
サウンドカード28は、詳しくは後述するが、CPU22で復号されたデジタル形式の音声データをアナログ形式の音声信号に変換し、増幅してスピーカ9から音声出力させる部分である。このサウンドカード28もまた、必ずしも別体のデバイスである必要はなく、チップセット21に内蔵のサウンド処理機能であってもよい。
前述したCPU22により入力されるグラフィック画像データ、及びストリーム出力される画像音声データの画像音声処理を行う場合、図3に示されるような機能的手段を備えた画像音声処理プログラムがCPU22上で実行される。具体的には、前述したCPU22は、グラフィック画像データ取得手段221、動画像表示領域生成手段222、動画像データ取得手段223、動画像データ解析手段224、データ多重化手段225、画像音声分離手段226、音声出力調整時間生成手段227、音声出力同期調整手段228、LUT(Look Up Table)229、及びオーディオデコーダ230を備えて構成される。
グラフィック画像データ取得手段221は、オペレーティングシステム上で動作するグラフィックデータ生成手段220によって生成されるグラフィックデータを取得する部分であり、差分データ生成部221A及びグラフィックデータ取得部221Bを備えて構成される。
差分データ生成部221Aは、例えば、コンピュータ2のリフレッシュレートの周期で更新されるグラフィック画像の差分データを生成する部分であり、例えば、更新前後の画像をそれぞれキャプチャしておき、両者を比較して変更された部分を差分データとして生成する。
グラフィックデータ取得部221Bは、差分データ生成部221Aで生成された差分データをグラフィックデータとして取得し、取得されたグラフィックデータを、後述するデータ多重化手段225に出力する部分である。
動画像表示領域生成手段222は、グラフィックデータに基づくグラフィック画面上のどの部分に動画像データを表示させるかを、入力されるグラフィックデータから取得する部分であり、例えば、グラフィック画像におけるどの位置にどの程度の大きさ及び解像度で動画像データを表示させるかの動画像表示領域データを生成する。
動画像データ取得手段223は、光ディスク装置25やハードディスク装置26からビットストリームとして順次入力される動画像データMPGを復号することなく、圧縮されたままの状態で動画像データとして取得する部分であり、動画像データの圧縮形式としては、MPEG2、MPEG4、MotionJPEG等が挙げられる。
動画像データ解析手段224は、入力された動画像データに含まれるフレームレート、ビットレート、アスペクト比、解像度等の画像表示用の画像属性情報を取得する部分であり、取得された画像属性情報は、例えば、画像データ伝送処理時のタイミング制御等に用いることができる。尚、例えば、動画像データの圧縮形式がMPEG2の場合には、これらの画像属性情報は、MPEG2ビットストリームのシーケンスヘッダやシーケンスエクステンション等に記録されており、動画像データ解析手段224は、このヘッダ部分に記録された情報を取得することにより、動画像の画像属性情報を取得することができる。
また、この動画像データ解析手段224は、上述した解析結果を後述する音声出力調整時間生成手段227に出力する。
データ多重化手段(Multiplexer)225は、グラフィック画像データ取得手段221で取得されたグラフィックデータ、動画像表示領域生成手段222で生成された動画像表示領域データ、及び動画像データ取得手段223で取得された動画像データを多重化する部分である。多重化の方法としては、ISO/IEC−13818−1で規定されている、MPEG−TS(Transport Stream)やMPEG−PS(Program Stream)などの方法をとることができる。この際、データ多重化手段225は、コンピュータ2上で設定された色味、γ値等の画像補正データも同様に多重化することも可能である。
そして、このデータ多重化手段225で多重化されたデータは、チップセット21を介して、シリアルデータとしてUSBポート27から送信出力される。
画像音声データ分離手段としての画像音声分離手段226は、入力された画像音声データに含まれる音声データを分離するデマルチプレクサとして機能する部分であり、本実施形態では、コンピュータ2で分離された画像データは復号されないが、音声データは復号されるようになっている。
音声出力調整時間生成手段227は、動画像データ解析手段224による動画像データの解析結果に基づいて、プロジェクタ3において動画像データが再生・表示されるまでの時間を算出し、音声出力を遅延させる音声出力調整時間を生成する部分であり、動画像データ解析手段224から入力された動画像データのビットレート、解像度等の画像属性情報に基づいて、LUT229を探索する。
再生時間記録手段としてのLUT229には、図4に示されるように、動画像データの圧縮形式に応じたLUT1、LUT2、LUT3…が格納されている。例えば、MPEG2に対応するLUT1の場合、行側に同規格におけるレベル、列側にプロファイルが格納され、各セルには、レベル及びプロファイルに応じた再生時間が格納されている。再生時間は、プロジェクタ3で行う動画像データの復号から表示ラスタデータの生成、さらには投射画像形成までの時間として格納されており、プロジェクタ3に応じて設定され、LUT229は、図3に示されるように、光ディスクやインターネットダウンロードによりドライバプログラムとして提供されるものである。
尚、このドライバプログラムは、要するにデータ参照できるような形であればよく、実行ファイルは初めからコンピュータ2が保有しており、この実行ファイルで参照可能なテーブル構造のデータであってもよく、また、内部にLUT229に関するデータを担持させた実行可能なプログラムであってもよい。
そして、音声出力調整時間生成手段227は、動画像データ解析手段224からの解析結果から、入力された動画像データのプロファイルやレベル、あるいはビットレートや解像度等の情報に基づいて、LUT229内を探索し、入力された動画像データに応じた再生時間を取得する。
再生時間が取得されたら、音声出力調整時間生成手段227は、取得された再生時間に基づいて、音声出力を遅延させる音声出力調整時間を生成する。生成された音声出力調整時間は、音声出力同期調整手段228に出力される。
音声出力同期調整手段228は、生成された音声出力調整時間に基づいて、プロジェクタ3による動画像形成のタイミングに応じて音声出力のタイミングを調整する部分であり、本実施形態では、後述するサウンドカード28を調整制御する。
オーディオデコーダ230は、画像音声分離手段226で分離された音声データを復号する部分であり、復号された音声データは、サウンドカード28に出力される。
音声出力手段としてのサウンドカード28は、前述したように、オーディオデコーダ230で復号されたデジタル形式の音声データをアナログ形式の音声信号に変換し、増幅してスピーカ9から音声出力させる部分であり、遅延バッファ281、D/Aコンバータ282、及びアンプ283を備えて構成される。
遅延バッファ281は、オーディオデコーダ230で復号された音声データを記憶し、音声出力同期調整手段228からの調整制御指令に基づいて、記憶された音声データを順次D/Aコンバータ282に出力する。
D/Aコンバータ282は、遅延バッファ281に格納されたデジタル形式の音声データをアナログ形式の音声信号に変換して出力する部分である。
アンプ283は、D/Aコンバータ282によりアナログ変換された音声信号を増幅し、スピーカ9に出力する部分であり、これにより復号された音声データが音声としてスピーカ9から出力されるようになる。
(2)プロジェクタ3の構造
画像表示装置としてのプロジェクタ3は、図5に示されるように、光学像を形成する光学エンジン5と、コンピュータ2から送信出力された画像データの画像処理を行う画像処理手段6とを備えて構成される。
光学エンジン5は、光源装置51、インテグレータ照明光学系52、画像形成手段としての液晶パネル53、色合成光学系54、及び投射レンズ55を備えて構成される。
光源装置51から射出された光束は、インテグレータ照明光学系52で均一な照明光となるように複数の部分光束に分割され、液晶パネル53によって入力される画像データに応じて光変調が行われ、色合成光学系54及び投射レンズ55を介してスクリーン上に投射される。尚、図4では図示を略したが、本実施形態に係るプロジェクタ3は、R、G、Bの色光毎に液晶パネル53によって光変調が行われるようになっていて、色合成光学系54は、色光毎に光変調が施されたR、G、Bの各光束を合成してカラー画像を合成するために設けられている。
画像処理手段6は、コンピュータ2から入力された画像データに基づいて、所定の画像処理を行い、光学エンジン5を構成する液晶パネル5の駆動制御を行うことにより、光学像を形成する部分であり、プロジェクタ3内に設けられる回路基板上に実装される種々の回路素子を備えて構成される。
具体的には、この画像処理手段6は、USBポート61、USBコントローラ62、CPU63、メインメモリ64、ビデオラスタライザ65、デマルチプレクサ66、ビデオフレームメモリ67、イメージプロセッサ68、及びパネルコントローラ69を備えて構成される。
USBポート61は、USBケーブル4が接続され、コンピュータ2からの画像データが入力される端子であり、USBコントローラ62は、このUSBポート61の入出力を制御する回路素子である。そして、このUSBポート61及びUSBコントローラ62が本発明にいうデータ受信手段を構成している。
CPU63は、メインメモリ64を作業領域として種々のプログラムを実行することにより、画像処理手段6の全体の制御を行う部分である。
ビデオラスタライザ65は、MPEG2等の形式の動画像データを復号し、動画像ラスタデータを生成する部分であり、このビデオラスタライザ65で復号された動画像ラスタデータは、後述するビデオフレームメモリ67に描き込まれる。
データ逆多重化手段としてのデマルチプレクサ66は、前述したコンピュータ2のデータ多重化手段225で多重化された各種データを分離する部分であり、詳しくは後述するが、分離された各種データは、他の回路素子で処理される。また、本実施形態におけるデマルチプレクサ66は、やはり詳しくは後述するが、差分画像レンダラーとしても機能している。
ビデオフレームメモリ67は、各種回路素子で形成された画像ラスタデータを蓄積し、最終的に液晶パネル53で表示させる表示ラスタデータを格納する部分であり、パネルコントローラ69による液晶パネル53のデータ書き込み周期に応じて、表示ラスタデータが描き替えられる。
ラスタデータ合成手段としてのイメージプロセッサ68は、デマルチプレクサ66で分離されたデータを最終的に合成して表示ラスタデータを生成する部分であり、液晶パネル53の色再現性を確保するために、グラフィックデータ及び動画像データの合成の他、液晶パネル53に固有のV−Tγ補正、輝度ムラ、色ムラ補正等の補正処理を行う。
走査手段としてのパネルコントローラ69は、液晶パネル53の駆動制御を行う回路素子であり、このパネルコントローラ69により液晶パネル53の画像表示領域中の各画素の駆動制御が行われる。尚、本実施形態の場合、前述したように三板式のプロジェクタ3であるため、図示を略したが、R、G、Bの色光毎の液晶パネル53に対してパネルコントローラ69はそれぞれ設けられている。
以上において、本実施形態では、画像処理手段6は複数の回路素子を組み合わせて構成しているが、画像処理手段のハードウエア構成は必ずしもこれに限らず、極めて高性能な演算処理装置であれば、1チップマイクロプロセッサによりすべての処理を行うことも可能である。
図6には、前述した画像処理手段6の機能ブロック構成が示されている。
前述した画像処理手段6の各回路素子のうち、デマルチプレクサ66は、データ逆多重化手段661及びデコーダ662を機能的手段として備え、ビデオラスタライザ65は、ディクリプタ651、ビデオデコーダ652、スケーラ653、及びYUV−RGBコンバータ654を機能的手段として備えている。また、CPU63は、画面更新の同期を取るために、同期信号生成手段631を機能的手段として備えている。
データ逆多重化手段661は、USBポート61を介して入力される多重化されたデータを、個別のデータに分離する部分であり、具体的には、グラフィックデータ、動画像データ、動画像表示領域データ、画像補正データ、及び画像属性情報に分離する。
そして、このデータ逆多重化手段661は、分離したグラフィックデータをデコーダ662に、動画像データをディクリプタ651に、動画像表示領域データをデコーダ662及びスケーラ653に、画像属性情報に含まれるフレームレート、コンピュータ2で設定されたリフレッシュレート、及び差分データとして入力されるグラフィックデータの画面更新周期等の情報を同期信号生成手段631に出力する。
デコーダ662は、前述した差分画像レンダラーとして機能し、データ逆多重化手段661から出力されたグラフィックデータが一画面を構成するグラフィック画像となるように変換を行う部分である。本実施形態では、前述したようにグラフィックデータとして差分データが送信されてくるので、デコーダ662は、更新前のグラフィックデータをメインメモリ64に保持しておき、新たな差分データとしてのグラフィックデータが入力されたら、差分データの部分だけデータの書き替えを行って新たなグラフィックデータを生成する。このようなデコーダ662で変換されたグラフィックデータは、RGBデータとしてイメージプロセッサ68に出力される。
また、このデコーダ662は、データ逆多重化手段661から出力された動画像表示領域データに基づいて、動画像を表示させるべき領域をグラフィック画像中に設定し、イメージプロセッサが動画像をオーバレイにより合成するためのカラーキーとして利用可能な色でその領域を塗りつぶす。そして、動画像が表示される部分以外の領域のグラフィックデータを生成する。
ディクリプタ651は、入力された動画像データを復号するに先立ち、著作権等の関係からコピー防止のために暗号化されている部分を復元して、後段のビデオデコーダ652で復号できるような処理を行う。尚、このディクリプタ651は、必ずしも必要ではなく、このようなコピープロテクトがあるような動画像データの場合に必要となる。
ビデオデコーダ652は、圧縮された状態で送信された動画像データの復号を行う部分であり、例えば、圧縮形式がMPEG2のような場合、圧縮状態の動画像データを、可変長符号の復号、逆走査、逆量子化、逆DCT、動き補償等の各ステップを経てラスタデータ形式の動画像データに復号する。
スケーラ653は、復号された動画像データの伸縮調整を行う部分であり、データ逆多重化手段661から出力された動画像表示領域データ、動画像データに含まれる解像度情報、及び液晶パネル53のスペック等に基づいて、動画像データを表示すべき領域及びその領域内での解像度設定を行う。
YUV−RGBコンバータ654は、動画像データのYUV形式のデータを画像表示装置で処理可能なRGB形式に変換する部分であり、変換は一定の関係式に基づいて行われる。
イメージプロセッサ68は、前述したように、デコーダ662で復号されたグラフィックデータと、ビデオデコーダ652で復号された動画像データを合成して表示ラスタデータを生成する。さらに、このイメージプロセッサ68は、データ逆多重化手段661から出力されるコンピュータ2側で設定された画像補正データ、及び、液晶パネル53固有に設定された画像補正データに基づく補正処理を行い、補正後の表示ラスタデータをビデオフレームメモリ67に描き込む。
同期信号生成手段631は、データ逆多重化手段661から出力される画面更新に関する情報に基づいて、パネルコントローラ69の画面更新用の同期信号を生成する部分であり、本実施形態では、動画像データのシリアルヘッダから得られるフレームレートに基づいて、同期信号が生成される。また、この同期信号生成手段631で生成された同期信号は、イメージプロセッサ68にも出力され、イメージプロセッサ68は、この同期信号に基づいて、ビデオフレームメモリ67への表示ラスタデータの描き込みのタイミングを設定している。
(3)画像音声出力システム1の作用
次に、前述した構成の画像音声出力システム1の作用を図7及び図8に示されるフローチャートに基づいて説明する。
(3-1)コンピュータ2側の処理
まず、グラフィック画像データ取得手段221は、現在表示中のグラフィック画像をキャプチャし、これをグラフィックデータとして取得する(処理S1)。
次に、グラフィック画像データ取得手段221の差分データ生成部221Aは、前回キャプチャされたグラフィック画像と、今回キャプチャされたグラフィック画像とに基づいて、更新された部分となる差分データの生成を行う(処理S2)。これと並行して、動画像表示領域生成手段222は、キャプチャされたグラフィック画像に基づいて、動画像表示領域の画面上のX−Y位置、大きさ、解像度等の動画像表示領域データを生成する(処理S3)。
一方、上記グラフィックデータの取得と並行して、画像音声分離手段226は、光ディスク装置25等から入力される画像音声データを、動画像データと音声データに分離する(処理S4)。
動画像データ取得手段223は、分離された動画像データをラスタライズ処理することなく取得する(処理S5)。次に、動画像データ解析手段224は、取得された動画像データのシーケンスヘッダ及びシーケンスエクステンション(MPEG2の場合)等の部分から、動画像データのフレームレート、ビットレート、アスペクト比、解像度等の諸情報を画像属性情報として取得する(処理S6)。
上記の各種情報が得られたら、データ多重化手段225は、これらのデータを前述したMPEG−TSやMPEG−PSなどの形式で多重化する(処理S7)。多重化されたデータは、チップセット21が有するUSBコントローラとしての機能により符号化され、USBポート27からUSBケーブル4を介してプロジェクタ3に送信出力される(処理S8)。
処理S4において、分離された音声データは、オーディオデコーダ230で取得され(処理S9)、オーディオデコーダ230により復号され(処理S10)、復号された音声データは順次遅延バッファ281に記憶される。
これと並行して処理S6において、動画像データ解析手段224は、ビットレート、解像度等の解析結果を出力し、この解析結果は、音声出力調整時間生成手段227で取得される(処理S11)。
音声出力調整時間生成手段227は、取得された解析結果に基づいて、LUT229内を探索し(処理S12)、解析結果に適合するレベル及びプロファイル、あるいはビットレート及び解像度に応じた再生時間を抽出する。次に、音声出力調整時間生成手段227は、取得された再生時間に基づいて、音声出力調整時間を生成し、生成した音声出力調整時間を音声出力同期調整手段228に出力する(処理S13)。
音声出力同期調整手段228は、生成された音声出力調整時間に基づいて、遅延バッファ281からD/Aコンバータ282に出力する音声データのタイミングを調整して、動画像表示のタイミングとの同期を図る(処理S14)。
D/Aコンバータ282は、遅延バッファ281から入力された音声データを順次アナログ変換し、アンプ283によって増幅し、スピーカ9から音声を出力させる(処理S15)。
(3-2)プロジェクタ3側の処理
コンピュータ2からの多重化されたデータは、USBポート61及びUSBコントローラ62で受信され(処理S16)、さらにUSBコントローラ62により画像処理手段6で処理可能な形式に復号され、データ逆多重化手段661に出力される。
データ逆多重化手段661は、多重化されたデータを個別のグラフィックデータ、動画像表示領域データ、動画像データ、及び画像属性情報に分離する(処理S17)。
デコーダ662は、分離されたグラフィックデータを差分データとして取得し(処理S18)、更新前のグラフィック画像に基づいて、差分データの部分のみを描き替えたグラフィックデータを更新する(処理S19)。
これと並行して、ビデオラスタライザ65は、動画像データ及び動画像表示領域データを取得し(処理S20、S21)、これらのデータと動画像データに含まれる画像属性情報等に基づいて、動画像のラスタライズ処理を行う(処理S22)。
デコーダ662によるグラフィックデータのラスタライズ、ビデオラスタライザ65によるラスタライズが終了したら、イメージプロセッサ68は、各々のラスタライズされたデータを合成して、表示ラスタデータを生成する(処理S23)。さらに、イメージプロセッサ68は、液晶パネル53に固有の画像補正処理を行って、パネルコントローラ69による走査によって液晶パネル53上に光学像を形成し、投射レンズ55を介してスクリーン上に投射画像を表示させる(処理S24)。
このように本実施形態によれば、音声出力同期調整手段228により、コンピュータ2側の内部処理で動画像出力及び音声出力の同期が取られるので、サウンドカード28の遅延バッファ281を利用して画像出力と音声出力のタイミングを一致させることができる。従って、別途サウンドカード28に遅延時間情報を処理するための通信処理プログラム等を実装する必要がなく、製造コストの低減を図ることができる。
また、動画像データ解析手段224により、画像データの圧縮形式に応じて音声出力調整時間が生成されるため、画像データの圧縮形式に応じて最適なタイミングで音声出力させることができる。
さらに、音声出力調整時間生成手段227が動画像データ解析手段224による解析結果に基づいて、LUT229内を探索して、音声出力調整時間を生成しているので、簡単な処理で音声出力調整時間を生成することができる。
■2.第2実施形態
次に、本発明の第2実施形態について説明する。尚、以下の説明では、既に説明した部分と同一の部分については、同一符号を付してその説明を省略する。
前述の第1実施形態では、図3に示されるように、音声出力同期調整手段228は、音声出力調整時間による音声データ出力のタイミングを、サウンドカード28を構成する遅延バッファ281に記憶された音声データの出力を遅延させることにより調整していた。
これに対して、第2実施形態に係る画像出力データ装置では、図9に示されるように、
オーディオデコーダ230で復号された音声データを出力する際、サウンドカード28への出力のタイミングを、音声出力調整時間に基づいて調整している点が相違する。
すなわち、第2実施形態に係る音声出力同期調整手段428は、図9に示されるように、オーディオデコーダ230で復号された音声データを、CPU22に付帯するメインメモリ23に格納した段階で、音声出力調整時間生成手段227で生成された音声出力調整時間に応じて遅延させてサウンドカード28に出力するように構成されている。
このような本実施形態によっても、前述した第1実施形態で述べた作用及び効果と同様の作用及び効果を享受することができる。
■3.第3実施形態
次に、本発明の第3実施形態について説明する。
前述の第1実施形態では、音声出力調整時間生成手段227による音声出力調整時間の生成は、専ら動画像データ解析手段224で解析された解析結果に基づいたものであった。
これに対して、第3実施形態に係る画像音声出力システムは、図10及び図11に示されるように、プロジェクタの画像処理手段7側で表示設定を変更した際に、プロジェクタの画像処理手段7からその設定情報がコンピュータ8側に出力され、コンピュータ8側ではこの変更された設定情報による画像処理に要する時間を加味して音声出力調整時間を生成している点が相違する。
具体的には、図10に示されるように、プロジェクタの画像処理手段7は、第1実施形態に係る画像処理手段6に加えて、操作パネル71、表示状態設定手段72、及び設定情報送信手段73を備えて構成される。
操作パネル71は、プロジェクタの外装ケースに設けられた複数のスイッチ群を備えて構成され、視聴者はこの操作パネル71を操作したり、USBケーブルを介して接続されるコンピュータを操作することにより、プロジェクタの投射画像を好みの色調に変化させたり、入力された動画像データの走査形式、例えば、インターレース形式を所望の方式でプログレッシブ形式に変換したり、スクリーン上に投射された台形状の投射画像を長方形状の適切な投射画像に変更したりすることが可能となる。
表示状態設定手段72は、操作パネル71の操作によって出力される操作信号に基づいて、画像処理手段7上の各機能的手段における設定値を変更する部分であり、例えば、スケーラ653の設定値や、イメージプロセッサ68における設定値を変更することができるようになっている。
設定情報送信手段73は、表示状態設定手段72で設定された設定情報を取得し、USBコントローラ62及びUSBポート61を介してコンピュータ8に送信出力する部分である。
コンピュータ8は、図11に示されるように、プロジェクタ側から送信された設定情報をチップセット21のUSBコントロール機能を利用して受信し、受信された設定情報は、処理時間算出手段81及び音声出力調整時間生成手段82で処理される。
処理時間算出手段81は、受信された設定情報に基づいて、各処理に応じた処理時間を算出する部分であり、本実施形態では図示を略したが、LUT229内に格納された設定処理に応じた処理時間が記憶されたLUTを参照することにより、各処理により必要な処理時間を算出する。
音声出力調整時間生成手段82は、第1実施形態と同様に、動画像データ解析手段224の解析結果、及び処理時間算出手段81で算出された処理時間に基づいて、音声出力調整時間を生成する。
以下、この音声出力調整時間生成手段82による音声出力調整時間の生成手順について、図12に示される模式図について説明する。
まず、動画像データ解析手段224の解析結果に基づいて、音声出力調整時間生成手段82は、あるフレームが復元される時刻DTS(Decoding Time Stamp)、あるフレームが表示される時刻PTSv(Video Presentation Time Stamp)、及びあるフレームに応じた音声出力がされる時刻PTSa(Audio Presentation Time Stamp)を取得し、動画像データの基本的な復号及び再生処理時間を取得する(処理S25)。
一方、処理時間算出手段81は、プロジェクタ側から送信された設定情報に基づいて、どのような処理が行われたかを区分し、各設定のステージに応じた処理時間を算出する(処理S26〜処理S28)。例えば、本実施形態では3段階の設定処理が行われているが、Stage1の処理としてIP変換、Stage2の処理としてはスケーリング、Stage3の処理としてはγ補正等が考えられる。
処理時間算出手段81による処理時間ΔT1〜ΔT3が算出されたら、音声出力調整時間生成手段82は、各時間を積算した積算見積処理時間ΔTを算出する(処理S29)。
音声出力調整時間生成手段82は、処理S25で取得されたPTSvにこの積算見積積算時間ΔTを加えて、設定処理を加味した際のあるフレームの出力時刻PTSv’を算出する(処理S30)。
最後に、音声出力調整時間生成手段82は、PTSv’に基づいて、取得されたPTSaから上記フレームの出力時刻に応じた音声出力の時刻PTSa’を算出する(処理S31)。尚、本実施形態では、算出の際、取得されたPTSaに対して、単純に積算見積時間ΔTを加えただけでなく、マージン時間αを加えてPTSa’を算出している。これは、動画像の変化よりも音声が先に出力されると、違和感が生じるのに対して、動画像の変化よりも音声出力が多少遅れても、あまり違和感が生じないという視聴者の特性を考慮したものである。
また、本実施形態では、設定処理は処理S26〜処理S28という3段階で説明していたが、これに限らず、より多くの処理も各処理の処理時間を加算することによって、増加させることも可能である。
このような本実施形態によれば、プロジェクタが設定情報送信手段73を備え、画像音声データ処理装置が設定情報受信手段21、27、処理時間算出手段81を備えていることにより、プロジェクタ側で表示状態の設定を変更した際に、音声出力調整時間生成手段82は、この画像処理の時間をも加味して音声出力調整時間を生成することができるので、より画像出力のタイミングに近い状態で音声出力させることができる。
■4.実施形態の変形
なお、本発明は前述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、前記実施形態では、画像音声データ出力装置としてコンピュータ2、8を採用していたが、本発明はこれに限られない。すなわち、画像音声データ出力装置として、DVD再生装置やゲーム機器等の装置を採用してもよい。
また、前記実施形態では、画像表示装置として液晶プロジェクタ3を採用していたが、本発明はこれに限られず、DLP等の液晶以外の光変調装置を備えたプロジェクタや、バックライト形式の液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等のディスプレイに本発明を採用してもよい。
さらに、前記実施形態では、コンピュータ2とプロジェクタ3を接続する伝送路としてUSBケーブル4を採用していたが、本発明はこれに限られない。すなわち、LAN等の画像転送可能な伝送路で画像データ出力装置と画像表示装置とを接続したシステムであっても本発明を採用することができる。
その他、本発明の実施の際の具体的な構造及び形状等は、本発明の目的を達成できる範囲で他の構造等としてもよい。
本発明の第1実施形態に係る画像音声出力システムの構成を表す概要斜視図。 本実施形態における画像音声データ出力装置の構成を表す模式図。 本実施形態における画像データ出力装置の機能ブロック図。 本実施形態における画像音声データ出力装置に設けられたルックアップテーブルの構造を表す模式図。 本実施形態における画像表示装置の構成を表す模式図。 本実施形態における画像表示装置の機能ブロック図。 本実施形態における画像音声出力システムの作用を説明するフローチャート。 本実施形態における画像音声出力システムの作用を説明するフローチャート。 本発明の第2実施形態に係る画像データ出力装置の機能ブロック図。 本発明の第3実施形態に係る画像表示装置の機能ブロック図。 本実施形態における画像音声データ出力装置の機能ブロック図。 本実施形態の作用を説明するための模式図。
符号の説明
2、8…コンピュータ(画像音声データ出力装置)、3…プロジェクタ(画像表示装置)、4…USBケーブル(伝送路)、6、7…画像処理手段、21…チップセット(画像データ送信手段)、27…(画像データ送信手段)、28…サウンドカード(音声データ出力手段)、53…液晶パネル(画像形成手段)、72…表示状態設定手段、73…設定情報送信手段、82、227…音声出力調整時間生成手段、223…動画像データ解析手段(画像データ解析手段)、226…画像音声分離手段、228…音声出力同期調整手段、229…LUT(再生時間記録手段)

Claims (8)

  1. 画像音声データを出力可能な画像音声データ出力装置と、この画像音声データ出力装置と伝送路を介して接続され、前記画像音声データ出力装置から出力された画像データに基づいて、画像を表示する画像表示装置とを備えた画像音声出力システムであって、
    前記画像音声データ出力装置は、
    前記画像音声データに含まれる画像データ及び音声データを分離する画像音声データ分離手段と、
    分離された前記画像データを、前記伝送路を介して前記画像表示装置に送信する画像データ送信手段と、
    分離された前記音声データを出力する音声データ出力手段と、
    前記画像データ送信手段により前記画像表示装置に送信し、該画像表示装置で再生させようとする画像データを解析し、前記解析の結果を取得する画像データ解析手段と、
    この画像データ解析手段の解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成する音声出力調整時間生成手段と、
    この音声出力調整時間生成手段により生成された音声出力調整時間に基づいて、前記画像表示装置で表示される画像再生のタイミングに同期して、分離された前記音声データによる音声出力を調整する音声出力同期調整手段とを備え、
    前記画像表示装置は、
    前記画像音声データ出力装置から送信された画像データを受信する画像データ受信手段と、
    この画像データ受信手段で受信された画像データの再生処理を行う画像処理手段と、
    この画像処理手段により処理された画像データに基づいて、画像を形成する画像形成手段とを備えていることを特徴とする画像音声出力システム。
  2. 請求項1に記載の画像音声出力システムにおいて、
    前記画像データ出力装置は、
    前記画像データの解像度とビットレートのいずれか、又はその両者の組合せに応じた再生時間を記録したルックアップテーブルを有する再生時間記録手段を備え、
    前記音声出力調整時間生成手段は、前記再生時間記録手段に記録されたルックアップテーブルを参照して音声出力調整時間を生成することを特徴とする画像音声出力システム。
  3. 請求項1又は請求項2に記載の画像音声出力システムにおいて、
    前記伝送路は、双方向通信可能であり、
    前記画像表示装置は、
    前記画像形成手段により形成される画像の表示状態を設定する表示状態設定手段と、
    この表示状態設定手段により設定された設定情報を、前記画像音声データ出力装置に前記伝送路を介して送信する設定情報送信手段とを備え、
    前記画像処理手段は、前記表示状態設定手段により設定された設定情報に基づいて、画像データの再生処理を行い、
    前記画像音声データ出力装置は、
    前記画像表示装置から送信された設定情報を受信する設定情報受信手段と、
    この設定情報受信手段で受信された設定情報に基づいて、前記画像表示装置の画像処理手段による画像処理時間を算出する処理時間算出手段とを備え、
    前記音声出力調整時間生成手段は、この処理時間算出手段で算出された画像処理時間を加味して音声出力調整時間を生成することを特徴とする画像音声出力システム。
  4. 画像音声データが出力可能とされ、双方向通信可能な伝送路を介して接続された画像表示装置に画像データを出力して画像を表示させる画像音声データ出力装置であって、
    前記画像音声データに含まれる画像データ及び音声データを分離する画像音声データ分離手段と、
    分離された前記画像データを、前記伝送路を介して前記画像表示装置に送信する画像データ送信手段と、
    分離された前記音声データを出力する音声データ出力手段と、
    前記画像データ送信手段により前記画像表示装置に送信し、該画像表示装置で再生させようとする画像データを解析し、前記解析の結果を取得する画像データ解析手段と、
    この画像データ解析手段の解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成する音声出力調整時間生成手段と、
    この音声出力調整時間生成手段により生成された音声出力調整時間に基づいて、前記画像表示装置で表示される画像再生のタイミングに同期して、分離された前記音声データ出力手段による音声出力を調整する音声出力同期調整手段とを備えていることを特徴とする画像音声データ出力装置。
  5. 画像データ及び音声データが出力可能とされ、伝送路を介して接続された画像表示装置に前記画像データを出力して画像を表示させるために、
    前記画像音声データに含まれる画像データ及び音声データを分離する画像音声データ分離手段と、
    分離された前記画像データを、前記伝送路を介して前記画像表示装置に送信する画像データ送信手段と、
    分離された前記音声データを出力する音声データ出力手段と、
    前記画像データ送信手段により前記画像表示装置に送信し、該画像表示装置で再生させようとする画像データを解析し、前記解析の結果を取得する画像データ解析手段と、
    この画像データ解析手段の解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成する音声出力調整時間生成手段と、
    この音声出力調整時間生成手段により生成された音声出力調整時間に基づいて、前記画像表示装置で表示される画像再生のタイミングに同期して、分離された前記音声データによる音声出力を調整する音声出力同期調整手段とを備えた画像音声データ出力装置に用いられ、前記音声出力調整時間生成手段による音声出力調整時間生成用のデータが記録されたコンピュータ読み取り可能な記録媒体であって、
    前記画像データの解像度とビットレートのいずれか、又はその両者の組合せに応じた再生時間を記録したルックアップテーブルとして記録したことを特徴とする記録媒体。
  6. 画像音声データが出力可能とされ、伝送路を介して接続された画像表示装置に前記画像データを出力して画像を表示させる画像音声データ出力装置上で実行される音声処理プログラムであって、
    前記画像音声データを画像データ及び音声データに分離するステップと、
    前記画像表示装置で再生させようとする画像データを解析するステップと、
    解析結果に基づいて、前記画像表示装置上で前記画像データを再生する時間に応じた音声出力調整時間を生成するステップと、
    生成された音声出力調整時間に基づいて、前記音声データによる音声出力を調整するステップとを前記画像データ出力装置に実行させることを特徴とする音声処理プログラム。
  7. 請求項6に記載の音声処理プログラムにおいて、
    前記画像表示装置による再生時間の算出に際して用いられ、前記画像データの解像度とビットレートのいずれか、又はその両者の組合せに応じた再生時間データが担持されていることを特徴とする音声処理プログラム。
  8. 請求項6又は請求項7に記載の音声処理プログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
JP2005271035A 2005-09-16 2005-09-16 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体 Expired - Fee Related JP4375313B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005271035A JP4375313B2 (ja) 2005-09-16 2005-09-16 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体
US11/531,482 US7729593B2 (en) 2005-09-16 2006-09-13 Image and sound output system, image and sound data output device, and recording medium
CNB2006101541895A CN100505889C (zh) 2005-09-16 2006-09-18 图像声音输出系统、装置、声音处理程序和记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005271035A JP4375313B2 (ja) 2005-09-16 2005-09-16 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体

Publications (2)

Publication Number Publication Date
JP2007082155A true JP2007082155A (ja) 2007-03-29
JP4375313B2 JP4375313B2 (ja) 2009-12-02

Family

ID=37879182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005271035A Expired - Fee Related JP4375313B2 (ja) 2005-09-16 2005-09-16 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体

Country Status (3)

Country Link
US (1) US7729593B2 (ja)
JP (1) JP4375313B2 (ja)
CN (1) CN100505889C (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009157078A1 (ja) * 2008-06-26 2009-12-30 富士通マイクロエレクトロニクス株式会社 映像音声データ出力装置および映像音声データ出力方法
JP2010541354A (ja) 2007-09-28 2010-12-24 トムソン ライセンシング 他の装置に送信された受信ストリームを同期可能な通信技術

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4991129B2 (ja) * 2005-07-19 2012-08-01 Necディスプレイソリューションズ株式会社 映像音声再生装置および映像音声再生方法
JP2011022727A (ja) * 2009-07-14 2011-02-03 Sony Corp 画像処理装置および画像処理方法
JP5688255B2 (ja) * 2010-09-15 2015-03-25 日立マクセル株式会社 映像処理装置、表示装置及び映像処理方法
TWI411233B (zh) * 2010-12-24 2013-10-01 Univ Nat Chiao Tung 數位類比轉換裝置
CN105224500B (zh) * 2015-10-09 2017-12-08 四川特伦特科技股份有限公司 一种利用多核处理器的vpx背板
US10027994B2 (en) * 2016-03-23 2018-07-17 Dts, Inc. Interactive audio metadata handling
KR20180068069A (ko) * 2016-12-13 2018-06-21 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN110545411B (zh) * 2018-05-29 2021-06-15 中强光电股份有限公司 投影机、投影系统以及其传输延迟的侦测方法
CN109600564B (zh) * 2018-08-01 2020-06-02 北京微播视界科技有限公司 用于确定时间戳的方法和装置
US20220150566A1 (en) * 2020-11-06 2022-05-12 Telstar USA LLC Video Display System

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3500667B2 (ja) 1993-08-18 2004-02-23 ソニー株式会社 テレビ会議システムおよび同期方法
US6587641B1 (en) * 1998-07-21 2003-07-01 Matsushita Electric Industrial Co., Ltd. Apparatus for simultaneously writing and outputting data stream
GB0000874D0 (en) * 2000-01-14 2000-03-08 Koninkl Philips Electronics Nv Latency handling for interconnected devices
JP2002290932A (ja) 2001-03-27 2002-10-04 Toshiba Corp デジタル放送受信装置とその制御方法
JP2002344898A (ja) * 2001-05-17 2002-11-29 Pioneer Electronic Corp 映像表示装置、音声調整装置及び映像音声出力装置、並びに映像音声同期方法
JP4048870B2 (ja) 2002-08-06 2008-02-20 セイコーエプソン株式会社 プロジェクタシステム
JP4256710B2 (ja) 2003-04-16 2009-04-22 パナソニック株式会社 Av伝送方法及びav伝送装置、並びにav送信装置及びav受信装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010541354A (ja) 2007-09-28 2010-12-24 トムソン ライセンシング 他の装置に送信された受信ストリームを同期可能な通信技術
WO2009157078A1 (ja) * 2008-06-26 2009-12-30 富士通マイクロエレクトロニクス株式会社 映像音声データ出力装置および映像音声データ出力方法
JP5212473B2 (ja) * 2008-06-26 2013-06-19 富士通セミコンダクター株式会社 映像音声データ出力装置および映像音声データ出力方法
US8842218B2 (en) 2008-06-26 2014-09-23 Fujitsu Semiconductor Limited Video/audio data output device and method

Also Published As

Publication number Publication date
JP4375313B2 (ja) 2009-12-02
CN100505889C (zh) 2009-06-24
US7729593B2 (en) 2010-06-01
CN1933604A (zh) 2007-03-21
US20070065112A1 (en) 2007-03-22

Similar Documents

Publication Publication Date Title
JP4375313B2 (ja) 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体
US8063894B2 (en) Image display system, image display device, and image data output device
JP6671022B2 (ja) 表示装置、表示方法及びコンピュータプログラム
JP6558599B2 (ja) 再生装置、再生方法、及び、コンピュータプログラム
JP6355521B2 (ja) デジタル放送受信装置及び方法
US7453522B2 (en) Video data processing apparatus
US8810563B2 (en) Transmitting apparatus, stereoscopic image data transmitting method, receiving apparatus, and stereoscopic image data receiving method
WO2019069482A1 (ja) 映像表示システム及び映像表示方法
JP2007258872A (ja) 再生装置および再生装置の再生方法
JP3791904B2 (ja) マルチディスプレイ装置
WO2018235338A1 (ja) 映像表示装置及び映像表示方法
JP2010263382A (ja) 送信装置、立体画像データの送信方法、受信装置、立体画像データの受信方法、中継装置および立体画像データの中継方法
WO2019008819A1 (ja) 映像表示装置及び映像表示方法
US8593575B2 (en) Video display apparatus for shortened-delay processing of a video signal and video processing method
JP2009296081A (ja) 映像再生装置
JP2020501387A (ja) ディスプレイ装置及びその制御方法
JP2020092444A (ja) 表示装置、表示方法及びコンピュータプログラム
JP2011158915A (ja) 画像表示システム、画像表示装置、画像表示装置の制御方法、及び画像表示システムによる画像表示方法
JP6868797B2 (ja) 変換方法及び変換装置
JP2002185849A (ja) 出力装置、及びテレシネ表示方法
JP5538604B2 (ja) 立体画像データ送信方法および立体画像データ送信装置
JP5583297B2 (ja) 立体画像データ受信方法および立体画像データ受信装置
JP5577477B1 (ja) 立体画像データ受信方法および立体画像データ受信装置
JP2006180091A (ja) コンテンツ合成装置及び方法
JP5577476B1 (ja) 立体画像データ送信方法および立体画像データ送信装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070704

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070813

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090831

R150 Certificate of patent or registration of utility model

Ref document number: 4375313

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130918

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees