JP2007072130A - 画像表示システム、画像表示装置、画像データ出力装置、画像処理プログラム、及びこの画像処理プログラムを記録した記録媒体 - Google Patents

画像表示システム、画像表示装置、画像データ出力装置、画像処理プログラム、及びこの画像処理プログラムを記録した記録媒体 Download PDF

Info

Publication number
JP2007072130A
JP2007072130A JP2005258407A JP2005258407A JP2007072130A JP 2007072130 A JP2007072130 A JP 2007072130A JP 2005258407 A JP2005258407 A JP 2005258407A JP 2005258407 A JP2005258407 A JP 2005258407A JP 2007072130 A JP2007072130 A JP 2007072130A
Authority
JP
Japan
Prior art keywords
data
moving image
image
raster
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005258407A
Other languages
English (en)
Inventor
Norihiko Yamada
紀彦 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005258407A priority Critical patent/JP2007072130A/ja
Priority to US11/470,025 priority patent/US8063894B2/en
Priority to CNA2006101289762A priority patent/CN1928985A/zh
Publication of JP2007072130A publication Critical patent/JP2007072130A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】 画像データ出力装置に過大な負担をかけることなく、伝送路中を流れる画像データ量を削減して高品質な動画像を表示することのできる画像表示装置を提供すること。
【解決手段】非圧縮画像データ及びラスタライズ処理前の圧縮画像データが多重化されたデータが伝送路を介して入力される画像表示装置は、多重化されたデータを個別のデータに分離するデータ逆多重化手段661と、圧縮画像データのラスタライズ処理を行う圧縮画像ラスタライズ手段652と、非圧縮画像データのラスタライズ処理を行う非圧縮画像ラスタライズ手段662とを備え、圧縮画像データ及び非圧縮画像データのラスタライズがそれぞれ独立して実行され、ラスタデータ合成手段68によって表示画像として合成された後、画像形成手段53上に形成される。
【選択図】 図5

Description

本発明は、画像表示システム、画像表示装置、画像データ出力装置、画像処理プログラム、及びこの画像処理プログラムを記録した記録媒体に関する。
近年、コンピュータの画像処理の高機能化に伴い、従来画像表示装置で行っていた画像処理をコンピュータで処理させ、処理後の画像処理データをデジタル形式で画像表示装置側に伝送し、プロジェクタ等の画像表示装置により画像を表示させるシステムが提案されている(例えば、特許文献1参照。)。
このような画像表示装置では、接続されているコンピュータ等の画像データ出力装置のビデオ出力部のフレームメモリよりキャプチャされたラスタデータが、装置間の所定の伝送形式に符号化された上で、USB等の伝送路を介して画像表示装置側に伝送、入力され、これを復号した上で画像表示を実現している。
ここで、キャプチャされた画面のラスタデータが非圧縮のまま伝送される場合、伝送路中には、表示解像度、色深度、フレームレートに比例する大量なデータが流れることとなり、伝送路やその駆動回路の負荷が非常に大きくなるという問題がある。
また、コンピュータ側のメインプロセッサも画面全体のデータのキャプチャと伝送処理を行わなければならず、同様に負荷が大きくなるという問題がある。
このような問題を解決するために、全体の画面のうち時間的に前のフレームに対して更新があった部分、すなわち差分データのみを伝送するという方法により伝送路での必要帯域を削減するという技術が考えられる。この技術によれば、伝送路中には画面更新の差分しか伝送されないので、コンピュータによるグラフィック画面として通常表示される、動きが少なく更新の頻度または範囲が少ない画面データの伝送には極めて有効である。
特開2004−69996号公報
しかしながら、コンピュータ等の画像データ出力装置でMPEG(Moving Picture Experts Group)等で規定される形式のいわゆる動画像を再生し、伝送路を介して接続される画像表示装置上で表示させようとする場合、通常、その動画像表示の領域は、画面全体の中において比較的大きい面積を占め、またフレームの更新もその動画像のフレームレートにしたがってなされねば、動画像が持つフレームレートによる表示が達成されない。このような場合、表示される動画像には、コマ落ちやがたつきが観察者に視認されてしまうため、表示画像の品質を確保できない。このため、動画像を表示する場合には、結局膨大なデータのキャプチャと伝送が必要となる。
さらに、その動画像がMPEG2(ISO/IEC13818−2)等の圧縮動画像データである場合、動画像自体の復号、色変換、スケーリング、表示処理等のラスタライズ処理が画像データ出力装置側で行われる必要があり、この点でも、画像データ出力装置及び伝送路にかかる負担がますます大きくなってしまうという問題がある。
本発明の目的は、画像データ出力装置に過大な負担をかけることなく、伝送路中を流れる画像データ量を削減して高品質な動画像を画像表示装置上に表示することのできる画像表示システム、画像表示装置、画像データ出力装置、画像処理プログラム、及びこの画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体を提供することにある。
本発明に係る画像表示システムは、ラスタデータ、及び圧縮動画像データを多重させて出力する画像データ出力装置と、この画像データ出力装置と伝送路を介して接続され、前記画像データ出力装置から出力された画像データに基づいて、画像を表示する画像表示装置とを備えた画像表示システムであって、
前記画像データ出力装置は、
前記ラスタデータを取得するラスタデータ取得手段と、
前記圧縮動画像データを取得する圧縮動画像データ取得手段と、
前記ラスタデータ内における前記圧縮動画像データによる動画像の表示領域を表す動画像表示領域データを生成する動画像表示領域データ生成手段と、
前記ラスタデータ取得手段で取得されたラスタデータ、前記圧縮動画像データ取得手段で取得された圧縮動画像データ、及び前記動画像表示領域データ生成手段により生成された動画像表示領域データを多重化するデータ多重化手段と、
多重化されたデータを、前記伝送路を介して送信するデータ送信手段とを備え、
前記画像表示装置は、
前記画像データ出力装置から送信されたデータを、前記伝送路を介して受信するデータ受信手段と、
前記データ受信手段で受信したデータを個別のデータに分離するデータ逆多重化手段と、
分離された圧縮動画像データのラスタライズ処理を行って、動画像ラスタデータを生成する動画像ラスタライズ手段と、
前記動画像ラスタライズ手段で生成された動画像ラスタデータ、及び、前記ラスタデータを合成し、表示ラスタデータを生成する表示ラスタデータ合成手段と、
生成された表示ラスタデータに基づいて画像形成を行う画像形成手段とを備えていることを特徴とする。
ここで、ラスタデータとは、コンピュータ等で生成されるグラフィックデータに基づく画像データ(画素ごとの情報としてビデオメモリ上に展開されているデータ。ビデオオーバレイによって通常表示されるような動画像データではない)をいい、圧縮動画像データとは、MotionJPEG、MPEG等の所定の形式に従って圧縮処理が施された画像データをいい、とりわけMPEG2、MPEG4等の動画像フォーマットに本発明を採用するのが好ましい。
また、画像表示装置を構成する動画像ラスタライズ手段は、動画像圧縮データを復号し、画像形成手段で表示させる各画素の輝度、色等の変換、スケーリング等の処理を行う。
この発明によれば、画像表示システムがこれらの各機能的手段を備えていることにより、予め圧縮動画像データは、画像データ出力装置側で復号されることなく、伝送路を介して画像表示装置側で復号され、ラスタライズされて表示されることとなる。従って、画像データ出力装置で圧縮画像データの復号を行う必要がなく、画像データ出力装置における処理の軽減が図られ、過大な負担がかかることがない。また、圧縮動画像データは圧縮されたままで伝送路中を流れるので、画像データの送受信量が削減され、画像表示装置上で復号されてラスタライズされるので、高品質の動画像も確保することができる。
本発明では、前記画像データ出力装置は、画面更新前後の差分データを生成する差分データ生成手段を備え、前記ラスタデータ取得手段は、前記差分データ生成手段で生成された差分データをラスタデータとして取得し、前記画像表示装置は、分離されたラスタデータと、画面更新前の表示ラスタデータとに基づいて、ラスタデータを再構成するラスタデータ再構成手段を備えているのが好ましい。
この発明によれば、ラスタデータ表示領域で画面更新が生じた場合は、その差分データのみが伝送路を介して画像表示装置側に送信されることとなるので、伝送路中のデータを削減して伝送路への負担を一層軽くすることができる。
本発明では、前記画像表示装置は、前記圧縮動画像データに含まれるフレームレート情報、前記画像データ出力装置から出力されるリフレッシュレート情報、及び前記差分データ生成部によるデータ生成周期となる更新周期情報のいずれかに基づいて、前記データ合成手段で生成される表示ラスタデータの画面更新を行うための画像同期信号を生成する同期信号生成手段と、生成された画像同期信号に基づいて、前記画像形成手段において走査を行う走査手段とを備えているのが好ましい。
ここで、画像表示装置における走査手段による画面更新を行うための同期信号は、動画像が表示されている場合には、圧縮動画像データ中に画像属性情報として含まれるフレームレート情報に基づいて生成されるのが好ましい。
この発明によれば、画像表示装置上で表示される画像のタイプに応じて最適な同期信号により画像を形成することができるため、高品質な画像を画像表示装置で表示させることができる。また、動画像が表示されている場合には、圧縮動画像データ中に画像属性情報として含まれるフレームレート情報に基づいて同期信号を生成することにより、動画像のフレームレートに応じた画面更新が行われるので、動画像にコマ落ちやがたつき等が生じることを防止でき、高い品質の動画像を表示させることができる。
本発明では、前記画像表示装置は、前記動画像ラスタライズ手段による動画像ラスタデータの生成に際して、前記圧縮動画像データに含まれる音声データを分離する画像音声分離手段と、この画像音声分離手段により分離された前記音声データを復号する音声データ復号手段と、この音声データ復号手段により復号された音声を出力する音声出力手段と、この音声出力手段による音声出力のタイミングを、前記動画像ラスタライズ手段による動画像ラスタデータの生成時間と同期させる音声出力同期調整手段とを備えているのが好ましい。
この発明によれば、音声出力同期調整手段により、圧縮動画像データのラスタライズ処理に時間がかかる場合、この動画像ラスタデータの生成時間に応じて同期して音声出力手段から音声を出力させることができる。従って、画像出力及び音声出力のタイミング、すなわちリップシンクがずれることがなく、視聴者に違和感を与えることはない。
本発明の画像表示システムを構成するサブコンビネーション発明としては、画像表示装置、及び画像データ出力装置があり、具体的には、以下の構成を具備する。
本発明のサブコンビネーション発明としての画像表示装置は、
ラスタデータ、及び圧縮動画像データを多重させて出力する画像データ出力装置と伝送路を介して接続され、前記画像データ出力装置から出力された画像データに基づいて、画像を表示する画像表示装置であって、
前記画像データ出力装置は、前記ラスタデータ、前記圧縮動画像データ、及び前記ラスタデータ内における前記圧縮動画像データによる動画像の表示領域を表す動画像表示領域データを多重して出力するように構成され、
前記画像データ出力装置から送信されたデータを、前記伝送路を介して受信するデータ受信手段と、
前記データ受信手段で受信したデータを個別のデータに分離するデータ逆多重化手段と、
分離された圧縮動画像データのラスタライズ処理を行って、動画像ラスタデータを生成する動画像ラスタライズ手段と、
前記圧縮動画像ラスタライズ手段で生成された動画像ラスタデータ、及び、前記ラスタデータを合成し、表示ラスタデータを生成する表示ラスタデータ合成手段と、
生成された表示ラスタデータに基づいて画像形成を行う画像形成手段とを備えていることを特徴とする。
また、サブコンビネーション発明としての前記画像表示装置は、前記動画像ラスタライズ手段による動画像ラスタデータの生成に際して、前記圧縮動画像データに含まれる音声データを分離する画像音声分離手段と、この画像音声分離手段により分離された前記音声データを復号する音声データ復号手段と、この音声データ復号手段により復号された音声を出力する音声出力手段と、この音声出力手段による音声出力のタイミングを、前記動画像ラスタライズ手段による動画像ラスタデータの生成時間と同期させる音声出力同期調整手段とを備えているのが好ましい。
さらに、本発明のサブコンビネーション発明としての画像データ出力装置は、
ラスタデータ、及び圧縮動画像データを多重させて出力し、伝送路を介して接続される画像表示装置に画像を表示させる画像データ出力装置であって、
前記ラスタデータを取得するラスタデータ取得手段と、
前記圧縮動画像データを取得する圧縮動画像データ取得手段と、
前記ラスタデータ内における前記圧縮動画像データによる動画像の表示領域を表す動画像表示領域データを生成する動画像表示領域データ生成手段と、
前記ラスタデータ取得手段で取得されたラスタデータ、前記圧縮動画像データ取得手段で取得された圧縮動画像データ、及び前記動画像表示領域データ生成手段により生成された動画像表示領域データを多重化するデータ多重化手段と、
多重化されたデータを、前記伝送路を介して送信するデータ送信手段とを備えていることを特徴とする。
また、サブコンビネーション発明としては、コンピュータ等の画像データ出力装置に、前記各機能的手段として機能させる画像処理プログラムとすることも可能であり、この画像処理プログラムを記録した記録媒体としても構成することができる。
以下、本発明の実施の一形態を図面に基づいて説明する。
■1.第1実施形態
図1には、本発明の第1実施形態に係る画像表示システム1が示されており、この画像表示システム1は、画像データ出力装置としてのコンピュータ2、画像表示装置としてのプロジェクタ3、及びこれらを接続する伝送路としてのUSBケーブル4を備えて構成され、コンピュータ2から出力される画像データは、USBケーブル4を介してプロジェクタ3に入力され、コンピュータ2のローカルディスプレイ上の画像をスクリーン上に投射画像として表示できるシステムである。USBケーブル4は、USB1.1、USB2.0等の規格に準拠したケーブルであり、接続機器及び被接続機器間で双方向通信が行うことができる。
(1)コンピュータ2の構造
画像データ出力装置としてのコンピュータ2は、図2に示されるように、マザーボード上に設けられたチップセット21と、バスラインを介して接続されるCPU22、メインメモリ23、ビデオカード24、光ディスク装置25、ハードディスク装置26、及びUSBポート27とを備えて構成される。
CPU22は、メインメモリ23を作業領域として種々のプログラムを実行する演算処理装置として機能する部分であり、図2では図示を略したが、オペレーティングシステム等を実行することにより生成されるグラフィックデータ等もこのCPU22において生成される。
ビデオカード24は、コンピュータ2に入力された画像データの画像処理を行って、コンピュータ2に付帯するローカルディスプレイに画像表示を行う部分であり、このビデオカード24は、図示を略したが、ローカルディスプレイへの出力用の画像処理を行うプロセッサと、処理すべき画像データを記憶するビデオメモリ等を備えている。尚、本実施形態では、このようなローカルディスプレイを備えた構成としているが、コンピュータ2は必ずしもローカルディスプレイを備えている必要はない。また、このビデオカード24は、必ずしも別体のデバイスである必要はなく、チップセットに内蔵のグラフィック機能であってもよい。
光ディスク装置25は、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクメディアを再生する装置であり、圧縮された動画像データを記憶した光ディスクを挿入すると、光ディスク装置25は、光ディスクに記憶された動画像データを再生し、チップセット21を介して演算処理装置22に付帯するメインメモリ23に動画像データを出力する。
ハードディスク装置26は、CPU22で実行されるプログラムやコンピュータ2を操作することにより生成したデータを記憶する記憶装置であり、このハードディスク装置26にも画像データを記憶可能であり、CPU22上で動作するプログラムの要求に応じて記憶された画像データを出力することができる。
USBポート27は、前述したUSBケーブル4が接続されるコンピュータ2側の端子であり、このUSBポート27の入出力制御は、前述したチップセット21が行い、これらが本発明にいうデータ送信手段として機能する。
前述したCPU22により入力されるグラフィック画像データ、及びストリーム出力される動画像データの画像処理を行う場合、図3に示されるような機能的手段を備えた画像処理プログラムがCPU22上で実行される。具体的には、CPU22は、グラフィック画像データ取得手段221、動画像表示領域生成手段222、動画像データ取得手段223、動画像データ解析手段224、及びデータ多重化手段225を備えて構成される。
ラスタデータ取得手段としてのグラフィック画像データ取得手段221は、オペレーティングシステム上で動作するグラフィックデータ生成手段220によって生成されるグラフィックデータを取得する部分であり、差分データ生成部221A及びグラフィックデータ取得部221Bを備えて構成される。
差分データ生成部221Aは、例えば、コンピュータ2のリフレッシュレートの周期で更新されるグラフィック画像の差分データを生成する部分であり、例えば、更新前後の画像をそれぞれキャプチャしておき、両者を比較して変更された部分を差分データとして生成する。
グラフィックデータ取得部221Bは、差分データ生成部221Aで生成された差分データのみをグラフィックデータとして取得し、取得されたグラフィックデータを、後述するデータ多重化手段225に出力する部分である。
動画像表示領域データ生成手段としての動画像表示領域生成手段222は、グラフィックデータに基づくグラフィック画面上のどの部分に動画像データを表示させるかを、入力されるグラフィックデータから取得する部分であり、例えば、グラフィック画像におけるどの位置にどの程度の大きさ及び解像度で動画像データを表示させるかの動画像表示領域データを生成する。
圧縮動画像データ取得手段としての動画像データ取得手段223は、光ディスク装置25やハードディスク装置26からビットストリームとして順次入力される動画像データMPGを復号することなく、圧縮されたままの状態で動画像データとして取得する部分であり、動画像データの圧縮形式としては、MPEG2、MPEG4、MotionJPEG等が挙げられる。
動画像データ解析手段224は、入力された動画像データに含まれるフレームレート、ビットレート、アスペクト比、解像度等の画像属性情報を取得する部分であり、取得された画像属性情報は、後段での画像データの多重化処理または伝送処理の動作制御用パラメータとして活用することができる。尚、例えば、動画像データの圧縮形式がMPEG2の場合には、これらの画像属性情報は、MPEG2ビットストリームのシーケンスヘッダ(SH)等に記録されており、動画像データ解析手段224は、このヘッダ部分に記録された情報を取得することにより、動画像の画像属性情報を取得することができる。
データ多重化手段(Multiplexer)226は、グラフィック画像データ取得手段221で取得されたグラフィックデータ、動画像表示領域生成手段222で生成された動画像表示領域データ、及び動画像データ取得手段223で取得された動画像データを多重化する部分である。多重化の方法としては、ISO/IEC−13818−1で規定されている、MPEG−TS(Transport Stream)やMPEG−PS(Program Stream)などの方法をとることができる。この際、データ多重化手段226は、コンピュータ2上で設定された色味、γ値等の画像補正データも同様に多重化することも可能である。
そして、このデータ多重化手段226で多重化されたデータは、チップセット21を介して、シリアルデータとしてUSBポート27から送信出力される。
(2)プロジェクタ3の構造
画像表示装置としてのプロジェクタ3は、図4に示されるように、光学像を形成する光学エンジン5と、コンピュータ2から送信出力された画像データの画像処理を行う画像処理手段6とを備えて構成される。
光学エンジン5は、光源装置51、インテグレータ照明光学系52、画像形成手段としての液晶パネル53、色合成光学系54、及び投射レンズ55を備えて構成される。
光源装置51から射出された光束は、インテグレータ照明光学系52で均一な照明光となるように複数の部分光束に分割され、液晶パネル53によって入力される画像データに応じて光変調が行われ、色合成光学系54及び投射レンズ55を介してスクリーン上に投射される。尚、図4では図示を略したが、本実施形態に係るプロジェクタ3は、R、G、Bの色光毎に液晶パネル53によって光変調が行われるようになっていて、色合成光学系54は、色光毎に光変調が施されたR、G、Bの各光束を合成してカラー画像を合成するために設けられている。
画像処理手段6は、コンピュータ2から入力された画像データに基づいて、所定の画像処理を行い、光学エンジン5を構成する液晶パネル5の駆動制御を行うことにより、光学像を形成する部分であり、プロジェクタ3内に設けられる回路基板上に実装される種々の回路素子を備えて構成される。
具体的には、この画像処理手段6は、USBポート61、USBコントローラ62、CPU63、メインメモリ64、ビデオラスタライザ65、デマルチプレクサ66、ビデオフレームメモリ67、イメージプロセッサ68、及びパネルコントローラ69を備えて構成される。
USBポート61は、USBケーブル4が接続され、コンピュータ2からの画像データが入力される端子であり、USBコントローラ62は、このUSBポート61の入出力を制御する回路素子である。そして、このUSBポート61及びUSBコントローラ62が本発明にいうデータ受信手段を構成している。
CPU63は、メインメモリ64を作業領域として種々のプログラムを実行することにより、画像処理手段6の全体の制御を行う部分である。
動画像ラスタライズ手段としてのビデオラスタライザ65は、MPEG2等の形式の動画像データを復号し、動画像ラスタデータを生成する部分であり、このビデオラスタライザ65で復号された動画像ラスタデータは、後述するビデオフレームメモリ67に描き込まれる。
データ逆多重化手段としてのデマルチプレクサ66は、前述したコンピュータ2のデータ多重化手段225で多重化された各種データを分離する部分であり、詳しくは後述するが、分離された各種データは、他の回路素子で処理される。また、本実施形態におけるデマルチプレクサ66は、やはり詳しくは後述するが、差分画像レンダラーとしても機能している。
ビデオフレームメモリ67は、各種回路素子で形成された画像ラスタデータを蓄積し、最終的に液晶パネル53で表示させる表示ラスタデータを格納する部分であり、パネルコントローラ69による液晶パネル53のデータ書き込み周期に応じて、表示ラスタデータが描き替えられる。
ラスタデータ合成手段としてのイメージプロセッサ68は、デマルチプレクサ66で分離されたデータを最終的に合成して表示ラスタデータを生成する部分であり、液晶パネル53の色再現性を確保するために、グラフィックデータ及び動画像データの合成の他、液晶パネル53に固有のV−Tγ補正、輝度ムラ、色ムラ補正等の補正処理を行う。
走査手段としてのパネルコントローラ69は、液晶パネル53の駆動制御を行う回路素子であり、このパネルコントローラ69により液晶パネル53の画像表示領域中の各画素の駆動制御が行われる。尚、本実施形態の場合、前述したように三板式のプロジェクタ3であるため、図示を略したが、R、G、Bの色光毎の液晶パネル53に対してパネルコントローラ69はそれぞれ設けられている。
以上において、本実施形態では、画像処理手段6は複数の回路素子を組み合わせて構成しているが、画像処理手段のハードウエア構成は必ずしもこれに限らず、極めて高性能な演算処理装置であれば、1チップマイクロプロセッサによりすべての処理を行うことも可能である。
図5には、前述した画像処理手段6の機能ブロック構成が示されている。
前述した画像処理手段6の各回路素子のうち、デマルチプレクサ66は、データ逆多重化手段661及びデコーダ662を機能的手段として備え、ビデオラスタライザ65は、ディクリプタ651、ビデオデコーダ652、スケーラ653、及びYUV−RGBコンバータ654を機能的手段として備えている。また、CPU63は、画面更新の同期を取るために、同期信号生成手段631を機能的手段として備えている。
データ逆多重化手段661は、USBポート61を介して入力される多重化されたデータを、個別のデータに分離する部分であり、具体的には、グラフィックデータ、動画像データ、動画像表示領域データ、及び画像補正データに分離する。
そして、このデータ逆多重化手段661は、分離したグラフィックデータをデコーダ662に、動画像データをディクリプタ651に、動画像表示領域データをデコーダ662及びスケーラ653に、後述のビデオデコーダ652での動画像復号処理時に得られる画像属性情報に含まれるフレームレート、コンピュータ2で設定されたリフレッシュレート、及び差分データとして入力されるグラフィックデータの画面更新周期等の情報を同期信号生成手段631に出力する。
デコーダ662は、前述した差分画像レンダラーとして機能し、データ逆多重化手段661から出力されたグラフィックデータが一画面を構成するグラフィック画像となるように変換を行う部分である。本実施形態では、前述したようにグラフィックデータとして差分データが送信されてくるので、デコーダ662は、更新前のグラフィックデータをメインメモリ64に保持しておき、新たな差分データとしてのグラフィックデータが入力されたら、差分データの部分だけデータの書き替えを行って新たなグラフィックデータを生成する。このようなデコーダ662で変換されたグラフィックデータは、RGBデータとしてイメージプロセッサ68に出力される。つまり、本実施形態では、デコーダ662は、本発明にいうラスタデータ再構成手段として機能する。
また、このデコーダ662は、データ逆多重化手段661から出力された動画像表示領域データに基づいて、動画像を表示させるべき領域をグラフィック画像中に設定し、動画像が表示される部分以外の領域のグラフィックデータを生成する。
ディクリプタ651は、入力された動画像データを復号するに先立ち、著作権等の関係からコピー防止のために暗号化されている部分を復元して、後段のビデオデコーダ652で復号できるような処理を行う。尚、このディクリプタ651は、必ずしも必要ではなく、このようなコピープロテクトがあるような動画像データの場合に必要となる。
ビデオデコーダ652は、圧縮された状態で送信された動画像データの復号を行う部分であり、例えば、圧縮形式がMPEG2のような場合、圧縮状態の動画像データに、逆DCTをかけて、GOP単位でラスタデータ形式の動画像データに復号する。
スケーラ653は、復号された動画像データの伸縮調整を行う部分であり、解像度、アスペクト比等の表示デバイスの能力に応じて調整を行う。このスケーラ653は、データ逆多重化手段661から出力された動画像表示領域データ、動画像データに含まれる解像度情報、及び液晶パネル53のスペック等に基づいて、動画像データを表示すべき領域及びその領域内での解像度設定を行う。
YUV−RGBコンバータ654は、動画像データのYUV形式のデータをコンピュータ用のRGB形式に変換する部分であり、変換は一定の関係式に基づいて行われる。
イメージプロセッサ68は、前述したように、デコーダ662で復号されたグラフィックデータと、ビデオデコーダ652で復号された動画像データを合成して表示ラスタデータを生成する。さらに、このイメージプロセッサ68は、データ多重化手段661から出力されるコンピュータ2側で設定された画像補正データ、及び、液晶パネル53固有に設定された画像補正データに基づく補正処理を行い、補正後の表示ラスタデータをビデオフレームメモリ67に描き込む。
同期信号生成手段631は、データ逆多重化手段661から出力される画面更新に関する情報に基づいて、パネルコントローラ69の画面更新用の同期信号を生成する部分であり、本実施形態では、動画像データのシリアルヘッダから得られるフレームレートに基づいて、同期信号が生成される。また、この同期信号生成手段631で生成された同期信号は、イメージプロセッサ68にも出力され、イメージプロセッサ68は、この同期信号に基づいて、ビデオフレームメモリ67への表示ラスタデータの描き込みのタイミングを設定している。
(3)画像表示システム1の作用
次に、前述した構成の画像表示システム1の作用を図6及び図7に示されるフローチャートに基づいて説明する。
(3-1)コンピュータ2側の処理
まず、グラフィック画像データ取得手段221は、現在表示中のグラフィック画像をキャプチャし、これをグラフィックデータとして取得する(処理S1)。
次に、グラフィック画像データ取得手段221の差分データ生成部221Aは、前回キャプチャされたグラフィック画像と、今回キャプチャされたグラフィック画像とに基づいて、更新された部分となる差分データの生成を行う(処理S2)。これと並行して、動画像表示領域生成手段222は、キャプチャされたグラフィック画像に基づいて、動画像表示領域を画面上のX−Y位置、大きさ、解像度等の動画像表示領域データを生成する(処理S3)。
一方、上記グラフィックデータの取得と並行して、動画像データ取得手段223は、光ディスク装置25等から入力される動画像データをラスタライズ処理することなく取得する(処理S4)。次に、動画像データ解析手段224は、取得された動画像データのシーケンスヘッダ(MPEG2の場合)の部分から、動画像データのフレームレート、ビットレート、アスペクト比、解像度等の諸情報を画像属性情報として取得する(処理S5)。
上記の各種情報が得られたら、データ多重化手段225は、これらのデータを前述したMPEG−TSやMPEG−PSなどの形式で多重化する(処理S6)。多重化されたデータは、チップセット21が有するUSBコントローラとしての機能により符号化され、USBポート27からUSBケーブル4を介してプロジェクタ3に送信出力される(処理S7)。
(3-2)プロジェクタ3側の処理
コンピュータ2からの多重化されたデータは、USBポート61及びUSBコントローラ62で受信され(処理S8)、さらにUSBコントローラ62により画像処理手段6で処理可能な形式に復号され、データ逆多重化手段661に出力される。
データ逆多重化手段661は、多重化されたデータを個別のグラフィックデータ、動画像表示領域データ、及び動画像データに分離する(処理S9)。
デコーダ662は、分離されたグラフィックデータを差分データとして取得し(処理S10)、更新前のグラフィック画像に基づいて、差分データの部分のみを描き替えたグラフィックデータを更新する(処理S11)。
これと並行して、ビデオラスタライザ65は、動画像データ及び動画像表示領域データを取得し(処理S12、S13)、これらのデータと動画像データに含まれる画像属性情報等に基づいて、動画像のラスタライズ処理を行う(処理S14)。
デコーダ662によるグラフィックデータのラスタライズ、ビデオラスタライザ65によるラスタライズが終了したら、イメージプロセッサ68は、各々のラスタライズされたデータを合成して、表示ラスタデータを生成する(処理S15)。さらに、イメージプロセッサ68は、液晶パネル53に固有の画像補正処理を行って、パネルコントローラ69による走査によって液晶パネル53上に光学像を形成し、投射レンズ55を介してスクリーン上に投射画像を表示させる(処理S16)。
このような本実施形態では、ラスタデータとしてのグラフィックデータにおける画面更新等の処理は専らコンピュータ2側で行われ、圧縮動画像データとしての動画像データは、コンピュータ2で復号処理されることなく、直接プロジェクタ3に送信され、プロジェクタ3のビデオラスタライザ65によってラスタライズ処理されるように構成されている。従って、コンピュータ2側での画像処理負担が軽減されるという利点がある上、動画像データが圧縮された状態で伝送路となるUSBケーブル4中に出力されるので、伝送路の通信負担を軽減することができる。特にプロジェクタ3側で動画像データのラスタライズ処理を行うことにより、伝送路の通信速度が律速となって表示される動画像にコマ落ちやがたつき等が生じることを防止できるという利点がある。
■2.第2実施形態
次に、本発明の第2実施形態について説明する。尚、以下の説明では、既に説明した部分と同一の部分については、同一符号を付してその説明を省略する。
前述した第1実施形態では、画像表示装置としてのプロジェクタ3は、コンピュータ2から出力された圧縮動画像データに基づいて、専ら画像表示だけを行っていた。
これに対して、第2実施形態に係る画像表示システムは、図8に示されるように、プロジェクタ7にスピーカ73が設けられていて、圧縮動画像データを復号された際に画像データと同期して記録された音声データを、スピーカ73から出力するようになっている点が相違する。
(1)画像音声処理手段8の構成
具体的に第2実施形態に係るプロジェクタ7は、図8に示されるように、音声出力用の回路素子が実装され、このプロジェクタ7の画像音声処理手段8は、第1実施形態と同様のUSBポート61、USBコントローラ62、CPU63、メインメモリ64、デマルチプレクサ66、イメージプロセッサ68、及びパネルコントローラ69の他に、ビデオラスタライザ/オーディオデコーダ71及び音声出力部72を備えている。
ビデオラスタライザ/オーディオデコーダ71は、圧縮動画像データのラスタライズ機能に加えて、圧縮動画像データに含まれる動画像データ及び音声データを分離し、さらに復号する音声デコーダとして機能する。このビデオラスタライザ/オーディオデコーダ71で復号された音声データは、メインメモリ64に格納される。
音声出力部72は、メインメモリ64に格納された復号済みの音声データを順次アナログ変換し、増幅してスピーカ73に出力する部分である。
図9には、前述した画像音声処理手段8の機能ブロック構成が示されている。
前述した画像音声処理手段8のビデオラスタライザ/オーディオデコーダ71は、ディクリプタ651、ビデオデコーダ652、スケーラ653、及びYUV−RGBコンバータ654という機能的手段の他、画像音声分離手段711と、オーディオデコーダ712、及び音声出力同期調整手段713を機能的手段として備えている。
画像音声分離手段711は、データ逆多重化手段661で分離され、ディクリプタ651により処理された動画像データを画像データと音声データに分離する部分であり、分離された画像データは、ビデオデコーダ652に出力され、音声データは、オーディオデコーダ712に出力される。尚、本実施形態では、説明の便宜のため、画像音声分離手段711は、前述したデータ逆多重化手段661と別の手段として記載しているが、これらは分離するという点では同じなので、同一のデマルチプレクサによる処理が可能であり、同一の機能的手段として構成してもよい。
オーディオデコーダ712は、画像音声分離手段711により分離された音声データを復号する部分であり、復号された音声データは、前述したメインメモリ64に書き込まれる。
音声出力同期調整手段713は、動画像と音声との多重化ストリーム中に符号化されている動画像及び音声の出力タイムスタンプに応じて、音声出力のタイミングを調整して動画像と音声との適切な同期化を実現する部分である。
具体的には、この音声出力同期調整手段713は、MPEG−TSやMPEG−PSでの多重化時に符号化された動画像及び音声の出力タイムスタンプ(Presentation Time Stamp:PTS)に基づくそれぞれの出力タイミングが一致するように、メインメモリ64に書き込まれた音声データのD/Aコンバータ721への音声データ出力のタイミングを調整する。
図8の音声出力部72は、図9に示されるように、D/Aコンバータ721及びアンプ722を備えて構成され、アンプ722には、スピーカ73が接続されている。
D/Aコンバータ721は、メインメモリ64に格納されたデジタル形式の音声データをアナログ形式の音声信号に変換して出力する部分である。
アンプ722は、D/Aコンバータ721によりアナログ変換された音声信号を増幅し、スピーカ73に出力する部分であり、これにより動画像データに含まれる音声データが音声としてスピーカから出力されるようになる。
(2)作用
次に、前述した構成の画像音声処理手段8の作用について、図10に示されるフローチャートに基づいて説明する。尚、画像データの処理に関しては、第1実施形態と同様なので、同一符号を付してその説明を省略し、音声データの処理を中心に説明する。
コンピュータから入力された動画像データは、USBポート61及びUSBコントローラで受信され(処理S8)、画像音声処理手段8で処理可能な形式に復号され、データ逆多重化手段661に出力される。
データ逆多重化手段661は、多重化されたデータを個別のデータに分離し、動画像データを画像音声分離手段712に出力する(処理S9)。
画像音声分離手段712は、データ逆多重化手段661で分離された動画像データ中の画像データ及び音声データを分離するとともに、動画像及び音声の出力時刻情報を音声出力同期調整手段713に出力する(処理S21)。
オーディオデコーダ712は、圧縮された音声データを復元し、メインメモリ64に復元されたデータの書き込みを行う(処理S22)。
オーディオデコーダ712による復元処理に際し、音声出力同期調整手段713は、画像音声分離手段712から入力された出力時刻情報を取得し、この出力時刻情報に基づいて、音声出力の遅延時間を設定し、音声出力の動画像出力に対する同期調整を行う(処理S23)。
オーディオデコーダ712で復元されたデータは、音声出力同期調整手段713による遅延時間に基づいて、D/Aコンバータ721に出力され、D/Aコンバータ721によってデジタル−アナログ変換がされた後、アンプ722によって音声信号が増幅され、スピーカ73を介して音声出力がなされる(処理S24)。
■3.実施形態の変形
なお、本発明は前述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、前記実施形態では、画像データ出力装置としてコンピュータ2を採用していたが、本発明はこれに限られない。すなわち、画像データ出力装置として、DVD再生装置やゲーム機器等の装置を採用してもよい。
また、前記実施形態では、画像表示装置として液晶プロジェクタ3を採用していたが、本発明はこれに限られず、DLP等の液晶以外の光変調装置を備えたプロジェクタや、バックライト形式の液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等の固定画素型のディスプレイに本発明を採用してもよい
さらに、前記実施形態では、コンピュータ2とプロジェクタ3を接続する伝送路としてUSBケーブル4を採用していたが、本発明はこれに限られない。すなわち、TCP/IP等のLANを用いた伝送路や、IEEE1394等の画像転送可能な伝送路で画像データ出力装置と画像表示装置とを接続したシステムであっても本発明を採用することができる。
その他、本発明の実施の際の具体的な構造及び形状等は、本発明の目的を達成できる範囲で他の構造等としてもよい。
本発明の第1実施形態に係る画像表示システムの構成を表す概要斜視図。 本実施形態における画像データ出力装置の構成を表す模式図。 本実施形態における画像データ出力装置の機能ブロック図。 本実施形態における画像表示装置の構成を表す模式図。 本実施形態における画像表示装置の機能ブロック図。 本実施形態における画像表示システムの作用を説明するフローチャート。 本実施形態における画像表示システムの作用を説明するフローチャート。 本発明の第2実施形態に係る画像表示システムの構成を表す概要斜視図。 本実施形態における画像表示装置の機能ブロック図。 本実施形態における画像表示システムの作用を説明するフローチャート。
符号の説明
1…画像表示システム、2…コンピュータ(画像データ出力装置)、3…プロジェクタ(画像表示装置)、4…USBケーブル(伝送路)、53…液晶パネル(画像形成手段)、68…イメージプロセッサ(ラスタデータ合成手段)、69…パネルコントローラ(走査手段)、221…グラフィックデータ取得手段、221A…差分データ生成部、221B…グラフィックデータ取得部、222…動画像表示領域生成手段(画像領域データ生成手段)223…動画像データ取得手段(圧縮画像データ取得手段)、224…動画像データ解析手段、225…データ多重化手段、631…同期信号生成手段、652…ビデオデコーダ(圧縮画像ラスタライズ手段)、661…データ逆多重化手段、662…デコーダ(非圧縮画像ラスタライズ手段)、711…画像音声分離手段、712…オーディオデコーダ(音声データ復号手段)、713…音声出力同期調整手段、722…アンプ(音声出力手段)

Claims (9)

  1. ラスタデータ、及び圧縮動画像データを多重させて出力する画像データ出力装置と、この画像データ出力装置と伝送路を介して接続され、前記画像データ出力装置から出力された画像データに基づいて、画像を表示する画像表示装置とを備えた画像表示システムであって、
    前記画像データ出力装置は、
    前記ラスタデータを取得するラスタデータ取得手段と、
    前記圧縮動画像データを取得する圧縮動画像データ取得手段と、
    前記ラスタデータ内における前記圧縮動画像データによる動画像の表示領域を表す動画像表示領域データを生成する動画像表示領域データ生成手段と、
    前記ラスタデータ取得手段で取得されたラスタデータ、前記圧縮動画像データ取得手段で取得された圧縮動画像データ、及び前記動画像表示領域データ生成手段により生成された動画像表示領域データを多重化するデータ多重化手段と、
    多重化されたデータを、前記伝送路を介して送信するデータ送信手段とを備え、
    前記画像表示装置は、
    前記画像データ出力装置から送信されたデータを、前記伝送路を介して受信するデータ受信手段と、
    前記データ受信手段で受信したデータを個別のデータに分離するデータ逆多重化手段と、
    分離された圧縮動画像データのラスタライズ処理を行って、動画像ラスタデータを生成する動画像ラスタライズ手段と、
    前記動画像ラスタライズ手段で生成された動画像ラスタデータ、及び、前記ラスタデータを合成し、表示ラスタデータを生成する表示ラスタデータ合成手段と、
    生成された表示ラスタデータに基づいて画像形成を行う画像形成手段とを備えていることを特徴とする画像表示システム。
  2. 請求項1に記載の画像表示システムにおいて、
    前記画像データ出力装置は、
    画面更新前後の差分データを生成する差分データ生成手段を備え、
    前記ラスタデータ取得手段は、前記差分データ生成手段で生成された差分データをラスタデータとして取得し、
    前記画像表示装置は、
    分離されたラスタデータと、画面更新前の表示ラスタデータとに基づいて、ラスタデータを再構成するラスタデータ再構成手段を備えることを特徴とする画像表示システム。
  3. 請求項2に記載の画像表示システムにおいて、
    前記画像表示装置は、
    前記圧縮動画像データに含まれるフレームレート情報、前記画像データ出力装置から出力されるリフレッシュレート情報、及び前記差分データ生成部によるデータ生成周期となる更新周期情報のいずれかに基づいて、前記データ合成手段で生成される表示ラスタデータの画面更新を行うための画像同期信号を生成する同期信号生成手段と、
    生成された画像同期信号に基づいて、前記画像形成手段において走査を行う走査手段とを備えていることを特徴とする画像表示システム。
  4. 請求項1〜請求項3のいずれかに記載の画像表示システムにおいて、
    前記画像表示装置は、
    前記動画像ラスタライズ手段による動画像ラスタデータの生成に際して、前記圧縮動画像データに含まれる音声データを分離する画像音声分離手段と、
    この画像音声分離手段により分離された前記音声データを復号する音声データ復号手段と、
    この音声データ復号手段により復号された音声を出力する音声出力手段と、
    この音声出力手段による音声出力のタイミングを、前記動画像ラスタライズ手段による動画像ラスタデータの生成時間と同期させる音声出力同期調整手段とを備えていることを特徴とする画像表示システム。
  5. ラスタデータ、及び圧縮動画像データを多重させて出力する画像データ出力装置と伝送路を介して接続され、前記画像データ出力装置から出力された画像データに基づいて、画像を表示する画像表示装置であって、
    前記画像データ出力装置は、前記ラスタデータ、前記圧縮動画像データ、及び前記ラスタデータ内における前記圧縮動画像データによる動画像の表示領域を表す動画像表示領域データを多重して出力するように構成され、
    前記画像データ出力装置から送信されたデータを、前記伝送路を介して受信するデータ受信手段と、
    前記データ受信手段で受信したデータを個別のデータに分離するデータ逆多重化手段と、
    分離された圧縮動画像データのラスタライズ処理を行って、動画像ラスタデータを生成する動画像ラスタライズ手段と、
    前記圧縮動画像ラスタライズ手段で生成された動画像ラスタデータ、及び、前記ラスタデータを合成し、表示ラスタデータを生成する表示ラスタデータ合成手段と、
    生成された表示ラスタデータに基づいて画像形成を行う画像形成手段とを備えていることを特徴とする画像表示装置。
  6. 請求項5に記載の画像表示装置において、
    前記動画像ラスタライズ手段による動画像ラスタデータの生成に際して、前記圧縮動画像データに含まれる音声データを分離する画像音声分離手段と、
    この画像音声分離手段により分離された前記音声データを復号する音声データ復号手段と、
    この音声データ復号手段により復号された音声を出力する音声出力手段と、
    この音声出力手段による音声出力のタイミングを、前記動画像ラスタライズ手段による動画像ラスタデータの生成時間と同期させる音声出力同期調整手段とを備えていることを特徴とする画像表示装置。
  7. ラスタデータ、及び圧縮動画像データを多重させて出力し、伝送路を介して接続される画像表示装置に画像を表示させる画像データ出力装置であって、
    前記ラスタデータを取得するラスタデータ取得手段と、
    前記圧縮動画像データを取得する圧縮動画像データ取得手段と、
    前記ラスタデータ内における前記圧縮動画像データによる動画像の表示領域を表す動画像表示領域データを生成する動画像表示領域データ生成手段と、
    前記ラスタデータ取得手段で取得されたラスタデータ、前記圧縮動画像データ取得手段で取得された圧縮動画像データ、及び前記動画像表示領域データ生成手段により生成された動画像表示領域データを多重化するデータ多重化手段と、
    多重化されたデータを、前記伝送路を介して送信するデータ送信手段とを備えていることを特徴とする画像データ出力装置。
  8. ラスタデータ、及び圧縮動画像データを多重させて出力し、伝送路を介して接続される画像表示装置に画像を表示させる画像データ出力装置の画像処理を行う画像処理手段上で実行される画像処理プログラムであって、
    前記画像処理手段を、
    前記ラスタデータを取得するラスタデータ取得手段と、
    前記圧縮動画像データを取得する圧縮動画像データ取得手段と、
    前記ラスタデータ内における前記圧縮動画像データによる動画像の表示領域を表す動画像表示領域データを生成する動画像表示領域データ生成手段と、
    前記ラスタデータ取得手段で取得されたラスタデータ、前記圧縮動画像データ取得手段で取得された圧縮動画像データ、及び前記動画像表示領域データ生成手段により生成された動画像表示領域データを多重化するデータ多重化手段と、
    多重化されたデータを、前記伝送路を介して送信するデータ送信手段として機能させることを特徴とする画像処理プログラム。
  9. 請求項8に記載の画像処理プログラムが記録されたことを特徴とするコンピュータ読み取り可能な記録媒体。
JP2005258407A 2005-09-06 2005-09-06 画像表示システム、画像表示装置、画像データ出力装置、画像処理プログラム、及びこの画像処理プログラムを記録した記録媒体 Pending JP2007072130A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005258407A JP2007072130A (ja) 2005-09-06 2005-09-06 画像表示システム、画像表示装置、画像データ出力装置、画像処理プログラム、及びこの画像処理プログラムを記録した記録媒体
US11/470,025 US8063894B2 (en) 2005-09-06 2006-09-05 Image display system, image display device, and image data output device
CNA2006101289762A CN1928985A (zh) 2005-09-06 2006-09-06 图像显示系统、显示装置、数据输出装置、处理程序及记录媒介物

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005258407A JP2007072130A (ja) 2005-09-06 2005-09-06 画像表示システム、画像表示装置、画像データ出力装置、画像処理プログラム、及びこの画像処理プログラムを記録した記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011055414A Division JP2011158915A (ja) 2011-03-14 2011-03-14 画像表示システム、画像表示装置、画像表示装置の制御方法、及び画像表示システムによる画像表示方法

Publications (1)

Publication Number Publication Date
JP2007072130A true JP2007072130A (ja) 2007-03-22

Family

ID=37829692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005258407A Pending JP2007072130A (ja) 2005-09-06 2005-09-06 画像表示システム、画像表示装置、画像データ出力装置、画像処理プログラム、及びこの画像処理プログラムを記録した記録媒体

Country Status (3)

Country Link
US (1) US8063894B2 (ja)
JP (1) JP2007072130A (ja)
CN (1) CN1928985A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213179A (ja) * 2009-03-12 2010-09-24 Seiko Epson Corp 画像音声供給装置、画像音声供給システム、画像音声供給方法、及び画像音声供給用プログラム
JP2012147225A (ja) * 2011-01-12 2012-08-02 Seiko Epson Corp プロジェクター、プロジェクターシステム、プロジェクターのデータ出力方法およびプロジェクターシステムのデータ出力方法
JP2013090805A (ja) * 2011-10-26 2013-05-16 Sophia Co Ltd 遊技機
JP2013090804A (ja) * 2011-10-26 2013-05-16 Sophia Co Ltd 遊技機
US8963802B2 (en) 2010-03-26 2015-02-24 Seiko Epson Corporation Projector, projector system, data output method of projector, and data output method of projector system

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4450021B2 (ja) * 2007-07-05 2010-04-14 ソニー株式会社 記録再生装置、記録装置、再生装置、記録方法、再生方法およびコンピュータプログラム
JP5532726B2 (ja) * 2009-07-31 2014-06-25 ソニー株式会社 記録媒体製作方法、記録媒体及び記録媒体の再生装置
JP5440230B2 (ja) * 2010-02-10 2014-03-12 セイコーエプソン株式会社 画像処理装置、画像表示システム、及び画像処理方法
WO2011099254A1 (ja) * 2010-02-15 2011-08-18 パナソニック株式会社 データ処理装置及びデータ符号化装置
JP5688255B2 (ja) * 2010-09-15 2015-03-25 日立マクセル株式会社 映像処理装置、表示装置及び映像処理方法
JP5720211B2 (ja) * 2010-12-03 2015-05-20 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム
KR101921935B1 (ko) * 2012-02-16 2018-11-27 삼성전자 주식회사 카메라의 동영상 촬영장치 및 방법.
US20130251261A1 (en) * 2012-03-23 2013-09-26 Marvell World Trade Ltd. Method And Apparatus For Image Data Compression
KR20170083889A (ko) * 2016-01-11 2017-07-19 삼성전자주식회사 디스플레이 장치 및 그 동작 방법
CN108449634B (zh) * 2018-03-27 2021-04-23 武汉斗鱼网络科技有限公司 一种多进程解码的播放方法、计算机设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08172601A (ja) * 1994-12-19 1996-07-02 Matsushita Electric Ind Co Ltd ディスク再生装置
JP2000184346A (ja) * 1998-12-17 2000-06-30 Toshiba Corp 情報端末装置及び情報通信システム並びに表示状態制御方法
JP2004069996A (ja) * 2002-08-06 2004-03-04 Seiko Epson Corp プロジェクタシステム並びに情報処理装置及びプロジェクタ
JP2004177784A (ja) * 2002-11-28 2004-06-24 Seiko Epson Corp プロジェクタシステム及びプロジェクタ

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE38564E1 (en) * 1997-03-07 2004-08-10 General Instrument Corporation Motion estimation and compensation of video object planes for interlaced digital video
DE69942224D1 (de) * 1998-01-27 2010-05-20 Sharp Kk Bewegtbilddecoder
JP4058888B2 (ja) * 1999-11-29 2008-03-12 セイコーエプソン株式会社 Ram内蔵ドライバ並びにそれを用いた表示ユニットおよび電子機器
US6774912B1 (en) * 2000-03-16 2004-08-10 Matrox Graphics Inc. Multiple display device display controller with video overlay and full screen video outputs
JP2002344898A (ja) * 2001-05-17 2002-11-29 Pioneer Electronic Corp 映像表示装置、音声調整装置及び映像音声出力装置、並びに映像音声同期方法
US7012610B2 (en) * 2002-01-04 2006-03-14 Ati Technologies, Inc. Portable device for providing dual display and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08172601A (ja) * 1994-12-19 1996-07-02 Matsushita Electric Ind Co Ltd ディスク再生装置
JP2000184346A (ja) * 1998-12-17 2000-06-30 Toshiba Corp 情報端末装置及び情報通信システム並びに表示状態制御方法
JP2004069996A (ja) * 2002-08-06 2004-03-04 Seiko Epson Corp プロジェクタシステム並びに情報処理装置及びプロジェクタ
JP2004177784A (ja) * 2002-11-28 2004-06-24 Seiko Epson Corp プロジェクタシステム及びプロジェクタ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213179A (ja) * 2009-03-12 2010-09-24 Seiko Epson Corp 画像音声供給装置、画像音声供給システム、画像音声供給方法、及び画像音声供給用プログラム
US8963802B2 (en) 2010-03-26 2015-02-24 Seiko Epson Corporation Projector, projector system, data output method of projector, and data output method of projector system
JP2012147225A (ja) * 2011-01-12 2012-08-02 Seiko Epson Corp プロジェクター、プロジェクターシステム、プロジェクターのデータ出力方法およびプロジェクターシステムのデータ出力方法
JP2013090805A (ja) * 2011-10-26 2013-05-16 Sophia Co Ltd 遊技機
JP2013090804A (ja) * 2011-10-26 2013-05-16 Sophia Co Ltd 遊技機

Also Published As

Publication number Publication date
CN1928985A (zh) 2007-03-14
US20070052847A1 (en) 2007-03-08
US8063894B2 (en) 2011-11-22

Similar Documents

Publication Publication Date Title
JP2007072130A (ja) 画像表示システム、画像表示装置、画像データ出力装置、画像処理プログラム、及びこの画像処理プログラムを記録した記録媒体
JP4375313B2 (ja) 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体
JP6671022B2 (ja) 表示装置、表示方法及びコンピュータプログラム
JP6558599B2 (ja) 再生装置、再生方法、及び、コンピュータプログラム
US8810563B2 (en) Transmitting apparatus, stereoscopic image data transmitting method, receiving apparatus, and stereoscopic image data receiving method
JP6355521B2 (ja) デジタル放送受信装置及び方法
US7453522B2 (en) Video data processing apparatus
JP4625781B2 (ja) 再生装置
JP3791904B2 (ja) マルチディスプレイ装置
WO2018235337A1 (ja) 映像表示システム及び映像表示方法
JP2009296081A (ja) 映像再生装置
JP5194343B2 (ja) 情報再生装置及び情報再生方法
JP2006098765A (ja) 画像表示装置、画像表示システム、画像出力機器、及び画像表示装置のリフレッシュレート設定方法
JP2011158915A (ja) 画像表示システム、画像表示装置、画像表示装置の制御方法、及び画像表示システムによる画像表示方法
JP2020092444A (ja) 表示装置、表示方法及びコンピュータプログラム
JP6868797B2 (ja) 変換方法及び変換装置
WO2022137326A1 (ja) 映像音響合成装置、方法及びプログラム
JP2005303816A (ja) 動画再生装置
JP2006180091A (ja) コンテンツ合成装置及び方法
JP5159846B2 (ja) 再生装置および再生装置の再生方法
JP5201251B2 (ja) 情報再生装置及び情報再生方法
JP2004007199A (ja) 映像信号表示装置
KR20040024455A (ko) 오디오/비디오 디지털 디코더를 제어하는 방법
JP2012133880A (ja) 復号化装置、復号方法およびディスク型記録媒体

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070704

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070813

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120110