JP2016161752A - 画像処理装置、表示装置、及び、画像処理方法 - Google Patents

画像処理装置、表示装置、及び、画像処理方法 Download PDF

Info

Publication number
JP2016161752A
JP2016161752A JP2015040059A JP2015040059A JP2016161752A JP 2016161752 A JP2016161752 A JP 2016161752A JP 2015040059 A JP2015040059 A JP 2015040059A JP 2015040059 A JP2015040059 A JP 2015040059A JP 2016161752 A JP2016161752 A JP 2016161752A
Authority
JP
Japan
Prior art keywords
image
processing
data
video
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015040059A
Other languages
English (en)
Other versions
JP2016161752A5 (ja
JP6540099B2 (ja
Inventor
賢次 水城
Kenji Mizushiro
賢次 水城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015040059A priority Critical patent/JP6540099B2/ja
Priority to US15/056,908 priority patent/US10182201B2/en
Publication of JP2016161752A publication Critical patent/JP2016161752A/ja
Publication of JP2016161752A5 publication Critical patent/JP2016161752A5/ja
Application granted granted Critical
Publication of JP6540099B2 publication Critical patent/JP6540099B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness

Abstract

【課題】処理対象の画像や映像に対して複数の処理を行う場合に、効率よく、適切な実行順序で処理を行うことが可能な画像処理装置、表示装置、及び、画像処理方法を提供する。
【解決手段】プロジェクターは、静止画像データ、または、映像データを構成するフレームのデータが処理対象データとして入力された場合に、処理対象データに対し複数の画像処理を実行可能に構成される。映像処理部2は、実行する画像処理の実行順を制御するセレクター56と、制御部により制御された実行順で処理された処理対象データを出力するパネル補正部27と、を備える。
【選択図】図2

Description

本発明は、画像処理装置、表示装置、及び、画像処理方法に関する。
従来、画像を表示する場合に、入力画像に対し複数種類の処理を施して表示する手法が知られている(例えば、特許文献1参照)。特許文献1記載の装置は、複数のプロジェクターを備えたシステムであり、描画ツールにより描画された画像を入力画像に重ねて表示する処理と、複数のプロジェクターの画像が重なる重なり部分の輝度を下げる処理とを行う。
特開2008−116874号公報
画像に複数の処理を施す場合、処理の実行順序によって、処理が完了した後の画像の態様が大きく影響を受ける可能性がある。このため、最終的な画像が所望の態様になるように、処理の実行順序を予め固定しておくことが考えられる。例えば、特許文献1記載のシステムでは、描画された画像を入力画像に重ねる処理の後に、重なり部分の輝度を下げる処理を行うように、順序が固定される。
ところで、より多くの種類の処理を実行可能な装置やシステムでは、実行可能な処理の全てを行うとは限らないし、常に同じ実行順序では所望の結果が得られない可能性がある。このような問題に対処するためには、様々なケースに対応できるように、画像処理に関する制御が複雑化し、例えば画像処理を行うハードウェア回路では回路構成が複雑化することが懸念される。
本発明は、上述した事情に鑑みてなされたものであり、処理対象の画像や映像に対して複数の処理を行う場合に、効率よく、適切な実行順序で処理を行うことが可能な画像処理装置、表示装置、及び、画像処理方法を提供することを目的とする。
上記目的を達成するために、本発明の画像処理装置は、静止画像データ、または、映像データを構成するフレームのデータが処理対象データとして入力された場合に、前記処理対象データに対し複数の画像処理を実行可能に構成され、複数の前記画像処理の実行順を制御する制御部と、前記制御部により制御された実行順で処理された前記処理対象データを出力する出力部と、を備えること、を特徴とする。
本発明によれば、処理対象データに対する複数の画像処理の実行順を制御できる。例えば、制御部は、複数の画像処理の実行順を変更する。このため、処理対象の画像や映像に対して複数の処理を行う場合に、効率よく、適切な実行順序で処理を行うことができる。
また、本発明は、上記画像処理装置において、少なくともいずれかの前記画像処理により、前記処理対象データの全体を処理対象として処理を実行すること、を特徴とする。
本発明によれば、画像処理の実行順序が、複数の画像処理を経た結果に対して大きく影響する場合に、複数の画像処理を適切な実行順で実行できる。
また、本発明は、上記画像処理装置において、前記制御部は、複数の前記画像処理のそれぞれの実行及び不実行を制御し、実行する前記画像処理の実行順を制御すること、を特徴とする。
本発明によれば、処理対象データに対する複数の画像処理のそれぞれについて、実行するか実行しないかを制御できる。このため、処理対象の画像や映像に対して複数の処理を行う場合に、効率よく処理を行うことができる。
また、本発明は、上記画像処理装置において、それぞれの前記画像処理を実行とするか不実行とするかの組合せに対応して前記画像処理の実行順が予め設定されたこと、を特徴とする。
本発明によれば、それぞれの画像処理の実行の要否に基づき、実行順を速やかに決定できる。また、実行順を決定する処理の負荷を軽減できる。
また、本発明は、上記画像処理装置において、複数の前記画像処理は、前記処理対象データに基づく画像に対し他の画像を重畳する処理を含むこと、を特徴とする。
本発明によれば、画像処理の実行順序の影響が大きい場合に、複数の画像処理を適切な実行順で実行できる。
また、本発明は、上記画像処理装置において、複数の前記画像処理は、前記処理対象データに基づく画像の輝度を、予め設定された面内輝度分布に従って変化させる処理を含むこと、を特徴とする。
本発明によれば、画像処理の実行順序の影響が大きい場合に、複数の画像処理を適切な実行順で実行できる。
また、本発明は、上記画像処理装置において、複数の前記画像処理を実行する複数処理実行部を備え、前記制御部は、前記複数処理実行部が実行する複数の前記画像処理のそれぞれについて、実行及び不実行を制御すること、を特徴とする。
本発明によれば、複数の処理を一つの処理実行部で実行する場合の実行順序を適切に制御できる。このため、回路構成の自由度が高まり、より一層の効率化を図ることができる。
また、本発明は、上記画像処理装置において、前記制御部は、前記処理対象データに対し面内の位置に応じて輝度を変更する輝度変更処理と、前記処理対象データにメニュー画面用の表示オブジェクトを重畳するメニューOSD処理とを含む複数の前記画像処理を実行する場合の実行順を、前記輝度変更処理が前記メニューOSD処理よりも前に実行されるよう制御すること、を特徴とする。
本発明によれば、処理対象データにメニュー画面用の表示オブジェクトを重畳する場合に、この表示オブジェクトに輝度変更処理が影響しないので、メニュー画面用の表示オブジェクトを、明瞭に視認可能な状態とすることができる。
また、本発明は、上記画像処理装置において、前記制御部は、前記処理対象データに対し面内の位置に応じて輝度を変更する輝度変更処理と、前記処理対象データに画像を含む表示オブジェクトを重畳する画像OSD処理とを含む複数の前記画像処理を実行する場合の実行順を、前記画像OSD処理が前記輝度変更処理よりも前に実行されるよう制御すること、を特徴とする。
本発明によれば、処理対象データに画像を含む表示オブジェクトを重畳する場合に、この表示オブジェクトに輝度変更処理を施すことができ、処理対象データ全体の輝度を違和感なく調整できる。
また、上記目的を達成するために、静止画像データ、または、映像データを構成するフレームのデータが処理対象データとして入力された場合に、前記処理対象データに対し複数の画像処理を実行可能に構成され、複数の前記画像処理の実行順を制御する制御部と、前記制御部により制御された実行順で処理された前記処理対象データに基づき、画像を表示する表示部と、を備えることを特徴とする。
本発明によれば、処理対象データに対する複数の画像処理のそれぞれの実行及び不実行と、画像処理の実行順とを制御できる。例えば、制御部は、複数の画像処理の実行順を変更する。このため、処理対象の画像や映像に対して複数の処理を行う場合に、効率よく、適切な実行順序で処理を行うことができる。
また、上記目的を達成するために、本発明の画像処理方法は、静止画像データ、または、映像データを構成するフレームのデータが処理対象データとして入力された場合に、前記処理対象データに対して実行可能な複数の画像処理について実行順を制御し、前記実行順で前記処理対象データに対する前記画像処理を実行し、処理された前記処理対象データを出力すること、を特徴とする。
本発明によれば、処理対象データに対する複数の画像処理のそれぞれの実行及び不実行と、画像処理の実行順とを制御できる。例えば、複数の画像処理の実行順を変更できる。このため、処理対象の画像や映像に対して複数の処理を行う場合に、効率よく、適切な実行順序で処理を行うことができる。
実施形態に係るプロジェクションシステムの構成図。 プロジェクターが備える映像処理部の機能ブロック図。 プロジェクターの機能の説明図。 プロジェクターの機能の説明図。 プロジェクターの機能の説明図。 プロジェクターの機能の説明図。 プロジェクターの動作を示すフローチャート。 プロジェクターが有する実行順序テーブルの構成を示す模式図。 プロジェクターの動作を示すフローチャートである。 プロジェクターの動作を示すフローチャートである。 プロジェクターの動作を示すフローチャートである。 プロジェクターの動作を示すフローチャートである。 映像処理部の動作の説明図。 映像処理部の動作の説明図。 プロジェクターの機能の説明図。 プロジェクションシステムの第1変形例の構成図。 プロジェクションシステムの第2変形例の構成図。
以下、図面を参照して本発明を適用した実施形態について説明する。
図1は、本発明を適用した実施形態に係るプロジェクションシステム100の構成図である。
プロジェクションシステム100は、スクリーンSCに画像を投射する複数のプロジェクター1A、1Bと、プロジェクター1A、1Bに対し処理対象のデータを供給する映像供給装置3と、を備える。
本実施形態のプロジェクションシステム100では、プロジェクター1A、1Bは横(水平)方向に並べて配置され、それぞれ、一つの面を構成するスクリーンSCに画像を投射する。このため、プロジェクター1Aの投射画像PLと、プロジェクター1Bの投射画像PRとがスクリーンSC上で横方向に並ぶ。また、後述するように、投射画像PLと投射画像PRとは一部が重なるように投射される。このため、スクリーンSCには、投射画像PLと投射画像PRとが重なる重畳部Mが発生する。
プロジェクションシステム100が有するプロジェクターの数は任意であり、例えば3台以上のプロジェクターを水平方向に並べてもよいし、垂直(鉛直)方向にプロジェクターを並べてもよく、より多数のプロジェクターを備えた構成としてもよい。
プロジェクションシステム100では、プロジェクター1Aとプロジェクター1Bに異なる画像を表示することが可能である。そして、プロジェクター1Aの投射画像PLとプロジェクター1Bの投射画像PRとがスクリーンSC上で一つの大きな画像を形成することもできる。
さらに、プロジェクター1A、1Bのそれぞれは、後述するように、主映像と副映像とを組み合わせて合成した合成画像を投射できる。プロジェクター1Aとプロジェクター1Bには、異なる主映像と、異なる副映像とを入力することができ、プロジェクター1A、1Bのそれぞれが主映像と副映像とを合成する処理を行い、スクリーンSCに合成画像を投射する。プロジェクター1Aには、主映像を構成する映像データであるデータD1と、副映像を構成する映像データであるデータD2とを映像供給装置3から入力できる。また、プロジェクター1Bには、主映像を構成する映像データであるデータD3と、副映像を構成する映像データであるデータD4とを映像供給装置3から入力できる。
映像供給装置3は、例えば、DVDプレーヤー等の映像再生装置、デジタルテレビチューナー等の放送受信装置、ビデオゲーム機やパーソナルコンピューター等の映像出力装置が挙げられる。映像供給装置3は、パーソナルコンピューター等と通信して映像データを受信する通信装置等であってもよい。また、映像供給装置3は、ディジタル映像データを出力する装置に限定されず、アナログ映像信号を出力する装置であってもよい。この場合、映像供給装置3の出力側またはプロジェクター1A,1Bのインターフェイス部11に、アナログ映像信号からディジタル映像データを生成するアナログ/ディジタル変換装置を設ければよい。また、インターフェイス部11が備えるコネクター及びインターフェイス回路の具体的な仕様や数は任意である。
映像供給装置3は、インターフェイス部11が対応可能なデータフォーマットでディジタル映像データを出力する。データフォーマットは、具体的には解像度、フレームレート、階調数(色数)、色空間、転送レート等を含む。プロジェクター1A,1Bは、映像供給装置3から静止画像データが入力されても動作できる。この場合、映像供給装置3が出力するデータは、映像データのデータフォーマットと同様のフレームレートで複数のフレームが連続する形態であり、フレームの画像が同じ画像となっている。つまり、映像供給装置3からプロジェクター1A,1Bに入力されるデータは、インターフェイス部11が対応可能なデータフォーマットであれば、データの内容が静止画像であっても映像(動画像)であってもよい。以下の説明では、プロジェクター1A,1Bに映像供給装置3から入力されるデータを、映像データと呼ぶ。
映像供給装置3は、パーソナルコンピューターとしてプロジェクションシステム100を制御する機能を有してもよい。また、映像供給装置3が出力する映像データは、映像供給装置3が記憶するデータに限定されない。映像供給装置3は、例えば可搬型の記憶媒体や通信ネットワークにより映像供給装置3が取得するデータを、プロジェクター1A、1Bに出力してもよい。また、映像供給装置3は、プロジェクションシステム100におけるプロジェクター1A、1Bの投射画像の相対位置、及び、プロジェクター1Aの投射画像、プロジェクター1Bの投射画像、及び重畳部Mの面積比や長さの比を制御する。
例えば、映像供給装置3が、プロジェクションシステム100によるマルチプロジェクションを管理するアプリケーションソフトウェアを実行する。映像供給装置3は、プロジェクションシステム100で投射する画像を分割して、プロジェクター1A、1Bのそれぞれに対応する画像を生成して、映像データとして出力する。また、映像供給装置3は、プロジェクター1A、1Bのそれぞれにおいて映像データに対し実行する処理に関し、設定用の制御データを出力して、処理内容を設定してもよい。
また、プロジェクションシステム100は、スクリーンSCに対する位置指示操作を検出する位置検出部6と、位置検出部6が検出した位置のデータを取得して描画処理を行う描画装置7とを備える。
指示体5は、例えばペン型の本体を有し、ユーザーが手に持って使用する。位置検出部6は、スクリーンSC上の所定の位置検出範囲を対象として、指示体5により指示される位置を検出する。ユーザーがスクリーンSC上の任意の位置を指示体5で指し示すと、位置検出部6は、指示位置を検出し、指示位置を示す座標データを描画装置7に出力する。
位置検出部6が指示位置を検出可能な位置検出範囲は、例えば、プロジェクター1A、1Bが映像を投射する表示領域を含む範囲に設定される。位置検出部6が指示体5の指示位置を検出する具体的な方法は、例えば、位置検出部6が撮像素子を備え、撮像画像データから指示体5の画像を検出する方法を利用できる。この場合、指示体5に代えて、例えばユーザーの手指を指示体として用いることができる。また、例えば、指示体5が赤外光、可視光、紫外光等を発する発光部を備え、位置検出部6が指示体5の発光を検出する方法がある。その他の方法を用いることも勿論可能である。
描画装置7は、位置検出部6から入力される座標データに従って画像を描画する。例えば、描画装置7は、指示体5で指示された位置を頂点とする幾何学図形や、指示体5の指示位置の軌跡に沿った直線や曲線の画像を描画する。描画する画像の形状、色、線の太さ、塗りつぶしに関する設定など、各種の属性は、指示体5によって指定できる。具体的には、プロジェクター1A、1Bが、メニュー操作用のアイコンが配置されたメニューバー等の操作用画像を投射する。ユーザーが指示体5によってこの操作用画像の位置を指示すると、指示位置を位置検出部6が検出する。描画装置7は、指示位置の座標データが操作用画像に対応する位置を示すデータである場合には、操作用画像に割り当てられた機能を特定し、特定した機能を実行して描画に関する属性の設定等を行う。
描画装置7は、画像を描画した場合に、描画した画像のデータD5、D6をプロジェクター1A、1Bに出力する。ここで、描画装置7は、描画した画像の全体を、プロジェクター1A、1Bの両方に出力してもよい。この場合、データD5、D6は同じ内容のデータとなる。また、描画装置7は、描画した画像を、プロジェクター1A、1Bのそれぞれに対応して分割し、分割した画像を示すデータD5をプロジェクター1Aに出力し、データD6をプロジェクター1Bに出力してもよい。
また、描画装置7は、位置検出部6が検出した指示位置の座標データを、プロジェクター1A、1Bに出力してもよい。この場合、プロジェクター1A、1Bのそれぞれにおいて、制御部10が座標データに基づく描画を行うことができる。
映像供給装置3がパーソナルコンピューター等の制御機能を有する装置で構成される場合、描画装置7の機能を映像供給装置3が実装してもよい。すなわち、指示体5の指示位置を検出する位置検出部6が、映像供給装置3に接続されてもよい。また、位置検出部6を、センサー(カメラを含む)で構成し、このセンサーの検出結果に基づき指示位置を特定する機能を映像供給装置3が実行してもよい。
表示装置としてのプロジェクター1A,1Bは、外部の装置を接続可能なインターフェイス(I/F)部11を備える。インターフェイス部11には複数の装置を接続することが可能であり、接続可能な装置の種類についても特に制限されない。本実施形態では、インターフェイス部11に、映像供給装置3及び描画装置7が接続される。
本実施形態では、プロジェクター1A、1Bは同一の構成を有するプロジェクターであるため、以下ではプロジェクター1Aについて説明する。プロジェクター1A、1Bにおいて共通する構成部には図に同符号を付して示し、説明を省略する。
プロジェクター1Aは、プロジェクター1Aの各部を制御する制御部10と、インターフェイス部11に入力される映像データに基づく映像をスクリーンSCに表示(投射)する画像形成部12と、を備える。また、インターフェイス部11には、映像データを処理して表示用の映像信号を画像形成部12に出力する映像処理部2(画像処理装置)が接続される。
画像形成部12(表示部)は、光源13、変調部14、投射光学系15、光源制御部16、および、表示駆動部17を備える。
光源13は、キセノンランプ、超高圧水銀ランプ等のランプ類、或いは、LEDやレーザー光源等の固体光源で構成される。光源13は、光源制御部16から供給される電力により点灯し、変調部14に向けて光を発する。光源制御部16は、制御部10の制御に従って、光源13の発光輝度を調整できる。
変調部14は、光源13が発する光を変調して画像光を生成し、画像光を投射光学系15に照射する。本実施形態では、変調部14が、赤色(R)、緑色(G)、及び、青色(B)の各色に対応する3つの液晶ライトバルブを備え、光源13が発した光を液晶ライトバルブに透過させる構成を例示する。
変調部14の3つの液晶ライトバルブには表示駆動部17が接続される。表示駆動部17は、映像処理部2が出力する映像信号に基づき、液晶ライトバルブの各画素を駆動して、液晶ライトバルブにフレーム(画面)単位で画像を描画する。
光源13と変調部14との間の光路または変調部14には、リフレクター、レンズ群、偏光板、調光素子等(いずれも図示略)を設けてもよい。また、変調部14は、反射型の液晶パネルを用いた構成とすることができる。この場合、変調部14は、光源13が発する光を液晶パネルに反射させ、反射光を投射光学系15に導く。また、変調部14を、デジタルミラーデバイス(DMD)を用いた構成とすることもでき、1枚のDMDとカラーホイールを備えた構成としてもよい。
投射光学系15は、変調部14により変調された画像光をスクリーンSCに向けて導き、スクリーンSC上で画像を結像させる。投射光学系15は、例えば、3つの液晶ライトバルブを通った光を合成するプリズム、画像光を導くレンズ群やミラー等の光学素子を有する構成としてもよい。さらに、投射光学系15は、スクリーンSCの映像を拡大・縮小するズームレンズ、焦点調整をするフォーカスレンズ、ズームの度合いを調整するズーム調整用モーター、フォーカスの調整を行うフォーカス調整用モーター等を備えてもよい。
映像処理部2は、制御部10の制御に従って、インターフェイス部11に入力される映像データに対し、色調補正等の後述する処理を実行する。映像処理部2が処理した映像データは、フレーム毎に映像信号に変換され、表示駆動部17に入力される。
制御部10は、プロジェクター1Aの各部を制御するプロセッサーを備えて構成される。制御部10は、例えば、CPU10a、ROM10b、及びRAM10cを備え、ROM10bが記憶するプログラムをCPU10aが実行することにより、プロジェクター1A,1Bの各部を制御する。制御部10に不揮発性の記憶部(図示略)を接続し、この記憶部が記憶するプログラムを制御部10が実行してもよい。また、制御部10は、ソフトウェアによりプロジェクター1Aの制御を行う構成に限定されず、ASIC(Application Specific Integrated Circuit)等のハードウェアで構成されてもよい。
制御部10は、映像処理部2が実行する処理の実行タイミング、実行条件等を制御する。また、制御部10は、画像形成部12の光源制御部16を制御して、光源13の輝度の調整等を行う。
制御部10は、描画装置7がインターフェイス部11に入力するデータD5を取得して、映像処理部2が備えるDRAM22(図2)に書き込む処理を実行する。また、制御部10は、後述するOSD画像をDRAM22に書き込む処理を実行する。
また、プロジェクター1Bは、上述したプロジェクター1Aと同様に構成される。
図2は、プロジェクター1Aが備える映像処理部2を詳細に示す機能ブロック図である。プロジェクター1Bが備える映像処理部2も同様に構成される。
映像処理部2は、インターフェイス部11から映像データが入力される入力処理部21、入力処理部21に入力される映像データを処理する各種処理部、及び、処理された映像データを記憶するメモリーを備える。映像処理部2が有するメモリーの具体的仕様は特に制限されず、揮発性メモリーであっても不揮発性メモリーであってもよい。
本実施形態では、映像処理部2が、映像データを記憶するメモリーとしてDRAM22を備え、DRAM22に、DRAM22に対する映像データの書き込み及び読み出しを制御するDRAMコントローラー23を接続した構成を説明する。DRAM22は、いわゆるフレームメモリーとしても機能し、映像データをフレーム単位で記憶する。また、DRAM22に、映像データのフレームと、このフレームに関連する制御データとを対応付けて記憶することもできる。
DRAMコントローラー23は、レート変換部26、ブロック転送部28、スケーラー32、2画面制御部51、及びOSD処理部54の各部に接続される。DRAMコントローラー23は、上記各処理部のメモリーライト要求およびメモリーリード要求に応じて調停を行い、DRAM22に対する書き込み(ライト)、読み出し(リード)を制御する。
映像処理部2は、例えば一つのASICとして実装することが可能であり、DRAM22をASICに内蔵してもよいし、ASICにDRAM22を外部接続してもよい。
入力処理部21には、主映像パス30及び副映像パス40が並列に接続される。主映像パス30は、映像入力部31、スケーラー32、及び色補正部33を備え、色補正部33はレイヤー処理部50に接続される。また、副映像パス40は、映像入力部41、スケーラー42、及び色補正部43を備え、色補正部43はレイヤー処理部50に接続される。
入力処理部21は、インターフェイス部11から入力される映像データを、主映像パス30及び/または副映像パス40に出力する。主映像パス30と副映像パス40のうち、入力処理部21が映像データを出力する出力先は、制御部10(図1)の制御により設定される。本実施形態では、入力処理部21が、主映像のデータを主映像パス30に出力し、副映像のデータを副映像パス40に出力する。
また、入力処理部21は、インターフェイス部11から入力される映像データに対する処理を行って、処理後の映像データを主映像パス30及び/又は副映像パス40に出力してもよい。入力処理部21が実行する処理は、例えば、ノイズ除去処理、2D(平面)映像データの3D(立体)映像データへの変換処理、中間フレーム生成(フレーム補間)処理、鮮鋭化処理等とすることができる。また、入力処理部21が、形状補正処理(例えば、台形歪みを補正するキーストーン補正処理等)を行ってもよい。
主映像パス30が備える映像入力部31は、入力処理部21から入力される映像データを取得して、スケーラー32に出力する。
スケーラー32は、映像入力部31が出力する映像データに対し、フレームを拡大し、或いは縮小する解像度変換処理を実行する。また、スケーラー32は、解像度を高める場合に、超解像処理などの鮮鋭化処理を行う構成としてもよい。スケーラー32は、解像度変換処理のタイミングを映像入力部31が映像データを出力するタイミングに合わせることで、DRAM22に映像データを書き込むことなく、解像度を変換した映像データを色補正部33に出力する。また、スケーラー32は、映像入力部31が出力する映像データのフレームをDRAM22に書き込み、書き込んだ映像データのフレームの解像度を変換して出力してもよい。すなわち、スケーラー32は、DRAM22への書き込みと読み出しを伴う解像度変換処理を行う構成としてもよい。
色補正部33は、映像データに対する色補正処理を実行する。この色補正処理は、例えば、映像データのガンマ補正処理、色特性を補正する処理等を含む。これらの処理では、例えば、操作部18(図1)の操作によりユーザーが入力する調整値や目標値に合わせて、制御部10が補正パラメーターを算出して色補正部33に設定し、色補正部33は制御部10が設定するパラメーターに基づき補正を行う。
映像入力部41は、映像入力部31と同様に、入力処理部21から入力される映像データを取得して、スケーラー42に出力する。
スケーラー42はスケーラー32と同様に構成される。スケーラー42は、映像入力部41が出力する映像データに対し、DRAM22に対する書き込み及び読み出しを伴わない解像度変換処理を実行し、処理後の映像データを色補正部43に出力する。色補正部43は、色補正部33と同様に、制御部10の制御に従って映像データに対する色補正処理を実行する。
映像処理部2は、レイヤー処理部50を備える。レイヤー処理部50は、2画面制御部51、エッジブレンド部52、SRAM53、OSD処理部54、レジスター55、及びセレクター56を備える。
以下、図2、図3及び図4を参照してレイヤー処理部50の動作について説明する。図3及び図4は、プロジェクター1A,1Bの機能の説明図であり、特にレイヤー処理部50の機能を示す。図3(A)は2画面制御部51が生成する合成映像データの一態様を示し、図3(B)は合成映像データの別の態様を示す。図3(C)はOSD処理部54が重畳する画像の一例を示し、図3(D)はOSD処理部54が重畳する画像の別の例を示す。
図4(A)はプロジェクター1Aのエッジブレンド部52の処理の様子を示し、図4(B)はプロジェクター1Bのエッジブレンド部52の処理の様子を示す。また、図4(C)はエッジブレンド部52の処理を行った場合の投射画像を示し、図4(D)はエッジブレンド部52で処理される映像データの特性を示す図表である。
レイヤー処理部50は、映像データに対する画像処理を行う処理部として、2画面制御部51、エッジブレンド部52、及びOSD処理部54を備える。SRAM53を、エッジブレンド部52とともに処理部に含めてもよい。
レイヤー処理部50は、各処理部に接続されるセレクター56が、レジスター55の設定値に従って、各処理部が処理を実行するか否かを制御する。2画面制御部51、エッジブレンド部52、及びOSD処理部54の各部は、セレクター56の制御に従って処理を実行する。また、処理を実行しないよう制御された場合、2画面制御部51、エッジブレンド部52及びOSD処理部54は、それぞれ、入力された映像データをそのままパススルー出力する。セレクター56は、処理の実行/不実行を、それぞれの処理部について独立して制御できる。
また、セレクター56は、各処理部の処理の実行順を、レジスター55の設定値に従って制御する。図2の例では、主映像パス30及び副映像パス40が処理した映像データに対し、2画面制御部51、エッジブレンド部52、及びOSD処理部54の順に処理を実行する構成を示す。レイヤー処理部50では、主映像パス30及び副映像パス40が出力した映像データに対し、エッジブレンド部52、OSD処理部54、2画面制御部51の順に処理を行うことも可能である。
セレクター56が制御する内容は、レジスター55が保持する設定値により決定される。レジスター55は、レイヤー処理部50の各処理部について処理の実行/不実行を定める設定値、及び、レイヤー処理部50における処理の実行順を定める設定値を記憶(保持)する。レジスター55の設定値は、制御部10が書き込むことが可能である。
つまり、レイヤー処理部50は、制御部10が設定した処理を、制御部10が設定した順序で実行する。
2画面制御部51は、制御部10の制御に従って2画面生成処理を実行する。2画面生成処理において、2画面制御部51は、主映像パス30と副映像パス40のそれぞれから入力される2つの映像データを組み合わせて、合成映像データを生成する。2画面制御部51は、2画面生成処理で生成した合成映像データをDRAMコントローラー23に出力して、DRAM22に書き込むことができる。2画面制御部51は、2画面生成処理において、主映像パス30から入力される映像データと副映像パス40から入力される映像データのタイミングを調整するため、少なくとも一方の映像データをDRAM22に書き込んでもよい。また、2画面制御部51は、合成映像データを出力することもできる。
2画面制御部51は、主映像パス30または副映像パス40から入力される映像データに対し、上記の合成映像データを生成する処理を行わずに、DRAM22に書き込んでもよい。2画面制御部51の動作は、制御部10により制御される。すなわち、2画面制御部51が2画面生成処理を実行するか否かは制御部10により制御される。また、2画面制御部51が、映像データをDRAM22に書き込むか否か、及び、OSD処理部54に出力するか否かは、制御部10により制御される。
2画面制御部51が生成する合成映像データは、例えば図3(A)、(B)のようにスクリーンSCに投射される。
図3(A)の例は、いわゆるピクチャーインピクチャーの形態である。この例では、スクリーンSCの表示領域VAに、主映像データに基づく主映像V1が表示され、主映像V1の一部に重なるように、副映像データに基づく副映像V2が配置される。主映像V1のサイズは表示領域VAのほぼ全体に等しく、副映像V2のサイズは主映像V1より小さい。
図3(B)の例は、いわゆるスプリットスクリーンの形態である。この例では、主映像V1と副映像V2とが同じサイズで並べられている。主映像V1及び副映像V2はいずれも、アスペクト比を維持して表示領域VAより小さいサイズに縮小されるため、表示領域VAの上下に黒い帯状の非表示領域がある。
映像データをピクチャーインピクチャーで合成する場合、2画面制御部51は、副映像データのフレームを取得し、取得したフレームをDRAM22に書き込む。2画面制御部51は、副映像データのフレームを、制御部10により指定されたサイズ及び指定された位置に配置し、表示領域VAに相当するフレームとする。2画面制御部51は主映像データのフレームを取得する処理と、DRAM22から副映像データのフレームを取得する処理とを実行する。この処理で、2画面制御部51は、主映像データのフレームに副映像データのフレームを重畳して合成し、図3(A)の合成映像データのフレームを生成する。
映像データをスプリットスクリーンで合成する場合、2画面制御部51は、主映像データのフレーム及び副映像データのフレームを取得して、DRAM22に書き込む。
このとき、主映像データ及び副映像データのフレームは、いずれも縮小され、DRAM22における主映像データ用の領域、及び副映像用の領域の指定された位置に書き込まれる。この方法では、主映像データ及び副映像データが、DRAM22への書き込み時に縮小されて、DRAM22において合成される。主映像データ及び副映像データのフレームは、縮小された後に、主映像データ用の領域と副映像データ用の領域の先頭から書き込まれても良い。2画面制御部51は、いったん書き込んだ主映像データのフレームと副映像データのフレームとを読み出して、非表示領域を付加した合成映像データを生成する。
また、映像データをスプリットスクリーンで合成する処理では、主映像データのフレーム、及び、副映像データのフレームをDRAM22に書き込み、DRAM22から読み出す際に合成する方法を用いてもよい。この場合、2画面制御部51は、主映像パス30が出力する主映像データのフレーム、及び、副映像パス40が出力する副映像データのフレームを、縮小せず、或いは縮小のみ行ってDRAM22に書き込む。このとき、2画面制御部51は、主映像データのフレームを主映像データ用のDRAM22の領域に先頭から書き込んでもよく、副映像データのフレームも同様に、副映像データ用のDRAM22の領域に先頭から書き込んでもよい。2画面制御部51は、主映像データ及び副映像データのフレームを、スプリットスクリーン形式で合成する場合のサイズ及び配置に合わせたタイミングで、DRAM22から読み出して合成する。
従って、2画面制御部51は、図3(A)、(B)の合成映像データを生成する場合は、DRAM22に対する書き込み、及び、読み出しを実行する。
なお、レイヤー処理部50には、主映像パス30が主映像データを出力し、副映像パス40が副映像データを出力してもよい。また、例えば主映像パス30が主映像データのフレームと副映像データのフレームとを交互に出力してもよい。この場合、主映像パス30は、映像データのフレームに、主映像データであるか副映像データであるかを示す識別データを付加してもよい。また、2画面制御部51は、合成映像データのフレームをDRAM22に書き込んでもよい。
エッジブレンド部52は、複数のプロジェクター1A、1Bを並べて投射する場合の輝度を調整する、エッジブレンド処理を実行する。
本実施形態では、図1に示したように、スクリーンSC上でプロジェクター1A、1Bの投射画像が水平方向に並ぶ例を示す。プロジェクター1Aの投射画像PLはスクリーンSCの左側に位置し、プロジェクター1Bの投射画像PRはスクリーンSCの右側に位置する。投射画像PLと投射画像PRとが重畳部Mを形成する場合、重畳部Mには2台分のプロジェクター1A、1Bの投射光が重なるため、エッジブレンド処理により、重畳部Mにおける輝度を調整する。
エッジブレンド処理では、処理対象データの内容にかかわらず、重畳部Mとなる位置(画素)の輝度を低下させる。すなわち、エッジブレンド処理は、処理対象データである映像のフレームまたは静止画像に対し、フレームにおける位置に応じて、各画素の輝度を低減させる処理であり、本発明の輝度変更処理に相当する。
プロジェクター1Aが有する映像処理部2のエッジブレンド部52は、図4(A)に示すように、処理対象データVD1の右端部分の輝度を低くする。また、プロジェクター1Bが有する映像処理部2のエッジブレンド部52は、図4(B)に示すように、処理対象データVD2の左端部分の輝度を低くする。
これら図4(A)、(B)の処理により、処理対象データVD1に基づく投射画像PLと処理対象データVD2に基づく投射画像PRとを重畳部Mを形成するように投射した場合、図4(C)に示す重畳部Mの輝度が、他の部分と調和し、違和感を生じない。
図4(D)の図表には、エッジブレンド処理の典型例を示す。横軸はスクリーンSCにおける水平方向の位置を示す。縦軸は輝度の係数を示し、係数が減少するほど輝度を減衰させる度合いが増加する。例えば、係数1は輝度を減衰させない場合の係数であり、係数0は輝度を0にする場合の係数である。
図4(D)に示すように、プロジェクター1Aで処理される映像データである処理対象データVD1の輝度は、重畳部Mに相当する範囲で、右側ほど低輝度となるように輝度調整される。また、プロジェクター1Bで処理される映像データである処理対象データVD2は、重畳部Mに相当する範囲で、左側ほど低輝度となるように輝度調整される。
エッジブレンド部52には、重畳部Mで輝度の係数に傾斜が設けられる。このため、重畳部Mにおいては、処理対象データVD1の輝度と処理対象データVD2の輝度の和が、重畳部M以外の部分、言い換えれば処理対象データVD1、VD2それぞれの輝度調整前の輝度と同程度になる。
エッジブレンド処理の態様は、プロジェクションシステム100が備えるプロジェクターの数、及び配置状態に合わせて設定される。すなわち、プロジェクター1Aのエッジブレンド部52には、プロジェクションシステム100におけるプロジェクター1Aの相対位置、及び、投射画像PLに対する重畳部Mの長さや面積の比に基づき、輝度調整のプロファイルが設定される。また、プロジェクター1Bのエッジブレンド部52には、プロジェクションシステム100におけるプロジェクター1Bの相対位置、及び、投射画像PRに対する重畳部Mの長さや面積の比に基づき、輝度調整のプロファイルが設定される。エッジブレンド部52のプロファイルは、例えば映像供給装置3が映像データとは別に出力する制御データに従って、制御部10が設定する。
上記はプロジェクションシステム100が2つのプロジェクター1A、1Bを備える場合の例である。例えば、3つのプロジェクターを水平方向に並べて配置し、各プロジェクターの投射画像を重ねる場合、中央のプロジェクターは、エッジブレンド処理で、投射画像の両側端部の輝度を低減させる。また、縦方向(鉛直方向)にプロジェクターを並べて配置する場合は、エッジブレンド処理で、投射画像の上端部及び/または下端部の輝度を低減させる。
OSD処理部54は、入力される合成映像データ、或いは映像データに対し、OSD(On Screen Display)画像を重畳するOSD処理を行う。
OSD画像は、例えば図3(C)に示すように、プロジェクター1A,1Bの操作や設定を行うためのメニュー画像等である。図3(C)の例では、表示領域VAの中央に、操作や設定を行うためのメニューOSD画像V3が配置される。DRAM22にメニューOSD画像V3の画像データが書き込まれている状態で、OSD処理部54は、メニューOSD画像V3のデータを読み出して、処理対象データにメニューOSD画像V3のデータをαブレンドして出力する。メニューOSD画像V3は、メニュー画面用の表示オブジェクトに相当する。OSD処理部54がメニューOSD画像を処理対象データに重畳する処理は、メニューOSD処理に相当する。
また、OSD画像として、指示体5の操作に基づき描画した画像を、OSD処理部54が重畳することもできる。例えば、図3(D)に示すように、ペン型の指示体5の操作に従って文字を描画した描画画像V4のデータがDRAM22に書き込まれた場合に、OSD処理部54は、この描画画像V4のデータを処理対象データに重畳する。OSD処理部54は、OSD画像の内容にかかわらず、DRAM22でOSD画像を格納する領域に書き込まれた画像を読み出し、処理対象データにOSD画像のデータをαブレンドして出力する。描画画像は、画像を含む表示オブジェクトに相当する。OSD処理部が描画画像を重畳する処理は、画像OSD処理に相当する。
このように、OSD処理部は、メニュー画面用の表示オブジェクトを処理対象データに重畳するメニューOSD処理と、描画画像等の画像を含む表示オブジェクトを重畳する画像OSD処理と、の少なくとも2種類のOSD処理を実行する。メニュー画面用の表示オブジェクト第1種の画像とし、メニューOSD処理を第1種OSD処理とし、描画画像等の画像を含む表示オブジェクトを第2種の画像とし、画像OSD処理を第2種OSD処理ということができる。
DRAM22にOSD画像を書き込む処理は、制御部10が実行する。制御部10は、操作部18の操作に応じて、予めROM10bや図示しない記憶部に記憶するOSD画像のデータを読み出し、DRAM22に書き込む。OSD処理部54が重畳するOSD画像のデータは、インデックス(パレット)形式を利用し、映像処理部2が表示可能な色数(階調数)よりも少ない色数とすることができる。
また、制御部10は、描画装置7(描画部)が座標データを入力した場合に、この座標データに基づき画像を描画し、描画した画像データをDRAM22に書き込むことができる。例えば、制御部10は、指示体5で指示された位置を頂点とする幾何学図形や、指示体5の指示位置の軌跡に沿った直線や曲線の画像を描画する。制御部10が描画しDRAM22に書き込む画像データは、OSD画像のデータとしてDRAM22が記憶する。
ここで、指示体5で指示された位置に基づき描画を行う描画機能を、描画装置7が有する構成としてもよい。例えば、描画装置7が描画部として機能し、幾何学図形や指示位置の軌跡に沿った直線或いは曲線を描画し、描画した画像の画像データをプロジェクター1A、1Bに出力してもよい。この場合の画像データはベクトル画像データであってもスカラー画像データであってもよく、制御部10は、描画装置7が出力する画像データを映像処理部2によってOSD処理させればよい。
また、上述のように、プロジェクター1A、1Bの制御部10が描画機能を具備する構成としてもよい。この場合、描画機能を有するプロジェクター1A、1Bの制御部10が描画部に相当する。
或いは、プロジェクター1A、1Bが、制御部10とは別に、描画装置7から入力される座標データに基づき描画を行う描画部を具備する構成としてもよい。この場合、制御部10は、描画部が描画する画像を、映像処理部2によってOSD処理させればよい。
レート変換部26は、変調部14の液晶ライトバルブを倍速や4倍速で駆動する場合に、レイヤー処理部50が出力する映像データのフレームレートの変換を行う。例えば、映像処理部2に入力される映像データが60fpsであり、液晶ライトバルブを4倍速で駆動する場合、レート変換部26は、240fpsの映像データをパネル補正部27に出力する。このため、レート変換部26は、レイヤー処理部50が出力するフレームをDRAM22に書き込み、このフレームを、変換後のフレームレートに合わせて読み出してパネル補正部27に出力する。変調部14が、液晶ライトバルブを備えていない構成であっても、レート変換部26によりフレームレート変換を行ってもよい。
パネル補正部27は、変調部14が備える液晶ライトバルブの電圧−透過率特性(VT特性)や、液晶ライトバルブの個体特有の色むらの状態に対応して、映像データを補正する。パネル補正部27は、例えば、ガンマ補正LUT(LookUp Table)や色むら補正LUTを用いて補正を行う。パネル補正部27は、補正後のフレームのデータを表示するための映像信号を、画像形成部12の表示駆動部17(図1)に出力する。
映像処理部2は、ブロック転送部28(転送部)を備える。ブロック転送部28は、DRAMコントローラー23に接続され、DRAM22が記憶するフレームのデータを読み出すことが可能であり、読み出したデータを映像入力部31に入力する。ブロック転送部28は、フレームのデータに対応して垂直同期信号(VSYNC)や水平同期信号(HSYNC)等の映像フレーム制御信号を生成し、フレームのデータとタイミングを合わせて、映像入力部31に入力することができる。
また、ブロック転送部28は、入力処理部21や制御部10から画像データが入力された場合に、この画像データをDRAM22に転送し、書き込むことが可能である。
上記のように、レイヤー処理部50は、2画面制御部51による2画面合成処理、エッジブレンド部52によるエッジブレンド処理、OSD処理部54によるOSD処理を実行する。これらの処理の順序について説明する。
図5〜図7はプロジェクターの機能を示す図であり、図5(A)はレイヤー処理部50の処理を模式的に示し、図5(B)はエッジブレンド処理とOSD処理との組合せを示す。図6(A)は描画画像がOSD処理された処理対象データVD11を示し、図6(B)は処理対象データVD11にエッジブレンド処理を施した処理対象データVD12を示す。図6(C)は描画画像がOSD処理された処理対象データVD21を示し、図6(D)は処理対象データVD21にエッジブレンド処理を施した処理対象データVD22を示す。図6(E)は処理対象データVD12及び処理対象データVD22をプロジェクションシステム100で投射した場合の投射画像を示す。
図5(A)にはレイヤー処理部50が実行可能な処理の全てを行う例を示し、処理対象データVD5は主映像V1を含み、この処理対象データVD5にエッジブレンド処理を行って図中左端部の輝度を低下させることができる。また、処理対象データVD5には副映像V2を合成でき、さらに、OSD画像V5A、V5B、V5Cを重畳することができる。OSD画像V5A、V5B、V5Cはメニュー画像であってもよいし、指示体5の指示位置に基づき描画された画像であってもよい。
レイヤー処理部50が実行する処理は、処理対象のフレーム全体に及ぶことが多い。エッジブレンド処理は、フレームにおいて端部の輝度を低下させる処理であるが、エッジブレンド部52は、フレーム全体について位置毎に決められた係数を適用するので、フレーム全体に対する処理といえる。2画面合成処理は、ピクチャーインピクチャー形式とする場合は主映像の任意の位置に副映像が重畳され、スプリットスクリーン形式では主映像と副映像と黒帯状の背景を含む新たなフレームが生成される。OSD処理においてもOSD画像のサイズ及び位置は任意であることから、フレーム全体に影響が及ぶ。
従って、レイヤー処理部50における処理の順序が、レイヤー処理部50が出力する処理後の映像データの態様に大きく影響する。
図5(B)には、メニューのOSD画像P21、P22を表示する例を示す。この例では、プロジェクター1Aの設定を行うためのメニューのOSD画像P21をプロジェクター1Aが表示し、プロジェクター1Bの設定に係るメニューのOSD画像P22をプロジェクター1Bが表示する。このため、OSD画像P21はプロジェクター1Aの投射画像PL2に位置し、OSD画像P22はプロジェクター1Bの投射画像PR2に位置する。また、OSD画像P21の一部は重畳部Mにある。この例において、OSD処理部54がOSD画像P21を重畳した後にエッジブレンド処理を行うと、OSD画像P21のうち重畳部Mに重なる部分の輝度が低くなるが、OSD画像P21は投射画像PR2には無い。このため、OSD画像P21は、重畳部Mで輝度が不自然に低くなる結果を招く。
従って、レイヤー処理部50がメニュー画像のOSD処理とエッジブレンド処理とを行う場合、先にエッジブレンド処理を行い、その後にメニュー画像のOSD処理を行うことが望ましい。また、メニュー画像のように、いずれか一方のプロジェクターしか表示しないOSD画像を重畳する位置は、図5(B)のOSD画像P21のように重畳部Mに重なる位置ではなく、OSD画像P22のように、重畳部Mから外れた位置とすることが望ましい。
また、レイヤー処理部50により描画画像のOSD処理と、エッジブレンド処理とを実行する場合は、OSD処理を行い、その後にエッジブレンド処理を行うことが好ましい。
描画画像は指示体5の操作に応じて描画される。指示体5を操作するユーザーは、プロジェクター1Aの投射画像、重畳部M、及びプロジェクター1Bの投射画像の境界を意識することなく指示体5を操作できる。このため、描画画像がプロジェクター1A、1Bの両方の投射画像に跨がることは十分にあり得る。
この場合、プロジェクター1Aでは、処理対象データに描画画像を重畳するOSD処理が実行される。OSD処理が施された後の処理対象データVD11を、図6(A)に示す。OSD処理が施された処理対象データVD11に対し、エッジブレンド処理が施される。図6(B)に示す処理対象データVD12は、処理対象データVD11にエッジブレンド処理が施されたデータであり、重畳部Mに相当するフレーム右端部の画素について、輝度が低輝度に変更されている。
また、プロジェクター1Bでも同様に、処理対象データに描画画像を重畳するOSD処理が実行される。OSD処理が施された後の処理対象データVD21を、図6(C)に示す。OSD処理が施された処理対象データVD21に対し、エッジブレンド処理が施される。図6(D)に示す処理対象データVD22は、処理対象データVD21にエッジブレンド処理が施されたデータであり、重畳部Mに相当するフレーム左端部の画素について、輝度が低輝度に変更されている。
そして、プロジェクター1Aが処理対象データVD12を投射し、プロジェクター1Bが処理対象データVD22を投射した場合、スクリーンSC上の投射画像は図6(E)に示す状態となる。重畳部Mに位置する描画画像は、処理対象データVD12と処理対象データVD22の両方に含まれ、エッジブレンド処理がされているため、重畳部Mで適切な輝度で投射される。この例ではOSD処理の後にエッジブレンド処理を行う順序が適切である。また、描画画像が重畳部Mから外れた位置にある場合、描画画像はエッジブレンド処理の影響を受けないため、OSD処理の後にエッジブレンド処理を行う順序を変更する必要はない。
このように、レイヤー処理部50は、OSD処理とエッジブレンド処理とを行う場合、OSD処理で重畳する画像の種類、或いは用途により、処理の順序を入れ替えることが望ましい。また、上述したように、OSD処理部54のメニューOSD処理(第1種OSD処理)と画像OSD処理(第2種OSD処理)とは異なる処理として扱うことができる。この場合、OSD処理部54は、複数の処理を実行可能な複数処理実行部に相当する。セレクター56は、OSD処理部54が実行する2つの処理のそれぞれについて、実行/不実行を制御してもよく、これら2つの処理のそれぞれについて実行順序を制御してもよい。
レイヤー処理部50が2画面合成処理と、メニュー画像のOSD処理とを実行する場合は、2画面合成処理をスプリットスクリーン形式で実行した場合に、黒帯状の背景部分にもメニュー画像を重畳できるようにすることが好ましい。また、ピクチャーインピクチャー形式で2画面合成処理を行う場合も、副映像の位置にかかわらずメニュー画像を重畳できるようにすることが好ましい。このため、2画面合成処理とメニュー画像のOSD処理とを実行する場合の実行順序は、2画面合成処理を先に実行し、その後にメニュー画像のOSD処理を行う順序が適切である。
また、レイヤー処理部50が2画面合成処理と、描画画像のOSD処理とを実行する場合は、プロジェクター1A、1Bの各々の投射画像の範囲に関係なく指示体5の操作が可能であることが好ましい。このため、2画面合成処理と描画画像のOSD処理とを実行する場合の実行順序は、2画面合成処理を先に実行し、その後に描画画像のOSD処理を行う順序が適切である。
但し、プロジェクションシステム100では、指示体5の操作に応じて描画した結果を保存したいというニーズがある。映像供給装置3がプロジェクター1A、1Bに出力する映像のデータは、映像供給装置3において保存し、或いは記録できる。しかしながら、指示体5の操作に基づき描画した画像のデータを保存することは、描画装置7が描画を行って描画画像のデータをプロジェクター1A、1Bに出力する場合に、描画装置7がデータを保存する方法しかない。また、この画像を、プロジェクター1A、1Bにおいて重畳した結果を保存する方法はない。この場合、2画面合成処理と描画画像のOSD処理とを行う場合に、2画面制御部51がDRAM22に書き込みを行う機能を利用して、投射される映像のデータを、DRAM22に書き込んで保存する方法を利用できる。具体的には、OSD処理を先に行い、その後に2画面合成処理を実行し、2画面合成処理の後の処理対象データをDRAM22に書き込む。DRAM22に書き込まれたデータは、ブロック転送部28の機能により制御部10またはインターフェイス部11に出力できる。
レイヤー処理部50が2画面合成処理と、描画画像のOSD処理とを実行する場合に、エッジブレンド処理をさらに実行する場合には、映像供給装置3においてエッジブレンド処理を実行することが考えられる。すなわち、2画面合成処理と描画画像のOSD処理とを行った映像データを、DRAM22に書き込み、DRAM22に書き込まれた映像データをプロジェクター1A、1Bから映像供給装置3に出力する。そして、映像供給装置3においてエッジブレンド処理を実行し、エッジブレンド処理後の映像データを、例えば主映像のデータD1、D3としてプロジェクター1A、1Bに出力する。この場合、入力処理部21がDRAM22への書き込みを行う機能を有効に利用できる。また、映像供給装置3においてエッジブレンド処理を行うことで、より精密な輝度の調整を行うことも期待できる。また、エッジブレンド処理において、輝度の調整を行わない場合には、OSD処理、エッジブレンド処理、2画面合成処理の順に処理を実行すれば良い。
図7は、プロジェクター1A、1Bの動作を示すフローチャートであり、制御部10がレイヤー処理部50における処理の実行を制御する動作を示す。図7の動作は、プロジェクター1A、1Bのそれぞれにおいて、制御部10が実行する。
制御部10は、インターフェイス部11に接続された映像供給装置3及び描画装置7から入力されるデータの判別、映像供給装置3との間の制御データの通信、描画装置7との間の制御データの通信を行い、データの入力状態やデータの構成を特定する。そして、制御部10は、レイヤー処理部50が実行可能な各画像処理について、動作設定を特定する(ステップS1)。画像処理の動作設定とは、具体的には、各画像処理を実行するか、実行しない(不実行)かを定めた設定である。
制御部10は、レイヤー処理部50における処理の実行順序を定める実行順序テーブルを参照し(ステップS2)、ステップS1で特定した各画像処理の実行状態に対応して、実行順序テーブルで定義される実行順序を取得する(ステップS3)。
図8は、実行順序テーブルの構成例を示す図である。
この図8の例では、エッジブレンド処理、メニュー画像のOSD処理、描画画像のOSD処理の実行状態に対応付けて、実行順序が定義される。この図8の例に限らず、2画面合成処理を含めた4つの処理の実行状態に対応付けて、実行順序を定義するテーブルとしてもよい。
制御部10は、ステップS3で取得した実行順序に従って、レイヤー処理部50のレジスター55に設定を行う(ステップS4)。すなわち、2画面制御部51、エッジブレンド部52、及びOSD処理部54の各処理部が処理を実行するか否かの設定値と、実行順序を示す設定値とを、レジスター55に書き込む。その後、制御部10は、映像処理部2に対して、入力処理部21に入力されるデータに対する処理を実行させる(ステップS5)。
図9〜図12は、プロジェクター1A,1Bの動作を示すフローチャートであり、映像処理部2の動作を示す。
図9の動作は、指示体5の操作に応じて描画した結果を保存する動作を示す。すなわち、描画画像のOSD処理を行う場合に、2画面制御部51がDRAM22に書き込みを行う機能を利用して、投射される映像のデータを、DRAM22に書き込んで保存する動作である。
ユーザーの操作により保存が指示されると、制御部10は、映像処理部2の各部を制御し、保存機能を開始する(ステップS12)。
制御部10は、1フレームメモリーライト処理を実行する(ステップS12)。ステップS12の1フレームメモリーライト処理は、1フレームのデータをDRAM22に書き込む処理である。
図10に1フレームメモリーライト処理を示す。
制御部10は、映像処理部2の処理部の動作設定を変更する(ステップS21)。映像処理部2は、レジスター55に加え、レート変換部26、主映像パス30、及び副映像パス40の各処理部の動作の設定を記憶するレジスター(図示略)を備える。制御部10は、各レジスターの設定値を書き換えることで、動作設定を変更する。ステップS21では、色補正部33、43の色補正処理をオフに設定する。これは、できるだけ描画画像の合成以外の処理がされていない状態のデータを保存するためである。また、ステップS21で、制御部10は、2画面制御部51のDRAM22への書き込みをオンにし、2画面制御部51からDRAM22以外へのデータ出力をオフに設定する。また、レート変換部26がDRAM22からフレームのデータの読み出しを繰り返してパネル補正部27にデータを出力する動作(リピート出力)をオンに設定する。
これにより2画面制御部51が1フレームのデータをDRAM22に書き込むことが可能になる。さらに、2画面制御部51がDRAM22以外の処理部へデータを出力せず、レート変換部26がDRAM22への書き込みを行わなくなるので、DRAM22のデータが意図せず更新されることを防止する。
続いて、制御部10は、アップデート処理を行う(ステップS22)。
図11は、アップデート処理を示すフローチャートである。アップデート処理は、制御部10が映像処理部2の各部の設定を変更した場合に、この変更を反映させるための動作である。具体的には、制御部10は、映像処理部2が備えるアップデートレジスター(図示略)の値を更新し(ステップS31)、アップデート完了まで待機し(ステップS32;NO)、アップデートが完了したら本処理を終了する(ステップS32;YES)。映像処理部2が備えるアップデートレジスターは、設定の更新の有無を示す値を保持するレジスターである。
図9の1フレームメモリーライト処理が完了し、アップデートレジスターの値が更新されると、VSYNCに同期して映像処理部2の各部の動作が切り替わり、入力処理部21に入力された映像が1フレームだけDRAM22に書き込まれる。
すなわち、制御部10は、設定を変更した処理部について、ステップS31でアップデートレジスターの値を1に書き換える。アップデートレジスターが1に書き換えられた処理部は、次のVSYNCに同期して動作を切り替え、この切り替えに伴いアップデートレジスターの値は0に書き換えられる。従って、制御部10は、ステップS32で、アップデートレジスターの値を参照して、処理部の動作が切り替わったことを検出できる。
制御部10は、DRAM22への書き込みが完了するまで待機し(ステップS13;NO)、2画面制御部51による書き込みが完了すると(ステップS13;YES)、通常表示復帰処理を実行する(ステップS14)。
図12は、通常表示復帰処理を示すフローチャートである。
制御部10は、映像処理部2の処理部の動作設定に関し、レジスターの値を書き換え、設定を変更する(ステップS41)。具体的には、制御部10は、ブロック転送部28の入力を、入力処理部21側に切り替えるよう設定を変更する。
制御部10は、ステップS41でレジスターの設定を行った後、アップデート処理を実行して(ステップS42)、設定を反映させる。このアップデート処理は図11に示した通りである。
これにより、入力処理部21が主映像パス30に出力する主映像データを、主映像パス30で処理し、レイヤー処理部50及びレート変換部26の処理を経てパネル補正部27に出力できる。
図9〜図12に示した映像処理部2の動作を、各処理部間のデータの流れで示す。
図13及び図14は、映像処理部2の動作を示す説明図であり、図13は通常表示の動作を示し、図14は1フレームメモリーライト処理を示す。図13及び図14では、実際に映像データが出力される経路を破線で示す。
通常表示を行う場合、即ち映像処理部2の動作モードが通常表示モードである場合、入力処理部21が主映像データを映像入力部31に出力し、映像入力部31が主映像データをスケーラー32に出力する。スケーラー32は、解像度変換処理を行って、主映像データを色補正部33に出力し、色補正部33が色補正処理や中間フレームの生成を行い、処理後の主映像データを2画面制御部51に出力する。
この例では副映像データが入力されないため、主映像パス30は、色補正部33が出力した主映像データを、レイヤー処理部50に出力する。この例では、レイヤー処理部50が、OSD処理、2画面合成処理、エッジブレンド処理の順で処理を行う例を示す。すなわち、レイヤー処理部50は、OSD処理部54、2画面制御部51、エッジブレンド部52の順に接続された状態と等価である。
また、図13及び図14において、レイヤー処理部50が備える各処理部(2画面制御部51、エッジブレンド部52、及びOSD処理部54)の配置が異なっているが、この配置の違いはハードウェア構成に何らかの変更があったことを意味しない。
OSD処理部54はOSD画像データをDRAM22から読み出して主映像データに重畳し、OSD画像が重畳された映像データを2画面制御部51に出力する。2画面制御部51は、副映像が入力されないため2画面合成を行わず、OSD処理部54が出力した映像データをエッジブレンド部52に出力し、エッジブレンド部52は必要に応じてエッジブレンド処理を行う。
エッジブレンド部52は処理後の映像データをレート変換部26に出力し、レート変換部26は、映像データをDRAM22に書き込み、この映像データを設定されたフレームレートで読み出して、パネル補正部27に出力する。
図14の1フレームメモリーライト処理では、入力処理部21が映像データを映像入力部31に出力し、この映像データが主映像パス30を経てレイヤー処理部50に入力される。レイヤー処理部50では、上述のように、描画された画像を保存するためOSD処理を実行してから2画面合成処理を実行する順序が設定される。つまり、レイヤー処理部50は、図14に示すようにOSD処理部54、2画面制御部51、及びエッジブレンド部52の順に接続された状態と等価である。
OSD処理部54は、主映像パス30が出力する映像データに対して描画画像のデータを重畳するOSD処理を実行し、処理後の映像データを2画面制御部51に出力する。2画面制御部51は、OSD処理部54が処理した映像データに対し、副映像データの入力がある場合は2画面合成処理を行う。また、副映像データの入力がない場合は2画面合成処理を行わない。いずれの場合も、2画面制御部51は、映像データのフレームをDRAM22に書き込む一方、エッジブレンド部52への出力を行わない。
従って、レイヤー処理部50からレート変換部26へ映像データは出力されないが、レート変換部26は、予め設定されたフレームレートで、DRAM22に書き込まれた映像データを読み出し、パネル補正部27に出力する。従って、スクリーンSCへの投射を継続することが可能となる。
以上説明したように、本発明を適用した実施形態に係る映像処理部2は、静止画像データ、または、映像データを構成するフレームのデータが処理対象データとして入力された場合に、レイヤー処理部50により、処理対象データに対し複数の画像処理を実行可能に構成される。映像処理部2は、複数の画像処理の実行順を制御するセレクター56と、セレクター56により制御された実行順で処理された処理対象データを出力するパネル補正部27と、を備える。セレクター56を利用することで、例えば、複数の画像処理の実行順を変更できる。このため、処理対象データに対する複数の画像処理のそれぞれの実行及び不実行と、画像処理の実行順とを制御できる。従って、処理対象の画像や映像に対して複数の処理を行う場合に、効率よく、適切な実行順序で処理を行うことができる。
また、映像処理部2は、少なくともいずれかの画像処理により、処理対象データの全体を処理対象として処理を実行する。例えば、2画面合成処理、OSD処理、エッジブレンド処理により、フレーム全体に対する処理を行う。このため、画像処理の実行順序が、複数の画像処理を経た結果に対して大きく影響する場合に、複数の画像処理を適切な実行順で実行できる。
また、映像処理部は、セレクター56により、複数の画像処理のそれぞれについて、実行及び不実行を制御できる。このため、処理対象データに適合する処理を選択して実行することができ、処理対象データを効率よく処理できる。
また、映像処理部2では、実行順序テーブルにより、それぞれの画像処理を実行とするか不実行とするかの組合せに対応して画像処理の実行順が予め設定される。このため、それぞれの画像処理の実行の要否に基づき、実行順を速やかに決定できる。また、実行順を決定する処理の負荷を軽減できる。
映像処理部2では、レイヤー処理部50が実行する画像処理は、処理対象データに基づく画像に対し他の画像を重畳する処理を含む。具体的には、OSD処理部54によりOSD画像を重畳する処理を含む。
また、映像処理部2では、レイヤー処理部50が実行する画像処理は、処理対象データに基づく画像の輝度を、予め設定された面内輝度分布に従って変化させる処理を含む。具体的には、エッジブレンド部52は、フレーム全体に対し、予め設定された輝度分布の係数に基づき、輝度を調整するエッジブレンド処理を行う。
このように、レイヤー処理部50は、画像処理の実行順序の影響が大きい場合に、複数の画像処理を適切な実行順で実行できる。
また、レイヤー処理部50は、OSD処理部54のように、複数の画像処理を実行する複数処理実行部を備える。セレクター56は、複数処理実行部が実行する複数の画像処理のそれぞれについて、実行及び不実行を制御できる。従って、回路構成の自由度が高まり、より一層の効率化を図ることができる。
上記実施形態では、映像供給装置3がプロジェクター1A、1Bのそれぞれに対し、主映像データD1、D3と副映像データD2、D4とを出力可能な構成とした。この構成では、レイヤー処理部50において、2画面合成処理と、エッジブレンド処理とを実行する場合、先に2画面合成処理を行い、その後にエッジブレンド処理を行う順序が適切である。
より具体的には、処理対象データに対し面内(フレーム内)の位置に応じて輝度を変更する輝度変更処理としてのエッジブレンド処理と、処理対象データにメニュー画面用の表示オブジェクトを重畳するメニューOSD処理とを含む複数の画像処理を実行することができる。この場合の実行順は、エッジブレンド処理がメニューOSD処理よりも前に実行される順序に制御される。これにより、メニューOSD画像がエッジブレンド処理の影響を受けないため、メニューOSD画像の視認性を高く保つことができる。
また、処理対象データに対しエッジブレンド処理と、描画画像を重畳する画像OSD処理とを含む複数の画像処理を実行することができる。この場合の実行順は、画像OSD処理がエッジブレンド処理よりも前に実行される順序に制御される。これにより、描画画像に、処理対象データの他の部分と同様にエッジブレンド処理を反映させることができるので、描画画像が違和感のない状態で表示される。
さらに、プロジェクションシステム100では、映像供給装置3がマルチプロジェクションの制御を行い、2台のプロジェクター1A、1Bで投射する画像全体のデータを分割、抽出して、プロジェクター1A、1Bに出力する映像データを生成してもよい。この場合、プロジェクター1A、1Bのそれぞれには、投射画像を投射する範囲に対応した、部分的な映像を含むデータが入力される。
図15は、プロジェクター1A、1Bの動作を模式的に示す図であり、図15(A)はプロジェクター1Aで2画面合成処理とエッジブレンド処理をした処理対象データVD31を示す。図15(B)はプロジェクター1Bで2画面合成処理とエッジブレンド処理をした処理対象データVD34を示し、図15(C)は処理対象データVD31、VD34を投射した状態を示す。図15(D)はプロジェクター1Aで2画面合成処理とエッジブレンド処理をした処理対象データVD41を示し、図15(E)はプロジェクター1Bで2画面合成処理とエッジブレンド処理をした処理対象データVD44を示す。図15(F)は処理対象データVD41、VD44を投射した状態を示す。
映像供給装置3は、プロジェクター1Aとプロジェクター1Bの投射画像に跨がる主映像データ、及び副映像データを有する。映像供給装置3は、主映像データからプロジェクター1A、1Bの投射範囲に基づき、プロジェクター1Aに出力する主映像データD1、プロジェクター1Bに出力する主映像データD3を生成する。同様に、プロジェクター1Aとプロジェクター1Bの投射画像に跨がる副映像データから、プロジェクター1Aに出力する副映像データD2、プロジェクター1Bに出力する副映像データD4を生成する。
プロジェクター1Aは、主映像データD1及び副映像データD2を合成して、図15(A)に示す処理対象データVD31を生成し、プロジェクター1Bは図15(B)に示す処理対象データVD34を生成する。処理対象データVD31における主映像VD32と、処理対象データVD34における主映像VD35とは、それぞれ図15(C)の投射画像における主映像P41の一部である。すなわち、映像供給装置3が、主映像P41のデータから、主映像VD32のデータと主映像VD35のデータとを生成する。副映像についても同様であり、副映像P42のデータをもとに、映像供給装置3が、副映像VD33、VD36のデータを生成する。この場合、プロジェクター1A、1Bでは、2画面合成を行った後にエッジブレンド処理を行うと、スクリーンSCにおける輝度が適切に調整され、好ましい映像となる。
また、プロジェクションシステム100では、複数の映像供給装置3を設けることも可能である。この構成例を、第1変形例として図16に示す。
図16は、第1変形例のプロジェクションシステム110の構成図である。この第1変形例、及び後述する第2変形例において、上記実施形態と同様に構成される各部には、同じ符号を付して説明を省略する。
プロジェクションシステム110は、2つの映像供給装置3A、3Bを備える。映像供給装置3Aは、主映像データを出力する装置であり、プロジェクター1Aに主映像データD1を出力し、プロジェクター1Bに主映像データD3を出力する。映像供給装置3Bは副映像データを出力する装置であり、プロジェクター1Aに副映像データD2を出力し、プロジェクター1Bに副映像データD4を出力する。
図16の構成においては、映像供給装置3A、3Bが、プロジェクター1Aとプロジェクター1Bの投射画像に跨がる主映像データ、及び副映像データを有する場合に、上記実施形態と同様の機能を実現できる。
映像供給装置3Aは、プロジェクター1A、1Bの投射範囲に基づき、プロジェクター1Aに出力する主映像データD1、プロジェクター1Bに出力する主映像データD3を主映像データから生成する。同様に、映像供給装置3Bは,プロジェクター1Aとプロジェクター1Bの投射画像に跨がる副映像データから、プロジェクター1Aに出力する副映像データD2、プロジェクター1Bに出力する副映像データD4を生成する。
これにより、図15(A)〜(C)に示したように、プロジェクター1A、1Bの投射範囲に跨がる主映像及び副映像を投射できる。
図17は、第2変形例のプロジェクションシステム120の構成図である。プロジェクションシステム120が備える映像供給装置3Cは、映像供給装置3B(図16)とは異なり、プロジェクター1Bに1対1で接続される。映像供給装置3Cは、例えば、スマートフォン、タブレット型コンピューター、携帯電話機、携帯型メディアプレイヤー等の携帯機器である。プロジェクションシステム120は、上記の機器を、プロジェクター1Bに対し、HDMI(登録商標)、MHL(登録商標)、Slimport(登録商標)、Miracast(登録商標)等のインターフェイスで接続する構成に該当する。
プロジェクションシステム120では、プロジェクター1Aには、副映像データが入力されない。このため、副映像が重畳部Mに重なる位置にある場合、この副映像をプロジェクター1Bだけが投射する。従って、プロジェクター1Bが投射する画像で、副映像がエッジブレンド処理によって輝度調整されてしまうと、副映像の輝度がかえって低すぎることになる。
この場合、レイヤー処理部50では、エッジブレンド処理を行ってから、2画面合成処理を行う。
また、図15(D)に示すように、副映像データが入力されないプロジェクター1Aでは、主映像VD42と、副映像に対応する領域VD43とを含む処理対象データVD41を生成する。領域VD43は、例えば黒一色の領域である。
これに対し、プロジェクター1Bは、図15(E)に示すように、主映像VD45と副映像VD46とを含む処理対象データVD44を生成する。処理対象データVD44では、主映像VD45はエッジブレンド処理により左端部の輝度が調整されているが、副映像VD46はエッジブレンド処理の後に合成(重畳)されたため、エッジブレンド処理の影響を受けない。
そして、プロジェクター1A、1Bの投射画像は、図15(F)に示す状態となる。副映像P52は、処理対象データVD41の領域VD43に、副映像VD46が重なることで、適正な輝度で表示される。このように、プロジェクター1A、1Bの一方に副映像のデータが入力されない構成であっても、重畳部Mが形成されることを企図してデータが無い、或いは低輝度の領域VD43を設けることで、主映像と副映像とを合成した投射画像を投射できる。なお、領域VD43の位置およびサイズに関する情報を、プロジェクター1Aに対し他の装置から提供することが好ましい。例えば、映像供給装置3Aからプロジェクター1Aに制御データを出力するか、プロジェクター1Bからプロジェクター1Aに制御データを直接または間接的に送出することが考えられる。
なお、上述した実施形態及び変形例は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、上記実施形態とは異なる態様として本発明を適用することも可能である。例えば、上記各実施形態では、映像処理部2がプロジェクター1A,1Bに内蔵された構成を例示したが、本発明はこれに限定されず、例えば、プロジェクター1A,1Bとは別体で構成された装置に映像処理部2を設けてもよい。さらに、映像処理部2は、ASIC等のハードウェアで構成されるものに限定されず、一つのプロセッサーがプログラムを実行することで実現してもよい。その他の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
1A、1B…プロジェクター(表示装置)、2…映像処理部(画像処理装置)、3、3A、3B、3C…映像供給装置、5…指示体、6…位置検出部、7…描画装置、10…制御部、12…画像形成部(表示部)、18…操作部、21…入力処理部、22…DRAM、23…DRAMコントローラー、26…レート変換部、27…パネル補正部(出力部)、28…ブロック転送部、30…主映像パス、31…映像入力部、32…スケーラー、33…色補正部、40…副映像パス、41…映像入力部、42…スケーラー、43…色補正部、50…レイヤー処理部、51…2画面制御部、52…エッジブレンド部、53…SRAM、54…OSD処理部(複数処理実行部)、55…レジスター、56…セレクター(制御部)、100、110、120…プロジェクションシステム、M…重畳部、D1、D3…主映像データ、D2、D4…副映像データ、D5、D6…データ、P21、P22、P31…OSD画像、P41…主映像、P42、P52…副映像、PL、PR、PL2、PR2、PL3、PR3…投射画像、SC…スクリーン、V1…主映像、V2…副映像、V3…メニューOSD画像、V4…描画画像、VA…表示領域、V5A、V5B、V5C…OSD画像、VD32、VD35、VD42、VD45…主映像、VD33、VD46…副映像、VD43…領域。

Claims (11)

  1. 静止画像データ、または、映像データを構成するフレームのデータが処理対象データとして入力された場合に、前記処理対象データに対し複数の画像処理を実行可能に構成され、
    複数の前記画像処理の実行順を制御する制御部と、
    前記制御部により制御された実行順で処理された前記処理対象データを出力する出力部と、を備えること、
    を特徴とする画像処理装置。
  2. 少なくともいずれかの前記画像処理により、前記処理対象データの全体を処理対象として処理を実行すること、
    を特徴とする請求項1記載の画像処理装置。
  3. 前記制御部は、複数の前記画像処理のそれぞれの実行及び不実行を制御し、実行する前記画像処理の実行順を制御すること、
    を特徴とする請求項1または2記載の画像処理装置。
  4. それぞれの前記画像処理を実行とするか不実行とするかの組合せに対応して前記画像処理の実行順が予め設定されたこと、
    を特徴とする請求項3記載の画像処理装置。
  5. 複数の前記画像処理は、前記処理対象データに基づく画像に対し他の画像を重畳する処理を含むこと、
    を特徴とする請求項1から4のいずれかに記載の画像処理装置。
  6. 複数の前記画像処理は、前記処理対象データに基づく画像の輝度を、予め設定された面内輝度分布に従って変化させる処理を行うこと、
    を特徴とする請求項1から5のいずれかに記載の画像処理装置。
  7. 複数の前記画像処理を実行する複数処理実行部を備え、
    前記制御部は、前記複数処理実行部が実行する複数の前記画像処理のそれぞれについて、実行順を制御すること、
    を特徴とする請求項1から6のいずれかに記載の画像処理装置。
  8. 前記制御部は、前記処理対象データに対し面内の位置に応じて輝度を変更する輝度変更処理と、前記処理対象データにメニュー画面用の表示オブジェクトを重畳するメニューOSD処理とを含む複数の前記画像処理を実行する場合の実行順を、
    前記輝度変更処理が前記メニューOSD処理よりも前に実行されるよう制御すること、
    を特徴とする請求項1から7のいずれかに記載の画像処理装置。
  9. 前記制御部は、前記処理対象データに対し面内の位置に応じて輝度を変更する輝度変更処理と、前記処理対象データに画像を含む表示オブジェクトを重畳する画像OSD処理とを含む複数の前記画像処理を実行する場合の実行順を、
    前記画像OSD処理が前記輝度変更処理よりも前に実行されるよう制御すること、
    を特徴とする請求項1から8のいずれかに記載の画像処理装置。
  10. 静止画像データ、または、映像データを構成するフレームのデータが処理対象データとして入力された場合に、前記処理対象データに対し複数の画像処理を実行可能に構成され、
    複数の前記画像処理の実行順を制御する制御部と、
    前記制御部により制御された実行順で処理された前記処理対象データに基づき、画像を表示する表示部と、
    を備えることを特徴とする表示装置。
  11. 静止画像データ、または、映像データを構成するフレームのデータが処理対象データとして入力された場合に、前記処理対象データに対して実行可能な複数の画像処理について実行順を制御し、
    前記実行順で前記処理対象データに対する前記画像処理を実行し、
    処理された前記処理対象データを出力すること、
    を特徴とする画像処理方法。
JP2015040059A 2015-03-02 2015-03-02 画像処理装置、表示装置、及び、画像処理方法 Expired - Fee Related JP6540099B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015040059A JP6540099B2 (ja) 2015-03-02 2015-03-02 画像処理装置、表示装置、及び、画像処理方法
US15/056,908 US10182201B2 (en) 2015-03-02 2016-02-29 Image processing device, display device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015040059A JP6540099B2 (ja) 2015-03-02 2015-03-02 画像処理装置、表示装置、及び、画像処理方法

Publications (3)

Publication Number Publication Date
JP2016161752A true JP2016161752A (ja) 2016-09-05
JP2016161752A5 JP2016161752A5 (ja) 2018-04-05
JP6540099B2 JP6540099B2 (ja) 2019-07-10

Family

ID=56844938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015040059A Expired - Fee Related JP6540099B2 (ja) 2015-03-02 2015-03-02 画像処理装置、表示装置、及び、画像処理方法

Country Status (2)

Country Link
US (1) US10182201B2 (ja)
JP (1) JP6540099B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017083710A (ja) * 2015-10-29 2017-05-18 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JPWO2021085499A1 (ja) * 2019-10-31 2021-05-06

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102361088B1 (ko) * 2015-11-27 2022-02-09 한화테크윈 주식회사 영상 공유 방법
JP2019090858A (ja) * 2017-11-10 2019-06-13 キヤノン株式会社 表示装置、表示制御装置及び表示制御方法
JP6834937B2 (ja) * 2017-12-27 2021-02-24 株式会社Jvcケンウッド プロジェクタシステム及びカメラ評価システム
WO2020144744A1 (ja) * 2019-01-08 2020-07-16 マクセル株式会社 投射型映像表示装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148129A (ja) * 1998-11-10 2000-05-26 Fujitsu General Ltd 画像処理装置
JP2002042119A (ja) * 2000-07-27 2002-02-08 Ricoh Co Ltd 画像処理装置
JP2002207247A (ja) * 2001-01-11 2002-07-26 Seiko Epson Corp 投写表示システムおよびそのためのプロジェクタ
JP2002330948A (ja) * 2001-05-09 2002-11-19 Fuji Photo Film Co Ltd 画像処理制御方法および装置
JP2003015617A (ja) * 2001-06-28 2003-01-17 Matsushita Electric Ind Co Ltd 映像信号処理方法及び装置
JP2011188404A (ja) * 2010-03-11 2011-09-22 Seiko Epson Corp マルチプロジェクションシステムにおける画像処理装置、マルチプロジェクションシステムにおける画像処理方法及びマルチプロジェクションシステム
JP2012221445A (ja) * 2011-04-14 2012-11-12 Seiko Epson Corp インタラクティブシステム、インタラクティブシステムの制御方法、およびプロジェクター
JP2014078872A (ja) * 2012-10-11 2014-05-01 Canon Inc プロジェクタ、その制御方法、及び画像投影システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5742277A (en) * 1995-10-06 1998-04-21 Silicon Graphics, Inc. Antialiasing of silhouette edges
US5812743A (en) * 1995-10-23 1998-09-22 Nikon Corporation Image recording system
US6570623B1 (en) * 1999-05-21 2003-05-27 Princeton University Optical blending for multi-projector display wall systems
DE60116018T2 (de) * 2000-09-26 2006-08-03 Ricoh Co., Ltd. Bildabtastgerät, welches ein einwandfrei aussehendes Bild bereitstellt und zugleich die Bilddichte bewahrt
JP2006015617A (ja) 2004-07-02 2006-01-19 Souki Sekkei:Kk 接着剤噴霧綴じ具
JP2006048537A (ja) * 2004-08-06 2006-02-16 Canon Inc 印刷システム及び印刷処理方法
JP5018019B2 (ja) * 2005-11-30 2012-09-05 セイコーエプソン株式会社 エッジブレンディング装置、遮光装置、及びマルチプロジェクションシステム
JP2008116874A (ja) 2006-11-08 2008-05-22 Seiko Epson Corp マルチディスプレイシステム、及びこのシステム上で実行されるプログラム
WO2010116445A1 (ja) * 2009-03-30 2010-10-14 Necディスプレイソリューションズ株式会社 映像表示装置
JP2012083484A (ja) 2010-10-08 2012-04-26 Seiko Epson Corp 表示装置、表示装置の制御方法、及び、プログラム
JP5971973B2 (ja) * 2012-02-21 2016-08-17 キヤノン株式会社 投影装置
JP6181931B2 (ja) * 2013-01-28 2017-08-16 キヤノン株式会社 投影装置、制御方法、プログラム、及び投影システム
US20140223359A1 (en) * 2013-02-05 2014-08-07 Kabushiki Kaisha Toshiba Display processor and display processing method
US20150058716A1 (en) * 2013-08-21 2015-02-26 iPedago, LLC System and method for summarizing documents
JP6370070B2 (ja) * 2014-03-19 2018-08-08 キヤノン株式会社 表示装置
JP6793483B2 (ja) * 2016-06-30 2020-12-02 キヤノン株式会社 表示装置、電子機器およびそれらの制御方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148129A (ja) * 1998-11-10 2000-05-26 Fujitsu General Ltd 画像処理装置
JP2002042119A (ja) * 2000-07-27 2002-02-08 Ricoh Co Ltd 画像処理装置
JP2002207247A (ja) * 2001-01-11 2002-07-26 Seiko Epson Corp 投写表示システムおよびそのためのプロジェクタ
JP2002330948A (ja) * 2001-05-09 2002-11-19 Fuji Photo Film Co Ltd 画像処理制御方法および装置
JP2003015617A (ja) * 2001-06-28 2003-01-17 Matsushita Electric Ind Co Ltd 映像信号処理方法及び装置
JP2011188404A (ja) * 2010-03-11 2011-09-22 Seiko Epson Corp マルチプロジェクションシステムにおける画像処理装置、マルチプロジェクションシステムにおける画像処理方法及びマルチプロジェクションシステム
JP2012221445A (ja) * 2011-04-14 2012-11-12 Seiko Epson Corp インタラクティブシステム、インタラクティブシステムの制御方法、およびプロジェクター
JP2014078872A (ja) * 2012-10-11 2014-05-01 Canon Inc プロジェクタ、その制御方法、及び画像投影システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017083710A (ja) * 2015-10-29 2017-05-18 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JPWO2021085499A1 (ja) * 2019-10-31 2021-05-06
WO2021085499A1 (ja) * 2019-10-31 2021-05-06 富士フイルム株式会社 制御装置、投影装置、制御方法、制御プログラム
JP7356512B2 (ja) 2019-10-31 2023-10-04 富士フイルム株式会社 制御装置、投影装置、制御方法、制御プログラム
US11800071B2 (en) 2019-10-31 2023-10-24 Fujifilm Corporation Control device, projection apparatus, control method, and control program

Also Published As

Publication number Publication date
US10182201B2 (en) 2019-01-15
JP6540099B2 (ja) 2019-07-10
US20160261819A1 (en) 2016-09-08

Similar Documents

Publication Publication Date Title
JP6540099B2 (ja) 画像処理装置、表示装置、及び、画像処理方法
TWI537930B (zh) 圖像處理裝置、圖像顯示裝置及圖像處理裝置之控制方法
US20170310937A1 (en) Projection apparatus, method of controlling projection apparatus, and projection system
JP2009058785A (ja) 投射型表示装置および投射表示制御プログラム
US20200382750A1 (en) Method of controlling display device, and display device
JP5887804B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP2019144447A (ja) 画像表示装置、及び画像表示装置の制御方法
JP6271837B2 (ja) 投影装置及びその制御方法
JP5845663B2 (ja) 画像処理装置、画像表示装置及びプロジェクター
US10847121B2 (en) Display apparatus and method for controlling display apparatus displaying image with superimposed mask
JP2016184775A (ja) 映像処理装置、表示装置、及び、映像処理方法
JP2016161753A (ja) 映像処理装置、表示装置、及び、映像処理方法
JP2016099456A (ja) 画像投影装置および画像投影方法
JP2013251593A (ja) 表示装置、及び、表示装置の制御方法
JP2008098693A (ja) プロジェクタ、そのプログラム及び記録媒体
JP6179120B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP5407928B2 (ja) 投写型表示装置および表示方法
JP5789960B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP6226003B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP2006259748A (ja) 投射型表示装置
JP2017228884A (ja) 画像処理装置、表示装置、及び、画像処理装置の制御方法
JP5024476B2 (ja) 投射型表示装置、投射型表示装置の画像表示方法
JP6679903B2 (ja) 画像処理装置、表示装置、及び、画像処理装置の制御方法
JP2012247447A (ja) 投射型表示装置
JP4858532B2 (ja) 投射型表示装置及びその画像表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R150 Certificate of patent or registration of utility model

Ref document number: 6540099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees