JP2019032395A - 表示装置、及び、表示装置の制御方法 - Google Patents

表示装置、及び、表示装置の制御方法 Download PDF

Info

Publication number
JP2019032395A
JP2019032395A JP2017152346A JP2017152346A JP2019032395A JP 2019032395 A JP2019032395 A JP 2019032395A JP 2017152346 A JP2017152346 A JP 2017152346A JP 2017152346 A JP2017152346 A JP 2017152346A JP 2019032395 A JP2019032395 A JP 2019032395A
Authority
JP
Japan
Prior art keywords
image
unit
information
video
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017152346A
Other languages
English (en)
Inventor
裕 安田
Yutaka Yasuda
裕 安田
竜矢 海藤
Tatsuya Kaido
竜矢 海藤
一良 北林
Kazuyoshi Kitabayashi
一良 北林
尊洋 阿野
Takahiro Ano
尊洋 阿野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017152346A priority Critical patent/JP2019032395A/ja
Priority to US16/049,241 priority patent/US10657925B2/en
Publication of JP2019032395A publication Critical patent/JP2019032395A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/76Circuits for processing colour signals for obtaining special effects for mixing of colour signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits

Abstract

【課題】処理対象の画像や映像に対し画像を合成することによって、処理対象の画像や映像に、表現力に富む効果を与えることが可能な表示装置、及び、表示装置の制御方法を提供する。【解決手段】第1の画像情報に基づく第1の画像と、輝度情報を有する第2の画像情報の輝度情報を透過率に変換して生成した第2の画像とを、透過率に基づき合成することにより、第3の画像を生成する映像処理部40と、第3の画像を表示する画像形成部20と、を有するプロジェクター1。【選択図】図1

Description

本発明は、表示装置、及び、表示装置の制御方法に関する。
従来、画像を表示する表示装置において、表示する画像にマスク画像を合成する技術が知られている(例えば、特許文献1参照)。特許文献1記載のプロジェクターは、入力画像にマスク画像をアルファブレンドしたブレンド画像を投射する。
特開2012−013743号公報
従来技術では、合成元の画像にマスク画像を重ねる処理において、マスク画像の透過率がマスク画像全体に適用される。従って、表示される画像は、合成元の画像とマスク画とを透過率に従って混合した画像となるが、合成元の画像に対し、より表現力に富む効果を与えられる技術が望まれていた。
本発明は、上述した事情に鑑みてなされたものであり、処理対象の画像や映像に対し画像を合成することによって、処理対象の画像や映像に、表現力に富む効果を与えることが可能な表示装置、及び、表示装置の制御方法を提供することを目的とする。
上記目的を達成するために、本発明は、第1の画像情報に基づく第1の画像と、輝度情報を有する第2の画像情報の前記輝度情報を透過率に変換して生成した第2の画像とを、透過率に基づき合成することにより、第3の画像を生成する画像生成部と、前記第3の画像を表示する表示部と、を有する。
本発明によれば、第1の画像に対し、輝度情報を反映して設定される透過率で第2の画像を合成し、合成した画像を表示できる。これにより、例えば階調表現された輝度情報を有する第2の画像情報をもとに生成された、透過率の階調を有する第2の画像を利用することで、第1の画像に新たな階調表現を付与することができる。また、例えば、画像内の輝度情報の差異を有する第2の画像情報をもとに生成される第2の画像を、第1の画像に合成することで、第1の画像に対し画像内の位置や形状による表現の変化を与えることができる。このように、第2の画像情報の輝度情報を透過率に変換した第2の画像を第1の画像に合成することで、第1の画像に対して表現力に富む効果を与えて表示することができる。
また、本発明は、前記第1の画像は複数の画素を含み、前記第2の画像情報は、複数の画素を含む領域毎または画素毎の輝度情報を有し、前記画像生成部は、前記第2の画像情報に基づき、複数の画素を含み、複数の画素を含む領域毎または画素毎の透過率を有する前記第2の画像を、前記第1の画像と合成して前記第3の画像を生成する構成であってもよい。
この構成によれば、領域毎または画素毎の輝度情報を変換した透過率に従って、第2の画像を第1の画像に合成する。これにより、第3の画像は、第1の画像に対して領域毎または画素毎の変化を与えた画像となり、第1の画像を、表現力に富む態様で表示できる。
また、本発明は、複数の前記第2の画像情報の各々に対応する選択用画像を前記表示部により表示させ、表示された複数の前記選択用画像から選択される前記選択用画像に対応する前記第2の画像情報を、前記画像生成部により処理させる制御部を備える構成であってもよい。
この構成によれば、複数の第2の画像情報から選択された第2の画像情報を、第1の画像に合成することができるので、第1の画像に対して多彩な効果を与えることができる。
また、本発明は、前記制御部は、選択された前記選択用画像に対応する前記第2の画像情報から生成される前記第2の画像に対し、前記第1の画像と合成する態様を調整する構成であってもよい。
この構成によれば、第1の画像に対して、より表現力に富む効果を与えて表示することができる。
また、本発明は、前記制御部は、前記第2の画像において前記第1の画像と合成する範囲の位置、前記第2の画像において前記第1の画像と合成する範囲のサイズ、前記第2の画像において前記第1の画像と合成する範囲の形状、前記第2の画像の色、及び、前記第2の画像を前記第1の画像と合成する際の濃度の少なくとも1以上を調整する構成であってもよい。
この構成によれば、一つの第2の画像を利用して第1の画像に与える効果を変化させることができ、第1の画像に対して多彩な効果を与えることができる。
また、本発明は、前記制御部は、前記第2の画像情報の前記輝度情報を前記透過率に変換する変換方式を、選択可能な複数の変換方式から選択し、前記画像生成部は、前記制御部により選択された変換方式によって前記輝度情報が前記透過率に変換された前記第2の画像と、前記第1の画像とを合成する構成であってもよい。
この構成によれば、第2の画像情報を利用して第1の画像に与える効果を変化させることができ、第1の画像に対して多彩な効果を与えることができる。
また、本発明は、前記選択用画像は、前記第2の画像情報から生成される無彩色の画像であってもよい。
この構成によれば、選択用画像に第2の画像情報の輝度が明瞭に反映されるため、選択用画像によって、第1の画像に第2の画像を合成する際の透過率を良好に把握できる。従って、第1の画像に与える効果がわかりやすく、第2の画像情報を容易に選択できる。
また、本発明は、前記選択用画像は、前記第2の画像情報から生成される前記第2の画像であってもよい。
この構成によれば、第2の画像情報によって第1の画像に与えられる効果がわかりやすく、第2の画像情報を容易に選択できる。
また、本発明は、前記画像生成部は、合成する対象の前記第1の画像と、合成する対象の前記第2の画像情報または前記第2の画像とを対応付ける対応情報に従って、前記第3の画像を生成する構成であってもよい。
この構成によれば、第1の画像に対し第2の画像を合成する処理を事前に設定して自動化できる。
また、本発明は、前記画像生成部は、前記第3の画像を前記表示部が表示するタイミングと、前記画像生成部により前記第3の画像を生成する処理の内容とを定める合成情報に従って、前記第3の画像を生成する構成であってもよい。
この構成によれば、第3の画像を表示するタイミングに合わせて画像を合成する処理の内容を設定できる。
また、本発明は、記憶媒体に記憶されたデータを読み取る読取部を備え、前記読取部によって、一つの前記記憶媒体から前記第1の画像情報、前記第2の画像情報、及び、前記対応情報が読み取られた場合に、前記読取部により読み取られた前記対応情報に従って、前記読取部により読み取られた前記第1の画像情報及び前記第2の画像情報に基づき前記第3の画像を生成する構成であってもよい。
この構成によれば、一つの記憶媒体に第1の画像情報、第2の画像情報、及び対応情報を記憶させておくことで、第1の画像に対し第2の画像を合成する処理を自動化できる。
また、上記目的を達成するために、本発明は、表示部を備える表示装置の制御方法であって、第1の画像情報に基づく第1の画像と、輝度情報を有する第2の画像情報の前記輝度情報を透過率に変換して生成した第2の画像とを、透過率に基づき合成することにより、第3の画像を生成し、前記第3の画像を前記表示部により表示する。
本発明によれば、第1の画像に対し、輝度情報を反映して設定される透過率で第2の画像を合成し、合成した画像を表示できる。これにより、例えば階調表現された輝度情報を有する第2の画像情報をもとに生成された、透過率の階調を有する第2の画像を利用することで、第1の画像に新たな階調表現を付与することができる。また、例えば、画像内の輝度情報の差異を有する第2の画像情報をもとに生成される第2の画像を、第1の画像に合成することで、第1の画像に対し画像内の位置や形状による表現の変化を与えることができる。このように、第2の画像情報の輝度情報を透過率に変換した第2の画像を第1の画像に合成することで、第1の画像に対して表現力に富む効果を与えて表示することができる。
本発明は、上述した表示装置、及び、表示装置の制御方法以外の種々の形態で実現することも可能である。例えば、上記制御方法をコンピューターにより実行するためのプログラム、上記プログラムを記録した記憶媒体、上記プログラムを配信するサーバー装置、上記プログラムを伝送する伝送媒体、上記プログラムを搬送波内に具現化したデータ或いは信号等の形態で実現できる。
第1実施形態に係るプロジェクターのブロック図。 プロジェクターが備える映像処理部のブロック図。 プロジェクターが画像を合成する処理の説明図。 プロジェクターの動作を示すフローチャート。 プロジェクターの投射画像の例を示す図。 プロジェクターの動作を示すフローチャート。 プロジェクターの動作を示すフローチャート。 プロジェクターの投射画像の例を示す図。 プロジェクターの投射画像の例を示す図。 プロジェクターの動作の説明図。 プロジェクターの動作の説明図。 第2実施形態におけるプロジェクターのブロック図。 マスク情報の構成例を示す模式図。 スケジュール情報の構成例を示す模式図。 第2実施形態におけるプロジェクターの動作を示すフローチャート。
[第1実施形態]
以下、図面を参照して本発明を適用した実施形態について説明する。
図1は、本発明を適用した実施形態に係るプロジェクター1のブロック図である。
プロジェクター1は、スクリーンSCに画像光を投射することにより、スクリーンSCに投射画像PPを投射(表示)する表示装置である。プロジェクター1は投射画像PPとして静止画像と映像(動画像)とのいずれを投射してもよく、以下の説明では「映像」と記載する。プロジェクター1は、静止画像を投射する場合であっても、画像形成部20によって、設定されたフレームレートで投射画像PPを更新するため、実質的な動作は静止画像であっても映像であっても相違ない。
スクリーンSCは、建物の室内の壁面、天井面あるいは床面に設置される幕状のスクリーンであってもよいが、壁面をスクリーンSCとして利用してもよい。また、ホワイトボードや家具などの設置物の平面を、スクリーンSCとして利用してもよい。また、スクリーンSCは平面に限らず、曲面や、凹凸を有する面であってもよい。
プロジェクター1は、投射画像PPの映像ソースとして、後述する記憶部11に記憶した映像データ14を用いることができる。また、プロジェクター1の映像ソースは、映像供給装置2からプロジェクター1に入力される映像信号、データ出力装置3からプロジェクター1に入力される映像データ、及び、記憶媒体4に記憶された映像データ等から選択できる。
映像供給装置2は、プロジェクター1に対してケーブルまたは無線通信回線を介して接続され、プロジェクター1に、アナログ映像信号またはディジタル映像信号を出力する。ここで、アナログ映像信号は、例えば、D−SubコネクターやD端子を介して伝送されるアナログ映像信号、コンポジット映像信号等である。ディジタル映像信号は、例えば、各種デジタルインターフェイスを介して伝送される信号である。具体的には、HDMI(登録商標)、DVI、Displayport(登録商標)等により伝送される信号が挙げられる。また、Miracast(登録商標)、WirelessHD(登録商標)等の無線インターフェイスを介して映像供給装置2からプロジェクター1にディジタル映像信号が入力される構成であってもよい。以下の説明では、アナログ映像信号及びディジタル映像信号を総称して映像信号と呼ぶ。映像供給装置2は、例えば、DVDプレイヤー等の映像再生装置、デジタルテレビチューナー等の放送受信装置、ビデオゲーム機やパーソナルコンピューター等の映像出力装置である。また、映像供給装置2は、パーソナルコンピューター等と通信して映像データを受信する通信装置等であってもよい。
データ出力装置3は、映像のディジタルデータをプロジェクター1に出力する装置であり、例えば、MPEG形式でエンコードされたファイルをプロジェクター1に出力する。データ出力装置3は、映像のディジタルデータをファイル形式で入出力可能な装置であればよく、具体的には、パーソナルコンピューター、DVDプレイヤー、HDDレコーダー等である。
記憶媒体4は、半導体記憶デバイス、磁気的記憶装置、或いは、光学的記憶媒体等で構成され、データを不揮発的に記憶する。例えば、記憶媒体4は、DVD等の光学的記憶媒体、USBメモリー等のメモリーデバイス、SD(登録商標)カード等のカード型記憶媒体であってもよい。
プロジェクター1は、制御部10、記憶部11、画像形成部20、操作部31、媒体読取部32、I/F部33、映像I/F部34、及び、映像処理部40を備える。
制御部10は、CPU(図示略)等のプロセッサーを備え、このプロセッサーが実行するプログラム等を不揮発的に記憶するROM(図示略)、プロセッサーが使用するワークエリアを形成するRAM(図示略)を備えてもよい。制御部10は、プロセッサーにより、ROM(図示略)や記憶部11が記憶するプログラムを実行することにより、プロジェクター1の各部を制御して、投射画像PPの投射に係る各種動作を実行させる。なお、制御部10は複数のプロセッサーを備えていてもよい。
記憶部11は、半導体記憶デバイスや磁気的記憶装置を備え、制御部10のプロセッサーにより実行されるプログラムや、プロセッサーにより処理されるデータを不揮発的に記憶する。記憶部11は、例えば、制御部10が実行する制御プログラム12を記憶する。また、記憶部11は、設定データ13、映像データ14、及び、マスクデータ15を記憶する。設定データ13は、プロジェクター1の動作に関して設定された情報を含む。映像データ14は、投射画像PPの映像ソースとして利用可能な映像データであり、例えば、データ出力装置3からプロジェクター1に入力される映像データと同様、ファイル形式のデータである。映像データ14は、データ出力装置3からプロジェクター1に入力される映像データを、制御部10が取得して、記憶部11に記憶させたデータであってもよい。マスクデータ15は、後述するように、プロジェクター1が投射画像PPに照明効果を与える場合に使用されるデータである。
操作部31は、プロジェクター1の機能に関するユーザーの入力操作を受け付ける。操作部31は、例えば、プロジェクター1の本体に設けられる操作パネル(図示略)により構成され、操作パネルに配置される各種スイッチに対する操作を検出し、操作信号を制御部10に出力する。また、操作部31は、プロジェクター1のリモコン装置(図示略)が送信する赤外線信号を受光する受光部(図示略)を備える構成であってもよい。この場合、操作部31は、リモコン装置から受光した赤外線信号をデコードし、リモコン装置の操作に対応する操作信号を制御部10に出力する。
媒体読取部32(読取部)は、記憶媒体4に記憶されたデータを読み出すインターフェイスである。媒体読取部32は、記憶媒体4に対するデータの書き込みやデータの消去が可能な構成であってもよい。媒体読取部32は、制御部10の制御に従って、映像ソースとして記憶媒体4に記憶された映像データを読み取り、制御部10に出力する。
媒体読取部32は、例えば、USBメモリーとしての記憶媒体4を接続するUSBコネクター、カード型の記憶媒体4を装着するカードスロット、DVD等の光学的記憶媒体を再生するドライブ等を備えてもよい。
I/F部33(入力部)は、データ出力装置3に接続されるインターフェイスであり、例えば、公知のデータ通信インターフェイスを用いて構成される。具体的には、通信ケーブルによりデータ出力装置3に接続可能なUSBインターフェイス、LAN(イーサネット(登録商標)を含む)インターフェイス、IEEE1394インターフェイス等であってもよい。また、I/F部33は、無線通信回線を利用した無線通信インターフェイスであってもよい。具体的には、無線LAN(Wi−Fi(登録商標)を含む)、Bluetooth(登録商標)、ZigBee(登録商標)等で通信を行う通信インターフェイスを備えて構成されてもよい。I/F部33は、データ出力装置3に接続された場合に、データ出力装置3の接続を検出する機能、データ出力装置3との間で通信を確立する機能、データ出力装置3に対する電源供給機能等を実行するインターフェイス回路を備えてもよい。
制御部10は、I/F部33により、データ出力装置3との間でデータ通信を実行し、データ出力装置3が出力する映像データを取得できる。
映像I/F部34は、映像供給装置2に接続されるインターフェイスであり、例えば、公知の映像入力インターフェイスを用いて構成される。具体的には、上述したD−Subコネクター、D端子、コンポジット映像端子、HDMI、DVI、Displayport等のインターフェイス等を備える。また、Miracast、WirelessHD等の無線インターフェイスであってもよい。映像I/F部34は、映像供給装置2から入力される映像信号を映像処理部40に出力する。また、映像I/F部34は、制御部10の制御に従って、映像供給装置2との間でデータ通信を実行し、映像供給装置2の機種やベンダー名称の判別、映像供給装置2から入力される映像信号に関する情報の取得等を行ってもよい。
投射画像PPを形成する画像形成部20(表示部)は、投射部25、光源制御部27、および、光変調装置駆動部28を備え、投射部25は光源21、光変調装置22、投射光学系23を含んで構成される。
光源21は、キセノンランプ、超高圧水銀ランプ等のランプ類、或いは、LEDやレーザー光源等の固体光源で構成される。光源21は、光源制御部27から供給される電力により点灯し、光変調装置22に向けて光を発する。光源制御部27は、制御部10の制御に従って、光源21の発光輝度を調整できる。
光変調装置22は、光源21が発する光を変調して画像光を生成し、画像光を投射光学系23に照射する。本実施形態では、光変調装置22が、赤色(R)、緑色(G)、及び、青色(B)の各色に対応する3つの液晶ライトバルブを備え、光源21が発した光を液晶ライトバルブに透過させる構成を例示する。
光変調装置22の3つの液晶ライトバルブには光変調装置駆動部28が接続される。光変調装置駆動部28は、映像処理部40が出力する映像信号に基づき、液晶ライトバルブの各画素を駆動して、液晶ライトバルブにフレーム(画面)単位で画像を描画する。
光源21と光変調装置22との間の光路または光変調装置22には、リフレクター、レンズ群(図示略)、偏光板、調光素子等を設けてもよい。また、光変調装置22は、反射型の液晶パネルを用いた構成とすることができる。この場合、光変調装置22は、光源21が発する光を液晶パネルに反射させ、反射光を投射光学系23に導く。また、光変調装置22を、デジタルミラーデバイス(DMD)を用いた構成とすることもでき、1枚のDMDとカラーホイールを備えた構成としてもよい。また、光変調装置22は反射型の液晶表示パネルを備える構成であってもよい。
投射光学系23は、光変調装置22により変調された画像光をスクリーンSCに向けて導き、スクリーンSC上で投射画像PPを結像させる。投射光学系23は、例えば、3つの液晶ライトバルブを通った光を合成するプリズム、画像光を導くレンズ群やミラー等の光学素子を有する構成としてもよい。さらに、投射光学系23は、ズーム機構や焦点調整のための機構を備えてもよい。
映像処理部40は、制御部10の制御に従って、映像ソースから映像信号を生成して光変調装置駆動部28に出力する。
制御部10が選択した映像ソースが、映像I/F部34に入力される映像信号である場合、映像処理部40には、映像I/F部34から映像信号が入力される。また、制御部10が選択した映像ソースが、記憶媒体4または記憶部11に記憶された映像データまたはデータ出力装置3から入力される映像データである場合、映像処理部40には制御部10から映像データが入力される。
制御部10は、記憶部11が記憶する制御プログラム12を実行し、操作部31により受け付けられたユーザーの操作に従って、プロジェクター1の映像ソースを選択し、選択した映像ソースに基づく映像を画像形成部20によって投射(表示)させる。
制御部10は、映像ソースとして映像供給装置2を選択した場合、映像I/F部34及び映像処理部40を制御して、映像供給装置2から映像I/F部34に入力される映像信号の処理を実行させる。これにより映像処理部40から光変調装置駆動部28に映像信号が出力され、映像信号に対応する映像が画像形成部20により投射される。
また、制御部10は、映像ソースとして、データ出力装置3が出力する映像データを選択した場合、この映像データを取得して映像処理部40に出力する。制御部10は、映像ソースとして記憶媒体4に記憶された映像データまたは記憶部11に記憶された映像データ14を選択した場合、これらの映像データの読み取りを行い、映像処理部40に出力する。これらの場合、制御部10は、映像処理部40を制御して映像データを処理させ、映像データに基づき画像形成部20により映像を投射させる。
また、制御部10は、映像ソースに対して合成するマスクデータ15を、記憶部11から読み出して、映像処理部40に出力する。
図2は、映像処理部40の構成を示すブロック図である。図2の実線は映像信号の流れを示し、破線は映像データを示し、一点鎖線は後述するマスクデータを示す。また、図2に示す符号P1、P2、P3については図3を参照して後述する。
図2に示すように、映像処理部40は、映像信号入力部41、信号処理部42、OSD生成部43、映像補正部44、データ入力部45、映像デコード部46、画像入力部47、及び、画像メモリー48を備える。映像処理部40は、図2に示す各機能部に対応するハードウェアを備える回路であってもよいし、これらの回路を集積したIC、FPGA等のプログラマブルデバイスであってもよい。例えば、図2の各機能部に相当するIPコアを有するICで、映像処理部40を実現することもできる。また、映像処理部40を、複数のデバイスにより構成することも勿論可能である。また、映像処理部40は、プログラムを実行するプロセッサーを備え、このプロセッサーがプログラムを実行して、図2に示す機能部をソフトウェアとハードウェアとの協働により実現する構成であってもよい。
映像処理部40が備える映像信号入力部41、信号処理部42、OSD生成部43、及び映像補正部44の各処理部は、フレームメモリー(図示略)に接続されてもよい。この場合、映像処理部40の各部は、映像信号に基づき、映像の1フレームを構成する画像をフレームメモリーに展開し、各種処理を実行する。フレームメモリーは、複数のフレームに相当する画像を格納可能な容量を有するものであってもよい。また、フレームメモリーは、例えば、制御部10が備えるRAMの一部の記憶領域を用いて構成されてもよいし、映像処理部40に、図示しないメモリーバスやDRAMコントローラーを介してDRAMを接続して、フレームメモリーとして機能させてもよい。
映像信号入力部41は、映像I/F部34から入力される映像信号に対し、プロジェクター1の信号処理に適した信号形式(信号フォーマット)への変換等の処理を実行し、信号処理部42に出力する。
信号処理部42は、制御部10の制御に従って、映像信号入力部41から入力される映像信号に対し、映像の明るさ色を設定された状態に変換する明るさ変換処理や色変換処理を実行する。また、信号処理部42は、映像信号に対するノイズ除去処理を実行してもよい。信号処理部42は、処理後の映像信号をOSD生成部43に出力する。
データ入力部45は、制御部10から入力される映像データを取得し、映像デコード部46に出力する。データ入力部45に入力される映像データは、制御部10が、ファイル形式の映像データに基づいて映像処理部40に入力する映像データである。映像デコード部46は、データ入力部45から入力される映像データをデコードして、信号処理部42における信号処理に適した映像信号に変換して、変換後の映像信号を信号処理部42に出力する。映像デコード部46には、例えば、ファイル形式の映像データから生成されえる映像ストリームが入力される。ファイル形式の映像データから映像ストリームを生成する処理は、制御部10が実行してもよいし、データ入力部45が実行してもよい。
また、制御部10は、上述したように、マスクデータ15を映像処理部40に出力する。マスクデータ15は画像入力部47に入力され、画像入力部47は、マスクデータ15に基づきフィルター画像48aを画像メモリー48に書き込む。
画像メモリー48は、フィルター画像48aを一時的に格納する一時記憶領域であり、映像処理部40が内蔵する揮発性メモリー、或いは、映像処理部40に接続されるDRAM等によって構成される。画像メモリー48は、上述したフレームメモリーの一部であってもよいし、フレームメモリーと同じメモリーの記憶領域を使って構成されてもよい。
OSD生成部43(画像生成部)は、画像を合成する処理を行う。OSD生成部43は、信号処理部42から入力される映像信号から1フレーム分の画像を抽出し、画像を合成する処理対象の画像(被重畳画像)とする。OSD生成部43は、被重畳画像に対し、OSD画像を重畳する。OSD生成部43は、合成画像の映像信号を映像補正部44に出力する。
映像補正部44は、OSD生成部43が出力する合成画像に対し、制御部10の制御に従って、幾何補正処理等の各種補正処理を実行し、画像形成部20に出力する。映像補正部44が実行する補正処理は、例えば、キーストーン補正や樽形歪み補正が挙げられる。
OSD画像は、例えば、プロジェクター1の機能を設定するためのメニュー画面、プロジェクター1の動作状態を報知するメッセージ画面等を構成する画像である。OSD画像の画像データは、予め記憶部11に記憶され、制御部10が記憶部11に記憶されるOSD画像を読み出して映像処理部40に出力してもよい。また、制御部10が、プロジェクター1の入力ソースの状態、エラー状態、または操作部31の操作等に対応して、OSD画像のデータを生成し、映像処理部40に出力してもよい。このOSD画像のデータは、例えば、画像入力部47に入力され、画像入力部47によって画像メモリー48に書き込まれる。制御部10は、OSD生成部43を制御してOSD画像を重畳する処理を実行させる。
OSD生成部43は、信号処理部42から入力される映像を構成する各フレームにOSD画像を重畳する。ここで、OSD生成部43は、入力される映像の全てのフレームに画像を重畳してもよいし、一部のフレームに画像を重畳してもよい。
また、OSD生成部43は、制御部10の制御に従って、信号処理部42から入力される映像のフレームに、画像メモリー48に書き込まれたフィルター画像48aを重畳して合成画像を生成することも可能である。
図3は、プロジェクター1が画像を合成する処理の説明図である。画像を合成する処理は、OSD生成部43により実行される。
符号P1は、OSD生成部43に入力される映像信号に基づき生成される画像の一例であり、ここでは元画像P1と呼ぶ。符号P2は、フィルター画像48aに基づき生成されるフィルター画像の一例である。符号P3は、元画像P1にフィルター画像P2を重畳して得られる合成画像である。元画像P1は、第1の画像に相当する。また、元画像P1のもととなる映像信号は、第1の画像情報に相当する。
元画像P1、フィルター画像P2、及び合成画像P3は、いずれも複数の画素を有する画像である。元画像P1は、例えば、RGB24ビットフルカラーの画像であり、元画像P1のデータは画素毎のR、G、Bの階調データを含む。
フィルター画像P2は、異なる透過率を有する複数の領域を含む。1つの画素が1つの領域を構成してもよいし、複数の画素が1つの領域を構成してもよい。領域の位置、サイズ、形状は任意である。フィルター画像P2のデータは、領域毎の透過率を含む。透過率は、フィルター画像P2を元画像P1の上に重ねた場合に、元画像P1が透過して見える程度を意味し、透明度と呼ぶこともできる。フィルター画像P2は、第2の画像に相当する。また、フィルター画像P2を生成するもととなるフィルター画像48aのデータ、すなわちマスクデータは、第2の画像情報に相当する。
図3のフィルター画像P2は、異なる透過率が設定された領域A21、及び、領域A22を含み、領域A21は透過率が0%に設定された領域である。領域A22は、透過率が100%に設定された領域である。フィルター画像P2は、領域A21と領域A22との境界に位置する画素間で透過率が0%から100%に変化する画像であってもよい。また、フィルター画像P2は、図3に例示するように、領域A21と領域A22との境界部に位置する複数の画素の透過率が、100%から0%まで段階的に変化するグラデーションを構成する画像であってもよい。この場合、領域A21と領域A22との境界に位置する各画素に対し、グラデーションを形成するように、透過率が設定される。
フィルター画像P2は、透過率が100%の領域(領域A22)では透明であり、透過率が100%未満の領域では着色されている。この色は任意であり、例えば、図3に示すように黒色としてもよいし、他の色であってもよい。また、1つのフィルター画像P2において透過率が100%未満の領域に複数の色が配置されてもよい。
合成画像P3は、元画像P1の上にフィルター画像P2を重畳して合成された画像である。合成画像P3の領域A31は、フィルター画像P2の領域A21に重なる領域である。領域A21の透過率は0%であるため、合成画像P3の領域A31は、領域A21と同じ色の画素で構成される。これに対し、合成画像P3において、フィルター画像P2における透過率が100%未満の領域では元画像P1が透過する。このため、領域A32では、領域A22を透過して、元画像P1の一部が現れている。合成画像P3は、第3の画像に相当する。
図3の合成画像P3は、元画像P1の一部分が明るく視認され、他の部分は暗く視認され、一部は視認できない状態であり、あたかも元画像P1にスポットライトを当てたような視覚効果を有する。この視覚効果を、照明効果と呼ぶ。プロジェクター1は、元画像P1に、透過率が設定されたフィルター画像P2を重畳することにより、元画像P1に照明効果を付与してスクリーンSCに投射できる。
図2に示すように、OSD生成部43は、形状調整部43a、透過率生成部43b、及び、合成部43cを備える。図2は上記の通り機能ブロック図であり、OSD生成部43が、形状調整部43a、透過率生成部43b、及び合成部43cの各々として機能するハードウェアを備えてもよい。或いは、OSD生成部43が形状調整部43a、透過率生成部43b、合成部43cの各機能に対応する処理を、図に示した順序で実行する構成であってもよい。つまり、形状調整部43a、透過率生成部43b、及び合成部43cはOSD生成部43が実行する機能及び処理を模式化して示すものであってもよい。つまり、OSD生成部43は、形状調整処理、透過率生成処理、及び、合成処理を順次実行するものであればよい。
形状調整部43aは、フィルター画像48aを画像メモリー48から取得し、フィルター画像48aに対し形状及び/またはサイズを調整する処理を行う。この処理では、フィルター画像48aの形状及び/またはサイズを、光変調装置22の形状やサイズまたは解像度に適合させる。信号処理部42がOSD生成部43に出力する映像信号は、信号処理部42によって形状、サイズ(解像度)が調整されている。形状調整部43aは、フィルター画像48aの形状及び/またはサイズを、信号処理部42から入力される映像信号に合わせる。具体的には、フィルター画像48aの形状及び/またはサイズを、元画像P1の形状及び/またはサイズと一致させる。
透過率生成部43bは、形状調整部43aで調整されたフィルター画像48aの各画素の輝度(輝度データ、輝度情報ともいう)を、透過率に変換することにより、フィルター画像P2を生成する。フィルター画像48aは、複数の画素を有する画像であり、各画素または複数の画素で構成される領域の輝度のデータを有する。例えば、フィルター画像48aが無彩色のグレースケール画像である場合、フィルター画像48aの各画素の階調値を輝度の階調値と見なすことができる。フィルター画像48aの階調値のビット数は任意である。透過率生成部43bは、フィルター画像48aの階調値を、予め記憶部11または他の記憶部(図示略)に記憶される変換テーブルや変換式に従って、透過率に変換する。透過率は、0%と100%の2段階であってもよいし、0%以上100%以下の範囲で複数の段階(階調)に設定されてもよい。また、透過率は、完全な不透明状態を0%、透明な状態を100%とする場合の百分率(%)で表現されてもよいし、所定ビット数の階調値で表現されてもよい。フィルター画像48aの輝度の階調値を透過率に変換する処理は、例えば、輝度の階調をそのまま透過率の階調に置き換える処理とすることができ、透過率生成部43bの処理負荷が軽く、処理遅延を防止または抑制できるという利点がある。また、フィルター画像48aがグレースケール画像である場合、輝度の階調値を有する一方、色の階調値(色データ)を持たない。このようなフィルター画像48aから得られるフィルター画像P2を元画像P1に合成することにより、合成画像P3に、元画像P1の輝度を画素毎に変化させるフィルターを適用したような照明効果を与えることができる。
透過率生成部43bは、フィルター画像48aの画素毎に、階調値を透過率に変換してもよい。また、透過率生成部43bは、フィルター画像48aを複数の領域に分割し、領域毎に透過率を設定してもよい。この場合、透過率生成部43bは、各領域に含まれる画素の色の階調値を領域の透過率に変換する。この変換処理は、例えば、予め記憶部11または他の記憶部(図示略)に記憶される変換テーブルや変換式を用いて実行される。
ここで、透過率生成部43bは、フィルター画像48aの各画素の色の階調値(色データともいえる)を、透過率に変換することにより、フィルター画像P2を生成してもよい。この場合、フィルター画像48aは、フルカラー画像やモノクロ画像とすることができる。この場合のフィルター画像48aの各画素は、R、G、Bの3色の階調値またはモノクロの階調値を有する。この構成では、透過率生成部43bは、フィルター画像48aの階調値を、予め記憶部11または他の記憶部(図示略)に記憶される変換テーブルや変換式に従って、透過率に変換する。
本実施形態では、透過率生成部43bが、グレースケール画像であるフィルター画像48aの各画素の輝度の階調値を、画素毎に、0%以上100%以下の範囲で段階的に設定された透過率に変換する例を示す。
合成部43cは、信号処理部42から入力される元画像P1に、透過率生成部43bが生成したフィルター画像P2を重ねて合成し、合成画像P3を生成して、映像補正部44に出力する。このように、プロジェクター1は、フィルター画像48aを利用して、OSD生成部43によって元画像P1に照明効果を付与する。
OSD生成部43は、一般的なOSD表示機能を実現するため、上述したメニュー画面などのOSD画像を元画像P1に重畳させて表示することも可能である。この場合、制御部10は、OSD画像の画像データを、画像入力部47に出力し、画像入力部47はOSD画像を画像メモリー48に描画する。メニュー画面等のOSD画像を処理する場合、形状調整部43aは、画像メモリー48からOSD画像を取得して、OSD画像のサイズを元画像P1のサイズや解像度に合わせて調整する。また、透過率生成部43bは、OSD画像の各画素のデータを透過率に変換せず、OSD画像のまま合成部43cに出力する。OSD画像の形状及びサイズは、元画像P1と一致しなくてもよい。
ここで、画像入力部47に入力されるマスクデータは、記憶部11に記憶されたマスクデータ15に限定されない。記憶媒体4にマスクデータが記憶されている場合に、制御部10が、マスクデータを媒体読取部32によって読み取らせ、映像処理部40に出力してもよい。また、データ出力装置3からI/F部33に入力されるマスクデータを制御部10が取得して、映像処理部40に出力してもよい。また、制御部10が、操作部31で受け付ける操作に従ってマスクデータを生成してもよい。これらのマスクデータは、マスクデータ15と同様に、制御部10により画像入力部47に入力される。
マスクデータ15、及び、その他の方法で映像処理部40に入力されるマスクデータは、上述したフィルター画像48aのデータであり、グレースケール画像データである。例えば、パーソナルコンピューター等の外部の装置により、フルカラー画像データの色データを輝度データに変換する処理を行って、グレースケール画像であるマスクデータを生成してもよい。また、マスクデータは、フルカラー画像データ、モノクロ画像(2値)データ等であってもよい。
映像処理部40は、映像信号に対する信号処理を信号処理部42で実行し、照明効果を付与する映像処理をOSD生成部43で実行する。このように、元画像P1に関する映像処理を、OSD生成部43とは別の処理部(信号処理部42)で実行するため、照明効果の影響を受けずに映像信号を処理できるという利点がある。
図4は、プロジェクター1の動作を示すフローチャートである。
制御部10は、操作部31により照明効果を利用した映像投射の開始が指示されると(ステップS11)、映像ソースの選択を開始する(ステップS12)。
制御部10は、プロジェクター1の動作モードを判定する(ステップS13)。プロジェクター1の動作モードは、映像ソースにフィルター画像を重畳した合成画像をスクリーンSCに投射する映像投射モード、及び、フィルター画像をスクリーンSCに投射する照明モードとから選択できる。照明モードは、フィルター画像P2(図3)の形状の照明光をプロジェクター1により投射する動作モードであり、照明モードでは、プロジェクター1を一種の照明装置として機能させることができる。プロジェクター1の動作モードは、操作部31による入力操作により設定可能であり、デフォルト(初期状態)で設定されてもよい。また、プロジェクター1が利用可能な映像ソースがない場合に、制御部10が自動的に照明モードを選択してもよい。
動作モードが映像投射モードである場合(ステップS13;映像投射モード)、制御部10は映像ソースを、記憶部11、データ出力装置3、及び記憶媒体4の中から選択する(ステップS14)。映像ソースの選択は、例えば、事前に設定された選択ルールに従って制御部10が自動的に選択してもよい。選択ルールは、例えば、記憶部11、データ出力装置3及び記憶媒体4の選択の優先順位を指定するルールや、プロジェクター1の動作状態と選択される映像ソースとを対応付けるルール等である。この場合、例えば、選択ルールを示すデータが設定データ13に含まれて記憶される。また、制御部10は、操作部31の入力に従って映像ソースを選択してもよい。
動作モードが照明モードである場合(ステップS13;照明モード)、制御部10は映像ソースとして、照明効果ソースを選択する(ステップS15)。照明効果ソースは、マスクデータであり、マスクデータ15、または、データ出力装置3若しくは記憶媒体4から得られるマスクデータである。照明モードでは映像ソースが存在しないため、フィルター画像P2を合成する元画像P1の映像信号がない状態であるが、マスクデータをソースとして取り扱う。これにより、投射する映像ソースが存在する場合と同様に照明効果を扱うことができる。
ステップS15では、使用可能なマスクデータが複数ある場合に、これら複数のマスクデータのうち使用するマスクデータを操作部31により選択可能であってもよい。
図5は、プロジェクター1が投射(表示)する投射画像PPの一例を示す図であり、マスクデータを選択する選択画面101を示す。
選択画面101には、プロジェクター1で使用可能なマスクデータが一覧表示される。図5の例では、輝度の分布が異なる4つのマスク画像102、103、104、105が選択画面101に配置される。マスク画像102、103、104、105は、それぞれグレースケール画像データであるマスクデータに基づく投射される画像である。
ユーザーは、操作部31で入力操作を行うことにより、選択画面101に配置されたマスク画像102、103、104、105の中から、使用するマスク画像を選択できる。
この場合、照明効果ソースとして、マスクデータに基づくマスク画像を選択可能とするので、ユーザーは、映像ソースを選択する操作と同様に、照明モードの操作を行える。このため、動作モードが異なっても操作感が似ていることから、ユーザーが迷いなく操作できる。
図4に戻り、制御部10は、ステップS14またはS15の選択を反映して、照明効果を適用する対象を設定する照明効果対象設定処理(ステップS16)を実行する。さらに、制御部10は、照明効果を編集する照明効果編集処理を行い(ステップS17)、これらの処理の結果を反映して、スクリーンSCに投射画像PPを投射する(ステップS18)。
図6は、プロジェクター1の動作を示すフローチャートであり、照明効果対象設定処理(図4のステップS16)を詳細に示すフローチャートである。
制御部10は、選択されたソースが映像ソースか照明効果ソースかを判定する(ステップS21)。照明効果ソースである場合(ステップS21;照明効果ソース)、制御部10は、適用対象を照明効果ソースに設定し(ステップS22)、図4の動作に戻る。
選択されたソースが映像ソースである場合(ステップS21;映像ソース)、制御部10は、選択された映像ソースが無信号か否かを判定する(ステップS23)。例えば、映像ソースとして映像I/F部34が選択され、映像I/F部34に入力される映像信号がない場合に、制御部10は、選択された映像ソースが無信号と判定する(ステップS23;YES)。映像ソースが無信号の場合、制御部10は、無信号時に照明効果を区別するよう設定されているか否かを判定する(ステップS24)。この設定は、例えば操作部31の操作により事前に設定され、設定内容は設定データ13に含まれて記憶される。無信号のときの照明効果を区別するよう設定されている場合(ステップS24;YES)、制御部10は、照明効果の適用対象を無信号画面に設定し(ステップS25)、図4の動作に戻る。
選択されたソースの映像信号がある場合(ステップS23;NO)、及び、無信号のときの照明効果を区別しないよう設定されている場合(ステップS24;NO)、制御部10は、ステップS26に移行する。ステップS26で、制御部10は、選択された映像ソースが、コンテンツ単位であるか否かを判定する(ステップS26)。映像ソースがコンテンツ単位である場合とは、映像信号の出力とコンテンツに係る情報(コンテンツIDやコンテンツ名称)とが対応付けられている場合である。例えば、メディアプレイヤー等のデータ出力装置3により、コンテンツ名称やコンテンツIDに基づきファイルを再生して、映像信号を出力する場合が該当する。また、制御部10が記憶部11に記憶された映像データ14や記憶媒体4に記憶された映像ファイルをコンテンツ単位で再生する場合が該当する。これらの場合、制御部10は、映像ソースがコンテンツ単位であると判定する(ステップS26;YES)。また、制御部10が、映像信号をコンテンツ毎に区別できない場合とは、例えば、映像I/F部34のHDMIインターフェイスやD−Subコネクターから映像信号が入力される場合が該当する。
制御部10は、映像ソースがコンテンツ単位であると判定した場合(ステップS26;YES)、適用対象を、対象コンテンツに設定し(ステップS27)、図4の動作に戻る。また、制御部10は、映像ソースがコンテンツ単位でないと判定した場合(ステップS26;NO)、適用対象を、対象ソースに設定し(ステップS28)、図4の動作に戻る。
適用対象は、制御部10がマスクデータを利用して照明効果を付与する処理を実行し、停止する制御の対象である。適用対象をコンテンツに設定する場合(ステップS27)、制御部10は、コンテンツの再生開始や停止に対応して照明効果を付与する。例えば、コンテンツに対応付けて設定されたマスクデータを使用する、コンテンツの再生が完了したときにマスクデータに基づくフィルター画像P2を重畳する処理を停止する、等の制御を制御部10が行う。この場合、元画像P1は、映像供給装置2から映像I/F部34に入力されるコンテンツの映像信号、または、データ出力装置3または記憶媒体4から制御部10が取得しデータ入力部45に入力される映像データに基づく映像信号である。
適用対象を映像ソースに設定する場合(ステップS28)、制御部10は、映像ソースの状態に対応して照明効果を付与する。例えば、映像ソースである映像供給装置2の動作の開始及び終了に合わせて、マスクデータに基づくフィルター画像P2を重畳する処理を開始及び停止する、等の制御を制御部10が行う。
適用対象を無信号画面に設定する場合(ステップS24)、制御部10は、無信号画面に照明効果を付与する処理を行う。この場合、制御部10は、例えば、映像信号が入力された場合に、マスクデータに基づくフィルター画像P2を重畳する処理を停止したり、合成画像P3の投射を停止したりする。この場合、元画像P1は、無信号状態の映像情報であり、空白の画像である。
適用対象を照明効果ソースに設定する場合(ステップS22)、制御部10は、映像信号の入力状態等に関係なく合成画像P3を投射できる。この場合、元画像P1は存在しないので、元画像P1は、適用対象を無信号画面に設定した場合と同様に、空白の画像である。
図7は、プロジェクター1の動作を示すフローチャートであり、照明効果編集処理(図4のステップS17)を詳細に示すフローチャートである。
制御部10は、照明効果をONに設定し(ステップS31)、照明効果を対象の映像に対して適用する。ステップS31で適用される照明効果は、編集中に編集内容が把握しやすいように、予め設定されたマスク画像に基づく効果である。すなわち、事前に設定されたマスクデータに基づくフィルター画像P2が、空白の画像に重畳された合成画像P3が投射される。また、操作部31により照明効果を停止させる指示が入力された場合、照明効果をOFFにしてもよい。
制御部10は、操作部31の操作に応じて、形状フィルターの編集(ステップS32)、カラーフィルターの編集(ステップS33)、及び、フィルターの濃度の編集(ステップS34)を順次実行する。
形状フィルターを編集する処理(ステップS32)では、照明効果の形状に関わる設定の編集を行う。例えば、フィルター画像P2において透過率を変化させる領域の種類が、円形、四角形、任意図形等から選択され、或いは、操作部31の操作に対応して作成される。また、ステップS32の処理は、例えば、照明効果のフィルター属性を設定する処理を含む。フィルター属性は、フィルター画像P2を重ねることで元画像P1に照明効果を与える位置や形態を指す。
また、形状フィルターを編集する処理(ステップS32)で、マスクデータにおいて照明効果に利用する位置、及び、大きさの設定を編集可能としてもよい。
図8は、プロジェクター1の投射画像の例を示す図であり、マスクデータにおいて照明効果に利用する位置の設定を行う画面の一例である。
図8に示す投射画像には、合成画像P51と、合成画像51を編集するためのOSD画像O51とが配置される。合成画像P51は、元画像P1に、操作部31の操作で選択されたフィルター画像を重畳させた画像である。合成画像P51は、不透明(例えば、透過率0%)の領域A511と、透過率が高い領域A512(例えば、透過率100%)とを有し、領域A511の色は、例えば黒無地である。
制御部10は、図8の投射画像を表示した状態で、操作部31の操作に対応して、フィルター画像を編集する。具体的には、操作部31の操作に対応して、画像メモリー48に保存されているフィルター画像48aのデータを編集する。図8に例示するOSD画像O51には、リモコン装置に設けられている上、下、右、左の各方向キーに対応するアイコンが配置され、制御部10は、リモコン装置の方向キーまたはOSD画像O51のアイコンに対する操作を検出する。例えば、制御部10は、左の方向キーを押下された情報が操作部31に入力されると、左の方向キーに対応して、領域A512を移動させる。制御部10は、領域A512が全体的に左に移動するように、フィルター画像48aのデータを編集する。
図9は、プロジェクター1の投射画像の例を示す図であり、マスクデータにおいて照明効果の大きさの設定を行う画面の一例である。
図9に示す投射画像には、合成画像P52と、合成画像52を編集するためのOSD画像O52とが配置される。図9の例では、OSD画像O52は、縦方向の大きさを変えるためのOSD画像521と、横方向の大きさを変えるためのOSD画像O522を含む。
合成画像P52は、元画像P1に、操作部31の操作で選択されたフィルター画像を重畳させた画像である。合成画像P52は、不透明(例えば、透過率0%)の領域A521と、透過率が高い領域A522(例えば、透過率100%)とを有し、領域A521の色は、例えば黒無地である。
制御部10は、図9の投射画像を表示した状態で、操作部31の操作に対応して、フィルター画像を編集する。具体的には、操作部31の操作に対応して、画像メモリー48に保存されているフィルター画像48aのデータを編集する。図9に例示するOSD画像O521には、リモコン装置に設けられている右、左の各方向キーに対応するアイコンが配置され、制御部10は、リモコン装置の方向キーまたはOSD画像O521のアイコンに対する操作を、縦方向のサイズ調整操作として検出する。同様に、OSD画像O522には、リモコン装置に設けられている右、左の各方向キーに対応するアイコンが配置され、制御部10は、リモコン装置の方向キーまたはOSD画像O522のアイコンに対する操作を、横方向のサイズ調整操作として検出する。
制御部10は、例えば、OSD画像O521が選択された状態で、リモコンに設けられている左の方向キーを押下された情報が操作部31に入力されると、左の方向キーの操作に対応して、領域A522の縦方向のサイズを変更する。制御部10は、領域A522が縦方向に小さくなるように、フィルター画像48aのデータを編集する。同様に、例えば、OSD画像O522が選択された状態で、リモコンに設けられている左の方向キーを押下された情報が操作部31に入力されると、左の方向キーの操作に対応して、領域A522の横方向のサイズを変更する。制御部10は、領域A522が横方向に小さくなるように、フィルター画像48aのデータを編集する。
なお、図8及び図9に例示したように、マスクデータにおいて照明効果に利用する位置および/または大きさを設定する画面では、合成画像P51、P52を用いたが、合成画像P51、P52の代わりに、フィルター画像を表示するようにしてもよい。合成画像P51、P52を表示してフィルター画像を編集する場合、合成画像の状態を確認しながらフィルター画像を編集できるという利点がある。また、フィルター画像を表示して編集を行う場合、制御部10の処理負荷が軽減されるという利点がある。また、制御部10は、操作部31の操作に対応して、上述のように画像メモリー48のフィルター画像48aを編集する処理に代えて、記憶部11に記憶されているマスクデータ15を編集するようにしてもよい。
制御部10は、カラーフィルターの設定を編集する。カラーフィルターは、マスクデータに基づき生成されるフィルター画像の色に関わる設定である。より具体的には、フィルター画像において透過率が100%でない領域の色が設定される。この色は、例えば、予め固定された色(赤、青、緑など)、照明(電球、蛍光灯)と同等の色を疑似的に再現した効果を有する色、或いは、ユーザーが任意に指定するカスタムカラー等とすることができる。
図10は、プロジェクター1の動作の説明図であり、フィルター属性及びカラーフィルターの設定のバリエーションを示す。
図10には、マスクデータM1と、マスクデータM1に基づいて生成可能なフィルター画像P21、P22、P23、P24とを示す。
マスクデータM1は、マスクデータ15、データ出力装置3若しくは記憶媒体4から入力されるマスクデータ、或いは、制御部10が生成するマスクデータの一例である。マスクデータM1は、輝度の異なる複数の領域M11、M12を含む。例えば、領域M11に含まれる画素の輝度は領域M12に含まれる画素より高輝度である。
フィルター画像P21、P22、P23、P24は、マスクデータM1に基づき透過率生成部43bが生成するフィルター画像である。フィルター画像P21、P22、P23、P24は、フィルター属性が互いに異なる。
フィルター画像P21は、不透明(例えば、透過率0%)の領域A211と、透過率が高い領域A212(例えば、透過率100%)とを有し、領域A211の色は黒無地である。フィルター画像P22は、不透明の領域A221(例えば、透過率0%)と、透過率が高い領域A222(例えば、透過率100%)とを有し、領域A221の色は白無地である。領域A211及びA221の色はカラーフィルターの設定により決まる。
フィルター画像P23は、透過率が高い領域A231(例えば、透過率100%)と、不透明の領域A232(例えば、透過率0%)とを有し、領域A232の色は黒無地である。フィルター画像P24は、透過率が高い領域A241(例えば、透過率100%)と、不透明の領域A242(例えば、透過率0%)とを有し、領域A242の色は白無地である。領域A232及びA242の色はカラーフィルターの設定により決まる。
図11は、プロジェクター1の動作の説明図であり、図10のフィルター画像P21、P22、P23、P24を映像データに適用した例を示す。
図11には、OSD生成部43がフィルター画像P21、P22、P23、P24を重畳する対象を元画像P1で示す。
元画像P1にフィルター画像P21を重畳した合成画像P31では、領域A212(図10)に対応する領域A312では元画像P1が透過し、領域A311で黒一色となる合成画像P31が投射される。元画像P1にフィルター画像P22を重畳した合成画像P32では、領域A222(図10)に対応する領域A322では元画像P1が透過し、領域A321で白一色となる合成画像P32が投射される。
これに対し、元画像P1にフィルター画像P23を重畳した合成画像P33では、領域A331では元画像P1が透過し、領域A232(図10)に対応する領域A332で黒一色となる合成画像P33が投射される。元画像P1にフィルター画像P24を重畳した合成画像P34では、領域A341では元画像P1が透過し、領域A242(図10)に対応する領域A342で白一色となる合成画像P34が投射される。
このように、フィルター属性及びカラーフィルターを設定あるいは変更することで、一つのマスクデータM1から、異なる照明効果を生むフィルター画像P21、P22、P23、P24を生成できる。フィルター属性及びカラーフィルターに関する設定は、OSD生成部43が、フィルター画像48aの輝度を透過率に変換する処理において、制御部10により利用される。すなわち、透過率生成部43bがフィルター画像48aの輝度を透過率に変換する処理で、制御部10が、フィルター属性の設定に従って、輝度の大小と透過率の大小との対応、及び、透過率が低い領域の色を指定する。
フィルターの濃度(濃さ)を編集する処理(ステップS34)では、フィルター画像P2を元画像P1に重畳するときの濃度の設定を編集する。フィルター画像P2には透過率が設定されるが、フィルター画像P2における領域毎または画素毎の透過率に加え、フィルター画像P2全体の透過率を、濃度として設定できる。設定される濃度は操作部31の操作によって指定される任意の値であってもよいし、予め用意されたパターンから選択されてもよい。
ステップS32〜S34で設定される項目について、設定データ13が、初期設定値を含み、設定が行われない場合に初期設定値を用いて制御部10が処理可能な構成であってもよい。また、ステップS32、S33、S34の編集を行う順序についても制限はない。
以上説明したように、本発明を適用した実施形態に係るプロジェクター1は、OSD生成部43を備える。OSD生成部43は、第1の画像情報である映像ソースに基づく第1の画像(元画像P1)と、輝度情報を有する第2の画像情報(マスクデータ)の輝度情報を透過率に変換して生成した第2の画像(フィルター画像P2)とを、透過率に基づき合成する。この処理により、OSD生成部43は、第3の画像(合成画像P3)を生成する。また、プロジェクター1は、OSD生成部43が生成する第3の画像(合成画像P3)を表示する画像形成部20を有する。
本発明の表示装置、及び、表示装置の制御方法を適用したプロジェクター1によれば、元画像P1に対し、輝度情報を反映して設定される透過率でフィルター画像P2を合成し、合成した合成画像P3を投射できる。これにより、例えば階調表現された輝度情報を有するマスクデータをもとに生成された、透過率の階調を有するフィルター画像P2を利用することで、元画像P1に新たな階調表現を付与することができる。
また、例えば、画像内の輝度情報の差異を有するマスクデータをもとに生成されるフィルター画像P2を、元画像P1に合成することで、元画像P1に対し画像内の位置や形状による表現の変化を与えることができる。このように、マスクデータの輝度情報を透過率に変換したフィルター画像P2を元画像P1に合成することで、元画像P1に対して表現力に富む効果を与えて表示できる。
また、元画像P1は複数の画素を含み、マスクデータは、複数の画素を含む領域毎または画素毎の輝度情報を有する。OSD生成部43は、マスクデータに基づき、複数の画素を含み、複数の画素を含む領域毎または画素毎の透過率を有するフィルター画像P2を、元画像P1と合成して合成画像P3を生成する。これにより、領域毎または画素毎の輝度情報を変換した透過率に従って、フィルター画像P2を元画像P1に合成する。これにより、合成画像P3は、元画像P1に対して領域毎または画素毎の変化を与えた画像となり、元画像P1を、表現力に富む態様で表示できる。
また、プロジェクター1は、複数のマスクデータの各々に対応する選択用画像(例えば、マスク画像102、103、104、105)を含む選択画面101を、画像形成部20により投射させる。プロジェクター1は、複数の選択用画像から選択される選択用画像に対応するマスクデータを、OSD生成部43により処理させる制御部10を備える。これにより、複数のマスクデータから選択されたマスクデータを、元画像P1に合成することができるので、元画像P1に対して多彩な効果を与えることができる。
また、制御部10は、選択された選択用画像に対応するマスクデータから生成されるフィルター画像P2に対し、元画像P1と合成する態様を調整する。具体的には、制御部10は、照明効果編集処理(図7)により、フィルター属性、カラーフィルターを編集する。これにより、元画像P1に対して、より表現力に富む効果を与えて表示できる。
また、制御部10は、照明効果編集処理により、フィルター画像P2において元画像P1と合成する範囲の位置、フィルター画像P2において元画像P1と合成する範囲のサイズ等を編集してもよい。また、照明効果編集処理により、フィルター画像P2において元画像P1と合成する範囲の形状、フィルター画像P2の色、及び、フィルター画像P2を元画像P1と合成する際の濃度等を編集してもよい。また、上記の少なくとも1以上を調整してもよい。これにより、一つのフィルター画像P2を利用して元画像P1に与える効果を変化させることができ、元画像P1に対して多彩な効果を与えることができる。
また、制御部10は、マスクデータの輝度情報を透過率に変換する変換方式を、選択可能な複数の変換方式から選択してもよい。具体的には、制御部10は、照明効果編集処理で編集された設定に適合する変換方式で、OSD生成部43により、輝度情報を透過率に変換してフィルター画像P2を生成し、このフィルター画像P2を元画像P1に合成する。これにより、マスクデータを利用して元画像P1に与える効果を変化させることができ、元画像P1に対して多彩な効果を与えることができる。
また、選択用画像は、マスクデータから生成される無彩色のグレースケール画像である。これにより、選択用画像にマスクデータの輝度が明瞭に反映されるため、選択用画像によって、元画像P1にフィルター画像P2を合成する際の透過率を良好に把握できる。従って、元画像P1に与える効果がわかりやすく、マスクデータを容易に選択できる。
また、選択用画像は、マスクデータから生成されるフィルター画像P2であるから、マスクデータによって元画像P1に与えられる効果がわかりやすく、マスクデータを容易に選択できる。
[第2の実施形態]
図12は、第2実施形態におけるプロジェクター1のブロック図である。
第2実施形態において、プロジェクター1の構成は上記第1実施形態と共通である。第2実施形態では、記憶媒体4、及び/または記憶部11に、マスク情報及びスケジュール情報が記憶され、これらの情報に基づき制御部10が映像処理部40を制御する。
例えば、記憶媒体4は、映像コンテンツのファイルである映像データ4a、及び、マスクデータ4bを格納する。さらに、記憶媒体4は、マスク情報4c、及び、スケジュール情報4dを格納する。マスク情報4cは、映像データ4a及びマスクデータ4bに対応付けられるデータであり、映像データ4aと組み合わせてOSD生成部43で処理するマスクデータ4bを指定するデータである。
図13は、マスク情報4cの構成例を示す模式図である。
マスク情報4cは、記憶媒体4に記憶された映像データ4aを指定する情報と、映像データ4aに対して適用するマスクデータ4bを指定する情報とを含む。このマスク情報4cにより、記憶媒体4が記憶する映像データ4aのいずれかが映像ソースとして選択された場合に、選択された映像データ4aに対応するマスクデータ4bを特定できる。また、マスク情報4cは、マスクデータの設定に関する情報を含む。この情報は、例えば、照明効果編集処理(図7)で編集される内容の一部、或いは全部を含む。マスク情報4c及び後述するマスク情報17は、対応情報に相当する。
従って、制御部10は、マスク情報4cを参照することにより、映像データ4aを選択し、映像データ4aに対応するマスクデータ4bを選択できる。さらに、制御部10は、マスク情報4cに基づき、映像データ4aに基づく元画像P1に、マスクデータ4bから生成されるフィルター画像P2を合成する処理を、照明効果編集処理で編集された通りに実行できる。このため、操作部31による処理を経ることなく、自動的に、合成画像P3を投射できる。
図14は、スケジュール情報4dの構成例を示す模式図である。
スケジュール情報4dは、映像ソースがコンテンツである場合、すなわち、照明効果の対象がコンテンツである場合に、コンテンツの再生中においてフィルター画像P2を合成するタイミングを指定する情報を含む。スケジュール情報4d及び後述するスケジュール情報18は、合成情報に相当する。
図14の例では、スケジュール情報4dは、映像コンテンツを特定する情報(例えば、映像データ4aのファイル名)と、コンテンツの再生時刻と、マスクデータ4bによる照明効果のON、OFFを指定する情報とを含む。コンテンツの再生時刻は、例えば、再生開始からの経過時間を指す。図14には一つのマスクデータ4bを映像データ4aに適用する例において、照明効果のONとOFFを、再生時刻に対応して切り替える内容を示す。この場合、制御部10は、スケジュール情報4dに従って、OSD生成部43において、元画像P1にフィルター画像P2を重畳して合成画像P3を出力する処理と、元画像P1を出力する処理とを切り替えさせる。
また、スケジュール情報4dは、一つの映像コンテンツに対し、複数のマスクデータ4bを設定し、各々のマスクデータ4bを映像コンテンツに適用するタイミングを指定するデータであってもよい。また、映像コンテンツが複数のファイルで構成される場合、スケジュール情報4dは映像コンテンツを指定するデータとして複数のファイルのファイル名を含んでもよい。
図15は、第2実施形態におけるプロジェクター1の動作を示すフローチャートである。
制御部10は、操作部31により照明効果を利用した映像投射の開始が指示されると(ステップS51)、媒体読取部32により記憶媒体4を検出する(ステップS52)。ここで、操作部31の操作により、記憶媒体4に格納された映像データ4aのいずれかが、選択される(ステップS53)。制御部10は、選択された映像データ4aに対応するマスク情報4c及びスケジュール情報4dが記憶媒体4に記憶されているか否かを判定する(ステップS54)。
ステップS53の映像データ4aの選択は、制御部10が自動的に、或いは事前に設定された順序に従って行ってもよい。例えば、制御部10は、記憶媒体4に記憶された映像データ4aを検索し、映像データ4aが1つである場合に、この映像データ4aを選択してもよい。また、映像データ4aのファイル名に従って、事前に設定された順序で映像データ4aを選択してもよい。
映像データ4aに対応するマスク情報4c及びスケジュール情報4dがある場合(ステップS54;YES)、制御部10は、自動読取モードを実行し(ステップS56)、マスク情報4c及びスケジュール情報4dを取得する(ステップS57)。
制御部10は、取得したマスク情報4cに従って、マスクデータ4bからフィルター画像P2を生成する処理に関する設定を行う(ステップS58)。
制御部10は、スケジュール情報4dに従って映像の投射を実行する(ステップS59)。ステップS59で、制御部10は、設定に従って、ステップS53で選択された映像データ4aに基づき映像信号を映像処理部40に入力する。また、制御部10は、マスク情報4cにより指定されるマスクデータ4bを取得して映像処理部40に入力する。映像処理部40は、マスクデータ4bに基づきフィルター画像48aを描画し、フィルター画像48aをもとに、OSD生成部43がフィルター画像P2を生成する。ここで、OSD生成部43は、マスク情報4cにより設定された内容に従って、輝度情報を透過率に変換するほか、フィルター画像P2のサイズや形状、フィルター画像48aにおいてフィルター画像P2とする位置、サイズ、形状等、色等を決定する。制御部10は、スケジュール情報4dに設定されたタイミングで、OSD生成部43によりフィルター画像P2を元画像P1に合成する処理のON/OFFを切り替えさせる。
つまり、記憶媒体4が媒体読取部32によって読み取り可能な状態で、映像データ4aと、映像データ4aに対応するマスク情報4c及びスケジュール情報4dが記憶媒体4に記憶されている場合、制御部10は、自動的に処理を実行する。
また、図15の動作は、記憶部11に、映像データ14、マスクデータ15、マスク情報17、及びスケジュール情報18が記憶されている場合に、これらのデータに基づき実行してもよい。具体的には、映像データ14が選択された場合に、選択された映像データ14に対応するマスク情報17及びスケジュール情報18が記憶されていれば、制御部10がステップS56〜S59の動作を実行できる。この場合、制御部10は、選択された映像データ14と、映像データ14に対応するマスク情報17で指定されるマスクデータ15とを取得し、マスク情報17及びスケジュール情報18に従って映像を投射する。
ステップS54で、記憶媒体4に、映像データ4aに対応するマスク情報4c及びスケジュール情報4dのいずれかがない場合(ステップS54;NO)、制御部10は、通常動作(例えば、第1実施形態で説明した動作)を実行する(ステップS55)。
また、ステップS54で、記憶媒体4に、映像データ4aに対応するマスク情報4cで指定されたマスクデータ4bの有無を判定してもよい。この場合、指定されたマスク情報4cがない場合に、図15の処理を終了してもよい。
また、図15のステップS54で、制御部10は、マスク情報4c及びスケジュール情報4dが記憶媒体4に記憶されている場合に、これらの情報を、映像データ4a及びマスクデータ4bとともに読み出して、記憶部11に記憶させてもよい。
第2実施形態の動作により、プロジェクター1は、上述した第1実施形態と同様の作用効果を得ることができる。また、第2実施形態で、OSD生成部43は、映像データ4aとマスクデータ4b、或いは、映像データ14とマスクデータ15とを対応付けるマスク情報4c、17に従って、合成画像P3を生成する。これにより、元画像P1にフィルター画像P2を合成する処理に関する設定を事前に行い、設定通りに自動的に投射を実行させることができる。
また、OSD生成部43は、合成画像P3を画像形成部20に表示するタイミング(例えば、再生時刻)と、OSD生成部43により合成画像P3を生成する処理の内容とを定めるスケジュール情報4dに従って、合成画像P3を生成する。これにより、合成画像P3を投射するタイミングに合わせて画像を合成する処理の内容を設定できる。
また、プロジェクター1は、記憶媒体4に記憶されたデータを読み取る媒体読取部32を備える。プロジェクター1は、媒体読取部32によって、一つの記憶媒体4から映像データ4a、マスクデータ4b、及び、スケジュール情報4dが読み取られた場合に、読み取られたスケジュール情報4dに従って処理を行う。この場合、OSD生成部43は、読み取られた映像データ4a及びマスクデータ4bに基づき合成画像P3を生成する。これにより、一つの記憶媒体4に映像データ4a、マスクデータ4b及びスケジュール情報4dを記憶させておくことで、元画像P1にフィルター画像P2を合成する処理を自動化できる。
また、プロジェクター1は、データが入力される入力部としてのI/F部33を備える。制御部10は、I/F部33部に入力される映像データ、マスクデータ、及び、スケジュール情報に従って、合成画像P3を生成してもよい。これにより、I/F部33に、映像データ14、マスクデータ15、及びマスク情報17を入力することで、元画像P1に対しフィルター画像P2を合成する処理を自動化できる。
なお、上述した実施形態及び変形例は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、上記実施形態とは異なる態様として本発明を適用することも可能である。
例えば、上記各実施形態では、映像処理部40がプロジェクター1に内蔵された構成を例示したが、本発明はこれに限定されず、例えば、プロジェクター1とは別体で構成された装置に映像処理部40を設けてもよい。さらに、映像処理部40は、ASIC等のハードウェアで構成されるものに限定されず、一つのプロセッサーがプログラムを実行することで実現してもよい。
また、本発明の表示装置は、スクリーンSCに画像を投射するプロジェクターに限定されない。例えば、液晶表示パネルを有する液晶ディスプレイであってもよい。また、例えば、PDP(プラズマディスプレイパネル)や有機EL表示パネルを有するディスプレイであってもよく、その他の各種の表示装置にも本発明を適用可能である。
また、図1、図2、図12に示した各機能部は、プロジェクター1の機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。その他の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
1…プロジェクター(表示装置)、2…映像供給装置、3…データ出力装置、4…記憶媒体、4a…映像データ(第1の画像情報)、4b…マスクデータ(第2の画像情報)、4c…マスク情報(対応情報)、4d…スケジュール情報(合成情報)、10…制御部、11…記憶部、14…映像データ(第1の画像情報)、15…マスクデータ(第2の画像情報)、17…マスク情報(対応情報)、18…スケジュール情報(合成情報)、20…画像形成部(表示部)、25…投射部、27…光源制御部、28…光変調装置駆動部、31…操作部、32…媒体読取部(読取部)、33…I/F部(入力部)、34…映像I/F部、40…映像処理部、41…映像信号入力部、42…信号処理部、43…OSD生成部(画像生成部)、43a…形状調整部、43b…透過率生成部、43c…合成部、44…映像補正部、45…データ入力部、46…映像デコード部、47…画像入力部、48…画像メモリー、48a…フィルター画像、101…選択画面、102、103、104、105…マスク画像、M1…マスクデータ、P1…元画像(第1の画像)、P2、P21、P22、P23、P24…フィルター画像(第2の画像)、P3、P31、P32、P33、P34…合成画像(第3の画像)、PP…投射画像。

Claims (12)

  1. 第1の画像情報に基づく第1の画像と、輝度情報を有する第2の画像情報の前記輝度情報を透過率に変換して生成した第2の画像とを、透過率に基づき合成することにより、第3の画像を生成する画像生成部と、
    前記第3の画像を表示する表示部と、
    を有する表示装置。
  2. 前記第1の画像は複数の画素を含み、
    前記第2の画像情報は、複数の画素を含む領域毎または画素毎の輝度情報を有し、
    前記画像生成部は、前記第2の画像情報に基づき、複数の画素を含み、複数の画素を含む領域毎または画素毎の透過率を有する前記第2の画像を、前記第1の画像と合成して前記第3の画像を生成する、
    請求項1記載の表示装置。
  3. 複数の前記第2の画像情報の各々に対応する選択用画像を前記表示部により表示させ、表示された複数の前記選択用画像から選択される前記選択用画像に対応する前記第2の画像情報を、前記画像生成部により処理させる制御部を備える、請求項1または2記載の表示装置。
  4. 前記制御部は、選択された前記選択用画像に対応する前記第2の画像情報から生成される前記第2の画像に対し、前記第1の画像と合成する態様を調整する、請求項3記載の表示装置。
  5. 前記制御部は、前記第2の画像において前記第1の画像と合成する範囲の位置、前記第2の画像において前記第1の画像と合成する範囲のサイズ、前記第2の画像において前記第1の画像と合成する範囲の形状、前記第2の画像の色、及び、前記第2の画像を前記第1の画像と合成する際の濃度の少なくとも1以上を調整する、請求項4記載の表示装置。
  6. 前記制御部は、前記第2の画像情報の前記輝度情報を前記透過率に変換する変換方式を、選択可能な複数の変換方式から選択し、
    前記画像生成部は、前記制御部により選択された変換方式によって前記輝度情報が前記透過率に変換された前記第2の画像と、前記第1の画像とを合成する、請求項3から5のいずれか1項に記載の表示装置。
  7. 前記選択用画像は、前記第2の画像情報から生成される無彩色の画像である、請求項3から6のいずれか1項に記載の表示装置。
  8. 前記選択用画像は、前記第2の画像情報から生成される前記第2の画像である、請求項3から6のいずれか1項に記載の表示装置。
  9. 前記画像生成部は、合成する対象の前記第1の画像と、合成する対象の前記第2の画像情報または前記第2の画像とを対応付ける対応情報に従って、前記第3の画像を生成する、請求項1から8のいずれか1項に記載の表示装置。
  10. 前記画像生成部は、前記第3の画像を前記表示部が表示するタイミングと、前記画像生成部により前記第3の画像を生成する処理の内容とを定める合成情報に従って、前記第3の画像を生成する、請求項9記載の表示装置。
  11. 記憶媒体に記憶されたデータを読み取る読取部を備え、
    前記読取部によって、一つの前記記憶媒体から前記第1の画像情報、前記第2の画像情報、及び、前記対応情報が読み取られた場合に、前記読取部により読み取られた前記対応情報に従って、前記読取部により読み取られた前記第1の画像情報及び前記第2の画像情報に基づき前記第3の画像を生成する、請求項9または10記載の表示装置。
  12. 表示部を備える表示装置の制御方法であって、
    第1の画像情報に基づく第1の画像と、輝度情報を有する第2の画像情報の前記輝度情報を透過率に変換して生成した第2の画像とを、透過率に基づき合成することにより、第3の画像を生成し、前記第3の画像を前記表示部により表示する、
    表示装置の制御方法。
JP2017152346A 2017-08-07 2017-08-07 表示装置、及び、表示装置の制御方法 Pending JP2019032395A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017152346A JP2019032395A (ja) 2017-08-07 2017-08-07 表示装置、及び、表示装置の制御方法
US16/049,241 US10657925B2 (en) 2017-08-07 2018-07-30 Display device and control method for conversion of luminance information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017152346A JP2019032395A (ja) 2017-08-07 2017-08-07 表示装置、及び、表示装置の制御方法

Publications (1)

Publication Number Publication Date
JP2019032395A true JP2019032395A (ja) 2019-02-28

Family

ID=65230646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017152346A Pending JP2019032395A (ja) 2017-08-07 2017-08-07 表示装置、及び、表示装置の制御方法

Country Status (2)

Country Link
US (1) US10657925B2 (ja)
JP (1) JP2019032395A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3843078A1 (en) 2019-12-25 2021-06-30 Seiko Epson Corporation Method of controlling display device, and display device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6897191B2 (ja) * 2017-03-17 2021-06-30 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
JP2019078786A (ja) * 2017-10-20 2019-05-23 セイコーエプソン株式会社 画像投射システム、プロジェクター、及び画像投射システムの制御方法
JP2019090858A (ja) * 2017-11-10 2019-06-13 キヤノン株式会社 表示装置、表示制御装置及び表示制御方法
TW202210928A (zh) * 2020-09-10 2022-03-16 優派國際股份有限公司 投影裝置以及投影方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4900990B2 (ja) * 2000-04-27 2012-03-21 ソニー株式会社 特殊効果画像作成装置
US7440590B1 (en) * 2002-05-21 2008-10-21 University Of Kentucky Research Foundation System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
JP2005117612A (ja) * 2003-09-18 2005-04-28 Fuji Photo Film Co Ltd 画像処理方法および装置
JP2008102332A (ja) 2006-10-19 2008-05-01 Seiko Epson Corp プロジェクタ
US7936361B2 (en) * 2007-04-30 2011-05-03 Hewlett-Packard Development Company, L.P. System and method for masking and overlaying images in multiple projector system
JP4538021B2 (ja) * 2007-05-31 2010-09-08 株式会社東芝 光近接効果の補正方法
JP2010145945A (ja) 2008-12-22 2010-07-01 Toshiba Corp 映像表示装置及び映像表示方法
JP4548542B1 (ja) * 2009-06-30 2010-09-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2011082798A (ja) * 2009-10-07 2011-04-21 Sanyo Electric Co Ltd 投写型映像表示装置
JP2011176748A (ja) * 2010-02-25 2011-09-08 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012013743A (ja) * 2010-06-29 2012-01-19 Seiko Epson Corp 画像生成装置、プロジェクター及び画像生成方法
JP5685972B2 (ja) * 2011-02-15 2015-03-18 セイコーエプソン株式会社 プロジェクター、およびプロジェクターの制御方法
JP6120169B2 (ja) * 2012-07-25 2017-04-26 パナソニックIpマネジメント株式会社 画像編集装置
JP6349826B2 (ja) 2014-03-20 2018-07-04 富士ゼロックス株式会社 印刷制御装置、印刷制御システムおよびプログラム
JP6419480B2 (ja) * 2014-07-30 2018-11-07 株式会社クリプトン マルチプロジェクション装置
JP6771947B2 (ja) * 2016-05-09 2020-10-21 キヤノン株式会社 表示装置及びその制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3843078A1 (en) 2019-12-25 2021-06-30 Seiko Epson Corporation Method of controlling display device, and display device
US11064171B1 (en) 2019-12-25 2021-07-13 Seiko Epson Corporation Method of controlling display device, and display device
JP2021103848A (ja) * 2019-12-25 2021-07-15 セイコーエプソン株式会社 表示装置の制御方法、及び表示装置
JP7276120B2 (ja) 2019-12-25 2023-05-18 セイコーエプソン株式会社 表示装置の制御方法、及び表示装置

Also Published As

Publication number Publication date
US10657925B2 (en) 2020-05-19
US20190043444A1 (en) 2019-02-07

Similar Documents

Publication Publication Date Title
JP2019032395A (ja) 表示装置、及び、表示装置の制御方法
JP4725255B2 (ja) 画像表示装置、プロジェクタ、パラメータセット選択方法、及びパラメータセット記憶方法
JP2007194950A (ja) 投射型画像表示システム、投射型画像表示装置、およびランプ点灯制御方法
JP4788248B2 (ja) 画像表示装置、プロジェクタおよび画像表示方法
JP5147016B2 (ja) 投影装置、投影方法及びプログラム
JP6540099B2 (ja) 画像処理装置、表示装置、及び、画像処理方法
JP5482164B2 (ja) 投影装置、投影方法及びプログラム
JP5131310B2 (ja) 画像表示装置、プロジェクタおよび画像表示方法
JP2019134206A (ja) 投影装置および投影装置の制御方法
US11238828B2 (en) Method of controlling display device and display device
KR20070075630A (ko) 디스플레이 장치 및 그 제어 방법
CN113452976A (zh) 显示装置的控制方法以及显示装置
JP7166775B2 (ja) 表示装置の制御装置、制御方法、表示システムおよびプログラム
JP7276120B2 (ja) 表示装置の制御方法、及び表示装置
US20210195150A1 (en) Operation method and display apparatus
US8958015B2 (en) Color video projector controlled by ambient light detection and method therefor
JP2009141460A (ja) プロジェクタ
JP7342820B2 (ja) 表示装置の制御方法、及び、表示装置
JP2010243870A (ja) プロジェクター及びその制御方法
JP6554838B2 (ja) 投影装置、投影方法及びプログラム
JP2023027872A (ja) 画像処理方法、及び、画像処理回路
JP2006246102A (ja) 映像表示装置およびプロジェクタ
JP5495389B2 (ja) 投影装置、投影方法及びプログラム
JP2005236528A (ja) 色補正機能を備えるプロジェクタ
JP2020118744A (ja) 表示方法、及び表示装置