JP4399087B2 - LIGHTING SYSTEM, VIDEO DISPLAY DEVICE, AND LIGHTING CONTROL METHOD - Google Patents

LIGHTING SYSTEM, VIDEO DISPLAY DEVICE, AND LIGHTING CONTROL METHOD Download PDF

Info

Publication number
JP4399087B2
JP4399087B2 JP2000163828A JP2000163828A JP4399087B2 JP 4399087 B2 JP4399087 B2 JP 4399087B2 JP 2000163828 A JP2000163828 A JP 2000163828A JP 2000163828 A JP2000163828 A JP 2000163828A JP 4399087 B2 JP4399087 B2 JP 4399087B2
Authority
JP
Japan
Prior art keywords
lighting
image data
image
control data
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000163828A
Other languages
Japanese (ja)
Other versions
JP2001343900A5 (en
JP2001343900A (en
Inventor
正 矢野
健次郎 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2000163828A priority Critical patent/JP4399087B2/en
Publication of JP2001343900A publication Critical patent/JP2001343900A/en
Publication of JP2001343900A5 publication Critical patent/JP2001343900A5/ja
Application granted granted Critical
Publication of JP4399087B2 publication Critical patent/JP4399087B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/155Coordinated control of two or more light sources

Landscapes

  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像データを表示する画像表示デバイス、その画像表示デバイスとともに使用される照明システムおよび照明制御方法に関する。
【0002】
【従来の技術】
マルチメディアの時代を迎え、画像、音響分野における技術開発の進展はめざましいものがある。特にディスプレイの大型化により、臨場感のある画像が楽しめるようになってきている。しかしディスプレイを大型化することはコストや設置スペースの制約がある。そこで、あまり大きなディスプレイを用いなくても画像を鑑賞する時の臨場感を高めることのできる技術が求められている。
【0003】
このような技術の1つとして、画像と連動して照明を制御する技術がある。照明装置の製造に要する資源やコストは大型ディスプレイのそれよりはるかに少ないため、画像と連動して照明を制御する技術は、コストの低減や省エネルギー化、地球温暖化防止の観点からも有効な技術である。
【0004】
画像と連動して照明を制御する技術としては例えば、特開平3―184203号公報に開示される「光色可変形照明装置」が知られている。
【0005】
この従来技術は、画像表示装置の画面に映し出された画像から人の顔などの肌色部分の画素を取り除いた残りの部分を背景部と考え、その背景部の各画素のRGB信号及び輝度信号だけを取り出して平均色度及び平均輝度を求める。画像表示装置の背面の壁面の色度及び輝度が、画面全体、或いは人の肌色を除く背景部の平均色度及び平均輝度と同一になるように、照明を制御する方法が開示されている。
【0006】
【発明が解決しようとする課題】
特開平3―184203号公報に開示される従来技術は、単独の光源を使用することを前提としているため、高い臨場感が得られない。高い臨場感を得るためには、複数の光源を使用することが必要であるが、複数の光源を用いて高い臨場感を得る技術は実現されてこなかった。複数の光源をどのように制御すれば高い臨場感を得ることができるのか知られていなかったからである。特開平3―184203号公報に開示される従来技術は、複数の光源を使用することには言及していない。
【0007】
本発明は、上記の課題を考慮してなされたものであり、その目的は、高い臨場感を得ることができる照明システム、画像表示デバイス及び照明制御方法を提供することである。
【0008】
【課題を解決するための手段】
本発明の照明システムは、画像データを表示する画像表示デバイスとともに使用される照明システムであって、前記画像データを基に照明制御データを作成する演算部と、前記照明制御データに基づいて制御される複数の照明器具と、を備え、前記演算部は、前記画像データの画像フレームから所定領域を切り出し、当該切り出された所定領域の画像情報から、当該切り出された所定領域に対応した前記照明器具を制御するための前記照明制御データを作成し、かつ、前記画像データにおいて前記画像フレームが変わることにより前記所定領域の色相が変化する場合に、制御される前記照明器具の彩度または明度を低下させてから色相を変化させるような前記照明制御データを作成するものであり、そのことにより上記目的が達成される。
本発明の照明制御方法は、画像表示デバイスに表示される画像データと連動させて照明器具を制御するための照明制御方法であって、前記画像データの画像フレームから所定領域を切り出すステップと、前記画像データの画像フレームが変わることにより、前記画像フレームから切り出した所定の領域の色相が変化する場合に、切り出された所定領域に対応した照明器具の彩度または明度を低下させてから色相を変化させるような前記照明制御データを作成するステップと、前記照明制御データにより複数の前記照明器具を制御するステップと、を含むものであり、そのことにより上記目的が達成される。
【0021】
【発明の実施の形態】
図1は、本発明の照明システム1の構成を示す。照明システム1は画像表示デバイス100とともに使用される。
【0022】
照明システム1は、映像信号401を受け取り画像データ411に変換する映像信号入力部18と、画像データ411に基づいて照明制御データ420を作成し、画像データ412と照明制御データ420を出力する演算部12と、照明制御データ420を受け取り、複数の照明器具201〜206に入力する制御電圧430に変換する照明制御データ入力部5と、複数の照明器具201〜206とを含む。
【0023】
映像信号入力部18は、照明システム1の外部に設けられる映像再生装置110から提供される映像信号401を受信し、映像信号401を画像データ411に変換する。画像データ411は、演算部12に出力される。
【0024】
映像信号入力部18は、例えば、ビデオキャプチャボードであり得る。映像再生装置110は、例えば、DVD−ROM再生装置やS−VHSビデオ再生装置であり得る。映像信号401は、例えば、S−VHS信号であり得る。映像再生装置110は、テレビ放送受信機や衛星放送受信機であってもよい。画像データ411および画像データ412は、例えば、Aviファイルの形式で表されるが、画像データの形式はこれに限定されない。
【0025】
図2は、演算部12の構成を示す。演算部12は、CPU10と主メモリ16と補助記憶装置15とを含む。CPU10は、演算部12の全体を制御および監視するとともに、補助記憶装置15に格納されている照明制御データ作成プログラム17を実行する。主メモリ16は、画像データ411、画像データ412および照明制御データ420などのデータや照明制御データ作成プログラム17を実行するのに必要なデータを一時的に格納する。主メモリ16は、CPU10によってアクセスされる。
【0026】
補助記憶装置15には、照明制御データ作成プログラム17が格納されている。また、補助記憶装置15は、画像データ411、画像データ412および照明制御データ420などのデータを一時的に格納するために用いられてもよい。補助記憶装置15において、照明制御データ作成プログラム17を格納する記録媒体としては任意の記録媒体が使用され得る。例えば、ハードディスク、MO、フロッピーディスク、MD、DVD、ICカード、光カードなどの記録媒体が好適に使用され得る。
【0027】
演算部12は、画像データ411を受け取り、画像データ411に基づいて照明制御データ420を作成する。作成された照明制御データ420は画像データ412とタイミングを合わせて出力される。例えば、演算部12は、受け取られた画像データ411をいったん補助記憶装置15に格納し、補助記憶装置15に格納された画像データに基づいて照明制御データ420を作成し、照明制御データ420と画像データ412とをタイミングをあわせて出力してもよい。
【0028】
あるいは、照明制御データ420の作成に必要な時間だけ画像データ411を遅延させて画像データ412として出力することにより、画像データ411を受け取りながら照明制御データ420と画像データ412とをタイミングを合わせて出力するようにしてもよい。このように、画像データ411を受け取りながら照明制御データ420と画像データ412とをタイミングを合わせて出力する処理を、準リアルタイム処理と呼ぶ。なお、タイミングを合わせて出力するとは、画像データ412とそれに対応する照明制御データ420とを同時に出力することを意味する。
【0029】
図3は、照明器具201の構造を示す。照明器具201は蛍光管3R、3Gおよび3Bと、点灯回路7R、7Gおよび7Bとを含む。蛍光管3R、3Gおよび3Bはそれぞれ、R(赤)、G(緑)およびB(青)の色要素に割り当てられている。点灯回路7R、7Gおよび7Bのそれぞれは、例えば、インバータ点灯回路である。点灯回路7R、7Gおよび7Bに制御電圧430を入力することにより、蛍光管3R、3Gおよび3Bが制御電圧430に応じた輝度値で発光する。蛍光管3R、3Gおよび3Bの輝度値は独立に制御することができる。例えば蛍光管3R、3Gおよび3Bのそれぞれが、例えば、0〜5Vの制御電圧により256階調で制御されるとすると、照明器具201は約1670万(=256×256×256)色で発光することが可能である。なお、照明器具201に含まれる蛍光管の数は3に限られない。例えば輝度値の低い色要素に対応する蛍光管が、輝度値を補うために複数使用されていてもよい。
【0030】
照明システム1に用いられる照明器具202〜206のそれぞれも、照明器具201と同様の構造を有し得る。
【0031】
図4は、本発明の照明システム1に含まれる照明器具を部屋の中にレイアウトした例を示す。
【0032】
照明器具201は、画像表示デバイス100の上部の天井付近に配置される。照明器具202は、画像表示デバイス100の背後の床面付近に配置される。照明器具204および照明器具203は、それぞれ、画像表示デバイス100の右側の天井付近および床面付近に配置される。照明器具206および照明器具205はそれぞれ、画像表示デバイス100の左側の天井付近および床面付近に配置される。ここで右側および左側は、画像表示デバイス100に表示される画像データを鑑賞する鑑賞者150を基準に定義される。
【0033】
また、照明器具203’〜206’、照明器具2055および2601については後述される。照明器具203’〜206’、照明器具2055および2601も照明器具201と同様の構造を有し得る。
【0034】
以下に、複数の照明器具201〜206がどのように制御されるかを説明する。
【0035】
図5は、1フレーム分の画像データ300の構造を示す。1フレーム分の画像データ300は複数の周辺領域301〜306を含んでいる。画像データは、フレームの時系列として表される。1秒間の画像データに含まれるフレームの数は、例えば30フレームである。
【0036】
画像データと連動させて複数の照明器具201〜206を制御する基本的な方法は、図5に示される複数の周辺領域が、画像データ300の中心309から外側に向かって延長されたと知覚されるように複数の照明器具を制御する方法である。具体的には、画像データ300の周辺領域301の代表色と、照明器具201が発光する色とが実質的に同一となるように照明器具201が制御される。同様に、周辺領域302、303、304、305および306のそれぞれの代表色と、照明器具202、203、204、205、および206がそれぞれ発光する色とが実質的に同一となるように、複数の照明器具202〜206が制御される。
【0037】
図5に示される周辺領域301を画像表示デバイス100の中心309から外側に延長した領域351(図5にハッチングを施して示される領域)を、周辺領域301の延長領域と呼ぶこととする。周辺領域301と対応づけられた照明器具は、周辺領域301の延長領域351に配置される。あるいは、周辺領域301と対応づけられた照明器具は、延長領域351以外の領域に配置され、延長領域351を照らすように配置されていてもよい。このように、各周辺領域と対応付けられた照明器具は、各延長領域を照らす。このように複数の照明器具を制御することによって、鑑賞者150は、画像が外側に向かって延長されたように知覚し、高い臨場感を得ることができる。
【0038】
図6は、1フレーム分の画像データ300から照明制御データ420が作成される場合のデータの流れを示す。照明制御データ420は、1フレーム分の画像データ300の周辺領域301〜306の画像情報455に基づいて作成される。周辺領域301〜306の画像情報455に基づいて照明制御データを作成する処理は、演算部12において照明制御データ作成プログラム17を実行することにより行われる。照明制御データ420は、調光信号421〜調光信号426を含む。調光信号421〜調光信号426はそれぞれ、照明器具201〜206を制御するための調光信号である。調光信号は、照明器具に含まれるR、GおよびBの色要素に割り当てられた蛍光管3R、3Gおよび3Bを制御するための3個の入力レベルVRM’、VGM’およびVBM’を含む。入力レベルVRM’、VGM’およびVBM’のそれぞれは、例えば、0〜5Vで表される。
【0039】
照明器具201を制御するための調光信号421は、画像データ300の周辺領域301の画像情報に基づいて作成される。同様に、照明器具202〜206を制御するための調光信号422〜426は、画像データ300の周辺領域302〜306の画像情報に基づいて作成される。
【0040】
図7は、照明制御データ作成プログラム17の処理手順を示す。照明制御データ作成プログラム17は、画像データの1フレーム毎に実行され、1フレームについて1個の照明制御データ420が作成される。以下、照明制御データ作成プログラム17の処理手順を各ステップ毎に説明する。
【0041】
ステップS1:1フレーム分の画像データが主メモリ16(図2)に読み込まれる。画像データは、映像信号入力部18から直接主メモリ16に読みこまれてもよいし、一旦補助記憶装置に格納された画像データが主メモリ16に読みこまれてもよい。読みこまれた画像データは複数の周辺領域を含んでいる。複数の周辺領域の配置は、予め定められている。以下の処理手順の説明のために、画像データに含まれる周辺領域の1つを周辺領域Dとする。
【0042】
ステップS2:周辺領域Dを代表する代表色が定義される。周辺領域Dは複数の画素を含み、それぞれの画素は3個の色要素R(赤)、G(緑)およびB(青)に割り当てられた3個のサブピクセルを含む。画像データには、これらのサブピクセルを所望の輝度レベルで発光させるための情報(画像情報)が含まれる。ある画素に含まれる3個の色要素R(赤)、G(緑)およびB(青)に割り当てられた3個のサブピクセルのそれぞれの輝度レベルをVR、VGおよびVBとする。輝度レベルVR、VGおよびVBは例えば、0〜255の値により表されるが、これに限定されない。輝度レベルVRを周辺領域Dに含まれる全ての画素にわたって平均(単純平均)した値をVRMとし、輝度レベルVGを周辺領域Dに含まれる全ての画素にわたって平均した値をVGMとし、輝度レベルVBを周辺領域Dに含まれる全ての画素にわたって平均した値をVBMとすると、周辺領域Dの代表色は、(VRM,VGM,VBM)と表される。
【0043】
ステップS3:画像表示デバイスの入出力補正が行われる。すなわち、周辺領域Dの代表色(VRM,VGM,VBM)が、入出力補正後の輝度値(LRM,LGM,LBM)に変換される。この画像表示デバイスの入出力補正は、図8を参照して後述される。
【0044】
ステップS4:画像表示デバイスの入出力補正後の輝度値(LRM,LGM,LBM)が、色彩量(XC,YC,ZC)に変換される。この変換は、以下の式(1)に示される関係式によって行われる。
【0045】
【数1】

Figure 0004399087
【0046】
ただし、MDISは画像表示デバイスの特性に依存する3×3行列である。色彩量(XC,YC,ZC)は、画像表示デバイスの特性に依存しない色彩量である。
【0047】
ステップS5:色彩量(XC,YC,ZC)が色知覚量(H,L,C)に変換される。H、LおよびCのそれぞれは、色相、明度および彩度を表す。この変換は、以下の式(2)〜(6)に示される関係式によって行われる。
【0048】
a=500[(XC/Xn(1/3)+(YC/Yn(1/3)] (2)
b=200[(YC/Yn(1/3)+(ZC/Zn(1/3)] (3)
H=atan(b/a) (4)
L=116(YC/Yn(1/3)−16 (5)
C=(a2+b2(1/2) (6)
ただしXn、YnおよびZnは定数である。
【0049】
ステップS6:色補正が行われ、補正後の色知覚量(H’,L’,C’)が求められる。色補正は、以下の式(7)〜(9)に示される関係式によって行われる。
【0050】
H’=H+PH (7)
L’=L×PL (8)
C’=C×PC (9)
ここで、PC、PHおよびPLはそれぞれ、色補正のためのパラメータである。このように、色補正を色知覚量(H,L,C)に対して行うことにより、色相、明度および彩度のそれぞれに対して独立して色補正を行うことができる。例えば、式(7)〜(9)においてPH=0、PL=1およびPC=1.1であるような色補正を行うことにより、彩度、つまり色の鮮やかさだけを強調するような色補正が可能になる。色補正は、鑑賞者の好みによって任意に行うようにしてもよい。
【0051】
ステップS7:補正後の色知覚量(H’,L’,C’)が、照明器具に依存しない色彩量(XC’,YC’,ZC’)に変換される。この変換は、以下の式(10)〜(14)に示される関係式によって行われる。
【0052】
a=C’×cosH (10)
b=C’×sinH (11)
C’=[(L+16)/116]3×Yn (12)
C’=[a/500+(YC’/Yn(1/3)3×Xn (13)
C’=[−b/200+(YC’/Yn(1/3)3×Zn (14)
ステップS8:色彩量(XC’,YC’,ZC’)が、周辺領域Dと対応付けられた照明器具の輝度値(LRM’,LGM’,LBM’)に変換される。この変換は、以下の式(15)に示される関係式によって行われる。
【0053】
【数2】
Figure 0004399087
【0054】
ただし、MLAMPは周辺領域Dと対応付けられた照明器具の特性に依存する3×3行列である。LRM’、LGM’およびLBM’はそれぞれ、照明器具に含まれるR、GおよびBの色要素に割り当てられた蛍光管3R、3Gおよび3Bの発光する輝度値である。輝度値の単位は例えば[cd/cm2]である。
【0055】
ステップS9:照明器具の入出力補正が行われる。すなわち、輝度値(LRM’,LGM’,LBM’)が、調光信号(VRM’,VGM’,VBM’)に変換される。VRM’、VGM’およびVBM’のそれぞれは、照明器具に含まれる蛍光管3R、3Gおよび3Bをそれぞれ輝度値LRM’、LGM’およびLBM’で発光させるために必要な入力レベルである。この照明器具の入出力補正は、図9を参照して後述される。
【0056】
ステップS10:1フレーム分の画像データに含まれる全ての周辺領域についいて、ステップS2〜S9の処理が完了したか否かが判定される。この判定がYesであれば1フレーム分の画像データに対する照明制御データの作成処理は終了する。照明制御データは、1フレーム分の画像データに含まれる全ての周辺領域についての調光信号の集合として定義される。上記の判定がNoであれば処理はステップS2に戻り、他の周辺領域について処理が行われる。
【0057】
なお、図7に示される処理手順のステップS6で、色知覚量の補正を行わない場合、すなわちPH=0、PL=1、PC=1の場合、ステップS4で求められた色彩量(XC,YC,ZC)と、ステップS7で求められる色彩量(XC’,YC’,ZC’)とは等しくなる。この場合、ステップS5〜S7は省略可能である。
【0058】
図8は、画像表示デバイス100の入出力特性を示す。図8において横軸VRは、画像表示デバイス100に入力される色要素R(赤)の輝度レベルを表し、縦軸LRは画像表示デバイス100の出力レベル、すなわち色要素R(赤)の輝度値を表す。輝度レベルは、例えば、0〜255の値で表され、輝度値は、例えば、cd/cm2で表される。VRとLRとの関係は以下の式(16)によって表される。
【0059】
R=fRDIS(VR) (16)
ここに、関数fRDISは画像表示デバイス100の色要素R(赤)についての入出力特性を示す関数である。このような入出力特性を示す関数は、例えば多項式で定義されて照明制御データ作成プログラム17に組み込まれている。
【0060】
図8には色要素R(赤)についてのみ入出力特性が示されているが、色要素G(緑)および色要素B(青)についての入出力特性も同様に、関数fGDISおよび関数fBDISとして定義されているものとすると、図7のステップS3における、代表色(VRM,VGM,VBM)を画像表示デバイスの入出力補正後の輝度値(LRM,LGM,LBM)に変換する処理は、以下の式(17)〜(19)により行われる。
【0061】
RM=fRDIS(VRM) (17)
GM=fGDIS(VGM) (18)
BM=fBDIS(VBM) (19)
図8に点線で、VRMからLRMが求められる様子を示す。
【0062】
図9は、照明器具201の入出力特性を示す。横軸VR’は、照明器具201に対する調光信号として照明制御データ入力部5に入力される色要素R(赤)の入力レベルを表し、縦軸LR’は照明器具201の出力レベル、すなわち色要素R(赤)の輝度値を表す。入力レベルは、例えば、0〜5Vの値で表され、輝度値は、例えば、cd/cm2で表される。VR’とLR’との関係は以下の式(20)によって表される。
【0063】
R’=fRLAMP(VR’) (20)
ここに、関数fRLAMPは照明器具201の色要素R(赤)についての入出力特性を示す関数である。このような入出力特性を示す関数は、例えば多項式で定義されて照明制御データ作成プログラム17に組み込まれている。
【0064】
図9には照明器具201の色要素R(赤)についてのみ入出力特性が示されているが、色要素G(緑)および色要素B(青)についての入出力特性も同様に、関数fGLAMPおよび関数fBLAMPとして定義されているものとすると、図7のステップS9における、輝度値(LRM’,LGM’,LBM’)を調光信号(VRM’,VGM’,VBM’)に変換する処理は、以下の式(21)〜(23)により行われる。
【0065】
RM’=fRLAMP -1(LRM’) (21)
GM’=fGLAMP -1(LGM’) (22)
BM’=fBLAMP -1(LBM’) (23)
図9に点線で、LRM’からVRM’が求められる様子を示す。
【0066】
照明器具202〜照明器具206の入出力特性も、照明器具201の入出力特性と同様に関数として定義されている。
【0067】
上述された処理手順により照明制御データ420が生成される。照明制御データ420はさらに、スムージングとフィルタリングを施されてもよい。
【0068】
図10は、照明制御データ420がスムージング処理とフィルタリング処理を施される場合のデータの流れを示す。スムージング処理とフィルタリング処理とは、照明光を変化させる時に違和感をなくすために行われる。映像と連動して照明光が変化する環境で鑑賞者が映像を鑑賞する場合、照明光は鑑賞者の周辺視野に影響を及ぼすため、照明光が急激に変化したりちらついたりすると鑑賞者は非常に違和感を感じ気になる。このような違和感を防ぐために、スムージング処理が行われる。スムージング処理は例えば、前のフレームから作成された照明制御データと、現在のフレームから作成された照明制御データとの移動平均を求めることによって行われる。移動平均に用いられるフレーム数は、例えば4フレームである。移動平均に用いられるフレーム数を多くするほど、変化が穏やかな照明制御データが作成される。すなわち、照明光の輝度値の単位時間あたりの変化量が抑制される。
【0069】
フィルタリング処理は、照明制御データに含まれる予め定められたレベル以下の調光信号をカットする処理である。照明が点灯するか点灯しないかの境界の調光信号をカットすることにより、ちらつきを防止することができる。予め定められたレベルとは例えば、照明器具を最大の輝度値で点灯させるための調光信号の25%の値の調光信号のレベルである。
【0070】
このように照明制御データ420は、スムージング処理703とフィルタリング処理704とを施され、スムージングされフィルタリングされた照明制御データ420’となる。スムージングされフィルタリングされた照明制御データ420’は、照明制御データ入力部5に入力される。
【0071】
図7に示される処理手順のステップS2では、周辺領域に含まれる画素のR、G、Bの輝度レベルの単純平均を求めることによって代表色を定義していた。代表色は、R、G、Bの輝度レベルの最大ヒストグラムを求めることによって定義されてもよい。例えば、周辺領域内に赤色の領域と緑色の領域が含まれる場合に、R、G、Bの輝度レベルの単純平均を求めることにより定義される代表色が赤色でも緑色でもない色(例えば、白色)となることがある。この場合には、代表色と実質的に同一の色の照明光を周辺領域の延長領域上に照射した場合に違和感があり好ましくない。最大ヒストグラムを求めることによって代表色が定義される場合、周辺領域内に含まれる赤色の領域と緑色の領域とのうち、面積が大きい方の領域の色が代表色となる。このようにして代表色を求めた場合には、代表色と実質的に同一の色の照明光を周辺領域の延長領域上に照射した場合に違和感がなく好ましい。
【0072】
また、照明システム1に含まれる照明器具の数は、6個に限定されない。例えば、図4に示されるように、照明システム1は照明器具201〜206に加えて、照明器具203’、204’、205’および206’の10個の照明器具を制御するようにしてもよい。照明器具203’、204’、205’および206’はそれぞれ、照明器具203、204、205および206よりも鑑賞者150の視野内で外側に配置されている。また、周辺領域と照明器具とは一対一に対応していなくてもよい。例えば、図4に示される照明器具205’および205のいずれもが、図5に示される周辺領域305と対応付けられていてもよい。また、照明システム1は照明器具205を含まず、照明器具205’が図5に示される周辺領域305と対応付けられていてもよい。
【0073】
また、鑑賞者150の視野角に応じて照明器具の制御方法を変えてもよい。照明器具205’と 照明器具205とでは、鑑賞者150の視野角が異なる。すなわち、照明器具205は照明器具205’と比較して、鑑賞者150の視野の中心部に近い位置にある。照明器具205と照明器具205’との発光の色が同一であっても、鑑賞者150の視野角が異なることにより、照明器具205が鑑賞者150に与える印象と照明器具205’ が鑑賞者150に与える印象とは異なる。一般に、視野の周辺部ほどちらつきを感じやすいため、照明器具205’は照明器具205よりも輝度値が低くなるように制御してもよい。このような制御は、例えば、図7に示される処理手順のステップS6における色補正のためのパラメータを照明器具の配置に応じて適切に選択することにより実行される。
【0074】
照明器具206’と照明器具206との関係、照明器具203’と照明器具203との関係、照明器具204’と照明器具204との関係も、上で述べた照明器具205’と照明器具205との関係と同様である。
【0075】
画像データの周辺部に周辺領域を定義する方法も図5に示される定義方法に限定されない。
【0076】
図11A〜図11Gは、1フレーム分の画像データ300の構造の他の例を示す。画像データに含まれる周辺領域は、照明システム1の照明器具の個数や配置に応じて、図11A〜図11Gに示されるように予め定義される。
【0077】
図11Aに示される1フレーム分の画像データ300の周辺部は、周辺領域1102、1103、1104、1105および1106を含む。このような周辺領域の定義方法は例えば、照明システム1に含まれる照明器具が、図4に示される照明器具201、203、203’、204、204’、205、205’、206および206’である場合に用いられ得る。照明器具201は周辺領域1103と対応付けられる。照明器具203または203’またはその両方は、周辺領域1106と対応付けられる。照明器具205または205’またはその両方は、周辺領域1105と対応付けられる。照明器具206または206’またはその両方は、周辺領域1102と対応付けられる。照明器具204または204’またはその両方は、周辺領域1104と対応付けられる。照明器具205と203とが省略されるかまたは、照明器具205’と203’とが省略されてもよい。また、照明器具206と204とが省略されるかまたは、照明器具206’と204’とが省略されてもよい。
【0078】
図11Bに示される1フレーム分の画像データ300は、周辺領域1108を含む。このような周辺領域の定義方法は例えば、照明システム1に含まれる照明器具が、図4に示される照明器具201、204および206である場合に用いられ得る。照明器具201、204および206は周辺領域1108と対応付けられる。照明器具204と206とが省略されてもよい。
【0079】
図11Cに示される1フレーム分の画像データ300は、周辺領域1109および1110を含む。このような周辺領域の定義方法は例えば、照明システム1に含まれる照明器具が、図4に示される照明器具201、206、204、205、202および203である場合に用いられ得る。照明器具201、206および204は周辺領域1109と対応付けられる。照明器具205、202および203は、周辺領域1110と対応付けられる。照明器具206と204とが省略されてもよい。また、照明器具205と203とが省略されてもよい。
【0080】
図11Dに示される1フレーム分の画像データ300は、周辺領域1111および1112を含む。このような周辺領域の定義方法は、例えば、照明システム1に含まれる照明器具が、図4に示される照明器具203、204、205および206である場合に用いられ得る。照明器具205および206は、周辺領域1111と対応付けられる。照明器具204および203は、周辺領域1112と対応付けられる。照明器具206と204とが省略されるかまたは、照明器具205と203とが省略されてもよい。
【0081】
図11Eに示される1フレーム分の画像データ300は、周辺領域1113、1114、1115および1116を含む。このような周辺領域の定義方法は、例えば、照明システム1に含まれる照明器具が、図4に示される照明器具203、203’、204、204’、205、205’、206および206’である場合に用いられ得る。照明器具203または203’またはその両方は、周辺領域1116と対応付けられる。照明器具205または205’またはその両方は、周辺領域1114と対応付けられる。照明器具206または206’またはその両方は、周辺領域1113と対応付けられる。照明器具204または204’またはその両方は、周辺領域1115と対応付けられる。照明器具205と203とが省略されるかまたは、照明器具205’と203’とが省略されてもよい。また、照明器具206と204とが省略されるかまたは、照明器具206’と204’とが省略されてもよい。
【0082】
図11Fに示される1フレーム分の画像データ300は、周辺領域1117、1118および1119を含む。このような周辺領域の定義方法は、例えば、照明システム1に含まれる照明器具が、図4に示される照明器具201、206、204、205および203である場合に用いられ得る。照明器具205および206は、周辺領域1117と対応付けられる。照明器具204および203は、周辺領域1119と対応付けられる。照明器具201は、周辺領域1118と対応付けられる。照明器具203と205とが省略されるかまたは、照明器具206と204とが省略されてもよい。
【0083】
図11Gに示される1フレーム分の画像データ300は、周辺領域1120、1121、1122、1123および1124を含む。このような周辺領域の定義方法は、例えば、照明システム1に含まれる照明器具が、図4に示される照明器具202、203、203’、204、204’、205、205’、206および206’である場合に用いられ得る。照明器具202は周辺領域1123と対応付けられる。照明器具203または203’またはその両方は、周辺領域1124と対応付けられる。照明器具205または205’またはその両方は、周辺領域1122と対応付けられる。照明器具206または206’またはその両方は、周辺領域1120と対応付けられる。照明器具204または204’またはその両方は、周辺領域1121と対応付けられる。照明器具205と203とが省略されるかまたは、照明器具205’と203’とが省略されてもよい。また、照明器具206と204とが省略されるかまたは、照明器具206’と204’とが省略されてもよい。
【0084】
以上図11A〜図11Gを参照して、照明システム1の構成および画像データの周辺部に周辺領域を定義する方法のバリエーションを説明した。照明システム1の構成および画像データの周辺部に周辺領域を定義する方法のバリエーションは、図11A〜図11Gに限定されない。照明システム1は、どの周辺領域にも対応付けられない照明器具を有していてもよい。照明システム1に含まれる複数の照明器具のうち少なくとも1つが、複数の周辺領域のうち対応する1つの周辺領域に連動するように制御されていれば高い臨場感が得られ、本発明の効果が得られる。
【0085】
周辺部の周辺領域の数および照明システム1に含まれる照明器具の数が増えると、コストが増大し、照明制御データ作成のための演算量も大きくなる。周辺領域の数は、低コスト化と臨場感向上の効果を考慮して、適切に定められる。例えば、図11Dに示される周辺領域の数と図11Cに示される周辺領域の数はともに2個であるが、周辺領域が左右方向に位置しているほうが、周辺領域が上下方向に位置しているよりも臨場感向上の効果が大きい。従って図11Dに示される周辺領域の定義方法の方が図11Cに示される周辺領域の定義方法よりも好ましい。低コスト化と臨場感向上の効果を考慮すると、一般には周辺領域の数は2個〜4個程度が好ましい(例えば図11Dおよび図11E)が、本発明はこれに限定されない。
【0086】
一般に照明器具が多いほど画像の詳細な変化に対応して照明を制御することができるが、一方で照明システムが大型になること、照明制御データの作成が複雑になり作成に要する時間が増大し、導入コストおよび計算コストともに増大する。従って、限られた数の照明器具を用いて臨場感の向上効果を高くすることが必要である。限られた数の照明器具を用いて臨場感の向上効果を高くする方法を以下に述べる。
【0087】
図12は、鑑賞者150の視野を示す。鑑賞者150の視野の中心線(基準線)は画像表示デバイスに表示される画像データの中心Oにあるものとする。鑑賞者150の視野は、基準線に対して鑑賞者を基点に左右30°未満の領域に相当する中心視野502と、左右30°以上の左右100°以下の周辺視野503(図12に示されるハッチングを施された領域)とからなる。人間の目は、視野内の場所によって感度が異なる。視野の中心付近は明るさや色の違いに敏感であり、視野の周辺部分は動きに敏感である。本発明者らは、照明器具の配置に関して次の3つの場合について臨場感の向上効果を評価した。
【0088】
(a)中心視野内のみに照明器具を配置した場合。
【0089】
(b)周辺視野内のみに照明器具を配置した場合。
【0090】
(c)中心視野内および周辺視野内に照明器具を配置した場合。
【0091】
上記(a)は、画像表示デバイス100の背景部の照明器具(図4に示される照明器具201および202)を使用することによって実現した。上記(b)は、図4に示される照明器具203、204、205および206を使用することによって実現した。上記(c)は、図4に示される照明器具201、202、203、204、205および206を使用することによって実現した。
【0092】
臨場感の向上効果は、上記3つの場合について(c)>(b)>(a)であり、周辺視野内のみに照明器具を配置した(b)の場合でも十分に高い臨場感の向上効果が得られた。これは、すでに述べた通り、人間の視野は周辺視野の方が動き、すなわち、変化に敏感であり照明器具の発光の変化を十分に感じることができるからである。鑑賞者の視野と照明器具との位置関係は、鑑賞室の大きさや鑑賞者の位置によっても変化するが、一般的には中心視野は鑑賞室の前面に相当し、周辺視野は鑑賞室の側面に相当する。
【0093】
上記(b)の場合は、周辺視野の照明器具から照射される輝度値は、中心視野の照明装置から照射される輝度値よりも高い。一方、上記(a)の場合は、中心視野の照明器具から照射される輝度値は、周辺視野の照明装置から照射される輝度値よりも高い。このように、限られた照明器具を用いて照明による臨場感を向上させるためには、周辺視野にある照明器具から照射される輝度値は、中心視野内にある照明器具から照射される輝度値よりも高くすることが基本的な条件となる。従って、例えば、図11Eに示される周辺領域の定義方法を用いることが好適である。
【0094】
以上の説明は上記(a)、(b)および(c)の3つの場合について行ったが、本発明はこれらの照明器具の配置に限られない。周辺視野にある(または周辺視野内を照らす)照明器具から照射される輝度値が、中心視野内にある(または中心視野内を照らす)照明器具から照射される輝度値よりも高くありさえすれば、照明による臨場感を向上させることができる。
【0095】
各周辺領域の大きさは、任意に定めてよい。一般に、周辺領域の大きさが小さいほど、人間が知覚する周辺領域の平均的な色と、上述したようにRGBの単純平均を求めることによって求められた代表色とがよく一致する、すなわち、色再現性がよくなる。しかし周辺領域の大きさが小さい場合には、たまたまその周辺領域に比較的小さな物体の画像が含まれる場合(例えば、風景画像で鳥が飛んできたシーンなど)に、その比較的小さな物体の色が周辺領域の代表色とされることが起こり得る、すなわち、ノイズ耐性が悪くなるという問題点がある。周辺領域の大きさは、このような色再現性とノイズ耐性の観点から適切に定められる。
【0096】
以上の説明では、照明器具はR(赤)、G(緑)およびB(青)の色要素に割り当てられた蛍光管を使用するものとしたが、色要素はR、GおよびBに限定されない。例えば、色要素としてC(シアン)、Y(イエロー)およびM(マゼンダ)が用いられてもよい。また、照明器具は蛍光管以外によって発光してもよい。たとえば、発光ダイオード(LED)により発光してもよい。R(赤)、G(緑)およびB(青)の3個の発光ダイオードで1個の照明要素を構成し、この1個の照明要素を、画像データの周辺領域に含まれる1個の画素と対応付けて制御するようにしてもよい。1個の照明器具にはこのような照明要素が複数個含まれてもよい。この場合、周辺領域に含まれる画素と、その周辺領域に対応付けられた照明器具に含まれる照明要素とを対応付けて制御することにより、周辺領域の代表色を定義しなくても、周辺領域全体により知覚される色と、1個の照明器具全体により知覚される色とを実質的に同一にすることができる。
【0097】
また、照明器具は直接照明であっても間接照明であってもよい。例えば、図4に示される照明器具202は画像表示デバイス100の背後に配置され、間接照明により背後の壁面を照らすように構成されているが、照明器具202が画像表示デバイス100の前面に配置されていてもよい。また、照明器具としてスポット照明器具を用い、鑑賞室の壁面を照らすような構成にしてもよい。照明器具が壁面を照らすような構成にする場合、壁面の色は白色であることが好ましい。また照明システム1が配置される鑑賞室の大きさも図4で示される例に限定されない。例えば映画館や老人ホームにおける公共スペースのような大きな空間で照明システム1が用いられてもよい。
【0098】
また、照明制御データがインターネット等を介して配信されてもよい。また照明制御データが搬送波により配信されてもよい。このように、照明制御データが配信される場合には、照明システム1(図1)は映像信号入力部18および演算部12を有さなくてもよい。すなわち照明システム1は照明制御データ入力部5と複数の照明器具とを含んでいればよい。また、照明制御データは単独で配信されずに、映像信号と共に配信されてもよい。
【0099】
照明システム1(図1)が演算部12を有し、準リアルタイム処理で照明制御データを作成する場合には、画像データの1つのフレームから照明制御データを作成するのに必要な演算時間を短くすることが必要である。例えば、NTSC信号に基づく映像信号は1秒間に30フレームが含まれる。この場合には画像データにも1秒間に30フレームが含まれ、これらのフレームごとに照明制御データを作成する必要がある。ルックアップテーブルを用いる方法、画素サンプリングを行う方法およびフレーム補間を行う方法をそれぞれ単独で、あるいは他と組み合わせて用いることにより、画像データの1つのフレームから照明制御データを作成するのに必要な演算時間を短くすることが可能になる。これらの方法を以下に説明する。
【0100】
図13は、ルックアップテーブルを用いて照明制御データを作成する場合のデータの流れを示す。まず、画像データ411から周辺領域の代表色802が求められる。この処理手順は、図7に示される処理手順のステップS1〜S2と同様である。次に代表色802をキーとして、予め作成されたルックアップテーブルが検索され(処理803)、照明制御データ420が作成される。これにより、図7に示される処理手順のステップS3〜S9がルックアップテーブル処理803により代替され、照明制御データの作成に必要な時間が大幅に短縮される。
【0101】
次に画素サンプリングを行う方法を説明する。
【0102】
図14は、周辺領域上でサンプリングが行われる画素を示す。ハッチングを施された矩形は、サンプリングされる画素を示し、ハッチングを施されない矩形は、サンプリングされない画素を示す。サンプリングされる画素についてのみ色要素R、GおよびBの平均を求めることによって代表色を定義すれば、代表色を定義するために必要な計算時間が短縮される。すなわち、図7に示される処理手順のステップS2に要する計算時間が短縮される。
【0103】
図15は、画素サンプリング数と照明制御データの作成に必要な時間との関係を示す。照明制御データの作成に必要な時間は、画素サンプリング数が0、すなわち画素サンプリングを用いない場合の、照明制御データの作成に必要な時間を100として表す。画素サンプリング数1とは、周辺領域の画素を1つおきにサンプリングすることを表す。図15に示されるように、画素サンプリングを行うことにより画素サンプリングを用いない場合と比較して照明制御データの作成に必要とされる時間は約1/3に短縮され得る。画素サンプリング数を5以上に増やしても、照明制御データの作成に必要とされる時間の短縮効果はほとんどなくなる。従って画素のサンプリング数は1〜5程度が好適であるが、これに限定されない。なお、画素のサンプリング数が数個程度の場合に、画素サンプリングを用いて作成された照明制御データは、画素サンプリングを用いない場合と比較して大きな差異はない。
【0104】
図16は、フレーム補間を用いて照明制御データを作成する場合のデータの流れを示す。nは3以上の整数として、フレーム1〜フレームnは時間的に隣接するフレームである。また、周辺領域D1〜Dnはそれぞれ、フレーム1〜フレームnに含まれる周辺領域であり、これらの周辺領域はフレーム内の同一の位置にある周辺領域である。フレーム1およびフレームnに含まれるD1およびDnに関して、色知覚量1601は図7に示される処理手順のステップS2〜S6によって求められる。フレーム2〜フレーム(n−1)に含まれるD2〜Dn-1に関しては、フレーム1とフレームnとの双方の色知覚量1601を補間することによって色知覚量1650が求められる。この方法によれば、全フレームの画像データを処理する時間が短縮できるため、照明制御データの作成時間を短縮することができる。
【0105】
フレーム1およびフレームnに関して、色知覚量1601は図7に示される処理手順のステップS7〜S9によって調光信号1611が求められ、全ての周辺領域について調光信号を求めることにより照明制御データ1621が作成される。
【0106】
フレーム2〜フレーム(n−1)に関しても同様に、補間によって求められた色知覚量1650から、図7に示される処理手順のステップS7〜S9によって調光信号1611が求められ、全ての周辺領域について調光信号を求めることにより照明制御データ1621が作成される。
【0107】
本発明で用いられる色知覚量の補間方法について以下に述べる。一連のシーンの画像データでは、色知覚量を単純補間することもできる。しかし、フレーム1とフレームnとの画像データが全く異なるシーンを表す場合には、色知覚量を単純補間することは問題を生じる。例えば、フレーム1の周辺領域D1に関して求められた色知覚量(H1’,L1’,C1’)のうち、色相H1’がシアン色を表し、フレームnの周辺領域Dnに関して求められた色知覚量(Hn’,Ln’,Cn’)のうち、色相Hn’が黄色を表す場合には、色知覚量(H1’,L1’,C1’)と色知覚量(Hn’,Ln’,Cn’)とをそれぞれの色相、明度および彩度ごとに単純補間すると、緑色を表す色相が現れる。色知覚量の補間を行う際に、もとの画像データの代表色と全く異なる色相が知覚されることは好ましくない。全く異なる色相が知覚されると、鑑賞者に違和感を感じるからである。本発明で用いられる色知覚量の補間方法によれば、補間の際に中間の色相が知覚されることを防ぐことが可能になる。
【0108】
図17Aは本発明で用いられる色知覚量の補間方法における色相、明度および彩度の変化の例を示す。曲線1701は、フレーム番号と色相の関係を表す。フレーム番号は時間に対応するので、曲線1701は色相の時間変化を表す。同様に、曲線1702は明度の時間変化を表し、曲線1703は彩度の時間変化を表す。図17Aに示される例では、色相、明度、彩度をそれぞれH1’からHn’まで、L1’からLn’まで、C1’からCn’まで補間する際に、明度および彩度がそれぞれ、L1’およびC1’よりも小さい所定の値に変化した後で、色相がH1’からHn’に変化するように補間が行われ、色相がHn’に変化した後で、明度および彩度がそれぞれ、Ln’およびCn’に変化するように補間が行われる。所定の値とは、色相の変化が知覚されにくいような明度または彩度の値である。あるフレームについての照明制御データに含まれる調光信号の色要素毎の入力レベルVRM’、VGM’およびVBM’は、色相H’、明度L’および彩度C’から上述した式(7)〜(23)に示される変換により求められたものである。すなわち、照明制御データに含まれる調光信号の色要素毎の入力レベルVRM’、VGM’およびVBM’は、色相H’、明度L’および彩度C’と対応している。色相H’、明度L’および彩度C’はそれぞれ、この調光信号によって制御される照明器具が発光する光の色相成分、明度成分、彩度成分とみなすことができる。
【0109】
フレーム1とフレームnとで色相が変化する場合に、明度と彩度とを低下させてから色相を変化させれば、照明器具が発光する光の色相の変化による違和感が軽減される。彩度および明度が低い時には色相の差異が知覚されにくくなるからである。
【0110】
なお、色相の変化による違和感を軽減するための補間方法として、彩度または明度のどちらか一方を低下させてから色相を変化させるようにしてもよい。彩度または明度のどちらか一方が低い場合でも色相の差異は知覚されにくい。
【0111】
図17Bは本発明で用いられる色知覚量の補間方法における色相、明度および彩度の変化の別の例を示す。曲線1711、1712および1713はそれぞれ、色相、明度および彩度の時間変化を表す。図17Bに示される例では、色相、明度、彩度をそれぞれH1’からHn’まで、L1’からLn’まで、C1’からC1n’まで補間する際に、彩度がC1’よりも小さい値に変化したあとで、色相がH1’からHn’に変化するように補間が行われ、色相がHn’に変化した後で、彩度がCn’に変化するように補間が行われる。明度はL1’からLn’まで単純補間される。
【0112】
図18は、フレーム1からフレームnまでの色知覚量の変化を色相関図上に示した図である。フレーム1およびフレームnの色知覚量がそれぞれ点P1および点Pnで示されている。曲線1801は、彩度を低下させてから色相を変化させた場合の色知覚量の変化経路を示し、曲線1802は、彩度を低下させずに色相を変化させた場合の色知覚量の変化経路を示す。彩度を低下させてから色相を変化させた場合には、色知覚量は点P1からいったん白色(すなわち無彩色)に近づいたのちに点Pnまで変化する。このため、色相の変化が知覚されにくい。彩度を低下させずに色相を変化させた場合には、色知覚量は点P1からいったん青色に近づいたのちに点Pnまで変化する。このため、色相の変化が知覚されやすい。
【0113】
図17Aおよび図17Bを参照して説明した、彩度または明度のどちらか一方を低下させてから色相を変化させるような補間方法は、フレーム1とフレームnとで色相が変化する場合に好適に用いられる補間方法である。単純補間ではなくこのような補間方法を用いるかどうかは、例えば、フレーム1とフレームnとから求められた色相H1’とHn’との間に、違和感のある色相があるかどうかを検索することにより判断される。色相角の範囲で色のカテゴリを規定しておけば、色相H1’とHn’との間に他の色のカテゴリがあるかどうかを演算により判断することができる。色相H1’とHn’との間に他の色のカテゴリがあると判断された場合、すなわち色相が予め定められた色のカテゴリを越えて変化する場合には、図17Aおよび図17Bを参照して説明した、彩度または明度のどちらか一方を低下させてから色相を変化させるような補間方法が用いられる。
【0114】
例えばn=6の場合、フレーム1の色知覚量(H1’,L1’,C1’)とフレーム6の色知覚量(H6’,L6’,C6’)とから補間によりフレーム2の色知覚量(H2’,L2’,C2’)〜フレーム5の色知覚量(H5’,L5’,C5’)を求める場合の処理手順の一例を以下の(a)〜(d)に示す。
【0115】
(a)H2’=H1’とし、L2’およびC2’は十分に小さい値に設定する。十分に小さい値とは、色相の変化により違和感が知覚されないような明度および彩度の値であり、予め定められた値である。
【0116】
(b)H3’をH1’とH6’との中間の値とし、L3’およびC3’はそれぞれL2’およびC2’と等しくする。
【0117】
(c)H4’=H6’とし、L4’およびC4’はそれぞれL3’およびC3’と等しくする。
【0118】
(d)H5’=H6’とし、L5’およびC5’はそれぞれL4’とL6’の中間の値およびC4’とC6’との中間の値に設定する。
【0119】
なお、フレーム1とフレームnとから求められた色相H1’とHn’との間に、違和感のある色相がない場合には、色相、明度、彩度をそれぞれ単純補間することによって色知覚量を補間してもよい。また、nの値が小さい場合、例えば、n=3の場合には、フレーム1とフレームnとの時間差は小さく、フレーム1とフレームnの画像データに含まれる画像情報の差異も小さいと考えられ、上記のような彩度または明度のどちらか一方を低下させてから色相を変化させるような補間方法を用いることは必ずしも必要ではない。このような場合にはフレーム1に関する調光信号とフレームnに関する調光信号とを単純補間することによって中間のフレームに関する調光信号を求めるようにしてもよい。
【0120】
以上に説明した照明制御データの作成方法はいずれも、画像データの周辺領域の画像情報に基づいて照明を制御するような照明制御データの作成方法であった。このような制御は、鑑賞者の視野内で画像が左右上下斜め方向に延長されたように知覚させることによって臨場感を高めるために行われる。しかし本発明の照明システム1は、このように制御されることに限定されない。例えば、鑑賞者に驚き感を提供することによって臨場感を高めるように制御されたり、またはやすらぎ感を提供するように制御されてもよい。以下に、本発明の照明システム1が鑑賞者に驚き感およびやすらぎ感を提供するような照明制御データの作成方法を説明する。
【0121】
驚き感は、例えば、爆発したシーンが画像表示デバイスに表示されるのと同時に、照明器具を発光することによって提供することができる。鑑賞者はあたかも、自分の周りで爆発が起こったかのように錯覚し、驚く。爆発シーンの抽出は、画像データの中央部分を含む領域の画像情報を用いて行われる。
【0122】
図19は、1フレーム分の画像データ300の中央部分を含む領域として定義された中央領域1900を示す。爆発したシーンなどの、鑑賞者を驚かせることを意図しているシーンでは、中央領域1900の画像情報が急激に変化する。従って、中央領域1900の画像情報の変化量を算出することにより、対象のフレームが爆発シーンであるかどうかを判定することができる。中央領域1900の画像情報は、例えば、中央領域1900に含まれる全てのR、GおよびBの出力レベルの平均値(RGB平均値)が用いられる。
【0123】
図20は、各フレームにおけるRGB平均値およびRGB平均値の差分を示す。図20に示される例では、中央領域1900は画像データの全体領域と一致させた。図20において横軸はフレーム番号を示す。フレーム番号1〜51の各フレームはこの順に時間的に連続するフレームであり、爆発シーンを含んでいる。折れ線2001は各フレームのRGB平均値を示し、折れ線2002は各フレームのRGB平均値の差分を示し、RGB平均値は、0〜255の256段階で表される画像の輝度レベルの単純平均値である。RGB平均値の差分は、各フレームのRGB平均値から、1フレーム先行するフレームのRGB平均値を減じた値である。爆発シーンでは一般に、画像が急に明るくなる、すなわち、RGB平均値が急に大きくなる。このため、RGB平均値およびRGB平均値の差分がともにあるしきい値よりも大きいフレームを、爆発シーンとして判定することができる。図20に示される例では、RGB平均値が100以上で、かつRGB平均値の差分が50以上であるフレームが、爆発シーンと一致した。
【0124】
なお、爆発シーンの判定は、RGBのレベルを使用した一例を示したが、他の色彩系に変換した後で爆発シーンの判定処理を行ってもよい。
【0125】
図20に示される例では、中央領域1900は画像の全体領域と一致させた。一般の画像では、鑑賞者から遠い位置で爆発が起こるシーンが多い。また画像の周辺部での画像情報の変化量が多い画像はスピード感を増すための画像であることが多く、必ずしも爆発シーンとは一致しない。これらのことから、爆発シーンであるかどうかの判定は、画像の周辺部を含まない中心部分のみの画像情報の変化量に基づいて行うことにより判定の精度が向上する。また、画像情報の変化量だけでなく音声情報の変化量に基づいて爆発シーンなどの鑑賞者を驚かせるシーンの判定を行ってもよい。爆発シーンなどの鑑賞者を驚かせるシーンは、画像が急激に変化すると同時に音声のボリュームも急激に変化する。従って、図20を参照して爆発シーンの判定方法を説明したのと同様に、音声情報の変化量に基づいて爆発シーンを判定する方法も説明できる。例えば、図20に示されるグラフと同様に、横軸をフレーム番号とし、縦軸を「音声のボリュームおよび音声のボリュームの差分」としたグラフを得ることができる。また、画像情報の変化量と音声情報の変化量の両方に基づいて爆発シーンなどの鑑賞者を驚かせるシーンの判定を行うことにより、判定の精度が向上する。
【0126】
このような判定により爆発シーンなどの鑑賞者を驚かせるシーンであると判定されたフレームには、爆発シーン用照明制御データが作成される。爆発シーン用照明制御データは、例えば、中央領域1900に関して図7に示される処理手順のステップS2〜S9と同様の処理手順を実行することにより生成される。爆発シーン用照明制御データにより制御される照明器具は、図4に示される照明器具201〜206および203’〜206’の任意の照明器具であり得る。爆発シーン用照明制御データによりこれらの照明器具の複数を制御してもよい。また、爆発シーン専用の照明器具2055(図4)を、例えば、鑑賞者の付近に配置し、爆発シーン用照明制御データにより照明器具2055を制御するようにしてもよい。照明器具2055は複数個設けられてもよい。照明器具2055は爆発シーン専用の照明器具であるので、その発光する色は単色(例えば、赤)や2色(例えば、赤と黄)であってもよい。
【0127】
本発明の照明システム1により鑑賞者にやすらぎ感を提供する方法を以下に説明する。照明光の光出力を0.05Hz〜0.6Hzの範囲の周波数で変化させることにより、リラックスできる、すなわち、やすらぎ感が得られることが知られている。本発明の照明システム1により画像データと連動して照明を制御する場合にも、この技術が応用できる。
【0128】
このようなやすらぎ感を提供する照明制御データは、例えば、図7に示される処理手順により作成された調光信号を、色信号と輝度信号とに座標変換し、輝度信号に所定の周波数で変調した後、再び調光信号に座標変換することにより作成することができる。このような調光信号の座標変換は、既知の関係式により行うことができる。
【0129】
図21は、照明器具が発光する輝度値を一定の周波数で変化させる例を示す。輝度値を変化させる周波数は0.05Hz〜0.6Hzの範囲が好ましい。中でも0.1Hz〜0.4Hzの範囲が、やすらぎ感を得るためには特に好ましい。
【0130】
図22は、照明器具の輝度値が増加する時の輝度値の時間変化率が、輝度値が減少する時の輝度値の時間変化率よりも大きくなるように輝度値を一定の周波数で変化させる例を示す。このように輝度値を変化させることにより、呼吸リズムを照明光の変化に同期させやすくなり、やすらぎ感が向上する。輝度値の変化が息を吸ったり吐いたりするイメージを連想させるからである。
【0131】
照明システム1に含まれる全ての照明器具の輝度値をこのように周期的に変化させることは必須ではない。例えば、図4に示される照明器具201の輝度値のみを周期的に変化させてもよい。あるいは照明器具202の輝度値のみ、照明器具201および202の輝度値のみ、照明器具205および203の輝度値のみ、あるいは、照明器具201および202の輝度値のみを周期的に変化させるようにしてもよい。あるいは、照明器具201〜206および203’〜206’の輝度値を周期的に変化させるようにしてもよい。あるいは、画像データと連動しない照明器具2601(図4)を配置し、照明器具2601の輝度値を周期的に変化させるようにしてもよい。照明器具2601は、複数個あってもよい。
【0132】
このようなやすらぎ感を提供する方法は、例えば、風景画像などを鑑賞する場合に好適に用いられ得る。
【0133】
【発明の効果】
本発明によれば、画像と連動させて照明光を変化させることにより、鑑賞者に高い臨場感を知覚させることができる。
【図面の簡単な説明】
【図1】本発明の照明システム1の構成を示すブロック図
【図2】演算部12の構成を示すブロック図
【図3】照明器具201の構造を示す図
【図4】本発明の照明システム1の照明器具を部屋の中にレイアウトした例を示す図
【図5】1フレーム分の画像データ300の構造を示す図
【図6】1フレーム分の画像データ300から照明制御データ420が作成される場合のデータの流れを示す図
【図7】照明制御データ作成プログラム17の処理手順を示す図
【図8】画像表示デバイス100の入出力特性を示す図
【図9】照明器具201の入出力特性を示す図
【図10】照明制御データ420がスムージング処理とフィルタリング処理を施される場合のデータの流れを示す図
【図11A】1フレーム分の画像データ300の構造の他の例を示す図
【図11B】1フレーム分の画像データ300の構造の他の例を示す図
【図11C】1フレーム分の画像データ300の構造の他の例を示す図
【図11D】1フレーム分の画像データ300の構造の他の例を示す図
【図11E】1フレーム分の画像データ300の構造の他の例を示す図
【図11F】1フレーム分の画像データ300の構造の他の例を示す図
【図11G】1フレーム分の画像データ300の構造の他の例を示す図
【図12】鑑賞者150の視野を示す図
【図13】ルックアップテーブルを用いて照明制御データを作成する場合のデータの流れを示す図
【図14】周辺領域上でサンプリングが行われる画素を示す図
【図15】画素サンプリング数と照明制御データの作成に必要な時間との関係を示す図
【図16】フレーム補間を用いて照明制御データを作成する場合のデータの流れを示す図
【図17A】本発明で用いられる色知覚量の補間方法における色相、明度および彩度の変化の例を示す図
【図17B】本発明で用いられる色知覚量の補間方法における色相、明度および彩度の変化の別の例を示す図
【図18】フレーム1からフレームnまでの色知覚量の変化を色相関図上に示した図
【図19】1フレーム分の画像データ300の中央部分を含む周辺領域として定義された周辺領域1900を示す図
【図20】各フレームにおけるRGB平均値およびRGB平均値の差分を示す図
【図21】照明器具が発光する輝度値を一定の周波数で変化させる例を示す図
【図22】照明器具の輝度値が増加する時の輝度値の時間変化率が、輝度値が減少する時の輝度値の時間変化率よりも大きくなるように輝度値を一定の周波数で変化させる例を示す図
【符号の説明】
1 照明システム
5 照明制御データ入力部
12 演算部
18 映像信号入力部
100 画像表示デバイス
201〜206 照明器具
412 画像データ
420 照明制御データ[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an image display device for displaying image data.Its image display deviceLighting systems and lighting systems used withYouRegarding the law.
[0002]
[Prior art]
In the multimedia era, progress in technological development in the image and sound fields is remarkable. In particular, with the increase in the size of the display, it has become possible to enjoy realistic images. However, increasing the size of the display has limitations on cost and installation space. Therefore, there is a need for a technique that can enhance the sense of reality when viewing images without using a very large display.
[0003]
As one of such techniques, there is a technique for controlling illumination in conjunction with an image. Since the resources and costs required to manufacture lighting devices are much less than those of large displays, the technology that controls lighting in conjunction with images is effective from the perspective of reducing costs, saving energy, and preventing global warming. It is.
[0004]
As a technique for controlling illumination in conjunction with an image, for example, “light color variable illumination device” disclosed in JP-A-3-184203 is known.
[0005]
This prior art considers the remaining part of the image displayed on the screen of the image display device by removing the pixels of the skin color part such as the human face as the background part, and only the RGB signal and the luminance signal of each pixel of the background part are considered. To obtain average chromaticity and average luminance. There is disclosed a method of controlling illumination so that the chromaticity and luminance of the wall surface on the back of the image display device are the same as the average chromaticity and average luminance of the entire screen or the background portion excluding human skin color.
[0006]
[Problems to be solved by the invention]
Since the prior art disclosed in Japanese Patent Laid-Open No. 3-184203 is based on the premise that a single light source is used, a high sense of realism cannot be obtained. In order to obtain a high sense of presence, it is necessary to use a plurality of light sources. However, a technology for obtaining a high sense of presence using a plurality of light sources has not been realized. This is because it was not known how to control a plurality of light sources to obtain a high sense of realism. The prior art disclosed in Japanese Patent Laid-Open No. 3-184203 does not mention the use of a plurality of light sources.
[0007]
  The present invention has been made in consideration of the above-described problems, and an object of the present invention is to provide a lighting system capable of obtaining a high sense of reality., Image display deviceAnd lighting systemYouIs to provide the law.
[0008]
[Means for Solving the Problems]
  An illumination system of the present invention is an illumination system used with an image display device that displays image data, and is controlled based on the calculation unit that creates illumination control data based on the image data, and the illumination control data. A plurality of lighting fixtures, wherein the computing unit cuts out a predetermined region from the image frame of the image data, and the lighting fixture corresponding to the cut-out predetermined region from the image information of the cut-out predetermined region Create the lighting control data to controlAnd when the hue of the predetermined region changes due to the change of the image frame in the image data, the illumination is changed such that the hue is changed after the saturation or brightness of the lighting fixture to be controlled is lowered. Create control dataThis achieves the above object.
  The illumination control method of the present invention is an illumination control method for controlling a lighting fixture in conjunction with image data displayed on an image display device, the step of cutting out a predetermined area from an image frame of the image data, When the hue of a predetermined area cut out from the image frame changes due to a change in the image frame of the image data, the hue is changed after the saturation or lightness of the lighting fixture corresponding to the cut out predetermined area is lowered. The step of creating the lighting control data, and the step of controlling the plurality of lighting fixtures by the lighting control data, thereby achieving the above object.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows a configuration of a lighting system 1 according to the present invention. The illumination system 1 is used with the image display device 100.
[0022]
The illumination system 1 receives the video signal 401 and converts it into image data 411, and an arithmetic unit that creates the illumination control data 420 based on the image data 411 and outputs the image data 412 and the illumination control data 420. 12, the illumination control data input unit 5 that receives the illumination control data 420 and converts it into a control voltage 430 that is input to the plurality of lighting fixtures 201 to 206, and the plurality of lighting fixtures 201 to 206.
[0023]
The video signal input unit 18 receives the video signal 401 provided from the video playback device 110 provided outside the illumination system 1, and converts the video signal 401 into image data 411. The image data 411 is output to the calculation unit 12.
[0024]
The video signal input unit 18 can be, for example, a video capture board. The video playback device 110 can be, for example, a DVD-ROM playback device or an S-VHS video playback device. The video signal 401 can be, for example, an S-VHS signal. The video reproduction device 110 may be a television broadcast receiver or a satellite broadcast receiver. The image data 411 and the image data 412 are represented, for example, in the Avi file format, but the format of the image data is not limited to this.
[0025]
FIG. 2 shows the configuration of the calculation unit 12. The calculation unit 12 includes a CPU 10, a main memory 16, and an auxiliary storage device 15. The CPU 10 controls and monitors the entire arithmetic unit 12 and executes an illumination control data creation program 17 stored in the auxiliary storage device 15. The main memory 16 temporarily stores data such as image data 411, image data 412, and illumination control data 420, and data necessary for executing the illumination control data creation program 17. The main memory 16 is accessed by the CPU 10.
[0026]
The auxiliary storage device 15 stores an illumination control data creation program 17. The auxiliary storage device 15 may be used to temporarily store data such as the image data 411, the image data 412, and the illumination control data 420. In the auxiliary storage device 15, any recording medium can be used as a recording medium for storing the illumination control data creation program 17. For example, a recording medium such as a hard disk, MO, floppy disk, MD, DVD, IC card, or optical card can be used preferably.
[0027]
The calculation unit 12 receives the image data 411 and creates illumination control data 420 based on the image data 411. The created illumination control data 420 is output in synchronization with the image data 412. For example, the arithmetic unit 12 temporarily stores the received image data 411 in the auxiliary storage device 15, creates the illumination control data 420 based on the image data stored in the auxiliary storage device 15, and the illumination control data 420 and the image The data 412 may be output at the same timing.
[0028]
Alternatively, the image data 411 is delayed by the time necessary for creating the illumination control data 420 and output as the image data 412, so that the illumination control data 420 and the image data 412 are output at the same time while receiving the image data 411. You may make it do. In this manner, the process of outputting the illumination control data 420 and the image data 412 at the same time while receiving the image data 411 is referred to as a near real time process. Note that outputting at the same timing means outputting the image data 412 and the corresponding illumination control data 420 at the same time.
[0029]
FIG. 3 shows the structure of the lighting fixture 201. The lighting fixture 201 includes fluorescent tubes 3R, 3G and 3B and lighting circuits 7R, 7G and 7B. The fluorescent tubes 3R, 3G and 3B are assigned to R (red), G (green) and B (blue) color elements, respectively. Each of the lighting circuits 7R, 7G, and 7B is, for example, an inverter lighting circuit. By inputting the control voltage 430 to the lighting circuits 7R, 7G and 7B, the fluorescent tubes 3R, 3G and 3B emit light with a luminance value corresponding to the control voltage 430. The luminance values of the fluorescent tubes 3R, 3G and 3B can be controlled independently. For example, if each of the fluorescent tubes 3R, 3G, and 3B is controlled with 256 gradations by a control voltage of 0 to 5 V, for example, the lighting fixture 201 emits light of about 16.7 million (= 256 × 256 × 256). It is possible. Note that the number of fluorescent tubes included in the lighting fixture 201 is not limited to three. For example, a plurality of fluorescent tubes corresponding to color elements having a low luminance value may be used to supplement the luminance value.
[0030]
Each of the lighting fixtures 202 to 206 used in the lighting system 1 may have the same structure as the lighting fixture 201.
[0031]
FIG. 4 shows an example in which lighting fixtures included in the lighting system 1 of the present invention are laid out in a room.
[0032]
The lighting fixture 201 is disposed near the ceiling above the image display device 100. The lighting fixture 202 is disposed near the floor behind the image display device 100. The luminaire 204 and the luminaire 203 are disposed near the right ceiling and the floor of the image display device 100, respectively. The luminaire 206 and the luminaire 205 are disposed near the ceiling and the floor on the left side of the image display device 100, respectively. Here, the right side and the left side are defined based on the viewer 150 who appreciates the image data displayed on the image display device 100.
[0033]
The lighting fixtures 203 'to 206' and the lighting fixtures 2055 and 2601 will be described later. The lighting fixtures 203 ′ to 206 ′ and the lighting fixtures 2055 and 2601 may have the same structure as the lighting fixture 201.
[0034]
Below, how the some lighting fixtures 201-206 are controlled is demonstrated.
[0035]
FIG. 5 shows the structure of image data 300 for one frame. The image data 300 for one frame includes a plurality of peripheral areas 301 to 306. Image data is represented as a time series of frames. The number of frames included in one-second image data is, for example, 30 frames.
[0036]
The basic method of controlling the plurality of lighting fixtures 201 to 206 in conjunction with the image data is perceived as the plurality of peripheral regions shown in FIG. 5 extending outward from the center 309 of the image data 300. In this way, a plurality of lighting fixtures are controlled. Specifically, the lighting fixture 201 is controlled so that the representative color of the peripheral region 301 of the image data 300 is substantially the same as the color emitted by the lighting fixture 201. Similarly, the plurality of colors are set so that the representative colors of the peripheral regions 302, 303, 304, 305, and 306 are substantially the same as the colors emitted by the lighting fixtures 202, 203, 204, 205, and 206, respectively. The lighting fixtures 202 to 206 are controlled.
[0037]
An area 351 (an area shown by hatching in FIG. 5) obtained by extending the peripheral area 301 shown in FIG. 5 outward from the center 309 of the image display device 100 is referred to as an extended area of the peripheral area 301. The luminaire associated with the peripheral region 301 is disposed in the extended region 351 of the peripheral region 301. Or the lighting fixture matched with the peripheral region 301 may be arrange | positioned so that it may be arrange | positioned in areas other than the extension area | region 351, and the extension area | region 351 may be illuminated. In this way, the luminaire associated with each peripheral area illuminates each extension area. By controlling a plurality of lighting fixtures in this way, the viewer 150 can perceive that the image is extended outward and can obtain a high sense of realism.
[0038]
FIG. 6 shows a data flow when the illumination control data 420 is created from the image data 300 for one frame. The illumination control data 420 is created based on the image information 455 of the peripheral areas 301 to 306 of the image data 300 for one frame. The process of creating the illumination control data based on the image information 455 of the peripheral areas 301 to 306 is performed by executing the illumination control data creation program 17 in the calculation unit 12. The illumination control data 420 includes dimming signal 421 to dimming signal 426. The dimming signal 421 to the dimming signal 426 are dimming signals for controlling the lighting fixtures 201 to 206, respectively. The dimming signal has three input levels V for controlling the fluorescent tubes 3R, 3G and 3B assigned to the R, G and B color elements included in the luminaire.RM', VGM'And VBM'including. Input level VRM', VGM'And VBMEach of ′ is represented by 0 to 5 V, for example.
[0039]
A dimming signal 421 for controlling the lighting fixture 201 is created based on the image information of the peripheral region 301 of the image data 300. Similarly, dimming signals 422 to 426 for controlling the lighting fixtures 202 to 206 are created based on the image information of the peripheral areas 302 to 306 of the image data 300.
[0040]
FIG. 7 shows a processing procedure of the illumination control data creation program 17. The illumination control data creation program 17 is executed for each frame of image data, and one illumination control data 420 is created for each frame. Hereinafter, the processing procedure of the illumination control data creation program 17 will be described for each step.
[0041]
Step S1: One frame worth of image data is read into the main memory 16 (FIG. 2). The image data may be read directly from the video signal input unit 18 into the main memory 16, or the image data once stored in the auxiliary storage device may be read into the main memory 16. The read image data includes a plurality of peripheral areas. The arrangement of the plurality of peripheral areas is predetermined. For the description of the following processing procedure, one of the peripheral areas included in the image data is referred to as a peripheral area D.
[0042]
Step S2: A representative color representing the peripheral area D is defined. The peripheral region D includes a plurality of pixels, and each pixel includes three subpixels assigned to three color elements R (red), G (green), and B (blue). The image data includes information (image information) for causing these sub-pixels to emit light at a desired luminance level. The luminance level of each of the three sub-pixels assigned to the three color elements R (red), G (green), and B (blue) included in a pixel is represented by VR, VGAnd VBAnd Luminance level VR, VGAnd VBIs represented by a value from 0 to 255, for example, but is not limited thereto. Luminance level VRIs a value obtained by averaging (simple average) over all pixels included in the peripheral region D.RMBrightness level VGIs a value obtained by averaging V over all pixels included in the peripheral region D.GMBrightness level VBIs a value obtained by averaging V over all pixels included in the peripheral region D.BMThen, the representative color of the peripheral region D is (VRM, VGM, VBM).
[0043]
Step S3: Input / output correction of the image display device is performed. That is, the representative color (VRM, VGM, VBM) Is the brightness value (LRM, LGM, LBM). This input / output correction of the image display device will be described later with reference to FIG.
[0044]
Step S4: Luminance value after input / output correction of the image display device (LRM, LGM, LBM) Is the color amount (XC, YC, ZC). This conversion is performed by the relational expression shown in the following expression (1).
[0045]
[Expression 1]
Figure 0004399087
[0046]
However, MDISIs a 3 × 3 matrix depending on the characteristics of the image display device. Color amount (XC, YC, ZC) Is a color amount that does not depend on the characteristics of the image display device.
[0047]
Step S5: Color amount (XC, YC, ZC) Is converted into color perception amounts (H, L, C). Each of H, L, and C represents hue, lightness, and saturation. This conversion is performed by the relational expressions shown in the following expressions (2) to (6).
[0048]
a = 500 [(XC/ Xn)(1/3)+ (YC/ Yn)(1/3)] (2)
b = 200 [(YC/ Yn)(1/3)+ (ZC/ Zn)(1/3)] (3)
H = atan (b / a) (4)
L = 116 (YC/ Yn)(1/3)-16 (5)
C = (a2+ B2)(1/2)  (6)
Xn, YnAnd ZnIs a constant.
[0049]
Step S6: Color correction is performed, and corrected color perception amounts (H ′, L ′, C ′) are obtained. Color correction is performed by the relational expressions shown in the following expressions (7) to (9).
[0050]
H '= H + PH  (7)
L ′ = L × PL  (8)
C ′ = C × PC  (9)
Where PC, PHAnd PLAre parameters for color correction. In this way, by performing color correction on the color perception amounts (H, L, C), color correction can be performed independently for each of hue, brightness, and saturation. For example, in formulas (7) to (9), PH= 0, PL= 1 and PCBy performing color correction such that = 1.1, it is possible to perform color correction that emphasizes only the saturation, that is, the vividness of the color. Color correction may be arbitrarily performed according to the taste of the viewer.
[0051]
Step S7: The corrected color perception amount (H ′, L ′, C ′) is a color amount (XC', YC', ZC′). This conversion is performed by the relational expressions shown in the following expressions (10) to (14).
[0052]
a = C ′ × cosH (10)
b = C ′ × sinH (11)
YC'= [(L + 16) / 116]Three× Yn  (12)
XC′ = [A / 500 + (YC'/ Yn)(1/3)]Three× Xn  (13)
ZC′ = [− B / 200 + (YC'/ Yn)(1/3)]Three× Zn  (14)
Step S8: Color amount (XC', YC', ZC′) Is the luminance value (L) of the luminaire associated with the peripheral region DRM', LGM', LBM′). This conversion is performed by the relational expression shown in the following expression (15).
[0053]
[Expression 2]
Figure 0004399087
[0054]
However, MLAMPIs a 3 × 3 matrix that depends on the characteristics of the luminaire associated with the peripheral region D. LRM', LGM'And LBM'Is a luminance value emitted by the fluorescent tubes 3R, 3G, and 3B assigned to the R, G, and B color elements included in the lighting fixture. The unit of the luminance value is, for example, [cd / cm2].
[0055]
Step S9: Input / output correction of the lighting fixture is performed. That is, the luminance value (LRM', LGM', LBM′) Is a dimming signal (VRM', VGM', VBM′). VRM', VGM'And VBM'Represents the luminance value L for each of the fluorescent tubes 3R, 3G, and 3B included in the lighting fixture.RM', LGM'And LBMThis is the input level necessary for emitting light with '. The input / output correction of the lighting fixture will be described later with reference to FIG.
[0056]
Step S10: It is determined whether or not the processing in steps S2 to S9 has been completed for all peripheral areas included in the image data for one frame. If this determination is Yes, the process of creating illumination control data for one frame of image data ends. The illumination control data is defined as a set of dimming signals for all peripheral areas included in the image data for one frame. If said determination is No, a process will return to step S2 and a process will be performed about another peripheral region.
[0057]
Note that, in step S6 of the processing procedure shown in FIG.H= 0, PL= 1, PC= 1, the color amount (XC, YC, ZC) And the color amount (XC', YC', ZC') Is the same. In this case, steps S5 to S7 can be omitted.
[0058]
FIG. 8 shows input / output characteristics of the image display device 100. In FIG. 8, the horizontal axis VRRepresents the luminance level of the color element R (red) input to the image display device 100, and the vertical axis LRRepresents the output level of the image display device 100, that is, the luminance value of the color element R (red). The luminance level is represented by a value of 0 to 255, for example, and the luminance value is, for example, cd / cm.2It is represented by VRAnd LRIs expressed by the following equation (16).
[0059]
LR= FRDIS(VR(16)
Where function fRDISIs a function indicating the input / output characteristics of the color element R (red) of the image display device 100. Such a function indicating input / output characteristics is defined by a polynomial, for example, and incorporated in the illumination control data creation program 17.
[0060]
Although the input / output characteristics are shown only for the color element R (red) in FIG. 8, the input / output characteristics for the color element G (green) and the color element B (blue) are similarly expressed by the function f.GDISAnd function fBDISAs a representative color (V in step S3 of FIG. 7).RM, VGM, VBM) Is the luminance value (LRM, LGM, LBM) Is performed by the following equations (17) to (19).
[0061]
LRM= FRDIS(VRM(17)
LGM= FGDIS(VGM(18)
LBM= FBDIS(VBM(19)
The dotted line in FIG.RMTo LRMIs shown.
[0062]
FIG. 9 shows input / output characteristics of the lighting fixture 201. Horizontal axis VR'Represents the input level of the color element R (red) input to the illumination control data input unit 5 as a dimming signal for the luminaire 201, andR'Represents the output level of the luminaire 201, that is, the luminance value of the color element R (red). The input level is represented by a value of 0 to 5 V, for example, and the luminance value is, for example, cd / cm.2It is represented by VR'And LRThe relationship with ′ is expressed by the following equation (20).
[0063]
LR'= FRLAMP(VR′) (20)
Where function fRLAMPIs a function indicating the input / output characteristics for the color element R (red) of the luminaire 201. Such a function indicating input / output characteristics is defined by a polynomial, for example, and incorporated in the illumination control data creation program 17.
[0064]
Although FIG. 9 shows the input / output characteristics only for the color element R (red) of the lighting fixture 201, the input / output characteristics for the color element G (green) and the color element B (blue) are similarly expressed by the function f.GLAMPAnd function fBLAMPIs defined as the luminance value (L in step S9 in FIG. 7).RM', LGM', LBM′) The dimming signal (VRM', VGM', VBMThe process of converting to ') is performed by the following equations (21) to (23).
[0065]
VRM'= FRLAMP -1(LRM’) (21)
VGM'= FGLAMP -1(LGM′) (22)
VBM'= FBLAMP -1(LBM′) (23)
A dotted line in FIG.RM’To VRMIt shows how 'is obtained.
[0066]
The input / output characteristics of the lighting fixtures 202 to 206 are also defined as functions, like the input / output characteristics of the lighting fixture 201.
[0067]
The illumination control data 420 is generated by the processing procedure described above. The lighting control data 420 may be further smoothed and filtered.
[0068]
FIG. 10 shows a data flow when the illumination control data 420 is subjected to smoothing processing and filtering processing. The smoothing process and the filtering process are performed in order to eliminate a feeling of strangeness when changing the illumination light. When the viewer views the video in an environment where the illumination light changes in conjunction with the video, the illumination light affects the viewer's peripheral visual field, so the viewer is extremely concerned if the illumination light changes rapidly or flickers. I feel a sense of discomfort. In order to prevent such a sense of incongruity, a smoothing process is performed. The smoothing process is performed, for example, by obtaining a moving average between the illumination control data created from the previous frame and the illumination control data created from the current frame. The number of frames used for the moving average is, for example, 4 frames. As the number of frames used for the moving average is increased, lighting control data with a gentle change is created. That is, the amount of change per unit time of the luminance value of the illumination light is suppressed.
[0069]
The filtering process is a process of cutting a dimming signal below a predetermined level included in the illumination control data. Flickering can be prevented by cutting the dimming signal at the boundary between lighting and non-lighting. The predetermined level is, for example, the level of the dimming signal having a value of 25% of the dimming signal for lighting the lighting fixture with the maximum luminance value.
[0070]
As described above, the illumination control data 420 is subjected to the smoothing process 703 and the filtering process 704 to become the smoothed and filtered illumination control data 420 ′. The smoothed and filtered illumination control data 420 ′ is input to the illumination control data input unit 5.
[0071]
In step S2 of the processing procedure shown in FIG. 7, the representative color is defined by obtaining a simple average of the luminance levels of R, G, and B of the pixels included in the peripheral region. The representative color may be defined by obtaining a maximum histogram of R, G, and B luminance levels. For example, when the peripheral region includes a red region and a green region, the representative color defined by obtaining a simple average of the luminance levels of R, G, and B is a color that is neither red nor green (for example, white ) May occur. In this case, there is a sense of incongruity when illumination light having substantially the same color as the representative color is irradiated onto the extended region of the peripheral region, which is not preferable. When the representative color is defined by obtaining the maximum histogram, the color of the region having the larger area among the red region and the green region included in the peripheral region becomes the representative color. When the representative color is obtained in this manner, it is preferable that the illumination light having substantially the same color as the representative color is irradiated on the extension region of the peripheral region without feeling uncomfortable.
[0072]
Further, the number of lighting fixtures included in the lighting system 1 is not limited to six. For example, as shown in FIG. 4, the lighting system 1 may control ten lighting fixtures 203 ′, 204 ′, 205 ′, and 206 ′ in addition to the lighting fixtures 201 to 206. . The luminaires 203 ′, 204 ′, 205 ′, and 206 ′ are arranged outside the luminaires 203, 204, 205, and 206, respectively, in the view of the viewer 150. In addition, the peripheral area and the lighting fixture do not have to correspond one-to-one. For example, any of the lighting fixtures 205 ′ and 205 shown in FIG. 4 may be associated with the peripheral region 305 shown in FIG. 5. Further, the lighting system 1 may not include the lighting fixture 205, and the lighting fixture 205 'may be associated with the peripheral region 305 shown in FIG.
[0073]
Further, the control method of the lighting device may be changed according to the viewing angle of the viewer 150. The viewing angle of the viewer 150 is different between the lighting fixture 205 ′ and the lighting fixture 205. That is, the luminaire 205 is closer to the center of the visual field of the viewer 150 than the luminaire 205 ′. Even if the light emission colors of the lighting fixture 205 and the lighting fixture 205 ′ are the same, the viewing angle of the viewer 150 is different, so that the impression that the lighting fixture 205 gives to the viewer 150 and the lighting fixture 205 ′ are the viewer 150. It is different from the impression given to. In general, the lighting fixture 205 ′ may be controlled so that the luminance value thereof is lower than that of the lighting fixture 205 because the peripheral portion of the visual field is easily felt. Such control is executed, for example, by appropriately selecting parameters for color correction in step S6 of the processing procedure shown in FIG. 7 according to the arrangement of the lighting fixtures.
[0074]
The relationship between the luminaire 206 ′ and the luminaire 206, the relationship between the luminaire 203 ′ and the luminaire 203, and the relationship between the luminaire 204 ′ and the luminaire 204 are also described above. It is the same as the relationship.
[0075]
The method for defining the peripheral region in the peripheral part of the image data is not limited to the definition method shown in FIG.
[0076]
11A to 11G show other examples of the structure of the image data 300 for one frame. The peripheral area included in the image data is defined in advance as shown in FIGS. 11A to 11G according to the number and arrangement of the lighting fixtures of the lighting system 1.
[0077]
The peripheral portion of the image data 300 for one frame shown in FIG. 11A includes peripheral regions 1102, 1103, 1104, 1105, and 1106. Such a peripheral region defining method is, for example, that the lighting fixtures included in the lighting system 1 are lighting fixtures 201, 203, 203 ′, 204, 204 ′, 205, 205 ′, 206 and 206 ′ shown in FIG. It can be used in some cases. The luminaire 201 is associated with the peripheral area 1103. The luminaire 203 and / or 203 ′ is associated with the peripheral area 1106. The luminaire 205 and / or 205 ′ is associated with the peripheral area 1105. The luminaire 206 and / or 206 ′ is associated with the peripheral area 1102. The luminaire 204 and / or 204 ′ are associated with the peripheral area 1104. The lighting fixtures 205 and 203 may be omitted, or the lighting fixtures 205 'and 203' may be omitted. Also, the lighting fixtures 206 and 204 may be omitted, or the lighting fixtures 206 'and 204' may be omitted.
[0078]
Image data 300 for one frame shown in FIG. 11B includes a peripheral area 1108. Such a peripheral region defining method can be used, for example, when the lighting fixtures included in the lighting system 1 are the lighting fixtures 201, 204, and 206 shown in FIG. The lighting fixtures 201, 204, and 206 are associated with the peripheral region 1108. The lighting fixtures 204 and 206 may be omitted.
[0079]
Image data 300 for one frame shown in FIG. 11C includes peripheral areas 1109 and 1110. Such a peripheral region defining method can be used, for example, when the lighting fixtures included in the lighting system 1 are the lighting fixtures 201, 206, 204, 205, 202, and 203 shown in FIG. The lighting fixtures 201, 206, and 204 are associated with the peripheral region 1109. The lighting fixtures 205, 202, and 203 are associated with the peripheral region 1110. The lighting fixtures 206 and 204 may be omitted. Also, the lighting fixtures 205 and 203 may be omitted.
[0080]
Image data 300 for one frame shown in FIG. 11D includes peripheral regions 1111 and 1112. Such a method of defining the peripheral region can be used, for example, when the lighting fixtures included in the lighting system 1 are the lighting fixtures 203, 204, 205, and 206 shown in FIG. The lighting fixtures 205 and 206 are associated with the peripheral area 1111. The lighting fixtures 204 and 203 are associated with the peripheral region 1112. The lighting fixtures 206 and 204 may be omitted, or the lighting fixtures 205 and 203 may be omitted.
[0081]
Image data 300 for one frame shown in FIG. 11E includes peripheral areas 1113, 1114, 1115, and 1116. For example, the lighting device included in the lighting system 1 is a lighting device 203, 203 ′, 204, 204 ′, 205, 205 ′, 206 and 206 ′ shown in FIG. Can be used in some cases. The lighting fixture 203 and / or 203 ′ is associated with the peripheral area 1116. The luminaire 205 and / or 205 ′ is associated with the peripheral area 1114. The luminaire 206 and / or 206 ′ is associated with the peripheral area 1113. The luminaire 204 and / or 204 ′ are associated with the peripheral area 1115. The lighting fixtures 205 and 203 may be omitted, or the lighting fixtures 205 'and 203' may be omitted. Also, the lighting fixtures 206 and 204 may be omitted, or the lighting fixtures 206 'and 204' may be omitted.
[0082]
Image data 300 for one frame shown in FIG. 11F includes peripheral areas 1117, 1118, and 1119. Such a peripheral region defining method can be used, for example, when the lighting fixtures included in the lighting system 1 are the lighting fixtures 201, 206, 204, 205, and 203 shown in FIG. The lighting fixtures 205 and 206 are associated with the peripheral region 1117. The lighting fixtures 204 and 203 are associated with the peripheral area 1119. The lighting fixture 201 is associated with the peripheral area 1118. The lighting fixtures 203 and 205 may be omitted, or the lighting fixtures 206 and 204 may be omitted.
[0083]
The image data 300 for one frame shown in FIG. 11G includes peripheral areas 1120, 1121, 1122, 1123, and 1124. Such a peripheral region defining method is, for example, that the lighting fixtures included in the lighting system 1 are the lighting fixtures 202, 203, 203 ′, 204, 204 ′, 205, 205 ′, 206 and 206 ′ shown in FIG. Can be used. The lighting fixture 202 is associated with the peripheral region 1123. The luminaire 203 and / or 203 ′ is associated with the peripheral area 1124. The luminaire 205 and / or 205 ′ is associated with the peripheral area 1122. The luminaire 206 and / or 206 ′ is associated with the peripheral area 1120. The luminaire 204 and / or 204 ′ or both are associated with the peripheral area 1121. The lighting fixtures 205 and 203 may be omitted, or the lighting fixtures 205 'and 203' may be omitted. Also, the lighting fixtures 206 and 204 may be omitted, or the lighting fixtures 206 'and 204' may be omitted.
[0084]
In the above, with reference to FIG. 11A-FIG. 11G, the structure of the illumination system 1 and the variation of the method of defining a peripheral region in the peripheral part of image data were demonstrated. Variations of the configuration of the illumination system 1 and the method of defining the peripheral region in the peripheral part of the image data are not limited to FIGS. 11A to 11G. The lighting system 1 may have a lighting fixture that is not associated with any surrounding area. If at least one of the plurality of lighting fixtures included in the lighting system 1 is controlled so as to be linked to one corresponding peripheral region among the plurality of peripheral regions, a high sense of realism can be obtained, and the effect of the present invention can be achieved. can get.
[0085]
As the number of peripheral regions in the peripheral part and the number of lighting fixtures included in the lighting system 1 increase, the cost increases and the amount of calculation for creating lighting control data also increases. The number of peripheral areas is appropriately determined in consideration of the effects of cost reduction and realism improvement. For example, the number of the peripheral regions shown in FIG. 11D and the number of the peripheral regions shown in FIG. 11C are both two, but the peripheral region is positioned in the vertical direction when the peripheral region is positioned in the horizontal direction. The effect of improving the sense of reality is greater than that. Therefore, the definition method of the peripheral region shown in FIG. 11D is preferable to the definition method of the peripheral region shown in FIG. 11C. Considering the effects of cost reduction and realism improvement, the number of peripheral regions is generally preferably about 2 to 4 (for example, FIG. 11D and FIG. 11E), but the present invention is not limited to this.
[0086]
In general, more lighting fixtures can control lighting in response to detailed changes in the image, but on the other hand, the lighting system becomes larger and the creation of lighting control data becomes complicated and the time required for creation increases. Both the introduction cost and the calculation cost increase. Therefore, it is necessary to increase the sense of presence by using a limited number of lighting fixtures. A method for enhancing the realistic effect using a limited number of lighting fixtures will be described below.
[0087]
FIG. 12 shows the field of view of the viewer 150. The center line (reference line) of the visual field of the viewer 150 is assumed to be at the center O of the image data displayed on the image display device. The viewer 150 has a central field of view 502 corresponding to a region of less than 30 ° left and right with respect to the reference line as a base point, and a peripheral field of view 503 of 30 ° to 100 ° right and left (shown in FIG. 12). Hatched area). The sensitivity of the human eye varies depending on the location within the field of view. The vicinity of the center of the visual field is sensitive to differences in brightness and color, and the peripheral part of the visual field is sensitive to movement. The present inventors evaluated the effect of improving the presence in the following three cases with respect to the arrangement of the lighting fixtures.
[0088]
(A) When a lighting fixture is arranged only in the central visual field.
[0089]
(B) When a lighting fixture is arranged only in the peripheral visual field.
[0090]
(C) When a lighting fixture is arranged in the central visual field and the peripheral visual field.
[0091]
The above (a) is realized by using the lighting fixtures in the background portion of the image display device 100 (the lighting fixtures 201 and 202 shown in FIG. 4). The above (b) was realized by using the lighting fixtures 203, 204, 205 and 206 shown in FIG. The above (c) is realized by using the lighting fixtures 201, 202, 203, 204, 205 and 206 shown in FIG.
[0092]
The effect of improving the sense of presence is (c)> (b)> (a) in the above three cases, and the effect of improving the sense of presence is sufficiently high even in the case of (b) in which the lighting apparatus is arranged only in the peripheral visual field. was gotten. This is because, as already described, the human visual field moves more in the peripheral visual field, i.e., it is more sensitive to changes and can fully sense the change in light emission of the luminaire. The positional relationship between the viewer's field of view and the lighting fixture also varies depending on the size of the viewing room and the position of the viewer, but in general the central field of view corresponds to the front of the room and the peripheral field of view is the side of the viewing room. It corresponds to.
[0093]
In the case of (b) above, the luminance value irradiated from the illumination device having the peripheral visual field is higher than the luminance value irradiated from the lighting device having the central visual field. On the other hand, in the case of the above (a), the luminance value irradiated from the lighting device having the central visual field is higher than the luminance value irradiated from the lighting device having the peripheral visual field. In this way, in order to improve the sense of reality by using limited lighting fixtures, the luminance value irradiated from the lighting fixture in the peripheral visual field is the luminance value irradiated from the lighting fixture in the central visual field. It is a basic condition to make it higher. Therefore, for example, it is preferable to use the peripheral region defining method shown in FIG. 11E.
[0094]
The above description has been given for the above three cases (a), (b), and (c), but the present invention is not limited to the arrangement of these lighting fixtures. As long as the luminance value emitted from the luminaire in the peripheral field of view (or illuminates in the peripheral field of view) is higher than the luminance value emitted from the luminaire in the central field of view (or illuminates in the central field of view) , Can improve the sense of reality by lighting.
[0095]
The size of each peripheral area may be arbitrarily determined. In general, the smaller the size of the peripheral region, the better the average color of the peripheral region perceived by humans and the representative color obtained by calculating the simple average of RGB as described above, that is, the color Reproducibility is improved. However, if the size of the surrounding area is small, if the surrounding area happens to contain an image of a relatively small object (for example, a scene where a bird flew in a landscape image), the color of the relatively small object May become the representative color of the peripheral region, that is, noise resistance is degraded. The size of the peripheral region is appropriately determined from the viewpoint of such color reproducibility and noise resistance.
[0096]
In the above description, the lighting apparatus uses fluorescent tubes assigned to R (red), G (green), and B (blue) color elements, but the color elements are not limited to R, G, and B. . For example, C (cyan), Y (yellow), and M (magenta) may be used as color elements. Moreover, you may light-emit a lighting fixture other than a fluorescent tube. For example, light may be emitted by a light emitting diode (LED). Three light emitting diodes of R (red), G (green) and B (blue) constitute one illumination element, and this one illumination element is composed of one pixel included in the peripheral area of the image data And may be controlled in association with each other. A single lighting fixture may include a plurality of such lighting elements. In this case, the peripheral region can be controlled by associating and controlling the pixels included in the peripheral region and the lighting elements included in the luminaire associated with the peripheral region without defining the representative color of the peripheral region. The color perceived as a whole and the color perceived as a whole lighting fixture can be made substantially the same.
[0097]
The lighting fixture may be direct illumination or indirect illumination. For example, the lighting fixture 202 shown in FIG. 4 is arranged behind the image display device 100 and is configured to illuminate the back wall surface by indirect lighting, but the lighting fixture 202 is arranged on the front surface of the image display device 100. It may be. Moreover, you may make it the structure which uses the spot lighting fixture as a lighting fixture and illuminates the wall surface of an appreciation room. When making it the structure which a lighting fixture illuminates a wall surface, it is preferable that the color of a wall surface is white. Further, the size of the viewing room in which the illumination system 1 is arranged is not limited to the example shown in FIG. For example, the lighting system 1 may be used in a large space such as a public space in a movie theater or a nursing home.
[0098]
Further, the lighting control data may be distributed via the Internet or the like. The illumination control data may be distributed by a carrier wave. Thus, when the illumination control data is distributed, the illumination system 1 (FIG. 1) may not have the video signal input unit 18 and the calculation unit 12. In other words, the lighting system 1 only needs to include the lighting control data input unit 5 and a plurality of lighting fixtures. Further, the illumination control data may be distributed together with the video signal without being distributed alone.
[0099]
When the illumination system 1 (FIG. 1) has the calculation unit 12 and creates illumination control data by near real-time processing, the computation time required to create illumination control data from one frame of image data is shortened. It is necessary to. For example, a video signal based on the NTSC signal includes 30 frames per second. In this case, the image data also includes 30 frames per second, and it is necessary to create illumination control data for each of these frames. Calculations required to create illumination control data from one frame of image data by using a method using a look-up table, a method for performing pixel sampling, and a method for performing frame interpolation, either alone or in combination with others Time can be shortened. These methods are described below.
[0100]
FIG. 13 shows a data flow when creating illumination control data using a lookup table. First, the representative color 802 of the peripheral area is obtained from the image data 411. This processing procedure is the same as steps S1 to S2 of the processing procedure shown in FIG. Next, a lookup table created in advance is searched using the representative color 802 as a key (processing 803), and illumination control data 420 is created. Thereby, steps S3 to S9 of the processing procedure shown in FIG. 7 are replaced by the look-up table processing 803, and the time required for creating the illumination control data is greatly shortened.
[0101]
Next, a method for performing pixel sampling will be described.
[0102]
FIG. 14 shows the pixels that are sampled on the peripheral area. A hatched rectangle indicates a pixel to be sampled, and a non-hatched rectangle indicates a pixel that is not sampled. If the representative color is defined by calculating the average of the color elements R, G and B only for the sampled pixels, the calculation time required to define the representative color is reduced. That is, the calculation time required for step S2 of the processing procedure shown in FIG. 7 is shortened.
[0103]
FIG. 15 shows the relationship between the number of pixel samplings and the time required for creating illumination control data. The time required for creating the illumination control data is represented by 100 as the time required for creating the illumination control data when the pixel sampling number is 0, that is, when pixel sampling is not used. A pixel sampling number of 1 represents sampling every other pixel in the peripheral area. As shown in FIG. 15, by performing pixel sampling, the time required for creating the illumination control data can be shortened to about 1/3 as compared with the case where pixel sampling is not used. Even if the number of pixel sampling is increased to 5 or more, the effect of shortening the time required for creating the illumination control data is almost lost. Accordingly, the sampling number of pixels is preferably about 1 to 5, but is not limited thereto. Note that when the number of pixel samplings is about several, the illumination control data created using pixel sampling is not significantly different from the case where pixel sampling is not used.
[0104]
FIG. 16 shows a data flow when creating illumination control data using frame interpolation. n is an integer of 3 or more, and frames 1 to n are temporally adjacent frames. Also, the peripheral area D1~ DnAre peripheral regions included in frames 1 to n, respectively, and these peripheral regions are peripheral regions at the same position in the frame. D included in frame 1 and frame n1And Dn, The color perception amount 1601 is obtained by steps S2 to S6 of the processing procedure shown in FIG. D included in frame 2 to frame (n-1)2~ Dn-1, The color perception amount 1650 is obtained by interpolating the color perception amount 1601 of both the frame 1 and the frame n. According to this method, since the time for processing the image data of all frames can be shortened, the time for creating the illumination control data can be shortened.
[0105]
With respect to the frame 1 and the frame n, the color perception amount 1601 is obtained from the dimming signal 1611 by steps S7 to S9 of the processing procedure shown in FIG. Created.
[0106]
Similarly, with respect to the frames 2 to (n−1), the dimming signal 1611 is obtained from steps S7 to S9 of the processing procedure shown in FIG. Lighting control data 1621 is created by obtaining a dimming signal for.
[0107]
The color perception amount interpolation method used in the present invention will be described below. In the image data of a series of scenes, the color perception amount can be simply interpolated. However, when the image data of frame 1 and frame n represent completely different scenes, simple interpolation of the color perception amount causes a problem. For example, the peripheral area D of the frame 11Color perceived amount (H1', L1', C1') Of hue H1'Represents cyan and the peripheral region D of frame nnColor perceived amount (Hn', Ln', Cn') Of hue HnWhen ′ represents yellow, the color perception amount (H1', L1', C1′) And perceived color (Hn', Ln', Cn') Is simply interpolated for each hue, lightness, and saturation, a hue representing green appears. When interpolating the color perception amount, it is not preferable that a hue completely different from the representative color of the original image data is perceived. This is because if a completely different hue is perceived, the viewer feels uncomfortable. According to the color perception amount interpolation method used in the present invention, it is possible to prevent an intermediate hue from being perceived during interpolation.
[0108]
FIG. 17A shows an example of changes in hue, brightness, and saturation in the color perception amount interpolation method used in the present invention. A curve 1701 represents the relationship between the frame number and the hue. Since the frame number corresponds to time, the curve 1701 represents the temporal change in hue. Similarly, a curve 1702 represents a temporal change in brightness, and a curve 1703 represents a temporal change in saturation. In the example shown in FIG. 17A, the hue, brightness, and saturation are set to H.1’To Hn‘L’1'To LnUntil ‘C’1'To CnWhen interpolating to ′, the lightness and saturation are respectively L1'And C1After changing to a predetermined value smaller than ', the hue is H1’To HnIs interpolated to change to ', and the hue is HnAfter changing to ', the brightness and saturation are respectively Ln'And CnInterpolation is performed so as to change to '. The predetermined value is a value of brightness or saturation that makes it difficult to perceive a change in hue. Input level V for each color element of the dimming signal included in the illumination control data for a certain frameRM', VGM'And VBM'Is obtained from the hue H', the lightness L ', and the saturation C' by the conversion shown in the above equations (7) to (23). That is, the input level V for each color element of the dimming signal included in the illumination control dataRM', VGM'And VBM'Corresponds to hue H', lightness L ', and saturation C'. Hue H ′, lightness L ′, and saturation C ′ can be regarded as a hue component, a lightness component, and a saturation component of light emitted from the lighting fixture controlled by the dimming signal, respectively.
[0109]
When the hue changes between the frame 1 and the frame n, if the hue is changed after the lightness and the saturation are lowered, the uncomfortable feeling due to the change in the hue of the light emitted from the luminaire is reduced. This is because when the saturation and brightness are low, the difference in hue becomes difficult to perceive.
[0110]
Note that, as an interpolation method for reducing a sense of incongruity due to a change in hue, the hue may be changed after either one of saturation or lightness is reduced. Even when one of saturation and lightness is low, a difference in hue is hardly perceived.
[0111]
FIG. 17B shows another example of changes in hue, brightness, and saturation in the color perception amount interpolation method used in the present invention. Curves 1711, 1712, and 1713 represent changes in hue, lightness, and saturation over time, respectively. In the example shown in FIG. 17B, the hue, brightness, and saturation are set to H.1’To Hn‘L’1'To LnUntil ‘C’1'To C1nWhen interpolating up to ', the saturation is C1After changing to a value smaller than ', the hue is H1’To HnIs interpolated to change to ', and the hue is HnAfter changing to ', the saturation is CnInterpolation is performed so as to change to '. Lightness is L1'To Ln'Is simply interpolated.
[0112]
FIG. 18 is a diagram showing the change in the color perception amount from frame 1 to frame n on the color correlation diagram. The amount of color perception of frame 1 and frame n is point P.1And point PnIt is shown in A curve 1801 indicates a change path of the color perception amount when the hue is changed after the saturation is decreased, and a curve 1802 indicates a change of the color perception amount when the hue is changed without decreasing the saturation. Indicates the route. When the hue is changed after the saturation is lowered, the color perception amount is the point P.1After approaching white (ie, achromatic color), point PnChange to. For this reason, it is difficult to perceive changes in hue. When the hue is changed without reducing the saturation, the color perception amount is the point P.1Point P after approaching bluenChange to. For this reason, a change in hue is easily perceived.
[0113]
The interpolation method described with reference to FIGS. 17A and 17B to change the hue after reducing either the saturation or the lightness is preferable when the hue changes between frame 1 and frame n. Interpolation method used. Whether such an interpolation method is used instead of simple interpolation is determined by, for example, the hue H obtained from the frame 1 and the frame n.1’And HnIt is determined by searching whether there is an uncomfortable hue between '. If the color category is defined within the range of hue angles, the hue H1’And HnIt can be determined by calculation whether or not there is another color category between 'and. Hue H1’And HnWhen it is determined that there is a category of another color between “,” that is, when the hue changes beyond a predetermined color category, the color described with reference to FIGS. 17A and 17B is used. An interpolation method is used in which the hue is changed after either the brightness or the brightness is lowered.
[0114]
For example, when n = 6, the color perception amount of frame 1 (H1', L1', C1′) And the color perception amount of frame 6 (H6', L6', C6′) And the color perception amount of frame 2 (H2', L2', C2′) To the color perception amount of frame 5 (HFive', LFive', CFiveAn example of the processing procedure for obtaining ') is shown in the following (a) to (d).
[0115]
(A) H2‘= H1’And L2'And C2'Is set to a sufficiently small value. The sufficiently small value is a value of brightness and saturation that does not perceive a sense of incongruity due to a change in hue, and is a predetermined value.
[0116]
(B) HThree‘H’1’And H6It is an intermediate value between 'and LThree'And CThree'Is L2'And C2Equal to '.
[0117]
(C) HFour‘= H6’And LFour'And CFour'Is LThree'And CThreeEqual to '.
[0118]
(D) HFive‘= H6’And LFive'And CFive'Is LFour'And L6′ Intermediate value and CFour'And C6Set to a value intermediate between '.
[0119]
The hue H obtained from the frame 1 and the frame n1’And HnIf there is no uncomfortable hue between 'and', the color perception amount may be interpolated by simply interpolating the hue, lightness, and saturation. When the value of n is small, for example, when n = 3, the time difference between frame 1 and frame n is small, and the difference in image information included in the image data of frame 1 and frame n is also considered small. It is not always necessary to use an interpolation method that changes the hue after reducing either the saturation or the lightness as described above. In such a case, the dimming signal for the intermediate frame may be obtained by simply interpolating the dimming signal for frame 1 and the dimming signal for frame n.
[0120]
All the illumination control data creation methods described above are illumination control data creation methods in which illumination is controlled based on image information in a peripheral region of image data. Such control is performed in order to enhance a sense of reality by making the viewer perceive that the image is extended in an oblique direction in the horizontal and vertical directions within the viewer's field of view. However, the illumination system 1 of the present invention is not limited to being controlled in this way. For example, it may be controlled so as to enhance the sense of reality by providing a sense of surprise to the viewer, or may be controlled so as to provide a feeling of peace. Below, the preparation method of the illumination control data which the illumination system 1 of this invention provides a viewer with a feeling of surprise and peace is demonstrated.
[0121]
The sense of surprise can be provided by, for example, lighting the lighting fixture at the same time that the exploded scene is displayed on the image display device. The viewer is amazed at the illusion that an explosion has occurred around him. The explosion scene is extracted using image information of an area including the central portion of the image data.
[0122]
FIG. 19 shows a central area 1900 defined as an area including the central portion of the image data 300 for one frame. In a scene that is intended to surprise the viewer, such as an exploded scene, the image information in the central area 1900 changes rapidly. Therefore, by calculating the amount of change in the image information in the central area 1900, it can be determined whether or not the target frame is an explosion scene. For example, an average value (RGB average value) of output levels of all R, G, and B included in the central region 1900 is used as the image information of the central region 1900.
[0123]
FIG. 20 shows the RGB average value and the difference between the RGB average values in each frame. In the example shown in FIG. 20, the central area 1900 is made to coincide with the entire area of the image data. In FIG. 20, the horizontal axis indicates the frame number. Each frame of frame numbers 1 to 51 is a temporally continuous frame in this order, and includes an explosion scene. A polygonal line 2001 indicates the RGB average value of each frame, a polygonal line 2002 indicates the difference between the RGB average values of each frame, and the RGB average value is a simple average value of the luminance levels of the image expressed in 256 levels from 0 to 255. is there. The difference between the RGB average values is a value obtained by subtracting the RGB average value of the frame preceding by one frame from the RGB average value of each frame. Generally, in an explosion scene, the image suddenly becomes bright, that is, the RGB average value suddenly increases. Therefore, a frame in which both the RGB average value and the difference between the RGB average values are larger than a certain threshold value can be determined as an explosion scene. In the example shown in FIG. 20, a frame having an RGB average value of 100 or more and a difference of RGB average values of 50 or more coincides with the explosion scene.
[0124]
In addition, although the example which used the RGB level showed the determination of the explosion scene, you may perform the determination process of an explosion scene after converting into another color system.
[0125]
In the example shown in FIG. 20, the central area 1900 is made to coincide with the entire area of the image. In general images, there are many scenes where an explosion occurs at a position far from the viewer. In addition, an image having a large amount of change in image information in the peripheral portion of the image is often an image for increasing a sense of speed, and does not necessarily coincide with an explosion scene. Therefore, the determination accuracy is improved by determining whether or not the scene is an explosion scene based on the amount of change in the image information of only the central portion not including the peripheral portion of the image. Also, a scene that surprises the viewer, such as an explosion scene, may be determined based on not only the amount of change in image information but also the amount of change in audio information. In scenes that surprise viewers, such as explosion scenes, the volume of sound changes rapidly as the image changes rapidly. Accordingly, a method for determining an explosion scene based on the amount of change in audio information can be described in the same manner as the method for determining an explosion scene with reference to FIG. For example, as in the graph shown in FIG. 20, a graph can be obtained in which the horizontal axis is the frame number and the vertical axis is “difference between audio volume and audio volume”. In addition, the determination accuracy is improved by determining a scene that surprises the viewer, such as an explosion scene, based on both the change amount of the image information and the change amount of the audio information.
[0126]
Explosion scene lighting control data is created in a frame that is determined to be a scene that surprises the viewer, such as an explosion scene. The explosion scene illumination control data is generated, for example, by executing a processing procedure similar to steps S2 to S9 of the processing procedure shown in FIG. The lighting fixture controlled by the explosion scene lighting control data may be any of the lighting fixtures 201-206 and 203'-206 'shown in FIG. A plurality of these lighting fixtures may be controlled by the explosion scene lighting control data. Further, a lighting fixture 2055 (FIG. 4) dedicated to the explosion scene may be arranged near the viewer, for example, and the lighting fixture 2055 may be controlled by the explosion scene lighting control data. A plurality of lighting fixtures 2055 may be provided. Since the lighting fixture 2055 is a lighting fixture dedicated to an explosion scene, the color of the emitted light may be a single color (for example, red) or two colors (for example, red and yellow).
[0127]
A method for providing a viewer with a feeling of peace with the illumination system 1 of the present invention will be described below. It is known that relaxation can be achieved, that is, a feeling of peace can be obtained by changing the light output of illumination light at a frequency in the range of 0.05 Hz to 0.6 Hz. This technique can also be applied when lighting is controlled in conjunction with image data by the lighting system 1 of the present invention.
[0128]
Illumination control data providing such a feeling of comfort is obtained by, for example, converting the dimming signal created by the processing procedure shown in FIG. 7 into a color signal and a luminance signal, and modulating the luminance signal at a predetermined frequency. Then, it can be created by converting the coordinates into a dimming signal again. Such coordinate conversion of the dimming signal can be performed by a known relational expression.
[0129]
FIG. 21 shows an example in which the luminance value emitted by the lighting fixture is changed at a constant frequency. The frequency for changing the luminance value is preferably in the range of 0.05 Hz to 0.6 Hz. Among these, the range of 0.1 Hz to 0.4 Hz is particularly preferable for obtaining a feeling of peace.
[0130]
FIG. 22 shows that the luminance value is changed at a constant frequency so that the temporal change rate of the luminance value when the luminance value of the luminaire increases is larger than the temporal change rate of the luminance value when the luminance value decreases. An example is shown. By changing the luminance value in this way, it becomes easy to synchronize the breathing rhythm with the change of the illumination light, and the feeling of peace is improved. This is because a change in luminance value is reminiscent of an image that breathes in and out.
[0131]
It is not essential to periodically change the luminance values of all the luminaires included in the lighting system 1 in this way. For example, only the luminance value of the lighting fixture 201 shown in FIG. 4 may be changed periodically. Alternatively, only the luminance value of the lighting fixture 202, only the luminance value of the lighting fixtures 201 and 202, only the luminance value of the lighting fixtures 205 and 203, or only the luminance value of the lighting fixtures 201 and 202 may be changed periodically. Good. Or you may make it change the luminance value of the lighting fixtures 201-206 and 203'-206 'periodically. Or you may make it arrange | position the lighting fixture 2601 (FIG. 4) which is not linked with image data, and change the luminance value of the lighting fixture 2601 periodically. There may be a plurality of lighting fixtures 2601.
[0132]
Such a method of providing a feeling of peace can be suitably used, for example, when viewing a landscape image or the like.
[0133]
【The invention's effect】
According to the present invention, the viewer can perceive a high sense of realism by changing the illumination light in conjunction with the image.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a lighting system 1 according to the present invention.
FIG. 2 is a block diagram showing a configuration of a calculation unit 12
FIG. 3 is a diagram showing the structure of a lighting fixture 201
FIG. 4 is a diagram showing an example in which lighting fixtures of the lighting system 1 of the present invention are laid out in a room.
FIG. 5 is a diagram showing the structure of image data 300 for one frame.
FIG. 6 is a diagram showing a data flow when illumination control data 420 is created from image data 300 for one frame.
FIG. 7 is a diagram showing a processing procedure of an illumination control data creation program 17
8 is a diagram showing input / output characteristics of the image display device 100. FIG.
FIG. 9 is a diagram showing input / output characteristics of the lighting fixture 201
FIG. 10 is a diagram showing a data flow when the lighting control data 420 is subjected to smoothing processing and filtering processing;
FIG. 11A is a diagram showing another example of the structure of image data 300 for one frame.
FIG. 11B is a diagram showing another example of the structure of image data 300 for one frame.
FIG. 11C is a diagram showing another example of the structure of image data 300 for one frame.
FIG. 11D is a diagram showing another example of the structure of the image data 300 for one frame.
FIG. 11E is a diagram showing another example of the structure of the image data 300 for one frame.
FIG. 11F is a diagram showing another example of the structure of image data 300 for one frame.
FIG. 11G is a diagram showing another example of the structure of the image data 300 for one frame.
FIG. 12 is a view showing the visual field of the viewer 150
FIG. 13 is a diagram showing a data flow when creating illumination control data using a lookup table.
FIG. 14 is a diagram showing pixels to be sampled on the peripheral region
FIG. 15 is a diagram showing the relationship between the number of pixel samplings and the time required to create illumination control data
FIG. 16 is a diagram showing a data flow when creating illumination control data using frame interpolation;
FIG. 17A is a diagram showing an example of changes in hue, brightness, and saturation in the color perception amount interpolation method used in the present invention;
FIG. 17B is a diagram showing another example of changes in hue, brightness, and saturation in the color perception amount interpolation method used in the present invention;
FIG. 18 is a diagram showing a change in color perception amount from frame 1 to frame n on a color correlation diagram.
FIG. 19 is a diagram showing a peripheral area 1900 defined as a peripheral area including a central portion of image data 300 for one frame.
FIG. 20 is a diagram showing an RGB average value and a difference between RGB average values in each frame;
FIG. 21 is a diagram showing an example in which the luminance value emitted by the lighting fixture is changed at a constant frequency.
FIG. 22 changes the luminance value at a constant frequency so that the temporal change rate of the luminance value when the luminance value of the luminaire increases is larger than the temporal change rate of the luminance value when the luminance value decreases. Illustration showing an example
[Explanation of symbols]
1 Lighting system
5 Lighting control data input section
12 Calculation unit
18 Video signal input section
100 Image display device
201-206 Lighting equipment
412 Image data
420 Lighting control data

Claims (8)

画像データを表示する画像表示デバイスとともに使用される照明システムであって、
前記画像データを基に照明制御データを作成する演算部と、
前記照明制御データに基づいて制御される複数の照明器具と、
を備え、
前記演算部は、
前記画像データの画像フレームから所定領域を切り出し、当該切り出された所定領域の画像情報から、当該切り出された所定領域に対応した前記照明器具を制御するための前記照明制御データを作成し、かつ、
前記画像データにおいて前記画像フレームが変わることにより前記所定領域の色相が変化する場合に、制御される前記照明器具の彩度または明度を低下させてから色相を変化させるような前記照明制御データを作成する、照明システム。
An illumination system for use with an image display device that displays image data,
A calculation unit for creating illumination control data based on the image data;
A plurality of lighting fixtures controlled based on the lighting control data;
With
The computing unit is
Cut out a predetermined area from the image frame of the image data, create the illumination control data for controlling the lighting fixture corresponding to the cut out predetermined area from the image information of the cut out predetermined area , and
In the image data, when the hue of the predetermined area changes due to the change of the image frame, the lighting control data is generated so that the hue is changed after the saturation or brightness of the lighting fixture to be controlled is lowered. to, the lighting system.
前記所定領域は、前記画像フレームの周辺領域である、請求項1に記載の照明システム。    The illumination system according to claim 1, wherein the predetermined area is a peripheral area of the image frame. 前記所定領域は、前記画像フレームの左右の周辺領域である、請求項2に記載の照明システム。    The illumination system according to claim 2, wherein the predetermined area is a peripheral area on the left and right of the image frame. 前記演算部は、
カテゴリ分けされた色カテゴリの情報から、前記画像データにおいて前記画像フレームが変わることにより前記色カテゴリを超えて前記所定領域の色相が変化する場合に、制御される前記照明器具の彩度または明度を低下させてから色相を変化させるような前記照明制御データを作成する、請求項に記載の照明システム。
The computing unit is
When the hue of the predetermined area changes beyond the color category due to the change of the image frame in the image data, the saturation or brightness of the luminaire to be controlled is determined from the information of the categorized color category. to create the illumination control data, such as changing the color, and thus reduce, illumination system as claimed in claim 1.
前記照明器具は、R(赤)、G(緑)、B(青)に割り当てられた、蛍光灯またはLEDから構成されている、請求項1からまでのいずれか一つに記載の照明システム。The said lighting fixture is comprised from the fluorescent lamp or LED allocated to R (red), G (green), and B (blue), The illumination system as described in any one of Claim 1 to 4 . 前記映像表示デバイスの背面方向を照らす前記照明器具は、間接照明によって背面方向を照らす照明器具である、請求項1からまでのいずれか一つに記載の照明システム。The lighting system according to any one of claims 1 to 5 , wherein the lighting fixture that illuminates the back direction of the video display device is a lighting fixture that illuminates the back direction by indirect illumination. 請求項に記載の照明システムを備える、映像表示デバイス。An image display device comprising the illumination system according to claim 6 . 画像表示デバイスに表示される画像データと連動させて照明器具を制御するための照明制御方法であって、
前記画像データの画像フレームから所定領域を切り出すステップと、
前記画像データの画像フレームが変わることにより、前記画像フレームから切り出した所定の領域の色相が変化する場合に、切り出された所定領域に対応した照明器具の彩度または明度を低下させてから色相を変化させるような前記照明制御データを作成するステップと、
前記照明制御データにより複数の前記照明器具を制御するステップと、
を含む照明制御方法。
A lighting control method for controlling a lighting fixture in conjunction with image data displayed on an image display device,
Cutting out a predetermined area from an image frame of the image data;
When the hue of a predetermined area cut out from the image frame changes due to a change in the image frame of the image data, the hue is reduced after reducing the saturation or lightness of the luminaire corresponding to the cut out predetermined area. Creating the lighting control data to be changed ;
Controlling the plurality of lighting fixtures according to the lighting control data;
Including a lighting control method.
JP2000163828A 2000-05-31 2000-05-31 LIGHTING SYSTEM, VIDEO DISPLAY DEVICE, AND LIGHTING CONTROL METHOD Expired - Fee Related JP4399087B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000163828A JP4399087B2 (en) 2000-05-31 2000-05-31 LIGHTING SYSTEM, VIDEO DISPLAY DEVICE, AND LIGHTING CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000163828A JP4399087B2 (en) 2000-05-31 2000-05-31 LIGHTING SYSTEM, VIDEO DISPLAY DEVICE, AND LIGHTING CONTROL METHOD

Publications (3)

Publication Number Publication Date
JP2001343900A JP2001343900A (en) 2001-12-14
JP2001343900A5 JP2001343900A5 (en) 2006-04-13
JP4399087B2 true JP4399087B2 (en) 2010-01-13

Family

ID=18667530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000163828A Expired - Fee Related JP4399087B2 (en) 2000-05-31 2000-05-31 LIGHTING SYSTEM, VIDEO DISPLAY DEVICE, AND LIGHTING CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP4399087B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104206020A (en) * 2012-03-01 2014-12-10 皇家飞利浦有限公司 Methods and apparatus for interpolating low frame rate transmissions in lighting systems
KR101544069B1 (en) * 2012-08-07 2015-08-12 엘지디스플레이 주식회사 A light emitting diode display and method for driving the same

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0211898D0 (en) * 2002-05-23 2002-07-03 Koninkl Philips Electronics Nv Controlling ambient light
US20060062424A1 (en) * 2002-07-04 2006-03-23 Diederiks Elmo M A Method of and system for controlling an ambient light and lighting unit
DE10252698B3 (en) * 2002-11-13 2004-08-12 Loewe Opta Gmbh Electronic entertainment device with reception and display of electronic program guide data listed according to different program themes
KR101117591B1 (en) * 2004-01-05 2012-02-24 코닌클리케 필립스 일렉트로닉스 엔.브이. Flicker-free adaptive thresholding for ambient light derived from video content mapped through unrendered color space
KR101044709B1 (en) * 2004-01-05 2011-06-28 코닌클리케 필립스 일렉트로닉스 엔.브이. Method for extracting and processing video content encoded in a rendered color space to be emulated by an ambient light source
JP4556022B2 (en) * 2004-04-09 2010-10-06 学校法人立命館 Illumination system for preventing desaturation and illumination method for preventing desaturation
JP4730813B2 (en) * 2005-03-29 2011-07-20 Kddi株式会社 Moving image data classification device
JP2007025111A (en) * 2005-07-14 2007-02-01 Sharp Corp System, method and program for presenting video image, and recording medium thereof
JPWO2007052395A1 (en) * 2005-10-31 2009-04-30 シャープ株式会社 Viewing environment control device, viewing environment control system, viewing environment control method, data transmission device, and data transmission method
EP1964451B1 (en) * 2005-12-15 2011-07-06 Koninklijke Philips Electronics N.V. System and method for creating artificial atmosphere
BRPI0709260A2 (en) * 2006-03-31 2011-06-28 Koninkl Philips Electronics Nv method for rendering image content, application embedded in a computer readable medium, processor for rendering image content, auxiliary image signal, and method for generating auxiliary data for displaying elements on a secondary display in the vicinity of a primary display
CN101427577A (en) * 2006-04-19 2009-05-06 夏普株式会社 Data transmitting device, data transmitting method, audiovisual environment control device, audiovisual environment control system and audiovisual environment control method
WO2007145064A1 (en) * 2006-06-13 2007-12-21 Sharp Kabushiki Kaisha Data transmitting device, data transmitting method, audio-visual environment control device, audio-visual environment control system, and audio-visual environment control method
ES2436019T3 (en) * 2006-06-26 2013-12-26 Koninklijke Philips N.V. Device to generate light
JP2009543281A (en) * 2006-06-27 2009-12-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Color navigation system
WO2008068698A1 (en) * 2006-12-08 2008-06-12 Koninklijke Philips Electronics N.V. Ambient lighting
JP5059026B2 (en) * 2006-12-28 2012-10-24 シャープ株式会社 Viewing environment control device, viewing environment control system, and viewing environment control method
JP4948548B2 (en) * 2006-12-28 2012-06-06 シャープ株式会社 Transmission device, viewing environment control device, and viewing environment control system
JP2008193605A (en) * 2007-02-07 2008-08-21 Pioneer Electronic Corp Irradiation state control method
CN101658070A (en) * 2007-03-13 2010-02-24 皇家飞利浦电子股份有限公司 Method of controlling the lighting of a room in accordance with an image projected onto a projection surface
JP4922853B2 (en) * 2007-07-12 2012-04-25 シャープ株式会社 Viewing environment control device, viewing environment control system, and viewing environment control method
ATE507705T1 (en) * 2007-08-17 2011-05-15 Koninkl Philips Electronics Nv APPARATUS AND METHOD FOR DYNAMIC COLOR CHANGE
JP2009060541A (en) * 2007-09-03 2009-03-19 Sharp Corp Data transmission device and method, and viewing environment control device and method
JP5074864B2 (en) * 2007-09-03 2012-11-14 シャープ株式会社 Data transmission device, data transmission method, viewing environment control device, viewing environment control system, and viewing environment control method
JP2009122367A (en) * 2007-11-14 2009-06-04 Sharp Corp Image display device and image display method
KR20110042067A (en) * 2008-07-15 2011-04-22 샤프 가부시키가이샤 Data transmission device, data reception device, method for transmitting data, method for receiving data, and method for controlling audio-visual environment
BRPI0916465A2 (en) * 2008-07-15 2018-02-06 Sharp Kk data transmission apparatus, data transmission method, audiovisual environment control apparatus, audiovisual environment control system and audiovisual environment control method
JP2010041249A (en) * 2008-08-01 2010-02-18 Sharp Corp Dimming method, video processor, display device and dimming calculator
JP5442643B2 (en) * 2009-01-27 2014-03-12 シャープ株式会社 Data transmission device, data transmission method, viewing environment control device, viewing environment control method, and viewing environment control system
CN102292725A (en) * 2009-01-27 2011-12-21 夏普株式会社 Data structure for perception effect information, device for outputting perception effect information, method of outputting perception effect information, perception effect information generating device, control device, system, program and recording
JP5426943B2 (en) * 2009-06-29 2014-02-26 パナソニック株式会社 Dimming control device for LED and lighting apparatus using the same
JP5622372B2 (en) * 2009-09-10 2014-11-12 任天堂株式会社 Image display system and lighting device
JP2011086437A (en) * 2009-10-14 2011-04-28 Nintendo Co Ltd Image display system, lighting system, information processing device, and control program
CN102656950B (en) * 2009-12-17 2015-06-17 皇家飞利浦电子股份有限公司 Ambience cinema lighting system
JP2013008453A (en) * 2011-06-22 2013-01-10 Panasonic Corp Lighting system
CN103249214B (en) * 2012-02-13 2017-07-04 飞利浦灯具控股公司 The remote control of light source
RU2015125551A (en) * 2012-11-27 2017-01-11 Конинклейке Филипс Н.В. USE OF THE ENVIRONMENT FOR PROTECTION AGAINST COPYING VIDEO CONTENT DISPLAYED ON THE SCREEN
US10492274B2 (en) 2013-05-16 2019-11-26 Signify Holding B.V. Camera-based calibration of an ambience lighting system
JP2015101189A (en) * 2013-11-25 2015-06-04 パイオニア株式会社 Onboard display device, head up display, control method, program, and memory medium
JP5965434B2 (en) * 2014-06-17 2016-08-03 任天堂株式会社 Image display system, lighting system, information processing apparatus, and control program
CN105245793B (en) * 2015-09-21 2018-08-14 广东小明网络技术有限公司 A kind of generation method and device of lamp control file
WO2022121114A1 (en) * 2020-12-11 2022-06-16 萤火虫(深圳)灯光科技有限公司 Lighting module control method, lighting module, electronic device, and storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104206020A (en) * 2012-03-01 2014-12-10 皇家飞利浦有限公司 Methods and apparatus for interpolating low frame rate transmissions in lighting systems
CN104206020B (en) * 2012-03-01 2016-10-26 皇家飞利浦有限公司 Method and apparatus for the transmission of interpolation low frame rate rate in the illumination system
KR101544069B1 (en) * 2012-08-07 2015-08-12 엘지디스플레이 주식회사 A light emitting diode display and method for driving the same
US9390677B2 (en) 2012-08-07 2016-07-12 Lg Display Co., Ltd. Light emitting diode display device with image data dependent compensation and method for driving the same

Also Published As

Publication number Publication date
JP2001343900A (en) 2001-12-14

Similar Documents

Publication Publication Date Title
JP4399087B2 (en) LIGHTING SYSTEM, VIDEO DISPLAY DEVICE, AND LIGHTING CONTROL METHOD
JP4950988B2 (en) Data transmission device, data transmission method, viewing environment control device, viewing environment control system, and viewing environment control method
WO2018092465A1 (en) Display device
US6611297B1 (en) Illumination control method and illumination device
JP4780422B2 (en) Image display apparatus and method
JP5058157B2 (en) Data transmission device, data transmission method, viewing environment control device, viewing environment control system, and viewing environment control method
JP5357147B2 (en) Multi-primary conversion
JP5085793B1 (en) Video display device and television receiver
US20100265281A1 (en) Image display device
JP5161228B2 (en) Color conversion method for environmental lighting system or general lighting system
EP1551178A1 (en) Supplementary visual display system
JP2004325629A (en) Display device and its dimming method
KR102176398B1 (en) A image processing device and a image processing method
JP2006295942A (en) Preparation method of preferred data of user and recording medium
JP2000173783A5 (en)
JP2008536165A (en) Color conversion unit to reduce stripes
TW201117166A (en) Image display apparatus and method
JP2005057410A (en) Apparatus and method of outputting video image
BRPI0720838A2 (en) IMAGE SIGNAL PROCESSING DEVICE
US11051376B2 (en) Lighting method and system to improve the perspective colour perception of an image observed by a user
JP2004282661A (en) Gradation characteristic control of image signal representing image in which images of different features mixedly exist
JP2009081822A (en) Data transmission device and method, and view environment control apparatus, system and method
JP2002333858A (en) Image display device and image reproducing method
JP5166794B2 (en) Viewing environment control device and viewing environment control method
JP5143959B1 (en) Video display device and television receiver

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091026

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4399087

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131030

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees