JP2004061150A - Prediction method and prediction program of feeling of brightness - Google Patents

Prediction method and prediction program of feeling of brightness Download PDF

Info

Publication number
JP2004061150A
JP2004061150A JP2002216167A JP2002216167A JP2004061150A JP 2004061150 A JP2004061150 A JP 2004061150A JP 2002216167 A JP2002216167 A JP 2002216167A JP 2002216167 A JP2002216167 A JP 2002216167A JP 2004061150 A JP2004061150 A JP 2004061150A
Authority
JP
Japan
Prior art keywords
brightness
sense
luminance
target area
feeling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002216167A
Other languages
Japanese (ja)
Other versions
JP3995201B2 (en
Inventor
Yoshiki Nakamura
中村 芳樹
Mitsunori Egawa
江川 光徳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rikogaku Shinkokai
Original Assignee
Rikogaku Shinkokai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rikogaku Shinkokai filed Critical Rikogaku Shinkokai
Priority to JP2002216167A priority Critical patent/JP3995201B2/en
Publication of JP2004061150A publication Critical patent/JP2004061150A/en
Application granted granted Critical
Publication of JP3995201B2 publication Critical patent/JP3995201B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a prediction method and a prediction program of feeling of brightness which quantitatively and precisely predict feeling of brightness of an object area in a brightness distribution image. <P>SOLUTION: This invention includes: a process S1 for obtaining the brightness distribution image; a process S2 for specifying the prediction object area in the brightness distribution image; a process S4 for calculating a first feeling of brightness on the assumption that brightness in the prediction object area is evenly distributed; a process S5 for calculating a second feeling of brightness by contrast of brightness of the prediction object area and other respective brightness in the brightness distribution image; and a process S6 for predicting feeling of brightness of the prediction object area in consideration of both the first and the second feeling of brightness. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、光環境の設計に好適な明るさ感の予測方法および予測プログラムに関する。
【0002】
【従来の技術】
従来より、照明器具の配置などに応じて作り出される光環境(つまり空間の輝度分布)のシミュレーションが行われている。そして、この照明シミュレーションによって予測された輝度分布の画像は、光環境の設計時に、参照画像として利用されている。
【0003】
【発明が解決しようとする課題】
しかしながら、人間の明るさの感覚(本明細書では「明るさ感」という)は、輝度の値とは直接対応していない。例えば、輝度分布画像の中の対象領域より周辺領域の方が低輝度の場合と、逆に周辺領域の方が高輝度の場合を比較すると、対象領域の輝度は同じであっても、前者の方が対象領域を“明るい”と感じるはずである。
【0004】
このため、従来のように、照明シミュレーションによって正確な輝度分布を予測し、得られた輝度分布の画像を参照しても、光環境の設計時に、その光環境を充分に検討することはできなかった。対象領域の輝度が同じでも周辺領域の輝度によって対象領域の明るさ感が変わるからである。
そこで近年、光環境の充分な検討のために、輝度分布画像の中の対象領域の明るさ感を定量的に予測することが望まれるようになってきた。しかし今のところ、現実の空間のように輝度分布が複雑な場合に、対象領域の明るさ感を高い精度で予測できる方法は、まだ提案されていない。
【0005】
既に提案されている方法は、例えば対象領域と周辺領域との主要な輝度の対比に基づいて、明るさ感を予測するものである(井上真弓ら「輝度の対比を考慮した明るさ感」日本建築学会大会学術講演梗概集,2001.9)。この方法では、輝度分布が複雑な場合に、主要な輝度の対比を定義することが難しく、明るさ感の予測精度も低いものであった。
【0006】
本発明の目的は、輝度分布画像の中の対象領域の明るさ感を高い精度で定量的に予測できる明るさ感の予測方法および予測プログラムを提供することにある。
【0007】
【課題を解決するための手段】
本発明の明るさ感の予測方法は、輝度分布画像を取り込む第1工程と、前記輝度分布画像の中の予測対象領域を指定する第2工程と、前記予測対象領域の輝度が均一に分布している場合を想定して、第1明るさ感を算出する第3工程と、前記予測対象領域の輝度と前記輝度分布画像の他の各輝度との対比に基づいて、第2明るさ感を算出する第4工程と、前記第1明るさ感と前記第2明るさ感との双方を考慮して、前記予測対象領域の明るさ感を予測する第5工程とを備えたものである。
【0008】
さらに、好ましくは、前記第5工程において、前記第1明るさ感と前記第2明るさ感とを加算することにより、前記予測対象領域の明るさ感を予測するものである。
本発明の明るさ感の予測プログラムは、輝度分布画像を取り込む第1手順と、前記輝度分布画像の中の予測対象領域を指定する第2手順と、前記予測対象領域の輝度が均一に分布している場合を想定して、第1明るさ感を算出する第3手順と、前記予測対象領域の輝度と前記輝度分布画像の他の各輝度との対比に基づいて、第2明るさ感を算出する第4手順と、前記第1明るさ感と前記第2明るさ感との双方を考慮して、前記予測対象領域の明るさ感を予測する第5手順とをコンピュータに実行させるためものである。
【0009】
さらに、好ましくは、前記第5手順において、前記第1明るさ感と前記第2明るさ感とを加算することにより、前記予測対象領域の明るさ感を予測するものである。
【0010】
【発明の実施の形態】
以下、図面を用いて本発明の実施形態を詳細に説明する。
【0011】
本実施形態の明るさ感の予測方法は、図1(a),(b)に示すフローチャートの手順にしたがって、コンピュータが実行する。本実施形態を実現する装置は、専用のコンピュータでも良いし、明るさ感の予測プログラムがインストールされた汎用のコンピュータでも良い。なお、汎用のコンピュータに予測プログラムをインストールするには、予測プログラムが記録された記録媒体(CD−ROMなど)を用いれば良い。または、インターネットを介してダウンロード可能な搬送波(予測プログラムを含む)を用いても良い。
【0012】
コンピュータは、まず、図1(a)のステップS1において、輝度分布画像を取り込む。輝度分布画像は、任意の照明シミュレーションによって予測された空間の輝度分布に関わるディジタル画像であり、輝度の値の空間依存性を表している。照明シミュレーションとは、例えば室内で照明器具の配置などに応じて作り出される光環境のシミュレーションのことである。
【0013】
コンピュータは、ステップS1で輝度分布画像を取り込むと、この輝度分布画像の中の対象領域(明るさ感の予測対象領域)が指定されるまで待機する(ステップS2)。そして、対象領域が指定されると(S2がY)、対象領域の輝度を検出する(ステップS3)。以下、対象領域の輝度を「対象輝度Lt」という。対象輝度Ltの単位は“cd/m”である。
【0014】
次に、コンピュータは、ステップS3で検出した対象輝度Ltを次式(1)に代入することにより、均一輝度での明るさ感Buを算出する(ステップS4)。均一輝度での明るさ感Buとは、ステップS3で検出した対象輝度Ltが視角180°全体に均一に分布していると仮定したときの明るさ感である。式(1)から分かるように、均一輝度での明るさ感Buは、対象輝度Ltの対数値に比例している。式(1)の導出および係数の決定については最後に説明する。
【数3】

Figure 2004061150
さらに、コンピュータは、ステップS3で検出した対象輝度Ltと、ステップS1で取り込んだ輝度分布画像の他の各輝度とを用いて、輝度の対比効果による明るさ感Bcを算出する(ステップS5)。この明るさ感Bcは、次式(2)に基づいて算出される。式(2)のパラメータのうち、“Lt”はステップS3で検出した対象輝度、“λi”,“pi”は後述する検出波長,対比量である。式(2)に基づく明るさ感Bcの算出手順は、図1(b)の通りである。
【数4】
Figure 2004061150
コンピュータは、まず初めに、検出波長λiごとの対比量piを計算する(ステップS11)ために、図2および次式(3)に示すNフィルタを用いて、輝度分布画像をフィルタリングする。図2の横軸は対象領域の中心(0,0)からの距離 √(x+y)を表し、縦軸は重み係数N(x,y)を表し、(x,y)は位置を表す。Nフィルタは、輝度分布画像の中から特定の空間周波数f[cycle/deg]の輝度変化を検出するための関数である。Nフィルタには、全領域で積分すると0になるという特徴がある。
【数5】
Figure 2004061150
Nフィルタを用いたフィルタリングは、Nフィルタの重み係数N(x,y)を用いて、輝度分布画像の各々の輝度を加算することにより行われる。この重み付け加算の結果として得られる量を「対比量p」という。なお、対比量pは、請求項の「フィルタリングの結果」に対応する。
対比量pは、Nフィルタの空間周波数fに依存した量であり、輝度分布画像の中に空間周波数fの輝度変化がどの程度の強さで含まれているかを表している。つまり、Nフィルタを用いることで、対象領域を中心とした空間周波数fの輝度変化を定量化することができる。
【0015】
さらに、Nフィルタの空間周波数fの設定を連続的に変化させながら、同様の重み付け加算を行うことで、輝度分布画像の中に含まれる様々な空間周波数fの輝度変化を定量化し、対比量pを求めることができる。空間周波数fに対する対比量pは、例えば図3(a)に示すようになる。図3(a)の横軸は、空間周波数fの逆数に相当する波長1/f[deg]であり、縦軸は対比量pを表す。以下の説明では“空間周波数”の代わりに“波長”を用いる。
【0016】
なお、実際の計算では、対比量pの値を計算するに当たり、Nフィルタの波長1/fの設定を連続的ではなく、離散的に変化させる。そして、各々の波長1/fごとに対比量pを検出する。以下、各々の波長1/fを「検出波長λi」、検出波長λiに対応する対比量pを「対比量pi」という(iは整数)。前述の通り、対比量piは、輝度分布画像の中に検出波長λiの輝度変化がどの程度の強さで含まれているかを表している。
【0017】
この場合、対比量piは、図3(b)に示すような棒グラフ状になる。図3(b)の下の横軸は検出波長λi[deg]を表し、上の横軸は検出波長λiの対数値を表し、縦軸は対比量piを表している。離散的な検出波長λiの刻み幅は、本実施形態では、例えば対数値の“0.4”とした。この間隔は、検出波長λiを視角に変換したとき、視角0.01°〜179°を15等分したことに相当する。この場合、検出波長λi,対比量piの添字iは、1〜15の整数となる。
【0018】
このように、コンピュータは、図1(b)のステップS11において、Nフィルタの検出波長λiの設定を離散的に変化させるごとに(i=1〜15)、同様の重み付け加算を行い、輝度分布画像の中に含まれる様々な検出波長λiの輝度変化を定量化し、対比量pi求めていく(コントラスト・プロファイルの作成)。次に、コンピュータは、ステップS11で計算した検出波長λi,対比量piと、ステップS3で検出した対象輝度Ltとを式(2)に代入することにより、各々の対比量piを重み付け加算する(ステップS12)。式(2)の導出および重み係数(pi0.506,pi0.224の係数)の決定については最後に説明する。なお、重み係数が0未満となる場合は、その重み係数を0として計算する。
【0019】
ここで、式(2)の各々の対比量piの重み係数には検出波長λiが含まれており、この検出波長λiに比例して重み係数が小さくなる。これは、輝度分布画像の中の粗い輝度変化(λiが大)に比べて、細かい輝度変化(λiが小)の方が、通常、明るさ感に大きな影響を与えるからである。つまり、各々の対比量piの重み係数は、輝度変化の粗密に応じた明るさ感への効果を表している。
【0020】
したがって、ステップS12における重み付け加算は、粗い輝度変化(λiが大)に対応する対比量piほど小さな重み係数を付けて加算し、細かい輝度変化(λiが小)に対応する対比量piほど大きな重み係数を付けて加算する処理となる。このステップS12の処理を行うことで、輝度の対比効果による明るさ感Bcを定量的に算出することができる(図1(a)のステップS5)。
【0021】
次に、コンピュータは、ステップS6の処理に進む。そして、次式(4)に基づいて、ステップS4で算出した“均一輝度での明るさ感Bu”と、ステップS5で算出した“輝度の対比効果による明るさ感Bc”とを加算し、輝度分布画像の中の対象領域の明るさ感Bを算出する。ステップS2で指定された対象領域の明るさ感の予測は、これで終了となる。式(4)の導出も最後に説明する。
【数6】
Figure 2004061150
図1(a),(b)に示すフローチャートの手順にしたがってコンピュータが予測した対象領域の明るさ感Bは、図4に示す評価尺度の数値(1〜13)として得られる。このため、明るさ感Bの数値(1〜13)に対応する形容詞(非常に暗い〜非常に明るい)を知ることで、人間の感覚に適応した“明るさ感”を把握することができる。
【0022】
なお、図4の評価尺度は、光環境の設計の分野で一般的に使われている明るさ感の形容詞(非常に暗い〜非常に明るい)に対し、便宜的に、数値(1〜13)を割り振ったものである。
(精度の評価1)
次に、上述した明るさ感の予測式(式(1),(2),(4))の精度を評価するため、予測結果(明るさ感Bの予測値)と、後述の実験による実測値との比較を行う。
【0023】
評価用の輝度分布画像として用意されたパターンは、図5(a)に示すように、輝度の異なる3つの領域(対象領域,近接領域,周辺領域)を有する複雑なものである。また、近接領域の大きさを可変とする(視角0°,10°,15°,20°,30°,180°)。対象領域の大きさは固定である(視角5°)。さらに、対象領域,近接領域,周辺領域の各々の輝度[cd/m]を図5(b)に示すような組み合わせで変化させる。そして、これら84種類のパターンを用いて評価を行う。
【0024】
各々のパターンにおける対象領域の明るさ感Bの予測値は、上述した図1(a),(b)に示すフローチャートの手順にしたがってコンピュータが求める。ちなみに、図5(b)のパターンNo.7において近接領域の大きさを変化させたとき、検出波長λiごとの対比量piの値(図1(b)のステップS11での計算結果)は、図6に示すようになる。実際の計算は離散的に行われるが、図6では連続的に計算したものとして図示した。図6の各々の波形において、2つ目のピークは近接領域に対応する。
【0025】
また、各パターンにおける対象領域の明るさ感の実測は、図7(a),(b)に示す実験装置を用いて行われる。実験装置は、図7(a)に示すように、視界180°を覆う乳白色のパネル11と、パネル11の中央部から外側に向けて取り付けられた黒紙の筒12と、筒12の先端部に取り付けられた昼白色の蛍光ランプ13と、筒12の他方(パネル11側)の端部に取り付けられたフィルム15と、パネル11の外側全体に設けられた多数の蛍光灯14とで構成されている。
【0026】
上記した84種類のパターンの各々において、対象輝度Ltは蛍光ランプ13の光量によって調整され、近接領域の輝度はフィルム15の透過率によって調整され、周辺領域の輝度は蛍光灯14の光量によって調整され、近接領域の大きさは筒12の径によって調整される。
この実験装置を用いた明るさ感の測定は、暗幕で遮光された部屋の中で行った。被験者は、眼鏡などによる補正視力を含む正常視力1.0以上を持つ20代の男女9名である。実際の測定は、評価が安定するように、各々のパターンごとに2〜3回(/1名)行った。84種類のパターンは、各々、被験者に対してランダムに提示した。
【0027】
また、この実験装置を用いた明るさ感の測定とは、被験者が各々の感覚にしたがい、提示された各パターンの対象領域の明るさ感として、図4の評価尺度の数値(1〜13)から1つを選択するものである。被験者ごとに選択された評価尺度の数値は、各パターンごとに平均化され、得られた平均値を“実測値”とする。
上記のようにして求められた各々のパターンの明るさ感の予測値と実測値との比較を図8に示す。図8の横軸は実測値を表し、縦軸は予測値を表している。図8から分かるように、各々のパターンの実測値と予測値との組み合わせを表す点(◆)は、ほぼ45°ライン上に集まっている。誤差は、評価尺度での±1程度である。
【0028】
以上の結果から、本実施形態の明るさ感の予測式(式(1),(2),(4))は、充分に高精度なものと言うことができる。すなわち、本実施形態の明るさ感の予測方法によれば、輝度分布が複雑な場合でも、輝度分布画像の中の対象領域の明るさ感を高い精度で定量的に予測することができる。
(精度の評価2)
次に、現実の空間における輝度分布(外の建築物や照明空間を撮影した10枚の白黒写真)を用いて、上述した明るさ感の予測式(式(1),(2),(4))の精度を評価する。
【0029】
各々の輝度分布における対象領域の明るさ感Bを予測するために、まず、各々の白黒写真を画像化する。そして、得られた輝度分布画像に基づいて、上述した図1(a),(b)に示すフローチャートの手順にしたがって、対象領域の明るさ感Bを予測する。
また、各々の輝度分布における対象領域の明るさ感の実測は、暗幕で遮光された部屋の中で、被験者の目前に配置された乳白色のパネル(平板状)に対し、各々の白黒写真をOHPなどにより投影することで行った。そして被験者は、投影写真の対象領域の明るさ感として、図4の評価尺度の数値(1〜13)から1つを選択する。また、被験者ごとに選択された評価尺度の数値は、各写真ごとに平均化され、得られた平均値を“実測値”とする。
【0030】
上記のようにして求められた各々の輝度分布(白黒写真)の明るさ感の予測値と実測値との比較を図9に示す。図9の横軸は写真No.を表し、縦軸は予測値(□),実測値(■)を表す。図9から分かるように、各々の写真の実測値と予測値とは、非常に近い値を示している。誤差は、評価尺度での±1程度である。
以上の結果からも、本実施形態の明るさ感の予測式(式(1),(2),(4))は、充分に高精度なものと言うことができる。すなわち、本実施形態の明るさ感の予測方法によれば、現実の空間のように輝度分布が複雑な場合でも、輝度分布画像の中の対象領域の明るさ感を高い精度で定量的に予測することができる。
【0031】
(変形例)
なお、上記した実施形態では、図1(a)のフローチャートにしたがい、「均一輝度での明るさ感Bu」を先に算出して(S4)、次に「輝度の対比効果による明るさ感Bc」を算出した(S5)が、その順番は逆でもよい。
また、上記した実施形態では、図1(a)のステップS6において「均一輝度での明るさ感Bu」と「輝度の対比効果による明るさ感Bc」を単純に加算したが、本発明はこれに限定されない。他に、例えば、明るさ感Bu,Bcの少なくとも一方に対して何らかの係数を掛けた後に加算してもよい。加算に限らず、減算や乗算や除算などでも構わない。
【0032】
このように、明るさ感Bu,Bcから対象領域の明るさ感Bを求める際の計算法を変えた場合には、その計算法に応じて、図4の評価尺度の形容詞(非常に暗い〜非常に明るい)に割り振る数値を変えることが好ましい。
さらに、上記した実施形態では、図1(b)のステップS11において「検出波長λiごとの対比量pi」を計算する際、離散的な検出波長λiの刻み幅を対数値の“0.4”としたが、他の任意の値を用いることができる。検出波長λiの刻み幅を変更した場合は、明るさ感の予測式のうち、式(2)の係数“0.4”を併せて変更することが好ましい。
【0033】
(補足)
最後に、上述した明るさ感の予測式(式(1),(2),(4))の導出および係数の決定について説明する。
予測式の導出のために輝度分布画像として用意されたパターンは、図10(a)に示すように、輝度の異なる2つの領域(対象領域,周辺領域)を有し、対象領域の大きさが可変である(視角0.1°,0.5°,1°,2°,5°,10°,15°,20°,30°,60°,180°)。さらに、対象輝度Lt[cd/m]、および対象領域と周辺領域との輝度比C(=対象輝度/周辺輝度)を、図10(b)に示すような組み合わせで変化させる。そして、これらのパターンを用いて次の実験を行う。
【0034】
ここでの実験は、図7(a),(b)に示す実験装置からフィルム15を取り除いた状態で、対象領域の大きさを筒12の径によって調整しながら、上記した“精度の評価1”と同様に行う。そして被験者は、提示された各パターンの対象領域の明るさ感として、図4の評価尺度の数値(1〜13)から1つを選択する。被験者ごとに選択された評価尺度の数値は、各パターンごとに平均化され、得られた平均値が“実測値”として予測式の導出に用いられる。
【0035】
各パターンの明るさ感の実測値を例えば輝度比100と輝度比0.3について図示すると、図11,図12のようになる。図11,図12の横軸は対象領域の大きさ( deg’)を表す対数軸であり、縦軸は明るさ感の実測値を表している。図11,図12の“×”,“▲”,“■”,“●”,“◆”は、対象輝度Ltが3000,300,30,3,0.3[cd/m]の実測値に対応する。
【0036】
図11から分かるように、輝度比>1(対象領域の方が高輝度)の場合、対象領域が大きくなると、明るさ感は低下する傾向を示す。また、図12から分かるように、輝度比<1(対象領域の方が低輝度)の場合には、傾向が逆であり、対象領域が大きくなると、明るさ感は増加する。
また、対象領域の大きさが“∞”とは、各パターンの対象領域の視角180°に対応する。つまり、対象輝度Ltが視界180°全体に均一に分布している状態のことである。このため、対象領域の大きさが“∞”のときの実測値は、均一輝度での明るさ感Buに対応する。そこで、各パターンの明るさ感の実測値のうち、対象領域の大きさが“∞”のときの実測値と対象輝度Ltの関係(図13)に基づいて、均一輝度での明るさ感Buの予測式(式(1))を導出することができる。
【0037】
さらに、輝度の対比効果による明るさ感Bcは、対象領域の大きさが“∞”のときの実測値(図11,図12のBu参照)と有限のときの実測値との差に相当すると考えることができる。図11のように輝度比>1(対象領域の方が高輝度)の場合、輝度の対比効果による明るさ感Bcは“プラス”の値を持ち、図12のように輝度比<1(対象領域の方が低輝度)の場合、輝度の対比効果による明るさ感Bcは“マイナス”の値を持つことになる。
【0038】
輝度の対比効果による明るさ感Bcの予測式(式(2))を導出するため、図14に示すように、対象領域の大きさが有限の範囲(点線枠内)における明るさ感の変化を直線で近似し、その傾きKを求める。ただし、近似直線が視角60°の実測値を通るようにした。
各パターンごとに求めた傾きKは、図15に示すようになる。傾きKの符号は、輝度比>1(対象領域の方が高輝度)の場合は“マイナス”、輝度比<1(対象領域の方が低輝度)の場合は“プラス”である。
【0039】
繰り返しになるが、各々の傾きKは、対象輝度Ltと輝度比Cを一定の値に保ちながら、対象領域の大きさを有限の範囲(例えば図14の点線枠内)で変化させたときに、その大きさの変化に応じて、輝度の対比効果による明るさ感Bcが変化する割合を表している。
これらの傾きKと対象輝度Ltと輝度比Cとの関係(図15)に基づいて、任意の対象輝度Ltと輝度比Cに対応する傾きK(Lt,C)を求めると、次式(5)のようになる。
【数7】
Figure 2004061150
式(5)の“−0.155logLt+0.611”と“−0.263logLt+1.229”は、各々、対象輝度Ltによる明るさ感Bcへの効果を表している。また、輝度比Cの対数値の乗数である“0.506”と“0.224”は、各々、対象領域の大きさによる明るさ感Bcへの効果を表している。
そして次に、“輝度分布画像を上記Nフィルタでフィルタリングしたときに得られる対比量pi”が“輝度比Cの対数値”に比例する点を考慮し、輝度の対比効果による明るさ感Bcを次式(6)のように表すことにする。式(6)の“ai”と“bi”は、各々、重み係数である。“0.4”は、離散的な検出波長λiの刻み幅を表す対数値である。
【数8】
Figure 2004061150
この式(6)に対して既知のBc,piの組み合わせを代入し、輝度比>1,輝度比<1の各々で重回帰分析を行うことにより、重み係数ai,biの各々を次式(7),(8)のように決定することができる。“λi”は検出波長である。
【数9】
Figure 2004061150
最後に、重回帰分析により決定した重み係数ai,bi(式(7),(8))を上記の式(6)に代入することで、輝度の対比効果による明るさ感Bcの予測式(式(2))を導出できたことになる。
【0040】
なお、輝度の分布を用いて明るさ感を予測する例を説明したが、本発明はこれに限定されない。明るさ感を予測するために、照度や光束発散度の分布を用いてもよい。
【0041】
【発明の効果】
以上説明したように、本発明によれば、輝度分布画像の中の対象領域の明るさ感を高い精度で定量的に予測することができる。
【図面の簡単な説明】
【図1】本実施形態の明るさ感の予測方法の手順を示すフローチャートである。
【図2】Nフィルタを説明する図である。
【図3】波長(空間周波数の逆数)と対比量との関係を例示する図である。
【図4】明るさ感の評価尺度を説明する図である。
【図5】精度の評価1で使用した各パターンを説明する図である。
【図6】波長と対比量の関係が近接領域の大きさによって変化する様子の説明図である。
【図7】明るさ感の実測に用いる実験装置の構成を示す概略図である。
【図8】図5の各パターンを用いたときの明るさ感の予測精度を示す図である。
【図9】現実の空間における輝度分布(白黒写真)を用いたときの明るさ感の予測精度を示す図である。
【図10】明るさ感の予測式を導出するために使用した各パターンを説明する図である。
【図11】対象領域の大きさによる明るさ感(実測値)の変化を説明する図である。
【図12】対象領域の大きさによる明るさ感(実測値)の変化を説明する図である。
【図13】対象領域の大きさ∞のときの実測値と対象輝度Ltの関係を示す図である。
【図14】対象領域の大きさによる明るさ感(実測値)の変化における直線近似の範囲を示す図である。
【図15】図14の直線近似で求めた各パターンの傾きを示す図である。
【符号の説明】
11 パネル
12 筒
13 蛍光ランプ
14 蛍光灯
15 フィルム[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a brightness prediction method and a prediction program suitable for design of a light environment.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a simulation of a light environment (that is, a spatial luminance distribution) created according to the arrangement of lighting devices and the like has been performed. The image of the luminance distribution predicted by the lighting simulation is used as a reference image when designing the light environment.
[0003]
[Problems to be solved by the invention]
However, a human sense of brightness (referred to as “brightness” in this specification) does not directly correspond to a luminance value. For example, comparing the case where the peripheral region has lower luminance than the target region in the luminance distribution image and the case where the peripheral region has higher luminance than the target region in the luminance distribution image, even if the luminance of the target region is the same, The user should feel the target area as “bright”.
[0004]
For this reason, as in the prior art, even if an accurate luminance distribution is predicted by lighting simulation and an image of the obtained luminance distribution is referred to, the light environment cannot be sufficiently considered when designing the light environment. Was. This is because even if the brightness of the target area is the same, the brightness of the target area changes depending on the brightness of the peripheral area.
Therefore, in recent years, it has been desired to quantitatively predict the sense of brightness of a target region in a luminance distribution image in order to sufficiently study the light environment. However, at present, no method has been proposed yet that can predict the brightness of the target area with high accuracy when the luminance distribution is complicated as in the real space.
[0005]
A method that has already been proposed predicts a sense of brightness based on, for example, a comparison of the main luminance between the target region and the surrounding region (Mayumi Inoue et al., “Brightness Considering Luminance Contrast,” Japan Abstracts of Architectural Institute of Japan Annual Conference, 20011.9). In this method, when the luminance distribution is complicated, it is difficult to define the main luminance contrast, and the prediction accuracy of the brightness is low.
[0006]
SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and a program for predicting a sense of brightness that can quantitatively predict the sense of brightness of a target area in a brightness distribution image with high accuracy.
[0007]
[Means for Solving the Problems]
The method for predicting a sense of brightness according to the present invention includes a first step of capturing a luminance distribution image, a second step of specifying a prediction target area in the luminance distribution image, and a step of uniformly distributing the luminance of the prediction target area. Assuming the case, the second brightness feeling is calculated based on the third step of calculating the first brightness feeling, and comparing the brightness of the prediction target area with each of the other brightnesses of the brightness distribution image. A fourth step of calculating; and a fifth step of predicting a sense of brightness of the prediction target area in consideration of both the first sense of brightness and the second sense of brightness.
[0008]
Still preferably, in the fifth step, the brightness sensation of the prediction target area is predicted by adding the first brightness sensation and the second brightness sensation.
According to the brightness feeling prediction program of the present invention, a first procedure for capturing a luminance distribution image, a second procedure for specifying a prediction target area in the luminance distribution image, and a method in which the luminance of the prediction target area is uniformly distributed. Assuming the case, the second brightness feeling is calculated based on the third procedure of calculating the first brightness feeling and the comparison between the brightness of the prediction target area and each of the other brightnesses of the brightness distribution image. A fourth procedure for calculating and a fifth procedure for predicting a brightness sensation of the prediction target area in consideration of both the first brightness sensation and the second brightness sensation. It is.
[0009]
Still preferably, in the fifth step, the sense of brightness of the prediction target area is predicted by adding the first sense of brightness and the second sense of brightness.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0011]
The method for estimating the sense of brightness according to the present embodiment is executed by a computer according to the procedure of the flowcharts shown in FIGS. 1 (a) and 1 (b). A device for realizing the present embodiment may be a dedicated computer or a general-purpose computer on which a brightness prediction program is installed. In order to install the prediction program on a general-purpose computer, a recording medium (such as a CD-ROM) on which the prediction program is recorded may be used. Alternatively, a carrier wave (including a prediction program) downloadable via the Internet may be used.
[0012]
First, in step S1 of FIG. 1A, the computer captures a luminance distribution image. The luminance distribution image is a digital image related to the luminance distribution in the space predicted by an arbitrary lighting simulation, and represents the spatial dependence of the luminance value. The lighting simulation is, for example, a simulation of a light environment created indoors according to the arrangement of the lighting equipment.
[0013]
When the computer takes in the luminance distribution image in step S1, the computer waits until a target area (a target area for predicting brightness) in the luminance distribution image is specified (step S2). When the target area is designated (Y in S2), the luminance of the target area is detected (step S3). Hereinafter, the luminance of the target area is referred to as “target luminance Lt”. The unit of the target luminance Lt is “cd / m 2 ”.
[0014]
Next, the computer calculates the brightness sense Bu with uniform brightness by substituting the target brightness Lt detected in step S3 into the following equation (1) (step S4). The sense of brightness Bu at uniform brightness is a sense of brightness assuming that the target brightness Lt detected in step S3 is uniformly distributed over the entire viewing angle of 180 °. As can be seen from Expression (1), the sense of brightness Bu at the uniform luminance is proportional to the logarithmic value of the target luminance Lt. The derivation of equation (1) and the determination of the coefficients will be described last.
[Equation 3]
Figure 2004061150
Further, the computer uses the target luminance Lt detected in step S3 and each of the other luminances of the luminance distribution image captured in step S1 to calculate a brightness feeling Bc due to the luminance contrast effect (step S5). This sense of brightness Bc is calculated based on the following equation (2). In the parameters of equation (2), “Lt” is the target luminance detected in step S3, and “λi” and “pi” are the detected wavelength and the amount of comparison, which will be described later. The calculation procedure of the brightness sensation Bc based on the equation (2) is as shown in FIG.
(Equation 4)
Figure 2004061150
First, the computer filters the luminance distribution image using the N filter shown in FIG. 2 and the following equation (3) in order to calculate the comparison amount pi for each detection wavelength λi (step S11). The horizontal axis in FIG. 2 represents the distance √ (x 2 + y 2 ) from the center (0, 0) of the target area, the vertical axis represents the weighting factor N (x, y), and (x, y) represents the position. Represent. The N filter is a function for detecting a luminance change at a specific spatial frequency f 0 [cycle / deg] from the luminance distribution image. The N filter has a feature that when integrated over the entire area, it becomes 0.
(Equation 5)
Figure 2004061150
The filtering using the N filter is performed by adding the respective luminances of the luminance distribution image using the weight coefficient N (x, y) of the N filter. The amount obtained as a result of the weighted addition is referred to as “contrast amount p”. Note that the comparison amount p corresponds to the “result of filtering” in the claims.
The contrast amount p is an amount that depends on the spatial frequency f 0 of the N filter, and indicates how strong the luminance change of the spatial frequency f 0 is included in the luminance distribution image. That is, by using the N filter, it is possible to quantify the change in luminance of the spatial frequency f 0 around the target area.
[0015]
Further, by performing similar weighting addition while continuously changing the setting of the spatial frequency f 0 of the N filter, the luminance change of various spatial frequencies f 0 included in the luminance distribution image is quantified, The quantity p can be determined. The comparison amount p with respect to the spatial frequency f 0 is, for example, as shown in FIG. The horizontal axis in FIG. 3A is the wavelength 1 / f 0 [deg] corresponding to the reciprocal of the spatial frequency f 0 , and the vertical axis represents the contrast p. In the following description, “wavelength” is used instead of “spatial frequency”.
[0016]
In the actual calculation, when calculating the value of the comparison amount p, the setting of the wavelength 1 / f 0 of the N filter is changed not continuously but discretely. Then, to detect the contrast amount p for each wavelength 1 / f 0 of each. Hereinafter, each wavelength 1 / f 0 is referred to as “detection wavelength λi”, and a comparison amount p corresponding to the detection wavelength λi is referred to as “contrast amount pi” (i is an integer). As described above, the contrast amount pi indicates how strong the luminance change of the detection wavelength λi is included in the luminance distribution image.
[0017]
In this case, the comparison amount pi becomes a bar graph as shown in FIG. The lower horizontal axis of FIG. 3B represents the detection wavelength λi [deg], the upper horizontal axis represents the logarithmic value of the detection wavelength λi, and the vertical axis represents the comparison amount pi. In this embodiment, the step size of the discrete detection wavelength λi is, for example, a logarithmic value “0.4”. This interval is equivalent to dividing the viewing angle from 0.01 ° to 179 ° into 15 equal parts when the detection wavelength λi is converted into the viewing angle. In this case, the subscript i of the detection wavelength λi and the comparison amount pi is an integer of 1 to 15.
[0018]
As described above, the computer performs similar weighted addition each time the setting of the detection wavelength λi of the N filter is discretely changed (i = 1 to 15) in step S11 in FIG. The change in luminance at various detection wavelengths λi included in the image is quantified to obtain a comparison amount pi (creation of a contrast profile). Next, the computer weights and adds each comparison amount pi by substituting the detection wavelength λi calculated in step S11 and the comparison amount pi and the target luminance Lt detected in step S3 into Expression (2) ( Step S12). Derivation of equation (2) and determination of the weighting coefficients (coefficients of pi 0.506 and pi 0.224 ) will be described last. If the weight coefficient is less than 0, the calculation is performed with the weight coefficient set to 0.
[0019]
Here, the detection coefficient λi is included in the weight coefficient of each comparison amount pi in equation (2), and the weight coefficient decreases in proportion to the detection wavelength λi. This is because a fine change in luminance (small λi) usually has a greater effect on the sense of brightness than a coarse change in luminance (λi is large) in the luminance distribution image. That is, the weighting coefficient of each comparison amount pi represents the effect on the feeling of brightness according to the density of the luminance change.
[0020]
Therefore, the weighted addition in step S12 is performed by adding a smaller weighting factor to the contrast amount pi corresponding to a coarse luminance change (λi is large) and adding it, and increasing the weight for a contrast amount pi corresponding to a fine luminance change (λi is small). This is a process of adding a coefficient. By performing the processing in step S12, the sense of brightness Bc due to the luminance contrast effect can be quantitatively calculated (step S5 in FIG. 1A).
[0021]
Next, the computer goes to the process of step S6. Then, based on the following equation (4), the “brightness sense Bu at uniform brightness” calculated in step S4 and the “brightness sense Bc due to brightness contrast effect” calculated in step S5 are added, and the brightness is calculated. The brightness B of the target area in the distribution image is calculated. The estimation of the brightness of the target area designated in step S2 is now completed. Derivation of equation (4) will be described last.
(Equation 6)
Figure 2004061150
The brightness B of the target area predicted by the computer according to the procedure of the flowchart shown in FIGS. 1A and 1B is obtained as numerical values (1 to 13) of the evaluation scale shown in FIG. For this reason, by knowing the adjectives (very dark to very bright) corresponding to the numerical values (1 to 13) of the brightness B, the "brightness" adapted to the human sense can be grasped.
[0022]
The evaluation scale of FIG. 4 is a numerical value (1 to 13) for the adjective of brightness (very dark to very bright) commonly used in the field of light environment design. Is allocated.
(Evaluation of accuracy 1)
Next, in order to evaluate the accuracy of the above-mentioned brightness sense prediction formulas (formulas (1), (2), and (4)), a prediction result (brightness sense B predicted value) and an actual measurement by an experiment described later are performed. Compare with value.
[0023]
As shown in FIG. 5A, the pattern prepared as the luminance distribution image for evaluation is a complex pattern having three regions (target region, proximity region, and peripheral region) having different luminances. In addition, the size of the proximity region is made variable (viewing angles 0 °, 10 °, 15 °, 20 °, 30 °, 180 °). The size of the target area is fixed (viewing angle 5 °). Further, the luminance [cd / m 2 ] of each of the target area, the proximity area, and the peripheral area is changed by a combination as shown in FIG. Then, evaluation is performed using these 84 types of patterns.
[0024]
The predicted value of the brightness B of the target area in each pattern is obtained by the computer in accordance with the procedure of the above-described flowcharts shown in FIGS. Incidentally, the pattern No. shown in FIG. 7, when the size of the proximity region is changed, the value of the comparison amount pi for each detection wavelength λi (the calculation result in step S11 in FIG. 1B) is as shown in FIG. Although the actual calculation is performed discretely, it is illustrated in FIG. 6 as being calculated continuously. In each of the waveforms of FIG. 6, the second peak corresponds to the near area.
[0025]
The actual measurement of the brightness of the target area in each pattern is performed using an experimental device shown in FIGS. 7 (a) and 7 (b). As shown in FIG. 7A, the experimental apparatus includes a milky white panel 11 covering a field of view of 180 °, a black paper cylinder 12 attached from the center of the panel 11 to the outside, and a distal end of the cylinder 12. , A film 15 attached to the other end of the tube 12 (the panel 11 side), and a large number of fluorescent lamps 14 provided on the entire outside of the panel 11. ing.
[0026]
In each of the above-mentioned 84 types of patterns, the target luminance Lt is adjusted by the light amount of the fluorescent lamp 13, the luminance of the adjacent area is adjusted by the transmittance of the film 15, and the luminance of the peripheral area is adjusted by the light amount of the fluorescent lamp 14. The size of the proximity region is adjusted by the diameter of the cylinder 12.
The measurement of brightness using this experimental device was performed in a room shielded from light by a dark curtain. The subjects were nine males and females in their twenties having a normal visual acuity of 1.0 or more, including corrected visual acuity using glasses or the like. Actual measurement was performed two to three times (/ 1 person) for each pattern so that the evaluation was stable. Each of the 84 patterns was randomly presented to the subject.
[0027]
The measurement of the sense of brightness using this experimental apparatus is defined as the brightness of the target area of each pattern presented by the subject according to their senses, and the numerical value (1 to 13) of the evaluation scale in FIG. Is to select one of them. The numerical values of the evaluation scale selected for each subject are averaged for each pattern, and the obtained average value is defined as an “actual measurement value”.
FIG. 8 shows a comparison between the predicted value and the measured value of the brightness feeling of each pattern obtained as described above. The horizontal axis in FIG. 8 represents the actual measurement value, and the vertical axis represents the predicted value. As can be seen from FIG. 8, points (◆) representing the combination of the measured value and the predicted value of each pattern are substantially on the 45 ° line. The error is about ± 1 on the evaluation scale.
[0028]
From the above results, it can be said that the expression for predicting the sense of brightness (Equations (1), (2), and (4)) of the present embodiment is sufficiently accurate. That is, according to the method for predicting a sense of brightness of the present embodiment, even when the brightness distribution is complicated, the sense of brightness of the target area in the brightness distribution image can be quantitatively predicted with high accuracy.
(Evaluation of accuracy 2)
Next, using the luminance distribution in the real space (ten black-and-white photographs taken of an outside building or an illumination space), the above-described prediction formula of the sense of brightness (Equations (1), (2), (4) Evaluate the accuracy of)).
[0029]
In order to predict the brightness B of the target area in each luminance distribution, first, each black-and-white photograph is imaged. Then, based on the obtained luminance distribution image, the brightness B of the target area is predicted in accordance with the procedure of the flowcharts shown in FIGS. 1A and 1B described above.
In addition, the actual measurement of the sense of brightness of the target area in each luminance distribution was performed by using an OHP on a milky white panel (plate-shaped) placed in front of the subject in a room shaded by a dark curtain. It was performed by projecting by using a method such as this. Then, the subject selects one from the numerical values (1 to 13) of the evaluation scale in FIG. 4 as the feeling of brightness of the target area of the projected photograph. The numerical value of the evaluation scale selected for each subject is averaged for each photograph, and the obtained average value is set as an “actual measurement value”.
[0030]
FIG. 9 shows a comparison between the predicted value and the measured value of the brightness feeling of each luminance distribution (black and white photograph) obtained as described above. The horizontal axis in FIG. And the vertical axis represents the predicted value (□) and the actually measured value (値). As can be seen from FIG. 9, the measured value and the predicted value of each photograph show very close values. The error is about ± 1 on the evaluation scale.
From the above results, it can be said that the expression for predicting brightness (Equations (1), (2), and (4)) of the present embodiment is sufficiently accurate. That is, according to the method for predicting a sense of brightness of the present embodiment, even when the brightness distribution is complicated as in a real space, the brightness sense of the target region in the brightness distribution image is quantitatively predicted with high accuracy. can do.
[0031]
(Modification)
In the embodiment described above, according to the flowchart of FIG. 1A, “the brightness sense Bu at uniform brightness” is calculated first (S4), and then “the brightness sense Bc due to the brightness contrast effect” is obtained. (S5), but the order may be reversed.
Further, in the above-described embodiment, “the brightness sense Bu with uniform brightness” and “the brightness sense Bc due to the brightness contrast effect” are simply added in step S6 of FIG. 1A. It is not limited to. Alternatively, for example, at least one of the brightness feelings Bu and Bc may be multiplied by some coefficient and then added. Not only addition but also subtraction, multiplication and division may be used.
[0032]
As described above, when the calculation method for calculating the brightness B of the target area from the brightness Bu, Bc is changed, the adjectives (very dark to It is preferable to change the value assigned to (very bright).
Further, in the above-described embodiment, when calculating the “contrast amount pi for each detection wavelength λi” in step S11 of FIG. 1B, the discrete width of the detection wavelength λi is set to the logarithmic value “0.4”. However, any other value can be used. When the step size of the detection wavelength λi is changed, it is preferable to change the coefficient “0.4” of the equation (2) in the prediction equation of the brightness.
[0033]
(Supplement)
Lastly, the derivation of the above-described expression for predicting brightness (Equations (1), (2), and (4)) and determination of coefficients will be described.
The pattern prepared as the luminance distribution image for deriving the prediction formula has two regions (target region and peripheral region) having different luminances as shown in FIG. Variable (viewing angles 0.1 °, 0.5 °, 1 °, 2 °, 5 °, 10 °, 15 °, 20 °, 30 °, 60 °, 180 °). Further, the target luminance Lt [cd / m 2 ] and the luminance ratio C between the target area and the peripheral area (= target luminance / peripheral luminance) are changed in a combination as shown in FIG. Then, the following experiment is performed using these patterns.
[0034]
In this experiment, while the film 15 was removed from the experimental apparatus shown in FIGS. 7A and 7B, while adjusting the size of the target area by the diameter of the cylinder 12, the above-described “Evaluation of accuracy 1” was performed. Perform the same operation as described above. Then, the subject selects one from the numerical values (1 to 13) of the evaluation scale in FIG. 4 as the brightness feeling of the target area of each presented pattern. The numerical values of the evaluation scale selected for each subject are averaged for each pattern, and the obtained average value is used as a “measured value” for deriving a prediction formula.
[0035]
FIG. 11 and FIG. 12 show actual measured values of the sense of brightness of each pattern, for example, for a luminance ratio of 100 and a luminance ratio of 0.3. The horizontal axis in FIGS. 11 and 12 is a logarithmic axis representing the size (deg ′) of the target area, and the vertical axis represents the actually measured value of the sense of brightness. “×”, “▲”, “■”, “●”, and “,” in FIGS. 11 and 12 represent actual measurements when the target luminance Lt is 3000, 300, 30, 3, 0.3 [cd / m 2 ]. Corresponds to the value.
[0036]
As can be seen from FIG. 11, when the luminance ratio> 1 (the target region has higher luminance), the sense of brightness tends to decrease as the target region increases. In addition, as can be seen from FIG. 12, when the luminance ratio <1 (the luminance of the target area is lower), the tendency is opposite, and as the target area becomes larger, the sense of brightness increases.
In addition, the size of the target area “∞” corresponds to a viewing angle of 180 ° of the target area of each pattern. That is, this is a state in which the target luminance Lt is uniformly distributed over the entire field of view 180 °. For this reason, the measured value when the size of the target area is “対 応” corresponds to the brightness feeling Bu with uniform luminance. Therefore, based on the relationship between the measured value when the size of the target area is “対 象” and the target luminance Lt (FIG. 13), the sense of brightness Bu with uniform luminance among the measured values of the brightness of each pattern. (Equation (1)) can be derived.
[0037]
Further, the brightness sensation Bc due to the brightness contrast effect corresponds to the difference between the actually measured value when the size of the target area is “∞” (see Bu in FIGS. 11 and 12) and the finitely measured value. You can think. When the luminance ratio is greater than 1 as shown in FIG. 11 (the luminance of the target area is higher), the brightness feeling Bc due to the luminance contrast effect has a value of “plus”, and as shown in FIG. In the case where the area has lower luminance, the brightness feeling Bc due to the luminance contrast effect has a value of “minus”.
[0038]
In order to derive a prediction equation (Equation (2)) for the brightness sensation Bc based on the luminance contrast effect, as shown in FIG. Is approximated by a straight line, and its slope K is obtained. However, the approximate straight line was made to pass through the actually measured value at a viewing angle of 60 °.
The slope K obtained for each pattern is as shown in FIG. The sign of the slope K is “minus” when the luminance ratio is greater than 1 (higher luminance in the target area), and “plus” when the luminance ratio is less than 1 (lower luminance in the target area).
[0039]
To reiterate, each slope K is obtained when the size of the target area is changed within a finite range (for example, within the dotted frame in FIG. 14) while maintaining the target luminance Lt and the luminance ratio C at constant values. , The rate at which the brightness sensation Bc due to the brightness contrast effect changes in accordance with the change in the magnitude.
Based on the relationship between the slope K, the target luminance Lt, and the luminance ratio C (FIG. 15), a gradient K (Lt, C) corresponding to an arbitrary target luminance Lt and a luminance ratio C is obtained by the following equation (5). )become that way.
(Equation 7)
Figure 2004061150
“−0.155logLt + 0.611” and “−0.263logLt + 1.229” in the equation (5) respectively represent the effect of the target luminance Lt on the brightness Bc. Also, the multipliers of the logarithmic value of the luminance ratio C, “0.506” and “0.224”, respectively, represent the effect on the brightness Bc depending on the size of the target area.
Next, considering that the “contrast amount pi obtained when the luminance distribution image is filtered by the N filter” is proportional to the “logarithmic value of the luminance ratio C”, the brightness feeling Bc due to the luminance contrast effect is calculated. It is expressed as in the following equation (6). “Ai” and “bi” in the equation (6) are weighting coefficients. “0.4” is a logarithmic value representing a step size of the discrete detection wavelength λi.
(Equation 8)
Figure 2004061150
By substituting a known combination of Bc and pi into this equation (6) and performing multiple regression analysis at each of a luminance ratio> 1 and a luminance ratio <1, each of the weight coefficients ai and bi is calculated by the following equation ( 7) and (8). “Λi” is a detection wavelength.
(Equation 9)
Figure 2004061150
Lastly, by substituting the weighting factors ai and bi (Equations (7) and (8)) determined by the multiple regression analysis into the above-described Expression (6), a prediction expression (Bc) for the brightness sensation Bc due to the luminance contrast effect is obtained. Equation (2) can be derived.
[0040]
Although the example of predicting the sense of brightness using the distribution of luminance has been described, the present invention is not limited to this. The distribution of the illuminance and the luminous flux divergence may be used to predict the sense of brightness.
[0041]
【The invention's effect】
As described above, according to the present invention, it is possible to quantitatively predict the sense of brightness of a target region in a luminance distribution image with high accuracy.
[Brief description of the drawings]
FIG. 1 is a flowchart illustrating a procedure of a method for predicting a sense of brightness according to an embodiment.
FIG. 2 is a diagram illustrating an N filter.
FIG. 3 is a diagram illustrating a relationship between a wavelength (a reciprocal of a spatial frequency) and a contrast amount;
FIG. 4 is a diagram illustrating an evaluation scale of a feeling of brightness.
FIG. 5 is a diagram illustrating each pattern used in accuracy evaluation 1;
FIG. 6 is an explanatory diagram illustrating how a relationship between a wavelength and a contrast amount changes depending on the size of a proximity region.
FIG. 7 is a schematic diagram showing a configuration of an experimental device used for actual measurement of brightness.
FIG. 8 is a diagram showing prediction accuracy of a feeling of brightness when each pattern of FIG. 5 is used.
FIG. 9 is a diagram illustrating prediction accuracy of a feeling of brightness when a luminance distribution (black and white photograph) in a real space is used.
FIG. 10 is a diagram illustrating each pattern used to derive a prediction formula for a feeling of brightness.
FIG. 11 is a diagram illustrating a change in a sense of brightness (actually measured value) depending on the size of a target area.
FIG. 12 is a diagram illustrating a change in a sense of brightness (actually measured value) depending on the size of a target area.
FIG. 13 is a diagram illustrating a relationship between an actually measured value and a target luminance Lt when the size of the target region is ∞.
FIG. 14 is a diagram illustrating a range of a linear approximation in a change in a feeling of brightness (actually measured value) depending on a size of a target region.
FIG. 15 is a diagram showing the inclination of each pattern obtained by the linear approximation in FIG. 14;
[Explanation of symbols]
11 Panel 12 Tube 13 Fluorescent lamp 14 Fluorescent lamp 15 Film

Claims (10)

輝度分布画像を取り込む第1工程と、
前記輝度分布画像の中の予測対象領域を指定する第2工程と、
前記予測対象領域の輝度が均一に分布している場合を想定して、第1明るさ感を算出する第3工程と、
前記予測対象領域の輝度と前記輝度分布画像の他の各輝度との対比に基づいて、第2明るさ感を算出する第4工程と、
前記第1明るさ感と前記第2明るさ感との双方を考慮して、前記予測対象領域の明るさ感を予測する第5工程とを備えた
ことを特徴とする明るさ感の予測方法。
A first step of capturing a luminance distribution image;
A second step of specifying a prediction target area in the luminance distribution image;
A third step of calculating a first sense of brightness, assuming that the luminance of the prediction target area is uniformly distributed;
A fourth step of calculating a second sense of brightness based on a comparison between the brightness of the prediction target area and other brightnesses of the brightness distribution image;
A fifth step of predicting a brightness sensation of the prediction target area in consideration of both the first brightness sensation and the second brightness sensation. .
請求項1に記載した明るさ感の予測方法において、
前記第5工程では、前記第1明るさ感と前記第2明るさ感とを加算することにより、前記予測対象領域の明るさ感を予測する
ことを特徴とする明るさ感の予測方法。
The method for predicting a sense of brightness according to claim 1,
In the fifth step, a brightness feeling prediction method is characterized in that the brightness feeling of the prediction target area is predicted by adding the first brightness feeling and the second brightness feeling.
請求項1または請求項2に記載した明るさ感の予測方法において、
前記第4工程では、前記輝度分布画像を複数の空間周波数ごとにフィルタリングし、該フィルタリングの結果を重み付け加算することで、前記対比を求め、該対比に基づいて、前記第2明るさ感を算出する
ことを特徴とする明るさ感の予測方法。
In the method for predicting a sense of brightness according to claim 1 or 2,
In the fourth step, the luminance distribution image is filtered for each of a plurality of spatial frequencies, and the result of the filtering is weighted and added to obtain the contrast, and the second sense of brightness is calculated based on the contrast. A method for predicting a sense of brightness.
請求項3に記載した明るさ感の予測方法において、
前記第4工程では、前記フィルタリングの結果を重み付け加算する際、前記予測対象領域の輝度と前記空間周波数とをパラメータとする重み係数を用いる
ことを特徴とする明るさ感の予測方法。
The method for predicting a sense of brightness according to claim 3,
In the fourth step, when weighting and adding the results of the filtering, a weighting coefficient having parameters of the luminance of the prediction target area and the spatial frequency is used.
請求項4に記載した明るさ感の予測方法において、
前記第4工程で用いられる前記重み係数は、前記空間周波数の逆数に相当する検出波長に比例して小さい値となる
ことを特徴とする明るさ感の予測方法。
The method for predicting a sense of brightness according to claim 4,
The method for predicting a sense of brightness, wherein the weighting factor used in the fourth step has a small value in proportion to a detection wavelength corresponding to a reciprocal of the spatial frequency.
請求項3から請求項5の何れか1項に記載した明るさ感の予測方法において、
前記第4工程では、前記フィルタリングの結果を重み付け加算する際、該フィルタリングの結果に対し、前記予測対象領域の大きさによる前記第2明るさ感への効果に関わる乗数を掛ける
ことを特徴とする明るさ感の予測方法。
The brightness prediction method according to any one of claims 3 to 5,
In the fourth step, when the filtering result is weighted and added, the filtering result is multiplied by a multiplier related to the effect on the second brightness feeling due to the size of the prediction target area. How to predict brightness.
請求項3から請求項6の何れか1項に記載した明るさ感の予測方法において、
前記第4工程では、前記予測対象領域の輝度をLt、前記空間周波数の逆数に相当する検出波長をλi、前記フィルタリングの結果をpiとするとき、次式に基づいて、前記第2明るさ感Bcを算出する
Figure 2004061150
ことを特徴とする明るさ感の予測方法。
In the method for predicting a sense of brightness according to any one of claims 3 to 6,
In the fourth step, when the luminance of the prediction target area is Lt, the detected wavelength corresponding to the reciprocal of the spatial frequency is λi, and the result of the filtering is pi, the second brightness level is calculated based on the following equation. Calculate Bc
Figure 2004061150
A method for predicting a sense of brightness, characterized in that:
請求項1または請求項2に記載した明るさ感の予測方法において、
前記第3工程では、前記予測対象領域の輝度をLtとするとき、次式に基づいて、前記第1明るさ感Buを算出する
Figure 2004061150
ことを特徴とする明るさ感の予測方法。
In the method for predicting a sense of brightness according to claim 1 or 2,
In the third step, when the luminance of the prediction target area is Lt, the first brightness sense Bu is calculated based on the following equation.
Figure 2004061150
A method for predicting a sense of brightness, characterized in that:
輝度分布画像を取り込む第1手順と、
前記輝度分布画像の中の予測対象領域を指定する第2手順と、
前記予測対象領域の輝度が均一に分布している場合を想定して、第1明るさ感を算出する第3手順と、
前記予測対象領域の輝度と前記輝度分布画像の他の各輝度との対比に基づいて、第2明るさ感を算出する第4手順と、
前記第1明るさ感と前記第2明るさ感との双方を考慮して、前記予測対象領域の明るさ感を予測する第5手順と
をコンピュータに実行させるための明るさ感の予測プログラム。
A first procedure for capturing a brightness distribution image;
A second procedure for specifying a prediction target area in the luminance distribution image;
A third procedure of calculating a first sense of brightness, assuming that the luminance of the prediction target area is uniformly distributed;
A fourth procedure of calculating a second sense of brightness based on a comparison between the brightness of the prediction target area and other brightnesses of the brightness distribution image;
A brightness feeling prediction program for causing a computer to execute a fifth procedure of predicting the brightness feeling of the prediction target area in consideration of both the first brightness feeling and the second brightness feeling.
請求項9に記載した明るさ感の予測プログラムにおいて、
前記第5手順では、前記第1明るさ感と前記第2明るさ感とを加算することにより、前記予測対象領域の明るさ感を予測する
ことを特徴とする明るさ感の予測プログラム。
The program for predicting a sense of brightness according to claim 9,
In the fifth procedure, a brightness feeling prediction program is characterized in that the brightness feeling of the prediction target area is predicted by adding the first brightness feeling and the second brightness feeling.
JP2002216167A 2002-07-25 2002-07-25 Method and program for predicting brightness Expired - Fee Related JP3995201B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002216167A JP3995201B2 (en) 2002-07-25 2002-07-25 Method and program for predicting brightness

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002216167A JP3995201B2 (en) 2002-07-25 2002-07-25 Method and program for predicting brightness

Publications (2)

Publication Number Publication Date
JP2004061150A true JP2004061150A (en) 2004-02-26
JP3995201B2 JP3995201B2 (en) 2007-10-24

Family

ID=31937994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002216167A Expired - Fee Related JP3995201B2 (en) 2002-07-25 2002-07-25 Method and program for predicting brightness

Country Status (1)

Country Link
JP (1) JP3995201B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006132014A1 (en) * 2005-06-06 2006-12-14 Tokyo Institute Of Technology Image conversion device and image conversion program
JP2007221654A (en) * 2006-02-20 2007-08-30 Iwasaki Electric Co Ltd Photography system, moving picture processing method, and moving picture processor
JP2007292665A (en) * 2006-04-26 2007-11-08 Tokyo Institute Of Technology Glare evaluation device and program
US8229868B2 (en) 2009-04-13 2012-07-24 Tokyo Institute Of Technology Data converting apparatus and medium having data converting program
JP2016121892A (en) * 2014-12-24 2016-07-07 鹿島建設株式会社 Field angle setting method
JP2017020993A (en) * 2015-07-15 2017-01-26 鹿島建設株式会社 Optical environment evaluating apparatus, and optical environment evaluating method
WO2022009512A1 (en) * 2020-07-06 2022-01-13 三菱電機株式会社 Brightness feeling prediction device and brightness feeling prediction program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5351438B2 (en) * 2008-05-23 2013-11-27 日本放送協会 Display control device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006132014A1 (en) * 2005-06-06 2006-12-14 Tokyo Institute Of Technology Image conversion device and image conversion program
US7787710B2 (en) 2005-06-06 2010-08-31 Tokyo Institute Of Technology Image transform apparatus and image transform program
EP2866192A2 (en) 2005-06-06 2015-04-29 Tokyo Institute of Technology Image transform apparatus and image transform program
JP2007221654A (en) * 2006-02-20 2007-08-30 Iwasaki Electric Co Ltd Photography system, moving picture processing method, and moving picture processor
JP4677924B2 (en) * 2006-02-20 2011-04-27 岩崎電気株式会社 Imaging system, moving image processing method, and moving image processing apparatus
JP2007292665A (en) * 2006-04-26 2007-11-08 Tokyo Institute Of Technology Glare evaluation device and program
US8229868B2 (en) 2009-04-13 2012-07-24 Tokyo Institute Of Technology Data converting apparatus and medium having data converting program
JP2016121892A (en) * 2014-12-24 2016-07-07 鹿島建設株式会社 Field angle setting method
JP2017020993A (en) * 2015-07-15 2017-01-26 鹿島建設株式会社 Optical environment evaluating apparatus, and optical environment evaluating method
WO2022009512A1 (en) * 2020-07-06 2022-01-13 三菱電機株式会社 Brightness feeling prediction device and brightness feeling prediction program
JP2022014146A (en) * 2020-07-06 2022-01-19 三菱電機ビルテクノサービス株式会社 Brightness feeling prediction device and brightness feeling prediction program
JP7458919B2 (en) 2020-07-06 2024-04-01 三菱電機ビルソリューションズ株式会社 Brightness prediction device and brightness prediction program

Also Published As

Publication number Publication date
JP3995201B2 (en) 2007-10-24

Similar Documents

Publication Publication Date Title
JP4016072B2 (en) Image conversion apparatus and image conversion program
Mantiuk et al. HDR-VDP-2: A calibrated visual metric for visibility and quality predictions in all luminance conditions
US10702192B2 (en) Dynamic analysis system
JP4783902B2 (en) Glare evaluation device and glare evaluation program
CN104486534A (en) Moire detecting and suppression method and device
JP5546522B2 (en) Surface shape measuring method and measuring apparatus
CN109155058A (en) Compensate optical coherence tomography scanning
CN104039233B (en) Use the X-ray computed tomograohy apparatus (X ray CT device) of iterative approximation
JP2009180583A (en) Method and device for evaluating luminance nonuniformity of display
CN103688288B (en) Method and optical projection system for changing input image data
JP3995201B2 (en) Method and program for predicting brightness
JP2007172512A (en) Method for quantitative evaluation of image quality, system thereof and program for calculating quantitative evaluation of image quality
KR20190008919A (en) Visual function inspection and optical characteristics calculation system
JPWO2012056708A1 (en) Crosstalk detection method, signal generation device for generating signal for detecting crosstalk, computer readable medium storing image file for generating signal for detecting crosstalk, crosstalk for detecting Display device for displaying image using signal and method for manufacturing display device
KR101863648B1 (en) Apparatus and method for diagnosticating scoliosis
JP2012064541A (en) Lighting environment evaluation apparatus and lighting environment evaluation method
WO2020158659A1 (en) Photographic subject information acquisition device, operating method therefor, and photographic subject information acquisition program
JP2017203622A (en) Color unevenness checking method, and color unevenness checking device
JP6743969B2 (en) Radiation image processing apparatus and radiation image processing method
JPH1194767A (en) Method and apparatus for inspecting formation
JP4900047B2 (en) Lighting environment measuring device
JP2002039859A (en) Method and instrument for determining quantitatively contrast of brightness, and computor-readable recording medium
Słomiński Digital luminance photometry in the context of the human visual system
JP3937022B2 (en) Image processing apparatus and imaging device
JP3735621B2 (en) All-sky light environment evaluation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070727

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130810

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees