JP6866582B2 - 画像表示端末、画像表示方法及びプログラム - Google Patents
画像表示端末、画像表示方法及びプログラム Download PDFInfo
- Publication number
- JP6866582B2 JP6866582B2 JP2016133227A JP2016133227A JP6866582B2 JP 6866582 B2 JP6866582 B2 JP 6866582B2 JP 2016133227 A JP2016133227 A JP 2016133227A JP 2016133227 A JP2016133227 A JP 2016133227A JP 6866582 B2 JP6866582 B2 JP 6866582B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- illumination
- image
- color
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 58
- 238000005286 illumination Methods 0.000 claims description 298
- 238000004364 calculation method Methods 0.000 claims description 65
- 238000001514 detection method Methods 0.000 claims description 48
- 239000000463 material Substances 0.000 claims description 18
- 238000009877 rendering Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 8
- 238000011960 computer-aided design Methods 0.000 description 31
- 230000006978 adaptation Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 230000001932 seasonal effect Effects 0.000 description 10
- 239000013598 vector Substances 0.000 description 9
- 230000003595 spectral effect Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 102220495430 Glutaredoxin-like protein C5orf63_S12A_mutation Human genes 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
- Digital Computer Display Output (AREA)
- Image Generation (AREA)
- Controls And Circuits For Display Device (AREA)
Description
このとき、展示物に関する情報を提供する際、この展示物の作者の説明が行われるため、同一作者の他の展示物が情報携帯端末に表示される場合がある。
この問題を解決し、制作者及び提供者が意図した色を知覚するため、携帯情報端末を鑑賞する位置の照明環境の情報(照明環境情報)を得て、画像コンテンツの表示色を補正する必要がある(例えば、特許文献1参照)。
しかしながら、携帯情報端末を鑑賞する位置毎に、各鑑賞者が周囲の放射輝度や照度の照明環境情報を得ることは煩雑である。
しかし、一般のユーザが上記測定機器を持ち歩くことはあり得ず、携帯情報端末により画像コンテンツを鑑賞する際、ユーザ自身が、周囲から携帯情報端末の表示画面に入射される光の分光情報を検出することは現実的には困難である。
本発明の画像表示端末は、画像コンテンツを表示画像として表示画面に表示する画像表示部と、自身の位置を検出する位置検出部と、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度を示す情報を含む照明情報を取得する照明情報取得部と、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整部と、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報から前記照明情報を算出する照明情報算出部と備え、前記色調整部が、前記照明情報と、前記位置と、前記表示画面の向きとにより、前記表示画像の色を生成することを特徴とする。
本発明の画像表示端末は、画像表示部が、画像コンテンツを表示画像として表示画面に表示する画像表示過程と、位置検出部が、自身の位置を検出する位置検出過程と、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得過程と、色調整部が、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整過程とを含み、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報に基づき、前記照明情報取得部が、前記光源の特性情報と、前記空間における前記光源の位置と前記物体の位置と、前記表示画面の向きを示す向き情報とを用い、前記物体への照明情報を求め、前記色調整部が、前記物体に入射する前記照明情報と前記物体の3次元形状及び材質に対応した反射に基づくレンダリング処理により前記表示画像の色を生成することを特徴とする。
本発明の画像表示方法は、画像表示部が、画像コンテンツを表示画像として表示画面に表示する画像表示過程と、位置検出部が、自身の位置を検出する位置検出過程と、照明情報取得部が、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得過程と、色調整部が、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整過程と、照明情報算出部が、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報から前記照明情報を算出する照明情報算出過程とを含み、前記色調整部が、前記照明情報と、前記位置と、前記表示画面の向きとにより、前記表示画像の色を生成することを特徴とする。
本発明の画像表示方法は、画像表示部が、画像コンテンツを表示画像として表示画面に表示する画像表示過程と、位置検出部が、自身の位置を検出する位置検出過程と、照明情報取得部が、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得過程と、色調整部が、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整過程とを含み、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報に基づき、前記照明情報取得部が、前記光源の特性情報と、前記空間における前記光源の位置と前記物体の位置と、前記表示画面の向きを示す向き情報とを用い、前記物体への照明情報を求め、前記色調整部が、前記物体に入射する前記照明情報と前記物体の3次元形状及び材質に対応した反射に基づくレンダリング処理により前記表示画像の色を生成することを特徴とする。
本発明のプログラムは、コンピュータを、画像コンテンツを表示画像として表示画面に表示する画像表示手段、自身の位置を検出する位置検出手段、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得手段、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整手段、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報から前記照明情報を算出する照明情報算出手段として機能させ、前記色調整手段が、前記照明情報と、前記位置と、前記表示画面の向きとにより、前記表示画像の色を生成するプログラムである。
本発明のプログラムは、コンピュータを、画像コンテンツを表示画像として表示画面に表示する画像表示手段、自身の位置を検出する位置検出手段、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得手段、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整手段として機能させ、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報に基づき、前記照明情報取得手段が、前記光源の特性情報と、前記空間における前記光源の位置と前記物体の位置と、前記表示画面の向きを示す向き情報とを用い、前記物体への照明情報を求め、前記色調整手段が、前記物体に入射する前記照明情報と前記物体の3次元形状及び材質に対応した反射に基づくレンダリング処理により前記表示画像の色を生成するプログラムである。
以下、本発明の第1の実施形態について、図面を参照して説明する。
図1は、本発明の第1の実施形態による画像表示端末1の構成の一例を示すブロック図である。本実施形態による画像表示端末1は、例えば、スマートフォンやタブレットなどの携帯端末に対してアプリケーションプログラムをインストールし、起動することにより各機能部が構成されて稼働する。
図1において、画像表示端末1は、入力部11、表示部12、位置検出部13、傾き検出部14、状態情報取得部15、照明情報取得部16、表示色計算部17及び照明情報データベース18を備えている。
表示部12は、外部装置から供給される画像コンテンツを、自身の表示画面に対して表示する。
位置検出部13は、携帯端末の世界座標系における3次元座標値を検出し、位置情報として出力する。ここで、位置検出部13は、例えば、GPS(Global Positioning System)、電子コンパス、無線通信、ビーコンなどの3次元座標値を検出する手段により構成されている。
状態情報取得部15は、所定の周期において、位置検出部13から位置情報を読み取り、また傾き検出部14から向き情報を読み取り、位置情報及び向き情報の各々の組合わせを状態情報とする。
(1)式において、λrとλnとの各々は、それぞれ位置情報、向き情報の重み付け係数である。また、「T」はベクトルの転置、「・」はベクトルの内積を示している。
ここで、表示色計算部17は、ICCプロファイルに基づいて、制作者や提供者が意図した画像コンテンツの色をCIE L*a*b*色空間の座標値で表し、照明光の波長毎の照度において、等しいCIE L*a*b*色空間の座標値となるように、画像コンテンツの画素値を調整する。すなわち制作者や提供者が意図した画像コンテンツの色を、照明情報の照明環境下において鑑賞者に知覚させる色を再現する画素値へ変換する色調整である。
表示部12は、表示色計算部17が画素値の色調整を行った画像コンテンツを、表示画面12Sに画像として表示する。
ステップS11:
鑑賞者が、画像表示端末1を携帯し、他の3次元空間から3次元空間100(例えば、室内)に移動する。位置検出部13は、例えばビーコンで位置検出を行う構成であれば、無線機103と通信することにより、3次元空間100における画像表示端末1の位置を検出し、位置情報を生成する。
そして、状態情報取得部15は、位置検出部13から位置情報を、傾き検出部14から向き情報を読み取り、読み取った位置情報及び向き情報の組合わせを状態情報とする。
照明情報取得部16は、取得した状態情報と同様あるいは類似した位置情報及び向き情報の組合わせを、照明情報データベース18の照明情報検索テーブルから検索する。そして、照明情報取得部16は、検索された位置情報及び向き情報の組合わせに対応する照度データインデックスを読み出す。照明情報取得部16は、読み出した照度データインデックス対応する照明情報を、照明情報データベース18の照明情報テーブルから抽出する。図4において、照明情報は、例えば、蛍光灯101及び102の各々が光を放射し、表示画面12Sに対してこの放射された光が入射する照度の情報である。
表示色計算部17は、外部装置から、あるいは画像表示端末1の図示しない記憶部から、表示画面12Sに表示する画像コンテンツを読み込む。
そして、表示色計算部17は、画像コンテンツに付加されているICCプロファイルを抽出して読み出す。
表示色計算部17は、ICCプロファイルに基づいて照明情報に応じた色調整を行う。すなわち、表示色計算部17は、照明情報の波長毎の照明光の照度に対応させて、画像コンテンツの画素値をずらして色調整の処理を行う。
表示部12は、ICCプロファイルに基づいて、画像コンテンツの画素値を求めて、この画素値の画像を表示画面12Sに対して表示する。
以下、本発明の第2の実施形態について、図面を参照して説明する。
図5は、本発明の第2の実施形態による画像表示端末1Aの構成の一例を示すブロック図である。本実施形態による画像表示端末1Aは、第1の実施形態と同様に、例えば、スマートフォンやタブレットなどの携帯端末に対してアプリケーションプログラムをインストールし、起動することにより各機能部が構成されて稼働する。
図5において、画像表示端末1Aは、入力部11、表示部12、位置検出部13、傾き検出部14、状態情報取得部15、照明情報取得部16A、表示色計算部17、照明情報データベース18A及び照度算出部19を備えている。第1の実施形態と同様の構成については、同一の符号を付してその説明を省略する。以下、第1の実施形態と異なる構成及び動作を説明する。
図6(b)は照明情報テーブルの構成を示し、各放射輝度データインデックスに対し、第1放射輝度データから第n放射輝度データの各々が予め書き込まれて記憶されている。第1放射輝度データは、第1照明光の第1波長成分の輝度値と、この第1波長成分の入射方向との組み合わせが記憶されている。他の波長成分の放射輝度データも同様に、それぞれの波長成分の輝度値と、波長成分の入射方向が示されている。
また、照明情報取得部16Aは、読み出した放射輝度データインデックスを、照明情報データベース18Aの照明情報テーブルから検索する。そして、照明情報取得部16Aは、検索された放射輝度データインデックスに対応して記憶されている第1放射輝度データから第n放射輝度データの各々を読み出す。照明情報取得部16Aは、読み出した第1放射輝度データから第n放射輝度データの各々を、照度算出部19に対して出力する。
そして、表示色計算部17は、照度算出部19が算出した照度を用いて、第1の実施形態に示したように、画像コンテンツにおける画像の各々の画素値に対する色調整を行う。
照明情報取得部16Aは、状態情報における位置情報と一致、あるいは最も近傍の位置にある位置情報を、照明情報データベース18Aの照明情報検索テーブルから検索する。
そして、照明情報取得部16Aは、検索された位置情報に対応する放射輝度データインデックスを、照明情報検索テーブルから読み出す。照明情報取得部16Aは、照明情報データベース18Aの照度情報テーブルから、読み出した放射輝度データインデックスに対応した第1放射輝度データから第n放射輝度データの各々を読み出し、照度算出部19に対して出力する。
照度算出部19は、供給された第1放射輝度データから第n放射輝度データの各々に基づき、状態情報における向き情報により、表示画面12Sに入射される照明光の照度を算出する。
ステップS13以降は、第1の実施形態と同様のため、説明を省略する。
また、本実施形態における照度算出部19も上記サーバの機能として設け、画像表示端末1Aがサーバに対して状態情報を送信することにより、表示画面12Sに入射する照度を、画像表示端末1Aに対して供給する構成としても良い。
以下、本発明の第3の実施形態について、図面を参照して説明する。
図8は、本発明の第3の実施形態による画像表示端末1Bの構成の一例を示すブロック図である。本実施形態による画像表示端末1Bは、第1の実施形態と同様に、例えば、スマートフォンやタブレットなどの携帯端末に対してアプリケーションプログラムをインストールし、起動することにより各機能部が構成されて稼働する。
図8において、画像表示端末1Bは、入力部11、表示部12、位置検出部13、傾き検出部14、状態情報取得部15、照明情報取得部16A、表示色計算部17B及び照明情報データベース18Bを備えている。以下、第1の実施形態と異なる構成及び動作を説明する。第1の実施形態あるいは第2の実施形態と同様の構成については、同一の符号を付してその説明を省略する。
ここで、表示色計算部17Bは、例えば、CIE(国際照明委員会)のCAM(色の見えモデル)であるCIECAM02の定義式(色順応式)を用いて表示画面12Sに対して表示する画像の画素値を生成する。すなわち、表示色計算部17Bは、予め位置毎に測定された図6(b)の照明情報の放射輝度データから、表示画面12Sに入射する照明輝度及び周囲輝度を求める。
ステップS14A:
表示色計算部17Bは、照明情報取得部16Aが取得した照明情報である放射輝度データから、状態情報の向き情報を用いて、表示画面12Sに対して入射する照明輝度及び周囲輝度を算出する。
そして、表示色計算部17Bは、照明輝度及び周囲輝度から順応ファクタを求め、この順応ファクタと画像コンテンツの画素値とCIECAM02の色順応式とにより、表示画面12Sに表示する画像の画素値を算出する。
第2の実施形態及び第3の実施形態においては、図6に示すように、照明情報として放射輝度データを用いている。
第4の実施形態においては、図10に示す照明光マップを照明情報として用いる。第4の実施形態は、図8の構成と同様である。図10は、本実施形態における照明情報データベース18Bに予め書き込まれて記憶されているテーブルの構成例を示している。
図10(a)は、照明情報検索テーブルの構成を示し、状態情報における位置情報毎に照明光マップインデックスが対応して示されている。図10(b)は、照明情報テーブルの構成を示し、各照明光マップインデックスに対し、第1照明光マップファイルから第n照明光マップファイルが予め書き込まれて記憶されている。第1照明光マップファイルは、第1チャンネル(第1波長成分)の照明光の輝度がマッピングされたデータファイルが記憶されている。他の照明光マップファイルのチャンネルの輝度も同様に、それぞれの波長成分のデータファイルが示されている。
この照明光マップの輝度データから、第2の実施形態のように照度データを生成したり、第3の実施形態のように、照明輝度及び周囲輝度を求めて、CIECAM02の色順応式により、表示画面12Sに表示する画像の画素値を生成しても良い。
以下、本発明の第5の実施形態について、図面を参照して説明する。
図11は、本発明の第5の実施形態による画像表示端末1Dの構成の一例を示すブロック図である。本実施形態による画像表示端末1Dは、第2の実施形態と同様に、例えば、スマートフォンやタブレットなどの携帯端末に対してアプリケーションプログラムをインストールし、起動することにより各機能部が構成されて稼働する。
図11において、画像表示端末1Dは、入力部11、表示部12、位置検出部13、傾き検出部14、状態情報取得部15、表示色計算部17、照明情報データベース18D、空間構造情報取得部20、3次元空間生成部21及び照明情報算出部22を備えている。以下、第2の実施形態と異なる構成及び動作を説明する。第2の実施形態と同様の構成については、同一の符号を付してその説明を省略する。本実施形態は、CG技術を用いて、表示画面12Sに照射される光の輝度を算出する。
図12(a)は空間情報検索テーブルの構成を示し、画像表示端末1Dが位置する空間情報(3次元空間、例えば部屋空間)毎に、3次元空間における照度を算出するためのデータ群が対応付けて記憶されている。空間データインデックスは、3次元空間を識別するためのインデックス、例えば、美術館の中にある各部屋をそれぞれ識別するためのインデックスである。ここでの3次元空間は、CADで生成される仮想の3次元空間である。
この図において、空間CAD(computer aided design)データインデックスは、3次元空間の構造を示すCADデータを識別するインデックスである。この空間CADデータインデックスは、例えば、部屋の構造を示すCADデータの読み込みに用いる。
図12(c)は光源データテーブルの構成を示し、各光源データインデックスにより種別される光源の各々の3次元形状を示すCADデータと、光源の放射する光の第1波長の波長を示す第1波長データ、第1波長の光の輝度値を示す第1波長輝度値データ、第1波長の光の放射強度の配光分布を示す第1波長配光分布データと、…の各々(以降、光源の放射する光の第2波長、第3波長の光源データがある)が予め書き込まれて記憶されている。波長及び配光分布データは、例えば、IES(Illumination Engineering Society of North America )が提供するIESデータを用いる。
空間構造情報取得部20は、取得した空間データインデックスを空間情報検索テーブルにおいて検索し、検索された空間情報インデックスに対応する空間CADデータインデックス、物体データインデックス(例えば、第1物体データインデックス、第2物体データインデックス、…)、物体データ(例えば、第1物体データ、第2物体データ、…)、光源データインデックス(例えば、第1光源データインデックス、第1光源データインデックス、…)の各々を読み出す。そして、空間構造情報取得部20は、取得した空間CADデータインデックス、物体データインデックス(例えば、第1物体データインデックス、第2物体データインデックス、…)、物体データ(例えば、第1物体データ、第2物体データ、…)、光源データインデックス(例えば、第1光源データインデックス、第1光源データインデックス、…)の各々を3次元空間生成部21に対して出力する。
同様に、3次元空間生成部21は、光源データインデックスにより対応して、3次元空間に配置される光源の各々の配置データにより、光源それぞれを3次元空間に配置する。
そして、表示色計算部17は、照明情報算出部22が生成した光の輝度に基づき、第2の実施形態と同様に、表示画面12Sに表示する画像の画素値の調整を行う。
また、本実施形態においては、照明情報データベース18Dを画像表示端末1Dが備えている構成として説明したが、インターネット上のいずれかのサーバに設置され、必要に応じて画像表示端末1Dがこのサーバをアクセスし、状態情報の位置情報に対応したCAD情報を取得する構成としても良い。
第6の実施形態は、第5の実施形態の図11に示す構成と同様の構成である。
第6の実施形態においては、第4の実施形態で用いた照明光マップを、第5の実施形態におけるCADデータを用いた計算により生成する。すなわち、第6の実施形態は、照明情報算出部22が生成する照明情報が第5の実施形態と異なる。
すなわち、照明情報算出部22は、3次元空間に配置された光源が放射する照明光の壁、天井、床からの反射に加え、3次元空間に配置された物体の3次元形状及び材質に対応した反射による反射光成分を含んだ照明光マップを、シミュレーションにより生成する。
そして、照明情報算出部22が生成した照明光マップの輝度データから、第2の実施形態のように照度データを生成したり、第3の実施形態のように、照明輝度及び周囲輝度を求めて、CIECAM02の色順応式により、表示画面12Sに表示する画像の画素値を生成しても良い。
第7の実施形態は、第5の実施形態の図11に示す構成と同様の構成である。
第7の実施形態においては、第5の実施形態で生成した照明情報により、レイトレーシング法などを用いて、3次元空間における仮想物体をCG技術によってレンダリングし、表示画面12Sに表示する画像の画素値を求める。すなわち、第7の実施形態においては、レイトレーシング法を用いたレンダリングにより、仮想物体の画像の、表示面12Sに表示する画素値を、リアルタイムに生成する点が第5の実施形態と異なる。
照明情報算出部22は、仮想物体の状態情報における位置情報の示す位置に対する、3次元空間に配置された光源の各々から放射される照明光の照明情報を算出して生成する。ここで、照明情報算出部22は、3次元空間におけるレイトレーシング法により、3次元空間に配置された光源が放射する照明光の壁、床などからの反射に加え、3次元空間に配置された物体の3次元形状及び材質に対応した反射による反射光成分を含んだ照明情報を生成する。
また、本実施形態においては、仮想物体に照射される光の輝度の計算にレイトレーシング法を用いる構成として説明したが、ラジオシティ法やフォトンマッピング法等を用いた構成としても良い。
また、本実施形態においては、レンダリング法における反射計算としてBRDFを用いる構成として説明したが、透過光計算に用いるBidirectional Transmitance Functionや仮想物体の表面のテクスチャを用いたBidirectional Texture Functionを用いた構成としても良い。
第1の実施形態から第7の実施形態までは、建物などの3次元空間内における表示画面12Sに対して照射される照明情報を求めて、表示画面12Sに表示される画像の画素値の色調整及び画素値の生成について示した。
本発明の第8の実施形態においては、屋外における3次元空間内での表示画面12Sに対して照射される照明光の照明情報を求めて、表示画面12Sに表示される画像の画素値の色調整及び画素値の生成を行う。
図13は、本発明の第8の実施形態による画像表示端末1Eの構成の一例を示すブロック図である。本実施形態による画像表示端末1Eは、第1の実施形態と同様に、例えば、スマートフォンやタブレットなどの携帯端末に対してアプリケーションプログラムをインストールし、起動することにより各機能部が構成されて稼働する。
図13において、画像表示端末1Eは、入力部11、表示部12、位置検出部13、傾き検出部14、状態情報取得部15、表示色計算部17、気象情報取得部23、自然光履歴検索部24及び自然光履歴データベース25を備えている。以下、第1の実施形態と異なる構成及び動作を説明する。第1の実施形態と同様の構成については、同一の符号を付してその説明を省略する。
図14(a)は、自然光データ検索テーブルであり、状態情報、時間情報、季節情報、雲量情報及び天気情報の各々の組合わせと、この組合わせに対応する自然光データインデックスとが書き込まれている。状態情報は、例えば、緯度、経度及び標高などの世界座標系における3次元座標値の位置情報、表示画面12Sの向き情報を示す。時間情報は、1日を1時間単位で分割した0時から24時までの時刻範囲を示している。季節情報は、春、夏、秋、冬のいずれかを示している。雲量情報は、雲量「1」から雲量「9」までの1単位の雲量を示している。天気情報は、晴れ、曇り、雨、雪などの天気を示している。自然光データインデックスは、上述した位置情報、時間情報、季節情報、雲量情報及び天気情報の各々の組合わせに対応した照明情報のデータを識別するインデックスである。
ここで、第1波長照明情報から第n照明情報の各々は、位置情報、時間情報、季節情報、雲量情報及び天気情報の各々において、向き情報に対応させて、分光照度計で測定した照明光の波長成分毎の照度である。
自然光履歴検索部24は、自然光履歴データベース25の自然光データ検索テーブルにおいて、状態情報取得部15が取得した状態情報と、気象情報取得部23が取得した季節情報、雲量情報及び天気情報と、画像表示端末1Eの時計機能から取得した現在の時刻情報との各々の組合わせに対応する自然光データインデックスを検索する。また、自然光履歴検索部24は、検索に用いた状態情報、季節情報、雲量情報、天気情報及び時刻情報との組合わせに最も近い自然光データインデックスを、自然光データ検索テーブルから抽出する。
表示色計算部17は、自然光履歴検索部24から供給される第1波長照明情報から第n照明情報の各々の照度を用いて、画像コンテンツの画素値の各々の色調整を行う。
Claims (12)
- 画像コンテンツを表示画像として表示画面に表示する画像表示部と、
自身の位置を検出する位置検出部と、
前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度を示す情報を含む照明情報を取得する照明情報取得部と、
前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整部と
を備え、
前記状態情報が前記位置を示す前記位置情報、前記画像表示部の前記表示画面の向きを示す向き情報を含み、
前記照明情報取得部が、
前記状態情報における前記位置情報及び前記向き情報により、前記照明光の前記強度を示す情報と前記照明光の入射方向とを含む前記照明情報を求め、
前記色調整部が、当該照明情報により前記画像コンテンツの色を調整する
ことを特徴とする画像表示端末。 - 画像コンテンツを表示画像として表示画面に表示する画像表示部と、
自身の位置を検出する位置検出部と、
前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度を示す情報を含む照明情報を取得する照明情報取得部と、
前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整部と、
自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報から前記照明情報を算出する照明情報算出部と
備え、
前記色調整部が、前記照明情報と、前記位置と、前記表示画面の向きとにより、前記表示画像の色を生成する
ことを特徴とする画像表示端末。 - 前記照明情報が前記強度を示す情報に基づく照明光マップであり、
前記照明情報取得部が、前記照明光マップを前記表示画面に対する照明情報として取得し、前記照明光マップから、前記状態情報に対応して前記表示画面に入射する照明情報を求める
ことを特徴とする請求項2に記載の画像表示端末。 - 前記表示画面の向きを検出する向き検出部
をさらに備えることを特徴とする請求項1から請求項3のいずれか一項に記載の画像表示端末。 - 前記状態情報が時刻情報を含む
ことを特徴とする請求項1から請求項4のいずれか一項に記載の画像表示端末。 - 画像コンテンツを表示画像として表示画面に表示する画像表示部と、
自身の位置を検出する位置検出部と、
前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度を示す情報を含む照明情報を取得する照明情報取得部と、
前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整部と
を備え、
自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報に基づき、
前記照明情報取得部が、前記光源の特性情報と、前記空間における前記光源の位置と前記物体の位置と、前記表示画面の向きを示す向き情報とを用い、前記物体への照明情報を求め、
前記色調整部が、前記物体に入射する前記照明情報と前記物体の3次元形状及び材質に対応した反射に基づくレンダリング処理により前記表示画像の色を生成する
ことを特徴とする画像表示端末。 - 画像表示部が、画像コンテンツを表示画像として表示画面に表示する画像表示過程と、
位置検出部が、自身の位置を検出する位置検出過程と、
照明情報取得部が、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得過程と、
色調整部が、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整過程と
を含み、
前記状態情報が前記位置を示す前記位置情報、前記画像表示部の前記表示画面の向きを示す向き情報を含み、
前記照明情報取得部が、
前記状態情報における前記位置情報及び前記向き情報により、前記照明光の前記強度を示す情報と前記照明光の入射方向とを含む前記照明情報を求め、
前記色調整部が、当該照明情報により前記画像コンテンツの色を調整する
ことを特徴とする画像表示方法。 - 画像表示部が、画像コンテンツを表示画像として表示画面に表示する画像表示過程と、
位置検出部が、自身の位置を検出する位置検出過程と、
照明情報取得部が、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得過程と、
色調整部が、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整過程と、
照明情報算出部が、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報から前記照明情報を算出する照明情報算出過程と
を含み、
前記色調整部が、前記照明情報と、前記位置と、前記表示画面の向きとにより、前記表示画像の色を生成する
ことを特徴とする画像表示方法。 - 画像表示部が、画像コンテンツを表示画像として表示画面に表示する画像表示過程と、
位置検出部が、自身の位置を検出する位置検出過程と、
照明情報取得部が、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得過程と、
色調整部が、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整過程と
を含み、
自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報に基づき、
前記照明情報取得部が、前記光源の特性情報と、前記空間における前記光源の位置と前記物体の位置と、前記表示画面の向きを示す向き情報とを用い、前記物体への照明情報を求め、
前記色調整部が、前記物体に入射する前記照明情報と前記物体の3次元形状及び材質に対応した反射に基づくレンダリング処理により前記表示画像の色を生成する
ことを特徴とする画像表示方法。 - コンピュータを、
画像コンテンツを表示画像として表示画面に表示する画像表示手段、
自身の位置を検出する位置検出手段、
前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得手段、
前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整手段
として機能させ、
前記状態情報が前記位置を示す前記位置情報、画像表示部の前記表示画面の向きを示す向き情報を含み、
前記照明情報取得手段が、
前記状態情報における前記位置情報及び前記向き情報により、前記照明光の前記強度を示す情報と前記照明光の入射方向とを含む前記照明情報を求め、
前記色調整手段が、当該照明情報により前記画像コンテンツの色を調整する
プログラム。 - コンピュータを、
画像コンテンツを表示画像として表示画面に表示する画像表示手段、
自身の位置を検出する位置検出手段、
前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得手段、
前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整手段、
自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報から前記照明情報を算出する照明情報算出手段
として機能させ、
前記色調整手段が、前記照明情報と、前記位置と、前記表示画面の向きとにより、前記表示画像の色を生成する
プログラム。 - コンピュータを、
画像コンテンツを表示画像として表示画面に表示する画像表示手段、
自身の位置を検出する位置検出手段、
前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得手段、
前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整手段
として機能させ、
自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報に基づき、
前記照明情報取得手段が、前記光源の特性情報と、前記空間における前記光源の位置と前記物体の位置と、前記表示画面の向きを示す向き情報とを用い、前記物体への照明情報を求め、
前記色調整手段が、前記物体に入射する前記照明情報と前記物体の3次元形状及び材質に対応した反射に基づくレンダリング処理により前記表示画像の色を生成する
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016133227A JP6866582B2 (ja) | 2016-07-05 | 2016-07-05 | 画像表示端末、画像表示方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016133227A JP6866582B2 (ja) | 2016-07-05 | 2016-07-05 | 画像表示端末、画像表示方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018005028A JP2018005028A (ja) | 2018-01-11 |
JP6866582B2 true JP6866582B2 (ja) | 2021-04-28 |
Family
ID=60946303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016133227A Active JP6866582B2 (ja) | 2016-07-05 | 2016-07-05 | 画像表示端末、画像表示方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6866582B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11960086B2 (en) | 2019-02-22 | 2024-04-16 | Sony Interactive Entertainment Inc. | Image generation device, head-mounted display, and image generation method |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1843602A3 (en) * | 2002-12-12 | 2007-12-05 | Samsung Electronics Co., Ltd. | Method and apparatus for generating illumination characteristic data around image display device, and method and apparatus for compensating for color variation using the method and apparatus |
JP2009244340A (ja) * | 2008-03-28 | 2009-10-22 | Nanao Corp | 補正方法、表示装置及びコンピュータプログラム |
JP2010091911A (ja) * | 2008-10-10 | 2010-04-22 | Nec Corp | 画面処理装置、画面処理方法および画面処理プログラム |
JP5489514B2 (ja) * | 2009-04-09 | 2014-05-14 | キヤノン株式会社 | 色処理方法、色処理装置及びプログラム |
JP5625463B2 (ja) * | 2010-04-19 | 2014-11-19 | 富士通株式会社 | 画像表示装置、画像表示システム及び照度特定方法 |
JP2013205434A (ja) * | 2012-03-27 | 2013-10-07 | Panasonic Corp | 電子機器 |
JP2013258673A (ja) * | 2012-05-15 | 2013-12-26 | Sharp Corp | 表示装置、テレビジョン受信機及びプログラム |
JP6044189B2 (ja) * | 2012-08-30 | 2016-12-14 | 株式会社リコー | 装置、システム |
JP6090917B2 (ja) * | 2013-03-08 | 2017-03-08 | Kddi株式会社 | 被写体画像抽出および合成装置、および方法 |
KR101992310B1 (ko) * | 2013-03-25 | 2019-09-30 | 엘지디스플레이 주식회사 | 표시 장치의 영상 처리 방법 및 장치 |
JP2014216963A (ja) * | 2013-04-26 | 2014-11-17 | シャープ株式会社 | 表示装置、表示装置の制御方法、および表示装置制御プログラム |
-
2016
- 2016-07-05 JP JP2016133227A patent/JP6866582B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018005028A (ja) | 2018-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jones et al. | Experimental validation of ray tracing as a means of image-based visual discomfort prediction | |
Yu et al. | Recovering photometric properties of architectural scenes from photographs | |
Cai | High dynamic range photogrammetry for synchronous luminance and geometry measurement | |
US20150342005A1 (en) | Method and apparatus for controlling electrical power usage based on exact sun elevation angle and measured geographical location | |
Kennelly et al. | General sky models for illuminating terrains | |
Simons et al. | High correlation but high scale-dependent variance between satellite measured night lights and terrestrial exposure | |
Jakubiec | Building a database of opaque materials for lighting simulation | |
Clark | Photometric stereo using LCD displays | |
CN105577982A (zh) | 一种图像处理的方法及终端 | |
WO2019088273A1 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
US10121451B2 (en) | Ambient light probe | |
JP6866582B2 (ja) | 画像表示端末、画像表示方法及びプログラム | |
Tominaga et al. | Spectral image acquisition, analysis, and rendering for art paintings | |
Darula et al. | A methodology for designing and calibrating an artificial sky to simulate ISO/CIE sky types with an artificial sun | |
KR101873681B1 (ko) | 항공 촬영 정보 기반 가상 조망 시스템 및 방법 | |
KR101132512B1 (ko) | 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법 | |
US20210199498A1 (en) | A method of measuring illumination, corresponding system, computer program product and use | |
Irwin | Full-spectral rendering of the earth’s atmosphere using a physical model of Rayleigh scattering | |
Rodriguez et al. | Testing the adequacy of luminous change descriptors to represent dynamic attributes in outdoor views | |
Gryaditskya et al. | Sky based light metering for high dynamic range images | |
Zaikina et al. | Verification of the accuracy of the luminance-based metrics of contour, shape, and detail distinctness of 3d object in simulated daylit scene by numerical comparison with photographed hdr images | |
Inanici | Application of the state-of-the-art computer simulation and visualization in architectural lighting research | |
Navvab et al. | Evaluation of historical museum interior lighting system using fully immersive virtual luminous environment | |
Mantzouratos et al. | Concise exterior lighting simulation methodology | |
He et al. | Improving the accuracy of circadian lighting simulation with field measurement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160706 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181102 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190619 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6866582 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |