JP6866582B2 - 画像表示端末、画像表示方法及びプログラム - Google Patents

画像表示端末、画像表示方法及びプログラム Download PDF

Info

Publication number
JP6866582B2
JP6866582B2 JP2016133227A JP2016133227A JP6866582B2 JP 6866582 B2 JP6866582 B2 JP 6866582B2 JP 2016133227 A JP2016133227 A JP 2016133227A JP 2016133227 A JP2016133227 A JP 2016133227A JP 6866582 B2 JP6866582 B2 JP 6866582B2
Authority
JP
Japan
Prior art keywords
information
illumination
image
color
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016133227A
Other languages
English (en)
Other versions
JP2018005028A (ja
Inventor
紘一 高瀬
紘一 高瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2016133227A priority Critical patent/JP6866582B2/ja
Publication of JP2018005028A publication Critical patent/JP2018005028A/ja
Application granted granted Critical
Publication of JP6866582B2 publication Critical patent/JP6866582B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Digital Computer Display Output (AREA)
  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、異なる環境光下において表示する画像を生成する画像表示端末、画像表示方法及びプログラムに関する。
スマートフォンやタブレットコンピュータ(以下タブレット)などの携帯情報端末の普及に伴い、鑑賞者が任意の場所において所望の画像コンテンツの画像を鑑賞することが可能となっている。特に、美術館及び博物館などにおいて、鑑賞者が展示物を鑑賞する際、展示物に関する情報を携帯情報端末を介して得ることが可能である場合がある。
このとき、展示物に関する情報を提供する際、この展示物の作者の説明が行われるため、同一作者の他の展示物が情報携帯端末に表示される場合がある。
しかしながら、他の展示物が同一作者の展示物であっても、鑑賞者が鑑賞している展示物が展示されている位置と異なる位置、あるいはユーザが展示物を鑑賞している展示室と異なる展示室に展示されている場合がある。この場合、携帯情報端末の表示画面における表示色の発色に違いはなくとも、位置が異なることによる照明光の波長や輝度などの照明環境によって、鑑賞者に知覚される色は異なるものとなる。
このため、携帯情報端末に表示される画像コンテンツは、制作者及び提供者が意図した通りの色で鑑賞者に鑑賞されない。
この問題を解決し、制作者及び提供者が意図した色を知覚するため、携帯情報端末を鑑賞する位置の照明環境の情報(照明環境情報)を得て、画像コンテンツの表示色を補正する必要がある(例えば、特許文献1参照)。
特許第5663914号公報
上記特許文献1においては、画像コンテンツにおける画素の画素値を補正するため、鑑賞者がその位置における環境光の照明情報を取得する必要がある。一般的な携帯情報端末には、カラーの撮像デバイスが付属しているため、周囲の輝度や照度の照明環境情報を得ることができる。
しかしながら、携帯情報端末を鑑賞する位置毎に、各鑑賞者が周囲の放射輝度や照度の照明環境情報を得ることは煩雑である。
また、上記撮像デバイスは、輝度や照度を得ることはできるが、RGB(Red、Green、Blue)の各色成分の情報が限度であり、照明光の分光情報までを得ることができない。このため、画像コンテンツの色を高い精度で調整する情報が不十分であり、制作者及び提供者が意図した色を知覚させる十分な調整が行えない。
照明光の分光情報(波長成分毎の照度あるいは輝度)を得るためには、別途、分光放射輝度計や分光照度計などの測定機器が必要である。
しかし、一般のユーザが上記測定機器を持ち歩くことはあり得ず、携帯情報端末により画像コンテンツを鑑賞する際、ユーザ自身が、周囲から携帯情報端末の表示画面に入射される光の分光情報を検出することは現実的には困難である。
本発明は、このような状況に鑑みてなされたもので、画像表示端末(携帯情報端末)を携帯するユーザが画像コンテンツの照明環境における照明情報を測定機器により取得することなく、照明情報に適した画像コンテンツの色を調整して表示する画像表示端末、画像表示方法及びプログラムを提供する。
上述した課題を解決するために、本発明の画像表示端末は、画像コンテンツを表示画像として表示画面に表示する画像表示部と、自身の位置を検出する位置検出部と、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度を示す情報を含む照明情報を取得する照明情報取得部と、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整部とを備え、前記状態情報が前記位置を示す前記位置情報、前記画像表示部の前記表示画面の向きを示す向き情報を含み、前記照明情報取得部が、前記状態情報における前記位置情報及び前記向き情報により、前記照明光の前記強度を示す情報と前記照明光の入射方向とを含む前記照明情報を求め、前記色調整部が、当該照明情報により前記画像コンテンツの色を調整することを特徴とする
本発明の画像表示端末は、画像コンテンツを表示画像として表示画面に表示する画像表示部と、自身の位置を検出する位置検出部と、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度を示す情報を含む照明情報を取得する照明情報取得部と、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整部と、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報から前記照明情報を算出する照明情報算出部と備え、前記色調整部が、前記照明情報と、前記位置と、前記表示画面の向きとにより、前記表示画像の色を生成することを特徴とする。
本発明の画像表示端末は、画像表示部が、画像コンテンツを表示画像として表示画面に表示する画像表示過程と、位置検出部が、自身の位置を検出する位置検出過程と、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得過程と、色調整部が、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整過程とを含み、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報に基づき、前記照明情報取得部が、前記光源の特性情報と、前記空間における前記光源の位置と前記物体の位置と、前記表示画面の向きを示す向き情報とを用い、前記物体への照明情報を求め、前記色調整部が、前記物体に入射する前記照明情報と前記物体の3次元形状及び材質に対応した反射に基づくレンダリング処理により前記表示画像の色を生成することを特徴とする。
本発明の画像表示装置は、前記状態情報が前記表示画面の前記位置情報、向きを示す向き情報を含み、前記色調整部が、前記状態情報に対応した前記照明光の前記強度を示す情報及び照明光の入射方向により、前記画像コンテンツの色を調整することを特徴とする。
本発明の画像表示端末は、前記照明情報取得部が、前記位置情報により、前記位置情報の示す位置を中心とした前記強度を示す情報に基づく照明光マップを前記表示画面に対する照明情報として取得し、前記照明光マップから、前記状態情報に対応して前記表示画面に入射する照明情報を求めることを特徴とする。
本発明の画像表示端末は、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報から前記照明情報を算出する照明情報算出部をさらに備え、前記色調整部が、前記照明情報と、前記位置と、前記表示画面の向きとにより、前記表示画像の色を生成することを特徴とする。
本発明の画像表示端末は、前記照明情報が前記強度を示す情報に基づく照明光マップであり、前記照明情報取得部が、前記照明光マップを前記表示画面に対する照明情報として取得し、前記照明光マップから、前記状態情報に対応して前記表示画面に入射する照明情報を求めることを特徴とする。
本発明の画像表示端末は、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報に基づき、前記照明情報取得部が、前記光源の特性情報と、前記空間における前記光源の位置と前記物体の位置と向きとを用い、前記物体への照明情報を求め、前記色調整部(第7の実施形態における表示色計算部17)が、前記物体に入射する前記照明情報と前記物体の3次元形状及び材質に対応した反射に基づくレンダリング処理により前記表示画像の色を生成することを特徴とする。
本発明の画像表示端末は、前記表示画面の向きを検出する向き検出部をさらに備えることを特徴とする。
本発明の画像表示端末は、前記状態情報が時刻情報を含むことを特徴とする。
本発明の画像表示方法は、画像表示部が、画像コンテンツを表示画像として表示画面に表示する画像表示過程と、位置検出部が、自身の位置を検出する位置検出過程と、照明情報取得部が、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得過程と、色調整部が、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整過程とを含み、前記状態情報が前記位置を示す前記位置情報、前記画像表示部の前記表示画面の向きを示す向き情報を含み、前記照明情報取得部が、前記状態情報における前記位置情報及び前記向き情報により、前記照明光の前記強度を示す情報と前記照明光の入射方向とを含む前記照明情報を求め、前記色調整部が、当該照明情報により前記画像コンテンツの色を調整することを特徴とする。
本発明の画像表示方法は、画像表示部が、画像コンテンツを表示画像として表示画面に表示する画像表示過程と、位置検出部が、自身の位置を検出する位置検出過程と、照明情報取得部が、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得過程と、色調整部が、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整過程と、照明情報算出部が、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報から前記照明情報を算出する照明情報算出過程とを含み、前記色調整部が、前記照明情報と、前記位置と、前記表示画面の向きとにより、前記表示画像の色を生成することを特徴とする。
本発明の画像表示方法は、画像表示部が、画像コンテンツを表示画像として表示画面に表示する画像表示過程と、位置検出部が、自身の位置を検出する位置検出過程と、照明情報取得部が、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得過程と、色調整部が、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整過程とを含み、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報に基づき、前記照明情報取得部が、前記光源の特性情報と、前記空間における前記光源の位置と前記物体の位置と、前記表示画面の向きを示す向き情報とを用い、前記物体への照明情報を求め、前記色調整部が、前記物体に入射する前記照明情報と前記物体の3次元形状及び材質に対応した反射に基づくレンダリング処理により前記表示画像の色を生成することを特徴とする。
本発明のプログラムは、コンピュータを、画像コンテンツを表示画像として表示画面に表示する画像表示手段、自身の位置を検出する位置検出手段、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得手段、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整手段として機能させ、前記状態情報が前記位置を示す前記位置情報、画像表示部の前記表示画面の向きを示す向き情報を含み、前記照明情報取得手段が、前記状態情報における前記位置情報及び前記向き情報により、前記照明光の前記強度を示す情報と前記照明光の入射方向とを含む前記照明情報を求め、前記色調整手段が、当該照明情報により前記画像コンテンツの色を調整するプログラムである。
本発明のプログラムは、コンピュータを、画像コンテンツを表示画像として表示画面に表示する画像表示手段、自身の位置を検出する位置検出手段、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得手段、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整手段、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報から前記照明情報を算出する照明情報算出手段として機能させ、前記色調整手段が、前記照明情報と、前記位置と、前記表示画面の向きとにより、前記表示画像の色を生成するプログラムである。
本発明のプログラムは、コンピュータを、画像コンテンツを表示画像として表示画面に表示する画像表示手段、自身の位置を検出する位置検出手段、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得手段、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整手段として機能させ、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報に基づき、前記照明情報取得手段が、前記光源の特性情報と、前記空間における前記光源の位置と前記物体の位置と、前記表示画面の向きを示す向き情報とを用い、前記物体への照明情報を求め、前記色調整手段が、前記物体に入射する前記照明情報と前記物体の3次元形状及び材質に対応した反射に基づくレンダリング処理により前記表示画像の色を生成するプログラムである。
以上説明したように、本発明によれば、情報携帯端末を携帯するユーザが画像コンテンツの照明環境における照明情報を測定機器により取得することなく、照明情報に適した画像コンテンツの色を調整して表示する画像表示システム、画像表示方法及びプログラムを提供することができる。
本発明の第1の実施形態による画像表示端末の構成の一例を示すブロック図である。 照明情報データベース18に予め書き込まれて記憶されているテーブルの構成例を示している。 第1の実施形態の画像表示端末における画像コンテンツの色調整の動作例を示すフローチャートである。 画像表示端末1が所定の3次元空間に位置する状態、例えば室内に位置する場合を示す概念図である。 本発明の第2の実施形態による画像表示端末1Aの構成の一例を示すブロック図である。 照明情報データベース18Aに予め書き込まれて記憶されているテーブルの構成例を示している。 第2の実施形態の画像表示端末における画像コンテンツの色調整の動作例を示すフローチャートである。 本発明の第3の実施形態による画像表示端末1Bの構成の一例を示すブロック図である。 第3の実施形態の画像表示端末における画像コンテンツの色調整の動作例を示すフローチャートである。 本発明の第4の実施形態における照明情報データベース18Aに予め書き込まれて記憶されているテーブルの構成例を示している。 本発明の第5の実施形態による画像表示端末1Dの構成の一例を示すブロック図である。 照明情報データベース18Dに予め書き込まれて記憶されているテーブルの構成例を示している。 本発明の第8の実施形態による画像表示端末1Eの構成の一例を示すブロック図である。 自然光履歴データベース25に予め書き込まれて記憶されているテーブルの構成例を示している。
<第1の実施形態>
以下、本発明の第1の実施形態について、図面を参照して説明する。
図1は、本発明の第1の実施形態による画像表示端末1の構成の一例を示すブロック図である。本実施形態による画像表示端末1は、例えば、スマートフォンやタブレットなどの携帯端末に対してアプリケーションプログラムをインストールし、起動することにより各機能部が構成されて稼働する。
図1において、画像表示端末1は、入力部11、表示部12、位置検出部13、傾き検出部14、状態情報取得部15、照明情報取得部16、表示色計算部17及び照明情報データベース18を備えている。
入力部11は、例えばキーボード、タッチパッド、ボタンなどの入力手段から供給される操作情報、あるいは外部装置から画像コンテンツなどの入力を行う。
表示部12は、外部装置から供給される画像コンテンツを、自身の表示画面に対して表示する。
位置検出部13は、携帯端末の世界座標系における3次元座標値を検出し、位置情報として出力する。ここで、位置検出部13は、例えば、GPS(Global Positioning System)、電子コンパス、無線通信、ビーコンなどの3次元座標値を検出する手段により構成されている。
傾き検出部14は、表示部12の表示画面の法線の向きを検出し、向き情報として出力する。ここで、傾き検出部14は、例えば、ジャイロセンサあるいは加速度センサなどの傾きを検出する手段により構成されている。
状態情報取得部15は、所定の周期において、位置検出部13から位置情報を読み取り、また傾き検出部14から向き情報を読み取り、位置情報及び向き情報の各々の組合わせを状態情報とする。
照明情報取得部16は、状態情報取得部15から上記状態情報が供給されると、照明情報データベース18において、上記状態情報に対応して記憶されている照明情報を読み出す。ここで、照明情報は光源からの光の強度の情報を含んでいる。光の強度の情報としては、後述する表示画面12Sに入射される光の輝度値または照度などの情報であり、必要に応じて波長成分毎の輝度値または照度の情報、あるいはR、G、Bなどのチャネルの波長範囲において積分した輝度値の情報などを含んでいる。
図2は、照明情報データベース18に予め書き込まれて記憶されているテーブルの構成例を示している。図2(a)は照明情報検索テーブルの構成を示し、位置情報及び向き情報の組合わせの状態情報毎に照明データインデックスが対応して示されている。図2(b)は照明情報テーブルの構成を示し、各照明データインデックスに対し、第1波長照度、第2波長照度、第3波長照度、…、第n波長照度の各々からなる照明情報が対応して示されている。第1波長照度から第n波長照度の各々には、それぞれ照明光の波長とその波長の照明光の照度とが示されている。
本実施形態においては、建築物内部の空間、例えば室内などの3次元空間を複数のサブ空間に分割する。そして、このサブ空間の各々の中心座標を、照明情報検索テーブルにおける3次元空間でのサブ空間それぞれの位置情報とする。また、各位置情報における分光照度計の照明光の検出方向(検出面の法線)を、照明情報検索テーブルにおける向き情報とする。上述した構成の場合、3次元空間のサブ空間への分割数を増加させるに従い、照明情報の精度は向上する。
図1に戻り、照明情報取得部16は、照明情報データベース18の照明情報検索テーブルにおいて、取得した状態情報と同様の位置情報及び向き情報の組合わせを検索する。そして、照明情報取得部16は、この検索された組合わせに対応した照明データインデックスを読み出す。照明情報取得部16は、読み出した照明データインデックスを照明情報テーブルにおいて検索する。照明情報取得部16は、検索された照明データインデックスに対応した照明情報を、照明情報テーブルから読み出す。
ここで、照明情報取得部16は、例えば、以下に示すように、状態情報の位置情報と向き情報との組合わせと同様あるいは類似した位置情報と向き情報との組合わせを、照明情報検索テーブルにおいて検索する以下の処理を行う。状態情報における位置情報を3次元位置ベクトルrとし、向き情報を法線ベクトルnとする。照明情報検索テーブルにおける位置情報を3次元ベクトルrとし、向き情報を法線ベクトルnとする。照明情報取得部16は、以下の(1)式で計算されるdが予め設定された所定の範囲に入る位置情報と向き情報との組合わせを有する照明データインデックスを候補照明データインデックスとして抽出する。
=λ(r−r・(r−r)+λ・n …(1)
(1)式において、λとλとの各々は、それぞれ位置情報、向き情報の重み付け係数である。また、「T」はベクトルの転置、「・」はベクトルの内積を示している。
また、本実施形態においては、照明情報データベース18を画像表示端末1が備えている構成として説明したが、インターネット上のいずれかのサーバに対して照明情報データベース18を設置して、必要に応じて画像表示端末1がこのサーバをアクセスし、状態情報に対応した照明情報を、照明情報データベース18からサーバを介して取得する構成としても良い。
表示色計算部17は、照明情報取得部16が取得した照明情報により、画像コンテンツの各画素の画素値を調整する処理を行う。
ここで、表示色計算部17は、ICCプロファイルに基づいて、制作者や提供者が意図した画像コンテンツの色をCIE L色空間の座標値で表し、照明光の波長毎の照度において、等しいCIE L色空間の座標値となるように、画像コンテンツの画素値を調整する。すなわち制作者や提供者が意図した画像コンテンツの色を、照明情報の照明環境下において鑑賞者に知覚させる色を再現する画素値へ変換する色調整である。
表示部12は、表示色計算部17が画素値の色調整を行った画像コンテンツを、表示画面12Sに画像として表示する。
以下、図1、図3及び図4の各々を用いて、画像表示端末1の動作の説明を行う。図3は、本実施形態の画像表示端末1における画像コンテンツの色調整の動作例を示すフローチャートである。図4は、画像表示端末1が所定の3次元空間に位置する状態、例えば室内に位置する場合を示す概念図である。
ステップS11:
鑑賞者が、画像表示端末1を携帯し、他の3次元空間から3次元空間100(例えば、室内)に移動する。位置検出部13は、例えばビーコンで位置検出を行う構成であれば、無線機103と通信することにより、3次元空間100における画像表示端末1の位置を検出し、位置情報を生成する。
また、傾き検出部14は、例えば、ジャイロセンサであれば、表示部12の表示画面12Sの法線ベクトル201を検出し、この法線ベクトル201に基づいて向き情報を生成する。
そして、状態情報取得部15は、位置検出部13から位置情報を、傾き検出部14から向き情報を読み取り、読み取った位置情報及び向き情報の組合わせを状態情報とする。
ステップS12:
照明情報取得部16は、取得した状態情報と同様あるいは類似した位置情報及び向き情報の組合わせを、照明情報データベース18の照明情報検索テーブルから検索する。そして、照明情報取得部16は、検索された位置情報及び向き情報の組合わせに対応する照度データインデックスを読み出す。照明情報取得部16は、読み出した照度データインデックス対応する照明情報を、照明情報データベース18の照明情報テーブルから抽出する。図4において、照明情報は、例えば、蛍光灯101及び102の各々が光を放射し、表示画面12Sに対してこの放射された光が入射する照度の情報である。
ステップS13:
表示色計算部17は、外部装置から、あるいは画像表示端末1の図示しない記憶部から、表示画面12Sに表示する画像コンテンツを読み込む。
そして、表示色計算部17は、画像コンテンツに付加されているICCプロファイルを抽出して読み出す。
ステップS14:
表示色計算部17は、ICCプロファイルに基づいて照明情報に応じた色調整を行う。すなわち、表示色計算部17は、照明情報の波長毎の照明光の照度に対応させて、画像コンテンツの画素値をずらして色調整の処理を行う。
ステップS15:
表示部12は、ICCプロファイルに基づいて、画像コンテンツの画素値を求めて、この画素値の画像を表示画面12Sに対して表示する。
本実施形態は、予め測定して取得した空間の位置情報及び向き情報の組合わせに対応した照度を、照明情報として照明情報データベース18に対して予め書き込んで記憶させている。このため、本実施形態によれば、画像表示端末1の状態情報を取得するのみで、容易に画像表示端末1の表示画面12Sに照射される照明光の波長成分毎の照度が得られる。この結果、本実施形態によれば、鑑賞者が画像コンテンツを表示する際、鑑賞者自身が表示画面12Sに対して照射される照明光の波長成分毎の照度を測定する必要がなく、照明環境下において制作者及び提供者が意図する色として知覚できるように、画像コンテンツの画像の画素値の色調整を容易に行うことができる。
また、本実施形態においては、図2の照明情報検索テーブルが時間によって変化しない構成として記載したが、所定の時間で照明環境が変化する3次元空間の場合、時間毎に対応した照明情報検索テーブルを設けても良い。すなわち、状態情報は時間情報を含む構成となる。このとき、照明情報検索テーブルにおいて、照度データインデックスを検索する際、位置情報には現在の時刻を示す時間情報を含んだ検索が行われる。
<第2の実施形態>
以下、本発明の第2の実施形態について、図面を参照して説明する。
図5は、本発明の第2の実施形態による画像表示端末1Aの構成の一例を示すブロック図である。本実施形態による画像表示端末1Aは、第1の実施形態と同様に、例えば、スマートフォンやタブレットなどの携帯端末に対してアプリケーションプログラムをインストールし、起動することにより各機能部が構成されて稼働する。
図5において、画像表示端末1Aは、入力部11、表示部12、位置検出部13、傾き検出部14、状態情報取得部15、照明情報取得部16A、表示色計算部17、照明情報データベース18A及び照度算出部19を備えている。第1の実施形態と同様の構成については、同一の符号を付してその説明を省略する。以下、第1の実施形態と異なる構成及び動作を説明する。
図6は、照明情報データベース18Aに予め書き込まれて記憶されているテーブルの構成例を示している。図6(a)は照明情報検索テーブルの構成を示し、状態情報における位置情報毎に放射輝度データインデックスが対応して示されている。位置情報は、3次元空間における3次元座標値である。放射輝度データインデックスは、位置情報毎の放射輝度のデータを識別するインデックスである。
図6(b)は照明情報テーブルの構成を示し、各放射輝度データインデックスに対し、第1放射輝度データから第n放射輝度データの各々が予め書き込まれて記憶されている。第1放射輝度データは、第1照明光の第1波長成分の輝度値と、この第1波長成分の入射方向との組み合わせが記憶されている。他の波長成分の放射輝度データも同様に、それぞれの波長成分の輝度値と、波長成分の入射方向が示されている。
本実施形態においては、室内などのそれぞれの3次元空間において、この3次元空間を複数のサブ空間に分割している。そして、このサブ空間の中心座標を3次元空間における位置情報として、照明情報検索テーブルに示している。また、この中心座標に入射する照明光の波長成分毎の輝度値と、波長成分の光の入射方向を、分光放射輝度計により予め測定して、図6(b)の照明情報テーブルに書き込んで記憶させる。第1の実施形態と同様に、3次元空間のサブ空間への分割数を増加させるに従い、照明情報の精度は向上する。
図5に戻り、照明情報取得部16Aは、状態情報取得部15の取得した状態情報における位置情報と一致、あるいは最も近傍にある位置情報を、照明情報データベース18Aの照明情報検索テーブルから検索する。そして、照明情報取得部16Aは、検索された位置情報に対応して記憶されている放射輝度データインデックスを、照明情報検索テーブルから読み出す。
また、照明情報取得部16Aは、読み出した放射輝度データインデックスを、照明情報データベース18Aの照明情報テーブルから検索する。そして、照明情報取得部16Aは、検索された放射輝度データインデックスに対応して記憶されている第1放射輝度データから第n放射輝度データの各々を読み出す。照明情報取得部16Aは、読み出した第1放射輝度データから第n放射輝度データの各々を、照度算出部19に対して出力する。
照度算出部19は、照明情報取得部16Aから供給される照明情報(第1放射輝度データから第n放射輝度データの各々)と、状態情報取得部15から供給される自身の表示部12の表示画面12Sの向き情報に基づき、この表示画面12Sに入射される照明光の照度を算出する。
そして、表示色計算部17は、照度算出部19が算出した照度を用いて、第1の実施形態に示したように、画像コンテンツにおける画像の各々の画素値に対する色調整を行う。
以下、図4、図5及び図7の各々を用いて、画像表示端末1Aの動作の説明を行う。図7は、本実施形態の画像表示端末1Aにおける画像コンテンツの色調整の動作例を示すフローチャートである。以下、図7のフローチャートにおける第1の実施形態と異なるステップS12A及びステップS12Bについて説明する。
ステップS12A:
照明情報取得部16Aは、状態情報における位置情報と一致、あるいは最も近傍の位置にある位置情報を、照明情報データベース18Aの照明情報検索テーブルから検索する。
そして、照明情報取得部16Aは、検索された位置情報に対応する放射輝度データインデックスを、照明情報検索テーブルから読み出す。照明情報取得部16Aは、照明情報データベース18Aの照度情報テーブルから、読み出した放射輝度データインデックスに対応した第1放射輝度データから第n放射輝度データの各々を読み出し、照度算出部19に対して出力する。
ステップS12B:
照度算出部19は、供給された第1放射輝度データから第n放射輝度データの各々に基づき、状態情報における向き情報により、表示画面12Sに入射される照明光の照度を算出する。
ステップS13以降は、第1の実施形態と同様のため、説明を省略する。
本実施形態は、測定して取得した空間の位置における輝度情報を照明情報として、空間の位置を示す位置情報に対応させて、照明情報データベース18Aに対して予め書き込んで記憶させてある。これにより、照明情報データベース18Aにおける位置情報に対応した照明情報である輝度値と、表示画面12Sの向き情報から、表示画面12Sに入射する照明光の照度を算出することで、容易に画像表示端末1の表示画面12Sに照射される照明光の波長成分毎の照度が得られる。このため、本実施形態によれば、鑑賞者が画像コンテンツを表示する際、鑑賞者自身が表示画面12Sに対して照射される照明光の波長成分毎の照度を、測定する必要がなく、容易に画像コンテンツの画素の画素値の色調整を行うことができる。
また、本実施形態においては、照明情報データベース18Aを画像表示端末1Aが備えている構成として説明した。しかしながら、照明情報データベース18Aがインターネット上のいずれかのサーバに設置され、必要に応じて画像表示端末1Aがこのサーバをアクセスし、状態情報に対応した照明情報を取得する構成としても良い。
また、本実施形態における照度算出部19も上記サーバの機能として設け、画像表示端末1Aがサーバに対して状態情報を送信することにより、表示画面12Sに入射する照度を、画像表示端末1Aに対して供給する構成としても良い。
また、本実施形態においては、図6の照明情報検索テーブルが時間によって変化しない構成として記載したが、所定の時間で照明環境が変化する3次元空間の場合、時間毎に対応した照明情報検索テーブルを設けても良い。すなわち、状態情報は時間情報を含む構成となる。このとき、照明情報検索テーブルにおいて、放射輝度データインデックスを検索する際、位置情報と、現在の時刻を示す時間情報とにより検索が行われる。
<第3の実施形態>
以下、本発明の第3の実施形態について、図面を参照して説明する。
図8は、本発明の第3の実施形態による画像表示端末1Bの構成の一例を示すブロック図である。本実施形態による画像表示端末1Bは、第1の実施形態と同様に、例えば、スマートフォンやタブレットなどの携帯端末に対してアプリケーションプログラムをインストールし、起動することにより各機能部が構成されて稼働する。
図8において、画像表示端末1Bは、入力部11、表示部12、位置検出部13、傾き検出部14、状態情報取得部15、照明情報取得部16A、表示色計算部17B及び照明情報データベース18Bを備えている。以下、第1の実施形態と異なる構成及び動作を説明する。第1の実施形態あるいは第2の実施形態と同様の構成については、同一の符号を付してその説明を省略する。
表示色計算部17Bは、照明情報取得部16Aが取得した照明情報と、画像コンテンツの画素値とから、表示部12が表示画面12Sに表示する画像の画素値を生成する(画素値の色調整に対応)。
ここで、表示色計算部17Bは、例えば、CIE(国際照明委員会)のCAM(色の見えモデル)であるCIECAM02の定義式(色順応式)を用いて表示画面12Sに対して表示する画像の画素値を生成する。すなわち、表示色計算部17Bは、予め位置毎に測定された図6(b)の照明情報の放射輝度データから、表示画面12Sに入射する照明輝度及び周囲輝度を求める。
表示色計算部17Bは、求めた照明輝度及び周囲輝度により、上記色順応式で使用する順応ファクタを求める。そして、表示色計算部17Bは、求めた順応ファクタと、画像コンテンツの画像の画素値とを、CIECAM02の色順応式に代入し、表示画面12Sに表示する画像の画素値を算出する(例えば、「CIE色の見えモデル(CIECAM02)の概要とその応用」、矢口博久、日本写真学会誌、2005年68巻第1号、16から20ページ)。
ここで、表示画面12Sの位置情報及び向き情報の各々の組合わせの状態情報毎に対応させて白色板を設置し、この白色板からの反射光の波長成分毎の放射輝度を放射輝度計により測定する。そして、この放射輝度から表示画面12Sに入射する照明輝度及び周囲輝度を求める。順応ファクタは、画像コンテンツにおける白色と照明環境の照明光下において知覚される白色とが同様とするファクタである。表示色計算部17Bは、上述した照明輝度及び周囲輝度により、順応ファクタを求めて、CIECAM02の色順応式により、画像コンテンツの画像の画素値を、表示画面12Sに対して表示する画像の画素値に変換する処理を行う。
以下、図6、図8及び図9の各々を用いて、画像表示端末1Bの動作の説明を行う。図9は、本実施形態の画像表示端末1Bにおける画像コンテンツの色調整の動作例を示すフローチャートである。以下、図9のフローチャートにおける第1の実施形態及び第2の実施形態と異なるステップS14Aについて説明する。
ステップS14A:
表示色計算部17Bは、照明情報取得部16Aが取得した照明情報である放射輝度データから、状態情報の向き情報を用いて、表示画面12Sに対して入射する照明輝度及び周囲輝度を算出する。
そして、表示色計算部17Bは、照明輝度及び周囲輝度から順応ファクタを求め、この順応ファクタと画像コンテンツの画素値とCIECAM02の色順応式とにより、表示画面12Sに表示する画像の画素値を算出する。
また、本実施形態においては、照明情報データベース18Bを画像表示端末1Bが備えている構成として説明した。しかしながら、照明情報データベース18Bがインターネット上のいずれかのサーバに設置され、必要に応じて画像表示端末1Bがこのサーバをアクセスし、状態情報に対応した照明情報を取得する構成としても良い。
また、本実施形態においても、第2の実施形態と同様に、照明情報検索テーブルにおいて、放射輝度データインデックスを検索する際、位置情報と、現在の時刻を示す時間情報とにより検索を行っても良い。
本実施形態は、空間の所定の位置毎に測定して取得した輝度情報を、この取得した空間の位置を示す位置情報に対応させて、照明情報データベース18Bに対して予め書き込んで記憶させてある。これにより、照明情報データベース18Bにおける位置情報に対応した照明情報である放射輝度データから、照明輝度及び周囲輝度を求める。そして、照明輝度及び周囲輝度により順応ファクタを算出して、順応ファクタと画像コンテンツの画素値とをCIECAM02の色順応式に代入し、表示画面12Sに表示する画像の画素値を容易に得ることができる。このため、本実施形態によれば、鑑賞者が画像コンテンツを表示する際、鑑賞者自身が表示画面12Sに対して照射される照明光の波長成分毎の照度を、測定する必要がなく、容易に画像コンテンツから表示画面12Sに表示する画像の画素値を得ることができる。
<第4の実施形態>
第2の実施形態及び第3の実施形態においては、図6に示すように、照明情報として放射輝度データを用いている。
第4の実施形態においては、図10に示す照明光マップを照明情報として用いる。第4の実施形態は、図8の構成と同様である。図10は、本実施形態における照明情報データベース18Bに予め書き込まれて記憶されているテーブルの構成例を示している。
図10(a)は、照明情報検索テーブルの構成を示し、状態情報における位置情報毎に照明光マップインデックスが対応して示されている。図10(b)は、照明情報テーブルの構成を示し、各照明光マップインデックスに対し、第1照明光マップファイルから第n照明光マップファイルが予め書き込まれて記憶されている。第1照明光マップファイルは、第1チャンネル(第1波長成分)の照明光の輝度がマッピングされたデータファイルが記憶されている。他の照明光マップファイルのチャンネルの輝度も同様に、それぞれの波長成分のデータファイルが示されている。
上記照明光マップは、例えば、キューブマップやスフィアマップなどが用いられ、キューブ(立方体)やスフィア(球体)の中心部に向かって入射する照明光の輝度情報が、照明光が透過するキューブあるいはスフィアの表面の位置を画素とし、各画素の画素値として、キューブやスフィアの表面にマッピングされている。
この照明光マップの輝度データから、第2の実施形態のように照度データを生成したり、第3の実施形態のように、照明輝度及び周囲輝度を求めて、CIECAM02の色順応式により、表示画面12Sに表示する画像の画素値を生成しても良い。
また、本実施形態においては、照明情報データベース18Bを画像表示端末1Bが備えている構成として説明した。しかしながら、照明情報データベース18Bがインターネット上のいずれかのサーバに設置され、必要に応じて画像表示端末1Bがこのサーバをアクセスし、状態情報に対応した照明情報を取得する構成としても良い。
また、本実施形態においては、図10の照明情報検索テーブルが時間によって変化しない構成として記載したが、所定の時間で照明環境が変化する3次元空間の場合、時間毎に対応した照明情報検索テーブルを設けても良い。すなわち、状態情報は時間情報を含む構成となる。このとき、照明情報検索テーブルにおいて、照明光マップインデックスを検索する際、位置情報と、現在の時刻を示す時間情報とにより検索が行われる。
本実施形態は、空間の所定の位置毎に測定して取得した照明マップを、この取得した空間の位置を示す位置情報に対応させて、照明情報データベース18Bに対して予め書き込んで記憶させてある。これにより、照明情報データベース18Bにおける位置情報に対応した照明情報である照明マップから、照度データあるいは照明輝度及び周囲輝度を求める。そして、照度データにより画像コンテンツの画像の画素値の色調整を行ったり、照明輝度及び周囲輝度により順応ファクタを算出して、順応ファクタと画像コンテンツの画素値とをCIECAM02の色順応式に代入し、表示画面12Sに表示する画像の画素値を容易に得たりすることができる。このため、本実施形態によれば、鑑賞者が画像コンテンツを表示する際、鑑賞者自身が表示画面12Sに対して照射される照明光の波長成分毎の照度を、測定する必要がなく、容易に画像コンテンツから表示画面12Sに表示する画像の画素値を得ることができる。
<第5の実施形態>
以下、本発明の第5の実施形態について、図面を参照して説明する。
図11は、本発明の第5の実施形態による画像表示端末1Dの構成の一例を示すブロック図である。本実施形態による画像表示端末1Dは、第2の実施形態と同様に、例えば、スマートフォンやタブレットなどの携帯端末に対してアプリケーションプログラムをインストールし、起動することにより各機能部が構成されて稼働する。
図11において、画像表示端末1Dは、入力部11、表示部12、位置検出部13、傾き検出部14、状態情報取得部15、表示色計算部17、照明情報データベース18D、空間構造情報取得部20、3次元空間生成部21及び照明情報算出部22を備えている。以下、第2の実施形態と異なる構成及び動作を説明する。第2の実施形態と同様の構成については、同一の符号を付してその説明を省略する。本実施形態は、CG技術を用いて、表示画面12Sに照射される光の輝度を算出する。
図12は、照明情報データベース18Dに予め書き込まれて記憶されているテーブルの構成例を示している。
図12(a)は空間情報検索テーブルの構成を示し、画像表示端末1Dが位置する空間情報(3次元空間、例えば部屋空間)毎に、3次元空間における照度を算出するためのデータ群が対応付けて記憶されている。空間データインデックスは、3次元空間を識別するためのインデックス、例えば、美術館の中にある各部屋をそれぞれ識別するためのインデックスである。ここでの3次元空間は、CADで生成される仮想の3次元空間である。
この図において、空間CAD(computer aided design)データインデックスは、3次元空間の構造を示すCADデータを識別するインデックスである。この空間CADデータインデックスは、例えば、部屋の構造を示すCADデータの読み込みに用いる。
第1物体データインデックスなどの物体データインデックスは、3次元空間に配置されている物体、例えば、テーブルや椅子、調度品などの種類を識別するインデックスである。この物体データインデックスは、空間データインデックスが識別する3次元空間に配置されている全ての物体に付与されている。第1物体配置データは、空間データインデックスが識別する3次元空間において、第1物体が配置されている座標値を示している。
第1光源データインデックスなどの光源データインデックスは、3次元空間に配置されている光源、例えば、天井、壁、床に配置される蛍光灯やLEDなどの照明を行う光源の種類を識別するインデックスである。この光源データインデックスは、空間データインデックスが識別する3次元空間に配置されている全ての光源に付与されている。第1光源配置データなどの光源配置データは、空間データインデックスが識別する3次元空間において、光源が配置されている座標値を示している。第1光源点灯状態データなどの光源点灯状態データは、各光源が点灯あるいは消灯のいずれの状態にあるかを示す情報である。ここで、照明情報算出部22は、消灯している光源は存在しないとして、照明情報の計算を行う。
図12(b)は物体データテーブルの構成を示し、各物体データインデックスにより種別される物体の各々の3次元形状を示すCADデータと、物体を構成する各部分の材質である第1材質データ、第2材質データ、…の各々(以降、CADデータの物体の3次元形状を構成する第3物体、第4物体がある)が予め書き込まれて記憶されている。椅子であれば、背もたれ、座席、椅子の脚などの材質がそれぞれ示されている。
図12(c)は光源データテーブルの構成を示し、各光源データインデックスにより種別される光源の各々の3次元形状を示すCADデータと、光源の放射する光の第1波長の波長を示す第1波長データ、第1波長の光の輝度値を示す第1波長輝度値データ、第1波長の光の放射強度の配光分布を示す第1波長配光分布データと、…の各々(以降、光源の放射する光の第2波長、第3波長の光源データがある)が予め書き込まれて記憶されている。波長及び配光分布データは、例えば、IES(Illumination Engineering Society of North America )が提供するIESデータを用いる。
図11に戻り、空間構造情報取得部20は、状態情報取得部15が取得した空間情報に対応する空間データインデックスの検索を行う。すなわち、空間構造情報取得部20は、検索された空間情報に対応する3次元空間の空間データインデックスを、照明情報データベース18Dの3次元空間テーブルを検索して取得する。
空間構造情報取得部20は、取得した空間データインデックスを空間情報検索テーブルにおいて検索し、検索された空間情報インデックスに対応する空間CADデータインデックス、物体データインデックス(例えば、第1物体データインデックス、第2物体データインデックス、…)、物体データ(例えば、第1物体データ、第2物体データ、…)、光源データインデックス(例えば、第1光源データインデックス、第1光源データインデックス、…)の各々を読み出す。そして、空間構造情報取得部20は、取得した空間CADデータインデックス、物体データインデックス(例えば、第1物体データインデックス、第2物体データインデックス、…)、物体データ(例えば、第1物体データ、第2物体データ、…)、光源データインデックス(例えば、第1光源データインデックス、第1光源データインデックス、…)の各々を3次元空間生成部21に対して出力する。
3次元空間生成部21は、供給される空間CADデータインデックス、第1物体データインデックス、第1物体データ、…、第1光源データインデックス、…の各々により、携帯情報端末が位置する3次元空間のCG(computer graphics)で示される3次元画像を生成する。すなわち、3次元空間生成部21は、空間CADデータインデックスにより3次元空間のCADデータを照明情報データベース18Dから読み出す。
そして、3次元空間生成部21は、物体データインデックスにより対応して、物体の各々の3次元形状を示すCADデータ及び材質データを読み出して、材質それぞれで構成された物体の3次元形状を生成する。また、3次元空間生成部21は、生成した物体の3次元形状の各々を、それぞれの物体配置データに対応して、CADデータが示す3次元空間に対して配置する。
同様に、3次元空間生成部21は、光源データインデックスにより対応して、3次元空間に配置される光源の各々の配置データにより、光源それぞれを3次元空間に配置する。
照明情報算出部22は、生成された3次元空間における状態情報の位置情報の示す位置に対する、3次元空間に配置された光源の各々から放射される照明光の照明情報を算出して生成する。ここで、照明情報算出部22は、3次元空間におけるレイトレーシング法により、3次元空間に配置された光源が放射する照明光の壁、天井、床からの反射に加え、3次元空間に配置された物体の3次元形状及び材質に対応した反射による反射光成分を含んだ照明情報を生成する。
照明情報算出部22は、携帯端末の位置情報及び向き情報と、波長データ、波長輝度値データ及び波長配光分布と、上述した反射光の成分との各々に基づき、表示画面12Sに照射される光の輝度を照明情報として算出する。
そして、表示色計算部17は、照明情報算出部22が生成した光の輝度に基づき、第2の実施形態と同様に、表示画面12Sに表示する画像の画素値の調整を行う。
また、本実施形態においては、表示画面12Sに照射される光の輝度の計算にレイトレーシング法を用いる構成として説明したが、ラジオシティ法やフォトンマッピング法などを用いて光の輝度を計算する構成としても良い。
また、本実施形態においては、照明情報データベース18Dを画像表示端末1Dが備えている構成として説明したが、インターネット上のいずれかのサーバに設置され、必要に応じて画像表示端末1Dがこのサーバをアクセスし、状態情報の位置情報に対応したCAD情報を取得する構成としても良い。
また、本実施形態においては、空間情報取得部20、3次元空間生成部21、照明情報算出部22及び照明情報データベース18Dの各々を備えている構成として説明したが、インターネット上のいずれかのサーバに設置され、画像表示端末1Dがアクセスして状態情報を出力することにより、サーバが空間情報取得部20、3次元空間生成部21、照明情報算出部22それぞれの処理を行い、照明情報データベース18Dを参照して、表示色計算部17が表示色を調整するための照明情報を生成し、画像表示端末1Dへ生成した照明情報を送信する構成としても良い。
また、本実施形態においては、図12の空間情報検索テーブルが時間によって変化しない構成として記載したが、所定の時間で照明環境が変化する3次元空間の場合、時間毎に対応した空間情報検索テーブルを設けても良い。すなわち、状態情報は時間情報を含む構成となる。このとき、空間情報検索テーブルにおいて、空間データインデックスを検索する際、空間情報と、現在の時刻を示す時間情報とにより検索が行われる。
本実施形態は、3次元のCADのデータに対応して、CG技術により照明情報を生成するため、容易に照明情報として光の輝度を生成することができ、表示画面12Sに表示するコンテンツ画像の画素値の生成が容易に行える。このため、本実施形態によれば、鑑賞者が画像コンテンツを表示する際、鑑賞者自身が表示画面12Sに対して照射される照明光の波長成分毎の照度及び輝度を、測定する必要がなく、容易に画像コンテンツから表示画面12Sに表示する画像の画素値を得ることができる。
<第6の実施形態>
第6の実施形態は、第5の実施形態の図11に示す構成と同様の構成である。
第6の実施形態においては、第4の実施形態で用いた照明光マップを、第5の実施形態におけるCADデータを用いた計算により生成する。すなわち、第6の実施形態は、照明情報算出部22が生成する照明情報が第5の実施形態と異なる。
すなわち、照明情報算出部22は、3次元空間に配置された光源が放射する照明光の壁、天井、床からの反射に加え、3次元空間に配置された物体の3次元形状及び材質に対応した反射による反射光成分を含んだ照明光マップを、シミュレーションにより生成する。
照明情報算出部22は、CG手法において、3次元空間の所定の座標(位置情報)が中心となる立方体や球体を生成し、この立方体や球体の中心に向かう照明光の輝度が画素値となるキューブマップやスフィアマップなどの照明光マップを、照明光の波長毎にレンダリングなどにより生成する。
そして、照明情報算出部22が生成した照明光マップの輝度データから、第2の実施形態のように照度データを生成したり、第3の実施形態のように、照明輝度及び周囲輝度を求めて、CIECAM02の色順応式により、表示画面12Sに表示する画像の画素値を生成しても良い。
本実施形態は、3次元のCADのデータに対応して、CG技術により照明情報を生成するため、容易に照明情報として照明光マップを生成することができ、表示画面12Sに表示するコンテンツ画像の画素値の生成が容易に行える。このため、本実施形態によれば、鑑賞者が画像コンテンツを表示する際、鑑賞者自身が表示画面12Sに対して照射される照明光の波長成分毎の照度及び輝度を、測定する必要がなく、容易に画像コンテンツから表示画面12Sに表示する画像の画素値を得ることができる。
<第7の実施形態>
第7の実施形態は、第5の実施形態の図11に示す構成と同様の構成である。
第7の実施形態においては、第5の実施形態で生成した照明情報により、レイトレーシング法などを用いて、3次元空間における仮想物体をCG技術によってレンダリングし、表示画面12Sに表示する画像の画素値を求める。すなわち、第7の実施形態においては、レイトレーシング法を用いたレンダリングにより、仮想物体の画像の、表示面12Sに表示する画素値を、リアルタイムに生成する点が第5の実施形態と異なる。
状態情報取得部15は、図12(b)で示される物体データテーブルから仮想物体の位置情報と、向きを示す向き情報とを読み出し、位置情報及び向き情報の各々の組合わせを状態情報とする。
照明情報算出部22は、仮想物体の状態情報における位置情報の示す位置に対する、3次元空間に配置された光源の各々から放射される照明光の照明情報を算出して生成する。ここで、照明情報算出部22は、3次元空間におけるレイトレーシング法により、3次元空間に配置された光源が放射する照明光の壁、床などからの反射に加え、3次元空間に配置された物体の3次元形状及び材質に対応した反射による反射光成分を含んだ照明情報を生成する。
照明情報算出部22は、仮想物体の状態情報に基づき、仮想物体に入射される照明光(光線)の各波長成分の放射輝度を、レイトレーシング法などのレンダリング法により3次元空間に配置された光源から求める。このレンダリングにおけるBidirectional Reflectance Distribution Function(BRDF)等に基づく仮想物体の反射光計算に対して、照明情報算出部22は、図12(c)に示される仮想物体の材質データを参照する。このとき、照明情報算出部22は、仮想物体を観察する視点位置を、表示画面12Sの位置情報及び向き情報の各々の組合わせ、またはその組合わせに対する任意の相対位置と仮定して、この仮定した視点を鑑賞者の視点としてレイトレーシング法などのレンダリング法を行ない、表示画面12Sに表示される各画像の画素値を、リアルタイムに生成する。
本実施形態は、3次元のCADのデータに対応して、CG技術により生成した照明光マップを用いて、レイトレーシング法を用いたレンダリングにより、表示画面12Sに表示する仮想物体の画像の画素値の生成がリアルタイムに容易に行える。このため、本実施形態によれば、鑑賞者が仮想物体を表示画面12Sに表示する際、鑑賞者自身が表示画面12Sに対して照射される照明光の波長成分毎の照度及び輝度を、測定することなく、表示画面12Sに表示する仮想物体の画像の画素値を得ることができる。
また、本実施形態においては、仮想物体に照射される光の輝度の計算に放射輝度データを用いる構成として説明したが、第6の実施形態のように照明光マップを用いた構成としても良い。
また、本実施形態においては、仮想物体に照射される光の輝度の計算にレイトレーシング法を用いる構成として説明したが、ラジオシティ法やフォトンマッピング法等を用いた構成としても良い。
また、本実施形態においては、レンダリング法における反射計算としてBRDFを用いる構成として説明したが、透過光計算に用いるBidirectional Transmitance Functionや仮想物体の表面のテクスチャを用いたBidirectional Texture Functionを用いた構成としても良い。
<第8の実施形態>
第1の実施形態から第7の実施形態までは、建物などの3次元空間内における表示画面12Sに対して照射される照明情報を求めて、表示画面12Sに表示される画像の画素値の色調整及び画素値の生成について示した。
本発明の第8の実施形態においては、屋外における3次元空間内での表示画面12Sに対して照射される照明光の照明情報を求めて、表示画面12Sに表示される画像の画素値の色調整及び画素値の生成を行う。
以下、本発明の第8の実施形態について、図面を参照して説明する。
図13は、本発明の第8の実施形態による画像表示端末1Eの構成の一例を示すブロック図である。本実施形態による画像表示端末1Eは、第1の実施形態と同様に、例えば、スマートフォンやタブレットなどの携帯端末に対してアプリケーションプログラムをインストールし、起動することにより各機能部が構成されて稼働する。
図13において、画像表示端末1Eは、入力部11、表示部12、位置検出部13、傾き検出部14、状態情報取得部15、表示色計算部17、気象情報取得部23、自然光履歴検索部24及び自然光履歴データベース25を備えている。以下、第1の実施形態と異なる構成及び動作を説明する。第1の実施形態と同様の構成については、同一の符号を付してその説明を省略する。
図14は、自然光履歴データベース25に予め書き込まれて記憶されているテーブルの構成例を示す図である。
図14(a)は、自然光データ検索テーブルであり、状態情報、時間情報、季節情報、雲量情報及び天気情報の各々の組合わせと、この組合わせに対応する自然光データインデックスとが書き込まれている。状態情報は、例えば、緯度、経度及び標高などの世界座標系における3次元座標値の位置情報、表示画面12Sの向き情報を示す。時間情報は、1日を1時間単位で分割した0時から24時までの時刻範囲を示している。季節情報は、春、夏、秋、冬のいずれかを示している。雲量情報は、雲量「1」から雲量「9」までの1単位の雲量を示している。天気情報は、晴れ、曇り、雨、雪などの天気を示している。自然光データインデックスは、上述した位置情報、時間情報、季節情報、雲量情報及び天気情報の各々の組合わせに対応した照明情報のデータを識別するインデックスである。
図14(b)は、自然光データテーブルであり、自然光データインデックスに対応して、第1波長照明情報、第2波長照明情報、第3波長照明情報、、第n波長照明情報の各々が書き込まれている。第1波長照明情報から第n照明情報の各々は、例えば、表示画面12Sに入射する照明光におけるそれぞれの波長成分の照度を示している。
ここで、第1波長照明情報から第n照明情報の各々は、位置情報、時間情報、季節情報、雲量情報及び天気情報の各々において、向き情報に対応させて、分光照度計で測定した照明光の波長成分毎の照度である。
図13に戻り、気象情報取得部23は、インターネットを介して天気予報のサイトにアクセスし、季節情報、雲量情報及び天気情報の各々を取得する。
自然光履歴検索部24は、自然光履歴データベース25の自然光データ検索テーブルにおいて、状態情報取得部15が取得した状態情報と、気象情報取得部23が取得した季節情報、雲量情報及び天気情報と、画像表示端末1Eの時計機能から取得した現在の時刻情報との各々の組合わせに対応する自然光データインデックスを検索する。また、自然光履歴検索部24は、検索に用いた状態情報、季節情報、雲量情報、天気情報及び時刻情報との組合わせに最も近い自然光データインデックスを、自然光データ検索テーブルから抽出する。
そして、自然光履歴検索部24は、自然光履歴データベース25の自然光データ検索テーブルを参照し、抽出した上記自然光データインデックスに対応する第1波長照明情報から第n照明情報の各々を読み出す。自然光履歴検索部24は、読み出した第1波長照明情報から第n照明情報の各々を表示色計算部17に対して出力する。
表示色計算部17は、自然光履歴検索部24から供給される第1波長照明情報から第n照明情報の各々の照度を用いて、画像コンテンツの画素値の各々の色調整を行う。
また、本実施形態において、第1波長照明情報から第n照明情報の各々を照度として説明した。しかしながら、本実施形態は、第2の実施形態と同様に、放射輝度データとしても良い。この構成の場合、第2の実施形態と同様に、放射輝度データから表示画面12Sに入射する照度を計算により求めて画像コンテンツにおける画素の画素値の色調整を行っても良い。また、第3の実施形態と同様に、放射輝度データを直接用いて画像コンテンツにおける画素の画素値の色調整を行っても良い。
また、本実施形態は、第1波長照明情報から第n照明情報の各々を、第3の実施形態と同様に、状態情報における位置情報を用いて検索される照明光マップとして構成しても良い。この構成の場合、第4の実施形態と同様に、照明光マップにおける照明光の放射輝度から表示画面12Sに入射する照度を計算により求めて画像コンテンツにおける画素の画素値の色調整を行っても良いし、放射輝度データを直接用いて画像コンテンツにおける画素の画素値の色調整を行っても良い。
また、本実施形態は、第5の実施形態と同様に、周囲の建築物、周囲の緑化環境、河川、湖、地面の起伏のCADデータ情報に基づいて、かつ雲量情報、天気情報、季節情報、時間情報に基づき太陽の位置などの情報により、CG技術を用いて各位置情報に対応して照度または輝度の照明情報を生成しても良い。
また、本実施形態は、第6の実施形態と同様に、周囲の建築物、周囲の緑化環境、河川、湖、地面の起伏のCADデータ情報に基づいて、かつ雲量情報、天気情報、季節情報、時間情報に基づき太陽の位置などの情報により、CG技術を用いて各位置情報に対応して照明光マップを生成しても良い。このとき、照明光の入射方向は、太陽からの照明光を平行光と仮定し、月日(季節情報)と時刻(時間情報)、及び表示画面12Sの位置情報、向き情報から計算する。ここで、晴天の場合に用いる照明光マップは、現在の時刻に近い過去の時刻における気象庁の直達日射照度から算出する。一方、雨や曇りの場合、太陽からの直接光ではなく、雲により散乱された間接光となるため、照明光マップは、現在の時刻に近い過去の時刻における気象庁の散乱日射照度から算出する。
また、本実施形態は、第7の実施形態と同様に、第6の実施形態で生成した照明光マップファイルを用いて、画像コンテンツの画素値に対応させて、表示画面12Sに表示される画像の画素値をCG技術により生成しても良い。
また、本実施形態においては、気象情報取得部23、自然光履歴検索部24及び自然光履歴データベース25の各々を画像表示端末1Eが備えているとして説明した。しかしながら、気象情報取得部23、自然光履歴検索部24及び自然光履歴データベース25の各々がインターネット上のいずれかのサーバに設置され、必要に応じて画像表示端末1Eがこのサーバをアクセスし、状態情報及び時間情報に対応した照明情報を取得する構成としても良い。
本実施形態によれば、鑑賞者が画像コンテンツを表示する際、鑑賞者自身が表示画面12Sに対して照射される照明光の波長成分毎の照度及び輝度を、測定する必要がなく、容易に画像コンテンツから表示画面12Sに表示する画像の画素値を得ることができる。
なお、本発明における図1の画像表示端末1、図5の画像表示端末1A、図8の画像表示端末1B、図11の画像表示端末1D、図13の画像表示端末1Eの各々の機能を実現するためのプログラムそれぞれを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりエンボス加工が施される面材の模様のシミュレーションの処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
1…画像表示端末 11…入力部 12…表示部 12S…表示画面 13…位置検出部 14…傾き検出部 15…状態情報取得部 16,16S…照明情報取得部 17…表示色計算部 18,18A,18D…照明情報データベース 19…照度算出部 20…空間構造情報取得部 21…3次元空間生成部 22…照明情報算出部 23…気象情報取得部 24…自然光履歴検索部 25…自然光履歴データベース 100…3次元空間 101,102…蛍光灯 103…無線機 201…法線ベクトル

Claims (12)

  1. 画像コンテンツを表示画像として表示画面に表示する画像表示部と、
    自身の位置を検出する位置検出部と、
    前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度を示す情報を含む照明情報を取得する照明情報取得部と、
    前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整部と
    を備え、
    前記状態情報が前記位置を示す前記位置情報、前記画像表示部の前記表示画面の向きを示す向き情報を含み、
    前記照明情報取得部が、
    前記状態情報における前記位置情報及び前記向き情報により、前記照明光の前記強度を示す情報と前記照明光の入射方向とを含む前記照明情報を求め、
    前記色調整部が、当該照明情報により前記画像コンテンツの色を調整する
    ことを特徴とする画像表示端末。
  2. 画像コンテンツを表示画像として表示画面に表示する画像表示部と、
    自身の位置を検出する位置検出部と、
    前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度を示す情報を含む照明情報を取得する照明情報取得部と、
    前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整部と
    自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報から前記照明情報を算出する照明情報算出部と
    備え、
    前記色調整部が、前記照明情報と、前記位置と、前記表示画面の向きとにより、前記表示画像の色を生成する
    ことを特徴とする画像表示端末。
  3. 前記照明情報が前記強度を示す情報に基づく照明光マップであり、
    前記照明情報取得部が、前記照明光マップを前記表示画面に対する照明情報として取得し、前記照明光マップから、前記状態情報に対応して前記表示画面に入射する照明情報を求める
    ことを特徴とする請求項に記載の画像表示端末。
  4. 前記表示画面の向きを検出する向き検出部
    をさらに備えることを特徴とする請求項から請求項のいずれか一項に記載の画像表示端末。
  5. 前記状態情報が時刻情報を含む
    ことを特徴とする請求項から請求項のいずれか一項に記載の画像表示端末。
  6. 画像コンテンツを表示画像として表示画面に表示する画像表示部と、
    自身の位置を検出する位置検出部と、
    前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度を示す情報を含む照明情報を取得する照明情報取得部と、
    前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整部と
    を備え、
    自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報に基づき、
    前記照明情報取得部が、前記光源の特性情報と、前記空間における前記光源の位置と前記物体の位置と、前記表示画面の向きを示す向き情報とを用い、前記物体への照明情報を求め、
    前記色調整部が、前記物体に入射する前記照明情報と前記物体の3次元形状及び材質に対応した反射に基づくレンダリング処理により前記表示画像の色を生成する
    ことを特徴とする画像表示端末。
  7. 画像表示部が、画像コンテンツを表示画像として表示画面に表示する画像表示過程と、
    位置検出部が、自身の位置を検出する位置検出過程と、
    照明情報取得部が、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得過程と、
    色調整部が、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整過程と
    を含み、
    前記状態情報が前記位置を示す前記位置情報、前記画像表示部の前記表示画面の向きを示す向き情報を含み、
    前記照明情報取得部が、
    前記状態情報における前記位置情報及び前記向き情報により、前記照明光の前記強度を示す情報と前記照明光の入射方向とを含む前記照明情報を求め、
    前記色調整部が、当該照明情報により前記画像コンテンツの色を調整する
    とを特徴とする画像表示方法。
  8. 画像表示部が、画像コンテンツを表示画像として表示画面に表示する画像表示過程と、
    位置検出部が、自身の位置を検出する位置検出過程と、
    照明情報取得部が、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得過程と、
    色調整部が、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整過程と
    照明情報算出部が、自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報から前記照明情報を算出する照明情報算出過程と
    を含み、
    前記色調整部が、前記照明情報と、前記位置と、前記表示画面の向きとにより、前記表示画像の色を生成する
    とを特徴とする画像表示方法。
  9. 画像表示部が、画像コンテンツを表示画像として表示画面に表示する画像表示過程と、
    位置検出部が、自身の位置を検出する位置検出過程と、
    照明情報取得部が、前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得過程と、
    色調整部が、前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整過程と
    を含み、
    自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報に基づき、
    前記照明情報取得部が、前記光源の特性情報と、前記空間における前記光源の位置と前記物体の位置と、前記表示画面の向きを示す向き情報とを用い、前記物体への照明情報を求め、
    前記色調整部が、前記物体に入射する前記照明情報と前記物体の3次元形状及び材質に対応した反射に基づくレンダリング処理により前記表示画像の色を生成する
    とを特徴とする画像表示方法。
  10. コンピュータを、
    画像コンテンツを表示画像として表示画面に表示する画像表示手段、
    自身の位置を検出する位置検出手段、
    前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得手段、
    前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整手段
    として機能させ
    前記状態情報が前記位置を示す前記位置情報、画像表示部の前記表示画面の向きを示す向き情報を含み、
    前記照明情報取得手段が、
    前記状態情報における前記位置情報及び前記向き情報により、前記照明光の前記強度を示す情報と前記照明光の入射方向とを含む前記照明情報を求め、
    前記色調整手段が、当該照明情報により前記画像コンテンツの色を調整する
    ログラム。
  11. コンピュータを、
    画像コンテンツを表示画像として表示画面に表示する画像表示手段、
    自身の位置を検出する位置検出手段、
    前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得手段、
    前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整手段
    自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報から前記照明情報を算出する照明情報算出手段
    として機能させ
    前記色調整手段が、前記照明情報と、前記位置と、前記表示画面の向きとにより、前記表示画像の色を生成する
    ログラム。
  12. コンピュータを、
    画像コンテンツを表示画像として表示画面に表示する画像表示手段、
    自身の位置を検出する位置検出手段、
    前記位置を示す位置情報を含む状態情報に対応して、予め求められている前記表示画面に入射する照明光の強度の情報を含む照明情報を取得する照明情報取得手段、
    前記照明情報を用いて、前記照明光の照明環境下において前記表示画面に表示されて知覚される前記表示画像の色を、画像コンテンツの色に調整する色調整手段
    として機能させ
    自身の位置する空間の構造を示す空間構造情報、前記空間に配置された物体の位置を示す配置情報と、光源の特性情報と、前記空間における前記光源の位置とを含むCADデータで示される空間情報に基づき、
    前記照明情報取得手段が、前記光源の特性情報と、前記空間における前記光源の位置と前記物体の位置と、前記表示画面の向きを示す向き情報とを用い、前記物体への照明情報を求め、
    前記色調整手段が、前記物体に入射する前記照明情報と前記物体の3次元形状及び材質に対応した反射に基づくレンダリング処理により前記表示画像の色を生成する
    ログラム。
JP2016133227A 2016-07-05 2016-07-05 画像表示端末、画像表示方法及びプログラム Active JP6866582B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016133227A JP6866582B2 (ja) 2016-07-05 2016-07-05 画像表示端末、画像表示方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016133227A JP6866582B2 (ja) 2016-07-05 2016-07-05 画像表示端末、画像表示方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018005028A JP2018005028A (ja) 2018-01-11
JP6866582B2 true JP6866582B2 (ja) 2021-04-28

Family

ID=60946303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016133227A Active JP6866582B2 (ja) 2016-07-05 2016-07-05 画像表示端末、画像表示方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6866582B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11960086B2 (en) 2019-02-22 2024-04-16 Sony Interactive Entertainment Inc. Image generation device, head-mounted display, and image generation method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1843602A3 (en) * 2002-12-12 2007-12-05 Samsung Electronics Co., Ltd. Method and apparatus for generating illumination characteristic data around image display device, and method and apparatus for compensating for color variation using the method and apparatus
JP2009244340A (ja) * 2008-03-28 2009-10-22 Nanao Corp 補正方法、表示装置及びコンピュータプログラム
JP2010091911A (ja) * 2008-10-10 2010-04-22 Nec Corp 画面処理装置、画面処理方法および画面処理プログラム
JP5489514B2 (ja) * 2009-04-09 2014-05-14 キヤノン株式会社 色処理方法、色処理装置及びプログラム
JP5625463B2 (ja) * 2010-04-19 2014-11-19 富士通株式会社 画像表示装置、画像表示システム及び照度特定方法
JP2013205434A (ja) * 2012-03-27 2013-10-07 Panasonic Corp 電子機器
JP2013258673A (ja) * 2012-05-15 2013-12-26 Sharp Corp 表示装置、テレビジョン受信機及びプログラム
JP6044189B2 (ja) * 2012-08-30 2016-12-14 株式会社リコー 装置、システム
JP6090917B2 (ja) * 2013-03-08 2017-03-08 Kddi株式会社 被写体画像抽出および合成装置、および方法
KR101992310B1 (ko) * 2013-03-25 2019-09-30 엘지디스플레이 주식회사 표시 장치의 영상 처리 방법 및 장치
JP2014216963A (ja) * 2013-04-26 2014-11-17 シャープ株式会社 表示装置、表示装置の制御方法、および表示装置制御プログラム

Also Published As

Publication number Publication date
JP2018005028A (ja) 2018-01-11

Similar Documents

Publication Publication Date Title
Jones et al. Experimental validation of ray tracing as a means of image-based visual discomfort prediction
Yu et al. Recovering photometric properties of architectural scenes from photographs
Cai High dynamic range photogrammetry for synchronous luminance and geometry measurement
US20150342005A1 (en) Method and apparatus for controlling electrical power usage based on exact sun elevation angle and measured geographical location
Kennelly et al. General sky models for illuminating terrains
Simons et al. High correlation but high scale-dependent variance between satellite measured night lights and terrestrial exposure
Jakubiec Building a database of opaque materials for lighting simulation
Clark Photometric stereo using LCD displays
CN105577982A (zh) 一种图像处理的方法及终端
WO2019088273A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US10121451B2 (en) Ambient light probe
JP6866582B2 (ja) 画像表示端末、画像表示方法及びプログラム
Tominaga et al. Spectral image acquisition, analysis, and rendering for art paintings
Darula et al. A methodology for designing and calibrating an artificial sky to simulate ISO/CIE sky types with an artificial sun
KR101873681B1 (ko) 항공 촬영 정보 기반 가상 조망 시스템 및 방법
KR101132512B1 (ko) 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법
US20210199498A1 (en) A method of measuring illumination, corresponding system, computer program product and use
Irwin Full-spectral rendering of the earth’s atmosphere using a physical model of Rayleigh scattering
Rodriguez et al. Testing the adequacy of luminous change descriptors to represent dynamic attributes in outdoor views
Gryaditskya et al. Sky based light metering for high dynamic range images
Zaikina et al. Verification of the accuracy of the luminance-based metrics of contour, shape, and detail distinctness of 3d object in simulated daylit scene by numerical comparison with photographed hdr images
Inanici Application of the state-of-the-art computer simulation and visualization in architectural lighting research
Navvab et al. Evaluation of historical museum interior lighting system using fully immersive virtual luminous environment
Mantzouratos et al. Concise exterior lighting simulation methodology
He et al. Improving the accuracy of circadian lighting simulation with field measurement

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160706

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210322

R150 Certificate of patent or registration of utility model

Ref document number: 6866582

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250