JP6756090B2 - 画像処理装置、方法、及びプログラム - Google Patents

画像処理装置、方法、及びプログラム Download PDF

Info

Publication number
JP6756090B2
JP6756090B2 JP2015122397A JP2015122397A JP6756090B2 JP 6756090 B2 JP6756090 B2 JP 6756090B2 JP 2015122397 A JP2015122397 A JP 2015122397A JP 2015122397 A JP2015122397 A JP 2015122397A JP 6756090 B2 JP6756090 B2 JP 6756090B2
Authority
JP
Japan
Prior art keywords
information
image
display
lighting information
display data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015122397A
Other languages
English (en)
Other versions
JP2017010131A (ja
Inventor
裕樹 三好
裕樹 三好
敬由 阿部
敬由 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2015122397A priority Critical patent/JP6756090B2/ja
Priority to EP16811205.0A priority patent/EP3312802A4/en
Priority to PCT/JP2016/002724 priority patent/WO2016203729A1/ja
Publication of JP2017010131A publication Critical patent/JP2017010131A/ja
Priority to US15/843,099 priority patent/US11062484B2/en
Application granted granted Critical
Publication of JP6756090B2 publication Critical patent/JP6756090B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、画像処理装置、方法、及びプログラムに関し、より詳細には、表示物の素材の質感を画像表示する画像処理装置、方法、及びプログラムに関する。
近年の製造技術、通信技術及び情報処理技術の発展により、種々のシーンにおいて、スマートフォンやタブレット端末などの携帯型端末が利用されている。タッチパネル型ディスプレイや通信インタフェースの他、GPS、ジャイロセンサ、カメラ等の各種機能を備えた複合型携帯型端末の適応シーンは今後さらに拡大が見込まれる。
例えば、従来、商取引の対象である商品は、紙媒体のパンフレットに写真やイラストとして掲載されて紹介されていた。写真やイラスト(色見本)では素材の質感を知覚しにくい建装材等では、実物の小片を集めたサンプル集の態様で紹介されていた。
一方、被写体表面の光沢感や繊維織りの細かなテクスチャー等の被写体(素材)の質感を画像表示する方法及び装置が提案されている(例えば、特許文献1を参照)。特許文献1の開示によれば、鏡面反射状態が異なる1つの静止被写体について、光源の照明位置及び/又は照明方向を変えて複数の原画像を取得し、複数の原画像に基づいて生成された複数のフレーム画像を作成し、連続的に複数のフレーム画像を切り替えて表し、フレーム画像の画像信号は、被写体の鏡面反射画像信号と拡散反射画像信号とを用いて光沢信号を生成し、この光沢信号にウィンドウ処理を行って作成される。
さらに、視差効果等を適用することで静止画に奥行き感を付加し、素材の質感を変化させる技術の実用化も進められている。
特開2003−132350号公報(要約、請求項1,2等参照)
しかしながら、紙媒体であっても電子媒体であっても、観察環境の変化や素材の向きの変化に応じた当該素材の見えの変化(質感)を表現することができないという問題があった。
本発明は、このような問題に鑑みてなされたもので、その目的とするところは、観察環境の変化や素材の向きの変化に応じた当該素材の質感を画像表示するための画像処理装置、方法、及びプログラムを提供することにある。
このような目的を達成するために、本発明の第1の態様は、素材の質感を画像表示する画像処理装置である。画像処理装置は、レンダリング手段を備える。レンダリング手段は、照明情報、素材の質感に関する素材情報、並びに照明、素材の画像が表示される表示面及び観者の相対的位置関係に基づいて、素材の表示データをレンダリングするように構成されている。
一実施形態では、照明情報、素材の質感に関する素材情報、並びに照明、素材の画像が表示される表示面及び観者の相対的位置関係の一部又は全部は、外部から取得され、画像処理装置に予め記憶され、又は画像処理装置の各種取得手段及び検出手段により取得及び検出され得る。
一実施形態では、画像処理装置は、表示手段及び傾き検出手段をさらに備える。表示手段は、表示データを用いて素材の画像を表示するように構成されている。傾き検出手段は、表示手段の表示面の方位を検出するように構成されている。レンダリング手段は、傾き検出手段により検出された表示手段の表示面の方位、照明情報及び素材の質感に関する素材情報に基づいて、素材の表示データをレンダリングするように構成されている。一実施形態では、素材の画像が表示される表示面の方位は、通信手段を介して外部から取得される。
一実施形態では、画像処理装置は、周囲照明情報を取得するように構成された周囲照明情報取得手段をさらに備え、レンダリング手段は、周囲照明情報、素材情報及び素材の画像が表示される表示面の方位に基づいて表示データをレンダリングする。画像処理装置は、通信手段をさらに備え、通信手段を介して外部から取得された外部照明情報を周囲照明情報の代替とすることができる。一実施形態では、画像処理装置は、通信手段を介して外部から周囲照明情報又は外部照明情報を取得し、レンダリング手段は、外部から取得した周囲照明情報又は外部照明情報、素材情報及び素材の画像が表示される表示面の方位に基づいて表示データをレンダリングする。
一実施形態では、画像処理装置は、素材の画像の観者の方位を検出する観者検出手段を備え、レンダリング手段は、照明情報(周囲照明情報、外部照明情報)、素材情報、表示面の方位及び観者の方位に基づいて表示データをレンダリングする。一実施形態では、画像処理装置は、素材の画像の観者の方位は、通信手段を介して外部から取得される。
一実施形態では、照明情報は、光の方位、色成分及び強度を含む。また素材情報は、素材の画像の各画素についての色特性、形状特性及び反射特性を含む。
本発明の第2の態様は、上記画像処理装置により実行される、素材の質感を画像表示するための画像処理方法である。
本発明の第3の態様は、コンピュータに、上記画像処理方法を実行させるプログラムである。
以上説明したように、本発明によれば、観察環境の変化や素材の向きの変化に応じた当該素材の質感を画像表示するための画像処理装置、方法、及びプログラムを提供することが可能となる。
本発明の一実施形態にかかる画像処理装置の機能ブロック図である。 本発明の一実施形態を説明するための図である。 本発明の一実施形態を説明するための図である。 本発明の一実施形態を説明するための図である。 本発明の一実施形態を説明するための図である。 本発明の一実施形態に係る画像処理方法のフロー図である。
以下、図面を参照しながら本発明の実施形態について詳細に説明する。以下に説明する画像表示装置、方法、及びプログラムは、住宅などの室内・外の空間で用いられる建装材の電子見本帳に適する。すなわち、本実施形態の画像表示装置、方法、及びプログラムによれば、観察環境の変化や建装材の向きの変化に応じた当該建装材の質感を画像表示することが可能となり、実物の小片を集めたサンプル集や単なる色見本は不要の代替となり得る。
本願発明は、建装材に限定されるものではない。一般性を失うことなく他の例でも実施できる。たとえば、住宅などの室内・外空間は、自動車、電車、船及び飛行機等の乗り物の車内・外空間を含む空間に一般化して説明することができる。建装材は、床材(板、カーペット、石、タイル)、内壁材(板、クロス(革、合皮、紙、合成樹脂、化粧シート等))及び外壁材(サイディング材(板材、石材、タイル材等))及び天井材(板、クロス(革、合皮、紙、合成樹脂、化粧シート等))を含む装材であるが、乗り物の車内装材(革、合皮、布、合成樹脂、化粧シート等)及び車外装材等を含む「素材」に一般化して説明することができる。
図1は、本発明に係る画像処理装置の一実施形態である携帯型端末の機能ブロック図である。図1の携帯型端末100は、例えば、タブレット端末であり、ディスプレイ、プロセッサ、メモリ、各種センサを備える。携帯型端末100は、通信デバイス、キーボード、コンピュータマウスを含むポインティングデバイス、及びマイクロフォン等の入力デバイスを含んでもよい。入力デバイスは、入力部112を構成する。
ディスプレイデバイスは、画像の表示に適したディスプレイデバイスであればよく、これに限定するものではないが、電磁誘導式、静電容量式又は感圧式のタッチディスプレイデバイスが好ましい。ディスプレイデバイスは、表示部102を構成する。電磁誘導式、静電容量式又は感圧式のタッチディスプレイデバイスは、表示部102および入力部112を構成する。
プロセッサは、CPUの他、GPUやコプロセッサを含んでもよい。プロセッサは、表示部に表示される画像に対応する表示データを生成する。プロセッサは、レンダリング部(表示データ生成部)104を構成する。
メモリは、HDDなどの磁気ドライブ及びSSDなどの半導体ドライブのいずれでもよい。メモリは、内蔵型でも外付型でも良い。メモリは、照明情報記憶部106及び素材情報記憶部116を構成する。メモリは、傾き検出部110により検出されたタブレット端末の傾き(ディスプレイ面の方位)の情報を記憶することもできる。
各種センサは、タブレット端末の周囲の照明情報(周囲照明情報)を取得するのに適したデバイス(以下、周囲照明情報取得デバイス)及びタブレット端末の傾きの検出に適したデバイス(傾き検出デバイス)であればよい。例えば、周囲照明情報取得デバイスは、測光デバイス、照度センサ及びカメラの1以上とすることができる。周囲照明情報取得デバイスは内蔵型でも外付型でもよい。また、例えば、傾き検出デバイスは、ジャイロセンサ、加速度センサ、磁気センサの1以上とすることができる。周囲照明情報取得デバイスは、プロセッサと共に又は単独で、周囲照明情報取得部108を構成する。また、傾き検出デバイスは、プロセッサと共に又は単独で、傾き検出部110を構成する。さらに、各種センサは、観者(例えば、観者の目)の位置を検出するのに適したデバイスを備えてもよい。このようなデバイスは、赤外線センサ及びカメラの1以上とすることができる。
例えば、周囲照明情報取得デバイスとしてのカメラは、周囲全周囲画像カメラまたは全天球撮影カメラ(omnidirectional camera)とすることができ、このようなカメラでタブレット端末の全周囲を撮影した全周囲画像の色味や輝度を実環境の照明情報(周囲照明情報)とすることができる。あるいは、内蔵型でも外付型のカメラで、カメラを水平面に置いた状態で撮影した基準画像と、カメラの向きを変えて複数回に分けて撮影したタブレット端末の全周囲を画像とを組み合わせて(繋ぎ合わせて)、全周囲画像を生成し、生成された全周囲画像の色味や輝度を実環境の照明情報(周囲照明情報)とすることができる。カメラが備えるイメージセンサのダイナミックレンジ(ラチチュード(latitude))がタブレット端末の周囲の実環境の輝度分布の輝度レンジより狭い場合は、露光量を多段に変えて撮影した後に合成する写真技法(ハイダイナミックレンジ合成(high dynamic range imaging:HDR)を用いてもよい。
例えば、タブレット端末の内蔵カメラ(またはタブレット端末との相対的位置関係が既知である外付けカメラ)で撮影される画像から、当該タブレット端末の操作者(観者)の顔(目)の位置を特定することで、タブレット端末の表示面と観者の相対的位置関係を特定することができる。撮影と観者の顔(目)の位置の特定を短い時間間隔で繰り返すことで、タブレット端末の表示面と観者の相対的位置関係をリアルタイムで特定することができる。
通信デバイスは、外部機器との接続用のバス(例えばUSB(Universal Serial Bus))インタフェース、有線通信用のネットワークインタフェースカード(NIC)及び無線通信用の無線デバイスの1以上とすることができる。通信デバイスは、通信部114を構成する。タブレット端末100は、通信部114を介して外部から照明情報及び素材情報を取得することもできる。外部からの照明情報は、周囲照明情報の代替として用いることができる。
照明情報記憶部106は、周囲照明情報取得部108によって取得された周囲照明情報又は通信部114を介して外部から取得された外部照明情報を記憶する、又は予め記憶している。
素材情報記憶部116は、通信部114を介して外部から取得された素材情報を記憶する。素材情報は、素材の質感に関する情報である。素材情報は、ピクセル(画素)毎の法線情報(形状特性:装材(床材、壁材、天井材)におけるピクセルの面の向きを示す情報であり、例えば、画素の法線ベクトル情報である)を含む。また、素材情報は、画素毎の鏡面反射(正反射)の強さの情報(例えば、鏡面反射率)、鏡面反射(正反射)の鋭さの情報(例えば、表面のミクロな粗さ、表面荒さの標準偏差、ラフネス)及び拡散反射(散乱反射)の強さの情報(例えば、拡散反射率、素材の地の色を示すRGB)を含む。鏡面反射の強さ及び鋭さの情報並びに拡散反射の強さの情報を反射特性とも言う。拡散反射の強さの情報は、各画素のRGB毎の拡散反射の強さの情報(例えば、RGB毎の拡散反射率)としても良い。また、鏡面反射(正反射)の強さの情報は、各画素のRGB毎の鏡面反射(正反射)の強さの情報(例えば、RGB毎の鏡面反射率)としてもよい。周囲照明情報(または外部から取得した照明情報)及び素材情報に基づいて表示データが生成される。この結果、素材の質感(光沢感、ざらつき感、凹凸感)が画像表示される。
タブレット端末100は、観者とのインタラクションのためのユーザ・インタフェース(UI)を提供するUI提供部(不図示)を備える。観者は、UIを介して、表示させたい素材を選択することができる。すなわち、タブレット端末100は、UIを介して観者からの素材の選択を受信し、当該素材をディスプレイに表示することができる。UIは、観者が表示させたい素材を選択することができる、階層形式のカテゴリ別メニューを含んでもよい。例えば、素材を壁材、床材及び天井材のようなカテゴリ別に分類し、観者がカテゴリの階層にしたがって素材を選択できるようにしてよい。サブカテゴリでは複数の素材のサムネールを提示して、観者が表示させたい素材を選択させてもよい。
図2は、周囲照明情報取得部108によって周囲照明情報が取得される空間を示す。図2において、x軸及びy軸は水平面内で互いに直交する軸であり、z軸は水平面内に直交する軸である。図2の空間には、2つの電灯202及び204と太陽206を含む合計3つの光源が示されている。x軸、y軸及びz軸の交点を周囲照明情報取得部108の位置として、2つの電灯202及び204並びに太陽206の3つの光源からの光を観測し、光源毎に観測される光の方位、色成分及び強度(輝度)を、空間における周囲照明情報として取得する。光源の数は、3つに限定されない。光源は、発光体に限定されず、周囲照明情報取得部108に向けて光を反射する反射体でもよい。空間内で観測される全ての光源の周囲照明情報(光の方位、色成分及び強度)を取得してもよい。取得された周囲照明情報は、照明情報記憶部106に記憶される。
周囲照明情報代替として、通信部114を介して外部から照明情報を取得することができる。外部から取得された照明情報を外部照明情報ともいう。外部照明情報及び周囲照明情報を単に照明情報という。外部照明情報は、南向きの窓(太陽光が差し込む窓)があり4灯のダウンライトがある部屋や、窓の無く電灯が1つの寝室など、モデル化された空間における照明の情報(予め外部のサーバコンピュータなどに格納されている照明の情報)とすることができる。モデル化された空間は、販売中/建設予定の建築物件のモデルルームの間取り内の1つ又は複数の空間とすることができる。
図3は、図2に示した空間にタブレット端末100を配置した状態を示す。図2には、タブレット端末100によって表示される画像の観者の目208も示されている。タブレット端末100は、ディスプレイ面を上向きにして、ディスプレイ面がxy面に平行と成るように、x軸、y軸及びz軸の交点に配置されている。目208の方位は、観者検出部118によって検出されるディスプレイ面の法線に対する方位でもよく、ディスプレイ面の法線に予め決められた方位と(観者検出部118によって検出しない)してもよい。
図3に示す状態で、レンダリング部104は、素材の面がディスプレイ面に重ねられているかのように素材の表示データを生成する。生成された表示データがディスプレイデバイスに表示されると、タブレット端末100を持っている観者は、あたかも素材を自身の手で持っているかのように、素材の質感を観察することができる。
レンダリング部104は、素材情報記憶部116からレンダリングする素材の素材情報(ピクセル毎の法線情報(形状特性)、鏡面反射の強さ及び鋭さの情報並びに拡散反射の強さの情報(反射特性))を読み出し、照明情報記憶部106から照明情報(1つまたは複数の光源からの光の方位、色成分及び強度(輝度))を読み出し、各画素における観者の方位に反射する色成分及び強度(輝度)を計算して表示データを生成する。生成された表示データが用いられ、表示部に画像が表示される。図3に示す状態では、素材の表面に3つの光源(2つの電灯202及び204並びに太陽206)から入射し、目208の方位に反射する光の色成分及び強度(輝度))が計算される。
図4に示す状態では、タブレット端末100のディスプレイ面は水平面(xy面)から傾斜している。この傾斜は、電灯202の光がディスプレイ面に入射しない程度の傾きである。傾き検出部110がこの傾斜を検出し、レンダリング部104は、表示データの生成の際に考慮する。すなわち、レンダリング部104は、素材の表面に2つの光源(1つの電灯204及び太陽206)から入射し、目208の方位に反射する光の色成分及び強度(輝度))を計算し表示データを生成する。
さらに、図5に示す状態では、タブレット端末100のディスプレイ面はz軸に平行に配置されている。この配置は、2つの電灯202及び204の光がディスプレイ面に入射しない配置である。傾き検出部110がこのときのタブレット端末100の傾斜を検出し、レンダリング部104は、表示データの生成の際に考慮する。すなわち、レンダリング部104は、素材の表面に1つの光源(太陽206)のみから入射し、目208の方位に反射する光の色成分及び強度(輝度))を計算し表示データを生成する。
図3から5を参照して説明したように、レンダリング部104によって生成された表示データは、タブレット端末100の傾き(ディスプレイ面の方位)および目の位置(方位)が反映されている。したがって、タブレット端末100を持っている観者は、タブレット端末100を傾けたり、目の位置(方位)を変えたりすることで、素材の実物を観察した時と同様に、素材の質感を観察することができることができる。
レンダリング部104は、ズーム機能を実装することもできる。上述したように、レンダリング部104は、素材の面がディスプレイ面に重ねられているかのように素材の表示データを生成する。ディスプレイ面と、タブレット端末100を保持する観者との間の距離は、略観者の腕の長さとなり、大きく変化しない。したがって、ユーザ・インタフェース(UI)を介して受信する観者からのズーム・インの指示に応答して、素材がディスプレイ面と観者との間に置かれているかのように素材の表示データを生成する、あるいは、UIを介して受信するズーム・アウトの指示に応答して、ディスプレイ面が素材と観者との間に置かれている(素材がディスプレイ面の裏側に置かれている)かのように素材の表示データを生成する、ズーム機能をレンダリング部104に実装することは有用である。例えば、観者は、ディスプレイ面が水平面に垂直となるようにタブレット端末を保持し、壁材の素材をさせる際に、ズーム・アウト機能を使用して、2〜3mは離れた位置の壁を想定して、素材の質感を観察することが可能になる。
図6は、画像処理方法のフローチャートであり、上述した携帯型端末100によって実行される処理フローの一例である。
ステップS601で、携帯型端末100(レンダリング部104)は、周囲照明情報を取得する。当該携帯型端末が配置された実環境において周囲照明情報取得部108によって取得された照明情報、又は周囲照明情報記憶部106に格納された照明情報が取得される。代替として、通信部114を介して取得されたモデル化された空間における外部照明情報、又は通信部114を介して取得され周囲照明情報記憶部106に格納された外部照明情報が取得される。
ステップS603で、携帯型端末100(レンダリング部104)は、表示する素材の素材情報(形状特性、反射特性)を取得する。通信部114を介して外部から取得され素材情報記憶部116に記憶された素材情報が取得される。たとえば、形状特性は素材の画素毎の法線ベクトル情報であり、反射特性は画素毎の鏡面反射の強さの情報(RBG毎の鏡面反射率)及び鏡面反射の鋭さ(表面のミクロな粗さ、表面荒さの標準偏差、ラフネス)及び拡散反射の強さの情報(RGB毎の拡散反射率、地の色に相当するRGB)である。
ステップS605で、携帯型端末100(レンダリング部104)は、照明、ディスプレイ面及び観者の相対的位置関係を特定する。携帯型端末100(レンダリング部104)は、照明、ディスプレイ面及び観者の相対的位置関係を、照明情報に含まれる光の方位と、ディスプレイ面の方位及び観者の目の方位の少なくとも1つとを用いて計算することにより、特定することができる。携帯端末の傾き及び観者の目の方位は、傾き検出部110及び観者検出部118によってそれぞれ検出され、レンダリング部104がアクセスできるようにメモリなどに保持されている。
ステップS607で、携帯型端末100(レンダリング部104)は、取得した照明情報と、計算した相対的位置関係と、取得した素材情報(形状特性、反射特性)とに基づいて、素材の表示データをレンダリングする。
ステップS609で、表示部102は、表示データを用いて表示部102に素材の画像を表示(再表示)する。
なお、ステップS601は、ステップS603の後に実行してもよい。特に、実環境において取得された照明情報を用いる場合、ステップS601は、ステップS605からS609のループに含めて、レンダリング部104が表示情報をレンダリングする毎に照明情報を取得し直すようにしてもよい。
以上、観察環境の変化や素材の向きの変化に応じた当該素材の質感を画像表示するための画像処理装置及び方法の一実施の形態を、タブレット端末等の携帯型端末を例に説明したが、本願発明は、画像処理装置及び方法は上記実施形態に限定されるものではなく、一般性を失うことなく他の形態でも実施することができる。
例えば、携帯型端末と通信するコンピュータ(サーバコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ等の携帯型端末とは別のコンピュータ)を用いて、本願発明の画像処理装置を実施してもよい。すなわち、携帯型端末とは別のコンピュータのCPU、GPU又はコプロセッサでレンダリング部を実装し、コンピュータのレンダリング部で、照明情報、素材の質感に関する素材情報、並びに照明、素材の画像が表示される表示面及び観者の相対的位置関係に基づいて、素材の表示データをレンダリングすることができる。レンダリング部を備えたコンピュータは、携帯型端末から受信した照明情報(周囲照明情報)を表示データのレンダリングに用いることができる。レンダリング部を備えたコンピュータは、携帯型端末以外の他のコンピュータから受信したまたはメモリなどに記録された照明情報(外部照明情報)を表示データのレンダリングに用いることができる。レンダリング部を備えたコンピュータは、携帯型端末から受信した照明、表示面及び素材の画像の観者の相対的位置関係を表示データのレンダリングに用いることができる。携帯型端末は、別のコンピュータでレンダリングされた表示データを用いて素材の画像を表示することができる。
以上、説明したように、本発明によれば、観察環境の変化や素材の向きの変化に応じた当該素材の質感を画像表示する画像処理装置、方法、及びプログラムを提供できる。
100 携帯型端末
102 表示部(感圧式ディスプレイ)
104 レンダリング部(表示データ生成部)
106 照明情報記憶部
108 周囲照明情報取得部(測光デバイス、照度センサ、カメラ)
110 傾き検出部(ジャイロセンサ、加速度センサ、磁気センサ)
112 入力部(キーボード、キーパッド、マウス、ポインティングデバイス、マイク)
114 通信部(ネットワークIFカード(NFC)、無線デバイス)
116 素材情報記憶部
118 観者検出部(赤外線センサ、カメラ)
202,204 電灯
206 太陽
208 目

Claims (21)

  1. レンダリング手段を備えた画像処理装置であって、
    前記レンダリング手段は、照明情報、素材の質感に関する素材情報、並びに複数の照明、前記素材の画像が表示される表示面及び観者の相対的位置関係に基づいて、前記素材の表示データをレンダリングするように構成され、
    前記照明情報は前記複数の照明の情報である、画像処理装置。
  2. レンダリング手段を備えた画像処理装置であって、
    前記レンダリング手段は、照明情報、素材の質感に関する素材情報、並びに照明、前記素材の画像が表示される表示面及び観者の相対的位置関係に基づいて、前記素材の表示データをレンダリングするように構成され、
    前記照明情報は全周囲画像の色味又は輝度の少なくとも1つである、画像処理装置。
  3. 表示手段及び傾き検出手段をさらに備え、
    前記傾き検出手段は、前記表示手段の表示面の方位を検出するように構成され、
    前記表示手段は、前記表示データを用いて前記素材の画像を表示するように構成され、
    前記レンダリング手段は、前記照明情報、前記素材の質感に関する素材情報及び前記傾き検出手段により検出された前記表示手段の表示面の方位に基づいて、前記素材の表示データをレンダリングするように構成された、請求項1又は2に記載の画像処理装置。
  4. 前記画像処理装置の周囲照明情報を取得するように構成された周囲照明情報取得手段をさらに備え、前記表示データがレンダリングされる際に用いられる前記照明情報は、前記周囲照明情報取得手段により取得された前記周囲照明情報である、請求項1ないし3のいずれかに記載の画像処理装置。
  5. 前記素材の画像の観者の方位を検出する観者検出手段をさらに備え、
    前記レンダリング手段は、前記照明情報、前記素材の質感に関する素材情報、前記表示面の方位及び前記観者の方位に基づいて、前記表示データをレンダリングするように構成された、請求項1ないしのいずれかに記載の画像処理装置。
  6. 通信手段をさらに備え、
    前記表示データがレンダリングされる際に用いられる前記照明情報は、前記通信手段を介して外部から取得された外部照明情報である、請求項1ないしのいずれかに記載の画像処理装置。
  7. 前記照明情報は、光の方位、色成分及び強度を含み、
    前記素材情報は、前記素材の画像の各画素についての形状特性及び反射特性を含む、請求項1ないしのいずれかに記載の画像処理装置。
  8. レンダリング手段を備えた画像処理装置における画像処理方法であって、
    前記レンダリング手段が、照明情報、素材の質感に関する素材情報、並びに複数の照明、前記素材の画像が表示される表示面及び観者の相対的位置関係に基づいて、前記素材の表示データをレンダリングすること、を含み、
    前記照明情報は前記複数の照明の情報である、方法。
  9. レンダリング手段を備えた画像処理装置における画像処理方法であって、
    前記レンダリング手段が、照明情報、素材の質感に関する素材情報、並びに照明、前記素材の画像が表示される表示面及び観者の相対的位置関係に基づいて、前記素材の表示データをレンダリングすること、を含み、
    前記照明情報は全周囲画像の色味又は輝度の少なくとも1つである、方法。
  10. 前記画像処理装置は表示手段及び傾き検出手段をさらに備え、前記方法は、
    前記傾き検出手段が前記表示手段の表示面の方位を検出することと、
    前記レンダリング手段が、前記照明情報、前記素材の質感に関する素材情報及び前記傾き検出手段により検出された前記表示手段の表示面の方位に基づいて、前記素材の表示データをレンダリングすることと、
    前記表示手段が前記表示データを用いて前記素材の画像を表示することと
    を含む、請求項8又は9に記載の方法。
  11. 前記画像処理装置が周囲照明情報取得手段をさらに備え、
    前記方法は、前記周囲照明情報取得手段が周囲照明情報を取得することをさらに含み、
    前記レンダリング手段が前記素材の表示データをレンダリングすることは、前記レンダリング手段が、前記周囲照明情報、前記素材の質感に関する素材情報及び前記素材の画像が表示される表示面の方位に基づいて、前記素材の表示データをレンダリングすることを含む、請求項8ないし10のいずれかに記載の方法。
  12. 前記画像処理装置が観者検出手段をさらに備え、
    前記方法は、前記観者検出手段が前記素材の画像の観者の方位を検出することをさらに含み、
    前記レンダリング手段が前記素材の表示データをレンダリングすることは、前記レンダリング手段が、前記照明情報、前記素材の質感に関する素材情報、前記素材の画像が表示される表示面の方位及び前記観者の方位に基づいて、前記表示データをレンダリングすることを含む、請求項ないし11のいずれかに記載の方法。
  13. 前記画像処理装置が通信手段をさらに備え、
    前記方法は、前記通信手段を介して外部照明情報を外部から取得することをさらに含み、
    前記照明情報は前記外部照明情報である、請求項ないし12のいずれかに記載の方法。
  14. 前記照明情報は、光の方位、色成分及び強度を含み、
    前記素材情報は、前記素材の画像の各画素についての形状特性及び反射特性を含む、請求項ないし13のいずれかに記載の方法。
  15. レンダリング手段を備えたコンピュータによって実行されるプログラムであって、
    前記レンダリング手段に、照明情報、素材の質感に関する素材情報、並びに複数の照明、前記素材の画像が表示される表示面及び観者の相対的位置関係に基づいて、前記素材の表示データをレンダリングさせ、
    前記照明情報は前記複数の照明の情報である、プログラム。
  16. レンダリング手段を備えたコンピュータによって実行されるプログラムであって、
    前記レンダリング手段に、照明情報、素材の質感に関する素材情報、並びに前記素材の画像が表示される表示面及び観者の相対的位置関係に基づいて、前記素材の表示データをレンダリングさせ、
    前記照明情報は全周囲画像の色味又は輝度の少なくとも1つである、プログラム。
  17. 前記コンピュータが表示手段及び傾き検出手段をさらに備え、前記プログラムは、
    前記傾き検出手段に前記表示手段の表示面の方位を検出させ、
    前記レンダリング手段に、前記照明情報、前記素材の質感に関する素材情報及び前記傾き検出手段により検出された前記表示手段の表示面の方位に基づいて、前記素材の表示データをレンダリングさせ、
    前記表示手段に前記表示データを用いて前記素材の画像を表示させる、請求項15又は16に記載のプログラム。
  18. 前記コンピュータが周囲照明情報取得手段をさらに備え、前記プログラムは、
    前記周囲照明情報取得手段に周囲照明情報を取得させ、
    前記レンダリング手段に、前記周囲照明情報取得手段により取得させた前記周囲照明情報、前記素材情報及び前記素材の画像が表示される表示面の方位に基づいて、前記素材の表示データをレンダリングさせる、請求項15ないし17のいずれかに記載のプログラム。
  19. 前記コンピュータが観者検出手段をさらに備え、
    前記プログラムは、前記観者検出手段に前記素材の画像の観者の方位を検出させ、
    前記レンダリング手段に、前記照明情報、前記素材の質感に関する素材情報、前記素材の画像が表示される表示面の方位及び前記観者の方位に基づいて、前記表示データをレンダリングさせる、請求項15ないし18のいずれかに記載のプログラム。
  20. 前記コンピュータが通信手段をさらに備え、
    前記プログラムは、前記コンピュータに記通信手段を介して外部照明情報を外部から取得させ、
    前記レンダリング手段に、前記外部照明情報、前記素材情報及び前記素材の画像が表示される表示面の方位に基づいて、前記素材の表示データをレンダリングさせる、請求項15ないし19のいずれかに記載のプログラム。
  21. 前記照明情報は、光の方位、色成分及び強度を含み、
    前記素材情報は、前記素材の画像の各画素についての形状特性及び反射特性を含む、請求項15ないし20のいずれかに記載のプログラム。
JP2015122397A 2015-06-17 2015-06-17 画像処理装置、方法、及びプログラム Active JP6756090B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015122397A JP6756090B2 (ja) 2015-06-17 2015-06-17 画像処理装置、方法、及びプログラム
EP16811205.0A EP3312802A4 (en) 2015-06-17 2016-06-06 Image processing device, method, and program
PCT/JP2016/002724 WO2016203729A1 (ja) 2015-06-17 2016-06-06 画像処理装置、方法、及びプログラム
US15/843,099 US11062484B2 (en) 2015-06-17 2017-12-15 Image processing device, method, and program for rendering display data of a material

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015122397A JP6756090B2 (ja) 2015-06-17 2015-06-17 画像処理装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017010131A JP2017010131A (ja) 2017-01-12
JP6756090B2 true JP6756090B2 (ja) 2020-09-16

Family

ID=57545832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015122397A Active JP6756090B2 (ja) 2015-06-17 2015-06-17 画像処理装置、方法、及びプログラム

Country Status (4)

Country Link
US (1) US11062484B2 (ja)
EP (1) EP3312802A4 (ja)
JP (1) JP6756090B2 (ja)
WO (1) WO2016203729A1 (ja)

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4079231B2 (ja) * 1997-12-11 2008-04-23 大日本印刷株式会社 画像生成方法及び装置
US5974168A (en) * 1998-04-16 1999-10-26 International Business Machines Corporation Acquiring bump maps from curved objects
JP4395689B2 (ja) * 2001-02-09 2010-01-13 コニカミノルタホールディングス株式会社 画像データ処理方法およびモデリング装置
JP3964646B2 (ja) 2001-10-25 2007-08-22 富士フイルム株式会社 画像処理方法、画像処理装置、および画像信号作成方法
JP4594892B2 (ja) * 2006-03-29 2010-12-08 株式会社東芝 テクスチャマッピング装置、方法およびプログラム
US8773433B1 (en) * 2006-04-12 2014-07-08 Pixar Component-based lighting
EP2051533B1 (en) * 2007-10-19 2014-11-12 Canon Kabushiki Kaisha 3D image rendering apparatus and method
US20090109240A1 (en) * 2007-10-24 2009-04-30 Roman Englert Method and System for Providing and Reconstructing a Photorealistic Three-Dimensional Environment
US20110273369A1 (en) * 2010-05-10 2011-11-10 Canon Kabushiki Kaisha Adjustment of imaging property in view-dependent rendering
US8913056B2 (en) * 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
US9595127B2 (en) * 2010-12-22 2017-03-14 Zspace, Inc. Three-dimensional collaboration
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
JP2013003848A (ja) * 2011-06-16 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> 仮想物体表示装置
US8780108B2 (en) * 2011-11-02 2014-07-15 X-Rite Switzerland GmbH Apparatus, systems and methods for simulating a material
US11073959B2 (en) * 2012-06-08 2021-07-27 Apple Inc. Simulating physical materials and light interaction in a user interface of a resource-constrained device
US9459820B2 (en) * 2012-11-08 2016-10-04 Ricoh Company, Ltd. Display processing apparatus, display processing method, and computer program product
US9489925B2 (en) * 2013-01-04 2016-11-08 Texas Instruments Incorporated Using natural movements of a hand-held device to manipulate digital content
US20150032430A1 (en) * 2013-07-29 2015-01-29 X-Rite Europe Gmbh Visualization Method
US9779512B2 (en) * 2015-01-29 2017-10-03 Microsoft Technology Licensing, Llc Automatic generation of virtual materials from real-world materials

Also Published As

Publication number Publication date
EP3312802A4 (en) 2018-12-12
US11062484B2 (en) 2021-07-13
EP3312802A1 (en) 2018-04-25
WO2016203729A1 (ja) 2016-12-22
US20180108154A1 (en) 2018-04-19
JP2017010131A (ja) 2017-01-12

Similar Documents

Publication Publication Date Title
JP6720972B2 (ja) 画像処理システム、方法、及びプログラム
US11580691B2 (en) System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
JP6610063B2 (ja) 画像処理システム、方法、及びプログラム
US10587864B2 (en) Image processing device and method
US20150369593A1 (en) Orthographic image capture system
JP6610065B2 (ja) 化粧材シミュレーションシステム、方法、及びプログラム
KR102337209B1 (ko) 주변 상황 정보를 통지하기 위한 방법, 전자 장치 및 저장 매체
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
US10594993B2 (en) Image projections
JP2014527643A (ja) 視覚的なレイヤリングシステム及びその方法
JP6589444B2 (ja) 建築素材画像処理システム、方法、及びプログラム
JP6314672B2 (ja) 表示処理装置、表示処理方法、及びプログラム
JP6717302B2 (ja) 画像処理システム、方法、及びプログラム
JP6631074B2 (ja) 画像処理システム、方法、及びプログラム
JP6756090B2 (ja) 画像処理装置、方法、及びプログラム
JP6554980B2 (ja) 画像処理システム、方法、及びプログラム
Tokuda et al. Ubiquitous display for dynamically changing environment
JP6693069B2 (ja) 画像表示装置、方法、およびプログラム
JP2017033318A (ja) 建築素材凹凸模様画像処理システム、方法、及びプログラム
US20200098150A1 (en) Augmented reality system and method for substrates, coated articles, insulating glass units, and/or the like
KR20240054111A (ko) 전자 디바이스, 전자 디바이스의 동작 방법 및 이미지 편집 시스템
JP2021072024A (ja) 光沢取得状態算出装置、光沢取得状態算出方法、光沢取得状態算出プログラム、端末及び光沢取得状態表示プログラム
JP2016142658A (ja) 状況把握装置、状況把握方法、及び状況把握のためのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200615

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200810

R150 Certificate of patent or registration of utility model

Ref document number: 6756090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250