JP6631074B2 - 画像処理システム、方法、及びプログラム - Google Patents

画像処理システム、方法、及びプログラム Download PDF

Info

Publication number
JP6631074B2
JP6631074B2 JP2015152950A JP2015152950A JP6631074B2 JP 6631074 B2 JP6631074 B2 JP 6631074B2 JP 2015152950 A JP2015152950 A JP 2015152950A JP 2015152950 A JP2015152950 A JP 2015152950A JP 6631074 B2 JP6631074 B2 JP 6631074B2
Authority
JP
Japan
Prior art keywords
information
unit
display
rendering
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015152950A
Other languages
English (en)
Other versions
JP2017033315A (ja
Inventor
飯野 浩一
浩一 飯野
池ノ谷 真司
真司 池ノ谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2015152950A priority Critical patent/JP6631074B2/ja
Publication of JP2017033315A publication Critical patent/JP2017033315A/ja
Application granted granted Critical
Publication of JP6631074B2 publication Critical patent/JP6631074B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理システム、方法、及びプログラムに関し、より詳細には、複数のコンピュータから収集した複数のエレメントを組み合わせて表示できる、表示物の素材の質感を画像表示する画像処理システム、方法、及びプログラムに関する。
近年の製造技術、通信技術及び情報処理技術の発展により、種々のシーンにおいて、スマートフォンやタブレット端末などの携帯型端末が利用されている。タッチパネル型ディスプレイや通信インタフェースの他、GPS、ジャイロセンサ、カメラ等の各種機能を備えた複合型携帯型端末の適応シーンは今後さらに拡大が見込まれる。
例えば、従来、商取引の対象である商品は、紙媒体のパンフレットに写真やイラストとして掲載されて紹介されていた。写真やイラスト(色見本)では素材の質感を知覚しにくい建装材等では、実物の小片を集めたサンプル集の態様で紹介されていた。
一方、被写体表面の光沢感や繊維織りの細かなテクスチャー等の被写体(素材)の質感を画像表示する方法及び装置が提案されている(例えば、特許文献1を参照)。特許文献1の開示によれば、鏡面反射状態が異なる1つの静止被写体について、光源の照明位置及び/又は照明方向を変えて複数の原画像を取得し、複数の原画像に基づいて生成された複数のフレーム画像を作成し、連続的に複数のフレーム画像を切り替えて表し、フレーム画像の画像信号は、被写体の鏡面反射画像信号と拡散反射画像信号とを用いて光沢信号を生成し、この光沢信号にウィンドウ処理を行って作成される。
さらに、視差効果等を適用することで静止画に奥行き感を付加し、素材の質感を変化させる技術の実用化も進められている。
マンション等の住宅購入希望者は、モデルルームへ行くことで、実物の間取りや建装材の素材の質感を体験できる。間取り等を含む住宅仕様を、コンピュータグラフィックス(CG)で再現することが知られている(例えば、特許文献2参照)。住宅供給者によって提供されるバーチャルモデルルームを通じて、住宅購入希望者は、間取り等を含む住宅仕様を疑似体験することができる。
特開2003−132350号公報(要約、請求項1,2等参照) 特開2004−5216号公報(第0037段落、図3参照)
しかしながら、紙媒体であっても電子媒体であっても、観察環境の変化や素材の向きの変化に応じた当該素材の見えの変化(質感)を表現することができないという問題があった。さらに、実際の空間に配置されたときの素材の見えや様子は、容易に想像できない。また、壁や床などの素材を空間に配置した際の質感や見えを疑似体験できるシステムも提案されていない。
さらに、素材の色、形状、反射の特性を自由に組み合わせて、素材の質感を疑似体験することができない。また、組み合わせた素材の色、形状、反射の特性を編集することができない。これらは、住宅購入希望者のみならず住宅供給者(インテリアデザイナー)であっても同様である。
したがって、複数のエレメント(すなわち、素材の色、形状、反射の特性)を自由に組み合わせたり、編集することが可能であり、環境の変化や素材の向きの変化に応じた当該素材の見えの変化(質感)を体験して、さらに当該素材を空間に配置した際の質感や見えを疑似体験できるシステムが提供されることが望ましい。さらに、編集された素材の色、形状、反射の特性の情報に基づき製造された素材が提供されることが望ましい。
本発明は、このような問題に鑑みてなされたもので、その目的とするところは、複数のコンピュータから収集した複数のエレメントを組み合わせたり、編集をして、観察環境の変化や素材の向きの変化に応じた当該素材の質感を画像表示し、当該素材を空間に配置した際の質感や見えの疑似体験を可能にする画像処理システム、方法、及びプログラムを提供することにある。
このような目的を達成するために、本発明の第1の態様は、複数のコンピュータに接続された画像処理システムである。この画像処理システムは、エレメント収集手段と、エレメント組合手段と、空間の画像を表示する第1の表示手段と、前記空間の表示データをレンダリングする第1のレンダリング手段と、前記空間に適用される素材の画像を表示する第2の表示手段と、前記素材の画像の表示データをレンダリングする第2のレンダリング手段と、エレメント編集手段とを備え、前記エレメント収集手段は、前記複数のコンピュータの各々から、素材の画像の各画素についての色特性、形状特性及び反射特性の少なくとも1つを収集するように構成され、前記エレメント組合手段は、前記エレメント収集手段により収集された色特性、形状特性及び反射特性を組合せて、素材の質感に関する素材情報を決定するように構成され、前記第2のレンダリング手段は、照明情報、前記エレメント組合手段により決定された前記素材の質感に関する素材情報、並びに照明、前記第2の表示手段の表示面及び観者の相対的位置関係に基づいて、前記素材の表示データをレンダリングするように構成され、前記第2の表示手段は、レンダリングされた前記素材の表示データを用いて前記素材の画像を表示するように構成され、前記第1のレンダリング手段は、前記素材を前記空間に適応する指示に応答して、前記空間の空間照明情報及び前記素材の質感に関する素材情報、及び前記空間における観者の目の位置(視点あるいはカメラ位置)に基づいて、前記素材を適用した前記空間の表示データをレンダリングするように構成され、前記第1の表示手段は、レンダリングされた前記空間の表示データを用いて前記空間の画像を表示するように構成され、前記エレメント編集手段は、画像が表示された前記素材の素材情報の前記色特性、形状特性及び反射特性のうちの少なくとも1つを変更するように構成される。
本発明の第2の態様は、エレメント収集手段と、エレメント組合手段と、空間の画像を表示する第1の表示手段と、前記空間の表示データをレンダリングする第1のレンダリング手段と、前記空間に適用される素材の画像を表示する第2の表示手段と、前記素材の画像の表示データをレンダリングする第2のレンダリング手段と、エレメント編集手段とを備えた画像処理システムにおける画像処理方法である。前記画像処理システムは、複数のコンピュータに接続されており、この方法は、前記エレメント収集手段が、前記複数のコンピュータの各々から、素材の画像の各画素についての色特性、形状特性及び反射特性の少なくとも1つを収集することと、前記エレメント組合手段が、前記エレメント収集手段により収集された色特性、形状特性及び反射特性を組合せて、素材の質感に関する素材情報を決定することと、前記第2のレンダリング手段が、照明情報、前記エレメント組合手段により決定された前記素材の質感に関する素材情報、並びに照明、前記第2の表示手段の表示面及び観者の相対的位置関係に基づいて、前記素材の表示データをレンダリングすることと、前記第2の表示手段が、レンダリングされた前記素材の表示データを用いて前記素材の画像を表示することと、前記第1のレンダリング手段が、前記素材を前記空間に適応する指示に応答して、空間照明情報及び前記素材の質感に関する素材情報及び前記空間における観者の目の位置(視点あるいはカメラ位置)に基づいて、前記素材を適用した前記空間の表示データをレンダリングすることと、前記第1の表示手段が、レンダリングされた前記空間の表示データを用いて前記空間の画像を表示することと、前記エレメント編集手段が、画像が表示された前記素材の素材情報の前記色特性、形状特性及び反射特性のうちの少なくとも1つを変更することとを含む。
本発明の第3の態様は、画像処理プログラムである。このプログラムは、コンピュータを第1の態様の画像システムとして機能させるプログラムである。
以上説明したように、本発明によれば、複数のコンピュータから収集した複数のエレメントを自由に組み合わせたり、編集することが可能であり、観察環境の変化や素材の向きの変化に応じた当該素材の質感を画像表示する画像処理システム、方法、及びプログラムを提供することが可能となる。
本発明の一実施形態の画像処理システムの概略図である。 本発明の一実施形態の画像処理システムで画像表示する空間を説明する図である。 本発明の一実施形態の画像処理システムの画像処理装置のユーザ・インタフェースを説明するための図である。 本発明の一実施形態にかかる画像処理システムのサーバの機能ブロック図である。 本発明の一実施形態にかかる画像処理システムの画像処理装置の機能ブロック図である。 本発明の一実施形態の画像処理システムの仮想空間画像処理装置の機能ブロック図である。 本発明の一実施形態を説明するための図である。 本発明の一実施形態を説明するための図である。 本発明の一実施形態を説明するための図である。 本発明の一実施形態を説明するための図である。 本発明の一実施形態に係る画像処理システムのサーバの処理のフロー図である。 本発明の一実施形態に係る画像処理システムの画像処理装置の処理のフロー図である。 本発明の一実施形態に係る画像処理システムの仮想空間画像処理装置の処理のフロー図である。 本発明の一実施形態に係る画像処理システムの製造データを生成する処理のフロー図である。
以下、図面を参照しながら本発明の実施形態について詳細に説明する。以下に説明する画像処理システム、方法、及びプログラムは、住宅などの室内・外の空間で用いられる建装材の電子見本帳に適する。すなわち、本実施形態の画像処理システム、方法、及びプログラムによれば、観察環境の変化や建装材の向きの変化に応じた当該建装材の質感を画像表示することが可能となり、実物の小片を集めたサンプル集や単なる色見本は不要の代替となり得る。
本願発明は、建装材に限定されるものではない。一般性を失うことなく他の例でも実施できる。たとえば、住宅などの室内・外空間は、自動車、電車、船及び飛行機等の乗り物の車内・外空間を含む空間に一般化して説明することができる。建装材は、床材(板、カーペット、石、タイル)、内壁材(板、クロス(革、合皮、紙、合成樹脂、化粧シート等))及び外壁材(サイディング材(板材、石材、タイル材等))及び天井材(板、クロス(革、合皮、紙、合成樹脂、化粧シート等))を含む装材であるが、乗り物の車内装材(革、合皮、布、合成樹脂、化粧シート等)及び車外装材等を含む「素材」に一般化して説明することができる。
図1は、画像処理システムの構成を示す図である。画像処理システムは、画像処理装置100と仮想空間画像処理装置300とサーバ500と複数のコンピュータ702、704、706、708(本明細書では、まとめて「コンピュータ700」と呼ぶ)とを含む。サーバ500は、複数のコンピュータ700から、素材情報(素材の質感に関する情報であり、複数の特性(色特性、形状特性、反射特性。以下、「エレメント」とも呼ぶ)の組合せから成る。詳細については後述する)、または、各種特性(色特性、形状特性、反射特性)を取得することができる。また、サーバ500は、画像処理装置100と仮想空間画像処理装置300へ各種データ及び/又はサービスを提供することができる。
複数のコンピュータ700は、例えば、建装材のメーカーや問屋が有するシステム内に設置されたコンピュータである。そのため、様々なメーカーや問屋が取り扱う建装材を同時に検討することができる。あるいは、複数のコンピュータ700は、例えば、建装材のデザイナー等が有するコンピュータである。そのため、既製品だけでなく、デザイナー等によって作成された様々な色、形状、反射の特性を自由に組合せて検討することができる。なお、複数のコンピュータ700は、例えば、本発明に係るサービスを提供する企業内のコンピュータであってもよい。そのため、本発明に係るサービスを提供する企業内のコンピュータに入力されたデータを、素材情報や各種特性とすることも可能である。
図2は、仮想空間画像処理装置300が備えるモニタ(ディスプレイデバイス等)に表示される仮想空間の一例を示す。仮想空間に関する情報は、壁、床、天井、ドア、窓、及び照明等の間取りの情報を含む。仮想空間情報は、仮想空間画像処理装置300の仮想空間情報記憶部308に格納され、仮想空間画像処理装置のレンダリング部304が表示データを生成する際に用いられる。仮想空間情報は、仮想空間画像処理装置300で作成し仮想空間情報記憶部308に格納してもよく、サーバ500から取得して仮想空間情報記憶部308に格納してもよい。
図2の仮想空間は、空間の間取りを構成する各種パーツ(壁1〜3、床1、天井1、ドア1、窓1、照明1,2)を含む。仮想空間の情報である仮想空間情報は、各種パーツを識別する情報及び仮想空間における各種パーツの位置を識別する情報を含む。また、仮想空間における光に関する情報(光の方位、色成分(RGB情報または光の波長毎に強度を表した分光情報)及び強度)は、照明情報として定義されている。照明情報は、配光を含んでもよい。各種パーツを識別する情報により、パーツの種類(壁、床、天井、ドア等)を識別することができる。位置を識別する情報により、各パーツの仮想空間における場所、他のパーツとの間の境界、距離及び相対的位置関係を算出することができる。各種パーツの素材の選択(決定)方法については、後述する。仮想空間の表示データを生成する際、各種パーツの素材の情報(素材情報:素材の各種特性情報を含む)、各光源202,204,206(照明1及び2並びに太陽)からの光に関する照明情報が考慮される。
図3は、仮想空間内の各種パーツの素材を選択する際に、画像処理装置100で提供されるユーザ・インタフェース(素材ビューア)を例示する図である。例えば、住宅供給者(インテリアデザイナー)は、図3のユーザ・インタフェースを使用して、各種パーツの素材の質感を確認して(つまり、各種特性を自由に組み合わせて、その組み合わせによる素材の質感を確認して)、適用する素材を選択することができる。仮想空間画像処理装置300は、図3のユーザ・インタフェースを使用して選択された素材が適用された仮想空間の表示情報を生成し表示する。したがって、住宅供給者(インテリアデザイナー)は、選択した素材を空間に配置した際の質感や見えを疑似体験できる。
画像処理装置100と仮想空間画像処理装置300は、仮想空間に関する情報を共有している。例えば、図3に示すようにユーザ・インタフェース(素材ビューア)は、仮想空間(図2)の各種パーツを選択可能にするパーツリスト402を含む。ユーザ・インタフェースは、パーツリストから選択されたパーツに適用可能な素材のカテゴリを選択可能にするリスト(素材カテゴリリスト)404を含む。ユーザ・インタフェースは、素材カテゴリリストから選択されたカテゴリに分類された素材の各種特性のサムネールのリスト(エレメントサムネールリスト)414を含む。エレメントサムネールリスト414は、色特性サムネール416、形状特性サムネール418、反射特性サムネール420から成る。つまり、複数のコンピュータ700から各種特性が収集された場合、収集された各種特性を表す画像が、色特性サムネール416、形状特性サムネール418、反射特性サムネール420で表示されることとなる。さらに、ユーザ・インタフェースは、素材カテゴリリストから選択されたカテゴリに分類された素材のサムネールのリスト(素材サムネールリスト)406を含む。つまり、複数のコンピュータ700から素材情報(色特性と形状特性と反射特性とがすでに組み合わされている)が収集された場合、収集された素材情報を表す画像が、素材サムネールリスト406で表示されることとなる。また、ユーザ・インタフェースは、サムネールリストから選択された素材の画像を表示する質感ビューア領域408を含む。つまり、色特性サムネール416、形状特性サムネール418、反射特性サムネール420の各々で選択された特性の組み合わせから成る素材の画像が表示される。あるいは、素材サムネール406で選択された素材の画像が表示される。また、組み合わせのみならず、それら特性の変更(編集)を可能とする場合には、ユーザ・インタフェースは、色特性を変更するためのスライダ422、形状特性を変更するためのスライダ424、反射特性を変更するためのスライダ426を含む。さらにまた、ユーザ・インタフェースは、仮想空間についてモデル化された各種照明環境の照明情報(モデル1,2・・・)の選択を可能にする照明環境リスト412を含む。照明環境リストは、仮想空間の照明情報とは別に、画像処理装置100が存在する実環境の照明情報を含んでもよい。照明環境リストには、モデル化された照明情報の概要(時間帯、光源種別・状態、窓の有無、配光分布特性)を含んでもよい。質感ビューア領域408には、選択された素材の素材情報(色特性、形状特性、反射特性)及び照明情報(光の方位、配光、色成分(RGB情報または光の波長毎に強度を表した分光情報)及び強度)が反映された画像が表示される。質感ビューア領域408は、ディスプレイの表示領域の全体を占めるように構成してもよい。以下に説明するように、画像処理装置100は、画像処理装置(タブレット端末)の傾斜(ディスプレイ面の方位ならびに水平面に対する傾き)を考慮して、素材の画像をレンダリングして表示する。したがって、観者は、素材を手にしているかのように、素材の画像を観察し素材の質感を体験することができる。
図4は、本発明の一実施形態である画像処理システムのサーバ500の機能ブロック図である。サーバ500は、プロセッサ、メモリを備えたコンピュータである。
プロセッサは、CPUの他、GPUやコプロセッサを含んでもよい。プロセッサは、複数のコンピュータ700から取得した素材情報および各種特性を処理する。プロセッサは、エレメント収集部502、データ判定部504、データ変換部506、製造データ生成部518を構成する。
メモリは、HDDなどの磁気ドライブ及びSSDなどの半導体ドライブのいずれでもよい。メモリは、内蔵型でも外付型でも良い。メモリは、素材情報記憶部516を構成する。素材情報記憶部516は、通信部114を介して複数のコンピュータ700から収集された素材情報および各種特性を記憶し、通信部114を介してタブレット端末100のエレメント情報記憶部123に記録されたエレメントの組合せ情報、エレメントの編集情報を付加情報として記録する。
通信デバイスは、外部機器との接続用のバス(例えばUSB(Universal Serial Bus))インタフェース、有線通信用のネットワークインターフェースカード(NIC)及び無線通信用の無線デバイスの1以上とすることができる。通信デバイスは、通信部514を構成する。サーバ500は、通信部514を介して複数のコンピュータ700から、素材情報および各種特性を受信することができる。
図5は、本発明に係る画像処理装置の一実施形態である携帯型端末の機能ブロック図である。図5の携帯型端末100は、例えば、タブレット端末であり、ディスプレイ、プロセッサ、メモリ、各種センサを備える。携帯型端末100は、通信デバイス、キーボード、コンピュータマウスを含むポインティングデバイス、及びマイクロフォン等の入力デバイスを含んでもよい。入力デバイスは、入力部112を構成する。
ディスプレイデバイスは、画像の表示に適したディスプレイデバイスであればよく、これに限定するものではないが、電磁誘導式、静電容量式又は感圧式のタッチディスプレイデバイスが好ましい。ディスプレイデバイスは、表示部102を構成する。電磁誘導式、静電容量式又は感圧式のタッチディスプレイデバイスは、表示部102および入力部112を構成する。
プロセッサは、CPUの他、GPUやコプロセッサを含んでもよい。プロセッサは、表示部に表示される画像に対応する表示データを生成する。プロセッサは、レンダリング部(表示データ生成部)104、エレメント組合部120、およびエレメント編集部122を構成する。
メモリは、HDDなどの磁気ドライブ及びSSDなどの半導体ドライブのいずれでもよい。メモリは、内蔵型でも外付型でも良い。メモリは、照明情報記憶部106、素材情報記憶部116、およびエレメント情報記憶部123を構成する。メモリは、傾き検出部110により検出されたタブレット端末の傾斜(ディスプレイ面の方位ならびに水平面に対する傾き)の情報を記憶することもできる。
各種センサは、タブレット端末の周囲の照明情報(周囲照明情報)を取得するのに適したデバイス(以下、周囲照明情報取得デバイス)及びタブレット端末の傾きの検出に適したデバイス(傾き検出デバイス)であればよい。例えば、周囲照明情報取得デバイスは、測光デバイス、照度センサ及びカメラの1以上とすることができる。周囲照明情報取得デバイスは内蔵型でも外付型でもよい。また、例えば、傾き検出デバイスは、ジャイロセンサ、加速度センサ、磁気センサの1以上とすることができる。周囲照明情報取得デバイスは、プロセッサと共に又は単独で、周囲照明情報取得部108を構成する。また、傾き検出デバイスは、プロセッサと共に又は単独で、傾き検出部110を構成する。さらに、各種センサは、観者(例えば、観者の目)の位置を検出するのに適したデバイスを備えてもよい。このようなデバイスは、赤外線センサ及びカメラの1以上とすることができる。
通信デバイスは、外部機器との接続用のバス(例えばUSB(Universal Serial Bus))インタフェース、有線通信用のネットワークインターフェースカード(NIC)及び無線通信用の無線デバイスの1以上とすることができる。
例えば、周囲照明情報取得デバイスとしてのカメラは、周囲全周囲画像カメラまたは全天球撮影カメラ(omnidirectional camera)とすることができ、このようなカメラでタブレット端末の全周囲を撮影した全周囲画像の色味や輝度を実環境の照明情報(周囲照明情報)とすることができる。あるいは、内蔵型でも外付型のカメラで、カメラを水平面に置いた状態で撮影した基準画像と、カメラの向きを変えて複数回に分けて撮影したタブレット端末の全周囲を画像とを組み合わせて(繋ぎ合わせて)、全周囲画像を生成し、生成された全周囲画像の色味や輝度を実環境の照明情報(周囲照明情報)とすることができる。カメラが備えるイメージセンサのダイナミックレンジ(ラチチュード(latitude))がタブレット端末の周囲の実環境の輝度分布の輝度レンジより狭い場合は、露光量を多段に変えて撮影した後に合成する写真技法(ハイダイナミックレンジ合成(high dynamic range imaging:HDR)を用いてもよい。さらに、カメラを照明器具の正面で動かしながら輝度の変化を捉えることで、簡易的に配光特性を取得してもよい。
例えば、タブレット端末の内蔵カメラ(またはタブレット端末との相対的位置関係が既知である外付けカメラ)で撮影される画像から、当該タブレット端末の操作者(観者)の顔(目)の位置を特定することで、タブレット端末の表示面と観者の相対的位置関係を特定することができる。撮影と観者の顔(目)の位置の特定を短い時間間隔で繰り返すことで、タブレット端末の表示面と観者の相対的位置関係をリアルタイムで特定することができる。
通信デバイスは、通信部114を構成する。タブレット端末100は、通信部114を介して外部(仮想空間画像処理装置300又はサーバ500)から照明情報(仮想空間についてモデル化された照明情報(空間照明情報))及び素材情報を取得することもできる。外部から取得した照明情報は、周囲照明情報(実空間の照明情報)の代替として用いることができる。
照明情報記憶部106は、周囲照明情報取得部108によって取得された周囲照明情報又は通信部114を介して外部から取得された空間照明情報を記憶する。また、周囲照明情報を取得しなくても、あらかじめ周囲照明情報記憶部106に記憶してある照明情報や、以前に取得し周囲照明情報記憶部106に記録された照明情報を用いてもよい。
素材情報記憶部116は、通信部114を介して外部から取得された素材情報を記憶する。素材情報は、素材の質感に関する情報である。素材情報は、ピクセル(画素)毎の法線情報(形状特性:装材(床材、壁材、天井材)におけるピクセルの面の向きを示す情報であり、例えば、画素の法線ベクトル情報である)及び/または深度情報を含む。また、素材情報は、画素毎のRGB情報(色特性:素材の地やコート層など、素材を構成する各層の色を示す情報)を含む。また、素材情報は、画素毎の光沢の強さの情報及び光沢の鋭さの情報(反射特性)を含む。反射特性である光沢情報は、光沢の強さの情報と光沢の鋭さの情報に加え、光沢の方向性の情報をさらに含むことができる。光沢の方向性の情報により、異方性反射を有する素材の質感を表現することができる。光沢の強さの情報は、各ピクセルのRGB毎の強さの情報としてもよい。周囲照明情報(または外部から取得した空間照明情報、またはあらかじめ周囲照明記憶部106に記録された照明情報)及び素材情報に基づいて表示データが生成される。この結果、素材の質感(光沢感、ざらつき感、凹凸感)が画像表示される。
エレメント情報記憶部123は、エレメント組合部120、およびエレメント編集部122にて実施された結果の情報を記憶する。エレメント情報は、どの色特性、どの形状特性、およびどの反射特性が組合されたという組合情報である。また、編集を可能とした場合には、色特性編集値、形状特性編集値、および反射特性編集値の編集情報を含む。これらの情報は通信部114を介してサーバ500の通信部514へ転送され、素材情報記憶部516へ付加情報として記録され、素材を製造する工程で用いてもよい。
タブレット端末100のレンダリング部(表示データ生成部)104を、サーバ500に実装してもよい。これらの機能をサーバ500に実装する場合には、タブレット端末100は通信部114を介して、レンダリングに必要な情報をサーバ500に送信し、サーバ500がレンダリングした表示データを受信して表示部(ディスプレイデバイス)102に表示することができる。
タブレット端末100は、観者とのインタラクションのためのユーザ・インタフェース(UI)(例えば、図3の素材ビューア)を提供するUI提供部(不図示)を備える。上述したように、観者は、UIを介して、表示させたい素材を選択することができる。すなわち、タブレット端末100は、UIを介して観者からの素材の選択を受信し、当該素材をディスプレイに表示することができる。UIは、観者が表示させたい素材を選択することができる、階層形式のカテゴリ別メニュー(素材カテゴリ)を含んでもよい。例えば、素材を壁材、床材及び天井材のようなカテゴリ別に分類し、観者がカテゴリの階層にしたがって素材を選択できるようにしてもよい。サブカテゴリでは複数の素材またはエレメントのサムネールを提示して、観者が表示させたい素材またはエレメントを選択させてもよい。
図6は、本発明の一実施形態である画像処理システムの仮想空間画像処理装置の機能ブロック図である。仮想空間画像処理装置300は、仮想空間画像のレンダリング及び表示に適したコンピュータであり、モニタ、プロセッサ、メモリを備える。仮想空間画像処理装置300を構成するコンピュータは、通信デバイス、キーボード、コンピュータマウスを含むポインティングデバイス、及びマイクロフォン等の入力デバイスを含んでもよい。入力デバイスは、入力部312を構成する。
モニタは、仮想空間の画像表示に適したディスプレイデバイス等であればよく、表示部302を構成する。
プロセッサは、CPUの他、GPUやコプロセッサを含んでもよい。プロセッサは、表示部に表示される画像に対応する表示データを生成する。プロセッサは、レンダリング部(表示データ生成部)304を構成する。また、プロセッサは、入力デバイスと共に又は単独で、仮想空間における観者(例えば、観者の目(視点)、あるいはカメラ)の位置を検出する空間内観者位置検出部318を構成する。
メモリは、HDDなどの磁気ドライブ及びSSDなどの半導体ドライブのいずれでもよい。メモリは、内蔵型でも外付型でも良い。メモリは、空間照明情報記憶部306、空間情報記憶部308及び素材情報記憶部316を構成する。
通信デバイスは、外部機器との接続用のバス(例えばUSB(Universal Serial Bus))インタフェース、有線通信用のネットワークインターフェースカード(NIC)及び無線通信用の無線デバイスの1以上とすることができる。通信デバイスは、通信部314を構成する。仮想空間画像処理装置を構成するコンピュータ300は、通信部314を介して外部(携帯型端末100又はサーバ500)との間で、空間情報、空間照明情報及び素材情報を送受することができる。空間照明情報記憶部306は空間照明情報を記憶する。素材情報記憶部316は素材情報を記憶する。空間情報記憶部308は空間情報を記憶する。
仮想空間画像処理装置300のレンダリング部(表示データ生成部)304及び空間内観者位置検出部318を、サーバ500に実装してもよい。これらの機能をサーバ500に実装する場合には、仮想空間画像処理装置300は、通信部314を介して、サーバ500がレンダリングした空間の表示データを受信して表示部302に表示することができる。
図7は、周囲照明情報取得部108によって周囲照明情報が取得される空間を示す。図7において、x軸及びy軸は水平面内で互いに直交する軸であり、z軸は水平面内に直交する軸である。図7の空間には、2つの電灯202及び204と太陽206を含む合計3つの光源が示されている。x軸、y軸及びz軸の交点を周囲照明情報取得部108の位置として、2つの電灯202及び204並びに太陽206の3つの光源からの光を観測し、光源毎に観測される光の方位、配光、色成分(RGB情報または光の波長毎に強度を表した分光情報)及び強度(輝度)を、空間における周囲照明情報として取得する。光源の数は、3つに限定されない。光源は、発光体に限定されず、周囲照明情報取得部108に向けて光を反射する反射体でもよい。空間内で観測される全ての光源の周囲照明情報(光の方位、配光、色成分(RGB情報または光の波長毎に強度を表した分光情報)及び強度)を取得してもよい。あるいは、モデル化された空間における照明の情報のうち、光の方位と配光情報ならびに強度だけを使用し、色成分については観測された色成分を組み合わせてもよい。取得された周囲照明情報は、照明情報記憶部106に記憶される。
周囲照明情報の代替として、通信部114を介して外部から空間照明情報を取得することができる。空間照明情報及び周囲照明情報を単に照明情報という。空間照明情報は、南向きの窓(太陽光が差し込む窓)があり4灯のダウンライトがある部屋や、窓の無く電灯が1つの寝室など、モデル化された空間における照明の情報(予め外部の仮想空間画像処理装置300又はサーバ500などに格納されている照明の情報)とすることができる。モデル化された空間は、販売中/建設予定の建築物件のモデルルームの間取り内の1つ又は複数の空間とすることができる。
図8は、図7に示した空間にタブレット端末100を配置した状態を示す。図8には、タブレット端末100によって表示される画像の観者の目208も示されている。タブレット端末100は、ディスプレイ面を上向きにして、ディスプレイ面がxy面に平行と成るように、x軸、y軸及びz軸の交点に配置されている。目208の方位は、観者検出部118によって検出されるディスプレイ面の法線に対する方位でもよく、ディスプレイ面の法線に予め決められた方位と(観者検出部118によって検出しない)してもよい。
図8に示す状態で、レンダリング部104は、素材の面がディスプレイ面に重ねられているかのように素材の表示データを生成する。生成された表示データがディスプレイデバイスに表示されると、タブレット端末100を持っている観者は、あたかも素材を自身の手で持っているかのように、素材の質感を観察することができることができる。
レンダリング部104は、素材情報記憶部116からレンダリングする素材の素材情報(ピクセル毎の法線情報及び/または深度情報(形状特性)、RGB情報(色特性)、光沢の強さの情報及び光沢の鋭さの情報(及び光沢の方向性の情報))を読み出し、照明情報記憶部106から照明情報(1つまたは複数の光源からの光の方位、配光、色成分(RGB情報または光の波長毎に強度を表した分光情報)及び強度(輝度))を読み出し、各画素における観者の方位に反射する色成分及び強度(輝度)を計算して表示データを生成する。生成された表示データが用いられ、表示部に画像が表示される。図8に示す状態では、素材の表面に3つの光源(2つの電灯202及び204並びに太陽206)から入射し、目208の方位に反射する光の色成分及び強度(輝度))が計算される。
図9に示す状態では、タブレット端末100のディスプレイ面は水平面(xy面)から傾斜している。この傾斜は、電灯202の光がディスプレイ面に入射しない程度の傾きである。傾き検出部110がこの傾斜を検出し、レンダリング部104は、表示データの生成の際に考慮する。すなわち、レンダリング部104は、素材の表面に2つの光源(1つの電灯204及び太陽206)から入射し、目208の方位に反射する光の色成分及び強度(輝度))を計算し表示データを生成する。
さらに、図10に示す状態では、タブレット端末100のディスプレイ面はz軸に平行に配置されている。この配置は、2つの電灯202及び204の光がディスプレイ面に入射しない配置である。傾き検出部110がこのときのタブレット端末100の傾斜を検出し、レンダリング部104は、表示データの生成の際に考慮する。すなわち、レンダリング部104は、素材の表面に1つの光源(太陽206)のみから入射し、目208の方位に反射する光の色成分及び強度(輝度))を計算し表示データを生成する。
図8から10を参照して説明したように、レンダリング部104によって生成された表示データは、タブレット端末100の傾斜(ディスプレイ面の方位ならびに水平面に対する傾き)および目の位置(方位)が反映されている。したがって、タブレット端末100を持っている観者は、タブレット端末100を傾けたり、目の位置(方位)を変えたりすることで、素材の実物を観察している時と同様に、素材の質感を観察することができることができる。
レンダリング部104は、ズーム機能を実装することもできる。上述したように、レンダリング部104は、素材の面がディスプレイ面に重ねられているかのように素材の表示データを生成する。ディスプレイ面と、タブレット端末100を保持する観者との間の距離は、略観者の腕の長さとなり、大きく変化しない。したがって、ユーザ・インタフェース(UI)を介して受信する観者からのズーム・インの指示に応答して、素材がディスプレイ面と観者との間に置かれているかのように素材の表示データを生成する、あるいは、UIを介して受信するズーム・アウトの指示に応答して、ディスプレイ面が素材と観者との間に置かれている(素材がディスプレイ面の裏側に置かれている)かのように素材の表示データを生成する、ズーム機能をレンダリング部104に実装することは有用である。例えば、観者は、ディスプレイ面が水平面に垂直となるようにタブレット端末を保持し、壁材の素材をさせる際に、ズーム・アウト機能を使用して、2〜3mは離れた位置の壁を想定して、素材の質感を観察することが可能になる。
図11は、サーバ500の処理のフローチャートである。
ステップS1101で、サーバ500(エレメント収集部502)は、複数のコンピュータ700から、エレメント(色特性、形状特性、反射特性のうちの少なくとも1つ)を受信することができる。すなわち、サーバ500は、あるコンピュータから色特性のみを受信し、別のコンピュータから形状特性のみを受信し、さらに別のコンピュータから反射特性のみを受信し、携帯型端末100等は、これらを組み合わせた素材情報に基づいて素材の画像を表示することができる。もちろん、サーバ500は、1つのコンピュータから、素材情報(すなわち、色特性と形状特性と反射特性とがすでに組み合わされている)を受信し、携帯型端末100等は、この素材情報に基づいて素材の画像を表示することもできる。この場合、これらのエレメントが同一の素材情報を構成するという情報を識別子として各エレメントに付加してもよい。
ステップS1103で、サーバ500(データ判定部504)は、ステップS1101で受信した素材情報またはエレメントのデータが予め定められたフォーマットであるか否かを判定することができる。予め定められたフォーマットではない場合は、ステップS1105へ進み、予め定められたフォーマットである場合は、処理を終了する(受信された素材情報およびエレメントのデータが素材情報記憶部516に記憶される)。例えば、色特性の予め定められたフォーマットは、画素毎のRGB情報(色特性:素材の地やコート層など、素材を構成する各層の色を示す情報)とすることができる。また、例えば、形状特性の予め定められたフォーマットは、ピクセル(画素)毎の法線情報(形状特性:装材(床材、壁材、天井材)におけるピクセルの面の向きを示す情報であり、例えば、画素の法線ベクトル情報である)及び/または深度(深さ)情報とすることができる。また、例えば、反射特性の予め定められたフォーマットは、画素毎の光沢の強さの情報及び光沢の鋭さの情報及び光沢の方向性の情報(反射特性)とすることができる。光沢の強さの情報は、各ピクセルのRGB毎の強さの情報としてもよい。
ステップS1105で、サーバ500(データ変換部506)は、ステップS1101で受信した素材情報またはエレメントのデータを、予め定められたフォーマットのデータに変換することができる。そして、変換されたデータが素材情報記憶部516に記憶される。そのため、複数のコンピュータ700から収集した様々な形式のデータを共通の形式のデータにして管理することができるようになる。
具体的には、色特性の場合、例えば、サーバ500は、コンピュータ700からCMYK形式のデータ(CMYKの分布)を受信して、RGB形式(RGBの分布)へ変換することができる。CMYKからRGBへの変換は、ICCプロファイルを用いて行うことができる。
また、色情報の場合、サーバ500では濃淡階調情報からなる画像情報(版情報)と、インキ色情報(CIELAB値や分光反射率)として持ってもよい。この場合、タブレット端末100のエレメント編集部122においてその濃淡階調情報とインキ色によってできる色情報を、クベルカ-ムンク(Kubelka-Munk)モデルによって各インキの重ね色(ノイゲバウア(Neugebauer)原色)を求め、その重ね色とノイゲバウア(Neugebauer)モデルなどを用いてRGBに変換して用いることによって、容易にインキ色を変更する編集が可能となる。また、これらの変換は、サーバ500のデータ変換部506によって行ってもよい。この場合、サーバ500のデータ変換部506によって濃淡階調情報と、インキ色の組合せによってできる色情報(ノイゲバウア(Neugebauer)原色)をクベルカ-ムンク(Kubelka-Munk)モデルによって求め、ノイゲバウア(Neugebauer)モデルなどにより分光反射率として求め、D65などの照明によって再現される三刺激値からRGBに変換し、当該RGB情報をタブレット端末100へ送信し、エレメント編集部122におけるインキ色の変更などの編集情報はサーバ500へ送信され、当該編集情報にもとづきデータ変換部506によってあらたなRGBに変換し、タブレット端末100へ送信することによって行うことができる。
また、形状特性の場合、例えば、サーバ500は、コンピュータ700からエンボス版のパターン形状や版深の情報を受信して、画素毎の法線ベクトル情報へ変換することができる。例えば、エンボス版のパターン形状や版深の情報は、画素毎の深さ情報を画像データで規定したものとすることができる。グレイ画像の信号は、0〜255の256諧調で表すことができるので、0は版深が0、255は版深がDμm(最大版深)に対応するものとし、最大版深Dはエンボス版毎に別途テキストデータとして指定することができる。版深の情報から法線ベクトル情報への変換は、以下のように行うことができる。注目する画素に対して、左右(x軸)方向、上下(y軸)方向のそれぞれで隣接する画素との深さの差を求めると、その注目する画素におけるx軸方向、y軸方向の傾きが導出される。この導出された傾きが、注目する画素における面の傾きのx軸方向成分、y軸方向成分に相当するので、面の傾きが規定できる。したがって、法線ベクトル情報を決定することができる。
また、反射特性は、画素毎に光沢が異なる場合と、全面一様な光沢である場合とが想定される。画素毎に光沢が異なる場合、例えば、コンピュータ700は、光沢を画像として指定することができる。例えば、画像をRGB画像として、Rチャンネルに光沢の強さを、Gチャンネルに光沢の鋭さ(広がり)を、Bチャンネルに光沢の方向性をそれぞれ記述することができる。RチャンネルおよびGチャンネルでは、0は光沢の強さ、光沢の鋭さがそれぞれ0に相当するものとし、255は光沢の強さ、光沢の鋭さがそれぞれ事前に規定された最大値に相当するものとすることができる。Bチャンネルでは、0を基準軸(たとえば素材面上で互いに直交するx軸とy軸のうちx軸)に相当するものとし、255は素材面に直交する軸を中心に回転した角度が360度に相当するものとすることができる。サーバ500は、コンピュータ700から受信したこのRGB画像に基づいて、画素毎の光沢の強さの情報及び光沢の鋭さの情報を決定することができる。全面一様な光沢である場合、例えば、反射特性を表す数式(一様分布式)が予め規定される。そして、サーバ500は、コンピュータ700から、その数式のパラメータである光沢の強さと光沢の鋭さを指定するための数値を受信することができる。サーバ500は、受信した数値に基づいて、光沢を画像として指定するためのRGB画像を生成することができる。
図12は、画像処理装置の処理のフローチャートであり、上述した携帯型端末100によって実行される処理フローの一例である。
ステップS601で、携帯型端末100(レンダリング部104)は、周囲照明情報を取得する。当該携帯型端末が配置された実環境において周囲照明情報取得部108によって取得された照明情報、又は周囲照明情報記憶部106に格納された照明情報が取得される。代替として、通信部114を介して取得されたモデル化された空間における外部照明情報、又は通信部114を介して取得され周囲照明情報記憶部106に格納された外部照明情報が取得される。又はあらかじめ周囲照明情報記憶部106に格納された外部照明情報や、以前に取得した周囲照明情報記憶部106に格納された外部照明情報が取得される。
ステップS603で、携帯型端末100(エレメント組合部120)は、サーバ500が複数のコンピュータ700から受信した複数のエレメントを組み合わせて、素材情報を決定する。例えば、携帯型端末100は、図3のユーザ・インタフェースの色特性サムネール416、形状特性サムネール418、反射特性サムネール420の各々で選択された特性を組み合わせることによって、素材情報を決定することができる。決定された素材情報を構成するエレメント情報(どの色特性、どの形状特性、およびどの反射特性)の組合せを示す組合情報はエレメン情報記憶部123に記憶され、および/または通信部114を介してサーバ500の通信部514へ転送され、素材情報記憶部516へ付加情報として記録される。例えば、サーバ500によって、複数のエレメントの組み合わせからなる新しい素材を識別する識別子が付与され、付加情報に含めて記憶されてもよい。例えば、組合情報は、識別子とともにエレメン情報記憶部123および/または素材情報記憶部516に記憶される。組合情報や付加情報の記憶は、ステップS617で、表示部102に画像表示された素材を仮想空間のパーツに適用することが選択されたと決定された場合に実行してもよい。
ステップS605で、携帯型端末100(レンダリング部104)は、表示する素材の素材情報(色特性、形状特性、反射特性)を取得する。通信部114を介して外部から取得され素材情報記憶部116に記憶された素材情報(つまり、ステップS603で決定された素材情報)が取得される。たとえば、色特性は素材の画素毎のRGB情報であり、形状特性は素材の画素毎の法線ベクトル情報及び/または深度情報であり、反射特性は画素毎の光沢の強さの情報及び光沢の鋭さの情報及び光沢の方向性の情報である。
ステップS607で、携帯型端末100(レンダリング部104)は、照明、ディスプレイ面及び観者の相対的位置関係を特定する。携帯型端末100(レンダリング部104)は、照明、ディスプレイ面及び観者の相対的位置関係を、照明情報に含まれる光の方位と、ディスプレイ面の方位及び観者の目の方位の少なくとも1つとを用いて計算することにより、特定することができる。携帯型端末の傾き及び観者の目の方位は、傾き検出部110及び観者検出部118によってそれぞれ検出され、レンダリング部104がアクセスできるようにメモリなどに保持されている。
ステップS609で、携帯型端末100(レンダリング部104)は、取得した照明情報と、計算した相対的位置関係と、取得した素材情報(色特性、形状特性、反射特性)とに基づいて、素材の表示データをレンダリングする。
ステップS611で、表示部102は、表示データを用いて素材の画像を表示(再表示)する。
ステップS613で、携帯型端末100(エレメント編集部122)は、エレメントの編集が指示されたか否かを判断する。例えば、携帯型端末100は、図3のユーザ・インタフェースの色特性を変更するためのスライダ422、形状特性を変更するためのスライダ424、反射特性を変更するためのスライダ426を介して各種特性に変更が加えられたか否かを判断することができる。エレメントの編集が指示された場合は、ステップS615へ進み、エレメントの編集が指示されなかった場合は、ステップS617へ進む。
ステップS615で、携帯型端末100(エレメント編集部122)は、エレメントの編集を行う。編集された素材情報を構成するエレメント情報の編集を示す編集情報(色特性編集値、形状特性編集値、および反射特性編集値の編集情報)はエレメン情報記憶部123に記憶され、および/または通信部114を介してサーバ500の通信部514へ転送され、素材情報記憶部516へ付加情報として記録される。例えば、編集情報は、組合情報および/または識別子とともに、エレメン情報記憶部123および/または素材情報記憶部516に記憶される。組合情報および/または編集情報や付加情報の記憶は、ステップS617で、表示部102に画像表示された素材を仮想空間のパーツに適用することが選択されたと決定された場合に実行してもよい。
具体的には、色特性の場合、例えば、携帯型端末100(エレメント編集部122)は、画素毎のRGB毎の値(Rの値、Gの値、Bの値)を変更することができる。また、例えば、インキ色をCIELAB値(L*の値,a*の値,b*の値)として変更することができる。この場合、CIELAB値からsRGBモニタのRGB値やAdobeRGBモニタのRGB値に変換しRGB毎の値を変更してもよいし、用いる基材インキ(例えばC、M、Yインキ)の吸収係数と散乱係数から、指定されたCIELAB値を満足する基材インキの混合割合をクベルカ−ムンク(Kubelka-Munk)モデルから求め、インキの分光反射率として用い画素毎のRGB値へ変換して表示に用いることもできる。また、インキ色を基材インキ(例えばC、M、Yインキ)の混合割合として変更することができる。この場合、用いる基材インキの吸収係数と散乱係数からインキの分光反射率として求めて用いることもできる。各インキの分光反射率からクベルカ―ムンク(Kubelka-Munk)モデルによって各インキの重ね色(ノイゲバウア(Neugebauer)原色)を求め、その重ね色とノイゲバウア(Neugebauer)モデルなどを用いて分光反射率を求め、D65などの光源を規定することによって三刺激値を求めてRGB値に変換してもよい。また、インキ色をパントーンやDICカラーガイド、TOYOカラーファインダーなどの色票における番号として変更してもよい。この場合,色票番号とCIELAB値との関連テーブルを備えることによってCIELAB値への変換を行い、CIELAB値として取り扱うことができる。
また、形状特性の場合、例えば、携帯型端末100(エレメント編集部122)は、深さの分布(分布図)の全体に対して一律に変更を加えること(深さを一律に倍にする等)によって、法線ベクトル情報を一律に変更することができる。あるいは、例えば、携帯型端末100(エレメント編集部122)は、深さの分布(分布図)の一部(つまり、画素毎)に対して変更を加えること(選択された画素のみの深さを変更する)によって、法線ベクトル情報を画素毎に変更することもできる。
また、反射特性の場合、例えば、携帯型端末100(エレメント編集部122)は、反射特性の分布(分布図)の中から選択された画素のみの光沢の強さ、光沢の鋭さを増減することができる。あるいは、例えば、携帯型端末100(エレメント編集部122)は、反射特性の分布(分布図)の拡大、縮小、回転、平行移動をすることもできる。
ステップS617で、表示部102に画像表示された素材を仮想空間のパーツに適用することが選択されたかどうかを決定する。素材の適用が選択されない場合、ステップS618へ進む。
素材の適用が選択された場合、ステップS619で、仮想空間のパーツの識別子及び選択された素材の識別子を送信する。送信された仮想空間のパーツの識別子及び選択された素材の識別子は、仮想空間画像処理装置300又はサーバ500によって、受信される。
ステップS618で、プログラムの終了が指示されたかどうかを判定する。プログラムの終了が指示されている場合は、処理のフローを終了する。プログラムの終了が指示されていない場合は、ステップS607へ戻る。
なお、ステップS601は、ステップS605の後に実行してもよい。特に、実環境において取得された照明情報を用いる場合、ステップS601は、ステップS607からS611のループに含めて、レンダリング部104が表示情報をレンダリングする毎に照明情報を取得し直すようにしてもよい。
図13は、仮想空間画像処理装置の処理のフローチャートである。
ステップS700で、仮想空間画像処理装置300(レンダリング部304)は、仮想空間情報を取得する。空間情報記憶部308に予め格納された空間の情報(空間の間取りを構成する各種パーツを含む空間の情報)が取得される。空間情報は、通信部314を介してサーバ500又は携帯型端末100から取得され空間情報記憶部308に格納された空間情報とすることができる。
ステップS701で、仮想空間画像処理装置300(レンダリング部304)は、仮想空間照明情報を取得する。空間照明情報記憶部306に予め格納されたモデル化された空間の照明情報(空間照明情報)が取得される。空間照明情報は、通信部314を介してサーバ500又は携帯型端末100から取得され空間照明情報記憶部306に格納された空間照明情報とすることができる。携帯型端末100の周囲照明情報取得部108により取得され照明情報記憶部106に記憶された周囲照明情報を、空間照明情報としてもよい。
ステップS703で、仮想空間画像処理装置300(レンダリング部304)は、携帯型端末100からのパーツの識別子及び当該パーツに適用する素材の識別子を受信し、応答して、当該素材の素材情報(色特性、形状特性、反射特性)を取得する。素材情報記憶部316に予め格納された素材情報が取得される。素材情報は、通信部314を介してサーバ500又は携帯型端末100から取得し素材情報記憶部316に記憶された素材情報とすることができる。素材情報、上述した色特性、形状特性及び反射特性を示す情報である。
ステップS705で、仮想空間画像処理装置300(観者位置検出部318)は、仮想空間における観者の目の位置(視点あるいはカメラの位置)を決定する。
ステップS707で、仮想空間画像処理装置300(レンダリング部304)は、識別された素材が配置された空間(仮想空間)の表示データをレンダリングする。空間の表示データのレンダリングは、取得した照明情報及び素材情報、並びに決定した仮想空間における観者の目の位置に基づく。
ステップS709で、仮想空間画像処理装置300(表示部302)は、表示データを用いて空間(仮想空間)の画像を表示(再表示)する。
ステップS711で、仮想空間における観者の目(視点)が変更されたかどうか(仮想空間内での視点の位置が変更されたかどうか、仮想空間が回転されたかどうか、又は拡大縮小されたかどうか)を決定する。観者の目(視点)が変更された場合は、ステップS713へ進む。観者の目(視点)が変更されない場合は、ステップS714へ進む。ステップS713およびS714ではそれぞれ、プログラムの終了が指示されたかどうかを判定する。
ステップS713でプログラムの終了が指示されている場合は、処理のフローを終了し、プログラムの終了が指示されていない場合は、ステップS705へ戻り、空間(仮想空間)の表示データのレンダリングをやり直し画像を再表示する(ステップS709)。ステップS714でプログラムの終了が指示されている場合は、処理のフローを終了し、プログラムの終了が指示されていない場合は、ステップS711を繰り返す。代替として、ステップS711およびステップS714を、ステップS705とS707の間に挿入し、観者の目(視点)が変更されるまでステップS705を繰り返し、観者の目(視点)が変更された場合は、ステップS707からS709を実行した後ステップ713へ進むようにしてもよい。
いずれの手段によっても、仮想空間画像処理装置300(入力部312)によって仮想空間における観者の目(視点)が変更される毎に高速にレンダリングをやり直し画像を再表示することで、あたかも仮想空間の中を自由かつなめらかに移動するかのごとく効果を観者に与えることができる。
図14は、本発明の一実施形態に係る画像処理システムの製造データを生成する処理のフロー図である。本発明では、サーバ500は、携帯型端末100から、エレメントを組み合わせた結果の情報およびエレメントを編集した結果の情報を受信して、それらの情報に基づいて、素材の製造(つまり、実物の壁紙等の製造)のために必要なデータを生成することができる。
ステップS801で、サーバ500の製造データ生成部518は、製造する素材の素材情報(色特性、形状特性、反射特性)を取得する。素材情報記憶部516に記憶された素材情報(エレメント情報。つまり、どの色特性、どの形状特性、およびどの反射特性が組合されたという組合情報と、色特性編集値、形状特性編集値、および反射特性編集値の編集情報である)が取得される。例えば、色特性は素材の画素毎のRGB情報であり、形状特性は素材の画素毎の法線ベクトル情報であり、反射特性は画素毎の光沢の強さの情報及び光沢の鋭さの情報及び光沢の方向性の情報である。具体的には、製造データ生成部518は、図3のユーザ・インタフェース(エレメントサムネール414および各種特性編集422〜426)を介して指定された素材情報を取得する。したがって、製造データ生成部518は、編集された後の色特性、編集された後の形状特性、編集された後の反射特性を有する素材を製造するために必要なデータを生成することができる。
ステップS803で、製造データ生成部518は、ステップS801で取得した素材情報を製造データへ変換する。すなわち、色特性、形状特性、反射特性が、素材の製造工程で用いられるデータへ変換される。
具体的には、色特性の場合、例えば、製造データ生成部518は、色特性(素材の画素毎のRGB情報)を、CMYK形式のデータへ変換することができる。RGBからCMYKへの変換は、ICCプロファイルを用いて行うことができる。CMYK形式のデータに基づいて、素材が製造装置(印刷機等)で出力される。また、色情報を濃淡階調情報からなる画像情報(版情報)と、インキ色情報(CIELAB値や分光反射率)として持っている場合、インキ色情報から、CCM(Computer Color Matching)技術を用いて、当該インキを作ることができる。
また、形状特性の場合、例えば、製造データ生成部518は、形状特性(素材の画素毎の法線ベクトル情報)を、製造装置用の加工データ(切削座標やエッチングマスクパターン、3次元座標など)へ変換することができる。まず、各画素の法線ベクトル情報から各画素の面の傾きが決定される。つまり、各画素における面の傾きの左右(x軸)方向成分、上下(y軸)方向成分が決定される。これらの成分は、各画素のx軸方向、y軸方向の傾きに相当する。次に、x軸方向、y軸方向の傾きに基づいて、x軸方向、y軸方向のそれぞれで隣接する画素との深さの差が求められる。そして、素材の凹凸情報を決定することができる。
また、反射特性の場合、例えば、製造データ生成部518は、反射特性(素材の画素毎の光沢の強さの情報及び光沢の鋭さの情報及び光沢の方向性の情報)を、製造装置によって塗布されるニスを指定するための情報へ変換することができる。具体的には、予め、マットニスの種類とグロスニスの種類の組み合わせごとに(つまり、ある1つの種類のマットニスとある1つの種類のグロスニスとの組み合わせごとに)、配合比を段階的に変えた印刷サンプルを作成する。そして、その印刷サンプルの光沢の特性を測定し、マットニスの種類とグロスニスの種類、ニスの配合比、光沢特性の対応表を作成する。また、この光沢特性は、反射特性と対応付けされる。したがって、製造データ生成部518は、反射特性に基づいて、ニスを指定するための情報(つまり、マットニスの種類とグロスニスの種類、ニスの配合比)を決定することができる。
ステップS805で、製造データ生成部518は、ステップS803で生成した製造データを製造装置へ送信することができる。
以上、説明したように、本発明によれば、複数のコンピュータから収集した複数のエレメントを自由に組み合わせたり、編集をして、観察環境の変化や素材の向きの変化に応じた当該素材の質感を画像表示し、当該素材を空間に配置した際の質感や見えの疑似体験を可能にする画像処理システム、方法、及びプログラムを提供できる。
なお、上記実施形態の説明では、画像処理システムが携帯型端末(タブレット端末)と仮想空間画像処理端末(コンピュータ)とを含む構成を説明したが、仮想空間画像処理端末の機能部を携帯型端末に実装し、あるいは、携帯型端末の機能部を仮想空間画像処理端末に実装し、本発明を実施することができる。また、画像処理システムの構成にサーバを含め、携帯型端末または仮想空間画像処理端末の一部の機能をサーバに実装し、本発明を実施することができる。
100 携帯型端末
102 表示部(感圧式ディスプレイ)
104,304 レンダリング部(表示データ生成部)
106,306 照明情報記憶部
108 周囲照明情報取得部(測光デバイス、照度センサ、カメラ)
110 傾き検出部(ジャイロセンサ、加速度センサ、磁気センサ)
112,312 入力部(キーボード、キーパッド、マウス、ポインティングデバイス、マイク)
114,314,514 通信部(ネットワークIFカード(NFC)、無線デバイス)
116,316,516 素材情報記憶部
118 観者検出部(赤外線センサ、カメラ)
120 エレメント組合部
122 エレメント編集部
123 エレメント情報記憶部
202,204 電灯
206 太陽
208 目
300 コンピュータ
302 表示部(モニタ)
308 空間情報記憶部
318 空間内観者位置検出部
500 サーバ
502 エレメント収集部
504 データ判定部
506 データ変換部
518 製造データ生成部
702,704,706,708 コンピュータ

Claims (26)

  1. 複数のコンピュータに接続された画像処理システムであって、エレメント収集手段と、エレメント組合手段と、空間の画像を表示する第1の表示手段と、前記空間の表示データをレンダリングする第1のレンダリング手段と、前記空間に適用される素材の画像を表示する第2の表示手段と、前記素材の画像の表示データをレンダリングする第2のレンダリング手段と、エレメント編集手段とを備え、
    前記エレメント収集手段は、前記複数のコンピュータの各々から、素材の画像の各画素についての色特性、形状特性及び反射特性の少なくとも1つを収集するように構成され、
    前記エレメント組合手段は、前記エレメント収集手段により収集された色特性、形状特性及び反射特性を組合せて、素材の質感に関する素材情報を決定するように構成され、
    前記第2のレンダリング手段は、照明情報、前記エレメント組合手段により決定された前記素材の質感に関する素材情報、並びに照明、前記第2の表示手段の表示面及び観者の相対的位置関係に基づいて、前記素材の表示データをレンダリングするように構成され、
    前記第2の表示手段は、レンダリングされた前記素材の表示データを用いて前記素材の画像を表示するように構成され、
    前記第1のレンダリング手段は、前記素材を前記空間に適応する指示に応答して、前記空間の空間照明情報及び前記素材の質感に関する素材情報に基づいて、前記素材を適用した前記空間の表示データをレンダリングするように構成され、
    前記第1の表示手段は、レンダリングされた前記空間の表示データを用いて前記空間の画像を表示するように構成され、
    前記エレメント編集手段は、画像が表示された前記素材の素材情報の前記色特性、形状特性及び反射特性のうちの少なくとも1つを変更するように構成された、画像処理システム。
  2. 前記第2の表示手段の表示面の方位を検出するように構成された傾き検出手段をさらに備え、
    前記第2のレンダリング手段は、照明情報、前記素材の質感に関する素材情報及び前記第2の表示手段の表示面の方位に基づいて、前記素材の表示データをレンダリングするように構成された、請求項1に記載の画像処理システム。
  3. 前記第2の表示手段の周囲照明情報を取得するように構成された周囲照明情報取得手段をさらに備え、前記素材の表示データがレンダリングされる際に用いられる前記照明情報は、前記周囲照明情報取得手段により取得された前記周囲照明情報である、請求項2に記載の画像処理システム。
  4. 前記素材の表示データがレンダリングされる際に用いられる前記照明情報は、前記空間の表示データをレンダリングする際に用いられる前記空間照明情報である、請求項2に記載の画像処理システム。
  5. 前記素材の画像の観者の方位を検出する観者検出手段をさらに備え、
    前記第2のレンダリング手段は、前記照明情報、前記素材の質感に関する素材情報、前記第2の表示手段の表示面の方位及び前記素材の画像の観者の方位に基づいて、前記素材の表示データをレンダリングするように構成された、請求項2ないし4のいずれかに記載の画像処理システム。
  6. 前記照明情報は、少なくとも光の方位、色成分及び強度を含み、
    前記素材情報は、前記素材の画像の各画素についての色特性、形状特性及び反射特性を含む、請求項ないし5のいずれかに記載の画像処理システム。
  7. 前記画像処理システムは、空間画像処理端末と携帯型端末とを含み、
    前記空間画像処理端末は、前記第1のレンダリング手段と前記第1の表示手段とを含み、
    前記携帯型端末は、前記傾き検出手段と、前記第2のレンダリング手段と、前記第2の表示手段とを含む、請求項2ないし6のいずれかに記載の画像処理システム。
  8. 前記画像処理システムは、製造データ生成手段をさらに備え、
    前記製造データ生成手段は、前記エレメント組合手段によって組合された、または前記エレメント編集手段によって変更された前記素材の素材情報の前記色特性、形状特性及び反射特性に基づいて、前記素材の製造データを生成および出力するように構成された、請求項ないし7のいずれかに記載の画像処理システム。
  9. エレメント収集手段と、エレメント組合手段と、空間の画像を表示する第1の表示手段と、前記空間の表示データをレンダリングする第1のレンダリング手段と、前記空間に適用される素材の画像を表示する第2の表示手段と、前記素材の画像の表示データをレンダリングする第2のレンダリング手段と、エレメント編集手段とを備えた画像処理システムにおける画像処理方法であって、前記画像処理システムは、複数のコンピュータに接続されており、前記方法は、
    前記エレメント収集手段が、前記複数のコンピュータの各々から、素材の画像の各画素についての色特性、形状特性及び反射特性の少なくとも1つを収集することと、
    前記エレメント組合手段が、前記エレメント収集手段により収集された色特性、形状特性及び反射特性を組合せて、素材の質感に関する素材情報を決定することと、
    前記第2のレンダリング手段が、照明情報、前記エレメント組合手段により決定された前記素材の質感に関する素材情報、並びに照明、前記第2の表示手段の表示面及び観者の相対的位置関係に基づいて、前記素材の表示データをレンダリングすることと、
    前記第2の表示手段が、レンダリングされた前記素材の表示データを用いて前記素材の画像を表示することと、
    前記第1のレンダリング手段が、前記素材を前記空間に適応する指示に応答して、空間照明情報及び前記素材の質感に関する素材情報に基づいて、前記素材を適用した前記空間の表示データをレンダリングすることと、
    前記第1の表示手段が、レンダリングされた前記空間の表示データを用いて前記空間の画像を表示することと、
    前記エレメント編集手段が、画像が表示された前記素材の素材情報の前記色特性、形状特性及び反射特性のうちの少なくとも1つを変更することと
    を含む、方法。
  10. 前記画像処理システムは、傾き検出手段をさらに備え、
    前記方法は、前記傾き検出手段が前記表示手段の表示面の方位を検出することをさらに含み、
    前記第2のレンダリング手段が前記素材の表示データをレンダリングすることは、前記第2のレンダリング手段が、前記照明情報、前記素材の質感に関する素材情報及び前記傾き検出手段により検出された前記表示手段の表示面の方位に基づいて、前記素材の表示データをレンダリングすることを含む、請求項9に記載の方法。
  11. 前記画像処理システムが周囲照明情報取得手段をさらに備え、
    前記方法は、前記周囲照明情報取得手段が前記第2の表示手段の周囲照明情報を取得することをさらに含み、
    前記素材の表示データがレンダリングされる際に用いられる前記照明情報は前記周囲照明情報である、請求項10に記載の方法。
  12. 前記素材の表示データがレンダリングされる際に用いられる前記照明情報は、前記空間の表示データをレンダリングする際に用いられる前記空間照明情報である、請求項10に記載の方法。
  13. 前記画像処理システムが観者検出手段をさらに備え、
    前記方法は、前記観者検出手段が前記素材の画像の観者の方位を検出することをさらに含み、
    前記第2のレンダリング手段が前記素材の表示データをレンダリングすることは、前記第2のレンダリング手段が、前記照明情報、前記素材の質感に関する素材情報、前記第2の表示手段の表示面の方位及び前記素材の画像の観者の方位に基づいて、前記素材の表示データをレンダリングすることを含む、請求項10ないし12のいずれかに記載の方法。
  14. 前記照明情報は、少なくとも光の方位、色成分及び強度を含み、
    前記素材情報は、前記素材の画像の各画素についての色特性、形状特性及び反射特性を含む、請求項10ないし13のいずれかに記載の方法。
  15. 前記画像処理システムは、空間画像処理端末と携帯型端末とを含み、
    前記空間画像処理端末は、前記第1のレンダリング手段と前記第1の表示手段とを含み、
    前記携帯型端末は、前記第2のレンダリング手段と、前記第2の表示手段とを含む、請求項10ないし14のいずれかに記載の方法。
  16. 前記画像処理システムは、空間画像処理端末と携帯型端末とを含み、
    前記空間画像処理端末は、前記第1のレンダリング手段と前記第1の表示手段とを含み、
    前記携帯型端末は、前記傾き検出手段と、前記第2のレンダリング手段と、前記第2の表示手段とを含む、請求項10ないし15のいずれかに記載の方法。
  17. 前記画像処理システムが製造データ生成手段をさらに備え、
    前記方法は、前記製造データ生成手段が、前記エレメント組合手段によって組合された、または前記エレメント編集手段によって変更された前記素材の素材情報の前記色特性、形状特性及び反射特性に基づいて、前記素材の製造データを生成および出力することを含む、請求項10ないし16のいずれかに記載の方法。
  18. エレメント収集手段と、エレメント組合手段と、空間の画像を表示する第1の表示手段と、前記空間の表示データをレンダリングする第1のレンダリング手段と、前記空間に適用される素材の画像を表示する第2の表示手段と、前記素材の画像の表示データをレンダリングする第2のレンダリング手段と、エレメント編集手段とを備えたコンピュータシステムによって実行されるプログラムであって、前記コンピュータシステムは、複数のコンピュータに接続されており、前記プログラムは、
    前記エレメント収集手段に、前記複数のコンピュータの各々から、素材の画像の各画素についての色特性、形状特性及び反射特性の少なくとも1つを収集させ、
    前記エレメント組合手段に、前記エレメント収集手段により収集された色特性、形状特性及び反射特性を組合せて、素材の質感に関する素材情報を決定させ、
    前記第2のレンダリング手段に、照明情報、前記エレメント組合手段により決定された前記素材の質感に関する素材情報、並びに照明、前記第2の表示手段の表示面及び観者の相対的位置関係に基づいて、前記素材の表示データをレンダリングさせ、
    前記第2の表示手段に、レンダリングされた前記表示データを用いて前記素材の画像を表示させ、
    前記第1のレンダリング手段に、前記素材を前記空間に適応する指示に応答して、空間照明情報及び前記素材の質感に関する素材情報に基づいて、前記素材を適用した前記空間の表示データをレンダリングさせ、
    前記第1の表示手段に、レンダリングされた前記空間の表示データを用いて前記空間の画像を表示させ、
    前記エレメント編集手段に、画像が表示された前記素材の素材情報の前記色特性、形状特性及び反射特性のうちの少なくとも1つを変更させる、プログラム。
  19. 前記コンピュータシステムは、傾き検出手段をさらに備え、
    前記プログラムは、前記傾き検出手段に前記表示手段の表示面の方位を検出させ、
    前記第2のレンダリング手段に、前記照明情報、前記素材の質感に関する素材情報及び前記傾き検出手段により検出された前記表示手段の表示面の方位に基づいて、前記素材の表示データをレンダリングさせる、請求項18に記載のプログラム。
  20. 前記コンピュータシステムが周囲照明情報取得手段をさらに備え、
    前記プログラムは、前記周囲照明情報取得手段に前記第2の表示手段の周囲照明情報を取得させ、
    前記レンダリング手段に、前記周囲照明情報、前記素材情報、並びに前記照明、前記第2の表示手段の表示面及び前記観者の前記相対的位置関係に基づいて、前記素材の表示データをレンダリングさせる、請求項19に記載のプログラム。
  21. 前記素材の表示データをレンダリングされる際に用いられる照明情報は、前記空間の表示データをレンダリングする際に用いられる前記空間照明情報である、請求項19に記載のプログラム。
  22. 前記コンピュータシステムが観者検出手段をさらに備え、
    前記プログラムは、前記観者検出手段に前記素材の画像の観者の方位を検出させ、
    前記第2のレンダリング手段に前記照明情報、前記素材の質感に関する素材情報及び前記素材の画像の観者の方位に基づいて、前記素材の表示データをレンダリングさせる、請求項19ないし21のいずれかに記載のプログラム。
  23. 前記照明情報は、少なくとも光の方位、色成分及び強度を含み、
    前記素材情報は、前記素材の画像の各画素についての色特性、形状特性及び反射特性を含む、請求項19ないし22のいずれかに記載のプログラム。
  24. 前記コンピュータシステムは、空間画像処理端末と携帯型端末とを含み、
    前記空間画像処理端末は、前記第1のレンダリング手段と前記第1の表示手段とを含み、
    前記携帯型端末は、前記第2のレンダリング手段と、前記第2の表示手段とを含む、請求項19ないし23のいずれかに記載のプログラム。
  25. 前記コンピュータシステムは、空間画像処理端末と携帯型端末とを含み、
    前記空間画像処理端末は、前記第1のレンダリング手段と前記第1の表示手段とを含み、
    前記携帯型端末は、前記傾き検出手段と、前記第2のレンダリング手段と、前記第2の表示手段とを含む、請求項19ないし24のいずれかに記載のプログラム。
  26. 前記コンピュータシステムが製造データ生成手段をさらに備え、
    前記プログラムは、前記製造データ生成手段に、前記エレメント組合手段によって組合された、または前記エレメント編集手段によって変更された前記素材の素材情報の前記色特性、形状特性及び反射特性に基づいて、前記素材の製造データを生成および出力させる、請求項19ないし25のいずれかに記載のプログラム。
JP2015152950A 2015-07-31 2015-07-31 画像処理システム、方法、及びプログラム Active JP6631074B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015152950A JP6631074B2 (ja) 2015-07-31 2015-07-31 画像処理システム、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015152950A JP6631074B2 (ja) 2015-07-31 2015-07-31 画像処理システム、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017033315A JP2017033315A (ja) 2017-02-09
JP6631074B2 true JP6631074B2 (ja) 2020-01-15

Family

ID=57987174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015152950A Active JP6631074B2 (ja) 2015-07-31 2015-07-31 画像処理システム、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6631074B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113672829B (zh) * 2021-07-20 2024-03-26 北京达佳互联信息技术有限公司 页面展示方法、装置、电子设备及存储介质
CN116152425A (zh) * 2021-11-22 2023-05-23 北京字节跳动网络技术有限公司 绘制图像的方法、装置、电子设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09106411A (ja) * 1995-10-12 1997-04-22 Sekisui House Ltd Cg画像による建築物の表面材切換表示方法
JP4079231B2 (ja) * 1997-12-11 2008-04-23 大日本印刷株式会社 画像生成方法及び装置
JP2013003848A (ja) * 2011-06-16 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> 仮想物体表示装置
JP2013182417A (ja) * 2012-03-01 2013-09-12 Canon Inc 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
JP2017033315A (ja) 2017-02-09

Similar Documents

Publication Publication Date Title
JP6610063B2 (ja) 画像処理システム、方法、及びプログラム
CN111713181B (zh) 使用增强现实的照明和物联网设计
JP6720972B2 (ja) 画像処理システム、方法、及びプログラム
EP2565824B1 (en) Data processing system and method for processing an image of an object
JP6674192B2 (ja) 画像処理装置と画像処理方法
KR101813394B1 (ko) 하우스 인테리어 서비스 제공 시스템 및 방법
JP6610065B2 (ja) 化粧材シミュレーションシステム、方法、及びプログラム
JP6631074B2 (ja) 画像処理システム、方法、及びプログラム
EP4244820A1 (en) Image processing method, recording medium, and image processing system
JP6589444B2 (ja) 建築素材画像処理システム、方法、及びプログラム
JP6554980B2 (ja) 画像処理システム、方法、及びプログラム
JP6717302B2 (ja) 画像処理システム、方法、及びプログラム
JP6610064B2 (ja) 建築素材凹凸模様画像処理システム、方法、及びプログラム
CN106971418A (zh) 手持式家居建材凹凸表面质感重建装置
JP2003157290A (ja) イメージシミュレーション用処理方法、イメージシミュレーション用処理システム、イメージシミュレーション用処理プログラム及び記録媒体
JP6756090B2 (ja) 画像処理装置、方法、及びプログラム
CN107580157A (zh) 图像处理装置、图像处理方法以及程序
JP7124327B2 (ja) 画像処理装置及びプログラム
Navvab et al. Evaluation of historical museum interior lighting system using fully immersive virtual luminous environment
JP6693069B2 (ja) 画像表示装置、方法、およびプログラム
Lee Wand: 360∘ video projection mapping using a 360∘ camera
CN113016011A (zh) 用于基底、涂覆品、中空玻璃单元等的增强现实系统和方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20160526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R150 Certificate of patent or registration of utility model

Ref document number: 6631074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250