JP3761263B2 - Computer graphics reproduction method - Google Patents

Computer graphics reproduction method Download PDF

Info

Publication number
JP3761263B2
JP3761263B2 JP30444396A JP30444396A JP3761263B2 JP 3761263 B2 JP3761263 B2 JP 3761263B2 JP 30444396 A JP30444396 A JP 30444396A JP 30444396 A JP30444396 A JP 30444396A JP 3761263 B2 JP3761263 B2 JP 3761263B2
Authority
JP
Japan
Prior art keywords
virtual
observer
information
image
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP30444396A
Other languages
Japanese (ja)
Other versions
JPH10143675A (en
Inventor
章 依田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP30444396A priority Critical patent/JP3761263B2/en
Publication of JPH10143675A publication Critical patent/JPH10143675A/en
Application granted granted Critical
Publication of JP3761263B2 publication Critical patent/JP3761263B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、コンピュータグラフィックスで作成した画像を、ディスプレイやハードコピーに再現する画像再現の技術分野に属する。
【0002】
【従来の技術】
CRT等の画面上に3次元的な物体画像を表示するコンピュータグラフィックス(以下、CGとする)においては、CGの仮想空間(シュミレーション空間)の3次元座標にマップされた物体の表面から観察者の方向に反射する光をレイトレーシング法(光線追跡法)等で計算し、これより、観察者が観察するであろう像の輝度を計算して、これを表示装置が表示する輝度情報に対応する2次元画像に変換して表示することが一般に行われている。また、より現実感のある画像を得るために、物体間の多重反射や、物体表面の散乱性等も考慮に入れて画像を表示する方法も各種行われている。
【0003】
一方、カタログやパンフレット等のハードコピーにおいては、実際に物体を写真に撮影して、この写真をハードコピーに再現することが行われている。
ここで、ハードコピーにおいても、より現実感が高く、その物体の特徴を的確に強調した画像が要求されるのは当然のことである。これを実現するために、ハードコピーでは、写真を撮影する際のライティングの調整や、撮影された写真をハードコピーに再現する際の階調調整等の各種の処理が施されている。
【0004】
前者では、照明光源の数(単一灯から2灯、4灯灯の多灯)や照明角度を切り替えることにより、対象となる物体の陰影コントラストを弱めたり強めたりする方法が例示される。また、指向性の強い光線とするか、拡散板などを用いて拡散性を強めるか等も、類似の効果を出す手段として用いられている。
この場合、記録媒体であるフィルムの特性を考慮してライティングの設定を行わないと、目的としている表現意図に合う画像を作ることはできない。例えば、リバーサルフィルムに記録できる露光量のレンジは、光量の対数値で2〜2.5程度であり、このレンジを超えたライティング設定を行っても、撮影シーンとしては好ましい設定であってもハードコピーとしては再現できない。一例として、人物撮影で白いドレス等の陰影を強調するために強い補助灯を加えても、顔や肌に最適化した露出で撮影すると白の部分は飽和してしまい、結果として白のコントラストは良好に再現されない。
このような撮影ライティングでの不備は、後述する画像処理で修正を加えることが極めて困難であるため、これらの特性を考慮した撮影のできる熟練したカメラマンが必要になる。
【0005】
また後者では、撮影、現像されたフィルム原稿(多くの場合はリバーサルフィルム)をスキャナで光電的に読み取り、ハードコピーの色再現範囲やダイナミックレンジを考慮して、デジタル画像に処理を加えることが行われる。
例えば、代表的な4色オフセット印刷では、最大反射濃度は1.8〜2.2の範囲であるが、リバーサルフィルムの最大濃度は3.2〜4.0にも及ぶ。そのため、スキャナの操作者は、そのシーンにおける表現目的である被写体の陰影コントラストが最適となるように、濃度域を圧縮する比率を調整する。
これらの比率の調整は、その最終制作物である印刷物の表現目的によって変わる他に、デジタル化する際の原稿であるフィルムの仕上り状態にも依存する。また、ハードコピーとリバーサルフィルム、さらにスキャナに付属しているCRT等のディスプレイとでは、観察者の画像知覚特性が異なっている。
このため、一般的に濃度条件や測色値が同一になるように再現しても、画像が知覚される状態は同じにならない。
これらの知覚特性については以前より研究されており、例えば明るさに関しては、J.C.Stevens らの研究結果が報告されている(J.C.Stevens,S.S.Stevens;Opt.Soc.Amer.53(3),1963) 。これによれば、周囲が暗い時(例えば映画館等)と日中の屋外とでは、コントラスト知覚特性が1.3倍程度変わることが報告されている。これは、明るさに関する一例であるが、色知覚も周囲環境条件によって特性が変化することも多数報告されている。
熟練したスキャナオペレータは、経験的にこの特性を知っており、例えば、夏の海岸シーンを再現するときには、通常よりもコントラストを高めに仕上げ、室内の静物等では低めに仕上げる等の処理を行っている。こうした処理により、より現実感のあるハードコピー再現が得られる。
【0006】
ところが、ハードコピーの目的に応じた画像再現を可能にするライティング設備は高価であり、しかも、前述のように、ライティング調整を適切に行ってハードコピーの目的に応じた的確な写真を撮影できるプロのカメラマンに撮影を依頼すると、コストが高くなってしまうことを避けることができない。
また、撮影された写真がハードコピーの目的に対して不適切であった場合には、画像処理等で対応することは不可能であり、写真の取り直しになってしまうことがほとんどである。
【0007】
このような調整を効率よく行い、かつ自由度を広げることが期待される方法として、CGによって、3次元画像データからなる物体のモデルを作成し、レイトレーシングによって仮想的な撮影シーンを作成して2次元の画像データとし、必要に応じて、ハードコピーの目的に対応して物体の特徴を的確に表現するための画像処理を施して、得られた画像データをハードコピーに再現するための画像データに変換して、ハードコピーを作成することが行われている。
この方法によれば、高価なライティング設備やプロのカメラマンは不要であり、また、作成されたハードコピーが不適切なものであっても、画像データ処理によって、画像を再作成することが可能である。
さらに、物体モデルのデータをシーンと個別に持つことにより物体モデルの再利用やレイアウトの再構成などが容易になる等のメリットも期待されている。
【0008】
このようにCG画像をハードコピーに再現する際でも、現実感が高いことが要求されるのは当然のことであり、写真から作成されたハードコピーと同等あるいはそれ以上の現実感を有する画像を得るために、様々な処理が施されている。
しかしながら、現状では、CGからハードコピーを作成しても、必ずしも、写真から作成したハードコピーのように現実感の高い画像が得られない。
【0009】
CGでは3次元座標にマップされた物体の表面形状データを基に、レイトレーシング法等で観察者方向から観測される輝度を計算して、それをそのままCRT等のディスプレイに再現するようにしている。例えば、モデルの中で計算される最大輝度の点をディスプレイの最大値に設定し、光の到達しない点を輝度ゼロとして計算する。
しかしながら、表示(観察)面での外光の反射によるフレアや暗電流によるオフセット等があるため、ディスプレイの輝度レンジは最低輝度がゼロとはならず、実際は輝度比としては1:10〜1:100の範囲となる。
このような状態で、例えばモデル物体として光沢のある表面を持つ物などを設定した場合には、正反射などで輝度が高い極一部の部分のみでは理想的な階調再現が得られるが、殆どの部分で調子が失われ、写真画像としてはいかにも不自然な仕上りとなる。
【0010】
従来の写真処理およびスキャナ等の処理では、カメラ側の露光設定で最適化を行い、また、最高輝度領域でも階調性を失わないように経験的に作られた特性曲線を持つ感光材料を使用し、また、プリントで最適に再現されるように経験的に設定されたスキャナの階調変換カーブを通して処理されている。また、カメラレンズの焦点進度を変えたり、焦点位置を変えたりして、細部を強調すべきものとソフトに仕上げるものとを区別してコントロールしている。
しかしながら、こうした処理を2次元のデジタル画像になってから施す事は、奥行に関する情報が無くなっているので、極めて困難な処理となる。
【0011】
また、先に述べたように、写真や映画の撮影では、仕上がった画像の観察環境を考慮してライティング等を調整しており、同じシーンを撮影した場合であっても、映画のフィルムとカタログ等に使用される写真とではライティングが全く異なり、従って、仕上がった画像も異なる。
これに対し、現在行われているCGは、CRT等のディスプレイ表示を目的としたレイトレーシング計算が主であるため、ディスプレイに表示された画像をそのままハードコピーに再現しても高い現実感は得られず、さらに、CGの画面上からハードコピーの仕上り状態を予測できないことも、高い現実感を得られない一因になっていると考えられる。
【0012】
【発明が解決しようとする課題】
本発明の目的は、前記従来技術の問題点を解決することにあり、コンピュータグラフィックスで作成した3次元画像を、印刷物等のハードコピーに再現するに際し、実際に物体を撮影した写真を用いて作成したハードコピーと同等あるいはそれ以上の現実感を有する画像が再現されたハードコピーが得られるコンピュータグラフィックスの再現方法、言い換えれば、コンピュータグラフィックスで作成した物体を、コンピュータグラフィックスの仮想空間内で実際に観察者が見ている状態に極めて近いアピアランスを与える画像をハードコピーに再現できるコンピュータグラフィックスの再現方法を提供することにある。
【0013】
【課題を解決するための手段】
前記目的を達成するために、本発明は、コンピュータグラフィックスによって、3次元座標空間内に作成した仮想物体の3次元画像を、前記仮想空間内の仮想観察者から見た2次元画像として再現するコンピュータグラフィックス再現方法であって、前記3次元座標空間内には、前記仮想物体、前記仮想観察者、および前記仮想物体を照射するための仮想光源が配置され、前記仮想観察者に関する情報として、前記仮想光源に応じて定まる前記仮想観察者の仮想順応白色パラメータおよび前記仮想光源に応じて定まる前記仮想観察者の仮想順応輝度パラメータの少なくともいずれか一方を含む仮想観察者情報が設定されており、前記3次元座標空間内における仮想物体情報、仮想光源情報、および前記仮想観察者情報に基づき、前記3次元座標空間内の任意の平面に射影された2次元画像を仮想観察者が観察した際に、前記仮想観察者が知覚するアピアランス3刺激値で示される2次元画像データを算出するステップと画像再現手段による再現画像を観察者が観察した際に、前記観察者が知覚するアピアランス3刺激値が、前記仮想観察者が知覚するアピアランス3刺激値と同じとなるよう、画像再現用の2次元画像データを生成するステップとを有することを特徴とするコンピュータグラフィックス再現方法を提供する。
【0014】
また、前記仮想観察者情報は、前記仮想順応白色パラメータおよび前記仮想順応輝度パラメータの少なくともいずれか一方に加え、前記仮想観察者の視覚情報および前記仮想観察者の3次元位置情報を少なくとも含み、前記アピアランス3刺激値で示される2次元画像データを算出するステップでは、前記3次元座標空間内における仮想物体情報、仮想光源情報、前記仮想観察者の視覚情報、および前記仮想観察者の3次元位置情報に基づき、前記3次元座標空間内の任意の平面に射影された2次元画像の3刺激値で示される2次元画像データを得て、前記2次元画像の3刺激値で示される2次元画像データと、前記仮想順応白色パラメータおよび前記仮想順応輝度パラメータの少なくともいずれか一方と、に基づき、前記アピアランス3刺激値で示される2次元画像データを算出することが好ましい。
また、前記観察者が前記再現画像を観察する際の、前記観察者の順応白色パラメータ、および前記観察者の順応輝度パラメータの少なくともいずれか一方が、観察者情報として設定されており、前記画像再現用の2次元画像データを生成するステップでは、前記観察者が知覚するアピアランス3刺激値が、前記仮想観察者が知覚するアピアランス3刺激値と同じとなるよう、前記観察者情報を用いて、画像再現用の2次元画像データを生成することが好ましい。
なお、前記画像再現手段は、プリンタ信号に応じたハードコピー画像を出力するプリンタであって、プリンタ信号と、プリンタ信号に応じて出力されるハードコピー画像の3刺激値と、の対応関係が予め既知であり、前記画像再現用の2次元画像データを生成するステップでは、前記観察者が知覚するアピアランス3刺激値が、前記仮想観察者が知覚するアピアランス3刺激値と同じとなるよう、前記観察者情報に基づき、再現されたハードコピー画像が有すべき2次元画像の3刺激値を求め、前記対応関係に基づいて、求めた前記2次元画像の3刺激値を有するハードコピー2次元画像を出力するためのプリンタ信号を、前記画像再現用の2次元画像データとして生成することが好ましい。
また、前記仮想観察者が知覚するアピアランス3刺激値をα、β、γとし、XYZ表色系で表した、前記仮想観察者が知覚するアピアランス3刺激値をX、Y、Zとし、XYZ表色系で表した、前記仮想観察者の仮想順応白色パラメータをX 、Y 、Z とし、前記仮想観察者の仮想順応輝度パラメータをPとしたとき、前記α、β、γは、下記式(1)で表されることが好ましい。

Figure 0003761263
ただし、l 、a 、b は定数であり、かつ、γ(p)は、前記仮想観察者の仮想順応輝度パラメータPの関数であって、前記仮想観察者の仮想順応輝度パラメータPが0.01〜100まで4桁変化したとき、γ(p)は0.3〜0.5の間で直線的に変化する関数である。
また、前記仮想物体情報が、少なくとも、前記仮想物体の形状を示す3次元位置情報と、前記仮想物体の表面状態を示す1次元〜多次元の表面色情報とを有し、前記仮想光源情報が、少なくとも、前記仮想光源の3次元位置情報と、前記仮想光源の大きさを示す情報と、分光輝度率分布情報とを有し、前記仮想観察者情報が、少なくとも、前記仮想観察者の3次元位置情報と、視覚情報とを有することが好ましい。
【0015】
【発明の実施の形態】
以下、本発明のコンピュータグラフィックス再現方法について添付の図面に示される好適実施例を基に詳細に説明する。
【0016】
図1に、本発明のコンピュータグラフィックス再現方法を概念的に示す。
本発明のコンピュータグラフィックス(以下、CGとする)再現方法は、CGの仮想空間(シュミレーション空間)に作成したCG画像をハードコピーに再現するに際し、CG空間の3次元座標(x,y,z)における、物体10の情報、光源12の情報、ならびに観察者14の情報から、CGの仮想空間内に任意に作成された平面16に射影された二次元画像を示すアピアランス3刺激値すなわちアピアランス信号α,β,γを得、アピアランス信号α,β,γから、このアピアランス3刺激値と同じアピアランスが得られる画像となるプリンタ信号を作成して、ハードコピーを作成することにより、CGから、写真を原稿としたハードコピーと同等あるいはそれ以上に現実感の高いハードコピーを作成することを可能にしたものである。
【0017】
図4に従来のCG画像のハードコピーへの再現方法を概念的に示す。
従来の再現方法では、基本的に、点光源50を有するCGの仮想空間内(図4中点線で示される空間)に作成した物体52の画像を、CRT等のディスプレイ54で観察者56が見る画像として再現して、このディスプレイ54に再現された画像の画像データをプリンタPによる画像出力に対応する画像データに変換することにより、CG画像をハードコピーに再現している。
しかしながら、この方法では、仮想空間内、ディスプレイ54、およびハードコピーのそれぞれにおける観察環境や条件の違い等に起因して、現実感の高い画像をハードコピーに再現することはできない。
【0018】
これに対し、本発明のCG再現方法においては、前述の物体情報、光源情報ならびに観察者情報を用い、CGの仮想的な3次元空間において、大きさを有する仮想的な光源12によって照射された物体10(CGによって3次元空間内に作成された物体)の反射光を、任意に決定された二次元的な平面16に射影して2次元画像とし、この2次元画像を同じ3次元空間内にいる仮想的な観察者14が見た際の画像データ、すなわち光源12や観察者14や観察条件が反映された画像データであるアピアランス信号α,β,γとする。
次いで、例えば、このCGのアピアランス信号α,β,γを変換して、プリント画像すなわちCG再現画像のアピアランス信号αh ,βh ,γh を得、これよりプリンタ信号(プリンタの画像出力に応じた画像データ)を作成し、ハードコピーを作成することにより、光源や観察条件等の違いを吸収した現実感の高い画像、すなわち、CGのアピアランスと同じアピアランスの画像をハードコピーに再現することができる。
【0019】
光源12の情報は、輝度の次元を持つ情報であり、基本的に、光源12から射出される光の波長λ、偏角θ、さらに、CGの三次元空間における光源12の位置xs ,ys ,zs をパラメータとする関数Sで示される。
S(λ,θ,xs ,ys ,zs
なお、図1に示されるように、光源12は点光源ではなく、ある大きさを持った光源である。
【0020】
物体10の情報は、物体10のある点rにおいて、ある方向に反射される光の反射率の情報であり、基本的に、波長λ、偏角θ、三次元空間におけるrの位置xn ,yn ,zn 、さらに、物体10が有する面の法線xm ,ym ,zm をパラメータとする関数Rで示される。
R(λ,θ,xn ,yn ,zn ,xm ,ym ,zm
なお、この三次元空間中の物体の位置xn ,yn ,zn の取り込み方法には特に限定はなく、コンピュータで画像データを作成する方法や、ホログラムによる2次元情報を走査する方法等、CGで用いられている公知の方法が各種利用可能である。
また、物体のある角度方向に対する分光反射率を、偏角分光測光等の方法により求めておけば、法線方向Xm ,Ym ,Zm に対する分光反射率を算出することが可能である。
【0021】
観察者14の情報は、基本的に、三次元空間における観察者14の位置xi ,yi ,zi 、観察者14の視覚情報たとえば人間の眼の等色関数x(λ),y(λ),z(λ)、観察者14の順応白色XW ,YW ,ZW 、さらに、観察者14の順応輝度Pで示される。
なお、順応白色XW ,YW ,ZW とは、その空間内で観察者14が白と感じる色であり、例えば、光源12の3刺激値または色度値で示される。
また、順応輝度Pとは、その空間内で、光源12に対して観察者14が馴染んでいる輝度である。例えば、その空間(光源)が真夏の太陽の下なのか、室内であるのかによって、観察者14が馴染んでいる輝度が異なるので、そのシーンの中で観察者が馴染んでいる輝度を順応輝度Pとする。
【0022】
前述のように、本発明の再現方法においては、光源12から射出されて物体10に反射された光を、前記3次元空間内に任意に設定した平面16に射影することにより、CGの3次元画像から2次元画像を得る。
この平面16に射影された画像の各点(画素)の位置を、平面16の二次元座標の位置xp ,yp で示す。
【0023】
本発明のCG再現方法では、これらを用いてCGで作成された画像を2次元画像に再現するためのアピアランス信号を算出するが、以下に示す例においては、まず、光源情報である関数S、物体情報である関数R、観察者位置xi ,yi ,zi 、等色関数x(λ),y(λ),z(λ)、および二次元座標の位置xp ,yp を用いて、平面16に射影された二次元画像の3刺激値X,Y,Zを算出する。
3刺激値X,Y,Zは、CIE(Commission Internationale I'Eclairage 国際照明委員会)の3刺激値の算出方法に準拠して算出すればよく、例えば、下記式で示されるように、関数Sと等色関数(観察者14の視覚情報)x(λ),y(λ),z(λ)とを積分することにより算出することができる。このように、関数Sを積分することで、光源12の大きさに対応する。
X=∬x(λ)S・Rf(xi ,yi ,zi ,xp ,yp )dsdλ
Y=∬y(λ)S・Rf(xi ,yi ,zi ,xp ,yp )dsdλ
Z=∬z(λ)S・Rf(xi ,yi ,zi ,xp ,yp )dsdλ
上記式に示されるように、X,Y,Zは、xp ,yp の関数になっており、すなわち、X,Y,Z(後述するアピアランス信号α,β,γ)は平面16に射影された二次元画像の点(画素)xp ,yp の画像データである。
【0024】
次いで、この3刺激値X,Y,Zと、順応白色XW ,YW ,ZW および順応輝度Pをパラメータとして用いる所定の関数A,BおよびCで、平面16に射影されて観察者14が見た二次元画像のデータすなわちアピアランス信号(アピアランス3刺激値)α,β,γを算出する。
α=A(X,Y,Z,XW ,YW ,ZW ,P)
β=B(X,Y,Z,XW ,YW ,ZW ,P)
γ=C(X,Y,Z,XW ,YW ,ZW ,P)
【0025】
アピアランス信号α,β,γを算出する関数A,BおよびCとしては、各種のものが考えられるが、一例として、CIE準拠の測色値L* * * の算出方法を利用する、下記の式が例示される。
【数1】
Figure 0003761263
【0026】
上記式において、l0 ,a0 およびb0 は、CEIの算出方法に準拠して、l0 =116、a0 =500、b0 =200とする。
また、γ(P)は順応輝度Pをパラメータとして関数化したものであり、例えば、図2に示されるように、順応輝度Pが0.01〜100まで4桁変動する間に、γ(P)が0.3〜0.5くらいの間で直線的に変動する関数である。
【0027】
次いで、このようにして得られた二次元画像のアピアランス信号α,β,γを変換して、プリント画像(すなわちCGのハードコピー再現画像)のアピアランス信号αh ,βh ,γh を得、このアピアランス信号αh ,βh ,γh から、プリンタ信号を得る。
【0028】
プリント画像のアピアランス信号αh ,βh ,γh は、基本的に、前記CGの二次元画像のアピアランス信号α,β,γと同様に得ることができる。
すなわち、最初に、プリンタ信号、例えば、Ci (シアン),Mi (マゼンタ),Yi (イエロー)の三原色およびKi (黒)の各画像データ(画像濃度、あるいはそれをデジタル化した画像データ)から、公知の方法でプリンタによる画像の3刺激値Xhi,Yhi,Zhiを求める。
hi=Xh (Ci ,Mi ,Yi ,Ki
hi=Yh (Ci ,Mi ,Yi ,Ki
hi=Zh (Ci ,Mi ,Yi ,Ki
次いで、パラメータとして、この3刺激値Xhi,Yhi,Zhiと、観察者がプリントを観察する際の順応白色XhW,YhW,ZhWおよび順応輝度Ph とを用いる関数A,BおよびCによって、プリント画像のアピアランス信号αh ,βh ,γh を算出することができる。
αh =A(Xhi,Yhi,Zhi,XhW,YhW,ZhW,Ph
βh =B(Xhi,Yhi,Zhi,XhW,YhW,ZhW,Ph
γh =C(Xhi,Yhi,Zhi,XhW,YhW,ZhW,Ph
この関数A,BおよびCは、前述の物体のアピアランス信号α,β,γを算出した関数A,BおよびCと同じ関数である。
【0029】
従って、前述のアピアランス信号α,β,γを変換してプリント画像のアピアランス信号αh ,βh ,γh とし、このアピアランス信号αh ,βh ,γh から逆算して、プリンタ信号(プリンタの画像出力に応じた画像データ)を算出し、このプリンタ信号を用いてハードコピーを作成することにより、光源や観察条件等の違いを吸収した現実感の高い画像を得ることができる。
【0030】
CGの2次元画像のアピアランス信号α,β,γから、プリント画像のアピアランス信号αh ,βh ,γh への変換は、α=αh 、β=βh 、γ=γh となるように、両者を1:1で変換するのが基本である。例えば、図3中にa(一点鎖線)で示されるような、αとαh との関係が傾き1の直線となる変換テーブルを作成し、これを用いて変換する。
しかしながら、CGのアピアランス再現域(色再現域)と、ハードコピーのアピアランス再現域とが一致しない場合も多く、図3に点線で示されるように、一般的にCGのほうがハードコピーよりアピアランス再現域が広い。
そのため、例えば、図3中にb(二点鎖線)で示されるように、傾きの調整等、ハードコピーのアピアランス再現域に合わせてアピアランスの圧縮を行い、ハードコピーのアピアランス再現域に合わせた変換テーブルを作成して、アピアランス信号α,β,γから、プリンタのアピアランス信号αh ,βh ,γh への変換を行うのが好ましい。
【0031】
ここで、物体が光沢を有する際には、観察方向によっては直接反射またはそれに近い最高輝度を持つ画素が観測される場合がある。このような場合に、この最高輝度領域からトーンを忠実に再現しようとすると、プリントあるいはディスプレイの再現範囲の制約から良好な画像再現は難しくなる。
この場合には、仮装空間において、観察方向に対して適当な角度で置いた完全拡散反射板を想定し、そのX,Y,Z3刺激値を順応白色XW ,YW ,ZW とすることによって、アピアランス信号のレンジを適切に設定することができる。この際には、最高輝度点は順応白色よりも高輝度となるが、この領域について、アピアランスの圧縮を特に強くする事で、重要被写体に最適に再現可能なレンジを割り当てることができる。
また、この順応白色XW ,YW ,ZW を以下のように設定することで、さらに最適なアピアランス信号を得ることができる。まず、観察される2次元画像のY値の平均値Yavg を求め、その値の4〜6倍の値を順応白色のYW 値とする。次いで、光源のX,Y,Z値と比率が同じになるように、XW およびZW 値を設定する。このようにすることで、平均的なシーンに対して良好なアピアランス3刺激値のレンジ設定が可能となる。
【0032】
さらに、好ましくは、CGの三次元座標空間において、重要な物体(いわゆる重要被写体)の設定を行えるように構成して、それに応じてアピアランスの圧縮が行われる変換テーブルを作成し、これを用いてアピアランス信号α,β,γをプリント画像のアピアランス信号αh ,βh ,γh に変換する。
高画質な画像を再現するためには、重要被写体のアピアランスの差が重要になる。そのため、アピアランス信号αh ,βh ,γh への変換が行われた後であっても、この重要被写体のアピアランスの差を確保するのが好ましい。
そのため、例えば、重要被写体がCGのアピアランス再現域の領域cの画像である場合には、図3中にc(実線)で示されるように、この領域は傾き1を確保して、それ以外の領域で圧縮を行って、ハードコピーのアピアランス再現域に合わせた変換テーブルを作成するのが好ましい。
【0033】
さらに、このような圧縮は、変換テーブルで行うのみならず、CGの三次元座標空間における仮想的な光源12の大きさ、光量、数等を調整して、光源情報を変えることで行ってもよく、あるいは変換テーブルの圧縮と光源12の調整の両者を併用して行ってもよい。
例えば、光源12の光量やサイズを大きく、数を増やす等の操作をすることにより、実際の写真撮影におけるレフ板や補助灯の追加のと同様に、CG画像のコントラストを弱めることができ、すなわち、結果的に、CGのアピアランス再現域を圧縮することができる。
一例として、アピアランス信号のヒストグラムを作成し、その分布を平均化するように、光源の大きさ、拡散性、光源数、角度などの照明条件を自動的に変化させることにより、良好な画面を作ることが可能となる。また、ある照明の初期状態に対して、形状は変化しているがアピアランス信号としての変化が少ない部分を計算によって求めて、その部分に陰影がつくように光源位置を配置することも可能である。
【0034】
本発明のCG再現方法においては、得られたアピアランス信号(α,β,γもしくはαh ,βh ,γh )から、プリンタ信号を算出するのみならず、これをCRT等のディスプレイの表示信号に変換して、ハードコピーに再現される画像をディスプレイに表示してもよい。
これにより、ディスプレイ画像を参照して、各種の画像情報処理を行い、ハードコピーに再現される画像の調整を、ディスプレイ上で行うようにすることが可能になり、より安定的に高画質なCGの画像をハードコピーに再現することができる。
【0035】
また、本発明の方法で作成した2次元画像データを保存することにより、物体モデルの再利用やレイアウトの再構成などが容易となり好ましい結果を得る。この際には、以下のような形式で保存し、伝送するのが、加工性および効率の両面で最も好ましい。
1)3次元の位置座標と、その表面素材インデックスで記述される物体形状データ
2)偏角分光反射率情報で記述される表面素材インデックスファイル
3)3次元の位置座標と、各方向における分光輝度とにより記述される光源データ
4)順応白色および順応輝度データ
5)アピアランス信号への変換関数およびパラメータ
6)プリント信号と3刺激値との対応テーブル
7)プリントの順応白色および順応輝度データ
8)プリントアピアランス信号への変換関数およびパラメータ
このうち1)〜5)は、2次元画像のオリジナルとして十分な情報を有しており、所望のプリント媒体に合わせた6)〜8)を使用することによって、各種のプリントメディアに対して最適な画像再現が得られる。
さらに、このような構成でデータを持つことにより、3次元物体レベルでの編集、加工を容易に行うことができる。例えば、A画像に含まれるaという物体をB画像の中に配置する場合、aの1)および2)情報をB画像に加えて編集することで、B画像の撮影条件の中で、違和感の無い画像合成が可能になる。また、B画像の3)〜5)のデータをA画像に用いることにより、A画像とB画像の仕上りを整える等の処理が可能になる。
【0036】
以上、本発明のコンピュータグラフィックス(CG)再現方法について詳細に説明したが、本発明は上述の例に限定はされず、本発明の要旨を逸脱しない範囲において、各種の変更および改良を行ってもよいのはもちろんである。
【0037】
【発明の効果】
以上、詳細に説明したように、本発明によれば、コンピュータグラフィックスで作成した3次元画像から、実際に物体を撮影した写真を用いて作成したハードコピーと同等あるいはそれ以上の現実感を有するハードコピーとして再現、言い換えれば、コンピュータグラフィックスで作成した物体を、コンピュータグラフィックスの仮想空間内で実際に観察者が見ている状態に極めて近いアピアランスを与えるハードコピーを作成することができる。
【図面の簡単な説明】
【図1】本発明のコンピュータグラフィックス(CG)再現方法を説明するための概念図である。
【図2】本発明のコンピュータグラフィックス再現方法におけるアピアランス信号を算出する式の一例を説明するためのグラフである。
【図3】本発明のコンピュータグラフィックス再現方法におけるアピアランス信号の変換テーブルの一例である。
【図4】従来のコンピュータグラフィックス再現方法を示す概念図である。
【符号の説明】
10,52 物体
12,50 光源
14,56 観察者
16 平面
54 ディスプレイ[0001]
BACKGROUND OF THE INVENTION
The present invention belongs to the technical field of image reproduction in which an image created by computer graphics is reproduced on a display or hard copy.
[0002]
[Prior art]
In computer graphics (hereinafter referred to as CG) for displaying a three-dimensional object image on a screen such as a CRT, an observer is viewed from the surface of the object mapped to the three-dimensional coordinates of the CG virtual space (simulation space). The light reflected in the direction of is calculated by ray tracing method (ray tracing method), and from this, the brightness of the image that the observer will observe is calculated, and this corresponds to the brightness information displayed by the display device In general, the image is converted into a two-dimensional image and displayed. In addition, in order to obtain a more realistic image, various methods for displaying an image in consideration of multiple reflections between objects, scattering of an object surface, and the like have been performed.
[0003]
On the other hand, in a hard copy such as a catalog or a pamphlet, an object is actually photographed and the photograph is reproduced as a hard copy.
Here, it is a matter of course that a hard copy is more realistic and requires an image that accurately emphasizes the characteristics of the object. In order to realize this, hard copy is subjected to various processes such as lighting adjustment when taking a picture and gradation adjustment when reproducing the taken picture on a hard copy.
[0004]
In the former, a method of weakening or strengthening the shadow contrast of the target object is exemplified by switching the number of illumination light sources (from a single lamp to two lamps or four lamps) and the illumination angle. Further, whether to use a light beam with strong directivity or to enhance the diffusibility using a diffusing plate or the like is used as a means for producing a similar effect.
In this case, an image that matches the intended expression intention cannot be created unless the lighting is set in consideration of the characteristics of the film as the recording medium. For example, the exposure range that can be recorded on the reversal film is about 2 to 2.5 in terms of the logarithm of the light amount. Even if the lighting setting exceeds this range, even if it is a preferable setting for the shooting scene, it is hard. It cannot be reproduced as a copy. As an example, even if a strong auxiliary light is added to enhance the shadow of a white dress or the like when shooting a portrait, the white area will be saturated when shooting with exposure optimized for the face and skin, resulting in a white contrast of Does not reproduce well.
Such deficiencies in shooting lighting are extremely difficult to correct by image processing, which will be described later. Therefore, a skilled cameraman who can take a picture in consideration of these characteristics is required.
[0005]
In the latter case, photographed and developed film originals (in many cases reversal film) are photoelectrically read by a scanner, and processing is applied to digital images in consideration of the color reproduction range and dynamic range of hard copies. Is called.
For example, in typical four-color offset printing, the maximum reflection density is in the range of 1.8 to 2.2, but the maximum density of the reversal film extends to 3.2 to 4.0. For this reason, the operator of the scanner adjusts the ratio for compressing the density range so that the shadow contrast of the subject that is the object of expression in the scene is optimized.
The adjustment of these ratios varies depending on the purpose of expressing the printed product that is the final product, and also depends on the finished state of the film that is the original when digitized. Also, the image perception characteristics of the observer are different between a hard copy, a reversal film, and a display such as a CRT attached to the scanner.
For this reason, generally, even if reproduction is performed so that density conditions and colorimetric values are the same, the perceived state of the image is not the same.
These perceptual characteristics have been studied for some time, for example with regard to brightness, the results of JCStevens et al. Have been reported (JCStevens, SSStevens; Opt. Soc. Amer. 53 (3), 1963). . According to this, it has been reported that the contrast perception characteristic changes about 1.3 times when the surroundings are dark (for example, a movie theater or the like) and outdoors in the daytime. This is an example of brightness, but it has been reported that color perception and characteristics change depending on ambient environmental conditions.
Skilled scanner operators know this characteristic empirically. For example, when reproducing a summer beach scene, the contrast is higher than usual, and the indoor still life is finished lower. Yes. By such processing, a more realistic hard copy reproduction can be obtained.
[0006]
However, the lighting equipment that enables image reproduction according to the purpose of hard copy is expensive, and as described above, a professional photographer that can appropriately take a picture according to the purpose of hard copy by appropriately adjusting the lighting. PhotographerrequestThen, it cannot be avoided that the cost becomes high.
In addition, when the photographed photograph is inappropriate for the purpose of hard copy, it is impossible to cope with it by image processing or the like, and the photograph is often retaken.
[0007]
As a method that is expected to make such adjustments efficiently and expand the degree of freedom, a model of an object consisting of three-dimensional image data is created by CG, and a virtual shooting scene is created by ray tracing. An image for reproducing the obtained image data into a hard copy by performing two-dimensional image data and, if necessary, performing image processing for accurately expressing the characteristics of the object corresponding to the purpose of the hard copy Conversion to data and making a hard copy is performed.
This method eliminates the need for expensive lighting equipment and professional photographers, and even if the created hard copy is inappropriate, it is possible to recreate the image by image data processing. is there.
Further, by having object model data separately from the scene, it is expected that there are advantages such as easy reuse of the object model and reconfiguration of the layout.
[0008]
Thus, even when reproducing a CG image on a hard copy, it is natural that a high sense of reality is required, and an image having a sense of reality equal to or higher than that of a hard copy created from a photograph is required. In order to obtain, various processes are performed.
However, at present, even if a hard copy is created from CG, an image with a high sense of reality cannot always be obtained like a hard copy created from a photograph.
[0009]
In CG, the luminance observed from the observer direction is calculated by ray tracing method or the like based on the surface shape data of an object mapped to three-dimensional coordinates, and is reproduced as it is on a display such as a CRT. . For example, the maximum luminance point calculated in the model is set to the maximum value of the display, and the point where the light does not reach is calculated as the luminance zero.
However, since there is a flare due to reflection of external light on the display (observation) surface, an offset due to dark current, etc., the minimum luminance of the display luminance range is not zero, and the luminance ratio is actually 1:10 to 1: The range is 100.
In such a state, for example, when an object having a glossy surface is set as a model object, ideal gradation reproduction can be obtained only in a very small part where the luminance is high due to regular reflection, etc. The tone is lost in most parts, and the result is an unnatural finish for a photographic image.
[0010]
In conventional photographic processing and scanner processing, optimization is performed with the exposure settings on the camera side, and photosensitive materials with characteristic curves empirically created so as not to lose gradation even in the highest luminance region are used. In addition, it is processed through a gradation conversion curve of a scanner that is empirically set so as to be optimally reproduced in a print. In addition, by controlling the degree of focus of the camera lens or changing the focal position, control is performed by distinguishing between details that should be emphasized and those that should be softly finished.
However, it is extremely difficult to perform such processing after it becomes a two-dimensional digital image because there is no information about the depth.
[0011]
In addition, as mentioned above, in photography and movie shooting, lighting etc. are adjusted in consideration of the observation environment of the finished image, and even if the same scene is shot, movie film and catalog The lighting used is quite different from the photos used for the above, so the finished image is also different.
On the other hand, CG currently being performed mainly performs ray tracing calculations for the purpose of displaying a display such as a CRT. Therefore, even if an image displayed on a display is reproduced as it is in a hard copy, a high sense of reality is obtained. In addition, the fact that the hard copy finish state cannot be predicted from the CG screen is considered to be one of the reasons why a high sense of reality cannot be obtained.
[0012]
[Problems to be solved by the invention]
An object of the present invention is to solve the above-mentioned problems of the prior art, and when reproducing a three-dimensional image created by computer graphics on a hard copy such as a printed matter, a photograph obtained by actually photographing an object is used. A computer graphics reproduction method that provides a hard copy in which an image with a realistic feeling equal to or better than the created hard copy is obtained, in other words, an object created by computer graphics is placed in the virtual space of computer graphics. It is another object of the present invention to provide a computer graphics reproduction method capable of reproducing an image giving an appearance very close to a state actually viewed by an observer on a hard copy.
[0013]
[Means for Solving the Problems]
  In order to achieve the above object, the present invention was created in a three-dimensional coordinate space by computer graphics.Virtual object3D imagesSeen from a virtual observer in the virtual spaceA computer graphics reproduction method for reproducing as a two-dimensional image,In the three-dimensional coordinate space, the virtual object, the virtual observer, and a virtual light source for irradiating the virtual object are arranged, and the virtual that is determined according to the virtual light source as information about the virtual observer Virtual observer information including at least one of the virtual adaptive white parameter of the observer and the virtual adaptive luminance parameter of the virtual observer determined according to the virtual light source is set, and the virtual observer information is set in the three-dimensional coordinate space.Virtual object information, virtual light source information, andSaidBased on virtual observer information,In the three-dimensional coordinate space2D image projected on any planeWhen the virtual observer observes, the virtual observer perceivesCalculates two-dimensional image data represented by appearance tristimulus valuesSteps to do,When the observer observes the reproduced image by the image reproducing means, the appearance tristimulus value perceived by the observer is the same as the appearance tristimulus value perceived by the virtual observer.Generate 2D image data for image reproductionSteps to do,HaveA computer graphics reproduction method is provided.
[0014]
The virtual observer information includes at least one of the virtual adaptation white parameter and the virtual adaptation luminance parameter, at least one of the visual information of the virtual observer and the three-dimensional position information of the virtual observer, In the step of calculating two-dimensional image data indicated by appearance tristimulus values, virtual object information, virtual light source information, visual information of the virtual observer, and three-dimensional position information of the virtual observer in the three-dimensional coordinate space 2D image data represented by tristimulus values of a two-dimensional image projected onto an arbitrary plane in the three-dimensional coordinate space is obtained, and two-dimensional image data represented by tristimulus values of the two-dimensional image is obtained. And at least one of the virtual adaptation white parameter and the virtual adaptation luminance parameter. It is preferable to calculate the two-dimensional image data indicated by the value.
Further, when the observer observes the reproduced image, at least one of the observer's adaptive white parameter and the observer's adaptive luminance parameter is set as observer information, and the image reproduction is performed. In the step of generating the two-dimensional image data for the image, the appearance tristimulus value perceived by the observer is the same as the appearance tristimulus value perceived by the virtual observer. It is preferable to generate two-dimensional image data for reproduction.
The image reproduction means is a printer that outputs a hard copy image according to a printer signal, and the correspondence relationship between the printer signal and the tristimulus values of the hard copy image output according to the printer signal is in advance. In the step of generating the known two-dimensional image data for image reproduction, the observation tristimulus value perceived by the observer is the same as the appearance tristimulus value perceived by the virtual observer. The tristimulus value of the two-dimensional image that the reproduced hard copy image should have is obtained based on the person information, and the hard copy two-dimensional image having the tristimulus value of the obtained two-dimensional image is obtained based on the correspondence relationship. A printer signal for output is preferably generated as the two-dimensional image data for image reproduction.
Further, the appearance tristimulus values perceived by the virtual observer are α, β, γ, and expressed in an XYZ color system, and the appearance tristimulus values perceived by the virtual observer are X, Y, Z, and an XYZ table. The virtual observer's virtual adaptation white parameter expressed in color system is represented by X w , Y w , Z w When the virtual adaptation brightness parameter of the virtual observer is P, the α, β, and γ are preferably represented by the following formula (1).
Figure 0003761263
However, l 0 , A 0 , B 0 Is a constant, and γ (p) is a function of the virtual observer's virtual adaptation luminance parameter P, and the virtual observer's virtual adaptation luminance parameter P has changed by four digits from 0.01 to 100 Γ (p) is a function that varies linearly between 0.3 and 0.5.
  Also, the aboveVirtualObject information is at leastVirtual3D position information indicating the shape of the object;Virtual1-dimensional to multi-dimensional surface color information indicating the surface state of the object,VirtualThe light source information is at leastVirtualThree-dimensional position information of the light source;VirtualInformation indicating the size of the light source and spectral luminance factor distribution information,VirtualObserver information is at leastVirtualIt is preferable to have the observer's three-dimensional position information and visual information.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a computer graphics reproduction method according to the present invention will be described in detail with reference to the preferred embodiments shown in the accompanying drawings.
[0016]
FIG. 1 conceptually shows the computer graphics reproduction method of the present invention.
The computer graphics (hereinafter referred to as CG) reproduction method according to the present invention reproduces a CG image created in a virtual space (simulation space) of a CG into a hard copy when the three-dimensional coordinates (x, y, z) of the CG space are reproduced. 3) Appearance tristimulus values, that is, appearance signals indicating a two-dimensional image projected on the plane 16 arbitrarily created in the CG virtual space from the information on the object 10, the information on the light source 12, and the information on the observer 14) Obtain a α, β, γ, and from the appearance signals α, β, γ, create a printer signal that produces an image with the same appearance as the appearance tristimulus values, create a hard copy, and from CG, This makes it possible to create a hard copy with a higher sense of reality than or equivalent to a hard copy made from a manuscript.
[0017]
FIG. 4 conceptually shows a conventional method for reproducing a CG image on a hard copy.
In the conventional reproduction method, basically, an observer 56 views an image of an object 52 created in a virtual space of a CG having a point light source 50 (a space indicated by a dotted line in FIG. 4) on a display 54 such as a CRT. The CG image is reproduced as a hard copy by reproducing the image as an image and converting the image data of the image reproduced on the display 54 into image data corresponding to the image output by the printer P.
However, with this method, a highly realistic image cannot be reproduced on a hard copy due to differences in observation environments and conditions in the virtual space, the display 54, and the hard copy.
[0018]
On the other hand, in the CG reproduction method of the present invention, the object information, the light source information, and the observer information described above are used to irradiate the virtual light source 12 having a size in the virtual three-dimensional space of the CG. The reflected light of the object 10 (the object created by the CG in the three-dimensional space) is projected onto the arbitrarily determined two-dimensional plane 16 to form a two-dimensional image, and this two-dimensional image is converted into the same three-dimensional space. The appearance signals α, β, and γ are image data when the virtual observer 14 is viewing, that is, image data reflecting the light source 12, the observer 14, and the observation conditions.
Next, for example, the appearance signals α, β, and γ of the CG are converted, and the appearance signal α of the print image, that is, the CG reproduction image is converted.h, Βh, ΓhFrom this, a printer signal (image data corresponding to the image output of the printer) is created, and a hard copy is created, so that a highly realistic image that absorbs differences in light sources, observation conditions, etc., that is, CG Images with the same appearance as the appearance can be reproduced in hard copy.
[0019]
The information of the light source 12 is information having a luminance dimension. Basically, the wavelength λ and the deflection angle θ of the light emitted from the light source 12, and the position x of the light source 12 in the three-dimensional space of CG.s, Ys, ZsIs represented by a function S.
S (λ, θ, xs, Ys, Zs)
As shown in FIG. 1, the light source 12 is not a point light source but a light source having a certain size.
[0020]
The information of the object 10 is information on the reflectance of light reflected in a certain direction at a certain point r of the object 10, and basically, the wavelength λ, the deflection angle θ, and the position x of r in the three-dimensional space.n, Yn, ZnFurthermore, the normal x of the surface of the object 10m, Ym, ZmIt is shown by the function R which uses as a parameter.
R (λ, θ, xn, Yn, Zn, Xm, Ym, Zm)
Note that the position x of the object in this three-dimensional spacen, Yn, ZnThere are no particular limitations on the capturing method, and various known methods used in CG such as a method of creating image data by a computer and a method of scanning two-dimensional information by a hologram can be used.
Further, if the spectral reflectance with respect to a certain angular direction of the object is obtained by a method such as declination spectrophotometry, the normal direction Xm, Ym, ZmIt is possible to calculate the spectral reflectance for.
[0021]
The information of the observer 14 is basically based on the position x of the observer 14 in the three-dimensional space.i, Yi, Zi, Visual information of the observer 14, for example, color matching functions x (λ), y (λ), z (λ) of the human eye, and the adapting white X of the observer 14W, YW, ZWFurther, it is indicated by the adaptation luminance P of the observer 14.
Adaptive white XW, YW, ZWIs a color that the observer 14 feels white in the space, and is indicated by, for example, tristimulus values or chromaticity values of the light source 12.
The adaptation luminance P is a luminance with which the observer 14 is familiar with the light source 12 in the space. For example, the brightness that the observer 14 is familiar with varies depending on whether the space (light source) is in the midsummer sun or indoors. And
[0022]
As described above, in the reproduction method of the present invention, the light emitted from the light source 12 and reflected by the object 10 is projected onto the plane 16 arbitrarily set in the three-dimensional space, thereby obtaining the three-dimensional CG. A two-dimensional image is obtained from the image.
The position of each point (pixel) of the image projected on the plane 16 is represented by the position x of the two-dimensional coordinate on the plane 16.p, YpIt shows with.
[0023]
In the CG reproduction method of the present invention, an appearance signal for reproducing an image created by CG into a two-dimensional image using these is calculated. In the example shown below, first, a function S, which is light source information, Function R which is object information, observer position xi, Yi, Zi, Color matching functions x (λ), y (λ), z (λ), and position x of two-dimensional coordinatesp, YpAre used to calculate the tristimulus values X, Y, and Z of the two-dimensional image projected onto the plane 16.
The tristimulus values X, Y, and Z may be calculated in accordance with the CIE (Commission Internationale I'Eclairage International Lighting Commission) tristimulus value calculation method. For example, as shown in the following equation, the function S And the color matching function (visual information of the observer 14) x (λ), y (λ), z (λ) can be calculated by integration. Thus, integrating the function S corresponds to the size of the light source 12.
X = ∬x (λ) S · Rf (xi, Yi, Zi, Xp, YpDsdλ
Y = ∬y (λ) S · Rf (xi, Yi, Zi, Xp, YpDsdλ
Z = ∬z (λ) S · Rf (xi, Yi, Zi, Xp, YpDsdλ
As shown in the above formula, X, Y, and Z are xp, YpThat is, X, Y, Z (appearance signals α, β, γ described later) are points (pixels) x of a two-dimensional image projected onto the plane 16.p, YpImage data.
[0024]
Next, the tristimulus values X, Y, Z and the adaptation white XW, YW, ZWAnd two-dimensional image data projected on the plane 16 and viewed by the observer 14, that is, appearance signals (appearance tristimulus values) α, β, γ using predetermined functions A, B, and C using the adaptation luminance P as a parameter. calculate.
α = A (X, Y, Z, XW, YW, ZW, P)
β = B (X, Y, Z, XW, YW, ZW, P)
γ = C (X, Y, Z, XW, YW, ZW, P)
[0025]
As the functions A, B, and C for calculating the appearance signals α, β, and γ, various types are conceivable. As an example, the CIE-compliant colorimetric value L*a*b*The following formula using the calculation method is exemplified.
[Expression 1]
Figure 0003761263
[0026]
In the above formula, l0, A0And b0In accordance with the CEI calculation method,0= 116, a0= 500, b0= 200.
Further, γ (P) is a function obtained by adapting the adaptation luminance P as a parameter. For example, as shown in FIG. 2, while the adaptation luminance P varies by four digits from 0.01 to 100, γ (P ) Is a function that varies linearly between about 0.3 and 0.5.
[0027]
Next, the appearance signals α, β, and γ of the two-dimensional image thus obtained are converted, and the appearance signal α of the print image (that is, a hard copy reproduction image of CG) is converted.h, Βh, ΓhThis appearance signal αh, Βh, ΓhTo obtain a printer signal.
[0028]
Print image appearance signal αh, Βh, ΓhCan be obtained basically in the same manner as the appearance signals α, β, γ of the CG two-dimensional image.
That is, first, a printer signal, eg, Ci(Cyan), Mi(Magenta), Yi(Yellow) three primary colors and KiThe tristimulus value X of the image by the printer is obtained from each image data of (black) (image density or image data obtained by digitizing it) by a known method.hi, Yhi, ZhiAsk for.
Xhi= Xh(Ci, Mi, Yi, Ki)
Yhi= Yh(Ci, Mi, Yi, Ki)
Zhi= Zh(Ci, Mi, Yi, Ki)
Next, as a parameter, this tristimulus value Xhi, Yhi, ZhiAnd adapting white X when the observer observes the printhW, YhW, ZhWAnd adaptation brightness PhThe functions A, B and C usingh, Βh, ΓhCan be calculated.
αh= A (Xhi, Yhi, Zhi, XhW, YhW, ZhW, Ph)
βh= B (Xhi, Yhi, Zhi, XhW, YhW, ZhW, Ph)
γh= C (Xhi, Yhi, Zhi, XhW, YhW, ZhW, Ph)
The functions A, B, and C are the same functions as the functions A, B, and C that calculate the appearance signals α, β, and γ of the object described above.
[0029]
Accordingly, the appearance signals α, β, and γ are converted to the appearance signal α of the print image.h, Βh, ΓhAnd this appearance signal αh, Βh, ΓhThe printer signal (image data corresponding to the printer's image output) is calculated and the hard copy is created using this printer signal to absorb differences in the light source and viewing conditions. An image can be obtained.
[0030]
From the appearance signals α, β, γ of the two-dimensional image of CG, the appearance signal α of the print imageh, Βh, ΓhConversion to α = αh, Β = βh, Γ = γhTherefore, it is basic to convert both at 1: 1. For example, α and α as shown by a (dashed line) in FIG.hA conversion table is created in which the relationship is a straight line with an inclination of 1, and conversion is performed using this.
However, there are many cases where the appearance reproduction area (color reproduction area) of CG does not match the appearance reproduction area of hard copy.ShownIn general, CG has a wider appearance reproduction range than hard copy.
Therefore, for example, as shown by b (two-dot chain line) in FIG. 3, the appearance is compressed in accordance with the appearance reproduction area of the hard copy, such as adjustment of inclination, and the conversion is performed in accordance with the appearance reproduction area of the hard copy. A table is created and the appearance signal α of the printer is determined from the appearance signals α, β, γ.h, Βh, ΓhConversion to is preferable.
[0031]
Here, when the object is glossy, depending on the viewing direction, a pixel having the highest brightness close to or directly reflected may be observed. In such a case, if an attempt is made to faithfully reproduce the tone from this highest luminance region, it is difficult to reproduce a good image due to restrictions on the reproduction range of the print or display.
In this case, it is assumed that a perfect diffuse reflector placed at an appropriate angle with respect to the observation direction in the masquerade space, and the X, Y, and Z3 stimulus values are adapted to the adaptive white XW, YW, ZWBy doing so, the range of the appearance signal can be set appropriately. In this case, the highest luminance point is higher in luminance than the adaptive white color. However, in this area, a range that can be optimally reproduced can be assigned to an important subject by particularly strengthening the appearance compression.
This adaptive white XW, YW, ZWIs set as follows, an even more optimal appearance signal can be obtained. First, the average value Y of the Y values of the observed two-dimensional imageavg4 to 6 times the value of YWValue. The X, Y, Z values of the light source areWAnd ZWSet the value. By doing so, it is possible to set a range of good appearance tristimulus values for an average scene.
[0032]
Further, preferably, in the CG three-dimensional coordinate space, an important object (so-called important subject) can be set, and a conversion table is created in which appearance is compressed in accordance with the setting. Appearance signals α, β, and γ are printed image appearance signals αh, Βh, ΓhConvert to
In order to reproduce high quality images, the difference in the appearance of important subjects is important. Therefore, the appearance signal αh, Βh, ΓhEven after the conversion to, it is preferable to ensure the difference in the appearance of this important subject.
Therefore, for example, when the important subject is an image of the area c of the appearance reproduction area of the CG, as shown by c (solid line) in FIG. It is preferable to perform compression in the area and create a conversion table that matches the appearance reproduction area of the hard copy.
[0033]
Further, such compression may be performed not only by the conversion table, but also by changing the light source information by adjusting the size, light quantity, number, etc. of the virtual light source 12 in the CG three-dimensional coordinate space. Alternatively, both the compression of the conversion table and the adjustment of the light source 12 may be performed in combination.
For example, by performing operations such as increasing the light quantity and size of the light source 12 and increasing the number thereof, the contrast of the CG image can be weakened as in the case of adding a reflex plate or an auxiliary light in actual photography, that is, As a result, the appearance reproduction range of the CG can be compressed.
As an example, create a good screen by creating a histogram of appearance signals and automatically changing lighting conditions such as the size of the light source, diffusivity, number of light sources, and angle so that the distribution is averaged. It becomes possible. In addition, with respect to the initial state of a certain illumination, the part where the shape has changed but the change as the appearance signal is small is obtained by calculation, and the light source position is shaded so that the part is shaded.ReIt is also possible to arrange.
[0034]
In the CG reproduction method of the present invention, the obtained appearance signal (α, β, γ or αh, Βh, Γh), The printer signal may be calculated, or converted into a display signal for a display such as a CRT, and an image reproduced in a hard copy may be displayed on the display.
As a result, it is possible to perform various image information processing with reference to the display image, and to adjust the image reproduced on the hard copy on the display, so that the CG with higher image quality can be stably displayed. Can be reproduced in hard copy.
[0035]
In addition, by storing the two-dimensional image data created by the method of the present invention, it becomes easy to reuse the object model, reconfigure the layout, and the like, and obtain favorable results. In this case, storing and transmitting in the following format is most preferable in terms of both workability and efficiency.
1) Object shape data described by three-dimensional position coordinates and surface material index
2) Surface material index file described by declination spectral reflectance information
3) Light source data described by three-dimensional position coordinates and spectral luminance in each direction
4) Adaptive white and adaptive luminance data
5) Conversion functions and parameters to appearance signals
6) Correspondence table between print signals and tristimulus values
7) Adaptation white and adaptation brightness data
8) Conversion functions and parameters for print appearance signals
Of these, 1) to 5) have sufficient information as the original of a two-dimensional image, and are optimal for various print media by using 6) to 8) according to the desired print media. Image reproduction can be obtained.
Furthermore, by having data in such a configuration, editing and processing at the three-dimensional object level can be easily performed. For example, when an object a included in the A image is arranged in the B image, the information 1) and 2) of a is edited in addition to the B image, so that the user feels uncomfortable in the shooting conditions of the B image. No image composition is possible. Further, by using the data 3) to 5) of the B image for the A image, processing such as adjusting the finish of the A image and the B image becomes possible.
[0036]
The computer graphics (CG) reproduction method of the present invention has been described in detail above. However, the present invention is not limited to the above-described example, and various modifications and improvements are made without departing from the gist of the present invention. Of course it is also good.
[0037]
【The invention's effect】
As described above in detail, according to the present invention, it has a sense of reality equivalent to or higher than a hard copy created using a photograph of an actual object taken from a three-dimensional image created by computer graphics. It is possible to create a hard copy that reproduces as a hard copy, in other words, gives an appearance that is very close to a state in which an object created by computer graphics is actually viewed in the virtual space of computer graphics.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram for explaining a computer graphics (CG) reproduction method of the present invention.
FIG. 2 is a graph for explaining an example of an expression for calculating an appearance signal in the computer graphics reproduction method of the present invention.
FIG. 3 is an example of an appearance signal conversion table in the computer graphics reproduction method of the present invention;
FIG. 4 is a conceptual diagram illustrating a conventional computer graphics reproduction method.
[Explanation of symbols]
10,52 objects
12, 50 light source
14,56 observer
16 plane
54 display

Claims (6)

コンピュータグラフィックスによって、3次元座標空間内に作成した仮想物体の3次元画像を、前記仮想空間内の仮想観察者から見た2次元画像として再現するコンピュータグラフィックス再現方法であって、
前記3次元座標空間内には、前記仮想物体、前記仮想観察者、および前記仮想物体を照射するための仮想光源が配置され、
前記仮想観察者に関する情報として、前記仮想光源に応じて定まる前記仮想観察者の仮想順応白色パラメータおよび前記仮想光源に応じて定まる前記仮想観察者の仮想順応輝度パラメータの少なくともいずれか一方を含む仮想観察者情報が設定されており、
前記3次元座標空間内における仮想物体情報、仮想光源情報、および前記仮想観察者情報に基づき、前記3次元座標空間内の任意の平面に射影された2次元画像を仮想観察者が観察した際に、前記仮想観察者が知覚するアピアランス3刺激値で示される2次元画像データを算出するステップと
画像再現手段による再現画像を観察者が観察した際に、前記観察者が知覚するアピアランス3刺激値が、前記仮想観察者が知覚するアピアランス3刺激値と同じとなるよう、画像再現用の2次元画像データを生成するステップと
を有することを特徴とするコンピュータグラフィックス再現方法。
A computer graphics reproduction method for reproducing a three-dimensional image of a virtual object created in a three-dimensional coordinate space by computer graphics as a two-dimensional image viewed from a virtual observer in the virtual space ,
In the three-dimensional coordinate space, a virtual light source for irradiating the virtual object, the virtual observer, and the virtual object is disposed,
Virtual observation including at least one of the virtual observer's virtual adaptation white parameter determined according to the virtual light source and the virtual observer's virtual adaptation luminance parameter determined according to the virtual light source as information regarding the virtual observer Person information is set,
Virtual object information in the three-dimensional coordinate space, the virtual light source information, and based on said virtual observer information, the two-dimensional image projected on any plane of the three-dimensional coordinate space in the virtual observer observed the steps of the virtual observer calculates the two-dimensional image data represented by the appearance tristimulus values perceived,
When an observer observes a reproduced image by the image reproducing means, the appearance tristimulus value perceived by the observer becomes the same as the appearance tristimulus value perceived by the virtual observer. and generating image data,
Computer graphics reproduction method characterized by having a.
前記仮想観察者情報は、前記仮想順応白色パラメータおよび前記仮想順応輝度パラメータの少なくともいずれか一方に加え、前記仮想観察者の視覚情報および前記仮想観察者の3次元位置情報を少なくとも含み、  The virtual observer information includes at least one of the virtual adaptation white parameter and the virtual adaptation luminance parameter, and at least includes visual information of the virtual observer and three-dimensional position information of the virtual observer,
前記アピアランス3刺激値で示される2次元画像データを算出するステップでは、  In the step of calculating the two-dimensional image data indicated by the appearance tristimulus value,
前記3次元座標空間内における仮想物体情報、仮想光源情報、前記仮想観察者の視覚情報、および前記仮想観察者の3次元位置情報に基づき、前記3次元座標空間内の任意の平面に射影された2次元画像の3刺激値で示される2次元画像データを得て、  Based on the virtual object information, the virtual light source information, the visual information of the virtual observer, and the three-dimensional position information of the virtual observer in the three-dimensional coordinate space, projected onto an arbitrary plane in the three-dimensional coordinate space Obtain 2D image data indicated by 3 stimulus values of 2D image,
前記2次元画像の3刺激値で示される2次元画像データと、前記仮想順応白色パラメータおよび前記仮想順応輝度パラメータの少なくともいずれか一方と、に基づき、前記アピアランス3刺激値で示される2次元画像データを算出することを特徴とする請求項1記載のコンピュータグラフィックス再現方法。  Two-dimensional image data indicated by the appearance tristimulus value based on two-dimensional image data indicated by the tristimulus value of the two-dimensional image and at least one of the virtual adaptation white parameter and the virtual adaptation luminance parameter. The computer graphics reproduction method according to claim 1, wherein:
前記観察者が前記再現画像を観察する際の、前記観察者の順応白色パラメータ、および前記観察者の順応輝度パラメータの少なくともいずれか一方が、観察者情報として設定されており、  When the observer observes the reproduced image, at least one of the observer's adaptation white parameter and the observer's adaptation brightness parameter is set as observer information,
前記画像再現用の2次元画像データを生成するステップでは、前記観察者が知覚するアピアランス3刺激値が、前記仮想観察者が知覚するアピアランス3刺激値と同じとなるよう、前記観察者情報を用いて、画像再現用の2次元画像データを生成することを特徴とする請求項1または2記載のコンピュータグラフィックス再現方法。  In the step of generating the two-dimensional image data for image reproduction, the observer information is used so that the appearance tristimulus value perceived by the observer is the same as the appearance tristimulus value perceived by the virtual observer. 3. A computer graphics reproduction method according to claim 1, wherein two-dimensional image data for image reproduction is generated.
前記画像再現手段は、プリンタ信号に応じたハードコピー画像を出力するプリンタであって、  The image reproduction means is a printer that outputs a hard copy image according to a printer signal,
プリンタ信号と、プリンタ信号に応じて出力されるハードコピー画像の3刺激値と、の対応関係が予め既知であり、  The correspondence relationship between the printer signal and the tristimulus values of the hard copy image output according to the printer signal is known in advance,
前記画像再現用の2次元画像データを生成するステップでは、  In the step of generating the two-dimensional image data for image reproduction,
前記観察者が知覚するアピアランス3刺激値が、前記仮想観察者が知覚するアピアランス3刺激値と同じとなるよう、前記観察者情報に基づき、再現されたハードコピー画像が有すべき2次元画像の3刺激値を求め、  The two-dimensional image that the reproduced hard copy image should have based on the observer information so that the appearance tristimulus value perceived by the observer is the same as the appearance tristimulus value perceived by the virtual observer. Find tristimulus values,
前記対応関係に基づいて、求めた前記2次元画像の3刺激値を有するハードコピー2次元画像を出力するためのプリンタ信号を、前記画像再現用の2次元画像データとして生成することを特徴とする請求項3記載のコンピュータグラフィックス再現方法。  A printer signal for outputting a hard copy two-dimensional image having the tristimulus values of the obtained two-dimensional image based on the correspondence relationship is generated as two-dimensional image data for image reproduction. The computer graphics reproduction method according to claim 3.
前記仮想観察者が知覚するアピアランス3刺激値をα、β、γとし、
XYZ表色系で表した、前記仮想観察者が知覚するアピアランス3刺激値をX、Y、Zとし、
XYZ表色系で表した、前記仮想観察者の仮想順応白色パラメータをX 、Y 、Z とし、
前記仮想観察者の仮想順応輝度パラメータをPとしたとき、
前記α、β、γは、下記式(1)で表されることを特徴とする請求項1〜4のいずれか1項に記載のコンピュータグラフィックスの再現方法。
Figure 0003761263
ただし、l 、a 、b は定数であり、
かつ、γ(p)は、前記仮想観察者の仮想順応輝度パラメータPの関数であって、前記仮想観察者の仮想順応輝度パラメータPが0.01〜100まで4桁変化したとき、γ(p)は0.3〜0.5の間で直線的に変化する関数である。
The appearance tristimulus values perceived by the virtual observer are α, β, γ,
Appearance tristimulus values perceived by the virtual observer expressed in the XYZ color system are X, Y, and Z,
X w , Y w , Z w are virtual adaptation white parameters of the virtual observer expressed in the XYZ color system ,
When the virtual observer brightness adaptation parameter is P,
The computer graphics reproduction method according to claim 1, wherein the α, β, and γ are represented by the following formula (1).
Figure 0003761263
However, l 0 , a 0 , b 0 are constants,
Γ (p) is a function of the virtual observer's virtual adaptation luminance parameter P, and when the virtual observer's virtual adaptation luminance parameter P changes by four digits from 0.01 to 100, γ (p ) Is a function that varies linearly between 0.3 and 0.5.
前記仮想物体情報が、少なくとも、前記仮想物体の形状を示す3次元位置情報と、前記仮想物体の表面状態を示す1次元〜多次元の表面色情報とを有し、
前記仮想光源情報が、少なくとも、前記仮想光源の3次元位置情報と、前記仮想光源の大きさを示す情報と、分光輝度率分布情報とを有し、
前記仮想観察者情報が、少なくとも、前記仮想観察者の3次元位置情報と、視覚情報とを有することを特徴とする請求項1〜5のいずれかに記載のコンピュータグラフィックス再現方法。
The virtual object information, at least, has said virtual object three-dimensional position information indicating the shape of a one-dimensional-surface color information of the multi-dimensional showing the surface state of the virtual object,
The virtual light source information, at least, has a three-dimensional position information of the virtual source, and information indicating the size of the virtual light source, a spectral intensity ratio distribution information,
The virtual observer information, at least, the a 3-dimensional position information of the virtual observer, the computer graphics reproducing method according to claim 1, characterized in that it comprises a visual information.
JP30444396A 1996-11-15 1996-11-15 Computer graphics reproduction method Expired - Lifetime JP3761263B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30444396A JP3761263B2 (en) 1996-11-15 1996-11-15 Computer graphics reproduction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30444396A JP3761263B2 (en) 1996-11-15 1996-11-15 Computer graphics reproduction method

Publications (2)

Publication Number Publication Date
JPH10143675A JPH10143675A (en) 1998-05-29
JP3761263B2 true JP3761263B2 (en) 2006-03-29

Family

ID=17933078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30444396A Expired - Lifetime JP3761263B2 (en) 1996-11-15 1996-11-15 Computer graphics reproduction method

Country Status (1)

Country Link
JP (1) JP3761263B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4850676B2 (en) * 2006-12-07 2012-01-11 キヤノン株式会社 Image generating apparatus and image generating method
JP5615041B2 (en) * 2010-05-24 2014-10-29 キヤノン株式会社 Image processing apparatus and image processing method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4500919A (en) * 1982-05-04 1985-02-19 Massachusetts Institute Of Technology Color reproduction system
JPH0786814B2 (en) * 1988-05-09 1995-09-20 富士写真フイルム株式会社 Color hard copy forming method
JP3504975B2 (en) * 1993-10-06 2004-03-08 富士写真フイルム株式会社 Color reproduction system
JP3183769B2 (en) * 1994-02-23 2001-07-09 大日本スクリーン製造株式会社 How to reproduce color prints
JPH08123978A (en) * 1994-10-25 1996-05-17 Toppan Printing Co Ltd Three-dimensional image processing system

Also Published As

Publication number Publication date
JPH10143675A (en) 1998-05-29

Similar Documents

Publication Publication Date Title
US5786823A (en) Method and apparatus employing composite transforms of intermediary image data metrics for achieving imaging device/media compatibility and color appearance matching
EP1139653B1 (en) Color image reproduction of scenes with preferential color mapping
US6987586B2 (en) Method of digital processing for digital cinema projection of tone scale and color
US20070133017A1 (en) Image processing apparatus, photographing apparatus, image processing system, image processing method and program
JP3584389B2 (en) Image processing method and image processing apparatus
JP2002150315A (en) Image processing device and recording medium
JP2002051231A (en) Method for reproducing color image of scene by using preferential color mapping and scene-dependent tone scale constitution
KR20040044187A (en) Method and system for providing formatted data to image processing means in accordance with a standard format
JP2007537620A (en) Color management system and method
JPH10229502A (en) Color conversion method
US7274428B2 (en) System and method for processing images to emulate film tonescale and color
JP6771977B2 (en) Image processing equipment and image processing methods, programs
JP2008507864A (en) Wide gamut system for video
JP2001111858A (en) Color correction definition preparing method, color correction definition generator, and storage medium for color correction definition generation program
JP2009520395A (en) Method, apparatus and system for providing reproducible digital video products from digitally captured images
JP2004088345A (en) Image forming method, image processor, print preparation device, and storage medium
JP3952113B2 (en) Imaging apparatus and white balance adjustment method and apparatus
JP3761263B2 (en) Computer graphics reproduction method
JP2004078697A (en) Method for processing image, method for forming image, image processor, and image forming device
JP2001045317A (en) Color correction relation extracting method and color correcting method
US6985253B2 (en) Processing film images for digital cinema
WO2001078368A2 (en) Film and video bi-directional color matching system and method
Postma et al. Color grading with color management
JP2006078794A (en) Image processing method and device
JPH11346303A (en) Image processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060110

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090120

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090120

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090120

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100120

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110120

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110120

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120120

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120120

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130120

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130120

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140120

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term