JP6100086B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP6100086B2
JP6100086B2 JP2013103330A JP2013103330A JP6100086B2 JP 6100086 B2 JP6100086 B2 JP 6100086B2 JP 2013103330 A JP2013103330 A JP 2013103330A JP 2013103330 A JP2013103330 A JP 2013103330A JP 6100086 B2 JP6100086 B2 JP 6100086B2
Authority
JP
Japan
Prior art keywords
image processing
gloss
processing apparatus
characteristic data
focus position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013103330A
Other languages
English (en)
Other versions
JP2014224718A (ja
Inventor
佐野 利行
利行 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013103330A priority Critical patent/JP6100086B2/ja
Publication of JP2014224718A publication Critical patent/JP2014224718A/ja
Application granted granted Critical
Publication of JP6100086B2 publication Critical patent/JP6100086B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Generation (AREA)

Description

本発明は、物体の質感再現技術に関する。
近年、カメラなどの製品のデザイン段階において、モックアップを作成する代わりに、モニタ上でデザインを確認する際にコンピュータグラフィックス(以下、CG)が利用されている。そして、製品の仕上がりを確認するために、光沢感などの質感をCGにおいて実物に忠実に再現することが求められている。
実物の質感に忠実な再現方法として、入射光/出射光の角度変化に伴う物体の変角特性を表すBRDFや、物体の位置ごとのBRDFの分布であるBTFを実際に測定し、測定値を用いて物体の質感を再現する手法がある。なお、BRDFは、Bidirectional Reflectance Distribution Function、BTFは、Bidirectional Texture Functionの略語である。
物体の光沢特性によって、物体に周囲が写り込んだ像の鮮鋭性が変化する。また、写り込みの鮮鋭性が高い場合、人間は写り込む像を観察するのに対し、写り込みの鮮鋭性が低い場合、物体表面を観察する傾向がある。
一方、物体の変角特性は測定器からピント面までの距離であるフォーカス位置により特性が異なる。このため、物体の変角特性の測定値を単純にCGに利用しても、人間が感じる質感と一致しない場合がある。そこで、特許文献1では、誇張パラメータを設定し、設定した誇張パラメータを変角特性の測定値に乗じることにより、人間が物体を観察した場合の質感を再現している。
特開2008−243046号公報
しかしながら、特許文献1の手法は、人間の観察時の特性が測定に関連付けられていないため、事前に誇張パラメータを設定する必要がある。また、単純な乗算により変角特性データを生成しているため、生成される変角特性データは必ずしも実際の特性を反映しているとは限らず、質感を忠実に再現できない場合がある。
そこで、本発明は、物体の質感を忠実に再現することを目的とする。
本発明に係る画像処理装置は、物体の光沢特性を示す光沢特性データを入力する入力部と、前記入力部で入力された光沢特性データと基準光沢値とに基づき、フォーカス位置を設定する設定部と、前記フォーカス位置に基づき、複数の角度および複数のフォーカス位置により測定された物体の変角特性データを取得する取得部とを有する。
本発明は、物体の質感を忠実に再現することができる。
実施例1の画像処理装置の構成を示すブロック図。 実施例1の画像処理装置の画像処理装置が行う処理の原理を示す図。 実施例1の画像処理装置における処理を示すフローチャート。 変角特性の取得方法を示す概念図。 変角特性データの一例を示す図。 実施例1におけるフォーカス位置設定処理のフローチャート。 光沢特性の高い物体、光沢特性の低い物体の変角特性の相違を示す図。 実施例2における画像処理装置の構成を示すブロック図。 実施例2における画像処理装置の処理を示すフローチャート。 実施例2における変角特性取得処理のフローチャート。 実施例2における光量算出処理のフローチャート。 レンダリングを実施するための幾何条件の一例を示した図。 実施例3における変角特性取得処理のフローチャート。
以下、本発明の実施例に係る画像処理を図面を参照して詳細に説明する。なお、同一の構成については、同じ符号を付して説明する。
本実施例に係る画像処理装置の構成について、図1のブロック図を参照して説明する。素材特性入力部11は、質感を再現する対象物体(以降、物体とも呼ぶ)の光沢特性データを入力する。フォーカス位置設定部12は、素材特性入力部11で入力された光沢特性データに基づき、物体の変角特性測定時の測定器からピント面までの距離であるフォーカス位置を設定する。変角特性測定部13は、フォーカス位置設定部12で設定されたフォーカス位置に基づき、物体の変角特性を測定する。変角特性出力部14は、変角特性測定部13で測定された測定データを変角特性保持部15へ出力する。変角特性保持部15は、変角特性出力部14から出力された測定データを保持する。画像処理装置は、図示しない中央処理装置(CPU)が装置全体の制御を行い、読み出し専用記憶装置(ROM)や、計算処理時にCPUが一時的な読み書きを行う記憶装置(RAM)などを含む。
<実施例1における情報処理装置が実行する処理>
本実施例における画像処理装置が実行する処理の原理について説明する。人間は光沢特性の高い物体(例えば、鏡)を観察する場合、物体に写り込む像に注目する。従って、例えば屋内で物体を観察した場合、物体に写り込む照明が観察される。一方、光沢特性の低い物体(例えば、表面の艶消し加工を施したソリッド塗板)を観察する場合、物体表面のテクスチャに注目する。従って、例えば屋内で物体を観察した場合、物体の表面の細かいテクスチャやキズが観察される。
図2は、同一の物体に対し、仰角45度の方向から平行光を照射した際の、試料面にフォーカス位置を設定した場合と写り込む照明像にフォーカス位置を設定した場合とにおける変角特性の測定データを示している。
図2(a)は2つの変角特性の反射強度の相対的な関係を示した図である。図2(a)において、実線201は試料面にフォーカス位置を設定した(以降、試料面フォーカスとも呼ぶ)変角特性の測定値であり、波線202は照明像にフォーカス位置を設定した(以降、照明像フォーカスとも呼ぶ)変角特性の測定値である。なお、実線201及び波線202は、波線202の反射強度の最大値が1になるように正規化している。図2(a)が示すように、試料面フォーカスの測定データは、反射強度のレンジが100:1であるのに対し、照明像フォーカスの反射強度はレンジが300:1であり2つの測定データのレンジは大きく異なる。
図2(b)は2つの変角特性の形状の相対的な関係を比較した図である。実線203は、試料面にフォーカス位置を設定した設定した変角特性データ、波線204は、照明像にフォーカス位置を設定した変角特性データであり、それぞれの反射強度が1になるように正規化した図である。図2(b)が示すように、両データの半値幅(正反射から反射強度が半分になったときの角度)の差は約0.3度と異なることがわかる。
従って、物体の質感を忠実に再現するためには、物体の光沢特性に応じて、適切なフォーカス位置で測定した変角特性を用いることが重要である。本実施例における画像処理装置は、物体の光沢特性に応じて観察時のフォーカス位置が適切な変角特性を用いる。
以下、実施例1における画像処理装置が実行する処理について、図3のフローチャートを用いて説明する。
ステップS301では、素材特性入力部11からユーザにより再現したいと指示された対象物体の光沢特性データを入力する。なお、本実施例では対象の物体の光沢特性データとして、物体について事前に所定の複数角度、フォーカス位置で測定し、図示しないメモリに保持された複数の変角特性データの中からユーザ指示により選択されたものを入力するものとして説明する。
ステップS302では、フォーカス位置設定部12は、素材特性入力部11で入力された光沢特性データに基づいてフォーカス位置Dを設定する。ステップS302の処理の詳細については後述する。
ステップS303では、変角特性測定部13は、フォーカス位置設定部12で設定されたフォーカス位置Dに基づいて物体の変角特性を測定する。図4は変角特性測定部13が実行する変角特性測定方法の概念を示した図である。図4において、光源401は、対象物体403に照射するための平行光源である。例えば、白色ハロゲンランプのほかレーザ光などを用いることができる。受光器402は、対象物体403の中心位置を中心に角度を変化させることが可能である。受光器402は光源401から照射され、対象物体403に反射された反射光量を取得する。ここでは、受光器402を撮像装置として説明するが、必ずしも撮像装置である必要はなく、受光素子を平面上に有するものであればよい。像404は試料に写り込む照明像である。
像404が示すように、対象物体403に写り込む照明像は、対象物体面に対して対称な位置にあると見なすことができる。従って、光源401に対して受光器402が、例えば正反射方向に設置されている場合、像404は受光器402と正対させたときの距離D離れた位置にあると見なすことができる。
また、位置405はフォーカス位置設定部12が設定した位置である。すなわち図4が示すように、受光器402は、受光器から試料面の方向にDだけ離れた位置405にピントが合うように撮影を行う。
上記のような構成において、変角特性測定部13は、物体に対して入射角(θin, φin)、と、受光角(θout, φout)を変化させながら撮影を行う。なお、上記では撮影を行うことで物体の変角特性を取得した。一方、予め複数の角度および複数のフォーカス位置により測定された物体の変角特性を示す複数の変角特性データを図示しないメモリに保持しておき、その中からステップS302で設定されたフォーカス位置Dに対応する変角特性データを取得してもよい。
ステップS304では、変角特性出力部14は、ステップS303で変角特性測定部13が撮影した撮影データの各画像に対して、共通する画素位置の画素値を、撮影画像ごとにまとめることで、変角特性データへ変換し、変角特性保持部15へ出力する。図5は変角特性保持部15が保持する変角特性データの一例を示す図である。図5が示すように、測定時のフォーカス位置の情報に加えて、位置(x, y)ごとに入射角(θin, φin)、受光角(θout, φout)毎の反射率データが格納される。
<ステップS302の処理の詳細>
以下では、ステップS302のフォーカス位置設定方法について、図6のフローチャートを用いて説明する。
ステップS601では、ステップS301で入力された光沢特性データから、式1を満たす角度θを算出する。
Figure 0006100086
なお、式(1)においてImaxは反射強度の最大値であり、θは反射強度が半値となる角度である半値幅に相当する。
図7は光沢特性の異なる2つの素材の変角特性を表した図である。実線701は光沢特性の高い物体の変角特性を、波線702は光沢特性の低い物体の変角特性を表している。図7が示すように光沢特性の高い物体の半値幅は約0.5度と低い値を示すが、光沢特性の低い物体の半値幅は約5.0度と高い値を示す。従って、本ステップでは、物体の光沢特性を示す光沢値として変角特性の半値幅θを用いる。
ステップS602では、ステップS601で算出した半値幅θと、基準となる高光沢な試料、及び低光沢な試料の光沢値(基準光沢値)との比率を用いて、以下の式(2)によりフォーカス位置Dを算出する。なお、式(2)において、θは基準となる高光沢な試料の変角特性の半値幅であり、例えば、黒色研磨ガラス(BK7)の半値幅である。θは基準となる低光沢な試料の変角特性の半値幅であり、例えば、エナメル(バインダ)に顔料粒子(金属酸化物など)を分散させたソリッド塗板などの半値幅である。θ、θは、図示しないメモリに予め保持する。また、図4に記載のように、Dは受光器402から対象物体403までの距離であり、Dは受光器と正対した場合の受光器から光源までの距離(すなわち、受光器402と照明像404の距離)である。
Figure 0006100086
本実施例によれば、物体観察時の人間の特性を考慮し、物体の光沢特性に適切な変角特性データを取得することが可能になる。
実施例1では、物体の光沢特性に応じた変角特性の測定方法について説明した。本実施例では、測定した変角特性データを用いて物体の質感を再現する方法について実施例1と異なる点を中心に簡潔に説明する。
実施例2における画像処理装置の構成について図8のブロック図を参照して説明する。図8において、変角特性保持部81は、物体の変角特性を複数のフォーカス位置で測定した変角特性データを保持する。素材特性入力部82は、質感を再現する対象である物体の光沢特性データを入力する。変角特性取得部83は、素材特性入力部82で入力された素材特性データに基づいて、変角特性保持部81の変角特性データから、再現する物体の変角特性データを取得する。レンダリング部86は、変角特性取得部83で取得された変角特性データ、及び、環境情報保持部84に保持されている環境光情報と、3D形状保持部85に保持されている物体の三次元形状データを用いて、CG画像を生成する。画像出力部87は、レンダリング部86で算出されたCG画像をディスプレイなどの外部出力機器へ出力する。
以下、実施例2における画像処理装置が実行する処理について、図9のフローチャートを用いて説明する。
ステップS901は実施例1におけるステップS301と同様であるため、説明を省略する。
ステップS902では、変角特性取得部83は、ステップS901で入力された光沢特性データに基づいて、物体の変角特性データを取得する。なお、ステップS902の詳細は後述する。
ステップS903では、ステップS902で取得された物体の変角特性データ及び、環境情報保持部84に保持されている環境光情報、3D形状保持部85に保持されている再現物体の三次元形状データを基に、物体に反射する光量を算出しCG画像を生成する。なお、ステップS903の詳細は後述する。
ステップS904では、画像出力部87は、ステップS902で算出されたCG画像をディスプレイなどの外部出力機器へ出力する。
<ステップS902の詳細>
以下では、実施例2における変角特性取得方法について、図10のフローチャートを用いて説明する。
ステップS1001、ステップS1002は、実施例1におけるステップS601、S602と同様である。
ステップS1003では、ステップS1002で算出したフォーカス位置Dで測定した物体の変角特性データを変角特性保持部81から取得する。
<ステップS903の詳細>
以下では、実施例2におけるステップS903の光量算出処理について、図11のフローチャートを用いて説明する。
S1101では、環境情報保持部84に記憶されている照明データを読み込む。
S1102では、3D形状保持部85に記憶されている物体の3D形状データを読み込む。
S1103では、レンダリングを実施するための仮想カメラ、仮想スクリーン、物体位置、および照明位置の幾何条件を設定する。図12(a)はレンダリングを実施するための幾何条件の一例を示した図である。
S1104では、仮想スクリーン上における注目画素を初期値(例えば、X=0,Y=0の画素)に設定する。
S1105では、仮想カメラと、仮想スクリーン上の注目画素とを結ぶ直線を、視線ベクトルとして設定し、視線ベクトルと対象物体との交点(xc、yc、zc)を算出する。
S1106では、S1105にて算出した交点における、対象物体の法線ベクトルNを算出する。
S1107では、S1105にて算出した交点と、照明とを結ぶ照明ベクトルNを算出する。
S1108では、S1105にて算出した交点における、対象物体の変角特性データを設定する。具体的にはステップS1105で算出した交点に対応した位置(x、y)の変角特性であるBTF(x、y、φ)を設定する。
S1109では、S1108にて算出した変角特性データ、および、視線ベクトル、法線ベクトル、照明ベクトルを用い、注目画素の輝度値を算出する。
S1110では、仮想スクリーン上のすべての画素について、輝度算出処理を行ったか否かを判断し、終了していれば、S1112に進み、終了していなければ、S1111に進む。
S1111では、注目画素を、仮想スクリーン上の未処理画素に変更し、S1105に戻る。
S1112では、S1109にて算出した輝度データに基づきCG画像を描画する。
なお、図12(b)はステップS1105からステップS1108における視線ベクトル、法線ベクトル、照明ベクトルとの関係を表している。
本実施例によれば、物体の光沢特性に適した変角特性データを用いることにより、物体観察時の質感を忠実に再現することが可能となる。
実施例2では、変角特性取得部において、フォーカス位置の変角特性の測定値は予め測定されているものとして説明を行った。しかしながら、変角特性保持部には必ずしも所望のフォーカス位置で測定した測定データが保持されているとは限らない。そこで、本実施例では、変角特性取得部において、所望のフォーカス位置の測定値を保持しない場合であっても任意のフォーカス位置の変角特性を推定する。そして、推定した変角特性データを用いて忠実に質感を再現する場合について実施例1及び実施例2と異なる点を中心に簡潔に説明する。
<実施例3における変角特性取得方法に関する処理の詳細>
以下では、実施例3における変角特性取得処理について、図13のフローチャートを用いて説明する。
ステップS1301及びステップS1302は、ステップS1001及びステップS1002と同様である。
ステップS1303では、以下の式(3)を満たすフォーカス位置D及びDN+1を取得する。なお、式(3)において、DはDよりも小さい値でかつDに最も近いフォーカス位置であり、DN+1とは、Dよりも大きくかつDに最も近いフォーカス位置である。ただし、D及びDN+1は測定に用いたフォーカス位置である。
Figure 0006100086
ステップS1104では、ステップS1103で取得したD及びDN+1に対応する変角特性データを変角特性保持部から取得し、以下の式(4)により、フォーカス位置Dに対応した変角特性データを生成する。
Figure 0006100086
なお、式(4)において、BTF及びBTFN+1はそれぞれフォーカス位置Dの変角特性データ、フォーカス位置DN+1の変角特性データである。
本実施例によれば、事前に所望のフォーカス位置による変角特性を測定しない場合であっても、任意のフォーカス位置の変角特性データを推定することにより、物体の質感を再現することが可能となる。
〔他の実施例〕
実施例3では、所望の測定値を測定していない場合に変角特性データを推定する方法について説明したが、必ずしも推定する必要はない。例えば、フォーカス位置Dに最も近いフォーカス位置の変角特性データを変角特性保持部から選択してもよい。
上記実施例では、物体の素材特性として簡易的に測定した変角特性データを入力し半値幅を算出したが、光沢特性に相当するデータであればこれに限らない。例えば、算出されるデータは、半値幅の変わりに物体の変角特性の反射強度の最大値であってもよい。この場合、光沢特性が高い物体であれば大きい値となり、光沢特性が低い物体であれば小さい値となるため、上記最大値を用いることが可能である。
また、入力されるデータは物体の表面粗さのデータであってもよい。この場合、表面粗さの分散値が算出可能であり、分散値が大きいほど低光沢となり、分散値が小さいほど高光沢となるため、粗さのデータを用いることが可能である。
また、本発明は、上述した実施例の機能(例えば、上記のフローチャートにより示される工程)を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が、コンピュータが読み取り可能に記憶媒体に格納されたプログラムコードを読み出し実行することにより、上述した実施例の機能を実現する。また、プログラムは、1つのコンピュータで実行させても、複数のコンピュータを連動させて実行させるようにしてもよい。

Claims (8)

  1. 物体の光沢特性を示す光沢特性データを入力する入力部と、
    前記入力部で入力された光沢特性データと基準光沢値とに基づき、フォーカス位置を設定する設定部と、
    前記フォーカス位置に基づき、複数の角度および複数のフォーカス位置により測定された物体の変角特性データを取得する取得部と
    を有することを特徴とする画像処理装置。
  2. 前記取得部は、前記フォーカス位置に基づき、複数の角度および複数のフォーカス位置により測定された物体の変角特性を測定し、前記フォーカス位置は、該測定時の受光器とピント面との距離であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記光沢特性は、変角特性データの反射強度、半値幅、または、表面粗さの分散値の少なくともいずれか1つを含むことを特徴とする請求項1または請求項2に記載の画像処理装置。
  4. 前記設定部で設定されるフォーカス位置は、受光器と試料面までの距離、及び、受光器と光源を正対させた時の距離と、物体の素材特性から算出される反射強度、半値幅、または、表面粗さの分散値のいずれか1つの値との比から算出されることを特徴とする請求項1または請求項2に記載の画像処理装置。
  5. 物体の画素ごとの変角特性を用いてCG画像を生成する生成部を有し、
    前記生成部は、前記取得部により取得した変角特性データから前記CG画像を生成することを特徴とする請求項1乃至請求項4の何れか一項に記載の画像処理装置。
  6. 前記取得部は、前記複数のフォーカス位置で取得した変角特性データを用いて任意のフォーカス位置の変角特性を推定することを特徴とする請求項1乃至請求項5の何れか一項に記載の画像処理装置。
  7. コンピュータを、請求項1乃至請求項6の何れか一項に記載された画像処理装置の各部として機能させることを特徴とするプログラム。
  8. 入力部が、物体の光沢特性を示す光沢特性データを入力する入力ステップと、
    設定部が、前記入力部で入力された光沢特性データと基準光沢値とに基づき、フォーカス位置を設定する設定ステップと、
    取得部が、前記フォーカス位置に基づき、複数の角度および複数のフォーカス位置により測定された物体の変角特性データを取得する取得ステップと
    を有することを特徴とする画像処理方法。
JP2013103330A 2013-05-15 2013-05-15 画像処理装置および画像処理方法 Active JP6100086B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013103330A JP6100086B2 (ja) 2013-05-15 2013-05-15 画像処理装置および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013103330A JP6100086B2 (ja) 2013-05-15 2013-05-15 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2014224718A JP2014224718A (ja) 2014-12-04
JP6100086B2 true JP6100086B2 (ja) 2017-03-22

Family

ID=52123496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013103330A Active JP6100086B2 (ja) 2013-05-15 2013-05-15 画像処理装置および画像処理方法

Country Status (1)

Country Link
JP (1) JP6100086B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6587821B2 (ja) * 2015-04-02 2019-10-09 株式会社ナリス化粧品 粉体のスクリーニング方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129794A (ja) * 1993-11-04 1995-05-19 Toyota Central Res & Dev Lab Inc 画像の深み感制御機能を有するコンピュータグラフィック装置
JP3054321B2 (ja) * 1994-10-25 2000-06-19 トヨタ自動車株式会社 コンピュータグラフィクス装置
US6515674B1 (en) * 2000-03-17 2003-02-04 Hewlett-Packard Company Apparatus for and of rendering 3d objects with parametric texture maps
US6888544B2 (en) * 2000-03-17 2005-05-03 Hewlett-Packard Development Company, L.P. Apparatus for and method of rendering 3D objects with parametric texture maps
JP4349094B2 (ja) * 2003-11-13 2009-10-21 トヨタ自動車株式会社 自動車の観測色の表示装置とその方法
JP5059503B2 (ja) * 2007-07-13 2012-10-24 花王株式会社 画像合成装置、画像合成方法及び画像合成プログラム
JP5615041B2 (ja) * 2010-05-24 2014-10-29 キヤノン株式会社 画像処理装置、画像処理方法
JP2012048657A (ja) * 2010-08-30 2012-03-08 Canon Inc 画像処理装置および画像処理方法
JP2013182417A (ja) * 2012-03-01 2013-09-12 Canon Inc 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
JP2014224718A (ja) 2014-12-04

Similar Documents

Publication Publication Date Title
CN105847786B (zh) 用于确定色彩变换参数的系统和方法
CN105335950B (zh) 图像处理方法和图像处理装置
Meilland et al. 3d high dynamic range dense visual slam and its application to real-time object re-lighting
US9300901B2 (en) Augmenting physical appearance using illumination
JP2019510311A (ja) 平面の鏡を用いたステレオ画像システムを較正するための方法およびコンピュータプログラム製品
WO2015166684A1 (ja) 画像処理装置と画像処理方法
EP2568436A1 (en) Image viewer for panoramic images
WO2012029193A1 (ja) 商品撮影装置、商品撮影方法、画像変換装置、画像処理装置、画像処理システム、プログラム、ならびに、情報記録媒体
TW201011690A (en) Image converter
US10249076B2 (en) Image processing apparatus, image capturing apparatus, image processing method and storage medium storing image processing program
WO2022066194A1 (en) Learning-based lens flare removal
US10255664B2 (en) Image processing device and method
WO2020075252A1 (ja) 情報処理装置、プログラム及び情報処理方法
JP2013182417A (ja) 画像処理装置および画像処理方法
JP5762015B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6869652B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2015518582A (ja) 顕微鏡の稼働時に実施する方法および顕微鏡
JP6100086B2 (ja) 画像処理装置および画像処理方法
JP6776004B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6679966B2 (ja) 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム
US8611674B1 (en) System and method for invariant-based normal estimation
JP7279352B2 (ja) 質感調整支援システム、及び質感調整支援方法
Kang et al. View-dependent scene appearance synthesis using inverse rendering from light fields
Zhao et al. Removal of parasitic image due to metal specularity based on digital micromirror device camera
KR20230015246A (ko) 다중시점 텍스처를 이용한 3d 폴리곤 메시 렌더링 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170222

R151 Written notification of patent or utility model registration

Ref document number: 6100086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151