JP2005049935A - Image separation method, and image processing method and device - Google Patents

Image separation method, and image processing method and device Download PDF

Info

Publication number
JP2005049935A
JP2005049935A JP2003202844A JP2003202844A JP2005049935A JP 2005049935 A JP2005049935 A JP 2005049935A JP 2003202844 A JP2003202844 A JP 2003202844A JP 2003202844 A JP2003202844 A JP 2003202844A JP 2005049935 A JP2005049935 A JP 2005049935A
Authority
JP
Japan
Prior art keywords
image
information
subject
declination
parts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003202844A
Other languages
Japanese (ja)
Inventor
Tomoaki Mizuno
知章 水野
Hideyasu Ishibashi
磴  秀康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2003202844A priority Critical patent/JP2005049935A/en
Publication of JP2005049935A publication Critical patent/JP2005049935A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To separate an object inside a photography image into parts each having a prescribed property, and to apply a prescribed image process to each the separated part. <P>SOLUTION: When photographing the object, two-dimensional distance information in each point on the surface of the object is acquired, a deflection angle spectroscopic information is acquired, the object inside the photography image is separated into the parts on the basis of the acquired distance information and deflection angle spectroscopic information about the object, and data processing independent in each the part is applied to image data of the object separated into the parts. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像分離方法及び画像処理方法並びに装置に係り、特に、質感に関連する所定の画像情報により画像をパーツに分離し、分離された各パーツ毎に質感を強調する所定の画像処理を加える画像分離・処理技術に関する。
【0002】
【従来の技術】
今日、光学機器および画像処理技術の進歩により、被写体をカメラで撮影し、あるいは被写体をスキャナで読み取って、高画質の画像を得ることができるようになってきたが、被写体の光沢感や被写体の表面の細かな凹凸等の質感を再現することは難しく、被写体の質感をよりリアルに再現することが望まれている。
【0003】
現実の被写体は、通常3次元の物体であり、被写体の撮影には被写体を照明する光源が必要である。被写体に照明を当てると、被写体表面の明るさが場所によって変化する。その明るさは、被写体表面における反射のしかたによって異なり、反射のしかたは、被写体表面の材質によって異なる。
被写体表面における光の反射には、一般に、物体の色を表す拡散(内部)反射と光沢を表す鏡面(表面)反射とがある。
【0004】
拡散反射光は、表面から入射した光が物質内で多重散乱した後、表面に出た光であり、あらゆる方向に同じ強さで反射するものである。拡散反射は石膏や白墨(チョーク)のように表面がざらざらしたものに多く見られる。
また、鏡面反射光は、被写体表面での直接反射によって生じる。鏡面反射は、金属やよく磨かれた陶器などが照明された場合に、その表面の一部にハイライトを生じさせる。鏡面反射光は、入射面と反射面が等しい正反射の方向に光が最も強く反射される。一般に、被写体を照明すると拡散反射光と鏡面反射光の両方かが生じる。
そこで、被写体をリアルに再現した画像を得るためには、その被写体表面の材質の違いによる反射光の変化を忠実に再現する必要がある。
【0005】
被写体の質感再現を行う際には、従来、被写体の表面形状並びに鏡面反射光成分、拡散反射光成分及び光源方向等の情報に基づく画像処理が行われている。
例えば、撮影対象(被写体)を1つのオブジェクトと見立てて、被写体表面の2次元的な距離情報(凹凸情報)をレーザレンジファインダを用いて測定し、さらにマルチバンドカメラにより光源方向を変化させた多数枚の画像を撮影し、被写体の偏角(変角)スペクトル情報と距離情報を獲得して画像処理を行う方法が知られている(例えば、非特許文献1参照)。
また、物体をリアルに再現するために、分光画像計測と3次元画像計測とを組み合わせて、物体の形状情報及び分光情報を同時に取得して、物体を再現する方法が提案されている(例えば、非特許文献2参照)。
【0006】
【非特許文献1】
大阪電通大、富永昌治、松本敏範、田中法博「3次元形状情報を用いた絵画の記録と映像生成10−4」
カラーフォーラムJAPAN2001p.155 〜p.158
【非特許文献2】
奈良先端科学技術大、真鍋佳嗣「分光画像と形状計測」
日本写真学会誌2002年65巻4号p.284 〜p.290
【0007】
【発明が解決しようとする課題】
しかしながら、上述したような従来の実被写体からの質感情報の取得、画像作成においては、撮影対象を1つのオブジェクトと見立てた画像処理となっており、撮影対象中の各オブジェクトを、材質や色の違い等により、パーツ毎に分離したり、分離した各パーツ毎に異なる画像処理を施すということは行われておらず、画像処理技術と質感再現技術との融合がまだ不十分であるという問題がある。
【0008】
また、従来画像を分離するには、特徴量として、色情報、像構造情報等を利用して分離が行われている。しかし、これらの観点のみによる処理では、分離が不十分な面もあるという問題もある。
そこで、質感再現においては、利用する情報量としては、距離情報や偏角分光情報(変角分光情報)等、豊富にあることから、質感再現の画像処理を行うために、これらの情報を利用して画像(オブジェクト)をパーツ毎に分離することが望まれている。
【0009】
本発明は、前記従来の問題に鑑みてなされたものであり、撮影画像中の被写体を、所定の性質を有するパーツに分離し、分離された各パーツ毎に所定の画像処理を行うようにする画像分離方法及び画像処理方法並びに装置を提供することを課題とする。
【0010】
【課題を解決するための手段】
前記課題を解決するために、本発明の第1の態様は、被写体を撮影する際、前記被写体の表面上の各点における、2次元的な距離情報を取得するとともに、偏角分光情報を取得し、前記取得した被写体の距離情報及び偏角分光情報に基づいて、撮影画像中の前記被写体をパーツに分離することを特徴とする画像分離方法を提供する。
【0011】
また、前記偏角分光情報を偏角情報と分光情報とに分解して、前記被写体をパーツに分離するための情報として用いることが好ましい。
【0012】
また、前記距離情報、前記偏角情報及び前記分光情報のうち少なくとも2つ以上の情報を、前記被写体をパーツに分離するための情報として用いることが好ましい。
【0013】
また、同様に前記課題を解決するために本発明の第2の態様は、前記画像分離方法によりパーツに分離された被写体の画像データに対し、各パーツ毎に独立のデータ処理を施すことを特徴とする画像処理方法を提供する。
【0014】
また、前記独立のデータ処理は、パーツ毎の表面反射率、拡散反射率を変更する処理であることが好ましい。
【0015】
また、同様に前記課題を解決するために本発明の第3の態様は、被写体の表面上の各点における2次元的な距離情報を取得する距離情報取得手段と、前記被写体の表面上の各点における偏角分光情報を取得する偏角分光情報取得手段と、前記距離情報及び前記偏角分光情報に基づいて、撮影画像中の前記被写体をパーツに分離する画像分離手段と、を有することを特徴とする画像分離装置を提供する。
【0016】
また、前記画像分離装置であって、さらに、前記偏角分光情報を偏角情報と分光情報に分解する手段を有し、前記画像分離手段は、前記距離情報、前記偏角情報及び前記分光情報のうち少なくとも2つ以上の情報を用いて前記被写体をパーツに分離することが好ましい。
【0017】
また、同様に前記課題を解決するために本発明の第4の態様は、前記画像分離方法によりパーツに分離された被写体の画像データに対し、各パーツ毎に独立のデータ処理を施す画像処理手段を備えたことを特徴とする画像処理装置を提供する。
【0018】
また、同様に前記課題を解決するために本発明の第5の態様は、前記画像分離方法、及び前記画像処理方法の少なくとも一方を実行するためのプログラムを提供する。
【0019】
【発明の実施の形態】
以下、本発明の画像分離方法及び画像処理方法並びに装置について、添付の図面に示される好適実施形態を基に詳細に説明する。
【0020】
図1は、本発明に係る画像分離方法及び画像処理方法を実行する画像分離装置及び画像処理装置の一実施形態の概略構成を示すブロック図である。
図1に示すように、本実施形態の装置は、被写体10を撮影するとともに、画像分離に必要な情報を取得して、画像中の被写体をパーツに分離する画像分離装置12と、分離された各パーツ毎に独立の画像処理を施す画像処理装置14とを含んで構成されている。
【0021】
本実施形態は、例えば物体(被写体)を撮影した画像において、物体の質感をリアルに再現するために、被写体上の各点の(2次元的な)距離情報や、偏角分光情報を取得して、(照明光の反射のしかたの違いに影響する)材質の違いや、色の違い等に応じて、撮影画像中の被写体をいくつかの部分(パーツ)に分離するものである。また、分離された各パーツ毎に異なる画像処理を行い、質感を強調して、よりリアルに物体の質感を再現するものである。
【0022】
画像分離装置12は、偏角分光情報取得手段16、距離情報取得手段18、拡散反射成分推定手段20、分光反射率推定手段22及び画像分離手段24を含んで構成される。
また、画像処理装置14は、上記画像分離装置12によって分離された画像の各パーツ毎に、所定の画像処理を行う画像処理手段26を有している。
【0023】
偏角分光情報取得手段16は、被写体10の偏角(変角)分光情報、すなわち、被写体10を照明する光源の位置(角度)及び被写体10からの反射光を受光する受光角を変化させた変角毎の分光反射率を取得するものである。
これは、具体的には、特には限定はされないが、例えば、複数チャンネルで複数のスペクトル画像を撮影可能なマルチバンドカメラを用いることができる。すなわち、マルチバンドカメラを用いて、被写体10に対する光源の角度を変化させて被写体10を複数の方向から撮影し、複数のスペクトル画像を得るようにしてもよい。
あるいは、例えば村上色彩技術研究所製GCMS−3等の変角分光光度計を用いて各変角毎の分光分布を測定するようにしてもよい。この場合には別途画像を撮影して画像データを取得する必要がある。
【0024】
距離情報取得手段18は、被写体10の表面上の各点の撮影距離を測定するものである。すなわち、被写体10上の各点について、距離情報取得手段18から前記各点までの距離を測定して、各点毎のいわば2次元的な距離情報を得るものである。またこの距離情報は被写体10の表面形状を表す情報であると言うこともできる。距離情報取得手段18は、特に限定されるものではなく、例えば、光ビームを用いた距離センサでもよく、光三角測量法の原理に基づいて計測対象までの距離を求める3次元画像計測手法を用いるものでもよい。
【0025】
拡散反射成分推定手段20は、偏角分光情報から被写体10の拡散反射成分を推定するものである。拡散反射成分推定手段20は、被写体画像の各画素毎に、上記偏角分光画像の強度が最低値となるものを抽出し、それを拡散反射成分とするようになっている。
ただし、このとき被写体10の距離情報(表面形状情報)と光源の方向の情報から被写体10において影の部分となる領域がわかるが、この影領域はあまり拡散反射成分を含んでおらず強度も弱いので、これは除いて上記被写体10の拡散反射成分の推定を行うようにしている。
【0026】
分光反射率推定手段22は、被写体10の分光反射モデルとしてPhongのモデルを仮定して、光源方向(入射角)及び観察方向(受光角)が変化した際の、被写体10の分光反射率を推定するために、上記Phongのモデルにおけるパラメータα及びnを算出するものである。
ここでPhongのモデルについて説明する。
【0027】
図2は、Phongのモデルを説明するための図であり、光源50から射出された光は、表面52上で反射され、観察(受光)される。
このとき、表面52の法線方向の単位ベクトルをN、入射角をθ、受光角をθ、光源方向の単位ベクトルをL、観察方向の単位ベクトルをV、受光点の鏡面反射方向を表す単位ベクトルをR、光源スペクトルをE(λ)、被写体(表面52)の拡散反射率をS(λ)、とするとPhongのモデルによれば、観察される反射率Y(λ)は、α及びnを被写体の材質に依存するパラメータとして、次の式(1)によって表される。なお、式(1)中において(A,B)は、ベクトルAとBの内積を表す。
Y(λ)= α(R・L)E(λ)+(N・L)S(λ)E(λ)・・・(1)
【0028】
Phongのモデルは、観察方向の鏡面反射方向からのずれによる鏡面反射成分の減少の割合を、そのずれ角(θ−θ)のcos(これは上記内積(R・L)に等しい)のn乗によって近似するものである。
上記モデル式(1)中における未定のパラメータα及びnは、偏角測定を2種類以上の角度で収録することによって一意に決定することができる。ただし、実際には、多くの偏角測定データにより最適値を計算することが望ましい。
【0029】
上記拡散反射成分推定手段20及び分光反射率推定手段22は、偏角分光情報を偏角情報(拡散反射成分)と分光情報(分光反射率)に分解する手段に相当する。
画像分離手段24は、距離情報及び偏角分光情報に基づいて、撮影画像中の被写体10をパーツに分離するものである。本実施形態においては、特に、画像分離手段24は、偏角分光情報を偏角情報(拡散反射成分)と分光情報(分光反射率)に分解し、距離情報、偏角情報及び分光情報のうち少なくとも2つ以上の情報を用いて撮影画像中の被写体10をパーツに分離するようにしている。
【0030】
画像処理手段26は、上記画像分離手段24によって分離された被写体10の各パーツ毎に独立のデータ処理を施すものである。
この各パーツ毎に独立に行われるデータ処理は、特に限定されるものではなく、様々なデータ処理を行うことができる。例えば、各パーツ毎に、表面反射率(鏡面反射率)や拡散反射率を変更することにより、被写体10の質感を強調すること等が例示される。
【0031】
以下、本実施形態の作用として、本発明に係る画像分離方法及び画像処理方法について説明する。
図3は、本実施形態における画像分離方法及び画像処理方法の処理の流れを示すフローチャートである。また、本実施形態においては、具体的に、被写体10として図4に示すような2つの三角錐30及び40を用いた。三角錐30は、左面32は金属面、右面34は非金属面であり、左右面32、34とも同色である。また、三角錐40は、左面42と右面44は別の色であり、左右面42、44とも金属面である。
【0032】
以下図3のフローチャートに沿って説明する。
まず、ステップ100において、距離情報取得手段18により、各被写体(三角錐30及び40)の距離情報を取得する。
次に、ステップ110において、三角錐30及び三角錐40のマルチバンド画像撮影を行う。この撮影は、光源の位置及びマルチバンドカメラの撮影位置の少なくとも一方を動かしながら撮影し、それぞれの被写体について複数のスペクトル画像を得るようにする。
【0033】
撮影した三角錐30及び三角錐40のマルチバンド画像から、それぞれの偏角分光情報を取得する。
なお、前述したように、この被写体を撮影し、距離情報、偏角情報、分光情報を取得する方法は、特に限定されるものではなく、例えば、従来知られている非特許文献1あるいは非特許文献2に記載されているような、富永等による方法あるいは真鍋による方法等を用いてもよい。
【0034】
次にステップ130において、拡散反射成分推定手段20により、三角錐30及び三角錐40についてそれぞれの偏角分光画像から被写体の色を表す拡散反射成分を推定する。この推定は、前述したように、被写体の各画素毎に偏角分光画像の強度が最低値となるものを抽出し、それを拡散反射成分とする。
次にステップ140において、分光反射率推定手段22により、三角錐30及び三角錐40についてそれぞれの偏角分光画像から前述したPhongのモデルにおける2つのパラメータα及びnを計算する。
【0035】
次にステップ150において、画像分離手段24により、画像中の被写体をパーツに分離する。この分離の手法は、距離情報、偏角情報、分光情報のうち少なくとも2つ以上の情報を用いて行われ、特に一つの手法に限定されるものではない。
例えば、三角錐30については、左面32と右面34は色は同じであるが、材質が異なっている。この場合には、距離情報と分光情報を用いてパーツに分離することができる。この方法について、以下、図5のフローチャートを用いて説明する。
【0036】
まず、図5のステップ200において、画像分離手段24は、距離情報取得手段18から受け取った距離情報(表面形状情報)より、被写体上の各点における外向き法線ベクトル方向を計算する。この外向き法線ベクトル方向は、各点における距離情報をX、Y、Z方向(すなわち、縦、横、奥行き方向)に微分した値と同等である。
【0037】
次にステップ210において、画像分離手段24は、今算出した外向き法線ベクトル方向がその点において不連続に変化しているか否か判断し、外向き法線ベクトルのXYZ値が不連続に変化する点(XYZ方向の微分値が不連続に変化する点)を被写体の材質が変化する点の候補として抽出(選択)する。
このような材質が変化する点というのは、被写体をパーツに分離する際の境界と成り得る点である。
図4の三角錐30の場合には、左面32と右面34は図から明らかなように、その法線方向がその境界において大きく変化しており、その境界上の点が被写体の材質が変化する点の候補となる。
【0038】
次にステップ220において、画像分離手段24は、分光反射率推定手段22が算出したPhongのモデルにおけるパラメータα及びnを受け取り、このパラメータα及びnの値がその点において大きく変化しているか否か判断する。
この判断において、パラメータα及びnの値が大きく変化しているとされた場合には、その点において外向き法線ベクトル方向が不連続に変化しており、かつ、パラメータα及びnの値が大きく変化しているため、次のステップ230において、その点は、被写体の材質が変化する点であると決定する。以上のステップをすべての画素について実行し、材質が変化する点をすべて抽出する。
【0039】
そしてステップ240において、このような被写体の材質が変化する点を境界として被写体をパーツに分離する。図4の三角錐30の場合には、左面32は金属であり、右面34は非金属であり、その材質が異なっているが、実際にパラメータα及びnの値が異なっていることが確認された。Phongのモデルのパラメータα及びnの値が異なることは、被写体の分光反射光データにおいて、材質の相違により、正反射成分と拡散反射成分の角度依存の強度分布が異なることによるものである。そして、実際に三角錐30において、左面32と右面34の外向き法線ベクトル方向が大きく変化し、かつパラメータα及びnの値が異なっていることから左面32と右面34は別のパーツとして分離された。
【0040】
また、例えば、三角錐40については、左面42と右面44は材質は同じであるが色が異なっている。この場合には、距離情報と偏角情報(拡散反射成分)を用いてパーツに分離することができる。この方法について、以下、図6のフローチャートを用いて説明する。
【0041】
まず、図6のステップ300において、画像分離手段24は、距離情報取得手段18から受け取った距離情報(表面形状情報)より、被写体上の各点における外向き法線ベクトル方向を計算する。この外向き法線ベクトル方向は、各点における距離情報をX、Y、Z方向(すなわち、縦、横、奥行き方向)に微分した値と同等である。
【0042】
次にステップ310において、画像分離手段24は、今算出した外向き法線ベクトル方向がその点において不連続に変化しているか否か判断し、外向き法線ベクトルのXYZ値が不連続に変化する点(XYZ方向の微分値が不連続に変化する点)を被写体の材質が変化する点の候補として抽出(選択)する。
このような材質が変化する点というのは、被写体をパーツに分離する際の境界と成り得る点である。
図4の三角錐40の場合には、左面42と右面44は図から明らかなように、その法線方向がその境界において大きく変化しており、その境界上の点が被写体の材質が変化する点の候補となる。
【0043】
次にステップ320において、画像分離手段24は、拡散反射成分推定手段20が推定した拡散反射成分を受け取り、この拡散反射成分がその点において大きく変化しているか否か判断する。
この判断において、拡散反射成分が大きく変化しているとされた場合には、その点において外向き法線ベクトル方向が不連続に変化しており、かつ、拡散反射成分が大きく変化しているため、次のステップ330において、その点は、被写体の材質(この場合には、色)が変化する点であると決定する。
【0044】
そしてステップ340において、このような被写体の材質(色)が変化する点を境界として被写体をパーツに分離する。図4の三角錐40の場合には、左面42と右面44は同じ材質であるが、その色が異なっている。実際に拡散反射成分を見ると、異なっていることが確認された。拡散反射成分は色に相当し、これにより、実際に左面42と右面44とで色が異なっていることが確認された。その結果、三角錐40においても左面42と右面44とは別のパーツとして分離された。
【0045】
このようにして、本実施形態によれば、被写体を距離情報(それから計算される外向き法線ベクトル方向)と、分光情報(Phongのモデルのパラメータα及びn)及び偏角情報(拡散反射成分)のいずれか一方あるいは両方を組み合わせることにより、材質(色)が変化する点を決定することができ、これによって被写体をパーツに分離することができる。
【0046】
次に図3のステップ160にもどり、画像処理手段26において、上記ステップ150までの方法で得られたパーツ毎の距離、分光、偏角情報に対して所望の画像処理を行う。
具体的には、図4の三角錐30あるいは三角錐40の各分離したパーツに対し、金属あるいは非金属である等の、それぞれのパーツの特性に基づいた色変更処理を行った。これは、例えば、材質を非金属から金属に変更するのであれば、Phongのモデルのパラメータα及びnを変更し、拡散反射光のスペクトル自身は変更しないようにすればよい。また、パーツの色のみを変更する場合には、Phongのモデルのパラメータα及びnは変更せずに、拡散反射光のスペクトルのみを変更するようにすればよい。
このように、各パーツの特性に基づいた処理画像を生成することにより、質感を変更した画像を得ることができた。
【0047】
なお、上記画像処理としては、特に限定されるものではなく、例えば、パーツ毎に正反射成分(鏡面反射成分)を変更することにより、メタリック感の異なる画像を作成したり、パーツを切り取って、別のパーツを貼り付けたり、数個の被写体(オブジェクト)を組み合わせ、3次元のシーンを作成したり、あるいは、劣化や復元等の従来の画像処理をパーツ毎に異なる量を掛けることによって行ったり等様々な処理が例示される。
【0048】
また、以上説明した画像分離方法及び画像処理方法を実行するプログラムを組んで所定の記録媒体に記憶し、これから読み込んで、あるいはネットワーク等を介してダウンロードすることにより任意のコンピュータにより本発明の画像分離方法及び画像処理方法を簡単に実行することができ、質感を変更した画像を得ることが可能となる。
【0049】
以上、本発明の画像分離方法及び画像処理方法並びに装置について、詳細に説明したが、本発明は、以上の実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、各種の改良や変更を行ってもよいのはもちろんである。
【0050】
【発明の効果】
以上、説明した通り、本発明によれば、撮影画像中の被写体を、所定の性質を有するパーツに分離し、分離された各パーツ毎に所定の画像処理を行うことが可能となる。特に、撮影対象中の各オブジェクトを質感に関連する距離情報、偏角分光情報等の情報を基に分離して表現し、さらにこれらの分離された情報を利用して画像処理を行うことにより、質感をよりリアルに表現した画像を得ることが可能となる。
【図面の簡単な説明】
【図1】本発明に係る画像分離方法及び画像処理方法を実行する画像分離装置及び画像処理装置の一実施形態の概略構成を示すブロック図である。
【図2】Phongのモデルを説明するための説明図である。
【図3】本実施形態における画像分離方法及び画像処理方法の処理の流れを示すフローチャートである。
【図4】(a)、(b)は本実施形態で被写体として用いる三角錐を示す斜視図である。
【図5】本実施形態において画像をパーツに分離する方法を示すフローチャートである。
【図6】同じく、本実施形態において画像をパーツに分離する他の方法を示すフローチャートである。
【符号の説明】
10 被写体
12 画像分離装置
14 画像処理装置
16 偏角分光情報取得手段
18 距離情報取得手段
20 拡散反射成分推定手段
22 分光反射率推定手段
24 画像分離手段
26 画像処理手段
30、40 三角錐
32、42 左面
34、44 右面
50 光源
52 表面
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image separation method, an image processing method, and an apparatus, and in particular, performs predetermined image processing that separates an image into parts based on predetermined image information related to texture, and emphasizes the texture for each separated part. The present invention relates to an added image separation / processing technique.
[0002]
[Prior art]
Today, with advances in optical equipment and image processing technology, it has become possible to capture a subject with a camera or read a subject with a scanner to obtain a high-quality image. It is difficult to reproduce the texture such as fine irregularities on the surface, and it is desired to reproduce the texture of the subject more realistically.
[0003]
An actual subject is usually a three-dimensional object, and a light source that illuminates the subject is necessary for photographing the subject. When the subject is illuminated, the brightness of the subject surface changes depending on the location. The brightness varies depending on the manner of reflection on the subject surface, and the manner of reflection varies depending on the material of the subject surface.
In general, the reflection of light on the surface of an object includes diffuse (internal) reflection that represents the color of an object and specular (surface) reflection that represents gloss.
[0004]
Diffuse reflected light is light that is incident on the surface and then exits the surface after multiple scattering within the material, and is reflected with the same intensity in all directions. Diffuse reflections are often seen on rough surfaces such as plaster and chalk.
The specular reflection light is generated by direct reflection on the surface of the subject. Specular reflection causes highlights on parts of the surface when metal or well-polished pottery is illuminated. The specular reflection light is reflected most strongly in the direction of regular reflection where the incident surface and the reflection surface are equal. Generally, when a subject is illuminated, both diffuse reflection light and specular reflection light are generated.
Therefore, in order to obtain an image that realistically reproduces the subject, it is necessary to faithfully reproduce the change in reflected light due to the difference in the material of the subject surface.
[0005]
When reproducing the texture of a subject, conventionally, image processing based on information on the surface shape of the subject, specular reflection light component, diffuse reflection light component, light source direction, and the like has been performed.
For example, assuming that a shooting target (subject) is one object, two-dimensional distance information (unevenness information) on the subject surface is measured using a laser range finder, and the light source direction is changed by a multiband camera. A method is known in which image processing is performed by capturing a single image and acquiring declination (angle) spectrum information and distance information of the subject (for example, see Non-Patent Document 1).
Further, in order to reproduce an object realistically, a method has been proposed in which spectral image measurement and three-dimensional image measurement are combined to simultaneously acquire object shape information and spectral information and reproduce the object (for example, Non-patent document 2).
[0006]
[Non-Patent Document 1]
Osaka Electro-Communication University, Shoji Tominaga, Toshinori Matsumoto, Toshihiro Tanaka “Picture recording and video generation using 3D shape information 10-4”
Color Forum JAPAN2001 p. 155-p. 158
[Non-Patent Document 2]
Nara Institute of Science and Technology, Yoshiaki Manabe “Spectroscopic Image and Shape Measurement”
Journal of the Japan Photography Society, 2002, 65, 4 p. 284-p. 290
[0007]
[Problems to be solved by the invention]
However, in the conventional acquisition of texture information and image creation from a real subject as described above, image processing is performed assuming that the shooting target is one object, and each object in the shooting target is made of material or color. Due to differences, there is no separation for each part or different image processing for each separated part, and there is a problem that fusion of image processing technology and texture reproduction technology is still insufficient is there.
[0008]
Further, in order to separate conventional images, separation is performed using color information, image structure information, and the like as feature amounts. However, there is also a problem that the separation based only on these viewpoints has insufficient separation.
Therefore, in the reproduction of texture, there are abundant amounts of information to be used, such as distance information and declination spectroscopic information (variable angle spectroscopic information). Therefore, this information is used to perform image processing for texture reproduction. Thus, it is desired to separate the image (object) for each part.
[0009]
The present invention has been made in view of the above-described conventional problems. The subject in the captured image is separated into parts having a predetermined property, and predetermined image processing is performed for each separated part. It is an object to provide an image separation method, an image processing method, and an apparatus.
[0010]
[Means for Solving the Problems]
In order to solve the above-described problem, the first aspect of the present invention obtains two-dimensional distance information at each point on the surface of the subject and obtains declination spectral information when photographing the subject. Then, an image separation method is provided that separates the subject in the captured image into parts based on the acquired distance information and declination spectral information of the subject.
[0011]
Further, it is preferable that the declination spectral information is decomposed into declination information and spectral information and used as information for separating the subject into parts.
[0012]
Moreover, it is preferable to use at least two or more pieces of information among the distance information, the declination information, and the spectral information as information for separating the subject into parts.
[0013]
Similarly, in order to solve the above-described problem, the second aspect of the present invention is characterized in that independent data processing is performed for each part on the image data of the subject separated into parts by the image separation method. An image processing method is provided.
[0014]
The independent data processing is preferably processing for changing the surface reflectance and diffuse reflectance for each part.
[0015]
Similarly, in order to solve the above-mentioned problem, the third aspect of the present invention includes distance information acquisition means for acquiring two-dimensional distance information at each point on the surface of the subject, and each information on the surface of the subject. Declination spectroscopic information acquisition means for acquiring declination spectroscopic information at a point, and image separation means for separating the subject in the captured image into parts based on the distance information and the declination spectroscopic information. An image separation device is provided.
[0016]
The image separation apparatus further includes means for decomposing the declination spectral information into declination information and spectral information, and the image separation unit includes the distance information, the declination information, and the spectroscopic information. Preferably, the subject is separated into parts using at least two pieces of information.
[0017]
Similarly, in order to solve the above-described problem, the fourth aspect of the present invention is an image processing means for subjecting image data of a subject separated into parts by the image separation method to independent data processing for each part. An image processing apparatus is provided.
[0018]
Similarly, in order to solve the above problem, a fifth aspect of the present invention provides a program for executing at least one of the image separation method and the image processing method.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image separation method, an image processing method, and an apparatus according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.
[0020]
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of an image separation apparatus and an image processing apparatus for executing an image separation method and an image processing method according to the present invention.
As shown in FIG. 1, the apparatus of the present embodiment is separated from an image separation apparatus 12 that captures information necessary for image separation while capturing an object 10 and separates the object in the image into parts. And an image processing device 14 that performs independent image processing for each part.
[0021]
This embodiment acquires (two-dimensional) distance information and declination spectral information of each point on the subject in order to realistically reproduce the texture of the object in an image of the object (subject), for example. Thus, the subject in the photographed image is separated into several parts (parts) according to the difference in the material (which affects the difference in how the illumination light is reflected), the difference in color, and the like. Further, different image processing is performed for each separated part to emphasize the texture and reproduce the texture of the object more realistically.
[0022]
The image separation device 12 includes a declination spectral information acquisition unit 16, a distance information acquisition unit 18, a diffuse reflection component estimation unit 20, a spectral reflectance estimation unit 22, and an image separation unit 24.
In addition, the image processing device 14 includes image processing means 26 that performs predetermined image processing for each part of the image separated by the image separation device 12.
[0023]
The declination spectral information acquisition means 16 changes the declination (variation) spectral information of the subject 10, that is, the position (angle) of the light source that illuminates the subject 10 and the light receiving angle for receiving the reflected light from the subject 10. The spectral reflectance for each variable angle is acquired.
Specifically, this is not particularly limited, but for example, a multiband camera capable of capturing a plurality of spectral images with a plurality of channels can be used. That is, using a multiband camera, the angle of the light source with respect to the subject 10 may be changed, and the subject 10 may be photographed from a plurality of directions to obtain a plurality of spectral images.
Alternatively, for example, a spectral distribution for each variable angle may be measured using a variable angle spectrophotometer such as GCMS-3 manufactured by Murakami Color Research Laboratory. In this case, it is necessary to take a separate image and acquire the image data.
[0024]
The distance information acquisition unit 18 measures the shooting distance of each point on the surface of the subject 10. That is, for each point on the subject 10, the distance from the distance information acquisition means 18 to each point is measured, and so-called two-dimensional distance information for each point is obtained. It can also be said that this distance information is information representing the surface shape of the subject 10. The distance information acquisition unit 18 is not particularly limited, and may be, for example, a distance sensor using a light beam, and uses a three-dimensional image measurement method for obtaining a distance to a measurement target based on the principle of the optical triangulation method. It may be a thing.
[0025]
The diffuse reflection component estimation means 20 estimates the diffuse reflection component of the subject 10 from the declination spectral information. The diffuse reflection component estimation means 20 extracts, for each pixel of the subject image, the one having the lowest intensity of the declination spectral image and uses it as the diffuse reflection component.
However, at this time, the distance information (surface shape information) of the subject 10 and the information on the direction of the light source can be used to identify a shadow area in the subject 10, but this shadow region does not contain a diffuse reflection component and is weak in intensity. Therefore, except for this, the diffuse reflection component of the subject 10 is estimated.
[0026]
The spectral reflectance estimation means 22 estimates the spectral reflectance of the subject 10 when the light source direction (incident angle) and the observation direction (light reception angle) change, assuming a Phong model as the spectral reflectance model of the subject 10. Therefore, the parameters α and n in the Phong model are calculated.
Here, the Phong model will be described.
[0027]
FIG. 2 is a diagram for explaining the Phong model. Light emitted from the light source 50 is reflected on the surface 52 and observed (received).
At this time, the unit vector in the normal direction of the surface 52 is N, the incident angle is θ i , the receiving angle is θ r , the unit vector in the light source direction is L, the unit vector in the observation direction is V, and the specular reflection direction of the receiving point is If the unit vector to be represented is R v , the light source spectrum is E (λ), and the diffuse reflectance of the subject (surface 52) is S d (λ), then the observed reflectance Y (λ) is , Α and n are expressed by the following equation (1), with parameters depending on the material of the subject. In equation (1), (A, B) represents the inner product of vectors A and B.
Y (λ) = α (R v · L) n E (λ) + (N · L) S d (λ) E (λ) (1)
[0028]
Phong's model shows the ratio of the decrease in the specular reflection component due to the deviation of the observation direction from the specular reflection direction, and the cos of the deviation angle (θ r −θ i ) (this is equal to the inner product (R v · L)). Is approximated by the power of n.
The undetermined parameters α and n in the model equation (1) can be uniquely determined by recording declination measurements at two or more angles. However, in practice, it is desirable to calculate an optimum value from a large amount of deviation angle measurement data.
[0029]
The diffuse reflection component estimation means 20 and the spectral reflectance estimation means 22 correspond to means for decomposing the declination spectral information into declination information (diffuse reflection component) and spectral information (spectral reflectance).
The image separating unit 24 separates the subject 10 in the captured image into parts based on the distance information and the declination spectral information. In the present embodiment, in particular, the image separation unit 24 decomposes the declination spectral information into declination information (diffuse reflection component) and spectral information (spectral reflectance), and among the distance information, declination information, and spectral information. The subject 10 in the captured image is separated into parts using at least two pieces of information.
[0030]
The image processing means 26 performs independent data processing for each part of the subject 10 separated by the image separation means 24.
Data processing performed independently for each part is not particularly limited, and various data processing can be performed. For example, the texture of the subject 10 is emphasized by changing the surface reflectance (specular reflectance) or the diffuse reflectance for each part.
[0031]
Hereinafter, as an operation of the present embodiment, an image separation method and an image processing method according to the present invention will be described.
FIG. 3 is a flowchart showing the flow of processing of the image separation method and the image processing method in the present embodiment. Further, in the present embodiment, two triangular pyramids 30 and 40 as shown in FIG. In the triangular pyramid 30, the left surface 32 is a metal surface, the right surface 34 is a non-metal surface, and the left and right surfaces 32 and 34 are the same color. In the triangular pyramid 40, the left surface 42 and the right surface 44 are different colors, and the left and right surfaces 42, 44 are metal surfaces.
[0032]
Hereinafter, description will be given along the flowchart of FIG.
First, in step 100, the distance information acquisition means 18 acquires distance information of each subject (triangular pyramids 30 and 40).
Next, in step 110, multiband image capturing of the triangular pyramid 30 and the triangular pyramid 40 is performed. In this photographing, photographing is performed while moving at least one of the position of the light source and the photographing position of the multiband camera, and a plurality of spectral images are obtained for each subject.
[0033]
The respective declination spectral information is acquired from the captured multiband images of the triangular pyramid 30 and the triangular pyramid 40.
Note that, as described above, the method for capturing the subject and acquiring the distance information, the declination information, and the spectral information is not particularly limited. For example, the conventionally known Non-Patent Document 1 or Non-Patent You may use the method by Tominaga etc. or the method by Manabe etc. which are described in the literature 2.
[0034]
Next, in step 130, the diffuse reflection component estimation means 20 estimates the diffuse reflection component representing the color of the subject from the respective declination spectral images of the triangular pyramid 30 and the triangular pyramid 40. In this estimation, as described above, the one having the lowest intensity of the declination spectral image is extracted for each pixel of the subject, and this is used as the diffuse reflection component.
Next, in step 140, the spectral reflectance estimation means 22 calculates the two parameters α and n in the above-mentioned Phong's model from the respective declination spectral images for the triangular pyramid 30 and the triangular pyramid 40.
[0035]
Next, in step 150, the image separation means 24 separates the subject in the image into parts. This separation method is performed using at least two pieces of information among distance information, declination information, and spectral information, and is not particularly limited to one method.
For example, for the triangular pyramid 30, the left surface 32 and the right surface 34 have the same color, but are different in material. In this case, it can be separated into parts using distance information and spectral information. This method will be described below with reference to the flowchart of FIG.
[0036]
First, in step 200 of FIG. 5, the image separation unit 24 calculates the outward normal vector direction at each point on the subject from the distance information (surface shape information) received from the distance information acquisition unit 18. This outward normal vector direction is equivalent to a value obtained by differentiating the distance information at each point in the X, Y, and Z directions (that is, the vertical, horizontal, and depth directions).
[0037]
Next, in step 210, the image separating means 24 determines whether or not the calculated outward normal vector direction has changed discontinuously at that point, and the XYZ value of the outward normal vector has changed discontinuously. A point to be selected (a point where the differential value in the XYZ directions changes discontinuously) is extracted (selected) as a candidate for a point where the material of the subject changes.
Such a point where the material changes can be a boundary when the subject is separated into parts.
In the case of the triangular pyramid 30 in FIG. 4, as is clear from the drawing, the normal direction of the left surface 32 and the right surface 34 changes greatly at the boundary, and the material of the subject changes at the point on the boundary. Candidate points.
[0038]
Next, in step 220, the image separating unit 24 receives the parameters α and n in the Phong model calculated by the spectral reflectance estimating unit 22, and whether or not the values of the parameters α and n have changed greatly at that point. to decide.
In this determination, when the values of the parameters α and n are greatly changed, the outward normal vector direction is discontinuously changed at that point, and the values of the parameters α and n are Since it has changed greatly, in the next step 230, the point is determined to be a point where the material of the subject changes. The above steps are executed for all pixels, and all points where the material changes are extracted.
[0039]
In step 240, the subject is separated into parts with the point where the material of the subject changes as a boundary. In the case of the triangular pyramid 30 in FIG. 4, it is confirmed that the left surface 32 is a metal and the right surface 34 is a nonmetal, and the materials thereof are different, but the values of the parameters α and n are actually different. It was. The difference in the values of the parameters α and n of the Phong model is due to the difference in the angle-dependent intensity distribution of the regular reflection component and the diffuse reflection component due to the difference in the material in the spectral reflection light data of the subject. In fact, in the triangular pyramid 30, the outward normal vector directions of the left surface 32 and the right surface 34 change greatly, and the values of the parameters α and n are different, so the left surface 32 and the right surface 34 are separated as separate parts. It was done.
[0040]
Further, for example, for the triangular pyramid 40, the left surface 42 and the right surface 44 are made of the same material but different in color. In this case, it can be separated into parts using distance information and declination information (diffuse reflection component). This method will be described below with reference to the flowchart of FIG.
[0041]
First, in step 300 of FIG. 6, the image separation unit 24 calculates the outward normal vector direction at each point on the subject from the distance information (surface shape information) received from the distance information acquisition unit 18. This outward normal vector direction is equivalent to a value obtained by differentiating the distance information at each point in the X, Y, and Z directions (that is, the vertical, horizontal, and depth directions).
[0042]
Next, at step 310, the image separation means 24 determines whether or not the calculated outward normal vector direction has changed discontinuously at that point, and the XYZ value of the outward normal vector has changed discontinuously. A point to be selected (a point where the differential value in the XYZ directions changes discontinuously) is extracted (selected) as a candidate for a point where the material of the subject changes.
Such a point where the material changes can be a boundary when the subject is separated into parts.
In the case of the triangular pyramid 40 in FIG. 4, as is apparent from the drawing, the normal direction of the left surface 42 and the right surface 44 changes greatly at the boundary, and the material of the subject changes at the point on the boundary. Candidate points.
[0043]
Next, at step 320, the image separation means 24 receives the diffuse reflection component estimated by the diffuse reflection component estimation means 20, and determines whether or not this diffuse reflection component has changed significantly at that point.
In this determination, if the diffuse reflection component is significantly changed, the outward normal vector direction is discontinuously changed at that point, and the diffuse reflection component is greatly changed. In the next step 330, the point is determined to be a point where the material of the subject (in this case, the color) changes.
[0044]
Then, in step 340, the subject is separated into parts at the point where the material (color) of the subject changes. In the case of the triangular pyramid 40 in FIG. 4, the left surface 42 and the right surface 44 are made of the same material, but their colors are different. It was confirmed that the diffuse reflection components were actually different. The diffuse reflection component corresponds to a color, and it has been confirmed that the color is actually different between the left surface 42 and the right surface 44. As a result, also in the triangular pyramid 40, the left surface 42 and the right surface 44 are separated as separate parts.
[0045]
In this way, according to the present embodiment, the subject is distance information (outward normal vector direction calculated therefrom), spectral information (Phong's model parameters α and n), and declination information (diffuse reflection component). ) Can be determined to determine the point at which the material (color) changes, thereby separating the subject into parts.
[0046]
Next, returning to step 160 in FIG. 3, the image processing means 26 performs desired image processing on the distance, spectral and declination information for each part obtained by the method up to step 150.
Specifically, each of the separated parts of the triangular pyramid 30 or the triangular pyramid 40 in FIG. 4 was subjected to a color change process based on the characteristics of each part, such as being metallic or non-metallic. For example, if the material is changed from non-metal to metal, the parameters α and n of the Phong model may be changed so that the spectrum of the diffuse reflected light itself is not changed. When only the color of the part is changed, only the spectrum of the diffuse reflected light may be changed without changing the parameters α and n of the Phong model.
Thus, by generating a processed image based on the characteristics of each part, an image with a changed texture could be obtained.
[0047]
The image processing is not particularly limited. For example, by changing the specular reflection component (specular reflection component) for each part, an image with a different metallic feeling can be created, or the part can be cut out. Paste another part, combine several subjects (objects) to create a three-dimensional scene, or perform conventional image processing such as degradation and restoration by multiplying parts by different amounts Various processes are exemplified.
[0048]
In addition, the image separation method and the image processing method described above are assembled and stored in a predetermined recording medium, read from this, or downloaded via a network or the like, and the image separation of the present invention can be performed by an arbitrary computer. The method and the image processing method can be easily executed, and an image with a changed texture can be obtained.
[0049]
The image separation method, the image processing method, and the apparatus according to the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various kinds of methods can be used without departing from the gist of the present invention. Of course, improvements and changes may be made.
[0050]
【The invention's effect】
As described above, according to the present invention, it is possible to separate a subject in a captured image into parts having a predetermined property and perform predetermined image processing for each of the separated parts. In particular, by representing each object being imaged separately based on information such as distance information related to the texture, declination spectral information, etc., and further performing image processing using these separated information, It is possible to obtain an image that more realistically represents the texture.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of an image separation apparatus and an image processing apparatus that execute an image separation method and an image processing method according to the present invention.
FIG. 2 is an explanatory diagram for explaining a Phong model;
FIG. 3 is a flowchart illustrating a processing flow of an image separation method and an image processing method according to the present embodiment.
FIGS. 4A and 4B are perspective views showing a triangular pyramid used as a subject in the present embodiment.
FIG. 5 is a flowchart showing a method of separating an image into parts in the present embodiment.
FIG. 6 is a flowchart showing another method for separating an image into parts in the present embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 Subject 12 Image separation apparatus 14 Image processing apparatus 16 Declination spectral information acquisition means 18 Distance information acquisition means 20 Diffuse reflection component estimation means 22 Spectral reflectance estimation means 24 Image separation means 26 Image processing means 30 and 40 Triangular pyramids 32 and 42 Left side 34, 44 Right side 50 Light source 52 Surface

Claims (9)

被写体を撮影する際、前記被写体の表面上の各点における、2次元的な距離情報を取得するとともに、偏角分光情報を取得し、
前記取得した被写体の距離情報及び偏角分光情報に基づいて、撮影画像中の前記被写体をパーツに分離することを特徴とする画像分離方法。
When photographing a subject, two-dimensional distance information at each point on the surface of the subject is obtained, and declination spectral information is obtained,
An image separation method, comprising: separating the subject in a captured image into parts based on the acquired distance information and declination spectral information of the subject.
前記偏角分光情報を偏角情報と分光情報とに分解して、前記被写体をパーツに分離するための情報として用いる請求項1に記載の画像分離方法。The image separation method according to claim 1, wherein the declination spectral information is decomposed into declination information and spectral information and used as information for separating the subject into parts. 前記距離情報、前記偏角情報及び前記分光情報のうち少なくとも2つ以上の情報を、前記被写体をパーツに分離するための情報として用いる請求項2に記載の画像分離方法。The image separation method according to claim 2, wherein at least two pieces of information among the distance information, the declination information, and the spectral information are used as information for separating the subject into parts. 請求項1〜3のいずれかに記載の画像分離方法によりパーツに分離された被写体の画像データに対し、各パーツ毎に独立のデータ処理を施すことを特徴とする画像処理方法。An image processing method, wherein independent data processing is performed for each part on image data of a subject separated into parts by the image separation method according to claim 1. 前記独立のデータ処理は、パーツ毎の表面反射率、拡散反射率を変更する処理である請求項4に記載の画像処理方法。The image processing method according to claim 4, wherein the independent data processing is processing for changing a surface reflectance and a diffuse reflectance for each part. 被写体の表面上の各点における2次元的な距離情報を取得する距離情報取得手段と、
前記被写体の表面上の各点における偏角分光情報を取得する偏角分光情報取得手段と、
前記距離情報及び前記偏角分光情報に基づいて、撮影画像中の前記被写体をパーツに分離する画像分離手段と、
を有することを特徴とする画像分離装置。
Distance information acquisition means for acquiring two-dimensional distance information at each point on the surface of the subject;
Declination spectral information acquisition means for acquiring declination spectral information at each point on the surface of the subject;
Image separation means for separating the subject in the captured image into parts based on the distance information and the declination spectral information;
An image separating apparatus comprising:
請求項6に記載の画像分離装置であって、さらに、前記偏角分光情報を偏角情報と分光情報に分解する手段を有し、前記画像分離手段は、前記距離情報、前記偏角情報及び前記分光情報のうち少なくとも2つ以上の情報を用いて前記被写体をパーツに分離することを特徴とする画像分離装置。The image separation apparatus according to claim 6, further comprising means for decomposing the declination spectral information into declination information and spectral information, wherein the image separation unit includes the distance information, the declination information, and An image separating apparatus, wherein the subject is separated into parts using at least two or more pieces of the spectral information. 請求項1〜3のいずれかに記載の画像分離方法によりパーツに分離された被写体の画像データに対し、各パーツ毎に独立のデータ処理を施す画像処理手段を備えたことを特徴とする画像処理装置。Image processing means comprising image processing means for performing independent data processing for each part on image data of a subject separated into parts by the image separation method according to claim 1. apparatus. 請求項1〜3のいずれかに記載の画像分離方法、及び請求項4または5に記載の画像処理方法の少なくとも一方を実行するためのプログラム。A program for executing at least one of the image separation method according to claim 1 and the image processing method according to claim 4 or 5.
JP2003202844A 2003-07-29 2003-07-29 Image separation method, and image processing method and device Withdrawn JP2005049935A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003202844A JP2005049935A (en) 2003-07-29 2003-07-29 Image separation method, and image processing method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003202844A JP2005049935A (en) 2003-07-29 2003-07-29 Image separation method, and image processing method and device

Publications (1)

Publication Number Publication Date
JP2005049935A true JP2005049935A (en) 2005-02-24

Family

ID=34262403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003202844A Withdrawn JP2005049935A (en) 2003-07-29 2003-07-29 Image separation method, and image processing method and device

Country Status (1)

Country Link
JP (1) JP2005049935A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7737975B2 (en) 2007-08-07 2010-06-15 Panasonic Corporation Normal vector information generating device and normal vector information generating method
US7936944B2 (en) 2007-08-07 2011-05-03 Panasonic Corporation Image processing device and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7737975B2 (en) 2007-08-07 2010-06-15 Panasonic Corporation Normal vector information generating device and normal vector information generating method
US7936944B2 (en) 2007-08-07 2011-05-03 Panasonic Corporation Image processing device and image processing method

Similar Documents

Publication Publication Date Title
Brostow et al. Video normals from colored lights
EP2024707B1 (en) Scanner system and method for scanning
Rump et al. Photo‐realistic rendering of metallic car paint from image‐based measurements
Fechteler et al. Fast and high resolution 3D face scanning
Dellepiane et al. Flow-based local optimization for image-to-geometry projection
Genser et al. Camera array for multi-spectral imaging
Schmidt et al. Measurement of micro-bathymetry with a GOPRO underwater stereo camera pair
Klaudiny et al. High-detail 3D capture and non-sequential alignment of facial performance
Palma et al. A statistical method for svbrdf approximation from video sequences in general lighting conditions
JP6285686B2 (en) Parallax image generation device
CN115242934A (en) Noise phagocytosis ghost imaging with depth information
JP2004280776A (en) Method for determining shape of object in image
JP5059503B2 (en) Image composition apparatus, image composition method, and image composition program
JP2018105792A (en) Cosmetic texture measuring method
JP4756148B2 (en) Gloss / color reproduction system, gloss / color reproduction program
JP2005049935A (en) Image separation method, and image processing method and device
Kim et al. Single-shot Layered Reflectance Separation Using a Polarized Light Field Camera.
Klasen et al. Using videogrammetry and 3D image reconstruction to identify crime suspects
JP2005092549A (en) Three-dimensional image processing method and device
JP2003168129A (en) Method, program, apparatus and system for three- dimensional image processing
Merzbach et al. High-Quality Multi-Spectral Reflectance Acquisition with X-Rite TAC7.
Umeda et al. Correction of color information of a 3d model using a range intensity image
JP2005149390A (en) Image processing method and device
Li et al. Color and gloss reproduction from multispectral images
Verni et al. Quantitative evaluation of the Reflectance Transformation Imaging and Normal Integration technique in profilometric application.

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061003