JP2017102896A - シーンにおける光源の反射率パラメータ及び位置を推定する方法及び装置 - Google Patents

シーンにおける光源の反射率パラメータ及び位置を推定する方法及び装置 Download PDF

Info

Publication number
JP2017102896A
JP2017102896A JP2016181195A JP2016181195A JP2017102896A JP 2017102896 A JP2017102896 A JP 2017102896A JP 2016181195 A JP2016181195 A JP 2016181195A JP 2016181195 A JP2016181195 A JP 2016181195A JP 2017102896 A JP2017102896 A JP 2017102896A
Authority
JP
Japan
Prior art keywords
light source
specular
intensity
profile
intensity profile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016181195A
Other languages
English (en)
Inventor
ロバート,フィリップ
Robert Philippe
ジッディ,サルマ
Jiddi Salma
ハドン,マチス
Hudon Matis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2017102896A publication Critical patent/JP2017102896A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/783Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/44Electric circuits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4738Diffuse reflection, e.g. also for testing fluids, fibrous materials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • G06T15/83Phong shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Electromagnetism (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Pathology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Generation (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】シーンの鏡面反射の光源の反射率パラメータ及び位置を推定する方法、装置及びしシステムを提供する。【解決手段】ピクセルベースの画像レジストレーションを含み、それによりシーケンスに亘る3次元シーン位置画像強度のプロファイルが推定され、プロファイルは、3次元位置及びピクセルの組に付属され、登録したシーケンスにおけるその強度を表示し、鏡面反射効果を明らかにする可変プロファイル及び拡散反射のみを明らかにする固定プロファイルを区別し、各可変プロファイルに関して拡散反射率が推定され、強度プロファイルから減算され、鏡面反射プロファイルが推定され、鏡面反射のパラメータが観察された各3次元点に関して推定され、鏡面反射効果に関する少なくとも1つの光源の位置が推定され、任意選択で、パラメータは、反復してリファインされ、色情報及び鏡面反射率パラメータが決定される。【選択図】図8

Description

本原理は、画像処理、より具体的には、シーンにおける少なくとも1つの光源の反射率パラメータ及び位置を推定する方法及び装置に関する。
通常は、画像処理は、画像のキャプチャーによる撮像素子上に記録された物体(object)の「外観(appearance、アピアランス)」に基づく。物体の外観は、物体の表面で反射した後、光源から光を受け取る撮像素子によって得られる。現在は、しかしながら、画像処理は、また拡張現実画像の処理を含み、そこでは、仮想物体である、コンピュータ生成グラフックス画像が、現実の画像の上に横たわる。
このような応用では、正確に予測し、予期される反射及び影をシーンに適用するために、シーンの物体表面の光源の特性及び反射特性を推定する必要がある。一旦光源の特性が分かれば、照明の位置及び反射特性を修正することも可能である。
シーンの光源特性及び反射特性を推定する現在の技術において、光源の取り込み画像、すなわち、光源の画像が必要である。ある場合には、そのような画像は、シーンのイメージングと連動して得られ、他の例では、光源の単独の画像が取り込まれなければならない。いずれにしても、シーンの光源特性及び反射特性を推定するには光源の画像の取り込みが必須である。
しかしながら、非常に有益なことは、光源の画像の取り込みの必要なしにシーンの光源特性及び反射特性を推定できることである。
本原理の実施形態は、シーンにおける少なくとも1つの光源の反射率パラメータ及び位置の推定を行う方法及び装置を提供することによって先行技術の欠如に取り組む。
本原理の一実施形態において、シーンにおける少なくとも1つの光源の反射率パラメータ及び位置を推定する方法は、シーンにおける複数の位置に関する強度プロファイルを決定することと、可変の強度プロファイルから固定の強度プロファイルを分離することと、可変の強度プロファイルを使用して拡散反射の反射率成分を推定することと、拡散反射成分から鏡面反射パラメータを導出することと、導出した鏡面反射パラメータから光源の向きを決定することと、少なくとも1つの決定された光源の向きを使用して少なくとも1つの光源の位置を推定することとを、含む。
本原理の別の実施形態において、シーンにおける少なくとも1つの光源の反射率パラメータ及び位置を推定する装置が、制御プログラムと、命令と、コンテンツと、及びデータを保存するように適合されたメモリと、制御プログラムと命令を実行するように適合されたプロセッサとを含む。制御プログラム及び命令の実行に応じて、プロセッサは、装置にシーンにおける複数の位置に関する強度プロファイルを決定し、可変の強度プロファイルから固定の強度プロファイルを分離し、可変強度プロファイルを使用して拡散反射の反射率成分を推定し、拡散反射の成分から鏡面反射のパラメータを導出し、導出した鏡面反射のパラメータから光源の向きを決定し、少なくとも1つの決定された光源の向きを使用して少なくとも1つの光源の位置を推定する。
本原理の教示は、添付図面を併用して、以下の詳細な説明を考慮することにより
図1は、表面上の特定の点を考慮した鏡面反射の正規化ベクトルの図式的な表現である。 図2は、鏡面反射の効果を包含する色/強度プロファイルの図式的な表現である。 図3は、本原理の実施形態に従ったフィルタリング後の図2の色/強度プロファイルの図式的な表現である。 図4は、本原理の実施形態に従った可変プロファイルから固定プロファイルを分離する方法のフロー図である。 図5は、本原理の実施形態に従った拡散反射成分から鏡面反射パラメータを導出する方法のフロー図である。 図6は、本原理の実施形態に従った点の法線ベクトル及び反射光ベクトルの図式的な表現である。 図7は、本原理の実施形態に従った光源の3D(3次元)位置の推定の図的記述である。 図8は、本原理の実施形態に従ったシーンにおける少なくとも1つの光源の位置を推定する方法のフロー図である。 図9は、本原理の実施形態に従った上述の微調整プロセスに従った光源の色と鏡面反射率パラメータを推定する方法のフロー図である。 図10は、本原理の実施形態に従ったRGBDシーケンスを使用してシーンにおける少なくとも1つの光源の反射率パラメータ及び位置を推定する装置の高レベルブロック図である。
本原理の実施形態は、RGBDシーケンスを使用してシーンにおける少なくとも1つの光源の反射率パラメータ及び位置を推定する方法及び装置を有利に提供する。本原理は、可変鏡面反射効果に関連する結果色変数(resultant color variables)の文脈内で主として説明されるが、本原理の特定の実施形態は本発明の範囲に制限するように扱われるべきではない。グレースケールデータと同様に色データにも本原理のコンセプトが有利であり得るということは、当業者によって認識され、本原理の教示により知らされる。
図に示されたいくつかの要素の機能は、専用のハードウェア及び適切なソフトウェアに関連するソフトウェアを実行する能力があるハードウェアの使用を介しても提供され得る。プロセッサにより提供される場合、機能は、単一の専用プロセッサにより、単一の共用プロセッサにより、又はいくつかは共用可能な複数の個別のプロセッサにより提供され得る。その上、「プロセッサ(processor)」又は「コントローラ(controller)」という語の明示的な使用は、ソフトウェアを実行する能力のあるハードウェアを排他的に参照すると解釈すべきではなく、制限無く、デジタルシグナルプロセッサ(「DSP」)ハードウェア、ソフトウェアを保存するリードオンリーメモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、及び不揮発性記憶装置を黙示的に含み得る。さらに、本発明の特定の例だけではなく本発明の原理、態様、及び実施形態を説明する本明細書におけるすべての表現は、本発明の構造的な及び機能的な均等物を包含することを意図する。加えて、そのような均等物は、将来開発される均等物(例えば、構造にかかわらず同じ機能を実行するように開発されたいかなる要素)だけでなく、現在知られている均等物も含む意図である。
それ故に、例えば、ここで示されたブロック図は、本発明の原理を具体化した実例となるシステム構成要素及び/又は回路の概念的な見方を説明することが当業者によって理解される。同様に、いずれのフローチャート、フロー図、状態遷移図、擬似コード等は、コンピュータ読取可能媒体中に実質的に表現され得る様々なプロセスを表し、そのようなコンピュータ又はプロセッサが明示的に示されていようがいまいが、コンピュータ又はプロセッサによって実行されることを理解されたい。
さらに、添付図面に示された構成するシステムの構成要素及び方法の幾つかは、ソフトウェアとして実装されることができ、システム構成要素又は処理機能ブロック間の実際の接続は、本原理がプログラムされる仕方に依存して異なり得る。ここでの教示を前提として、当業者は、本原理のこれら及び類似の実装又は構成を意図することができる。
明細書において、本原理の「一つの実施形態(one embodiment)」又は「一実施形態(an embodiment)」及び他のこれらの変形への参照は、本原理の少なくとも1つの実施形態に含まれる実施形態と関連して説明される特定の機能、構造、特徴等を意味する。したがって、明細書のいたるところで現れる表現「一つの実施形態において(in one embodiment)」又は「一実施形態において(in an embodiment)」及び他の変形の出現は、必ずしも全て同じ実施形態を参照している訳ではない。
手短に言えば、本原理のいくつかの実施形態に従って、例えばシーンにおける物体表面の拡散反射及び鏡面反射の反射率を推定し、シーンの鏡面反射率の光源の位置を推定する、方法、装置及びシステムが提供される。本原理の実施形態は、興味のあるシーンの前を移動するセンサー(例えば、キネクト(Kinect))からのRGBシーケンス及びデプスマップ(Depth map)の取得に基づいている。本原理の実施形態に従って、光源の検知及びそれらの位置の推定に専用の他のセンサーは必要ない。センサーは、興味があるシーンを観察するために使用され、光源を観察するためには使用されない。そのため、本発明の実施形態は、興味があるシーン中で観察される表面の反射率特性及び興味があるシーンを示すRGBフレーム及びデプスマップから光源を推定することができる。
本原理の1つの実施形態において、興味があるシーンにおける光源によって生成される可変鏡面反射効果が、シーンの光源の位置の推定に使用される。すなわち、シーンを検出するセンサーの移動、光源の位置、表面の方向、及びそれらの反射率特性に依存して、いくつかの表面の位置がフレームからフレームへ変化する色を表示する。このような情報を使用して、参照フレーム(reference frame)のピクセルの色/強度プロファイル(color/intensity profile)が形成される。プロファイルは、シーケンスに沿ってフレームからフレームへと対応する3次元位置の色又は強度の変化を表現する。すなわち、3次元点の投影の位置がフレームからフレームへと変化し、しかし、デプスマップは利用可能で、センサーの位置(sensor pose)は測定されるので、3次元位置はフレームからフレームへと追跡され、センサーフレームを介して観察される強度/色は、可変プロファイルを作るために測定される。本原理に従って、可変プロファイルの情報が、光源の位置及び対応する3次元位置(参照フレームのピクセル)の鏡面反射パラメータを推定するために使用される。
固有の画像分解は、画像をその反射率及び影(shading)の成分に分離することを意図する。反射率成分、Rは、照明環境に独立した表面位置の固有(intrinsic)の色、又はアルベド(albedo)を含む。一方、影の成分、Sは、影を含むいくつかの照明効果から構成される。
画像Iは、下記の式(1)に示されるように、これらの2つの成分の積と見なされる。
ここで、pは画像空間(image space)における点を示す。反射率は、拡散反射成分に制限されることに留意すべきである。したがって、そのような場合は、ありそうな鏡面反射の存在に関して、解決法はロバストでなければならない。
RGBDシーケンス(色+深度)を使用した反射率パラメータの既知の推定解法がある。このような解法では、時間フィルタリングは鏡面反射成分から拡散反射成分を黙示的に分離する傾向があり、しかし、その結果、鏡面反射効果は、影を有するシェーディングに単純に委ねられる。しかしながら、鏡面反射効果を特定し、分析するにはより精度が求められる。
さらに、固有の画像における分解は、鏡面反射率及び鏡面反射の照明画像の明示的な推定に拡張される。この場合、照明の特徴は、鏡面反射の照明画像を得る鏡面反射強度マップの分解を介して表現される。後の画像は、照明情報を含むが、鏡面反射表面に固有のデータも含む。このような解法は、3次元光源の位置を必要としない応用で使われ得るが、その位置を必要とする場合は、十分ではない。
さらにもっと、3次元シーンにおける物理現象を説明するいくつかの解法が提案されている。例えば、フォン(Phong)鏡面反射モデルは、下記の式(2)に従って、光沢のある(shiny)表面の鏡面反射と粗い表面の拡散反射の組合せとして、表面が光を反射する方法を説明する。
右辺の加算の第1の成分は、アンビエント照明に関連し、第2の成分は拡散反射照明(mでの総和が光源の数に適用される)を参照し、第3の成分は、鏡面反射照明を参照する。パラメータka、及びkは、それぞれアンビエント、拡散反射(アルベド)及び鏡面反射の反射係数である。パラメータαは「光沢度(shininess)」を参照し、すなわち、パラメータの値が大きければ大きい程、鏡のようになる。
図1は、表面の特定の点を考慮した鏡面反射の正規化ベクトルの図形表示を示す。すなわち、特定の表面の位置を考慮して、正規化ベクトル
(外1)
は、それぞれ、面法線、光源の向き、表面のこの点から取る光の完全に反射した光線の向き、及びセンサーの方を指す向きである。
(外2)

(外3)
及び
(外4)
は、下記の式(3)に従った関係で関連付けられる。
反射率マップ、Rは、向きパラメータ、
(外5)
と混同されるべきではない点に留意すべきである。
このようなモデルを使うために、物体表面の反射率パラメータ及び光源は、最初に推定される。光源は、シーンの中央に置かれたカメラからの光源の直接観察を介して、又は光源を反射する光プローブ(同様にシーンの中央に置かれた)の観察を介して、多くの場合、特定される。さらに、典型的にはステレオを介して光源の3次元位置を見つけるための少なくとも2つのカメラがあるはずである(そうしないと光源の単なる向きがシーンの特定の3次元点を介して特定される)。
既存の解法では、携帯型カメラを介して平らな鏡面反射表面のリアルタイム表面光照射野(light-field)キャプチャーが提案されてきた。拡散及び鏡面の反射成分は、プローブ又は追加のカメラの必要性なく回復される。実際には、携帯型移動カメラがいくつかの視野角の下で平らな(planar)物体の表面をキャプチャーする。所定の3次元点の複数の観察から、拡散反射成分が中央値(median value)として導出され、それから、鏡面反射値が観察された色から拡散反射値を引くことにより各観察から得られる。下記の式(4)として示されたフォンの式は、位置の鏡面反射成分
(外6)
を記述するために使用される。
観察された表面は、平らであることを意図する。パラメータk及びαは、表面に亘って一定である。さらに、光源は、離れている(反射光の向きは、表面に亘って一定であると仮定する)と仮定する。平らな表面の4D光照射野(鏡面反射成分に対応した)は、いくつかの観察(面上の2D位置及び観察の2D向き)から作られる。鏡面反射パラメータの推定はない。
他の従来の解法では、異なる物体からできたシーンが考慮される。このような解法では、RGBDキネクトセンサがシーンを観察するために使用され、魚眼カメラが光源をキャプチャーする。フォンモデルは、そして下記の式(5)に示されたように(アンビエント照明を使わずに)使用される。
各物体は、反射率パラメータ、すなわちk、k及びαの固有の組を有する。
これらのパラメータは、下記の式(6)を最小化するセグメンテーション後に別々に各物体に関して推定される。
上記式は、ピクセル強度及びそのフォンモデル分解(Phong model decomposition)の間のある物体のすべてのピクセルに亘って合計された、平方(二乗)誤差(square error)を表す。
本原理の実施形態に従って、拡散反射及び鏡面反射の表面反射率が既知のジオメトリ(geometry)を持つRGB画像シーケンスから推定される。ジオメトリは、以前に推定された、又はRGB+デプス(depth)センサー(例えば、キネクト(Kinect)センサー)経由でRGBフレームと共にデプスマップとして、オンラインでキャプチャーされ得る。静止3次元シーンにおいて、RGBDセンサーは、シーンをあちこち移動し、いくつかの視野角(view angle)でシーンが観察される。RGB及びデプスフレームのセットが、センサー軌跡に沿って取得される。シーンに付随するある座標系に関するカメラ位置が各フレームで利用できる。
3次元ジオメトリを使用して、面法線が計算され、任意の3次元視点からの物体による表面のオクルージョン(occlusion)が推定できる。シーンにおける表面の特定の点を仮定すると、ビデオシーケンスのフレームにおける対応画像点は、見つけることができ、可視(visible)か、遮蔽されている(occluded)か、又は視野外(out of filed)として分類され得る。したがって、入力ビデオシーケンスのフレームを考慮すれば、各ピクセルの色プロファイルを推定することが可能である(点が視点から可視である限りは)。1つの実施形態において、プロファイルは、視点の組を介してシーンにおける対応する3次元点の色の斬新的変化を説明する3重のカーブ(triple curve)を含む。特定のカーブは、各ピクセルに関して選択され得る。例えば、1つの実施例において、カーブは、「グリーン(green:緑)」カーブ又は色から輝度(luminance)への変換に使用される共通の式の1つに従って場合により重み付けされた3つの色成分の合計に対応する代わりとなるカーブであり得る。フォンの式を使って、プロファイルは、下記式(7)に従って説明され得る。
式(7)において、変数「t」は、画像添え字を参照する。静的なアンビエント(ambient)成分及び拡散反射成分は、パラメータ
(外7)
にグループ化される。鏡面反射成分において、パラメータk及びαは、位置Pに固有であり、時間的に一定である。ベクトル
(外8)
は、位置P及び光源mの両方に固有である。フレーム「t」における3次元位置Pの視点ベクトル、
(外9)
のみが、シーケンスに沿って変化し得る。したがって、プロファイルにおける変化は、鏡面反射効果における変化に関連する。3次元位置が視野(view)「t」において観察されない場合、値は「未定(undermined)」となり、処理されない。
参照画像と他の登録した画像のピクセルを介して観察されたシーンの3次元位置の反射率パラメータを推定するために、色/強度プロファイルが分析される。成功するには、シーンの視点が推定に関して利用できるいくつかの情報を十分に提供しなければならない。
各3次元位置に関して、もし色/強度プロファイルが可変であれば、3次元位置は、鏡面反射の表面に属する。一方、プロファイルは、下記の理由のうちの少なくとも1つのために一定であり得る。
・要点は、純粋に拡散反射であること(表面に光沢がある場合にそのような効果を出す光源にもかかわらず鏡面反射効果がないこと)
・要点は、鏡面反射効果を受けない(カメラの軌跡又は光源を遮蔽する物体の存在に沿って鏡面反射効果を作れる光源が無いこと)
・シーケンスすべてに亘る鏡面反射効果(短い軌跡及び広い光源による)
図2は、鏡面反射効果を包含する色/強度プロファイルの図式的な表示である。図2のカーブは、シーンの異なる視点の組の至る所での特定の表面点の3つのRGB色チャネルの合計の漸進的変化に対応している。横(水平)軸は、フレーム番号(frame number)に対応し、縦(垂直)軸は、3つのRGB色チャネルの合計に対応している。
本原理の実施形態に従う、可変色/強度プロファイルは、固定色/強度プロファイルから分離される。固定プロファイルから可変プロファイルをより良く分離するために、一連の前処理ステップが遂行される。最初に、各ピクセルに対して強度情報が不足しているフレームの数が決定される。フレーム総数の半分を超えるフレームに対して強度情報が不足している場合は、プロファイル情報は考慮されない。本原理の別の実施形態では、50%未満以外の他のパーセンテージが使用され得る。残りのプロファイルに対して、カーブを滑らかにし、より利用できる情報を取得するために、1次元ガウシアンフィルタ(1D Gaussian filter)が適用される。その次に、強度プロファイルに関して、最小値(minimum)、最大値(maximum)、平均(mean)、中央値(median)、分散(variance)及び標準偏差(standard deviation)の少なくとも1つを含む一連の統計情報が決定される。
図3は、本原理に従った上述のフィルタをかけた後の図2の色/強度プロファイルの図式的な表示である。図3において説明するように、図2のフィルタ後のプロファイルは、さらに識別可能な情報を有する滑らかなカーブを提供する。図3の情報を使用して、固定プロファイルとして又は可変プロファイルとしてのプロファイルを分類するために閾値が選択される。例えば、本原理の1つの実施形態及び図3のプロファイルを参照して、中央値と平均値の間の差の絶対値が、第1の閾値(例えば、Th1=10)より大きいか又は標準偏差が別の閾値(例えば、Th2=28)より大きいと分かる場合、プロファイルが可変のものであると認められる。これらの統計データ間の違いを顕著にする視点の組の間、ピクセルが鏡面反射照明の影響の下にあるという事実を閾値が説明することを考慮すべきである点に注目していただきたい。閾値より低い強度プロファイルは、固定プロファイルと認められる。本原理のいくつかの実施形態において、鏡面反射効果を有する全ての点を選択するように、閾値は選ばれる。それらは、例えば、学習段階(learning stage)又は最初の反復(first iteration)から選ばれる。過度の選択の場合は、誤って選択された点は、反復中に捨てることができる。
図4は、本原理の実施形態に従った可変プロファイルからの固定プロファイルの分離方法のフロー図を示す。図4の方法400は、N個の登録されたフレームに関する色/強度プロファイルが導出されるステップ402から始まる。上述の通り、本原理の一実施形態において、静的3次元シーンでは、RGBDセンサーがシーンをあちこち移動し、それによりシーンはいくつかの視野角の下で観察される。RGB及びデプスフレームの組が、センサーの軌跡に沿って取得される。方法400が、そして、ステップ404に進み得る。
ステップ404において、色/強度プロファイルが考慮されるべきか否かが決定される。上述の通り、本原理の1つの実施形態において、各ピクセルに関して、強度情報が不足しているフレームの数が決定される。全フレーム数の半分超で強度情報が不足している場合、プロファイル情報は、考慮されない。考慮されないプロファイル情報は、これ以上何もされない。考慮されるべき強度プロファイルに対して、方法400は、ステップ406へ進むことができる。
ステップ406において、考慮される色/強度プロファイルの編集物(compilation)にフィルタリング処理が適用される。上述の通り、本原理の1つの実施形態において、カーブを滑らかにするために考慮される色/強度プロファイルの編集物に起因するカーブを滑らかにするために、1次元ガウシアンフィルタが考慮されるべき色/強度プロファイルに適用される。方法400は、そして、ステップ408へ進むことができる。
ステップ408において、フィルタされた色/強度プロファイルの統計データが決定される。上述の通り、本原理の一実施形態において、強度プロファイルに関する最小値、最大値、平均、中央値、分散、標準偏差のうちの少なくとも1つを含む一連の統計情報を決定する。方法400は、次に、ステップ410へ進むことができる。
ステップ410において、プロファイルを固定プロファイルとして又は可変プロファイルとして分類するために閾値が選択される。上述の通り、本原理の1つの実施形態において、中央値と平均の間の差の絶対値が第1の閾値(例えば、Th1=10)より大きいと分かった場合、又は標準偏差が別の閾値(例えばTh2=28)より大きい場合には、プロファイルは可変のものであると判断される。方法400は、そして終了する。
可変プロファイルを持つピクセルに関して、光源が希薄である(sparse)と仮定すると、3次元点は、かなりの数の表示(view)において拡散反射のみよって観察される。
シーン解析から及び以前の結果に基づくと、各ピクセルの拡散反射率成分
(外10)
は、可変のフィルタしたプロファイルの最小値と等しくなる。そのため、拡散反射率に対する色成分の推定は、下記の通り回復される。
そして、下記の式(8)に従って、拡散反射成分推定
(外11)
から鏡面反射プロファイルを導出する。
光源が希薄であると認められ、点光源としてモデル化されると、たった1つの光源が、同時に鏡面反射効果を作り出す。移動カメラが、その軌跡に沿って所定の3次元点における鏡面反射効果を交差すると、位置のプロファイルがコブ(lobe)になる。しかし、軌跡が長いと、プロファイルは、1つの以上のコブを持ち得る。本原理に従って、コブは、コブの間の最小値で分離される。そして、1つのコブの存在において、プロファイルは、以下の式(9)によって説明される。

未知のパラメータは、光沢度α、光源の「鏡面(mirror)」向き
(外12)
、及び光強度を統合した鏡面反射率
(外13)
である。添え字mは、光源を特定する。各プロファイルの鏡面反射プロファイルを推定するために、最初にただ1つの光源しかないと仮定すると、鏡面反射パラメータは、下記の式(10)に従って推定される。
上記式(10)において、定数
(外14)
は、強度プロファイルの最大値に等しい。さらに、プロファイルが可能な最大値に達するという保証が無いので、推定は、以下の式(11)に従った推定プロセスにおいて追って改良される。
ピクセルが、プロファイルカーブの最大にあるとき、「鏡面(mirror)」反射が視点ベクトル、
(外15)
に対応し、下記の式(12)に従って決定され得る。
推定のための第3のパラメータは、「光沢度(shininess)」αpである(簡単のため、式で点Pを参照するpは、省かれている)。このパラメータは、各材料(material)に対して固有で、より滑らかでより鏡のような表面に対してより大きいことが知られている。数学的に言えば、より大きなαpは、カーブがより細い。本原理の1つの実施形態において、「光沢度」パラメータαpを推定するために、ネルダー・ミード探索(NMS:Nelder Mead Search)が最小化プロセスとして使用される。そのような実施形態では、直接探索法(direct search method)が使用され、その理由は、導関数が未知であり、上述の例では微分(derivation)又は連続性(continuity)が保証されない値の組が存在する非線形最適化問題を扱えるからである。この方法は、シンプレックスの概念を使用し、それは、n次元におけるn+1個の頂点の特定の多面体である。シンプレックスの例は、線における線セグメント、平面における三角形、3次元空間における4面体等を含む。直接サーチ法は、滑らかに変化する目的関数を持つn個の変数を有する問題の局所最適の近似である。
本原理の1つの実施形態において、上述の対象の最小化を解く目的関数は、下記の式(13)に従って表現される。
この式において、フレームt、
(外16)
における点Pの観察された鏡面反射の強度と式(10)のフォンモデルによる強度の間の誤差は、点Pの選択された鏡面反射プロファイルに亘って加算される。最小値を持つ目的関数、Fp(α)に関する光沢度パラメータ、αpは、最良の推定として保存される。
図5は、本原理の一実施形態に従って、上述の通り、拡散反射成分から鏡面反射パラメータを導出する方法のフロー図を示す。図5の方法500は、ステップ502で開始され、その間に鏡面反射光強度が推定される。例えば、上述の通り、本発明の1つの実施形態において、定数
(外17)
は、強度プロファイルの最大値に等しい。方法500は、次に、ステップ504に進むことができる。
ステップ504において、鏡面反射が推定される。これは上述の通りであり、本原理の1つの実施形態において、ピクセルがプロファイルカーブの最大値であるとき、「鏡面」反射(‘mirror’ reflection)が視点ベクトルに対応し、式(12)に従って決定される。方法500は、次に、ステップ506へ進むことができる。
ステップ506において、光沢度パラメータが推定される。これは、上述の通り、本原理の1つの実施形態において、「光沢度」パラメータαpを推定するために、ネルダー・ミード探索(NMS)が最小化プロセスとして使用される。方法500は、次に終了する。
上述の通りシーンの鏡面反射パラメータを推定すると、光源の向きが推定できる。すなわち、可変プロファイルを持つ各観察された3次元点、Pに関する「鏡面」反射ベクトル、
(外18)
は既知であるため、対応する光の向きは、下記の式(14)に従って計算することができる。
図6は、点、Pの法線及び反射光ベクトルの図形的表現を示す。図6に示され、上述の通り、3次元点、Pに関する「鏡面」反射ベクトル、
(外19)
が既知であるので、対応する光の向きは計算することができる。ずなわち、図6に示されるように、画像ピクセルに対応する3次元点に接続されている法線
(外20)
は、シーン(例えば、デプスフレーム)の利用可能なジオメトリから計算できる。
本原理の1つの実施形態において、光源の3次元位置を推定するためにネルダー・ミード探索法が下記検討事項と共に使用される。
・ベクトル
(外21)
は、光源の3次元位置を表現し、
・3次元点Pの座標のベクトル
(外22)
は、光源による鏡面反射に依存し
・各3次元点の光源の向き:
(外23)
上述の実施形態において、正規化の後、ベクトル
(外24)
及びベクトル
(外25)
の間のスカラー積の選択された3次元点に亘る合計を最大化するベクトル
(外26)
を推定することが目的である。これは、これらのベクトル間の角度の選択された3次元点に亘る合計を最小化することに等しい。本原理の1つの実施形態において、上述の最小化目標を解決する目的関数は、以下の式(15)に従って表される。
式(15)において、添え字、Nは、ベクトルが正規化されていることを表す。図7は、本原理の実施形態に従って、光源の3次元位置の推定の図的記述を示す。図7に示されるように、光源の3次元位置は、上述の通り、シーンの3点を使用して本原理の実施形態に従って、推定される。
図8は、本原理の実施形態に従ったシーンにおける少なくとも1つの光源の位置を推定する方法のフロー図を示す。方法800は、ステップ802で始まり、その間、シーンにおける複数の位置(location)の強度プロファイルが決定される。例えば、上述の通り、本原理の1つの実施形態において、RGBDセンサーがシーンをあちこち移動し、それによって、様々な視野角の下でシーンが観察される。RGB及びデプスフレームの組が、センサーの軌跡に沿って取得される。シーンに付随する所定の座標に関連したカメラ位置が各フレームにおいて利用できる。方法800は、次にステップ804へ進む。
ステップ804で、固定強度プロファイルは、可変強度プロファイルから分離される。例えば、上述の通り、本原理の1つの実施形態において、強度プロファイルを決定するために使用されるセンサーの各ピクセルに関して、強度情報が掛けているフレームの数が計算され、強度情報が掛けている閾値パーセントを越える強度プロファイルの強度情報は、考慮されない。その次に、残った強度プロファイルにフィルタが適用される。そして、少なくとも最小の強度値、最大の強度値、平均強度値、中央強度値、強度プロファイルの分散、強度プロファイルの標準偏差が決定され、強度プロファイルが可変プロファイル又は固定プロファイルであるか決定するために、少なくとも1つの強度プロファイルの決定された強度値に閾値が適用される。方法800は、次にステップ806に進む。
ステップ806で、拡散反射成分が可変強度プロファイルを使用して決定される。例えば、上述の通り、本原理の1つの実施形態において、拡散反射成分がそれぞれの可変強度プロファイルの最小強度値に等しいと考えられ、いくつかの実施形態において、拡散反射成分は、可変強度プロファイルの各色成分に関して推定される。方法800は、次にステップ808に進む。
ステップ808で、鏡面反射パラメータが拡散反射成分を使用して導出される。例えば、上述の通り、本原理の1つの実施形態において、鏡面反射光強度、鏡面反射ベクトル、及び光沢度成分のような鏡面反射パラメータは、光源の光向きベクトルの推定に関して導出される。方法800は、次にステップ810へ進む。
ステップ810において、光向きベクトルは、導出された鏡面反射パラメータから決定できる。方法800は、ステップ812へ進むことができる。
ステップ812で、少なくとも1つの光源の位置が、少なくとも決定された光向きベクトルを使用して推定される。例えば、上述の通り、本原理の1つの一実施形態において、光源の3次元位置が図7で上述のようにシーンにおける3つの点を使用して推定される。
方法800は、次に終了し得る。
任意選択として、本原理のいくつかの実施形態に従って、上記の決定された推定を改良することができる。具体的には、本原理の1つの実施形態において、このオプションは、可変プロファイルを有する各ピクセルPに関する要素
(外27)
、光源の色
(外28)
及びこれらのピクセルPの鏡面反射率
(外29)
の推定の改善につながる。すなわち、上述の通り、本原理のいくつかの実施形態において、光源3次元位置の推定は、最大強度値がプロファイルにおいて利用可能であるという仮定に基づいている。しかしながら、シーケンス獲得の間、プロファイルがその最大値に達するという補償はないので、改善ステップは、本原理の実施形態に従って、パラメータの推定を改善するために実施され得る。さらに具体的に言うと、カメラの座標システムにおける各点の位置及び光源位置の推定は、既知であるので、光向きベクトル
(外30)
は、更新することができ、その結果として、各位置、Pの「鏡面」反射ベクトル、
(外31)
は、以下の式(16)及び式(17)に従って、改善され得る。
上述の式(16)及び式(17)において、ベクトル
(外32)
は、
(外33)
として記載され、添え字Pは、特定の点、Pを参照するということに注意されたい。
フォンの反射モデルを使用して、
(外34)
は、以下の式(18)に従って導出することができる。

上記式(18)において、
(外35)
は、位置Pの鏡面反射プロファイルにおける選択された観察の数である。観察は、閾値を超える
(外36)
の値を持つもののみを選択することにより限定することができ、それにより、2つのベクトル間の角度が閾値より小さくなる。本原理の1つの実施形態によれば、
(外37)
に関する閾値は、コサイン30度になる。さらに、前提条件は、また、
(外38)
がゼロではないことである。そして、本原理の1つの実施形態において、0.1に設定された第2の閾値は、観察の選択に導入される。
本原理に従って、鏡面反射の反射率定数
(外39)
は、
(外40)
から導き出される。すなわち、同じ光源に対応するフィルタされた可変プロファイルの組を使用して、各3次元点、Pに影響を与える鏡面反射光源の色ベクトル、
(外41)
を決定することができる。さらに具体的には、鏡面反射光源の色ベクトル、
(外42)
は、最大強度及び最小強度に対応するベクトル間の差に等しい。平均色ベクトル
(外43)
は、鏡面反射色ベクトル
(外44)
の組から導き出せる。後者の組は、ベクトル、
(外45)
(最大強度に対応する)に対応するこれらのベクトルに制限され、
(外46)
は、飽和成分を持たないので(すなわち、全ての色成分が255未満)、この最大値は、ゼロの第1微分係数を持つ。
続いて、強度、
(外47)
は、3色成分の合計として、1つの実施形態において、光源色ベクトル、
(外48)
から導き出すことができ、鏡面反射率は、以下の式(19)に従って、各点、Pに関して導き出すことができる。
上述の通り、要素
(外49)
の値は、式(18)で上述のフォンの反射率モデルの式を使用して計算される。図9は、本原理の実施形態に従った上述の改良プロセスに従った光源色及び鏡面反射率パラメータを推定する方法のフロー図を示す。方法900は、ステップ902で始まり、その間、カメラの座標系における各点の位置及び光源位置の推定は既知であるので、光向きベクトル
(外50)
は更新される。方法900は、次にステップ904に進み得る。ステップ904において、各位置、Pに対する「鏡面」反射ベクトル、
(外51)
の値は、改善される。例えば、本原理の1つの実施形態において、上述の通り、鏡面反射ベクトルは、式(16)及び式(17)に従って改善される。方法900は、次に、ステップ906へ進み得る。ステップ906において、鏡面反射光強度は導出される。例えば、本原理の1つの実施形態において、上述の通り、鏡面反射光強度は、フォンの鏡面反射モデル及び式(18)の使用に従って導き出される。方法900は、次にステップ908へ進み得る。ステップ908において、各3次元点、Pに影響を与える鏡面反射光源の色ベクトル、
(外52)
が決定される。例えば、本原理の1つの実施形態において、上述の取り、鏡面反射光源の色ベクトル、
(外53)
は、最大及び最小の強度に対応するベクトル間の差に等しい。方法900は、次にステップ910に進み得る。ステップ910において、鏡面反射率が導出される。例えば、本原理の1つの実施形態において、上述の通り、鏡面反射率は、式(19)に従って、各点、Pに関して導出される。方法900は、次に終了し得る。
図10は、本原理の実施形態に従って、RGBDシーケンスを使用したシーンにおける少なくとも1つの光源の反射率パラメータ及び位置を推定する装置の高レベルブロック図を示す。図10の装置は、プロセッサ1010、及び制御プログラム、命令、ソフトウェア、ビデオコンテンツ、データ等を保存するためのメモリ1020を備える。プロセッサ1010は、電源、クロック回路、キャッシュメモリ等及びメモリ1020に保存されたソフトウェアルーチンの実行をアシストする回路のような従来のサポート回路1030と連携する。そのようなものとして、ソフトウェア処理としてここで検討された処理ステップのいくつかは、例えば、幾つかのステップを実行するプロセッサ1010と連携する回路として、ハードウェアの中に実装され得る。図10の装置は、装置と通信する幾つかの個別の機能構成要素間のインタフェースを形成する入力・出力回路1040も含む。図10の装置は、本原理に従った幾つかの制御機能を実行するようにプログラムされた汎用コンピュータとして示されているが、本発明は、例えば特定用途向け集積回路(ASIC)としてハードウェア中に実装されても良い。そのようなものとして、ここに説明された処理ステップは、ソフトウェア、ハードウェア又はその組み合わせとして均等に実行されると広く解釈されることを意図している。(説明に役に立ち、制限する意図ではなく)RGBDシーケンスを使用したシーンにおける少なくとも1つの光源の反射率パラメータ及び位置を推定する方法、装置、及びシステムの幾つかの実施形態を説明してきたが、修正及び変形は、上述の教示を踏まえて当業者によってなし得ることに留意されたい。したがって、変更は、発明の範囲内で開示された発明の特定の実施形態において可能である。上述は、本原理の幾つかの実施形態を対象にしているが、他の及びさらなる発明の実施形態が、それについての基本的な範囲から逸脱することなく考案され得る。

Claims (15)

  1. シーンにおいて少なくとも1つの光源の反射率パラメータ及び位置を推定する方法であって、前記方法は、
    前記シーンにおける複数の位置に関する強度プロファイルを決定し、
    可変強度プロファイルを使用して拡散反射率成分を推定し、
    前記拡散反射率成分から導出した鏡面反射パラメータから光源の向きを決定し、
    少なくとも1つの決定された光源の向きを使用して前記少なくとも1つの光源の位置を推定する、方法。
  2. 前記方法が、さらに可変強度プロファイルから固定強度プロファイルを分離することを含み、
    前記分離することが、
    前記強度プロファイルの少なくとも1つに関して、少なくとも最小強度値、最大強度値、平均強度値、中間強度値、前記強度プロファイルの分散、及び前記強度プロファイルの標準偏差を決定し、
    少なくとも1つの強度プロファイルの前記決定された強度値に閾値を適用することにより、強度プロファイルが可変プロファイルか又は固定プロファイルかを決定することを含む、請求項1に記載の方法。
  3. 前記閾値を適用することが、
    強度プロファイルの中央強度値及び平均強度値の間の差の絶対値が閾値より大きいか判定し、
    もし前記差の前記値が前記閾値より大きい場合、前記強度プロファイルは可変強度プロファイルと見なす、
    請求項2に記載の方法。
  4. 前記閾値を適用することが、
    強度プロファイルの標準偏差が閾値より大きいか判定し、
    前記標準偏差の前記値が、前記閾値より大きい場合、前記強度プロファイルは可変強度プロファイルと見なす、
    請求項2に記載の方法。
  5. 前記拡散反射率成分は、可変強度プロファイルのそれぞれの前記最小強度値に等しい、請求項1に記載の方法。
  6. 前記拡散反射率成分は、前記可変強度プロファイルの各色成分に関して推定される、請求項5に記載の方法。
  7. 前記鏡面反射パラメータは、鏡面反射光強度、鏡面反射ベクトル及び光沢度成分のうちの少なくとも1つを含む、請求項1に記載の方法。
  8. 前記鏡面反射光強度を導出するために、強度プロファイルのそれぞれの最大強度値が使用される、請求項7に記載の方法。
  9. 前記鏡面反射ベクトルは、最大鏡面反射光強度値を使用して導出され、且つ視点ベクトルと等しいと見なされる、請求項8に記載の方法。
  10. 前記光沢度成分は、最小化関数を既知の鏡面反射光強度及び鏡面反射値に適用し、
    前記光沢度成分の最良の推定として最小値を持つ前記関数の結果を使用して導出される、請求項7に記載の方法。
  11. 前記光源の向きが、鏡面反射ベクトル及び法線ベクトルを使用して決定される、請求項1に記載の方法。
  12. 前記光源の前記位置が、ベクトル
    (外54)
    間の角度の選択された3次元点に亘る前記合計を最小化することによって推定される、請求項1に記載の方法。
  13. 前記鏡面反射パラメータ及び前記光源の向きを更新し、色ベクトル及び鏡面反射率パラメータを決定することを含む、請求項1に記載の方法。
  14. シーンにおける少なくとも1つの光源の反射率パラメータ及び位置を推定する装置であって、前記装置は、
    制御プログラム、命令、コンテンツ及びデータを保存するように適応されたメモリと、
    前記制御プログラム及び前記命令を実行するように適応されたプロセッサであって、前記プロセッサは前記制御プログラムを実行すると、前記装置に、
    前記シーンにおける複数の位置に関する強度プロファイルを決定させ、
    前記可変強度プロファイルを使用して、拡散反射率成分を推定させ、
    前記拡散反射率成分から導出された鏡面反射パラメータから光源の向きを決定させ、
    少なくとも1つの決定された光源の向きにを使用して前記少なくとも1つの光源の位置を推定させる、装置。
  15. 前記光源の向きが鏡面反射ベクトル及び法線ベクトルを使用して決定される、請求項14に記載の装置。
JP2016181195A 2015-09-17 2016-09-16 シーンにおける光源の反射率パラメータ及び位置を推定する方法及び装置 Pending JP2017102896A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15306453.0A EP3144891A1 (en) 2015-09-17 2015-09-17 Method and apparatus for estimating reflectance parameters and a position of a light source in a scene
EP15306453.0 2015-09-17

Publications (1)

Publication Number Publication Date
JP2017102896A true JP2017102896A (ja) 2017-06-08

Family

ID=54293197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016181195A Pending JP2017102896A (ja) 2015-09-17 2016-09-16 シーンにおける光源の反射率パラメータ及び位置を推定する方法及び装置

Country Status (5)

Country Link
US (1) US10132912B2 (ja)
EP (2) EP3144891A1 (ja)
JP (1) JP2017102896A (ja)
KR (1) KR20170035798A (ja)
CN (1) CN107038748A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3057067B1 (en) * 2015-02-16 2017-08-23 Thomson Licensing Device and method for estimating a glossy part of radiation
EP3493155A1 (en) * 2017-12-01 2019-06-05 Thomson Licensing Surface color segmentation
CN108694736B (zh) * 2018-05-11 2020-03-03 腾讯科技(深圳)有限公司 图像处理方法、装置、服务器及计算机存储介质
JP2023091492A (ja) * 2021-12-20 2023-06-30 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2627607B2 (ja) 1993-06-16 1997-07-09 日本アイ・ビー・エム株式会社 ボリュームレンダリング方法
JP2007328460A (ja) 2006-06-06 2007-12-20 Sega Corp 画像生成プログラム
KR101342987B1 (ko) 2006-11-21 2013-12-18 톰슨 라이센싱 3d 이미지의 컬러 보정을 위한 방법 및 시스템
KR20110092027A (ko) 2010-02-08 2011-08-17 삼성전자주식회사 모델 학습 기반의 실시간 영상 모델링 장치 및 그 방법

Also Published As

Publication number Publication date
US20170082720A1 (en) 2017-03-23
EP3144893A1 (en) 2017-03-22
CN107038748A (zh) 2017-08-11
US10132912B2 (en) 2018-11-20
KR20170035798A (ko) 2017-03-31
EP3144891A1 (en) 2017-03-22
EP3144893B1 (en) 2018-06-06

Similar Documents

Publication Publication Date Title
CN110998659B (zh) 图像处理系统、图像处理方法、及程序
CN108701376B (zh) 三维图像的基于识别的对象分割
US10373380B2 (en) 3-dimensional scene analysis for augmented reality operations
JP6030617B2 (ja) 画像処理装置および画像処理方法
JP6356784B2 (ja) 拡張現実用のラジアンス伝達サンプリングのための装置および方法
US9600898B2 (en) Method and apparatus for separating foreground image, and computer-readable recording medium
Shen et al. Virtual mirror rendering with stationary rgb-d cameras and stored 3-d background
US9129435B2 (en) Method for creating 3-D models by stitching multiple partial 3-D models
US10254854B2 (en) Tracker for cursor navigation
JP5795384B2 (ja) 映像処理装置、照明処理装置及びその方法
WO2014045026A1 (en) Systems and methods for reducing noise in video streams
WO2011117069A1 (en) Method and arrangement for multi-camera calibration
JP2013545200A (ja) グローバル動きに基づく深度の推定
KR20190014105A (ko) 동적 가림 핸들링을 위한 시스템들 및 방법들
EP3144898A1 (en) Method and system for determination of intrinsic images from two dimensional images in a video sequence
JP2014530391A (ja) ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ
KR20120138741A (ko) 깊이 카메라 호환성
JP2017102896A (ja) シーンにおける光源の反射率パラメータ及び位置を推定する方法及び装置
Jiddi et al. Reflectance and illumination estimation for realistic augmentations of real scenes
WO2009151755A2 (en) Video processing
US20140168204A1 (en) Model based video projection
JP2022068316A (ja) 物体の3次元再構成のための初期対応割り当ての効率的なデータ処理のための方法及び装置
Boom et al. Interactive light source position estimation for augmented reality with an RGB‐D camera
EP3035242B1 (en) Method and electronic device for object tracking in a light-field capture
Chatterjee et al. Noise in structured-light stereo depth cameras: Modeling and its applications