JP5043023B2 - 画像処理方法および装置 - Google Patents

画像処理方法および装置 Download PDF

Info

Publication number
JP5043023B2
JP5043023B2 JP2008535107A JP2008535107A JP5043023B2 JP 5043023 B2 JP5043023 B2 JP 5043023B2 JP 2008535107 A JP2008535107 A JP 2008535107A JP 2008535107 A JP2008535107 A JP 2008535107A JP 5043023 B2 JP5043023 B2 JP 5043023B2
Authority
JP
Japan
Prior art keywords
data
images
image
determining
boundary point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008535107A
Other languages
English (en)
Other versions
JP2009512049A (ja
Inventor
ロベルト、チポッラ
パオロ、ファバロ
山 竜 士 船
ジョージ、フォギアティス
原 弘 道 柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cambridge Enterprise Ltd
Original Assignee
Cambridge Enterprise Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cambridge Enterprise Ltd filed Critical Cambridge Enterprise Ltd
Publication of JP2009512049A publication Critical patent/JP2009512049A/ja
Application granted granted Critical
Publication of JP5043023B2 publication Critical patent/JP5043023B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Input (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、一般に、画像処理方法、装置およびコンピュータプログラムコードに係り、特に、たとえば、照明された物体の3次元形状を再生するため個々の照明条件を決定するために画像の集合を特徴付けることに関係する。
複数の画像から任意の3次元形状の物体を再構成する問題は、特に、物体が非ランバート性であるとき、または、光沢があるときには難しい問題である。照明条件および物体反射率が既知であるとき、物体の幾何的性質を決定する作業は、一般に照度差ステレオと呼ばれる。ランバート物体は全方向に均等に反射し、非ランバート物体はこの条件を充足せず、このカテゴリーには顕著なハイライト部を伴う光沢物体が含まれる。ランバート物体と非ランバート物体の両方に役立つ技術が記載されている。
非ランバート物体の幾何的性質を計算する1つの公知の技術は、Aaron Hertzmann,Steven M.Seitz,“Shape and Materials by Example:A Photometric Stereo Approach”,CVPR,vol 01,p533,2003 2003に記載されている。この技術は、形状が決定されるべき物体と一緒に撮影されたシーンに含まれている見本物体を使用する。物体の見本は、公知形状(たとえば、球体)および同じ表面反射率を有し、論文中では球体および瓶形が同じ材料で塗装され、同様に照明されている。これは瓶形の表面上の点における法線の方向がこの点の反射率と球体上の対応する点とを照合することにより決定されることを可能にする。しかし、未知物体と同じ反射率をもつ見本物体を用意する必要性はこの方法を多くの状況で非実用的にする。
見本物体を必要としない別の技術は、“Recovering 3−D shape and reflectance from a small number of photographs”,ACM International Conference Proceeding Series; Vol 44,Proceedings of the 14th Burographics workshop on Rendering,Leuven,Belgium,Athinodoros S.Georghiades,p 230−240,2003に記載されている。
しかし、この技術は、光方向に関する情報を提供するハイライト部が物体表面に存在すること(すなわち、物体は非常に光沢性であるべきこと)に頼っている。このようなハイライト部の無い物体に適用されるとき、この方法は再構成された物体が実際より平坦に見えるというバスレリーフ曖昧性に陥る。
さらなる従来技術は、WO02/41249と、US6,590,669と、EP0358628Aと、EP0649709Aと、US6,590,521と、EP0810496Aと、Ravi Ramamoorthi,Pat Hanrahan,“A signal−processing framework for inverse rendering”,SIGGRAPH ’01,p 117−128,ACM Press,2001と、シルエットベースの再生とテクスチャマッピングに関するCarlos Hermandez−Estebanの業績について記載するウェブサイト論文http://www.eng.cam.ac.uk/news/stories/2005/digital_pygmalion/ (2005年8月1日)と、任意物体の未較正画像からプロファイルだけを使用して3Dモデルを生成する完全かつ実際的なシステムについて記載し、境界点の使用について言及するWong & Cippolla http://ieeexplore.ieee.org/iel5/83/28581/01278361.pdfと、Sato,J.Cipolla,R.Uncalibrated reconstruction of curved surfaces,Proceedings,8th British Machine Vision Confernence,Colchester (September 1997)、A.F.Clark編、2,689−698(BMVA,1997)と、たとえば、K.Kutulakos,S.Seitz,“A Theory of Shape by Space Carving”,Int’l J.Computer Vision,vol 38,ni 3,2000,p199−218のような「スペースカービング」に関するKutulakosの業績に見出される。
本発明によれば、物体の画像の集合を特徴付けるデータを決定する方法であって、複数の異なる位置から撮影された前記物体の第1の画像の集合からデータを入力するステップと、前記第1の画像の集合の前記データと前記画像が撮影された位置を画定するデータとから前記物体上の複数の境界点と前記境界点毎に境界点での物体の表面に対する法線の方向とを画定する境界点データを決定するステップと、実質的に同じ視点および異なる照明条件を有する前記物体の撮影された第2の画像の集合からデータを入力するステップと、前記第2の画像の集合に関する前記データおよび前記境界点データを使用して、物体反射率パラメータデータ(β)、および、前記第2の集合の中の画像毎に画像の照明方向および照明強度を画定するデータを含む照明データ(L)を含み、前記第2の画像の集合を特徴付けるデータを決定するステップと、を備える方法が提供される。
好ましい実施形態では、画像の集合を特徴付けるデータは、その後に、物体表面の幾何的性質を画定する幾何データを決定するために使用されるが、このデータは、方法の他の実施形態では、他の目的のため利用されることがある。
物体反射率パラメータデータは、好ましくは、物体の全体的な反射率パラメータを画定する複数個のパラメータ、たとえば、1個から10個のパラメータを含む。Wardモデル(G.Ward,“Measuring and Modelling an Isotropic Reflection”,SIGGRAPH,ページ256−272,1999)、または、Torrance−Sparrowモデル(K.E.TorranceとE.M.Sparrow,“Theory for Off−Specular Reflection from Roughened Surfaces”,J.Opt.Soc.Am,57; 1105−1114,1967)のような標準モデルのパラメータが利用されることもある。たとえば、一実施形態では、光沢度または表面粗さパラメータ(α)、拡散反射率係数(ρ)および鏡面反射率係数(ρ)の3個のパラメータが利用され、これら3個の数は物体全体に適用され、物体を特徴付ける。照明データは、典型的に、方向(たとえば、高度および方位)を画定する2個のパラメータおよび照明強度レベルを画定する3番目のパラメータの3個のパラメータを含む。方法の実施形態では、照明源は実質的に無限遠であると仮定される。この情報を用いて、最良適合物体形状が、たとえば、物体上のある既知点で、特に、境界点での実際の強度と予想強度との間の差に依存するコスト関数を最小化する形状を決定することにより、第2の画像の集合の画像データから決定され得る。第2の集合の中の画像の個数は利用された反射率モデル、たとえば、ランバート物体に部分的に依存し、原理的には(3方向に対応する)3個の画像が未知パラメータを解決するために十分であるが、実際には、4個が雑音除去のため望ましい。非ランバート物体では、より多くの画像、たとえば、約10個の画像が必要とされる。一般に、第2の集合の中の画像の個数は5から50の間である。
決定された境界点の個数は、典型的に、5ないし500であり、好ましくは、80ないし100である。一般的に言うと、境界点は、点と点を観察する2台のカメラの中心とによって画定される平面が物体と接する物体表面上の3次元の点を含む。境界点の詳細、および、関連したエピポーラ幾何の詳細は、参照によって全体が本明細書に組み込まれている、R.Cipolla,P.J.Giblin,Visual Motion of Curves and Surfaces,Cambridge University Press,1999; P.Giblin,F.Pollick,and J.Ryecroft,Recovery of an unknown axis of rotation from the profiles of a rotating surface,J.Opt.Soc.Am,11A:1976−1984,1994、および、D.Marr,Analysis of occluding contour,in Proc.Royal Soc.London,Volume 197,page441 475,1997に記載されている。
境界点データを決定する好ましい方法は画像のペアを使用し、各ペア中の第1の画像および第2の画像は対応する第1のカメラおよび第2のカメラによって撮影される。画像のペアの個数を増加させるため、第1のカメラによって撮影される各画像は、第2のカメラによって(異なる位置で)撮影される複数の画像と対にされ、以下同様である。これらの撮影画像は好ましくはその後に境界点を決定するのに備えてシルエット化される。境界点の決定は、好ましくは、(カメラ画像平面内で)それぞれのシルエットと接触する第1のカメラおよび第2のカメラの両方のカメラのそれぞれの第1の画像平面および第2の画像平面におけるエピポーラ線によって決定されるように、物体と接触するように仮想的なエピポーラ平面を移動させることを備える。カメラ中心をCおよびCと呼ぶと、エピポーラ平面はCとCを結ぶ線を含み、この線が各カメラの画像平面内のエピポーラ線を画定する。エピポーラ平面の移動は各画像平面内でエピポーラ線を移動させ、エピポーラ平面は、これらのエピポーラ線がそれらの2つの画像平面内でそれらの対応するシルエットに接触するまで移動させられ、この点で(仮想的な)エピポーラ平面は接線に沿って物体と接触し、この平面に対する法線がこのとき、平面が物体に接触する点における物体に対する法線を画定する。このようにして、3次元空間内の点と、この点での物体表面に対する法線を画定する方向とを備える境界点が決定される。
第1の画像の集合は、たとえば、ストロボ撮影を含む、ほぼあらゆるタイプの照明条件下で決定され得る。(正確な位置は画像のペア毎に変化するとしても)ほぼ同じ位置にあるカメラ位置を仮定すると、境界点の集合は、物体の一方側に存在するように一般的に画定される。第2の画像の集合を撮影するカメラは、したがって、物体のこの一方側をほぼ向くように位置決めされ、このようにして、第2の画像の集合のそれぞれは複数の点を含むことが可能である(ただし、方法の他の実施形態では、他の技術が利用されることもある)。比較的低解像度のカメラが境界点データを決定するため利用されることがあるが、好ましくは、高解像度カメラが第2の画像の集合を撮影するため使用される。第2の画像の集合の間での照明の変化は、たとえば、画像が収集されるときに単に光源を揺らすことによって手動で実現され、または、半自動的若しくは全自動的に実現されることがある。
一般的に言うと、境界点は、物体の形状の(凸状部分の)粗い表現を提供する。この情報は、可変照明条件下で獲得された2次元画像の集合が与えられた場合に、(3次元において)最良適合物体表面を決定する問題を扱いやすくするために利用されることがある。実際上、後述されているように、3次元物体表面の法線またはニードルマップ(「はりねずみ」タイプの表現)が最初に決定され、次に、3次元表面を再生するために(様々な標準的な技術の何れかを用いて)「積分」される。
方法の好ましい実施形態では、画像の集合を特徴付けるデータの決定は、第2の画像の集合の各画像への(境界点データによって画定された)境界点の投影位置を(第2の画像の集合の各画像におけるこれらの境界点の場所を特定するために)決定することと、次に、これらの投影位置のそれぞれで(たとえば、画素レベル、振幅、または、色データによって画定される)画像強度データを決定することと、次に、これらの投影位置および投影位置における画像強度データに応じてデータを特徴付ける画像の集合を決定することとを含む。より詳細には、これは、仮定された物体反射率パラメータデータおよび仮定された照明データを含むデータを特徴付ける画像の集合を仮定し(すなわち、物体反射率および照明を仮定し)、次に、少なくとも境界点位置において、仮定されたデータから予測データを決定し、次に、予測された画像データと実際の(第2の集合の)画像データとの間の差異を最小化することによって行われる。この差異は、少なくとも境界点に関して合計された差異を含むコスト関数によって画定されることもある。換言すると、一般的には、照明および物体反射率が仮定され、境界点における最良適合を獲得するために調節される。
物体反射率および照明が決定されると、物体形状の決定が今度は物体反射率および照明データを仮定して形状を実際の画像に当てはめることにより実質的に従来の手法で実行され得るので、境界点情報は廃棄されてもよい。しかし、実際には、境界点は(少なくともある程度の精度で)物体表面上の既知点を表現するので、これらの境界点は、3次元における最良適合物体表面の探索を初期化するために使用されることがある。
物体の表面の幾何データの決定は、好ましくは、照度差ステレオ幾何的性質決定手順によって行われる。画像の集合の各画素は実質的に独立に取り扱われ、したがって、幾何データの決定は(直列に、若しくは、並列に、または、直列と並列のある組み合わせで)画素単位で行われることがある。換言すると、たとえば、第2の画像の集合の各画像の第1の画素は実質的に同じ空間的場所に対応するので(第2の画像の集合は実質的に同じ視点から撮影されているので)、幾何的性質決定手順は、前に決定された画像の集合を特徴付けるデータを仮定して、第2の集合の各画像から1つずつの画素値の集合に対して物体の表面法線の最良適合を実行する。好ましくは、第2の集合の画像の画像エリア全体が処理されるが、任意的には、物体を収容することが予測または決定された画像の部分だけが処理される必要がある。かくして、この方法の中間出力は、第2の集合の中の画像の画素毎に、したがって、第2の集合の各画像の画素毎に、表面法線方向からなるマップを備える。表面法線データは、積分によって明示的に3次元表面幾何的性質を決定するために利用されることがある。たとえば、R.Basri and D.Jacobs,“Photometric Stereo with General,Unknown Lighting”,Proc.Computer Vision and Pattern Recognition Conf.,pp.374−381,2001を参照のこと。
方法の実施形態が物体の形状を再生するためにどのように利用されるかを説明したが、方法の変形例が光フィールドまたは照明マップを再構成するために利用されることがある。本変形例では、第2の画像の集合は、異なる視点からの、しかも、異なる照明を有する画像を含む。原理的に、同じ画像が第1の画像の集合と第2の画像の集合の両方のため利用され、すなわち、境界点は、光フィールドまたは照明を決定するために後で使用される同じ画像の集合から決定される。光フィールドの複雑さに依存して、典型的に10〜100個の画像が必要とされる。
したがって、関連した態様では、本発明は物体の画像の集合を特徴付けるデータを決定する方法であって、複数の異なる位置から撮影された前記物体の第1の画像の集合からデータを入力するステップと、前記第1の画像の集合に関する前記データおよび前記画像撮影位置を画定するデータから、前記物体上の複数の境界点と、前記境界点毎に境界点での物体の表面に対する法線の方向とを画定する境界点データを決定するステップと、異なる視点および照明条件を有する前記物体の第2の撮影画像の集合からデータを入力するステップと、前記第2の画像の集合に関する前記データおよび前記境界点データを使用して、物体反射率パラメータデータ(β)と、前記第2の画像の集合の全部の画像に関する共通照明強度角度分布を画定するデータを備える照明データとを含む、前記第2の画像の集合を特徴付けるデータを決定するステップと、を備える方法を提供する。
一般的に言うと、方法の実施形態によって決定される照明データは、物体の3次元表面を再構成するため使用されるパラメータより多くのパラメータを有し、強度角度分布を画定する。しかし、この強度角度分布は、完全な(第2の)画像の集合に関する強度角度分布と実質的に同じであり、この場合も、この分布は、画像内の1個または複数の物体上の境界点における予測された強度データと実際の強度データとの間で合計された差異に依存してコスト関数を最小化することによって決定されることがある。照明マップは、比較的粗く、たとえば、2個、3個または数個の光源(強度および方向)を指定するだけであり、または、より複雑な強度角度分布が決定され、この場合により多くの画像が雑音除去のため必要とされる。この技術は、たとえば、フィルムシーケンスからの画像の集合における照明の強度角度分布を画定する照明マップを決定するために使用される。
本発明は、特に、ディスク、CD−ROM若しくはDVD−ROM、読み出し専用メモリ(ファームウェア)のようなプログラムされたメモリのようなデータ担体上に、または、光信号担体若しくは電気信号担体のようなデータ担体上に上記のシステムおよび方法を実施するプロセッサ制御コードをさらに提供する。本発明の実施形態を実施するコード(および/またはデータ)は、Cのような従来のプログラミング言語(インタープリター型またはコンパイル型)におけるソースコード、オブジェクトコード、若しくは、実行可能コード、アセンブリコード、ASIC(特定用途向け集積回路)若しくはFPGA(フィールドプログラマブルゲートアレイ)をセットアップ若しくは制御するコード、または、Verilog(商標)若しくはVHDL(超高速集積回路ハードウェア記述言語)のようなハードウェア記述言語のためのコードを含む。当業者が認識するように、このようなコードおよび/またはデータは、相互に通信する複数台の連結されたコンポーネントの間で分配されることもある。
さらなる態様では、本発明は、たとえば、上述されているようなプロセッサ制御コードを伝達する担体を含めて、上記の方法を実施する手段を含む装置を提供する。
したがって、さらなる態様では、本発明は、物体の画像の集合を特徴付けるデータを決定するシステムであって、複数の異なる位置から撮影された前記物体の第1の画像の集合からのデータと、実質的に同じ視点および異なる照明条件を有する前記物体の第2の撮影された画像の集合からのデータとを入力する入力と、処理されるべきデータを記憶するデータメモリと、プロセッサ制御コードを記憶するプログラムメモリと、前記入力、データメモリおよびプログラムメモリに結合され、前記第1の画像の集合に関する前記データおよび前記画像撮影位置を画定するデータから、前記物体上の複数の境界点と前記境界点毎に境界点における物体の表面に対する法線の方向とを画定する境界点データを決定し、前記第2の画像の集合に関する前記データおよび前記境界点データを使用して、物体反射率パラメータデータ(β)と、前記第2の集合中の画像毎にこの画像の照明方向および照明強度を画定するデータを含む照明データ(L)とを備える前記第2の画像の集合を特徴付けるデータを決定するために、プロセッサを制御するコードを含む前記記憶されたコードをロードし実施するプロセッサと、を備えるシステムを提供する。
好ましい実施形態では、方法は物体の3次元表面を画定する幾何データを決定するコードを含む。好ましくは、装置は、第1の画像の集合に関して画像を撮影するために、少なくとも1台、好ましくは、2台のカメラを制御する少なくとも1台のカメラコントローラと、第1の画像の集合および第2の画像の集合の両方のための画像を撮影する画像撮影システムとを含む。コードは、したがって、カメラコントローラを制御し、第1の画像の集合および第2の画像の集合のための画像を撮影するコードを含むことがある。システムは画像撮影を制御するために押しボタンを含むことがある。照明変動は、たとえば、1台以上の照明源を制御するために照明コントローラを使用して手動および/または自動で行われてもよい。カメラおよび/または照明は、骨組みに設けられるが、好ましくは、使用の柔軟性のため、画像撮影カメラのペアはそれぞれの架台部(三脚)に設けられることがあり、各架台部は、上記画像を撮影するためにカメラコントローラにより制御されるそれぞれの位置(高さ)調節システムを伴う。第2の画像の集合を撮影するカメラは、同様に固定位置に設けられてもよく、たとえば、架台部または三脚に取り付けられることがある。
本発明はさらに、車両自体が移動することを可能にする移動機能を含む車両であって、点からの車両の相対位置を決定するシステムと、画像を撮影する少なくとも1台のカメラと、車両を移動させることにより前記カメラによって撮影された画像から1個以上の物体の形状を再構成し、それによって、前記1個以上の物体によって占領されていないエリアを検出するために前記相対車両位置を利用するシステムと、をさらに含む車両を提供する。好ましくは、車両は日光の方向を決定するシステムをさらに備え、前記形状再構成システムは前記物体形状再構成の際に前記日光の方向へ構成されている。このようにして、車両は、それ自体で、車両を駐車するため車両の近くに駐車スペースを検出可能である。これは、運転手に見えるようにされてもよく、および/または、自動駐車のため使用されてもよい。よって、自動駐車システムもまた本発明の態様によって提供される。
本発明の上記態様およびその他の態様は、添付図面を参照して、ほんの一例として、さらに説明されている。
最初に手順の詳細な実施形態が説明され、次に実施される可能性のあるシステムの例が与えられる。説明されるシステムは、画像の集合から非ランバート物体の反射率および3次元形状を再生する問題を再生する問題と関係している。主要な課題は、空間内の同じ3次元点の投影である画像領域間の対応関係を確立するための方法である。ランバート物体の場合、画像領域の直接的な照合によって対応関係を解決することが可能であるが、非ランバートの場合、このような照合は、測定された強度が、たとえば、反射率の未知の鏡面成分に起因して、画像間で大幅に変化するので、不可能である。したがって、一般に、非ランバート表面の対応関係は確立されるが、物体の反射率および表面を、照明分布と一緒に再生することは、非常に不良設定であり、かつ、計算的に困難な問題である。
ここでの解決策は、このような厄介な最適化問題に挑戦することではなく、オクルージョンを利用することにより、より厳密には、境界点を利用することにより対応関係を確立することを提案する(1つずつが異なるカメラ視野から獲得された2つの画像を仮定すると、境界点は、(2台のカメラによって画定された)エピポーラ平面が物体の表面と接する3次元的な場所である。さらに、境界点における平面に対する法線はエピポーラ平面に対する法線と一致する)。オクルージョンは、照明または反射率特性の変化に対する耐性が他の視覚的な手掛かりより大きく、非ランバート物体に適していることに注意すべきである。画像強度を照合するのではなく、各画像領域から遮蔽境界を抽出し、次に、エピポーラ平面に位置する接線を有する2次元点を境界に沿って探索することにより、対応関係を自動的に決定することが可能である。この手順は、表面上の点(境界点)の3次元的な場所を再生するだけでなく、この点の対応する法線ベクトルを再生することを可能にする。したがって、境界点で機能することにより、形状が局所的に与えられるより簡単な問題を解法することが可能であり、ブラインド・デコンボリューション問題として提示する反射率および照明を再生することだけが残される。さらに、物体が同じ材料で作られているならば、境界点で再生された反射率および照明分布は、その後に、物体の完全な3次元形状を推定するために使用され得る。このスキームは、本発明者らが操作する一般的なシナリオにおいて非常に僅かな研究しか行われていない均一なアルベドのケースに適用される。
大規模な物体のクラスの反射率は、いわゆる双方向反射分布関数(BRDF)によって巧く近似される。この関数は、表面の各点Pにおいて、入射光方向の半球(θ,φ)と出射光方向の半球(θ,φ)との間のデカルト積を非負値に写像する関数β(θ,φ,θ,φ)として画定される(局所座標におけるBRDFが画定され、すなわち、物体の表面上の各点Pで基準系が画定され、表面に対する法線と平行なz軸が設定され、一方、x軸およびy軸は接平面に位置する)a。BRDFは入射光が表面上の点である方向に沿って反射される光の量を予測する。最も簡単なランバート物体の例では、BRDFは一定であり、すなわち、光は全方向へ均等に反射される。非ランバート物体の場合、BRDFはかなり複雑であり、多数のモデルが提案され、各モデルは多数のパラメータで記述されている。典型的な例は、Wardモデル、すなわち、
Figure 0005043023
であり、式中、hがベクトル(θ,φ)と(θ,φ)の二等分線であるならば、δはhとNとの間の角度であり、NはPにおける表面に対する法線である。このモデルは、3個の自由パラメータ、すなわち、ρ、ρおよびαを有する。このとき、画素pにおける放射照度、すなわち、画像平面上のPの投影は、
Figure 0005043023
によって与えられ、式中、画素pは局所方向(θ,φ)を画定する。Lは光分布であり、光分布は大域座標で画定されているので、Pにおける局所座標を大域座標に変換する回転Rを導入する必要がある。
上記の放射照度は、一般的に、すべてが未知である法線場Nを経由した物体の形状と、各点PでのBRDFと、大域照明Lとに依存することに注意すべきである。簡単にするために、同じ材料で作られている物体に焦点を合わせ、すなわち、BRDFは表面上の各点で同じであると仮定する。次のセクションでは、放射照度式のモデルを測定画像と照合することによりこれらの未知数を再生する問題が提示されている。
K個の異なる視点およびM個の異なる照明条件から取得された多数の画像L1,1、...,LK,Mが与えられていると仮定するならば、前のセクションで説明されているように、法線場Nと、3次元点と、BRDFと、光分布Lとを用いて特定することができるシーン内の物体の形状Sを再生することに関心が持たれる。この問題は、
Figure 0005043023
という最小化として提示されることがあり、式中、I(S,I)は、モデル(2)の省略表記であり、未知数に対するモデルの依存性が明示されている。Φは、Ik,mとI(S,L)との間の差異に相当する関数である。Φは、Ik,m=I(S,L)であり、かつ、この場合に限り零であり、それ以外の場合には、厳密に正であることが要求される。
未知数のうちの1つ、たとえば、物体の形状Sが与えられるならば、最小化タスク(3)は大幅に簡略化される。M=1である場合、すなわち、一定照明条件を仮定すると、最小化(3)は、古典的なブラインド・デコンボリューション問題として定型化され、βは畳み込みカーネルであり、Lは入力信号であることが容易に明らかにされる。同様に、βおよびLが与えられるならば、形状Sの再生が著しく簡略化される。
本方法はこの目的のために境界点を利用する。境界点はβおよびLを解くために使用され得るある種の部分的な形状情報を与えること、βおよびLが次に完全な形状Sを推定するために使用され得ることが明らかにされる。本解決策を提示する前に、境界点と、境界点が画像から自動的に抽出される方法とを簡単に紹介する必要がある。
同じ物体についての2つの異なる視点からの2個の画像が与えられたと仮定する。境界点は、物体と、物体に接するエピポーラ平面Tとの交点によって与えられる(複数の)点(のうちの1個)として画定される。(図9参照)このようにして、表面上の点Pと、この点での表面に対する法線Nとが同時に画定されることに注意すべきである。
境界点を取得するための代替的かつ実際的な方法は、物体の外形を観察することである。外形は物体上に位置する3次元曲線の画像平面への投影として画定され、この3次元曲線をカメラ中心と結ぶ線は物体に接する。2つの外形が与えられるならば、境界点Pは、以下の特性を同時に満たす空間内の場所として画定され得る。
・各カメラ上でのPの投影pは両方の外形上に位置している。
・境界点の投影における各外形の接線ベクトルは同じエピポーラ平面上に位置しなければならない。
本アルゴリズムでは、上記の2つの特性が満たされるときに限り最小化されるコスト関数を画定することにより境界点が見つけられる。物体の表面上の境界点の自動抽出のためのスキーム全体は次の通りである。(a)物体のある程度の個数の画像を取得する(姿勢および内部パラメータに関して較正済み)。(b)これらの画像内の物体の外形を抽出する。(c)抽出された外形上に位置し、かつ、上記特性を満たしているある程度の個数の境界点を計算する。
上述されているように、境界点は、物体上の点Pを画定するだけでなく、Pにおいて物体に対して垂直なベクトルNをも画定する。ここで、上述の手順に従うことによって再生されたペア(P,N)の集合が与えられたと仮定する。選択された境界点での強度を単一のベクトルIに集めるならば、形状が与えられているので、未知の光分布LおよびBRDF βに関して問題(3)を解法することが可能である。次に、M=1かつK>1、すなわち、固定照明および可変視点のケース、ならびに、M>1かつK=1、すなわち、可変照明および固定視点のケースの2つの別個の環境でこの問題が検討される。
ケースI:固定照明(M=1かつK>1)
ここでは、差異の測度として、カルバック・ライブラー擬似距離を選択し、すなわち、
Figure 0005043023
を設定すると、最適化問題(3)は、
Figure 0005043023
となる。
は式(2)から直接的に、
Figure 0005043023
のように導出される。
この問題をブラインド・デコンボリューションに適合させるため、(θ’,φ’)=RPk(θ,φ)となるように(θ,φ)上の座標を変更し、次に、h(θ’,φ’;θ,φ)=β(θ’,φ’;θ,φ)cosθ’sinθ’Δを設定し、ここで、Δは座標の変化のヤコビアンである。その結果として、
Figure 0005043023
が得られる。
[P.Favaro and S.Soatto,Shape and reflectance estimation from the information divergence of blurred images,In European Conference on Computer Vision,pages 755−768,June 2001]において利用され、Lの非負性を維持したまま選択されたΦを最小化することが可能である交互最小化スキームを動かすことにより、Lと、hのパラメータ(すなわち、BRDF βのパラメータ)とを推定することを選択する。このスキームは以下の反復により構成される。
1.BRDFのパラメータを固定し、ルーシー・リチャードソン反復法を使用してLを再生する(上記の引用文献を参照)。
2.光分布Lを固定し、勾配降下法によってhにおけるBRDFのパラメータを再生する。
このセクションに記載された技術を使用する複雑な照明環境の再生の例は図10に示されている。
図10は境界点を用いる一般的な光分布再生法を示している。(a)80個の境界点が球上に画定されているプラスチック球である。(b)左:球に写像されたこのシーンに関して再生された光場である。右:光源の図(2個の明るいスポット点)−2個の光分布ピークが推定場内でどのように保存されているかに注意すべきである。(c)球上の鏡面反射の拡大図である。各図に関して、実際の画像内の鏡面反射の後に、推定された光場およびBRDFを使用する同じ図の合成レンダリングが続けられている。鏡面反射の構造は正確に捉えられている。
ケースII:可変照明(M>1かつK=1)
今度は、K=1かつM>1を仮定する。これは典型的に、カメラ視点が固定され、一方、照明が画像撮影の間に変化する照度差ステレオにおいて起こる。最適化問題(3)は、
Figure 0005043023
になり、この光分布の表現は単一の移動点光源に限定され、すなわち、L(RP1(θ,φ))=λδ(θ−θ)δ(φ−φ)であることが仮定され、式中、δはディラックのデルタ関数である。したがって、直ちに、
Figure 0005043023
が得られる。
このケースでは、Lの非負性は自動的に保証されているので、カルバック・ライブラー疑似距離および対応する交互最小化スキームに頼る必要がない。簡単にするために、Φは単に測定された強度とモデル(9)により予想された強度の差異のLノルムとなるように選ばれ、すなわち、
Φ(I,J)=(I−J
である。
問題(8)を解くために、未知数の空間は非常に狭いので(実際上、BRDF βのための4個のパラメータ、および、照明のための3M個のパラメータ)、勾配降下法または標準的な非線形最適化法を実行する。非線形最適化法の一例として、Matlab(登録商標)におけるlsqnolinの実施が挙げられる。本セクションに記載された技術の例は図11に与えられている。
図11は、境界点を使用する磁器製置物の再構成の例を示している。(a)左から右へ:輪郭が抽出された置物の画像である。境界点が置物の小さな凸状領域に画定されている。(b)光源が変化する3個の入力画像である。(c)同じ照明下で合成的に描写された、同じ材料で作られた例示的な球の隣の本物の置物の画像の2組のペアである。例示的な球を合成的に描写するため、推定された照明およびBRDFパラメータが使用されている。(d)磁器製物体の3次元再構成物の正面、側面、および、上面からの3個の画像である。
図1〜5と図8は、発明の実施形態を実施するフローチャートを示している。
図1を参照すると、画像を撮影し、境界点を決定する手順のフローチャートが示されている。図1におけるステップは次の通りである。
ステップ1−(適切な照明を使用して)複数の異なる方向から物体の画像の集合を撮影する。
ステップ2−2台のカメラを使用し、たとえば、各カメラを用いて10個の画像を撮影し、画像毎にカメラ位置を記録する。
ステップ3−画像毎にシルエットを生成し、たとえば、1ペア=各カメラからの1個の画像として、100組の画像ペアを生成する。
ステップ4−たとえば、100個の境界点を計算する。境界点は、X、Y、Z+法線方向(φ、θ)である。
図2を参照すると、境界点の場所を決定する手順が示されている。図2のステップは次の通りである。
ステップ1−カメラ位置c1、c2に対し、c1、c2の両方の画像平面内のエピポーラ線が物体シルエット(すなわち、物体画像の接線)に接触するまでエピポーラ平面を動かす。
ステップ2−(線がx、y、zと交わる)境界点の場所を決定するために、それぞれのカメラ画像平面内で接点を通るカメラ中心から三角測量する。平面の法線は境界点が法線である。
図3を参照すると、データ集合毎に、(たとえば、標準的なデジタルカメラからの)照明方向および強度を個々に備える画像(「強度画像」)の集合と、強度が関連付けられている境界点の集合とを決定し、物体毎に、反射率パラメータの集合を決定する手順が示され、画像の集合において、
1)画像撮影カメラの視点は同一(すなわち、視点一定)であり、
2)照明は変化する。
ステップ1−物体を照明する。
ステップ2−画像を撮影(かつ記憶)する。
ステップ3−照明を変える。
ステップ4−n回繰り返す。但し、5<n<50。
図4を参照すると、図3の手順によって撮影された画像から照明パラメータおよび物体反射パラメータを決定する手順のフローチャートが示されている。
ステップは次の通りである。
ステップ1−(全画像に対し同じ)画像平面内で境界点の場所(投影)を決定する。
ステップ2−画像毎に
ステップ3−境界点の場所の画像強度を境界点強度データ構造体(ベクトル)に書き込む。
ステップ4−各画像L;全てに対するβを特徴付けるために境界点データを使用する。
ステップ5−画像毎の照明データ(L:{θ,φ,強度})および(全てに対して同一の)物体反射率βを決定するために、境界点強度データ(構造体)を使用する。
ステップ6−仮定されたL;βから予測された境界点強度データと、実際の境界点強度データとの間の合計された差異に依存してコスト関数を決定し、L;βを決定するためにコスト関数を最小化する。
ステップ7−画像毎のLと物体反射率パラメータ(β)
図5は、図4の手順によって提供されたデータから物体幾何的性質を決定し、幾何的性質によって画像毎に予測された画像強度と、(境界点強度データから決定された)画像毎のLおよびβによって画像毎に予測された画像強度との間の合計差異が最小化される物体幾何的性質を決定する手順(「照度差ステレオ法」)を示している。
ステップは次の通りである。
ステップ1−画素毎に以下を実行する。
ステップ2−幾何的性質によって画像毎に予測された画像強度と、(境界点強度データから決定された)画像毎のLおよびβによって画素毎に予測された画像強度との間の合計差異を画素に関して最小化することにより画素の表面法線方向を決定し、ここで、決定されるべき幾何的性質は(ニードルマップを提供するために)表面法線である。
ステップ3−積分定数(空間内の絶対的な物体の場所)を固定するため境界点の場所を使用して、表面幾何的性質を決定するために法線(ニードル)マップを積分する(たとえば、固定された境界点を用いて初期化された奥行き値の展開)。
ステップ4−表面画定データを出力および/または記憶する。
図6は本発明の一態様を具現化する画像処理システムのブロック図を示している。本システムは、任意にはフロッピーディスクによって例示的に表されている取り外し可能な記憶媒体に設けられている記憶されているプログラムコードを含み、コードは、画像撮影コードと、シルエット抽出(セグメンテーション)コードと、境界点決定コードと、画像照明および物体反射特徴化コードと、物体表面法線決定コードと、非線形最適化コード(たとえば、勾配降下法)と、法線マップ積分コードと、ユーザインターフェイスコードと、カメラ位置制御コードと、オペレーティングシステムコードとを備えている。
図7は本発明の一態様を具現化する画像撮影処理システムのブロック図を示している。
図8は固定された照明変形手順(上述のケースI)を実施するフローチャートを示している。ステップは次の通りである。
ステップ1−異なる視点(たとえば、10<n<100)から照明物体の画像の集合を入力する。
ステップ2−画像毎に、画像平面内の境界点の投影を決定し、データ構造体に書き込む。
ステップ3−予測された境界点と実際の境界点との間の合計差異と、仮定されたβおよび角度分布(L)から導出された予測境界点データとに依存して、コスト関数を最小化することにより(画像の集合に対し一定である)強度角度分布−「照明マップ」−を指定する照明データを決定する。
図12を参照すると、上記システムの実施形態を使用する自動駐車システムが示されている。
一般的に言うと、本明細書に記載されている技術の実施形態は、最初に境界点データを決定し、次に物体反射率と、集合の画像毎の照明データとを決定するために画像の集合を特徴付けることにより、物体の3次元表現の構成を可能にさせ、この情報はその後に画像化された物体の表面の幾何的性質を決定するために使用されることに注意を要する。境界点データを決定するために、2個の異なる位置から撮影された画像は、物体上の境界点を決定するために、シルエット化され、処理され、その後に、好ましくは、おおよそ物体上の境界点の方に向けて、さらなる画像が撮影される。
図12のシステムでは、1台以上のカメラ(1202)は、境界点を決定し、物体表面幾何的性質を決定するためにも使用される画像を撮影するために移動車両(1200)上に設置されている。車両は、図12(a)において、(処理のための)起点からの車両の相対位置の決定を可能にするシステムが装備されている。このシステムは、たとえば、ステアリング角度計、走行距離計、または、代替的に、ジャイロスコープ位置決定システムのようなその他の機器を備えることがある。これは、ある程度の個数の異なる位置(図12の位置(a)、(b)、(c))で画像が撮影されることを可能にし、これらの位置の場所は、上述された技術で使用するため少なくとも互いに対して既知である。
好ましくは、車両は、緯度および経度を測定し、日時を決定するクロックを提供するGPS(全地球測位システム)のようなシステムをさらに装備している。これは、日光の方向を決めることを可能にし、上記技術の実施を容易化する。より詳細には、照明が未知であり、物体反射率を決定するために変化させられる技術について記載したが、照明方向が既知であるならば、物体反射率は照明を変化させることを要することなく決定され得る。しかし、代替的に、このシステムは、省略されるか、または、使用されずに、照明条件の自然変動が利用されることもある。
自動駐車システムは、(カメラ付きの車両が位置を変えながら画像を撮影し、さらに、いかなる点においても相対位置を決定することが可能であるため)このようにして、既知位置で、この情報を用いて、任意には、日光の方向を用いて、画像を撮影することが可能であり、周囲の物体、特に、近くに駐車されている車両(1204)の形状を再構成することが可能である。これらの車両の形状を知ることにより、目標駐車スペース(1206)の形状を決定することが可能であり、したがって、従来の自動ステアリング/駐車システムが車両をこのスペースに駐車するために使用され得る。
おそらく、当業者は多数のその他の効果的な代替案を想起する。本発明は記載されている実施形態に限定されることがなく、本明細書に添付された特許請求の範囲の精神および範囲に含まれ当業者に明らかである変形例を包含することが理解される。
画像を撮影し境界点の集合を決定する手順のフローチャートを示す図である。 境界点場所を決定する手順を示す図である。 処理のための画像を撮影する手順のフローチャートを示す図である。 図3の手順によって撮影された画像から照明パラメータおよび物体反射パラメータを決定する手順のフローチャートを示す図である。 図4の手順によって提供されたデータから物体幾何的性質を決定する手順を示す図である。 本発明の態様を具現化する画像処理システムのブロック図を示している。 本発明の態様を具現化する画像撮影および処理システムのブロック図である。 画像の集合から照明データを決定する手順のフローチャートである。 境界点幾何的性質を示す図である。 境界点を使用する一般的な光分布再生の例を示す図である。 境界点を使用する磁器製置物の再構成の例を示す図である。 本発明の実施形態を使用する自動駐車システムを示す図である。

Claims (16)

  1. 物体の画像の集合を特徴付けるデータを決定する方法であって、
    複数の異なる位置から撮影された前記物体の第1の画像の集合からデータを入力するステップと、
    前記第1の画像の集合の前記データと前記画像が撮影された位置を画定するデータとから、前記物体上の複数の境界点と前記境界点毎に前記境界点での前記物体の表面に対する法線の方向とを画定する境界点データを決定するステップと、
    実質的に同じ視点および異なる照明条件を有する前記物体の撮影された第2の画像の集合からデータを入力するステップと、
    前記第2の画像の集合に関する前記データおよび前記境界点データを使用して、物体反射率パラメータデータ(β)と前記第2の集合の中の画像毎にこの画像の照明方向および照明強度を画定するデータを備える照明データ(L)とを含み、前記第2の画像の集合を特徴付けるデータを決定するステップと、
    を備える方法。
  2. 前記境界点データを決定するステップが前記第1の画像の集合の中の画像のペアを使用し、前記ペア中の2個の画像がそれぞれ第1のカメラおよび第2のカメラによって撮影される、請求項1に記載の方法。
  3. 第1の位置で前記第1のカメラによって撮影された画像を、複数の異なる第2の位置で前記第2のカメラによって撮影された複数の画像とペア化することにより、複数の前記画像のペアを生成するステップをさらに備える、請求項2に記載の方法。
  4. 前記境界点を決定するステップが前記第1の画像の集合の画像毎にシルエットデータシルエットを決定し、前記シルエットデータを使用して前記境界点データを決定することを含む、請求項1〜3のいずれか一項に記載の方法。
  5. 前記画像の集合を特徴付けるデータを決定するステップが、
    前記境界点データによって画定された前記境界点が前記第2の画像の集合の中の画像に投影される位置を決定するステップと、
    前記投影された位置の1つずつで画像強度データを決定するステップと、
    前記投影された位置および前記投影された位置における前記画像強度データに応じて前記画像の集合を特徴付けるデータを決定するステップと、
    をさらに備える、請求項1〜4のいずれか一項に記載の方法。
  6. 前記画像の集合を特徴付けるデータを決定するステップが、
    前記第2の画像の集合の中の画像に対する仮定された物体反射率パラメータおよび仮定された照明データを含む仮定された画像の集合を特徴付けるデータを決定するステップと、
    前記仮定された画像の集合を特徴付けるデータおよび前記境界データから、前記第2の画像の集合の中の前記画像に対し、前記第2の画像の集合の中の前記画像への前記境界点の投影における予測された画像値を画定する予測された第2の画像の集合を決定するステップと、
    前記予測された第2の画像の集合のデータおよび前記第2の画像の集合の前記データとの間の合計差異に依存してコスト関数を最小化するステップと、
    をさらに備える、請求項1〜5のいずれか一項に記載の方法。
  7. 前記画像の集合を特徴付けるデータを使用して前記物体の表面の幾何的性質を画定する幾何データを決定するステップをさらに備える、請求項1〜6のいずれか一項に記載の方法。
  8. 前記幾何データを決定するステップが照度差ステレオ法の幾何的性質決定手順を用いて前記幾何データを決定するステップを備える、請求項7に記載の方法。
  9. 前記第2の画像の集合の中の画像の画素が前記第2の画像の集合の中の別の画像毎に実質的に空間的に対応する相手方を有し、
    前記幾何データを決定するステップが、対応する画素の集合に対し、前記画素の集合の画素値および前記画像の集合を特徴付けるデータが与えられるならば、前記物体に対する表面法線の最良適合を決定するステップを備える、
    請求項7または8に記載の方法。
  10. 物体の画像の集合を特徴付けるデータを決定する方法であって、
    複数の異なる位置から撮影された前記物体の第1の画像の集合からデータを入力するステップと、
    前記第1の画像の集合に関する前記データおよび前記画像撮影位置を画定するデータから、前記物体上の複数の境界点と、前記境界点毎に前記境界点での前記物体の表面に対する法線の方向とを画定する境界点データを決定するステップと、
    異なる視点および照明条件を有する前記物体の撮影された第2の画像の集合からデータを入力するステップと、
    前記第2の画像の集合に関する前記データおよび前記境界点データを使用して、物体反射率パラメータデータ(β)と、前記第2の画像の集合の全部の画像に関する共通照明強度角度分布を画定するデータを備える照明データとを含む、前記第2の画像の集合を特徴付けるデータを決定するステップと、
    を備える方法。
  11. 請求項1〜10のいずれか一項に記載の方法を使用する駐車支援方法。
  12. 実行されるときに請求項1〜11のいずれか一項に記載の方法を実施するためプロセッサ制御コードを伝達する担体。
  13. 物体の画像の集合を特徴付けるデータを決定するシステムであって、
    複数の異なる位置から撮影された前記物体の第1の画像の集合からのデータと、実質的に同じ視点および異なる照明条件を有する前記物体の撮影された第2の画像の集合からのデータとを入力する入力と、
    処理されるべきデータを記憶するデータメモリと、
    プロセッサ制御コードを記憶するプログラムメモリと、
    前記入力、前記データメモリおよび前記プログラムメモリに結合され、前記記憶されたコードをロードし実施するプロセッサと、
    を備え、
    前記コードが、
    前記第1の画像の集合に関する前記データおよび前記画像撮影位置を画定するデータから、前記物体上の複数の境界点と前記境界点毎に前記境界点における前記物体の表面に対する法線の方向とを画定する境界点データを決定し、
    前記第2の画像の集合に関する前記データおよび前記境界点データを使用して、物体反射率パラメータデータ(β)と、前記第2の集合中の画像毎に該画像の照明方向および照明強度を画定するデータを含む照明データ(L)とを備える前記第2の画像の集合を特徴付けるデータを決定するために、
    前記プロセッサを制御するコードを含む、
    システム。
  14. 前記コードが、前記画像の集合を特徴付けるデータを使用して前記物体の幾何的性質を画定する幾何データを決定するコードをさらに備える、請求項13に記載のシステム。
  15. 前記第1の画像の集合のための画像を撮影するためにカメラの位置を制御する少なくとも1台のカメラコントローラと、
    前記第1の画像の集合および前記第2の画像の集合のための画像を撮影する画像撮影システムと、
    をさらに備え、
    前記コードが、前記カメラコントローラを制御し、前記第1の画像の集合および前記第2の画像の集合のための画像を撮影するコードをさらに備える、
    請求項13または14に記載のシステム。
  16. 請求項13〜15のいずれか一項に記載のシステムを含む駐車支援システム。
JP2008535107A 2005-10-13 2006-10-12 画像処理方法および装置 Expired - Fee Related JP5043023B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB0520829.3A GB0520829D0 (en) 2005-10-13 2005-10-13 Image processing methods and apparatus
GB0520829.3 2005-10-13
PCT/GB2006/050325 WO2007042844A2 (en) 2005-10-13 2006-10-12 Reflectance and illumination properties from varying illumination

Publications (2)

Publication Number Publication Date
JP2009512049A JP2009512049A (ja) 2009-03-19
JP5043023B2 true JP5043023B2 (ja) 2012-10-10

Family

ID=35451680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008535107A Expired - Fee Related JP5043023B2 (ja) 2005-10-13 2006-10-12 画像処理方法および装置

Country Status (5)

Country Link
US (1) US8417021B2 (ja)
EP (1) EP1941451A2 (ja)
JP (1) JP5043023B2 (ja)
GB (1) GB0520829D0 (ja)
WO (1) WO2007042844A2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8264537B2 (en) * 2007-09-28 2012-09-11 The Mainz Group Llc Photogrammetric networks for positional accuracy
US8121400B2 (en) * 2009-09-24 2012-02-21 Huper Laboratories Co., Ltd. Method of comparing similarity of 3D visual objects
JP5615055B2 (ja) * 2010-06-18 2014-10-29 キヤノン株式会社 情報処理装置及びその処理方法
DE102011081428A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren zum Bestimmen einer Objektklasse eines Objekts, von dem aus Licht zu einem Fahrzeug ausgesandt und/oder reflektiert wird
WO2015028040A1 (en) * 2013-09-02 2015-03-05 Universität Heidelberg Image processing apparatus, system, method and computer program product for 3d reconstruction
US11176655B2 (en) * 2014-01-27 2021-11-16 Cognex Corporation System and method for determining 3D surface features and irregularities on an object
JP6403445B2 (ja) 2014-06-09 2018-10-10 株式会社キーエンス 検査装置、検査方法およびプログラム
MA41117A (fr) 2014-12-05 2017-10-10 Myfiziq Ltd Imagerie d'un corps
US10049294B2 (en) * 2015-01-30 2018-08-14 X-Rite Switzerland GmbH Imaging apparatus, systems and methods
EP3057067B1 (en) * 2015-02-16 2017-08-23 Thomson Licensing Device and method for estimating a glossy part of radiation
JP6786225B2 (ja) * 2016-02-23 2020-11-18 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
JP6869652B2 (ja) * 2016-07-01 2021-05-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
US10515461B2 (en) * 2017-07-17 2019-12-24 Purdue Research Foundation Referencing system
US10432944B2 (en) 2017-08-23 2019-10-01 Avalon Holographics Inc. Layered scene decomposition CODEC system and methods
US11457197B2 (en) * 2019-02-22 2022-09-27 Avalon Holographics Inc. Layered scene decomposition CODEC with view independent rasterization
CN112785872A (zh) * 2021-01-21 2021-05-11 姜华 一种基于路侧停车的摄像头启动方法和装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6022867A (ja) * 1983-07-19 1985-02-05 Dainippon Screen Mfg Co Ltd 画像走査複製装置
US5576849A (en) * 1989-02-15 1996-11-19 Hitachi, Ltd. Image data transformation apparatus and image entry apparatus
JPH0538402A (ja) * 1991-08-06 1993-02-19 Miura Co Ltd 連続脱気装置
US5237397A (en) * 1991-12-24 1993-08-17 Apple Computer, Inc. Color video data processing
JP3384033B2 (ja) * 1993-05-06 2003-03-10 住友電気工業株式会社 駐車場空きスペ−ス監視方法
JPH0792370B2 (ja) * 1993-06-02 1995-10-09 株式会社エイ・ティ・アール人間情報通信研究所 物体および光源情報抽出方法とそれを用いた装置
EP0723689B1 (en) * 1993-10-15 1998-02-04 EVANS & SUTHERLAND COMPUTER CORPORATION Direct rendering of textured height fields
US5714745A (en) * 1995-12-20 1998-02-03 Metanetics Corporation Portable data collection device with color imaging assembly
JPH10150553A (ja) * 1996-09-18 1998-06-02 Ricoh Co Ltd 画像処理システム,ハガキ印刷システム,画像処理方法,ハガキ印刷方法,およびそれらの方法の各工程をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000102060A (ja) 1998-09-25 2000-04-07 Nippon Telegr & Teleph Corp <Ntt> 移動端末における位置情報の交換方法および装置
US6975755B1 (en) * 1999-11-25 2005-12-13 Canon Kabushiki Kaisha Image processing method and apparatus
US6428028B1 (en) * 1999-12-06 2002-08-06 Synkinetics, Inc. Wheel transmission for mobility vehicle
US6750873B1 (en) * 2000-06-27 2004-06-15 International Business Machines Corporation High quality texture reconstruction from multiple scans
JP4807693B2 (ja) * 2001-09-26 2011-11-02 パイオニア株式会社 画像作成装置及びその方法、電子機器並びにコンピュータプログラム
KR100979071B1 (ko) * 2002-02-22 2010-08-31 에이저 시스템즈 인크 이중 배향 다결정성 재료의 화학 기계적 연마
US7447384B2 (en) * 2002-09-27 2008-11-04 Canon Kabushiki Kaisha Image processing method and apparatus
US6873341B1 (en) * 2002-11-04 2005-03-29 Silicon Image, Inc. Detection of video windows and graphics windows
DE10256644A1 (de) * 2002-12-03 2004-06-17 Hella Kg Hueck & Co. Sonneneinstrahlungssensor mit Hilfe einer Kamera/Bildverarbeitung
US7327890B2 (en) * 2002-12-20 2008-02-05 Eastman Kodak Company Imaging method and system for determining an area of importance in an archival image
JP4221655B2 (ja) * 2003-03-06 2009-02-12 ソニー株式会社 符号化装置および符号化方法、プログラム、並びに記録媒体
JP4232588B2 (ja) * 2003-09-19 2009-03-04 ソニー株式会社 画像処理装置および画像処理方法、並びに、プログラム
US7574067B2 (en) 2003-10-03 2009-08-11 General Electric Company Surface reconstruction and registration with a helmholtz reciprocal image pair
JP4273119B2 (ja) 2003-10-21 2009-06-03 和郎 岩根 ナビゲーション装置
US20050207655A1 (en) * 2004-03-22 2005-09-22 Nasreen Chopra Inspection system and method for providing feedback
US7574064B2 (en) * 2005-04-12 2009-08-11 The Aerospace Corporation Fast lifting lossless wavelet transform
US8050863B2 (en) * 2006-03-16 2011-11-01 Gray & Company, Inc. Navigation and control system for autonomous vehicles

Also Published As

Publication number Publication date
WO2007042844A2 (en) 2007-04-19
GB0520829D0 (en) 2005-11-23
EP1941451A2 (en) 2008-07-09
JP2009512049A (ja) 2009-03-19
US8417021B2 (en) 2013-04-09
WO2007042844A3 (en) 2007-07-12
US20090169096A1 (en) 2009-07-02

Similar Documents

Publication Publication Date Title
JP5043023B2 (ja) 画像処理方法および装置
Delaunoy et al. Photometric bundle adjustment for dense multi-view 3d modeling
US9392262B2 (en) System and method for 3D reconstruction using multiple multi-channel cameras
JP5467404B2 (ja) 3d撮像システム
US8121352B2 (en) Fast three dimensional recovery method and apparatus
WO2021140886A1 (ja) 三次元モデル生成方法、情報処理装置およびプログラム
Bonfort et al. General specular surface triangulation
EP3664039B1 (en) Method for acquiring three-dimensional object by using artificial lighting photograph and device thereof
US20130335535A1 (en) Digital 3d camera using periodic illumination
JP5484133B2 (ja) 鏡面反射物体の3d姿勢を推定する方法
CN111060023A (zh) 一种高精度3d信息采集的设备及方法
US20090268214A1 (en) Photogrammetric system and techniques for 3d acquisition
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
JP2009288235A (ja) 物体の姿勢を求める方法及び装置
CN103562934B (zh) 脸部位置检测
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
CN111340959B (zh) 一种基于直方图匹配的三维模型无缝纹理贴图方法
Harvent et al. Multi-view dense 3D modelling of untextured objects from a moving projector-cameras system
GB2545394A (en) Systems and methods for forming three-dimensional models of objects
JP5441752B2 (ja) 環境内の3d物体の3d姿勢を推定する方法及び装置
US20050286059A1 (en) Attitude and position measurement of objects using image processing processes
Wong et al. 3D object model reconstruction from image sequence based on photometric consistency in volume space
CN111696146A (zh) 人脸模型重建方法、系统、图像处理系统及存储介质
Ziebarth et al. Modeling the unified measurement uncertainty of deflectometric and plenoptic 3-D sensors
Schiller Dynamic 3D scene analysis and modeling with a time-of-flight camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110930

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111216

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120615

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120711

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150720

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees