JP6483075B2 - 場面の3dパノラマモザイキングの方法 - Google Patents

場面の3dパノラマモザイキングの方法 Download PDF

Info

Publication number
JP6483075B2
JP6483075B2 JP2016223832A JP2016223832A JP6483075B2 JP 6483075 B2 JP6483075 B2 JP 6483075B2 JP 2016223832 A JP2016223832 A JP 2016223832A JP 2016223832 A JP2016223832 A JP 2016223832A JP 6483075 B2 JP6483075 B2 JP 6483075B2
Authority
JP
Japan
Prior art keywords
reconstruction
scene
image
panoramic
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016223832A
Other languages
English (en)
Other versions
JP2017097871A (ja
Inventor
ラファエル・ホラーク
Original Assignee
タレス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by タレス filed Critical タレス
Publication of JP2017097871A publication Critical patent/JP2017097871A/ja
Application granted granted Critical
Publication of JP6483075B2 publication Critical patent/JP6483075B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Description

本発明の分野は、場面の連続パノラマ画像に基づくこの場面の3Dモザイキングの分野である。
場面の3D再構築は、再構築画像の各画素(すなわち、場面要素があると再構築が宣言するいかなるポイントにもおける)が対応する場面のポイントの座標と関連付けられるように(この場面に関連するフレームX、Y、Zで定義される)、異なる視点から撮られたこの場面の連続2D画像に基づいて、いわゆる3D再構築画像を得ることにある。
従来のモザイキング(いわゆる2Dモザイキング)は、場面の連続画像に基づいて、場面の主平面に画像を連続的に投影し、そのモザイクを生成するために画像を組み立てることにある。
カメラに基づく受動的な3D場面再構築のための技法は、以下の様々な参考文献で説明されている。
− R.Horaud & O.Monga.Vision par Ordinateur:Outils Fondamentaux,Editions Hermes,1995.
http://www.inrialpes.fr/movi/people/Horaud/livre−hermes.html
− Olivier Faugeras.Three−Dimensional Computer Vision,MIT Press,1993
− Frederic Devernay,INRIA Grenoble,course“Vision par ordinateur 3−D”.
http://devernay.free.fr/cours/vision/
− Tebourbi Riadh,SUP’COM 2005 IMAGERIE 3D 08/10/2007
− “Learning OpenCV:Computer Vision with the OpenCV Library”,Gary Bradsky,2008
これらの文献はすべて、異なる視点で配置されたカメラから得られる立体画像対に基づく3D場面再構築のための技法を取り上げており、カメラは、空間内の様々な場所に配置された固定カメラまたはその位置が時間的に変化するカメラ(カメラで観察された空間の一部分の立体3D再構築を形成するため、2×2で撮ったカメラの画像のマッチングにおける同じ基本原理を常に有する)であり得る。
また、それらの文献はすべて、立体対の画像間のマッチングを容易にし、3D再構築を可能にするため、いわゆる修正面に対するカメラの姿勢に応じて各カメラの焦点面画像が修正されるエピポーラ修正の原理についても説明している。方法は、様々な著者によって比較的最適化されているが、最初に、カメラの光学的ひずみを補正し、その後、2つのカメラの相対姿勢を使用して、マッチングおよび3D再構築が実行されるものに基づいて修正面を決定する必要があるという原理に常に依存している。
受動的な3D再構築の他の技法は、例えばいわゆるシルエット描写技法に関する文献に存在するが、特定の事例に適用され、場面についての事前知識を必要とするため、ここでは考慮されない。
場面の能動的な再構築の技法では、距離演算による直接の場面の3Dメッシュの再構築を可能にするライダに基づくものを取り上げることが可能である。
参考文献の中でも特に以下の文献を取り上げることができる。
− MATIS studies for the IGN:“Using Full Waveform Lidar Data for Mapping of urban Areas”,Doctoral thesis,Clement Mallet,2010
− “Couplage de Donnees Laser Aeroporte et Photogrammetriques pour l’Analyse de Scenes Tridimensionnelles”,Doctoral thesis,Frederic Bretar,2006
興味深い記事は、これらの技法には、複雑な形状(例えば、凹状)の3D対象物の再構築において限界があることを示している(Structuration plane d’un nuage de points 3D non structure et detection des zones d’obstacles,Vision interface conference,1999,Nicolas Loemie,Laurent Gallo,Nicole Cambou,Georges Stamon)。
モザイキングに関して、以下の参考文献を取り上げることができる。
− L.G.Brown,“A Survey of Image Registration Techniques”,in ACM Computing Surveys,vol.24,n4,1992
− “Mosaique d’images multiresolution et applications”,Doctoral thesis,Universite de Lyon.Lionel Robinault,2009
3D再構築に関連する先行技術を要約した場合、以下を使用して3D再構築を部分的に得ることができることが言える。
− 場面の空間的な立体画像を生成し、これらの画像を融合させることによって、場面の3D再構築および任意選択によりモザイクを生成する何組かのカメラ。この解決策は、以下のいくつかの欠点を呈する。
− カメラの校正が難しい(振動の問題)
− カメラ間の間隔によって制限される立体ベースの理由による3D再構築の回復における不正確性
− カメラの限られた光場の理由による低視野および低範囲の回復
その上、最終的な3D再構築は明らかではないが、その理由は、局所的な3D再構築を組み立てることによって構築されるためであり(2つの画像(多くの場合、狭視野)の立体回復の方法から生じる)、それは、その構築を可能にした限られた数の画像や、カメラの限られた視野が理由で、および、カメラのそれぞれの姿勢に依存する再構築平面は正確に測定することが難しい形状を有するという事実により、非常に雑音の多いものであり得る(多くの場合、1または2メートル離れ、互いに対して振動し易いカメラを取り扱う際、3D再構築に役立つカメラの相対位置および相対形状は、実際には、不正確である。このことは、これらのカメラが電動式である場合も依然としてより明白である)。中間3D再構築を組み立てる精密な方法については、一度も詳細に説明されてはおらず、実際には、最終的な3D再構築において多くの誤差が見られ、その誤差は、いずれにせよ、空間的および角度範囲において小さいままである(通常30°未満の角度範囲を有する通常200m×200m未満の空間的範囲)。
最終的には、カメラの姿勢に依存し、修正プロセスにおいて焦点面を回転補正(derotation)する予備のステップを伴う、修正およびマッチング方法自体は、特にシステムが時間的な回転運動を呈する場合に3D再構築が穴を呈するところに典型的な事例が存在することを含意する。
最後に、立体システムは、2つのカメラのうちの1つにほぼ垂直な平面を不十分に復元する(これは、航空または衛星立体撮像における勾配屋根の回復の問題である)。
− 移動中の低視野または中間視野カメラ。しかし、3D再構築は、カメラの経路および向きによって制限され、したがって、無指向性ではない。その上、再構築は、カメラの未確認の動きまたはその動きの過程におけるカメラの非オーバラップが理由で、穴を呈する場合がある。3D再構築に使用されるアルゴリズムは、カメラの焦点面に関係するかまたはカメラの焦点面の近くのフレームにおける再構築を強要し、それにより、再構築の可能性が制限される(単一の主再構築平面およびカメラが向きを変化する際の非常に限られた再構築)。また、再構築の結果は、画像間の小さなオーバラップ、再構築場面の再構築の一定の平面(この平面から逸脱し得るカメラ)および3D再構築に対して比較的わずかな距離だけ隔てられた2つの画像のみを利用するアルゴリズムの使用が理由で、非常に雑音の多いものでもあり、多くの誤差を呈する可能性がある。連続画像のグラウンドオーバーレイによって得られたモザイクは、場面が平坦ではないおよび/または3D要素を含む際は、効力がなく、正角ではない。
− 能動的なセンサ、すなわち、遠隔測定法を有するセンサ。しかし、この場合もやはり、3D再構築は、無指向性ではなく、セグメント化する必要はなく、測定値は、自動形式での利用が難しいポイントの散乱の形態で得られる。その上、これらの能動的なセンサによって得られるメッシュは、角度方向に疎であるという欠点を呈する(通常、高度1kmでの機上応用に対して1mあたり4ポイント未満)。技法は、現在のところ、場面のテクスチャ画像の生成には適さず、ほぼ常に手動で補正しなければならない。
R.Horaud & O.Monga.Vision par Ordinateur:Outils Fondamentaux,Editions Hermes,1995.http://www.inrialpes.fr/movi/people/Horaud/livre−hermes.html Olivier Faugeras.Three−Dimensional Computer Vision,MIT Press,1993 Frederic Devernay,INRIA Grenoble,course"Vision par ordinateur 3−D".http://devernay.free.fr/cours/vision/ Tebourbi Riadh,SUP’COM 2005 IMAGERIE 3D 08/10/2007 "Learning OpenCV:Computer Vision with the OpenCV Library",Gary Bradsky,2008 MATIS studies for the IGN:"Using Full Waveform Lidar Data for Mapping of urban Areas",Doctoral thesis,Clement Mallet,2010 "Couplage de Donnees Laser Aeroporte et Photogrammetriques pour l’Analyse de Scenes Tridimensionnelles",Doctoral thesis,Frederic Bretar,2006 Structuration plane d’un nuage de points 3D non structure et detection des zones d’obstacles,Vision interface conference,1999,Nicolas Loemie,Laurent Gallo,Nicole Cambou,Georges Stamon L.G.Brown,"A Survey of Image Registration Techniques",in ACM Computing Surveys,vol.24,no4,1992 "Mosaique d’images multiresolution et applications",Doctoral thesis,Universite de Lyon.Lionel Robinault,2009
以前のすべての解決策は、大きな寸法の(すなわち、500m×500mを超える)3D場面に対する3Dモザイキングを得るには不適切である。得られた3D瞬間モザイクは、変形を呈し、角度範囲(通常、<30°)または空間的範囲において制限される。地形が3Dの場合、モザイクの組み立ては複雑であり、最終結果は場面の形状とは一致しない。
先行技術の手順の欠点は制限ではなく、他の欠点は本特許で説明される。
本発明の目的は、これらの欠点を軽減することである。
提案される解決策は、パノラマシステムによって観察されている場面の3D情報を完全におよび様々な再構築平面に応じて再構築するため、場面の非常に大きな角セクタをカバーし、そのように所望すれば、完全な球体をカバーできるほど大きなものであることが可能な、得られた2D画像の処理と共に場面におけるセクタの変位の利用に基づく、パノラマシステムの使用に基づく。
パノラマシステムは、その画像が必ずしも相互オーバラップを呈するとは限らない1つまたは複数のセンサを備え、瞬時に(センサがオーバラップしない場合は穴を有する)または動きの過程において再構築する予定の場面全体をカバーすることを可能にする。
また、この解決策は、その変位過程におけるパノラマシステムのすべての視点に応じて、この場面を表す非常に大きな空間的および角度範囲を有するモザイクを並行して生成することも可能にする。
発明の対象は、請求されるような、場面のモザイキングの方法である。
したがって、これは、それ自体が不連続性を呈するいくつかの平面または非平面表面からなり得る任意の3D表面への投影を行うことができるという意味で2Dモザイクの一般化である3Dモザイクを生成する。この3Dモザイキングは、上記の意味で場面の連続2D画像(異なる視点から撮られた)および場面の3D再構築に基づいて、3D再構築の幾何学的モデリングに様々な2D画像を投影して組み立てることにあり、したがって、この場面の様々な3D要素上にオーバーレイされたテクスチャモザイクの形態での場面全体の復元を可能にする。この3Dモザイキングは、正角方式での、レリーフまたは3D要素を呈する任意の場面上の画像の組み立ての復元を可能にする。したがって、再構築された3Dモザイクは、場面のテクスチャ3D再構築である。
これらの方法により、可能な限り広範の空間的および角度範囲にわたって3Dモザイキングを行うことが可能になる。
また、本発明は、場面の3Dモザイキングのための装置であって、
− 位置付け手段を備え付ける、場面の2D画像(いわゆる2Dパノラマ画像)を形成することができるパノラマシステムと、
− このパノラマシステムにリンクされたコンピュータであって、
− 上記で定義されるようなモザイキングの方法を実装するための手段、ならびに、
− 任意選択によりマンマシンインターフェースと関連付けられるかまたはマンマシンインターフェースと置き換えられる自動補助画像処理手段
を備える、コンピュータと
を備える装置にも関する。
したがって、簡単で正確な方法が得られ、例えば、測定を実行できるテクスチャマップの生成や、任意の場面上で、軌道に対する制約なしで、大きな空間的および角度範囲にわたる(恐らく、最大で180°×360°ほどの)リアルタイムでの場面の再構築(例えば、平面−場面想定なしで、以前の場面モデルを用いることなく)が可能になる。
提案される解決策は、
− 単一のパノラマシステムのみを必要とすることによって、場面の3Dモザイキングの問題へのコンパクトな解決策の提供を可能にし(先行技術のものは、いくつかの独立したセンサを必要とし、実装がより複雑である)、
− 以下のような場面のモザイクを生成する。
− 正角のもの、すなわち、幾何変形がなく、したがって、マップ上で重ね合わせることができるもの、
− 非常に広範の空間的および角度範囲にわたるもので、穴がないもの、
− 完全なもの、すなわち、様々な方向の平面に応じて行えるもの(これは、出力として単一の再構築平面のみを生成し、復元を可能にしないかまたは選ばれた回復面とは異なる面を有する場面の対象物を不十分に復元する従来の方法とは非常に異なる)、
− 実装された時間冗長性の理由で、ロバストなもの、
− 大きな寸法の仮想立体ベースを自然に生成する時間立体視(それにより、精度について説明する)の理由で、正確なもの、
− 3Dパノラマ回復および関連モザイクが再度演算され、各瞬間に更新されるという意味で、瞬間的なもの、
− 例えば、軌道を確かめるために最下位のMEMS姿勢プラットホームが使用される際は、最下位のMEMS姿勢プラットホームに適合するもの、または、オドメータもしくは基本的なGPSなどの相対変位の測定の簡単な手段に適合するもの、
− 狭視野センサでは認められない、センサの有り余るほどのまたは非協調的な動きに適合するもの、ならびに、
− いかなるタイプの軌道(曲線のものおよびいかなる方向のものも含む)にも適用されるもの。
以下のような他の利点を取り上げることができる。
− オペレータが任意の再構築平面を選べるようにする(例えば、地面およびファサードにあるものを全く同時にまたは円筒図法によって再生するため)。また、解決策は、凹状対象物の再生(これは、他の手順による実行が非常に難しい)にも適している。
− 任意選択により、正確な測定が可能なテクスチャ再構築を生成する(再生画像は正角である)。
− 場面におけるパノラマシステムの任意の動き(近くに来ることを含む)を可能にする。
− 最下位のCOTS機器(MEMSプラットホーム、基本的なGPSまたはオドメータ)に適合する測定精度で、2つの画像ショット間の位置および姿勢における相対変位を測定するもの以外のいかなる外部の測定も必要としない。
− 再構築する予定の場面についての他のいかなる先験的情報も必要としない。
− PCのリアルタイムでの利用を可能にする。
本発明の他の特性および利点は、添付の図面を参照して、非限定的な例として与えられる以下の詳細な説明を読み進める上で、明らかになるであろう。
本発明による、3D再構築およびモザイキングの方法の実装のための例示的な装置を概略的に表す。 D再構築の方法の様々なステップを概略的に表す。 本発明による、モザイキングの方法の様々なステップを概略的に表す。 単一の再構築平面のみが存在する際に凹状対象物によって生み出される測定の曖昧性を示す。 パノラマシステムから生じるパノラマ画像の例示的なセクタ分解を表す。 様々な修正面に投影された、図5のパノラマ画像のセクタの修正画像の例を表す。 例示的な軌道に対する修正面の例を概略的に表し、パノラマシステムの照準線Ldv1およびLdv2は、これらの平面から独立している。 定の軌道に対する修正面および3D再構築平面の例示的な時間的な進化を概略的に表す。
本発明の概念は、様々な視点に応じてこの場面のレリーフおよび任意選択によりテクスチャを復元するため、既知の軌道に応じて場面を移動するパノラマシステムの前画角(前=照準線がパノラマシステムの動きの方向の平面を横断する方向)および横画角(横=照準線がパノラマシステムの動きに垂直な方向の平面を横断する方向)を最大利用することにある。
横視野の利用は、様々な再構築平面に応じてオペレータに提示され得るパノラマシステムによって観察されるすべての横視点に応じて、レリーフおよび任意選択によりテクスチャを再構築することによって行われる。
前視野の利用は、異なる視点に応じて場面の対象物を観測する以前の再構築の時間的融合を利用することによって行われる。様々な視点に応じて観察された対象物のこれらの様々な再構築により、様々な視点に応じてオペレータに呈することができる場面の拡大された正確な正角のグローバルな視点の生成が可能になる。
場面を移動するパノラマ光学(または光電子工学)システムの変位によって生成することができる様々な角度方向における時間立体視法の利用は、様々な方向に応じて投影可能な場面の3D再構築および任意選択により場面の正角の多面的なモザイクの同時生成を可能にする。
提案される解決策は、以下の新しい概念を使用する。
− 2つの狭視野カメラを使用する従来の立体視法と区別される、パノラマシステムを用いる時間立体視法。
− 使用される2つのセンサの照準線の方向によってその方向が強要される単一の平面上でのみ行われる従来の修正と区別される、その方向が自由に選ばれる様々な平面に応じた同時修正。別の革新は、中間ゆがみ矯正面を強要し、それにより、情報損失が生み出される立体視で使用される従来の修正とは対照的に、パノラマシステムの2D画像の任意の部分と選ばれた修正面と間で直接行われる直接修正である。
− 照準線の非常に異なる方向を利用し、精度およびロバスト性の獲得を可能にする中間再構築の融合。
− 非常に異なる視点上の場面の対象物を対象とする2D画像から抽出された情報の品質の階層化に関連し、移動中のパノラマシステムの2D画像の時間利用に直接関連する信頼度マップ。
より正確には、方法は、その例が図1に示される装置であって、
− 光学機器11と関連付けられたセンサ14を備え、GPS 12および慣性プラットホーム13などの位置付け手段を備え付ける、場面の2Dパノラマ画像を形成することができるパノラマシステム1と、
− このパノラマシステムにリンクされたコンピュータ2であって、
− 説明されるような3Dモザイキングの方法を実装するための手段21、ならびに、
− 任意選択によりマンマシンインターフェース22と関連付けられるかまたはマンマシンインターフェースと置き換えられる自動補助画像処理手段
を備える、コンピュータ2と
を備える、装置によって実装される。
本発明によれば、2D画像は、既知の軌道に沿って変位移動するパノラマシステム1から生じ、軌道は、位置付け手段およびコンピュータ2によって、変位と並行して、画像ごとに相対的に測定することができる。
システムは、2Dパノラマ画像を得ることを可能にするという意味でパノラマ式である。この目的のため、システムは、魚眼タイプの広視野光学機器11、または、2Dパノラマ画像を提供できる任意の従来のもしくは反射屈折の広視野光学的手段、あるいは、その全体を再構築することが所望される場面の様々な部分を検知するため、狭視野光学機器に基づくが、多少有り余るほどの動きで移動する他のものを備え得る。60°を超える広視野をカバーする2D画像は、例えば、この60°の全視野をカバーできるようにする動きで移動する45°の視野を有するシステム1に基づいて得られる。パノラマシステム1の技術の選択は制限されない。すなわち、受動的であり得るが、能動的なシステムにより上記で提示される複数平面の融合のステップの実装が可能である限り能動的なシステムへの一般化が可能である。また、このパノラマシステムは、360°×180°を超える超広視野光学機器または完全球体光学機器(例えば、可観測性の完全な球体を探査する連続魚眼光学機器を有する2つのセンサ)も含む。また、このパノラマシステムは、最大または決定されたパノラマ角度適用範囲を一緒にカバーする(例えば、ある画像から次の画像に移っても同一である)相互依存の光学センサセットも備える。これらの光学センサセットは、オーバラップしない、すなわち、このセットによってある瞬間に得られるグローバルな画像は、連続的なものではなく(穴を含み得る)、「穴」は、このセットの変位の間に充填される。魚眼タイプの光学機器を用いて得られる例示的な2Dパノラマ画像およびセクタ(この例では5)は、図5に示される。
軌道は、GPS 12、慣性プラットホーム13または同様のものなど、場面におけるパノラマシステムの位置および姿勢の相対変位を測定する位置付け手段によって、パノラマシステムの変位と並行して演算することができる。この変位は、マンマシンインターフェース22を介してオペレータが制御することも、自律的であることも可能である。したがって、得られた画像は、場面の少なくとも1つのポイントの画像が様々なパノラマシステム場面ポイントの方向に応じてそれぞれ得られた少なくとも3つのパノラマ画像にあるようなものである。
処理ユニット21によって連続瞬間にそれぞれ得られたこれらの2D連続パノラマ画像を処理するステップは、モザイキングの方法に先行する再構築方法の図2と併せて説明された以下のサブステップを含む。
ステップa)場面の再構築平面を決定する。
様々な再構築平面Cjは、例えば、広範の空間的および角度範囲にわたって場面をカバーするため、または、場面のより優れた表現を有することを可能にするため、場面の様々な態様を前方に持ってくることによって3D再構築を確立するために選ぶことができる。様々な再構築平面Cjは、オペレータが自由に選ぶことも、パノラマシステムの軌道の関数として(通常、2つのスナップショット間で演算されるこの軌道のおよそ平均)および場面の複雑性の関数として自動的に決定することも可能である。
初期の3D再構築の完全欠損および初期設定段階(=1回目の反復)では、パノラマシステムが観察できる様々な方向における再構築を確保するため、デフォルトで、選ばれた再構築平面は、例えば、システムの平均軌道を取り囲む円筒に接する3または4つの平面であり得る。例えば、地面から100m離れたところに位置する水平な軌道に対し、次の再構築平面、すなわち、地面の平面と、地面に垂直であり、軌道を取り囲む円筒に一方の面が接する平面と、地面に垂直であり、円筒に他方の面が接する平面と、100mを超える高度に位置する、地面に平行な平面とを選ぶことが可能である。初期の3D再構築の構築が開始された時点で、これらの以前に定義された再構築平面は、オペレータが自動的にまたは実験的に抽出可能な進行中の再構築の平面の表面に接近させるかまたはマージさせるため、更新することができる。単一の再構築平面が場面の十分な3D表現を与えるほど十分でない場合、3D表現の独自性および完全性を復元するため、いくつかの平行または垂直平面が使用される。これは、例えば、場面が凹状対象物を含む際の事例、または、単一の再構築平面が、測定が行われた角度に依存する3D大きさの様々な測定を提供し、結果的に、図4に示されるような独自の測定の提供ができなくなる事例である。この図は、ポイント(X,Y)に対するZ方向の再構築の曖昧性(すなわち、軌道の位置1および2での取得は再構築平面P1上のz1を再構築するが、軌道の位置2および3での取得は同じ投影平面P1上のz2を再構築する)を示す。次いで、P1に対するz1およびP2に対するz2を有するようにするため、新しい再構築平面P2を選び、曖昧性を取り除く。また、凹状対象物の横方向限界を見出すため、平面P3も選ばれる。
パノラマシステムの変位と並行して、新しい平面が場面で明らかになるかまたは消失する際、選ばれた再構築平面を新しくする必要があることも分かる。
ステップb):任意の方向に応じて2つの連続2Dパノラマ画像を修正できるようにするため、一般化された修正の概念が導入される。これらの2つのパノラマ画像がそれぞれ、瞬間tおよび瞬間t+Δtに取得され、パノラマ画像対を形成する。
この修正は、修正に最も適した少なくとも1つの投影平面を演算すること、および、各平面上の2つの2Dパノラマ画像の各々のいかなるセクタも変換する変換を適用することにある。
修正に役立つ各投影平面(いわゆる修正面)は、すべてパノラマシステムの軌道に平行に、位置および向きの無限の選択の中からオペレータが自由に選ぶことができる。平面または修正面の各々は、パノラマシステム(その軌道に沿ってその変位の過程において自己旋回することができる)の照準線の進化とは無関係であり、照準線の進化に応じて修正面が選ばれ、修正面の選択が非常に限られている従来の立体視法とは対照的である。
R1、R2、R3と言及される修正面の例が図7に示され、R1、R2、R3は、軌道に平行である。また、軌道の2つのポイントにおけるパノラマセンサのLdV(LdV1、LdV2)の方向も示されており、これらの平面の選択はLdVとは無関係であるという事実が示される。
修正面および再構築平面の例が図8に示され、図8は、3D対象物を含む場面の上方からの視点である。軌道上には、このステップb)の間に取得された3対のパノラマ画像に対応するパノラマセンサの位置対(1、2、3)が示されており、各位置対は、2つの修正面と関連付けられる(対1に対するR11およびR21、対2に対するR12およびR22、対3に対するR13およびR23)。この図の例では、3つの再構築平面P1、P2、P3が選ばれている。
3D再構築を最適化するため、選ばれた修正面の各々は、様々な再構築平面に対応する。修正面は、例えば、ステップa)で決定された再構築平面に最も近くなるように(幾何学上の意味で)選ばれる。
画像から修正面に移す変換は、直接的なものである(すなわち、従来の立体視において見られるような焦点面のゆがみ矯正の中間ステップを通過させる必要はない)。これにより、以下のような修正画像を得ることが可能になる。
− センサの回転運動とは無関係なもの、
− 従来の修正で見られるものとは対照的に、穴がないもの、
− 中間量子化画像なしで浮動直接演算を通じて得られるため、より正確なもの。
瞬間tに得られたパノラマ画像に対するこの修正の数学的ステップは、魚眼タイプのセンサの事例では、以下の通りである。
修正面Pと、この平面Pと関連付けられたフレーム
Figure 0006483075
と、この修正面に投影する予定のパノラマ画像のセクタ(恐らく、パノラマ画像の視野が修正面上の選ばれたゾーンに含まれる場合は、最大で完全なパノラマ画像ほどの)とを選び、このセクタは、有利には、最大まで修正面をカバーできるようにする。画像の投影セクタがパノラマ画像全体をカバーしない場合、画像に残っているセクタは、図6の例において見られるように、他の修正面に投影され、図6では、セクタ1は、水平な修正面に投影され、ある一定の解像度を保つため、画像全体をカバーすることはない。他の垂直な修正面は、パノラマ画像の他のセクタを投影するために必要である。
パノラマ画像のポイント(x,y)を平面Pのポイント(X,Y)に変換する変換の演算。場面のポイントの角度方向(θ,φ)と選ばれたパノラマシステムに依存する画像の対応するポイントの座標(x,y)との間に存在する対応のこの目的のために使用される。直線パノラマシステムの事例では、この関係は、簡単に記載することができる。
Rが光学中心に対するポイント(x,y)の位置の半径であれば、以下の式が得られる。
tgθ=(y−yc)/(x−xc)
式中、(xc,yc)は光学中心の座標であり、
φ=k.R
k=センサの直線係数
その後、上記の式は、得られた(θ,φ)の関数として平面Pの方程式を記載するのに十分である。
(θ,φ)に応じて法線が配向される平面Pに対し、特定の事例としてθ=φ=0の焦点面を用いると、以下の関係が中心投影の特定の事例に有効であることを証明することができ、fはパノラマシステムの焦点距離である。
Figure 0006483075
この変換は、直線パノラマ光学機器(魚眼タイプ)の事例の例示的な変換であり、他で演算して補償することができるパノラマシステムのひずみパラメータを含まない。変換は、容易に一般化し、それ自体の光学公式を有するいかなるパノラマシステムにも適するように適合させることができる。
その結果、パノラマ画像のセクタの任意のポイント(x,y)に対し、選ばれた修正面におけるその対応する修正ポイントを見つけ出し、したがって、この平面に修正画像を構築することが可能であるということになる。
反復の過程において選ばれた様々な修正面および上記の関係により、様々な修正面上のセクタ修正を定義することが可能になる。パノラマ画像のセクタは、修正面に投影された同等の部分に対応する。パノラマ画像のセクタ分解は、選ばれた修正面およびこれらの平面への投影のフットプリントに依存する。
修正画像の例は図6に示される。第1の修正画像は、垂直な修正面への図5の画像のセクタ1の投影から生じ、第2の修正画像は、別の垂直な修正面への図5の画像のセクタ2の投影から生じ、第3の修正画像は、最初の2つとは異なる垂直な修正面へのセクタ3の投影から生じ、第4の修正画像は、水平な修正面へのセクタ5の投影から生じている。
この投影は、別の修正画像を得るため、瞬間t+Δtに得られた別の2Dパノラマ画像のセクタに対して、同じ修正面Pで繰り返され、Δtは、実験的に事前に決定されるか、または、tとt+Δtとの間のシステムの変位Dcが3D再構築において所望される精度に適合するほど十分大きな立体ベースを生成するように決定される。例えば、場面からの平均距離がHの場合の上空飛行の事例では、例えば、センサ14によって最小視差1/8画素(現在値)を測定することができると仮定すると、求められる再構築精度dを得るための変位Dcは、Dc=(resol/8)/dであり、式中、resolはセンサ14の解像度である(例えば、魚眼を備え付ける1メガピクセルセンサの場合、3mrd)。
取り上げた例では、求められる再構築精度dが、H=50mの場合は20cmであると仮定すると、Dcは、少なくとも5mに等しいはずであり、したがって、パノラマシステムによる2回の取得間の最小6°の角度差に相当する。
同じ精度dでH=100mの場合は、Dcは、少なくとも19mに等しいはずであり、したがって、パノラマシステムによる2回の取得間の最小11°の角度差に相当する。
パノラマシステムの使用により、2回の取得間の距離Dcおよび角度分離を増加することによって、3D再構築の全く同一の空間的な適用範囲に対して狭視野または中間視野センサによって行うことができるものを超える、再構築精度の増加が可能になる。3D再構築に役立つ立体ベースDcは、パノラマ視野の使用(およびこの視野での対象物の長時間駐在)が理由で、従来の立体方法のものより大きいものであり得、これにより、方法のより優れた究極の再構築精度が可能になり、精度は、方法が提供する測定値の融合によっても増加する。
場面から100mの平均距離での上空飛行の上記の例を取ることによって(四辺の再構築を考慮することなく、少なくとも350m幅の復元バンドに相当する少なくとも120°の視野にわたる地面再構築)、理論上の再構築精度dは、Dc=38mの場合は10cmで、角度差は21°になり、Dc=200mの場合は2cmで、角度分離は60°になる。好ましくは、実際のdを得るため、視点間の相対位置に関する測定値の不確実性を考慮に入れる必要がある。
場面から距離H=20cmにある、1メガピクセルの魚眼カメラを備えるパノラマシステムによって行われる目視検査の文脈を考慮した場合、2回の取得間の変位Dcが10cmであると仮定すると、高度または深度における15μmの詳細(d=15μm)を復元することができる。
反復の間に得られた様々な3D再構築を平均化するため、ひいては、誤差および回復雑音の大幅な減少から利益を得るため、パノラマシステムの実際の取得は、場面の3Dの再構築に役立つ2D修正画像対間の変位を保つ一方で、高速であり得る。次いで、方法は、変位Dcに基づいて第1の2Dパノラマ画像対を撮ること、この対を用いて中間3D再構築を行うこと、次いで、中間3D再構築をやり直すため、次の取得時に再び、変位Dcに基づいて別の2D画像対を撮ることにあり、このことは、これらの様々な画像対に関係がある場面ポイントがパノラマシステムの視野に残っている限り行われる。
ステップc):平面Pにおける修正画像の立体対が、このPに関連するフレームにおける中間3D再構築を定義するために利用される。
に関係する3Dフレーム(いわゆる中間3Dフレーム)における中間3D再構築は、パノラマシステムの動きに関する知識によって支援される、Pにおける2つの修正画像のポイント間のマッチングによって得られる。このマッチングは、可能な限り、立体対の2D画像のポイントの各々を他の画像のポイントとマッチングさせる高密度のプロセスである。中間3D再構築は、多少階層化された局所的な相関プロセスによって実行することができ、t−Δtまたはt−NΔt(Nは、>1の整数)に行われるマッチングによって支援することができる。立体視法で従来使用していた狭視野システムでは認められない、パノラマシステムの広視野性質および異なる角度から同じ場面を観察する可能性の低さにより、ここでは、ある掩蔽または曖昧性を取り除くことができる。
ステップd):この中間3D再構築を、ステップa)で決定された再構築平面(または複数の再構築平面)を含む固定(=絶対)3Dフレーム(いわゆる3D再構築フレーム)に変換する。したがって、変換された中間3D再構築が得られる。
ステップe):少なくとも1つの他の変換された中間3D再構築を得るため、新しいパノラマ画像対(これは以前の画像に基づいて形成された新しい画像対であるか、または、この新しい対は以前に取得された画像のうちの1つに連結した新しい取得から生じる)および少なくとも1つの他の修正面P’に基づいて、少なくとも1回ステップb)〜d)を繰り返す。ステップd)と同じ3D再構築フレームが維持される。これらの反復は、ステップb)〜d)がこの順番でひとつなぎになっているという意味で、連続的なものであり得る。また、これらの反復は、並行して行うこともできる(いくつかのステップb)は、並行して決定された、いくつかの修正面Pで並行して行われるなど)。
好ましくは、これらのステップb)〜d)は、少なくとも1つの再構築場面ポイントがパノラマシステムの視界に残っている限り繰り返される。
ステップf):変換された中間3D再構築を、中間再構築の空間および時間冗長性を利用する特定の融合方法によって時間的に融合させる。このことは、対応する3D再構築を得るため、3D再構築フレームにおいて得られた少なくとも2つの変換された中間3D再構築を時間的に融合させることによって得られる。
この3D再構築方法により、メッシュの各ポイントが、場面に関係するフレームX、Y、Zにおける対応するポイントの座標と関連付けられるように、場面を表すための最も適切な高密度の3Dメッシュを見出すことが可能になる。
ステップg):選ばれた再構築平面と同じくらい多くの3D再構築を得るため、同じパノラマ画像を用いるが、異なるセクタを用いて、a)で選ばれた各再構築平面に対して、ステップb)〜f)を繰り返す。これらの反復の過程において得られたこれらの3D再構築または中間3D再構築は、有利には、1つまたは複数の最終的な3D再構築を更新するため、空間的に融合させ、したがって、これらの再構築の精度およびロバスト性が増加する。様々な平面に応じて構築された3D再構築の空間的融合は、各再構築の様々な要素の再構築の精度を考慮に入れ、精度は、様々な平面に応じて同じものではなく、数学的に予測することができる。この空間的融合は、使用される各画像の様々なセクタに対応するいくつかの修正面を利用することによって得られる。
また、ステップa)〜g)のセットは、好ましくは、新しいパノラマ画像対を用いて(例えば、前回のものから時間的にシフトされた中間画像を用いて、または、既に考慮されたパノラマ画像の他のセクタを用いて)、少なくとも1回繰り返される。これにより、最終的な3D再構築を更新する連続プロセスを有することが可能になる。これらの新しいパノラマ画像対は、各パノラマ画像取得から得ることができるが、必須ではない。
ここでもやはり、これらの反復は、連続的にまたは並行して行うことができる。
2D修正画像の冗長性および品質(品質は、例えば、修正面と再構築平面との間に存在する角度視差によって、または、各中間3D再構築につながるマッチングの信頼係数によって定義される)の利用により、最終的な再構築の品質を運ぶ信頼度マップを生成するための方法が可能になる。この信頼度マップは、各画素が構築された回数や、この構築状態が良かったかどうか(これらは、例えば、マッチング品質の実験的または数学的に決定された閾値の関数として定義される)を考慮することによって、各3D再構築に対して画素単位で構築される。また、いくつかの3D大きさが観測の角度の関数として全く同一の画素に対して得られる事例も考慮され、この事例では、曖昧性を取り除くため、追加の修正面および再構築平面が作成される(例えば、図4の例において見られるように、正しく再構築するため、複数の再構築平面を必要とする凹状対象物の場合)。
ここでは、場面の2D画像のモザイキングについて考慮し、これらの2D画像の組成は、モザイクと呼ばれるグローバルな画像を形成する。このモザイクは、一般に、3D場面またはそれに近似するものに存在するが、3D表面上にもあり得る、いくつかの2Dテクスチャ平面を含む。
漸進的に作成された場面の3D再構築の利用により、モザイキング平面とも呼ばれる様々な投影平面(または表面)への2Dパノラマ画像のセクタ分解から得られた各2D画像の投影が可能になる。これらの投影表面は、モザイクが構築される表面である。これらの投影表面は、オペレータが自由に選ぶことも、3D再構築に基づいて自動的に決定することも可能である。上記で示されるように、これらの表面のいくつかは、ゆがんでいる(湾曲している)ものであっても、そのモデリングが知られている3D表面でもよい。
様々な面を呈する高度な3D場面を観察するパノラマシステムの事例では、いくつかのモザイキング平面(または表面)を選ぶことができる(または有益に選ぶことができる)。高度な3D場面とは、例えば、都市部を低飛行高度で上空飛行する無人機の場合の事例のように、2回の連続取得間で大幅な視差を生み出す多くの3D要素を含む場面を意味する。モザイキングの方法は、投影表面または平面の各々に画像のテクスチャを最も良く投影するため、投影表面または平面が異なる向きを有するという事実を利用する。テクスチャは画像領域にわたる画素の強度のセットであることが思い出される。
3D再構築の利用により、投影画像の可視部分のみを保存することも可能になる。これにより、場面の他の部分に属するだろう画像のモザイキング平面部分への投影を回避することが可能になる。
複数平面(または複数表面)の投影モザイキングプロセスは、好ましくは、パノラマシステムによって実行される新しい2D画像の取得ごとに繰り返され、古いものを更新するため、新しいモザイクは、古いもの(t−1に得られたもの)と融合させる。
これらの様々な投影およびモザイクの連続的な融合の結果は、各投影平面にわたってかなり拡大される正角画像(すなわち、幾何変形のない画像)である。これは、以下でより詳細に説明され、図3と併せて説明される、3Dモザイキングの方法が場面の3D再構築とテクスチャの投影を同時に演算するという事実、方法が投影における隠れた部分または解像度が不十分な部分を排除するという事実、ならびに、この方法がすべての方向で繰り返され、軌道全体をたどるという事実に直接起因する。
場面の3D再構築およびテクスチャの投影は、いわゆる初期の2D画像の取得ごとに演算され、取得は、上記で定義される時間間隔Δtだけ前回のものとは隔てられる。
代替の手段によれば、場面の3D再構築およびテクスチャの投影は、パノラマシステムの画像の取得ごとに、先に格納された前回の画像に基づいて高頻度で演算される。より正確には、3D再構築に役立つΔtだけ隔てられた2つの連続画像間にある中間画像は、FIFO方式(頭字語は、「先入れ先出し(First In First Out)」を表し、3D再構築の新しいインスタンスを確立するため、取得された新しい画像の各々が、格納された最初の画像と比較され、その後、最初の画像がリストから消去され、最後の画像が更新されたリストに追加される)での3D再構築にも使用できるように格納される。その上、中間画像は、最初の画像と最後の画像との間の対応の促進に役立つことも、3Dモデルにおける「穴」の充填に役立つこともあり得る。
次いで、パノラマシステムによって取得された新しい2D画像の各々に対して、図3と併せて説明される以下のステップA)〜E)の完了時に、モザイクが得られる。
第1の実施形態によれば、3D再構築およびモザイキングは、各取得後に連続して実行される。これは、既に実行された(1つまたは複数の)3D再構築の直後に、新しい3D参照再構築が実行されたと仮定する。
第2の実施形態によれば、3D再構築およびモザイキングは、各取得後に並行して実行される。これは、新しい3D再構築がまだ進行中である間にモザイキングが実行されると仮定し、この事例では、3D参照再構築は、2D画像の前回の取得のうちの1つの取得時に実行されたもの、または、実際には、前回実行された3D再構築である。
これらの様々なステップについては、さらに詳細に説明する。
A)3D投影平面(または表面)を選ぶ。
この第1のステップは、モザイクが構築される3D投影平面または表面を選ぶことにある。これらの3D投影平面または表面は、モザイキングの所定の瞬間にオペレータが自由に選ぶことも、既定の基準に従って場面の現(または参照)3D再構築に基づいて自動的に演算することもできる(例えば、地面の再構成表面に平行な平面または3D再構築から抽出された主平面)。また、3D投影表面は、場面がそれに適する場合や、オペレータがそこに利益を見出した場合に使用することもできる。これにより、例えば、場面の対象物または場面バックグラウンド(特定の幾何学的形状を有する)を表すことが可能になるが、これにより、もっぱら平面であり得る複数の投影によって得ることができる一致性が損なわれることは決してない。
B)パノラマ画像における修正画像または関連セクタを決定する。
1つまたは複数の前回の3D再構築の間に修正画像が演算されていると、投影平面に最も近い(幾何学上の意味で)修正画像が選ばれ、投影平面への直接投影(中間ステップなしの)パラメータが演算される。
この修正画像が遠過ぎる場合、すなわち、例えば、オペレータによって事前に決定された閾値に関して投影平面に近くない場合は、2Dパノラマ画像(いわゆる現2Dパノラマ画像)が取得され、投影平面へのこの現2Dパノラマ画像の直接投影パラメータ、および、ステップDの直接投影の間に使用されるこの現画像のセクタが演算される。
2つの典型的な事例では、投影は、すぐには実行されないが、投影パラメータは、ステップD)で使用するためにメモリに置かれる。
C)以下に基づいて、投影平面における隠れた部分を演算するため、3D再構築を用いて、ステップDの投影に使用することができる利用可能な部分(すなわち、解像度が十分な部分)を決定する。
− ステップBの第1の事例が当てはまる場合は、2D修正画像、または、
− ステップBの第2の事例が当てはまる場合は、直接投影で使用される現パノラマ画像のセクタ。
たった今演算された3D再構築により、場面に存在するマスキングから生じる投影平面における隠れた部分または解像度が不十分な部分(そして逆に、利用可能な可視部分)を自動的に演算することが可能になる。これは要するに、モザイクで保存すべきテクスチャを選択するということになる。パノラマシステムに関係するフレームにおいて3D再構築が最初に構築されているため、この演算は正確である。
本発明による3Dモザイキングの特定の特徴の1つは、様々な投影平面上で場面によって生成されたマスクを排除するために隠れた部分の演算から利益を得て、これらの平面上で可視部分のみを考慮することである。これにより、常に目に見える場面の部分のみを時間的にモザイキングし、投影平面に属さない場面の部分の投影による変形(センサの変位と並行して進化する場面の要素によるマスキングを考慮することができずに、最初から画像全体を投影平面に投影する従来のモザイキングに存在する欠陥)を回避することが可能になる。
D)いくつかの平面上の正角モザイクを得るため、以前のステップで選択されたテクスチャを3D投影平面またはより一般には3D投影表面に投影し、各3D投影平面または表面においてテクスチャを融合させる。
以前のステップで選択されたテクスチャは、投影平面(または表面)に投影され、現モザイクと時間的に融合されて、新しいモザイクが形成される。
テクスチャの投影に役立つものと同じベース画像に基づいて組み立てられた3D再構築から生じた表面または平面に投影することにより、投影における(および画像フレームと再構築された場面のフレームとの間の幾何変換における)非常に高い精度が可能になることに留意することが重要である。また、生成されたモザイクの一致性を確保するのもこれである。しかし、一致性の主な要素は、モザイキングが、モザイクと同じフレームで行われる3D再構築を利用し、そのモザイキングプロセスにおいてマスキングされない画像の部分のみを使用するという事実に起因する。投影に役立つベース画像から生じたものではない外部の3D再構築が使用された事例では、場面に関連するセンサの相対位置におけるおよび投影のオーバラップにおける不確実性を必然的に伴うであろう。
E)これらの提示平面にテクスチャ3D再構築(または複数のテクスチャ3D再構築)を投影することによって、様々な平面に応じてまたはより一般には様々な3D提示表面に応じてモザイクをオペレータに提示する。これらの提示平面は、オペレータによって自由に選ばれ、オペレータによって選ばれた様々な観点によるモザイクの結果の提示にのみ役立つ。モザイクは、提示平面によって、または、テクスチャが投影された曲面が広げられたものを表す平面に応じて(例えば、円筒への投影の場合)、オペレータ提示平面に提示することができる。また、テクスチャ3D結果は、明らかに、適切なソフトウェアを使用して3D仮想形式で直接提示することもできる。投影結果は今まで正角画像を提供してきたが、説明してきたように、このことは、必ずしも従来のモザイキング方法に関する事例であるとは限らない。
この無指向性の同時3D再構築およびモザイキング方法は、光学パノラマシステムに限定されない。光学以外の手段によって(例えば、ライダまたはソナータイプの能動的な手段によって)広い方向場にわたって測定されたテクスチャを利用することは大いに可能である。また、方法は、機器によって与えられた距離を利用することもできる。
産業上の利用の中では、以下が構想され得る。
− 無人機または航空機が上空飛行する場面のリアルタイムの3Dおよびテクスチャ回復(3Dマップの生成への応用、正射投影写真への応用、監視への応用など)
− 地文航法または機上航法への支援
− 産業、医療または他の目視検査
− …

Claims (8)

  1. 場面についての先験的情報なしでの、3Dモザイクとしての場面のモザイキングの方法であって、少なくとも1つの3D再構築が、
    場面の少なくとも1つのポイントの画像が、様々なパノラマシステム場面ポイントの方向に応じて得られた少なくとも3つの連続2Dパノラマ画像にあるように、制約を受けない3D再構築軌道に沿って移動するパノラマセンサによる連続画像の取得ステップと、
    3D再構築軌道に平行な修正面上への、これらの画像の修正ステップと、
    修正された画像に基づく、再構築平面上での3D再構築ステップと、
    の間に得られており、
    A)パノラマセンサによって連続画像を取得し、取得された最後の画像は、現在の2Dパノラマ画像と呼ばれるステップと、
    B)モザイクが構築される、3D再構築に基づく1つまたは複数の投影表面を選ぶステップと、
    C)現在の2Dパノラマ画像のセクタを選択し、3D再構築を用いて、可視部分、すなわち、場面の表面によって隠されていない部分を選択することによって、選択されたセクタにおけるテクスチャを選択するステップと、
    D)各投影表面上の正角モザイクを得るため、選択されたテクスチャを各投影表面に投影し、各投影表面においてテクスチャを融合させるステップと
    をさらに含むことを特徴とする方法。
  2. ステップCが、選ばれた投影表面に対応する、2Dの現在のパノラマ画像のセクタを選択するステップを含むことを特徴とする請求項1に記載の場面のモザイキングの方法。
  3. 前記ステップBないしDが、新しいパノラマ画像の取得ごとに繰り返されることを特徴とする請求項1または2に記載の場面のモザイキングの方法。
  4. 投影表面を選ぶことが、3D再構築の再構築平面と適合するあらゆる方向において実施されることを特徴とする請求項1ないし3のいずれか一項に記載の場面のモザイキングの方法。
  5. 各テクスチャは解像度を呈し、テクスチャの解像度を決定するためのステップを含み、ステップC)のテクスチャの融合は、これらの解像度の関数として行われることを特徴とする請求項1ないし4のいずれか一項に記載の場面のモザイキングの方法。
  6. テクスチャの投影が、焦点面のゆがみ矯正の中間ステップを通過させることがない、直接的なものであることを特徴とする請求項1ないし5のいずれか一項に記載の場面のモザイキングの方法。
  7. 修正面が、さまざまな方向において選ばれることを特徴とする請求項1ないし6のいずれか一項に記載の場面のモザイキングの方法。
  8. 相対的な画像ごとの画像位置付け手段(12、13)を備え付ける、場面の画像を形成し、モザイキング軌道に沿って移動することができるパノラマシステム(1)と、このパノラマシステムにリンクされたコンピュータ(2)であって、請求項1ないし7のいずれか一項に記載の3Dモザイキングの方法を実現するための手段(21)を備える、コンピュータ(2)とを備える、場面の3Dモザイキングのための装置。
JP2016223832A 2012-11-21 2016-11-17 場面の3dパノラマモザイキングの方法 Active JP6483075B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1203126 2012-11-21
FR1203126A FR2998400B1 (fr) 2012-11-21 2012-11-21 Procede de reconstruction 3d et de mosaiquage 3d panoramique d'une scene

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015543413A Division JP6407878B2 (ja) 2012-11-21 2013-11-20 場面の3d再構築および3dパノラマモザイキングの方法

Publications (2)

Publication Number Publication Date
JP2017097871A JP2017097871A (ja) 2017-06-01
JP6483075B2 true JP6483075B2 (ja) 2019-03-13

Family

ID=48224824

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015543413A Active JP6407878B2 (ja) 2012-11-21 2013-11-20 場面の3d再構築および3dパノラマモザイキングの方法
JP2016223832A Active JP6483075B2 (ja) 2012-11-21 2016-11-17 場面の3dパノラマモザイキングの方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015543413A Active JP6407878B2 (ja) 2012-11-21 2013-11-20 場面の3d再構築および3dパノラマモザイキングの方法

Country Status (7)

Country Link
US (3) US9998660B2 (ja)
EP (3) EP3144881B1 (ja)
JP (2) JP6407878B2 (ja)
DK (1) DK3144881T3 (ja)
FR (2) FR2998400B1 (ja)
IL (3) IL238939B (ja)
WO (2) WO2014079880A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105096251A (zh) * 2015-07-18 2015-11-25 哈尔滨工业大学 一种利用超分辨率重建技术提高拼接图像分辨率的方法
US10291845B2 (en) * 2015-08-17 2019-05-14 Nokia Technologies Oy Method, apparatus, and computer program product for personalized depth of field omnidirectional video
TWI555378B (zh) * 2015-10-28 2016-10-21 輿圖行動股份有限公司 一種全景魚眼相機影像校正、合成與景深重建方法與其系統
US9823664B2 (en) 2016-02-25 2017-11-21 A.M.T.S., Llc Unmanned aircraft for positioning an instrument for inspection purposes and methods of inspecting a target surface
JP6835536B2 (ja) * 2016-03-09 2021-02-24 株式会社リコー 画像処理方法、表示装置および点検システム
CN107203965B (zh) * 2016-03-18 2020-03-10 中国科学院宁波材料技术与工程研究所 一种基于多通道图像融合的全景图像拼接方法
US10313575B1 (en) * 2016-11-14 2019-06-04 Talon Aerolytics, Inc. Drone-based inspection of terrestrial assets and corresponding methods, systems, and apparatuses
KR101837403B1 (ko) 2016-12-13 2018-04-19 국방과학연구소 고속 영상 모자이킹 방법 및 장치
US10192111B2 (en) 2017-03-10 2019-01-29 At&T Intellectual Property I, L.P. Structure from motion for drone videos
US10861359B2 (en) * 2017-05-16 2020-12-08 Texas Instruments Incorporated Surround-view with seamless transition to 3D view system and method
NL2019516B1 (en) * 2017-09-08 2019-03-19 Fugro N V System and method for determination of a spatial property of a submerged object in a 3D-space
CN108053409B (zh) * 2017-12-11 2022-05-13 中南大学 一种遥感影像分割基准库自动构建方法及其系统
TWI643498B (zh) * 2018-01-02 2018-12-01 元智大學 以單一影像計算鏡頭視角的方法與攝像裝置
US11430145B2 (en) 2018-06-17 2022-08-30 Foresight Ai Inc. Identification of local motions in point cloud data
CN110968715B (zh) * 2018-09-28 2022-08-05 哈尔滨理工大学 基于非均匀投影的三维模型检索
CN109064410B (zh) * 2018-10-24 2023-03-14 清华大学深圳研究生院 一种基于超像素的光场图像拼接方法
CN110503621B (zh) * 2019-08-23 2022-07-01 上海圭目机器人有限公司 基于定位数据的图像全局拼接方法
CN111445544A (zh) * 2020-02-24 2020-07-24 东莞职业技术学院 一种基于路线实况检测的地图绘制方法
CN111882936A (zh) * 2020-07-18 2020-11-03 纽智医疗科技(苏州)有限公司 一种基于力反馈与虚拟现实的手术预演及教学系统
CN117744196A (zh) * 2020-10-13 2024-03-22 弗莱瑞尔公司 通过自动分析传感器数据生成物理结构和环境的测量结果
CN113344795B (zh) * 2021-08-05 2021-10-29 常州铭赛机器人科技股份有限公司 一种基于先验信息的快速图像拼接方法
CN114630037B (zh) * 2022-03-22 2024-02-02 北京有竹居网络技术有限公司 拍摄装置及其控制方法、装置、可读存储介质和电子设备
CN117132716B (zh) * 2023-10-24 2024-01-26 北京瑞祺皓迪技术股份有限公司 一种动力环境监控方法、装置、电子设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6858826B2 (en) * 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
EP0954828B1 (en) * 1997-01-30 2004-10-27 Yissum Research Development Company Of The Hebrew University Of Jerusalem Generalized panoramic mosaic
JP2003141562A (ja) * 2001-10-29 2003-05-16 Sony Corp 非平面画像の画像処理装置及び画像処理方法、記憶媒体、並びにコンピュータ・プログラム
JP4255272B2 (ja) * 2002-12-06 2009-04-15 学校法人早稲田大学 画像生成装置
JP4355535B2 (ja) * 2003-08-07 2009-11-04 株式会社岩根研究所 360度画像変換処理装置
JP4511147B2 (ja) * 2003-10-02 2010-07-28 株式会社岩根研究所 三次元形状生成装置
JP2006350852A (ja) * 2005-06-17 2006-12-28 Nabura:Kk 画像生成システム
WO2007027847A2 (en) * 2005-09-01 2007-03-08 Geosim Systems Ltd. System and method for cost-effective, high-fidelity 3d-modeling of large-scale urban environments
JP4889351B2 (ja) * 2006-04-06 2012-03-07 株式会社トプコン 画像処理装置及びその処理方法
KR101188588B1 (ko) * 2008-03-27 2012-10-08 주식회사 만도 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
EP2686827A1 (en) * 2011-03-18 2014-01-22 C3 Technologies AB 3d streets

Also Published As

Publication number Publication date
EP3144881B1 (fr) 2018-08-15
JP6407878B2 (ja) 2018-10-17
US20170310892A1 (en) 2017-10-26
IL238938A0 (en) 2015-07-30
US9729789B2 (en) 2017-08-08
EP2923331A1 (fr) 2015-09-30
EP2923330B1 (fr) 2016-12-21
DK3144881T3 (en) 2018-12-03
US9998660B2 (en) 2018-06-12
EP2923330A2 (fr) 2015-09-30
IL238939A0 (en) 2015-07-30
US20150304576A1 (en) 2015-10-22
IL259954A (en) 2018-07-31
EP3144881A1 (fr) 2017-03-22
FR2998400B1 (fr) 2016-01-15
FR2998401A1 (fr) 2014-05-23
JP2016502720A (ja) 2016-01-28
WO2014079879A2 (fr) 2014-05-30
US20150304558A1 (en) 2015-10-22
FR2998401B1 (fr) 2017-03-10
WO2014079880A1 (fr) 2014-05-30
IL259954B (en) 2019-05-30
WO2014079879A3 (fr) 2014-08-07
FR2998400A1 (fr) 2014-05-23
IL238939B (en) 2018-07-31
JP2017097871A (ja) 2017-06-01

Similar Documents

Publication Publication Date Title
JP6483075B2 (ja) 場面の3dパノラマモザイキングの方法
CN108171733B (zh) 使两个或更多个三维3d点云配准的方法
KR100912715B1 (ko) 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치
EP3228984B1 (en) Surveying system
EP2807629B1 (en) Mobile device configured to compute 3d models based on motion sensor data
US8963943B2 (en) Three-dimensional urban modeling apparatus and method
JP4851239B2 (ja) 画像処理装置及びその処理方法
CN108399631B (zh) 一种尺度不变性的倾斜影像多视密集匹配方法
CN115371673A (zh) 一种未知环境中基于Bundle Adjustment的双目相机目标定位方法
JP4851240B2 (ja) 画像処理装置及びその処理方法
JP2005252482A (ja) 画像生成装置及び3次元距離情報取得装置
JP6581348B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5409451B2 (ja) 3次元変化検出装置
KR20200122967A (ko) 복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 시스템 및 방법
Ahmadabadian Photogrammetric multi-view stereo and imaging network design
JP2004127322A (ja) ステレオ画像形成方法及び装置
Wu et al. Photogrammetric processing of LROC NAC images for precision lunar topographic mapping
Mirski et al. Adaptive scanning methods for 3D scene reconstruction
CN117685905A (zh) 一种多模融合的三维成像方法、装置、设备和存储介质
CN115601438A (zh) 外参标定方法、装置以及自主移动设备
CN114663596A (zh) 基于无人机实时仿地飞行方法的大场景建图方法
Heikkinen et al. Augmented 3D Vision System for Object Reconstruction
JP2002170102A (ja) 撮影対象物の自動獲得・復元方法及び装置
Liba et al. Geometrical quality of an orthophotomosaic created with software Photomod
JP2005078554A (ja) 魚眼カメラ運動と3次元情報の復元方法、装置、および、その方法を実行するプログラムを記録した記録媒体

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190213

R150 Certificate of patent or registration of utility model

Ref document number: 6483075

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250