JP7202410B2 - 画像処理方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム - Google Patents

画像処理方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム Download PDF

Info

Publication number
JP7202410B2
JP7202410B2 JP2021057214A JP2021057214A JP7202410B2 JP 7202410 B2 JP7202410 B2 JP 7202410B2 JP 2021057214 A JP2021057214 A JP 2021057214A JP 2021057214 A JP2021057214 A JP 2021057214A JP 7202410 B2 JP7202410 B2 JP 7202410B2
Authority
JP
Japan
Prior art keywords
image sequence
image
images
initial
base
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021057214A
Other languages
English (en)
Other versions
JP2021192227A (ja
Inventor
ヤオ、メン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021192227A publication Critical patent/JP2021192227A/ja
Application granted granted Critical
Publication of JP7202410B2 publication Critical patent/JP7202410B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示の実施例は画像処理分野に関し、より具体的には、画像処理方法、装置及びコンピュータ記憶媒体に関し、自律運転分野に適用できる。
自律運転分野、特に例えば、駐車場や住宅団地の道路における自律駐車又はクルージングのシーンでは、例えば、走行記録画像を収集するための交通手段又は他の機器によって収集される走行記録画像に基づいて上記シーンの三次元モデルを再構築及び融合する必要がある。しかしながら、走行記録画像のデータ量は通常、非常に大きいため、三次元モデルの再構築及び融合には、膨大な計算量を必要とし、且つ大量のシステムリソースを占有する。また、走行記録画像のデータ量のさらなる増加に伴い、三次元モデルの再構築及び融合のための計算量及びシステムリソースの占有量は指数関数的に増加し、その結果、例えば、クラウドで実行可能な三次元モデルの再構築及び融合に膨大な計算負荷をもたらすだけでなく、大量の時間がかかり、さらに三次元モデルの再構築融合の効率を損なうとともに、ユーザー体験を低下してしまう。
本開示の実施例によれば、画像時系列特徴マッチングに基づく大量の走行技術画像の並行三次元再構築融合方法を提供する。
本開示の第1態様では、画像処理方法を提供し、画像シーケンスセットを取得するステップであって、前記画像シーケンスセットは画像シーケンス間の類似度尺度に応じて分けられる複数の画像シーケンスサブセットを含み、各画像シーケンスサブセットは基本画像シーケンス及び他の画像シーケンスを含み、前記基本画像シーケンスに対応する第1類似度尺度は前記他の画像シーケンスに対応する第1類似度尺度以上であるステップと、前記基本画像シーケンスを使用して初期三次元モデルを構築するステップと、前記初期三次元モデルに基づいて、前記他の画像シーケンスを使用して最終三次元モデルを構築するステップと、を含む。
本開示の第2態様では、画像処理装置を提供し、画像シーケンスセットを取得するように構成される画像シーケンスセット取得モジュールであって、前記画像シーケンスセットは画像シーケンス間の類似度尺度に応じて分けられる複数の画像シーケンスサブセットを含み、各画像シーケンスサブセットは基本画像シーケンス及び他の画像シーケンスを含み、前記基本画像シーケンスに対応する第1類似度尺度は前記他の画像シーケンスに対応する第1類似度尺度以上である画像シーケンスセット取得モジュールと、前記基本画像シーケンスを使用して初期三次元モデルを構築するように構成される初期三次元モデル構築モジュールと、前記初期三次元モデルに基づいて、前記他の画像シーケンスを使用して最終三次元モデルを構築するように構成される最終三次元モデル構築モジュールと、を備える。
本開示の第3態様では、電子機器を提供し、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を備え、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行される際、前記少なくとも1つのプロセッサに本開示の第1態様に係る方法を実行させることができる。
本開示の第4態様では、前記コンピュータに本開示の第1態様に係る方法を実現させるためのコンピュータ命令が記憶される非一時的コンピュータ可読記憶媒体を提供する。
本開示の第5態様では、コンピュータプログラムであって、前記コンピュータプログラムがプロセッサによって実行される際、本開示の第1態様に係る方法を実現させる、コンピュータプログラム。
本願に係る技術によれば、三次元モデル構築の効率を向上させるとともに、三次元モデル構築のオーバーヘッドを削減させることができる。
理解すべきことは、発明の概要に記載の内容は、本開示の実施例のキー又は重要な特徴を限定したり、本開示の範囲を限定したりするものではない。本開示の他の特徴は以下の記載によって理解しやすくなる。
図面を参照しながら本開示の例示的な実施例をより詳細に説明し、本開示の上記及び他の目的、特徴及び利点がさらに明らかになり、本開示の例示的な実施例では、同一符号は通常、同一コンポーネントを示す。理解すべきことは、図面は本技術案をよりよく理解するためのものであり、本願を限定しない。
本開示のいくつかの例示的な実施例における画像処理方法を実現できる画像処理環境100の模式図を示す。 本開示の実施例に係る画像処理方法200のフローチャートを示す。 本開示の実施例に係る画像シーケンスの相互関係300の模式図を示す。 本開示の実施例に係る基本画像シーケンスの関連関係及びセグメント400の模式図を示す。 本開示の実施例に係る基本画像シーケンスを利用するインクリメンタルモデリングプロセス500の模式図を示す。 本開示の実施例に係る初期三次元モデル600の模式図を示す。 本開示の実施例に係る初期三次元モデルを利用して最終三次元モデルを構築するプロセス700の模式図を示す。 本開示の実施例に係る画像処理装置800の模式的なブロック図を示す。 本開示の実施例に係る電子機器900の模式的なブロック図を示す。
各図面において、同一の又は対応する符号は同一の又は対応する部分を示す。
以下、図面を参照しながら本開示の好ましい実施例をより詳細に説明する。図面には本開示の好ましい実施例が示されているが、理解されるように、ここで説明される実施例に限定されることなく、様々な形態で本開示を実現することができる。一方、これらの実施例は、本開示をより明瞭かつ完全にし、本開示の範囲を完全に当業者に伝えるために提供される。
本明細書で使用される用語「含む」及びその変形はオープンな包含を示し、即ち、「含むが、これに限定されない」である。特別に説明しない限り、用語「又は」は「及び/又は」を示す。用語「基づく」は、「少なくとも部分的に基づく」を示す。用語「1つの例示的な実施例」及び「1つの実施例」は「少なくとも1つの例示的な実施例」を示す。用語「他の実施例」は「少なくとも1つの他の実施例」を示す。用語「第1」、「第2」等は異なる又は同一の対象を示してもよい。以下、他の明示的及び暗黙的な定義を含む可能性もある。
以上の背景技術に記載のように、従来の三次元モデル再構築及び融合方法を使用する場合、膨大な計算量を必要とし、且つ大量のシステムリソースを占有するため、三次元モデリングの有効性及び実現可能性を損ない、さらにユーザー体験を低下させ、ひいてはユーザーの要件を満たすことができない。
上記課題及び他の潜在的な課題のうちの1つ又は複数の課題を少なくとも部分的に解決するために、本開示の実施例は三次元モデリング用の画像処理方法を提供する。本開示に記載の技術案では、二次元画像マッチング及び類似度計算を三次元融合再構築に使用し、三次元再構築前、データを最適化してグループ化し、それによって大量のデータを利用して三次元モデル融合を行う場合にシステムリソースを占有し時間複雑度が高い課題を解決する。また、本開示に記載の技術案では、二次元画像の類似度に基づいて構成されるビデオ関連グラフは、大量のドライビングレコーダーの画像シーケンスをグループ化し、それによって三次元再構築の計算量を元の指数関数的増加から線形増加に変換するとともに、並行モデリングによってモデリングの成功率を向上させることができる。
図1は本開示のいくつかの例示的な実施例における画像処理方法を実現できる画像処理環境100の模式図を示す。図1に示すように、画像処理環境100は、計算機器120の入力データである画像シーケンスセット110と、計算機器120と、計算機器120の出力データである三次元モデル130とを含む。なお、画像処理環境100は拡張可能であり、入力データであるより多くの画像シーケンスセット110、出力データであるより多くの三次元モデル130、又は画像シーケンスセット110に対するより効率的な並行計算をサポートするためのより多くの計算機器120を含んでもよい。図示の簡潔さのために、図1に1つの画像シーケンスセット110、1つの計算機器120及び1つの三次元モデル130のみが示されている。
本開示の実施例の説明では、画像シーケンスセットとは、1つ又は複数の画像シーケンスから構成されるセットであり、画像シーケンス中の各画像は画像収集機器によって収集される1フレームの画像に対応する。本開示の実施例では、画像シーケンスは、走行記録画像を収集するための交通手段又は他の機器に装着される又は備えられる画像収集機器によって収集され、収集される各フレームの画像は画像収集機器が向く周囲環境及び該環境内に存在する例えば人間、自転車、ペット等の他の対象を含む。画像収集過程では、画像収集機器は所定距離又は所定時間ごとに1フレームの画像を収集し、画像収集の全過程で順に収集される画像はこの画像収集過程に対する画像シーケンスを構成し、この画像シーケンスはビデオの形式として具現化されてもよい。
本開示の実施例の説明では、画像シーケンスセットに対する三次元モデル再構築及び融合とは、画像シーケンスセットを利用してモデリングによって三次元モデルを得るプロセスである。本開示の実施例によれば、得られる三次元モデルは画像シーケンスセットに係る例えば駐車場や住宅団地の道路の周囲環境の三次元点群、及び収集される各画像の内容及び関連情報を含んでもよい。
本開示の実施例の説明では、三次元モデル再構築及び融合は順次線形プロセスであってもよく、即ち、新たな画像を絶えず追加してモデリングに関与させてモデリングプロセスを行い、モデリングに関与する画像は数十万枚以上に達する可能性がある。
図2は本開示の実施例に係る画像処理方法200のフローチャートを示す。具体的には、方法200は計算機器120によって実行されてもよい。理解されるように、方法200は図示していない付加的な操作を含んでもよく、及び/又は図示される操作を省略してもよく、本開示の範囲はこれに限定されない。
ブロック202では、計算機器120は画像シーケンスセット110を取得する。本開示の実施例では、画像シーケンスセット110は画像シーケンス間の類似度尺度に応じて分けられる複数の画像シーケンスサブセットを含み、各画像シーケンスサブセットは基本画像シーケンス及び他の画像シーケンスを含み、基本画像シーケンスに対応する第1類似度尺度は他の画像シーケンスに対応する第1類似度尺度以上である。
以下、図3を参照しながら画像シーケンスセット110をさらに説明する。図3は本開示の実施例に係る画像シーケンスの相互関係300の模式図を示す。図3に計13個の画像シーケンス、即ち、301、302、303、304、305、306、307、308、309、310、311、312及び313が示され、それらは画像シーケンスセット110の例を構成する。図3では、破線の楕円320、330、340、350及び360は複数の画像シーケンスサブセットを示し、画像シーケンスサブセット320は画像シーケンス303、301及び313を含み、画像シーケンスサブセット330は画像シーケンス302、303、304及び305を含み、画像シーケンスサブセット340は画像シーケンス301、306及び309を含み、画像シーケンスサブセット350は画像シーケンス310、311、312及び313を含み、画像シーケンスサブセット360は画像シーケンス301、307及び308を含む。
図3に示される画像シーケンスのうち、画像シーケンス301、303及び313は基本画像シーケンスであり、画像シーケンスサブセット320を構成する。基本画像シーケンスに含まれる安定要素は最も多く、それらの関連性が最も高く、より高い類似度尺度を示し、従って、まず、基本画像シーケンスを利用して三次元モデリングを行い、その後、他の画像シーケンスを利用してさらなる三次元モデリングを行うことができる。また、画像シーケンスサブセット320、330、340、350及び360はいずれも基本画像シーケンスを含むことで、基本画像シーケンスを利用して三次元モデリングを行った後、他の画像シーケンスを利用してモデリングすることができ、これらの他の画像シーケンスはいずれも特定の基本画像シーケンスと高い関連性を有する。また、画像シーケンスサブセット320、330、340、350及び360は類似度尺度に応じてその区分を決定してもよい。本開示の例示的な実施例では、各画像シーケンスサブセット中の画像シーケンスサブセットに対応する第2類似度尺度は他の画像シーケンスサブセット中の画像シーケンスサブセットに対応する第2類似度尺度以上である。本開示の実施例では、第1類似度尺度は第2類似度尺度以上である。
ブロック204では、計算機器120は基本画像シーケンスを使用して初期三次元モデルを構築する。図3中の例を例として、計算機器120は基本画像シーケンスである画像シーケンス301、303及び313を使用して初期三次元モデルを構築する。
本開示の例示的な実施例では、計算機器120は基本画像シーケンスである画像シーケンス301、303及び313を使用して初期三次元モデルを構築する場合、まず、画像シーケンス301、303及び313を整列し、且つ付加的にはそれらをセグメント化する必要がある。
図4は本開示の実施例に係る基本画像シーケンスの関連関係及びセグメント400の模式図を示す。本開示の例示的な実施例では、図3中の例を参照し、画像シーケンス301、303及び313の画像収集開始位置が異なる可能性があるため、画像シーケンス301、303及び313の初期収集画像のシーンも異なる。三次元モデリングでは、同一の収集位置で収集される画像を使用して三次元モデリングを行う必要がある。従って、異なる画像シーケンスから同一収集位置で収集される画像を見つける必要があり、これらの画像は高い類似度尺度を有し、この操作は異なる画像シーケンス間の関連する画像を決定すると呼ばれてもよい。理解すべきことは、画像シーケンス301、303及び313中の画像はいずれも収集時間順にソートされるため、シーケンス中の1番目の画像が整列された後、シーケンス中の後続の画像も整列される確率が高く、このとき、類似度尺度を決定することで後続の画像を整列するプロセスを省略することができる。
本開示の例示的な実施例では、計算機器120は、画像の収集位置、及び画像間の第3類似度尺度のうちの少なくとも1つに応じて、基本画像シーケンス間で基本画像シーケンスに関連する画像を決定する。
図4に示すように、3個の画像シーケンス303、301及び313はずれて配列され、即ち、整列されており、それによって、同一位置に対応する画像は同一収集位置に対して収集され、高い類似度尺度を有する。本開示の例示的な実施例では、異なる画像シーケンスは異なる数の画像を有してもよく、従って、3個の画像シーケンス303、301及び313の全長は異なる。
計算機器120は基本画像シーケンス間で基本画像シーケンスに関連する画像を決定した後、即ち、基本画像シーケンスを整列した後、基本画像シーケンスに関連する画像を使用して三次元モデルを構築することができる。
本開示の例示的な実施例では、基本画像シーケンスの長さが長い場合、直接整列して三次元モデリングを行うと、膨大な計算量を必要とし、且つ大量のシステムリソースを占有する。従って、計算量及び占有されるシステムリソースをさらに削減するために、基本画像シーケンスをセグメント化してもよい。セグメント化の標準は、利用可能なコンピュータ又は計算スレッドの計算能力であってもよい。利用可能なコンピュータ又は計算スレッドの計算能力が高いほど、セグメント数が少ないようにしてもよい。
図4に示すように、基本画像シーケンス303は5個のセグメント、即ち、303-1、303-2、303-3、303-4及び303-5に分けられ、基本画像シーケンス301は4個のセグメント、即ち、301-2、301-3、301-4及び301-5に分けられ、基本画像シーケンス313は4個のセグメント、即ち、313-1、313-2、313-3及び313-4に分けられる。図4に示すように、セグメント303-1及び313-1は整列され、セグメント303-2、301-2及び313-2は整列され、セグメント303-3、301-3及び313-3は整列され、セグメント303-4、301-4及び313-4は整列され、セグメント303-5及び301-5は整列される。
本開示の例示的な実施例では、計算機器120は基本画像シーケンスをセグメント化した後、1番目のセグメントに対して初期基本セグメント三次元モデルを構築することができる。
図5は本開示の実施例に係る基本画像シーケンスを利用するインクリメンタルモデリングプロセス500の模式図を示す。図5に示すように、図4中のセグメント303-1及び313-1を利用してモデリングして、初期基本セグメント三次元モデル501を得る。図4に示すように、セグメント303-2及び313-2がセグメント303-1及び313-1に次ぐセグメントであるため、初期基本セグメント三次元モデル501に基づいてセグメント303-2及び313-2及び対応するセグメント301-2を利用してインクリメンタルモデリングを行うことができ、それによってセグメント303-2、313-2及び301-2に対応するインクリメンタル基本セグメント三次元モデル502を得る。その後、インクリメンタル基本セグメント三次元モデル502を初期基本セグメント三次元モデルとし、基本セグメント三次元モデル502のみに基づいて、それに次ぐセグメント303-3、313-3及び301-3を利用してインクリメンタルモデリングを行い、それによってインクリメンタル基本セグメント三次元モデル503を得て、以下同様に、インクリメンタル基本セグメント三次元モデル504及び505を得る。
その後、計算機器120は構築される初期基本セグメント三次元モデル501及び後続で構築されるインクリメンタル基本セグメント三次元モデル502、503、504及び505を融合して、初期三次元モデルを取得するようにしてもよい。
図6に示すように、本開示の実施例に係る初期三次元モデル600の模式図を示す。図6に示すように、初期三次元モデル600は基本セグメント三次元モデル501、502、503、504及び505を含む。
本開示の例示的な実施例では、図5に示される4を使用して基本セグメント三次元モデルを全体として初期三次元モデルを構築してもよく、即ち、基本セグメント三次元モデル501及び502、基本セグメント三次元モデル502及び503、基本セグメント三次元モデル503及び504、並びに基本セグメント三次元モデル504及び505を使用する。この場合、各基本セグメント三次元モデルペアはその前又はその後の基本セグメント三次元モデルペアと重なる部分を有するため、初期三次元モデルの構築をより容易に実現できる。
本開示の例示的な実施例では、複数のインクリメンタル基本セグメント三次元モデルを並行して構築してもよい。例えば、図4に示すように、まず、対応するセグメント303-3、301-3及び313-3を使用して初期基本セグメント三次元モデル503を構築し、その後、それぞれ2台のコンピュータ又は同一のコンピュータの異なるスレッドによって初期基本セグメント三次元モデル503に基づいて、それぞれセグメント303-2、313-2及び301-2、又はセグメント303-4、313-4及び301-4を使用して、インクリメンタルモデリングを並行して行い、インクリメンタル初期基本セグメント三次元モデル502及び504を並行して得る。
図2に戻り、206では、計算機器120は初期三次元モデルに基づいて、他の画像シーケンスを使用して最終三次元モデルを構築する。
本開示の実施例では、初期三次元モデルがセグメント化せず、且つすべての画像シーケンスが自然に整列される場合、計算機器120は初期三次元モデルに基づいて、それぞれ複数の画像シーケンスサブセット中の他の画像シーケンスを使用して複数の中間三次元モデルを構築してもよく、各中間三次元モデルは1つの画像シーケンスサブセットに対応する。その後、計算機器120は複数の中間三次元モデルを融合して最終三次元モデルを取得する。理解すべきことは、初期三次元モデルに基づいて中間三次元モデルを構築するプロセスがインクリメンタルモデリングであるため、得られる複数の中間三次元モデル中の初期三次元モデル部分が同じであり、従って、それらを融合して最終三次元モデルを取得することが容易になる。本開示の実施例では、中間三次元モデルを構築するプロセスが複数の異なるコンピュータ又は異なる計算スレッドによって並行して行われることで、最終三次元モデルの取得速度を向上させることができる。
本開示の実施例では、初期三次元モデルがセグメント化せず、すべての画像シーケンスが自然に整列されていない場合、さらにすべての画像シーケンスを整列する必要がある。例えば、計算機器120は、画像の収集位置、及び画像間の第3類似度尺度のうちの少なくとも1つに応じて画像シーケンスセット中の画像シーケンス間で関連する画像を決定してもよく、関連する画像は、基本画像シーケンスに関連する画像及び他の画像シーケンスに関連する画像を含む。この整列プロセスは以上の図4について説明されたプロセスと類似し、ここでは詳細な説明を省略する。
本開示の実施例では、初期三次元モデルが複数の基本セグメント三次元モデルからなり、例えば、図6に示される初期三次元モデル600が基本セグメント三次元モデル501、502、503、504及び505からなり、且つすべての画像シーケンスが自然に整列されていない場合、計算機器120は、まず、上記のようにすべての画像シーケンスを整列する。その後、計算機器120は基本画像シーケンスのセグメント化に従って他の画像シーケンスをセグメント化する。
図7は本開示の実施例に係る初期三次元モデルを利用して最終三次元モデルを構築するプロセス700の模式図を示す。図7中の4個の破線ブロック701、702、703及び704はそれぞれ4個の異なる計算機器を示し、計算機器はサーバであってもよく、これら4個の計算機器はクラウドコンピューティング機器であってもよい。各計算機器において、基本セグメント三次元モデル501、502、503、504及び505から構成される初期三次元モデルに基づいてインクリメンタルモデリングを行い、異なる計算機器を区別する目的は、これらのインクリメンタルモデリングプロセスをこれらの計算機器で並行して行うことができることを説明することである。
本開示の実施例では、すべての他の画像シーケンスは基本画像シーケンス303、301及び313に整列され、且つ対応してセグメント化され、他の画像シーケンス302はセグメント302-1、302-2、302-3、302-4及び302-5に分けられ、他の画像シーケンス304はセグメント304-2、304-3、304-4及び304-5に分けられ、他の画像シーケンス305はセグメント305-1、305-2、305-3及び302-4に分けられ、他の画像シーケンス306はセグメント306-1、306-2、306-3、306-4及び306-5に分けられ、他の画像シーケンス309はセグメント309-2、309-3、309-4及び309-5に分けられ、他の画像シーケンス308はセグメント308-2、308-3、308-4及び308-5に分けられ、他の画像シーケンス307はセグメント307-1、307-2、307-3及び307-4に分けられ、他の画像シーケンス310はセグメント310-1、310-2、310-3、310-4及び310-5に分けられ、他の画像シーケンス311はセグメント311-2、311-3、311-4及び311-5に分けられ、他の画像シーケンス312はセグメント312-1、312-2、312-3及び312-4に分けられる。
その後、4個の計算機器701、702、703及び704はそれぞれ基本セグメント三次元モデル501、502、503、504及び505から構成される初期三次元モデルに基づいて、基本画像シーケンス302、304、305、306、309、308、307、310、311及び312から分けられたセグメントに対してインクリメンタルモデリングを行う。線分で結ばれる異なるセグメントはセグメントと基本セグメント三次元モデルとの対応関係を指示し、1つの基本セグメント三次元モデル及び対応するすべてのセグメントのインクリメンタルモデリングは他の基本セグメント三次元モデル及び対応するすべてのセグメントのインクリメンタルモデリングと並行して行われてもよく、例えば、計算機器701、702、703及び704の異なるスレッドによって行われる。
以上、図1~図7を参照しながら、本開示のいくつかの例示的な実施例における画像処理方法を実現する画像処理環境100、本開示の実施例に係る画像処理方法200、本開示の実施例に係る画像シーケンスの相互関係300、本開示の実施例に係る基本画像シーケンスの関連関係及びセグメント400、本開示の実施例に係る基本画像シーケンスを利用するインクリメンタルモデリングプロセス500、本開示の実施例に係る初期三次元モデル600、及び本開示の実施例に係る初期三次元モデルを利用して最終三次元モデルを構築するプロセス700の関連内容を説明した。理解すべきことは、上記説明は本開示に記載の内容をよりよく展示するためのものであり、それを限定しない。
理解すべきことは、本開示の上記各図に採用される各種の素子の数及び物理量の大きさは例示的なものであり、本開示の保護範囲を限定しない。上記数及び大きさは必要に応じて任意に設定でき、本開示の実施形態の正常実施に影響を与えない。
以上、図1~図7を参照しながら本開示の実施形態の画像処理方法の詳細を説明した。以下、図8を参照しながら画像処理装置の各モジュールを説明する。
図8は本開示の実施例に係る画像処理装置800の模式的なブロック図である。図8に示すように、装置800は、画像シーケンスセットを取得するように構成される画像シーケンスセット取得モジュール810であって、前記画像シーケンスセットは画像シーケンス間の類似度尺度に応じて分けられる複数の画像シーケンスサブセットを含み、各画像シーケンスサブセットは基本画像シーケンス及び他の画像シーケンスを含み、前記基本画像シーケンスに対応する第1類似度尺度は前記他の画像シーケンスに対応する第1類似度尺度以上である画像シーケンスセット取得モジュール810と、前記基本画像シーケンスを使用して初期三次元モデルを構築するように構成される初期三次元モデル構築モジュール820と、前記初期三次元モデルに基づいて、前記他の画像シーケンスを使用して最終三次元モデルを構築するように構成される最終三次元モデル構築モジュール830と、を備える。
いくつかの実施例では、各画像シーケンスサブセット中の画像シーケンスサブセットに対応する第2類似度尺度は他の画像シーケンスサブセット中の画像シーケンスサブセットに対応する第2類似度尺度以上である。
いくつかの実施例では、前記初期三次元モデル構築モジュール820は、前記画像の収集位置、及び前記画像間の第3類似度尺度のうちの少なくとも1つに応じて、前記基本画像シーケンス間で基本画像シーケンスに関連する画像を決定するように構成される第1関連画像決定モジュール(図示せず)と、前記基本画像シーケンスに関連する画像を使用して、前記初期三次元モデルを構築するように構成される第1初期三次元モデル構築モジュール(図示せず)と、を備える。
いくつかの実施例では、前記初期三次元モデル構築モジュール820は、前記基本画像シーケンスに関連する画像を画像収集順に複数の対応する基本セグメントに分けるように構成される基本セグメント区分モジュール(図示せず)と、前記複数の対応する基本セグメントのうちの1つの対応する基本セグメントを使用して、初期基本セグメント三次元モデルを構築するように構成される初期基本セグメント三次元モデル構築モジュール(図示せず)と、構築される前記初期基本セグメント三次元モデルに基づいて、前記1つの対応する基本セグメントと隣接する対応する基本セグメントを使用して、インクリメンタル基本セグメント三次元モデルを構築するように構成されるインクリメンタル基本セグメント三次元モデル構築モジュール(図示せず)と、前記初期基本セグメント三次元モデルと前記インクリメンタル基本セグメント三次元モデルを融合して、前記初期三次元モデルを取得するように構成される第2初期三次元モデル構築モジュール(図示せず)と、を備える。
いくつかの実施例では、前記インクリメンタル基本セグメント三次元モデル構築モジュールは、複数の前記インクリメンタル基本セグメント三次元モデルを並行して構築するように構成される。
いくつかの実施例では、前記最終三次元モデル構築モジュール830は、前記初期三次元モデルに基づいて、それぞれ前記複数の画像シーケンスサブセット中の前記他の画像シーケンスを使用して、複数の中間三次元モデルを構築するように構成される第1中間三次元モデル構築モジュール(図示せず)と、前記複数の中間三次元モデルを融合して、前記最終三次元モデルを取得するように構成される第1最終三次元モデル構築モジュール(図示せず)と、を備える。
いくつかの実施例では、前記中間三次元モデル構築モジュールは、複数の前記中間三次元モデルを並行して構築するように構成される。
いくつかの実施例では、前記最終三次元モデル構築モジュール830は、前記画像の収集位置、及び前記画像間の第3類似度尺度のうちの少なくとも1つに応じて前記画像シーケンスセット中の画像シーケンス間で関連する画像を決定するように構成される第2関連画像決定モジュール(図示せず)であって、前記関連する画像は前記基本画像シーケンスに関連する画像及び前記他の画像シーケンスに関連する画像を含む第2関連画像決定モジュール(図示せず)と、前記他の画像シーケンスに関連する画像を使用して、前記最終三次元モデルを構築するように構成される第2最終三次元モデル構築モジュール(図示せず)と、を備える。
いくつかの実施例では、前記最終三次元モデル構築モジュール830は、前記画像の収集位置、及び前記画像間の第3類似度尺度のうちの少なくとも1つに応じて前記画像シーケンスセット中の画像シーケンス間で関連する画像を決定するように構成される第2関連画像決定モジュール(図示せず)であって、前記関連する画像は前記基本画像シーケンスに関連する画像及び前記他の画像シーケンスに関連する画像を含む第2関連画像決定モジュール(図示せず)と、前記関連する画像を画像収集順に複数の対応するセグメントに分けるように構成されるセグメント区分モジュール(図示せず)であって、前記複数の対応するセグメントは前記複数の対応する基本セグメント及び前記他の画像シーケンスから分けられる複数の対応する他のセグメントを含むセグメント区分モジュール(図示せず)と、前記初期三次元モデルに基づいて、前記初期基本セグメント三次元モデル及び前記インクリメンタル基本セグメント三次元モデルに対応する前記対応する他のセグメントを使用して、複数の中間三次元モデルを構築するように構成される第1中間三次元モデル構築モジュール(図示せず)と、前記複数の中間三次元モデルを融合して、前記最終三次元モデルを取得するように構成される第1最終三次元モデル構築モジュール(図示せず)と、を備える。
いくつかの実施例では、前記第1中間三次元モデル構築モジュールは、複数の前記中間三次元モデルを並行して構築するように構成される。
本開示の実施例では、本開示は電子機器及び可読記憶媒体をさらに提供する。
以上図1~図8を参照して説明したように、本開示の実施形態に係る技術案は従来の技術案に比べて多くの利点を有する。例えば、該技術案によれば、ビデオシーケンス関連グラフを十分に利用し、三次元再構築モデル融合のデータを合理的に分割することができ、クラウドでの大量の三次元融合モデリングの計算複雑度を低減させ、プロセスは分散式並行処理に適し、会社のクラスターの計算能力を十分に発揮し、計算効率を大幅に向上させる。
図9は本開示の実施例に係る電子機器900の模式的なブロック図を示す。例えば、図1に示される計算機器120及び図8に示される画像処理装置800は電子機器900によって実施されてもよい。電子機器900は、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレーム、及びその他の適切なコンピュータなどの、様々な形式のデジタルコンピュータを表すことを目的としている。電子機器900は、例えばパーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス及びその他の同様の計算装置等の、様々な形式のモバイル装置を表すこともできる。本明細書に示されているコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書に説明される及び/又は必要とされる本開示の実現を制限することを意図したものではない。
図9に示すように、該電子機器900は、1つ又は複数のプロセッサ901、メモリ902、及び各コンポーネントを接続するためのインターフェースを備え、インターフェースは高速インターフェース及び低速インターフェースを含む。各コンポーネントは、異なるバスにより互いに接続されており、パブリックメインボードに取り付けられてもよく、又は必要に応じて他の方式で取り付けられてもよい。プロセッサは電子機器900内において実行する命令を処理することができ、命令は、外部入力/出力装置(例えば、インターフェースに結合された表示機器など)にGUIのグラフィック情報を表示するようにメモリ内又はメモリ上に記憶されている命令を含む。他の実施形態では、必要がある場合、複数のプロセッサ及び/又は複数のバスを複数のメモリとともに使用することができる。同様に、複数の電子機器900が接続されてもよく、各電子機器は一部の必要な操作(例えば、サーバアレイ、一組のブレードサーバ、又はマルチプロセッサシステムとして)を提供する。図9では、1つのプロセッサ901を例とする。
メモリ902は本開示に係る非一時的コンピュータ可読記憶媒体である。前記メモリには、少なくとも1つのプロセッサによって実行可能な命令が記憶されており、このように、前記少なくとも1つのプロセッサは本開示に係る画像処理方法を実行する。本開示の非一時的コンピュータ可読記憶媒体は、コンピュータに本開示に係る画像処理方法を実行させるためのコンピュータ命令を記憶する。
メモリ902は、非一時的コンピュータ可読記憶媒体として、非一時的ソフトウェアプログラム、非一時的コンピュータ実行可能プログラム及びモジュールを記憶することに用いることができ、例えば、本開示の実施例における画像処理方法に対応するプログラム命令/モジュール(例えば、図8に示される画像シーケンスセット取得モジュール810、初期三次元モデル構築モジュール820及び最終三次元モデル構築モジュール830)を記憶することに用いることができる。プロセッサ901は、メモリ902に記憶されている非一時的ソフトウェアプログラム、命令及びモジュールを実行することにより、サーバの様々な機能アプリケーション及びデータ処理を実行し、即ち、上記方法の実施例における画像処理方法を実現する。
メモリ902はプログラム記憶領域及びデータ記憶領域を含んでもよく、プログラム記憶領域はオペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データ記憶領域は電子機器900の使用により作成されたデータ等を記憶することができる。また、メモリ902は高速ランダムアクセスメモリを含んでもよく、更に、例えば少なくとも1つの磁気ディスク記憶装置、フラッシュ記憶装置、又は他の非一時的固体記憶装置などの非一時的なメモリを含んでもよい。いくつかの実施例では、メモリ902はプロセッサ901に対して遠隔的に設置されたメモリを含んでもよく、これらのリモートメモリはネットワークを介して電子機器900に接続されることができる。上記ネットワークの例には、インターネット、企業イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク及びそれらの組み合わせが含まれるが、これらに限定されない。
電子機器900は入力装置903及び出力装置904をさらに備えてもよい。プロセッサ901、メモリ902、入力装置903及び出力装置904はバス又は他の方式で接続することができ、図9では、バスによる接続を例とする。
入力装置903は、入力された数字又は文字情報を受信し、電子機器900のユーザー設定及び機能制御に関連するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、インジケータースティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティック等の入力装置が挙げられる。出力装置904は表示機器、補助照明装置(例えば、LED)及び触覚フィードバック装置(例えば、振動モータ)等を含んでもよい。該表示機器は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ及びプラズマディスプレイを含んでもよいが、これらに限定されない。いくつかの実施形態では、表示機器はタッチスクリーンであってもよい。
ここで説明されるシステム及び技術の様々な実施形態はデジタル電子回路システム、集積回路システム、専用ASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組合せにおいて実現できる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムにおいて実施されることを含んでもよく、該1つ又は複数のコンピュータプログラムは少なくとも1つのプログラマブルプロセッサを備えるプログラマブルシステムにおいて実行及び/又は解釈されてもよく、該プログラマブルプロセッサは専用又は汎用プログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を該記憶システム、該少なくとも1つの入力装置、及び該少なくとも1つの出力装置に伝送することができる。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)はプログラマブルプロセッサの機械命令を含み、且つハイレベル手順及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ言語/機械語でこれらのコンピュータプログラムを実施することができる。本明細書で使用される用語「機械可読媒体」及び「コンピュータ可読媒体」とは、機械命令及び/又はデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械命令を機械可読信号として受信する機械可読媒体を含む。用語「機械可読信号」とは、機械命令及び/又はデータをプログラマブルプロセッサに提供するために使用される任意の信号を指す。
ユーザーとの対話を提供するために、ここで説明されるシステム及び技術をコンピュータにおいて実施でき、該コンピュータは、ユーザーに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)、キーボード及びポインティング装置(例えば、マウス又はトラックボール)を有し、ユーザーは該キーボード及び該ポインティング装置によって入力をコンピュータに提供することができる。他のタイプの装置もユーザーとの対話を提供でき、例えば、ユーザーに提供するフィードバックは任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形態(声入力、音声入力又は触覚入力を含む)を用いてユーザーからの入力を受信できる。
ここで説明されるシステム及び技術を、バックエンドコンポーネントを備える計算システム(例えば、データサーバとする)、又はミドルウェアコンポーネントを備える計算システム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを備える計算システム(例えば、グラフィカルユーザーインターフェース又はネットワークブラウザを有するユーザーコンピュータが挙げられ、ユーザーは該グラフィカルユーザーインターフェース又は該ネットワークブラウザによって、ここで説明されるシステム及び技術の実施形態と対話できる)、又はこのようなバックエンドコンポーネント、ミドルウェアコンポーネント、又はフロントエンドコンポーネントの任意の組合せを備える計算システムにおいて実施することできる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを互いに接続することができる。通信ネットワークの例はローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットを含む。
コンピュータシステムはクライアント及びサーバを備えてもよい。クライアント及びサーバは一般に互いに離間しており、通常、通信ネットワークによって対話する。対応するコンピュータにおいて実行され且つ互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバの関係を生成する。
本開示の実施例に係る技術案によれば、画像シーケンス間の類似度に応じて、画像シーケンスを含む画像シーケンスセットを1つ又は複数の画像シーケンスサブセットに分け、その後、各画像シーケンスサブセットにおいて1つの画像シーケンス中の画像と画像シーケンスサブセット中の他の画像シーケンス中の画像との関連性を決定することで、高関連性を有する画像を効果的に決定でき、決定される高関連性の画像のみに対して後続の時間やリソースがかかる特徴マッチング計算を行うことができ、それによって、計算量を減少させ、計算効率を向上させる。また、画像シーケンスセットが1つ又は複数の画像シーケンスサブセットに分けられるため、並行する特徴マッチング計算を実行するように、異なる画像シーケンスサブセットを異なる計算機器に割り当てることができる。このようにして、計算リソースを十分に利用し、計算時間をさらに減少させ、計算効率を向上させることができる。
理解すべきことは、上記様々なプロセスを使用して、ステップを並べ替え、追加又は削除してもよい。例えば、本願に記載の各ステップは並行して実行されてもよく順番実行されてもよく異なる順序で実行されてもよく、本開示の技術案の所望の結果を実現できればよく、本明細書では限定しない。
上記具体的な実施形態は、本開示の保護範囲を限定するものではない。当業者であれば、設計要件及び他の要素に応じて、種々の変更、組合せ、サブ組合せや代替を行うことができることは理解すべきである。本開示の精神及び原則を逸脱せずに行われる変更、同等置換や改良等はすべて本開示の保護範囲に属する。

Claims (23)

  1. 画像処理方法であって、
    画像シーケンスセットを取得するステップであって、前記画像シーケンスセットは画像シーケンス間の類似度尺度に応じて分けられる複数の画像シーケンスサブセットを含み、各画像シーケンスサブセットは基本画像シーケンス及び他の画像シーケンスを含み、前記基本画像シーケンスに対応する第1類似度尺度は前記他の画像シーケンスに対応する第1類似度尺度よりも高く、前記画像シーケンスセットにおいて、基本画像シーケンスに含まれる画像の間の関連性が最も高く、より高い関連性は、より高い類似度尺度を有することを示すステップと、
    前記基本画像シーケンスを使用して初期三次元モデルを構築するステップと、
    前記初期三次元モデルに基づいて、前記他の画像シーケンスを使用して最終三次元モデルを構築するステップであって、前記他の画像シーケンスに含まれる画像の間の関連性は、前記基本画像シーケンスよりも低いステップと、を含む画像処理方法。
  2. 各画像シーケンスサブセット中の画像シーケンスサブセットに対応する第2類似度尺度は他の画像シーケンスサブセット中の画像シーケンスサブセットに対応する第2類似度尺度以上である請求項1に記載の方法。
  3. 初期三次元モデルを構築するステップは、
    前記画像の収集位置、及び前記画像間の第3類似度尺度のうちの少なくとも1つに応じて、前記基本画像シーケンス間で基本画像シーケンスに関連する画像を決定するステップと、
    前記基本画像シーケンスに関連する画像を使用して、前記初期三次元モデルを構築するステップと、を含む請求項1に記載の方法。
  4. 前記初期三次元モデルを構築するステップは、
    前記基本画像シーケンスに関連する画像を画像収集順に複数の対応する基本セグメントに分けるステップと、
    前記複数の対応する基本セグメントのうちの1つの対応する基本セグメントを使用して、初期基本セグメント三次元モデルを構築するステップと、
    構築される前記初期基本セグメント三次元モデルに基づいて、前記1つの対応する基本セグメントと隣接する対応する基本セグメントを使用して、インクリメンタル基本セグメント三次元モデルを構築するステップと、
    前記初期基本セグメント三次元モデルと前記インクリメンタル基本セグメント三次元モデルを融合して、前記初期三次元モデルを取得するステップと、を含む請求項3に記載の方法。
  5. 複数の前記インクリメンタル基本セグメント三次元モデルは並行して構築される請求項4に記載の方法。
  6. 最終三次元モデルを構築するステップは、
    前記初期三次元モデルに基づいて、それぞれ前記複数の画像シーケンスサブセット中の前記他の画像シーケンスを使用して、複数の中間三次元モデルを構築するステップと、
    前記複数の中間三次元モデルを融合して、前記最終三次元モデルを取得するステップと、を含む請求項1に記載の方法。
  7. 複数の前記中間三次元モデルは並行して構築される請求項6に記載の方法。
  8. 最終三次元モデルを構築するステップは、
    前記画像の収集位置、及び前記画像間の第3類似度尺度のうちの少なくとも1つに応じて前記画像シーケンスセット中の画像シーケンス間で関連する画像を決定するステップであって、前記関連する画像は前記基本画像シーケンスに関連する画像及び前記他の画像シーケンスに関連する画像を含むステップと、
    前記他の画像シーケンスに関連する画像を使用して、前記最終三次元モデルを構築するステップと、を含む請求項3に記載の方法。
  9. 最終三次元モデルを構築するステップは、
    前記画像の収集位置、及び前記画像間の第3類似度尺度のうちの少なくとも1つに応じて前記画像シーケンスセット中の画像シーケンス間で関連する画像を決定するステップであって、前記関連する画像は前記基本画像シーケンスに関連する画像及び前記他の画像シーケンスに関連する画像を含むステップと、
    前記関連する画像を画像収集順に複数の対応するセグメントに分けるステップであって、前記複数の対応するセグメントは前記複数の対応する基本セグメント及び前記他の画像シーケンスから分けられる複数の対応する他のセグメントを含むステップと、
    前記初期三次元モデルに基づいて、前記初期基本セグメント三次元モデル及び前記インクリメンタル基本セグメント三次元モデルに対応する前記対応する他のセグメントを使用して、複数の中間三次元モデルを構築するステップと、
    前記複数の中間三次元モデルを融合して、前記最終三次元モデルを取得するステップと、を含む請求項4に記載の方法。
  10. 複数の前記中間三次元モデルは並行して構築される請求項9に記載の方法。
  11. 画像処理装置であって、
    画像シーケンスセットを取得するように構成される画像シーケンスセット取得モジュールであって、前記画像シーケンスセットは画像シーケンス間の類似度尺度に応じて分けられる複数の画像シーケンスサブセットを含み、各画像シーケンスサブセットは基本画像シーケンス及び他の画像シーケンスを含み、前記基本画像シーケンスに対応する第1類似度尺度は前記他の画像シーケンスに対応する第1類似度尺度よりも高くなり、前記画像シーケンスセットにおいて、基本画像シーケンスに含まれる画像の間の関連性が最も高く、より高い関連性は、より高い類似度尺度を有することを示す画像シーケンスセット取得モジュールと、
    前記基本画像シーケンスを使用して初期三次元モデルを構築するように構成される初期三次元モデル構築モジュールと、
    前記初期三次元モデルに基づいて、前記他の画像シーケンスを使用して最終三次元モデルを構築するように構成され、前記他の画像シーケンスに含まれる画像の間の関連性は、前記基本画像シーケンスよりも低い最終三次元モデル構築モジュールと、を備える画像処理装置。
  12. 各画像シーケンスサブセット中の画像シーケンスサブセットに対応する第2類似度尺度は他の画像シーケンスサブセット中の画像シーケンスサブセットに対応する第2類似度尺度以上である請求項11に記載の装置。
  13. 前記初期三次元モデル構築モジュールは、
    前記画像の収集位置、及び前記画像間の第3類似度尺度のうちの少なくとも1つに応じて、前記基本画像シーケンス間で基本画像シーケンスに関連する画像を決定するように構成される第1関連画像決定モジュールと、
    前記基本画像シーケンスに関連する画像を使用して、前記初期三次元モデルを構築するように構成される第1初期三次元モデル構築モジュールと、を備える請求項11に記載の装置。
  14. 前記初期三次元モデル構築モジュールは、
    前記基本画像シーケンスに関連する画像を画像収集順に複数の対応する基本セグメントに分けるように構成される基本セグメント区分モジュールと、
    前記複数の対応する基本セグメントのうちの1つの対応する基本セグメントを使用して、初期基本セグメント三次元モデルを構築するように構成される初期基本セグメント三次元モデル構築モジュールと、
    構築される前記初期基本セグメント三次元モデルに基づいて、前記1つの対応する基本セグメントと隣接する対応する基本セグメントを使用して、インクリメンタル基本セグメント三次元モデルを構築するように構成されるインクリメンタル基本セグメント三次元モデル構築モジュールと、
    前記初期基本セグメント三次元モデルと前記インクリメンタル基本セグメント三次元モデルを融合して、前記初期三次元モデルを取得するように構成される第2初期三次元モデル構築モジュールと、を備える請求項13に記載の装置。
  15. 前記インクリメンタル基本セグメント三次元モデル構築モジュールは、複数の前記インクリメンタル基本セグメント三次元モデルを並行して構築するように構成される請求項14に記載の装置。
  16. 前記最終三次元モデル構築モジュールは、
    前記初期三次元モデルに基づいて、それぞれ前記複数の画像シーケンスサブセット中の前記他の画像シーケンスを使用して、複数の中間三次元モデルを構築するように構成される第1中間三次元モデル構築モジュールと、
    前記複数の中間三次元モデルを融合して、前記最終三次元モデルを取得するように構成される第1最終三次元モデル構築モジュールと、を備える請求項11に記載の装置。
  17. 前記中間三次元モデル構築モジュールは、複数の前記中間三次元モデルを並行して構築するように構成される請求項16に記載の装置。
  18. 前記最終三次元モデル構築モジュールは、
    前記画像の収集位置、及び前記画像間の第3類似度尺度のうちの少なくとも1つに応じて前記画像シーケンスセット中の画像シーケンス間で関連する画像を決定するように構成される第2関連画像決定モジュールであって、前記関連する画像は前記基本画像シーケンスに関連する画像及び前記他の画像シーケンスに関連する画像を含む第2関連画像決定モジュールと、
    前記他の画像シーケンスに関連する画像を使用して、前記最終三次元モデルを構築するように構成される第2最終三次元モデル構築モジュールと、を備える請求項13に記載の装置。
  19. 前記最終三次元モデル構築モジュールは、
    前記画像の収集位置、及び前記画像間の第3類似度尺度のうちの少なくとも1つに応じて前記画像シーケンスセット中の画像シーケンス間で関連する画像を決定するように構成される第2関連画像決定モジュールであって、前記関連する画像は前記基本画像シーケンスに関連する画像及び前記他の画像シーケンスに関連する画像を含む第2関連画像決定モジュールと、
    前記関連する画像を画像収集順に複数の対応するセグメントに分けるように構成されるセグメント区分モジュールであって、前記複数の対応するセグメントは前記複数の対応する基本セグメント及び前記他の画像シーケンスから分けられる複数の対応する他のセグメントを含むセグメント区分モジュールと、
    前記初期三次元モデルに基づいて、前記初期基本セグメント三次元モデル及び前記インクリメンタル基本セグメント三次元モデルに対応する前記対応する他のセグメントを使用して、複数の中間三次元モデルを構築するように構成される第1中間三次元モデル構築モジュールと、
    前記複数の中間三次元モデルを融合して、前記最終三次元モデルを取得するように構成される第1最終三次元モデル構築モジュールと、を備える請求項14に記載の装置。
  20. 前記第1中間三次元モデル構築モジュールは、複数の前記中間三次元モデルを並行して構築するように構成される請求項19に記載の装置。
  21. 電子機器であって、
    少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を備え、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行される際、前記少なくとも1つのプロセッサに請求項1-10のいずれか一項に記載の方法を実行させることができることを特徴とする電子機器。
  22. コンピュータ命令が記憶される非一時的コンピュータ可読記憶媒体であって、前記コンピュータ命令はコンピュータに請求項1-10のいずれか一項に記載の方法を実行させることに用いられることを特徴とする非一時的コンピュータ可読記憶媒体。
  23. コンピュータプログラムであって、前記コンピュータプログラムがプロセッサによって実行される際、請求項1-10のいずれか一項に記載の方法を実現させる、コンピュータプログラム。
JP2021057214A 2020-06-30 2021-03-30 画像処理方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム Active JP7202410B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010624149.2A CN111862305B (zh) 2020-06-30 2020-06-30 处理图像的方法、装置、电子设备、存储介质和程序产品
CN202010624149.2 2020-06-30

Publications (2)

Publication Number Publication Date
JP2021192227A JP2021192227A (ja) 2021-12-16
JP7202410B2 true JP7202410B2 (ja) 2023-01-11

Family

ID=72989713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021057214A Active JP7202410B2 (ja) 2020-06-30 2021-03-30 画像処理方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11557047B2 (ja)
EP (1) EP3933769B1 (ja)
JP (1) JP7202410B2 (ja)
KR (1) KR102428849B1 (ja)
CN (1) CN111862305B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115546174B (zh) * 2022-10-20 2023-09-08 数坤(北京)网络科技股份有限公司 图像处理方法、装置、计算设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7352386B1 (en) * 1999-06-22 2008-04-01 Microsoft Corporation Method and apparatus for recovering a three-dimensional scene from two-dimensional images
FR2856548A1 (fr) 2003-06-18 2004-12-24 France Telecom Procede de representation d'une sequence d'images par modeles 3d, signal et dispositifs correspondants
US20070064099A1 (en) * 2004-06-18 2007-03-22 Raphaele Balter Method of representing a sequence of pictures using 3d models, and corresponding devices and signals
US8503763B2 (en) 2008-01-04 2013-08-06 3M Innovative Properties Company Image signatures for use in motion-based three-dimensional reconstruction
CN102308320B (zh) * 2009-02-06 2013-05-29 香港科技大学 从图像生成三维模型
US9129432B2 (en) * 2010-01-28 2015-09-08 The Hong Kong University Of Science And Technology Image-based procedural remodeling of buildings
WO2013029675A1 (en) * 2011-08-31 2013-03-07 Metaio Gmbh Method for estimating a camera motion and for determining a three-dimensional model of a real environment
JP5485954B2 (ja) * 2011-09-06 2014-05-07 東芝テック株式会社 店舗システム及びプログラム
US9129435B2 (en) * 2012-12-04 2015-09-08 Fuji Xerox Co., Ltd. Method for creating 3-D models by stitching multiple partial 3-D models
CN105078514A (zh) * 2014-04-22 2015-11-25 重庆海扶医疗科技股份有限公司 三维模型的构建方法及装置、图像监控方法及装置
CN104809478B (zh) * 2015-05-15 2018-01-09 北京理工大学深圳研究院 一种面向大规模三维重建的图像分块方法及装置
EP3859676A1 (en) * 2015-06-30 2021-08-04 Mapillary AB Method in constructing a model of a scenery and device therefor
EP3398164B1 (en) * 2015-12-30 2020-04-01 Telecom Italia S.p.A. System for generating 3d images for image recognition based positioning
JP6904695B2 (ja) 2016-12-20 2021-07-21 キヤノン株式会社 画像処理装置、画像処理方法、及び、プログラム
CN107393000B (zh) * 2017-08-24 2020-07-28 Oppo广东移动通信有限公司 图像处理方法、装置、服务器及计算机可读存储介质
CN107705355A (zh) * 2017-09-08 2018-02-16 郭睿 一种基于多张图片的3d人体建模方法及装置
CN109658365B (zh) * 2017-10-11 2022-12-06 阿里巴巴(深圳)技术有限公司 图像处理方法、装置、系统和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Michela Farenzena et al.,Structure-and-Motion Pipeline on a Hierarchical Cluster Tree,2009 IEEE 12th International Conference on Computer Vision Workshops, ICCV Workshops,2009年10月04日,pp.1489-1496

Also Published As

Publication number Publication date
KR20210042861A (ko) 2021-04-20
EP3933769A1 (en) 2022-01-05
US11557047B2 (en) 2023-01-17
KR102428849B1 (ko) 2022-08-04
CN111862305B (zh) 2024-06-18
US20210217187A1 (en) 2021-07-15
CN111862305A (zh) 2020-10-30
EP3933769B1 (en) 2023-03-29
JP2021192227A (ja) 2021-12-16

Similar Documents

Publication Publication Date Title
US9396512B2 (en) Fully parallel construction of k-d trees, octrees, and quadtrees in a graphics processing unit
US9965821B2 (en) Fully parallel in-place construction of 3D acceleration structures in a graphics processing unit
JP7242738B2 (ja) 点群を更新するための方法、点群を更新するための装置、電子機器、非一時的コンピュータ可読記憶媒体及びコンピュータプログラム
CN111815738B (zh) 一种构建地图的方法和装置
US11423650B2 (en) Visual positioning method and apparatus, and computer-readable storage medium
CN111597287B (zh) 地图生成方法、装置及设备
JP7202410B2 (ja) 画像処理方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム
CN110413808B (zh) 一种三维点云数据存储、查询方法及装置
CN111274455A (zh) 图数据处理方法、装置、电子设备及计算机可读介质
CN112017304B (zh) 用于呈现增强现实数据的方法、装置、电子设备及介质
US9471612B2 (en) Data processing method, data query method in a database, and corresponding device
CN111967481A (zh) 视觉定位方法、装置、电子设备及存储介质
CN113157695B (zh) 数据处理方法、装置、可读介质及电子设备
CN115311399A (zh) 图像渲染方法、装置、电子设备以及存储介质
CN111782633B (zh) 数据处理方法、装置及电子设备
JP2021101370A (ja) モデリングルートの検証方法、装置、無人車両及び記憶媒体
CN110750569A (zh) 数据提取方法、装置、设备及存储介质
US20240104790A1 (en) Optimizing grid-based compute graphs
CN114565916B (en) Target detection model training method, target detection method and electronic equipment
US11636111B1 (en) Extraction of relationship graphs from relational databases
EP3860088A2 (en) Network data processing method, apparatus, electronic device and storage medium
CN118227898A (zh) 页面导航信息生成方法、装置、设备、存储介质和产品
JP6372168B2 (ja) プログラム、情報処理装置および表示方法
JP2022031622A (ja) 歴史的なストリートシーンをクエリするための方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム
JP2024511726A (ja) データ処理方法、装置、コンピュータ機器、記憶媒体及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221223

R150 Certificate of patent or registration of utility model

Ref document number: 7202410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150