JP7352748B2 - 三次元再構築方法、装置、機器及び記憶媒体 - Google Patents
三次元再構築方法、装置、機器及び記憶媒体 Download PDFInfo
- Publication number
- JP7352748B2 JP7352748B2 JP2022546566A JP2022546566A JP7352748B2 JP 7352748 B2 JP7352748 B2 JP 7352748B2 JP 2022546566 A JP2022546566 A JP 2022546566A JP 2022546566 A JP2022546566 A JP 2022546566A JP 7352748 B2 JP7352748 B2 JP 7352748B2
- Authority
- JP
- Japan
- Prior art keywords
- reconstruction
- voxel
- space
- feature map
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 131
- 230000008569 process Effects 0.000 claims description 52
- 238000000605 extraction Methods 0.000 claims description 27
- 230000004927 fusion Effects 0.000 claims description 26
- 238000013519 translation Methods 0.000 claims description 8
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 9
- 239000006185 dispersion Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000010332 selective attention Effects 0.000 description 2
- 238000013517 stratification Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/36—Level of detail
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Description
本願は、浙江商湯科技開発有限公司より2021年01月15日に提出された、出願番号が202110057035.9であり、発明名称が「三次元再構築方法及び関連装置、機器」である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
と記してもよく、該画像シーケンスに対応するカメラ方位姿勢パラメータは、
と記してもよい。カメラ方位姿勢パラメータ
について、並進距離tと回転角度Rとを含んでもよい。多視野角再構築プロセスにおいて十分な視覚的範囲を提供することを確保するために、上記画像シーケンスから選択された第1キー画像は、三次元空間において、互いに近接し過ぎないながら、離れすぎなければならない。従って、画像シーケンスにおける1フレームの画像の並進距離tと最近選択された第1キー画像の並進距離tとの差異が所定の距離閾値
よりも大きくて、且つ該フレームの画像の回転角度Rと上記最近選択された第1キー画像の回転角度Rとの差異が所定の角度閾値
よりも大きい場合、該フレームの画像を新たな第1キー画像として選択してもよい。上記方式によれば、再構築プロセスにおいて可能な限り少ないキー画像を参照する上で、第1空間の視覚的範囲を可能な限り拡大することができる。
と予め定義してもよい。即ち、四角錐の高さは、上記最大デプス
である。引き続き図2を参照すると、説明しやすくするために、図2において、二等辺三角形で表される視錐は、第1空間を見下ろす場合の視錐の概略図である。即ち、図2に示される第1空間は、二次元視野角での概略図である。ここで、二等辺三角形における破線は、上記最大デプス
を表す。この場合、カメラ1、カメラ2及びカメラ3により撮影された第1キー画像の視錐を取り囲む空間を第1空間と定義してもよい。三次元再構築を容易にするために、本願の実施例及び下記実施例において、別途説明しない限り、第1空間は、例えば、直方体、立方体などの隣接表面が互いに垂直である六面体を含んでもよい。なお、第1キー画像の視錐が他のものである場合、又は、第1キー画像が他の数である場合、第1空間は、上記記述を参照してもよく、このように類推し、ここで一々列挙しない。
は、第i種の解像度に対応する第1空間におけるボクセルの幅を表し、sは、予め設定された基準ボクセルの幅を表し、実際の応用状況に応じて調整されてもよい。なお、説明すべきことは、iは、異なる解像度を低い順に応じて順序付けた後の第i種の解像度である。依然として上記1280*960、640*480及び480*360の3種の解像度を例として、低い順に応じて順序付けた後、それぞれ480*360、640*480、1280*960であり、即ち、解像度480*360に対応する第1空間のボクセルの幅を計算する時、iは1であり、解像度640*480に対応する第1空間のボクセルの幅を計算する時、iは2であり、解像度1280*960に対応する第1空間のボクセルの幅を計算する時、iは3である。他の場合、このように類推してもよい。ここで一々列挙しない。
で表してもよい。説明すべきことは、
が0よりも大きく、且つ1よりも小さい場合、j番目のボクセルが関連物体表面の前の切断距離
内に位置することを表し、
が0よりも小さく、且つ-1よりも大きい場合、j番目のボクセルが関連物体表面の後の切断距離
内に位置することを表す。
と記してもよく、第1空間2の第1特徴マップを
と記してもよく、第1空間3の第1特徴マップを
と記してもよい。解像度の低い順に応じて、まず解像度1を現在解像度として選択し、前回選択された解像度に対応する第1再構築結果に対してアップサンプリングを行う。解像度1が初回選択された解像度であるため、前回選択された解像度に対応する第1再構築結果が存在しない。それにより直接的に、MLPなどのような予測ネットワークに基づいて、現在解像度に対応する第1特徴マップ
に対して予測を行い、第1空間1における各ボクセルの第1再構築値と第1再構築値が所定の数値範囲内にある確率値を得ることができる。説明しやすくするために、
と記してもよい。更に、
に対して、スパース化(即ち、図3におけるS)処理を行い、第1再構築結果を得る。現在解像度が最高解像度ではないため、解像度2を現在解像度とし、前回選択された解像度1に対応する第1再構築結果に対してアップサンプリング(即ち、図3におけるU)を行い、アップサンプリングされた第1再構築結果と現在解像度に対応する第1特徴マップ
に対して連結(即ち、図3におけるC)処理を行い、解像度2に対応する融合特徴マップを得ることができる。それによりMLPなどのような予測ネットワークに基づいて、融合特徴マップに対して予測を行い、第1空間2における各ボクセルの第1再構築値と第1再構築値が所定の数値範囲内にある確率値を得る。説明しやすくするために、
と記してもよく、更に、
に対してスパース化(即ち、図3におけるS)処理を行い、第1再構築結果を得る。現在解像度が依然として最高解像度ではないため、解像度3を現在解像度とし、前回選択された解像度2に対応する第1再構築結果に対してアップサンプリング(即ち、図3におけるU)を行い、アップサンプリングされた第1再構築結果と現在解像度に対応する第1特徴マップ
に対して連結(即ち、図3におけるC)処理を行い、解像度3に対応する融合特徴マップを得ることができる。それによりMLPなどのような予測ネットワークに基づいて、融合特徴マップに対して予測を行い、第1空間3における各ボクセルの第1再構築値と第1再構築値が所定の数値範囲内にある確率値を得る。説明しやすくするために、
と記してもよく、更に、
に対してスパース化(即ち、図3におけるS)処理を行い、第1再構築結果を得る。現在解像度が最高解像度であるため、現在解像度に対応する第1再構築結果を今回の再構築の最終的な第1再構築結果とすることができる。説明しやすくするために、今回の再構築の最終的な第1再構築結果を
と記してもよい。他の場合、このように類推してもよい。ここで一々列挙しない。
と記し、この前の再構築により得られた第2再構築結果を
と記してもよい。第1空間におけるボクセルの第1再構築値に基づいて、第2空間における対応するボクセルの第2再構築値を更新することで、更新された第2再構築結果を得ることができる。説明しやすく、
と記してもよい。
を再構築待ちターゲットの最終的な再構築結果と記してもよい。
と記してもよく、第1履歴隠し層状態
における異なるグレースケールのブロックは、ボクセルの状態値を表し、無色のブロックは、対応するボクセルが状態値を有しないことを表し、なお、第1履歴隠し層状態
における矩形枠は、第1空間を表す。第1履歴隠し層状態
から、第1空間のボクセルに対応する状態値を抽出することで、第2履歴隠し層状態
を得ることができる。他の場合、このように類推してもよい。ここで一々列挙しない。
を更新する前に、更に、第1特徴マップ
に対して幾何学的情報抽出を行い、幾何学的特徴マップ
を得ることができ、且つ幾何学的特徴マップは、ボクセルの幾何学的情報を含む。それにより、幾何学的特徴マップに基づいて、第2履歴隠し層状態における状態値を更新し、今回の隠し層状態を得ることができる。上記方式によれば、抽出されたボクセルの幾何学的情報を基に、今回再構築された第1空間の第2履歴隠し層状態を更新することができ、三次元再構築の正確性の向上に有利である。
に対して幾何学的情報抽出を行い、幾何学的特徴マップ
を得ることができる。実際の応用の必要に応じて設定してもよい。ここで限定しない。
と第2履歴隠し層状態
を融合することで、今回の隠し層状態
を最終的に得ることができる。説明しやすくするために、ゲート再帰型ユニットGRUの更新ゲートを
と記し、リセットゲートを
と記してもよく、以下で表されてもよい。
とリセットゲート
は、幾何学的特徴マップ
からどれほどの情報を導入して融合するか、第2履歴隠し層状態
からどれほどの情報を導入して融合するかを決定することができる。以下で表されてもよい。
・・・・(5)
は、スパース畳み込みのネットワーク重みを表し、tanhは、活性化関数を表す。これから分かるように、1つのデータドライバ方式として、GRUは、三次元再構築プロセスにおいて、選択的なアテンションメカニズムを提供することができる。
に対して予測を行い、第1再構築結果を得ることができる。
に対して予測を行うことで、第1空間における各ボクセルの第1再構築値と第1再構築値が所定の数値範囲内にある確率値を得ることができ、且つ第1再構築値は、ボクセルと再構築待ちターゲットにおける関連物体表面との距離を表すためのものであり、この上で、第1空間における、確率値が所定の条件を満たすボクセルを選択することによって、選択されたボクセルの第1再構築値に基づいて、今回の再構築の第1再構築結果を得ることができる。詳細は、上述した実施例における関連説明を参照してもよい。ここで説明を省略する。
を得た後、今回の隠し層状態
における状態値に基づいて、第1履歴隠し層状態
における該当するボクセルに対応する状態値を更新し、更新された第1履歴隠し層状態
を得、次回の再構築に供することができる。上記方式によれば、更新により今回の隠し層状態を得た後、更に、第2空間の第1履歴隠し層状態を更新することができ、今回の再構築の上で第2空間の第1履歴隠し層状態の正確性の更なる向上に有利であり、それにより三次元再構築の正確性の向上に有利である。
に対して予測を行うたびに、以下のステップを含んでもよい。この前の再構築により得られた、現在解像度に対応する第1履歴隠し層状態を取得し、現在解像度に対応する第1履歴隠し層状態から、第1空間のボクセルに対応する状態値を抽出して第2履歴隠し層状態とし、GRUのような融合ネットワークに基づいて、現在解像度に対応する第1特徴マップ
に基づいて、第2履歴隠し層状態における状態値を更新し、現在解像度に対応する今回の隠し層状態を得ることを実行し、この上で更にMLPなどのような予測ネットワークに基づいて、現在解像度に対応する今回の隠し層状態に対して予測を行い、現在解像度に対応する第1再構築結果を得る。本願の実施例は、前記実施例との相違点をのみ説明する。他のプロセスは、上述した実施例における関連説明を参照してもよい。ここで説明を省略する。
Claims (14)
- 電子機器により実行される三次元再構築方法であって、
今回の再構築のための少なくとも2つのフレームの第1キー画像を取得し、前記少なくとも2つのフレームの第1キー画像の視錐を取り囲む第1空間を決定することであって、前記第1キー画像は、再構築待ちターゲットに対して撮影を行うことで得られたものである、ことと、
前記少なくとも2つのフレームの第1キー画像における画像情報に基づいて、前記第1空間の第1特徴マップを得ることであって、前記第1特徴マップは、前記第1空間におけるボクセルの第1特徴情報を含む、ことと、
前記第1特徴マップに基づいて、今回の再構築の第1再構築結果を得ることと、
前記今回の再構築の第1再構築結果に基づいて、この前の再構築により得られた第2再構築結果を更新することと、を含み、
前記第1再構築結果は、三次元再構築モデルによって得られたものであり、前述した前記第1特徴マップに基づいて、今回の再構築の第1再構築結果を得ることは、
前記三次元再構築モデルの融合ネットワークによるこの前の再構築によって得られた第1履歴隠し層状態を取得することであって、前記第1履歴隠し層状態は、第2空間における前記ボクセルに対応する状態値を含み、前記第2空間は、この前に再構築された第2キー画像の視錐を取り囲む総空間である、ことと、
前記第1履歴隠し層状態から、前記第1空間のボクセルに対応する状態値を抽出して第2履歴隠し層状態とすることと、
前記融合ネットワークにおいて、前記第1特徴マップに基づいて、前記第2履歴隠し層状態における前記状態値を更新し、今回の隠し層状態を得ることと、
前記三次元再構築モデルを用いて、前記今回の隠し層状態に対して予測を行い、前記第1再構築結果を得ることと、を含む、方法。 - 前記今回の再構築のための少なくとも2つのフレームの第1キー画像を取得した後、前記方法は、
各フレームの前記第1キー画像に対してそれぞれ特徴抽出を行い、各フレームの前記第1キー画像の第2特徴マップを得ることを含み、
前記少なくとも2つのフレームの第1キー画像における画像情報に基づいて、前記第1空間の第1特徴マップを得ることは、
前記第1空間の各ボクセルの、前記第2特徴マップにおける対応する第2特徴情報に基づいて、前記第1空間の前記第1特徴マップを得ることを含むことを特徴とする
請求項1に記載の方法。 - 前記第1空間の各ボクセルの、前記第2特徴マップにおける対応する第2特徴情報に基づいて、前記第1空間の前記第1特徴マップを得ることは、
各フレームの前記第1キー画像の前記第2特徴マップから、前記ボクセルに対応する第2特徴情報をそれぞれ抽出することと、
前記ボクセルにそれぞれ対応する前記少なくとも2つのフレームの第1キー画像の前記第2特徴情報を融合し、前記ボクセルの第1特徴情報を得ることと、
前記第1空間の各ボクセルの前記第1特徴情報に基づいて、前記第1空間の前記第1特徴マップを得ることと、を含むことを特徴とする
請求項2に記載の方法。 - 前記ボクセルにそれぞれ対応する前記少なくとも2つのフレームの第1キー画像の前記第2特徴情報を融合し、前記ボクセルの第1特徴情報を得ることは、
前記ボクセルに対応する前記少なくとも2つのフレームの第1キー画像の第2特徴情報の平均値を前記ボクセルの第1特徴情報とすることと、
各フレームの前記第1キー画像の第2特徴マップから、いずれも、前記ボクセルに対応する第2特徴情報が抽出されていない場合、所定の特徴情報を前記ボクセルの第1特徴情報とすることと、のうちの少なくとも1つを含むことを特徴とする
請求項3に記載の方法。 - 各フレームの前記第1キー画像の第2特徴マップは、異なる解像度に対応する所定の枚数の第2特徴マップを含み、前記第1空間は、異なる解像度に対応する所定の数の第1空間を含み、前記第1特徴マップは、異なる前記解像度に対応する所定の枚数の第1特徴マップを含み、各枚の前記第1特徴マップは、同じ前記解像度の前記第2特徴マップの第2特徴情報に基づいて得られたものであり、
前記第1特徴マップに基づいて、今回の再構築の第1再構築結果を得ることは、
前記解像度の低い順に応じて、1つの前記解像度を順に選択して現在解像度とすることと、
前回選択された解像度に対応する第1再構築結果に対してアップサンプリングを行い、アップサンプリングされた第1再構築結果と前記現在解像度に対応する第1特徴マップを融合し、前記現在解像度に対応する融合特徴マップを得ることと、
前記融合特徴マップに基づいて、前記現在解像度に対応する第1再構築結果を得ることと、
前記現在解像度が最高の前記解像度ではない場合、前記解像度の低い順に応じて、1つの前記解像度を順に選択して現在解像度とするステップ及び後続のステップを再実行することと、
前記現在解像度が最高の前記解像度である場合、前記現在解像度に対応する第1再構築結果を今回の再構築の前記第1再構築結果とすることと、を含むことを特徴とする
請求項2から4のうちいずれか一項に記載の方法。 - 前記第1特徴マップに基づいて、今回の再構築の第1再構築結果を得ることは、
前記第1特徴マップに基づいて、予測を行い、前記第1空間における各前記ボクセルの第1再構築値と前記第1再構築値が所定の数値範囲内にある確率値を得ることであって、前記第1再構築値は、前記ボクセルと前記再構築待ちターゲットにおける関連物体表面との距離を表すためのものであり、前記関連物体表面は、前記再構築待ちターゲットにおける、前記ボクセルとの距離が最も近い物体表面である、ことと、
第1空間における、前記確率値が所定の条件を満たす前記ボクセルを選択することと、
選択された前記ボクセルの前記第1再構築値に基づいて、今回の再構築の第1再構築結果を得ることと、をさらに含むことを特徴とする
請求項1から5のうちいずれか一項に記載の方法。 - 前記第1再構築結果は、前記第1空間における前記ボクセルの第1再構築値を含み、前記第2再構築結果は、第2空間における前記ボクセルの第2再構築値を含み、前記第1再構築値と前記第2再構築値は、前記ボクセルと前記再構築待ちターゲットにおける関連物体表面との距離を表すためのものであり、前記関連物体表面は、前記再構築待ちターゲットにおける、前記ボクセルとの距離が最も近い物体表面であり、
前記今回の再構築の第1再構築結果に基づいて、この前の再構築により得られた第2再構築結果を更新することは、
前記第1空間における前記ボクセルの第1再構築値に基づいて、前記第2空間における対応する前記ボクセルの第2再構築値を更新することを含むことを特徴とする
請求項1から6のうちいずれか一項に記載の方法。 - 今回の再構築が初回の再構築である場合、前記第1履歴隠し層状態における状態値は、所定の状態値であり、
前記融合ネットワークは、ゲート再帰型ユニットを含み、前記三次元再構築モデルは、予測ネットワークを更に含み、前記三次元再構築モデルを用いて、前記今回の隠し層状態に対して予測を行い、第1再構築結果を得ることは、
前記予測ネットワークに基づいて、前記今回の隠し層状態に対して予測を行い、前記第1再構築結果を得ることを含むことを特徴とする
請求項1に記載の方法。 - 前記第1特徴マップに基づいて、前記第2履歴隠し層状態における前記状態値を更新し、今回の隠し層状態を得る前に、前記方法は、
前記第1特徴マップに対して幾何学的情報抽出を行い、幾何学的特徴マップを得ることであって、前記幾何学的特徴マップは、前記ボクセルの幾何学的情報を含む、ことを含み、
前記第1特徴マップに基づいて、前記第2履歴隠し層状態における前記状態値を更新し、今回の隠し層状態を得ることは、
前記幾何学的特徴マップに基づいて、前記第2履歴隠し層状態における前記状態値を更新し、今回の隠し層状態を得ることを含むことを特徴とする
請求項1又は8に記載の方法。 - 前記第1特徴マップに基づいて、前記第2履歴隠し層状態における前記状態値を更新し、今回の隠し層状態を得た後、前記方法は、
前記今回の隠し層状態における状態値に基づいて、前記第1履歴隠し層状態における該当する前記ボクセルに対応する状態値を更新することを更に含むことを特徴とする
請求項1から9のうちいずれか一項に記載の方法。 - 今回の再構築に用いられる少なくとも2つのフレームの第1キー画像を取得することは、
前記再構築待ちターゲットを撮影するプロセスにおいて、前記少なくとも2つのフレームの第1キー画像を取得することを含み、
前記第1キー画像は、カメラ方位姿勢パラメータに対応し、前記カメラ方位姿勢パラメータは、並進距離と回転角度とを含み、前記第1キー画像は、隣接する前記第1キー画像間の前記並進距離の差異が所定の距離閾値よりも大きいことと、隣接する前記第1キー画像間の前記回転角度の差異が所定の角度閾値よりも大きいことと、のうちの少なくとも1つを満たすことを特徴とする
請求項1から10のうちいずれか一項に記載の方法。 - 三次元再構築装置であって、
今回の再構築のための少なくとも2つのフレームの第1キー画像を取得するように構成されるキー画像取得モジュールと、
前記少なくとも2つのフレームの第1キー画像の視錐を取り囲む第1空間を決定するように構成される第1空間決定モジュールであって、第1キー画像は、再構築待ちターゲットに対して撮影を行うことで得られたものである、第1空間決定モジュールと、
前記少なくとも2つのフレームの第1キー画像における画像情報に基づいて、前記第1空間の第1特徴マップを得るように構成される第1特徴取得モジュールであって、前記第1特徴マップは、前記第1空間におけるボクセルの第1特徴情報を含む、第1特徴取得モジュールと、
前記第1特徴マップに基づいて、今回の再構築の第1再構築結果を得るように構成される再構築結果取得モジュールと、
前記今回の再構築の第1再構築結果に基づいて、この前の再構築により得られた第2再構築結果を更新するように構成される再構築結果更新モジュールと、を備え、
前記第1再構築結果は、三次元再構築モデルによって得られたものであり、
前記再構築結果取得モジュールは、
前記三次元再構築モデルの融合ネットワークによるこの前の再構築によって得られた第1履歴隠し層状態を取得するように構成される隠し層状態取得サブモジュールであって、前記第1履歴隠し層状態は、第2空間における前記ボクセルに対応する状態値を含み、前記第2空間は、この前に再構築された第2キー画像の視錐を取り囲む総空間である、隠し層状態取得サブモジュールと、
前記第1履歴隠し層状態から、前記第1空間のボクセルに対応する状態値を抽出して第2履歴隠し層状態とするように構成される隠し層状態抽出サブモジュールと、
前記融合ネットワークにおいて、前記第1特徴マップに基づいて、前記第2履歴隠し層状態における前記状態値を更新し、今回の隠し層状態を得ることを実行するように構成される隠し層状態更新サブモジュールと、
前記三次元再構築モデルを用いて、前記今回の隠し層状態に対して予測を行い、前記第1再構築結果を得るように構成される再構築結果予測サブモジュールと、を備える、三次元再構築装置。 - 互いに結合されるメモリとプロセッサを備える電子機器であって、前記プロセッサは、前記メモリに記憶されているプログラム命令を実行し、請求項1から11のうちいずれか一項に記載の方法を実施する、電子機器。
- プロセッサにより実行されるとき、前記プロセッサに請求項1から11のうちいずれか一項に記載の方法を実行させるためのプログラム命令を記憶した、コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110057035.9A CN112750201B (zh) | 2021-01-15 | 2021-01-15 | 三维重建方法及相关装置、设备 |
CN202110057035.9 | 2021-01-15 | ||
PCT/CN2021/102117 WO2022151661A1 (zh) | 2021-01-15 | 2021-06-24 | 一种三维重建方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023514107A JP2023514107A (ja) | 2023-04-05 |
JP7352748B2 true JP7352748B2 (ja) | 2023-09-28 |
Family
ID=75652226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022546566A Active JP7352748B2 (ja) | 2021-01-15 | 2021-06-24 | 三次元再構築方法、装置、機器及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230290099A1 (ja) |
JP (1) | JP7352748B2 (ja) |
KR (1) | KR20220120674A (ja) |
CN (1) | CN112750201B (ja) |
WO (1) | WO2022151661A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112750201B (zh) * | 2021-01-15 | 2024-03-29 | 浙江商汤科技开发有限公司 | 三维重建方法及相关装置、设备 |
CN113706373A (zh) * | 2021-08-25 | 2021-11-26 | 深圳市慧鲤科技有限公司 | 模型重建方法及相关装置、电子设备和存储介质 |
CN114429495B (zh) * | 2022-03-14 | 2022-08-30 | 荣耀终端有限公司 | 一种三维场景的重建方法和电子设备 |
CN115359192B (zh) * | 2022-10-14 | 2023-03-28 | 阿里巴巴(中国)有限公司 | 三维重建与商品信息处理方法、装置、设备及存储介质 |
CN116958455B (zh) * | 2023-09-21 | 2023-12-26 | 北京飞渡科技股份有限公司 | 基于神经网络的屋顶重建方法、装置及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004013869A (ja) | 2002-06-12 | 2004-01-15 | Nec Corp | 3次元形状生成装置及びそれに用いる3次元形状生成方法並びにそのプログラム |
JP2005250692A (ja) | 2004-03-02 | 2005-09-15 | Softopia Japan Foundation | 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体 |
JP2009048305A (ja) | 2007-08-15 | 2009-03-05 | Nara Institute Of Science & Technology | 形状解析プログラム及び形状解析装置 |
JP2009074836A (ja) | 2007-09-19 | 2009-04-09 | Advanced Telecommunication Research Institute International | 画像処理装置、画像処理方法及び画像処理プログラム |
WO2010126071A1 (ja) | 2009-04-28 | 2010-11-04 | 日本電気株式会社 | 物体位置推定装置、物体位置推定方法及びプログラム |
JP2018032938A (ja) | 2016-08-23 | 2018-03-01 | キヤノン株式会社 | 画像処理装置、画像処理の方法およびプログラム |
CN108537876A (zh) | 2018-03-05 | 2018-09-14 | 清华-伯克利深圳学院筹备办公室 | 基于深度相机的三维重建方法、装置、设备及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09231370A (ja) * | 1996-02-21 | 1997-09-05 | Canon Inc | 画像情報入力装置 |
US10740986B2 (en) * | 2018-08-30 | 2020-08-11 | Qualcomm Incorporated | Systems and methods for reconstructing a moving three-dimensional object |
US11978146B2 (en) * | 2018-09-18 | 2024-05-07 | Seoul National University R&Db Foundation | Apparatus and method for reconstructing three-dimensional image |
CN112017228B (zh) * | 2019-05-31 | 2024-09-17 | 华为技术有限公司 | 一种对物体三维重建的方法及相关设备 |
CN111369681B (zh) * | 2020-03-02 | 2022-04-15 | 腾讯科技(深圳)有限公司 | 三维模型的重构方法、装置、设备及存储介质 |
CN111652966B (zh) * | 2020-05-11 | 2021-06-04 | 北京航空航天大学 | 一种基于无人机多视角的三维重建方法及装置 |
CN112750201B (zh) * | 2021-01-15 | 2024-03-29 | 浙江商汤科技开发有限公司 | 三维重建方法及相关装置、设备 |
-
2021
- 2021-01-15 CN CN202110057035.9A patent/CN112750201B/zh active Active
- 2021-06-24 KR KR1020227026271A patent/KR20220120674A/ko not_active Application Discontinuation
- 2021-06-24 JP JP2022546566A patent/JP7352748B2/ja active Active
- 2021-06-24 WO PCT/CN2021/102117 patent/WO2022151661A1/zh active Application Filing
-
2023
- 2023-05-17 US US18/318,724 patent/US20230290099A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004013869A (ja) | 2002-06-12 | 2004-01-15 | Nec Corp | 3次元形状生成装置及びそれに用いる3次元形状生成方法並びにそのプログラム |
JP2005250692A (ja) | 2004-03-02 | 2005-09-15 | Softopia Japan Foundation | 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体 |
JP2009048305A (ja) | 2007-08-15 | 2009-03-05 | Nara Institute Of Science & Technology | 形状解析プログラム及び形状解析装置 |
JP2009074836A (ja) | 2007-09-19 | 2009-04-09 | Advanced Telecommunication Research Institute International | 画像処理装置、画像処理方法及び画像処理プログラム |
WO2010126071A1 (ja) | 2009-04-28 | 2010-11-04 | 日本電気株式会社 | 物体位置推定装置、物体位置推定方法及びプログラム |
JP2018032938A (ja) | 2016-08-23 | 2018-03-01 | キヤノン株式会社 | 画像処理装置、画像処理の方法およびプログラム |
CN108537876A (zh) | 2018-03-05 | 2018-09-14 | 清华-伯克利深圳学院筹备办公室 | 基于深度相机的三维重建方法、装置、设备及存储介质 |
Non-Patent Citations (5)
Title |
---|
Kaiwen Guo et al.,"Real-Time Geometry, Albedo, and Motion Reconstruction Using a Single RGB-D Camera",ACM Transactions on Graphics,米国,ACM,2017年07月16日,Vol.36, No.4,pp.1-13 |
Mengqi Ji et al.,"SurfaceNet: An End-to-End 3D Neural Network for Multiview Stereopsis",2017 IEEE International Conference on Computer Vision (ICCV),米国,IEEE,2017年10月22日,pp.2326-2334 |
佐藤 智和、外3名,"マルチベースラインステレオ法を利用した動画像からの屋外環境の三次元モデル化",日本バーチャルリアリティ学会論文誌,日本,日本バーチャルリアリティ学会,2002年06月30日,Vol.7, No.2,pp.275-282 |
蚊野 浩,"インタラクティブコンテンツの生成 パノラマ画像と3Dモデリング",映像情報メディア学会誌,日本,(社)映像情報メディア学会,2008年11月01日,Vol.62, No.11,pp.1724-1729 |
鍋嶋 累、外3名,"実時間自由視点映像生成のフレームレート安定化 -形状復元の多重解像度処理-",電子情報通信学会論文誌,日本,社団法人電子情報通信学会,2007年12月01日,Vol.J90-D, No.12,pp.3221-3232 |
Also Published As
Publication number | Publication date |
---|---|
WO2022151661A1 (zh) | 2022-07-21 |
US20230290099A1 (en) | 2023-09-14 |
CN112750201B (zh) | 2024-03-29 |
CN112750201A (zh) | 2021-05-04 |
JP2023514107A (ja) | 2023-04-05 |
KR20220120674A (ko) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7352748B2 (ja) | 三次元再構築方法、装置、機器及び記憶媒体 | |
CN111369681B (zh) | 三维模型的重构方法、装置、设备及存储介质 | |
WO2021018163A1 (zh) | 神经网络的搜索方法及装置 | |
CN111445418B (zh) | 图像去雾处理方法、装置及计算机设备 | |
US11823322B2 (en) | Utilizing voxel feature transformations for view synthesis | |
US20170213320A1 (en) | Reconstruction of articulated objects from a moving camera | |
CN113689578B (zh) | 一种人体数据集生成方法及装置 | |
WO2020186385A1 (zh) | 图像处理方法、电子设备及计算机可读存储介质 | |
JP6902811B2 (ja) | 視差推定システムと方法、電子機器及びコンピュータ可読記憶媒体 | |
US12026857B2 (en) | Automatically removing moving objects from video streams | |
CN111340866A (zh) | 深度图像生成方法、装置及存储介质 | |
US20220215617A1 (en) | Viewpoint image processing method and related device | |
WO2022052782A1 (zh) | 图像的处理方法及相关设备 | |
JP2019091436A (ja) | 3d配置のタイプに応じた2d画像の分類 | |
CN112241934B (zh) | 一种图像处理方法以及相关设备 | |
CN115439615A (zh) | 一种基于三维bim的分布式综合管理系统 | |
CN113989460B (zh) | 用于增强现实场景的实时天空替换特效控制方法及装置 | |
CN112802202A (zh) | 图像处理方法、装置、电子设备及计算机存储介质 | |
CN113158970B (zh) | 一种基于快慢双流图卷积神经网络的动作识别方法与系统 | |
CN110866866A (zh) | 图像仿色处理方法、装置、电子设备及存储介质 | |
CN114445676A (zh) | 一种手势图像处理方法、存储介质及设备 | |
CN115147527A (zh) | 三维网格生成模型的构建方法、三维网格生成方法及装置 | |
CN114331827B (zh) | 风格迁移方法、装置、设备和存储介质 | |
US20240193728A1 (en) | Method and electronic device for training image processing model and method and electronic device for processing images using image processing model | |
KR102587233B1 (ko) | 소수의 협소화각 rgbd 영상으로부터 360 rgbd 영상 합성 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220729 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230915 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7352748 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |