JP2023540917A - 3D reconstruction and related interactions, measurement methods and related devices and equipment - Google Patents

3D reconstruction and related interactions, measurement methods and related devices and equipment Download PDF

Info

Publication number
JP2023540917A
JP2023540917A JP2023513719A JP2023513719A JP2023540917A JP 2023540917 A JP2023540917 A JP 2023540917A JP 2023513719 A JP2023513719 A JP 2023513719A JP 2023513719 A JP2023513719 A JP 2023513719A JP 2023540917 A JP2023540917 A JP 2023540917A
Authority
JP
Japan
Prior art keywords
dataset
image
dimensional
image data
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023513719A
Other languages
Japanese (ja)
Other versions
JP7453470B2 (en
Inventor
▲項▼▲驍▼▲駿▼
▲齊▼勇
章国▲鋒▼
▲鮑▼▲虎▼▲軍▼
余亦豪
姜翰青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Sensetime Technology Development Co Ltd
Original Assignee
Zhejiang Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Sensetime Technology Development Co Ltd filed Critical Zhejiang Sensetime Technology Development Co Ltd
Publication of JP2023540917A publication Critical patent/JP2023540917A/en
Application granted granted Critical
Publication of JP7453470B2 publication Critical patent/JP7453470B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本開示は、3次元再構成及び関連インタラクション、測定方法及び関連装置、デバイスを提供する。3次元再構成方法は、撮影デバイスが再構成待ち目標をスキャンすることにより得られた複数のフレームの処理待ち画像を取得することと、各フレームの処理待ち画像と撮影デバイスのキャリブレーションパラメータを使用して、各フレームの処理待ち画像の再構成待ち目標に属する目標画素点及びそのカメラポーズパラメータを決定することと、各フレームの処理待ち画像の画像データを対応するデータセットに順次分割することと、データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データとポーズ最適化パラメータを使用して、データセットのポーズ最適化パラメータを決定することと、などを含む。上記解決により、3次元再構成の効果を高め、3次元再構成の計算負荷を軽減することができる。The present disclosure provides three-dimensional reconstruction and related interactions, measurement methods and related apparatus and devices. The 3D reconstruction method involves acquiring multiple frames of images to be processed obtained by scanning a target to be reconstructed with a shooting device, and using the images to be processed for each frame and the calibration parameters of the shooting device. to determine the target pixel point belonging to the reconstruction target of the image to be processed in each frame and its camera pose parameter; and to sequentially divide the image data of the image to be processed in each frame into corresponding data sets. , determining pose optimization parameters for the dataset using the image data of the dataset, and the image data and pose optimization parameters of the dataset before which the time series is placed. The above solution can enhance the effect of three-dimensional reconstruction and reduce the computational load of three-dimensional reconstruction.

Description

(関連出願への相互参照)
本開示は、出願番号が202110031502.0であり、出願日が2021年1月11日であり、出願名称が「3次元再構成及び関連インタラクション、測定方法及び関連装置、機器」である中国特許出願に基づいて提出され、当該中国特許出願の優先権を主張し、当該中国特許の全ての内容がここで参照により本開示に組み込まれる。
(Cross reference to related applications)
The present disclosure relates to a Chinese patent application with the application number 202110031502.0, the filing date of January 11, 2021, and the application title of "Three-dimensional reconstruction and related interaction, measurement method and related devices and equipment" claims priority to the Chinese patent application, the entire contents of which are hereby incorporated by reference into this disclosure.

本開示は、コンピュータビジョン技術分野に関し、特に3次元再構成及び関連インタラクション、測定方法及び関連装置、機器に関する。 The present disclosure relates to the field of computer vision technology, and particularly to three-dimensional reconstruction and related interactions, measurement methods, and related devices and equipment.

情報技術の発展及び電子技術のレベルの向上に伴い、人々は、携帯電話、タブレットコンピュータなどの、撮影デバイスが統合された移動端末を使用して、実際のシーンにおける物体を3次元で再構成する傾向が高くなり、したがって、3次元再構成によって得られた3次元モデルを使用して、移動端末で拡張現実(AR:Augmented Reality)、ゲームなどのアプリケーションを実現する。 With the development of information technology and the improvement of the level of electronic technology, people use mobile terminals with integrated photographic devices, such as mobile phones, tablet computers, etc., to reconstruct objects in real scenes in three dimensions. Therefore, the 3D model obtained by 3D reconstruction is used to realize applications such as Augmented Reality (AR), games, etc. on mobile terminals.

しかしながら、撮影デバイスが実際のシーンにおける物体をスキャンして撮影する場合、撮影デバイスから取得された画像に異なる程度のノイズがあり、現在の主流のカメラポーズパラメータソルビング方法では、幾つかの誤差が生じることが避けられず、誤差がスキャン及び撮影の進行につれて累積し続けるため、3次元モデルの効果に影響を与え、また、3次元再構成プロセス全体において、スキャン及び撮影の視野範囲の拡大につれて、新しく撮影された画像が継続的に組み込まれ、計算負荷も徐々に増大する。これに鑑み、どのように3次元再構成の効果を高め、3次元再構成のための計算負荷を軽減するかは、解決すべき緊急の問題になる。 However, when the photographing device scans and photographs objects in the real scene, the images obtained from the photographing device have different degrees of noise, and the current mainstream camera pose parameter solving method will result in some errors. Inevitably, errors continue to accumulate as scanning and imaging progresses, affecting the effectiveness of the 3D model, and throughout the 3D reconstruction process, as the field of view of scanning and imaging increases, new Captured images are continuously incorporated, and the computational load gradually increases. In view of this, how to enhance the effect of 3D reconstruction and reduce the computational load for 3D reconstruction becomes an urgent problem to be solved.

本開示は、3次元再構成方法及び関連装置、機器を提供する。 The present disclosure provides a three-dimensional reconstruction method and related devices and equipment.

本開示の第1の態様による3次元再構成方法は、撮影デバイスが再構成待ち目標をスキャンすることにより得られた複数のフレームの処理待ち画像を取得することと、各フレームの処理待ち画像と撮影デバイスのキャリブレーションパラメータを使用して、各フレームの処理待ち画像の再構成待ち目標に属する目標画素点及びそのカメラポーズパラメータを決定することと、所定の分割ポリ―シに従って、各フレームの処理待ち画像の画像データを対応するデータセットに順次分割することであって、画像データが少なくとも目標画素点を含むことと、各データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データとポーズ最適化パラメータを順次使用して、各データセットのポーズ最適化パラメータを決定することと、各データセットのポーズ最適化パラメータを使用して、データセットに含まれる画像データが属する処理待ち画像のカメラポーズパラメータを調整することと、所定の3次元再構成方式及び処理待ち画像の調整後のカメラポーズパラメータを使用して、処理待ち画像の画像データに対して再構成処理を実行して、再構成待ち目標の3次元モデルを取得することと、を含む。 A three-dimensional reconstruction method according to a first aspect of the present disclosure includes the steps of: acquiring a plurality of frames of images to be processed obtained by an imaging device scanning a target to be reconstructed; Determining the target pixel point belonging to the reconstruction target of the image to be processed in each frame using the calibration parameters of the imaging device and its camera pose parameters, and processing each frame according to a predetermined segmentation policy. Sequentially dividing the image data of a waiting image into corresponding data sets, the image data including at least a target pixel point, the image data of each data set, and the data whose time series is arranged before it. The image data and pose optimization parameters of the datasets are used sequentially to determine the pose optimization parameters of each dataset, and the pose optimization parameters of each dataset are used to determine the pose optimization parameters of the datasets. Performing reconstruction processing on the image data of the image to be processed by adjusting the camera pose parameters of the image to be processed to which it belongs, and using a predetermined three-dimensional reconstruction method and the adjusted camera pose parameters of the image to be processed. and obtaining a three-dimensional model of the target awaiting reconstruction.

したがって、撮影デバイスが再構成待ち目標をスキャンすることにより得られた処理待ち画像と撮影デバイスのキャリブレーションパラメータにより、各フレームの処理待ち画像の再構成待ち目標に属する目標画素点及びそのカメラポーズパラメータを決定し、所定の分割ポリシーに従って、各フレームの処理待ち画像の画像データを対応するデータセットに順次分割し、それによって各データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データとポーズ最適化パラメータを順次使用して、各データセットのポーズ最適化パラメータを決定し、さらに各データセットのポーズ最適化パラメータがその前にあるデータセットのポーズパラメータに基づいて決定されてもよく、したがって、各データセットのポーズ最適化パラメータを使用して、データセットに含まれる画像データの属する処理待ち画像のカメラポーズパラメータを調整する場合、スキャンプロセスに累積されたカメラポーズパラメータの誤差をなくすことに役立つため、所定の3次元再構成方式と処理待ち画像の調整後のカメラポーズパラメータを使用して、処理待ち画像の画像データに対して再構成処理を実行して、得られた再構成待ち目標の3次元モデルの効果が効果的に高まり、かつデータセットを単位としてカメラポーズパラメータの誤差をなくすことにより、計算量を減らすことができ、それによって計算負荷を軽減することに役立つ。 Therefore, the target pixel point belonging to the reconstruction target of the image to be processed of each frame and its camera pose parameter and sequentially divides the image data of each frame's pending image into corresponding datasets according to a predetermined division policy, thereby dividing the image data of each dataset and the data whose time series is placed before it. The image data and pose optimization parameters of the set are used sequentially to determine the pose optimization parameters for each dataset, and each dataset's pose optimization parameters are determined based on the pose parameters of the preceding dataset. Therefore, if the pose optimization parameters of each dataset are used to adjust the camera pose parameters of the pending images to which the image data contained in the dataset belongs, the camera pose parameters accumulated during the scanning process To help eliminate errors in the process, the reconstruction process is performed on the image data of the image to be processed using a predetermined 3D reconstruction method and the adjusted camera pose parameters of the image to be processed. By effectively increasing the effectiveness of the 3D model of the target that is waiting for reconstruction, and by eliminating errors in camera pose parameters for each dataset, the amount of calculation can be reduced, thereby reducing the calculation load. useful for.

本開示の第2の態様による3次元再構成に基づくインタラクション方法は、再構成待ち目標の3次元モデルを取得することであって、3次元モデルが第1の態様における3次元再構成方法によって得られることと、所定の視覚慣性ナビゲーション方式により、撮影デバイスが配置されているシーンの3次元地図を構築し、3次元地図における撮影デバイスの現在のポーズ情報を取得することと、ポーズ情報に基づいて、撮影デバイスによって現在撮影されているシーン画像に3次元モデルを表示することと、を含む。 An interaction method based on three-dimensional reconstruction according to a second aspect of the present disclosure is to obtain a three-dimensional model of a target awaiting reconstruction, the three-dimensional model being obtained by the three-dimensional reconstruction method according to the first aspect. and constructing a three-dimensional map of the scene where the photographing device is placed by a predetermined visual inertial navigation method, obtaining current pose information of the photographing device in the three-dimensional map, and based on the pose information. , displaying the three-dimensional model on a scene image currently being captured by the imaging device.

したがって、シーンの3次元地図における撮影デバイスのポーズ情報に基づいて、再構成待ち目標の3次元モデルを現在の撮影されているシーン画像に表示することにより、仮想物体と実際のシーンとの幾何学的整合性の融合を実現することができ、且つ3次元モデルが上記第1の態様における3次元再構成方法によって得られるため、3次元再構成の効果を高め、さらに仮想と現実との幾何学的整合性の融合効果を高めることができ、これは、ユーザ体験を向上させることに役立つ。 Therefore, by displaying the 3D model of the target to be reconstructed on the currently captured scene image based on the pose information of the imaging device in the 3D map of the scene, the geometry of the virtual object and the real scene can be Since the 3D model can be obtained by the 3D reconstruction method in the first aspect, the effect of 3D reconstruction can be improved, and the geometry of virtual and reality can be improved. The fusion effect of virtual consistency can be enhanced, which helps improve user experience.

本開示の第3の態様による3次元再構成に基づく測定方法は、再構成待ち目標の3次元モデルを取得することであって、3次元モデルが上記第1の態様における3次元再構成方法によって得られることと、ユーザが3次元モデルで設定した複数の測定ポイントを受信することと、複数の測定ポイントの間の距離を取得し、再構成待ち目標上の複数の測定ポイントに対応する位置の間の距離を取得することと、を含む。 A measurement method based on three-dimensional reconstruction according to a third aspect of the present disclosure is to obtain a three-dimensional model of a target awaiting reconstruction, and the three-dimensional model is obtained by the three-dimensional reconstruction method according to the first aspect. What is obtained is that the user receives multiple measurement points set in the 3D model, obtains the distances between the multiple measurement points, and calculates the positions corresponding to the multiple measurement points on the target awaiting reconstruction. and obtaining the distance between.

したがって、ユーザが3次元モデルで設定した複数の測定ポイントを受信することにより、複数の測定ポイントの間の距離を取得し、さらに再構成待ち目標上の複数の測定ポイントに対応する位置の間の距離を取得して、それによって実際のシーンにおける物体の測定ニーズを満たすことができ、且つ3次元モデルが上記第1の態様における3次元再構成方法により得られるため、3次元再構成の効果を高め、さらに測定の精度を向上させることができる。 Therefore, by receiving multiple measurement points set by the user in the 3D model, the distances between the multiple measurement points can be obtained, and the distances between the positions corresponding to the multiple measurement points on the target awaiting reconstruction can be obtained. The distance can be obtained, thereby meeting the measurement needs of objects in real scenes, and the 3D model can be obtained by the 3D reconstruction method in the above first aspect, so the effect of 3D reconstruction can be improved. It is possible to further improve measurement accuracy.

本開示の第4態様による3次元再構成装置は、画像取得モジュール、第1の決定モジュール、データ分割モジュール、第2の決定モジュール、パラメータ調整モジュール及びモデル再構成モジュールを備え、画像取得モジュールは、撮影デバイスが再構成待ち目標をスキャンすることにより得られた複数のフレームの処理待ち画像を取得するように構成され、第1の決定モジュールは、各フレームの処理待ち画像と撮影デバイスのキャリブレーションパラメータを使用して、各フレームの処理待ち画像の再構成待ち目標に属する目標画素点及びそのカメラポーズパラメータを決定するように構成され、データ分割モジュールは、所定の分割ポリ―シに従って、各フレームの処理待ち画像の画像データを対応するデータセットに順次分割するように構成され、画像データが少なくとも目標画素点を含み、第2の決定モジュールは、各データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データとポーズ最適化パラメータを順次使用して、各データセットのポーズ最適化パラメータを決定するように構成され、パラメータ調整モジュールは、各データセットのポーズ最適化パラメータを使用して、データセットに含まれる画像データの属する処理待ち画像のカメラポーズパラメータを調整するように構成され、モデル再構成モジュールは、所定の3次元再構成方式及び処理待ち画像の調整後のカメラポーズパラメータを使用して、処理待ち画像の画像データに対して再構成処理を実行して、再構成待ち目標の3次元モデルを取得するように構成される。 A three-dimensional reconstruction device according to a fourth aspect of the present disclosure includes an image acquisition module, a first determination module, a data division module, a second determination module, a parameter adjustment module, and a model reconstruction module, and the image acquisition module includes: The imaging device is configured to obtain a plurality of frames of pending images obtained by scanning the reconstruction target, and the first determination module is configured to obtain a plurality of frames of pending images and calibration parameters of the imaging device. is configured to determine the target pixel point belonging to the reconstruction target of the pending image of each frame and its camera pose parameters using The second determination module is configured to sequentially divide the image data of the image to be processed into corresponding datasets, the image data including at least the target pixel point, and the second determination module is configured to sequentially divide the image data of the image to be processed into corresponding datasets, the image data including at least the target pixel point, The parameter adjustment module is configured to determine pose optimization parameters for each dataset using sequentially the image data and pose optimization parameters of the datasets located in the The model reconstruction module is configured to use a predetermined three-dimensional reconstruction method and the adjusted camera pose parameters of the pending image to which the image data included in the dataset belongs. The camera pose parameter is configured to perform a reconstruction process on the image data of the image to be processed to obtain a three-dimensional model of the target to be reconstructed.

本開示の第5態様による3次元再構成に基づくインタラクション装置は、モデル取得モジュール、マッピング及び位置決めモジュール及び表示インタラクションモジュールを備え、モデル取得モジュールは、再構成待ち目標の3次元モデルを取得するように構成され、3次元モデルが上記第4態様における3次元再構成方法によって得られ、マッピング及び位置決めモジュールは、所定の視覚慣性ナビゲーション方式により、撮影デバイスが配置されているシーンの3次元地図を構築し、3次元地図における撮影デバイスの現在のポーズ情報を取得するように構成され、表示インタラクションモジュールは、ポーズ情報に基づいて、撮影デバイスによって現在撮影されているシーン画像に3次元モデルを表示するように構成される。 A three-dimensional reconstruction-based interaction device according to a fifth aspect of the present disclosure includes a model acquisition module, a mapping and positioning module, and a display interaction module, the model acquisition module configured to acquire a three-dimensional model of a target awaiting reconstruction. configured, a three-dimensional model is obtained by the three-dimensional reconstruction method according to the fourth aspect, and the mapping and positioning module constructs a three-dimensional map of the scene in which the imaging device is located according to a predetermined visual-inertial navigation method. , the display interaction module is configured to obtain current pose information of the photographing device in the three-dimensional map, and the display interaction module is configured to display the three-dimensional model in the scene image currently being photographed by the photographing device based on the pose information. configured.

本開示の第6態様による3次元再構成に基づく測定装置は、モデル取得モジュール、表示インタラクションモジュール及び距離取得モジュールを備え、モデル取得モジュールは、再構成待ち目標の3次元モデルを取得するように構成され、3次元モデルが上記第4態様における3次元再構成装置により得られ、表示インタラクションモジュールは、ユーザが3次元モデルで設定した複数の測定ポイントを受信するように構成され、距離取得モジュールは、複数の測定ポイントの間の距離を取得し、再構成待ち目標上の複数の測定ポイントに対応する位置の間の距離を取得するように構成される。 A measurement device based on three-dimensional reconstruction according to a sixth aspect of the present disclosure includes a model acquisition module, a display interaction module, and a distance acquisition module, the model acquisition module configured to acquire a three-dimensional model of a target awaiting reconstruction. and a 3D model is obtained by the 3D reconstruction device in the fourth aspect, the display interaction module is configured to receive a plurality of measurement points set by the user on the 3D model, and the distance acquisition module is configured to: The apparatus is configured to obtain distances between a plurality of measurement points and obtain distances between positions corresponding to the plurality of measurement points on a target awaiting reconstruction.

本開示の第7態様による電子機器は、互いに結合されたメモリとプロセッサを備え、プロセッサは、上記第1の態様における3次元再構成方法を実現し、又は上記第2の態様における3次元再構成に基づくインタラクション方法を実現し、又は上記第3の態様における3次元再構成に基づく測定方法を実現するために、メモリに記憶されたプログラム命令を実行するように構成される。 An electronic device according to a seventh aspect of the present disclosure includes a memory and a processor coupled to each other, and the processor implements the three-dimensional reconstruction method according to the first aspect, or performs the three-dimensional reconstruction method according to the second aspect. or the measurement method based on three-dimensional reconstruction according to the third aspect, the method is configured to execute program instructions stored in the memory.

本開示の第8態様によるコンピュータ可読記憶媒体は、プログラム命令を記憶し、プログラム命令がプロセッサに実行されると上記第1の態様における3次元再構成方法を実現し、又は上記第2の態様における3次元再構成に基づくインタラクション方法を実現し、又は上記第3の態様における3次元再構成に基づく測定方法を実現する。 A computer-readable storage medium according to an eighth aspect of the present disclosure stores program instructions, and when the program instructions are executed by a processor, realizes the three-dimensional reconstruction method according to the first aspect, or implements the three-dimensional reconstruction method according to the second aspect. An interaction method based on three-dimensional reconstruction is realized, or a measurement method based on three-dimensional reconstruction in the third aspect is realized.

本開示の第9態様によるコンピュータプログラムは、コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器で動作し、電子機器のプロセッサに実行される場合、上記第1の態様における3次元再構成方法を実現し、又は上記第2の態様における3次元再構成に基づくインタラクション方法を実現し、又は上記第3の態様における3次元再構成に基づく測定方法を実現する。 A computer program according to a ninth aspect of the present disclosure includes a computer readable code, and when the computer readable code operates on an electronic device and is executed by a processor of the electronic device, the computer program performs the three-dimensional reconstruction method according to the first aspect. or the interaction method based on the three-dimensional reconstruction in the second aspect, or the measurement method based on the three-dimensional reconstruction in the third aspect.

本開示の第10の態様によるコンピュータプログラム製品は、コンピュータで動作する場合、コンピュータに、上記第1の態様における3次元再構成方法を実行させ、又は上記第2の態様における3次元再構成に基づくインタラクション方法を実行させ、又は上記第3の態様における3次元再構成に基づく測定方法を実行させる。 A computer program product according to a tenth aspect of the present disclosure, when operating on a computer, causes the computer to perform the three-dimensional reconstruction method according to the first aspect, or is based on the three-dimensional reconstruction method according to the second aspect. An interaction method is executed, or a measurement method based on three-dimensional reconstruction in the third aspect is executed.

上記解決策では、各データセットのポーズ最適化パラメータがその前にあるデータセットのポーズパラメータに基づいて決定されてもよく、したがって、各データセットのポーズ最適化パラメータを使用して、データセットに含まれる画像データの属する処理待ち画像のカメラポーズパラメータを調整する場合、スキャンプロセスに累積されたカメラポーズパラメータの誤差をなくすことに役立つため、所定の3次元再構成方式と処理待ち画像の調整後のカメラポーズパラメータを使用して、処理待ち画像の画像データに対して再構成処理を実行して、得られた再構成待ち目標の3次元モデルの効果が効果的に高まり、かつデータセットを単位としてカメラポーズパラメータの誤差をなくすことにより、計算量を減らすことができ、これは計算負荷を軽減することに役立つ。 In the above solution, the pose optimization parameters of each dataset may be determined based on the pose parameters of the dataset before it, and thus the pose optimization parameters of each dataset are used to When adjusting the camera pose parameters of the pending image to which the included image data belongs, it is useful to eliminate errors in the camera pose parameters accumulated during the scanning process, so after adjusting the predetermined 3D reconstruction method and the pending image. The reconstruction process is performed on the image data of the image to be processed using the camera pose parameters of By eliminating errors in camera pose parameters, the amount of calculation can be reduced, which helps reduce the calculation load.

本開示の3次元再構成方法の一実施例のフローチャートである。2 is a flowchart of an embodiment of the three-dimensional reconstruction method of the present disclosure.

本開示の3次元再構成方法の一実施例の状態の概略図である。FIG. 2 is a schematic diagram of a state of an embodiment of the three-dimensional reconstruction method of the present disclosure.

図1のステップS12の一実施例のフローチャートである。2 is a flowchart of an embodiment of step S12 in FIG. 1. FIG.

図1のステップS13の一実施例のフローチャートである。2 is a flowchart of an embodiment of step S13 in FIG. 1. FIG.

図1のステップS14の一実施例のフローチャートである。2 is a flowchart of an embodiment of step S14 in FIG. 1. FIG.

図5のステップS141の一実施例のフローチャートである。6 is a flowchart of an embodiment of step S141 in FIG. 5. FIG.

図5のステップS142の一実施例のフローチャートである。6 is a flowchart of an embodiment of step S142 in FIG. 5. FIG.

図5のステップS143の一実施例のフローチャートである。6 is a flowchart of an embodiment of step S143 in FIG. 5. FIG.

本開示の3次元再構成に基づくインタラクション方法の一実施例のフローチャートである。2 is a flowchart of one embodiment of the 3D reconstruction-based interaction method of the present disclosure.

本開示の3次元再構成に基づく測定方法の一実施例のフローチャートである。1 is a flowchart of one embodiment of a measurement method based on three-dimensional reconstruction of the present disclosure.

本開示の3次元再構成装置の一実施例のフレームワーク概略図である。1 is a schematic framework diagram of an embodiment of a three-dimensional reconstruction device of the present disclosure; FIG.

本開示による3次元再構成に基づくインタラクション装置の一実施例のフレームワーク概略図である。1 is a framework schematic diagram of one embodiment of an interaction device based on three-dimensional reconstruction according to the present disclosure; FIG.

本開示の3次元再構成に基づく測定装置の一実施例のフレームワーク概略図である。1 is a framework schematic diagram of one embodiment of a measurement device based on three-dimensional reconstruction of the present disclosure; FIG.

本開示の電子機器の一実施例のフレームワーク概略図である。1 is a schematic framework diagram of an embodiment of an electronic device of the present disclosure; FIG.

本開示のコンピュータ可読記憶媒体の一実施例のフレームワーク概略図である。1 is a framework schematic diagram of one embodiment of a computer-readable storage medium of the present disclosure; FIG.

以下に本明細書の添付の図面と併せて、本開示の実施例の解決策を詳細に説明する。 The solutions of the embodiments of the present disclosure will be described in detail below in conjunction with the accompanying drawings of this specification.

以下の説明では、限定ではなく説明のために、特定のシステム構造、インターフェース、技術などの具体的な詳細は、本開示を完全に理解するために提案される。 In the following description, by way of explanation and not limitation, specific details, such as specific system structures, interfaces, techniques, etc., are set forth to provide a thorough understanding of this disclosure.

本明細書で用語「システム」及び「ネットワーク」は、本明細書で常に交換可能に使用される。本明細書では「少なくとも1つ」という用語は、関連付けられたオブジェクトの関連関係を説明するためのものだけであり、3種類の関係が存在できることを示し、例えば、A及びBの少なくとも1つは、Aが単独で存在すること、A及びBが同時に存在すること、Bが単独で存在することの3つの状況を示すことができる。また、本明細書では文字「/」は、一般的に前後にある関連オブジェクトが「又は」の関係であることを示す。また、本明細書での「複数」とは、2つ又は2つ以上を意味している。 The terms "system" and "network" are always used interchangeably herein. As used herein, the term "at least one" is only used to describe an association relationship of associated objects, and indicates that three types of relationships can exist, e.g., at least one of A and B is , A exists alone, A and B exist simultaneously, and B exists alone. Further, in this specification, the character "/" generally indicates that the related objects before and after the character have an "or" relationship. Moreover, "plurality" in this specification means two or more than two.

現在、3次元再構成は、コンピュータビジョン及び拡張現実分野の重要な問題であり、モバイルプラットフォームの拡張現実、ゲーム及び3次元プリントなどのアプリケーションで重要な役割を果たす。モバイルプラットフォームで実物のAR効果、例えば骨格駆動を実現する場合、通常、ユーザは、実物を迅速に3次元で再構成することが要求され、したがって、3次元物体スキャン及び再構成技術は、モバイルプラットフォームの拡張現実分野で広く必要とされている。 Currently, 3D reconstruction is an important problem in the computer vision and augmented reality fields, and plays an important role in applications such as augmented reality on mobile platforms, games and 3D printing. When realizing real-world AR effects, such as skeletal actuation, on mobile platforms, users are usually required to quickly reconstruct the real objects in three dimensions, and therefore, three-dimensional object scanning and reconstruction techniques are highly effective on mobile platforms. is widely needed in the augmented reality field.

しかしながら、モバイルプラットフォームでのリアルタイムな3次元物体再構成には多くの問題がある。(1)撮影デバイスのポーズの累積誤差が無くされる。ここで、撮影デバイスから取得されたディープビデオストリームと画像ビデオストリームに異なる程度のノイズがあり、且つ現在の主流のカメラポーズパラメータソルビング方法では幾つかの誤差が生じることが避けられず、当該誤差がスキャンの進行につれて累積し続けるため、最終的なモデル効果に影響を与える。(2)再構成待ち物体の色、サイズ及び形状などの各方面の差が大きいため、再構成方法のロバスト性及び適用性が高く要求され、また、モバイルプラットフォームでの物体スキャン及び再構成には、再構成方法が漸増的再構成モードを有することが要求され、スキャン視野範囲の拡大に伴い、新しく撮影された画像は継続的に組み込まれ、視野に入るモデルの新しい領域は既存のモデルと継続的にマージされ、再構成プロセス全体の計算負荷は増大し、モバイルプラットフォームのコンピューティングリソースは限られている。 However, real-time 3D object reconstruction on mobile platforms has many problems. (1) Accumulated pose errors of the photographic device are eliminated. Here, there are different degrees of noise in the deep video stream and the image video stream obtained from the shooting device, and the current mainstream camera pose parameter solving method inevitably causes some errors, and the errors are It continues to accumulate as the scan progresses, thus affecting the final model effect. (2) Since there are large differences in various aspects such as color, size, and shape of objects awaiting reconstruction, robustness and applicability of the reconstruction method are highly required. , the reconstruction method is required to have an incremental reconstruction mode, with the expansion of the scanning field of view, newly taken images are continuously incorporated, and new regions of the model entering the field of view are continuously integrated with the existing model. The computational load of the entire reconstruction process increases, and the computing resources of mobile platforms are limited.

これに鑑み、どのように3次元再構成の効果を高め、3次元再構成のための計算負荷を軽減するかは、解決すべき緊急の問題になる。本開示は、3次元再構成及び関連インタラクション、測定方法及び関連装置、デバイスを提供する。撮影デバイスが再構成待ち目標をスキャンすることにより得られた複数のフレームの処理待ち画像を取得し、各フレームの処理待ち画像と撮影デバイスのキャリブレーションパラメータを使用して、各フレームの処理待ち画像の再構成待ち目標に属する目標画素点及びそのカメラポーズパラメータを決定し、各フレームの処理待ち画像の画像データを対応するデータセットに順次分割し、データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データ及びポーズ最適化パラメータを順次使用して、データセットのポーズ最適化パラメータを決定し、データセットのポーズ最適化パラメータを使用して、データセットに含まれる画像データが属する処理待ち画像のカメラポーズパラメータを調整し、処理待ち画像の画像データに対して再構成処理を実行して、再構成待ち目標の3次元モデルを取得する。 In view of this, how to enhance the effect of 3D reconstruction and reduce the computational load for 3D reconstruction becomes an urgent problem to be solved. The present disclosure provides three-dimensional reconstruction and related interactions, measurement methods and related apparatus and devices. The imaging device acquires multiple frames of images to be processed obtained by scanning the target to be reconstructed, and uses the images to be processed for each frame and the calibration parameters of the imaging device to calculate the images to be processed for each frame. The target pixel point belonging to the target to be reconstructed and its camera pose parameters are determined, and the image data of the image to be processed of each frame is sequentially divided into corresponding datasets, and the image data of the dataset and the time series are The image data and pose optimization parameters of the dataset located in the dataset are sequentially used to determine the pose optimization parameters of the dataset, and the pose optimization parameters of the dataset are used to The camera pose parameters of the image to be processed to which the data belongs are adjusted, the reconstruction process is executed on the image data of the image to be processed, and a three-dimensional model of the target to be reconstructed is obtained.

上記解決策では、各データセットのポーズ最適化パラメータがその前にあるデータセットのポーズパラメータに基づいて決定されてもよく、したがって、各データセットのポーズ最適化パラメータを使用して、データセットに含まれる画像データの属する処理待ち画像のカメラポーズパラメータを調整する場合、スキャンプロセスに累積されたカメラポーズパラメータの誤差をなくすことに役立つため、所定の3次元再構成方式と処理待ち画像の調整後のカメラポーズパラメータを使用して、処理待ち画像の画像データに対して再構成処理を実行して、得られた再構成待ち目標の3次元モデルの効果が効果的に高まり、かつデータセットを単位としてカメラポーズパラメータの誤差をなくすことにより、計算量を減らすことができ、それによって計算負荷を軽減することに役立つ。 In the above solution, the pose optimization parameters of each dataset may be determined based on the pose parameters of the dataset before it, and thus the pose optimization parameters of each dataset are used to When adjusting the camera pose parameters of the pending image to which the included image data belongs, it is useful to eliminate errors in the camera pose parameters accumulated during the scanning process, so after adjusting the predetermined 3D reconstruction method and the pending image. The reconstruction process is performed on the image data of the image to be processed using the camera pose parameters of By eliminating errors in camera pose parameters, the amount of calculation can be reduced, which helps reduce the calculation load.

3次元再構成方法、3次元再構成に基づくインタラクション方法及び3次元再構成に基づく測定方法の実行本体は、電子機器であってもよく、電子機器は、スマートフォン、デスクトップコンピュータ、タブレットコンピュータ、ノートブックコンピュータ、スマートスピーカー、デジタルアシスタント、拡張現実(AR:augmented reality)/仮想現実(VR:virtual reality)機器、スマートウェアラブルデバイスなどのタイプのエンティティデバイスであってもよい。それはエンティティデバイスで動作するソフトウェア、例えばアプリケーションプログラム、ブラウザなどであってもよい。ここで、エンティティデバイスで動作するオペレーティングシステムは、Androidシステム、Appleシステム(IOS:Input Output System)、linux、windowsなどを含むが、これらに限定されない。
図1を参照すると、図1は本開示の3次元再構成方法の一実施例のフローチャートである。前記3次元再構成方法は、以下のステップを含むことができる:
The execution body of the 3D reconstruction method, the interaction method based on 3D reconstruction, and the measurement method based on 3D reconstruction may be an electronic device, and the electronic device may be a smartphone, a desktop computer, a tablet computer, or a notebook. It may be a type of entity device such as a computer, smart speaker, digital assistant, augmented reality (AR)/virtual reality (VR) device, smart wearable device, etc. It may be software running on the entity device, such as an application program, a browser, etc. Here, the operating system that operates on the entity device includes, but is not limited to, an Android system, an Apple system (IOS: Input Output System), Linux, Windows, and the like.
Referring to FIG. 1, FIG. 1 is a flowchart of one embodiment of the three-dimensional reconstruction method of the present disclosure. The three-dimensional reconstruction method may include the following steps:

ステップS11において、撮影デバイスが再構成待ち目標をスキャンすることにより得られた複数のフレームの処理待ち画像を取得する。 In step S11, the imaging device acquires a plurality of frames of images to be processed, which are obtained by scanning the target to be reconstructed.

撮影デバイスは、携帯電話、タブレットコンピュータなどの移動端末を含むことができるが、これらに限定されない。本開示の方法の実施例におけるステップは、移動端末によって実行されてもよいし、スキャン及び撮影機能を備えた撮影デバイスに接続されたマイクロコンピュータなどの処理機器によって実行されてもよく、ここでは限定されない。1つの実施シーンでは、撮影デバイスは、可視光をセンシングすることができるカラーカメラと、構造化光深度カメラなどの、再構成待ち目標の深度をセンシングすることができる深度カメラとを含むことができ、撮影デバイスがカラーカメラと深度カメラを含む場合、各フレームの処理待ち画像には、カラーデータと深度データが含まれる。 Capturing devices can include, but are not limited to, mobile terminals such as cell phones, tablet computers, and the like. The steps in embodiments of the disclosed method may be performed by a mobile terminal or by processing equipment, such as a microcomputer connected to a capturing device with scanning and capturing capabilities, and are not limited here. Not done. In one implementation scenario, the imaging device can include a color camera that can sense visible light and a depth camera that can sense the depth of the target awaiting reconstruction, such as a structured light depth camera. When the photographing device includes a color camera and a depth camera, each frame of the image to be processed includes color data and depth data.

再構成待ち目標は、人間、動物、物体(彫像、家具など)を含むことができるが、これらに限定されない。例えば、彫像を再構成待ち目標として使用する場合、彫像をスキャンすることにより、最終的に彫像の3次元モデルを取得することができ、また、これに基づいて、彫像の3次元モデルに対してレンダリング、骨結合などの操作を行うことができ、ここでは限定されず、再構成待ち目標は、実際の適用ニーズに応じて決定されてもよく、ここでは限定されない。 Targets awaiting reconstruction can include, but are not limited to, humans, animals, objects (statues, furniture, etc.). For example, when using a statue as a target for reconstruction, by scanning the statue, a 3D model of the statue can be finally obtained, and based on this, the 3D model of the statue can be Operations such as rendering, osseointegration, etc. may be performed, but are not limited here, and the reconstruction pending goal may be determined according to the actual application needs, and is not limited here.

ステップS12において、各フレームの処理待ち画像と撮影デバイスのキャリブレーションパラメータを使用して、各フレームの処理待ち画像の再構成待ち目標に属する目標画素点及びそのカメラポーズパラメータを決定する。 In step S12, the target pixel point belonging to the reconstruction target of the image to be processed of each frame and its camera pose parameter are determined using the image to be processed of each frame and the calibration parameters of the photographing device.

キャリブレーションパラメータは、撮影デバイスの内部パラメータを含むことができ、例えば、撮影デバイスがカラーカメラを含む場合、キャリブレーションパラメータは、カラーカメラの内部パラメータを含むことができ、撮影デバイスが深度カメラを含む場合、又はラーカメラと深度カメラとを含む場合、このように類推することができ、ここでは例を1つずつ挙げない。1つの実施シーンでは、内部パラメータは、カメラの焦点距離、カメラの主点座標を含むことができるが、これらに限定さず、一実施シーンでは、内部パラメータは、マトリックス形式で表されてもよく、例えば、カラーカメラの内部パラメータは次のように表されてもよい:
The calibration parameters may include internal parameters of the imaging device, for example, if the imaging device includes a color camera, the calibration parameters may include internal parameters of the color camera, and the imaging device includes a depth camera. This analogy can be made in the case of a case including a color camera and a depth camera, and we will not give examples one by one here. In one implementation scene, the intrinsic parameters may include, but are not limited to, the focal length of the camera, the principal point coordinates of the camera, and in one implementation scene, the intrinsic parameters may be represented in matrix form. , for example, the internal parameters of a color camera may be expressed as:

ここで、式(1)では、

は、カラーカメラの焦点距離を表し、

は、カラーカメラの主点座標を表す。また、深度カメラの内部パラメータ

は、このように類推されてもよく、ここでは例を1つずつ挙げない。
Here, in equation (1),

represents the focal length of the color camera,

represents the principal point coordinates of the color camera. Also, the internal parameters of the depth camera

may be inferred in this way, and we will not give examples one by one here.

キャリブレーションパラメータは、撮影デバイスの深度カメラとカラーカメラの間の外部パラメータをさらに含むことができ、世界座標系からカメラ座標系への変換を表すために用いられる。本開示の実施例では、外部パラメータは、3*3の回転マトリックス

と3*1の並進マトリックス

とを含むことができる。回転マトリックス

を使用して、世界座標系における座標点

を左乗算し、並進マトリックス

と合計することにより、世界座標系における座標点

のカメラ座標系における対応する座標点

を取得することができる。
The calibration parameters may further include extrinsic parameters between the depth camera and the color camera of the imaging device, and are used to represent the transformation from the world coordinate system to the camera coordinate system. In embodiments of the present disclosure, the extrinsic parameters include a 3*3 rotation matrix

and 3*1 translation matrix

and may include. rotation matrix

The coordinate point in the world coordinate system using

Multiply the left and the translation matrix

By summing with, the coordinate point in the world coordinate system

The corresponding coordinate point in the camera coordinate system of

can be obtained.

実際のスキャンプロセスでは、再構成待ち目標に属しない物体(例えば、地面、壁など)がスキャンされることは避けられなく、したがって、後続の3次元再構成の効果を高めるために、各フレームの処理待ち画像の再構成待ち目標に属する目標画素点を決定する必要がある。1つの実施シーンでは、予め訓練された画像分割モデル(例えば、Unetモデル)を使用して、処理待ち画像に対して画像分割を行うことにより、処理待ち画像の再構成待ち目標に属する目標画素点を取得することができ、別の実施シーンでは、再構成待ち目標をそれとの色収差が大きい環境に置くこともでき、例えば、再構成待ち目標が乳白色の石膏彫像である場合、再構成待ち目標をスキャンのために暗い環境に置くことができ、これにより、処理待ち画像の環境色に属する画素点を無効にマーキングし、再構成待ち目標色に属する画素点を有効にマーキングし、有効にマーキングされた画素点で構成された連通ドメインのサイズを比較し、最大の連通ドメインの画素点を再構成待ち目標に属する画素点として決定する。 In the actual scanning process, it is inevitable that objects (e.g., ground, walls, etc.) that do not belong to the target awaiting reconstruction are scanned, and therefore, in order to increase the effectiveness of the subsequent 3D reconstruction, the It is necessary to determine the target pixel point belonging to the target to be reconstructed in the image to be processed. In one implementation scene, a pre-trained image segmentation model (e.g. Unet model) is used to perform image segmentation on the image to be processed, thereby determining the target pixel point belonging to the target to be reconstructed in the image to be processed. In another implementation scene, the reconstruction target can be placed in an environment with large chromatic aberration with it, for example, if the reconstruction target is a milky white plaster statue, the reconstruction target can be It can be placed in a dark environment for scanning, thereby invalidating the marking of pixel points belonging to the environment color of the pending image, validly marking the pixel points belonging to the target color pending reconstruction, and validly marking the pixel points belonging to the target color of the pending image. The sizes of connected domains made up of pixel points are compared, and the pixel point in the largest connected domain is determined as the pixel point belonging to the target awaiting reconstruction.

再構成待ち目標の完全な3次元モデルを取得するために、撮影デバイスは、異なるポーズで再構成待ち目標をスキャンする必要があり、したがって、異なる処理待ち画像を撮影するために用いられるカメラポーズパラメータが異なる可能性があり、したがって、カメラポーズパラメータの誤差を無くし、後続の3次元再構成の効果を高めるために、まず、各フレームの処理待ち画像のカメラポーズパラメータを決定する必要がある。1つの実施シーンでは、各フレームの処理待ち画像の再構成待ち目標に属する目標画素点

及びその前にあるフレームの処理待ち画像の再構成待ち目標に属する目標画素点

、撮影ダバイスの内部パラメータ

を使用して、相対ポーズパラメータ

の目標関数を構築し、ICP(Iterative Closest Point:反復最接近点)アルゴリズムを利用して当該目標関数を最小化し、それによって相対ポーズパラメータ

を求めることができ、ここで、相対ポーズパラメータ

は、その前にあるフレームの処理待ちカメラポーズパラメータ

に対する各フレームの処理待ち画像のカメラポーズパラメータ

の相対パラメータである。ここで、相対ポーズパラメータ

の目標関数については、次の式を参照することができる:



In order to obtain a complete 3D model of the reconstructed target, the imaging device needs to scan the reconstructed target in different poses, and therefore the camera pose parameters used to capture the different reconstructed images. Therefore, in order to eliminate errors in the camera pose parameters and enhance the effectiveness of subsequent three-dimensional reconstruction, it is first necessary to determine the camera pose parameters of the images to be processed for each frame. In one implementation scene, the target pixel point belonging to the reconstruction target of the image to be processed in each frame

and the target pixel point belonging to the reconstruction target of the image to be processed in the frame before it.

, internal parameters of the shooting device

using relative pose parameters

, and minimize the objective function using ICP (Iterative Closest Point) algorithm, thereby determining the relative pose parameters.

can be found, where the relative pose parameter

is the pending camera pose parameter of the previous frame

Camera pose parameters of each frame's pending image for

is a relative parameter of Here, the relative pose parameter

For the objective function of , we can refer to the following formula:



上記式のうち、式(2)から式(5)において、

は重みであり、

は、画素点

(画素点

が目標画素点である)のカラーデータ

における2次元画像座標であり、

は、深度データ

をカラーデータ

に投影した後の画素点

の深度値である。したがって、上記式において、

は、現在のフレームの画素点

が相対ポーズパラメータ

、内部パラメータ

を使用して、その前にあるフレームに変換された後の理論上の対応する画素点の3次元空間における位置座標を表すことができ、当該相対ポーズパラメータ

が正確であるほど、当該対応する画素点の前のフレームのカラーデータ

における画素値

と画素点

の現在のフレームのカラーデータ

における画素値

との二乗和誤差

が小さくなり、且つ当該対応する画素点の前のフレームの深度データ

の深度値

と対応する画素点の3次元空間における

座標値

との二乗和誤差

も小さくなり、したがって、上記目標関数
Among the above formulas, in formulas (2) to (5),

is the weight,

is the pixel point

(pixel point

is the target pixel point)

The two-dimensional image coordinates are

is the depth data

the color data

pixel point after projection to

is the depth value of Therefore, in the above formula,

is the pixel point of the current frame

is the relative pose parameter

, internal parameters

can be used to represent the position coordinates in three-dimensional space of the theoretical corresponding pixel point after being transformed into the previous frame, and the relative pose parameter

The more accurate is the color data of the previous frame of the corresponding pixel point

pixel value at

and pixel point

color data of the current frame of

pixel value at

sum of squared error with

becomes smaller, and the depth data of the previous frame of the corresponding pixel point

depth value of

In the three-dimensional space of pixel points corresponding to

coordinate value

sum of squares error with

is also smaller, therefore the above objective function

を最適化することにより、相対ポーズパラメータ

を正確に取得することができ、それによってカメラポーズパラメータの精度を向上させることができる。
By optimizing the relative pose parameters

can be obtained accurately, thereby improving the accuracy of camera pose parameters.

その前にあるフレームの処理待ち画像のカメラポーズパラメータ

に対する各フレームの処理待ち画像のカメラポーズパラメータ

の相対ポーズパラメータ

が得られた後、相対ポーズパラメータ

の逆(即ち

)をその前にあるフレームの処理待ち画像のカメラポーズパラメータ

と左乗算し、現在のフレームの処理待ち画像のカメラポーズパラメータ

を取得することができる。一実施シーンでは、処理待ち画像が撮影デバイスによってスキャンされて得られた複数のフレームの処理待ち画像のうちの第1のフレームである場合、そのカメラポーズパラメータは、単位マトリックスとして初期化されてもよく、本開示の実施例では、単位マトリックスは、主対角線上の要素が全て1であり、他の要素が0である方形マトリックスである。また、別の実施シーンでは、処理待ち画像へのスキャン、及び目標画素点とカメラポーズパラメータの決定を同時に行うことができ、即ちスキャンによって1フレームの処理待ち画像が得られた後、即ちスキャンして得られた処理待ち画像に対して目標画素点とカメラポーズパラメータの決定を実行して、それと同時に、スキャンによって次のフレームの処理待ち画像を取得して、これにより、再構成待ち目標に対して3次元再構成をリアルタイム且つオンラインで行うことができる。
Camera pose parameters of the pending image of the previous frame

Camera pose parameters of each frame's pending image for

relative pose parameters of

is obtained, the relative pose parameters

The opposite of (i.e.

) is the camera pose parameter of the pending image of the frame before it.

and the camera pose parameters of the pending image of the current frame and left multiplied by

can be obtained. In one implementation scene, if the pending image is the first frame of a plurality of frames of pending images obtained by scanning by the imaging device, the camera pose parameters may be initialized as a unit matrix. Often, in embodiments of the present disclosure, the identity matrix is a rectangular matrix in which the elements on the main diagonal are all 1's and the other elements are 0's. In another implementation scene, the scanning of the image to be processed and the determination of the target pixel point and camera pose parameters can be performed at the same time, that is, after one frame of the image to be processed is obtained by scanning, The target pixel point and camera pose parameters are determined for the image to be processed obtained by 3D reconstruction can be performed in real time and online.

ステップS13において、所定の分割ポリシーに従って、各フレームの処理待ち画像の画像データを対応するデータセットに順次分割し、ここで、画像データは少なくとも、目標画素点を含む。 In step S13, the image data of each frame of the image to be processed is sequentially divided into corresponding data sets according to a predetermined division policy, where the image data includes at least a target pixel point.

1つの実施シーンでは、分割する場合、各データセットが収容可能な画像データが属する処理待ち画像の最大フレーム数(例えば、8フレーム、9フレーム、10フレームなど)を設定することができるため、現在のデータセットに含まれる画像データが属する処理待ち画像のフレーム数が最大フレーム数に達するときに、新しいデータセットを作成し、分割されていない処理待ち画像の画像データを新しく作成されたデータセットに分割し続け、このように循環し、スキャンが完了するまで続く。別の実施シーンでは、ポーズが類似し(例えば、カメラ向き角度が類似したり、カメラ位置が類似したりする等)、且つ時系列で連続する処理待ち画像の画像データを同一のデータセットに分割することができ、ここでは具体的に限定しない。さらなる別の実施シーンでは、各フレームの処理待ち画像の画像データを分割する場合、画像データが属する処理待ち画像とその前にあるフレームの処理待ち画像とのポーズ差(例えば、カメラ向き角度差、カメラ位置距離)が所定の下限値より小さいか否かを判断することができ、そうである場合、分割される処理待ち画像を無視し、次のフレームの処理待ち画像の画像データの分割操作を処理することもできる。さらなる別の実施シーンでは、隣接するデータセットの間には同じ処理待ち画像に属する画像データが存在してもよく、例えば、隣接するデータセットの間には2フレームの同じ処理待ち画像に属する画像データが存在してもよく、又は、隣接するデータセットの間には3フレームの同じ処理待ち画像に属する画像データが存在してもよく、ここでは限定しない。 In one implementation scene, when dividing, it is possible to set the maximum number of frames (for example, 8 frames, 9 frames, 10 frames, etc.) of images waiting to be processed to which the image data that can be accommodated in each dataset belongs. When the number of frames of the pending image to which the image data included in the dataset belongs reaches the maximum number of frames, a new dataset is created and the image data of the undivided pending image is added to the newly created dataset. It continues to split and cycle like this until the scan is complete. In another implementation scene, image data of images that have similar poses (for example, similar camera orientation angles, similar camera positions, etc.) and are consecutive in time series and are waiting to be processed are divided into the same data set. However, there is no specific limitation here. In yet another implementation scenario, when dividing the image data of the image to be processed in each frame, the pose difference (for example, camera orientation angle difference, It is possible to determine whether the camera position (distance) is smaller than a predetermined lower limit value, and if so, ignore the image waiting to be processed to be divided and perform the dividing operation on the image data of the image waiting to be processed in the next frame. It can also be processed. In yet another implementation scene, there may be image data belonging to the same pending image between adjacent datasets, for example, there may be two frames of image data belonging to the same pending image between adjacent datasets. data may exist, or image data belonging to three frames of the same image to be processed may exist between adjacent data sets, and is not limited here.

1つの実施シーンでは、各フレームの処理待ち画像の画像データは、再構成待ち目標に属する目標画素点(深度データにおける目標画素点、カラーデータにおける目標画素点など)のみを含むことができ、別の実施シーンでは、各フレームの処理待ち画像の画像データは、再構成待ち目標に属しない画素点をさらに含むことができ、例えば、データセットに分割された画像データは、処理待ち画像全体の画像データであってもよく、この場合、画像データは、後続の目標画素点の検索を容易にするために、目標画素点の位置座標をさらに含むことができる。 In one implementation scenario, the image data of the pending image of each frame may only include target pixel points (target pixel points in depth data, target pixel points in color data, etc.) that belong to the target to be reconstructed, and may include other target pixel points (target pixel points in depth data, target pixel points in color data, etc.) In the implementation scene, the image data of the pending image of each frame can further include pixel points that do not belong to the target of the reconstruction pending, for example, the image data divided into datasets is the image of the entire pending image. data, in which case the image data may further include position coordinates of the target pixel point to facilitate subsequent retrieval of the target pixel point.

図2を参照すると、図2は本開示の3次元再構成方法の一実施例の状態の概略図である。図2に示すように、再構成待ち目標は、人物像石膏彫塑であり、各フレームの処理待ち画像21は、カラーデータ22と深度データ23を含むことができ、再構成待ち目標に属する目標画素点を取得して、それによって目標画素点を少なくとも含む画像データ24を対応するデータセット25に順次分割する。 Referring to FIG. 2, FIG. 2 is a schematic diagram of the state of one embodiment of the three-dimensional reconstruction method of the present disclosure. As shown in FIG. 2, the target to be reconstructed is a plaster sculpture of a human figure, and the image to be processed 21 of each frame can include color data 22 and depth data 23, and the target pixels belonging to the target to be reconstructed are The points are acquired so that the image data 24 containing at least the target pixel point is sequentially divided into corresponding data sets 25.

ステップS14において、各データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データ及びポーズ最適化パラメータを順次使用して、各データセットのポーズ最適化パラメータを決定する。 In step S14, pose optimization parameters for each data set are determined by sequentially using the image data of each data set and the image data and pose optimization parameters of the data set whose time series is placed before it.

1つの実施シーンでは、各データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データを順次用いて両者間の空間変換パラメータ

を決定することができ、これにより、両者間の空間変換パラメータ

、及びそれぞれのポーズ最適化パラメータ

を使用して、ポーズ最適化パラメータ

に関する目標パラメータを構築することができ、さらに目標関数を解いて、そのポーズ最適化パラメータ

及び時系列がその前に配置されているデータセットのポーズ最適化パラメータを取得することができ、これにより、その前にあるデータセットのポーズ最適化パラメータ

を更新することができる。したがって、各データセットのポーズ最適化パラメータ

を順次ソルビングする場合、時系列がその前に配置されているデータセットのポーズ最適化パラメータ

が考慮され、即ちデータセットとその前にあるデータセットのポーズ最適化パラメータは、互いに関連し、且つ新しいデータセットの継続的な生成につれて、前のデータセットのポーズ最適化パラメータも継続的に更新され、このようにして最後のデータセットまで循環し、それによって各データセットの最終的なポーズ最適化パラメータを取得することができ、そのため、累積された誤差を効果的に無くすことができる。1つの実施シーンでは、データセットが1番目のデータセットである場合、1番目のデータセットのポーズ最適化パラメータは、単位マトリックスとして初期化されてもよい。1つの実施シーンでは、新しいデータセットを作成するたびに、その前にあるデータセットのポーズ最適化パラメータを計算し、関連するデータセットのポーズ最適化パラメータの更新を実現することができ、このように循環し、スキャンが終了するまで続き、各データセットの最終的なポーズ最適化パラメータが得られ、それによって計算量の均一化に役立ち、さらに計算負荷の軽減に役立つことができる。撮影デバイスが携帯電話、タブレットコンピュータなどの移動端末である場合、撮影された処理待ち画像を対応するデータセットに分割するとともに、データセットのポーズ最適化パラメータを解いて、更新することができ、それによって再構成待ち目標の3次元再構成をリアルタイムかつオンラインで行うことができる。なお、本開示の実施例及び下記の他の開示された実施例では、別段の指定がない限り、時系列は、データセット内の処理待ち画像の全体的な撮影時系列を表すことができる。例えば、データセット1は、撮影時系列t=1の処理待ち画像、撮影時系列t=2の処理待ち画像、及び撮影時系列t=3の処理待ち画像を含み、データセット2は、撮影時系列t=4の処理待ち画像、撮影時系列t=5の処理待ち画像、及び撮影時系列t=6の処理待ち画像を含み、データセット1内の処理待ち画像の全体的な撮影時系列がデータセット2内の処理待ち画像の全体的な撮影時系列に位置する場合、データセット1の時系列は、データセット2の前にあると見なすことができる。他の場合、このように類推することができ、ここで例を1つずつ挙げない。
In one implementation scene, the image data of each dataset and the image data of the dataset whose time series is placed before it are sequentially used to calculate the spatial transformation parameters between the two.

can be determined, which allows the spatial transformation parameter between the two to be

, and their respective pose optimization parameters

Pose optimization parameters using

You can construct the objective parameters for the pose optimization parameters by further solving the objective function

and the pose optimization parameters of the dataset in front of which the time series is placed, which allows the pose optimization parameters of the dataset in front of it to be obtained.

can be updated. Therefore, pose optimization parameters for each dataset

When solving sequentially, the pose optimization parameters of the dataset whose time series is placed before it

is taken into account, i.e. the pose optimization parameters of a dataset and the previous dataset are related to each other, and as new datasets are continuously generated, the pose optimization parameters of the previous dataset are also updated continuously. and thus cycle through to the last data set, thereby obtaining the final pose optimization parameters for each data set, thus effectively eliminating the accumulated error. In one implementation scenario, if the dataset is a first dataset, the pose optimization parameters for the first dataset may be initialized as an identity matrix. In one implementation scene, each time a new dataset is created, the pose optimization parameters of the previous dataset can be calculated, and the update of the pose optimization parameters of the related datasets can be realized. and continues until the end of the scan, yielding the final pose optimization parameters for each dataset, which can help equalize the computational effort and further reduce the computational load. If the shooting device is a mobile terminal such as a mobile phone or tablet computer, the captured images to be processed can be divided into corresponding datasets, and the pose optimization parameters of the datasets can be solved and updated. 3D reconstruction of a target waiting for reconstruction can be performed in real time and online. It should be noted that in embodiments of this disclosure and other disclosed embodiments described below, unless otherwise specified, the time series may represent the overall capture time series of images to be processed within the dataset. For example, dataset 1 includes an image to be processed in the shooting time series t=1, an image to be processed in the shooting time series t=2, and an image to be processed in the shooting time series t=3, and dataset 2 includes images to be processed in the shooting time series t=3. The overall shooting time series of the images waiting to be processed in dataset 1 includes images to be processed in series t=4, images to be processed in shooting time series t=5, and images to be processed in shooting time series t=6. The time series of Data Set 1 can be considered to precede Data Set 2 if it is located in the overall capture time series of the pending images in Data Set 2. In other cases, analogies can be made like this, and we will not give examples one by one here.

1つの実施シーンでは、図2を参照すると、スキャンプロセスに動的調整を実現し、ユーザ体験を向上させ、3次元再構成のための計算負荷を低減するために、データセット25内の画像データセットの画像データを3次元空間に順次マッピングして、各データセットに対応する3次元ポイントクラウドを取得することができる。 In one implementation scene, referring to FIG. 2, image data in dataset 25 is used to realize dynamic adjustment to the scanning process, improve user experience, and reduce computational load for 3D reconstruction. A set of image data can be sequentially mapped into a three-dimensional space to obtain a three-dimensional point cloud corresponding to each data set.

1つの実施シーンでは、画像データが属する処理待ち画像のカメラポーズパラメータと撮影デバイスの内部パラメータ

を使用して、画像データを3次元空間にマッピングし、3次元ポイントクラウドを取得することができ、まず、画像データを3次元同次にし、画素座標を取得することができ、カメラポーズパラメータ

と、内部パラメータ

を使用して、同次になった後の画素座標を左乗算し、3次元空間における3次元ポイントクラウドを取得することができる。別の実施シーンでは、データセットのポーズ最適化パラメータ

を使用して、3次元ポイントクラウドを左乗算し、動的調整を実現することができる。即ち、各データセットのポーズ最適化パラメータが得られた後、データセットのカメラポーズパラメータを使用して、それに対応する3次元ポイントクラウドを調整することができる。さらなる別の実施シーンでは、3次元ポイントクラウドを所定の色(例えば、緑色)で示すことができ、ここでは限定されない。
In one implementation scene, the camera pose parameters of the pending image to which the image data belongs and the internal parameters of the imaging device are

can be used to map the image data into a 3D space and obtain a 3D point cloud, firstly, the image data can be made 3D homogeneous, the pixel coordinates can be obtained, and the camera pose parameters

and internal parameters

can be used to left-multiply the pixel coordinates after they become homogeneous to obtain a three-dimensional point cloud in three-dimensional space. In another implementation scene, pose optimization parameters for the dataset

can be used to left-multiply the 3D point cloud and realize dynamic adjustment. That is, after the pose optimization parameters for each dataset are obtained, the camera pose parameters of the dataset can be used to adjust its corresponding three-dimensional point cloud. In yet another implementation scenario, the three-dimensional point cloud may be shown in a predetermined color (eg, green), but is not limited here.

ステップS15において、各データセットのポーズ最適化パラメータを使用して、データセットに含まれる画像データが属する処理待ち画像のカメラポーズパラメータを調整する。 In step S15, the pose optimization parameters of each data set are used to adjust the camera pose parameters of the image to be processed to which the image data included in the data set belongs.

ここで、各データセットのポーズ最適化パラメータ

を使用して、その中に含まれる画像データの属する処理待ち画像のカメラポーズパラメータ

を左乗算し、それによってカメラポーズパラメータの調整を実現することができる。例えば、データセットAにおいてデータセットAに分割された時系列が画像データ01(処理待ち画像01に属する)、画像データ02(処理待ち画像02に属する)、画像データ03(処理待ち画像03に属する)を含むため、データセットAのポーズ最適化パラメータ

を使用して、処理待ち画像01のカメラポーズパラメータ

、処理待ち画像02のカメラポーズパラメータ

、処理待ち画像03のカメラポーズパラメータ

をそれぞれ左乗算し、それによってデータセットAに含まれる画像データの属する処理待ち画像のカメラポーズパラメータの調整を実現することができる。1つの実施シーンでは、隣接するデータセットの間に同じ処理待ち画像に属する画像データがある場合、2つのデータセットのいずれかのポーズ最適化パラメータのみを使用して、同じ処理待ち画像のカメラポーズパラメータを調整することができる。例えば、依然として上記データセットAを例とすると、それに隣接するデータセットBは、画像データ03(処理待ち画像03に属する)、画像データ04(処理待ち画像04に属する)を含むため、データセットAのポーズ最適化パラメータ

を使用して、処理待ち画像01のカメラポーズパラメータ

、処理待ち画像02のカメラポーズパラメータ

、処理待ち画像03のカメラポーズパラメータ

を左乗算する場合、データセットBに含まれる画像データの属する処理待ち画像のカメラポーズパラメータを調整するときに、データセットBのポーズ最適化パラメータ

を使用して、処理待ち画像03のカメラポーズパラメータ

を左乗算せず、処理待ち画像04のカメラポーズパラメータを左乗算することができる。
Here, pose optimization parameters for each dataset

is used to determine the camera pose parameters of the pending image to which the image data contained therein belongs.

can be left multiplied, thereby realizing the adjustment of camera pose parameters. For example, the time series divided into dataset A in dataset A are image data 01 (belongs to image 01 waiting to be processed), image data 02 (belongs to image 02 waiting to be processed), image data 03 (belongs to image 03 waiting to be processed). ), the pose optimization parameters of dataset A

The camera pose parameters of image 01 to be processed using

, camera pose parameters of image 02 to be processed

, camera pose parameters of image 03 to be processed

are respectively left multiplied, thereby realizing adjustment of the camera pose parameters of the images to be processed to which the image data included in the data set A belongs. In one implementation scene, if there is image data belonging to the same pending image between adjacent datasets, only the pose optimization parameters of either of the two datasets are used to determine the camera pose of the same pending image. Parameters can be adjusted. For example, if we still take the above data set A as an example, the data set B adjacent to it includes image data 03 (belonging to the image to be processed 03) and image data 04 (belonging to the image to be processed 04), so the data set A Pose optimization parameters for

The camera pose parameters of image 01 to be processed using

, camera pose parameters of image 02 to be processed

, camera pose parameters of image 03 to be processed

When adjusting the camera pose parameters of the pending image to which the image data included in dataset B belongs, the pose optimization parameters of dataset B

The camera pose parameters of image 03 to be processed using

It is possible to perform left multiplication by the camera pose parameter of the image to be processed 04 without performing left multiplication.

1つの実施シーンでは、図2を参照すると、各データセットのポーズ最適化パラメータが得られた後、各データセットのポーズ最適化パラメータを使用して、データセットに含まれる画像データの属する処理待ち画像のカメラポーズパラメータ26を調整し、調整後のカメラポーズパラメータ27を取得する。各データセットの調整後のポーズ最適化パラメータ27が得られた後、データセットの調整後のカメラポーズパラメータ27を使用して、それに対応する3次元ポイントクラウド28を調整することができ、これにより、ユーザは、3次元ポイントクラウドの動的調整を感じることができる。 In one implementation scene, referring to Figure 2, after the pose optimization parameters of each dataset are obtained, the pose optimization parameters of each dataset are used to determine the pending processing to which the image data included in the dataset belongs. The camera pose parameter 26 of the image is adjusted, and the adjusted camera pose parameter 27 is obtained. After each dataset's adjusted pose optimization parameters 27 are obtained, the dataset's adjusted camera pose parameters 27 can be used to adjust its corresponding 3D point cloud 28, thereby , the user can feel the dynamic adjustment of the 3D point cloud.

ステップS16において、所定の3次元再構成方式及び処理待ち画像の調整後のカメラポーズパラメータを使用して、処理待ち画像の画像データに対して再構成処理を実行して、再構成待ち目標の3次元モデルを取得する。 In step S16, a predetermined three-dimensional reconstruction method and the adjusted camera pose parameters of the image to be processed are used to execute the reconstruction process on the image data of the image to be processed, and the three-dimensional reconstruction target of the image to be processed is Obtain a dimensional model.

所定の3次元再構成方式は、TSDF(Truncated Signed Distance Function:切り捨てられた符号付き距離関数)再構成方式、ポアソン再構成方式を含むことができるがこれらに限定されない。TSDF再構成方式は、3D再構成で隠し面を計算する方式であり、具体的には、ここで説明を省略する。ポアソン再構成のコア思想は、3次元ポイントクラウドが再構成待ち目標の表面位置を表し、その法線ベクトルが内側と外側の方向を表すことであり、1つの物体から派生したインジケーター関数を暗黙的にフィッティングすることにより、1つの滑らかな物体表面推定を取得することができ、具体的には、説明を省略する。1つの実施シーンでは、撮影デバイスが再構成待ち目標を撮影する場合、上記ステップによって再構成待ち目標の3次元モデルをリアルタイムで再構成し、現在の撮影されている画像フレームと同じ位置と角度で重ね合わせてレンダリングすることができ、それによって再構成待ち目標の主な3次元モデルをユーザに表示することができる。別の実施シーンでは、3次元プリンターを使用して、上記ステップで再構成された3次元モデルをプリントし、再構成待ち目標に対応する実物モデルを取得することができる。 The predetermined three-dimensional reconstruction method may include, but is not limited to, a TSDF (Truncated Signed Distance Function) reconstruction method and a Poisson reconstruction method. The TSDF reconstruction method is a method for calculating hidden surfaces through 3D reconstruction, and a detailed explanation thereof will be omitted here. The core idea of Poisson reconstruction is that the 3D point cloud represents the surface position of the target awaiting reconstruction, and its normal vectors represent the inner and outer directions, implicitly representing the indicator function derived from one object. A single smooth object surface estimation can be obtained by fitting to , and a detailed description thereof will be omitted. In one implementation scenario, when the imaging device captures a target to be reconstructed, the above steps reconstruct a 3D model of the target to be reconstructed in real time at the same position and angle as the currently captured image frame. They can be rendered in superimposition, thereby displaying to the user the main three-dimensional model of the target awaiting reconstruction. In another implementation scenario, a three-dimensional printer can be used to print the three-dimensional model reconstructed in the above steps to obtain a physical model corresponding to the target awaiting reconstruction.

上記解決策では、各データセットのポーズ最適化パラメータがその前にあるデータセットのポーズパラメータに基づいて決定されてもよく、したがって、各データセットのポーズ最適化パラメータを使用して、データセットに含まれる画像データの属する処理待ち画像のカメラポーズパラメータを調整する場合、スキャンプロセスに累積されたカメラポーズパラメータの誤差をなくすことに役立つため、所定の3次元再構成方式と処理待ち画像の調整後のカメラポーズパラメータを使用して、処理待ち画像の画像データに対して再構成処理を実行して、得られた再構成待ち目標の3次元モデルの効果が効果的に高まり、かつデータセットを単位としてカメラポーズパラメータの誤差をなくすことにより、計算量を減らすことができ、それによって計算負荷を軽減することに役立つ。 In the above solution, the pose optimization parameters of each dataset may be determined based on the pose parameters of the dataset before it, and thus the pose optimization parameters of each dataset are used to When adjusting the camera pose parameters of the pending image to which the included image data belongs, it is useful to eliminate errors in the camera pose parameters accumulated during the scanning process, so after adjusting the predetermined 3D reconstruction method and the pending image. The reconstruction process is performed on the image data of the image to be processed using the camera pose parameters of By eliminating errors in camera pose parameters, the amount of calculation can be reduced, which helps reduce the calculation load.

図3を参照すると、図3は図1のステップS12の一実施例のフローチャートである。ここで、図3は図1の目標画素点の決定プロセスのフローチャートである。当該決定プロセスは、以下のステップを含むことができる。 Referring to FIG. 3, FIG. 3 is a flowchart of one embodiment of step S12 of FIG. Here, FIG. 3 is a flowchart of the target pixel point determination process of FIG. The determination process may include the following steps.

ステップS121において、カラーデータとの位置合わせ後の深度データに含まれる各画素点の法線ベクトルと処理待ち画像の重力方向との夾角を取得する。
ここで、各フレームの処理待ち画像は、カラーデータ

と深度データ

とを含み、深度データ

をカラーデータ

に投影させて、位置合わせした後の深度データ

を取得することができる。1つの実施シーンでは、式(6)を使用して、深度データ

における画素点の2次元画像座標

をその深度値

で3次元同次座標

に変換することができる:

式(7)に基づいて、撮影デバイスにおける深度カメラの内部パラメータ

を使用して、3次元同次座標

を3次元空間に逆投影した後、深度カメラ及びカラーカメラの回転マトリックス

と並進マトリックス

を使用して、剛性変換を実行して、カラーカメラの内部パラメータ

を2次元平面に投影し、カラーデータにおける対象の画素点座標

を取得する:

上記式では、カラーデータにおける対象の画素点座標

は、3次元座標であり、それを2次元座標に変換するために、式(8)に基づいて、その深度値、即ち3番目の値

を使用して、その1番目の値と第2の値と除算し、カラーデータにおける対象の画素点座標

の2次元座標

を取得する:
In step S121, the included angle between the normal vector of each pixel point included in the depth data after alignment with the color data and the gravity direction of the image to be processed is obtained.
Here, the image waiting to be processed for each frame is the color data

and depth data

and depth data

the color data

Depth data after being projected and aligned

can be obtained. In one implementation scene, we use equation (6) to calculate the depth data

Two-dimensional image coordinates of pixel points in

its depth value

3-dimensional homogeneous coordinates

Can be converted to:

Based on equation (7), the internal parameters of the depth camera in the imaging device

3D homogeneous coordinates using

After back-projecting into 3D space, the rotation matrix of depth camera and color camera is

and translation matrix

Perform a stiffness transformation to obtain the internal parameters of the color camera using

is projected onto a two-dimensional plane, and the coordinates of the target pixel point in the color data are

Get:

In the above formula, the target pixel point coordinates in color data

is a three-dimensional coordinate, and in order to convert it into a two-dimensional coordinate, its depth value, i.e. the third value, is calculated based on equation (8).

and divide its first value by its second value to obtain the coordinates of the pixel point of interest in the color data.

two-dimensional coordinates of

Get:

また、上記の除算結果に、所定の浮動小数点数(例えば0.5)をそれぞれ追加することもできるが、ここでは説明を省略する。 Further, a predetermined floating point number (for example, 0.5) can be added to each of the above division results, but the explanation will be omitted here.

3次元空間において、同じ線上に位置しない任意の3つの点で1つの平面を決定することができるため、当該平面に垂直なベクトルを取得することができ、したがって、各画素点の法線ベクトルは、それに隣接する2つの画素点で1つの平面を決定し、さらに平面に垂直な平面をソルビングすることにより得られる。各画素点の法線ベクトルの精度を向上させるために、各画素点の複数の近傍画素点(例えば、8つの近傍画素点)を取得し、複数の近傍画素点の任意の2つと各画素点をそれぞれ用いて3次元空間で1つの平面を決定し、平面に垂直なベクトルを解いて、最後に複数のベクトルの平均値を各画素点の法線ベクトルとして計算することができる。画素点

を例とすると、その深度値

に基づいてその3次元同次座標を取得することができ、内部パラメータ

を3次元同次座標と左乗算し、画素点

が3次元空間に逆投影された3次元点

を取得することができ、画素点

の3*3ウィンドウにおける8つの近傍画素点を反時計回りに配列し、それぞれ3次元空間に逆投影し、対応する3次元点を取得して、

に記すると、画素点

の3次元法線ベクトル

は、次のように表されてもよい:
In three-dimensional space, since one plane can be determined by any three points that are not located on the same line, it is possible to obtain a vector perpendicular to the plane, and therefore the normal vector of each pixel point is , by determining one plane with two pixel points adjacent to it, and further solving for a plane perpendicular to the plane. In order to improve the accuracy of the normal vector of each pixel point, obtain multiple neighboring pixel points (for example, 8 neighboring pixel points) of each pixel point, and add any two of the plurality of neighboring pixel points and each pixel point. It is possible to determine one plane in three-dimensional space using each of , solve for the vector perpendicular to the plane, and finally calculate the average value of the plurality of vectors as the normal vector of each pixel point. pixel point

For example, its depth value

Its 3D homogeneous coordinates can be obtained based on the internal parameters

is left multiplied by the three-dimensional homogeneous coordinates, and the pixel point is

is a 3D point that is back-projected into 3D space.

You can get the pixel point

The eight neighboring pixel points in the 3*3 window are arranged counterclockwise, each is back-projected into the three-dimensional space, and the corresponding three-dimensional points are obtained.

, the pixel point

3D normal vector of

may be expressed as:

上記式では、式(9)において、

は、クロス積を表し、

は余りを取ることを表し、例えば、

は、1を8で割った余り、即ち1を表し、他の場合はこのように類推することができ、ここで例を1つずつ挙げない。
In the above formula, in formula (9),

represents the cross product,

represents taking the remainder, for example,

represents the remainder when 1 is divided by 8, that is, 1, and other cases can be inferred in this way, so we will not give examples one by one here.

1つの実施シーンでは、法線ベクトルと重力方向との夾角は、コサイン式で計算されてもよく、ここでは説明を省略する。 In one implementation scene, the included angle between the normal vector and the direction of gravity may be calculated using a cosine formula, and the description will be omitted here.

ステップS122において、各画素点を3次元空間で重力方向に投影し、各画素点の3次元空間における高さの値を取得する。 In step S122, each pixel point is projected in the direction of gravity in three-dimensional space, and the height value of each pixel point in three-dimensional space is obtained.

依然として画素点

を例とすると、上記ステップを参照して3次元空間における3次元点

を取得して、3次元点

の重力方向における投影3次元点を取得し、それによって投影3次元点の3番目の値(z座標)を画素点

の3次元空間における高さの値

として使用することができる。
Still a pixel point

For example, refer to the steps above to find a 3D point in 3D space.

Get the 3D point

Obtain the projected 3D point in the gravitational direction of

The height value in 3D space of

It can be used as

上記ステップS121で各画素点の法線ベクトルと処理待ち画像の重力方向との夾角を求めるステップ、及びステップS122で各画素点の3次元区間における高さの値を求めるステップは、順番に従って実行されてもよいし、同時に実行されてもよく、ここでは限定しない。 The step of calculating the included angle between the normal vector of each pixel point and the gravitational direction of the image to be processed in step S121 and the step of calculating the height value of each pixel point in the three-dimensional section in step S122 are performed in order. or may be executed simultaneously, and is not limited here.

ステップS123において、夾角が所定の角度条件を満たす画素点の高さの値を分析し、再構成待ち目標の平面高さを取得する。 In step S123, the height value of the pixel point whose included angle satisfies a predetermined angle condition is analyzed to obtain the plane height of the target awaiting reconstruction.

1つの実施シーンでは、所定の角度条件は、画素点の法線ベクトルと処理待ち画像の重力方向との夾角が所定の角度閾値(例えば、15度、10度など)以下であることを含むことができ、したがって、上記ステップS121で得られた各画素点に対応する夾角に基づいて、所定の角度条件に従ってスクリーニングし、条件を満たす画素点を取得して、次に上記ステップS122で得られた各画素点の3次元空間の高さの値から、上記の所定の角度条件を満たす画素点の高さの値をクエリすることができ、上記の所定の角度条件を満たす画素点の高さの値を高さセットとして使用し、次に高さセット内の高さの値に対してクラスタ分析を実行して、再構成待ち目標の平面高さを取得することができ、これにより、高さの値を用いるだけで、再構成待ち目標の平面高さを取得することができ、計算負荷を軽減することができる。1つの実施シーンでは、クラスタ分析を行う場合、ランダムサンプルコンセンサス(RANSAC:Random Sample Consensus)アルゴリズムを使用して、高さセットをクラスタリングし、1つの高さの値、現在の平面高さを毎回ランダムに選択し、平面高さとの高さ差が所定の落差範囲(例えば2cm)内にある内点の数量を統計し、内点の数量又は反復の回数が所定のクラスタリング条件を満たす場合、全ての内点の高さの値を1つの候補高さとして平均し、高さセットにおける残りの高さの値に対して次回のクラスタリングを実行して、高さセット内の数量が所定の閾値より小さくなるまで続き、複数の候補高さが存在する場合、値が最も小さく且つ対応する内点の数量が所定の閾値の候補高さを最終的な平面高さとして選択することができる。 In one implementation scene, the predetermined angle condition includes that the included angle between the normal vector of the pixel point and the gravitational direction of the image to be processed is less than or equal to a predetermined angle threshold (e.g., 15 degrees, 10 degrees, etc.). Therefore, based on the included angle corresponding to each pixel point obtained in step S121 above, screening is performed according to a predetermined angle condition, pixel points satisfying the condition are obtained, and then the angle obtained in step S122 is From the height value of each pixel point in 3D space, the height value of the pixel point that satisfies the above predetermined angle condition can be queried, and the height value of the pixel point that satisfies the above predetermined angle condition can be queried. You can use the values as a height set and then perform a cluster analysis on the height values in the height set to obtain the planar height of the target awaiting reconstruction, which allows the height By simply using the value of , it is possible to obtain the planar height of the target awaiting reconstruction, and the calculation load can be reduced. In one implementation scenario, when performing cluster analysis, the Random Sample Consensus (RANSAC) algorithm is used to cluster the height set and randomly set one height value, the current plane height, each time. , the number of interior points whose height difference from the plane height is within a predetermined drop range (for example, 2 cm) is calculated, and if the number of interior points or the number of repetitions satisfies the predetermined clustering condition, all Average the height values of the interior points as one candidate height and perform the next clustering on the remaining height values in the height set to ensure that the quantity in the height set is less than a given threshold. If there are multiple candidate heights, the candidate height with the smallest value and the corresponding number of interior points at a predetermined threshold can be selected as the final planar height.

ステップS124において、平面高さによってカラーデータのうちの再構成待ち物体に属する目標画素点をスクリーニングする。 In step S124, target pixel points belonging to the object to be reconstructed in the color data are screened based on the plane height.

ここで、高さの値が平面高さより大きい画素点をスクリーニングし、カラーデータにおいて、スクリーニングされた画素点に対応する画素点を候補画素点としてクエリし、候補画素点がカラーデータにおいて構成した最大連通ドメインを決定し、最大連通ドメインのうちの候補画素点を再構成待ち目標に属する目標画素点として使用することができる。 Here, we screen pixel points whose height value is greater than the plane height, query the pixel points corresponding to the screened pixel points in the color data as candidate pixel points, and select the maximum A connected domain can be determined, and candidate pixel points in the maximum connected domain can be used as target pixel points belonging to the target awaiting reconstruction.

上記実施例とは異なり、重力方向と組み合わせて各フレームの処理待ち画像内の再構成待ち目標に属する目標画素点を自動的に識別し、3次元再構成の計算負荷を軽減することができ、且つユーザの介入を回避することができ、したがって、ユーザ体験を向上させることができる。
図4を参照すると、図4は図1のステップS13の一実施例のフローチャートである。ここで、図4は各フレームの処理待ち画像の画像データを対応するデータセットに分割する一実施例のフローチャートである。それは以下のステップを含むことができる:
Unlike the above embodiment, it is possible to automatically identify the target pixel point belonging to the target to be reconstructed in the image to be processed in each frame in combination with the gravity direction, and reduce the computational load of three-dimensional reconstruction. And user intervention can be avoided, thus improving the user experience.
Referring to FIG. 4, FIG. 4 is a flowchart of one embodiment of step S13 in FIG. Here, FIG. 4 is a flowchart of an embodiment of dividing the image data of the image to be processed in each frame into corresponding data sets. It may include the following steps:

ステップS131において、各フレームの処理待ち画像を現在の処理待ち画像として順次使用する。 In step S131, the images to be processed of each frame are sequentially used as the current images to be processed.

ここで、あるフレームの処理待ち画像の画像データを分割する場合、それを現在の処理待ち画像として使用することができる。 Here, when the image data of a certain frame of an image to be processed is divided, it can be used as the current image to be processed.

ステップS132において、現在の処理待ち画像の画像データを分割する場合、既存のデータセットにおける最後のデータセットが所定のオーバーフロー条件を満たすか否かを判断し、そうである場合、ステップS133を実行し、そうでない場合、ステップS134を実行する。 In step S132, when dividing the image data of the current image to be processed, it is determined whether the last data set among the existing data sets satisfies a predetermined overflow condition, and if so, step S133 is executed. , otherwise, step S134 is executed.

既存のデータセットは1つだけである可能性があり、このデータセットは、最後のデータであり、又は、既存のデータセットは複数である可能性があり、最後のデータセットは、複数のデータセットのうち、最も遅く作成されたものである。例えば、既存のデータセットは、データセットA、データセットB、データセットCであり、データ集合Cが最も遅く作成される場合、データセットCを最後のデータセットとして使用することができる。 There may be only one existing dataset, and this dataset is the last one, or there may be multiple existing datasets, and this dataset is the last one. It is the latest created of the set. For example, the existing datasets are dataset A, dataset B, dataset C, and if dataset C is created the latest, dataset C can be used as the last dataset.

1つの実施シーンでは、データセットがフレーム数、撮影デバイスの角度及び位置変化に従って、適応的に構築され得るために、データセットの構築をより堅牢にし、所定のオーバーフロー条件は、最後のデータセットに含まれる画像データに対応する処理待ち画像のフレーム数が所定のフレーム数閾値(例えば、8フレーム、9フレーム、10フレームなど)以上であること、最後のデータセットのいずれかの画像データが属する処理待ち画像のカメラ位置と現在の処理待ち画像のカメラ位置との距離が所定の距離閾値(例えば、20cm、25cm、30cmなど)より大きいこと、最後のデータセットのいずれかの画像データが属する処理待ち画像のカメラ向き角度と現在の処理待ち画像のカメラ向き角度との差が所定の角度閾値(例えば、25度、30度、35度など)より大きいことのいずれか1つを含むことができる。ここで、カメラ向き角度とカメラ位置は、処理待ち画像のカメラポーズパラメータを使用して計算され得るものである。ここで、カメラポーズパラメータ

は、マトリックス

で表されてもよく、即ちカメラポーズパラメータは、回転マトリックス

と並進マトリックス

を含み、カメラ位置

は、次のように表されてもよい:
In one implementation scenario, the dataset can be constructed adaptively according to the number of frames, the angle and position changes of the imaging device, making the construction of the dataset more robust, and a predetermined overflow condition can be applied to the final dataset. The number of frames of the image waiting to be processed corresponding to the included image data is greater than or equal to a predetermined frame number threshold (e.g., 8 frames, 9 frames, 10 frames, etc.), and the process to which any of the image data in the last data set belongs. The distance between the camera position of the pending image and the camera position of the current pending image is greater than a predetermined distance threshold (for example, 20 cm, 25 cm, 30 cm, etc.), and the pending image data of any of the last datasets belongs to The difference between the camera orientation angle of the image and the camera orientation angle of the current pending image may be greater than a predetermined angle threshold (eg, 25 degrees, 30 degrees, 35 degrees, etc.). Here, the camera orientation angle and camera position can be calculated using camera pose parameters of the image to be processed. Here, camera pose parameters

is the matrix

, i.e. the camera pose parameters may be expressed as the rotation matrix

and translational matrix

including camera position

may be expressed as:

上記式では、式(10)において、

はマトリックスの転置を表す。また、

の第3行のベクトルをカメラ向き角度として表すことができる。
In the above formula, in formula (10),

represents the transposition of the matrix. Also,

The vector in the third row of can be expressed as a camera orientation angle.

ステップS133において、最後のデータセットにおける最新の複数のフレームの処理待ち画像データを取得し、新しい最後のデータセットとして新しく作成されたデータセットに記憶し、現在の処理待ち画像の画像データを新しい最後のデータセットに分割する。 In step S133, the image data of the latest plurality of frames in the last data set are acquired and stored in the newly created dataset as a new last data set, and the image data of the current image to be processed is transferred to the new last data set. into datasets.

依然として上記の既存のデータセットA、データセットB、データセットCを例とし、画像データ10(処理待ち画像10に属する)を分割する場合、現在の最後のデータセットCが所定のオーバーフロー条件を満たすと、最後のデータセットCにおける最新の複数のフレームの処理待ち画像の画像データを取得し、例えば、最後のデータセットCには画像データ05(処理待ち画像05に属する)、画像データ06(処理待ち画像06に属する)、画像データ07(処理待ち画像07に属する)、画像データ08(処理待ち画像08に属する)、画像データ09(処理待ち画像09に属する)が含まれ、その中の処理待ち画像07~処理待ち画像09の画像データを取得することができ、又は、その中の処理待ち画像08~処理待ち画像09の画像データを取得することもでき、ここでは限定せず、取得された画像データを新しく作成されたデータセットに記憶し、例えば、処理待ち画像07~処理待ち画像09の画像データをデータセットDに記憶し、このとき、データセットDには画像データ07(処理待ち画像07に属する)、画像データ08(処理待ち画像08に属する)、画像データ09(処理待ち画像09に属する)が時系列で含まれ、データセットDを新しい最後のデータセットとして使用し、画像データ10(処理待ち画像10に属する)をデータセットDに分割する。 Still taking the existing dataset A, dataset B, and dataset C as an example, when dividing image data 10 (belonging to image 10 to be processed), the current last dataset C satisfies the predetermined overflow condition. Then, the image data of the latest plurality of frames of images waiting to be processed in the last dataset C are acquired. image data 07 (belongs to image 07 to be processed), image data 08 (belongs to image 08 to be processed), and image data 09 (belongs to image 09 to be processed); It is possible to obtain the image data of waiting image 07 to processing waiting image 09, or it is also possible to obtain the image data of processing waiting image 08 to processing waiting image 09 among them. For example, the image data of image 07 to be processed to image 09 to be processed is stored in the data set D. At this time, the image data 07 (to be processed) image data 08 (belongs to image 07 to be processed), image data 09 (belongs to image 09 to be processed) are included in chronological order, and using dataset D as the new last dataset, the image Data 10 (belonging to image 10 to be processed) is divided into data set D.

1つの実施シーンでは、現在の処理待ち画像の画像データを分割する場合、最後のデータセットが所定のオーバーフロー条件を満たしない可能性があり、このときに下記のステップS134を実行することができる。 In one implementation scenario, when dividing the image data of the current image to be processed, there is a possibility that the last data set does not satisfy a predetermined overflow condition, and in this case, step S134 below can be executed.

ステップS134において、現在の処理待ち画像の画像データを最後のデータセットに分割する。 In step S134, the image data of the current image to be processed is divided into the final data set.

依然として上記の既存のデータセットA、データセットB、データセットCを例とし、画像データ10(処理待ち画像10に属する)を分割する場合、現在の最後のデータセットCが所定のオーバーフロー条件を満たしないと、画像データ10(処理待ち画像10に属する)を最後のデータセットCに分割する。 Still taking the existing dataset A, dataset B, and dataset C as an example, when dividing image data 10 (belonging to image 10 to be processed), it is assumed that the current last dataset C satisfies the predetermined overflow condition. If not, the image data 10 (belonging to the image to be processed 10) is divided into the final data set C.

上記の実施例とは異なり、現在の処理待ち画像の画像データを分割する場合、既存のデータセットの最後のデータセットが所定のオーバーフロー条件を満たすと、最後のデータセットにおける最新の複数のフレームの処理待ち画像の画像データを取得し、新しい最後のデータセットとして新しく作成されたデータセットに記憶し、したがって、隣接するデータセット間に複数のフレームの同じ処理待ち画像の画像データがあり、隣接するデータセット間の位置合わせ効果を高めることに役立ち、さらに3次元再構成の効果を高めることに役立つ。
図5を参照すると、図5は図1のステップS14の一実施例のフローチャートである。ここで、図5はデータセットのポーズ最適化パラメータを決定する一実施例のフローチャートである。それは以下のステップを含むことができる:
Unlike the above embodiment, when dividing the image data of the current pending image, when the last dataset of the existing datasets satisfies a predetermined overflow condition, the latest multiple frames in the last dataset Get the image data of the pending image and store it in the newly created dataset as the new last dataset, so there are multiple frames of image data of the same pending image between adjacent datasets, and the adjacent This helps to improve the alignment effect between data sets, and further helps to improve the effect of three-dimensional reconstruction.
Referring to FIG. 5, FIG. 5 is a flowchart of one embodiment of step S14 in FIG. Here, FIG. 5 is a flowchart of one embodiment for determining pose optimization parameters for a dataset. It may include the following steps:

ステップS141において、各データセットを現在のデータセットとして順次使用し、時系列が現在のデータセットの前に配置されている少なくとも1つのデータセットを候補データセットとして選択する。 In step S141, each data set is sequentially used as a current data set, and at least one data set whose time series is placed before the current data set is selected as a candidate data set.

依然として上記の既存のデータセットA、データセットB、データセットCを例とし、データセットBのポーズ最適化パラメータを決定する場合、データセットBを現在のデータセットとして使用することができ、データセットCのポーズ最適化パラメータを決定する場合、データセットCを現在のデータセットとして使用することができる。また、新しいデータセットを作成する場合、新しく作成されたデータセットの前のデータセットのポーズ最適化パラメータを決定することができ、例えば、上記実施例のように、画像データ10(処理待ち画像10に属する)を分割する場合、現在の最後のデータセットCが所定のオーバーフロー条件を満たすと、新しいデータセットDを新しく作成し、このとき、データセットCを現在のデータセットとして使用し、そのポーズ最適化パラメータを決定することができる。
1つの実施シーンでは、ポーズ最適化パラメータの精度を向上させ、それによって3次元再構成効果を高めるために、現在のデータセットの前に配置されているデータセットから、画像データが類似したものを候補データセットとして選択することができ、ここで、図6を参照すると、図6は図5のステップS141の一実施例のフローチャートであり、以下のステップを含むことができる:
Still taking the above existing dataset A, dataset B, dataset C as an example, when determining the pose optimization parameters of dataset B, dataset B can be used as the current dataset, and dataset When determining pose optimization parameters for C, dataset C can be used as the current dataset. Furthermore, when creating a new dataset, pose optimization parameters of the dataset before the newly created dataset can be determined. For example, as in the above embodiment, image data 10 (image 10 ), when the current last dataset C satisfies a predetermined overflow condition, a new dataset D is newly created, using dataset C as the current dataset, and its pose Optimization parameters can be determined.
In one implementation scene, in order to improve the accuracy of pose optimization parameters and thereby enhance the 3D reconstruction effect, image data with similar image data is extracted from a dataset placed before the current dataset. Referring now to FIG. 6, FIG. 6 is a flowchart of one embodiment of step S141 of FIG. 5, which may include the following steps:

ステップS61において、現在のデータセット及び時系列がその前に配置されているデータセットの画像データの所定の画像特徴を使用して、Bag of Wordsモデルを構築する。 In step S61, a Bag of Words model is constructed using predetermined image features of the image data of the current dataset and the dataset before which the time series is placed.

所定の画像特徴は、ORB(Oriented FAST and Rotated BRIEF)画像特徴を含むことができ、画像データにおけるキーポイントに対して特徴ベクトルを速く作成することができ、且つ特徴ベクトルは、画像データにおける再構成待ち目標を識別するために用いられてもよく、FastとBriefは、それぞれ特徴検出アルゴリズムとベクトル作成アルゴリズムであり、ここでは詳細な説明を省略する。 The predetermined image features may include ORB (Oriented FAST and Rotated BRIEF) image features, allowing feature vectors to be quickly created for key points in the image data, and the feature vectors Fast and Brief are a feature detection algorithm and a vector creation algorithm, respectively, which may be used to identify a waiting target, and detailed description thereof will be omitted here.

Bag of Wordsモデル(Bag of Words)は、自然言語処理と情報検索の下で簡略化された表現モデルであり、Bag of Wordsモデルにおける各々の所定の画像特徴は、独立したものであり、ここでは詳細な説明を省略する。1つの実施シーンでは、1つの新しいデータセットの作成を開始する場合、その前にあるデータセットを現在のデータセットとして使用し、現在のデータセットの画像データの所定の画像特徴を抽出し、Bag of Wordsモデルに追加することができ、このように循環すると、Bag of Wordsモデルは、段階的に拡張されてもよい。1つの実施シーンでは、現在のデータセットとその前にあるデータセットの間には重ね合わせた画像データが存在するため、現在のデータセットにおける画像データの所定の画像特徴を抽出するときに、前のデータセットと重ね合せた画像データについて特徴抽出が行われない。 The Bag of Words model is a simplified representation model under natural language processing and information retrieval, and each predetermined image feature in the Bag of Words model is independent, and here Detailed explanation will be omitted. In one implementation scenario, when starting to create a new dataset, use the previous dataset as the current dataset, extract certain image features of the image data of the current dataset, and can be added to the Bag of Words model, and when cycled in this way, the Bag of Words model may be expanded step by step. In one implementation scene, there is superimposed image data between the current dataset and the previous dataset, so when extracting predetermined image features of the image data in the current dataset, Feature extraction is not performed on the image data superimposed with the dataset.

ステップS62において、属する処理待ち画像の現在のデータセットの所定の時系列にある画像データをマッチング待ち画像データとして選択する。 In step S62, image data in a predetermined time series of the current data set of images to be processed to which it belongs is selected as image data to be matched.

1つの実施シーンでは、所定の時系列は、先頭、中間及び最後を含むことができ、依然として上記実施例におけるデータセットCを例とし、データセットCには画像データ05(処理待ち画像05に属する)、画像データ06(処理待ち画像06に属する)、画像データ07(処理待ち画像07に属する)、画像データ08(処理待ち画像08に属する)、画像データ09(処理待ち画像09に属する)が含まれ、先頭にある処理待ち画像05の画像データ05、中間にある処理待ち画像07の画像データ07と最後にある処理待ち画像09の画像データ09をマッチング待ち画像データとして選択することができ、他の実施シーンの場合、このように類推することができ、ここで例を1つずつ挙げない。また、所定の時系列は、実際の状況に応じて、先頭、1/4の時系列、1/2の時系列、3/4の時系列、最後に設定されてもよく、ここでは限定されない。 In one implementation scene, the predetermined time series can include a beginning, a middle, and an end, still taking the dataset C in the above example as an example, the dataset C includes image data 05 (belonging to the pending image 05). ), image data 06 (belongs to image 06 to be processed), image data 07 (belongs to image 07 to be processed), image data 08 (belongs to image 08 to be processed), and image data 09 (belongs to image 09 to be processed). It is possible to select the image data 05 of the image 05 to be processed at the beginning, the image data 07 of the image 07 to be processed in the middle, and the image data 09 of the image 09 to be processed at the end as the image data to be matched. For other implementation scenes, analogy can be made in this way, and examples will not be given here one by one. In addition, the predetermined time series may be set at the beginning, 1/4 time series, 1/2 time series, 3/4 time series, or last depending on the actual situation, and is not limited here. .

ステップS63において、Bag of Wordsモデルの所定の範囲から、マッチング待ち画像データの所定の画像特徴との類似度スコアが所定の類似度閾値より大きい所定の画像特徴をクエリする。 In step S63, a predetermined image feature whose similarity score with the predetermined image feature of the image data awaiting matching is greater than a predetermined similarity threshold is queried from a predetermined range of the Bag of Words model.

所定の範囲は、属するデータセットが現在のデータセットと隣接していなく、且つ現在のデータセットに含まれない画像データの所定の画像特徴を含むことができる。依然として上記実施例におけるデータセットA、データセットBとデータセットCを例とし、現在のデータセットがデータセットCである場合、所定の範囲は、データセットAに属する、所定の画像特徴と、データセットBに属する、所定の画像特徴とを含むことができる。1つの実施シーンでは、所定の類似度閾値は、1つの所定のスコア値、例えば0.018、0.019、0.020などであってもよく、ここでは限定されない。別の実施シーンでは、現在のデータセットと隣接するデータセットにおける各画像データとマッチング待ち画像データとの類似度スコアのうちの最大スコア値

を取得し、最大スコア値

の所定の倍数(例えば、1.5倍、2倍、2.5倍)を所定の類似度閾値として使用することができる。別の実施シーンでは、最大スコア値

の所定の倍数、上記の所定のスコア値のいずれかを所定の類似度閾値として使用することができ、即ち、Bag of Wordsモデルの所定の範囲から、マッチング待ち画像データの所定の画像特徴との類似度スコア

が最大スコア値

の所定の倍数、上記の所定のスコア値のいずれかより大きい所定の画像特徴をクエリすることができ、ここでは限定されない。
The predetermined range may include predetermined image features of the image data to which the data set it belongs is not adjacent to the current data set and is not included in the current data set. Still taking Dataset A, Dataset B, and Dataset C in the above example as an example, if the current dataset is Dataset C, the predetermined range includes the predetermined image features and data belonging to Dataset A. and predetermined image features belonging to set B. In one implementation scenario, the predetermined similarity threshold may be one predetermined score value, such as, but not limited to, 0.018, 0.019, 0.020, etc. In another implementation scene, the maximum score value of the similarity scores between each image data and the image data waiting for matching in the current dataset and adjacent datasets

Get the maximum score value

A predetermined multiple of (eg, 1.5 times, 2 times, 2.5 times) may be used as a predetermined similarity threshold. In another implementation scene, the maximum score value

A predetermined multiple of the above predetermined score values can be used as a predetermined similarity threshold, i.e., from a predetermined range of the Bag of Words model to a predetermined image feature of the image data to be matched. Similarity score

is the maximum score value

A predetermined image feature that is greater than a predetermined multiple of any of the above predetermined score values can be queried, but is not limited to this.

ステップS64において、クエリされた所定の画像特徴の属する画像データが所在するデータセット、及び現在のデータセットと隣接するデータセットとを候補データセットとして使用する。 In step S64, the data set in which the image data to which the queried predetermined image feature belongs is located, and the data set adjacent to the current data set are used as candidate data sets.

現在のデータセットがデータセットHであることを例し、先頭にあるマッチング待ち画像データを使用して、データセットC、データセットDをクエリし、中間にあるマッチング待ち画像データを使用して、データセットD、データセットEをクエリし、最後にあるマッチング待ち画像データを使用して、データセットE、データセットFをクエリする場合、データセットC~F及びデータセットGを現在のデータセットHの候補データセットとして使用することができる。1つの実施シーンでは、クエリされた所定の画像特徴の属する画像データが所在するデータセットから、類似度スコアが最も大きい所定の数量(例えば、2つ、3つなど)のデータセット、及び現在のデータセットと隣接するデータセットを候補データセットとして選択することができる。依然として現在のデータセットがデータセットHであることを例すると、データセットC~Fから類似度スコア

の最も大きい3つのデータセット、及び現在のデータセットと隣接するデータセットGを候補データセットとして選択することができる。
For example, assuming that the current dataset is Dataset H, query Dataset C and Dataset D using the image data waiting for matching at the beginning, and using the image data waiting for matching in the middle, When querying Dataset D and Dataset E, and then querying Dataset E and Dataset F using the last image data waiting for matching, Datasets C to F and Dataset G are used as the current Dataset H. can be used as a candidate dataset. In one implementation scene, a predetermined number of data sets (e.g., two, three, etc.) with the highest similarity scores are selected from the data set in which the image data to which the queried predetermined image feature belongs is located, and the current Data sets adjacent to the data set can be selected as candidate data sets. For example, if the current dataset is still dataset H, then similarity scores from datasets C to F are calculated.

The three largest datasets of G and the current dataset and adjacent datasets G can be selected as candidate datasets.

ステップS142において、現在のデータセットの画像データと候補データセットの画像データを使用して、現在のデータセットと候補データセットとの空間変換パラメータを決定する。 In step S142, spatial transformation parameters between the current dataset and the candidate dataset are determined using the image data of the current dataset and the image data of the candidate dataset.

1つの実施シーンでは、現在のデータセットと候補データセットとの空間変換パラメータの精度を確保し、ポーズ最適化パラメータの精度を向上させ、それによって3次元再構成の効果を高めるために、現在のデータセットと候補データセットの画像データの画像特徴及び3次元空間における位置を組み合わせて、両者間の空間変換パラメータを決定することができ、図7を参照すると、図7は図5のステップS142の一実施例のフローチャートであり、以下のステップを含むことができる: In one implementation scene, the current By combining image features and positions in three-dimensional space of the image data of the dataset and candidate dataset, spatial transformation parameters between the two can be determined. Referring to FIG. 7, FIG. 1 is a flowchart of one embodiment, which may include the following steps:

ステップS71において、候補データセットと現在のデータセット内で、所定のマッチング条件を満たす1グループのマッチング待ち画像データを検索する。 In step S71, one group of image data awaiting matching that satisfies a predetermined matching condition is searched within the candidate data set and the current data set.

所定のマッチング条件は、マッチング待ち画像データが属する処理待ち画像のカメラ向き角度間の差が最も小さいことを含むことができ、ここで、各候補データセットに対して、それと現在のデータセットから所定のマッチング条件を満たす1グループのマッチング待ち画像データを検索することができ、説明を容易にするために、現在のデータセットに属するマッチング待ち画像を

に記し、候補データセットに属するマッチング待ち画像データを

に記することができる。
The predetermined matching condition may include that the difference between the camera orientation angles of the pending images to which the image data to be matched belongs is the smallest, where, for each candidate dataset, a predetermined matching condition is determined from it and the current dataset. It is possible to search for one group of matching image data that satisfies the matching condition of

, and the image data waiting for matching belonging to the candidate dataset is

can be written down.

ステップS72において、各グループのマッチング待ち画像データから抽出された、所定の画像特徴に基づいて、各グループのマッチング待ち画像データ間のマッチング画素点対を取得する。 In step S72, matching pixel point pairs between the matching image data of each group are obtained based on predetermined image features extracted from the matching image data of each group.

RANSACアルゴリズムを組み合わせて、

の所定の画像特徴(例えば、ORB画像特徴)に対してマッチングペアのスクリーニングを実行して、

の間のマッチング画素点を取得することができ、説明を容易にするために、

にそれぞれ記してもよい。RANSACアルゴリズムについては、上記の実施例における関連ステップを参照することができ、ここでは説明を省略する。
By combining the RANSAC algorithm,

performing matching pair screening on predetermined image features (e.g., ORB image features) of

For ease of explanation, matching pixel points between can be obtained,

You may write each. Regarding the RANSAC algorithm, the related steps in the above embodiments can be referred to, and the explanation is omitted here.

ステップS73において、マッチング画素点対のうち、現在のデータセットに属する画素点を3次元空間にマッピングし、第1の3次元マッチングポイントを取得して、マッチング画素点対のうち、候補データセットに属する画素点を3次元空間にマッピングし、第2の3次元マッチングポイントを取得する。 In step S73, among the matching pixel point pairs, pixel points belonging to the current data set are mapped in a three-dimensional space, a first three-dimensional matching point is obtained, and the pixel points belonging to the current data set among the matching pixel point pairs are mapped to the candidate data set. The belonging pixel points are mapped in a three-dimensional space to obtain a second three-dimensional matching point.


を3次元空間にマッピングし、第1の3次元マッチングポイントを取得して、説明を容易にするために、

に記し、

を3次元空間にマッピングし、第2の3次元マッチングポイントを取得して、説明を容易にするために、

に記する。ここで、

を3次元同次座標にそれぞれ変換し、内部パラメータ

の逆

を使用して、

の3次元同次座標をそれぞれ左乗算し、第1の3次元マッチングポイント

と第2の3次元マッチングポイント

を取得することができる。

to the 3D space and obtain the first 3D matching point for ease of explanation.

written in

to the 3D space and obtain the second 3D matching point for ease of explanation.

Write down. here,

are converted into three-dimensional homogeneous coordinates, and the internal parameters are

the opposite of

using,

The first three-dimensional matching point is obtained by multiplying the three-dimensional homogeneous coordinates of

and second 3D matching point

can be obtained.

ステップS74において、第1の3次元マッチングポイントと第2の3次元マッチングポイントとを位置合わせし、空間変換パラメータを取得する。 In step S74, the first three-dimensional matching point and the second three-dimensional matching point are aligned to obtain a spatial transformation parameter.

ここで、第1の3次元マッチングポイントと第2の3次元マッチングポイントを3次元空間において位置合わせし、両者間の一致度をできる大きくし、それによって両者間の空間変換パラメータを取得することができる。1つの実施シーンでは、第1の3次元マッチングポイントと第2の3次元マッチングポイントとの第1のポーズ変換パラメータを取得することができ、第1の3次元マッチングポイントと第2の3次元マッチングポイントを使用して、第1のポーズ変換パラメータに関する目標関数を構築し、SVD(Singular Value Decomposition:特異値分解)又は非線形最適化などの方式によって目標関数を解いて、第1のポーズ変換パラメータ

を取得することができる。
Here, it is possible to align the first three-dimensional matching point and the second three-dimensional matching point in the three-dimensional space, increase the degree of matching between the two as much as possible, and thereby obtain the spatial transformation parameter between the two. can. In one implementation scene, a first pose transformation parameter between a first three-dimensional matching point and a second three-dimensional matching point can be obtained, and a first pose transformation parameter between the first three-dimensional matching point and the second three-dimensional matching point can be obtained. The points are used to construct an objective function regarding the first pose transformation parameter, and the objective function is solved by a method such as SVD (Singular Value Decomposition) or nonlinear optimization to determine the first pose transformation parameter.

can be obtained.

式(11)において、

は、3次元空間における第iペアの3次元マッチングポイントをそれぞれ表す。
In formula (11),

represent the i-th pair of three-dimensional matching points in the three-dimensional space, respectively.

上記目標関数をソルビングすることにより、第1のポーズ変換パラメータ

が得られた後、第1のポーズ変換パラメータ

と所定のポーズ変換パラメータ(例えば、単位マトリックス)を使用して、第1の3次元マッチングポイントに対してポーズ最適化を実行して、第1の最適化マッチングポイントと第2の最適化マッチングポイントとをそれぞれ取得することもでき、ここで、第1のポーズ変換パラメータ

と所定のポーズ変換パラメータを使用して、第1の3次元マッチングポイント

とそれぞれ左乗算し、それによって第1の最適化マッチングポイントと第2の最適化マッチングポイントとをそれぞれ得ることができ、説明を容易にするために、

にそれぞれ記することができる。さらに、第2の3次元マッチングポイント

と、第1の最適化マッチングポイント

および第2の最適化マッチングポイント

とのそれぞれの一致度を計算し、一致度の高い最適化マッチングポイントが使用するポーズ変換パラメータを第2のポーズ変換パラメータとして選択することができ、説明を容易にするために、

に記することができる。ここで、第2の3次元マッチングポイント

と第1の最適化マッチングポイント

との一致度を計算する場合、各第2の3次元マッチングポイント

の所定の範囲内(例えば、5cmの範囲)で第1の最適化マッチングポイント

を検索することができ、検索できる場合、第2の3次元マッチングポイント

を有効してマーキングし、そうでない場合、無効としてマーキングすることができ、全ての第2の3次元マッチングポイント

への検索が完了した後、第2の3次元マッチングポイント

の総数に対する有効としてマーキングされた第2の3次元マッチングポイント

の割合、即ち第2の3次元マッチングポイント

と第1の最適化マッチングポイント

との一致度を計算し、第2の3次元マッチングポイント

と第2の最適化マッチングポイント

との一致度は、このように類推されてもよく、ここでは説明を省略する。
By solving the above objective function, the first pose transformation parameter

is obtained, the first pose transformation parameter

and a predetermined pose transformation parameter (e.g., identity matrix), perform pose optimization on the first three-dimensional matching point to obtain the first optimized matching point and the second optimized matching point. and can be obtained respectively, where the first pose transformation parameter

and the first three-dimensional matching point using the predetermined pose transformation parameters

, respectively, thereby obtaining the first optimized matching point and the second optimized matching point, respectively; for ease of explanation,

can be written respectively. Furthermore, the second three-dimensional matching point

and the first optimization matching point

and the second optimization matching point

The pose transformation parameter used by the optimized matching point with a high matching degree can be selected as the second pose transformation parameter, and for ease of explanation,

can be written down. Here, the second three-dimensional matching point

and the first optimization matching point

When calculating the degree of matching with each second three-dimensional matching point

The first optimization matching point within a predetermined range (e.g., 5 cm range) of

can be searched, and if it can be searched, the second three-dimensional matching point

All second 3D matching points can be marked as valid, otherwise they can be marked as invalid.

After the search is completed, the second 3D matching point

the second 3D matching point marked as valid for the total number of

, that is, the second three-dimensional matching point

and the first optimization matching point

Calculate the degree of matching with the second three-dimensional matching point

and the second optimization matching point

The degree of coincidence may be inferred in this way, and the explanation will be omitted here.

第2のポーズ変換パラメータ

を求めた後、第2のポーズ変換パラメータ

を初期値とし、所定の位置合わせ方式(例えば、point-to-normalのICP方式)によって第1の3次元マッチングポイント

と第2の3次元マッチングポイント

とを位置合わせし、現在のデータセットと候補データセットとの空間変換パラメータを取得することができ、説明を容易にするために、

に記する。上記ステップを繰り返すことにより、現在のデータセットと各候補データセットの間の空間変換パラメータ

を取得することができる。
Second pose transformation parameter

After determining the second pose transformation parameter

is the initial value, and the first three-dimensional matching point is determined by a predetermined alignment method (for example, point-to-normal ICP method)

and second 3D matching point

For ease of explanation, the spatial transformation parameters of the current dataset and candidate dataset can be obtained.

Write down. By repeating the above steps, we can determine the spatial transformation parameters between the current dataset and each candidate dataset.

can be obtained.

ステップS143において、少なくとも候補データセットのポーズ最適化パラメータ、及び現在のデータセットと候補データセットとの空間変換パラメータを使用して、現在のデータセットのポーズ最適化パラメータを取得し、少なくとも候補データセットのポーズ最適化パラメータを更新する。 In step S143, the pose optimization parameters of the current dataset are obtained using at least the pose optimization parameters of the candidate dataset and the spatial transformation parameters between the current dataset and the candidate dataset; Update the pose optimization parameters of.

1つの実施シーンでは、ポーズ最適化パラメータの精度を向上させるために、現在のデータセットのポーズ最適化パラメータをソルビングする前に、上記空間変換パラメータ

をスクリーニングすることもでき、ここで、現在のデータセットのポーズ最適化パラメータをソルビングするために、現在のデータセットと各候補データセットとの空間変換パラメータ

から、所定のパラメータスクリーニング条件を満たす空間変換パラメータを選択することができる。所定のパラメータスクリーニング条件は、空間変換パラメータ

に関連する候補データセットが現在のデータセットと隣接すること、又は、空間変換パラメータ
を使用して、第1の3次元マッチングポイント

をポーズ最適化することにより得られた最適化マッチングポイントと、第2の3次元マッチングポイント

との一致度が所定の一致度閾値(例えば、60%、65%、70%など)より大きいことを含むことができる。ここで、空間変換パラメータ

を使用して、第1の3次元マッチングポイント

を左乗算し、それによってそれへのポーズ最適化を実現することができる。
In one implementation scene, in order to improve the accuracy of the pose optimization parameters, the above spatial transformation parameters are calculated before solving the pose optimization parameters of the current dataset.

You can also screen the spatial transformation parameters between the current dataset and each candidate dataset to solve the pose optimization parameters for the current dataset.

From the above, spatial transformation parameters that satisfy predetermined parameter screening conditions can be selected. The predetermined parameter screening conditions are the spatial transformation parameters

the candidate dataset associated with is adjacent to the current dataset, or the spatial transformation parameters
The first 3D matching point using

The optimized matching point obtained by optimizing the pose and the second 3D matching point

This may include that the degree of agreement with the above is greater than a predetermined degree of agreement threshold (for example, 60%, 65%, 70%, etc.). Here, the spatial transformation parameter

The first 3D matching point using

can be left multiplied by , thereby realizing pose optimization to it.

ここで、候補データセットのポーズ最適化パラメータ、及び現在のデータセットと候補データセットとの空間変換パラメータを使用して、現在のデータセットのポーズ最適化パラメータに関する目標関数を構築し、目標関数をソルビングすることで、現在のデータセットのポーズ最適化パラメータを取得して、少なくとも候補データセットのポーズ最適化パラメータを更新することができる。また、このように循環し、新しく作成されたデータセットの前にあるデータセットを現在のデータセットとしてそれぞれ用い、再構成待ち目標をスキャンしてデータセットを作成するとともに、ポーズ最適化パラメータを求めることができ、さらに計算量の均一化、計算負荷の軽減に役立ち、再構成待ち目標をリアルタイムかつオンラインで3次元再構成することができる。1つの実施シーンでは、図8を参照すると、図8は図5のステップS143の一実施例のフローチャートである。それは以下のステップを含むことができる: Here, the pose optimization parameters of the candidate dataset and the spatial transformation parameters between the current dataset and the candidate dataset are used to construct an objective function regarding the pose optimization parameters of the current dataset, and the objective function is By solving, the pose optimization parameters of the current dataset can be obtained and the pose optimization parameters of at least the candidate dataset can be updated. Also, by cycling in this way, each dataset before the newly created dataset is used as the current dataset, and the target waiting for reconstruction is scanned to create a dataset, and the pose optimization parameters are determined. Furthermore, it is useful for equalizing the amount of calculation and reducing the calculation load, and it is possible to three-dimensionally reconstruct a target that is waiting for reconstruction in real time and online. In one implementation scene, refer to FIG. 8, which is a flowchart of one embodiment of step S143 in FIG. It may include the following steps:

ステップS81において、現在のデータセット及び時系列がその前に配置されている候補データセットにそれぞれ関連付けられた各空間変換パラメータに対応する2つのデータセットをデータセットペアとして使用する。 In step S81, two data sets are used as a data set pair, corresponding to each spatial transformation parameter respectively associated with the current data set and the candidate data set before which the time series is placed.

依然として現在のデータセットがデータセットHであることを例とすると、データセットC~FとデータセットGを現在のデータセットHの候補データセットとして使用し、空間変換パラメータ

に対応する候補データセットCと現在のデータセットHを1つのデータセットペアとして使用し、空間変換パラメータ

に対応する候補データセットDと現在のデータセットHを1つのデータセットペアとして使用し、空間変換パラメータ

に対応する候補データセットEと現在のデータセットHを1つのデータセットペアとして使用し、空間変換パラメータ

に対応する候補データセットFと現在のデータセットHを1つのデータセットペアとして使用し、空間変換パラメータ

に対応する候補データセットGと現在のデータセットHを1つのデータセットペアとして使用する。また、現在のデータセットHの前にある各データセット(即ちデータセットA~G)もそれぞれ対応して空間変換パラメータが存在し、例えば、データセットBについては、データセットAとの空間変換パラメータが存在してもよく、データセットBとデータセットAをデータセットペアとして使用することができ、データセットCについては、データセットAとデータBとの空間変換パラメータが存在してもよく、したがって、データセットCとデータセットAをデータセットペアとしてそれぞれ用い、データセットCとデータセットBとをデータセットペアとして使用することができ、このように類推し、ここで例を1つずつ挙げなく、空間変換パラメータの解法については、具体的に上記実施例における関連ステップを参照することができる。
As an example, assuming that the current dataset is still dataset H, datasets C to F and dataset G are used as candidate datasets for current dataset H, and the spatial transformation parameters are

The candidate data set C and the current data set H corresponding to are used as one data set pair, and the spatial transformation parameters are

The candidate dataset D and the current dataset H corresponding to are used as one dataset pair, and the spatial transformation parameters are

The candidate dataset E and the current dataset H corresponding to are used as one dataset pair, and the spatial transformation parameters are

The candidate dataset F and the current dataset H corresponding to are used as one dataset pair, and the spatial transformation parameters are

The candidate data set G corresponding to , and the current data set H are used as one data set pair. In addition, each data set before the current data set H (that is, data sets A to G) also has a corresponding spatial transformation parameter. For example, for data set B, the spatial transformation parameter between data set A and data set A is may exist, and dataset B and dataset A may be used as a dataset pair, and for dataset C, there may be spatial transformation parameters between dataset A and data B, thus , dataset C and dataset A can be used as a dataset pair, respectively, and dataset C and dataset B can be used as a dataset pair, and by analogy, we will not give examples one by one here. , for the solution of the spatial transformation parameters, the related steps in the above embodiments can be specifically referred to.

ステップS82において、各データセットペアの空間変換パラメータ、及びそれぞれのポーズ最適化パラメータを使用して、ポーズ最適化パラメータに関する目標関数を構築する。
ここで、目標関数は、次のように表されてもよい:

ここで、式(12)において、

は、各データセットペアに含まれるデータセットの番号(例えば、C、D、Eなどのアルファベット、又は、1、2、3などのアラビア数字で表す)をそれぞれ表し、

は、各データセットペア間の空間変換パラメータを表し、

は、各データセットペアに含まれるデータセットのそれぞれのポーズ最適化パラメータをそれぞれ表し、

は、最適化式を表し、次のように表されても良い:
In step S82, the spatial transformation parameters of each dataset pair and the respective pose optimization parameters are used to construct an objective function for the pose optimization parameters.
Here, the objective function may be expressed as:

Here, in equation (12),

represents the number of the data set included in each data set pair (for example, expressed by alphabets such as C, D, E, or Arabic numerals such as 1, 2, 3),

represents the spatial transformation parameters between each dataset pair,

represent the pose optimization parameters of each dataset included in each dataset pair, respectively, and

represents an optimization formula, which may be expressed as:

式(3)において、

は、

の逆をそれぞれ表す。したがって、データセットの空間変換パラメータが決定されるたびに、目標関数に新しい最適化関係をもたらすことができ、これにより、その前にあるデータセットのポーズ最適化パラメータを再度最適化し、全てのデータセットのポーズ最適化パラメータの決定が完了するまで続き、したがって、スキャンプロセスにおける累積されたポーズ誤差を無くし、ポーズ最適化パラメータの精度を向上させ、3次元再構成の効果を高めることに役立つことができる。1つの実施シーンでは、現在のデータセットが第1のデータセットである場合、そのポーズ最適化パラメータは、単位マトリックスとして初期化されてもよく、上記の実施例における関連ステップを参照することができ、ここでは説明を省略する。
In formula (3),

teeth,

Each represents the opposite of . Therefore, each time the spatial transformation parameters of a dataset are determined, a new optimization relationship can be introduced into the objective function, which re-optimizes the pose optimization parameters of the previous dataset and It continues until the determination of the pose optimization parameters of the set is completed, thus helping to eliminate the accumulated pose error in the scanning process, improve the accuracy of the pose optimization parameters, and enhance the effectiveness of 3D reconstruction. can. In one implementation scene, if the current dataset is the first dataset, its pose optimization parameters may be initialized as a unit matrix, and can refer to the related steps in the example above. , the explanation is omitted here.

ステップS83において、所定の解法によって目標関数を解いて、現在のデータセット及び時系列がその前に配置されている候補データセットのそれぞれに対応するデータセットに含まれるデータセットのポーズ最適化パラメータを取得する。 In step S83, the objective function is solved by a predetermined solution method, and the pose optimization parameters of the datasets included in the current dataset and the datasets corresponding to each of the candidate datasets placed before the time series are determined. get.

上記の式に示すように、上記目標関数を最小化することにより、各データセットペアに含まれるデータセットのポーズ最適化パラメータを取得することができる。依然として、現在のデータセットがデータセットHであることを例とすると、上記目標関数をソルビングすることにより、現在のデータセットHのポーズ最適化パラメータを取得して、かつデータセットC~Gのさらに最適化された後のポーズ最適化パラメータ、及び現在のデータセットHの前にあるデータセットのさらに最適化された後のポーズ最適化パラメータを取得することができる。新しいデータセットIを導入し、それに関連する空間変換パラメータを求めた場合、目標関数を構築することにより、データセットIのポーズ最適化パラメータを取得して、その前にあるデータセットのさらに最適化された後のポーズ最適化パラメータを取得することができ、このように循環すると、ポーズ累積誤差を無くすことにさらに役立つことができる。 As shown in the above equation, the pose optimization parameters of the datasets included in each dataset pair can be obtained by minimizing the objective function. Still, assuming that the current dataset is dataset H, by solving the above objective function, the pose optimization parameters of the current dataset H can be obtained, and the pose optimization parameters of datasets C to G can be further calculated. The pose optimization parameters after being optimized and the pose optimization parameters after being further optimized for the data set before the current data set H can be obtained. If we introduce a new dataset I and find the spatial transformation parameters associated with it, we can obtain the pose optimization parameters of dataset I by constructing an objective function to further optimize the previous dataset. The pose optimization parameters can be obtained after the pose optimization parameters have been determined, and such cycling can further help eliminate pose cumulative errors.

上記実施例とは異なり、各データセットを現在のデータセットとして順次使用し、現在のデータセットの前に配置されている少なくとも1つのデータセットを候補データセットとして選択することにより、現在のデータセットの画像データと候補データセットの画像データを使用して、現在のデータセットと候補データセットとの空間変換パラメータを決定し、さらに少なくとも候補データセットのポーズ最適化パラメータ、及び現在のデータセットと候補データセットとの空間変換パラメータを使用して、現在のデータセットのポーズ最適化パラメータを取得し、少なくとも候補データセットのポーズ最適化パラメータを更新することにより、スキャンプロセスに累積されたカメラポーズパラメータの誤差を無くし、ポーズ最適化パラメータの計算のためのデータ量を減少することに役立ち、それによって計算負荷を軽減することに役立つことができる。
図9を参照すると、図9は本開示の3次元再構成に基づくインタラクション方法の一実施例のフローチャートである。前記3次元再構成方法は、以下のステップを含むことができる:
Different from the above embodiment, by sequentially using each dataset as the current dataset and selecting at least one dataset placed before the current dataset as a candidate dataset, and the image data of the candidate dataset to determine spatial transformation parameters between the current dataset and the candidate dataset, and at least pose optimization parameters of the candidate dataset and the image data of the current dataset and the candidate dataset. of the camera pose parameters accumulated in the scanning process by using the spatial transformation parameters with the dataset to obtain the pose optimization parameters of the current dataset and update the pose optimization parameters of at least the candidate dataset. It can help eliminate errors and reduce the amount of data for calculating pose optimization parameters, thereby helping to reduce the computational load.
Referring to FIG. 9, FIG. 9 is a flowchart of one embodiment of the three-dimensional reconstruction-based interaction method of the present disclosure. The three-dimensional reconstruction method may include the following steps:

ステップS91において、再構成待ち目標の3次元モデルを取得する。 In step S91, a three-dimensional model of the target awaiting reconstruction is obtained.

3次元モデルは、上記のいずれかの3次元再構成方法の実施例におけるステップにより得られてもよく、上記の3次元再構成方法の実施例を参照することができ、ここでは説明を省略する。 The three-dimensional model may be obtained by the steps in any of the three-dimensional reconstruction method embodiments described above, reference may be made to the three-dimensional reconstruction method embodiments described above, and the description is omitted here. .

ステップS92において、所定の視覚慣性ナビゲーション方式により、撮影デバイスが配置されているシーンの3次元地図を構築し、3次元地図における撮影デバイスの現在のポーズ情報を取得する。 In step S92, a three-dimensional map of the scene where the photographing device is placed is constructed using a predetermined visual inertial navigation method, and current pose information of the photographing device on the three-dimensional map is obtained.

所定の視覚慣性ナビゲーション方式は、SLAM(Simultaneous Localization And Mapping:即時位置決め地図構築)を含むことができ、SLAMにより、撮影デバイス(例えば、携帯電話、タブレットコンピュータなど)が配置されている3次元地図を構築し、3次元地図における撮影デバイスの現在のポーズ情報を取得することができる。 The predetermined visual-inertial navigation method may include SLAM (Simultaneous Localization and Mapping), which allows a three-dimensional map on which a capturing device (e.g., mobile phone, tablet computer, etc.) is located. It is possible to construct and obtain the current pose information of the photographing device in the 3D map.

1つの実施シーンでは、3次元モデルとの動的インタラクションを実現するために、3次元モデルを骨格結合することもでき、骨格結合とは3次元モデルで骨格システムを架設し、骨格の関節で既定のルールに従って動くことができることを指し、例えば、3次元モデルが牛、羊などの四肢動物である場合、3次元モデルが骨格結合された後、その骨格の関節は、四肢動物の既定のルールに従って動くことができる。 In one implementation scenario, the 3D model can also be skeletally connected to realize dynamic interaction with the 3D model. For example, if the 3D model is a quadrupedal animal such as a cow or sheep, after the 3D model is connected to the skeleton, the joints of the skeleton will be able to move according to the default rules for quadrupedal animals. Can move.

ステップS93において、ポーズ情報に基づいて、撮影デバイスによって現在撮影されているシーン画像に3次元モデルを表示する。 In step S93, the three-dimensional model is displayed on the scene image currently being photographed by the photographing device based on the pose information.

ここで、ポーズ情報は、撮影デバイスの位置及び向きを含むことができる。例えば、撮影デバイスのポーズ情報が、それが地面に向かうことを表す場合、撮影デバイスによって現在撮影されているシーン画像には3次元モデルの上部が表示されてもよく、又は、撮影デバイスのポーズ情報が、その向きが地面に対して鋭角を呈することを表す場合、撮影デバイスによって現在撮影されているシーン画像には3次元モデルの側面が表示されてもよい。1つの実施シーンでは、3次元モデルが骨格結合された後、ユーザによって入力された駆動命令を受信することもでき、これにより、3次元モデルは、ユーザによって入力された駆動命令に従って動くことができ、例えば、3次元モデルが羊である場合、ユーザは、頭を下げたり、歩いたりするようにそれを駆動することができ、ここでは限定されない。3次元モデルが人間又は他の対象である場合、このように類推することができ、ここでは例を1つずつ挙げない。 Here, the pose information may include the position and orientation of the photographing device. For example, if the pose information of the capture device indicates that it is facing the ground, the scene image currently being captured by the capture device may display the top of the three-dimensional model, or the pose information of the capture device represents that the orientation presents an acute angle with respect to the ground, the side surface of the three-dimensional model may be displayed in the scene image currently being captured by the imaging device. In one implementation scene, after the 3D model is skeleton-combined, driving commands input by the user may also be received, so that the 3D model can move according to the driving commands input by the user. For example, if the three-dimensional model is a sheep, the user can drive it to lower its head or walk, but is not limited here. If the three-dimensional model is a human or other object, an analogy can be made in this way, and we will not give examples one by one here.

上記解決策では、シーンの3次元地図における撮影デバイスのポーズ情報に基づいて、再構成待ち目標の3次元モデルを現在の撮影されているシーン画像に表示することにより、仮想物体と実際のシーンとの幾何学的整合性の融合を実現することができ、且つ3次元モデルが上記第1の態様における3次元再構成方法によって得られるため、3次元再構成の効果を高め、さらに仮想と現実との幾何学的整合性の融合効果を高めることができ、これは、ユーザ体験を向上することに役立つ。
図10を参照すると、図10は本開示の3次元再構成に基づく測定方法の一実施例のフローチャートである。前記3次元再構成方法は、以下のステップを含むことができる:
In the above solution, the 3D model of the target awaiting reconstruction is displayed on the currently captured scene image based on the pose information of the imaging device in the 3D map of the scene, so that the virtual object and the real scene are It is possible to realize the fusion of geometrical consistency of The geometric consistency of the fusion effect can be enhanced, which helps improve the user experience.
Referring to FIG. 10, FIG. 10 is a flowchart of one embodiment of the three-dimensional reconstruction-based measurement method of the present disclosure. The three-dimensional reconstruction method may include the following steps:

ステップS1010において、再構成待ち目標の3次元モデルを取得する。 In step S1010, a three-dimensional model of the target awaiting reconstruction is obtained.

3次元モデルは、上記のいずれかの3次元再構成方法の実施例におけるステップにより得られてもよく、上記の3次元再構成方法の実施例を参照することができ、ここでは説明を省略する。 The three-dimensional model may be obtained by the steps in any of the three-dimensional reconstruction method embodiments described above, reference may be made to the three-dimensional reconstruction method embodiments described above, and the description is omitted here. .

ステップS1020において、ユーザが3次元モデルで設定した複数の測定ポイントを受信する。 In step S1020, a plurality of measurement points set by the user in the three-dimensional model are received.

ユーザは、マウスクリック、キーボード入力、ディスプレイタッチなどによって3次元モデルで複数の測定ポイントを設定することができる。測定ポイントの数量は、2つ、3つ、4つなどであってもよく、ここでは限定されい。図2を参照すると、再構成待ち目標が石膏人物像であることを例とすると、ユーザは、3次元モデル29の両目の中心に測定ポイントをそれぞれ設定することができ、又は、3次元モデル209の鼻粱と人中に測定ポイントをそれぞれ設定することもでき、又は、3次元モデル29の両目の中心、人中に測定ポイントをそれぞれ設定することもでき、ここでは例を1つずつ挙げない。 The user can set multiple measurement points on the three-dimensional model by mouse clicks, keyboard input, display touch, etc. The number of measurement points may be two, three, four, etc., and is not limited here. Referring to FIG. 2, if the target awaiting reconstruction is a plaster human figure, the user can set measurement points at the centers of both eyes of the three-dimensional model 29, or It is also possible to set measurement points for the nasal gills and the philtrum, respectively, or it is also possible to set measurement points for the centers of both eyes and the philtrum of the three-dimensional model 29, but we will not give one example here. .

ステップS1030において、複数の測定ポイントの間の距離を取得し、再構成待ち目標上の複数の測定ポイントに対応する位置の間の距離を取得する。 In step S1030, distances between a plurality of measurement points are obtained, and distances between positions corresponding to the plurality of measurement points on the target awaiting reconstruction are obtained.

図2を参照すると、依然として再構成待ち目標が石膏人物像であることを例とすると、3次元モデル29の両目の中心間の距離を取得することにより、石膏人物像に対応する両目の中心間の距離を取得することができ、又は、3次元モデル29の鼻粱と人中との距離を取得することにより、石膏人物像に対応する鼻粱と人中との距離を取得することができ、又は、3次元モデル29の両目の中心、人中の2つの間の距離を取得することにより、石膏人物像に対応する両目、人中の両者間の距離を取得することができ、それによって実際のシーンにおける物体の測定の利便性を高めることに役立つ。 Referring to FIG. 2, if the target still waiting for reconstruction is a plaster human figure, by obtaining the distance between the centers of both eyes of the three-dimensional model 29, the distance between the centers of both eyes corresponding to the plaster human figure is calculated. Alternatively, by obtaining the distance between the nasal mound and the philtrum of the three-dimensional model 29, the distance between the nasal mound and the philtrum corresponding to the plaster figure can be obtained. Alternatively, by obtaining the distance between the centers of both eyes and the philtrum of the three-dimensional model 29, it is possible to obtain the distance between both eyes and the philtrum corresponding to the plaster human image, thereby It helps to increase the convenience of measuring objects in real scenes.

上記解決策では、ユーザが3次元モデルで設定した複数の測定ポイントを受信することにより、複数の測定ポイントの間の距離を取得し、さらに再構成待ち目標上の複数の測定ポイントに対応する位置の間の距離を取得して、それによって実際のシーンにおける物体の測定ニーズを満たすことができ、且つ3次元モデルが上記第1の態様における3次元再構成方法により得られるため、3次元再構成の効果を高め、さらに測定の精度を向上させることができる。 In the above solution, by receiving multiple measurement points set by the user in a 3D model, the distances between the multiple measurement points are obtained, and the positions corresponding to the multiple measurement points on the target awaiting reconstruction are obtained. 3D reconstruction, since the 3D model can be obtained by the 3D reconstruction method in the first aspect above, and the 3D reconstruction method in the first aspect above It is possible to enhance the effect of the measurement and further improve the accuracy of measurement.

図11を参照すると、図11は本開示の3次元再構成装置1100の一実施例のフローチャートである。3次元再構成装置1100は、画像取得部1110、第1の決定部1120、データ分割部1130、第2の決定部1140、パラメータ調整部1150及びモデル再構成部1160を備え、画像取得部1110は、撮影デバイスが再構成待ち目標をスキャンすることにより得られた複数のフレームの処理待ち画像を取得するように構成され、第1の決定部1120は、各フレームの処理待ち画像と撮影デバイスのキャリブレーションパラメータを使用して、各フレームの処理待ち画像の再構成待ち目標に属する目標画素点及びそのカメラポーズパラメータを決定するように構成され、データ分割部1130は、所定の分割ポリ―シに従って、各フレームの処理待ち画像の画像データを対応するデータセットに順次分割するように構成され、画像データが少なくとも目標画素点を含み、第2の決定部1140は、各データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データ及びポーズ最適化パラメータを順次使用して、各データセットのポーズ最適化パラメータを決定するように構成され、パラメータ調整部1150は、各データセットのポーズ最適化パラメータを使用して、データセットに含まれる画像データの属する処理待ち画像のカメラポーズパラメータを調整するように構成され、モデル再構成部1160は、所定の3次元再構成方式及び処理待ち画像の調整後のカメラポーズパラメータを使用して、処理待ち画像の画像データに対して再構成処理を実行して、再構成待ち目標の3次元モデルを取得するように構成される。 Referring to FIG. 11, FIG. 11 is a flowchart of one embodiment of a three-dimensional reconstruction apparatus 1100 of the present disclosure. The three-dimensional reconstruction device 1100 includes an image acquisition section 1110, a first determination section 1120, a data division section 1130, a second determination section 1140, a parameter adjustment section 1150, and a model reconstruction section 1160. , the imaging device is configured to acquire a plurality of frames of images to be processed obtained by scanning a target to be reconstructed, and the first determination unit 1120 is configured to obtain images to be processed of each frame and the calibration of the imaging device. The data segmentation unit 1130 is configured to determine the target pixel point belonging to the reconstruction target of the image to be processed of each frame and its camera pose parameters using the motion parameters, and the data segmentation unit 1130 is configured to use The second determination unit 1140 is configured to sequentially divide the image data of the image to be processed in each frame into corresponding data sets, and the image data includes at least a target pixel point, and the second determination unit 1140 divides the image data of each data set and the time The series is configured to sequentially use the image data and pose optimization parameters of the datasets placed before it to determine pose optimization parameters for each dataset, and the parameter adjustment unit 1150 The model reconstruction unit 1160 is configured to adjust the camera pose parameters of the image to be processed to which the image data included in the dataset belongs using the pose optimization parameters of The apparatus is configured to perform reconstruction processing on image data of the image to be processed using adjusted camera pose parameters of the image to be processed, thereby obtaining a three-dimensional model of the target to be reconstructed.

幾つかの実施例では、第2の決定部1140は、各データセットを現在のデータセットとして順次使用し、現在のデータセットの前に配置されている少なくとも1つのデータセットを候補データセットとして選択するように構成されるデータセット選択サブ部を含み、第2の決定部1140は、現在のデータセットの画像データと候補データセットの画像データを使用して、現在のデータセットと候補データセットとの空間変換パラメータを決定するように構成される空間変換パラメータサブ部をさらに含み、第2の決定部1140は、少なくとも候補データセットのポーズ最適化パラメータ、及び現在のデータセットと候補データセットとの空間変換パラメータを使用して、現在のデータセットのポーズ最適化パラメータを取得し、少なくとも前記候補データセットのポーズ最適化パラメータを更新するように構成されるポーズ最適化パラメータサブ部をさらに含む。 In some embodiments, the second determining unit 1140 sequentially uses each data set as the current data set and selects at least one data set located before the current data set as a candidate data set. The second determining unit 1140 includes a dataset selection sub-unit configured to select between the current dataset and the candidate dataset using the image data of the current dataset and the image data of the candidate dataset. The second determining unit 1140 further includes a spatial transformation parameter sub-unit configured to determine spatial transformation parameters of the current dataset and the candidate dataset, and the second determining unit 1140 is configured to determine spatial transformation parameters of the current dataset and the candidate dataset. The method further includes a pose optimization parameter sub-portion configured to obtain pose optimization parameters of a current dataset and update pose optimization parameters of at least the candidate dataset using spatial transformation parameters.

幾つかの実施例では、ポーズ最適化パラメータサブ部は、現在のデータセット及び時系列がその前に配置されているデータセットにそれぞれ関連付けられた各空間変換パラメータに対応する2つのデータセットをデータセットペアとして使用するように構成されるデータセットペア部を含み、ポーズ最適化パラメータサブ部は、各データセットペアの空間変換パラメータ、及びそれぞれのポーズ最適化パラメータを使用して、ポーズ最適化パラメータに関する目標関数を構築するように構成される目標関数構築部をさらに含み、ポーズ最適化パラメータサブ部は、所定の解法によって目標関数を解いて、現在のデータセット及び時系列がその前に配置されているデータセットのそれぞれに対応するデータセットに含まれるデータセットのポーズ最適化パラメータを取得するように構成される目標関数解決部をさらに含む。 In some embodiments, the pose optimization parameters sub-section data sets two data sets corresponding to each spatial transformation parameter respectively associated with the current data set and the data set before which the time series is placed. a dataset pair section configured for use as a set pair, and a pose optimization parameter subsection that uses the spatial transformation parameters of each dataset pair and the respective pose optimization parameters, further comprising an objective function construction unit configured to construct an objective function with respect to The method further includes an objective function solver configured to obtain pose optimization parameters for datasets included in the datasets corresponding to each of the datasets.

幾つかの実施例では、空間変換パラメータサブ部は、候補データセットと現在のデータセット内で、所定のマッチング条件を満たす1グループのマッチング待ち画像データを検索するように構成される画像データ検索部を含み、空間変換パラメータサブ部は、各グループのマッチング待ち画像データから抽出された、所定の画像特徴に基づいて、各グループのマッチング待ち画像データ間のマッチング画素点対を取得するように構成されるマッチング画素点選択部をさらに含み、空間変換パラメータサブ部は、マッチング画素点対のうち、現在のデータセットに属する画素点を3次元空間にマッピングし、第1の3次元マッチングポイントを取得して、マッチング画素点対のうち、候補データセットに属する画素点を3次元空間にマッピングし、第2の3次元マッチングポイントを取得するように構成される3次元空間マッピング部をさらに含み、空間変換パラメータサブ部は、第1の3次元マッチングポイントと第2の3次元マッチングポイントとを位置合わせし、空間変換パラメータを取得するように構成される3次元マッチングポイント位置合わせ部をさらに含む。 In some embodiments, the spatial transformation parameter subunit includes an image data search unit configured to search within the candidate dataset and the current dataset for a group of matching image data that satisfies a predetermined matching condition. , the spatial transformation parameter sub-unit is configured to obtain matching pixel point pairs between the matching image data of each group based on predetermined image features extracted from the matching image data of each group. The spatial transformation parameter sub-unit maps pixel points belonging to the current data set among the matching pixel point pairs to a three-dimensional space and obtains a first three-dimensional matching point. further comprising a three-dimensional space mapping unit configured to map pixel points belonging to the candidate data set among the matching pixel point pairs to a three-dimensional space to obtain a second three-dimensional matching point, and performing spatial transformation. The parameter sub-unit further includes a three-dimensional matching point alignment unit configured to align the first three-dimensional matching point and the second three-dimensional matching point and obtain a spatial transformation parameter.

幾つかの実施例では、3次元マッチングポイント位置合わせ部は、第1の3次元マッチングポイントと第2の3次元マッチングポイントとの第1のポーズ変換パラメータを取得するように構成される第1のポーズ変換パラメータサブ部を含み、3次元マッチングポイント位置合わせ部は、第1のポーズ変換パラメータと所定のポーズ変換パラメータを使用して、第1の3次元マッチングポイントに対してポーズ最適化を実行して、第1の最適化マッチングポイントと第2の最適化マッチングポイントとをそれぞれ取得するように構成される3次元マッチングポイント最適化サブ部をさらに含み、3次元マッチングポイント位置合わせ部は、第2の3次元マッチングポイントと、第1の最適化マッチングポイントおよび第2の最適化マッチングポイントとのそれぞれの一致度を計算し、一致度の高い最適化マッチングポイントが使用するポーズ変換パラメータを第2のポーズ変換パラメータとして選択するように構成される第2のポーズ変換パラメータサブ部をさらに含み、3次元マッチングポイント位置合わせ部は、第2のポーズ変換パラメータを初期値とし、所定の位置合わせ方式によって第1の3次元マッチングポイントと第2の3次元マッチングポイントとを位置合わせし、現在のデータセットと候補データセットとの空間変換パラメータを取得するように構成される空間変換パラメータサブ部をさらに含む。 In some embodiments, the three-dimensional matching point registration unit includes a first pose transformation parameter configured to obtain a first pose transformation parameter between the first three-dimensional matching point and the second three-dimensional matching point. The three-dimensional matching point alignment unit includes a pose transformation parameter sub-unit, and the three-dimensional matching point alignment unit performs pose optimization on the first three-dimensional matching point using the first pose transformation parameter and the predetermined pose transformation parameter. further comprising a three-dimensional matching point optimization sub-unit configured to obtain a first optimized matching point and a second optimized matching point, respectively; The degrees of correspondence between the three-dimensional matching points and the first and second optimization matching points are calculated, and the pose transformation parameters used by the optimization matching points with a high degree of agreement are calculated as The three-dimensional matching point alignment unit further includes a second pose transformation parameter sub-unit configured to select the pose transformation parameter as a pose transformation parameter, and the three-dimensional matching point alignment unit sets the second pose transformation parameter as an initial value and selects the second pose transformation parameter as an initial value according to a predetermined alignment method. The method further includes a spatial transformation parameter sub-portion configured to align the first three-dimensional matching point and the second three-dimensional matching point and obtain spatial transformation parameters of the current data set and the candidate data set.

幾つかの実施例では、空間変換パラメータサブ部は、現在のデータセットと各候補データセットとの空間変換パラメータから、所定のパラメータスクリーニング条件を満たす空間変換パラメータを選択するように構成される変換パラメータスクリーニング部をさらに含み、所定のパラメータスクリーニング条件は、空間変換パラメータに関連する候補データセットが現在のデータセットと隣接すること、空間変換パラメータを使用して、第1の3次元マッチングポイントをポーズ最適化することにより得られた最適化マッチングポイントと、第2の3次元マッチングポイントとの一致度が所定の一致度閾値より大きいことのいずれか1つを含む。 In some embodiments, the spatial transformation parameters sub-portion is configured to select, from the spatial transformation parameters of the current dataset and each candidate dataset, spatial transformation parameters that satisfy a predetermined parameter screening condition. The screening unit further includes a predetermined parameter screening condition, wherein the candidate dataset associated with the spatial transformation parameter is adjacent to the current dataset, and the spatial transformation parameter is used to pose the first three-dimensional matching point to the optimal pose. The matching degree between the optimized matching point obtained by optimizing the matching point and the second three-dimensional matching point is greater than a predetermined matching degree threshold.

幾つかの実施例では、データセット選択サブ部は、現在のデータセット及び時系列がその前に配置されているデータセットの画像データの所定の画像特徴を使用して、Bag of Wordsモデルを構築するように構成されるBag of Wordsモデル構築部をさらに含み、データセット選択サブ部は、属する処理待ち画像の現在のデータセットの所定の時系列に位置する画像データをマッチング待ち画像データとして選択するように構成されるマッチング画像データ部をさらに含み、データセット選択サブ部は、Bag of Wordsモデルの所定の範囲から、マッチング待ち画像データの所定の画像特徴との類似度スコアが所定の類似度閾値より大きい所定の画像特徴をクエリするように構成される画像特徴クエリ部をさらに含み、データセット選択サブ部は、クエリされた所定の画像特徴の属する画像データが所在するデータセット、及び現在のデータセットと隣接するデータセットとを候補データセットとして使用するように構成され、ここで、所定の範囲が、属するデータセットが現在のデータセットと隣接していなく、且つ現在のデータセットに含まれない画像データの所定の画像特徴を含む候補データセット部をさらに含む。 In some embodiments, the dataset selection sub-unit builds the Bag of Words model using predetermined image features of the image data of the current dataset and the dataset before which the time series is placed. further comprising a Bag of Words model construction unit configured to: select the image data located in a predetermined time series of the current dataset of the pending images to which it belongs as the image data to be matched; The dataset selection sub-unit is configured to select, from a predetermined range of the Bag of Words model, a similarity score of the image data to be matched with a predetermined image feature at a predetermined similarity threshold. further comprising an image feature query section configured to query for a larger predetermined image feature, and a dataset selection sub-section configured to select a dataset to which the image data to which the queried predetermined image feature belongs and the current data are located; configured to use the set and adjacent datasets as candidate datasets, where the predetermined range is configured such that the dataset to which it belongs is not adjacent to the current dataset and is not included in the current dataset. The image processing apparatus further includes a candidate dataset section including predetermined image features of the image data.

幾つかの実施例では、データセット選択サブ部は、現在のデータセットと隣接するデータセットにおける各画像データとマッチング待ち画像データとの類似度スコアのうちの最大スコア値を取得するように構成される最大類似度スコア値取得部をさらに含み、データセット選択サブ部は、最大スコア値の所定の倍数と所定のスコア値のいずれかを所定の類似度閾値として使用するように構成される所定の類似度閾値決定部をさらに含む。 In some embodiments, the dataset selection sub-unit is configured to obtain a maximum score value of similarity scores between each image data and the image data to be matched in the current dataset and adjacent datasets. further comprising a maximum similarity score value obtaining unit configured to obtain a maximum similarity score value, and the dataset selection sub unit configured to use either a predetermined multiple of the maximum score value and the predetermined score value as a predetermined similarity threshold. The method further includes a similarity threshold determination unit.

幾つかの実施例では、データ分割部1130は、各フレームの処理待ち画像を現在の処理待ち画像として順次使用するように構成される現在処理待ち画像決定サブ部を含み、データ分割部1130は、現在の処理待ち画像の画像データを分割する場合、既存のデータセットの最後のデータセットが所定のオーバーフロー条件を満たすと、最後のデータセットにおける最新の複数のフレームの処理待ち画像の画像データを取得し、新しい最後のデータセットとして新しく作成されたデータセットに記憶し、現在の処理待ち画像の画像データを新しい最後のデータセットに分割するように構成されるデータ処理サブ部をさらに含む。 In some embodiments, the data partitioning unit 1130 includes a current pending image determination subunit configured to sequentially use the pending image of each frame as the current pending image, and the data partitioning unit 1130 includes: When dividing the image data of the current pending image, when the last dataset of the existing dataset satisfies the predetermined overflow condition, the image data of the latest multiple frames of the pending image in the last dataset is obtained. and further includes a data processing sub-unit configured to store the newly created data set as a new final data set and to divide the image data of the current pending image into the new final data set.

幾つかの実施例では、所定のオーバーフロー条件は、最後のデータセットに含まれる画像データに対応する処理待ち画像のフレーム数が所定のフレーム数閾値より大きいか等しいこと、最後のデータセットのいずれかの画像データが属する処理待ち画像のカメラ位置と現在の処理待ち画像のカメラ位置との距離が所定の距離閾値より大きいこと、最後のデータセットのいずれかの画像データが属する処理待ち画像のカメラ向き角度と現在の処理待ち画像のカメラ向き角度との差が所定の角度閾値より大きいことのいずれか一つを含み、ここで、カメラ位置とカメラ向き角度は、処理待ち画像のカメラポーズパラメータを使用して、計算されたものである。 In some embodiments, the predetermined overflow condition is that the number of frames of images to be processed that correspond to image data included in the last dataset is greater than or equal to a predetermined frame number threshold; The distance between the camera position of the image to be processed to which the image data belongs and the camera position of the current image to be processed is greater than a predetermined distance threshold, and the camera orientation of the image to be processed to which any of the image data of the last dataset belongs The difference between the angle and the camera orientation angle of the current image to be processed is greater than a predetermined angle threshold, where the camera position and camera orientation angle use the camera pose parameters of the image to be processed. It was calculated as follows.

幾つかの実施例では、各フレームの処理待ち画像は、カラーデータと深度データとを含み、第1の決定部1120は、カラーデータとの位置合わせ後の深度データに含まれる各画素点の法線ベクトルと処理待ち画像の重力方向との夾角を取得するように構成される夾角取得サブ部を含み、第1の決定部1120は、各画素点を3次元空間で重力方向に投影し、各画素点の3次元空間における高さの値を取得するように構成される高さ取得サブ部をさらに含み、第1の決定部1120は、夾角が所定の角度条件を満たす画素点の高さの値を分析し、再構成待ち目標の平面高さを取得するように構成される高さ分析サブ部をさらに含み、第1の決定部1120は、平面高さによってカラーデータのうちの再構成待ち物体に属する目標画素点をスクリーニングするように構成される画素スクリーニングサブ部をさらに含む。 In some embodiments, the image to be processed for each frame includes color data and depth data, and the first determining unit 1120 determines the modulus of each pixel point included in the depth data after alignment with the color data. The first determination unit 1120 includes an included angle acquisition sub-unit configured to acquire an included angle between the line vector and the gravity direction of the image to be processed, and the first determination unit 1120 projects each pixel point in the three-dimensional space in the gravity direction, The first determination unit 1120 further includes a height acquisition sub-unit configured to acquire the height value of the pixel point in three-dimensional space, and the first determining unit 1120 determines the height of the pixel point whose included angle satisfies a predetermined angle condition. The first determining unit 1120 further includes a height analysis sub-unit configured to analyze the value and obtain the planar height of the reconstruction target, and the first determining unit 1120 determines the reconstruction target of the color data according to the planar height. It further includes a pixel screening sub-unit configured to screen target pixel points belonging to the object.

幾つかの実施例では、高さ分析サブ部は、夾角が所定の角度条件を満たす画素点の高さの値を高さセットとして使用するように構成される高さセット取得部を含み、高さ分析サブ部は、高さセット内の高さの値に対してクラスタ分析を実行して、再構成待ち目標の平面高さを取得するように構成される高さクラスタ分析部を含む。 In some embodiments, the height analysis sub-unit includes a height set acquisition unit configured to use, as a height set, height values of pixel points whose included angles satisfy a predetermined angular condition; The height analysis sub-unit includes a height cluster analysis unit configured to perform a cluster analysis on the height values in the height set to obtain a planar height of the awaiting reconstruction target.

幾つかの実施例では、3次元再構成装置1100は、各データセットの画像データを3次元空間に順次マッピングして、各データセットに対応する3次元ポイントクラウドを取得するように構成される3次元マッピング部をさらに備え、3次元再構成装置1100は、各データセットのポーズパラメータを使用して、それに対応する3次元ポイントクラウドを調整するように構成されるポイントクラウド調整部をさらに備える。 In some embodiments, the 3D reconstruction device 1100 is configured to sequentially map the image data of each dataset into a 3D space to obtain a 3D point cloud corresponding to each dataset. Further comprising a dimensional mapping unit, the three-dimensional reconstruction device 1100 further comprises a point cloud adjustment unit configured to use the pose parameters of each dataset to adjust its corresponding three-dimensional point cloud.

図12を参照すると、図12は本開示による3次元再構成に基づくインタラクション装置の一実施例のフレームワーク概略図である。3次元再構成に基づくインタラクション装置1200は、モデル取得部1210、マッピング及び位置決め部1220と表示インタラクションモジュール1230を備え、モデル取得部1210は、再構成待ち目標の3次元モデルを取得するように構成され、3次元モデルが上記のいずれかの3次元再構成装置の実施例における3次元再構成装置により得られ、マッピング及び位置決め部1220は、所定の視覚慣性ナビゲーション方式により、撮影デバイスが配置されているシーンの3次元地図を構築し、3次元地図における撮影デバイスの現在のポーズ情報を取得するように構成され、表示インタラクションモジュール1230は、ポーズ情報に基づいて、撮影デバイスによって現在撮影されているシーン画像に3次元モデルを表示するように構成される。 Referring to FIG. 12, FIG. 12 is a framework schematic diagram of one embodiment of an interaction device based on three-dimensional reconstruction according to the present disclosure. The interaction device 1200 based on 3D reconstruction includes a model acquisition unit 1210, a mapping and positioning unit 1220, and a display interaction module 1230, and the model acquisition unit 1210 is configured to acquire a 3D model of a target awaiting reconstruction. , a 3D model is obtained by the 3D reconstruction device in any of the embodiments of the 3D reconstruction device described above, and the mapping and positioning unit 1220 has the imaging device arranged according to a predetermined visual inertial navigation method. The display interaction module 1230 is configured to construct a three-dimensional map of the scene and obtain current pose information of the photographing device in the three-dimensional map, and the display interaction module 1230 displays the scene image currently being photographed by the photographing device based on the pose information. is configured to display a three-dimensional model.

図13を参照すると、図13は3次元再構成に基づく測定装置1300の一実施例のフレームワーク概略図である。3次元再構成に基づく測定装置1300は、モデル取得部1310、表示インタラクション部1320及び距離取得部1330を含み、モデル取得部1310は、再構成待ち目標の3次元モデルを取得するように構成され、3次元モデルが上記のいずれかの3次元再構成装置の実施例における3次元再構成装置により得られ、表示インタラクション部1320は、ユーザが3次元モデルで設定した複数の測定ポイントを受信するように構成され、距離取得取得部1330は、複数の測定ポイントの間の距離を取得し、再構成待ち目標上の複数の測定ポイントに対応する位置の間の距離を取得するように構成される。 Referring to FIG. 13, FIG. 13 is a framework schematic diagram of one embodiment of a measurement device 1300 based on three-dimensional reconstruction. The measurement device 1300 based on three-dimensional reconstruction includes a model acquisition unit 1310, a display interaction unit 1320, and a distance acquisition unit 1330, and the model acquisition unit 1310 is configured to acquire a three-dimensional model of a target awaiting reconstruction; A 3D model is obtained by the 3D reconstruction device in any of the embodiments of the 3D reconstruction device described above, and the display interaction unit 1320 is configured to receive a plurality of measurement points set by the user in the 3D model. The distance acquisition acquisition unit 1330 is configured to acquire distances between a plurality of measurement points and to acquire distances between positions corresponding to the plurality of measurement points on the target awaiting reconstruction.

図14を参照すると、図14は本開示による電子機器1400の一実施例のフレームワーク概略図である。電子機器1400は、互いに結合されたメモリ1410とプロセッサ1420を備え、プロセッサ1420は、上記のいずれかの3次元再構成方法の実施例におけるステップを実現し、又は上記のいずれかの3次元再構成に基づくインタラクション方法の実施例におけるステップを実現し、又は上記のいずれかの3次元再構成に基づく測定方法の実施例におけるステップを実現するために、メモリ1410に記憶されたプログラム命令を実行するように構成される。1つの実施シーンでは、電子機器は、携帯電話、タブレットコンピュータなどの移動端末を含むことができ、又は、電子機器は、撮影デバイスに接続されたデータ処理デバイス(マイクロコンピュータなど)であってもよく、ここでは限定しない。 Referring to FIG. 14, FIG. 14 is a framework schematic diagram of one embodiment of an electronic device 1400 according to the present disclosure. Electronic device 1400 includes a memory 1410 and a processor 1420 coupled to each other, and processor 1420 implements the steps in any of the three-dimensional reconstruction method embodiments described above or performs any of the three-dimensional reconstruction methods described above. or executing program instructions stored in memory 1410 to implement the steps in the embodiments of the interaction method based on 3D reconstruction or to implement the steps in the embodiment of the measurement method based on any of the three-dimensional reconstructions described above. It is composed of In one implementation scene, the electronic equipment may include a mobile terminal such as a mobile phone, a tablet computer, or the electronic equipment may be a data processing device (such as a microcomputer) connected to the imaging device. , is not limited here.

プロセッサ1420は、CPU(Central Processing Unit:中央処理ユニット)とも呼ばれてもよい。プロセッサ1420は、信号処理機能を備えた集積回路チップであってもよい。プロセッサ1420は、汎用プロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、フィールドプログラマブルゲートアレイ(FPGA:Field-Programmable Gate Array)又は他のプログラマブル論理デバイス、ディスクリートゲート又はトランジスタ論理デバイス、ディスクリートハードウェアコンポーネントであってもよい。汎用プロセッサは、マイクロプロセッサであってもよく、又は当該プロセッサは、いずれかの従来のプロセッサなどであってもよい。また、プロセッサ1420は、集積回路チップによって共同で実現されてもよい。 Processor 1420 may also be called a CPU (Central Processing Unit). Processor 1420 may be an integrated circuit chip with signal processing functionality. The processor 1420 is a general-purpose processor, a digital signal processor (DSP), an application-specific integrated circuit (ASIC), or a field-programmable gate array (FPGA). Mable Gate Array) or other programmable logic The device may be a discrete gate or transistor logic device, a discrete hardware component. A general purpose processor may be a microprocessor, or it may be any conventional processor, or the like. Processor 1420 may also be jointly implemented by an integrated circuit chip.

上記解決策では、3次元再構成の効果を高め、3次元再構成のための計算負荷を軽減することができる。 The above solution can enhance the effect of three-dimensional reconstruction and reduce the computational load for three-dimensional reconstruction.

図15を参照すると、図15は本開示のコンピュータ可読記憶媒体1500の一実施例のフレームワーク概略図である。コンピュータ可読記憶媒体1500は、プロセッサによって実行され得るプログラム命令1501を記憶し、ログラム命令1501は、上記のいずれかの3次元再構成方法の実施例におけるステップを実現し、又は上記のいずれかの3次元再構成に基づくインタラクション方法の実施例におけるステップを実現し、又は上記のいずれかの3次元再構成に基づく測定方法の実施例におけるステップを実現するように構成される。 Referring to FIG. 15, FIG. 15 is a framework schematic diagram of one embodiment of a computer readable storage medium 1500 of the present disclosure. Computer-readable storage medium 1500 stores program instructions 1501 that can be executed by a processor to implement steps in an embodiment of any three-dimensional reconstruction method described above, or to perform steps in any three-dimensional reconstruction method embodiment described above. It is configured to implement the steps in an embodiment of an interaction method based on dimensional reconstruction, or to implement the steps in an embodiment of a measurement method based on any three-dimensional reconstruction described above.

上記解決策では、3次元再構成の効果を高め、3次元再構成のための計算負荷を軽減することができる。 The above solution can enhance the effect of three-dimensional reconstruction and reduce the computational load for three-dimensional reconstruction.

本開示で提供される幾つかの実施例では、開示される方法及び装置が他の方式により実現されてもよいことを理解すべきである。例えば、上記の装置の実施形態は、例示的なものだけであり、例えば、モジュール又はユニットの区分は、論理機能的区分だけであり、実際に実現する時に他の区分方式もあり得て、例えばユニット又はコンポーネントは、組み合わせられてもよく又は別のシステムに統合されてもよく、又は幾つかの特徴は無視されてもよく、又は実行されなくてもよい。また、示されるか、又は議論される相互結合又は直接結合又は通信接続は、幾つかのインターフェース、デバイス又はユニットを介した間接的結合又は通信接続であってもよく、電気的、機械的又は他の形態であってもよい。 It should be understood that in some embodiments provided in this disclosure, the disclosed methods and apparatus may be implemented in other ways. For example, the above device embodiments are only exemplary, for example, the division of modules or units is only logical and functional division, and there may be other division schemes when actually implemented, e.g. The units or components may be combined or integrated into another system, or some features may be ignored or not implemented. Also, the mutual or direct couplings or communication connections shown or discussed may be indirect couplings or communication connections through some interface, device or unit, electrical, mechanical or otherwise. It may be in the form of

分離部材として説明されるユニットは、物理的に分離するものであってもよく又は物理的に分離するものでなくてもよく、ユニットとして表示される部材は、物理ユニットであってもよく又は物理ユニットでなくてもよく、即ち1つの箇所に位置してもよく、又はネットワークユニットに分布してもよい。実際のニーズに応じてその中の一部又は全てのユニットを選択して本実施形態の解決策の目的を達成することができる。 Units described as separate members may or may not be physically separate, and members designated as units may be physical units or physically separate. It may not be a unit, ie it may be located at one location, or it may be distributed over network units. Some or all of the units can be selected according to actual needs to achieve the purpose of the solution of this embodiment.

また、本開示の各実施例における各機能ユニットは、1つの処理ユニットに統合されてもよく、各々のユニットは、単独で物理的に存在してもよく、2つ又は2つ以上のユニットは、1つのユニットに統合されてもよい。上記の統合されたユニットは、ハードウェアの形態で実現されてもよく、ソフトウェア機能ユニットの形態で実現されてもよい。 Additionally, each functional unit in each embodiment of the present disclosure may be integrated into one processing unit, each unit may be physically present alone, or two or more units may be integrated into one processing unit. , may be integrated into one unit. The above integrated unit may be realized in the form of hardware or in the form of a software functional unit.

統合されたユニットは、ソフトウェア機能ユニットの形態で実現され且つ独立した製品として販売又は使用されるときに、1つのコンピュータ可読記憶媒体に記憶されてもよい。このような理解に基づき、本開示の技術的解決策は、本質的に又は従来技術に寄与する部分又は当該技術的解決策の全て又は部分がソフトウェア製品の形で体現されてもよく、当該コンピュータソフトウェア製品は、1つの記憶媒体に記憶され、コンピュータデバイス(パーソナルコンピュータ、サーバー、又はネットワークデバイス等であってもよい)又はプロセッサ(processor)に本開示の各実施形態の方法のステップの全て又は一部を実行させるための幾つかの命令を含む。前記記憶媒体は、USBフラッシュドライブ、モバイルハードディスク、読み出し専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスク等のプログラムコードを記憶できる各種の媒体を含む。 The integrated unit may be stored on a single computer-readable storage medium when it is implemented in the form of a software functional unit and sold or used as an independent product. Based on this understanding, the technical solution of the present disclosure may be realized essentially or in a part contributing to the prior art, or all or part of the technical solution may be embodied in the form of a software product, and the technical solution of the present disclosure may be embodied in the form of a software product. The software product is stored on a single storage medium and configured to perform all or some of the method steps of each embodiment of the present disclosure on a computing device (which may be a personal computer, a server, or a network device, etc.) or a processor. Contains several instructions for executing the section. The storage medium may include various media capable of storing program codes, such as a USB flash drive, a mobile hard disk, a read-only memory (ROM), a random access memory (RAM), a magnetic disk, or an optical disk. include.

本開示の実施例では、撮影デバイスが再構成待ち目標をスキャンすることにより得られた複数のフレームの処理待ち画像を取得し、各フレームの処理待ち画像と撮影デバイスのキャリブレーションパラメータを使用して、各フレームの処理待ち画像の再構成待ち目標に属する目標画素点及びそのカメラポーズパラメータを決定し、各フレームの処理待ち画像の画像データを対応するデータセットに順次分割し、データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データとポーズ最適化パラメータを使用して、データセットのポーズ最適化パラメータを決定し、データセットのポーズ最適化パラメータを使用して、データセットに含まれる画像データが属する処理待ち画像のカメラポーズパラメータを調整し、処理待ち画像の画像データに対して再構成処理を実行して、再構成待ち目標の3次元モデルを取得する。上記解決策により、3次元再構成の効果を高め、3次元再構成のための計算負荷を軽減することができる。 In an embodiment of the present disclosure, the imaging device acquires a plurality of frames of images to be processed obtained by scanning a target to be reconstructed, and uses the images to be processed for each frame and the calibration parameters of the imaging device. , determine the target pixel point belonging to the reconstruction target of the image to be processed in each frame and its camera pose parameters, sequentially divide the image data of the image to be processed in each frame into corresponding datasets, and divide the image data of the dataset into , and using the image data and pose optimization parameters of the dataset before which the time series is placed, determine the pose optimization parameters of the dataset, and using the pose optimization parameters of the dataset, The camera pose parameters of the image to be processed to which the image data included in the dataset belongs are adjusted, and the reconstruction process is executed on the image data of the image to be processed to obtain a three-dimensional model of the target to be reconstructed. The above solution can enhance the effect of three-dimensional reconstruction and reduce the computational load for three-dimensional reconstruction.

上記解決策では、各データセットのポーズ最適化パラメータがその前にあるデータセットのポーズパラメータに基づいて決定されてもよく、したがって、各データセットのポーズ最適化パラメータを使用して、データセットに含まれる画像データの属する処理待ち画像のカメラポーズパラメータを調整する場合、スキャンプロセスに累積されたカメラポーズパラメータの誤差をなくすことに役立つため、所定の3次元再構成方式と処理待ち画像の調整後のカメラポーズパラメータを使用して、処理待ち画像の画像データに対して再構成処理を実行して、得られた再構成待ち目標の3次元モデルの効果が効果的に高まり、かつデータセットを単位としてカメラポーズパラメータの誤差をなくすことにより、計算量を減らすことができ、これは計算負荷を軽減することに役立つ。
例えば、本願は以下の項目を提供する。
(項目1)
3次元再構成方法であって、
撮影デバイスが再構成待ち目標をスキャンすることにより得られた複数のフレームの処理待ち画像を取得することと、
前記処理待ち画像の各フレームと前記撮影デバイスのキャリブレーションパラメータを使用して、前記再構成待ち目標に属する前記処理待ち画像の各フレームの目標画素点及びそのカメラポーズパラメータを決定することと、
所定の分割ポリシーに従って、前記処理待ち画像の各フレームの画像データを対応するデータセットに順次分割することであって、前記画像データは少なくとも、前記目標画素点を含むことと、
各前記データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データとポーズ最適化パラメータを順次使用して、各前記データセットのポーズ最適化パラメータを決定することと、
各前記データセットのポーズ最適化パラメータを使用して、前記データセットに含まれる画像データの属する前記処理待ち画像のカメラポーズパラメータを調整することと、
所定の3次元再構成方式及び前記処理待ち画像の調整後のカメラポーズパラメータを使用して、前記処理待ち画像の画像データに対して再構成処理を実行して、前記再構成待ち目標の3次元モデルを取得することと、を含む、3次元再構成方法。
(項目2)
前記各前記データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データとポーズ最適化パラメータを順次使用して、各前記データセットのポーズ最適化パラメータを決定することは、
各前記データセットを現在のデータセットとして順次使用し、時系列が前記現在のデータセットの前に配置されている少なくとも1つのデータセットを候補データセットとして選択することと、
前記現在のデータセットの画像データと前記候補データセットの画像データを使用して、前記現在のデータセットと前記候補データセットとの空間変換パラメータを決定することと、
少なくとも前記候補データセットのポーズ最適化パラメータ、及び前記現在のデータセットと前記候補データセットとの空間変換パラメータを使用して、前記現在のデータセットのポーズ最適化パラメータを取得し、少なくとも前記候補データセットのポーズ最適化パラメータを更新することと、を含む
項目1に記載の3次元再構成方法。
(項目3)
前記少なくとも前記候補データセットのポーズ最適化パラメータ、及び前記現在のデータセットと前記候補データセットとの空間変換パラメータを使用して、前記現在のデータセットのポーズ最適化パラメータを取得し、少なくとも前記候補データセットのポーズ最適化パラメータを更新することは、
前記現在のデータセット及び時系列がその前に配置されている前記候補データセットにそれぞれ関連付けられた各空間変換パラメータに対応する2つのデータセットをデータセットペアとして使用することと、
各前記データセットペアの空間変換パラメータ、及びそれぞれのポーズ最適化パラメータを使用して、前記ポーズ最適化パラメータに関する目標関数を構築することと、
所定の解法によって前記目標関数を解いて、前記現在のデータセット及び時系列がその前に配置されている前記候補データセットのそれぞれに対応するデータセットに含まれるデータセットのポーズ最適化パラメータを取得することと、を含む
項目2に記載の3次元再構成方法。
(項目4)
前記現在のデータセットの画像データと前記候補データセットの画像データを使用して、前記現在のデータセットと前記候補データセットとの空間変換パラメータを決定することは、
前記候補データセットと前記現在のデータセット内で、所定のマッチング条件を満たす1グループのマッチング待ち画像データを検索することと、
各グループの前記マッチング待ち画像データから抽出された、所定の画像特徴に基づいて、各グループの前記マッチング待ち画像データ間のマッチング画素点対を取得することと、
前記マッチング画素点対のうち、前記現在のデータセットに属する画素点を3次元空間にマッピングし、第1の3次元マッチングポイントを取得し、前記マッチング画素点対のうち、前記候補データセットに属する画素点を前記3次元空間にマッピングして、第2の3次元マッチングポイントを取得することと、
前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントとを位置合わせして、前記空間変換パラメータを取得することと、を含む
項目2に記載の3次元再構成方法。
(項目5)
前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントとを位置合わせして、前記空間変換パラメータを取得することは、
前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントとの第1のポーズ変換パラメータを取得することと、
前記第1のポーズ変換パラメータと所定のポーズ変換パラメータを使用して、前記第1の3次元マッチングポイントに対してポーズ最適化を実行して、第1の最適化マッチングポイントと第2の最適化マッチングポイントとをそれぞれ取得することと、
前記第2の3次元マッチングポイントと、前記第1の最適化マッチングポイントおよび前記第2の最適化マッチングポイントとのそれぞれの一致度を計算し、前記一致度の高い最適化マッチングポイントが使用するポーズ変換パラメータを第2のポーズ変換パラメータとして選択することと、
前記第2のポーズ変換パラメータを初期値とし、所定の位置合わせ方式によって前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントを位置合わせして、前記現在のデータセットと前記候補データセットとの空間変換パラメータを取得することと、を含む
項目4に記載の3次元再構成方法。
(項目6)
前記現在のデータセットの画像データと前記候補データセットの画像データを使用して、前記現在のデータセットと前記候補データセットとの空間変換パラメータを決定した後、及び少なくとも前記候補データセットのポーズ最適化パラメータ、及び前記現在のデータセットと前記候補データセットとの空間変換パラメータを使用して、前記現在のデータセットのポーズ最適化パラメータを取得する前に、前記3次元再構成方法は、
前記現在のデータセットと各前記候補データセットとの空間変換パラメータから、所定のパラメータスクリーニング条件を満たす空間変換パラメータを選択することをさらに含み、
前記所定のパラメータスクリーニング条件は、前記空間変換パラメータに関連する前記候補データセットが前記現在のデータセットと隣接すること、前記空間変換パラメータを使用して、前記第1の3次元マッチングポイントをポーズ最適化することにより得られた最適化マッチングポイントと、前記第2の3次元マッチングポイントとの一致度が所定の一致度閾値より大きいことのいずれか1つを含む
項目4に記載の3次元再構成方法。
(項目7)
時系列が前記現在のデータセットの前に配置されている少なくとも1つのデータセットを候補データセットとして選択することは、
前記現在のデータセット及び時系列がその前に配置されているデータセットの画像データの所定の画像特徴を使用して、Bag of Wordsモデルを構築することと、
前記現在のデータセットにおける所定の時系列に位置する属する処理待ち画像の画像データをマッチング待ち画像データとして選択することと、
前記Bag of Wordsモデルの所定の範囲から、前記マッチング待ち画像データの所定の画像特徴との類似度スコアが所定の類似度閾値より大きい所定の画像特徴をクエリすることと、
クエリされた所定の画像特徴の属する画像データが所在するデータセット、及び前記現在のデータセットと隣接するデータセットを前記候補データセットとして使用することと、を含み、
前記所定の範囲は、属するデータセットが前記現在のデータセットと隣接せず、且つ前記現在のデータセットに含まれない画像データの所定の画像特徴を含む
項目2に記載の3次元再構成方法。
(項目8)
前記Bag of Wordsモデルの所定の範囲から、前記マッチング待ち画像データの所定の画像特徴との類似度スコアが所定の類似度閾値より大きい所定の画像特徴をクエリする前に、前記3次元再構成方法は、
前記現在のデータセットと隣接するデータセットにおける各前記画像データと前記マッチング待ち画像データとの類似度スコアのうちの最大スコア値を取得することと、
前記最大スコア値の所定の倍数と所定のスコア値のいずれか1つを所定の類似度閾値として使用することと、をさらに含む
項目7に記載の3次元再構成方法。
(項目9)
前記所定の分割ポリシーに従って、前記処理待ち画像の各フレームの画像データを対応するデータセットに順次分割することは、
前記処理待ち画像の各フレームを現在の処理待ち画像として順次使用することと、
現在の処理待ち画像の画像データを分割する場合、既存の前記データセットの最後のデータセットが所定のオーバーフロー条件を満たすと、前記最後のデータセットにおける最新の複数のフレームの前記処理待ち画像の画像データを取得し、新しい前記最後のデータセットとして新しく作成された前記データセットに記憶し、前記現在の処理待ち画像の画像データを新しい前記最後のデータセットに分割することと、を含む
項目1に記載の3次元再構成方法。
(項目10)
前記所定のオーバーフロー条件は、
前記最後のデータセットに含まれる前記画像データに対応する前記処理待ち画像のフレーム数が所定のフレーム数閾値より大きいか等しいこと、前記最後のデータセットのいずれかの前記画像データが属する処理待ち画像のカメラ位置と前記現在の処理待ち画像のカメラ位置との距離が所定の距離閾値より大きいこと、前記最後のデータセットのいずれかの前記画像データが属する処理待ち画像のカメラ向き角度と前記現在の処理待ち画像のカメラ向き角度との差が所定の角度閾値より大きいことのいずれか1つを含み、
前記カメラ位置と前記カメラ向き角度は、前記処理待ち画像のカメラポーズパラメータを使用して計算されるものである
項目9に記載の3次元再構成方法。
(項目11)
前記処理待ち画像の各フレームは、カラーデータと深度データとを含み、前記処理待ち画像の各フレームと前記撮影デバイスのキャリブレーションパラメータを使用して、前記再構成待ち目標に属する前記処理待ち画像の各フレームの目標画素点を決定することは、
前記カラーデータとの位置合わせ後の深度データに含まれる各画素点の法線ベクトルと、前記処理待ち画像の重力方向との夾角を取得することと、
前記各画素点を3次元空間で前記重力方向に投影して、前記3次元空間における前記各画素点の高さの値を取得することと、
前記夾角が所定の角度条件を満たす画素点の高さの値を分析して、前記再構成待ち目標の平面高さを取得することと、
前記平面高さを使用して、前記カラーデータにおける前記再構成待ち物体に属する目標画素点をスクリーニングすることと、を含む
項目1-10のいずれか一項に記載の3次元再構成方法。
(項目12)
前記夾角が所定の角度条件を満たす画素点の高さの値を分析して、前記再構成待ち目標の平面高さを取得することは、
前記夾角が所定の角度条件を満たす前記画素点の高さの値を高さセットとして使用することと、
前記高さセット内の高さの値に対してクラスタ分析を実行して、前記再構成待ち目標の平面高さを取得することと、を含む
項目11に記載の3次元再構成方法。
(項目13)
前記各前記データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データとポーズ最適化パラメータを順次使用して、各前記データセットのポーズ最適化パラメータを決定した後、前記3次元再構成方法は、
各前記データセットの画像データを3次元空間に順次マッピングして、各前記データセットに対応する3次元ポイントクラウドを取得することと、
各前記データセットの前記ポーズ最適化パラメータを使用して、それに対応する前記3次元ポイントクラウドを調整することと、をさらに含む
項目1-12のいずれか一項に記載の3次元再構成方法。
(項目14)
3次元再構成に基づくインタラクション方法であって、
再構成待ち目標の3次元モデルを取得することであって、前記3次元モデルは、項目1-13のいずれか一項に記載の3次元再構成方法を使用して取得されるものであることと、
所定の視覚慣性ナビゲーション方式を使用して、撮影デバイスが配置されているシーンの3次元地図を構築し、前記3次元地図における前記撮影デバイスの現在のポーズ情報を取得することと、
前記ポーズ情報に基づいて、前記撮影デバイスによって現在撮影されているシーン画像に前記3次元モデルを表示することと、を含む、前記3次元再構成に基づくインタラクション方法。
(項目15)
3次元再構成に基づく測定方法であって、
再構成待ち目標の3次元モデルを取得することであって、前記3次元モデルは、項目1-13のいずれか一項に記載の3次元再構成方法を使用して取得されるものであることと、
ユーザが3次元モデルで設定した複数の測定ポイントを受信することと、
前記複数の測定ポイントの間の距離を取得して、前記再構成待ち目標上の前記複数の測定ポイントに対応する位置の間の距離を取得することと、を含む、前記3次元再構成に基づく測定方法。
(項目16)
3次元再構成装置であって、
撮影デバイスが再構成待ち目標をスキャンすることにより得られた複数のフレームの処理待ち画像を取得するように構成される画像取得部と、
前記処理待ち画像の各フレームと前記撮影デバイスのキャリブレーションパラメータを使用して、前記再構成待ち目標に属する前記処理待ち画像の各フレームの目標画素点及びそのカメラポーズパラメータを決定するように構成される第1の決定部と、
所定の分割ポリシーに従って、前記処理待ち画像の各フレームの画像データを対応するデータセットに順次分割するように構成されるデータ分割部であって、前記画像データは少なくとも、前記目標画素点を含むデータ分割部と、
各前記データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データとポーズ最適化パラメータを順次使用して、各前記データセットのポーズ最適化パラメータを決定するように構成される第2の決定部と、
各前記データセットのポーズ最適化パラメータを使用して、前記データセットに含まれる画像データが属する処理待ち画像のカメラポーズパラメータを調整するように構成されるパラメータ調整部と、
所定の3次元再構成方式及び前記処理待ち画像の調整後のカメラポーズパラメータを使用して、前記処理待ち画像の画像データに対して再構成処理を実行して、前記再構成待ち目標の3次元モデルを取得するように構成されるモデル再構成部と、を備える、前記3次元再構成装置。
(項目17)
前記第2の決定部は、
各前記データセットを現在のデータセットとして順次使用し、時系列が前記現在のデータセットの前に配置されている少なくとも1つのデータセットを候補データセットとして選択するように構成されるデータセット選択サブ部と、
前記現在のデータセットの画像データと前記候補データセットの画像データを使用して、前記現在のデータセットと前記候補データセットとの空間変換パラメータを決定するように構成される空間変換パラメータサブ部と、
少なくとも前記候補データセットのポーズ最適化パラメータ、及び前記現在のデータセットと前記候補データセットとの空間変換パラメータを使用して、前記現在のデータセットのポーズ最適化パラメータを取得し、少なくとも前記候補データセットのポーズ最適化パラメータを更新するように構成されるポーズ最適化パラメータサブ部と、を備える
項目16に記載の3次元再構成装置。
(項目18)
前記ポーズ最適化パラメータサブ部は、
前記現在のデータセット及び時系列がその前に配置されている前記候補データセットにそれぞれ関連付けられた各空間変換パラメータに対応する2つのデータセットをデータセットペアとして使用するように構成されるデータセットペア部と、
各前記データセットペアの空間変換パラメータ、及びそれぞれのポーズ最適化パラメータを使用して、前記ポーズ最適化パラメータに関する目標関数を構築するように構成される目標関数構築部と、
所定の解法によって前記目標関数を解いて、前記現在のデータセット及び時系列がその前に配置されている前記候補データセットのそれぞれに対応するデータセットに含まれるデータセットのポーズ最適化パラメータを取得するように構成される目標関数解決部と、を備える
項目17に記載の3次元再成装置。
(項目19)
前記空間変換パラメータサブ部は、
前記候補データセットと前記現在のデータセット内で、所定のマッチング条件を満たす1グループのマッチング待ち画像データを検索するように構成される画像データ検索部と、
各グループの前記マッチング待ち画像データから抽出された、所定の画像特徴に基づいて、各グループの前記マッチング待ち画像データ間のマッチング画素点対を取得するように構成されるマッチング画素点選択部と、
前記マッチング画素点対のうち、前記現在のデータセットに属する画素点を3次元空間にマッピングし、第1の3次元マッチングポイントを取得し、前記マッチング画素点対のうち、前記候補データセットに属する画素点を前記3次元空間にマッピングして、第2の3次元マッチングポイントを取得するように構成される3次元空間マッピング部と、
前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントとを位置合わせして、前記空間変換パラメータを取得するように構成される3次元マッチングポイント位置合わせ部と、を備える
項目17に記載の3次元再構成装置。
(項目20)
3次元マッチングポイント位置合わせ部は、
前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントとの第1のポーズ変換パラメータを取得するように構成される第1のポーズ変換パラメータサブ部と、
前記第1のポーズ変換パラメータと所定のポーズ変換パラメータを使用して、前記第1の3次元マッチングポイントに対してポーズ最適化を実行して、第1の最適化マッチングポイントと第2の最適化マッチングポイントとをそれぞれ取得するように構成される3次元マッチングポイント最適化サブ部と、
前記第2の3次元マッチングポイントと、前記第1の最適化マッチングポイントおよび前記第2の最適化マッチングポイントとのそれぞれの一致度を計算し、前記一致度の高い最適化マッチングポイントが使用するポーズ変換パラメータを第2のポーズ変換パラメータとして選択するように構成される第2のポーズ変換パラメータサブ部と、
前記第2のポーズ変換パラメータを初期値とし、所定の位置合わせ方式によって前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントとを位置合わせして、前記現在のデータセットと前記候補データセットとの空間変換パラメータを取得するように構成される空間変換パラメータサブ部と、を備える
項目19に記載の3次元再構成装置。
(項目21)
前記空間変換パラメータサブ部は、
前記現在のデータセットの画像データと前記候補データセットの画像データを使用して、前記現在のデータセットと前記候補データセットとの空間変換パラメータを決定した後、及び少なくとも前記候補データセットのポーズ最適化パラメータ、及び前記現在のデータセットと前記候補データセットとの空間変換パラメータを使用して、前記現在のデータセットのポーズ最適化パラメータを取得する前に、前記現在のデータセットと各前記候補データセットとの空間変換パラメータから、所定のパラメータスクリーニング条件を満たす空間変換パラメータを選択するように構成される変換パラメータスクリーニングユニットをさらに備え、
前記所定のパラメータスクリーニング条件は、前記空間変換パラメータに関連する前記候補データセットが前記現在のデータセットと隣接すること、前記空間変換パラメータを使用して、前記第1の3次元マッチングポイントをポーズ最適化することにより得られた最適化マッチングポイントと、前記第2の3次元マッチングポイントとの一致度が所定の一致度閾値より大きいことのいずれか1つを含む
項目19に記載の3次元再構成装置。
(項目22)
前記データセット選択サブ部は、
前記現在のデータセット及び時系列がその前に配置されているデータセットの画像データの所定の画像特徴を使用して、Bag of Wordsモデルを構築するように構成されるBag of Wordsモデル構築部と、
属する処理待ち画像の前記現在のデータセットの所定の時系列に位置する画像データをマッチング待ち画像データとして選択するように構成されるマッチング待ち画像データユニットと、
前記Bag of Wordsモデルの所定の範囲から、前記マッチング待ち画像データの所定の画像特徴との類似度スコアが所定の類似度閾値より大きい所定の画像特徴をクエリするように構成される画像特徴クエリユニットと、
クエリされた所定の画像特徴の属する画像データが所在するデータセット、及び前記現在のデータセットと隣接するデータセットを前記候補データセットとして使用するように構成される候補データセットユニットと、を備え、
前記所定の範囲は、属するデータセットが前記現在のデータセットと隣接せず、且つ前記現在のデータセットに含まれない画像データの所定の画像特徴を含む
項目16に記載の3次元再構成装置。
(項目23)
前記データセット選択サブ部は、
前記Bag of Wordsモデルの所定の範囲から、前記マッチング待ち画像データの所定の画像特徴との類似度スコアが所定の類似度閾値より大きい所定の画像特徴をクエリする前に、前記現在のデータセットと隣接するデータセットにおける各前記画像データと前記マッチング待ち画像データとの類似度スコアのうちの最大スコア値を取得するように構成される最大類似度スコア値取得ユニットと、
前記最大スコア値の所定の倍数と所定のスコア値のいずれか1つを所定の類似度閾値として使用するように構成される所定の類似度閾値決定ユニットと、をさらに備える
項目22に記載の3次元再構成装置。
(項目24)
前記データ分割部は、
前記処理待ち画像の各フレームを現在の処理待ち画像として順次使用するように構成される現在処理待ち画像決定サブ部と、
現在の処理待ち画像の画像データを分割する場合、既存の前記データセットの最後のデータセットが所定のオーバーフロー条件を満たすと、前記最後のデータセットにおける最新の複数のフレームの前記処理待ち画像の画像データを取得し、新しい前記最後のデータセットとして新しく作成された前記データセットに記憶し、前記現在の処理待ち画像の画像データを新しい前記最後のデータセットに分割するように構成されるデータ処理サブ部と、を備える
項目16に記載の3次元再構成装置。
(項目25)
前記所定のオーバーフロー条件は、
前記最後のデータセットに含まれる前記画像データに対応する前記処理待ち画像のフレーム数が所定のフレーム数閾値より大きいか等しいこと、前記最後のデータセットのいずれかの前記画像データが属する処理待ち画像のカメラ位置と前記現在の処理待ち画像のカメラ位置との距離が所定の距離閾値より大きいこと、前記最後のデータセットのいずれかの前記画像データが属する処理待ち画像のカメラ向き角度と前記現在の処理待ち画像のカメラ向き角度との差が所定の角度閾値より大きいことのいずれか1つを含み、
前記カメラ位置と前記カメラ向き角度は、前記処理待ち画像のカメラポーズパラメータを使用して計算されるものである
項目24に記載の3次元再構成装置。
(項目26)
前記処理待ち画像の各フレームは、カラーデータと深度データとを含み、第1の決定部は、
前記カラーデータとの位置合わせ後の深度データに含まれる各画素点の法線ベクトルと、前記処理待ち画像の重力方向との夾角を取得するように構成される夾角取得サブ部と、
前記各画素点を3次元空間で前記重力方向に投影し、前記3次元空間における前記各画素点の高さの値を取得するように構成される高さ取得サブ部と、
前記夾角が所定の角度条件を満たす画素点の高さの値を分析して、前記再構成待ち目標の平面高さを取得するように構成される高さ分析サブ部と、
前記平面高さによって前記カラーデータにおける前記再構成待ち物体に属する目標画素点をスクリーニングするように構成される画素スクリーニングサブ部と、を備える
項目16-26のいずれか一項に記載の3次元再構成装置。
(項目27)
前記高さ分析サブ部は、
前記夾角が所定の角度条件を満たす前記画素点の高さの値を高さセットとして使用するように構成される高さセット取得ユニットと、
前記高さセット内の高さの値に対してクラスタ分析を実行して、前記再構成待ち目標の平面高さを取得するように構成される高さクラスタ分析ユニットと、を備える
項目26に記載の3次元再構成装置。
(項目28)
前記3次元再構成装置は、
各前記データセットの画像データを3次元空間に順次マッピングして、各前記データセットに対応する3次元ポイントクラウドを取得するように構成される3次元マッピング部と、
各前記データセットの前記ポーズ最適化パラメータを使用して、それに対応する前記3次元ポイントクラウドを調整するように構成されるポイントクラウド調整部と、をさらに備える
項目16-27のいずれか一項に記載の3次元再構成装置。
(項目29)
3次元再構成に基づくインタラクション装置であって、
再構成待ち目標の3次元モデルを取得するように構成され、前記3次元モデルは、項目16に記載の3次元再構成装置により得られるモデル取得部と、
所定の視覚慣性ナビゲーション方式により、撮影デバイスが配置されているシーンの3次元地図を構築し、3次元地図における前記撮影デバイスの現在のポーズ情報を取得するように構成されるマッピング及び位置決め部と、
前記ポーズ情報に基づいて、前記撮影デバイスによって現在撮影されているシーン画像に前記3次元モデルを表示するように構成される表示インタラクション部と、を備える、3次元再構成に基づくインタラクション装置。
(項目30)
3次元再構成に基づく測定装置であって、
再構成待ち目標の3次元モデルを取得するように構成され、前記3次元モデルは、項目16に記載の3次元再構成装置により得られるモデル取得部と、
ユーザが前記3次元モデルで設定した複数の測定ポイントを受信するように構成される表示インタラクション部と、
前記複数の測定ポイントの間の距離を取得して、前記再構成待ち目標上の前記複数の測定ポイントに対応する位置の間の距離を取得するように構成される距離取得部と、を備える、3次元再構成に基づく測定装置。
(項目31)
電子機器であって、
互いに結合されたメモリ及びプロセッサを備え、前記プロセッサは、項目1-13のいずれか一項に記載の3次元再構成方法を実現し、又は項目14に記載の3次元再構成に基づくインタラクション方法を実現し、又は項目15に記載の3次元再構成に基づく測定方法を実現するために、前記メモリに記憶されたプログラム命令を実行するように構成される、電子機器。
(項目32)
プログラム命令を記憶するコンピュータ可読記憶媒体であって、前記プログラム命令がプロセッサに実行されると、項目1-13のいずれか一項に記載の3次元再構成方法を実現し、又は項目14に記載の3次元再構成に基づくインタラクション方法を実現し、又は項目15に記載の3次元再構成に基づく測定方法を実現する、コンピュータ可読記憶媒体。
(項目33)
コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器で動作し、前記電子機器のプロセッサに実行される場合、項目1-13のいずれか一項に記載の3次元再構成方法を実現し、又は項目14に記載の3次元再構成に基づくインタラクション方法を実現し、又は項目15に記載の3次元再構成に基づく測定方法を実現する、コンピュータプログラム。
(項目34)
コンピュータで動作する場合、コンピュータに項目1-13のいずれか一項に記載の3次元再構成方法を実行させ、又は項目14に記載の3次元再構成に基づくインタラクション方法を実行させ、又は項目15に記載の3次元再構成に基づく測定方法を実行させる、コンピュータプログラム製品。
In the above solution, the pose optimization parameters of each dataset may be determined based on the pose parameters of the dataset before it, and thus the pose optimization parameters of each dataset are used to When adjusting the camera pose parameters of the pending image to which the included image data belongs, it is useful to eliminate errors in the camera pose parameters accumulated during the scanning process, so after adjusting the predetermined 3D reconstruction method and the pending image. The reconstruction process is performed on the image data of the image to be processed using the camera pose parameters of By eliminating errors in camera pose parameters, the amount of calculation can be reduced, which helps reduce the calculation load.
For example, this application provides the following items:
(Item 1)
A three-dimensional reconstruction method,
acquiring a plurality of frames of images to be processed obtained by the imaging device scanning the target to be reconstructed;
determining a target pixel point and its camera pose parameters for each frame of the pending image belonging to the reconstruction target using each frame of the pending image and a calibration parameter of the imaging device;
Sequentially dividing the image data of each frame of the image to be processed into corresponding data sets according to a predetermined division policy, the image data including at least the target pixel point;
determining pose optimization parameters for each said data set using image data of each said data set and image data and pose optimization parameters of a data set before which the time series is placed in sequence;
adjusting camera pose parameters of the image to be processed to which image data included in the dataset belongs, using pose optimization parameters of each dataset;
Using a predetermined three-dimensional reconstruction method and the adjusted camera pose parameters of the image to be processed, a reconstruction process is executed on the image data of the image to be processed, and the three-dimensional image of the target to be reconstructed is A three-dimensional reconstruction method, comprising: obtaining a model.
(Item 2)
Determining pose optimization parameters for each of the datasets by sequentially using the image data of each of the datasets and the image data and pose optimization parameters of a dataset before which the time series is arranged. ,
using each said data set in turn as a current data set and selecting at least one data set whose time series is placed before said current data set as a candidate data set;
determining spatial transformation parameters between the current dataset and the candidate dataset using image data of the current dataset and image data of the candidate dataset;
obtaining pose optimization parameters for the current dataset using at least pose optimization parameters of the candidate dataset and spatial transformation parameters between the current dataset and the candidate dataset; updating pose optimization parameters of the set;
The three-dimensional reconstruction method described in item 1.
(Item 3)
obtaining pose optimization parameters for the current dataset using the pose optimization parameters of the at least the candidate dataset and spatial transformation parameters between the current dataset and the candidate dataset; Updating pose optimization parameters for a dataset is
using as a dataset pair two datasets corresponding to each spatial transformation parameter respectively associated with the current dataset and the candidate dataset before which the time series is placed;
constructing an objective function for the pose optimization parameters using the spatial transformation parameters of each of the dataset pairs and the respective pose optimization parameters;
Solving the objective function by a predetermined solution method to obtain pose optimization parameters for datasets included in the current dataset and datasets corresponding to each of the candidate datasets before which the time series is placed. to do and include
The three-dimensional reconstruction method described in item 2.
(Item 4)
Determining spatial transformation parameters between the current dataset and the candidate dataset using image data of the current dataset and image data of the candidate dataset,
searching for a group of matching-waiting image data that satisfies a predetermined matching condition within the candidate data set and the current data set;
Obtaining matching pixel point pairs between the matching image data of each group based on predetermined image features extracted from the matching image data of each group;
Among the matching pixel point pairs, pixel points belonging to the current dataset are mapped to a three-dimensional space to obtain a first three-dimensional matching point, and among the matching pixel point pairs, pixel points belonging to the candidate dataset are mapped. mapping pixel points to the three-dimensional space to obtain second three-dimensional matching points;
aligning the first three-dimensional matching point and the second three-dimensional matching point to obtain the spatial transformation parameter;
The three-dimensional reconstruction method described in item 2.
(Item 5)
Aligning the first three-dimensional matching point and the second three-dimensional matching point to obtain the spatial transformation parameter,
obtaining a first pose transformation parameter between the first three-dimensional matching point and the second three-dimensional matching point;
Pose optimization is performed on the first three-dimensional matching point using the first pose transformation parameter and a predetermined pose transformation parameter, and the first optimized matching point and the second optimized matching point are and obtaining matching points, respectively.
The degree of coincidence between the second three-dimensional matching point and the first optimization matching point and the second optimization matching point is calculated, and the pose used by the optimization matching point with a high degree of coincidence is calculated. selecting the transformation parameter as a second pose transformation parameter;
The first three-dimensional matching point and the second three-dimensional matching point are aligned using a predetermined alignment method using the second pose transformation parameter as an initial value, and the current data set and the candidate data are aligned. retrieving the spatial transformation parameters with the set;
The three-dimensional reconstruction method described in item 4.
(Item 6)
After determining spatial transformation parameters between the current dataset and the candidate dataset using image data of the current dataset and image data of the candidate dataset, and at least a pose optimization of the candidate dataset. Before obtaining pose optimization parameters of the current dataset using a transformation parameter and a spatial transformation parameter of the current dataset and the candidate dataset, the three-dimensional reconstruction method comprises:
further comprising selecting a spatial transformation parameter that satisfies a predetermined parameter screening condition from spatial transformation parameters of the current data set and each of the candidate data sets;
The predetermined parameter screening condition includes: the candidate dataset associated with the spatial transformation parameter is adjacent to the current dataset, and the spatial transformation parameter is used to pose the first three-dimensional matching point. The matching degree between the optimized matching point obtained by the above-mentioned second three-dimensional matching point and the second three-dimensional matching point is greater than a predetermined matching degree threshold.
The three-dimensional reconstruction method described in item 4.
(Item 7)
Selecting at least one dataset whose time series is placed before the current dataset as a candidate dataset, comprising:
building a Bag of Words model using predetermined image features of the image data of the current dataset and the dataset before which the time series is placed;
selecting image data of an image to be processed that is located in a predetermined time series in the current data set as image data to be matched;
querying a predetermined range of the Bag of Words model for a predetermined image feature whose similarity score with the predetermined image feature of the image data awaiting matching is greater than a predetermined similarity threshold;
using a dataset in which the image data to which the queried predetermined image feature belongs is located, and a dataset adjacent to the current dataset as the candidate dataset;
The predetermined range includes predetermined image features of image data to which a dataset to which it belongs is not adjacent to the current dataset and is not included in the current dataset.
The three-dimensional reconstruction method described in item 2.
(Item 8)
before querying a predetermined image feature from a predetermined range of the Bag of Words model, the predetermined image feature having a similarity score with the predetermined image feature of the image data waiting for matching is greater than a predetermined similarity threshold; teeth,
obtaining a maximum score value of similarity scores between each of the image data and the matching waiting image data in the current data set and adjacent data sets;
further comprising using one of a predetermined multiple of the maximum score value and a predetermined score value as a predetermined similarity threshold.
The three-dimensional reconstruction method described in item 7.
(Item 9)
Sequentially dividing the image data of each frame of the image to be processed into corresponding data sets according to the predetermined division policy,
sequentially using each frame of the image to be processed as the current image to be processed;
When dividing the image data of the current image to be processed, when the last data set of the existing data set satisfies a predetermined overflow condition, the image data of the image to be processed of the latest frames in the last data set is divided. acquiring and storing data in the newly created dataset as a new final dataset, and dividing image data of the current pending image into the new final dataset.
The three-dimensional reconstruction method described in item 1.
(Item 10)
The predetermined overflow condition is:
The number of frames of the image to be processed corresponding to the image data included in the last data set is greater than or equal to a predetermined frame number threshold, and the image to be processed to which any of the image data in the last data set belongs and the camera position of the current image to be processed is greater than a predetermined distance threshold, and the camera orientation angle of the image to be processed to which any of the image data of the last data set belongs and the current The difference from the camera orientation angle of the image to be processed is greater than a predetermined angle threshold;
The camera position and camera orientation angle are calculated using camera pose parameters of the image to be processed.
The three-dimensional reconstruction method described in item 9.
(Item 11)
Each frame of the image to be processed includes color data and depth data, and each frame of the image to be processed and the calibration parameters of the imaging device are used to calculate the image of the image to be processed that belongs to the target to be reconstructed. Determining the target pixel point for each frame is
obtaining an included angle between the normal vector of each pixel point included in the depth data after alignment with the color data and the gravitational direction of the image to be processed;
Projecting each of the pixel points in the three-dimensional space in the direction of gravity to obtain a height value of each of the pixel points in the three-dimensional space;
analyzing a height value of a pixel point whose included angle satisfies a predetermined angle condition to obtain a planar height of the target awaiting reconstruction;
using the planar height to screen target pixel points belonging to the object to be reconstructed in the color data;
The three-dimensional reconstruction method according to any one of items 1-10.
(Item 12)
Analyzing the height value of a pixel point whose included angle satisfies a predetermined angle condition to obtain the planar height of the target awaiting reconstruction,
using the height values of the pixel points whose included angle satisfies a predetermined angle condition as a height set;
performing a cluster analysis on the height values in the height set to obtain a planar height of the reconfiguration target.
The three-dimensional reconstruction method described in item 11.
(Item 13)
After determining pose optimization parameters for each of the datasets using sequentially the image data of each of the datasets and the image data and pose optimization parameters of the dataset whose time series is placed before it; The three-dimensional reconstruction method includes:
sequentially mapping the image data of each of the datasets into a three-dimensional space to obtain a three-dimensional point cloud corresponding to each of the datasets;
further comprising using the pose optimization parameters of each of the datasets to adjust the corresponding three-dimensional point cloud.
The three-dimensional reconstruction method according to any one of items 1-12.
(Item 14)
An interaction method based on three-dimensional reconstruction, comprising:
Obtaining a three-dimensional model of a target awaiting reconstruction, the three-dimensional model being obtained using the three-dimensional reconstruction method described in any one of items 1-13. and,
constructing a three-dimensional map of the scene in which the photographing device is located using a predetermined visual-inertial navigation method, and obtaining current pose information of the photographing device in the three-dimensional map;
Displaying the three-dimensional model in a scene image currently being captured by the imaging device based on the pose information, the interaction method based on the three-dimensional reconstruction.
(Item 15)
A measurement method based on three-dimensional reconstruction, comprising:
Obtaining a three-dimensional model of a target awaiting reconstruction, the three-dimensional model being obtained using the three-dimensional reconstruction method described in any one of items 1-13. and,
receiving multiple measurement points set by the user in the 3D model;
and obtaining distances between the plurality of measurement points to obtain distances between positions corresponding to the plurality of measurement points on the target awaiting reconstruction. Measuring method.
(Item 16)
A three-dimensional reconstruction device,
an image acquisition unit configured to acquire a plurality of frames of pending images obtained by scanning the reconstruction target with the imaging device;
configured to use each frame of the pending image and a calibration parameter of the imaging device to determine a target pixel point of each frame of the pending image belonging to the reconstruction target and its camera pose parameters; a first deciding section;
A data division unit configured to sequentially divide image data of each frame of the image to be processed into corresponding data sets according to a predetermined division policy, wherein the image data includes at least data including the target pixel point. A dividing part,
configured to sequentially use the image data of each said dataset and the image data and pose optimization parameters of the dataset before which the time series is placed to determine pose optimization parameters for each said dataset; a second determining unit,
a parameter adjustment unit configured to use pose optimization parameters of each of the datasets to adjust camera pose parameters of a pending image to which image data included in the dataset belongs;
Using a predetermined three-dimensional reconstruction method and the adjusted camera pose parameters of the image to be processed, a reconstruction process is executed on the image data of the image to be processed, and the three-dimensional image of the target to be reconstructed is The three-dimensional reconstruction device, comprising: a model reconstruction unit configured to obtain a model.
(Item 17)
The second determining unit is
a dataset selection sub configured to sequentially use each said dataset as a current dataset and select at least one dataset whose time series is placed before said current dataset as a candidate dataset; Department and
a spatial transformation parameter sub-unit configured to determine spatial transformation parameters between the current dataset and the candidate dataset using image data of the current dataset and image data of the candidate dataset; ,
obtaining pose optimization parameters for the current dataset using at least pose optimization parameters of the candidate dataset and spatial transformation parameters between the current dataset and the candidate dataset; a pose optimization parameter sub-portion configured to update pose optimization parameters of the set;
The three-dimensional reconstruction device according to item 16.
(Item 18)
The pose optimization parameter sub-section includes:
a dataset configured to use as a dataset pair two datasets corresponding to each spatial transformation parameter respectively associated with the current dataset and the candidate dataset before which the time series is placed; Pair part and
an objective function construction unit configured to construct an objective function regarding the pose optimization parameters using the spatial transformation parameters of each of the dataset pairs and the respective pose optimization parameters;
Solving the objective function by a predetermined solution method to obtain pose optimization parameters for datasets included in the current dataset and datasets corresponding to each of the candidate datasets before which the time series is placed. an objective function solver configured to
The three-dimensional reconstruction device according to item 17.
(Item 19)
The spatial transformation parameter sub-section is
an image data search unit configured to search for one group of matching-waiting image data that satisfies a predetermined matching condition within the candidate data set and the current data set;
a matching pixel point selection unit configured to obtain matching pixel point pairs between the matching image data of each group based on predetermined image features extracted from the matching image data of each group;
Among the matching pixel point pairs, pixel points belonging to the current dataset are mapped to a three-dimensional space to obtain a first three-dimensional matching point, and among the matching pixel point pairs, pixel points belonging to the candidate dataset are mapped. a three-dimensional space mapping unit configured to map pixel points onto the three-dimensional space to obtain second three-dimensional matching points;
a three-dimensional matching point alignment unit configured to align the first three-dimensional matching point and the second three-dimensional matching point to obtain the spatial transformation parameter.
The three-dimensional reconstruction device according to item 17.
(Item 20)
The three-dimensional matching point alignment section is
a first pose transformation parameter sub-unit configured to obtain a first pose transformation parameter between the first three-dimensional matching point and the second three-dimensional matching point;
Pose optimization is performed on the first three-dimensional matching point using the first pose transformation parameter and a predetermined pose transformation parameter, and the first optimized matching point and the second optimized matching point are a three-dimensional matching point optimization sub-unit configured to obtain the matching points, respectively;
The degree of coincidence between the second three-dimensional matching point and the first optimization matching point and the second optimization matching point is calculated, and the pose used by the optimization matching point with a high degree of coincidence is calculated. a second pose transformation parameter sub-section configured to select the transformation parameter as a second pose transformation parameter;
The first three-dimensional matching point and the second three-dimensional matching point are aligned using a predetermined alignment method using the second pose transformation parameter as an initial value, and the current data set and the candidate are aligned. a spatial transformation parameter sub-portion configured to obtain spatial transformation parameters with the dataset;
The three-dimensional reconstruction device according to item 19.
(Item 21)
The spatial transformation parameter sub-section is
After determining spatial transformation parameters between the current dataset and the candidate dataset using image data of the current dataset and image data of the candidate dataset, and at least a pose optimization of the candidate dataset. the current dataset and each candidate data set before obtaining pose optimization parameters for the current dataset using spatial transformation parameters between the current dataset and the candidate dataset. further comprising a transformation parameter screening unit configured to select from the set of spatial transformation parameters a spatial transformation parameter that satisfies a predetermined parameter screening condition;
The predetermined parameter screening condition includes: the candidate dataset associated with the spatial transformation parameter is adjacent to the current dataset, and the spatial transformation parameter is used to pose the first three-dimensional matching point. The matching degree between the optimized matching point obtained by the above-mentioned second three-dimensional matching point and the second three-dimensional matching point is greater than a predetermined matching degree threshold.
The three-dimensional reconstruction device according to item 19.
(Item 22)
The data set selection sub-unit includes:
a Bag of Words model builder configured to build a Bag of Words model using predetermined image features of the image data of the current dataset and the dataset before which the time series is placed; ,
a matching pending image data unit configured to select image data located in a predetermined time series of the current dataset of pending processing images to which it belongs as matching pending image data;
an image feature query unit configured to query, from a predetermined range of the Bag of Words model, a predetermined image feature whose similarity score with a predetermined image feature of the image data awaiting matching is greater than a predetermined similarity threshold; and,
a dataset in which the image data to which the queried predetermined image feature belongs is located, and a candidate dataset unit configured to use a dataset adjacent to the current dataset as the candidate dataset;
The predetermined range includes predetermined image features of image data to which a dataset to which it belongs is not adjacent to the current dataset and is not included in the current dataset.
The three-dimensional reconstruction device according to item 16.
(Item 23)
The data set selection sub-unit includes:
From the predetermined range of the Bag of Words model, before querying for a predetermined image feature whose similarity score with the predetermined image feature of the image data to be matched is greater than a predetermined similarity threshold, a maximum similarity score value obtaining unit configured to obtain a maximum score value of similarity scores between each of the image data and the matching-waiting image data in adjacent data sets;
further comprising a predetermined similarity threshold determination unit configured to use either one of the predetermined multiple of the maximum score value and the predetermined score value as a predetermined similarity threshold.
The three-dimensional reconstruction device according to item 22.
(Item 24)
The data division section is
a current pending image determining sub-unit configured to sequentially use each frame of the pending image as a current pending image;
When dividing the image data of the current image to be processed, when the last data set of the existing data set satisfies a predetermined overflow condition, the image data of the image to be processed of the latest frames in the last data set is divided. a data processing subsystem configured to obtain and store data in the newly created dataset as a new final dataset, and to divide image data of the current pending image into a new final dataset; comprising a section and
The three-dimensional reconstruction device according to item 16.
(Item 25)
The predetermined overflow condition is:
The number of frames of the image to be processed corresponding to the image data included in the last data set is greater than or equal to a predetermined frame number threshold, and the image to be processed to which any of the image data in the last data set belongs and the camera position of the current image to be processed is greater than a predetermined distance threshold, and the camera orientation angle of the image to be processed to which any of the image data of the last data set belongs and the current The difference from the camera orientation angle of the image to be processed is greater than a predetermined angle threshold;
The camera position and camera orientation angle are calculated using camera pose parameters of the image to be processed.
The three-dimensional reconstruction device according to item 24.
(Item 26)
Each frame of the image to be processed includes color data and depth data, and the first determining unit:
an included angle acquisition sub-unit configured to obtain an included angle between a normal vector of each pixel point included in the depth data after alignment with the color data and a gravitational direction of the image to be processed;
a height acquisition sub-unit configured to project each pixel point in a three-dimensional space in the direction of gravity and obtain a height value of each pixel point in the three-dimensional space;
a height analysis sub-unit configured to analyze a height value of a pixel point whose included angle satisfies a predetermined angle condition to obtain a planar height of the target to be reconstructed;
a pixel screening sub-unit configured to screen target pixel points belonging to the object to be reconstructed in the color data according to the planar height;
The three-dimensional reconstruction device according to any one of items 16-26.
(Item 27)
The height analysis sub-section is
a height set acquisition unit configured to use, as a height set, a height value of the pixel point whose included angle satisfies a predetermined angle condition;
a height cluster analysis unit configured to perform cluster analysis on the height values in the height set to obtain a planar height of the reconfiguration target.
The three-dimensional reconstruction device according to item 26.
(Item 28)
The three-dimensional reconstruction device includes:
a three-dimensional mapping unit configured to sequentially map image data of each of the datasets onto a three-dimensional space to obtain a three-dimensional point cloud corresponding to each of the datasets;
further comprising a point cloud adjustment unit configured to use the pose optimization parameters of each of the data sets to adjust the corresponding three-dimensional point cloud.
The three-dimensional reconstruction device according to any one of items 16-27.
(Item 29)
An interaction device based on three-dimensional reconstruction,
a model acquisition unit configured to acquire a three-dimensional model of a target awaiting reconstruction, wherein the three-dimensional model is obtained by the three-dimensional reconstruction device according to item 16;
a mapping and positioning unit configured to construct a three-dimensional map of the scene in which the photographing device is placed according to a predetermined visual-inertial navigation scheme and obtain current pose information of the photographing device in the three-dimensional map;
an interaction device based on three-dimensional reconstruction, comprising: a display interaction unit configured to display the three-dimensional model on a scene image currently being photographed by the photographing device based on the pose information.
(Item 30)
A measurement device based on three-dimensional reconstruction, comprising:
a model acquisition unit configured to acquire a three-dimensional model of a target awaiting reconstruction, wherein the three-dimensional model is obtained by the three-dimensional reconstruction device according to item 16;
a display interaction unit configured to receive a plurality of measurement points set by a user on the three-dimensional model;
a distance acquisition unit configured to obtain distances between the plurality of measurement points and obtain distances between positions corresponding to the plurality of measurement points on the target awaiting reconstruction; Measurement device based on three-dimensional reconstruction.
(Item 31)
An electronic device,
comprising a memory and a processor coupled to each other, the processor realizing the three-dimensional reconstruction method according to any one of items 1-13, or implementing the three-dimensional reconstruction-based interaction method according to item 14. Electronic equipment configured to execute program instructions stored in said memory in order to realize or realize the three-dimensional reconstruction-based measurement method according to item 15.
(Item 32)
A computer-readable storage medium storing program instructions, the program instructions, when executed by a processor, realizing the three-dimensional reconstruction method according to any one of items 1-13, or implementing the three-dimensional reconstruction method according to item 14. A computer-readable storage medium that implements the interaction method based on three-dimensional reconstruction according to item 15 or the measurement method based on three-dimensional reconstruction according to item 15.
(Item 33)
comprising a computer readable code, said computer readable code being operative in an electronic device and implementing a three-dimensional reconstruction method according to any one of items 1-13, when executed by a processor of said electronic device, or A computer program that implements the interaction method based on three-dimensional reconstruction described in item 14 or the measurement method based on three-dimensional reconstruction described in item 15.
(Item 34)
When operating on a computer, cause the computer to execute the three-dimensional reconstruction method described in any one of items 1-13, or to execute the interaction method based on three-dimensional reconstruction described in item 14, or to cause the computer to execute the interaction method based on three-dimensional reconstruction described in item 15. A computer program product that causes the three-dimensional reconstruction-based measurement method described in .

Claims (34)

3次元再構成方法であって、
撮影デバイスが再構成待ち目標をスキャンすることにより得られた複数のフレームの処理待ち画像を取得することと、
前記処理待ち画像の各フレームと前記撮影デバイスのキャリブレーションパラメータを使用して、前記再構成待ち目標に属する前記処理待ち画像の各フレームの目標画素点及びそのカメラポーズパラメータを決定することと、
所定の分割ポリシーに従って、前記処理待ち画像の各フレームの画像データを対応するデータセットに順次分割することであって、前記画像データは少なくとも、前記目標画素点を含むことと、
各前記データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データとポーズ最適化パラメータを順次使用して、各前記データセットのポーズ最適化パラメータを決定することと、
各前記データセットのポーズ最適化パラメータを使用して、前記データセットに含まれる画像データの属する前記処理待ち画像のカメラポーズパラメータを調整することと、
所定の3次元再構成方式及び前記処理待ち画像の調整後のカメラポーズパラメータを使用して、前記処理待ち画像の画像データに対して再構成処理を実行して、前記再構成待ち目標の3次元モデルを取得することと、を含む、3次元再構成方法。
A three-dimensional reconstruction method,
acquiring a plurality of frames of images to be processed obtained by the imaging device scanning the target to be reconstructed;
determining a target pixel point and its camera pose parameters for each frame of the pending image belonging to the reconstruction target using each frame of the pending image and a calibration parameter of the imaging device;
Sequentially dividing the image data of each frame of the image to be processed into corresponding data sets according to a predetermined division policy, the image data including at least the target pixel point;
determining pose optimization parameters for each said data set using image data of each said data set and image data and pose optimization parameters of a data set before which the time series is placed in sequence;
adjusting camera pose parameters of the image to be processed to which image data included in the dataset belongs, using pose optimization parameters of each dataset;
Using a predetermined three-dimensional reconstruction method and the adjusted camera pose parameters of the image to be processed, a reconstruction process is executed on the image data of the image to be processed, and the three-dimensional image of the target to be reconstructed is A three-dimensional reconstruction method, comprising: obtaining a model.
前記各前記データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データとポーズ最適化パラメータを順次使用して、各前記データセットのポーズ最適化パラメータを決定することは、
各前記データセットを現在のデータセットとして順次使用し、時系列が前記現在のデータセットの前に配置されている少なくとも1つのデータセットを候補データセットとして選択することと、
前記現在のデータセットの画像データと前記候補データセットの画像データを使用して、前記現在のデータセットと前記候補データセットとの空間変換パラメータを決定することと、
少なくとも前記候補データセットのポーズ最適化パラメータ、及び前記現在のデータセットと前記候補データセットとの空間変換パラメータを使用して、前記現在のデータセットのポーズ最適化パラメータを取得し、少なくとも前記候補データセットのポーズ最適化パラメータを更新することと、を含む
請求項1に記載の3次元再構成方法。
Determining pose optimization parameters for each of the datasets by sequentially using the image data of each of the datasets and the image data and pose optimization parameters of a dataset before which the time series is arranged. ,
using each said data set in turn as a current data set and selecting at least one data set whose time series is placed before said current data set as a candidate data set;
determining spatial transformation parameters between the current dataset and the candidate dataset using image data of the current dataset and image data of the candidate dataset;
obtaining pose optimization parameters for the current dataset using at least pose optimization parameters of the candidate dataset and spatial transformation parameters between the current dataset and the candidate dataset; The three-dimensional reconstruction method of claim 1, comprising: updating a set of pose optimization parameters.
前記少なくとも前記候補データセットのポーズ最適化パラメータ、及び前記現在のデータセットと前記候補データセットとの空間変換パラメータを使用して、前記現在のデータセットのポーズ最適化パラメータを取得し、少なくとも前記候補データセットのポーズ最適化パラメータを更新することは、
前記現在のデータセット及び時系列がその前に配置されている前記候補データセットにそれぞれ関連付けられた各空間変換パラメータに対応する2つのデータセットをデータセットペアとして使用することと、
各前記データセットペアの空間変換パラメータ、及びそれぞれのポーズ最適化パラメータを使用して、前記ポーズ最適化パラメータに関する目標関数を構築することと、
所定の解法によって前記目標関数を解いて、前記現在のデータセット及び時系列がその前に配置されている前記候補データセットのそれぞれに対応するデータセットに含まれるデータセットのポーズ最適化パラメータを取得することと、を含む
請求項2に記載の3次元再構成方法。
obtaining pose optimization parameters for the current dataset using the pose optimization parameters of the at least the candidate dataset and spatial transformation parameters between the current dataset and the candidate dataset; Updating pose optimization parameters for a dataset is
using as a dataset pair two datasets corresponding to each spatial transformation parameter respectively associated with the current dataset and the candidate dataset before which the time series is placed;
constructing an objective function for the pose optimization parameters using the spatial transformation parameters of each of the dataset pairs and the respective pose optimization parameters;
Solving the objective function by a predetermined solution method to obtain pose optimization parameters for datasets included in the current dataset and datasets corresponding to each of the candidate datasets before which the time series is placed. The three-dimensional reconstruction method according to claim 2, comprising:
前記現在のデータセットの画像データと前記候補データセットの画像データを使用して、前記現在のデータセットと前記候補データセットとの空間変換パラメータを決定することは、
前記候補データセットと前記現在のデータセット内で、所定のマッチング条件を満たす1グループのマッチング待ち画像データを検索することと、
各グループの前記マッチング待ち画像データから抽出された、所定の画像特徴に基づいて、各グループの前記マッチング待ち画像データ間のマッチング画素点対を取得することと、
前記マッチング画素点対のうち、前記現在のデータセットに属する画素点を3次元空間にマッピングし、第1の3次元マッチングポイントを取得し、前記マッチング画素点対のうち、前記候補データセットに属する画素点を前記3次元空間にマッピングして、第2の3次元マッチングポイントを取得することと、
前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントとを位置合わせして、前記空間変換パラメータを取得することと、を含む
請求項2に記載の3次元再構成方法。
Determining spatial transformation parameters between the current dataset and the candidate dataset using image data of the current dataset and image data of the candidate dataset,
searching for a group of matching-waiting image data that satisfies a predetermined matching condition within the candidate data set and the current data set;
Obtaining matching pixel point pairs between the matching image data of each group based on predetermined image features extracted from the matching image data of each group;
Among the matching pixel point pairs, pixel points belonging to the current dataset are mapped to a three-dimensional space to obtain a first three-dimensional matching point, and among the matching pixel point pairs, pixel points belonging to the candidate dataset are mapped. mapping pixel points to the three-dimensional space to obtain second three-dimensional matching points;
The three-dimensional reconstruction method according to claim 2, comprising: aligning the first three-dimensional matching point and the second three-dimensional matching point to obtain the spatial transformation parameter.
前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントとを位置合わせして、前記空間変換パラメータを取得することは、
前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントとの第1のポーズ変換パラメータを取得することと、
前記第1のポーズ変換パラメータと所定のポーズ変換パラメータを使用して、前記第1の3次元マッチングポイントに対してポーズ最適化を実行して、第1の最適化マッチングポイントと第2の最適化マッチングポイントとをそれぞれ取得することと、
前記第2の3次元マッチングポイントと、前記第1の最適化マッチングポイントおよび前記第2の最適化マッチングポイントとのそれぞれの一致度を計算し、前記一致度の高い最適化マッチングポイントが使用するポーズ変換パラメータを第2のポーズ変換パラメータとして選択することと、
前記第2のポーズ変換パラメータを初期値とし、所定の位置合わせ方式によって前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントを位置合わせして、前記現在のデータセットと前記候補データセットとの空間変換パラメータを取得することと、を含む
請求項4に記載の3次元再構成方法。
Aligning the first three-dimensional matching point and the second three-dimensional matching point to obtain the spatial transformation parameter,
obtaining a first pose transformation parameter between the first three-dimensional matching point and the second three-dimensional matching point;
Pose optimization is performed on the first three-dimensional matching point using the first pose transformation parameter and a predetermined pose transformation parameter, and the first optimized matching point and the second optimized matching point are and obtaining matching points, respectively.
The degree of coincidence between the second three-dimensional matching point and the first optimization matching point and the second optimization matching point is calculated, and the pose used by the optimization matching point with the high degree of coincidence is calculated. selecting the transformation parameter as a second pose transformation parameter;
The first three-dimensional matching point and the second three-dimensional matching point are aligned using a predetermined alignment method using the second pose transformation parameter as an initial value, and the current data set and the candidate data are aligned. 5. The three-dimensional reconstruction method according to claim 4, comprising: obtaining a spatial transformation parameter with a set.
前記現在のデータセットの画像データと前記候補データセットの画像データを使用して、前記現在のデータセットと前記候補データセットとの空間変換パラメータを決定した後、及び少なくとも前記候補データセットのポーズ最適化パラメータ、及び前記現在のデータセットと前記候補データセットとの空間変換パラメータを使用して、前記現在のデータセットのポーズ最適化パラメータを取得する前に、前記3次元再構成方法は、
前記現在のデータセットと各前記候補データセットとの空間変換パラメータから、所定のパラメータスクリーニング条件を満たす空間変換パラメータを選択することをさらに含み、
前記所定のパラメータスクリーニング条件は、前記空間変換パラメータに関連する前記候補データセットが前記現在のデータセットと隣接すること、前記空間変換パラメータを使用して、前記第1の3次元マッチングポイントをポーズ最適化することにより得られた最適化マッチングポイントと、前記第2の3次元マッチングポイントとの一致度が所定の一致度閾値より大きいことのいずれか1つを含む
請求項4に記載の3次元再構成方法。
After determining spatial transformation parameters between the current dataset and the candidate dataset using image data of the current dataset and image data of the candidate dataset, and at least a pose optimization of the candidate dataset. Before obtaining pose optimization parameters of the current dataset using a transformation parameter and a spatial transformation parameter of the current dataset and the candidate dataset, the three-dimensional reconstruction method comprises:
further comprising selecting a spatial transformation parameter that satisfies a predetermined parameter screening condition from spatial transformation parameters of the current data set and each of the candidate data sets;
The predetermined parameter screening condition includes: the candidate dataset associated with the spatial transformation parameter is adjacent to the current dataset, and the spatial transformation parameter is used to pose the first three-dimensional matching point. 5. The three-dimensional reconstruction according to claim 4, wherein the degree of coincidence between the optimized matching point obtained by How to configure.
時系列が前記現在のデータセットの前に配置されている少なくとも1つのデータセットを候補データセットとして選択することは、
前記現在のデータセット及び時系列がその前に配置されているデータセットの画像データの所定の画像特徴を使用して、Bag of Wordsモデルを構築することと、
前記現在のデータセットにおける所定の時系列に位置する属する処理待ち画像の画像データをマッチング待ち画像データとして選択することと、
前記Bag of Wordsモデルの所定の範囲から、前記マッチング待ち画像データの所定の画像特徴との類似度スコアが所定の類似度閾値より大きい所定の画像特徴をクエリすることと、
クエリされた所定の画像特徴の属する画像データが所在するデータセット、及び前記現在のデータセットと隣接するデータセットを前記候補データセットとして使用することと、を含み、
前記所定の範囲は、属するデータセットが前記現在のデータセットと隣接せず、且つ前記現在のデータセットに含まれない画像データの所定の画像特徴を含む
請求項2に記載の3次元再構成方法。
Selecting at least one dataset whose time series is placed before the current dataset as a candidate dataset, comprising:
building a Bag of Words model using predetermined image features of the image data of the current dataset and the dataset before which the time series is placed;
selecting image data of an image to be processed that is located in a predetermined time series in the current data set as image data to be matched;
querying a predetermined image feature from a predetermined range of the Bag of Words model that has a similarity score with a predetermined image feature of the image data awaiting matching that is greater than a predetermined similarity threshold;
using a dataset in which the image data to which the queried predetermined image feature belongs is located, and a dataset adjacent to the current dataset as the candidate dataset;
The three-dimensional reconstruction method according to claim 2, wherein the predetermined range includes predetermined image features of image data to which a dataset to which it belongs is not adjacent to the current dataset and is not included in the current dataset. .
前記Bag of Wordsモデルの所定の範囲から、前記マッチング待ち画像データの所定の画像特徴との類似度スコアが所定の類似度閾値より大きい所定の画像特徴をクエリする前に、前記3次元再構成方法は、
前記現在のデータセットと隣接するデータセットにおける各前記画像データと前記マッチング待ち画像データとの類似度スコアのうちの最大スコア値を取得することと、
前記最大スコア値の所定の倍数と所定のスコア値のいずれか1つを所定の類似度閾値として使用することと、をさらに含む
請求項7に記載の3次元再構成方法。
Before querying a predetermined image feature from a predetermined range of the Bag of Words model, the predetermined image feature having a similarity score with the predetermined image feature of the image data waiting for matching is greater than a predetermined similarity threshold. teeth,
obtaining a maximum score value of similarity scores between each of the image data and the matching waiting image data in the current data set and adjacent data sets;
The three-dimensional reconstruction method according to claim 7, further comprising: using any one of a predetermined multiple of the maximum score value and a predetermined score value as a predetermined similarity threshold.
前記所定の分割ポリシーに従って、前記処理待ち画像の各フレームの画像データを対応するデータセットに順次分割することは、
前記処理待ち画像の各フレームを現在の処理待ち画像として順次使用することと、
現在の処理待ち画像の画像データを分割する場合、既存の前記データセットの最後のデータセットが所定のオーバーフロー条件を満たすと、前記最後のデータセットにおける最新の複数のフレームの前記処理待ち画像の画像データを取得し、新しい前記最後のデータセットとして新しく作成された前記データセットに記憶し、前記現在の処理待ち画像の画像データを新しい前記最後のデータセットに分割することと、を含む
請求項1に記載の3次元再構成方法。
Sequentially dividing the image data of each frame of the image to be processed into corresponding data sets according to the predetermined division policy,
sequentially using each frame of the image to be processed as a current image to be processed;
When dividing the image data of the current image to be processed, when the last data set of the existing data set satisfies a predetermined overflow condition, the image data of the image to be processed of the latest frames in the last data set is divided. acquiring and storing data in the newly created dataset as a new final dataset, and dividing the image data of the current pending image into the new final dataset. The three-dimensional reconstruction method described in .
前記所定のオーバーフロー条件は、
前記最後のデータセットに含まれる前記画像データに対応する前記処理待ち画像のフレーム数が所定のフレーム数閾値より大きいか等しいこと、前記最後のデータセットのいずれかの前記画像データが属する処理待ち画像のカメラ位置と前記現在の処理待ち画像のカメラ位置との距離が所定の距離閾値より大きいこと、前記最後のデータセットのいずれかの前記画像データが属する処理待ち画像のカメラ向き角度と前記現在の処理待ち画像のカメラ向き角度との差が所定の角度閾値より大きいことのいずれか1つを含み、
前記カメラ位置と前記カメラ向き角度は、前記処理待ち画像のカメラポーズパラメータを使用して計算されるものである
請求項9に記載の3次元再構成方法。
The predetermined overflow condition is:
The number of frames of the image to be processed corresponding to the image data included in the last data set is greater than or equal to a predetermined frame number threshold, and the image to be processed to which any of the image data in the last data set belongs and the camera position of the current image to be processed is greater than a predetermined distance threshold, and the camera orientation angle of the image to be processed to which any of the image data of the last dataset belongs and the current image The difference from the camera orientation angle of the image to be processed is greater than a predetermined angle threshold;
The three-dimensional reconstruction method according to claim 9, wherein the camera position and the camera orientation angle are calculated using camera pose parameters of the image to be processed.
前記処理待ち画像の各フレームは、カラーデータと深度データとを含み、前記処理待ち画像の各フレームと前記撮影デバイスのキャリブレーションパラメータを使用して、前記再構成待ち目標に属する前記処理待ち画像の各フレームの目標画素点を決定することは、
前記カラーデータとの位置合わせ後の深度データに含まれる各画素点の法線ベクトルと、前記処理待ち画像の重力方向との夾角を取得することと、
前記各画素点を3次元空間で前記重力方向に投影して、前記3次元空間における前記各画素点の高さの値を取得することと、
前記夾角が所定の角度条件を満たす画素点の高さの値を分析して、前記再構成待ち目標の平面高さを取得することと、
前記平面高さを使用して、前記カラーデータにおける前記再構成待ち物体に属する目標画素点をスクリーニングすることと、を含む
請求項1-10のいずれか一項に記載の3次元再構成方法。
Each frame of the image to be processed includes color data and depth data, and each frame of the image to be processed and the calibration parameters of the imaging device are used to calculate the image of the image to be processed that belongs to the target to be reconstructed. Determining the target pixel point for each frame is
obtaining an included angle between the normal vector of each pixel point included in the depth data after alignment with the color data and the gravitational direction of the image to be processed;
Projecting each of the pixel points in the three-dimensional space in the direction of gravity to obtain a height value of each of the pixel points in the three-dimensional space;
analyzing a height value of a pixel point whose included angle satisfies a predetermined angle condition to obtain a planar height of the target awaiting reconstruction;
11. The three-dimensional reconstruction method according to claim 1, further comprising screening target pixel points belonging to the object to be reconstructed in the color data using the planar height.
前記夾角が所定の角度条件を満たす画素点の高さの値を分析して、前記再構成待ち目標の平面高さを取得することは、
前記夾角が所定の角度条件を満たす前記画素点の高さの値を高さセットとして使用することと、
前記高さセット内の高さの値に対してクラスタ分析を実行して、前記再構成待ち目標の平面高さを取得することと、を含む
請求項11に記載の3次元再構成方法。
Analyzing the height value of a pixel point whose included angle satisfies a predetermined angle condition to obtain the planar height of the target awaiting reconstruction,
using the height values of the pixel points whose included angle satisfies a predetermined angle condition as a height set;
12. The three-dimensional reconstruction method according to claim 11, comprising: performing cluster analysis on the height values in the height set to obtain a planar height of the target to be reconstructed.
前記各前記データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データとポーズ最適化パラメータを順次使用して、各前記データセットのポーズ最適化パラメータを決定した後、前記3次元再構成方法は、
各前記データセットの画像データを3次元空間に順次マッピングして、各前記データセットに対応する3次元ポイントクラウドを取得することと、
各前記データセットの前記ポーズ最適化パラメータを使用して、それに対応する前記3次元ポイントクラウドを調整することと、をさらに含む
請求項1-12のいずれか一項に記載の3次元再構成方法。
After determining pose optimization parameters for each of the datasets using sequentially the image data of each of the datasets and the image data and pose optimization parameters of the dataset whose time series is placed before it; The three-dimensional reconstruction method includes:
sequentially mapping the image data of each of the datasets into a three-dimensional space to obtain a three-dimensional point cloud corresponding to each of the datasets;
13. A three-dimensional reconstruction method according to any one of claims 1-12, further comprising: using the pose optimization parameters of each dataset to adjust the corresponding three-dimensional point cloud. .
3次元再構成に基づくインタラクション方法であって、
再構成待ち目標の3次元モデルを取得することであって、前記3次元モデルは、請求項1-13のいずれか一項に記載の3次元再構成方法を使用して取得されるものであることと、
所定の視覚慣性ナビゲーション方式を使用して、撮影デバイスが配置されているシーンの3次元地図を構築し、前記3次元地図における前記撮影デバイスの現在のポーズ情報を取得することと、
前記ポーズ情報に基づいて、前記撮影デバイスによって現在撮影されているシーン画像に前記3次元モデルを表示することと、を含む、前記3次元再構成に基づくインタラクション方法。
An interaction method based on three-dimensional reconstruction, comprising:
Obtaining a three-dimensional model of a target awaiting reconstruction, the three-dimensional model being obtained using the three-dimensional reconstruction method according to any one of claims 1 to 13. And,
constructing a three-dimensional map of the scene in which the photographing device is located using a predetermined visual-inertial navigation method, and obtaining current pose information of the photographing device in the three-dimensional map;
Displaying the three-dimensional model in a scene image currently being captured by the imaging device based on the pose information, the interaction method based on the three-dimensional reconstruction.
3次元再構成に基づく測定方法であって、
再構成待ち目標の3次元モデルを取得することであって、前記3次元モデルは、請求項1-13のいずれか一項に記載の3次元再構成方法を使用して取得されるものであることと、
ユーザが3次元モデルで設定した複数の測定ポイントを受信することと、
前記複数の測定ポイントの間の距離を取得して、前記再構成待ち目標上の前記複数の測定ポイントに対応する位置の間の距離を取得することと、を含む、前記3次元再構成に基づく測定方法。
A measurement method based on three-dimensional reconstruction, comprising:
Obtaining a three-dimensional model of a target awaiting reconstruction, the three-dimensional model being obtained using the three-dimensional reconstruction method according to any one of claims 1 to 13. And,
receiving multiple measurement points set by the user in the 3D model;
and obtaining distances between the plurality of measurement points to obtain distances between positions corresponding to the plurality of measurement points on the target awaiting reconstruction. Measuring method.
3次元再構成装置であって、
撮影デバイスが再構成待ち目標をスキャンすることにより得られた複数のフレームの処理待ち画像を取得するように構成される画像取得部と、
前記処理待ち画像の各フレームと前記撮影デバイスのキャリブレーションパラメータを使用して、前記再構成待ち目標に属する前記処理待ち画像の各フレームの目標画素点及びそのカメラポーズパラメータを決定するように構成される第1の決定部と、
所定の分割ポリシーに従って、前記処理待ち画像の各フレームの画像データを対応するデータセットに順次分割するように構成されるデータ分割部であって、前記画像データは少なくとも、前記目標画素点を含むデータ分割部と、
各前記データセットの画像データ、及び時系列がその前に配置されているデータセットの画像データとポーズ最適化パラメータを順次使用して、各前記データセットのポーズ最適化パラメータを決定するように構成される第2の決定部と、
各前記データセットのポーズ最適化パラメータを使用して、前記データセットに含まれる画像データが属する処理待ち画像のカメラポーズパラメータを調整するように構成されるパラメータ調整部と、
所定の3次元再構成方式及び前記処理待ち画像の調整後のカメラポーズパラメータを使用して、前記処理待ち画像の画像データに対して再構成処理を実行して、前記再構成待ち目標の3次元モデルを取得するように構成されるモデル再構成部と、を備える、前記3次元再構成装置。
A three-dimensional reconstruction device,
an image acquisition unit configured to acquire a plurality of frames of pending images obtained by scanning the reconstruction target with the imaging device;
configured to use each frame of the pending image and a calibration parameter of the imaging device to determine a target pixel point of each frame of the pending image belonging to the reconstruction target and its camera pose parameters; a first decision section;
A data division unit configured to sequentially divide image data of each frame of the image to be processed into corresponding data sets according to a predetermined division policy, wherein the image data includes at least data including the target pixel point. A dividing part,
configured to sequentially use the image data of each said dataset and the image data and pose optimization parameters of the dataset before which the time series is placed to determine pose optimization parameters for each said dataset; a second determining unit,
a parameter adjustment unit configured to use pose optimization parameters of each of the datasets to adjust camera pose parameters of a pending image to which image data included in the dataset belongs;
Using a predetermined three-dimensional reconstruction method and the adjusted camera pose parameters of the image to be processed, a reconstruction process is executed on the image data of the image to be processed, and the three-dimensional image of the target to be reconstructed is The three-dimensional reconstruction device, comprising: a model reconstruction unit configured to obtain a model.
前記第2の決定部は、
各前記データセットを現在のデータセットとして順次使用し、時系列が前記現在のデータセットの前に配置されている少なくとも1つのデータセットを候補データセットとして選択するように構成されるデータセット選択サブ部と、
前記現在のデータセットの画像データと前記候補データセットの画像データを使用して、前記現在のデータセットと前記候補データセットとの空間変換パラメータを決定するように構成される空間変換パラメータサブ部と、
少なくとも前記候補データセットのポーズ最適化パラメータ、及び前記現在のデータセットと前記候補データセットとの空間変換パラメータを使用して、前記現在のデータセットのポーズ最適化パラメータを取得し、少なくとも前記候補データセットのポーズ最適化パラメータを更新するように構成されるポーズ最適化パラメータサブ部と、を備える
請求項16に記載の3次元再構成装置。
The second determining unit includes:
a dataset selection sub configured to sequentially use each said dataset as a current dataset and select at least one dataset whose time series is placed before said current dataset as a candidate dataset; Department and
a spatial transformation parameter sub-unit configured to determine spatial transformation parameters between the current dataset and the candidate dataset using image data of the current dataset and image data of the candidate dataset; ,
obtaining pose optimization parameters for the current dataset using at least pose optimization parameters of the candidate dataset and spatial transformation parameters between the current dataset and the candidate dataset; 17. The three-dimensional reconstruction device according to claim 16, comprising a pose optimization parameter sub-unit configured to update a set of pose optimization parameters.
前記ポーズ最適化パラメータサブ部は、
前記現在のデータセット及び時系列がその前に配置されている前記候補データセットにそれぞれ関連付けられた各空間変換パラメータに対応する2つのデータセットをデータセットペアとして使用するように構成されるデータセットペア部と、
各前記データセットペアの空間変換パラメータ、及びそれぞれのポーズ最適化パラメータを使用して、前記ポーズ最適化パラメータに関する目標関数を構築するように構成される目標関数構築部と、
所定の解法によって前記目標関数を解いて、前記現在のデータセット及び時系列がその前に配置されている前記候補データセットのそれぞれに対応するデータセットに含まれるデータセットのポーズ最適化パラメータを取得するように構成される目標関数解決部と、を備える
請求項17に記載の3次元再成装置。
The pose optimization parameter sub-section includes:
a dataset configured to use as a dataset pair two datasets corresponding to each spatial transformation parameter respectively associated with the current dataset and the candidate dataset before which the time series is placed; Pair part and
an objective function construction unit configured to construct an objective function regarding the pose optimization parameters using the spatial transformation parameters of each of the dataset pairs and the respective pose optimization parameters;
Solving the objective function by a predetermined solution method to obtain pose optimization parameters for datasets included in the current dataset and datasets corresponding to each of the candidate datasets before which the time series is placed. The three-dimensional reconstruction device according to claim 17, further comprising: an objective function solving unit configured to perform.
前記空間変換パラメータサブ部は、
前記候補データセットと前記現在のデータセット内で、所定のマッチング条件を満たす1グループのマッチング待ち画像データを検索するように構成される画像データ検索部と、
各グループの前記マッチング待ち画像データから抽出された、所定の画像特徴に基づいて、各グループの前記マッチング待ち画像データ間のマッチング画素点対を取得するように構成されるマッチング画素点選択部と、
前記マッチング画素点対のうち、前記現在のデータセットに属する画素点を3次元空間にマッピングし、第1の3次元マッチングポイントを取得し、前記マッチング画素点対のうち、前記候補データセットに属する画素点を前記3次元空間にマッピングして、第2の3次元マッチングポイントを取得するように構成される3次元空間マッピング部と、
前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントとを位置合わせして、前記空間変換パラメータを取得するように構成される3次元マッチングポイント位置合わせ部と、を備える
請求項17に記載の3次元再構成装置。
The spatial transformation parameter sub-section is
an image data search unit configured to search for one group of matching-waiting image data that satisfies a predetermined matching condition within the candidate data set and the current data set;
a matching pixel point selection unit configured to obtain matching pixel point pairs between the matching image data of each group based on predetermined image features extracted from the matching image data of each group;
Among the matching pixel point pairs, pixel points belonging to the current dataset are mapped to a three-dimensional space to obtain a first three-dimensional matching point, and among the matching pixel point pairs, pixel points belonging to the candidate dataset are mapped. a three-dimensional space mapping unit configured to map pixel points onto the three-dimensional space to obtain second three-dimensional matching points;
17. A three-dimensional matching point alignment unit configured to align the first three-dimensional matching point and the second three-dimensional matching point to obtain the spatial transformation parameter. The three-dimensional reconstruction device described in .
3次元マッチングポイント位置合わせ部は、
前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントとの第1のポーズ変換パラメータを取得するように構成される第1のポーズ変換パラメータサブ部と、
前記第1のポーズ変換パラメータと所定のポーズ変換パラメータを使用して、前記第1の3次元マッチングポイントに対してポーズ最適化を実行して、第1の最適化マッチングポイントと第2の最適化マッチングポイントとをそれぞれ取得するように構成される3次元マッチングポイント最適化サブ部と、
前記第2の3次元マッチングポイントと、前記第1の最適化マッチングポイントおよび前記第2の最適化マッチングポイントとのそれぞれの一致度を計算し、前記一致度の高い最適化マッチングポイントが使用するポーズ変換パラメータを第2のポーズ変換パラメータとして選択するように構成される第2のポーズ変換パラメータサブ部と、
前記第2のポーズ変換パラメータを初期値とし、所定の位置合わせ方式によって前記第1の3次元マッチングポイントと前記第2の3次元マッチングポイントとを位置合わせして、前記現在のデータセットと前記候補データセットとの空間変換パラメータを取得するように構成される空間変換パラメータサブ部と、を備える
請求項19に記載の3次元再構成装置。
The three-dimensional matching point alignment section is
a first pose transformation parameter sub-unit configured to obtain a first pose transformation parameter between the first three-dimensional matching point and the second three-dimensional matching point;
Pose optimization is performed on the first three-dimensional matching point using the first pose transformation parameter and a predetermined pose transformation parameter, and the first optimized matching point and the second optimized matching point are a three-dimensional matching point optimization sub-unit configured to obtain the matching points, respectively;
The degree of coincidence between the second three-dimensional matching point and the first optimization matching point and the second optimization matching point is calculated, and the pose used by the optimization matching point with a high degree of coincidence is calculated. a second pose transformation parameter sub-section configured to select the transformation parameter as a second pose transformation parameter;
The first three-dimensional matching point and the second three-dimensional matching point are aligned using a predetermined alignment method using the second pose transformation parameter as an initial value, and the current data set and the candidate are aligned. 20. The three-dimensional reconstruction device according to claim 19, comprising: a spatial transformation parameter sub-unit configured to obtain spatial transformation parameters with the data set.
前記空間変換パラメータサブ部は、
前記現在のデータセットの画像データと前記候補データセットの画像データを使用して、前記現在のデータセットと前記候補データセットとの空間変換パラメータを決定した後、及び少なくとも前記候補データセットのポーズ最適化パラメータ、及び前記現在のデータセットと前記候補データセットとの空間変換パラメータを使用して、前記現在のデータセットのポーズ最適化パラメータを取得する前に、前記現在のデータセットと各前記候補データセットとの空間変換パラメータから、所定のパラメータスクリーニング条件を満たす空間変換パラメータを選択するように構成される変換パラメータスクリーニングユニットをさらに備え、
前記所定のパラメータスクリーニング条件は、前記空間変換パラメータに関連する前記候補データセットが前記現在のデータセットと隣接すること、前記空間変換パラメータを使用して、前記第1の3次元マッチングポイントをポーズ最適化することにより得られた最適化マッチングポイントと、前記第2の3次元マッチングポイントとの一致度が所定の一致度閾値より大きいことのいずれか1つを含む
請求項19に記載の3次元再構成装置。
The spatial transformation parameter sub-section is
After determining spatial transformation parameters between the current dataset and the candidate dataset using image data of the current dataset and image data of the candidate dataset, and at least a pose optimization of the candidate dataset. the current dataset and each candidate data set before obtaining pose optimization parameters for the current dataset using spatial transformation parameters between the current dataset and the candidate dataset. further comprising a transformation parameter screening unit configured to select from the set of spatial transformation parameters a spatial transformation parameter that satisfies a predetermined parameter screening condition;
The predetermined parameter screening condition includes: the candidate dataset associated with the spatial transformation parameter is adjacent to the current dataset, and the spatial transformation parameter is used to pose the first three-dimensional matching point. 20. The three-dimensional reconstruction according to claim 19, wherein the degree of coincidence between the optimized matching point obtained by Component device.
前記データセット選択サブ部は、
前記現在のデータセット及び時系列がその前に配置されているデータセットの画像データの所定の画像特徴を使用して、Bag of Wordsモデルを構築するように構成されるBag of Wordsモデル構築部と、
属する処理待ち画像の前記現在のデータセットの所定の時系列に位置する画像データをマッチング待ち画像データとして選択するように構成されるマッチング待ち画像データユニットと、
前記Bag of Wordsモデルの所定の範囲から、前記マッチング待ち画像データの所定の画像特徴との類似度スコアが所定の類似度閾値より大きい所定の画像特徴をクエリするように構成される画像特徴クエリユニットと、
クエリされた所定の画像特徴の属する画像データが所在するデータセット、及び前記現在のデータセットと隣接するデータセットを前記候補データセットとして使用するように構成される候補データセットユニットと、を備え、
前記所定の範囲は、属するデータセットが前記現在のデータセットと隣接せず、且つ前記現在のデータセットに含まれない画像データの所定の画像特徴を含む
請求項16に記載の3次元再構成装置。
The data set selection sub-unit includes:
a Bag of Words model builder configured to build a Bag of Words model using predetermined image features of the image data of the current dataset and the dataset before which the time series is placed; ,
a matching pending image data unit configured to select image data located in a predetermined time series of the current dataset of pending processing images to which it belongs as matching pending image data;
an image feature query unit configured to query, from a predetermined range of the Bag of Words model, a predetermined image feature whose similarity score with a predetermined image feature of the image data awaiting matching is greater than a predetermined similarity threshold; and,
a dataset in which the image data to which the queried predetermined image feature belongs is located, and a candidate dataset unit configured to use a dataset adjacent to the current dataset as the candidate dataset;
The three-dimensional reconstruction device according to claim 16, wherein the predetermined range includes predetermined image features of image data to which a dataset to which it belongs is not adjacent to the current dataset and is not included in the current dataset. .
前記データセット選択サブ部は、
前記Bag of Wordsモデルの所定の範囲から、前記マッチング待ち画像データの所定の画像特徴との類似度スコアが所定の類似度閾値より大きい所定の画像特徴をクエリする前に、前記現在のデータセットと隣接するデータセットにおける各前記画像データと前記マッチング待ち画像データとの類似度スコアのうちの最大スコア値を取得するように構成される最大類似度スコア値取得ユニットと、
前記最大スコア値の所定の倍数と所定のスコア値のいずれか1つを所定の類似度閾値として使用するように構成される所定の類似度閾値決定ユニットと、をさらに備える
請求項22に記載の3次元再構成装置。
The data set selection sub-unit includes:
From the predetermined range of the Bag of Words model, before querying for a predetermined image feature whose similarity score with the predetermined image feature of the image data to be matched is greater than a predetermined similarity threshold, a maximum similarity score value obtaining unit configured to obtain a maximum score value of similarity scores between each of the image data and the matching-waiting image data in adjacent data sets;
23. A predetermined similarity threshold determination unit configured to use any one of the predetermined multiple of the maximum score value and the predetermined score value as a predetermined similarity threshold. 3D reconstruction device.
前記データ分割部は、
前記処理待ち画像の各フレームを現在の処理待ち画像として順次使用するように構成される現在処理待ち画像決定サブ部と、
現在の処理待ち画像の画像データを分割する場合、既存の前記データセットの最後のデータセットが所定のオーバーフロー条件を満たすと、前記最後のデータセットにおける最新の複数のフレームの前記処理待ち画像の画像データを取得し、新しい前記最後のデータセットとして新しく作成された前記データセットに記憶し、前記現在の処理待ち画像の画像データを新しい前記最後のデータセットに分割するように構成されるデータ処理サブ部と、を備える
請求項16に記載の3次元再構成装置。
The data division section is
a current pending image determining sub-unit configured to sequentially use each frame of the pending image as a current pending image;
When dividing the image data of the current image to be processed, when the last data set of the existing data set satisfies a predetermined overflow condition, the image data of the image to be processed of the latest frames in the last data set is divided. a data processing subsystem configured to obtain and store data in the newly created dataset as a new final dataset, and to divide image data of the current pending image into a new final dataset; The three-dimensional reconstruction device according to claim 16, comprising: a.
前記所定のオーバーフロー条件は、
前記最後のデータセットに含まれる前記画像データに対応する前記処理待ち画像のフレーム数が所定のフレーム数閾値より大きいか等しいこと、前記最後のデータセットのいずれかの前記画像データが属する処理待ち画像のカメラ位置と前記現在の処理待ち画像のカメラ位置との距離が所定の距離閾値より大きいこと、前記最後のデータセットのいずれかの前記画像データが属する処理待ち画像のカメラ向き角度と前記現在の処理待ち画像のカメラ向き角度との差が所定の角度閾値より大きいことのいずれか1つを含み、
前記カメラ位置と前記カメラ向き角度は、前記処理待ち画像のカメラポーズパラメータを使用して計算されるものである
請求項24に記載の3次元再構成装置。
The predetermined overflow condition is:
The number of frames of the image to be processed corresponding to the image data included in the last data set is greater than or equal to a predetermined frame number threshold, and the image to be processed to which any of the image data in the last data set belongs and the camera position of the current image to be processed is greater than a predetermined distance threshold, and the camera orientation angle of the image to be processed to which any of the image data of the last data set belongs and the current The difference from the camera orientation angle of the image to be processed is greater than a predetermined angle threshold;
The three-dimensional reconstruction device according to claim 24, wherein the camera position and the camera orientation angle are calculated using camera pose parameters of the image to be processed.
前記処理待ち画像の各フレームは、カラーデータと深度データとを含み、第1の決定部は、
前記カラーデータとの位置合わせ後の深度データに含まれる各画素点の法線ベクトルと、前記処理待ち画像の重力方向との夾角を取得するように構成される夾角取得サブ部と、
前記各画素点を3次元空間で前記重力方向に投影し、前記3次元空間における前記各画素点の高さの値を取得するように構成される高さ取得サブ部と、
前記夾角が所定の角度条件を満たす画素点の高さの値を分析して、前記再構成待ち目標の平面高さを取得するように構成される高さ分析サブ部と、
前記平面高さによって前記カラーデータにおける前記再構成待ち物体に属する目標画素点をスクリーニングするように構成される画素スクリーニングサブ部と、を備える
請求項16-26のいずれか一項に記載の3次元再構成装置。
Each frame of the image to be processed includes color data and depth data, and the first determining unit:
an included angle acquisition sub-unit configured to obtain an included angle between a normal vector of each pixel point included in the depth data after alignment with the color data and a gravitational direction of the image to be processed;
a height acquisition sub-unit configured to project each pixel point in a three-dimensional space in the direction of gravity and obtain a height value of each pixel point in the three-dimensional space;
a height analysis sub-unit configured to analyze a height value of a pixel point whose included angle satisfies a predetermined angle condition to obtain a planar height of the target to be reconstructed;
a pixel screening sub-unit configured to screen target pixel points belonging to the object to be reconstructed in the color data by the planar height. Reconfiguration device.
前記高さ分析サブ部は、
前記夾角が所定の角度条件を満たす前記画素点の高さの値を高さセットとして使用するように構成される高さセット取得ユニットと、
前記高さセット内の高さの値に対してクラスタ分析を実行して、前記再構成待ち目標の平面高さを取得するように構成される高さクラスタ分析ユニットと、を備える
請求項26に記載の3次元再構成装置。
The height analysis sub-section is
a height set acquisition unit configured to use, as a height set, a height value of the pixel point whose included angle satisfies a predetermined angle condition;
27. A height cluster analysis unit configured to perform cluster analysis on the height values in the height set to obtain a planar height of the target to be reconfigured. The three-dimensional reconstruction device described.
前記3次元再構成装置は、
各前記データセットの画像データを3次元空間に順次マッピングして、各前記データセットに対応する3次元ポイントクラウドを取得するように構成される3次元マッピング部と、
各前記データセットの前記ポーズ最適化パラメータを使用して、それに対応する前記3次元ポイントクラウドを調整するように構成されるポイントクラウド調整部と、をさらに備える
請求項16-27のいずれか一項に記載の3次元再構成装置。
The three-dimensional reconstruction device includes:
a three-dimensional mapping unit configured to sequentially map the image data of each of the datasets into a three-dimensional space to obtain a three-dimensional point cloud corresponding to each of the datasets;
28. A point cloud adjustment unit configured to use the pose optimization parameters of each data set to adjust the corresponding three-dimensional point cloud. The three-dimensional reconstruction device described in .
3次元再構成に基づくインタラクション装置であって、
再構成待ち目標の3次元モデルを取得するように構成され、前記3次元モデルは、請求項16に記載の3次元再構成装置により得られるモデル取得部と、
所定の視覚慣性ナビゲーション方式により、撮影デバイスが配置されているシーンの3次元地図を構築し、3次元地図における前記撮影デバイスの現在のポーズ情報を取得するように構成されるマッピング及び位置決め部と、
前記ポーズ情報に基づいて、前記撮影デバイスによって現在撮影されているシーン画像に前記3次元モデルを表示するように構成される表示インタラクション部と、を備える、3次元再構成に基づくインタラクション装置。
An interaction device based on three-dimensional reconstruction,
a model acquisition unit configured to acquire a three-dimensional model of a target awaiting reconstruction, wherein the three-dimensional model is obtained by the three-dimensional reconstruction device according to claim 16;
a mapping and positioning unit configured to construct a three-dimensional map of the scene in which the photographing device is placed according to a predetermined visual-inertial navigation method and obtain current pose information of the photographing device in the three-dimensional map;
an interaction device based on three-dimensional reconstruction, comprising: a display interaction unit configured to display the three-dimensional model on a scene image currently being photographed by the photographing device based on the pose information.
3次元再構成に基づく測定装置であって、
再構成待ち目標の3次元モデルを取得するように構成され、前記3次元モデルは、請求項16に記載の3次元再構成装置により得られるモデル取得部と、
ユーザが前記3次元モデルで設定した複数の測定ポイントを受信するように構成される表示インタラクション部と、
前記複数の測定ポイントの間の距離を取得して、前記再構成待ち目標上の前記複数の測定ポイントに対応する位置の間の距離を取得するように構成される距離取得部と、を備える、3次元再構成に基づく測定装置。
A measuring device based on three-dimensional reconstruction, comprising:
a model acquisition unit configured to acquire a three-dimensional model of a target awaiting reconstruction, wherein the three-dimensional model is obtained by the three-dimensional reconstruction device according to claim 16;
a display interaction unit configured to receive a plurality of measurement points set by a user on the three-dimensional model;
a distance acquisition unit configured to obtain distances between the plurality of measurement points and obtain distances between positions corresponding to the plurality of measurement points on the target awaiting reconstruction; Measurement device based on three-dimensional reconstruction.
電子機器であって、
互いに結合されたメモリ及びプロセッサを備え、前記プロセッサは、請求項1-13のいずれか一項に記載の3次元再構成方法を実現し、又は請求項14に記載の3次元再構成に基づくインタラクション方法を実現し、又は請求項15に記載の3次元再構成に基づく測定方法を実現するために、前記メモリに記憶されたプログラム命令を実行するように構成される、電子機器。
An electronic device,
comprising a memory and a processor coupled to each other, said processor implementing a three-dimensional reconstruction method according to any one of claims 1-13, or a three-dimensional reconstruction-based interaction according to claim 14. Electronic equipment configured to execute program instructions stored in said memory for implementing a method or for implementing a measurement method based on three-dimensional reconstruction according to claim 15.
プログラム命令を記憶するコンピュータ可読記憶媒体であって、前記プログラム命令がプロセッサに実行されると、請求項1-13のいずれか一項に記載の3次元再構成方法を実現し、又は請求項14に記載の3次元再構成に基づくインタラクション方法を実現し、又は請求項15に記載の3次元再構成に基づく測定方法を実現する、コンピュータ可読記憶媒体。 A computer-readable storage medium storing program instructions, which, when executed by a processor, implement a three-dimensional reconstruction method according to any one of claims 1-13, or claim 14. 16. A computer-readable storage medium for implementing the three-dimensional reconstruction-based interaction method as claimed in claim 15 or for implementing the three-dimensional reconstruction-based measurement method as claimed in claim 15. コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器で動作し、前記電子機器のプロセッサに実行される場合、請求項1-13のいずれか一項に記載の3次元再構成方法を実現し、又は請求項14に記載の3次元再構成に基づくインタラクション方法を実現し、又は請求項15に記載の3次元再構成に基づく測定方法を実現する、コンピュータプログラム。 realizing a three-dimensional reconstruction method according to any one of claims 1 to 13, comprising a computer readable code, said computer readable code being operative in an electronic device and executed by a processor of said electronic device; Or a computer program for realizing the interaction method based on three-dimensional reconstruction according to claim 14, or for realizing the measuring method based on three-dimensional reconstruction according to claim 15. コンピュータで動作する場合、コンピュータに請求項1-13のいずれか一項に記載の3次元再構成方法を実行させ、又は請求項14に記載の3次元再構成に基づくインタラクション方法を実行させ、又は請求項15に記載の3次元再構成に基づく測定方法を実行させる、コンピュータプログラム製品。 When operating on a computer, cause the computer to execute the three-dimensional reconstruction method according to any one of claims 1 to 13, or execute the interaction method based on three-dimensional reconstruction according to claim 14, or A computer program product for carrying out the three-dimensional reconstruction-based measurement method according to claim 15.
JP2023513719A 2021-01-11 2021-06-28 3D reconstruction and related interactions, measurement methods and related devices and equipment Active JP7453470B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110031502.0A CN112767538A (en) 2021-01-11 2021-01-11 Three-dimensional reconstruction and related interaction and measurement method, and related device and equipment
CN202110031502.0 2021-01-11
PCT/CN2021/102882 WO2022147976A1 (en) 2021-01-11 2021-06-28 Three-dimensional reconstruction method, related interaction and measurement method, related apparatuses, and device

Publications (2)

Publication Number Publication Date
JP2023540917A true JP2023540917A (en) 2023-09-27
JP7453470B2 JP7453470B2 (en) 2024-03-19

Family

ID=75701311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023513719A Active JP7453470B2 (en) 2021-01-11 2021-06-28 3D reconstruction and related interactions, measurement methods and related devices and equipment

Country Status (4)

Country Link
JP (1) JP7453470B2 (en)
KR (1) KR20230127313A (en)
CN (1) CN112767538A (en)
WO (1) WO2022147976A1 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112767538A (en) * 2021-01-11 2021-05-07 浙江商汤科技开发有限公司 Three-dimensional reconstruction and related interaction and measurement method, and related device and equipment
CN113450417A (en) * 2021-05-12 2021-09-28 深圳市格灵精睿视觉有限公司 Calibration parameter optimization method, device, equipment and storage medium
CN113240656B (en) * 2021-05-24 2023-04-07 浙江商汤科技开发有限公司 Visual positioning method and related device and equipment
CN115222799B (en) * 2021-08-12 2023-04-11 达闼机器人股份有限公司 Method and device for acquiring image gravity direction, electronic equipment and storage medium
CN116051723B (en) * 2022-08-03 2023-10-20 荣耀终端有限公司 Bundling adjustment method and electronic equipment
CN116704152B (en) * 2022-12-09 2024-04-19 荣耀终端有限公司 Image processing method and electronic device
CN115690693B (en) * 2022-12-13 2023-03-21 山东鲁旺机械设备有限公司 Intelligent monitoring system and monitoring method for construction hanging basket
CN115661371B (en) * 2022-12-14 2023-03-31 深圳思谋信息科技有限公司 Three-dimensional object modeling method and device, computer equipment and storage medium
CN116486008B (en) * 2023-04-12 2023-12-12 荣耀终端有限公司 Three-dimensional reconstruction method, display method and electronic equipment
CN116863087B (en) * 2023-06-01 2024-02-02 中国航空油料集团有限公司 Digital twinning-based navigation oil information display method and device and readable storage medium
CN116758157B (en) * 2023-06-14 2024-01-30 深圳市华赛睿飞智能科技有限公司 Unmanned aerial vehicle indoor three-dimensional space mapping method, system and storage medium
CN117152399A (en) * 2023-10-30 2023-12-01 长沙能川信息科技有限公司 Model making method, device, equipment and storage medium based on transformer substation
CN117168313B (en) * 2023-11-03 2024-01-23 武汉工程大学 Phase error model correction method and system based on grating projection three-dimensional reconstruction
CN117476509B (en) * 2023-12-27 2024-03-19 联合富士半导体有限公司 Laser engraving device for semiconductor chip product and control method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9892552B2 (en) * 2015-12-15 2018-02-13 Samsung Electronics Co., Ltd. Method and apparatus for creating 3-dimensional model using volumetric closest point approach
CN108537876B (en) * 2018-03-05 2020-10-16 清华-伯克利深圳学院筹备办公室 Three-dimensional reconstruction method, device, equipment and storage medium
US10733718B1 (en) 2018-03-27 2020-08-04 Regents Of The University Of Minnesota Corruption detection for digital three-dimensional environment reconstruction
CN108986037B (en) 2018-05-25 2020-06-16 重庆大学 Monocular vision odometer positioning method and positioning system based on semi-direct method
CN109166149B (en) * 2018-08-13 2021-04-02 武汉大学 Positioning and three-dimensional line frame structure reconstruction method and system integrating binocular camera and IMU
CN110910493B (en) * 2019-11-29 2021-05-14 广州极飞科技股份有限公司 Three-dimensional reconstruction method and device and electronic equipment
CN112767538A (en) * 2021-01-11 2021-05-07 浙江商汤科技开发有限公司 Three-dimensional reconstruction and related interaction and measurement method, and related device and equipment

Also Published As

Publication number Publication date
KR20230127313A (en) 2023-08-31
JP7453470B2 (en) 2024-03-19
WO2022147976A1 (en) 2022-07-14
CN112767538A (en) 2021-05-07

Similar Documents

Publication Publication Date Title
JP7453470B2 (en) 3D reconstruction and related interactions, measurement methods and related devices and equipment
CN108509848B (en) The real-time detection method and system of three-dimension object
US20210232924A1 (en) Method for training smpl parameter prediction model, computer device, and storage medium
Walch et al. Image-based localization using lstms for structured feature correlation
WO2021175050A1 (en) Three-dimensional reconstruction method and three-dimensional reconstruction device
CN111243093B (en) Three-dimensional face grid generation method, device, equipment and storage medium
WO2020001168A1 (en) Three-dimensional reconstruction method, apparatus, and device, and storage medium
Torii et al. From google street view to 3d city models
WO2019205852A1 (en) Method and apparatus for determining pose of image capture device, and storage medium therefor
Zhuang et al. Acdnet: Adaptively combined dilated convolution for monocular panorama depth estimation
WO2015135323A1 (en) Camera tracking method and device
JP2011095797A (en) Image processing device, image processing method and program
US20200057778A1 (en) Depth image pose search with a bootstrapped-created database
WO2023093739A1 (en) Multi-view three-dimensional reconstruction method
GB2566443A (en) Cross-source point cloud registration
Zhang et al. Research on 3D architectural scenes construction technology based on augmented reality
WO2022247126A1 (en) Visual localization method and apparatus, and device, medium and program
CN114693853A (en) Object rendering method and device, electronic equipment and storage medium
WO2022208440A1 (en) Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture
CN114255285A (en) Method, system and storage medium for fusing three-dimensional scenes of video and urban information models
Geng et al. SANet: A novel segmented attention mechanism and multi-level information fusion network for 6D object pose estimation
CN110135474A (en) A kind of oblique aerial image matching method and system based on deep learning
Bajramovic et al. Global Uncertainty-based Selection of Relative Poses for Multi Camera Calibration.
CN112750164B (en) Lightweight positioning model construction method, positioning method and electronic equipment
CN113570535A (en) Visual positioning method and related device and equipment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240307

R150 Certificate of patent or registration of utility model

Ref document number: 7453470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150