JP6879891B2 - 平面セグメントを用いて点群を完成させる方法およびシステム - Google Patents

平面セグメントを用いて点群を完成させる方法およびシステム Download PDF

Info

Publication number
JP6879891B2
JP6879891B2 JP2017232350A JP2017232350A JP6879891B2 JP 6879891 B2 JP6879891 B2 JP 6879891B2 JP 2017232350 A JP2017232350 A JP 2017232350A JP 2017232350 A JP2017232350 A JP 2017232350A JP 6879891 B2 JP6879891 B2 JP 6879891B2
Authority
JP
Japan
Prior art keywords
point cloud
dimensional
point
plane
signed distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017232350A
Other languages
English (en)
Other versions
JP2018124985A5 (ja
JP2018124985A (ja
Inventor
田口 裕一
裕一 田口
ヨン・シャオ
ビニート・アール・カマト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2018124985A publication Critical patent/JP2018124985A/ja
Publication of JP2018124985A5 publication Critical patent/JP2018124985A5/ja
Application granted granted Critical
Publication of JP6879891B2 publication Critical patent/JP6879891B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Description

本開示は、平面セグメントを用いて、点群を完成させる方法およびシステムに関する。
3次元(3D)点群は、レーザースキャナーおよび深度センサ等の様々なセンサを用いて得ることができ、3Dモデル化および3D物体認識等のいくつかの用途に広く用いられている。そのような3D点群は、本質的に、オクルージョン、限られた視野および測定範囲等のセンサ限界に起因して、データが欠落するという難点がある。3D点群内の欠落データを完成させることは、その後の適用、例えば、3Dモデル化に際して、欠落のないモデルを生成すること、および3D物体認識において、高い精度の認識を実現すること、が重要である。
3D物体認識は、表面の対称性および平滑性等の幾何学的特性を用いて、3D点群内の孔を充填する方法がある。また、3D物体モデルの既存のライブラリーを用いて、それらの3D物体モデルを3D点群に適合させて、欠落点を回復する方法もある。
さらに、3D点群を2次元(2D)画像上に投影し、これらの画像を用いて3D点群内の点を内挿する方法が知られている(例えば、特許文献1、特許文献2参照)。また、センサを移動させるとともに、欠落点を含むエリアにおいて、より多くのデータを取り込むようにフィードバックをユーザーに与える方法も知られている(例えば、特許文献3参照)。
また、3D点群を一組の物体プリミティブにセグメント化し、物体プリミティブごとに、オクルードされた領域内の点を充填する。次に、物体プリミティブ間の支持関係が、物理的推論に基づいて推定される方法がある。さらに、3D点群は、一組の直方体にセグメント化され、これらの直方体が、オクルードされた領域内に外挿され、それらの支持関係および配置が推定され、これによって、これらの直方体は物理的に安定する。そして、外挿された直方体は、オクルードされた領域内の点を充填するのに用いられる方法もある。
米国特許出願公開第2014/0132733号 米国特許第8,731,247号 米国特許第8,861,840号
しかしながら、上述した方法では、3D点群内の欠落データを完成させるには、多くの時間が必要になる。そのため、3D点群内の欠落データを完成させるための、より効率的なシステムまたは方法の開発が必要とされている。
本開示の幾つかの実施の形態は、平面セグメントを抽出し、これらの平面セグメント間の接続関係を推論し、3D点群内の欠落点を回復することができるシステムおよび方法を提供する。
本開示は、多くの3Dスキャンおよび3Dモデル化の適用の対象となるシーンが、平面構造によって支配されているという認識に基づいている。例として、オフィスビル、住宅、および工場フロアの屋内シーンに加えて、都市環境の屋外シーンも含まれる。したがって、本開示は、平面セグメントに基づいて点を完成させること、孔のない区分的に平面の3Dモデルを生成すること、に焦点を当てている。
本開示の別の認識は、3Dセンサを用いて得られた測定値が、物体によって占有されたシーン内の3Dロケーションだけでなく、シーン内のそれらの3Dロケーションが空き空間であるのか、未知の状態であるのか、の情報も提供することである。すなわち、3Dロケーションが、3Dセンサによって、測定された物体の前方にある場合には、それらの3Dロケーションは、空き空間であるはずである。一方、3Dロケーションが、3Dセンサによって、測定された物体の背後にある場合には、それらの3Dロケーションは、未知の状態である。本開示は、3Dセンサ測定値から符号付き距離場(SDF)を構築して、シーンの各3Dロケーションを、占有、空き空間、または未知に分類する。次に、本開示は、平面セグメントから十分な根拠が得られた場合には、空き空間の3Dロケーションを変更しないように維持する。そして、平面セグメント上の未知の3Dロケーションの充填を試みる。
本開示の更に別の認識は、本開示の焦点が、平面セグメント上の点を完成させることにあるため、3D座標系を用いて3D空間全体のSDFを定義するのではなく、各平面セグメント上でそれぞれ2D座標系を用いてSDFを定義することができることである。これによって、計算のコストおよびメモリの消費が削減され、計算速度が、より高速になる。
本開示のいくつかの実施の形態によれば、3次元(3D)点群内の欠落点を完成させるシステムは、シーン内の物体の点データを測定する3Dセンサと、プログラムおよび点データを記憶するメモリとに接続されたプロセッサであって、プロセッサは、プログラムの命令ステップを実行し、ステップは、物体の点データを取得して、3D点群を生成するステップであって、点データは、物体上の点の集合を含む、ステップと、3D点群から平面セグメントを抽出するステップと、平面セグメント間の接続関係および欠落点を特定するステップと、平面セグメントおよび接続関係を用いて3D点群内の欠落点を充填して、完成された3D点群を生成するステップと、を含む、プロセッサと、プロセッサおよび3Dセンサに接続された、完成された3D点群を表示するディスプレイモニターと、を備える。
さらに、本開示の一つの実施の形態は、3D点群内の欠落点を完成させる方法であって、プロセッサがメモリおよび3Dセンサと通信する、方法を提供する。方法は、3Dセンサを用いてシーン内の物体の点データを測定するステップと、物体の点データを取得して、3D点群を生成するステップであって、点データは、物体上の点の集合を含む、ステップと、3D点群から平面セグメントを抽出するステップと、平面セグメント間の接続関係および欠落点を特定するステップと、平面セグメントおよび接続関係を用いて3D点群内の欠落点を充填して、完成された3D点群を生成するステップと、を含む。
さらに、本開示の別の実施の形態は、方法を実行するコンピューターによって、実行可能なプログラムが、具現化された非一時的コンピューター可読記憶媒体であって、方法は、3D点群内の欠落点を完成させるものであり、プロセッサが、メモリおよび3Dセンサと通信する、非一時的コンピューター可読記憶媒体を提供する。方法は、3Dセンサを用いてシーン内の物体の点データを測定するステップと、物体の点データを取得して、3D点群を生成するステップであって、点データは、物体上の点の集合を含む、ステップと、3D点群から平面セグメントを抽出するステップと、平面セグメント間の接続関係および欠落点を特定するステップと、平面セグメントおよび接続関係を用いて3D点群内の欠落点を充填して、完成された3D点群を生成するステップと、を含む。
本発明による平面セグメントを用いて点群を完成させるシステムおよび方法は、あらゆる3Dモデル化および3D視覚化の用途における、ビジュアルの表示品質を改善する。
ここに開示されている実施の形態は、添付図面を参照して、さらに説明される。示されている図面は、必ずしも一律の縮尺というわけではなく、その代わり、一般的に、ここに開示されている実施形態の原理を示すことに強調が置かれている。
本開示の実施の形態による3D点群完成システムを示すブロック図である。 3Dセンサを用いて3D点群を取得する一例示の説明図である。 図2Aから取得された3D点群の一例を示す図である。 物体によって生成された平面セグメント上の欠落点を示す3D点群の一例を示す図である。 図2Bにおける3D点群から得られた、完成された3D点群の一例を示す図である。 本開示の一つの実施の形態による、3Dセンサによって取得された3D点群を完成させる3D点群完成システムを示すブロック図である。 3Dセンサと物体上で測定された点との間の幾何学的関係を示す図2Bの断面図である。 本開示の一つの実施の形態による、2つの平面セグメントの間で3D点を完成させる手順を示す図である。 本開示の一つの実施の形態による、2つの平面セグメントの間で3D点を完成させる手順を示す図である。 本開示の一つの実施の形態による、2つの平面セグメントの間で3D点を完成させる手順を示す図である。 本開示の一つの実施の形態による、2つの平面セグメントの間で3D点を完成させる手順を示す図である。
以下の説明は、例示的な実施の形態のみを提供し、本開示の範囲も、適用範囲も、構成も限定することを意図していない。そうではなく、例示的な実施の形態の以下の説明は、1つ以上の例示的な実施の形態を実施することを可能にする説明を当業者に提供する。添付の特許請求の範囲に明記されているような開示された主題の趣旨および範囲から逸脱することなく、要素の機能および配置に行うことができる様々な変更が意図されている。
以下の説明では、実施の形態の十分な理解を提供するために、具体的な詳細が与えられる。しかしながら、当業者は、これらの具体的な詳細がなくても実施の形態を実施することができることを理解することができる。例えば、開示された主題におけるシステム、プロセス、および他の要素は、実施の形態を不必要な詳細で不明瞭にしないように、ブロック図形式の構成要素として示される場合がある。それ以外の場合において、よく知られたプロセス、構造、および技法は、実施の形態を不明瞭にしないように不必要な詳細なしで示される場合がある。さらに、様々な図面における同様の参照符号および名称は、同様の要素を示す。
また、個々の実施の形態は、フローチャート、フロー図、データフロー図、構造図、またはブロック図として描かれるプロセスとして説明される場合がある。フローチャートは、動作を逐次的なプロセスとして説明することができるが、これらの動作の多くは、並列または同時に実行することができる。加えて、これらの動作の順序は、再配列することができる。プロセスは、その動作が完了したときに終了することができるが、論述されないまたは図に含まれない追加のステップを有する場合がある。さらに、特に説明される任意のプロセスにおける、全ての動作が全ての実施の形態において行われ得るとは限らない。プロセスは、方法、関数、手順、サブルーチン、サブプログラム等に対応することができる。プロセスが関数に対応するとき、その関数の終了は、呼び出し側関数またはメイン関数へのその機能の復帰に対応することができる。
さらに、開示された主題の実施の形態は、少なくとも一部は手動または自動のいずれかで実施することができる。手動実施または自動実施は、マシン、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、またはそれらの任意の組み合わせを用いて実行することもできるし、少なくとも援助することができる。ソフトウェア、ファームウェア、ミドルウェアまたはマイクロコードで実施されるとき、必要なタスクを実行するプログラムコードまたはプログラムコードセグメントは、マシン可読媒体に記憶することができる。プロセッサ(複数の場合もある)が、それらの必要なタスクを実行することができる。
本開示の実施の形態の概略
図1は、本開示の実施の形態による3D点群完成システム100を示すブロック図である。
3D点群完成システム100は、キーボード111、ポインティングデバイス/メディア112、およびマイクロフォン113と接続可能な入力/出力(I/O)インターフェースを有するヒューマンマシンインターフェース(HMI)110と、受信機114と、送信機115と、3Dセンサ116と、全地球測位システム(GPS)117と、1つ以上のI/Oインターフェース118と、プロセッサ120と、記憶デバイス130と、メモリ140と、ローカルエリアネットワークおよびインターネットネットワーク(図示せず)を含むネットワーク155と接続可能なネットワークインターフェースコントローラー150(NIC)と、ディスプレイデバイス165に接続されたディスプレイインターフェース160と、撮像デバイス175と接続可能な撮像インターフェース170と、印刷デバイス185と接続可能なプリンターインターフェース180と、を備えることができる。I/Oインターフェースを有するHMI110は、アナログ/デジタル変換器およびデジタル/アナログ変換器を備えてもよい。I/Oインターフェースを有するHMI110は、無線インターネット接続または無線ローカルエリアネットワークを介して他の3D点群完成システムまたは他のコンピューターと通信することができる無線通信インターフェースを備える。これによって、複数の3D点群を完成させることが可能になる。3D点群完成システム100は、電力源190を備えることができる。電力源190は、充電可能な電池であってもよく、電池は、I/Oインターフェース118を介して外部電力源(図示せず)から充電することもできる。つまり、用途に応じて、電力源190は、任意に選択でき、システム100の外部に置くことも可能である。
HMIとI/Oインターフェース110、I/Oインターフェース118は、とりわけ、コンピューターモニター、カメラ、テレビ、プロジェクター、またはモバイルデバイスを含む別のディスプレイデバイス(図示せず)に接続するように構成することができる。
3D点群完成システム100は、NIC150に接続されたネットワーク155を介して、音声データを含む電子テキスト/撮像文書を受信することができる。記憶デバイス130は、3D点群完成プログラム131を含み、3D点群完成プログラム131のアルゴリズムが、コードデータとして記憶装置130に記憶されている。アルゴリズムは、コンピューター可読記録媒体(図示せず)に記憶されてもよく、その結果、プロセッサ120は、この媒体からアルゴリズムをロードすることによって、当該アルゴリズムに従って3D点群完成プログラムを実行することができる。さらに、ポインティングデバイス/メディア112は、コンピューター可読記録媒体に記憶されたプログラムを読み出すモジュールを備えてもよい。
3Dセンサ116を用いて3D点群の取得を開始するために、命令をシステム100に、キーボード111またはポインティングデバイス/メディア112を用いて送信することもできる。また、無線ネットワークまたは他のコンピューター195に接続されたネットワーク155を介して送信することもできる。3D点群の取得は、記憶装置130に記憶されている事前にインストールされた、従来の音声認識プログラムを用いたマイクロフォン113によるユーザーの音響信号の受信に応答して開始されてもよい。
プロセッサ120は、1つ以上のグラフィックス処理装置(GPU)を含む複数のプロセッサであってもよい。記憶装置130は、マイクロフォン113を介して得られた音声信号を認識することができる音声認識アルゴリズム(図示せず)を含んでもよい。
点群取得プロセス
図2Aは、本開示の実施の形態による、3D点群完成システム100の3Dセンサ116を用いて3D点群を取得する一例示の説明図である。この例では、3D点群完成システム100は、正面の壁210、左の壁211、右の壁212、床220、天井(図示せず)、テーブル230、照明器具240、および窓250を備える部屋の中の物体の点データをスキャンする。
3Dセンサ116は、物体の表面上で測定された3D点の集合を含む点データを検出する。これらの点データは、メモリ140または記憶装置130に記憶される。これらの点データについて、プロセッサ120を用いて、3D点群完成プログラム131に従い、データ処理が実行される。通常、3D点の集合は、深度画像として知られている、ピクセルによって示された2D画像として取得される。この深度画像では、各ピクセルは、そのピクセルによって規定された光線の方向に沿って位置する物体の表面上の3D点までの距離測定値を含む。各ピクセルについて、そのピクセルに対応する光線の方向は、3Dセンサの内部較正パラメーターを用いて、ピクセルを逆投影することによって復元することができる。また、3D点は、光線上の3Dロケーションにおいて復元することができる。3Dセンサからのこの3Dロケーションの距離は、距離測定値によって与えられる。
図2Bは、図2Aに示す部屋から取得された点データの一例を示している。図2Cは、他の物体上で取得された点データを除外した、平面物体上で取得された点データを示している。ここで、3Dセンサ116は、当該3Dセンサの視線内にある表面上でしか点データを得ないことに留意されたい。このため、テーブル260および照明器具261の背後の領域は、これらの物体によってオクルードされるため、3D点を含まない。また、窓262に対応する領域も、3Dセンサによって測定することができる表面がないため、3D点を含まない。3D点群完成システムの目標は、これらの領域における欠落した3D点を充填し、図2Dに示すような完成された3D点群を生成することである。
本開示の1つの実施の形態では、3D点群は、3Dセンサ116を固定した姿勢に配置することによって生成される。3Dセンサ116の姿勢は、3自由度の平行移動(位置)および3自由度の回転(方位)を含み、合計6つの自由度を有する。この場合には、点データは、固定した姿勢における単一のフレーム(深度画像)として取得され、3D点群は、点データの単一のフレームによって生成される。別の実施の形態では、3D点群は、3Dセンサを種々の姿勢に移動させること、それらの種々の姿勢における点データの複数のフレームを取得すること、それらの複数のフレームの種々の姿勢を推定してそれらの複数のフレームを単一の共通座標系(またはあらかじめ設定された単一の座標系)に互いに位置合わせすること、によって生成される。そのような位置合わせは、当該技術分野において知られているような同時位置同定地図構築(SLAM:simultaneous localization and mapping)技法を用いることによって行うことができる。3Dセンサの種々の姿勢において取得された点データの、複数のフレームを位置合わせすることによって、欠落した3D点の領域は、削減される。しかしながら、いくつかの領域(例えば、テーブルの背後の領域)は、いずれの姿勢においても測定することができず、欠落した領域として残る。
点群完成プロセス
図3は、本開示の一つの実施の形態による3D点群完成システム100を示すブロック図である。3Dセンサ116によって単一のフレームまたは複数のフレームの集合として取得された3D点群305が与えられる場合には、3D点群完成システム100は、ステップ310において、3D点群305から平面セグメント315を抽出すること、ステップ320において、平面セグメント間の接続関係325および欠落点を特定すること、ステップ330において、平面セグメント315および接続関係325を用いて欠落点を充填すること、によって3D点群を完成させ、完成された3D点群335を生成する。
3D点群から平面セグメントを抽出するために、様々な方法が、当該技術分野において知られている。いくつかの方法は、3D空間における3D点群から平面セグメントを直接抽出する。それらの方法は、3D空間において、最近傍探索を実行して、同じ平面セグメントに属する空間的に接近した3D点を求める必要があり、これは、通常、多くの時間を必要とする。より効率的な処理のために、本開示のいくつかの実施の形態は、3D点群を生成するのに用いられる2D深度画像から平面セグメントを抽出する。この2D深度画像では、空間的に接近した3D点を、2D画像グリッド上のピクセル近傍として容易に求めることができる。
本開示の好ましい実施の形態では、平面セグメントは、深度画像から抽出される。3D点群が、深度画像の複数のフレームを位置合わせすることによって生成されると、平面セグメントは、それらの深度画像のそれぞれから抽出され、フレームの推定された姿勢に従って互いに位置合わせされる。ここで、同様の平面方程式を有するとともに、互いに空間的に接近している位置合わせされた平面セグメントは、互いにマージされることに留意されたい。マージされた平面セグメントは、フレームの推定された姿勢と平面セグメントの平面方程式とをバンドル調整手順を用いて精緻化するのに用いることができる。
平面セグメントが抽出されると、3D点群完成システム100は、それらの平面セグメント間の接続関係および欠落点を特定する。2つの平面セグメントのペアは、当該2つの平面セグメントが3D線セグメントを物理的に共有する場合には(例えば、図2Aに示す例示のシーンにおける正面の壁および床)、接続されていると定義される。接続されている平面セグメント間には、物理的な間隙は、ほぼ存在せず、接続されている平面セグメントは、3D空間において、接続されているはずである。したがって、3D点群完成システム100は、平面セグメント上に3D点を加えることによって、接続されている平面セグメント間の欠落した領域(点)(例えば、図2Bにおける領域260および261)を充填する。
接続関係を特定するために、本開示の一つの実施の形態は、符号付き距離場(SDF)を用いる。SDFは、3D空間内の各3Dロケーションにおける、符号付き距離値を記憶している。3D空間内の各3Dロケーションは、ボクセルと呼ばれ、通常、3D空間は、均一サイズのボクセルの3Dグリッドを用いて均一に離散化されている。例えば、各ボクセルは、1cm×1cm×1cmの物理空間に対応する。8分木等のデータ構造を用いて、必要なボクセルのみを効率的に記憶することができる。符号付き距離値は、ボクセルから最も接近した物体表面までの距離を表す。すなわち、符号付き距離値は、ボクセルが物体表面上にある場合には、0であり、ボクセルが、物体表面の前方にある場合には、正であり、ボクセルが、物体表面の背後にある場合には、負である。SDFが得られると、各ボクセルを3つのタイプに分類することができる。すなわち、符号付き距離値が、0に十分に近い(閾値内またはあらかじめ設定された範囲内である)場合には、占有ボクセルに、符号付き距離値が十分に正である場合には、空き空間ボクセルに、符号付き距離値が十分に負である場合には、未知ボクセルに、それぞれ分類することができる。例えば、符号付き距離値が、0を含むあらかじめ設定された範囲内にあるとき、対応するボクセルは、占有ボクセルとして分類される。この場合には、この所定の範囲は、正値側に正の限界値を有し、負値側に負の限界値を有する。換言すれば、符号付き距離値が所定の範囲内にあるとき、対応するボクセルは、近似的に物体の表面上に位置している。符号付き距離値が、正側におけるあらかじめ設定された範囲の正の限界を越えているとき、対応するボクセルは、空き空間ボクセルとして分類される。さらに、符号付き距離値が、負側におけるあらかじめ設定された範囲の負の限界を越えているとき、対応するボクセルは、未知ボクセルとして分類される。
本開示のこの実施の形態は、3Dセンサからの光線方向に沿ってのみ求められる近似された符号付き距離値を用いて、3D点群からSDFを生成する。このプロセスは、図2Aに示す例示のシーンの断面図を示す図4に示されている。3Dセンサ116に対する各光線方向について、3Dセンサ116は、天井400、正面の壁210、およびテーブル230等の物体の表面上の3D点を測定する。物体表面上のこれらの3D点におけるボクセルは、0の符号付き距離値を有し、占有ボクセル410に対応する。物体表面上の3D点の前方のボクセルは、その絶対値が3D点とボクセルとの間の距離を示す正の符号付き距離値を有し、図4では空き空間ボクセル420として示されている。物体表面上の3D点の背後のボクセルは、その絶対値が3D点とボクセルとの間の距離を示す負の符号付き距離値を有し、未知ボクセル430として示されている。ここで、窓250を通過する光線は、3D点測定値を有しないことに留意されたい。なぜならば、光線方向に沿った物体表面が存在しないためである。通過する光線上のボクセルは、所定の未知距離値(例えば、負の無限値)を有し、未知ボクセル430として分類される。3D点群が、点データの単一のフレームから生成される場合には、上述したように求められたSDFを直接用いることができる。3D点群が、点データの複数のフレームから生成される場合には、SDFは、まず、3Dセンサ116の推定された姿勢を用いて、フレームごとに個別に求められる。次に、これらの複数のSDFが平均されて、単一のSDFが生成される。この後者の場合には、各SDFにおける符号付き距離値は、通常、平均される前に、閾値を用いてトランケートされる。
SDFから得られた分類済みボクセルが与えられると、3D点群完成システム100は、2つの平面セグメントおよび欠落点のあらゆるペアについて接続関係を特定する。この手順は、図5A〜図5Dに示され、以下のように詳述される。図5Aに示すような、2つの平面セグメント510および511のペアを検討することにする。ボクセルは、3D空間において3Dグリッド上に画定され、したがって、一般に、平面セグメント上に正確に位置しているとは限らないことに留意されたい。ただし、例示として、図5Aは、ボクセルが平面セグメント上に正確に位置しているかのようにボクセルを示している。実際には、システム100は、平面セグメント上の各3Dロケーションから最近傍ボクセルを見つけて、次の手順を実行する。2つの平面セグメントのペアについて、図5Bに示すように、システム100は、まず、各平面セグメントを無限平面とみなすことによって、これらの2つの平面セグメントの交差として3D交線520を求める。システム100は、次に、プロセッサ120を用いて、3D点群完成プログラム131に記述された命令に従って、3D交線上の各3D点530を処理する。すなわち、各3D点530から、システム100は、未知ボクセルを無視しながら、占有ボクセルまたは空き空間ボクセルのいずれかである最初のボクセルを見つけるまで、3D交線方向に直交した方向に向かって2つの平面セグメントのそれぞれを移動(スキャン)する(540)。最初に見つけられたボクセルが、2つの平面セグメントの双方において占有ボクセルである場合には、その3D点は、図5Cに示すように、接続されている3D点候補550としてマーキングされる。3D交線520上の全ての3D点530を処理(スキャン)した後、接続されている3D点候補550は、接続されている3D線セグメント候補560の集合にクラスタリングされる。接続されている3D線セグメント候補の集合において、長さが閾値(例えば、10cm)よりも長い3D線セグメントが、接続されている3D線セグメントの集合として最終的に選択され、少なくとも1つの接続されている3D線セグメントを有する2つの平面セグメントのペアが、接続されているとみなされる。上記手順は、2つの平面セグメントが接続されているとみなされるためには、これらの2つの平面セグメント間のボクセルの大部分が、占有ボクセルまたは未知ボクセルのいずれかであり、多くの空き空間ボクセルが存在しないことを保証している。すなわち、2つの平面セグメント間のボクセルの大部分が、占有ボクセルまたは未知ボクセルである場合には、それらの2つの平面セグメントは、接続されているとして特定される。互いに平行な2つの平面セグメントのペアは、常に接続されておらず、この手順において無視される。
上述したような手順において、接続関係を特定するのに、いくつかの変形した戦略および閾値を用いることができることに留意されたい。例えば、3D点は、最初に見つけられたボクセルのうちの少なくとも一方(必ずしも、最初に見つけられたボクセルの双方ではない)が占有ボクセルである場合には、接続されている3D点候補としてマーキングされてもよい。システム100が、最初のボクセルを見つけるために移動しているとき、最初に見つけられたボクセルが、3D交線から過度に遠くならないように、距離閾値(例えば、50cm)が用いられてもよい。平行な平面セグメントは、平面セグメントの法線間の角度に対して閾値を用いて判断することができる。例えば、2つの平面セグメントは、これらの平面セグメントの法線間の角度が、5度よりも小さい場合に平行であるとみなされる。この角度閾値は、システム100が、互いにほぼ直交している2つの平面セグメントのペアのみを処理するように調整されてもよい。例えば、角度閾値が、85度に設定されている場合には、2つの平面セグメントは、これらの平面セグメントの法線間の角度が85度よりも小さい場合には、平行であるとみなされ、無視される。これは、2つの平面セグメントの法線間の角度が85度以上である場合にのみ、すなわち、2つの平面セグメントが互いにほぼ直交している場合にのみ、それらの2つの平面セグメントを処理することと同等である。
3D点群完成システム100は、接続されている3D線セグメント560の集合を用いて、接続されている平面セグメント間の欠落点を充填する。システム100は、接続されている3D線セグメント560のそれぞれにおける各3D点550から開始して、占有された最初のボクセル(この時、空き空間とすることはできない)を見つけるまで、3D交線方向に直交した方向に向かって、2つの平面セグメントのそれぞれを移動する(570)。このプロセスの間、未知ボクセルは、システム100によって欠落点として特定され、図5Dに示すように、占有ボクセルを用いて充填され、占有ボクセルとして更新される。
3D点群完成システム100は、各平面セグメントを用いて、その平面セグメント上の欠落点も充填する。例えば、平面セグメント上で占有ボクセルによって取り囲まれた一組の未知ボクセル(例えば、図2Bにおける窓領域262)は、欠落点として特定され、これらの欠落点は、占有ボクセルとして充填することができる。そのような領域を充填しないことが好ましい場合には、その領域に含まれる未知ボクセルの数に関する閾値が用いられてもよい(例えば、領域に含まれる未知ボクセルの数が100未満である場合にのみ、その領域は充填される)。他方、平面セグメント上の一組の空き空間ボクセルは充填されるべきではない。そのような例は、図2A及び図2Bにおける例示の部屋のシーンでは、窓250が廊下に面しており、3Dセンサ116が、部屋の向かい側に位置している廊下の壁を、窓を通して測定すると仮定した場合に示すことができる。そのような場合には、3Dセンサは、窓の背後に位置している廊下の壁上の3D点を測定するため、窓領域262は、一組の空き空間ボクセルであり、このため、空き空間ボクセルは、空きエリアの存在を示すため、窓領域262は、充填されるべきでない。
接続関係を特定するプロセスおよび欠落点を充填するプロセスは、充填するプロセスから得られる更新された一組の分類済みボクセルを、特定するプロセスへの入力として用いることによって、収束がステップ340において確認されるまで繰り返すことができる。更新された一組の分類済みボクセルが、入力された一組の分類済みボクセルと同一である場合には、この収束を決定することができる。すなわち、少なくとも1つの欠落点が、充填するプロセスにおいて充填される場合には、このプロセスを繰り返すことができる。
以上、説明したように、3D点群完成システム100は、接続関係を特定することおよび欠落点を充填することに、SDFおよび分類済みボクセルを用いる。本開示の一つの実施の形態は、これらのプロセスが、平面セグメント上に位置している分類済みボクセルにしかアクセスしないことを認識している。この認識は、SDFおよび分類済みボクセルを求め、より高速な処理速度およびメモリ効率を得るために、平面セグメント上にのみ記憶する必要があることを示唆している。したがって、本開示のこの実施の形態は、3D座標を用いてアクセスする必要がある、3D空間全体の3DのSDFを定義するのではなく、2D座標を用いてアクセスすることができる各平面セグメントの2DのSDFを定義する。平面セグメントについて定義された一組の2DのSDFと、これらの2DのSDFにおける分類済みボクセルとは、3DのSDFを求めるのに用いられる手順と同じ手順を用いて求めることができる。
3D点群完成システムの出力は、一組の占有ボクセルを含む、完成された3D点群である。この出力は、一組の完成された平面セグメントを含む、区分的に平面の3Dモデルとみなすこともできる。完成された平面セグメントのそれぞれは、その平面セグメントに属する一組の占有ボクセルとして、またはその平面セグメントに属する占有ボクセルを囲む一組の境界ポリゴンとして表すことができる。
用途
完成された3D点群は、あらゆる3Dモデル化および3D視覚化の用途に、より良好なビジュアルの表示品質を提供することができる。完成された3D点群は、3Dモデルベースのシミュレーションについても、特に、3Dモデルからのシミュレーション対象エンティティのリークが重大な問題であるときに有用となる場合がある。例として、空気流および熱伝導のシミュレーション、WiFiおよびセルラーネットワークの無線伝播のシミュレーション、および可視光伝播のシミュレーションが含まれる。そのようなシミュレーションは、ビルディング情報モデル化(BIM)において一般に興味がもたれている。
本開示の焦点は、完成された平面セグメントを含む、区分的に平面の3Dモデルを生成することであるが、非平面の物体表面上に位置している非平面の3D点を、出力される3Dモデルに加えることができる。非平面の3D点は、いずれの平面セグメントにも属さない3D点として、平面セグメント抽出プロセスにおいて見つけることができる。
本開示の上述した実施の形態は、多数の方法のうちの任意のもので実施することができる。例えば、上述した実施の形態は、ハードウェア、ソフトウェア、またはそれらの組み合わせを用いて実施することができる。ソフトウェアで実施されるとき、このソフトウェアコードは、単一のコンピューター内に設けられているのかまたは複数のコンピューター間に分散されているのかを問わず、任意の適したプロセッサまたはプロセッサの集合体上で実行することができる。そのようなプロセッサは、集積回路構成要素に1つ以上のプロセッサを有する集積回路として実施することができる。ただし、プロセッサは、任意の適したフォーマットの回路部を用いて実施することができる。
また、本明細書において略述された様々な方法またはプロセスは、様々なオペレーティングシステムまたはプラットフォームのうちの任意の1つを用いる1つ以上のプロセッサ上で実行可能なソフトウェアとしてコード化することができる。加えて、そのようなソフトウェアは、複数の適したプログラミング言語、プログラミングツールもしくはスクリプティングツールのうちの任意のものを用いて記述することができ、実行可能機械語コード、またはフレームワークもしくは仮想機械上で実行される中間コードとしてコンパイルすることもできる。通常、プログラムモジュールの機能は、様々な実施形態において所望に応じて組み合わせることもできるし、分散させることもできる。
また、本開示の実施の形態は、方法として具現化することができ、この方法の一例が提供されている。この方法の一部として実行される動作は、任意の適した方法で順序付けることができる。したがって、例示したものと異なる順序で動作が実行される実施の形態を構築することができ、この順序は、いくつかの動作が例示の実施の形態では順次的な動作として示されていても、それらの動作を同時に実行することを含むことができる。さらに、請求項の要素を修飾する、特許請求の範囲における「第1」、「第2」等の序数の使用は、それ自体で、1つの請求項の要素の別の請求項の要素に対する優先順位も、優位性も、順序も暗示するものでもなければ、方法の動作が実行される時間的な順序も暗示するものでもなく、請求項の要素を区別するために、単に、ある特定の名称を有する1つの請求項の要素を、同じ(序数の用語の使用を除く)名称を有する別の要素と区別するラベルとして用いられているにすぎない。

Claims (17)

  1. 3次元点群内の欠落点を完成させるシステムであって、
    シーン内の物体の点データを測定する3次元センサと、
    前記3次元センサと、プログラムおよび前記点データを記憶するメモリとに接続されたプロセッサであって、該プロセッサは、前記プログラムの命令ステップを実行し、前記命令ステップは、
    前記物体の前記点データを取得して、前記3次元点群を生成するステップであって、前記点データは、前記物体の上の点の集合を含む、ステップと、
    前記3次元点群から平面セグメントを抽出するステップと、
    前記平面セグメント間の接続関係および欠落点を特定するステップと、
    前記平面セグメントおよび前記接続関係を用いて前記3次元点群内の前記欠落点を充填して、完成された3次元点群を生成するステップと、
    を含む、プロセッサと、
    前記プロセッサおよび前記3次元センサに接続された、前記完成された3次元点群を表示するディスプレイモニターと、
    を備え
    前記特定するステップおよび前記充填するステップは、符号付き距離場を用い、該符号付き距離場は、前記シーン内の各ボクセルの符号付き距離値を含む、システム。
  2. 前記特定するステップおよび前記充填するステップは、少なくとも1つの欠落点が前記充填するステップにおいて充填される場合に繰り返される、請求項1に記載のシステム。
  3. 前記3次元点群は、前記3次元センサを固定した姿勢に配置することによって取得される前記点データの単一のフレームから生成される、請求項1に記載のシステム。
  4. 前記3次元点群は、前記3次元センサを種々の姿勢に移動させることによって取得される前記点データの複数のフレームから、該複数のフレームを共通座標系に位置合わせすることによって生成される、請求項1に記載のシステム。
  5. 前記平面セグメントは、前記点データの前記複数のフレームのそれぞれから抽出され、前記共通座標系に位置合わせされる、請求項4に記載のシステム。
  6. 前記各ボクセルは、前記符号付き距離値が所定の範囲内にある場合には、占有ボクセルとして分類され、前記各ボクセルは、前記符号付き距離値が正の側における前記所定の範囲の正の限界を越えている場合には、空き空間ボクセルとして分類され、前記各ボクセルは、前記符号付き距離値が負の側における前記所定の範囲の負の限界を越えている場合には、未知ボクセルとして分類される、請求項に記載のシステム。
  7. 2つの前記平面セグメント間のボクセルの大部分が前記占有ボクセルまたは前記未知ボクセルのいずれかである場合に、2つの前記平面セグメントは、接続されているとして特定される、請求項に記載のシステム。
  8. 接続されているとして特定された前記2つの平面セグメント間の前記未知ボクセルは、占有ボクセルを用いて充填され、占有ボクセルとして更新される、請求項に記載のシステム。
  9. 前記符号付き距離場は、近似された符号付き距離値を用いて前記点データから生成され、前記近似された符号付き距離値は、前記3次元センサの各光線方向に沿って求められる、請求項に記載のシステム。
  10. 前記符号付き距離場は、3次元空間において定義される、請求項に記載のシステム。
  11. 前記符号付き距離場は、前記平面セグメントのそれぞれにおいて定義される、請求項に記載のシステム。
  12. 3次元点群内の欠落点を完成させる方法であって、プロセッサがメモリおよび3次元センサと通信し、該方法は、
    前記3次元センサを用いてシーン内の物体の点データを測定するステップと、
    前記物体の前記点データを取得して、前記3次元点群を生成するステップであって、前記点データは、前記物体の上の点の集合を含む、ステップと、
    前記3次元点群から平面セグメントを抽出するステップと、
    前記平面セグメント間の接続関係および欠落点を特定するステップと、
    前記平面セグメントおよび前記接続関係を用いて前記3次元点群内の前記欠落点を充填して、完成された3次元点群を生成するステップと、
    を含み、
    前記特定するステップおよび前記充填するステップは、符号付き距離場を用い、該符号付き距離場は、前記シーン内の各ボクセルの符号付き距離値を含む、方法。
  13. 前記特定するステップおよび前記充填するステップは、少なくとも1つの欠落点が前記充填するステップにおいて充填される場合に繰り返される、請求項12に記載の方法。
  14. 前記3次元点群は、前記3次元センサを固定した姿勢に配置することによって取得される前記点データの単一のフレームから生成される、請求項12に記載の方法。
  15. 前記3次元点群は、前記3次元センサを種々の姿勢に移動させることによって取得される前記点データの複数のフレームから、該複数のフレームを共通座標系に位置合わせすることによって生成される、請求項12に記載の方法。
  16. 方法を実行するコンピューターによって実行可能なプログラムが具現化された非一時的コンピューター可読記憶媒体であって、前記方法は、3次元点群内の欠落点を完成させるものであり、プロセッサがメモリおよび3次元センサと通信し、前記方法は、
    前記3次元センサを用いてシーン内の物体の点データを測定するステップと、
    前記物体の前記点データを取得して、前記3次元点群を生成するステップであって、前記点データは、前記物体の上の点の集合を含む、生成するステップと、
    前記3次元点群から平面セグメントを抽出するステップと、
    前記平面セグメント間の接続関係および欠落点を特定するステップと、
    前記平面セグメントおよび前記接続関係を用いて前記3次元点群内の前記欠落点を充填して、完成された3次元点群を生成するステップと、
    を含み、
    前記特定するステップおよび前記充填するステップは、符号付き距離場を用い、該符号
    付き距離場は、前記シーン内の各ボクセルの符号付き距離値を含む、非一時的コンピューター可読記憶媒体。
  17. 前記特定するステップおよび前記充填するステップは、少なくとも1つの欠落点が前記充填するステップにおいて充填される場合に繰り返される、請求項16に記載の記憶媒体。
JP2017232350A 2017-01-31 2017-12-04 平面セグメントを用いて点群を完成させる方法およびシステム Active JP6879891B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/420,245 2017-01-31
US15/420,245 US10176589B2 (en) 2017-01-31 2017-01-31 Method and system for completing point clouds using planar segments

Publications (3)

Publication Number Publication Date
JP2018124985A JP2018124985A (ja) 2018-08-09
JP2018124985A5 JP2018124985A5 (ja) 2020-10-22
JP6879891B2 true JP6879891B2 (ja) 2021-06-02

Family

ID=62980041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017232350A Active JP6879891B2 (ja) 2017-01-31 2017-12-04 平面セグメントを用いて点群を完成させる方法およびシステム

Country Status (2)

Country Link
US (1) US10176589B2 (ja)
JP (1) JP6879891B2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10066946B2 (en) 2016-08-26 2018-09-04 Here Global B.V. Automatic localization geometry detection
LU100465B1 (en) 2017-10-05 2019-04-09 Applications Mobiles Overview Inc System and method for object recognition
EP3467782A1 (en) * 2017-10-06 2019-04-10 Thomson Licensing Method and device for generating points of a 3d scene
US11093759B2 (en) * 2018-03-06 2021-08-17 Here Global B.V. Automatic identification of roadside objects for localization
KR20210050582A (ko) 2018-09-27 2021-05-07 스냅 인코포레이티드 스테레오 추출을 사용하는 3차원 장면 인페인팅
WO2020071845A1 (ko) * 2018-10-05 2020-04-09 삼성전자 주식회사 3차원 영상을 부호화하는 방법 및 장치, 3차원 영상을 복호화하는 방법 및 장치
US10883823B2 (en) 2018-10-18 2021-01-05 Cyberoptics Corporation Three-dimensional sensor with counterposed channels
CN109859114B (zh) * 2018-12-27 2020-10-16 北京大学 基于局域平滑性和非局域相似性的三维点云修复方法
SG11202111295UA (en) * 2019-04-12 2021-11-29 Beijing Chengshi Wanglin Information Technology Co Ltd Three-dimensional object modeling method, image processing method, and image processing device
CN110084840B (zh) * 2019-04-24 2022-05-13 阿波罗智能技术(北京)有限公司 点云配准方法、装置、服务器和计算机可读介质
CN110443836B (zh) * 2019-06-24 2022-03-18 中国人民解放军战略支援部队信息工程大学 一种基于平面特征的点云数据自动配准方法及装置
US10818071B1 (en) * 2019-07-26 2020-10-27 Google Llc Image-based geometric fusion of multiple depth images using ray casting
KR20210030147A (ko) * 2019-09-09 2021-03-17 삼성전자주식회사 3d 렌더링 방법 및 장치
CN110569926B (zh) * 2019-09-19 2021-06-08 北京工商大学 一种基于局部边缘特征增强的点云分类方法
CN111462197B (zh) * 2020-03-06 2023-05-26 深圳大学 外观模型获取方法、装置、计算机设备和存储介质
US11321953B2 (en) 2020-03-25 2022-05-03 Hong Kong Applied Science and Technology Research Institute Company Limited Method and apparatus for posture, dimension and shape measurements of objects in 3D scenes
CN115298708A (zh) * 2020-03-30 2022-11-04 上海科技大学 多视角神经人体渲染
CN113866791A (zh) * 2020-06-30 2021-12-31 商汤集团有限公司 雷达装置采集的数据的处理方法及处理装置
CN112634366B (zh) * 2020-12-23 2023-10-17 北京百度网讯科技有限公司 位置信息的生成方法、相关装置及计算机程序产品
CN112287907B (zh) * 2020-12-24 2021-03-19 湖南联智科技股份有限公司 一种基于点云密度梯度的孔洞识别方法
WO2022141220A1 (zh) * 2020-12-30 2022-07-07 深圳市大疆创新科技有限公司 点云处理方法和装置、测距装置及可移动平台
CN113052955B (zh) * 2021-03-19 2023-06-30 西安电子科技大学 一种点云补全方法、系统及应用
US11741621B2 (en) * 2021-05-10 2023-08-29 Qingdao Pico Technology Co., Ltd. Method and system for detecting plane information
CN113298952B (zh) * 2021-06-11 2022-07-15 哈尔滨工程大学 一种基于数据扩容与相似性度量的残缺点云分类方法
CN114266780A (zh) * 2022-02-28 2022-04-01 深圳市其域创新科技有限公司 一种建筑物单体化实例分割方法及装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006084385A1 (en) * 2005-02-11 2006-08-17 Macdonald Dettwiler & Associates Inc. 3d imaging system
JP4715903B2 (ja) * 2008-10-29 2011-07-06 株式会社明電舎 物体の三次元形状モデル作製装置
WO2012012943A1 (en) * 2010-07-28 2012-02-02 Shenzhen Institute Of Advanced Technology Chinese Academy Of Sciences Method for reconstruction of urban scenes
US8879828B2 (en) 2011-06-29 2014-11-04 Matterport, Inc. Capturing and aligning multiple 3-dimensional scenes
US8731247B2 (en) 2012-01-20 2014-05-20 Geodigital International Inc. Densifying and colorizing point cloud representation of physical surface using image data
US9183631B2 (en) 2012-06-29 2015-11-10 Mitsubishi Electric Research Laboratories, Inc. Method for registering points and planes of 3D data in multiple coordinate systems
US9811880B2 (en) 2012-11-09 2017-11-07 The Boeing Company Backfilling points in a point cloud
EP3007129A4 (en) * 2013-05-31 2016-07-27 Panasonic Ip Man Co Ltd MODELING DEVICE, THREE-DIMENSIONAL MODEL GENERATION DEVICE, MODELING METHOD, PROGRAM AND LAYOUT SIMULATOR
US9412040B2 (en) 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US9609307B1 (en) * 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
US10026230B2 (en) * 2016-03-30 2018-07-17 Daqri, Llc Augmented point cloud for a visualization system and method
US9972067B2 (en) * 2016-10-11 2018-05-15 The Boeing Company System and method for upsampling of sparse point cloud for 3D registration

Also Published As

Publication number Publication date
JP2018124985A (ja) 2018-08-09
US10176589B2 (en) 2019-01-08
US20180218510A1 (en) 2018-08-02

Similar Documents

Publication Publication Date Title
JP6879891B2 (ja) 平面セグメントを用いて点群を完成させる方法およびシステム
US11954870B2 (en) Dynamic scene three-dimensional reconstruction method, apparatus and system, server, and medium
US11704833B2 (en) Monocular vision tracking method, apparatus and non-transitory computer-readable storage medium
US10896497B2 (en) Inconsistency detecting system, mixed-reality system, program, and inconsistency detecting method
US11270460B2 (en) Method and apparatus for determining pose of image capturing device, and storage medium
CN109564690B (zh) 使用多向相机评估封闭空间的尺寸
JP6843237B2 (ja) シーンのポイントクラウドを表現するシステム及び方法
US9460517B2 (en) Photogrammetric methods and devices related thereto
US10832079B2 (en) Determining an architectural layout
CN112771539A (zh) 采用使用神经网络从二维图像预测的三维数据以用于3d建模应用
CN108789421B (zh) 基于云平台的云机器人交互方法和云机器人及云平台
US11816799B2 (en) Generating virtual representations
CN113330486A (zh) 深度估计
US20220139030A1 (en) Method, apparatus and system for generating a three-dimensional model of a scene
Kim et al. Interactive acquisition of residential floor plans
JP2023516656A (ja) 複数の特徴タイプに基づく効率的位置特定
CN109064533A (zh) 一种3d漫游方法及系统
CN115187736A (zh) 目标地图生成方法以及装置、ar地图生成方法以及装置
US20240096019A1 (en) Key frame selection using a voxel grid
CA3221270A1 (en) Methods, storage media, and systems for augmenting data or models
WO2024011063A1 (en) Methods, storage media, and systems for combining disparate 3d models of a common building object
CN114723799A (zh) 检测方法、装置、移动机器人及存储介质
CN113643343A (zh) 深度估计模型的训练方法、装置、电子设备及存储介质
KR20240045736A (ko) 3차원 가상모델 생성 방법 및 그를 위한 컴퓨팅 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210127

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210430

R150 Certificate of patent or registration of utility model

Ref document number: 6879891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250