JP7265639B2 - 優先点を識別して保持する点群の併合方法 - Google Patents

優先点を識別して保持する点群の併合方法 Download PDF

Info

Publication number
JP7265639B2
JP7265639B2 JP2021549717A JP2021549717A JP7265639B2 JP 7265639 B2 JP7265639 B2 JP 7265639B2 JP 2021549717 A JP2021549717 A JP 2021549717A JP 2021549717 A JP2021549717 A JP 2021549717A JP 7265639 B2 JP7265639 B2 JP 7265639B2
Authority
JP
Japan
Prior art keywords
points
point
point cloud
preferred
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021549717A
Other languages
English (en)
Other versions
JP2022522279A (ja
Inventor
トビアス アンダーバーグ
マリク ウィリアムズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2022522279A publication Critical patent/JP2022522279A/ja
Application granted granted Critical
Publication of JP7265639B2 publication Critical patent/JP7265639B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明の1又は2以上の実施形態は、コンピュータグラフィックス及びバーチャルリアリティの分野に関する。より詳細には、限定するものではないが、本発明の1又は2以上の実施形態は、優先点を識別して保持する、点群を併合する方法を可能にするものである。
LIDARなどのスキャナを用いてシーンから3Dデータを取り込むステップは、複数のスキャン、時には異なる視点からのスキャンを伴う場合がある。これらの複数のスキャンから得られた点群を結合して、シーンの統合3Dモデルを形成することができる。しかしながら、シーンの特定の領域では、スキャンが重複する場合がある。重複している領域の全点を保持すると、不必要な記憶容量及び処理能力を浪費し、シーンの1つの区域から別の区域へ移行する際にレンダリングアーティファクト又はノイズをもたらす可能性がある。それゆえ、点群を併合する際には、冗長な点を除去することが望ましい。
点群を結合する本技術分野で公知の従来の方法は通常、どの点を取り除くかを決定するために、多くの場合に単純な距離閾値を用いて、高価な八分木最近傍探索を使用する。この手法は、適切な閾値を見出すために反復実験を必要とする場合があり、これには、非常に大きな点群の場合には特に、非常に時間が掛かってしまう可能性がある。
点群は、距離画像として編成されることが多い。距離画像の点群は、冗長性に関する単一の距離閾値テストを用いた場合にアーティファクトに繋がる可能性のある遠近特性を有する。また、距離画像は、冗長な点を見出すため、並びに近傍点の集合から適切な点を選択するための、より効率的で直観的なプロセスを支援する。距離画像形式のために最適化された、点群を結合する方法は知られていない。
冗長な点を取り除くための公知の方法はまた、一般的に、点群が重複する区域における各点群の品質を考慮しない。例えば、1つのスキャンはシーンの或る領域を極めて詳細に取り込むのに対し、別のスキャンは、その領域を遥かに低い分解能で周辺的に取り込むに過ぎない場合がある。併合された点群に関して好ましい点を選択するために、各点群の品質を手動で又は自動的に評価する機構を提供する方法は知られていない。
少なくとも上述の制限のために、好ましい点を識別して保持する、点群を併合する方法が必要とされている。
本明細書に記載する1又は2以上の実施形態は、好ましい点を識別して保持する、点群を併合する方法に関するものである。本発明の実施形態は、例えば、共通の3Dシーンから取り込まれた2又は3以上の点群を処理して、最良の点を保持しつつ、重複区域内の冗長な点を取り除くことができる。何れか又は全ての処理ステップは、メモリを有する又はメモリに接続されたコンピュータを用いて実行することができる。
コンピュータによって実行される処理ステップは、点群を取得するステップと、2つの異なる点が高々1つを保持すれば足りるほどに近接しているかどうかを判定する近接度テストを取得又は生成するステップと、近接度テストを満たす近接点の集団と他の点群に近接していない孤立点とを識別するステップと、近接点の各集団に対して好ましい点を選択するステップと、好ましい点と孤立点とを結合することによって併合点群を生成するステップと、を含むことができる。点に加えて、点群は、これらが取り込まれた視点と、取り込まれた角度分解能とを含むことができる。
1又は2以上の実施形態では、点群は距離画像として編成することができ、各距離画像は、関係する点までの距離を含む画素の2D配列を備えている。各距離画像と関係付けられるのは、3Dシーンから2D画素への投影とすることができる。1又は2以上の実施形態で使用できる例示的な投影法は、球面の正距円筒図法である。
近接点を見出すために、1又は2以上の実施形態では、ベース点群の距離画像を使用し、他の点群をこの距離画像の上に投影することができる。画素に投影された点は、これらのベース点群視点からの距離が距離画像の画素における距離に近い場合に、ベース点群の画素点に近接しているとすることができる。
実施形態では、距離画像の画素をタイルに分割して、各タイル内の画素と関係付けられた点に対して境界体積を生成することができる。異なる点群からのタイル間での交差テストは、点の近接度に関する予備テストとして使用することができる。境界体積が交差するタイルを互いに連結することができ、交差タイルからの点だけを、上述の近接度テストのためにベース点群距離画像の画素上に投影することができる。
近接点の集団からの好ましい点の選択は、ユーザ入力を用いて又は完全に自動で実行することができる。1又は2以上の実施形態では、表示する点群をユーザが選択できるようにするユーザインタフェースを提示することができ、例えば、その点群と関係付けられた距離画像を表示することができる。点の表示は、表示された点群内の各点が、それが属する近接点の集団にとって好ましい点であるかどうかを示す指標を含むことができる。この指標は、その点が、異なる点群に属する好ましい点を備えた集団の要素であるかどうかも示すことができる。この指標は、例えば、色、陰影、又は模様とすることができる。ユーザは、1又は2以上の点を選択するための選択入力と、好ましい点の割当てを変更する追加、置換、又は削除などのアクションとを与えることができる場合がある。例えば、追加アクションは、選択した点を好ましい点に設定することができ、削除アクションは、選択した点が好ましい点でないようにすることができる。
1又は2以上の実施形態では、集団内の各点について品質尺度を計算し、最高の品質尺度を備えた点を選択することによって、好ましいポイントを自動的に選択することができる。例示的な品質尺度は、各点における各点群の分解能に反比例するとすることができる。この分解能は、例えば、点群の視点から点までの視線ベクトルの長さの2倍に、点群の角度分解能の半分に関する正接を乗算したものとして計算することができる。1又は2以上の実施形態では、更にこの分解能を、視線ベクトルと、その点における3Dシーンの表面に対する法線ベクトルとのなす角度の余弦で割ることができる。
本発明の上記並びに他の態様、特徴、及び利点は、以下の図面と併せて提示される、以下のより具体的な説明からより明らかになるであろう。
本発明の1又は2以上の実施形態によって対処されるシナリオの一例を示し、ここでは、2つの点群がシーンから取り込まれ、点群がシーンの一部分で重複している図である。 本発明の1又は2以上の実施形態の例示的な入力、出力、及び処理ステップの高水準フローチャートを示す図である。 処理ステップを実行するために本発明の1又は2以上の実施形態で使用できる、例示的なコンピュータアーキテクチャを示す図である。 点群の重複する区画において近接点を識別する例示的なステップを示す図である。 近接点の集団において好ましい点を識別する例示的なステップを示す図である。 孤立点と好ましい点とを結合して併合点群を形成する例示的なステップを示す図である。 本発明の1又は2以上の実施形態で使用できる、点群データの距離画像形式を示す図である。 近接点を探し出すために、1つの点群からの点を別の点群の距離画像の上に投影するステップを示す図である。 図8の例を続けて、別の点群から投影された点が距離画像群内の点に近接しているかどうかを判定するために、距離画像内の画素からの視錐台の形成を示す図である。 距離画像をタイルに分割し、各タイルの点の周りに境界体積を生成することを示す図である。 図10の例を続けて、タイルと関係する境界体積が、近接点の検出を最適化するためにどのように使用できるかを示す図である。 点群の重複領域における好ましい点をユーザが選択するために使用できる例示的なユーザインタフェースを示す図である。 図12の例を続けて、1つの点群におけるユーザの点選択と、これらの選択点を別の点群の観点からの表示とを示す図である。 図13の例を続けて、ユーザが、別の点群で選択した点を表示された点群からの点で置き換えることを示す図である。 図14の例を続けて、ユーザが一部の選択点を削除し、この削除の効果を別の点群の観点から表示することを示す図である。 1又は2以上の実施形態で使用できる、好ましい点の自動選択に関する例示的な技法を示す図である(この技法では、当該領域における各点群の分解能を比較することによって、重複領域における2つの点群の品質を比較する)。 図16の例を拡張して、表面が点群スキャナからの視線ベクトルに垂直でない場合の点群表面分解能の計算を示す図である。 図1によるスキャンに対して好ましい点を自動選択するための点品質比較の適用例を示す斜視図である。 図1によるスキャンに対して好ましい点を自動選択するための点品質比較の適用例を示す上面図である。
ここで、好ましい点を識別して保持する点群を併合する方法について説明する。以下の例示的な説明では、本発明の実施形態についてのより完全な理解を提供するため、多数の具体的な詳細を明らかにする。しかしながら、本明細書に記載する具体的な詳細の全態様を組み入れずに本発明を実施できることは、当業者には明らかであろう。他の例では、当業者によく知られた特定の特徴、量、又は測定値は、本発明を不明瞭にしないように詳細には記載していない。読者は、本発明の例が本明細書に明らかにされるが、特許請求の範囲、並びにあらゆる等価物の全範囲が本発明の範囲を規定するものであるということに留意すべきである。
図1は、本発明の1又は2以上の実施形態が扱うことのできるシナリオを示す。共通の3Dシーンから複数の点群を取り込むことができ、これらの点群を単一の結合された点群に併合することが望ましい場合がある。しかしながら、複数の点群に含まれる3Dシーンの区域には冗長性が存在する可能性があるため、全ての点群の全ての点を結合点群に含めることは望ましくない場合がある。不必要な記憶装置及び処理リソースを浪費することに加えて、冗長な点は、点群間の移行においてアーティファクトをもたらす可能性がある。
図1に示す説明的な例では、3Dシーンは単純な円柱100である。説明しやすいようにこの形状を示すが、適用においては、あらゆる数の点群を、あらゆるサイズ及び複雑さのあらゆる3Dシーン(複数可)から取り込むことができる。本発明の1又は2以上の実施形態によって併合される点群は、現実の環境から、コンピュータで生成された環境から、又はこれらの何れかの組み合わせから取り込むことができる。図2では、シーン100から2つの点群が取り込まれており、第1の点群(黒いドットで示す)がスキャナ101によって取り込まれ、第2の点群(白いドットで示す)がスキャナ102によって取り込まれる。点群の例示的な点は、スキャナ101によって取り込まれた点105と、スキャナ102によって取り込まれた点106である。(1又は2以上の実施形態では、スキャナ101と102は、物理的に同一のものでもよいが、異なる時間に異なるスキャンのために再配置する又は再作動させることができる)。1又は2以上の実施形態では、2つの点群を含むがこれに限定されない、あらゆる数の点群を処理及び併合することができる。
スキャナ101及び102は、例えばLIDAR、構造化光、及びステレオビジョンを含むがこれらに限定されない、シーンから3Dデータを形成するために結合された何れかのタイプ(複数可)の3Dスキャナ又は2Dセンサであるとすることができる。各スキャナと関連付けられるのは、例えば、スキャンが行われた視点、並びにスキャン点に対する1又は2以上の角度分解能など、特定のパラメータとすることができる。例えば、スキャナ101は、視点111から角度分解能121で第1の点群を取り込み、スキャナ102は、視点112から角度分解能122で第2の点群を取り込む。角度分解能はスキャン全体で一定ではなく、水平方向と垂直方向で角度分解能が異なる場合もある。本明細書における角度分解能という用語は、点群を取り込む際に可能な角度分解能の何れか又は全てを指す。説明を容易にするために、例では、例えばスキャン全体で並びに軸全体で一定であるとすることのできる単一の角度分解能だけを示している。
点群は異なる視点から取り込むことができるので、3Dシーンの異なる特徴を取り込むことができる。例えば、図1では、スキャナ102は、円柱100の後ろ側にある点107と共に、前側にある点106(図1で見えている)などの点を取り込み、スキャナ101は、円柱の前側の点だけを取り込む。しかしながら、点群は、領域130などの1又は2以上の領域で重複する場合がある。シーン全体を表現する完全な「ゲシュタルト」点群を生成するために、1又は2以上の実施形態では、重複する領域(複数可)内の点群から特定の好ましい点を選択することができる。これらの好ましい点を選択するための例示的なプロセスを以下に説明する。
説明を容易にするために、図1に示す点群は、それぞれ少数の点を含む。実際には、点群はそれぞれ数百万又は数十億の点を含む可能性があり、従って、点群を併合するための処理及び記憶の効率は重要な関心事である。以下に説明するプロセスは、効率の良いアクセスのためにデータを編成することにより、並びに不必要な処理を回避するために点の比較を最適化することによって、これらの問題に対処することができる。
図2は、図1のデータを例として使用しながら、2又は3以上の点群を併合するために本発明の1又は2以上の実施形態で使用できる入力、出力、及び処理ステップの高水準フローチャートを示す。3Dシーンから取り込まれた点群131及び132は、例えば直接スキャナから又はメモリから取得される。点群131、132内の3次元点そのものに加えて、視点111及び112、並びに角度分解能121及び122などの取込み属性は、それぞれ点群の一部とする、或いは点群に関連付けることができる。1又は2以上の実施形態では、例えば取込みの垂直方向及び水平方向の範囲など、他の属性を利用することができる。点群131、132は、3Dシーンの共通座標系に登録される、又は登録可能である必要がある。点群データ131及び132は、データを処理するプロセッサ201に入力されて、併合された点群220の出力をもたらす。併合された点群220は、例えば、点群131と132が重複するシーンの領域において冗長度を低減できている。
高水準では、プロセッサ201は3つのステップを実行し、個々の点群131及び132を併合点群220に変換することができる。ステップ211は、近接点の1又は2以上の集団を識別することができ、その場合、近接度の判定基準は、ソース点群又は適用例に依存する。これらの集団は、存在し得る冗長性を表している。ステップ212は、これらの集団の1又は2以上から好ましい点を選択することができる。ステップ213で、好ましい点をソース点群からの他の点と組み合わせて、最終的な併合点群220を形成することができる。
図3は、図2のステップ又は本明細書に記載するあらゆる他のステップを実行するために、本発明の1又は2以上の実施形態で使用できる例示的なハードウェアを示す。この実施形態では、システム内で、システムによって、又はシステム内の何れかの構成要素として、例示的なコンピュータ300を利用することができる。1又は2以上の実施形態では、コンピュータ300はコンピュータのネットワークとすることができ、その各々は、図3に示す構成要素の何れか又は全てを有することができる。1又は2以上の実施形態では、コンピュータ(複数可)300はまた、システム内の何れかの機能、すなわち、システム内の何れかのコンピュータ又はサーバ又はエンジンで実行される何れかのステップ又は動作又は機能を実装するために利用することができる。コンピュータ300は、本発明の実施形態のそれぞれの機能に特化したソフトウェア命令を実行するプロセッサCPU307を含むことができる。コンピュータプログラム命令とも呼ばれるソフトウェア命令は、メモリ306内に常駐することができる。コンピュータ300は、例えば、高度な並列演算用のグラフィックス命令又は他の命令を実行できるプロセッサGPU305を含むことができる。GPUプログラム命令もまた、メモリ306内に常駐することができる。コンピュータ300は表示インタフェース308を含むことができ、これは、必要に応じてシステム内の何れかのコンピュータの表示ユニット(複数可)310を駆動することができる。コンピュータ300の中には、ディスプレイを利用するものもあれば、利用しないものもある。コンピュータ300は、通信インタフェース324を含むことができ、これは、無線通信又は有線通信用ハードウェアプロトコルチップを含むことができる。本発明の1又は2以上の実施形態では、通信インタフェース324は電話通信及び/又はデータ通信用ハードウェアを含むことができる。1又は2以上の実施形態では、通信インタフェース324はWi-Fi(商標)及び/又はBLUETOOTH(登録商標)の無線通信インタフェースを含むことができる。何れかの無線ネットワークプロトコル又はタイプを本発明の実施形態で利用することができる。CPU307、GPU305、メモリ306、表示インタフェース308、通信インタフェース324、ヒューマンインタフェースデバイス330、ハードディスク314などの2次メモリ312、リムーバブル記憶装置316、2次メモリインタフェース320、及びリムーバブル記憶ユニット318及び322は、一般に「バス」として知られる通信インフラストラクチャ302を介して互いに通信することができる。通信インタフェース324は、ネットワーク340を介して他の有線又は無線デバイスとの通信を可能にする何れかの有線又は無線媒体を介して通信することができる。ネットワーク340は、インタネット360及び/又はデータベース(複数可)350と通信することができる。データベース350を利用して、本明細書に記載するあらゆるデータベースを実装することができる。
図4、5及び6は、それぞれ図2のステップ211、212、及び213の実施形態を示す。図4に示すように、本発明の1又は2以上の実施形態は、2つの点が、併合された点群からこれらの一方(又は両方)を取り除くことが望ましいほどに近接しているかどうかを判定する近接度テスト401を規定することができ、或いはそれを取得することができる。1又は2以上の実施形態は、点が互いに近接しているかどうかを判定するために、何れかのタイプの近接度テスト(複数可)を使用することができる。例示的なテスト401では、簡単な距離閾値を用いて、点が十分に近接しているかどうかをテストする。この閾値テストには、何れかの距離関数(複数可)を使用することができる。近接度テスト401に従って近接する2又は3以上の点を集団に入れることができ、この集団を以下のように処理して、この集団の好ましい点を決定することができる。図4に示す説明的な例では、点群131及び132が近接度テスト401で処理され、近接点の集団402が得られる。例えば、集団403は、点群131の1つの点と点群132の2つの点とを含む。一般に、近接点の集団は、何れかの数の点群から何れかの数の点を含むことができる。他の点群内の何れの他点とも近接していない全ての点は、孤立点404として分類することができる。
図5は、図4の例を続けている。近接点の集団402における各集団の好ましい点を識別するために、処理501が実行される。集団403の好ましい点として点503を選択する識別502など、好ましい点は矢印で示される。この例では、近接点の集団402の各々について、好ましい点が識別される。1又は2以上の実施形態では、これらの集団の部分集合に対してだけ、好ましい点を識別することができ、例えば、指定された好ましい点のない集団からは、全ての点を保持することができる。以下で説明する手動の又は自動化された方法を含め、何れか所望の方法を用いて、好ましい点を識別することができる。好ましい点の識別501の後、ステップ504は、好ましくない点を取り除き、好ましい点だけを保持して、点505という結果になる。図6に示すように、これらの好ましい点505は次に、孤立点404と結合され、併合点群601を作り出すことができる。
図7~17は、上述の一般的なステップを詳述し、これらのステップを実行するために1又は2以上の実施形態で使用できる特定の方法及び最適化を示している。これらの方法及び最適化の一部では、点群データの距離画像内への編成を用いることができる。距離画像は、例えば、点群の個々の標本を表す画素の2D配列を有することができ、その場合、各画素は、対応する標本に取り込まれた、シーン内の点までの距離値を含む。距離画像は、3次元点の非構造化集合よりも、点群データのより効率的な処理を支援することができる。図7は、点群131に対する例示的な距離画像表現720を示す。2次元画素配列720は、3次元シーンの画素座標への投影を表している。説明のため、各画素の輝度は、各画素の距離値に関係しており、より明るい画素はより小さな距離に対応する。
1又は2以上の実施形態では、距離画像のために何れかのタイプ(複数可)の投影を使用することができる。図7に示す投影法は、正距円筒図法710であり、3次元シーンからの点は、スキャナの視点111を中心とする球面701上に投影され、次いでその球面が、投影710で2次元配列にマッピングされる。正距円筒図法は、方位角及び仰角を増加させてシーンをスキャンすることによって取り込まれた点群に関して、自然な投影であるとすることができる。また、正距円筒図法は、全360度の水平方向及び全180度の垂直方向のスキャン(又はその部分範囲)に関する表現を2D画素配列で扱うことができる。
点群131の例示的な点702及び704について、投影を示す。点702は、球面701上の点703に投影され、これは次に、距離画像720の画素723にマッピングされる。画素723と関係付けられるのは、3Dシーンにおける視点111と点702の距離724である。同様に、点704は球面701上の点705に投影され、次いで、点704と視点111の距離722を備えて、距離画像720の画素721に投影される。距離値は、画素721及び723について示され、他の画素については示されないが、各画素ごとに距離画像内に存在している。
点群の距離画像表現は、近接点の検出を容易にする可能性がある。非構造化点群(例えば、3D点の非順序集合として表現される)では、所与の点に近接する点を見出すには、広範な処理を必要とする場合がある。1つの手法は、全組の点間距離を求めることである;これは、大きな点群の場合、計算回数が点群のサイズの関数として2次関数的に増加するため、非実用的なものとなる。もう1つの代案は、点群を前処理して八分木又は類似のデータ構造にすることである;この手法は、比較の回数を減らすことができるが、高価な前処理ステップを必要とする。距離画像表現を使用することで、これらの煩雑さを回避し、近接点を効率良く検出することができる。
図8及び9は、1又は2以上の実施形態で使用することができる、距離画像を用いた近接点の検出技法を示す。この技法は、2つのステップで近接度テストを実行する:まず初めに、点が距離画像内の同じ画素に投影されるかどうかをテストし、次に、同じ画素内の点と関係付けられた投影距離が閾値内にあるかどうかをテストする。図8は、点群131と関係付けられた距離画像720上への、点群132の点の投影を示している。図7に関して説明したように、点群132からの点は、距離画像720と関係する投影710を用いて、距離画像の画素720に投影することができる。1つの点群を、別の点群と関係付けられた距離画像に投影する場合、複数の点が同じ画素に投影される可能性がある。例えば、図8では、点801、802、803及び804は全て、それぞれ投影点811、812、813、及び814として、距離画像720の画素810に投影されている。従って、これらの点は、図7に示すように同じく画素810に投影される、点群131の点704に近接する点の候補となり得る。点群132の他の点は、同じ画素に投影されないため、候補とはならない。
図9は、図8の例を続けて、1又は2以上の実施形態で近接点候補に対してどのように近接度テストを規定できるかを示すものである。この手順は、点群131の点704、並びに点704と同じ画素に投影される点群132の候補点811、812、813、及び814について示されている。これらの点の各々と関係付けられているのは、点群131の視点111とそれぞれの点との距離である。例えば、点704は、視点111まで距離722にあり、点812は、視点111まで距離904にある。1又は2以上の実施形態では、閾値距離902を規定することができ、距離722と視点111から或る点までの距離との差の絶対値がこの閾値よりも小さい場合に、その点は点704に近接すると見なすことができる。距離閾値は、点704までの距離に依存してもよい。
1又は2以上の実施形態では、視点111からの距離722にある点704を含む画素の投影サイズを考慮して、近接度テストを規定することができる。特に、システムは、点704の周りに視錐台901を生成することができ、この視錐台の寸法は、点704までの距離と、その点における点群の角度分解能とに依存することができる。実際には、点と関係付けられた画素を距離画像から外へ点群内のその点に向かって投影することができ、画素の周りに視錐台を生成することができる。1又は2以上の実施形態では、視錐台は、ほぼ立方体の形状を有することができ、従って、その幅は閾値距離902の約2倍とすることができる。点704周りのこの視錐台901内にある別の点群からの点は、点704に近接すると見なすことができる。この判定基準を用いると、点811及び812は、この近接度テストを満たすことができるが、点813及び814は、点704の「後方」、円柱100の後ろ側にあるため、このテストを満たすことができない。従って、点704、点811、及び点812は、集団402における近接点の集団903に加えることができる。
1又は2以上の実施形態では、近接度テストの効率を向上させるための付加的な最適化を実行することができる。このような最適化の1つを図10及び11に示す。図10は、スキャナ1001から取り込まれて距離画像1002に投影された点群の一部を示したものである。説明を容易にするため、図10及び11に示す距離画像の投影は、正距円筒図法ではなく、平面透視投影であるが、説明する概念は、全てのタイプの投影に等しく適用される。距離画像1002の画素は、タイル1011、1012、103、及び1014に分割することができる。ここでは簡単にするために4個のタイルを示しているが、1又は2以上の実施形態では、あらゆる寸法のあらゆる個数のタイルを使用することができる。各タイルについて、そのタイル内の画素上に投影された点の周りで境界体積を計算することができる。この境界体積は、例えば、タイルから外方に投影された視錐台とすることができ、タイルの画素に投影された点の、視点からの最小距離と最大距離とによって、前面と後面とがそれぞれ決定される。図10は、タイル1011及び1014に対する2つの視錐台1021及び1022をそれぞれ示している。
ひとたびタイルに投影された点について境界体積が計算されると、図11に示すように、これらの境界体積を用いて近接度テストを最適化することができる。図11は、スキャナ1001及び1101によって取り込まれ、それぞれ距離画像1002及び1102の上に投影された2つの点群1121及び1122を示す。各距離画像は、説明のために4つのタイルに分割され、各タイルと関係する視錐台境界体積が示されている。点に関する第1水準の近接度テストは、点を収容する境界体積が交差するかどうかを判定することによって規定することができる。図11に示す例では、視錐台1022と1103だけが交差している。従って、2つの点群1121と1122の間に近接点があるとすれば、それは、距離画像1002のタイル1014に投影され、且つ距離画像1102のタイル1112に投影された点においてだけ見出すことができる。他の全タイルからの点は、近接度テストに関して評価する必要がないとすることができる。例えば、図8及び9で説明した手順を用いて、投影1110で点群1122の点を距離画像1002に投影することにより、点群11201と1122の間に近接点の集団を見出す場合、近接度評価のために体積1103内の点だけをタイル1014に投影する必要がある。
本発明の1又は2以上の実施形態では、図11に示すようなタイル境界体積を、併合される全ての点群について計算することができ、各境界体積は、他の点群による境界体積との交差に関して調べられるとすることができる。交差テストは、分離軸定理に基づくものなど、周知のアルゴリズムによって迅速に実行することができる。各タイルの境界体積は、例えば、それが交差するタイルの境界体積と連結することができる。点群の他点群との重複について距離画像の領域を評価する場合、その領域内のタイルを用いて、連結された境界体積を他の点群から識別することができ、これらの連結された境界体積内の点だけを考慮する必要がある。
ここで、好ましい点の識別に目を向けると、1又は2以上の実施形態では、好ましい点を選択するためにユーザ入力を組み入れる方法、又は完全自動式の方法の何れかを使用することができる。また、これらの手法の組み合わせを用いて、例えば、提案する好ましい点を自動的に選択し、これらの選択を手動入力で確認又は却下することができる。図12~15は、ユーザの入力を取得して好ましい点を選択する方法を示し、図16~17は、自動化された方法を示している。これらの方法は例示であり、1又は2以上の実施形態では、何れかのタイプの方法を使用して、近接点の集団から好ましい点を識別することができる。
1又は2以上の実施形態では、システムは、ユーザにユーザインタフェースを提示し、このユーザインタフェースから好ましい点の選択を受け入れることができる。図12~15に示す実施形態は、2D距離画像投影を中心にして編成されたユーザインタフェースを示す。ユーザは、点群の2D投影として選択された何れかの距離画像の観点から、点群を見ることができる。これらの2Dビューから、ユーザは、自分が描いた又は別の方法で指し示した領域内の好ましい点に対して、どの点群を使用すべきかを指示することができる。点群の2D投影を中心にしてユーザ入力を編成することにより、以下で示すように、ユーザは2D画像に領域を描くだけで好ましい点を選択することができるので、使用感が簡略化される。
図12は、初期画面1201を有する例示的なユーザインタフェースを示す。ユーザは、選択区域1202でどの点群距離画像を見るかを選択するが、この選択肢は、初期は点群1に設定されている。選択された点群の距離画像投影は、ウィンドウ1203に示される。画面1211で、ユーザは選択肢1212内の点群2を見るために切り替え、投影1213を表示させる。これらの初期画面では、ユーザはまだ好ましい点を指し示していない。システムは、点群と関係付けられた距離画像投影を表示する場合に、その投影に示された点に近接する他の点群からの点を追跡又は計算することができる。これらの点は、前述のように決定することができ、図11に関して説明したように、予め計算された境界体積の交差を用いて最適化することができる。例えば、ウィンドウ1203内の点1204は、この点に近接する点群2の点を含む集団1205と関係付けられる。同様に、画面1211では、ウィンドウ1213内の点1214のどちらか一方を何れかをこの同じ集団1205と関係付けることができる。これらの関係付けは、異なる点群の観点からビューが表示される際に、システムによって計算又は追跡されるとすることができる。ユーザが画面で選択を行うと、集団1205などの点群に対して好ましい点を割り当てることができる。好ましい点のこれらの割当て及び再割当ては、図13~15に示されている。
図13は、この例を続けて、好ましい点のユーザ選択を示す。画面1301で、ユーザは、目に見える点群から好ましい点を追加するために、追加アクション1302を選択する。次にユーザは、領域1303を描き、塗りつぶし、又は別の方法で選択して、この領域内の点群1からの点を、これらが属する近接点の何れかの集団において好ましい点として識別すべきであるということを示す。1又は2以上の実施形態では、サイズ、タグ、形状、陰影、模様、又は色などの様々な指標を用いて点の状態を示すことができ、図13に示す例では、凡例1320は、これらの画面において点の状態が模様によって表されることを示している。この凡例1320は、1又は2以上の実施形態ではユーザインタフェースに表示される、又は別の画面で利用可能であるとすることができる。1又は2以上の実施形態では、ユーザはまた、各点群においてどの点が好ましい点として選択されるかに関する指標を備えた、点群の3Dビューを見ることができる場合がある。例えば、全ての点を示し、どの点が好ましい点として選択されるかを示すビュー1330が利用可能であるとすることができる。(説明を容易にするために、円柱の3Dシーンをウィンドウ1330に示す。)ユーザが画面1311を切り替えて選択肢1312で点群2を見る場合、ディスプレイは、領域1313を、別の点群で好ましい点として選択されたものとして表示するが、それは、これらの点が領域1303内の点群1に割り当てられた選択点と重複するからである。ユーザは、異なる点群の中で好ましい点として点を漸増的に選択し、これら選択の影響を異なる点群の観点から、3Dで見ることができる。
図14は、画面1401でこの例を続けており、ここでもユーザは、点群2の観点から距離画像を見る。ユーザは置換アクション1402を選択し、領域1403を描き、塗りつぶし、又は別の方法で選択して、異なる点群で選択された点をこの点群からの点で置き換える。この置換アクションはまた、それまでに選択されていない新しい点を追加する。このアクションは、点群1に割り当てられた点の領域1313を、より小さな領域1404に縮小する。ユーザが選択肢1412を実行して画面1411で点群1を見る時、以前に点群1に対して選択されていた区域1303が区域1413に縮小され、点1414が別の点群に対して選択されたものとして示される。この例を続けて、図15では、ユーザは画面1501で削除アクション1502を選択し、次に領域1503を選択して、これらの点のあらゆる点群への割当てを削除する。ユーザが画面1511に切り替え、選択肢1512を実行して点群2の距離画像ビューを表示させると、点群1で以前に選択されていた点1513は、今や未割当ての状態で示される。
図12~15に示したユーザインタフェース画面、選択オプション、及びアクションは、説明的な例である。1又は2以上の実施形態は、併合点群に対して好ましい点を選択するために、何れかのタイプのユーザインタフェースを用いてユーザから入力を得ることができる。画面1501及び1511に示すような2D投影を提示するユーザインタフェースの場合、何れかのタイプの2D描画又は画像操作のツール又はコントロールを用いて、点、領域、区域、又は形状を選択し変更することができる。
好ましい点を選択するためにユーザの入力を取得する代わりに又はそれに加えて、1又は2以上の実施形態では、好ましい点を自動的に選択することができる。自動選択は、例えば、近接点の集団内の各点について計算される点の品質尺度を用いて実行することができ、集団内で最高の品質尺度を備えた点を、その集団の好ましい点として選択することができる。何れかの品質尺度(複数可)を使用することができる。図16及び17は、シーン内の各点で各点群が捉える3Dシーンの詳細度を反映する品質尺度の計算を示す。例えば、関係する点群がより細かな詳細を捉える領域内の点には、より高い品質尺度を与えることができる。詳細度に基づく品質尺度の使用により、不必要な点又は冗長な点を追加することなく、シーンを最大限詳細に示す併合点群を生成することができる。
或る点において点群が捉える詳細度は、その点における点群の表面分解能に反比例するとすることができる。或る点におけるこの表面分解能は、例えば、その点を中心とした画素が、その点にある点群が描き出す表面上に投影された時の画素幅として規定することができる。この幅は、その点において画素から表面まで延びる視錐台の後面の幅と等価であると見なすことができる。図16に示すように、この表面分解能は、点群の角度分解能と、点群の視点と表面との距離の関数であるとすることができる。説明を容易にするため、図16の計算は、ただ1つの軸、水平軸に沿った表面分解能を示すが、1又は2以上の実施形態では、複数の軸に沿った表面分解能を計算することができる。図16に示す例では、3Dシーンの局所的な部分を表すことのできる平面状の表面1600が、2つのスキャナ101及び102によって、それぞれ視点111及び112から取り込まれる。2つの点群の点は、品質尺度の計算を強調するために、図16では非重複として示すが、一般に、これらの品質尺度は、近接点の集団から最良の点を選択するために、点群が重複する区域で使用されることになる。品質尺度の計算が、2つの点、スキャナ101が取り込んだ点群からの点1615と、スキャナ102が取り込んだ点群からの点1616とについて示されている。スキャナ101からのスキャン点を画素内に配置し、各画素の中心に1つの点がある場合、表面1600上に投影された点1615を中心とする画素は、矩形1641である。この矩形の幅1611を、その点1615におけるこの点群に関する表面分解能の尺度として使用することができる。同様に、矩形1642の幅1612を、点1616におけるスキャナ102の点群に関する表面分解能の尺度として使用することができる。簡単にするために、表面1600が視点111から点1615までの視線ベクトル1631に垂直であると仮定すると、表面分解能1611は、視線ベクトル1631の長さ1601(これはスキャナから表面までの距離である)の2倍に、スキャナの角度分解能121の半分に関する正接を乗算したものに等しい。同様に、表面分解能1612は、視線ベクトル1632の長さ1602の2倍に、スキャナ102の角度分解能122の半分に関する正接を乗算したものに等しい。これらの計算により、点1615及び1616に対する品質尺度1621及び1622がそれぞれ得られる。この例では、スキャナ101からの点群に関する表面分解能1611は、スキャナ102からの点群に関する表面分解能1612よりも粗い(大きい);従って、これらの点群が重複するこのスキャン領域では、スキャナ102からの点の方が好ましいとすることができる。
図16で上述した表面分解能と点の品質尺度とに対する計算は、或る点での視線ベクトルがその点でスキャンされた表面に垂直であることを仮定している。本発明の1又は2以上の実施形態では、視線ベクトルとスキャン表面の法線ベクトルとのなす角度がゼロであると仮定するのではなく、代わりにこの角度を見積もり、この角度を用いて点の品質尺度を精密化することができる。この手法を図17に示す。簡単のため、図17は垂直軸の周りだけに傾斜した表面を示し、表面上方からの上面視による幾何学的配置を示している。図17に示す計算は、あらゆる表面方位に対して直ちに一般化される。スキャン点1705は、表面1600aに位置し、この点を中心とする画素がこの表面に投影される。投影された画素は幅1611aを有し、これは点1705における表面1600a上の点群の表面分解能である。表面1600a(上方から示す)は、点1705への視線ベクトル1631に対して角度1703にある法線ベクトル1702を有する。三角法計算により、投影画素幅1611aは、距離1601の2倍に、角度分解能121の半分に関する正接を掛けて、角度1703の余弦で割ったものとなる。品質尺度は、例えば、この表面分解能1611aの逆数として算出することができる。視線ベクトルと表面法線の間の非ゼロ角度1703により、表面分解能が角度1703の余弦で除算される結果となるので、品質尺度にはこの因子が掛けられる。
表面に対する法線ベクトル1702は、点群データから計算することができ、或いはシーンに関する他の情報から利用可能であるとすることができる。1又は2以上の実施形態で使用できる例示的な技法は、本技術分野で公知の法線推定に関する最小二乗法である。この技法は、法線ベクトルを計算する画素を中心とする、距離画像内の画素の3x3配列など、点群の小パッチの点を通して平面を適合させるものである。適合させた平面に対する法線ベクトルは、その点における表面の法線として使用することができる。
図18A及び18Bは、好ましい点を選択するために、図17に記載した調整済み品質尺度をどのように使用することができるかを示す。図1の円柱シーンの一部100aが示されている。 図18Aは斜視図を示し、図18Bは上面図を示す。スキャナ101が取り込んだ点1801と、スキャナ102が取り込んだ点1802は、近接点の集団内にある。点1801及び1802間での好ましい点の自動選択では、上述した3つの因子、つまり、スキャナと点の距離、スキャナの角度分解能、及びスキャン視線ベクトルと表面法線の角度の全てを考慮に入れることができる。この例では、スキャナ102をシーン100aにより近く位置決めすることができ、スキャナ102の角度分解能はより小さいとすることができるが、点1801及び1802のそれぞれにおいて、スキャナ101からの視線ベクトル1811が表面法線ベクトル1810にほぼ平行であるのに対し、スキャナ102からの視線ベクトル1812は法線ベクトル1810にほぼ垂直である。従って、角度1814の余弦は1に近いが、角度1813の余弦は0に近い。その結果、2つの点1801及び1802間の品質尺度比較1820では、点1801を選択する。
特定の実施形態及びその適用例を用いて、本明細書に開示する本発明を説明してきたが、当業者は、特許請求の範囲に記載される本発明の範囲から逸脱することなく、数多くの変更形態及び変形形態を作成することができよう。
100:単純な円柱(3Dシーン)
101:スキャナ
102:スキャナ
105:スキャナ101によって取り込まれた点
106:スキャナ102によって取り込まれた点
107:円柱の後ろ側にある点
111:視点
112:視点
121:角度分解能
122:角度分解能
130:重複する取込み領域

Claims (20)

  1. 好ましい点を識別して保持する点群の併合方法であって、
    メモリに接続されたコンピュータを使用して、
    3Dシーンから取り込まれた複数の点群を取得することであって、前記複数の点群の各点群が、
    複数の点と、
    視点と、
    角度分解能と、を備えることと、
    前記複数の点群からの2つの異なる点が、前記2つの異なる点の高々1つを保持すれば足りるほどに近接しているかどうかを判定する近接度テストを取得又は生成することと、
    近接点の1又は2以上の集団を識別することであって、
    近接点の前記1又は2以上の集団の各集団が、前記複数の点群からの2又は3以上の点を備え、並びに
    前記各集団の前記2又は3以上の点の各点が、前記各集団の前記2又は3以上の点の内の異なる点に関して前記近接度テストを満たすことと、
    孤立点を識別することであって、前記孤立点が、近接点の前記1又は2以上集団の何れにも含まれない、前記複数の点群からの全ての点を備えることと、
    近接点の前記1又は2以上集団の各集団に対して、前記各集団の前記2又は3以上の点の中から好ましい点を識別することと、
    併合点群を生成することであって、前記併合点群が、
    前記孤立点と、
    近接点の前記1又は2以上集団の各集団の前記好ましい点と、を備え、
    前記好ましい点ではない前記各集団の点を含まない、ことと、
    を含む方法。
  2. 前記各点群は、
    前記複数の点を画素の2D配列として表現する距離画像であって、
    前記複数の点の各点が画素の前記2D配列に対応し、並びに
    画素の前記2D配列の各画素が、前記画素と関係付けられた点と前記各点群の前記視点との距離を備える、距離画像と、
    前記3Dシーンから画素の前記2D配列への投影と、
    を備える、請求項1に記載の方法。
  3. 前記投影は、
    前記3Dシーン内の点から、前記視点を中心とする球面へのマッピングと、
    前記球面から画素の前記2D配列への正距円筒図法と、
    を備える、請求項2に記載の方法。
  4. 近接点の1又は2以上の集団を前記識別することは、
    前記複数の点群の中からベース点群を選択することと、
    前記ベース点群の画素の前記2D配列から画素のセットを選択することと、
    前記ベース点群を除く前記複数の点群から点のセットを選択することと、
    前記ベース点群と関係付けられた前記投影を前記点のセットの各点に対して適用して、
    前記ベース点群の画素の前記2D配列の投影画素と、
    前記各点と、前記ベース点群の前記視点との投影距離と、を取得し、並びに
    前記投影距離が、前記ベース点群における前記投影画素と関係付けられた前記距離の閾値内に入る場合に、各点と、前記投影画素と関係付けられた前記ベース点群内の点とを、前記投影画素と関係付けられた点群の集団に加えることと、
    を含む、請求項2に記載の方法。
  5. 前記コンピュータを使用して、
    前記各点群の画素の前記2D配列を複数のタイルに分割することと、
    前記複数のタイルの各タイルに対して、
    前記各タイル内の画素に投影される前記各点群の点を収容する境界体積を生成することと、
    前記各点群を除いて、関係する境界体積が前記境界体積と交差する前記複数の点群と関係するタイルを識別する
    ことと、
    を更に含む、請求項2に記載の方法。
  6. 近接点の1又は2以上の集団を前記識別することは、
    前記複数の点群の中からベース点群を選択することと、
    前記ベース点群からタイルのセットを選択することと、
    前記ベース点群を除く前記複数の点群から点のセットを選択することであって、前記点のセットが、前記ベース点群からの前記タイルのセットの1又は2以上のタイルと交差する、前記ベース点群を除く前記複数の点群のタイル内の点を備えることと、
    前記ベース点群と関係する前記投影を、前記点のセットの各点に適用して、
    前記ベース点群の画素の前記2D配列の投影画素と、
    前記各点と、前記ベース点群の前記視点との投影距離と、を取得し、並びに
    前記投影距離が、前記ベース点群における前記投影画素と関係付けられた前記距離の閾値内に入る場合に、各点と、前記投影画素と関係付けられた前記ベース点群内の点とを、前記投影画素と関係付けられた点群の集団に加えることと、
    を含む、請求項5に記載の方法。
  7. 前記各集団の前記2又は3以上の点の中から前記好ましい点を前記識別することは、
    前記複数の点群の第1点群から点のセットを表示するユーザインタフェースをユーザに提示することと、
    前記点群の前記集団の或る集団内にある前記点のセットの各点に対して、前記各点が前記集団の前記好ましい点であるかどうかを示す指標を前記ユーザインタフェースに表示することと、
    前記ユーザから選択入力を受け入れて、前記第1点群の前記点のセットから1又は2以上の選択点を選択することと、
    前記ユーザから編集アクション入力を受け入れることであって、前記編集アクション入力が追加アクション又は削除アクションを備えることと、
    前記編集アクションが前記追加アクションの場合に、前記1又は2以上の選択点を、前記1又は2以上選択点を含む近接点の集団の好ましい点として設定することと、
    前記編集アクションが前記削除アクションの場合に、前記1又は2以上の選択点を、前記1又は2以上選択点を含む近接点の集団の好ましくない点として設定することと、
    を含む、請求項2に記載の方法。
  8. 前記指標は更に、前記集団の前記好ましい点が、前記第1点群とは異なる第2点群内の点であるかどうかを示す、請求項7に記載の方法。
  9. 前記指標は、前記各点を含む前記第1点群の画素の前記2D配列の画素に適用される色、模様、又は形状であり、
    前記色、模様、又は形状は、
    前記各点が前記集団の前記好ましい点であることを示す第1の値と、
    前記集団の前記好ましい点が、前記第1点群とは異なる第2点群内の点であることを示す第2の値と、
    前記集団には好ましい点が指定されていないことを示す第3の値と、
    を備える、請求項8に記載の方法。
  10. 前記各集団の前記2又は3以上の点の中から前記好ましい点を前記識別することは、
    前記複数の点群の第1点群から点のセットを表示するユーザインタフェースをユーザに提示することと、
    前記点群の前記集団の或る集団内にある前記点のセットの各点に対して、前記各点が前記集団の前記好ましい点であるかどうかを示す指標を前記ユーザインタフェースに表示することと、
    前記ユーザから選択入力を受け入れて、前記第1点群の前記点のセットから1又は2以上の選択点を選択することと、
    前記ユーザから編集アクション入力を受け入れることであって、前記編集アクション入力が追加アクション又は削除アクションを備えることと、
    前記編集アクションが前記追加アクションの場合に、前記1又は2以上の選択点を、前記1又は2以上選択点を含む近接点の集団の好ましい点として設定することと、
    前記編集アクションが前記削除アクションの場合に、前記1又は2以上の選択点を、前記1又は2以上選択点を含む近接点の集団の好ましくない点として設定することと、
    を含む、請求項6に記載の方法。
  11. 前記指標は更に、前記集団の前記好ましい点が、前記第1点群とは異なる第2点群内の点であるかどうかを示す、請求項10に記載の方法。
  12. 前記指標は、前記各点を含む前記第1点群の画素の前記2D配列の画素に適用される色、模様、又は形状であり、
    前記色、模様、又は形状は、
    前記各点が前記集団の前記好ましい点であることを示す第1の値と、
    前記集団の前記好ましい点が、前記第1点群とは異なる第2点群内の点であることを示す第2の値と、
    前記集団には好ましい点が指定されていないことを示す第3の値と、
    を備える、請求項11に記載の方法。
  13. 前記好ましい点を前記識別することは、
    前記各集団の前記2又は3以上の点の各点に対して品質尺度を計算することと、
    前記好ましい点を、最高の品質尺度を備えた前記2又は3以上の点の内の1点として識別することと、
    を含む、請求項1に記載の方法。
  14. 前記各点に対する前記品質尺度は、前記各点を含む前記点群の前記各点における分解能に反比例する、請求項13に記載の方法。
  15. 前記分解能は、前記各点を含む前記点群の前記視点から、前記各点までの視線ベクトルの長さの2倍に、前記点群の前記角度分解能の半分に関する正接を乗算したものを含む、請求項14に記載の方法。
  16. 前記分解能は更に、前記視線ベクトルと、前記3Dシーンで前記各点が位置する表面に対する法線ベクトルとのなす角度の余弦で除算される、請求項15に記載の方法。
  17. 前記好ましい点を前記識別することは、
    前記各集団の前記2又は3以上の点の各点に対して品質尺度を計算することと、
    前記好ましい点を、最高の品質尺度を備えた前記2又は3以上の点の内の1点として識別することと、
    を含む、請求項6に記載の方法。
  18. 前記各点に対する前記品質尺度は、前記各点を含む前記点群の前記各点における分解能に反比例する、請求項17に記載の方法。
  19. 前記分解能は、前記各点を含む前記点群の前記視点から、前記各点までの視線ベクトルの長さの2倍に、前記点群の前記角度分解能の半分に関する正接を乗算したものを含む、請求項18に記載の方法。
  20. 前記分解能は更に、前記視線ベクトルと、前記3Dシーンで前記各点が位置する表面に対する法線ベクトルとのなす角度の余弦で除算される、請求項19に記載の方法。
JP2021549717A 2019-02-25 2020-02-10 優先点を識別して保持する点群の併合方法 Active JP7265639B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/284,572 2019-02-25
US16/284,572 US10346998B1 (en) 2019-02-25 2019-02-25 Method of merging point clouds that identifies and retains preferred points
PCT/US2020/017499 WO2020176238A1 (en) 2019-02-25 2020-02-10 Method of merging point clouds that identifies and retains preferred points

Publications (2)

Publication Number Publication Date
JP2022522279A JP2022522279A (ja) 2022-04-15
JP7265639B2 true JP7265639B2 (ja) 2023-04-26

Family

ID=67106432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021549717A Active JP7265639B2 (ja) 2019-02-25 2020-02-10 優先点を識別して保持する点群の併合方法

Country Status (6)

Country Link
US (2) US10346998B1 (ja)
EP (1) EP3915089A4 (ja)
JP (1) JP7265639B2 (ja)
KR (1) KR102661681B1 (ja)
CN (1) CN113424224B (ja)
WO (1) WO2020176238A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10883823B2 (en) 2018-10-18 2021-01-05 Cyberoptics Corporation Three-dimensional sensor with counterposed channels
EP3672250A1 (en) * 2018-12-21 2020-06-24 InterDigital VC Holdings, Inc. Method and apparatus to encode and decode images of points of a sphere
US10346998B1 (en) * 2019-02-25 2019-07-09 Nurulize, Inc. Method of merging point clouds that identifies and retains preferred points
US11460581B2 (en) * 2019-06-10 2022-10-04 Toyota Research Institute, Inc. Systems and methods for reducing LiDAR points
US11544903B2 (en) * 2019-12-13 2023-01-03 Sony Group Corporation Reducing volumetric data while retaining visual fidelity
CN113837952A (zh) * 2020-06-24 2021-12-24 影石创新科技股份有限公司 基于法向量的三维点云降噪方法、装置、计算机可读存储介质及电子设备
CN111736114B (zh) * 2020-08-21 2020-11-13 武汉煜炜光学科技有限公司 一种提高激光雷达数据传输速度的方法和激光雷达
US11430146B2 (en) * 2020-10-31 2022-08-30 Robert Bosch Gmbh Two-stage depth estimation machine learning algorithm and spherical warping layer for EQUI-rectangular projection stereo matching
US20220260692A1 (en) * 2021-02-18 2022-08-18 Argo AI, LLC Method for characterizing lidar point cloud quality
CN113628232B (zh) * 2021-05-11 2024-02-27 深圳市汇川技术股份有限公司 剔除拟合线中干扰点的方法、视觉识别设备及存储介质
US11645824B1 (en) 2022-03-22 2023-05-09 Illuscio, Inc. Systems and methods for defining, bonding, and editing point cloud data points with primitives
US11461987B1 (en) * 2022-03-22 2022-10-04 Illuscio, Inc. Systems and methods for defining, bonding, and editing point cloud data points with primitives
CN116310227B (zh) * 2023-05-18 2023-09-12 海纳云物联科技有限公司 三维稠密重建方法、装置、电子设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070253635A1 (en) 2006-04-28 2007-11-01 Hon Hai Precision Industry Co., Ltd. System and method for filtering point clouds
JP2008309603A (ja) 2007-06-14 2008-12-25 Ihi Corp 蛍光探傷方法および蛍光探傷装置
JP2012063866A (ja) 2010-09-14 2012-03-29 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
WO2018025660A1 (ja) 2016-08-05 2018-02-08 ソニー株式会社 画像処理装置および画像処理方法
JP2018072198A (ja) 2016-10-31 2018-05-10 富士通株式会社 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7605817B2 (en) * 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US7940279B2 (en) * 2007-03-27 2011-05-10 Utah State University System and method for rendering of texel imagery
US7995055B1 (en) * 2007-05-25 2011-08-09 Google Inc. Classifying objects in a scene
KR101392804B1 (ko) * 2012-07-25 2014-05-08 연세대학교 산학협력단 지상 라이다에서 취득된 포인트 클라우드 기반의 실내공간 3차원 모델 추출 방법 및 이를 구현하기 위한 프로그램이 기록된 기록매체
US9811880B2 (en) * 2012-11-09 2017-11-07 The Boeing Company Backfilling points in a point cloud
US10018711B1 (en) * 2014-01-28 2018-07-10 StereoVision Imaging, Inc System and method for field calibrating video and lidar subsystems using independent measurements
WO2015172227A1 (en) * 2014-05-13 2015-11-19 Pcp Vr Inc. Method, system and apparatus for generation and playback of virtual reality multimedia
EP3186661B1 (en) * 2014-08-26 2021-04-07 Massachusetts Institute of Technology Methods and apparatus for three-dimensional (3d) imaging
CN106796721B (zh) * 2014-09-11 2021-05-04 赛博光学公司 三维轮廓测量中根据多个相机和源的点云合并
GB2532948B (en) * 2014-12-02 2021-04-14 Vivo Mobile Communication Co Ltd Object Recognition in a 3D scene
CN105719261A (zh) * 2014-12-05 2016-06-29 富泰华工业(深圳)有限公司 点云数据合并系统及方法
US9811734B2 (en) * 2015-05-11 2017-11-07 Google Inc. Crowd-sourced creation and updating of area description file for mobile device localization
US9646410B2 (en) * 2015-06-30 2017-05-09 Microsoft Technology Licensing, Llc Mixed three dimensional scene reconstruction from plural surface models
US10699476B2 (en) * 2015-08-06 2020-06-30 Ams Sensors Singapore Pte. Ltd. Generating a merged, fused three-dimensional point cloud based on captured images of a scene
JP6868992B2 (ja) * 2016-09-27 2021-05-12 株式会社トプコン 画像処理装置、画像処理方法および画像処理用プログラム
US10074160B2 (en) * 2016-09-30 2018-09-11 Disney Enterprises, Inc. Point cloud noise and outlier removal for image-based 3D reconstruction
CN107918753B (zh) * 2016-10-10 2019-02-22 腾讯科技(深圳)有限公司 点云数据处理方法及装置
US10109055B2 (en) * 2016-11-21 2018-10-23 Seiko Epson Corporation Multiple hypotheses segmentation-guided 3D object detection and pose estimation
EP3333538B1 (en) * 2016-12-07 2020-09-09 Hexagon Technology Center GmbH Scanner vis
CN106815824B (zh) * 2016-12-08 2019-07-05 华中科技大学 一种提高大规模三维重建效率的图像近邻优化方法
WO2018176440A1 (zh) * 2017-04-01 2018-10-04 深圳市速腾聚创科技有限公司 点云与平面图像融合方法、智能设备及非易失性计算机可读存储介质
CN107230225B (zh) * 2017-04-25 2020-06-09 华为技术有限公司 三维重建的方法和装置
US10663590B2 (en) * 2017-05-01 2020-05-26 Symbol Technologies, Llc Device and method for merging lidar data
US10255480B2 (en) * 2017-05-15 2019-04-09 The Boeing Company Monitoring object shape and deviation from design
US10699481B2 (en) * 2017-05-17 2020-06-30 DotProduct LLC Augmentation of captured 3D scenes with contextual information
CN107301648B (zh) * 2017-06-09 2020-04-07 大连理工大学 基于重叠区域边界角度的冗余点云去除方法
US11113845B2 (en) * 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
GB2569609B (en) * 2017-12-21 2020-05-27 Canon Kk Method and device for digital 3D reconstruction
US10346998B1 (en) * 2019-02-25 2019-07-09 Nurulize, Inc. Method of merging point clouds that identifies and retains preferred points

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070253635A1 (en) 2006-04-28 2007-11-01 Hon Hai Precision Industry Co., Ltd. System and method for filtering point clouds
JP2008309603A (ja) 2007-06-14 2008-12-25 Ihi Corp 蛍光探傷方法および蛍光探傷装置
JP2012063866A (ja) 2010-09-14 2012-03-29 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
WO2018025660A1 (ja) 2016-08-05 2018-02-08 ソニー株式会社 画像処理装置および画像処理方法
JP2018072198A (ja) 2016-10-31 2018-05-10 富士通株式会社 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Rafael Roberto;Hideaki Uchiyama;Joao Paulo Lima;Hajime Nagahara;Rin-ichiro Taniguchi;Veronica Teichrieb,Incremental structural modeling on sparse visual SLAM,2017 Fifteenth IAPR International Conference on Machine Vision Applications (MVA),日本,IEEE,2017年05月08日,pp.30-33,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7986765

Also Published As

Publication number Publication date
EP3915089A1 (en) 2021-12-01
WO2020176238A1 (en) 2020-09-03
EP3915089A4 (en) 2022-04-13
CN113424224B (zh) 2023-11-17
KR20210102348A (ko) 2021-08-19
KR102661681B1 (ko) 2024-04-29
JP2022522279A (ja) 2022-04-15
CN113424224A (zh) 2021-09-21
US10346998B1 (en) 2019-07-09
US20200273193A1 (en) 2020-08-27
US11010912B2 (en) 2021-05-18

Similar Documents

Publication Publication Date Title
JP7265639B2 (ja) 優先点を識別して保持する点群の併合方法
US10102639B2 (en) Building a three-dimensional composite scene
JP6261489B2 (ja) 3次元点群から平面を抽出する、方法、画像処理装置およびプログラムを記憶した非一次的なコンピュータ可読媒体
Hornacek et al. Depth super resolution by rigid body self-similarity in 3d
JP6236118B2 (ja) 三次元データ処理装置、三次元データ処理システム、三次元データ処理方法およびプログラム
JP5343042B2 (ja) 点群データ処理装置および点群データ処理プログラム
EP3108449B1 (en) View independent 3d scene texturing
RU2695528C2 (ru) Визуализация изображения данных лазерного сканирования
JP2001067463A (ja) 異なる視点からの複数のフェイシャル画像に基づき新たな視点からのフェイシャル画像を生成するフェイシャル画像生成装置及び方法並びにその応用装置及び記録媒体
JP5624457B2 (ja) 三次元データ処理装置、方法及びプログラム
JP6762570B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP5642804B2 (ja) 表示処理方法及び装置
JP7392101B2 (ja) 点群データ処理装置、点群データ処理方法及びプログラム
JP7455546B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6487578B1 (ja) プログラム、記録媒体、及び影描画方法
Rouhafzay et al. Selectively-densified mesh construction for virtual environments using salient points derived from a computational model of visual attention

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220907

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230414

R150 Certificate of patent or registration of utility model

Ref document number: 7265639

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150