JP2014096152A - ポイントクラウド内の埋め戻しポイント - Google Patents

ポイントクラウド内の埋め戻しポイント Download PDF

Info

Publication number
JP2014096152A
JP2014096152A JP2013231790A JP2013231790A JP2014096152A JP 2014096152 A JP2014096152 A JP 2014096152A JP 2013231790 A JP2013231790 A JP 2013231790A JP 2013231790 A JP2013231790 A JP 2013231790A JP 2014096152 A JP2014096152 A JP 2014096152A
Authority
JP
Japan
Prior art keywords
point cloud
point
new
points
depth value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013231790A
Other languages
English (en)
Other versions
JP5778237B2 (ja
Inventor
Terrell Nathan Mundhenk
テレル ネーサン ムントヘンク,
Owechko Yuri
ユリ オウェッコ,
Kyungnam Kim
キョンナム キム,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2014096152A publication Critical patent/JP2014096152A/ja
Application granted granted Critical
Publication of JP5778237B2 publication Critical patent/JP5778237B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • G06T5/70
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Abstract

【課題】ポイントクラウド内のポイントを増やすための装置、システム、及び方法を提供する。
【解決手段】シーン110の2次元画像121及びシーン110のポイントクラウド132が受信される。ポイントクラウド132内のポイントの少なくとも一部は、2次元画像121にマッピングされて変換ポイント146を形成する。融合データアレイ150は、2次元画像121及び変換ポイント146を使用して作成される。ポイントクラウド132に対する新しいポイント164は融合データアレイ150を使用して特定される。新しいポイント164はポイントクラウド132に追加されて、新しいポイントクラウド162を形成する。
【選択図】図1

Description

本開示は概してポイントクラウドに関し、具体的にはポイントクラウドの解像度向上に関する。さらに具体的には、本開示はポイントクラウドの解像度を高めるため、ポイントクラウド内のポイントの数を増やすためのシステム及び方法に関する。
ポイントクラウドは、三次元シーンを記述する3次元座標系内のポイントの集合である。典型的には、ポイントクラウド内のポイントは対象物の外表面を表す。光検出及び測距(LIDAR)システムは、ポイントクラウドを生成することができる種類のセンサーシステムの一例である。ポイントクラウドは、例えば、ステレオカメラシステム、モバイルレーザーイメージングシステム、及び他の種類のセンサーシステムを使用して生成することができる。
ポイントクラウドは、例えば、対象物の識別、対象物の分類、シーンの可視化、セグメント化、2次元画像データの強調などの様々な操作、及び/又は他の種類の操作を実施するために使用される。ポイントクラウドを使用して実施されるこれらの操作の性能レベルは、ポイントクラウドの解像度に依存することがある。
本明細書で使用されているように、ポイントクラウドの「解像度」は、ポイントクラウドによって捕捉されるシーンの特徴がポイントクラウド内で識別される際の詳細度となることがある。ポイントクラウドの解像度はポイントクラウド内のポイントの数、及び/又はポイントクラウドの一又は複数の部分のポイントのポイント密度に依存する。本明細書で使用しているように、「ポイント密度」は単位容積あたりのポイントの数の測定値である。ポイントクラウド内の別の部分よりも高い密度を有するポイントクラウドの部分は、他の部分よりも希薄になることはない。
幾つかの状況では、希薄なポイントクラウドを用いた対象物の識別、対象物の分類、セグメント化、及び/又はシーンの可視化は不正確な結果を生むことがある。例えば、ポイントクラウドは対象物を正確に識別又は分類するには密度が十分でないことがある。
ポイントクラウド内のポイントの数を増やすために現在利用可能な幾つかの解決策には、シーン内の対象物に関する推測を行うことが含まれる。例えば、推測はシーン内の対象物の形状に関して行われることがあり、新しいポイントはこれらの推測に基づいてポイントクラウドに追加されることがある。しかしながら、このような種類の解決策では、新しいポイントが追加される3次元基準座標系の位置は所望よりも正確でなくなることがある。
さらに、幾つかの現在利用可能な解決策は、シーン内の実在の孔又は間隙を考慮することができないことがある。例えば、幾つかの現在利用可能な解決策では、新しいポイントはシーン内の実在の孔又は間隙を表わす位置で、ポイントクラウドに追加されることがある。なおさらに、幾つかの現在利用可能な解決策は、例えば、樹木の最上端と地上のように、シーン内で結合されていない対象物を結合するポイントをポイントクラウドに追加することがある。したがって、少なくとも上述の問題点の幾つかと、起こりうる他の問題点を考慮する方法及び装置を有することが望ましいであろう。
1つの例示的な実施形態では、装置は1つの画像処理システムを備えている。画像処理システムは、シーンのポイントクラウド内の少なくとも一部をシーンの2次元画像にマッピングして変換ポイントを形成するように構成される。画像処理システムは、2次元画像及び変換ポイントを使用して融合データアレイを作成するように構成されている。さらに、画像処理システムは、融合データアレイを使用してポイントクラウドに対して新しいポイントを特定し、ポイントクラウドに新しいポイントを追加して新しいポイントクラウドを形成するように構成されている。
別の例示的な実施形態では、画像処理システムは融合マネージャ、深度値生成器、及びポイントクラウドマネージャを備える。融合マネージャは、シーンのポイントクラウドの少なくとも一部をシーンの2次元画像にマッピングして変換ポイントを形成するように構成されており、且つ2次元画像及び変換ポイントを使用して融合データを作成するように構成されている。融合データアレイは、非ゼロ深度値を含む埋込データベクトルに関連付けられた一致エレメント、及びゼロ深度値を含む非埋込データベクトルに関連付けられた非一致エレメントを含む。深度値生成器は、新しい深度値を特定して、ゼロ深度値の少なくとも一部を置き換えるように構成されている。ポイントクラウドマネージャは、新しい深度値を使用してポイントクラウドに対して新しいポイントを特定し、ポイントクラウドに新しいポイントを追加して新しいポイントクラウドを形成するように構成されている。
さらに別の例示的な実施形態では、ポイントクラウド内のポイントの数を増やすためのコンピュータ実装方法が提供される。シーンの2次元画像及びシーンのポイントクラウドが受信される。ポイントクラウド内のポイントの少なくとも一部は、2次元画像にマッピングされて変換ポイントを形成する。融合データアレイは、2次元画像及び変換ポイントを使用して作成される。ポイントクラウドに対する新しいポイントは融合データアレイを使用して特定される。新しいポイントはポイントクラウドに追加されて、新しいポイントクラウドを形成する。
本明細書に記載されている前述の任意の実施形態は、下記の項で記載されているように、以下のコンピュータ実装方法を想定することもできる。
第12項 ポイントクラウド(132)内のポイントの数を増やすためのコンピュータ実装方法であって、前記コンピュータ実装方法は、
シーン(110)の2次元画像(121)及び前記シーン(110)の前記ポイントクラウド(132)を受信すること;
前記ポイントクラウド(132)内のポイントの少なくとも一部を前記2次元画像(121)にマッピングして変換ポイント(146)を形成すること;
前記2次元画像(121)及び前記変換ポイント(146)を使用して融合データアレイ(150)を作成すること;
前記融合データアレイ(150)を使用して前記ポイントクラウド(132)に対して新しいポイント(164)を特定すること;及び
前記ポイントクラウド(132)に前記新しいポイント(164)を追加して新しいポイントクラウド(162)を形成すること
を含む、コンピュータ実装方法。
第13項 前記ポイントクラウド(132)内の前記ポイントの前記少なくとも一部を前記2次元画像(121)にマッピングして前記変換ポイント(146)を形成することは、
カメラシステムの姿勢情報を特定すること;
前記ポイントクラウド(132)内の前記ポイントに対してカメラ中心座標を特定する前記姿勢情報を使用して、前記ポイントクラウド(132)に対する3次元基準座標系を3次元カメラ中心座標系に変換すること;及び
前記カメラ中心座標を有する前記ポイントクラウド(132)内の前記ポイントの少なくとも一部を前記2次元画像(121)内のピクセル位置(124)にマッピングすること
を含む、第12項に記載のコンピュータ実装方法。
第14項 前記2次元画像(121)及び前記変換ポイント(146)を使用して前記融合データアレイ(150)を作成することは、
前記2次元画像(121)内のピクセルに1対1の対応を有するエレメント(152)からなる前記融合データアレイ(150)を形成すること;及び
前記融合データアレイ(150)内の前記エレメント(152)に、非ヌル深度値を含む埋込データベクトル(154)及びヌル深度値を含む非埋込データベクトル(154)を含むデータベクトル(154)を関連付けること
を含む、第12項に記載のコンピュータ実装方法。
第15項 前記融合データアレイ(150)を使用して前記ポイントクラウド(132)に対して前記新しいポイント(164)を特定することは、
新しい深度値(158)を生成して前記ヌル深度値の少なくとも一部を置き換えること;及び
前記新しい深度値(158)を使用して前記ポイントクラウド(132)に対して前記新しいポイント(164)を特定すること
を含む、第14項に記載のコンピュータ実装方法。
第16項 前記新しい深度値(158)を生成して前記ヌル深度値の少なくとも一部を置き換えることは、
前記融合データアレイ(150)内のエレメントであって、ヌル深度値を含む非埋込データベクトル(154)に関連付けられているエレメントの位置でウィンドウを中心に配置すること;
前記ウィンドウによって重ね合わされた前記融合アレイ(150)の一部に支持エレメント(500)を特定すること;及び
前記支持エレメント(500)及び線形推定アルゴリズムを使用して新しい深度値(156)を生成して前記ヌル深度値を置き換えること
を含む、第15項に記載のコンピュータ実装方法。
第17項 前記ウィンドウによって重ね合わされた前記融合データアレイ(150)の一部の中の前記支持エレメント(500)を特定することは、
前記ウィンドウによって重ね合わされた前記融合データアレイ(150)の一部の中の一致エレメント(304、306、308、310、312、314、316)が選択された基準を満たすかどうかを決定すること;
前記選択された基準を満たす前記一致エレメント(304、306、308、310、312、314、316)に応答して、良好度スコアによって前記一致エレメント(304、306、308、310、312、314、316)の各々を採点すること;
前記良好度スコアによって前記一致エレメント(304、306、308、310、312、314、316)をソートすること;
前記一致エレメント(304、306、308、310、312、314、316)の一部を前記支持エレメント(500)として選択すること
を含む、第16項に記載のコンピュータ実装方法。
第18項 前記融合データアレイ(150)の中の前記エレメントの前記位置で前記ウィンドウを中心に配置する前記ステップを反復すること、前記ウィンドウによって重ね合わされた前記融合データアレイ(150)の一部の中の前記支持エレメント(500)を特定すること、及び前記融合データアレイ(150)の各位置に対して前記支持エレメント(500)及び前記線形推定アルゴリズムを使用し、前記新しい深度値(156)を生成して前記ヌル深度値を置き換えること
をさらに含む、第16項に記載のコンピュータ実装方法。
第19項 前記新しい深度値(158)を使用して前記ポイントクラウド(132)に対して前記新しいポイント(164)を特定することは、
前記新しい深度値(158)を使用して前記新しいポイント(164)に対して3次元カメラ中心座標系内のカメラ中心座標を特定すること;及び
前記カメラ中心座標を前記ポイントクラウド(132)に対する3次元基準座標系内のポイント位置に変換して前記新しいポイント(164)を形成すること
を含む、第15項に記載のコンピュータ実装方法。
第20項 前記新しい深度値(158)を生成して前記ヌル深度値の少なくとも一部を置き換えることは、
ウィンドウを使用して前記融合データアレイ(150)を処理して前記新しい深度値(158)を生成すること
を含む、第15項に記載のコンピュータ実装方法。
特徴及び機能は、本開示の様々な実施形態で独立に実現することが可能であるか、以下の説明及び図面を参照してさらなる詳細が理解されうる、さらに別の実施形態で組み合わせることが可能である。
例示的な実施形態の特徴と考えられる新規の機能は、添付の特許請求の範囲に明記される。しかしながら、例示的な実施形態と、好ましい使用モードと、さらにはその目的及び特徴とは、添付図面を参照して本開示の例示的な実施形態の後述の詳細な説明を読むことにより最もよく理解されるであろう。
例示的な実施形態による、画像処理システムが画像及びポイントクラウドの処理に使用される環境をブロック図の形式で示した実施例である。 例示的な実施形態による融合データアレイが示されている。 例示的な実施形態による、ウィンドウによって重ね合わされた融合データアレイの一部の図解である。 例示的な実施形態による、一致エレメント群の各々に対してスコアを生成するためのプロセスの図解である。 例示的な実施形態による支持エレメントの選択の図解である。 例示的な実施形態による新しい深度値の生成の図解である。 例示的な実施形態による融合画像の図解である。 例示的な実施形態による2つの融合画像間の比較の図解である。 例示的な実施形態による最終融合画像の比較の図解である。 例示的な実施形態による最終融合画像の表の図解である。 例示的な実施形態による、ポイントクラウド内のポイントの数を増やすためのプロセスのフロー図の形式による図解である。 例示的な実施形態による、ポイントクラウド内のポイントを2次元画像にマッピングして変換ポイントを形成するためのプロセスのフロー図の形式による図解である。 例示的な実施形態による、融合データアレイを作成するためのプロセスのフロー図の形式による図解である。 例示的な実施形態による、新しい深度値を生成するためのプロセスのフロー図の形式による図解である。 例示的な実施形態による、新しいポイントを生成するためのプロセスのフロー図の形式による図解である。 例示的な実施形態による、データ処理システムのブロック図の形式よる図解である。
種々の例示的な実施形態は、種々の検討事項を認識し且つ考慮している。例えば、例示的な実施形態は、所望のレベルの精度を有するポイントクラウドに対して3次元基準座標系の位置に新しいポイントを追加することによって、ポイントクラウド内のポイントの数を増やすための方法を有することが望ましいことを認識し且つ考慮している。
さらに、例示的な実施形態は、ポイントクラウドによって捕捉された同一シーンの2次元画像がポイントクラウド内のポイントの数を増やすために使用されうることを認識し且つ考慮している。しかしながら、例示的な実施形態は、シーン及び/又は2次元画像に捕捉されたシーン内の対象物の形状に関する推測を行うことなく、ポイントクラウド内のポイントの数を増やすように2次元画像を処理することが望ましいことを認識し且つ考慮している。
したがって、例示的な実施形態は、シーンの2次元画像を使用して、シーンのポイントクラウド内のポイントの数を増やすためのシステム及び方法を提供する。さらに、このシステム及び方法は、シーンに関する推測を行うことなく、ポイントクラウド内のポイントの数を増やすことができる。
ここで図1を参照すると、例示的な実施形態による画像処理環境がブロック図の形式で図解されている。図1では、画像処理環境100は、画像及びポイントクラウドを処理するために画像処理システム102が使用される環境の実施例である。
図解のとおり、画像処理システム102は、コンピュータシステム104内で実装できる。コンピュータシステム104は、一又は複数のコンピュータ及び/又は他の種類のハードウェアから成ってもよい。コンピュータシステム104内に一又は複数のコンピュータが存在する場合には、これらのコンピュータは相互に通信することができる。
画像処理システム102は、第1センサーシステム106及び第2センサーシステム108からデータを受信するように構成されてもよい。第1センサーシステム106及び第2センサーシステム108は、シーン110に関するデータを生成するように構成されている。シーン110は特徴111を含んでもよい。特徴111は、例えば、限定しないが、対象物112を含むことがある。対象物112は、例えば、限定しないが、任意の数のビークル、建物、人工的構造物、人、動物、景観の特徴、及び/又は他の種類の対象物を含んでもよい。さらに、特徴111はまた、例えば、シーン110の背景を含むことがある。
このような例示的な実施例において、第1センサーシステム106は第1画像化システム114の形態をとることがある。第1画像化システム114は、画像データ116を生成するように構成された任意のシステムであってもよい。1つの例示的な実施例では、第1画像化システム114はカメラシステム118の形態をとる。さらに、カメラシステム118は電気光学カメラシステムの形態をとってもよい。
画像化データ116は、例えば、限定しないが、画像120を含むことがある。具体的には、画像120は2次元画像121であってもよい。電気光学カメラシステムによって生成される場合には、画像120は電気光学画像として参照される。
図示されているように、画像120はピクセル122から成る。ピクセル122は行及び列から成る2次元配列に配置されてもよい。この例示的な実施例では、ピクセル位置124はピクセル122の位置を特定することができる。1つの例示的な実施例として、ピクセル位置124の各々は、対応するピクセルに対して行及び列を特定することができる。
さらに、各ピクセル122はピクセルデータに関連付けられてもよい。1つのピクセルに対するピクセルデータは、例えば、限定しないが、任意の値の明度、強度、及び/又は他の値を含んでもよい。任意の値の明度は、例えば、RGBカラーモデルに基づく赤の値、緑の値、及び青の値を含んでもよい。
このような例示的な実施例において、第2センサーシステム108は第2画像化システム126の形態をとることがある。第2画像化システム126は、シーン110のポイントデータ128を生成するように構成された任意のシステムであってもよい。1つの例示的な実施例では、第2画像化システム126は光検出及び測距システム130の形態をとる。
ポイントデータ128はポイントクラウド132を含んでもよい。ポイントクラウド132は、これらの例示的な実施例で3次元ポイントクラウド133の形態をとることがある。シーン110のポイントクラウド132は、幾つかの例示的な実施例でシーン110の画像120とは異なる視点から生成されてもよい。
ポイントクラウド132は、3次元基準座標系のポイント134を含む。これらの例示的な実施例では、各々のポイント位置136は、この3次元基準座標系で対応するポイントに対して座標を特定してもよい。1つの例示的な実施例では、基準座標系は、例えば地理座標系などの現実の座標系であってもよい。
ポイントクラウド132の解像度140は、シーン110の特徴111がポイントクラウド132によって捕捉される詳細度を特定することである。幾つかの場合には、ポイントクラウド132の解像度140は、ポイントクラウド132内のポイント134の数138に依存することがある。例えば、ポイントクラウド132内のポイント134の数138が増えると、ポイントクラウド132の解像度140も上がる。
画像処理システム102は、カメラシステム118によって生成される画像120、並びに光検出及びを測距システム130によって生成されるポイントクラウド132を受信するように構成されている。画像処理システム102は画像120を使用してポイントクラウド132の数138を増やし、それによってポイントクラウド132の解像度140を上げる。より具体的には、画像処理システム102はポイントクラウド132に追加されうる新しいポイントを生成するように構成されてもよい。
図示されているように、画像処理システム102は融合マネージャ142、深度値生成器144、及びポイントクラウドマネージャ145を含んでもよい。融合マネージャ142は、ポイントクラウド132内のポイント134の少なくとも一部を画像120にマッピングして変換ポイントを形成するように構成されている。より具体的には、融合マネージャ142は、ポイントクラウド132内のポイント134の少なくとも一部に対するポイント位置を、画像120の画像平面内のピクセル位置にマッピングするように構成されている。画像120の画像平面は、ピクセル122の2次元配列内に存在する平面であってもよい。
変換ポイント146は、例えば、変換アルゴリズム148を使用して形成されてもよい。変換アルゴリズム148は、ポイント134の少なくとも一部を画像120の画像平面内のピクセル位置にマッピングするための、任意の数のプロセス、方程式、及び/又はアルゴリズムを含んでもよい。例示的な実施例では、変換アルゴリズム148は、例えば、実効n点透視(EPnP)カメラ姿勢推定アルゴリズムなどの、カメラ姿勢推定アルゴリズムを含むことがある。
カメラ姿勢推定アルゴリズムは、カメラシステム118の姿勢に対する姿勢情報を提供することができる。カメラシステム118の姿勢は、カメラシステム118の方向及び位置のうちの少なくとも1つを含むことがある。
融合マネージャ142は変換アルゴリズム148を使用して、ポイントクラウド132に対して、3次元基準座標系を3次元カメラ中心座標系に変換する。具体的には、融合マネージャ142は、カメラ姿勢推定アルゴリズムによって提供されるカメラシステム118の姿勢情報を使用して、3次元基準座標系を3次元カメラ中心座標系に変換することができる。
この変換により、3次元基準座標系の原点は、カメラシステム118の位置に移動される。融合マネージャ142は次に、3次元カメラ中心座標系内で、ポイント124に対するカメラ中心座標を特定する。
したがって、融合マネージャ142は、ポイント134に対するカメラ中心座標を、画像120の画像平面内の対応するピクセル位置にマッピングして変換ポイント146を形成するように構成されている。このように、ポイントクラウド132内のポイントに対するカメラ中心座標は、画像120と同一の画像平面内であるが画像120の内部又は画像120の外部に位置するピクセル位置にマッピングされてもよい。変換ポイント146は、画像120内のピクセル位置にマッピングされるこれらのポイントのみを含むことがある。
融合マネージャ142は、画像120及び変換ポイント146を使用して、融合データアレイ150を作成するように構成されている。融合データアレイ150は、画像120及びポイントクラウド132に基づいて一体に融合されたデータを含む。
図示されているように、融合データアレイ150はエレメント152を含むことがある。エレメント152の各々は画像120内のピクセル122の1つに対応してもよく、ピクセル122の各々はエレメント152の1つに対応してもよい。具体的には、エレメント152は画像120内のピクセル122への1対1対応を有してもよい。このように、融合データアレイ150は、画像120内のピクセル122の配列と同一のサイズを有することがある。
さらに、変換ポイント146の各々は画像120内のピクセルに対応するため、変換ポイント146の各々はまた、当該ピクセルに対応する融合データアレイ150内のエレメントに対応してもよい。変換ポイント146の各々は、エレメント152の対応する1つへのマッピングとして記述されてもよい。
例えば、変換ポイント146は、エレメント152の第1の部分に位置してもよい。このエレメントの第1の部分は一致エレメントと呼ばれることがある。しかしながら、エレメント152の第2の部分は、これらのエレメントをマッピングする任意の変換ポイントを有していないことがある。エレメントの第2の部分は非一致エレメントと呼ばれることがある。
これらの例示的な実施例では、エレメント152の各々は、例えば、データベクトル154などのデータベクトルと関連付けられることがある。図示されているように、データベクトル154は深度値156を含むことがある。深度値156は、データベクトル154に関連付けられたエレメントに対応する変換ポイントと3次元カメラ中心座標系内のカメラシステム111との間の距離となることがある。
データベクトル154に関連付けられたエレメントが非一致エレメントである場合には、深度値156はヌル又はゼロの値となることがある。データベクトル154に関連付けられたエレメントが一致エレメントである場合には、深度値156は非ヌル又は非ゼロの値となることがある。データベクトル154は、深度値156がヌル又はゼロの値の場合には、非埋込データベクトルと呼ばれることがあり、深度値156が非ヌル又は非ゼロの値の場合には、埋込データベクトルと呼ばれることがある。このように、融合データアレイ150内の非一致エレメントは非埋込データベクトルに関連付けられることがあり、融合データアレイ150内の一致エレメントは埋込データベクトルに関連付けられることがある。
加えて、実装によっては、データベクトル154は、例えば、ピクセル位置157、元のピクセルデータ159などの他のデータ、及び/又は他の種類のデータを含むことがある。ピクセル位置157は、データベクトル154に関連付けられたエレメントに対応するピクセルに対するピクセル位置であってもよい。元のピクセルデータ159は、データベクトル154に関連付けられたエレメントに対応するピクセルに対する画像120内のピクセルデータであってもよい。
これらの例示的な実施例では、深度値生成器144は、融合データアレイ150内の非一致エレメントに関連付けられた非埋込データベクトルの少なくとも一部に対して新しい深度値を生成するように構成されている。このように、深度値生成器144は、新しい深度値158を特定して、ヌル深度値の少なくとも一部を置き換えてもよい。非埋込データベクトルは、修正された融合データアレイ160を形成するため、融合マネージャ142によって新しい深度値158で埋め込まれてもよい。
新しい深度値158は修正された融合データアレイ160を使用して生成されてもよい。具体的には、深度値生成器144は、融合データアレイ150を走査して処理するため、選択されたサイズのウィンドウを使用してもよい。さらに、線形推定技術などの推定技術は、新しい深度値158を生成するために使用されてもよい。新しい深度値158を生成するプロセスのための1つの実装の実施例は、図2〜6に図解されている。
ポイントクラウドマネージャ145は、修正された融合データアレイ160を使用して、新しいポイントクラウド162を作成するように構成されている。具体的には、ポイントクラウドマネージャ145は、新しい深度値158が埋め込まれたデータベクトルを有する融合データアレイ150内のエレメントの一部を使用してもよい。
1つの例示的な実施例では、ポイントクラウド145は、新しい深度値158を埋め込まれたデータベクトルを有する融合データアレイ150内のエレメントの一部に対応するピクセルに対するピクセル位置の各々を、3次元カメラ中心座標系のカメラ中心座標にマッピングしてもよい。これらのカメラ中心座標は次に、元のポイントクラウドであるポイントクラウド132に対する3次元基準座標系に変換されて、新しいポイントを形成する。この変換は、例えば、限定しないが、逆変換アルゴリズム166を使用して実施されることがある。逆変換アルゴリズム166は、融合マネージャ142によって使用される変換アルゴリズム148の逆関数となることがある。
ポイントクラウドマネージャ145はポイントクラウド132に新しいポイント164を追加して、新しいポイントクラウドを形成する。ポイントクラウド132に新しいポイント164を追加するこのプロセスは、ポイントクラウド132の「埋め戻し」と呼ばれることがある。新しいポイントクラウド162は、ポイントクラウド132内のポイント134の数138よりも多くのポイントを有することがある。新しいポイント164は、ポイントクラウド132の解像度140と比較して、高い解像度を新しいポイントクラウド162に提供する。新しいポイント164は、所望の精度レベルでシーン110の特徴111を捕捉することができる。
その結果、新しいポイントクラウド162は、任意の数の操作を実施するためポイントクラウド132の代わりに使用されることがある。例えば、限定しないが、新しいポイント164は、ポイントクラウド132と比較して、新しいポイントクラウド162内のシーン110の可視化を強化することができる。さらに、新しいポイント164により、シーン110内の一又は複数の対象物112は、ポイントクラウド132を使用する場合と比較してより高い精度レベルを有する新しいポイントクラウド162を使用して、特定され及び/又は分類される。
例えば、初期融合画像168は、画像120及びポイントクラウド132を使用して、融合マネージャ142によって生成される。ポイントクラウド132内のポイントの少なくとも一部は、画像120内のピクセル位置にマッピングされ、画像120上に重ね合わされて、初期融合画像168を形成する。最終融合画像170は、画像120及びポイントクラウド162を使用して、融合マネージャ142によって生成される。ポイントクラウド162内のポイントの少なくとも一部は、画像120内のピクセル位置にマッピングされ、画像120上に重ね合わされて、最終融合画像170を形成する。
最終融合画像170内のシーン110の可視化は、初期融合画像168内のシーン110の可視化と比較して強化される。具体的には、初期融合画像168と比較して、最終融合画像170内のより多くのポイントは、最終融合画像170内のシーン110の可視化を強化することができる。
図1の画像処理環境100の図解は、例示的な実施形態が実装される方法に対する物理的又は構造的な制限を示唆することを意図していない。図示したコンポーネントに加えて又は代えて、他のコンポーネントを使用することができる。幾つかのコンポーネントは任意選択になることがある。また、幾つかの機能コンポーネントを図解するためにブロックが表示されている。例示的な実施形態において実装される場合、これらのブロックの一又は複数を、異なるブロックに統合、分割、或いは統合且つ分割することができる。
例えば、幾つかの例示的な実施例では、深度値生成器114は融合マネージャ142の一部とみなされることがある。他の例示的な実施例では、融合マネージャ142及び/又は深度値生成器144は、ポイントクラウドマネージャ145の一部とみなされることがある。
他の例示的な実施例では、画像処理システム102内の幾つかの他のモジュールは、初期融合画像168及び/又は最終融合画像170を形成するために使用されることがある。さらに他の場合には、幾つかの他のデータ処理システム又はプロセッサユニットは、画像120及び新しいポイントクラウド162を処理して最終融合画像170を形成するように構成されてもよい。
ここで図2〜6を参照すると、融合データアレイ内の非一致エレメントに関連付けられた非埋込データベクトルに対して新しい深度値を生成するためのプロセスの図解が、例示的な実施形態に従って描かれている。図2〜6に図解されたプロセスは、図1の新しい深度値158が生成される方法の一実施例であってもよい。さらに、このプロセスは、例えば、図1の深度値生成器144を使用して実施されてもよい。
ここで図2を参照すると、例示的な実施形態に従って、融合データアレイが図解されている。この例示的な実施例では、融合データアレイ200は、図1の融合データアレイ150の実装の一例であってもよい。
図2では、融合データアレイ200は、画像202及び変換ポイント206の融合となることがある。画像202は、例えば、カメラシステム204によって生成される画像であってもよい。変換ポイント206は、画像202内のピクセル位置にマッピングされたポイントクラウド内のポイントの一部、及びその結果融合データアレイ200内のエレメントを含むことがある。融合データアレイ200は、例えば、図1の融合マネージャ142によって生成されてもよい。
図示されているように、深度値生成器144は、融合データアレイ200に沿ってウィンドウ208を矢印210及び矢印212の方向に移動して、融合データアレイ200を処理してもよい。例えば、ウィンドウ208は、融合データアレイ200内の各エレメントの位置に移動可能である。この例示的な実施例では、ウィンドウ208は選択されたサイズ群の1つを有してもよい。本明細書で使用されているように、アイテム「群」は、一又は複数のアイテムを含みうる。このように、選択されたサイズ群は、一又は複数の選択されたサイズを含むことができる。
融合データアレイ200は、選択されたサイズ群内の各サイズを有するウィンドウを使用して、完全に走査及び処理される。ウィンドウ208を融合データアレイ200内のエレメントの位置に移動することは、この例示的な実施例の当該エレメントでウィンドウ208を中心に配置することを意味する。ウィンドウ208が中心に配置されるエレメントが非一致エレメントの場合、ウィンドウ208によって重ね合わされた融合データアレイ200の一部は、この非一致エレメントに関連付けられた非埋込データベクトルに対して新しい深度値を特定するため、深度値生成器144によって処理されてもよい。
ここで図3を参照すると、例示的な実施形態に従って、図2のウィンドウ208によって重ね合わされた融合データアレイ200の一部が図解されている。この例示的な実施例では、図2の融合データアレイ200の部分300がウィンドウ208によって重ね合わされている。
図3では、一致エレメント群302は、図2の変換ポイント206の一部がマッピングされている融合データアレイ200の部分300の中のエレメントを特定する。融合データアレイ200の部分300の中の他のすべてのエレメント(このビューには図示せず)は、変換ポイントがマッピングされていない非一致エレメントであってもよい。図示されているように、一致エレメント群302は一致エレメント304、306、308、310、312、314及び316を含む。
深度値生成器144は最初に、ウィンドウ208が中心に配置されるエレメントに関連付けられたデータベクトル内の深度値がヌル深度値であることを確認する。深度値が非ヌル深度値である場合には、深度値生成器144はウィンドウ208を別の場所に移動する。深度値がヌル深度値である場合には、深度値生成器144は融合データアレイ200の部分300の処理を継続する。
この例示的な実施例では、融合データアレイ200の部分300は、象限320、322、324、及び326に分割されているように描かれている。深度値生成器144は、融合データアレイ200の部分300の中に十分な数の一致エレメントが存在することを確認するように構成されている。さらに、深度値生成器144は、象限320、322、324、及び326の各々に少なくとも1つの一致エレメントが存在することを確認するように構成されている。
深度生成器144が、融合データアレイ200の部分300の中に十分な数の一致エレメントが存在すること、及び象限320、322、324、及び326の各々に少なくとも1つの一致エレメントが存在することを確認すると、深度生成器144は融合データアレイ200の部分300の処理を継続してもよい。部分300の中に十分な数の一致エレメントが存在しない場合、又は象限320、322、324、及び326の1つが一致エレメントを含まない場合には、深度値生成器144はウィンドウ208を融合データアレイ200に沿って次の位置に移動してもよい。
次に図4を参照すると、図3の一致エレメント群302の各々に対してスコアを生成するためのプロセスが、例示的な実施形態に従って描かれている。図4では、深度値生成器144は、一致エレメント群302内の各一致エレメントに対してスコアを生成するように構成されている。一致エレメントに対するスコアは、一致エレメントに関連付けられた埋込データベクトル内の深度値、及び一致エレメント群302内の他の一致エレメントに対する一致エレメントの類似性に基づいていてもよい。
一致エレメントに関連付けられた埋込データベクトル内の深度値は、カメラシステム204と変換ポイントとの間の距離となることがあり、これは3次元カメラ中心座標系内で、一致エレメントにマッピングされている。一致エレメント群302に対する深度値は、一致エレメント304、306、308、310、312、314、及び316のそれぞれとカメラシステム204との間の距離402、404、406、408、410、412、及び414になることがある。
一致エレメント群302内の他の一致エレメントに対する一致エレメントの類似性は、任意の数の特徴に基づいていてもよい。これらの特徴は、例えば、限定しないが、ピクセル位置、色、強度、及び/又はデータベクトル内の他の種類の特徴或いはデータを含んでもよい。この例示的な実施例では、他の一致エレメントに対する一致エレメントの類似性は、一致エレメントに関連付けられたデータベクトル内で特定されるピクセル位置と理想的なピクセル位置400との間の距離に基づいていてもよい。ピクセル位置は、融合データアレイ200内の一致エレメントに対する位置と同一であってもよい。
ここで図5を参照すると、例示的な実施形態による支持エレメントの選択が図解されている。この例示的な実施例では、一致エレメント群302に対して生成されるスコアは、図4に記載されているように、ソート又は順序付けされてもよい。
所望の数の支持エレメントは、この例示的な実施例では5個の支持エレメントであってもよい。最も低い5つのスコアを有する5個の一致エレメントが支持エレメントとして選択される。支持エレメント500は一致エレメント306、308、310、312、及び314を含む。
この例示的な実施例では、支持エレメント500は、画像202によって捕捉されているシーン内の実在の孔及び/又は間隙に対して作成される新しいポイントの数が削減されるように選択されてもよい。さらに、支持エレメント500は、作成された新しいポイントが対象物の外表面に実際に存在するように選択されてもよい。
次に図6を参照すると、例示的な実施形態による、新しい深度値の生成が図解されている。この例示的な実施例では、図5の支持エレメント500は、ウィンドウ208が中心に配置されたエレメント600に対して新しい深度値を生成するように使用されてもよい。エレメント600は、融合データアレイ200の部分300の中心位置になりうる、融合データアレイ200内で位置602に配置される。
エレメント600に対する新しい深度値は、例えば、線形推定を使用して生成可能である。具体的には、線形推定アルゴリズムは、支持エレメント500の各々に関連付けられた埋込データベクトル内の深度値を使用して、エレメント600に対して新しい深度値を推定することができる。この新しい深度値は、エレメント600に関連付けられたデータベクトルを埋めるために使用されてもよい。
図3〜6に記載されているプロセスは、図2のウィンドウ208が移動される融合データアレイ200内の各位置に対して反復されてもよい。さらに、図2〜6に記載されているプロセス全体は、異なる選択サイズのウィンドウを使用して反復されてもよい。
このように、融合データアレイ全体は、選択サイズ群内の各サイズのウィンドウを用いて走査及び処理されてもよい。なおさらに、選択サイズ群を有するウィンドウを使用するプロセス全体は、融合データアレイ200内の非一致エレメントに関連付けられた非埋込データベクトルの少なくとも一部を埋めるまで、任意の回数反復されてもよい。
図2〜6の図解は、例示的な実施形態が実装される方法に対する物理的又は構造的な限界を示唆することを意図していない。これらの図解は、抽象的な方法で新しい深度値を生成することの概念を説明するために提示されている。
ここで図7を参照すると、例示的な実施形態による融合画像が図解されている。融合画像700は、図1の融合データアレイ150の実装の一例であってもよい。融合画像700は画像702と変換ポイント704の組合せであってもよい。この例示的な実施例では、融合画像700の各々は、例えば、図1のデータベクトル154などのデータベクトルと関連付けられることがある。
ここで図8を参照すると、例示的な実施形態による2つの融合画像間の比較が図解されている。この例示的な実施例では、初期融合画像800は、図1の初期融合画像168の実装の一例である。さらに、最終融合画像802は、図1の最終融合画像170の実装の一例である。
図示されているように、初期融合画像800は画像804と変換ポイント806の融合である。変換ポイント806は、例えば、図1のポイントクラウド332などの元のポイントクラウドからマッピングされたポイントを含んでもよい。最終融合画像802は、同一画像804と変換ポイント808の融合である。変換ポイント808は、例えば、図1の新しいポイントクラウド162などの新しいポイントクラウドからマッピングされたポイントを含んでもよい。画像804内で捕捉されたシーンは、初期融合画像800内の変換ポイント806と比較して、最終融合画像802内の変換ポイント808でよりよく実現される。
ここで図9を参照すると、支持エレメントが使用される場合に生成される最終融合画像と、支持エレメントが使用されない場合に生成される最終融合画像との比較が、例示的な実施形態に従って図解されている。この例示的な実施例では、最終融合画像900と最終融合画像902との比較が図解されている。これらの最終融合画像は、図1の最終融合画像170に対する実装の一例である。
最終融合画像900は、画像904と変換ポイント906との融合である。最終融合画像902は、同一画像904と変換ポイント908の融合である。変換ポイント906及び変換ポイント908は共に、新しいポイントが追加された対応する新しいポイントクラウドからマッピングされたポイントを含む。
しかしながら、変換ポイント906は、支持エレメントを使用することなく、生成された新しいポイントクラウドからのポイントを含むことがある。変換ポイント908は、支持エレメントを使用して生成された新しいポイントクラウドからのポイントを含むことがある。図示されているように、最終融合画像900の部分912に描かれている建物の最上部の表面及び形状は、最終融合画像902の部分914に描かれている建物の最上部の表面及び形状よりも特徴が不明瞭で精度が劣ることがある。
ここで図10を参照すると、例示的な実施形態による最終融合画像の表が図解されている。図10では、表1000は列1002、列1004、行1006、行1008を含む。
列1002は、融合データアレイ全体にわたって選択されたサイズのグループを有するスキャニングウィンドウの2回反復を用いて生成された、最終融合画像1010及び最終融合画像1014を含む。列1004は、融合データアレイ全体にわたって選択されたサイズのグループを有するスキャニングウィンドウの10回反復を用いて生成された、最終融合画像1012及び最終融合画像1016を含む。
行1006は、反復ごとに8個の大きさのウィンドウを使用して生成された、最終融合画像1010及び最終融合画像1012を含む。さらに、行1008は、反復ごとに16個の大きさのウィンドウを使用して生成された、最終融合画像1014及び最終融合画像1016を含む。
図示されているように、最終融合画像に含まれるポイントの数は、反復回数及び反復ごとのウィンドウの大きさの数が増すにつれて増大する。最終融合画像中のポイントの数が増すにつれて、最終融合画像内でのシーンの可視化は改善される。
図7〜10の融合画像の図解は、例示的な実施形態が実装される方法に対する物理的又は構造的な限界を示唆することを意図していない。これらの融合画像は、図1の初期融合画像168及び最終融合画像170などの融合画像が実装される方法の実施例である。
次に図11を参照すると、例示的な実施形態によるポイントクラウド内のポイントの数を増やすプロセスがフロー図の形式で図解されている。図11に図解されたプロセスは、図1の画像処理システム102を使用して実装可能である。
プロセスは、第1センサーシステムからの2次元画像及び第2センサーシステムからのポイントクラウドを受信することによって開始される(操作1100)。操作1100では、2次元画像は、図1のカメラシステム118など、カメラシステムの形態の第1センサーシステムから受信可能である。この例示的な実施例では、2次元画像はカラー画像であってもよい。さらに、ポイントクラウドは、図1の光検出及び測距システム130など、光検出及び測距システムの形態の第2センサーシステムから受信可能である。
2次元画像及びポイントクラウドは共に、同一シーンからのものであってもよい。しかしながら、実装によっては、2次元画像及びポイントクラウドは、同一シーンを同一の視点又は異なる視点から捕捉することがある。
次に、ポイントクラウド内のポイントの少なくとも一部は、2次元画像にマッピングされて変換ポイントを形成する(操作1102)。次に、融合データアレイは、2次元画像及び変換ポイントを使用して作成される(操作1104)。
次いで、ポイントクラウドに対する新しいポイントは、融合データアレイを使用して特定される(操作1106)。新しいポイントはポイントクラウドに追加されて、新しいポイントクラウドを形成し(操作1108)、その後プロセスは終了する。元のポイントクラウドと比較して新しいポイントクラウド内のポイントの数の増加により、元のポイントクラウドと比較して解像度の高い新しいポイントクラウドを提供することができる。
言い換えるならば、新しいポイントクラウドは、シーン内の特徴を元のポイントクラウドよりも高い精度で捕捉することができる。新しいポイントクラウドは、例えば、限定しないが、対象物の特定、対象物の分類、セグメント化、シーンの可視化などの任意の数の種々の操作、及び/又は他の種類の操作を実施するように使用される。
ここで図12を参照すると、ポイントクラウド内のポイントを2次元画像にマッピングして変換ポイントを形成するためのプロセスが、例示的な実施形態によるフロー図の形式により図解されている。図12に図解したプロセスは、図11の操作1102を実装するのに使用可能である。さらに、このプロセスは、図1の画像処理システム102内の融合マネージャ142を使用して実施される。
プロセスは、ポイントクラウド内のポイントに対してカメラ中心座標を特定するため、ポイントクラウドに対する3次元基準座標系を3次元カメラ中心座標系に変換することによって開始される(操作1200)。3次元基準座標系は、例えば、地理座標系、又は他の何らかの種類の現実の座標系であってもよい。3次元カメラ中心座標系の原点は、2次元画像を生成したカメラシステムの位置である。
例えば、3次元基準座標系で所定の位置X、Y、Zにある各点は、カメラ中心座標で次のように特定される。

ここで、X、Y、Zは3次元基準座標系によるポイントの座標で、X、Y、Zは3次元カメラ中心座標系での当該ポイントに対するカメラ中心座標で、Rは回転、Tは並進を表わす。
回転R、及び並進Tは、実効n点透視カメラ姿勢推定アルゴリズムなどの、カメラ姿勢推定アルゴリズムを含む変換アルゴリズムを使用して特定可能である。この実効n点透視カメラ姿勢推定アルゴリズムは、2次元画像を生成したカメラシステムの姿勢に関する姿勢情報を特定する。カメラシステムの姿勢は、カメラシステムの方向及び位置のうちの少なくとも1つを含むことがある。変換アルゴリズムはカメラシステムの姿勢情報を使用して、ポイントに対するカメラ中心座標を生成する。
次に、カメラ中心座標を有するポイントは、2次元画像に関する画像平面内のピクセル位置にマッピングされて、初期変換ポイントを形成する(操作1202)。初期変換ポイントの各々は、2次元画像の画像平面内の特定のピクセル位置でのピクセルに対応するポイントであってもよい。例えば、各ポイントはピクセル位置u、vに次のようにマッピングされてもよい。

ここで、uはピクセル位置の行で、vはピクセル位置の列である。
したがって、初期変換ポイントの一部は選択された基準に基づいて選択され、変換ポイントを形成し(操作1204)、その後プロセスは終了する。操作1204では、選択された初期変換ポイントの一部は、ゼロよりも大きく2次元画像の最大行数以下である行uを有し、ゼロよりも大きく2次元画像の最大列数以下である列vを有するポイントを含んでもよい。このように、変換ポイントは2次元画像の内側にあり、2次元画像の外側にないピクセル位置のみを含んでもよい。
次に図13を参照すると、融合データアレイ作成のためのプロセスが、例示的な実施形態によるフロー図の形式で図解されている。図13に図解したプロセスは、図11の操作1104を実装するのに使用されてもよい。
プロセスは、変換ポイントの各々の距離を特定することにより開始される(操作1300)。この距離は、変換ポイントに対するカメラ中心座標とカメラシステムとの間の距離であってもよい。距離は以下のように特定される。

ここで、dは距離である。
その後、任意の変換ポイントが同一のピクセル位置にマッピングされているかどうかが決定される(操作1302)。任意の変換ポイントが同一のピクセル位置にマッピングされている場合には、複数の変換ポイントがマッピングされている各ピクセル位置に対して、カメラシステムに最も近い変換ポイントが保持され、他の変換ポイントは破棄される(操作1304)。
次に、プロセスは残存する変換ポイントの各々に対して深度値を正規化し、正規化された深度値を形成する(操作1306)。例えば、各残存変換ポイントiに対して、正規化された距離が以下のように特定される。

ここで、

は変換ポイントに対して正規化された距離で、

は操作1300の変換ポイントに対して特定された距離である。

は所定の最小距離で、

は所定の最大距離である。所定の最小距離及び所定の最大距離は、例えば、コンピュータシステムを使用して、自動的に計算されてもよい。
その後、融合データアレイは、融合データアレイの各エレメントがピクセル位置、深度値、及び元のピクセルデータを含むデータベクトルに関連付けられるように作成される(操作1308)。融合データアレイのエレメントは、2次元画像のピクセルに1対1の対応を有していてもよい。融合データアレイ内のエレメントに関連付けられたデータベクトル内のピクセル位置は、エレメントに対応するピクセルの行及び列を含んでもよい。エレメントに関連付けられたデータベクトル内の深度値は、エレメントに対応するピクセルにマッピングされた変換ポイントに対して特定された正規化された距離となることがある。変換ポイントがエレメントに対応するピクセルにマッピングされていない場合には、深度値はヌルとなることがある。エレメントに関連付けられたデータベクトル内の元のピクセルデータは、例えば、エレメントに対応するピクセルの赤の値、緑の値、及び青の値を含んでもよい。
このように、融合データアレイ内のエレメントに関連付けられたデータベクトルは、次のように表わされることがある。

ここで、qは融合データアレイ内のi番目のエレメントに関連付けられたデータベクトルである。uはi番目のエレメントに対応するピクセルの行である。はvはi番目のエレメントに対応するピクセルの列である。

はi番目のエレメントに対応するピクセルにマッピングされた変換ポイントに対する深度値である。また、r,g,bはi番目のエレメントに対応するピクセルの赤の値、緑の値、及び青の値である。変換ポイントが融合データアレイ内のエレメントに対応するピクセルにマッピングされていない場合には、エレメントに関連付けられたデータベクトルは次のように表わされることがある。
次に、融合データアレイ内のエレメントの各々は、エレメントの各々が一意的に参照可能なようにインデックス付けされ(操作1310)、その後プロセスは終了する。例えば、各エレメントは次のようにインデックス付けされる。

ここでlはエレメントに対するインデックスで、Cは2次元画像の列の数である。
変換ポイントがマッピングされたピクセルに対応する融合データアレイ内のエレメントは、一致エレメントである。変換ポイントがマッピングされていないピクセルに対応する融合データアレイ内のエレメントは、非一致エレメントである。
操作1302を再度参照して、変換ポイントが1つも同一ピクセル位置にマッピングされていない場合には、プロセスは上述のように操作1306へ進む。このように、図13に記載されているプロセスは、図1の融合データアレイ150などの融合データアレイの作成に使用されることがある。
次に図14を参照すると、新しい深度値を生成するためのプロセスが、例示的な実施形態によるフロー図の形式で図解されている。図14に図解したプロセスは、図11の操作1106を実装するのに使用可能である。
プロセスは、融合データアレイの処理に対する最大反復数を特定することによって開始される(操作1400)。次に、ウィンドウ用に選択されたサイズ群が特定されて、融合データアレイの処理に使用される(操作1402)。その後、選択されたサイズ群からウィンドウ用のサイズが選択される(操作1404)。選択されたサイズ群中の各サイズは、n×nのサイズであってもよい。このように、各ウィンドウは等しい幅と長さを有していてもよい。この例示的な実施例では、各nは奇数となることがある。
ウィンドウは融合データアレイ内のエレメントの位置に移動される(操作1406)。エレメントが一致エレメントであるか非一致エレメントであるかの判定が行われる(操作1408)。一致エレメントは非ヌル深度値のデータベクトルを有する。非一致エレメントはヌル深度値のデータベクトルを有する。エレメントが一致エレメントの場合、融合データアレイ内に未処理の位置が存在するかどうかについての判定が行われる(操作1410)。
融合データアレイ内に未処理の位置が存在する場合には、プロセスは上述のように操作1406に戻る。そうでない場合には、ウィンドウに対して選択されたサイズ群中の任意のサイズがまだ存在するかどうかについての判定が行われる(操作1412)。ウィンドウに対して選択されたサイズ群中の任意のサイズがまだ存在する場合には、プロセスは上述のように操作1404に戻る。そうでない場合には、1回の反復が完了したものとみなされ、最大反復数に達したかどうかについての判定が行われる。最大反復数に達していない場合には、プロセスは上述のように操作1402に戻る。そうでない場合には、融合データアレイ内の非一致エレメントの少なくとも一部に対して生成された新しい深度値を使用して、プロセスはポイントクラウドに対して新しいポイントを作成し、その後プロセスは終了する。
再び操作1408を参照すると、エレメントが非一致エレメントの場合、ウィンドウによって重ね合わされた融合データアレイの一部の中の一致エレメントが選択された基準を満たすかどうかの判定が行われる(操作1418)。一致エレメントの数が選択された閾値よりも大きく、少なくとも1つの一致エレメントがウィンドウによって重ね合わされた融合データアレイの一部の各象限内に存在する場合には、ウィンドウによって重ね合わされた融合データアレイの一部の中の一致エレメントは選択された基準を満たす。
一致エレメントが選択された基準を満たさない場合には、プロセスは上述のように操作1410へ進む。そうでない場合には、ウィンドウによって重ね合わされた融合データアレイの一部の中の一致エレメントの各々に対して生成される(操作1420)。例えば、スコアは一致エレメントに対する良好度スコアとなることがある。良好度スコアは、エレメントに対応するピクセルにマッピングされた変換ポイントのカメラシステムからの距離並びに他の一致エレメントに対する一致エレメントの相違点との組合せに基づいていてもよい。
ウィンドウによって重ね合わされた融合データアレイの一部の中の一致エレメントにより、良好度スコアは次のように生成されてもよい。

ここで、Gはi番目の一致エレメントの良好度スコアである。Mはi番目の一致エレメントに対する相違度スコアである。Δはi番目の一致エレメントに対する距離の測定値である。jはn個の一致エレメントに対するインデックスである。Fは特徴に対する応答である。mは特徴の数である。

はi番目の一致エレメントに関連付けられたデータベクトルの深度値である。また、γは正規化定数である。特徴応答と深度値の両方が0〜1の間で正規化される場合、正規化定数γは

のように設定されることがある。
この例示的な実施例では、特徴は、例えば、ピクセル位置、強度、色、又は他の種類の特徴であってもよい。当該特徴に対する応答は、当該特徴に対する値であってもよい。
次に、事前選択数の最低スコアを有する一致エレメントは支持エレメントとして選択される(操作1422)。例えば、数は所望の数の支持エレメントに対して事前選択されてもよい。この事前選択数は4、5、8、10、又は他の何らかの数であってもよい。操作1422では、操作1420で生成されたスコアがソートされる。事前選択数が5の場合、5つの最低スコアを有する一致エレメントは、支持エレメントとして選択される。
支持エレメントが各象限内に存在するか否かについて、判定が行われる(操作1424)。支持エレメントが各象限に存在しない場合には、プロセスは上述のように操作1410へ進む。そうでない場合には、新しい深度値は、線形推定アルゴリズム及び支持エレメントを使用してウィンドウが中心に配置されるエレメントに対して生成される。
操作1426では、新しい深度値は、例えば、次のような線形システムを使用して特定されてもよい。

ここで、

は新しい深度値で、ω、ω、及びωはウェイトである。言うまでもなく、支持エレメントの深度値を使用して新しい深度値に対する解を得るために、任意の種類の多項式近似アルゴリズムが使用されてもよい。
その後、新しい深度値が選択された範囲内にあるかどうかについて、判定が行われる(操作1428)。次の場合には、新しい深度値は選択された範囲内にあってもよい。

ここで、

で、

は支持エレメントに対応するピクセルにマッピングされた変換ポイントのカメラシステムからの最小距離である。Wはウィンドウの幅であり、αは奥行き調整ウェイト定数である。
新しい深度値が選択された範囲内にない場合には、プロセスは上述のように操作1410へ進む。このように、新しい深度値は、ウィンドウが中心に配置されるエレメントに対応するデータベクトルに追加されない。より正確に言うならば、このデータベクトル内の深度値はヌルのまま残る。しかしながら、新しい深度値が選択された範囲内にある場合には、新しい深度値はウィンドウが中心に配置されるエレメントに関連付けられたデータベクトルに追加される。プロセスは次に、上述のように操作1410へ進む。
次に図15を参照すると、ポイントクラウドに対してポイントを生成するプロセスが例示的な実施例によるフロー図の形式で図解されている。図15に図解されたプロセスは、図14の操作1416を実装するように使用されてもよい。
プロセスは、融合データアレイ内の非一致エレメントの少なくとも一部に対して生成される新しい深度値を非正規化することにより開始される。これらの新しい深度値の各々は、ポイントクラウドに対して新しいポイントを作成するように使用される。新しい深度値は、次のように非正規化されてもよい。

ここで、

は非正規化された深度値である。
カメラ中心座標は、新しい深度値が生成されたデータベクトル内で非正規化された深度値及びピクセル位置を使用して、ポイントクラウドの新しいポイントに対して生成される。カメラ中心座標は次のように生成される。
その後、カメラ中心座標を使用して、元のポイントクラウドの3次元基準座標系での新しいポイントのポイント位置が特定され、その後プロセスは終了する。3次元基準座標系でのポイント位置は、操作1200で使用される変換アルゴリズムの逆変換を使用して特定される。例えば、ポイント位置は次のようにして特定される。

ここで、X、Y、Zは3次元基準座標系に追加される新しいポイントに対する座標で、X、Y、Zは3次元カメラ中心座標系内の新しいポイントに対するカメラ中心座標である。
図示した異なる実施形態でのフロー図は、例示的な実施形態で実装可能なシステム及び方法の構造、機能、及び操作を示している。これに関し、フロー図の各ブロックは、1つの操作又はステップの1つのモジュール、セグメント、機能及び/又は部分を表わすことができる。例えば、一又は複数のブロックは、ソフトウェア、ハードウェア、又は両者の組合せとして実装可能である。ハードウェアは、例えば、フロー図の一又は複数の操作を実施するように製造又は構成された集積回路の形態をとることができる。
例示的な一実施形態の幾つかの代替的な実装態様では、ブロックに記載された一又は複数の機能は、図中に記載の順序を逸脱して現れることがある。例えば、場合によっては、2つのブロックがほぼ同時に実行されること、又は具体的な実装によっては逆順に実行されることもある。また、フロー図に描かれているブロックに他のブロックが追加されることもある。
ここで図16を参照すると、例示的な実施形態によりデータ処理システムがブロック図の形式で図示されている。データ処理システム1600を使用して、図1のコンピュータシステム104に含まれる一又は複数のコンピュータを実装することができる。さらに、図1の融合マネージャ142、深度値生成器144、及び/又はポイントクラウドマネージャ145が、データ処理システム1600を使用して実装されることがある。なおさらに、データ処理システム1600に類似したデータ処理システムは、図1の第1センサーシステム106及び/又は第2センサーシステム108内に実装されてもよい。
図示されているように、データ処理システム1600は、通信フレームワーク1602を含み、これによってプロセッサユニット1604、記憶デバイス1606、通信ユニット1608、入出力ユニット1610、及びディスプレイ1612の間で通信を提供する。場合によっては、通信フレームワーク1602はバスシステムとして実装されてもよい。
プロセッサユニット1604は、任意の数の操作を実施するソフトウェアのための命令を実行するように構成されている。プロセッサユニット1604は、実装に応じて、任意の数のプロセッサ、マルチプロセッサコア、及び/又は他の種類のプロセッサであってもよい。場合によっては、プロセッサユニット1604は、回路システム、特定用途向け集積回路(ASIC)、プログラマブル論理デバイスなどのハードウェアユニット、又は他の好適な種類のハードウェアユニットの形態をとってもよい。
オペレーティングシステム、アプリケーション、及び/又はプログラムに対する命令は、記憶デバイス1606上に配置される。記憶デバイス1606は、通信フレームワーク1602を介してプロセッサユニット1604と通信を行ってもよい。本明細書で使用しているように、記憶デバイスはまた、コンピュータ可読記憶媒体と呼ばれることもあり、一時的に及び/又は永続的に情報を記憶することができるハードウェアの一部である。この情報は、限定するものではないが、データ、プログラムコード、及び/又は他の情報を含むことができる。
メモリ1814及び固定記憶域1616は、記憶デバイス1606の例である。メモリ1614は、例えば、ランダムアクセスメモリ又は幾つかの種類の揮発性または不揮発性の記憶デバイスであってもよい。固定記憶域1616は任意の数のコンポーネント又はデバイスを含みうる。例えば、固定記憶域1616は、ハードドライブ、フラッシュメモリ、書換え型光ディスク、書換え可能磁気テープ、又はそれらの何らかの組み合わせであってもよい。固定記憶域1616によって使用される媒体は着脱式であってもよく、着脱式でなくてもよい。
通信ユニット1608により、データ処理システム1600は、他のデータ処理システム及び/又はデバイスと通信することができる。通信ユニット1608は、物理的な及び/又は無線の通信リンクを使用して通信することができる。
入出力ユニット1610は、データ処理システム1600に接続される他のデバイスとのデータの入出力を可能にする。例えば、入出力ユニット1610は、キーボード、マウス、及び/又は他のなんらかの種類の入力デバイスを介してユーザー入力を受け取ることができる。別の実施例として、入出力ユニット1610は、データ処理システム1600に接続されたプリンタに出力を送信することができる。
ディスプレイ1612はユーザーに情報を表示するように構成されている。ディスプレイ1612は、例えば、限定しないが、モニタ、タッチスクリーン、レーザーディスプレイ、ホログラフィックディスプレイ、仮想表示デバイス、及び/又は他の種類のディスプレイデバイスを含みうる。
異なる実施形態のプロセスは、コンピュータに実装される命令を使用してプロセッサユニット1604によって実施されてもよい。これらの命令は、プログラムコード、コンピュータで使用可能なプログラムコード、又はコンピュータ可読プログラムコードと呼ばれ、プロセッサ装置1604内の一又は複数のプロセッサによって読取及び実行される。
これらの実施例では、プログラムコード1618は、選択的に着脱可能でコンピュータ可読媒体1620上に機能的な形態で配置され、プロセッサユニット1604での実行用のデータ処理システム1600に読込み又は転送することができる。プログラムコード1618及びコンピュータ可読媒体1620は、コンピュータプログラム製品1622を形成する。この例示的な実施例では、コンピュータ可読媒体1620は、コンピュータ可読記憶媒体1624又はコンピュータ可読信号媒体1626であってもよい。
コンピュータ可読記憶媒体1624は、プログラムコード1618を伝搬又は転送する媒体というよりはむしろプログラムコード1618を保存するために使用される物理的な又は有形の記憶デバイスである。コンピュータ可読記憶媒体1624は、例えば、限定しないが、データ処理システム1600に接続される光又は磁気ディスク或いは固定記憶デバイスの形態をとりうる。
代替的に、プログラムコード1618はコンピュータ可読信号媒体1626を用いてデータ処理シスム1600に転送可能である。コンピュータ可読信号媒体1626は、例えば、プログラムコード1618を含む伝播データ信号であってもよい。このデータ信号は、物理的及び/又は無線の通信リンクを介して伝送されうる、電磁信号、光信号、及び/又は他の何らかの好適な種類の信号であってもよい。
図16のデータ処理システム1600の図解は、例示的な実施形態が実装される方法に対する物理的又は構造的な制限を示唆することを意図していない。種々の例示的な実施形態は、データ処理システム1600に対して図解されているコンポーネントに対して追加的又は代替的なコンポーネントを含むデータ処理システム内に実装される。さらに、図16に示したコンポーネントは、例示的な実施例と異なることがある。
種々の実施形態は、プログラムコードを実行できる任意のハードウェアデバイス又はシステムを使用して実装することができる。1つの例示的な実施例として、データ処理システムは無機コンポーネントと一体化した有機コンポーネントを含むことができ、及び/又は人間を除く有機コンポーネントを完全に含むことができる。例えば、記憶デバイスは、有機半導体で構成することができる。
したがって、例示的な実施形態は、ポイントクラウド内のポイントの数を増やすためのシステム及び方法を提供する。1つの例示的な実施形態では、同一シーンの2次元画像及びポイントクラウドが受信される。ポイントクラウド内のポイントの少なくとも一部は、2次元画像にマッピングされて変換ポイントを形成する。融合データアレイは、2次元画像及び変換ポイントを使用して作成される。ポイントクラウドに対する新しいポイントは融合データアレイを使用して特定される。新しいポイントはポイントクラウドに追加されて、新しいポイントクラウドを形成する。
例示的な実施形態によって説明されている画像処理システムを使用して形成された新しいポイントクラウドにより、元のポイントクラウドと比較して、より高いレベルの精度及び/又は効率で、任意の数の操作を実施することができる。例えば、対象物の特定、対象物の分類、セグメント化、及び/又は他の画像処理操作は、元のポイントクラウドと比較して、より正確に実施されうる。
さらに、新しいポイントクラウド内の新しいポイントの数が増えることにより、元のポイントクラウドと比較して、シーンの可視化を改善することができる。なおさらに、新しいポイントクラウドは、元のポイントクラウドと比較して、2次元画像を強化するように使用される。
種々の例示的な実施形態によって記述されている画像処理システムにより、新しいポイントクラウドは、シーン内の対象物の種類、シーン内の対象物の形状、及び/又はシーンの背景に関する推測を行うことなく、形成されるポイントの数を増やすことができる。このように、例示的な実施形態によって提供されるプロセスは、ポイントクラウド内のポイントの数を増やすため、シーンに関する推測を行うプロセスと比較して、シーンをより正確に示す新しいポイントクラウドを形成することができる。
種々の例示的な実施形態の説明は、例示及び説明を目的として提供されているものであり、網羅的な説明であること、又は開示された形態に実施形態を限定することを意図していない。当業者には、多数の修正例及び変形例が明らかであろう。さらに、異なる実施形態は、他の例示的な実施形態とは異なる利点を提供することができる。選択された一又は複数の実施形態は、実施形態の原理、実際の用途を最もよく説明するため、及び他の当業者に対し、様々な実施形態の開示内容と、考慮される特定の用途に適した様々な修正との理解を促すために選択及び記述されている。
200 融合データアレイ
202 画像
204 カメラシステム
206 変換ポイント
208 ウィンドウ
210、212 矢印
300 融合データアレイの部分
302 一致エレメント群
304、306、308、310、312、314、316 一致エレメント
320、322、324、326 象限
400 理想的なピクセル位置
402、404、406、408、410、412、414 カメラシステムとの距離
500 支持エレメント
600 エレメント
602 位置
700 融合画像
702 画像
704 変換ポイント
800 初期融合画像
802 最終融合画像
804 画像
806、808 変換ポイント
900、902 最終融合画像
904 画像
906、908 変換ポイント
912、914 最終融合画像の部分
1000 表
1002、1004 列
1006、1008 行
1010、1012、1014、1016 最終融合画像

Claims (15)

  1. シーン(110)のポイントクラウド(132)内のポイント(134)の少なくとも一部を前記シーン(110)の2次元画像(121)にマッピングして変換ポイント(146)を形成し;前記2次元画像(121)及び前記変換ポイント(146)を使用して融合データアレイ(150)を作成し;前記融合データアレイ(150)を使用して前記ポイントクラウド(132)に対して新しいポイント(164)を特定し;さらに前記ポイントクラウド(132)に前記新しいポイント(164)を追加して新しいポイントクラウド(162)を形成するように構成された画像処理システム(102)を含む装置。
  2. 前記画像処理システム(102)は、
    前記ポイントクラウド(132)内の前記ポイントの少なくとも一部を前記2次元画像(121)にマッピングして前記変換ポイント(146)を形成するように構成されており、且つ前記2次元画像(121)及び前記変換ポイント(146)を使用して前記融合データアレイ(150)を作成するように構成されている融合マネージャ(142)を含む、請求項1に記載の装置。
  3. 前記融合データアレイ(150)は、非ヌル深度値を含む埋込データベクトル(154)に関連付けられた一致エレメント(304、306、308、310、312、314、316)、及びヌル深度値を含む非埋込データベクトル(154)に関連付けられた非一致エレメントを含む、請求項2に記載の装置。
  4. 前記画像処理システム(102)は、
    新しい深度値(158)を特定して、前記ヌル深度値の少なくとも一部を置き換えるように構成されている深度値生成器(144)をさらに含む、請求項3に記載の装置。
  5. 前記画像処理システム(102)は、
    前記新しい深度値(158)を使用して、前記ポイントクラウド(132)に対して前記新しいポイント(164)を特定するように構成されているポイントクラウドマネージャ(145)をさらに含む、請求項4に記載の装置。
  6. 前記ポイントクラウドマネージャ(145)は、前記ポイントクラウド(132)に前記新しい点(164)を追加して、前記新しいポイントクラウド(162)を形成するようにさらに構成されている、請求項5に記載の装置。
  7. 前記融合データアレイ(150)はエレメント(152)を含み、前記エレメント(152)の各々は、ピクセル位置(157)、深度値、及び元のピクセルデータ(159)のうちの少なくとも1つを含むデータベクトル(154)に関連付けられている、請求項1に記載の装置。
  8. 前記2次元画像(121)を生成するように構成されている第1センサーシステム、及び
    前記ポイントクラウド(132)を生成するように構成されている第2センサーシステム
    をさらに含む、請求項1に記載の装置。
  9. 前記第1センサーシステムはカメラシステムであり、前記第2センサーシステムは光検出及び測距システムである、請求項8に記載の装置。
  10. 前記画像処理システム(102)は、前記カメラシステムの姿勢情報を使用して、前記ポイントクラウド(132)内の前記ポイントの少なくとも一部を前記2次元画像(121)にマッピングするように構成されている、請求項9に記載の装置。
  11. 画像処理システム(102)であって、
    シーン(110)のポイントクラウド(132)内のポイント(134)の少なくとも一部を前記シーン(110)の2次元画像(121)にマッピングして変換ポイント(146)を形成するように構成され、且つ前記2次元画像(121)及び前記変換ポイント(146)を使用して融合データアレイ(150)を作成するように構成されている融合マネージャ(142)であって、前記融合データアレイ(150)は、非ヌル深度値を含む埋込データベクトル(154)に関連付けられた一致エレメント(304、306、308、310、312、314、316)、及びヌル深度値を含む非埋込データベクトル(154)に関連付けられた非一致エレメントを含む、融合マネージャ(142);
    新しい深度値(158)を特定して前記ヌル深度値の少なくとも一部を置き換えるように構成された深度値生成器(144);並びに
    前記新しい深度値(158)を使用して前記ポイントクラウド(132)に対して新しいポイント(164)を特定し、前記新しいポイント(164)を前記ポイントクラウド(132)に追加して新しいポイントクラウド(162)を形成するように構成されているポイントクラウドマネージャ(145)
    を備える画像処理システム(102)。
  12. ポイントクラウド(132)内のポイントの数を増やすためのコンピュータ実装方法であって、
    シーン(110)の2次元画像(121)及び前記シーン(110)の前記ポイントクラウド(132)を受信すること;
    前記ポイントクラウド(132)内のポイントの少なくとも一部を前記2次元画像(121)にマッピングして変換ポイント(146)を形成すること;
    前記2次元画像(121)及び前記変換ポイント(146)を使用して融合データアレイ(150)を作成すること;
    前記融合データアレイ(150)を使用して前記ポイントクラウド(132)に対して新しいポイント(164)を特定すること;及び
    前記ポイントクラウド(132)に前記新しいポイント(164)を追加して新しいポイントクラウド(162)を形成すること
    を含むコンピュータ実装方法。
  13. 前記ポイントクラウド(132)内の前記ポイントの前記少なくとも一部を前記2次元画像(121)にマッピングして前記変換ポイント(146)を形成することは、
    カメラシステムの姿勢情報を特定すること;
    前記ポイントクラウド(132)内の前記ポイントに対してカメラ中心座標を特定する前記姿勢情報を使用して、前記ポイントクラウド(132)に対する3次元基準座標系を3次元カメラ中心座標系に変換すること;及び
    前記カメラ中心座標を有する前記ポイントクラウド(132)内の前記ポイントの前記少なくとも一部を前記2次元画像(121)内のピクセル位置(124)にマッピングすること
    を含む、請求項12に記載のコンピュータ実装方法。
  14. 前記2次元画像(121)及び前記変換ポイント(146)を使用して前記融合データアレイ(150)を作成することは、
    前記2次元画像(121)内のピクセルに1対1の対応を有するエレメント(152)から成る前記融合データアレイ(150)を形成すること;及び
    前記融合データアレイ(150)内の前記エレメント(152)に、非ヌル深度値を含む埋込データベクトル(154)とヌル深度値を含む非埋込データベクトル(154)とを含むデータベクトル(154)を関連付けること
    を含む、請求項12に記載のコンピュータ実装方法。
  15. 前記融合データアレイ(150)を使用して前記ポイントクラウド(132)に対して前記新しいポイント(164)を特定することは、
    新しい深度値(158)を生成して前記ヌル深度値の少なくとも一部を置き換えること;及び
    前記新しい深度値(158)を使用して前記ポイントクラウド(132)に対して前記新しいポイント(164)を特定すること
    を含む、請求項14に記載のコンピュータ実装方法。
JP2013231790A 2012-11-09 2013-11-08 ポイントクラウド内の埋め戻しポイント Active JP5778237B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/673,429 US9811880B2 (en) 2012-11-09 2012-11-09 Backfilling points in a point cloud
US13/673,429 2012-11-09

Publications (2)

Publication Number Publication Date
JP2014096152A true JP2014096152A (ja) 2014-05-22
JP5778237B2 JP5778237B2 (ja) 2015-09-16

Family

ID=49554009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013231790A Active JP5778237B2 (ja) 2012-11-09 2013-11-08 ポイントクラウド内の埋め戻しポイント

Country Status (8)

Country Link
US (1) US9811880B2 (ja)
EP (1) EP2731075B1 (ja)
JP (1) JP5778237B2 (ja)
KR (1) KR102096673B1 (ja)
CN (1) CN103810744B (ja)
AU (1) AU2013227985B2 (ja)
BR (1) BR102013028714B1 (ja)
CA (1) CA2826534C (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11838606B2 (en) 2015-11-20 2023-12-05 Magic Leap, Inc. Methods and systems for large-scale determination of RGBD camera poses

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140363073A1 (en) * 2013-06-11 2014-12-11 Microsoft Corporation High-performance plane detection with depth camera data
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
CN105469447A (zh) * 2014-09-11 2016-04-06 富泰华工业(深圳)有限公司 点云边界直角边修补系统及方法
US10032311B1 (en) * 2014-09-29 2018-07-24 Rockwell Collins, Inc. Synthetic image enhancing system, device, and method
US9772405B2 (en) 2014-10-06 2017-09-26 The Boeing Company Backfilling clouds of 3D coordinates
FR3028988B1 (fr) * 2014-11-20 2018-01-19 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procede et dispositif de filtrage adaptatif temps reel d'images de disparite ou de profondeur bruitees
CN105701861A (zh) * 2014-11-28 2016-06-22 富泰华工业(深圳)有限公司 点云采样方法及系统
CN104484895B (zh) * 2014-12-24 2018-11-20 天脉聚源(北京)科技有限公司 一种数据显示方法及装置
CN105427239B (zh) * 2015-12-05 2018-05-22 刘忠艳 一种二维点云匹配方法
US9972067B2 (en) 2016-10-11 2018-05-15 The Boeing Company System and method for upsampling of sparse point cloud for 3D registration
US10176589B2 (en) 2017-01-31 2019-01-08 Mitsubishi Electric Research Labroatories, Inc. Method and system for completing point clouds using planar segments
US10444506B2 (en) * 2017-04-03 2019-10-15 Microsoft Technology Licensing, Llc Mixed reality measurement with peripheral tool
EP3467782A1 (en) * 2017-10-06 2019-04-10 Thomson Licensing Method and device for generating points of a 3d scene
US10535138B2 (en) 2017-11-21 2020-01-14 Zoox, Inc. Sensor data segmentation
US10816334B2 (en) 2017-12-04 2020-10-27 Microsoft Technology Licensing, Llc Augmented reality measurement and schematic system including tool having relatively movable fiducial markers
CN109978984A (zh) * 2017-12-27 2019-07-05 Tcl集团股份有限公司 人脸三维重建方法及终端设备
CN111937402A (zh) * 2018-04-11 2020-11-13 索尼公司 图像处理装置和方法
KR102080997B1 (ko) * 2018-08-06 2020-02-24 현대건설주식회사 360카메라를 활용한 자동 실내진도점검시스템 및 점검방법
EP3623752A1 (de) * 2018-09-17 2020-03-18 Riegl Laser Measurement Systems GmbH Verfahren zum generieren einer orthogonalansicht eines objekts
US10614579B1 (en) 2018-10-10 2020-04-07 The Boeing Company Three dimensional model generation using heterogeneous 2D and 3D sensor fusion
KR102640235B1 (ko) * 2019-01-11 2024-02-23 삼성전자주식회사 3차원 데이터 부호화 방법 및 장치 및 3차원 데이터 복호화 방법 및 장치
US10346998B1 (en) * 2019-02-25 2019-07-09 Nurulize, Inc. Method of merging point clouds that identifies and retains preferred points
KR102343123B1 (ko) * 2019-10-04 2021-12-27 현대건설 주식회사 건설현장용 사진기반 데이터 추적관리 시스템 및 추적관리방법
DE102019134324A1 (de) * 2019-12-13 2021-06-17 Connaught Electronics Ltd. Ein Verfahren zum Messen der Topografie einer Umgebung
CN111161338B (zh) * 2019-12-26 2022-05-17 浙江大学 一种基于二维图像灰度进行深度预测的点云密度提升方法
CN111223145A (zh) * 2020-01-03 2020-06-02 上海有个机器人有限公司 数据处理方法、系统、服务装置及其存储介质
CN111260781B (zh) * 2020-01-15 2024-04-19 北京云迹科技股份有限公司 一种生成图像信息的方法、装置和电子设备
CN113362236B (zh) * 2020-03-05 2024-03-05 北京京东乾石科技有限公司 点云增强方法、点云增强装置、存储介质与电子设备
CN111815707A (zh) * 2020-07-03 2020-10-23 北京爱笔科技有限公司 点云确定方法、点云筛选方法、装置、计算机设备
CN111950658B (zh) * 2020-08-28 2024-02-09 南京大学 一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法
CN113344789B (zh) * 2021-06-29 2023-03-21 Oppo广东移动通信有限公司 图像拼接方法及装置、电子设备、计算机可读存储介质
CN113409227B (zh) * 2021-08-19 2021-11-30 深圳市信润富联数字科技有限公司 点云图修补方法、装置、电子设备和存储介质
CN114004871B (zh) * 2022-01-04 2022-04-15 山东大学 一种基于点云补全的点云配准方法及系统
CN115760855B (zh) * 2023-01-09 2023-05-23 中建科技集团有限公司 工件检查方法及相关设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006083297A2 (en) * 2004-06-10 2006-08-10 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
JP2012080517A (ja) * 2010-10-01 2012-04-19 Young Wee Jay イメージ獲得ユニット、方法及び連関付けられた制御ユニット{imageacquisitionunit、acquisitionmethodandassociatedcontrolunit}

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7363157B1 (en) 2005-02-10 2008-04-22 Sarnoff Corporation Method and apparatus for performing wide area terrain mapping
US7586489B2 (en) 2005-08-01 2009-09-08 Nvidia Corporation Method of generating surface defined by boundary of three-dimensional point cloud
US7912257B2 (en) 2006-01-20 2011-03-22 3M Innovative Properties Company Real time display of acquired 3D dental data
US20080112610A1 (en) 2006-11-14 2008-05-15 S2, Inc. System and method for 3d model generation
CN101377404B (zh) 2008-07-11 2010-04-14 北京航空航天大学 一种基于角度约束的空间圆姿态识别二义性消除方法
US8588547B2 (en) * 2008-08-05 2013-11-19 Pictometry International Corp. Cut-line steering methods for forming a mosaic image of a geographical area
US9582889B2 (en) * 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
US8885890B2 (en) * 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
CN102129708A (zh) 2010-12-10 2011-07-20 北京邮电大学 增强现实环境中快速多层次虚实遮挡处理方法
EP2686827A1 (en) 2011-03-18 2014-01-22 C3 Technologies AB 3d streets
US8629901B2 (en) * 2011-05-19 2014-01-14 National Taiwan University System and method of revising depth of a 3D image pair
US9111444B2 (en) * 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006083297A2 (en) * 2004-06-10 2006-08-10 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
JP2012080517A (ja) * 2010-10-01 2012-04-19 Young Wee Jay イメージ獲得ユニット、方法及び連関付けられた制御ユニット{imageacquisitionunit、acquisitionmethodandassociatedcontrolunit}

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11838606B2 (en) 2015-11-20 2023-12-05 Magic Leap, Inc. Methods and systems for large-scale determination of RGBD camera poses

Also Published As

Publication number Publication date
CA2826534C (en) 2017-06-13
CN103810744B (zh) 2018-09-21
CN103810744A (zh) 2014-05-21
US9811880B2 (en) 2017-11-07
JP5778237B2 (ja) 2015-09-16
US20140132733A1 (en) 2014-05-15
KR102096673B1 (ko) 2020-04-03
EP2731075B1 (en) 2018-06-20
BR102013028714A2 (pt) 2014-10-07
AU2013227985A1 (en) 2014-05-29
EP2731075A1 (en) 2014-05-14
BR102013028714B1 (pt) 2022-02-01
KR20140060454A (ko) 2014-05-20
CA2826534A1 (en) 2014-05-09
AU2013227985B2 (en) 2019-01-24

Similar Documents

Publication Publication Date Title
JP5778237B2 (ja) ポイントクラウド内の埋め戻しポイント
CN110021069B (zh) 一种基于网格形变的三维模型重建方法
US20230054821A1 (en) Systems and methods for keypoint detection with convolutional neural networks
CN108509848B (zh) 三维物体的实时检测方法及系统
CN112132972B (zh) 一种激光与图像数据融合的三维重建方法及系统
CN108269266A (zh) 使用马尔可夫随机场优化来产生分割图像
Won et al. End-to-end learning for omnidirectional stereo matching with uncertainty prior
CN113192200B (zh) 一种基于空三并行计算算法的城市实景三维模型的构建方法
CN110223351B (zh) 一种基于卷积神经网络的深度相机定位方法
JP7294788B2 (ja) 3d配置のタイプに応じた2d画像の分類
CN104715504A (zh) 一种鲁棒的大场景稠密三维重建方法
JP2021093117A (ja) 連帯的な検出と記述システムおよび方法
Ozbay et al. A hybrid method for skeleton extraction on Kinect sensor data: Combination of L1-Median and Laplacian shrinking algorithms
Merras et al. Multi-view 3D reconstruction and modeling of the unknown 3D scenes using genetic algorithms
CN114565916A (zh) 目标检测模型训练方法、目标检测方法以及电子设备
CN113298871B (zh) 地图生成方法、定位方法及其系统、计算机可读存储介质
Budianti et al. Background blurring and removal for 3d modelling of cultural heritage objects
Chen et al. A 3-D point clouds scanning and registration methodology for automatic object digitization
Ahmadabadian Photogrammetric multi-view stereo and imaging network design
Pinho Fast and Robust 3D Reconstruction Solution from Permissive OpenSource Code
CN117635875A (zh) 一种三维重建方法、装置及终端
CN116708743A (zh) 双目成像装置、方法、设备及存储介质
Thangamania et al. Geometry and Texture Measures for Interactive Virtualized Reality Indoor Modeler
CN117333548A (zh) 一种基于类环面的相机位姿估计方法、系统和存储介质
JP2020170265A (ja) 画像処理システム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150708

R150 Certificate of patent or registration of utility model

Ref document number: 5778237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250