JP7150074B2 - エッジベースの拡張現実3次元追跡登録方法、装置及び電子機器 - Google Patents

エッジベースの拡張現実3次元追跡登録方法、装置及び電子機器 Download PDF

Info

Publication number
JP7150074B2
JP7150074B2 JP2021022634A JP2021022634A JP7150074B2 JP 7150074 B2 JP7150074 B2 JP 7150074B2 JP 2021022634 A JP2021022634 A JP 2021022634A JP 2021022634 A JP2021022634 A JP 2021022634A JP 7150074 B2 JP7150074 B2 JP 7150074B2
Authority
JP
Japan
Prior art keywords
edgelet
group
matching
feature
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021022634A
Other languages
English (en)
Other versions
JP2021136028A (ja
Inventor
チェン,シリ
リュウ,ヂャオリャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021136028A publication Critical patent/JP2021136028A/ja
Application granted granted Critical
Publication of JP7150074B2 publication Critical patent/JP7150074B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本出願は、コンピュータビジョン処理の分野に関し、特に、エッジベースの拡張現実3次元追跡登録方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体に関する。
3次元物体登録追跡アルゴリズムは、拡張現実(Augmented Reality、英語略称AR)技術製品における重要なアルゴリズムである。現実中の3次元物体を追跡するには、まず携帯電話、カメラなどの画像収集装置に対する当該3次元物体の初期相対姿勢を決定してもよい。この初期相対姿勢を取得するプロセスを登録と呼ぶ。
関連技術において、通常の登録方法は、2段階で行われる。第1段階は、テンプレートマッチングの方法を用いて、全体図内でターゲット物体を検索して、大まかな姿勢を取得する。第2段階は、第1段階の結果に基づいて姿勢キャリブレーションを行って、正確な姿勢を取得する。ここで、第2ステップによく使われる方法としては、一般的に2つのタイプがあり、第1のタイプは、正確な姿勢を計算するためのエッジベースのマッチングであり、第2のタイプは、正確な姿勢を計算するための深層学習に基づく方法である。
しかし、現在、次のような問題が存在する。上記第1のタイプの方法は、通常、速度が速いが、一部の複雑な環境(例えば、背景の乱れ、遮蔽など)ではロバスト性がなく、見つけたEdgelet特徴のうち正確にマッチングするものが少ないため、マッチングポイントが無効になりやすく、第2のタイプの方法はロバストであるが、正確な姿勢を計算する速度が比較的遅い。
本出願は、少なくとも関連技術における技術的課題の1つをある程度解決することを目的とする。
このため、本出願の1つ目の目的は、エッジベースの拡張現実3次元追跡登録方法を提供することであり、当該方法は、3次元物体の正確な姿勢を迅速でロバストに計算することを実現でき、且つ、アルゴリズムは計算の複雑さが低く、コンピューティングデバイスのハードウェアに対する要件が低いため、様々な機器でAR3次元物体追跡と表示を行うことができる。
本出願の2つ目の目的は、エッジベースの拡張現実3次元追跡登録装置を提供することである。
本出願の3つ目の目的は、電子機器を提供することである。
本出願の4つ目の目的は、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供することである。
本出願の5つ目の目的は、コンピュータプログラムを提供することである。
上記目的を達成するために、本出願の第1態様の実施例にて提供されるエッジベースの拡張現実3次元追跡登録方法は、3次元物体の画像内での初期化姿勢を取得するステップと、初期化姿勢によって、3次元物体の輪郭のEdgelet特徴を抽出するステップと、抽出されたEdgelet特徴をグループ分けし、各々のグループを基本単位として、各々のグループ内の各Edgelet特徴に対応するマッチングポイントを見つけ出すために画像内を検索するステップと、全てのグループが見つけ出したマッチングポイントに基づいて、3次元物体の姿勢を計算するステップと、を含む。
本出願の一実施例によれば、前記初期化姿勢によって、前記3次元物体の輪郭のEdgelet特徴を抽出するステップは、前記初期化姿勢によって、前記3次元物体のモデルを投影して、モデル投影画像を計算するステップと、前記モデル投影画像内のオブジェクトの可視エッジを認識し、可視エッジに沿って規則的な間隔をおく方法でサンプリングポイントを割り当てるステップと、前記サンプリングポイントと、前記サンプリングポイントのモデル線分における法線方向とを前記3次元物体の輪郭のEdgelet特徴とするステップと、を含む。
本出願の一実施例によれば、抽出されたEdgelet特徴をグループ分けするステップは、前記3次元物体の輪郭全体の幾何学的構造に基づいて、抽出されたEdgelet特徴をグループ分けするステップを含み、ここで、各々のグループ内の各Edgelet特徴は、法線方向が一致するか、又は法線方向間の夾角が第1所定範囲内にあり、前記各々のグループはいずれも自分の平均法線ベクトルを有する。
本出願の一実施例によれば、各々のグループを基本単位として、各々のグループ内の各Edgelet特徴に対応するマッチングポイントを見つけ出すために画像内を検索するステップは、各々のグループを基本単位とし、前記各々のグループの平均法線ベクトル方向に沿って、前記各々のグループ内の各Edgelet特徴のマッチングポイントを見つけ出すために画像内を検索するステップを含む。
本出願の一実施例によれば、前記各々のグループの平均法線ベクトル方向に沿って、前記各々のグループ内の各Edgelet特徴のマッチングポイントを見つけ出すために画像内を検索するステップは、前記現在グループの平均法線ベクトル方向に沿って、第2所定範囲内で前記画像内を双方向に検索するステップと、前記現在グループ内の各Edgelet特徴の前記それぞれの検索位置でのマッチングポイントを見つけ出すために、前記現在グループ内の各Edgelet特徴をそれぞれの検索位置でマッチングするステップと、前記それぞれの検索位置から、マッチングポイントが最も多い検索位置を選択して前記現在グループの最適マッチング位置とし、前記最適マッチング位置でのマッチングポイントをEdgelet特徴に対応するマッチングポイントとするステップと、を含む。
本出願の一実施例によれば、前記現在グループ内の各Edgelet特徴の前記それぞれの検索位置でのマッチングポイントを見つけ出すために、前記現在グループ内の各Edgelet特徴をそれぞれの検索位置でマッチングするステップは、前記現在グループ内の各Edgelet特徴の検索位置で、前記現在グループの平均法線ベクトル方向に沿う勾配値が予め設定された閾値より大きい勾配極値ポイントを見つけ出して候補ポイントとするステップと、前記候補ポイントから、勾配方向と前記現在グループの平均法線ベクトル方向との夾角が最も小さい候補ポイントを選択して前記各Edgelet特徴の前記検索位置でのマッチングポイントとするステップと、を含む。
上記目的を達成するために、本出願の第2態様の実施例にて提供されるエッジベースの拡張現実3次元追跡登録装置は、3次元物体の画像内での初期化姿勢を取得するための初期化姿勢取得モジュールと、前記初期化姿勢によって、前記3次元物体の輪郭のEdgelet特徴を抽出するための特徴抽出モジュールと、抽出されたEdgelet特徴をグループ分けするためのグループ分けモジュールと、各々のグループを基本単位として、各々のグループ内の各Edgelet特徴に対応するマッチングポイントを見つけ出すために画像内を検索するためのマッチングポイント検索モジュールと、全てのグループが見つけ出したマッチングポイントに基づいて、前記3次元物体の姿勢を計算するための姿勢計算モジュールと、を含む。
上記目的を達成するために、本出願の第3態様の実施例にて提供される電子機器は、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、ここで、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが本出願の第1態様に記載のエッジベースの拡張現実3次元追跡登録方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
上記目的を達成するために、本出願の第4態様の実施例はコンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、前記コンピュータに本出願の第1態様に記載のエッジベースの拡張現実3次元追跡登録方法を実行させるために用いられる。
上記目的を達成するために、本出願の第5態様の実施例はコンピュータプログラムを提供し、前記コンピュータプログラムは、前記コンピュータに本出願の第1態様に記載のエッジベースの拡張現実3次元追跡登録方法を実行させるために用いられる。
上記出願の一実施例は、次のような利点又は有益な効果がある。3次元物体の画像内での初期化姿勢によって、3次元物体の輪郭のEdgelet特徴を抽出し、抽出されたEdgelet特徴をグループ分けし、各々のグループを基本単位として、各々のグループ内の各Edgelet特徴に対応するマッチングポイントを見つけ出すために画像内を検索し、全てのグループが見つけ出したマッチングポイントに基づいて、3次元物体の正確な姿勢を計算する。追跡登録プロセス全体において、3次元物体の輪郭のEdgelet特徴をグループ分けすることにより、各々のグループを基本ユニットとして画像内で検索マッチングを行い、画像内で見つかったEdgelet特徴の正確なマッチング数を確保し、見つけたマッチングポイントの有効性を保証し、それにより、本出願の追跡登録方法が一部の複雑な環境(例えば、背景の乱れ、遮蔽など)にもロバスト性を有するとともに、計算速度も保証できることにより、3次元物体の正確な姿勢を迅速でロバストに計算することが実現され、アルゴリズム計算の複雑度が低く、コンピューティングデバイスのハードウェアに対する要件が低いため、様々な機器でAR3次元物体追跡表示を行うことができる。従来技術における3次元物体追跡登録アルゴリズムの計算速度とロバスト性が両立できないという問題を解決した。
上記選択可能な方法が有する他の効果を、以下で具体的な実施例を参照しながら説明する。
図面は、本技術案をよりよく理解するために使用され、本出願を限定するものではない。
本出願の一実施例によるエッジベースの拡張現実3次元追跡登録方法のフローチャートである。 本出願の一実施例による各々のグループの平均法線ベクトル方向に沿って画像内を検索して各々のグループ内の各Edgelet特徴のマッチングポイントを見つけ出すフローチャートである。 本出願の一実施例による現在グループ内の各Edgelet特徴の、それぞれの検索位置でのマッチングポイントを見つけ出す構造模式図である。 本出願の一実施例によるエッジベースの拡張現実3次元追跡登録装置の構造模式図である。 本出願の実施例によるエッジベースの拡張現実3次元追跡登録方法の電子機器のブロック図である。
以下、図面を組み合わせて本出願の例示的な実施例を説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項が含まれており、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができる。同様に、わかりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
本出願は、エッジベースの拡張現実3次元追跡登録方法、装置、電子機器、及びコンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、本出願は、既存技術における3次元物体追跡登録アルゴリズムの計算速度とロバスト性が両立できないという問題を解決した。具体的には、以下、図面を参照しながら本出願の実施例のエッジベースの拡張現実3次元追跡登録方法、装置、電子機器、及びコンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体について説明する。
図1は、本出願の一実施例によるエッジベースの拡張現実3次元追跡登録方法のフローチャートである。なお、本出願の実施例のエッジベースの拡張現実3次元追跡登録方法は、本出願の実施例のエッジベースの拡張現実3次元追跡登録装置に適用でき、当該装置は、電子機器に配置できる。ここで、当該電子機器は、ディスプレイを備えた様々な電子機器、例えばスマートフォン、タブレットコンピュータなどの移動端末、或いはAR機器であってもよい。なお、当該電子機器は画像収集装置を有する。
図1に示すように、当該エッジベースの拡張現実3次元追跡登録方法は、S110~S140を含んでもよい。
S110、3次元物体の画像内での初期化姿勢を取得する。
本出願の実施例では、3次元物体が認識されると、当該3次元物体を追跡することができる。当該3次元物体を追跡することが決定されると、先に3次元物体の画像内での初期化姿勢を取得することができる。ここで、初期化姿勢は、3次元物体の画像における大まかな位置及び姿勢として理解できる。
ここで、LineMod(線形関数)アルゴリズムによって3次元物体の画像内での初期化姿勢を取得することができる。
例を挙げると、LineModアルゴリズムに基づいて、画像の勾配情報に3次元物体表面の法線特徴を組み合わせて、テンプレートマッチングの根拠とすることができ、3次元物体の画像内での初期化姿勢を取得することができる。
S120、初期化姿勢によって、3次元物体の輪郭のEdgelet特徴を抽出する。
本出願の実施例では、3次元物体の画像内での初期化姿勢を取得した後、当該初期化姿勢を介して当該3次元物体のモデルを投影し、モデル投影画像を計算し、続いて、モデル投影画像内のオブジェクトの可視エッジを認識し、可視エッジに沿って規則的な間隔をおく方法でサンプリングポイントを割り当てた後、サンプリングポイントと、サンプリングポイントのモデル線分における法線方向とを、3次元物体の輪郭のEdgelet特徴(moving edge特徴とも呼ばれる)とする。
ここで、投影方法で3次元物体のモデルを投影して、モデル投影画像を計算することができ、ここで、投影方法は、透視投影方法、正射投影方法等を含むが、これらに限定されない。
S130、抽出されたEdgelet特徴をグループ分けし、各々のグループを基本単位として、各々のグループ内の各Edgelet特徴に対応するマッチングポイントを見つけ出すために画像内を検索する。
つまり、3次元物体の輪郭のEdgelet特徴を抽出した後、当該3次元物体の輪郭全体の幾何学的構造に基づいて、抽出されたEdgelet特徴をグループ分けし、さらに、グループ分けに基づいて画像内で検索マッチングを行うことができる。本出願の実施例では、3次元物体の輪郭全体の幾何学的構造に基づき、抽出されたEdgelet特徴を異なるグループに分けることができ、ここで、各々のグループ内の各Edgelet特徴は、法線方向が一致するか、又は法線方向間の夾角が第1所定範囲内にあり、各々のグループはいずれも独自の平均法線ベクトルを有する。
抽出されたEdgelet特徴をグループ分けした後、各々のグループを基本単位として、各々のグループ内の各Edgelet特徴のマッチングポイントを見つけ出すために、各々のグループの平均法線ベクトル方向に沿って画像内を検索する。
ここで、3次元物体の輪郭全体の幾何学的構造は、隣接する短辺間の法線ベクトルの夾角、凹凸具合などを含むが、これらに限定されない。
つまり、例えば、隣接する短辺間の法線ベクトルの夾角或いは凹凸具合のような3次元物体の輪郭全体の幾何学的構造に基づいて、抽出されたEdgelet特徴を異なるグループに分けすることができ、各々のグループ内のEdgelet特徴の法線方向が一致するか、又は法線方向間の夾角が第1所定範囲(ここで、当該第1所定範囲は、各々のグループ内のEdgelet特徴の法線方向を基本的に一致させることができる範囲として理解してもよい)内にあり、各々のグループは自分の平均法線ベクトルを有し、各々のグループを基本単位として、各々のグループの平均法線ベクトル方向に沿って画像内を検索して各々のグループ内の各Edgelet特徴のマッチングポイントを見つけ出す。
ここで、本出願の実施例では、当該マッチング方法は以下のとおりであってもよい。平均方向に沿って、一定の範囲内で双方向検索を行い、それぞれの検索位置ではグループ内のEdgelet特徴を近傍でマッチングして、マッチングポイントがいくつあるかを確認し、最後に、マッチングポイントが最も多い1つの位置をこのグループの最適マッチング位置として選択し、且つ,この位置での各Edgelet特徴のマッチングポイントをそれぞれのマッチングポイントとして決定する。
本出願の一実施例では、図2に示すように、各々のグループ内の各Edgelet特徴のマッチングポイントを見つけ出すために、各々のグループの平均法線ベクトル方向に沿って画像内を検索する前記ことの具体的な実現プロセスは、S210~S230を含む。
S210、現在グループの平均法線ベクトル方向に沿って第2所定範囲内で画像内を双方向に検索する。
つまり、抽出されたEdgelet特徴を異なるグループに分け、各々のグループは、現在グループの平均法線ベクトル方向に沿って、一定の範囲内で双方向検索を行い、ここで、検索範囲は単位ピクセルである。
S220、現在グループ内の各Edgelet特徴の、それぞれの検索位置でのマッチングポイントを見つけ出すために、現在グループ内の各Edgelet特徴に対してそれぞれの検索位置でマッチングを行う。
本出願の実施例では、現在グループ内の各Edgelet特徴の検索位置で、現在グループの平均法線ベクトル方向に沿う(現在グループの平均法線に沿ったベクトル方向での)勾配値が予め設定された閾値より大きい勾配極値ポイントを見つけ出して候補ポイントとし、続いて、候補ポイントから、勾配方向と現在グループの平均法線ベクトル方向との夾角が最も小さい候補ポイントを選択して各Edgelet特徴の検索位置でのマッチングポイントとする。
ここで、勾配の一般式または勾配の差分式によって、現在グループの平均法線ベクトル方向に沿う勾配値を計算することができる。
つまり、勾配の一般式または勾配の差分式によって、現在グループの平均法線ベクトル方向に沿う勾配値を計算した後、現在グループ内の各Edgelet特徴の検索位置で、勾配図内で法線平均法線ベクトルに沿う勾配値が予め設定された閾値より大きい勾配極値ポイントを見つけ、例えば、あるピクセルポイントの勾配値が十分大きく、且つ法線ベクトル方向の両辺のピクセルの勾配値より大きいと、候補ポイントとし、続いて、候補ポイントから、勾配方向と現在グループの平均法線ベクトルとの夾角(例えば0~90度)が最も小さい候補ポイントを選択して各Edgelet特徴の検索位置でのマッチングポイントとする。
S230、それぞれの検索位置から、マッチングポイントが最も多い検索位置を選択して現在グループの最適マッチング位置とし、最適マッチング位置でのマッチングポイントをEdgelet特徴に対応するマッチングポイントとする。
つまり、現在グループ内の各Edgelet特徴の、それぞれの検索位置でのマッチングポイントを見つけた後、それぞれの検索位置から、マッチングポイントが最も多い検索位置を選択して現在グループの最適マッチング位置とし、最適マッチング位置でのマッチングポイントをEdgelet特徴に対応するマッチングポイントとする。
例を挙げると、図3に示すように、S1は画像内の正確なエッジ位置であり、L1、L2、L3、L4、L5は、それぞれ現在グループ内の各Edgelet特徴の検索位置であり、矢印は現在グループの平均法線ベクトル方向であり、各「+」は各検索位置に対応するグループ内の各短辺の中心位置である。L1、L2、L3、L4、L5から、現在グループの平均法線ベクトル方向に沿う勾配値が予め設定された閾値より大きい勾配極値ポイントを見つけ出して候補ポイントとし、続いて、候補ポイントから、勾配方向と現在グループの平均法線ベクトル方向との夾角が最も小さい候補ポイントを選択して各Edgelet特徴の検索位置でのマッチングポイントとし、例えば、S1が正確なエッジ位置であるため、当該現在グループはその平均法線ベクトル方向に沿って、L1、L2、L3、L4、L5の検索位置で検索してマッチングする場合、検索位置L3上でEdgelet特徴にマッチングできるポイントが最も多いことを発見し、この場合、当該検索位置L3をこのグループの最適マッチング位置とし、且つ、当該検索位置L3での各Edgelet特徴のマッチングポイントをこれらのEdgelet特徴のマッチングポイントとすることができる。
S140、全てのグループが見つけ出したマッチングポイントに基づいて、3次元物体の姿勢を計算する。
本出願の実施例では、全てのグループが見つけ出したマッチングポイントに基づいて、RANSACアルゴリズムとIRLSアルゴリズムとを結合した方法で3次元物体の正確な姿勢を計算することができる。
本出願の実施例によるエッジベースの拡張現実3次元追跡登録方法は、3次元物体の画像内での初期化姿勢を取得でき、初期化姿勢によって、3次元物体の輪郭のEdgelet特徴を抽出した後、抽出されたEdgelet特徴をグループ分けし、各々のグループを基本単位として、各々のグループ内の各Edgelet特徴に対応するマッチングポイントを見つけ出すために画像内を検索し、続いて全てのグループが見つけ出したマッチングポイントに基づいて、3次元物体の姿勢を計算する。当該方法は、追跡登録プロセス全体において、3次元物体の輪郭のEdgelet特徴をグループ分けすることにより、各々のグループを基本ユニットとして画像内で検索マッチングを行い、画像内で見つかったEdgelet特徴の正確なマッチング数を確保し、見つけたマッチングポイントの有効性を保証し、それにより、本出願の追跡登録方法が一部の複雑な環境(例えば、背景の乱れ、遮蔽など)にもロバスト性を有するとともに、計算速度も保証でき、3次元物体の正確な姿勢を迅速でロバストに計算することが実現され、アルゴリズム計算の複雑度が低く、コンピューティングデバイスのハードウェアに対する要件が低いため、様々な機器でAR3次元物体追跡表示を行うことができる。
上記いくつかの実施例にて提供されるエッジベースの拡張現実3次元追跡登録方法に対応して、本出願の一実施例は、エッジベースの拡張現実3次元追跡登録装置をさらに提供し、本出願の実施例にて提供されるエッジベースの拡張現実3次元追跡登録装置は、上記いくつかの実施例にて提供されるエッジベースの拡張現実3次元追跡登録方法に対応するため、エッジベースの拡張現実3次元追跡登録方法の実施形態は本実施例にて提供されるエッジベースの拡張現実3次元追跡登録装置にも適用でき、本実施例では、詳細な説明を省略する。図4は、本出願の一実施例によるエッジベースの拡張現実3次元追跡登録装置の構造模式図である。
図4に示すように、当該エッジベースの拡張現実3次元追跡登録装置400は、初期化姿勢取得モジュール410、特徴抽出モジュール420、グループ分けモジュール430、マッチングポイント検索モジュール440、及び姿勢計算モジュール450を含む。
初期化姿勢取得モジュール410は、3次元物体の画像内での初期化姿勢を取得するために用いられる。
特徴抽出モジュール420は、前記初期化姿勢によって、前記3次元物体の輪郭のEdgelet特徴を抽出するために用いられる。一例示として、前記特徴抽出モジュール420は、具体的には,前記初期化姿勢によって、前記3次元物体のモデルを投影して、モデル投影画像を計算し、前記モデル投影画像内のオブジェクトの可視エッジを認識し、可視エッジに沿って規則的な間隔をおく方法でサンプリングポイントを割り当て、前記サンプリングポイントと、前記サンプリングポイントのモデル線分における法線方向とを前記3次元物体の輪郭のEdgelet特徴とするために用いられる。
グループ分けモジュール430は、抽出されたEdgelet特徴をグループ分けするために用いられる。一例示として、前記グループ分けモジュール430は、具体的には、前記3次元物体の輪郭全体の幾何学的構造に基づいて、抽出されたEdgelet特徴をグループ分けするために用いられ、ここで、各々のグループ内の各Edgelet特徴は、法線方向が一致するか、又は法線方向間の夾角が第1所定範囲内にあり、前記各々のグループはいずれも自分の平均法線ベクトルを有する。
マッチングポイント検索モジュール440は、各々のグループを基本単位として、各々のグループ内の各Edgelet特徴に対応するマッチングポイントを見つけ出すために画像内を検索するために用いられる。一例示として、前記マッチングポイント検索モジュールは、具体的には、各々のグループを基本単位とし、前記各々のグループの平均法線ベクトル方向に沿って、前記各々のグループ内の各Edgelet特徴のマッチングポイントを見つけ出すために画像内を検索するために用いられる。
本出願の実施例では、前記マッチングポイント検索モジュール440は、具体的には、前記現在グループの平均法線ベクトル方向に沿って第2所定範囲内で前記画像内を双方向に検索し、前記現在グループ内の各Edgelet特徴の前記それぞれの検索位置でのマッチングポイントを見つけ出すために、前記現在グループ内の各Edgelet特徴をそれぞれの検索位置でマッチングし、前記それぞれの検索位置から、マッチングポイントが最も多い検索位置を選択して前記現在グループの最適マッチング位置とし、前記最適マッチング位置でのマッチングポイントをEdgelet特徴に対応するマッチングポイントとするために用いられる。
本出願の実施例では、前記マッチングポイント検索モジュール440は、具体的には、前記現在グループ内の各Edgelet特徴の検索位置で、前記現在グループの平均法線ベクトル方向に沿う勾配値が予め設定された閾値より大きい勾配極値ポイントを見つけ出して候補ポイントとし、前記候補ポイントから、勾配方向と前記現在グループの平均法線ベクトル方向との夾角が最も小さい候補ポイントを選択して前記各Edgelet特徴の前記検索位置でのマッチングポイントとするために用いられる。
姿勢計算モジュール450は、全てのグループが見つけ出したマッチングポイントに基づいて、前記3次元物体の姿勢を計算するために用いられる。
本出願の実施例によるエッジベースの拡張現実3次元追跡登録装置は、3次元物体の画像内での初期化姿勢を取得でき、初期化姿勢によって、3次元物体の輪郭のEdgelet特徴を抽出した後、抽出されたEdgelet特徴をグループ分けし、各々のグループを基本単位として、各々のグループ内の各Edgelet特徴に対応するマッチングポイントを見つけ出すために画像内を検索し、続いて、全てのグループが見つけ出したマッチングポイントに基づいて、3次元物体の姿勢を計算する。これから、追跡登録プロセス全体において、3次元物体の輪郭のEdgelet特徴をグループ分けすることにより、各々のグループを基本ユニットとして画像内で検索マッチングを行い、画像内で見つかったEdgelet特徴の正確なマッチング数を確保し、見つけたマッチングポイントの有効性を保証し、それにより、本出願の追跡登録方法が一部の複雑な環境(例えば、背景の乱れ、遮蔽など)にもロバスト性を有するとともに、計算速度も保証でき、3次元物体の正確な姿勢を迅速でロバストに計算することが実現され、アルゴリズム計算の複雑度が低く、コンピューティングデバイスのハードウェアに対する要件が低いため、様々な機器でAR3次元物体追跡表示を行うことができる。
本出願の実施例によれば、本出願は、電子機器及び読み取り可能な記憶媒体を更に提供する。
図5に示すように、本出願の実施例によるエッジベースの拡張現実3次元追跡登録の方法の電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタルプロセッサ、携帯電話、スマートフォン、ウェアラブルデバイス、他の類似するコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限することを意図したものではない。
図5に示すように、当該電子機器は、1つ又は複数のプロセッサ501と、メモリ502と、高速インターフェース及び低速インターフェースを含む各コンポーネントを接続するためのインターフェースと、を含む。各コンポーネントは、異なるバスで相互に接続され、共通のマザーボードに取り付けられるか、又は必要に応じて他の方式で取り付けることができる。プロセッサは、電子機器内で実行される命令を処理することができ、当該命令は、外部入力/出力装置(例えば、インターフェースに結合されたディスプレイデバイスなど)にGUIの図形情報をディスプレイするためにメモリ内又はメモリに記憶されている命令を含む。他の実施形態では、必要に応じて、複数のプロセッサ及び/又は複数のバスを、複数のメモリと一緒に使用することができる。同様に、複数の電子機器を接続することができ、各電子機器は、一部の必要な操作(例えば、サーバアレイ、1グループのブレードサーバ、又はマルチプロセッサシステムとする)を提供することができる。図5では、1つのプロセッサ501を例とする。
メモリ502は、本出願により提供される非一時的なコンピュータ読み取り可能な記憶媒体である。ここで、前記メモリには、前記少なくとも1つのプロセッサが本出願により提供されるエッジベースの拡張現実3次元追跡登録の方法を実行するように、少なくとも1つのプロセッサによって実行可能な命令が記憶されている。本出願の非一時的なコンピュータ読み取り可能な記憶媒体には、コンピュータに本出願により提供されるエッジベースの拡張現実3次元追跡登録の方法を実行させるためのコンピュータ命令が記憶されている。
メモリ502は、非一時的なコンピュータ読み取り可能な記憶媒体として、本出願の実施例におけるエッジベースの拡張現実3次元追跡登録の方法に対応するプログラム命令/モジュール(例えば、図4に示す初期化姿勢取得モジュール410、特徴抽出モジュール420、グループ分けモジュール430、マッチングポイント検索モジュール440及び姿勢計算モジュール450)のような、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶する。プロセッサ501は、メモリ502に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち上記方法の実施例におけるエッジベースの拡張現実3次元追跡登録の方法を実現する。
メモリ502は、プログラムストレージエリアとデータストレージエリアとを含むことができ、ここで、プログラムストレージエリアは、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データストレージエリアは、エッジベースの拡張現実3次元追跡登録の電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ502は、高速ランダムアクセスメモリを含むことができ、非一時的なメモリをさらに含むことができ、例えば、少なくとも1つの磁気ディスクストレージデバイス、フラッシュメモリデバイス、又は他の非一時的なソリッドステートストレージデバイスである。いくつかの実施例では、メモリ502は、プロセッサ501に対して遠隔に設定されたメモリを選択的に含むことができ、これらの遠隔メモリは、ネットワークを介してエッジベースの拡張現実3次元追跡登録の電子機器に接続されることができる。上記ネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びその組み合わせを含むが、これらに限定されない。
エッジベースの拡張現実3次元追跡登録方法の電子機器は、入力装置503と出力装置504とをさらに含んでもよい。プロセッサ501、メモリ502、入力装置503、及び出力装置504は、バス又は他の方式を介して接続することができ、図5では、バスを介して接続することを例とする。
入力装置503は、入力された数字又は文字情報を受信し、エッジベースの拡張現実3次元追跡登録の電子機器のユーザ設定及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置404は、ディスプレイデバイス、補助照明装置(例えば、LED)、及び触覚フィードバックデバイス(例えば、振動モータ)などを含むことができる。当該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施形態で、ディスプレイデバイスは、タッチスクリーンであってもよい。
本明細書で説明されるシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施され、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈することができ、当該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含むことができ、高レベルのプロセス及び/又は対象指向プログラミング言語、及び/又はアセンブリ/機械言語でこれらのコンピューティングプログラムを実施することができる。本明細書に使用されるような、「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、ここで説明されているシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形態(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、かつ互いにクライアント-サーバの関係を有するコンピュータプログラムによって、クライアントとサーバとの関係が生成される。
本出願の実施例の技術的解決手段によれば、3次元物体の画像内での初期化姿勢を取得でき、初期化姿勢によって、3次元物体の輪郭のEdgelet特徴を抽出した後、抽出されたEdgelet特徴をグループ分けし、各々のグループを基本単位として、各々のグループ内の各Edgelet特徴に対応するマッチングポイントを見つけ出すために画像内を検索し、続いて、全てのグループが見つけ出したマッチングポイントに基づいて、3次元物体の姿勢を計算する。当該方法は、3次元物体の初期化姿勢によって、3次元物体の輪郭のEdgelet特徴を抽出し、抽出されたEdgelet特徴をグループ分けし、各々のグループ内の各Edgelet特徴に対応するマッチングポイントを見つけ出すために画像内を検索することができ、3次元物体の正確な姿勢を迅速でロバストに計算することが実現され、アルゴリズム計算の複雑度が低く、コンピューティングデバイスのハードウェアに対する要件が低いため、様々な機器でAR3次元物体追跡表示を行うことができる。
上記に示される様々な形態のフローを使用して、ステップを並べ替え、追加、又は削除することができる。例えば、本出願に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本出願で開示されている技術案の所望の結果を実現することができれば、本明細書では限定しない。
上記具体的な実施形態は、本出願の保護範囲を制限するものではない。当業者は、設計要件と他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。本出願の精神と原則内で行われる任意の修正、同等の置換、及び改善などは、いずれも本出願の保護範囲内に含まれるべきである。

Claims (13)

  1. エッジベースの拡張現実3次元追跡登録方法であって、
    3次元物体の画像内での初期化姿勢を取得するステップと、
    前記初期化姿勢によって、前記3次元物体の輪郭のEdgelet特徴を抽出するステップと、
    抽出されたEdgelet特徴をグループ分けし、各々のグループを基本単位として、各々のグループ内の各Edgelet特徴に対応するマッチングポイントを見つけ出すために画像内を検索するステップと、
    全てのグループが見つけ出したマッチングポイントに基づいて、前記3次元物体の姿勢を計算するステップと、を含み、
    各々のグループを基本単位として、各々のグループ内の各Edgelet特徴に対応するマッチングポイントを見つけ出すために画像内を検索するステップは、
    各々のグループを基本単位とし、前記各々のグループの平均法線ベクトル方向に沿って、前記各々のグループ内の各Edgelet特徴のマッチングポイントを見つけ出すために画像内を検索するステップを含む、
    ことを特徴とするエッジベースの拡張現実3次元追跡登録方法。
  2. 前記初期化姿勢によって、前記3次元物体の輪郭のEdgelet特徴を抽出するステップは、
    前記初期化姿勢によって、前記3次元物体のモデルを投影して、モデル投影画像を計算するステップと、
    前記モデル投影画像内のオブジェクトの可視エッジを認識し、可視エッジに沿って規則的な間隔をおく方法でサンプリングポイントを割り当てるステップと、
    前記サンプリングポイントと、前記サンプリングポイントのモデル線分における法線方向とを前記3次元物体の輪郭のEdgelet特徴とするステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  3. 抽出されたEdgelet特徴をグループ分けするステップは、
    前記3次元物体の輪郭全体の幾何学的構造に基づいて、抽出されたEdgelet特徴をグループ分けするステップを含み、ここで、各々のグループ内の各Edgelet特徴は、法線方向が一致するか、又は法線方向間の夾角が第1所定範囲内にあり、前記各々のグループはいずれも自分の平均法線ベクトルを有する、
    ことを特徴とする請求項1に記載の方法。
  4. 各々のグループの平均法線ベクトル方向に沿って、前記各々のグループ内の各Edgelet特徴のマッチングポイントを見つけ出すために画像内を検索するステップは、
    前記現在グループの平均法線ベクトル方向に沿って第2所定範囲内で前記画像内を双方向に検索するステップと、
    前記現在グループ内の各Edgelet特徴の前記それぞれの検索位置でのマッチングポイントを見つけ出すために、前記現在グループ内の各Edgelet特徴をそれぞれの検索位置でマッチングするステップと、
    前記それぞれの検索位置から、マッチングポイントが最も多い検索位置を選択して前記現在グループの最適マッチング位置とし、前記最適マッチング位置でのマッチングポイントをEdgelet特徴に対応するマッチングポイントとするステップと、を含む、
    ことを特徴とする請求項に記載の方法。
  5. 現在グループ内の各Edgelet特徴の前記それぞれの検索位置でのマッチングポイ
    ントを見つけ出すために、前記現在グループ内の各Edgelet特徴をそれぞれの検索位置でマッチングするステップは、
    前記現在グループ内の各Edgelet特徴の検索位置で、前記現在グループの平均法線ベクトル方向に沿う勾配値が予め設定された閾値より大きい勾配極値ポイントを見つけ出して候補ポイントとするステップと、
    前記候補ポイントから、勾配方向と前記現在グループの平均法線ベクトル方向との夾角が最も小さい候補ポイントを選択して前記各Edgelet特徴の前記検索位置でのマッチングポイントとするステップと、を含む、
    ことを特徴とする請求項に記載の方法。
  6. エッジベースの拡張現実3次元追跡登録装置であって、
    3次元物体の画像内での初期化姿勢を取得するための初期化姿勢取得モジュールと、
    前記初期化姿勢によって、前記3次元物体の輪郭のEdgelet特徴を抽出するための特徴抽出モジュールと、
    抽出されたEdgelet特徴をグループ分けするためのグループ分けモジュールと、
    各々のグループを基本単位として、各々のグループ内の各Edgelet特徴に対応するマッチングポイントを見つけ出すために画像内を検索するためのマッチングポイント検索モジュールと、
    全てのグループが見つけ出したマッチングポイントに基づいて、前記3次元物体の姿勢を計算するための姿勢計算モジュールと、を含み、
    前記マッチングポイント検索モジュールは、具体的には、
    各々のグループを基本単位とし、前記各々のグループの平均法線ベクトル方向に沿って、前記各々のグループ内の各Edgelet特徴のマッチングポイントを見つけ出すために画像内を検索するために用いられる
    ことを特徴とするエッジベースの拡張現実3次元追跡登録装置。
  7. 前記特徴抽出モジュールは、具体的には、
    前記初期化姿勢によって、前記3次元物体のモデルを投影して、モデル投影画像を計算し、
    前記モデル投影画像内のオブジェクトの可視エッジを認識し、可視エッジに沿って規則的な間隔をおく方法でサンプリングポイントを割り当て、
    前記サンプリングポイントと、前記サンプリングポイントのモデル線分における法線方向とを前記3次元物体の輪郭のEdgelet特徴とするために用いられる、
    ことを特徴とする請求項に記載の装置。
  8. 前記グループ分けモジュールは、具体的には、
    前記3次元物体の輪郭全体の幾何学的構造に基づいて、抽出されたEdgelet特徴をグループ分けするために用いられ、ここで、各々のグループ内の各Edgelet特徴は、法線方向が一致するか、又は法線方向間の夾角が第1所定範囲内にあり、前記各々のグループはいずれも自分の平均法線ベクトルを有する、
    ことを特徴とする請求項に記載の装置。
  9. 前記マッチングポイント検索モジュールは、具体的には、
    前記現在グループの平均法線ベクトル方向に沿って第2所定範囲内で前記画像内を双方向に検索し、
    前記現在グループ内の各Edgelet特徴の前記それぞれの検索位置でのマッチングポイントを見つけ出すために、前記現在グループ内の各Edgelet特徴をそれぞれの検索位置でマッチングし、
    前記それぞれの検索位置から、マッチングポイントが最も多い検索位置を選択して前記現在グループの最適マッチング位置とし、前記最適マッチング位置でのマッチングポイントをEdgelet特徴に対応するマッチングポイントとするために用いられる、
    ことを特徴とする請求項に記載の装置。
  10. 前記マッチングポイント検索モジュールは、具体的には、
    前記現在グループ内の各Edgelet特徴の検索位置で、前記現在グループの平均法線ベクトル方向に沿う勾配値が予め設定された閾値より大きい勾配極値ポイントを見つけ出して候補ポイントとし、
    前記候補ポイントから、勾配方向と前記現在グループの平均法線ベクトル方向との夾角が最も小さい候補ポイントを選択して前記各Edgelet特徴の前記検索位置でのマッチングポイントとするために用いられる、
    ことを特徴とする請求項に記載の装置。
  11. 電子機器であって、
    少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、ここで、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~のいずれかに記載のエッジベースの拡張現実3次元追跡登録方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
    ことを特徴とする電子機器。
  12. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、前記コンピュータに請求項1~のいずれかに記載のエッジベースの拡張現実3次元追跡登録方法を実行させるために用いられる、
    ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
  13. コンピュータ上で動作しているときに、請求項1~のいずれかに記載のエッジベースの拡張現実3次元追跡登録方法を前記コンピュータに実行させる、
    ことを特徴とするコンピュータプログラム。
JP2021022634A 2020-02-25 2021-02-16 エッジベースの拡張現実3次元追跡登録方法、装置及び電子機器 Active JP7150074B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010118216.3 2020-02-25
CN202010118216.3A CN111275827B (zh) 2020-02-25 2020-02-25 基于边缘的增强现实三维跟踪注册方法、装置和电子设备

Publications (2)

Publication Number Publication Date
JP2021136028A JP2021136028A (ja) 2021-09-13
JP7150074B2 true JP7150074B2 (ja) 2022-10-07

Family

ID=71000386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021022634A Active JP7150074B2 (ja) 2020-02-25 2021-02-16 エッジベースの拡張現実3次元追跡登録方法、装置及び電子機器

Country Status (5)

Country Link
US (1) US11574414B2 (ja)
EP (1) EP3872762A1 (ja)
JP (1) JP7150074B2 (ja)
KR (1) KR102432561B1 (ja)
CN (1) CN111275827B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230101469A (ko) 2021-12-29 2023-07-06 주식회사 버넥트 타겟 객체의 디지털 모델로부터 에지의 특성을 검출하고 샘플 포인트를 설정하여 타겟 객체를 학습하는 방법 및 이를 이용하여 타켓 객체를 구현한 실물 객체에 가상 모델을 증강하는 방법
KR20230103485A (ko) 2021-12-31 2023-07-07 주식회사 버넥트 파티클 필터기반 실시간 cad 모델 추적 방법 및 시스템
KR20240053898A (ko) 2022-10-18 2024-04-25 주식회사 버넥트 타겟 객체의 디지털 모델로부터 에지를 추출하여 타겟 객체를 학습하는 방법 및 이를 이용하여 타켓 객체의 디지털 모델에 대응되는 실물 객체에 가상 모델을 증강하는 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079452A (ja) 2008-09-24 2010-04-08 Canon Inc 位置姿勢計測装置及び方法
JP2012002761A (ja) 2010-06-18 2012-01-05 Canon Inc 位置姿勢計測装置、その処理方法及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0600709B1 (en) * 1992-12-01 2000-03-29 Canon Kabushiki Kaisha Range-image processing apparatus and method
JP4085635B2 (ja) * 2002-01-22 2008-05-14 凸版印刷株式会社 輪郭抽出方法及びその装置及びそのプログラム
US8437502B1 (en) * 2004-09-25 2013-05-07 Cognex Technology And Investment Corporation General pose refinement and tracking tool
US8126260B2 (en) 2007-05-29 2012-02-28 Cognex Corporation System and method for locating a three-dimensional object using machine vision
US8878848B2 (en) * 2012-01-20 2014-11-04 Siemens Aktiengesellschaft Method and device for snapping normals to create fair 3D surfaces from edge curves
JP5953842B2 (ja) * 2012-03-14 2016-07-20 オムロン株式会社 画像検査方法および検査領域設定方法
US20140270362A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Fast edge-based object relocalization and detection using contextual filtering
CN103903280B (zh) * 2014-03-28 2017-01-11 哈尔滨工程大学 一种改进水平集目标提取的子块权重Mean-Shift跟踪方法
CN110363840A (zh) 2014-05-13 2019-10-22 河谷控股Ip有限责任公司 通过反照率模型、系统和方法的增强现实内容渲染
CN107423773B (zh) * 2016-05-23 2020-02-14 北京师范大学 三维颅骨的自动配准方法和装置
WO2018005359A1 (en) 2016-06-27 2018-01-04 Robert Bosch Gmbh Systems and methods for dynamic occlusion handling
CN108629801B (zh) * 2018-05-14 2020-11-24 华南理工大学 一种视频序列的三维人体模型姿态与形状重构方法
CN109145969B (zh) * 2018-08-03 2020-07-28 百度在线网络技术(北京)有限公司 三维物体点云数据的处理方法、装置、设备及介质
CN109255801B (zh) * 2018-08-03 2022-02-22 百度在线网络技术(北京)有限公司 视频中三维物体边缘追踪的方法、装置、设备及存储介质
CN109887003B (zh) * 2019-01-23 2021-11-19 亮风台(上海)信息科技有限公司 一种用于进行三维跟踪初始化的方法与设备
CN110689573B (zh) * 2019-09-06 2022-07-01 重庆邮电大学 一种基于边缘模型的增强现实无标识跟踪注册方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079452A (ja) 2008-09-24 2010-04-08 Canon Inc 位置姿勢計測装置及び方法
JP2012002761A (ja) 2010-06-18 2012-01-05 Canon Inc 位置姿勢計測装置、その処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A. Kasinski; T. Piascik,Managing processes of perceptual organization for emerging geometrical objects,Smc 2000 conference proceedings. 2000 ieee international conference on systems, man and cybernetics,IEEE,2000年10月08日,p1604-1609,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=886251

Also Published As

Publication number Publication date
EP3872762A1 (en) 2021-09-01
US20210264635A1 (en) 2021-08-26
US11574414B2 (en) 2023-02-07
KR102432561B1 (ko) 2022-08-12
JP2021136028A (ja) 2021-09-13
KR20210108897A (ko) 2021-09-03
CN111275827B (zh) 2023-06-16
CN111275827A (zh) 2020-06-12

Similar Documents

Publication Publication Date Title
JP7150074B2 (ja) エッジベースの拡張現実3次元追跡登録方法、装置及び電子機器
US11842438B2 (en) Method and terminal device for determining occluded area of virtual object
US11468689B2 (en) Method and apparatus for detecting obstacle, electronic device and storage medium
US20210312209A1 (en) Vehicle information detection method, electronic device and storage medium
EP3848897A2 (en) Image adjustment method and apparatus, electronic device and storage medium
WO2018177337A1 (zh) 手部三维数据确定方法、装置及电子设备
CN112150551B (zh) 物体位姿的获取方法、装置和电子设备
CN111462029B (zh) 视觉点云与高精地图融合方法、装置和电子设备
CN111709973B (zh) 目标跟踪方法、装置、设备及存储介质
US11514607B2 (en) 3-dimensional reconstruction method, 3-dimensional reconstruction device, and storage medium
JP7189270B2 (ja) 三次元物体検出方法、三次元物体検出装置、電子機器、記憶媒体及びコンピュータプログラム
US11875535B2 (en) Method, apparatus, electronic device and computer readable medium for calibrating external parameter of camera
JP2021101365A (ja) 測位方法、測位装置及び電子機器
US9269018B2 (en) Stereo image processing using contours
CN112270669A (zh) 人体3d关键点检测方法、模型训练方法及相关装置
CN111612852A (zh) 用于验证相机参数的方法和装置
JP7194215B2 (ja) キーポイントの特定方法及び装置、機器、記憶媒体
US11423650B2 (en) Visual positioning method and apparatus, and computer-readable storage medium
CN111462179B (zh) 三维物体跟踪方法、装置及电子设备
US20210374977A1 (en) Method for indoor localization and electronic device
CN111858996B (zh) 室内定位方法、装置、电子设备及存储介质
CN111191619A (zh) 车道线虚线段的检测方法、装置、设备和可读存储介质
CN111967481B (zh) 视觉定位方法、装置、电子设备及存储介质
CN111369571B (zh) 三维物体位姿准确性判断方法、装置及电子设备
CN112200190B (zh) 兴趣点的位置确定方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220927

R150 Certificate of patent or registration of utility model

Ref document number: 7150074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150