JP2014529823A - グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング - Google Patents

グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング Download PDF

Info

Publication number
JP2014529823A
JP2014529823A JP2014528450A JP2014528450A JP2014529823A JP 2014529823 A JP2014529823 A JP 2014529823A JP 2014528450 A JP2014528450 A JP 2014528450A JP 2014528450 A JP2014528450 A JP 2014528450A JP 2014529823 A JP2014529823 A JP 2014529823A
Authority
JP
Japan
Prior art keywords
lines
group
subgraph
interest
intersections
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014528450A
Other languages
English (en)
Inventor
シェン・イ
アシュウィン・スワミナサン
ボラン・ジャン
セイエド・ヘサメディン・ナジャフィ・ショウシュタリ
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2014529823A publication Critical patent/JP2014529823A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

モバイルプラットフォームにおけるビジョンベーストラッキングシステムは、検出された線の群を使用して対象物をトラッキングする。トラッキングシステムは、トラッキングすべき対象物の、キャプチャされた画像内の線を検出する。線の群は、検出された線から形成される。線の群は、検出された線の交差点を計算し、交差点を使用して、接続された線を識別することによって形成され得、接続された線を使用して線の群が形成され得る。検出された線のグラフが構築され、交差点が識別され得る。興味のあるサブグラフが、接続を使用して生成され、線の群が、興味のあるサブグラフを用いて形成される。線の群が形成されると、線の群は、たとえば対象物の現在の画像内の線の群と対象物の前の画像内の線の群とを比較することによって、対象物をトラッキングするために使用される。

Description

関連出願の相互参照
本出願は、2012年3月9日に出願した「Line Tracking With Automatic Model Initialization by Graph Matching and Cycle Detection」と題する米国特許出願第13/416,721号の優先権を主張するものであり、その特許出願は、ひいては、米国特許法第119条の下で、2011年9月2日に出願した「Line Tracking With Automatic Model Initialization by Graph Matching and Cycle Detection」と題する米国仮出願第61/530,907号の優先権を主張するものであり、両出願は、本明細書の譲受人に譲渡され、参照により本明細書に組み込まれる。
本明細書で説明する主題の実施形態は、一般に、位置およびトラッキングに関し、より詳細には、ビジョンベーストラッキングに関する。
ビジョンベーストラッキングシステムは、参照画像に対するカメラの位置および方位(姿勢)を推定するために使用される。参照画像は、通常、そのカメラまたは他のカメラでキャプチャされた現実世界環境の一部分の複数の画像(フレームと呼ばれることがある)に基づく。決定されたカメラの姿勢によって、限定はしないが、拡張現実などのアプリケーションが、実行され得る。正確でロバストなトラッキングは、仮想拡張と現実世界環境との間の緊密なレジストレーションを可能にするので、拡張現実などのアプリケーションにとって特に重要である。
ビジョンベーストラッキングの1つのタイプは、画像内の線を検出してトラッキングすることに基づく。線トラッキングアルゴリズムは、たとえば、トラッキングされている対象物が非常に少ないテクスチャを有する場合に助けになる。しかしながら、従来の線トラッキングは、多くの拡張現実アプリケーションとって望ましいロバストネスを欠いている。したがって、線トラッキングにおける改善が望ましい。
モバイルプラットフォームにおけるビジョンベーストラッキングシステムは、検出された線の群を使用して対象物をトラッキングする。トラッキングシステムは、トラッキングすべき対象物の、キャプチャされた画像内の線を検出する。線の群は、検出された線から形成される。線の群は、検出された線の交差点を計算し、交差点を使用して、接続された線を識別することによって形成され、接続された線を使用して線の群が形成され得る。検出された線のグラフが構築され、交差点が識別され得る。興味のあるサブグラフが接続を使用して生成され、線の群が興味のあるサブグラフを用いて形成される。線の群が形成されると、線の群は、たとえば対象物の現在の画像内の線の群と対象物の前の画像内の線の群とを比較することによって、対象物をトラッキングするために使用される。
一実施形態では、方法は、トラッキングすべき対象物の画像をキャプチャするステップと、対象物の画像内の複数の線を検出するステップと、複数の線から線の群を形成するステップと、線の群を使用して対象物をトラッキングするステップとを含む。
一実施形態では、装置は、カメラと、カメラに接続されたプロセッサとを含み、プロセッサは、トラッキングすべき対象物の、カメラによってキャプチャされた画像内の複数の線を検出し、複数の線から線の群を形成し、線の群を使用して対象物をトラッキングするように構成される。
一実施形態では、装置は、トラッキングすべき対象物の画像をキャプチャするための手段と、対象物の画像内の複数の線を検出するための手段と、複数の線から線の群を形成するための手段と、線の群を使用して対象物をトラッキングするための手段とを含む。
一実施形態では、プログラムコードを記憶した非一時的コンピュータ可読記録媒体は、トラッキングすべき対象物の画像をキャプチャするためのプログラムコードと、対象物の画像内の複数の線を検出するためのプログラムコードと、複数の線から線の群を形成するためのプログラムコードと、線の群を使用して対象物をトラッキングするためのプログラムコードとを含む。
本明細書で説明するロバストな方式で、ビジョンベース線トラッキングを実行可能なモバイルプラットフォームの前面部を示す図である。 本明細書で説明するロバストな方式で、ビジョンベース線トラッキングを実行可能なモバイルプラットフォームの背面部を示す図である。 ビジョンベーストラッキングユニットの2つの主要構成要素を示す図である。 ビジョンベーストラッキングユニット内の線検出の構成要素を示す図である。 エッジ連結アルゴリズムを示す図である。 線フィッティングにおいて使用される線近似を示す図である。 ビジョンベーストラッキングユニット内の線トラッキングを示す図である。 線フィッティングのために処理されるいくつかのエッジを含む画像を示す図である。 線フィッティングのために処理されるいくつかのエッジを含む画像を示す図である。 線フィッティングのために処理されるいくつかのエッジを含む画像を示す図である。 線の群を使用して対象物をトラッキングする方法を示すフローの図である。 3点間の線を示す図である。 頂点(vertices)A、B、CおよびD間の線を示す図である。 サイクルの検出および分離を示す図である。 エッジを示す元のグラフを示す図である。 抽出されたサイクルを示すグラフを示す図である。 図10に類似するがエッジe1〜e4を標示する、頂点A、B、CおよびD間の線を示す図である。 行列表現に基づくサイクル検出の一例として、4つの頂点間の5本の線を示す図である。 図14に示すグラフを分離するステップを示す図である。 線の群を使用して対象物をトラッキングすることができるモバイルプラットフォームのブロック図である。
図1Aおよび図1Bはそれぞれ、本明細書で説明するロバストな方式で、ビジョンベース線トラッキングを実行可能なモバイルプラットフォーム100の前面部および背面部を示す。筐体101、タッチスクリーンディスプレイであり得るディスプレイ102、ならびにスピーカ104およびマイクロフォン106を含むモバイルプラットフォーム100が示される。さらに、モバイルプラットフォーム100は、ビジョンベーストラッキングユニット112のために環境を撮像するカメラ110を含む。ビジョンベーストラッキングユニット112は線の群をトラッキングする。大半の従来の線トラッキングシステムの欠点の1つは、線が個別にトラッキングされ、そのことで、プロセスのロバストネスが制限されることである。線の群をトラッキングすることで、トラッキングプロセスのロバストネスが改善される。加えて、ビジョンベーストラッキングユニット112は、自動モデル初期化を使用して、トラッキングされる線の群を得ることができる。自動モデル初期化は、たとえば、グラフマッチングおよびサイクル検出であってよい。ビジョンベーストラッキングユニット112は、参照フリートラッキングおよび参照ベーストラッキングとともに使用され得る。
本明細書で使用される場合、モバイルプラットフォームは、セルラーもしくは他のワイヤレス通信デバイス、パーソナル通信システム(PCS)デバイス、パーソナルナビゲーションデバイス(PND)、個人情報マネージャ(PIM)、携帯情報端末(PDA)、または他の適したモバイルデバイスなどの任意のポータブル電子デバイスを指す。モバイルプラットフォームは、ナビゲーション測位信号など、ワイヤレス通信および/またはナビゲーション信号を受信することが可能であり得る。「モバイルプラットフォーム」という用語はまた、短距離ワイヤレス、赤外線、有線接続、または他の接続などによって、パーソナルナビゲーションデバイス(PND)と通信するデバイスを含むことを意図し、衛星信号受信、支援データ受信、および/または位置関連処理が、そのデバイスで生じるか、またはPNDで生じるかにかかわらない。また、「モバイルプラットフォーム」は、ビジョンベーストラッキングが可能であるワイヤレス通信デバイス、コンピュータ、ラップトップ、タブレットコンピュータなどを含む、すべての電子デバイスを含むことを意図する。
図2に示すように、ビジョンベーストラッキングユニット112は、線検出200およびトラッキング220の2つの主要構成要素を含む。図2および図3に示すように、線検出200は、初期化202と、エッジ検出204と、エッジ連結206と、線セグメントフィッティング208とを含む。図2および図6に示すトラッキング220は、図2に示すように、局所探索を実行すること、エッジセットの分布を計算すること、およびフレーム間トラッキングを行うことを含む。線検出200における初期化202は、トラッキングすべき対象物の入力画像を提供することを含む。エッジ検出204は、たとえば、当業界でよく知られているCannyエッジ検出器、Sobelエッジ検出器、Prewittエッジ検出器、または他の適正なエッジ検出器によって実行され得る。次いで、エッジマップの形でエッジ点のセットを作成するために、非最大値抑制によるエッジシニングが実行される。次いで、エッジ連結206が実行され、エッジセグメントを得ることができる。例として、図4は、使用され得るエッジ連結アルゴリズムを示す。エッジ連結アルゴリズムは、エッジマップ内の各エッジ点を調査し、局所近傍のエッジマップを調査してこの領域内の他のエッジ点を識別することによってエッジセグメントIDを有する点を標示する。例として、局所近傍は、エッジ点周りの8×8ピクセル領域であってよい。次いで、複数の線セグメントによってエッジを表示するために、線セグメントフィッティング208が実行される。例として、図5は、点AとBとの間の曲線α上の線フィッティングを示す。点AとBとの間の曲線α上の各点Cに対して、アルゴリズムは、最初に、線CDが線ABに垂直になるように、または言い換えれば<AB,CD>=0であるように、線AB上の点Dを識別する。距離CDが留意され、最大距離CDをもたらす点Cが認識され、図5の点C*で表示される。最大距離、すなわち点C*と、対応する点D*との間の最大距離が、適切に事前選択されたしきい値Tより小さい場合、線ABは、曲線αの良い近似とみなされる。一方、最大距離がしきい値Tより大きい場合、個々の線AC*およびC*Bの各々に対して、アルゴリズムが繰り返される。
図6は、ビジョンベーストラッキングユニット内の線トラッキング220を示す。前のフレームに対する線検出200の段階で識別された各線セグメントに対して、局所探索領域が、現在のフレーム内で識別される(222)。図7Aは、局所探索領域250に伴っていくつかのエッジを含む画像を示しており、その領域は、エッジ領域L周りの8×8ピクセル領域であってよい。次に、局所探索領域内の各ピクセルに対して、勾配の大きさおよび方位が、現在の画像に基づいて計算される(224)。一実施形態では、画像勾配を計算するために、Canny演算子(Canny operator)が使用され得る。代替として、SobelカーネルもしくはPrewittカーネル、または等価な勾配計算カーネルが、画像勾配を計算するために使用され得る。非最大値抑制が、勾配マップ上で付加的に実行され得る。勾配の方位および勾配の大きさの分布が計算され、線セグメントLに類似する分布を有する、サーチ領域内のエッジ点のサブセットを識別するために使用される(224)。図7Bに示すように、選択されたエッジ点のサブセットの支配的方向を計算して最も近いエッジ候補を選択するために、線形回帰技法が使用され得る(226)。一実施形態では、エッジ点のサブセットの支配的方向を識別するために、主成分分析(PCA)が使用され得る。図7Cに示すように、線セグメントが、現在のフレーム内のエッジ点のサブセット上でフィッティングされ(228)、フィッティングエラーを最小にするために、線セグメントのそのパラメータがさらに洗練される(230)。
線トラッキングシステムのロバストネスを高めるために、線が群に組み合わされて、次にトラッキングされ得るより良い記述を形成する。図8は、線の群を使用して対象物をトラッキングする方法を示すフローである。図8に示すように、トラッキングすべき対象物の画像が、たとえば、モバイルプラットフォーム100でキャプチャされたビデオまたは画像の複数のフレームのうちの1つとしてキャプチャされる(302)。たとえば図3で上述するように、または任意の他の所望の方式で、対象物の画像内の複数の線が検出される(304)。たとえば図6で上述するように、または任意の他の所望の方式で、線の群が複数の線から形成され(306)、1つのフレームから次のフレームにかけて対象物をトラッキングするために線の群が使用される(308)。線の群は、たとえば、正方形、長方形、またはサイクル(cycle)など、閉じた形で接続された線であってよい。
線の群は、複数の線のすべての交差点を計算し、交差点を使用して接続された線を識別することによって形成され得る(306)。たとえば、線の群は、複数の線からグラフを構築し、複数の線のすべての交差点を計算し、交差点の各ペア間の接続を使用して興味のあるサブグラフを生成することによって形成され得る。交差点が識別されると、線のセットに対するグラフGが、
Figure 2014529823
として構築され得る。
ここで、Tは適切に選択されたしきい値である。例として、図9は、点A、BおよびCを、線(A,B)および線(A,C)とともに示す。このグラフに対する行列Gは、
Figure 2014529823
として記述され得る。
例として、図10は、頂点A、B、CおよびDを有する別の可能なサブグラフを示しており、そのサブグラフは、
Figure 2014529823
で記述される。
次いで、興味のあるサブグラフが、興味のある線の群を使用して形成され得る。トラッキングの観点から興味のあるサブグラフは、三角形、正方形、長方形、一般的な多角形、またはサイクルであってよい。
線の群が、たとえば興味のあるサブグラフとして形成されると、フレームごとに線の群をトラッキングするために、マッチング技法が使用され得る(308)。マッチングは、参照によって実行されることも、参照なしに実行されることもある。
トラッキングすべき対象物の事前知識が利用可能である場合、この情報を使用することができ、正確なサブグラフおよび対象物トラッキングが、現在の入力フレームを知られている興味のある対象物とマッチングすることによって実行され得る。例として、対象物トラッキングを助けることができる事前知識のタイプは、2Dトラッキングの場合のトラッキングすべき対象物の参照画像、3Dトラッキングの場合の対象物の参照3Dモデル、3D対象物の異なるビューからの一連のフレーム、またはさらには2Dモデルもしくは3Dモデルのエッジマップであってよい。
事前知識がない場合に、トラッキングは、後続のフレームを比較することによって、すなわち現在のフレームを前のフレームと比較することによって実行され、前のフレームは、直前のフレームかまたは複数のフレームだけ現在のフレームより前のフレームのいずれかであってよい。事前知識がない場合、サイクル検出が実行されてよく、以下で説明するように、グラフ内の閉じた経路が、興味のある領域の境界であるとみなされる。
マッチングの段階では、現在の画像内で検出された線のセットが与えられると、すべての交差点が計算される。交差点の各ペア間の接続を考慮することによって、グラフが構築される。次いで、興味のあるサブグラフを検出するためにモデルの初期化が行われ、検出されたサブグラフを、モデルフレームのサブグラフ(参照ベーストラッキングの場合)、および前のフレームのサブグラフ(参照フリートラッキングの場合)と、比較するために、正確なサブグラフのグラフマッチングが使用される。
加えて、線の群は、サイクルを検出するために、共に組み合わされ得る。サイクル検出は、1つのグラフおよび得られた各サブグラフを、得られた各サブグラフが1つのサイクルを含むまで、繰返し2つに分割することを含む。1つのサイクルを含む、得られたサブグラフが、興味のあるサブグラフとして報告される。サイクル検出を図11に示しており、図は4サイクルを含むグラフを示しており、そのグラフは2つに分割され、それにより1サイクルと3サイクルとを含むサブグラフを作成する。3サイクルを有するサブグラフは、再び分轄されて追加のサブグラフを作成し、追加のサブグラフは、各サブグラフがただ1つのサイクルを有するまで、さらに分割される。次いで、1サイクルを含むサブグラフのすべてが、結果として戻される。このプロセスの2つの主要構成要素が、以下で示すサイクル検出およびグラフ分割である。例として、図12Aおよび図12Bは、それぞれ、エッジを示す元のグラフと、点線および鎖線で特定された、抽出されたサイクルを示すグラフとを示す。
サイクル検出は、様々な方法で実行され得る。議論を円滑にするために、H0で頂点の空間を表すこととする。たとえば、図10に示すサブグラフを参照すると、H0は、
Figure 2014529823
のように、頂点のセット{A,B,C,D}のべき集合である。
さらに、図10に類似するが、
Figure 2014529823
のようにエッジe1〜e4を標示する図13に示すように、H1でエッジのセット{e1,e2,e3,e4}のべき集合を表すこととする。
サイクル検出はまた、
∂:H1→H0
∂(e1)=A+D
∂(e1+e2)=∂(e1)+∂(e2)=A+D+D+C=A+C eq.6
として定義される境界演算子(boundary operator)∂を使用して実行され得る。
したがって、境界演算子の下で、サイクルc∈H1は、
cycle space={c∈H1|∂(c)=0} eq.7
として定義され得る。
サイクルCの空間はベクトル空間であり、かつ∂の零空間であり、サイクルの数は、零に等しい∂の固有値の数に等しいことに留意されたい。
例として、図13に示すグラフに対して、境界演算子∂は、∂(e)=Deとして数学的に表現され得、ここで、行列Dは、
Figure 2014529823
で与えられる。
たとえば、
Figure 2014529823
この記述に基づいて、エッジe1、e2、e3およびe4は、2を法とする加算の下で、
Figure 2014529823
であるので、サイクルを形成する。
例として、図14は、4つの頂点の間の5本の線を示す。サイクルの数は、零に等しいラプラシアン行列の固有値の数を調べることによって発見され得る。この例では、ラプラシアン行列L=DTDは、
Figure 2014529823
によって与えられる。
式11に示すように、図14に示すサイクルのグラフに対して2つの零固有値が存在し、したがって、2つのサイクルが存在する。したがって、図14に示すグラフは、図15に示すように分割されるべきであり、分割は、境界点において発生する。グラフ分割に対する適切な実装形態は、参照により本明細書に組み込まれる、Harish Chintakunta、Hamid Krim、DivideおよびConquer、「Localizing Coverage holes in Sensor Networks」、IEEE SECON、2010年6月、に記載されている。グラフ分割が実行された後、各サブグラフ内の閉じた経路が発見され、興味のある領域の境界であるとみなされる。次いで、これらの得られたサイクルは、トラッキングプロセスにおいて使用され得る。
図16は、線の群を使用して対象物をトラッキングすることができるモバイルプラットフォーム100のブロック図である。モバイルプラットフォーム100は、カメラ110、ならびにカメラ110によってキャプチャされた画像を表示することができるディスプレイ102を含むユーザインターフェース150を含む。また、ユーザインターフェース150は、キーパッド152、または、ユーザが情報をモバイルプラットフォーム100に入力することができる他の入力デバイスを含み得る。必要に応じて、キーパッド152は、タッチセンサを有するディスプレイ102に仮想キーパッドを組み込むことによって省かれてもよい。また、ユーザインターフェース150は、たとえばモバイルプラットフォームが携帯電話である場合には、マイクロフォン106とスピーカ104を含み得る。マイクロフォン106は、音声注釈を入力するために使用され得る。当然ながら、モバイルプラットフォーム100は、本開示に関係しない他の要素を含み得る。
モバイルプラットフォーム100はまた、カメラ110およびユーザインターフェース150に接続され、それらと通信する制御ユニット160、ならびに存在可能な他のシステムを含む。たとえば、加速度計、ジャイロスコープ、磁力計などのモーションセンサおよび/または位置センサが存在して、トラッキングにおいて使用される追加の情報を提供するために使用され得る。制御ユニット160は、上述のように、カメラ110からデータを受けて処理する。制御ユニット160は、バス160b、プロセッサ161および関連するメモリ164、ハードウェア162、ソフトウェア165、ならびにファームウェア163によって提供され得る。モバイルプラットフォーム100は、図1に示すビジョンベーストラッキングユニット112を構成し、上述のように動作する線検出ユニット172、線群化ニット174、およびトラッキングユニット176を含む。線検出ユニット172、線群化ユニット174、およびトラッキングユニット176は、説明を簡単にするためにプロセッサ161とは別に示され、別個のものであるが、単一のユニットであってもよく、かつ/またはプロセッサ161の中で実行されるソフトウェア165内の命令に基づいてプロセッサ161の中で実施されてもよい。本明細書で使用される場合、プロセッサ161ならびに線検出ユニット172、線群化ユニット174、およびトラッキングユニット176のうちの1つまたは複数は、1つまたは複数のマイクロプロセッサ、組込みプロセッサ、制御器、特定用途向け集積回路(ASIC)、デジタルシグナルプロセッサ(DPS)などを、必ずしも必要ではないが、含むことができる。プロセッサという用語は、特定のハードウェアではなく、システムによって実施される機能を説明するように考えられている。さらに、本明細書で使用する「メモリ」という用語は、長期メモリ、短期メモリ、またはモバイルプラットフォームに関連する他のメモリを含む任意の種類のコンピュータ記憶媒体を指し、いかなる特定の種類のメモリ、もしくはメモリの数、またはメモリが記憶される媒体の種類に限定されない。
本明細書で説明する方法は、用途に応じて様々な手段によって実現され得る。たとえば、これらの方法は、ハードウェア162、ファームウェア163、ソフトウェア165、またはそれらの任意の組合せで実施されてもよい。ハードウェアの実装形態の場合、処理ユニットは、本明細書で説明された機能を実行するように設計された、1つもしくは複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号プロセッシングデバイス(DSPD)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、他の電子ユニット、またはそれらの組合せ内で実装されてもよい。
ファームウェアおよび/またはソフトウェア実装形態に関して、これらの方法は、本明細書で説明する機能を実行するモジュール(たとえば、プロシージャ、関数など)によって実装され得る。本明細書で説明する方法を実装する際に、命令を有形に具現化する任意の機械可読媒体が使用され得る。たとえば、ソフトウェアコードがメモリ164に記憶され、プロセッサ161によって実行されてもよい。メモリは、プロセッサ161の内部に実装されてもよく、または、プロセッサ161の外部に実装されてもよい。
ファームウェアおよび/またはソフトウェアに実装する場合、機能は、コンピュータ可読記録媒体に1つまたは複数の命令またはコードとして記憶され得る。例には、データ構造で符号化された非一時的コンピュータ可読記録媒体、およびコンピュータプログラムで符号化されたコンピュータ可読記録媒体を含める。コンピュータ可読記録媒体には、物理的コンピュータ記憶媒体が含まれる。記憶媒体は、コンピュータによってアクセスされ得る任意の入手可能な媒体であり得る。限定ではなく、例として、そのようなコンピュータ可読記録媒体は、RAM、ROM、フラッシュメモリ、EEPROM、CD-ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気記憶デバイス、または所望のプログラムコードを命令またはデータ構造の形で記憶するのに使用することができ、かつコンピュータによってアクセスすることのできる任意の他の媒体を備えてよく、本明細書で使用するディスク(diskおよびdisc)には、コンパクトディスク(disc)(CD)、レーザディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)、およびブルーレイディスク(disc)が含まれ、ディスク(disk)は通常、データを磁気的に再生するが、ディスク(disc)はデータをレーザによって光学的に再生する。上記の組合せもコンピュータ可読記録媒体の範囲内に含めるべきである。
説明のために本発明を特定の実施形態に関連して示したが、本発明はそれらの実施形態に限定されない。本発明の範囲から逸脱することなく様々な適合および改変がなされてもよい。したがって、添付の特許請求の範囲における趣旨および範囲は、上記の説明に限定されるべきではない。
100 モバイルプラットフォーム
101 筐体
102 ディスプレイ
104 スピーカ
106 マイクロフォン
110 カメラ
112 ビジョンベーストラッキングユニット
150 ユーザインターフェース
152 キーパッド
160 制御ユニット
160b バス
161 プロセッサ
162 ハードウェア
163 ファームウェア
164 メモリ
165 ソフトウェア
172 線検出ユニット
174 線群化ユニット
176 トラッキングユニット
200 線検出
202 初期化
204 エッジ検出
206 エッジ連結
208 線セグメントフィッティング
220 トラッキング
250 局所探索領域

Claims (28)

  1. トラッキングすべき対象物の画像をキャプチャするステップと、
    前記対象物の前記画像内の複数の線を検出するステップと、
    前記複数の線から線の群を形成するステップと、
    前記線の群を使用して前記対象物をトラッキングするステップと
    を含む、方法。
  2. 前記線の群が、接続された線を含む、請求項1に記載の方法。
  3. 前記接続された線が、閉じた形を形成する、請求項2に記載の方法。
  4. 前記複数の線から前記線の群を形成するステップが、
    前記複数の線のすべての交差点を計算するステップと、
    前記交差点を使用して、接続された線を識別するステップと、
    前記接続された線を用いて前記線の群を形成するステップと
    を含む、請求項1に記載の方法。
  5. 前記複数の線から前記線の群を形成するステップが、
    前記複数の線からグラフを構築するステップと、
    前記複数の線のすべての交差点を計算するステップと、
    交差点の各ペア間の接続を使用して、興味のあるサブグラフを生成するステップと、
    前記興味のあるサブグラフから前記線の群を形成するステップと
    を含む、請求項1に記載の方法。
  6. 前記対象物の参照モデルを前記興味のあるサブグラフとマッチングすることによって、前記トラッキングすべき対象物を検出するステップをさらに含む、請求項5に記載の方法。
  7. 前記線の群を使用して前記対象物をトラッキングするステップが、前記対象物の参照モデルを前記興味のあるサブグラフとマッチングするステップを含む、請求項5に記載の方法。
  8. 前記興味のあるサブグラフを生成するステップが、
    前記グラフおよび得られた各サブグラフを、得られた各サブグラフが1つのサイクルを含むまで、繰返し2つに分割するステップと、
    1つのサイクルを含む、得られたサブグラフを興味のあるサブグラフとして報告するステップと
    を含む、請求項5に記載の方法。
  9. 前記線の群を使用して前記対象物をトラッキングするステップが、前記線の群を使用して前記対象物の現在の画像と前記対象物の前の画像とを比較するステップを含む、請求項1に記載の方法。
  10. カメラと、
    前記カメラに接続されたプロセッサとを備え、前記プロセッサが、トラッキングすべき対象物の、前記カメラによってキャプチャされた画像内の複数の線を検出し、前記複数の線から線の群を形成し、前記線の群を使用して前記対象物をトラッキングするように構成される、
    装置。
  11. 前記線の群が、接続された線を含む、請求項10に記載の装置。
  12. 前記接続された線が、閉じた形を形成する、請求項11に記載の装置。
  13. 前記プロセッサが、前記複数の線のすべての交差点を計算するように構成されることによって前記複数の線から前記線の群を形成し、前記交差点を使用して、接続された線を識別し、前記接続された線を用いて前記線の群を形成するように構成される、請求項10に記載の装置。
  14. 前記プロセッサが、前記複数の線からグラフを構築するように構成されることによって前記複数の線から前記線の群を形成し、前記複数の線のすべての交差点を計算し、交差点の各ペア間の接続を使用して興味のあるサブグラフを生成し、前記興味のあるサブグラフから前記線の群を形成するように構成される、請求項10に記載の装置。
  15. 前記プロセッサが、前記対象物の参照モデルを前記興味のあるサブグラフとマッチングするように構成されることによって、前記トラッキングすべき対象物を検出するようにさらに構成される、請求項14に記載の装置。
  16. 前記プロセッサが、前記対象物の参照モデルを前記興味のあるサブグラフとマッチングするように構成されることによって、前記線の群を使用して前記対象物をトラッキングするように構成される、請求項14に記載の装置。
  17. 前記プロセッサが、前記グラフおよび得られた各サブグラフを、得られた各サブグラフが1つのサイクルを含むまで、繰返し2つに分割するように構成されることによって前記興味のあるサブグラフを生成し、1つのサイクルを含む得られたサブグラフを興味のあるサブグラフとして報告するように構成される、請求項14に記載の装置。
  18. 前記プロセッサが、前記カメラによってキャプチャされた前記対象物の現在の画像と前記カメラによってキャプチャされた前記対象物の前の画像とを比較するように構成されることによって、前記線の群を使用して前記対象物をトラッキングするように構成される、請求項10に記載の装置。
  19. トラッキングすべき対象物の画像をキャプチャするための手段と、
    前記対象物の前記画像内の複数の線を検出するための手段と、
    前記複数の線から線の群を形成するための手段と、
    前記線の群を使用して前記対象物をトラッキングするための手段と
    を含む、装置。
  20. 前記線の群が、閉じた形を形成する接続された線を含む、請求項19に記載の装置。
  21. 前記複数の線から前記線の群を形成するための前記手段が、
    前記複数の線のすべての交差点を計算するための手段と、
    前記交差点を使用して、接続された線を識別するための手段と、
    前記接続された線を用いて前記線の群を形成するための手段と
    を含む、請求項19に記載の装置。
  22. 前記複数の線から前記線の群を形成するための前記手段が、
    前記複数の線からグラフを構築するための手段と、
    前記複数の線のすべての交差点を計算するための手段と、
    交差点の各ペア間の接続を使用して、興味のあるサブグラフを生成するための手段と、
    前記興味のあるサブグラフから前記線の群を形成するための手段と
    を含む、請求項19に記載の装置。
  23. 前記線の群を使用して前記対象物をトラッキングするための前記手段が、前記線の群を使用して前記対象物の現在の画像と前記対象物の前の画像とを比較するための手段を含む、請求項19に記載の装置。
  24. プログラムコードを記憶した非一時的コンピュータ可読記録媒体であって、
    トラッキングすべき対象物の画像をキャプチャするためのプログラムコードと、
    前記対象物の前記画像内の複数の線を検出するためのプログラムコードと、
    前記複数の線から線の群を形成するためのプログラムコードと、
    前記線の群を使用して前記対象物をトラッキングするためのプログラムコードと
    を含む、非一時的コンピュータ可読記録媒体。
  25. 前記線の群が、閉じた形を形成する接続された線を含む、請求項24に記載の非一時的コンピュータ可読記録媒体。
  26. 前記複数の線から前記線の群を形成するための前記プログラムコードが、
    前記複数の線のすべての交差点を計算するためのプログラムコードと、
    前記交差点を使用して、接続された線を識別するためのプログラムコードと、
    前記接続された線を用いて前記線の群を形成するためのプログラムコードと
    を含む、請求項24に記載の非一時的コンピュータ可読記録媒体。
  27. 前記複数の線から前記線の群を形成するステップが、
    前記複数の線からグラフを構築するためのプログラムコードと、
    前記複数の線のすべての交差点を計算するためのプログラムコードと、
    交差点の各ペア間の接続を使用して、興味のあるサブグラフを生成するためのプログラムコードと、
    前記興味のあるサブグラフから前記線の群を形成するためのプログラムコードと
    を含む、請求項24に記載の非一時的コンピュータ可読記録媒体。
  28. 前記線の群を使用して前記対象物をトラッキングするための前記プログラムコードが、前記線の群を使用して前記対象物の現在の画像と前記対象物の前の画像とを比較するためのプログラムコードを含む、請求項24に記載の非一時的コンピュータ可読記録媒体。
JP2014528450A 2011-09-02 2012-08-21 グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング Pending JP2014529823A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161530907P 2011-09-02 2011-09-02
US61/530,907 2011-09-02
US13/416,721 US9582896B2 (en) 2011-09-02 2012-03-09 Line tracking with automatic model initialization by graph matching and cycle detection
US13/416,721 2012-03-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016090685A Division JP6240706B2 (ja) 2011-09-02 2016-04-28 グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング

Publications (1)

Publication Number Publication Date
JP2014529823A true JP2014529823A (ja) 2014-11-13

Family

ID=47752857

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014528450A Pending JP2014529823A (ja) 2011-09-02 2012-08-21 グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング
JP2016090685A Active JP6240706B2 (ja) 2011-09-02 2016-04-28 グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016090685A Active JP6240706B2 (ja) 2011-09-02 2016-04-28 グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング

Country Status (6)

Country Link
US (1) US9582896B2 (ja)
EP (1) EP2751781A1 (ja)
JP (2) JP2014529823A (ja)
KR (2) KR20140043159A (ja)
CN (1) CN103765477B (ja)
WO (1) WO2013032785A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104126298A (zh) * 2012-03-19 2014-10-29 索尼移动通讯有限公司 智能相机
US9626579B2 (en) * 2014-05-05 2017-04-18 Qualcomm Incorporated Increasing canny filter implementation speed
US9665804B2 (en) * 2014-11-12 2017-05-30 Qualcomm Incorporated Systems and methods for tracking an object
US10115031B1 (en) * 2015-02-27 2018-10-30 Evernote Corporation Detecting rectangular page and content boundaries from smartphone video stream
US11044390B2 (en) * 2016-02-10 2021-06-22 Karl Storz Imaging, Inc. Imaging system for identifying a boundary between active and inactive portions of a digital image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101419A (ja) * 1999-07-27 2001-04-13 Matsushita Electric Works Ltd 画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法
JP2007520280A (ja) * 2004-01-21 2007-07-26 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 手術中の2次元画像および手術前の3次元画像をアフィン重ね合わせするための方法およびシステム
JP2011103031A (ja) * 2009-11-10 2011-05-26 Victor Co Of Japan Ltd 透視変換パラメータ生成装置、画像補正装置、透視変換パラメータ生成方法、画像補正方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4891762A (en) * 1988-02-09 1990-01-02 Chotiros Nicholas P Method and apparatus for tracking, mapping and recognition of spatial patterns
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US6489922B1 (en) * 2000-04-22 2002-12-03 American Gnc Corporation Passive/ranging/tracking processing method for collision avoidance guidance and control
US7738705B2 (en) * 2004-06-30 2010-06-15 Stefano Casadei Hierarchical method and system for pattern recognition and edge detection
US7801330B2 (en) * 2005-06-24 2010-09-21 Objectvideo, Inc. Target detection and tracking from video streams
US7831098B2 (en) * 2006-11-07 2010-11-09 Recognition Robotics System and method for visual searching of objects using lines
CN101493889B (zh) * 2008-01-23 2011-12-07 华为技术有限公司 对视频对象进行跟踪的方法及装置
JP5388932B2 (ja) 2009-04-30 2014-01-15 キヤノン株式会社 情報処理装置およびその制御方法
US8358808B2 (en) * 2010-01-08 2013-01-22 University Of Washington Video-based vehicle detection and tracking using spatio-temporal maps
SG11201401207XA (en) * 2011-10-04 2014-05-29 Inst Hepatitis & Virus Res Substituted aminothiazoles as inhibitors of cancers, including hepatocellular carcinoma, and as inhibitors of hepatitis virus replication

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101419A (ja) * 1999-07-27 2001-04-13 Matsushita Electric Works Ltd 画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法
JP2007520280A (ja) * 2004-01-21 2007-07-26 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 手術中の2次元画像および手術前の3次元画像をアフィン重ね合わせするための方法およびシステム
JP2011103031A (ja) * 2009-11-10 2011-05-26 Victor Co Of Japan Ltd 透視変換パラメータ生成装置、画像補正装置、透視変換パラメータ生成方法、画像補正方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN5014010260; KATO HIROKAZU: 'MARKER TRACKING AND HMD CALIBRATION FOR A VIDEO-BASED AUGMENTED REALITY CONFERENCING SYSTEM' PROCEEDINGS OF 2ND IEEE AND ACM INTERNATIONAL WORKSHOP ON AUGMENTED REALITY 1999 (IWAR '99) , 19991020, P85-94, IEEE COMPUTER SOCIETY *

Also Published As

Publication number Publication date
JP6240706B2 (ja) 2017-11-29
KR20140043159A (ko) 2014-04-08
WO2013032785A1 (en) 2013-03-07
JP2016136439A (ja) 2016-07-28
US9582896B2 (en) 2017-02-28
EP2751781A1 (en) 2014-07-09
KR20160036081A (ko) 2016-04-01
CN103765477A (zh) 2014-04-30
US20130057700A1 (en) 2013-03-07
CN103765477B (zh) 2016-08-17

Similar Documents

Publication Publication Date Title
US11393173B2 (en) Mobile augmented reality system
JP6043856B2 (ja) Rgbdカメラを用いた頭部ポーズ推定
JP6348574B2 (ja) 総体的カメラ移動およびパノラマカメラ移動を使用した単眼視覚slam
JP5950973B2 (ja) フレームを選択する方法、装置、及びシステム
EP3251090B1 (en) Occlusion handling for computer vision
US8238612B2 (en) Method and apparatus for vision based motion determination
JP6031464B2 (ja) 並列追跡及びマッピングのためのキーフレーム選択
JP6228320B2 (ja) 制約なしslam用のセンサベースのカメラ運動検出
KR101532864B1 (ko) 모바일 디바이스들에 대한 평면 맵핑 및 트래킹
JP6258953B2 (ja) 単眼視覚slamのための高速初期化
JP6240706B2 (ja) グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング
US10535160B2 (en) Markerless augmented reality (AR) system
JP2019075082A (ja) 深度値推定を用いた映像処理方法及び装置
US10733798B2 (en) In situ creation of planar natural feature targets
WO2013029675A1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
JPWO2016208404A1 (ja) 情報処理装置および方法、並びにプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160104