JP5520387B2 - 拡張現実における動的モデリングによる頑強なオブジェクト認識 - Google Patents

拡張現実における動的モデリングによる頑強なオブジェクト認識 Download PDF

Info

Publication number
JP5520387B2
JP5520387B2 JP2012543348A JP2012543348A JP5520387B2 JP 5520387 B2 JP5520387 B2 JP 5520387B2 JP 2012543348 A JP2012543348 A JP 2012543348A JP 2012543348 A JP2012543348 A JP 2012543348A JP 5520387 B2 JP5520387 B2 JP 5520387B2
Authority
JP
Japan
Prior art keywords
image
region
graph
nodes
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012543348A
Other languages
English (en)
Other versions
JP2013513191A (ja
Inventor
レオン,ヘンリー
チェン,シュエ
Original Assignee
エンパイア テクノロジー ディベロップメント エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エンパイア テクノロジー ディベロップメント エルエルシー filed Critical エンパイア テクノロジー ディベロップメント エルエルシー
Publication of JP2013513191A publication Critical patent/JP2013513191A/ja
Application granted granted Critical
Publication of JP5520387B2 publication Critical patent/JP5520387B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/426Graphical representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/196Recognition using electronic means using sequential comparisons of the image signals with a plurality of references
    • G06V30/1983Syntactic or structural pattern recognition, e.g. symbolic string recognition
    • G06V30/1988Graph matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

関連出願の相互参照
本出願は、2010年3月10日に出願した、ROBUST OBJECT RECOGNITION BY DYNAMIC MODELING IN AUGMENTED REALITYという表題の米国特許出願第12/720,858号の利益を主張するものである。本特許出願の開示は、参照によりすべての目的で組み込まれる。
別段本明細書において示されない限り、本節で説明される材料は、本出願の請求項に対する先行技術ではなく、本節に包含することによって先行技術であると認められるものではない。
拡張現実(Augmented reality)(AR)は、その要素が、仮想画像、典型的には、コンピュータ生成画像によって拡張され、それによって複合現実を生み出す物質界(実世界)環境の眺めを指す。この拡張は、通常、リアルタイムであり、スポーツイベント、軍事演習、ゲームなどの環境要素に関連し得る。AR技術は、オブジェクト認識と画像生成とを追加することによって、人物を取り巻く実世界に関する情報を双方向性にし、デジタル的に使用可能にできる。環境およびオブジェクトに関する人工情報を実世界のビューレイヤから分離した情報レイヤとして記憶して、取り出すことが可能である。
本開示では、ARシステムにいくつかの制限が存在することを理解している。オブジェクト認識は、ARの主なコンポーネントであり、オブジェクト認識ではアピアランスベースの(appearance−based)手法が一般に使用される。アピアランスベースのオブジェクト認識手法は、形、反射特徴、シーン内のポーズ、照明状態、および同等効果の組み合わせ効果を処理することが可能である。さらに、アピアランスベースの表現は、伝統的な形状表現と異なり、自動学習段階を通じて獲得可能である。しかし、アピアランスベースの認識技法は、直接的なアピアランスベースのマッチングに基礎を置き、オクルージョン(occlusions)、アウトライア(outliers)、および変動背景をうまく処理することができないため、アピアランスベースの認識技法にはさまざまな課題が残っている。すなわち、アピアランスベースの手法は頑強ではなく、この場合、頑強性という用語は、結果が、さまざまなタイプの雑音の存在下で安定した状態を保ち、一定のアウトライアを許容できることを指す。
以下の概要は、単なる例示であり、決して限定的なものではない。上述の例示的な態様、実施形態、および特徴に加えて、さらなる態様、実施形態、および特徴は、図面と以下の詳細な説明とを参照することによって明らかになるであろう。
本開示は、一般に、拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法を説明する。拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法は、オブジェクトの二次元画像を画像領域表現に変換することを含むことが可能である。拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法は、画像領域表現のノード同士の間のリンクに基づいて、画像領域内の属性付きグラフ(attributed graph)を画定することと、モデル領域内の別の属性付きグラフを画定することとを含むことも可能である。拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法は、属性付きグラフの対応するノード同士の間のリンクを識別および活性化することによって、画像領域内の属性付きグラフとモデル領域内の属性付きグラフとをマッチングさせることをさらに含むことが可能である。
本開示は、拡張現実(AR)システムにおいてオブジェクト認識を実行するための装置も説明する。拡張現実(AR)システムにおいてオブジェクト認識を実行するための装置は、画像データとグラフデータとを記憶するように適合されたメモリと、動的モデリングモジュールを実行するように適合された第1の処理装置であって、動的モデリングモジュールが、二次元(2D)画像を記憶された画像データから、それぞれが画像領域内の少なくとも1つの別個の特徴を符号化する、リンクされたノードの2Dアレイを含む画像領域表現に変換することと、画像領域内のそれぞれのノードに関する少なくとも1つの特徴の活動ベクトル(activity vector)を表す頂点ラベルを決定することと、画像領域のノード同士の間の接続性を表すエッジラベルを決定することと、頂点ラベルおよび/またはエッジラベルのうちの1つもしくは複数に基づいてモデル領域内の属性付きグラフを画定することであって、属性付きグラフがグラフデータの一部としてメモリ内に記憶されている、画定することとを行うように適合可能な第1の処理装置とを含むことが可能である。拡張現実(AR)システムにおいてオブジェクト認識を実行するための装置は、グラフマッチングモジュールを実行するように適合された第2の処理装置であって、グラフマッチングモジュールが、画像領域内のノードとモデル領域内の対応するノードとの間のリンクを識別および活性化することと、類似の特徴を備えたノード同士の間のいくつかの接続を削減することとを行うように適合された第2の処理装置をさらに含むことが可能である。
本開示は、拡張現実(AR)システムにおいてオブジェクト認識を実行するための命令を記憶しているコンピュータ可読記憶媒体をさらに説明する。これらの命令は、オブジェクトの二次元画像を、それぞれが特徴検出器のセットを含む複数のリンクされたノードを含む画像領域表現に変換することを含むことが可能である。これらの命令は、特徴検出器を二次元画像のそれぞれの画素に適用することによって、特徴検出器の活動ベクトルを表す頂点ラベルを決定することを含むことも可能である。これらの命令は、それぞれのノード同士の間のリンクを検出することによって、ノード同士の間の接続性を表すエッジラベルを決定することを含むことも可能である。これらの命令は、頂点ラベルとエッジラベルとに基づいて、画像領域内の属性付きグラフを生成することと、モデル領域内の属性付きグラフを画定することであって、モデル領域内の属性付きグラフが画像領域内の属性付きグラフの理想化された複写であってもよい、画定することとを含むことも可能である。これらの命令は、属性付きグラフの頂点ラベルとエッジラベルとをマッチングさせることに基づいて、画像領域内の属性付きグラフとモデル領域内の属性付きグラフとの間の接続を決定することと、接続を画像領域とモデル領域との間のトポロジ保存写像(topology−preserving mapping)に削減することとをさらに含むことが可能である。
本開示は、拡張現実(AR)システムにおいてオブジェクト認識を実行するためのシステムをさらに説明する。拡張現実(AR)システムにおいてオブジェクト認識を実行するためのシステムは、実シーンの二次元(2D)画像を取り込むように適合された少なくとも1つのセンサと、2D画像を、それぞれが特徴検出器のセットを含む、画像領域内のノードの2Dアレイを含む画像領域表現に変換するように適合された画像処理サーバとを含むことが可能である。拡張現実(AR)システムにおいてオブジェクト認識を実行するためのシステムは、画像領域内のそれぞれのノードに関する少なくとも1つの特徴の活動ベクトルを表す頂点ラベルを決定することと、画像領域のノード同士の間の接続性を表すエッジラベルを決定することと、頂点ラベルとエッジラベルとに基づいて、領域内の属性付きグラフとモデル領域内の属性付きグラフとを画定することと、画像領域内のノードとモデル領域内の対応するノードとの間のリンクを識別および活性化することと、類似の特徴を備えたノード同士の間のいくつかの接続を削減することとを行うように適合された現実サーバを含むことも可能である。拡張現実(AR)システムにおいてオブジェクト認識を実行するためのシステムは、2D画像と、画像領域内の属性付きグラフと画像領域内の他の属性付きグラフとの間の削減された接続に基づいてレンダリングされた(rendered)仮想画像とをオーバーレイすることによって、拡張シーンを生成するように適合された画像生成サーバを含むことも可能である。
本開示の前述の特徴および他の特徴は、添付の図面と共に、以下の説明および添付の請求項から十分明らかになるであろう。これらの図面は本開示によるいくつかの実施形態だけを示し、したがって、その範囲の限定と見なさないことを理解して、本開示は、添付の図面を使用することによって、追加の特異性および詳細を用いて説明される。
ある例示的な拡張現実(AR)システムを示す図である。 動的モデリングとグラフマッチングとを用いたある例示的なARシステムのブロック図である。 ある例示的な動的モデリングサブシステムにおける例示的なプロセスのブロック図である。 ある例示的なグラフマッチングサブシステムにおける動作の図である。 ある例示的なグラフ選択サブシステムにおける動作の図である。 動的モデリングとグラフマッチングとを用いたシステムにおいて入力画像をどのように属性付きグラフとして表すことができるかを例示する図である。 ARシステムにおいて動的モデリングとグラフマッチングとを実施するために使用可能な汎用コンピューティング装置を例示する図である。 図5の装置500など、コンピューティング装置によって実行可能な、ある例示的な方法を示す流れ図である。 すべて本明細書で説明される少なくともいくつかの実施形態に従って構成された、ある例示的なコンピュータプログラム製品のブロック図である。
以下の詳細な説明において、詳細な説明の一部を形成する添付の図面が参照される。図面において、文脈上別段の規定がない限り、類似の記号は、通常、類似のコンポーネントを識別する。詳細な説明、図面、および請求項で説明される例示的な実施形態は、限定的であることが意味されない。本明細書で提示される主題の趣旨または範囲から逸脱せずに、その他の実施形態を利用することが可能であり、その他の変更を行うことが可能である。一般に、本明細書で説明され、図面において例示される本開示の態様は、そのすべてが本明細書で明示的に企図される、幅広い異なる構成で構成、置き換え、組み合わせ、分離、および設計できる点を容易に理解されよう。
本開示は、一般に、特に、動的モデリングとグラフマッチングとに基づくARシステムにおいての頑強なオブジェクト認識に関する方法、装置、システム、デバイス、および/またはコンピュータプログラム製品を対象とする。
簡単に説明すると、動的モデリングに基づく頑強なオブジェクト認識方式は、セル状領域をより高次のエンティティグループにグループ化するために、これらの領域の微小スケールの時間的構造(fine scale temporal structure)の相関を用いる。これらのエンティティは、リッチな構造を表し、ハイレベルなオブジェクトを符号化するために使用可能である。オブジェクト認識は、弾性グラフマッチングとしてフォーマット可能である。
図1は、いくつかの実施形態を本開示に従って実施することができる、ある例示的な拡張現実(AR)システム100を示す。ARは、実世界表示を拡張するために、ライブビデオストリーム内にコンピュータ生成画像を適用することを探索する。ARシステムは、一般に、いくつかのセンサおよびアクチュエータと、実像およびコンピュータ生成画像を処理するための1つまたは複数のコンピューティング装置と、ヘッドマウントディスプレイ、バーチャル網膜ディスプレイ、モニタまたは類似の正規のディスプレイ、および同等の装置などの可視化システムとを含む、制御された環境を含む。
ARシステム100は、実シーンのライブ画像(オブジェクト)102を取り込むように構成されたセンサ104を含む。センサ104は、取込み画像としてアナログ画像もしくはデジタル画像を提供できるデジタルカメラ、ウェブカメラ、および/または類似の画像取込み装置であってもよい。(1つもしくは複数の)取込み画像は、センサ104によって、アナログ画像のデジタル画像へのデジタル化を実行し、デジタル画像を受信し、かつ/またはデジタル画像を処理するように適合可能な画像処理サブシステム106に提供することが可能である。画像処理サブシステム106によって提供される処理は、画像内の特徴点の位置の決定、アファイン射影の計算、エッジの追跡、フィルタリング、および/または類似の動作を含むことが可能である。画像処理サブシステム106は、上述の動作の結果など、射影情報を現実エンジン110に提供するように適合することも可能である。現実エンジン110は、取込み画像に基づいて、シーンをレンダリングするためにグラフィックスプロセスを実行するように適合可能である。仮想オブジェクトは、下でより詳細に議論されるように、動的モデリングとグラフマッチングとを用いるように構成可能な現実エンジン110によって提供することが可能である。
画像生成器108は、センサ104から(1つまたは複数の)基準画像を受信して、現実エンジン110から(1つまたは複数の)仮想オブジェクトを受信して、拡張シーンを生成するために、取り込まれた実シーン画像を(1つまたは複数の)仮想オブジェクトとオーバーレイするように適合可能である。1つの例示的な実装形態では、仮想シーンと実シーンの融合は、ルミナンスキーイング(luminance keying)を介して実行可能であり、この場合、仮想画像はキー入力であり、実シーン画像は基準入力である。その実装形態では、実シーン画像は、ルミナンスキーに背景信号を提供し、キーヤ(keyer)(画像生成器)に関する同期信号としての機能も果たす。ディスプレイ112は、ユーザによる閲覧のために、拡張シーンを生成するために使用可能な1つの例示的な可視化機構である。先に議論されたように、拡張シーン114の可視化をユーザに提供するために、その他のタイプのディスプレイ装置を使用することが可能である。
画像処理サブシステム106、現実エンジン110、および画像生成器108は、別個のアプリケーションとして、統合アプリケーションとして、集中サービスとして、または1つもしくは複数のコンピューティング装置上の分散型サービスとして実施可能である。1つまたは複数のコンピューティング装置は、異種であっても、同種であってもよく、汎用コンピューティング装置として実施されても、独立型コンピュータ、ネットワーク接続されたコンピュータシステム、汎用処理装置(たとえば、マイクロプロセッサ、マイクロコンとローラ、デジタル信号プロセッサ、すなわちDSP、など)、もしくは専用処理装置として含まれることが可能な専用コンピューティング装置として実施されてもよい。異なるコンピューティング装置上で実施される場合、ARシステム100のさまざまなコンポーネントは、1つまたは複数のネットワーク上で互いに通信するように構成可能である。
(1つまたは複数の)ネットワークは、サーバ、クライアント、スイッチ、ルータ、モデム、インターネットサービスプロバイダ、および任意の適切な通信媒体(たとえば、有線通信または無線通信)のいずれかのトポロジを含むことが可能である。実施形態によるシステムは、静的または動的なネットワークトポロジを有することが可能である。(1つまたは複数の)ネットワークは、企業ネットワーク(たとえば、LAN、WAN、もしくはWLAN)など、安全なネットワーク、ワイヤレスオープンネットワーク(たとえば、IEEE802.11無線ネットワーク)など、安全でないネットワーク、またはワールドワイドネットワーク(たとえば、インターネット)を含むことが可能である。(1つまたは複数の)ネットワークは、共に動作するように適合された複数の別個のネットワークを含むことも可能である。(1つまたは複数の)ネットワークは、本明細書で説明されるノード同士の間に通信を提供するように適合される。限定ではなく、例として、(1つまたは複数の)ネットワークは、音響媒体、RF媒体、赤外線媒体、およびその他の無線媒体などの無線媒体を含むことが可能である。
図2は、本明細書で説明される少なくともいくつかの実施形態による、動的モデリングとグラフマッチングとを用いたある例示的なARシステムのブロック図200を示す。オブジェクト認識は、たとえば、中でも、検査、登録、および操作のために、マシンビジョン業界(machine vision industry)で広く使用されている。しかし、オブジェクト認識に関する従来のシステムは、通常、相関ベースのテンプレートマッチングに依存する。本開示は、これらの従来のシステムはオブジェクトポーズと照度とが厳重に制御された一定の設計環境にとって効果的な可能性があるが、テンプレートマッチングは、オブジェクトの回転、スケール、照度、および三次元ポーズが変化することが可能にされるとき、計算上厄介になる可能性があり、部分的な可視性と大きなモデルデータベースとを処理するときには一層厄介になる可能性があることを確認および認識する。
本開示の少なくともいくつかの実施形態による動的モデリングベースのシステムは、構文的にリンクした構造に基づくデータフォーマットを活用することができる。より詳細には、画像を属性付きグラフとして画像領域内に表すことができる。したがって、画像領域は、ノードの二次元のアレイを含む。特定の位置のそれぞれのノードは、いくつかの異なる特徴を含む場合がある。例示的な特徴タイプは、局所光強度、反射特性、シーン内のポーズ、オクルージョン、および/または背景変動のうちの1つもしくは複数を含むことが可能である。しかし、フィルタリング動作を通じて導出可能なより複雑な特徴タイプを使用することも可能である。画像領域内のノード同士の間の関係は、励起接続(excitatory connections)と呼ばれる場合がある。2つのノード同士の間の励起接続は、重み付けされた接続であり、この場合、重みは正であり得る(すなわち、システム内にシステム励起または正の信号を引き起こす)。いくつかの例示的な実装形態では、近傍のノードは接続可能である。他の実装形態では、任意の数のノード同士の間の複雑な接続が存在する可能性がある。動的モデルによれば、特定のオブジェクトは、オブジェクトの影響を受ける可能性がある画像領域のサブグラフによって表すことができる。
モデル領域は、画像領域内の属性付きグラフ(すなわち、サブグラフの理想化された複写)の集合物であり得る。したがって、励起接続は、画像領域とモデル領域との間に存在する可能性がある。これらの励起接続は、いくつかの特徴を保存することができる。たとえば、2つのノード、すなわち、画像領域内に1つのノード、モデル領域内に1つのノードが存在する場合、これらのノードが対応する特徴タイプに属するとき、これらのノードは互いの間に接続を有することが可能である。そのような構造の場合、オブジェクト認識は、グラフマッチングのプロセスとして実現でき、オブジェクトを符号化するモデル領域内の属性付きグラフは、視点の変形と変更とを反映するために、局所的に歪曲可能である。
ある例示的なグラフマッチングでは、画像領域の複数のノードとモデル領域の複数のノードとの間に近似的な近傍保存および特徴タイプ保存写像(approximate neighborhood preserving and feature type preserving mappinng)が存在するとき、2つのグラフをほぼ同一と見なすことができる。グラフマッチングは、画像領域のサブグラフのノードをグループ化して、選択的に活性化することによって、いくつかの実施形態に従って実施可能である。これは、単に類似の特徴ベクトルを備えたノードを結合させることによって、モデル領域を参照せずに一部達成できる。結果として、1つのオブジェクトに対応する画像の部分内のノードはその活動を同期化する傾向があり、一方、異なる画像セグメント同士の間のノードはその動的リンクを非同期化して、破壊する傾向がある。次に、サブグラフ内のノードおよびリンクをモデル領域において識別および活性化することができる(すなわち、接続パターンに関する連想メモリから取り出された接続パターン)。モデル領域内のリンクの識別および活性化に続いて、類似の特徴を備えた、画像領域内のノードとモデル領域内のノードとの間の(多対多)接続を一貫した(すなわち、トポロジ保存)1対1の写像に削減することが可能である。上述の動作は連続的に実行されなくてもよい点に留意されたい。実際には、それぞれの動作は他の動作の部分的な結果を必要とする場合があるため、実施形態によるシステムは、これらの活動をインターレース様式で実行することが可能である。
図2を参照すると、ブロック図200は、説明される実施形態のうちの少なくとも1つに従って、ARシステムの動的モデリングブロック226に提供可能な三次元(3D)オブジェクト222の二次元(2D)画像224を示す。動的モデリングブロック226は、フィルタリングなどの(1つまたは複数の)画像領域変換を実行するように適合可能であり、頂点属性とエッジ属性とを決定することが可能であり、(頂点ラベルとエッジラベルとを有する)属性付き画像領域グラフをグラフマッチングブロック228に提供することが可能である。グラフマッチングブロック228は、既に議論されたように、サブグラフのノード同士の間のリンクを識別および活性化して、モデル領域内のリンクを識別および活性化して、その接続を1対1の写像に削減するように適合可能である。結果として生じるパターン230は、提供エンジンなど、任意の消費アプリケーション232に提供可能である。
図3Aは、本明細書で説明される少なくともいくつかの実施形態に従って構成された、ある例示的な動的モデリングサブシステム326内の例示的なプロセスのブロック図300を示す。いくつかの実施形態による動的モデリングベースのオブジェクト認識システムは、2つのサブシステム内、すなわち、動的モデリングサブシステム内およびグラフマッチングサブシステム内において実行されるプロセスを含むことが可能である。図300に示すように、画像表示は、動的構造をモデリング2Dグレイスケールデジタル画像に適用して、結果として、グラフモデル(364、366)を抽出することによって、動的モデリングサブシステム326内で達成することができる。抽出されたグラフモデル364および366を使用して、図3Bに関して下でより詳細に議論されるように、(1つまたは複数の)クラスラベルを割り当てる目的で、データベースからマッチするグラフを検索するために、グラフマッチングアルゴリズムを入力グラフに適用することが可能である。
動的モデリングサブシステム326は、ハードウェアとして、ソフトウェアとして、またはハードウェアとソフトウェアの組み合わせとして実施可能である。たとえば、汎用ビデオプロセッサまたは専用ビデオプロセッサは、下で説明される動作を実行するように構成可能である。動的モデリングサブシステム326の一例は、2D画像系列を入力340として受信するように適合される。実施形態による、動的モデルを使用したオブジェクト認識の目標は、画像領域内のグラフの属性およびリンクに関する情報を符号化するためのデータフォーマットを見出して、その情報をモデル領域に転送することである。画像を前処理することは、画像領域内のそれぞれのニューロンの実際の属性値を推定することを必要とする場合がある。これは、それぞれのニューロンに関する変動画像のセット(たとえば、ビデオからの画像の系列)からの時間平均化によって達成可能である。ニューロン同士の間の結合は、信号伝送に関するシナプス荷重の役割を担う時間相関の形で符号化可能である。
第1のステップとして、(たとえば、ビデオから取り込まれた)デジタル画像または静止画像の系列340は、枠342においてグラフ表示(すなわち、グラフ属性ベクトル)を生成するために処理可能である。グラフの抽出および表示のある例示的なプロセスは、図4に関して下で示される。前処理およびグラフ抽出の結果として、画像領域内のグラフ346が取得される。次元構造の削減が続くため、これらのグラフは完全次元グラフと呼ばれる。同様に、属性付きグラフは、枠350においてモデル領域内で画定およびセットアップでき、結果として、モデル領域グラフデータベース352をもたらす。画像が画像領域内で形成されるとき、その地点のうちの1つに中心を置く局所特徴検出器は束ねられて、複合特徴検出器を形成することが可能である。複合特徴検出器は、全体として、他の複合特徴検出器と比較するためにモデル領域に提供され、それによって、属性付きモデル領域グラフを確立することが可能である。複合特徴検出器の使用は、新しいオブジェクトクラスを認識できる前に、複雑な特徴に関する検出器として新しい個々の特徴をトレーニングする必要を削減することによって、ARシステム上の計算上の負担とメモリ負担とを削減することが可能である。
モデル領域内のグラフは、それを用いてグラフマッチングアルゴリズムを実施できるプロトタイプグラフデータベースの役割を担うことが可能である。(図3Cで説明される)プロトタイプグラフ選択プロセス354は、画像領域内のグラフとモデル領域内のグラフ(344、356)とを分解する際に使用できるプロトタイプグラフセット362をもたらすことが可能である。モデル領域グラフデータベース352は、属性付きグラフの集合、すなわち、画像領域内のサブグラフの理想化された複写でもある。プロトタイプサブグラフセット362を確立した後で、画像領域内の抽出されたグラフを事前に定義された規則に従ってグラフ(344)に削減することが可能である。画像領域内の削減された次元グラフ348は、プロトタイプグラフからのサブセットの組み合わせから構成可能である。同様に、モデル領域内の(モデル領域グラフデータベース352からの)グラフを分解して(356)プロトタイプグラフからのサブセットの組み合わせにし、結果として、画像領域内およびモデル領域内に構造の次元を削減したグラフ(それぞれ、348、360)をもたらすことも可能である。
次いで、図3Bに関して下で議論されるように、画像領域内の近傍関係とモデル領域内の近傍関係とを表すリンクをセットアップすることが可能である。これによって、ニューラルオブジェクト(Neural objects)は、内部構造を獲得し、このとき、それらの関係をオブジェクト認識に関する基礎を形成するマッチする統語構造(syntactical structure)との組み合わせに制約することが可能である。
図3Bは、本明細書で説明される少なくともいくつかの実施形態に従って構成された、ある例示的なグラフマッチングサブシステム328内の動作350の例示的な図である。グラフマッチングサブシステム328は、図3Aの動的モデリングサブシステム326と同じ装置(および/もしくはソフトウェア)によって、または異なる装置(および/もしくはソフトウェア)によって実施可能である。
動作350は、ブロック368、370、372、374、376、および/または330のうちの1つもしくは複数を含むことが可能である。ブロック368「シナプス荷重および接続計算」において、コンピューティング装置内で実施されるグラフマッチングアルゴリズムを前処理属性付き画像領域グラフに適合することができる(参照番号364によって示される接続)。この前処理は、画像領域内のそれぞれのニューロンの実際の属性値を推定することを必要とする場合があり、これは、それぞれのニューロンに関する変動画像のセットからの時間平均化によって行うことができる。ニューロン同士の間の結合は、時間相関の形で符号化可能であり、これは、信号伝送に関するシナプス荷重として利用することができる。
ブロック368の後に、ブロック370が続いてもよい。ブロック370「画像領域セグメント化」において、画像領域のサブグラフI内のノードをグループ化することが可能である。このグループ化またはセグメント化は、類似の特徴ベクトルを備えたノードを結合させることによって達成可能であり、そのようなノードは、同じオブジェクト内に存在する可能性が高い。このように、1つのオブジェクトに対応する画像またはシーンの部分内のノードはその活動を同期化する傾向にあり、一方、異なる画像セグメント同士の間のノードはその動的リンクを非同期化して、破壊する傾向がある。
ブロック370の後に、ブロック372が続いてもよい。ブロック372「費用関数検査」において、費用関数検査を動的モデリングサブシステムによって提供されたグラフ属性に基づいて、グラフマッチングの一部として実行することが可能である。費用関数は、所与の問題に関して、ある特定の解決策が最適な解決策とどの程度の隔たりがあるかの尺度である。この場合、最適化は、頂点ラベルとエッジラベルのマッチングを必要とする。
ブロック372の後に、ブロック374が続いてもよい。ブロック374「最終的な属性付きグラフマッチング」において、属性付きグラフマッチングをオブジェクト認識に適用することが可能である。属性付きグラフマッチングは、記憶されたモデルグラフMが存在する場合、記憶されたモデルグラフMと同一またはほぼ同一の画像領域の部分(サブグラフ)Iから構成されるサブグラフを見出して、選択的に活性化すること(参照番号366によって示される接続)に基づいてもよい。属性付きグラフマッチングの一部として、I内およびM内の対応する地点同士の間の1対1接続を決定することも可能である。詳細には、このプロセスは、上述の、確立された費用関数に従って、頂点ラベルとエッジラベルのマッチングを同時に最適化する、頂点位置のセットに関する検索によって実施可能である。I内およびM内の類似の特徴を備えたノード同士の間の多対多接続を対にして、ブロック374で説明される動作の間に一貫した1対1の写像に削減することも可能である。
ブロック374の後に、ブロック376が続いてもよい。ブロック376「バックラベリング(BACK LABELING)」において、認識されたパターンを画像にバックラベリングすることが可能である。グラフマッチング処理は、対応する位置を備えた、I内の近傍のニューロンのブロックおよびM内の近傍のニューロンのブロックの同時活性化を伴うイベントを含むことが可能である。結果として、マッチしたグラフ同士の間の動的な結合は、認識されているパターンを画像にバックラベリングして、それらのパターンに基づいて、複合オブジェクトおよびシーンの表示を形成するために使用可能である。これらのパターンは、動作350を実行するグラフマッチングサブシステム328の出力330であり得る。
図3Cは、本明細書で説明される少なくともいくつかの実施形態に従って構成された、ある例示的なグラフ選択サブシステムにおける動作の図を例示する。図3Cで説明される動作は、図3Aの動的モデリングサブシステムのプロトタイプグラフ選択枠354内で実行可能である。
リアルタイムでグラフマッチングを実行する際の大きな課題は、グラフモデルの複雑性が高いことにある。この複雑性は、グラフの複雑な構造と、グラフ固有の高次元性とによって引き起こされる場合がある。実施形態のうちのいくつかによれば、効果的なグラフ選択方法を開発することによって、次元のより低いベクトル表示(すべてのグラフ表示のサブセット)を構築するための自動化方法を用いることが可能である。
このプロセスは、入力ブロック378「プロトタイプグラフセットを作成する」から始めることができ、たとえば、グラフを任意に選択することによって、プロトタイプグラフの初期セットP={p,...,p}を構築することができる。この初期セットは、より簡素な構造グラフを含むことが可能であり、画像領域内とモデル領域内の両方のより完全なグラフモデルを補うために使用可能である。プロトタイプグラフセットは、さまざまなプロトタイプグラフ選択アルゴリズムを使用して、モデル領域内のトレーニンググラフセットから構築可能である。次いで、認識のために元のグラフの最も有益な情報を維持すると同時に、入力画像領域から抽出されたグラフとモデル領域内のトレーニンググラフとを構造の点でより簡素なそれぞれの領域に関するグラフのサブセットに分解することができる。
詳細には、プロトタイプグラフ選択の目標は、まさにそれらのグラフ構造に関して異なるクラスを表すグラフのサブセットをモデル領域のトレーニングセットから(たとえば、モデル領域グラフデータベース352から)選ぶことであり得る。このプロトタイプグラフは、画像領域内とモデル領域内の両方でより複雑なグラフ構造を補うために十分小さくてもよい。プロトタイプグラフは、類似のグラフを選択するという点で冗長性を回避することと、十分な情報を伝達することとを同時に行うことができる。
ブロック380「初期セットを作成する」において、それぞれのセットが1つのプロトタイプS={p},...,S={p}を含むように、n個のセットSを選択することができる。ブロック382「グラフを見出すためにTを走査する」において、グラフg∈T\Pを見出すために、モデル領域からの(1つまたは複数の)トレーニンググラフセットを走査することが可能である。それぞれのグラフgに関して、その最近傍、すなわち、p∈Pを見出すことができ、ブロック384「gとPとの間の距離を計算する」、ブロック386「最近傍であるか?」、およびブロック388「gをセットSに追加する」によって示されるように、考慮中のグラフは、プロトタイプpに対応するセットSに追加される。これらのステップは、結果として、T∪1<i<nを伴う、n個の互いに素なセット(disjointed sets)をもたらし得る。
ブロック390「Pの中心cを計算する」において、それぞれのセットSに関して中心cを見出すことができる。cは、S内の他のオブジェクトまでの最大距離が最小であるグラフであってもよい。c=pである、それぞれの中心cに関して、決定ブロック394「c=p?」および出力ブロック392「プロトタイプグラフセットSを出力する」によって示されるように、出力プロトタイプグラフセットSを提供することが可能ある。c≠pである、それぞれの中心cに関して、ブロック396「pをS内のcで置き替える」に示されるように、pをS内のcで置き替えることができ、このプロセスは、別のトレーニングセットを取得するために、ブロック382に戻った。セットS内にそれ以上の変更が発生しないとき、このプロセスは終了できる。これらのプロトタイプグラフは、n個の互いに素なセットの中心によって提供可能である。
実施形態は特定の例、コンポーネント、および構成を使用して上で議論されているが、これらの実施形態は、ARシステムにおける動的モデリングを通じた頑強なオブジェクト認識に関して使用されることになる一般的な指針を提供することが意図される。これらの例は、本明細書で説明される原理を使用して、他のコンポーネント、モジュール、および構成を使用して実施可能な実施形態の限定を構成しない。たとえば、頂点ラベルとエッジラベルとをマッチングさせる際に任意の適切な費用関数を使用することが可能である。さらに、上で議論された活動は、さまざまな順序で、特に、インターレース様式で実行することが可能である。
図4は、本明細書で説明される少なくともいくつかの例による、動的モデリングとグラフマッチングとを用いたシステムにおいて入力画像を属性付きグラフとしてどのように表示可能できるかを例示する。いくつかの実施形態による画像表示では、動的な構造をモデリング2Dデジタル画像に適用することが可能であり、結果として、図442に例示されるプロセスを通じて、グラフモデルが抽出される。動的な構造は、画像領域内およびモデル領域内のグラフ表示を含むことが可能である。第1のステップとして、これらの特徴を使用してグラフ表示406(すなわち、画像領域表現)を形成するために、特徴(W1−WN)を入力デジタル画像から抽出することが可能である。画像領域内のグラフ表示406は、それぞれがN個の異なる特徴検出器ニューロン402を含むノードの2Dアレイであってもよい。一態様では、画像領域内で入力画像424のグラフ表示406を形成することは、特徴検出器402のセットを選択して、フィルタ404を入力画像424の画素に適用することに相当し得る。これらの結果は、いわゆる、頂点ラベル408、すなわち、局所特徴検出器の活動を表す特徴ベクトルである。
第2のステップは、それぞれのノード同士の間のリンクを形成することを含むことが可能である。その結果は、頂点同士の間の接続性を表す、いわゆる、グラフ表示406のエッジラベル410であり得る。これにより、入力画像424を頂点とエッジの両方に付随する属性(特徴ベクトル)を備えた画像領域内の属性付きグラフに変換することが可能である。オブジェクトは、結果として、類似の属性を備えた画像領域内のサブグラフであり得る。
画像領域内のグラフとなる画像が抽出されるとき、その地点のうちの1つに中心を置く局所特徴検出器は、図442に示されるように、束ねられて複合特徴検出器を形成することに対応し得る。この複合特徴検出器は、モデル領域に提供されて、そこで他の複合特徴検出器と比較されることが可能である。これは、新しいオブジェクトクラスを認識できる前に、複雑な特徴に関する検出器として新しい個々の特徴をトレーニングする必要を除去または削減することができる。
図5は、本開示によるARシステムにおいて動的モデリングとグラフマッチングとを実施するために使用可能な、ある例示的な汎用コンピューティング装置500を示す。非常に基本的な構成502において、コンピューティング装置500は、通常、1つまたは複数のプロセッサ504とシステムメモリ506とを含む。メモリバス508は、プロセッサ504とシステムメモリ506との間の通信のために使用可能である。
所望の構成に応じて、プロセッサ504は、マイクロプロセッサ(μP)、マイクロコントローラ(μC)、デジタル信号プロセッサ(DSP)、またはそれらのなんらかの組み合わせを含むが、それらに限定されない、任意のタイプのものであってもよい。プロセッサ504は、レベルキャッシュメモリ512など、1つまたは複数のレベルのキャッシュと、プロセッサコア514と、レジスタ516とを含むことが可能である。例示的なプロセッサコア514は、論理演算装置(ALU)、浮動小数点演算装置(FPU)、デジタル信号処理コア(DSPコア)、またはそれらのなんらかの組み合わせを含むことが可能である。ある例示的なメモリコントローラ518は、プロセッサ504と共に使用することも可能であり、または、いくつかの実装形態では、メモリコントローラ518は、プロセッサ504の内部部品であってもよい。
所望の構成に応じて、システムメモリ506は、(RAMなど)揮発性メモリ、(ROM、フラッシュメモリなど)不揮発性メモリ、またはそれらのなんらかの組み合わせを含むが、それらに限定されない任意のタイプのものであってもよい。システムメモリ506は、オペレーティングシステム520と、1つまたは複数のアプリケーション522と、プログラムデータ524とを含むことが可能である。アプリケーション522は、上で議論されたように、動的モデリングと属性付きグラフマッチングとを使用して、オブジェクト認識システムの操作パラメータを調整するように構成されたARモジュール526を含むことが可能である。プログラムデータ524は、図3Aおよび3Bに関して上で議論されたように、撮像データ、モデルデータ528−1、グラフデータ528−2、および類似のデータのうちの1つまたは複数を含むことが可能である。このデータは、本明細書で説明される画像領域サブグラフとモデル領域サブグラフとの間の1対1の写像を生成する際に有用であり得る。いくつかの実施形態では、アプリケーション522は、本明細書で説明されるように、三次元オブジェクトが認識されて、仮想表示が生成されるように、オペレーティングシステム520上でプログラムデータ524と共に動作するように構成可能である。この説明された基本的な構成502は、内側の破線内のコンポーネントによって図5に例示される。
コンピューティング装置500は、さらなる特徴または機能性、ならびに基本的な構成502と任意の必要とされる装置およびインタフェースとの間の通信を円滑にするためのさらなるインタフェースを有することが可能である。たとえば、バス/インタフェースコントローラ530は、記憶インタフェースバス534を経由して基本的な構成502と1つまたは複数のデータ記憶装置532との間の通信を円滑にするために使用可能である。データ記憶装置532は、取外し式記憶装置536であっても、非取外し式記憶装置538であっても、それらの組み合わせであってもよい。取外し式記憶装置および非取外し式記憶装置の例は、ほんのいくつかの例を挙げると、フレキシブルディスクドライブおよびハードディスクドライブ(HDD)などの磁気ディスク装置、コンパクトディスク(CD)ドライブまたはデジタル多用途ディスク(DVD)ドライブなどの光ディスクドライブ、固体ドライブ(SSD)、およびテープドライブを含む。例示的なコンピュータ記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータなど、情報を記憶するためのなんらかの方法または技術で実施される揮発性媒体および不揮発性媒体、取外し式媒体および非取外し式媒体を含むことが可能である。
システムメモリ506、取外し式記憶装置536、および非取外し式記憶装置538は、コンピュータ記憶媒体の例である。コンピュータ記憶媒体は、所望の情報を記憶するために使用可能であり、かつコンピューティング装置500によってアクセス可能なRAM、ROM、EEPROM、フラッシュメモリもしくは他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)もしくは他の光記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置もしくは他の磁気記憶装置、または任意の他の媒体を含むが、これらに限定されない。任意のそのようなコンピュータ記憶媒体は、コンピューティング装置500の一部であってもよい。
コンピューティング装置500は、バス/インタフェースコントローラ530を経由して、さまざまなインタフェース装置(たとえば、出力装置542、周辺インタフェース544、および通信装置546)から基本的な構成502への通信を円滑にするためのインタフェースバス540を含むことも可能である。例示的な出力装置542は、1つまたは複数のA/Vポート552を経由して、ディスプレイもしくはスピーカなど、さまざまな外部装置と通信するように構成され得るグラフィックス処理装置548および音声処理装置550を含む。例示的な周辺インタフェース544は、1つまたは複数のI/Oポート558を経由して、入力装置(たとえば、キーボード、マウス、ペン、音声入力装置、タッチ入力装置など)または他の周辺装置(たとえば、プリンタ、スキャナなど)など、外部装置と通信するように構成可能な直列インタフェースコントローラ554または並列インタフェースコントローラ556を含む。ある例示的な通信装置546は、1つまたは複数の通信ポート564を経由して、ネットワーク通信リンク上で1つまたは複数の他のコンピューティング装置562との通信を円滑にするように構成可能なネットワークコントローラ560を含む。
ネットワーク通信リンクは、通信媒体の一例であり得る。通信媒体は、通常、搬送波または他のトランスポートメカニズムなど、変調されたデータ信号内でコンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータによって実施可能であり、任意の情報配信媒体を含むことが可能である。「変調されたデータ信号」は、信号内の情報を符号化するように1つもしくは複数のその特性が設定または変更された信号であり得る。限定ではなく、例として、通信媒体は、有線ネットワークまたは直接配線接続など、有線媒体と、音響媒体、無線周波数(RF)媒体、マイクロ波媒体、赤外線(IR)媒体および他の無線媒体など、無線媒体とを含むことが可能である。本明細書で使用される場合、コンピュータ可読媒体という用語は、記憶媒体と通信媒体の両方を含む。
コンピューティング装置500は、上記の機能のうちのいずれかを含むセル電話、携帯情報端末(PDA)、パーソナルメディアプレイヤ装置、ワイヤレスウェブウォッチ装置、パーソナルヘッドセット装置、特定用途向け装置、またはハイブリッド装置など、スモールフォームファクタ(small−form factor)の可搬(すなわち、モバイル)電子装置の一部として実施可能である。コンピューティング装置500は、ラップトップコンピュータ構成と非ラップトップコンピュータ構成の両方を含むパーソナルコンピュータとして実施することも可能である。さらに、コンピューティング装置500は、ネットワーク接続されたシステムとして、または汎用サーバもしくは専用サーバの一部として実施することも可能である。
例示的な実施形態は、方法を含むことも可能である。これらの方法は、本明細書で説明される構造を含めて、任意の数の様式で実施可能である。1つのそのような様式は、本開示で説明されたタイプの装置の機械動作による。別のオプションの様式は、方法の1つまたは複数の個々の動作が、1人または複数の人間オペレータが動作のうちのいくつかを実行すると同時に、他の動作が機械によって実行されることに関して実行されることに関する。これらの人間オペレータは、互いと同じ場所に配置される必要がなく、それぞれ、プログラムの一部を実行する機械と共にいればよい。別の例では、人間の相互作用は、機械によって自動化された事前に選択された基準によってなど、自動化することが可能である。
図6は、本明細書で説明される少なくともいくつかの実施形態に従って構成された、図の装置500などのコンピューティング装置によって実行可能な、ある例示的な方法を示す流れ図である。例示的な方法は、1つもしくは複数のブロック622、624、626、628、630、632、および/または634によって例示されるような、1つもしくは複数の動作、機能、または活動を含むことが可能である。ブロック622から634で説明される動作は、コンピューティング装置610のコンピュータ可読媒体620など、コンピュータ可読媒体内にコンピュータ実行可能命令として記憶することも可能である。
ARオブジェクト認識において動的モデリングとグラフマッチングとを用いるプロセスは、ブロック622「2D画像を画像領域に変換する」から始めることができる。ブロック622において、コンピューティング装置のプロセッサ(たとえば、コンピューティング装置500のプロセッサ504、またはグラフィックス処理装置548)によって、実シーン内の3Dオブジェクトの2D画像を取得することが可能である。画像領域内のそれぞれのノードは、いくつかの異なる特徴検出器ニューロンからなり得る。特徴検出器のセットを選択して、オプションのフィルタリングプロセスにおいて、2D画像のそれぞれの画素に適用することが可能である。
ブロック622の後に、ブロック624「ノード同士の間にリンクを確立する」が続いてもよい。ブロック624において、それぞれのノード頂点同士の間のリンクをセットアップして、結果として、それぞれのノード同士の間の接続性を表すエッジラベルをもたらすことができる。これにより、画像を、頂点とエッジの両方に付随する属性を備えた、画像領域内の属性付きグラフに変換することが可能である。
ブロック624の後に、ブロック626「画像領域内の属性付きグラフを画定する」が続いてもよい。ブロック626において、頂点ラベルとエッジラベルとにより属性付きグラフが画定される。ブロック622から626は、第1のコンピューティング装置のプロセッサ(たとえば、コンピューティング装置500のプロセッサ504またはグラフィックス処理装置548)の動的モデリングモジュールによって実行可能である。他方で、ブロック628から634は、ネットワークを介して第1のコンピューティング装置に結合された第2のコンピューティング装置上の同じプロセッサまたは別のプロセッサのグラフマッチングモジュールによって実行可能である。当然、すべてのブロックを単一のモジュールによって実行することも同様に可能である。
ブロック626の後に、ブロック628「それぞれのノードの実際の属性値を推定する」が続いてもよい。ブロック628において、それぞれのノードの実際の属性値は、たとえば、それぞれのノードに関する変動画像のセットからの時間平均化によって、画像領域内で推定可能である。この推定は、リンクに関するシナプス荷重と接続計算とを含むことも可能な前処理の一部である。
ブロック628の後に、ブロック630「属性付きグラフをマッチングさせる」が続いてもよい。ブロック630において、画像領域のサブグラフ内のノードを見出して、選択的に活性化させることに基づいて、属性付きグラフをマッチングさせることが可能である。属性付きグラフマッチングの一環として、画像領域内およびモデル領域のサブグラフ内の対応する地点同士の間の1対1接続を決定することも可能である。画像領域内のセグメント化とも呼ばれる、グラフマッチングの初期部分は、類似の特徴ベクトルを備えたノードを結合させることによって達成可能である。
ブロック630の後に、ブロック632「(1つまたは複数の)サブグラフ内のリンクを識別および活性化する」が続いてもよい。ブロック632において、属性付きグラフの第2の部分は、連想メモリから両方領域内のノードに関する接続パターンを取り出すことによって達成可能である。リンクの識別および活性化の一環として、確立された費用関数に従って、頂点ラベルとエッジラベルのマッチングを最適化することができる。
ブロック632の後に、ブロック634「写像接続」が続いてもよい。ブロック634において、画像領域サブグラフ内およびモデル領域サブグラフ内の類似の特徴を備えたノード同士の間の多対多接続を1対1接続に削減することが可能である。結果として、認識されているパターンを画像にバックラベリングするために、マッチングされたグラフ同士の間の動的な結合を使用することが可能である。次いで、同じコンピューティング装置上または他のコンピューティング装置上のレンダリングソフトウェアおよび/もしくはレンダリングハードウェアによるパターンに基づいて、複合オブジェクトおよびシーンの表示を形成することが可能である。
上述のプロセス内に含まれたブロックは、例示のためである。より少ないブロックまたはさらなるブロックを用いて類似のプロセスによって、動的モデリングとグラフマッチングとによるオブジェクト認識を実施することが可能である。いくつかの例では、これらのブロックを異なる順序で実行することも可能である。いくつかの実施形態では、さまざまなブロックを無くすことも可能である。さらに他の例では、さまざまなブロックをさらなるブロックに分割することが可能であるか、または組み合わせてより少ないブロックにすることも可能である。
図7は、本明細書で説明される少なくともいくつかの実施形態に従って構成された、ある例示的なコンピュータプログラム製品700のブロック図を示す。いくつかの例では、図7に示されるように、コンピュータプログラム製品700は、たとえば、プロセッサによって実行されたとき、図5および図6に関して上述の機能性を提供できる機械可読命令704を含むことも可能な信号伝達媒体702を含むことが可能である。したがって、たとえば、プロセッサ504を参照すると、ARモジュール526は、本明細書で説明される動的モデリングに基づいて、オブジェクト認識に関連する活動を実行するために媒体702によってプロセッサ504に伝達された命令704に応答して、図7に示される1つまたは複数のタスクに着手することが可能である。これらの命令のうちのいくつかは、ノード同士の間にリンクを確立することと、属性付きグラフを画定することと、画像領域とモデル領域との間で属性付きグラフをマッチングさせることと、写像された接続を決定することとを含むことが可能である。
いくつかの実装形態では、図7に示される信号伝達媒体702は、ハードディスクドライブ、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、デジタルテープ、メモリなどに限定されないが、これらなどのコンピュータ可読媒体706を包含することが可能である。いくつかの実装形態では、信号伝達媒体702は、メモリ、読出し/書込み(R/W)CD、R/W DVDなどに限定されないが、これらなどの記録可能媒体708を包含することが可能である。いくつかの実装形態では、信号伝達媒体702は、デジタル通信媒体および/またはアナログ通信媒体(たとえば、光ファイバケーブル、導波管、有線通信リンク、無線通信リンクなど)に限定されないが、これらなどの通信媒体710を包含することが可能である。したがって、たとえば、プログラム製品700をRF信号伝達媒体702によってプロセッサ504の1つまたは複数のモジュールに伝達することが可能であり、この場合、信号伝達媒体702は、無線通信媒体710(たとえば、IEEE802.11標準に準拠する無線通信媒体)によって伝達される。
本開示は、一般に、拡張現実(AR)システム(100)においてオブジェクト認識を実行するための方法を説明する。拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法は、オブジェクト222の二次元画像224を画像領域表現に変換することを含むことが可能である。拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法は、画像領域表現のノード同士の間のリンクに基づいて、画像領域内の属性付きグラフを画定すること(626)と、モデル領域内の別の属性付きグラフ(350)を画定することとを含むことも可能である。拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法は、属性付きグラフの対応するノード同士の間のリンクを識別および活性化すること(632)によって、画像領域内の属性付きグラフとモデル領域内の属性付きグラフとをマッチングさせること(630)をさらに含むことが可能である。
いくつかの例によれば、拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法は、画像領域内の属性付きグラフとモデル領域領域内の属性付きグラフとの間のいくつかの接続(634)を削減することと、削減された接続に基づくパターンを二次元画像のモデル領域表現にバックラベリングすること(370)とを含むことが可能である。
いくつかの例によれば、拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法は、二次元画像224をモデル領域表現230とオーバーレイすることによって、合成画像をレンダリングすることを含むことが可能である。
いくつかの例では、拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法は、画像領域表現内のそれぞれのノードに関連する特徴を決定することと、それらの特徴を二次元画像224の画像に適用することによって、画像領域表現内のそれぞれのノードに関する局所特徴の活動ベクトルを表す頂点ラベル344を取得することを含むことが可能である。
さらなる例によれば、拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法は、画像領域表現のノード同士にリンクを確立することによって、画像領域表現のノード同士の間の接続性を表すエッジラベル346を取得することを含むことが可能である。
拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法のさらなる例によれば、画像領域内の属性付きグラフ348は、画像領域表現内のノード、ならびに関連する頂点ラベル344およびエッジラベル346の集合物として画定できる。
さらなる例によれば、モデル領域内のそれぞれのノードに関する変動画像のセットに時間平均化を適用することによって、モデル領域内のノードに関して実際の属性値を推定する628、拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法。
さらなる例によれば、モデル領域内のノード同士の間の結合362を時間相関として符号化する、拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法。
さらなる例によれば、符号化された結合362に基づいて、重みを計算して、モデル領域内のノード同士の間のリンクに割り当てる、拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法。
本開示は、拡張現実(AR)システム(100)においてオブジェクト認識を実行するための装置700も説明する。拡張現実(AR)システムにおいてオブジェクト認識を実行するための装置は、画像データとグラフデータ(528−1、528−2)とを記憶するように適合されたメモリ506と、動的モデリングモジュール326を実行するように適合された第1の処理装置であって、動的モデリングモジュールが、二次元(2D)画像を記憶された画像データから、それぞれが画像領域内の少なくとも1つの別個の特徴を符号化するリンクされたノード(342)の2Dアレイを含む画像領域表現に変換することと、画像領域内のそれぞれのノードに関する少なくとも1つの特徴の活動ベクトルを表す頂点ラベル344を決定することと、画像領域のノード同士の間の接続性を表すエッジラベル346を決定することと、頂点ラベルおよび/またはエッジラベルのうちの1つもしくは複数に基づいてモデル領域内の属性付きグラフ350を画定することであって、属性付きグラフがグラフデータの一部としてメモリ内に記憶されている、画定することとを行うように適合可能な第1の処理装置を含むことが可能である。拡張現実(AR)システムにおいてオブジェクト認識を実行するための装置は、グラフマッチングモジュール328を実行するように適合された第2の処理装置であって、グラフマッチングモジュールが、画像領域内のノードとモデル領域内の対応するノードとの間のリンクを識別および活性化すること(632)と、類似の特徴を備えたノード同士の間のいくつかの接続を削減することとを行うように適合された第2の処理装置をさらに含むことが可能である。
拡張現実(AR)システムにおいてオブジェクト認識を実行するための装置のいくつかの例によれば、動的モデリングモジュール326は、画像領域内のノードをグループ化して、選択的に活性化する(624)ようにさらに適合可能である。
拡張現実(AR)システムにおいてオブジェクト認識を実行するための装置のいくつかの例によれば、動的モデリングモジュール326は、類似の特徴ベクトルを備えた、画像領域内のノードを結合させることによって、画像領域内のノードをグループ化するようにさらに適合可能である。
拡張現実(AR)システムにおいてオブジェクト認識を実行するための装置のいくつかの例によれば、グラフマッチングモジュール328は、メモリ506から接続パターンを取り出することと、メモリから取り出された接続パターンを備えた頂点位置に関する検索を実行することとによって、画像領域内のノードとモデル領域内のノードとの間のリンクを識別および活性化する(632)ようにさらに適合可能である。
拡張現実(AR)システムにおいてオブジェクト認識を実行するための装置のいくつかの例によれば、グラフマッチングモジュール328は、事前に画定された費用関数に従って、頂点ラベル344とエッジラベル346とをマッチングさせるようにさらに適合可能である。
いくつかの例によれば、拡張現実(AR)システムにおいてオブジェクト認識を実行するための装置は、レンダリングモジュール(108)を実行するように適合された第3の処理装置であって、レンダリングモジュールが、削減された接続に基づいて、二次元画像224を画像のモデル領域表現とオーバーレイすることによって、合成画像をレンダリングするように適合可能な第3の処理装置を含むことが可能である。
拡張現実(AR)システムにおいてオブジェクト認識を実行するための装置のいくつかの例によれば、第1の処理装置、第2の処理装置、および第3の処理装置は、それぞれ、第1のコンピューティング装置106内、第2のコンピューティング装置110内、および第3のコンピューティング装置108内に統合することが可能であり、第1のコンピューティング装置、第2のコンピューティング装置、および第3のコンピューティング装置は、ネットワークを介して通信可能である。
拡張現実(AR)システムにおいてオブジェクト認識を実行するための装置のいくつかの例によれば、第1の処理装置、第2の処理装、および第3の処理装置は、同じプロセッサ504の一部であってもよい。
本開示は、拡張現実(AR)システム(100)においてオブジェクト認識を実行するための命令704を記憶しているコンピュータ可読記憶媒体706をさらに説明する。これらの命令は、オブジェクトの二次元画像を、それぞれが特徴検出器のセットを含む複数のリンクされたノードを含む画像領域表現に変換すること(622)を含むことが可能である。これらの命令は、特徴検出器を二次元画像のそれぞれの画像に適用することによって、特徴検出器の活動ベクトルを表す頂点ラベル344を決定することを含むことも可能である。これらの命令は、それぞれのノード間のリンクを検出することによって、ノード同士の間の接続性を表すエッジラベル346を決定することを含むことも可能である。これらの命令は、頂点ラベル344とエッジラベル346とに基づいて、画像領域内の属性付きグラフ348を生成することと、モデル領域350内の属性付きグラフを画定することであって、モデル領域内の属性付きグラフが画像領域内の属性付きグラフの理想化された複写であり得る、画定することとを含むことも可能である。これらの命令は、属性付きグラフの頂点ラベルとエッジラベルとをマッチングさせること(630)に基づいて、画像領域内の属性付きグラフとモデル領域内の属性付きグラフとの間の接続を決定すことと、接続を画像領域とモデル領域との間のトポロジ保存写像に削減すること(634)とをさらに含むことが可能である。
いくつかの例によれば、拡張現実(AR)システム(100)においてオブジェクト認識を実行するための命令704を記憶しているコンピュータ可読記憶媒体は、写像された接続に基づいてパターン(481〜487)を認識することと、それらの認識されたパターンに基づいて、仮想画像(474)を生成することと、二次元画像(472)と仮想画像(474)とをオーバーレイすることに基づいて、合成画像を生成することを含むことが可能である。
いくつかの例によれば、拡張現実(AR)システム(100)においてオブジェクト認識を実行するための命令704を記憶しているコンピュータ可読記憶媒体は、頂点位置に関して検索して、事前に定義された費用関数に従って、それぞれの頂点位置に関する頂点ラベル344とエッジラベル346との間のマッチを最適化することによって、画像領域内の属性付きグラフとモデル領域内の属性付きグラフとの間の接続を決定すること(632)をさらに含むことが可能である。
いくつかの例によれば、拡張現実(AR)システム(100)においてオブジェクト認識を実行するための命令704を記憶しているコンピュータ可読記憶媒体は、モデル領域を参照せずに、類似の特徴ベクトルを備えた、画像領域内のノード(348)を結合させることをさらに含むことが可能である。
いくつかの例によれば、拡張現実(AR)システム(100)においてオブジェクト認識を実行するための命令704を記憶しているコンピュータ可読記憶媒体は、属性付きグラフの実質的にすべてのノード同士の間に近似的な近傍保存および特徴タイプ保存写像が存在するとき、それぞれ、画像領域内およびモデル領域内の属性付きグラフの対に関する接続を決定すること(632)をさらに含むことが可能である。
いくつかの例によれば、拡張現実(AR)システム(100)においてオブジェクト認識を実行するための命令704を記憶しているコンピュータ可読記憶媒体は、画像領域内のノード同士の間のリンク(362)に割り当てられた重みに基づいて、それぞれ、画像領域内およびモデル領域内の属性付きグラフの対に関する接続を決定すること(632)をさらに含むことが可能である。
拡張現実(AR)システム(100)においてオブジェクト認識を実行するための命令704を記憶しているコンピュータ可読記憶媒体のいくつかの例によれば、画像領域内の属性付きグラフ(348)を生成することと、モデル領域内の属性付きグラフ(350)を画定することと、画像領域内の属性付きグラフとモデル領域内の属性付きグラフとの間の接続を決定すること(632)とをインターレース様式で実行することが可能である。
拡張現実(AR)システム(100)においてオブジェクト認識を実行するための命令704を記憶しているコンピュータ可読記憶媒体のいくつかの例によれば、それぞれのノードを、局所光強度、反射特性、オブジェクトポーズ、オクルージョン、および/または背景変動を含む1つもしくは複数の特徴と関連付けることが可能である。
本開示は、拡張現実(AR)システムにおいてオブジェクト認識を実行するためのシステムをさらに説明する。拡張現実(AR)システムにおいてオブジェクト認識を実行するためのシステムは、実シーン102の二次元(2D)画像224を取り込むように適合された少なくとも1つのセンサ104と、2D画像224を、それぞれが特徴検出器のセットを含む、画像領域内のノードの2Dアレイを含む画像領域表現に変換する(622)ように適合された画像処理サーバ106とを含むことが可能である。拡張現実(AR)システムにおいてオブジェクト認識を実行するためのシステムは、画像領域内のそれぞれのノードに関する少なくとも1つの特徴の活動ベクトルを表す頂点ラベル344を決定することと、画像領域のノード同士の間の接続性を表すエッジラベル346を決定すること、頂点ラベルとエッジラベルとに基づいて、画像領域内の属性付きグラフ348とモデル領域内の別の属性付きグラフ350とを画定することと、画像領域内のノードとモデル領域内の対応するノードとの間のリンクを識別および活性化すること(632)と、類似の特徴を備えたノード同士の間のいくつかの接続を削減すること(634)とを行うように適合された現実サーバ110を含むことも可能である。拡張現実(AR)システムにおいてオブジェクト認識を実行するためのシステムは、画像領域内の属性付きグラフと画像領域内の他の属性付きグラフとの間の削減された接続に基づいて、2D画像224とレンダリングされた仮想画像とをオーバーレイすることによって、拡張シーン114を生成するように適合された画像生成サーバ108を含むことも可能である。
いくつかの例によれば、拡張現実(AR)システムにおいてオブジェクト認識を実行するためのシステムは、モデル領域内の属性付きグラフを連想データ記憶装置352内に記憶するようにさらに適合可能である。
いくつかの例によれば、拡張現実(AR)システムにおいてオブジェクト認識を実行するためのシステムは、属性付きグラフの実質的にすべてのノード同士の間の近似的な近傍保存および特徴タイプ保存写像を決定することによって、画像領域内のノードとモデル領域内の対応するノードとの間リンクを識別および活性化すること(632)と、接続をトポロジ保存接続に削減すること(634)とを行うようにさらに適合可能である。
拡張現実(AR)システムにおいてオブジェクト認識を実行するためのシステムのいくつかの例によれば、画像処理サーバ106、現実サーバ110、および画像生成サーバ108は、集中ARシステムおよび分散型ARシステムのうちの1つの一部であってもよい。
いくつかの例によれば、拡張現実(AR)システムにおいてオブジェクト認識を実行するためのシステムは、拡張シーン114を可視化するように適合された可視化システム112をさらに含むことが可能であり、この場合、この可視化システムは、ヘッドマウントディスプレイ、バーチャル網膜ディスプレイ、および/またはモニタのうちの1つもしくは複数を含むことが可能である。
システムの側面でのハードウェアの実装形態とソフトウェアの実装形態との間には、ほとんど相違が残されていない。ハードウェアまたはソフトウェアの使用は、一般に(いつもそうではないが、ある状況ではハードウェアとソフトウェアの間の選択が重要になり得るという点で)コスト対効果のトレードオフを表す設計上の選択である。本明細書に記載された、プロセスおよび/またはシステムおよび/または他の技術をもたらすことができるさまざまな達成手段があり(たとえば、ハードウェア、ソフトウェア、および/またはファームウェア)、好ましい達成手段は、プロセスおよび/またはシステムおよび/または他の技術が導入される状況によって異なる。たとえば、実装者が速度と正確性が最も重要であると決定すると、実装者は主にハードウェアおよび/またはファームウェアの達成手段を選択することができる。フレキシビリティが最も重要なら、実装者は主にソフトウェアの実装形態を選択することができる。または、さらに別の代替案として、実装者は、ハードウェア、ソフトウェア、および/またはファームウェアのなんらかの組み合わせを選択することができる。
前述の詳細な説明では、ブロック図、フローチャート、および/または例の使用によって、装置および/またはプロセスのさまざまな実施形態を説明してきた。そのようなブロック図、フローチャート、および/または例が1つまたは複数の機能および/または動作を含む限りにおいて、そのようなブロック図、フローチャート、または例の中のそれぞれの機能および/または動作は、広範囲のハードウェア、ソフトウェア、ファームウェア、または実質上それらのすべての組み合わせにより、個別におよび/または集合的に実装可能であることが、当業者には理解されるであろう。ある実施形態では、本明細書に記載された主題のいくつかの部分は、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタルシグナルプロセッサ(DSP)、または他の集積化方式によって実装することができる。しかし、本明細書で開示された実施形態のいくつかの態様が、全体においてまたは一部において、1つまたは複数のコンピュータ上で動作する1つまたは複数のコンピュータプログラムとして(たとえば、1つまたは複数のコンピュータシステム上で動作する1つまたは複数のプログラムとして)、1つまたは複数のプロセッサ上で動作する1つまたは複数のプログラムとして(たとえば、1つまたは複数のマイクロプロセッサ上で動作する1つまたは複数のプログラムとして)、ファームウェアとして、あるいは実質上それらの任意の組み合わせとして、等価に集積回路に実装することができることを、当業者は認識するであろうし、電気回路の設計ならびに/またはソフトウェアおよび/もしくはファームウェアのコーディングが、本開示に照らして十分当業者の技能の範囲内であることを、当業者は認識するであろう。
本開示は、さまざまな態様の例示として意図される、本明細書で説明された特定の実施形態の点で限定されるべきではない。当業者に明らかになるように、その趣旨および範囲から逸脱せずに、多くの修正および改変を行うことが可能である。本明細書に列挙された方法および装置に加えて、本開示の範囲内の機能的に同等の方法および装置は、前述の説明から当業者に明らかになるであろう。そのような修正および改変は、添付の請求項の範囲に包含されることが意図される。本開示は、添付の請求項が資格を有する同等物の完全範囲と共に、そのような請求項の点でのみ限定されるべきである。本開示は、当然異なり得る特定の方法、試薬、化合物生成または生物系に限定されない点を理解されたい。本明細書で使用される専門用語は、特定の実施形態を説明するためだけであり、限定することが意図されない点も理解されたい。
さらに、本明細書に記載された主題のメカニズムをさまざまな形式のプログラム製品として配布することができることを、当業者は理解するであろうし、本明細書に記載された主題の例示的な実施形態が、実際に配布を実行するために使用される信号伝達媒体の特定のタイプにかかわらず適用されることを、当業者は理解するであろう。信号伝達媒体の例には、フロッピーディスク、ハードディスクドライブ、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、デジタルテープ、コンピュータメモリ、などの記録可能なタイプの媒体、ならびに、デジタル通信媒体および/またはアナログ通信媒体(たとえば、光ファイバケーブル、導波管、有線通信リンク、無線通信リンクなど)の通信タイプの媒体が含まれるが、それらには限定されない。
本明細書で説明したやり方で装置および/またはプロセスを記載し、その後そのように記載された装置および/またはプロセスを、データ処理システムに統合するためにエンジニアリング方式を使用することは、当技術分野で一般的であることを当業者は認識するであろう。すなわち、本明細書に記載された装置および/またはプロセスの少なくとも一部を、妥当な数の実験によってデータ処理システムに統合することができる。通常のデータ処理システムは、一般に、システムユニットハウジング、ビデオディスプレイ装置、揮発性メモリおよび不揮発性メモリなどのメモリ、マイクロプロセッサおよびデジタル信号プロセッサなどのプロセッサ、オペレーティングシステムなどの計算実体、ドライバ、グラフィカルユーザインタフェース、およびアプリケーションプログラムのうちの1つもしくは複数、タッチパッドもしくはスクリーンなどの1つもしくは複数の相互作用装置、ならびに/またはフィードバックループおよびコントロールモータを含むコントロールシステム(たとえば、ガントリーシステムの位置検知用および/もしくは速度検知用フィードバック、コンポーネントの移動用および/もしくは数量の調整用コントロールモータ)を含むことを、当業者は理解するであろう。
通常のデータ処理システムは、データコンピューティング/通信システムおよび/またはネットワークコンピューティング/通信システムの中に通常見られるコンポーネントなどの、市販の適切なコンポーネントを利用して実装することができる。本明細書に記載された主題は、さまざまなコンポーネントをしばしば例示しており、これらのコンポーネントは、他のさまざまなコンポーネントに包含されるか、または他のさまざまなコンポーネントに接続される。そのように図示されたアーキテクチャは、単に例示にすぎず、実際には、同じ機能を実現する多くの他のアーキテクチャが実装可能であることが理解されよう。概念的な意味で、同じ機能を実現するコンポーネントの任意の構成は、所望の機能が実現されるように効果的に「関連付け」される。したがって、特定の機能を実現するために組み合わされた、本明細書における任意の2つのコンポーネントは、アーキテクチャまたは中間のコンポーネントにかかわらず、所望の機能が実現されるように、お互いに「関連付け」されていると見ることができる。同様に、そのように関連付けされた任意の2つのコンポーネントは、所望の機能を実現するために、互いに「動作可能に接続」または「動作可能に結合」されていると見なすこともでき、そのように関連付け可能な任意の2つのコンポーネントは、所望の機能を実現するために、互いに「動作可能に結合できる」と見なすこともできる。動作可能に結合できる場合の具体例には、物理的に接続可能な、および/もしくは物理的に相互作用するコンポーネント、ならびに/またはワイヤレスに相互作用可能な、および/もしくはワイヤレスに相互作用するコンポーネント、ならびに/または論理的に相互作用する、および/もしくは論理的に相互作用可能なコンポーネントが含まれるが、それらに限定されない。
本明細書における実質的にすべての複数形および/または単数形の用語の使用に対して、当業者は、状況および/または用途に適切なように、複数形から単数形に、および/または単数形から複数形に変換することができる。さまざまな単数形/複数形の置き換えは、理解しやすいように、本明細書で明確に説明することができる。
通常、本明細書において、特に添付の特許請求の範囲(たとえば、添付の特許請求の範囲の本体部)において使用される用語は、全体を通じて「オープンな(open)」用語として意図されていることが、当業者には理解されよう(たとえば、用語「含む(including)」は、「含むがそれに限定されない(including but not limited to)」と解釈されるべきであり、用語「有する(having)」は、「少なくとも有する(having at least)」と解釈されるべきであり、用語「含む(includes)」は、「含むがそれに限定されない(includes but is not limited to)」と解釈されるべきである、など)。導入される請求項で具体的な数の記載が意図される場合、そのような意図は、当該請求項において明示的に記載されることになり、そのような記載がない場合、そのような意図は存在しないことが、当業者にはさらに理解されよう。たとえば、理解の一助として、添付の特許請求の範囲は、導入句「少なくとも1つの(at least one)」および「1つまたは複数の(one or more)」を使用して請求項の記載を導くことを含む場合がある。しかし、そのような句の使用は、同一の請求項が、導入句「1つまたは複数の」または「少なくとも1つの」および「a」または「an」などの不定冠詞を含む場合であっても、不定冠詞「a」または「an」による請求項の記載の導入が、そのように導入される請求項の記載を含む任意の特定の請求項を、単に1つのそのような記載を含む実施形態に限定する、ということを示唆していると解釈されるべきではない(たとえば、「a」および/または「an」は、「少なくとも1つの」または「1つまたは複数の」を意味すると解釈されるべきである)。同じことが、請求項の記載を導入するのに使用される定冠詞の使用にも当てはまる。また、導入される請求項の記載で具体的な数が明示的に記載されている場合でも、そのような記載は、少なくとも記載された数を意味すると解釈されるべきであることが、当業者には理解されよう(たとえば、他の修飾語なしでの「2つの記載(two recitations)」の単なる記載は、少なくとも2つの記載、または2つ以上の記載を意味する)。
さらに、「A、BおよびC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(たとえば、「A、B、およびCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。「A、B、またはC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(たとえば、「A、B、またはCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。2つ以上の代替用語を提示する事実上いかなる離接する語および/または句も、明細書、特許請求の範囲、または図面のどこにあっても、当該用語の一方(one of the terms)、当該用語のいずれか(either of the terms)、または両方の用語(both terms)を含む可能性を企図すると理解されるべきであることが、当業者にはさらに理解されよう。たとえば、句「AまたはB」は、「A」または「B」あるいは「AおよびB」の可能性を含むことが理解されよう。
さらに、本開示の特徴または態様がマーカッシュグループによって記載されている場合、本開示は、それによって、マーカッシュグループの任意の個々の要素または要素のサブグループによっても説明されることを当業者は認識されよう。
当業者が理解することになるように、明細書を提供することに関してなど、なんらかのあらゆる目的で、本明細書で開示されたすべての範囲は、任意のあらゆる可能な部分範囲およびその部分範囲の組み合わせも包含する。任意の列挙された範囲は、同じ範囲が少なくとも等しい半分、3分の1、4分の1、5分の1、10分の1などに分解されていることを十分に説明し、これを可能にするとして容易に理解されよう。非限定的な例として、本明細書で議論されたそれぞれの範囲は、下3分の1、中3分の1、および上3分の1などに容易に分解可能である。やはり当業者が理解することになるように、「最高で」、「少なくとも」、「以上」、「以下」など、すべての言語は、列挙される数を含み、上で議論されたように後で部分範囲に分解され得る範囲を指す。最後に、当業者が理解することになるように、範囲はそれぞれの個々の要素を含む。したがって、たとえば、1〜3個のセルを有するグループは、1個のセルを有するグループ、2個のセルを有するグループ、または3個のセルを有するグループを指す。同様に、1〜5個のセルを有するグループは、1個のセルを有するグループ、2個のセルを有するグループ、3個のセルを有するグループ、4個のセルを有するグループ、または5個のセルを有するグループを指す、等々である。
さまざまな態様および実施形態が本明細書において開示されているが、その他の態様および実施形態は当業者に明らかになるであろう。本明細書で開示されたさまざまな態様および実施形態は、例示のためであり、限定的であることが意図されず、真の範囲および趣旨は、以下の請求項によって示されている。

Claims (25)

  1. 拡張現実(AR)システムにおいてオブジェクト認識を実行するための方法であって、
    オブジェクトの二次元画像を画像領域表現に変換することと、
    前記画像領域表現のノード同士の間のリンクに基づいて、前記画像領域内の属性付きグラフを画定することと、
    モデル領域内の別の属性付きグラフを画定することと、
    前記モデル領域内のそれぞれのノードに関する変動画像のセットに時間平均化を適用することによって、前記モデル領域内の前記ノードに関する実際の属性値を推定することと、
    前記属性付きグラフの対応するノード同士の間のリンクを識別および活性化することによって、前記画像領域内の前記属性付きグラフと前記モデル領域内の前記属性付きグラフとをマッチングさせることとを含む方法。
  2. 前記画像領域内の前記属性付きグラフと前記モデル領域内の前記属性付きグラフとの間のいくつかの接続を削減することと、
    前記削減された接続に基づくパターンを前記二次元画像のモデル領域表現にバックラベリングすることと
    をさらに備える、請求項1に記載の方法。
  3. 前記二次元画像を前記モデル領域表現とオーバーレイすることによって、合成画像をレンダリングすること
    をさらに備える、請求項2に記載の方法。
  4. 前記画像領域表現内のそれぞれのノードに関連する特徴を決定することと、
    前記特徴を前記二次元画像の画素に適用することによって、前記画像領域表現内のそれぞれのノードに関する局所特徴の活動ベクトルを表す頂点ラベルを取得することと
    をさらに備える、請求項1に記載の方法。
  5. 前記画像領域表現の前記ノード同士の間にリンクを確立することによって、前記画像領域表現の前記ノード同士の間の接続性を表すエッジラベルを取得すること
    をさらに備える、請求項4に記載の方法。
  6. 前記画像領域内の前記属性付きグラフが、前記画像領域表現内の前記ノード、ならびに関連する頂点レベルおよびエッジラベルの集合物として画定される、請求項5に記載の方法。
  7. 前記モデル領域内のノード同士の間の結合を時間相関として符号化すること
    をさらに備える、請求項1に記載の方法。
  8. 前記符号化された結合に基づいて、重みを計算して、前記モデル領域内の前記ノード同士の間のリンクに割り当てること
    をさらに備える、請求項7に記載の方法。
  9. 拡張現実(AR)システムにおいてオブジェクト認識を実行するための装置であって、
    画像データとグラフデータとを記憶するように適合されたメモリと、
    動的モデリングモジュールを実行するように適合された第1の処理装置であって、前記動的モデリングモジュールが、
    二次元(2D)画像を前記記憶された画像データから、それぞれが画像領域内の少なくとも1つの別個の特徴を符号化するリンクされたノードの2Dアレイを含む画像領域表現に変換することと、
    前記画像領域内のそれぞれのノードに関する前記少なくとも1つの特徴の活動ベクトルを表す頂点ラベルを決定することと、
    前記画像領域の前記ノード同士の間の接続性を表すエッジラベルを決定することと、
    前記頂点ラベルおよび/または前記エッジラベルのうちの1つもしくは複数に基づいてモデル領域内の属性付きグラフを画定することであって、前記属性付きグラフが前記グラフデータの一部として前記メモリ内に記憶されていることと
    を行うように適合された第1の処理装置と、
    グラフマッチングモジュールを実行するように適合された第2の処理装置であって、前記グラフマッチングモジュールが、
    前記モデル領域内のそれぞれのノードに関する変動画像のセットに時間平均化を適用することによって、前記モデル領域内の前記ノードに関する実際の属性値を推定することと、
    前記画像領域内の前記ノードと前記モデル領域内の対応するノードとの間のリンクを識別および活性化することと、
    ノード同士の間のいくつかの接続を削減することと
    を行うように適合された第2の処理装置とを備える装置。
  10. 前記動的モデリングモジュールが、
    前記画像領域内の前記ノードをグループ化して、選択的に活性化するようにさらに適合された、請求項9に記載の装置。
  11. 前記グラフマッチングモジュールが、
    前記メモリから接続パターンを取り出すことと、
    前記メモリから取り出された前記接続パターンを備えた頂点位置に関する検索を実行することとによって、前記画像領域内の前記ノードと前記モデル領域内の前記ノードとの間の前記リンクを識別および活性化するようにさらに適合された、請求項9に記載の装置。
  12. 前記グラフマッチングモジュールが、
    事前に画定された費用関数に従って、前記頂点ラベルと前記エッジラベルとをマッチングさせるようにさらに適合された、請求項11に記載の装置。
  13. レンダリングモジュールを実行するように適合された第3の処理装置であって、前記レンダリングモジュールが、前記削減された接続に基づいて、前記二次元画像を前記画像のモデル領域表現とオーバーレイすることによって、合成画像をレンダリングするように適合された第3の処理装置
    をさらに備える、請求項9に記載の装置。
  14. 前記第1の処理装置、前記第2の処理装置、および前記第3の処理装置が、それぞれ、第1のコンピューティング装置内、第2のコンピューティング装置内、第3のコンピューティング装置内に統合され、前記第1のコンピューティング装置、前記第2のコンピューティング装置、および前記第3のコンピューティング装置が、ネットワークを介して通信可能である、請求項13に記載の装置。
  15. 前記第1の処理装置、前記第2の処理装置、および前記第3の処理装置が、同じプロセッサの一部である、 請求項13に記載の装置。
  16. 拡張現実(AR)システムにおいてオブジェクト認識を実行するための命令を記憶しているコンピュータ可読記憶媒体であって、前記命令は、前記ARシステムに、
    オブジェクトの二次元画像を、それぞれが特徴検出器のセットを含む複数のリンクされたノードを含む画像領域表現に変換することと、
    前記特徴検出器を前記二次元画像のそれぞれの画素に適用することによって、前記特徴検出器の活動ベクトルを表す頂点ラベルを決定することと、
    それぞれのノード同士の間のリンクを検出することによって、前記ノード同士の間の接続性を表すエッジラベルを決定することと、
    前記頂点ラベルと前記エッジラベルとに基づいて、前記画像領域内の属性付きグラフを生成することと、
    モデル領域内の属性付きグラフを画定することと、
    前記属性付きグラフの頂点ラベルとエッジラベルとをマッチングさせることに基づいて、前記画像領域内の前記属性付きグラフと前記モデル領域内の前記属性付きグラフとの間の接続を決定することと、
    前記接続を前記画像領域と前記モデル領域との間のトポロジ保存写像に削減することとを実行させるためのものである、コンピュータ可読記憶媒体。
  17. 前記命令は、前記ARシステムに
    前記写像された接続に基づいてパターンを認識することと、
    前記認識されたパターンに基づいて、仮想画像を生成することと、
    前記二次元画像と前記仮想画像とをオーバーレイすることに基づいて、合成画像を生成することとをさらに実行させるためのものである、請求項16に記載のコンピュータ可読記憶媒体。
  18. 前記命令は、前記ARシステムに
    頂点位置に関して検索して、事前に画定された費用関数に従って、それぞれの頂点位置に関する頂点ラベルとエッジラベルとの間のマッチを最適化することによって、前記画像領域内の前記属性付きグラフと前記モデル領域内の前記属性付きグラフとの間の前記接続を決定することをさらに実行させるためのものである、請求項16に記載のコンピュータ可読記憶媒体。
  19. 前記命令は、前記ARシステムに
    前記画像領域内のノード同士の間のリンクに割り当てられた重みに基づいて、それぞれ、前記画像領域内および前記モデル領域内の属性付きグラフの対に関する接続を決定することをさらに実行させるためのものである、請求項16に記載のコンピュータ可読記憶媒体。
  20. 前記画像領域内の前記属性付きグラフを生成することと、前記モデル領域内の前記属性付きグラフを画定することと、前記画像領域内の前記属性付きグラフと前記モデル領域内の前記属性付きグラフとの間の接続を決定することとが、インターレース方式で実行される、請求項16に記載のコンピュータ可読記憶媒体。
  21. それぞれのノードが、局所光強度、反射特性、オブジェクトポーズ、オクルージョン、および/または背景変動を含む1つもしくは複数の特徴と関連付けられる、請求項16に記載のコンピュータ可読記憶媒体。
  22. 拡張現実(AR)システムにおいてオブジェクト認識を実行するためのシステムであって、
    実シーンの二次元(2D)画像を取り込むように適合された少なくとも1つのセンサと、
    前記2D画像を、それぞれが特徴検出器のセットを含む、前記画像領域内のノードの2Dアレイを含む画像領域表現に変換するように適合された画像処理サーバと、
    前記画像領域内のそれぞれのノードに関する前記少なくとも1つの特徴の活動ベクトルを表す頂点ラベルを決定することと、
    前記画像領域の前記ノード同士の間の接続性を表すエッジラベルを決定することと、
    前記頂点ラベルと前記エッジラベルとに基づいて、前記画像領域内の属性付きグラフとモデル領域内の別の属性付きグラフとを画定することと、
    前記モデル領域内のそれぞれのノードに関する変動画像のセットに時間平均化を適用することによって、前記モデル領域内の前記ノードに関する実際の属性値を推定することと、
    前記画像領域内の前記ノードと前記モデル領域内の対応するノードとの間のリンクを識別および活性化することと、
    ノード同士の間のいくつかの接続を削減することと
    を行うように適合された現実サーバと、
    前記2D画像と、前記画像領域内の前記属性付きグラフと前記画像領域内の他の属性付きグラフとの間の前記削減された接続に基づいてレンダリングされた仮想画像とをオーバーレイすることによって、拡張シーンを生成するように適合された画像生成サーバとを備えたシステム。
  23. 前記現実サーバが、
    前記モデル領域内の前記属性付きグラフを連想データ記憶装置内に記憶するようにさらに適合された、請求項22に記載のシステム。
  24. 前記画像処理サーバ、前記現実サーバ、および前記画像生成サーバが、集中ARシステムおよび分散型ARシステムのうちの1つの一部である、請求項22に記載のシステム。
  25. 前記拡張シーンを可視化するように適合された可視化システムをさらに含み、前記可視化システムが、ヘッドマウントディスプレイ、バーチャル網膜ディスプレイ、および/またはモニタのうちの1つもしくは複数を含む、請求項22に記載のシステム。
JP2012543348A 2010-03-10 2011-02-25 拡張現実における動的モデリングによる頑強なオブジェクト認識 Active JP5520387B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/720,858 US8866845B2 (en) 2010-03-10 2010-03-10 Robust object recognition by dynamic modeling in augmented reality
US12/720,858 2010-03-10
PCT/US2011/026252 WO2011112368A2 (en) 2010-03-10 2011-02-25 Robust object recognition by dynamic modeling in augmented reality

Publications (2)

Publication Number Publication Date
JP2013513191A JP2013513191A (ja) 2013-04-18
JP5520387B2 true JP5520387B2 (ja) 2014-06-11

Family

ID=44559533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012543348A Active JP5520387B2 (ja) 2010-03-10 2011-02-25 拡張現実における動的モデリングによる頑強なオブジェクト認識

Country Status (5)

Country Link
US (1) US8866845B2 (ja)
JP (1) JP5520387B2 (ja)
KR (1) KR101453630B1 (ja)
CN (1) CN102656595B (ja)
WO (1) WO2011112368A2 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866845B2 (en) 2010-03-10 2014-10-21 Empire Technology Development Llc Robust object recognition by dynamic modeling in augmented reality
US8724911B2 (en) * 2010-09-16 2014-05-13 Palo Alto Research Center Incorporated Graph lattice method for image clustering, classification, and repeated structure finding
US8872828B2 (en) 2010-09-16 2014-10-28 Palo Alto Research Center Incorporated Method for generating a graph lattice from a corpus of one or more data graphs
US8666114B2 (en) 2011-12-01 2014-03-04 Honeywell International Inc. System and method for geospatial partitioning of a geographical region
CN103577788A (zh) * 2012-07-19 2014-02-12 华为终端有限公司 增强现实的实现方法和装置
US9165068B2 (en) * 2012-08-03 2015-10-20 Adobe Systems Incorporated Techniques for cloud-based similarity searches
US9286727B2 (en) * 2013-03-25 2016-03-15 Qualcomm Incorporated System and method for presenting true product dimensions within an augmented real-world setting
JP6323451B2 (ja) * 2013-05-28 2018-05-16 コニカミノルタ株式会社 画像処理装置及びプログラム
US10137361B2 (en) * 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
WO2014206475A1 (en) 2013-06-27 2014-12-31 Longsand Limited Augmented reality
US9036044B1 (en) * 2013-07-22 2015-05-19 Google Inc. Adjusting camera parameters associated with a plurality of images
US9996974B2 (en) * 2013-08-30 2018-06-12 Qualcomm Incorporated Method and apparatus for representing a physical scene
CN103455982A (zh) * 2013-08-31 2013-12-18 四川川大智胜软件股份有限公司 一种基于虚实融合机场场面监视视觉增强的方法
US9934611B2 (en) * 2013-09-11 2018-04-03 Qualcomm Incorporated Structural modeling using depth sensors
US9541996B1 (en) * 2014-02-28 2017-01-10 Google Inc. Image-recognition based game
WO2015131206A1 (en) * 2014-02-28 2015-09-03 Nant Vision, Inc. Object recognition trait analysis systems and methods
CN103929605B (zh) * 2014-04-01 2018-06-08 北京智谷睿拓技术服务有限公司 图像呈现控制方法及图像呈现控制装置
US11017311B2 (en) 2014-06-30 2021-05-25 Hewlett Packard Enterprise Development Lp Dataset augmentation based on occlusion and inpainting
US9852359B2 (en) * 2015-09-14 2017-12-26 International Business Machines Corporation System, method, and recording medium for efficient cohesive subgraph identification in entity collections for inlier and outlier detection
EP3335070B1 (en) * 2015-09-30 2020-11-25 Sony Interactive Entertainment Inc. Methods for optimizing positioning of content on a screen of a head mounted display
US10521410B2 (en) * 2015-11-20 2019-12-31 International Business Machines Corporation Semantic graph augmentation for domain adaptation
US9846970B2 (en) * 2015-12-16 2017-12-19 Intel Corporation Transitioning augmented reality objects in physical and digital environments
CN106408663B (zh) * 2016-08-30 2019-02-22 深圳市彬讯科技有限公司 一种增强现实应用模型真实度的方法及系统
IT201600122898A1 (it) * 2016-12-02 2018-06-02 Ecole Polytechnique Fed Lausanne Epfl Metodi e apparati per codificare e decodificare immagini o flussi video digitali
KR102061408B1 (ko) * 2017-03-24 2019-12-31 (주)제이엘케이인스펙션 가상 3차원 심층 신경망을 이용하는 영상 분석 장치 및 방법
US10991120B2 (en) 2017-11-14 2021-04-27 Samsung Electronics Co., Ltd. Method and apparatus for processing a plurality of undirected graphs
US11829851B2 (en) 2018-03-13 2023-11-28 Sony Corporation Information processor, mobile device, and method and program thereof
CN109241844B (zh) * 2018-08-03 2020-11-17 百度在线网络技术(北京)有限公司 三维物体的姿态估计方法、装置、设备及存储介质
US11074260B2 (en) * 2018-09-04 2021-07-27 Oracle International Corporation Space-efficient methodology for representing label information in large graph data for fast distributed graph query
KR102118519B1 (ko) * 2018-11-22 2020-06-15 삼성전자주식회사 전자 장치 및 그 제어 방법
CN110796673B (zh) * 2019-10-31 2023-02-24 Oppo广东移动通信有限公司 图像分割方法及相关产品
CN110719493A (zh) * 2019-11-07 2020-01-21 广州虎牙科技有限公司 弹幕显示方法、装置、电子设备及可读存储介质
CN111401330B (zh) * 2020-04-26 2023-10-17 四川自由健信息科技有限公司 教学系统及采用该教学系统的智能镜
CN111833454B (zh) * 2020-06-30 2023-11-28 北京市商汤科技开发有限公司 展示方法、装置、设备和计算机可读存储介质
CN114387414B (zh) * 2021-12-13 2024-03-19 武汉工程大学 一种月壤颗粒模型的生成方法、装置、电子设备及介质
CN116824151B (zh) * 2023-05-08 2024-04-16 北京邮电大学 图像特征的识别方法、装置、电子设备及介质

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5317425A (en) * 1992-02-10 1994-05-31 Eastman Kodak Company Technique for use in conjunction with an imaging system for providing an appearance match between two images and for calibrating the system thereto
US6222939B1 (en) * 1996-06-25 2001-04-24 Eyematic Interfaces, Inc. Labeled bunch graphs for image analysis
JP3661287B2 (ja) 1996-08-02 2005-06-15 富士ゼロックス株式会社 画像登録装置および方法
US6047078A (en) * 1997-10-03 2000-04-04 Digital Equipment Corporation Method for extracting a three-dimensional model using appearance-based constrained structure from motion
US6625299B1 (en) * 1998-04-08 2003-09-23 Jeffrey Meisner Augmented reality technology
US5974168A (en) * 1998-04-16 1999-10-26 International Business Machines Corporation Acquiring bump maps from curved objects
JP3791239B2 (ja) 1998-06-09 2006-06-28 松下電器産業株式会社 グラフ表現変換方法及びその装置、並びに自動配置方法及びその装置
US7827488B2 (en) * 2000-11-27 2010-11-02 Sitrick David H Image tracking and substitution system and methodology for audio-visual presentations
US7538764B2 (en) * 2001-01-05 2009-05-26 Interuniversitair Micro-Elektronica Centrum (Imec) System and method to obtain surface structures of multi-dimensional objects, and to represent those surface structures for animation, transmission and display
US7146048B2 (en) * 2001-08-13 2006-12-05 International Business Machines Corporation Representation of shapes for similarity measuring and indexing
JP2003281297A (ja) 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology 情報提示装置および情報提示方法
KR100587570B1 (ko) 2003-10-25 2006-06-08 삼성전자주식회사 그래프 정합기반의 얼굴 인식방법 및 장치
US7187809B2 (en) * 2004-06-10 2007-03-06 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
US7480414B2 (en) * 2004-10-14 2009-01-20 International Business Machines Corporation Method and apparatus for object normalization using object classification
WO2006056622A1 (es) 2004-11-19 2006-06-01 Daem Interactive, Sl Dispositivo personal con funciones de adquirir imágenes, para aplicación de recursos de realidad aumentada y método
US7623731B2 (en) * 2005-06-20 2009-11-24 Honda Motor Co., Ltd. Direct method for modeling non-rigid motion with thin plate spline transformation
US20070272644A1 (en) * 2006-05-25 2007-11-29 Mcdonald Alan Rodrick Heavy lift trailer crane
US8721991B2 (en) * 2006-06-08 2014-05-13 Amsilk Gmbh Microfluidic device for controlled aggregation of spider silk
US20090002489A1 (en) * 2007-06-29 2009-01-01 Fuji Xerox Co., Ltd. Efficient tracking multiple objects through occlusion
GB2452544A (en) * 2007-09-07 2009-03-11 Sony Corp Transforming an image to a model after identifying the best transform metric
TWI348659B (en) * 2007-10-29 2011-09-11 Ind Tech Res Inst Method and system for object detection and tracking
US8218817B2 (en) 2007-12-21 2012-07-10 Honda Motor Co. Ltd. Online articulate object tracking with appearance and shape
WO2009124151A2 (en) 2008-04-01 2009-10-08 University Of Southern California Video feed target tracking
US9824495B2 (en) 2008-09-11 2017-11-21 Apple Inc. Method and system for compositing an augmented reality scene
US8866845B2 (en) 2010-03-10 2014-10-21 Empire Technology Development Llc Robust object recognition by dynamic modeling in augmented reality

Also Published As

Publication number Publication date
KR101453630B1 (ko) 2014-10-22
US8866845B2 (en) 2014-10-21
CN102656595B (zh) 2014-10-01
WO2011112368A3 (en) 2012-01-19
US20110221769A1 (en) 2011-09-15
WO2011112368A2 (en) 2011-09-15
JP2013513191A (ja) 2013-04-18
CN102656595A (zh) 2012-09-05
KR20120093981A (ko) 2012-08-23

Similar Documents

Publication Publication Date Title
JP5520387B2 (ja) 拡張現実における動的モデリングによる頑強なオブジェクト認識
Liu et al. Generative adversarial networks for image and video synthesis: Algorithms and applications
WO2020192568A1 (zh) 人脸图像生成方法、装置、设备及存储介质
Saito et al. Real-time facial segmentation and performance capture from rgb input
Wang et al. Hmor: Hierarchical multi-person ordinal relations for monocular multi-person 3d pose estimation
Chaudhuri et al. Joint face detection and facial motion retargeting for multiple faces
CN115205949B (zh) 图像生成方法以及相关设备
JP2022503647A (ja) クロスドメイン画像変換
Saini et al. A review on particle swarm optimization algorithm and its variants to human motion tracking
RU2764144C1 (ru) Быстрый двухслойный нейросетевой синтез реалистичных изображений нейронного аватара по одному снимку
CN107851332A (zh) 经由拓扑知晓表面跟踪的一致细分
Huang et al. A review of 3D human body pose estimation and mesh recovery
Neverova Deep learning for human motion analysis
Yang et al. S3Net: A single stream structure for depth guided image relighting
Correia et al. 3D reconstruction of human bodies from single-view and multi-view images: A systematic review
Pesavento et al. Super-resolution 3D human shape from a single low-resolution image
Huang et al. InterCap: Joint Markerless 3D Tracking of Humans and Objects in Interaction from Multi-view RGB-D Images
Tu et al. Clothing-change person re-identification based on fusion of RGB modality and gait features
WO2021173489A1 (en) Apparatus, method, and system for providing a three-dimensional texture using uv representation
JP2022189901A (ja) 学習方法、学習装置、プログラムおよび記録媒体
Liu et al. Deep learning for 3D human pose estimation and mesh recovery: A survey
Wang et al. [Retracted] Convolution‐Based Design for Real‐Time Pose Recognition and Character Animation Generation
Molnár et al. Variational autoencoders for 3D data processing
Wang et al. Evaluation of hybrid deep learning and optimization method for 3D human pose and shape reconstruction in simulated depth images
CN115880766A (zh) 姿态迁移、姿态迁移模型训练方法、装置和存储介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140404

R150 Certificate of patent or registration of utility model

Ref document number: 5520387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250