JP5827445B2 - 拡張現実インタラクションを実現する方法およびシステム - Google Patents

拡張現実インタラクションを実現する方法およびシステム Download PDF

Info

Publication number
JP5827445B2
JP5827445B2 JP2015513001A JP2015513001A JP5827445B2 JP 5827445 B2 JP5827445 B2 JP 5827445B2 JP 2015513001 A JP2015513001 A JP 2015513001A JP 2015513001 A JP2015513001 A JP 2015513001A JP 5827445 B2 JP5827445 B2 JP 5827445B2
Authority
JP
Japan
Prior art keywords
image
template image
feature points
template
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015513001A
Other languages
English (en)
Other versions
JP2015524103A (ja
Inventor
リウ,シャオ
リウ,ハイロン
ホウ,ジエ
ラオ,フェン
ウー,ミンフイ
チェン,ボ
Original Assignee
テンセント テクノロジー (シェンジェン) カンパニー リミテッド
テンセント テクノロジー (シェンジェン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント テクノロジー (シェンジェン) カンパニー リミテッド, テンセント テクノロジー (シェンジェン) カンパニー リミテッド filed Critical テンセント テクノロジー (シェンジェン) カンパニー リミテッド
Publication of JP2015524103A publication Critical patent/JP2015524103A/ja
Application granted granted Critical
Publication of JP5827445B2 publication Critical patent/JP5827445B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明はシミュレーション技術に関し、特に拡張現実インタラクションを実現する方法およびシステムに関する。
拡張現実技術は、仮想情報を現実世界に適用するシミュレーション技術であり、現実環境の画像と仮想環境とを、リアルタイムで同一画面上で重畳する。拡張現実技術を利用して動作するあらゆる種類のアプリケーションでは、ユーザーは仮想環境に融合することができる。従来の拡張現実技術におけるインタラクションプロセスは、端末機器上で動作するあらゆる種類のクライアントで実現可能である。
例えば、特定のポスターをマーカーとして用いるとする。カメラを用いてマーカーの画像を撮影し、認識を実行して認識結果を得る。認識結果に基づき、該特定のポスターの内容に関連する映画の予告編を取得し、再生を実行する。拡張現実技術のインタラクションプロセスで用いる認識に関与するロジックは非常に複雑であり、様々なファイルが含まれるので、クライアントのボリュームが過剰になってしまう。よって、各種クライアントで実現される拡張現実技術のインタラクションアプリケーションでは、各インタラクションアプリケーションは単一のマーカーにしか対応できす、対応するクライアントでしか実現することができない。すなわち、各クライアントは一種類のマーカーにしか対応できず、異なるマーカーに対しては、対応するクライアントを指向的に開発する必要がある。単一のクライアントでは、複数のマーカーに対して拡張現実技術のインタラクションプロセスを実現することができず、ユーザーは複数のクライアントを繰り返しダウンロードしてインストールするしかなく、柔軟性に欠ける。
また、従来の拡張現実技術のインタラクションは、室内または屋外に設置される大型スクリーンに接続されたホストコンピューターによっても実現することができる。例えば、屋外の大型スクリーンでシャンプーの広告を再生する場合、視聴者が大型スクリーン前の特定の領域に立つと、該視聴者が有名人とダンスを習ったり写真を撮ったりする映像を、屋外の大型スクリーンで再生することができる。また、例えば、ある博物館において室内大型スクリーンの広告を発表する場合、特定の領域に立つ視聴者は、室内の大型スクリーンで恐竜や宇宙飛行士が自分のそばを通る映像を見ることができる。室内または屋外の大型スクリーンが接続されるホストコンピューターは、端末機器上で動作するクライアントに比べてバックグラウンドでの計算能力が高く、拡張現実技術のインタラクションプロセスにおける複雑なロジックを処理することができる。しかしながら、大型スクリーンとそれに接続するホストコンピューターにより実現される拡張現実技術のインタラクションも、使用上の制限により単一のマーカーのみを対象にしており、柔軟性に欠ける。
このような理由から、柔軟性を向上することができる拡張現実インタラクションを実現する方法を提供する。
更に、柔軟性を向上することができる拡張現実インタラクションを実現するシステムを提供する必要がある。
拡張現実インタラクションを実現する方法は、
フレーム画像を収集し、当該フレーム画像をアップロードするステップと、
認識を実行して該フレーム画像にマッチするテンプレート画像を得て、該テンプレート画像を返すステップと、
該テンプレート画像に基づいて該フレーム画像のマーカー領域を検出するステップと、
該テンプレート画像に対応するメディアデータを該マーカー領域に重畳し、重畳により得た画像を表示するステップと、
を含む。
拡張現実インタラクションを実現するシステムは、クライアントおよびサーバーを備える。該クライアントは、収集モジュール、検出モジュールおよび表示処理モジュールを有する。
該収集モジュールは、フレーム画像を収集し、当該フレーム画像をアップロードし、
該サーバーは、認識を実行して該フレーム画像にマッチするテンプレート画像を得て、当該テンプレート画像を返し、
検出モジュールは、該テンプレート画像に基づいて該フレーム画像のマーカー領域を検出し、
表示処理モジュールは、該テンプレート画像に対応するメディアデータを該マーカー領域に重畳し、重畳により得た画像を表示する。
上述の拡張現実インタラクションを実現する方法およびシステムでは、フレーム画像を収集した後にアップロードを実行し、アップロードされたフレーム画像に基づいて認識を行い、該フレーム画像にマッチするテンプレート画像を返す。返されたテンプレート画像に基づいてマーカー領域の検出を実行し、該マーカー領域にメディアデータを重畳し、重畳により得た画像を表示する。フレーム画像はリモートのサーバーへアップロードされて、テンプレート画像の認識とマッチングのプロセスが実行されるので、比較的複雑な認識とマッチングのプロセスをローカルで遂行する必要がなく、拡張現実インタラクションにおける認識能力を大いに向上することができる。各種マーカーを対象に等しくマッチするテンプレート画像を認識することができるので、柔軟性が大いに向上する。
一実施例における、拡張現実インタラクションを実現する方法のフローチャートである。 図1において、認識を実行してフレーム画像にマッチするテンプレート画像を得て、当該テンプレート画像を返す方法を示すフローチャートである。 図1において、テンプレート画像に基づいてフレーム画像のマーカー領域を検出する方法を示すフローチャートである。 別の一実施例における、拡張現実インタラクションを実現する方法を示すフローチャートである。 別の一実施例における、拡張現実インタラクションを実現する方法を示すフローチャートである。 別の一実施例における、拡張現実インタラクションを実現する方法を示すフローチャートである。 一実施例における、拡張現実インタラクションを実現するシステムの構成説明図である。 図7におけるサーバーの構成説明図である。 図7における検出モジュールの構成説明図である。 一実施例におけるクライアントの構成説明図である。 別の一実施例におけるサーバーの構成説明図である。 別の一実施例における、拡張現実インタラクションを実現するシステムの構成説明図である。
図1に示すように、一実施例における拡張現実インタラクションを実現する方法は、以下のステップを含む。
ステップS110において、フレーム画像を収集し、当該フレーム画像をアップロードする。
本実施例では、画像収集を実行してフレーム画像を得る。フレーム画像は、2次元形式であっても3次元形式であってもよく、画像収集プロセスで得られる映像ストリームに対応する画像シーケンスのうちの1画像であってよい。例えば、継続的に画像収集を実行して映像ストリームを取得する。映像ストリームは画像シーケンスにより形成されるものであり、すなわち、画像シーケンスにはいくつかのフレーム画像が含まれる。収集されサーバーにアップロードされるフレーム画像は、すなわち、画像シーケンスにおいて収集されている画像である。
ステップS130において、認識を実行してフレーム画像にマッチするテンプレート画像を得て、当該テンプレート画像を返す。
本実施例では、いくつかの異なるテンプレート画像が予め記憶され、予め記憶されたテンプレート画像から、アップロードされたフレーム画像にマッチするテンプレート画像が認識される。フレーム画像に基づくテンプレート画像の認識は、SIFT(Scale-Invariant Feature Transformation)のパターン認識アルゴリズム等の認識アルゴリズムを用いて行われてよい。例えば、フレーム画像が映画XXのポスター画像である場合、予め記憶されるテンプレート画像には、数百枚の映画ポスターの画像が含まれる。このとき、記憶されたテンプレート画像を認識することにより、記憶されたテンプレート画像から、映画XXのポスター画像が得られる。この認識により得られたポスター画像が、フレーム画像にマッチするテンプレート画像である。フレーム画像にマッチするテンプレート画像を認識により得た後、サーバーは、フレーム画像をアップロードしたクライアントに対し、認識により得られたテンプレート画像を返す。
ステップS150において、テンプレート画像に基づいて、フレーム画像のマーカー領域を検出する。
本実施例では、画像収集プロセスにおいてマーカー物の撮影を実行し、該マーカー物のフレーム画像を得る。マーカー物がフレーム画像内に形成する領域が、マーカー領域である。テンプレート画像はフレーム画像内のマーカー領域の検出に用いられ、テンプレート画像にはマーカー物の画像も存在する。フレーム画像のマーカー領域の検出プロセスにおいて、テンプレート画像とフレーム画像を比較することにより、フレーム画像のマーカー領域を得ることができる。更に、テンプレート画像においてマーカー領域を形成する点を予め記録し、記録された点を用いて、比較的速くフレーム画像内のマーカー領域を得ることができる。
ステップS170において、テンプレート画像に対応するメディアデータをマーカー領域に重畳し、重畳により得た画像を表示する。
本実施例では、メディアデータはテンプレート画像に対応するものであり、映像ストリームであってもよいし、3次元の映像モデルであってもよい。例えば、テンプレート画像が映画ポスターである場合、メディアデータは該映画の再生ファイルである。メディアデータをマーカー領域に重畳し、重畳により得た画像を表示するプロセスにおいて、メディアデータの再生が仮想環境を構成し、マーカー領域を除く一連のフレーム画像が現実環境を構成することで、拡張現実の効果が実現される。
図2に示すように、一実施例では、上述のステップS130の具体的なプロセスは、以下のステップを含む。
ステップS131において、アップロードされたフレーム画像の属性情報を取得する。
本実施例では、アップロードされたフレーム画像の属性情報は、フレーム画像に関連する明細情報の記録に用いられる。一実施例では、属性情報には、ユーザー情報および機器情報が含まれる。ユーザー情報はユーザーが登録した個人認識情報であり、例えば性別、年齢、教育背景、趣味等が挙げられる。機器情報は、ユーザーがフレーム画像をアップロードする際に使用するハードウェア機器から返される情報である。例えば、ユーザーがあるモバイル端末を使用してサーバーにフレーム画像をアップロードする場合、機器情報には、GPS地理情報、機器メーカー、ネットワーク環境等が含まれる。
ステップS133において、属性情報に基づき、記憶されたテンプレート画像においてマッチング範囲を限定する。
本実施例では、属性情報を用いて、記憶された複数のテンプレート画像に基づき、範囲の限定を実行する。例えば、属性情報の記録において、フレーム画像をアップロードしたユーザーが女性であり、GPS地理情報が北京である場合、マッチング範囲は、女性と北京に関連するテンプレート画像に限定される。具体的には、記憶されたテンプレート画像に、化粧品広告の画像と、髭剃り広告の画像と、北京でのコンサートの画像と、上海でのコンサートの画像とが存在する場合、マッチング範囲にあるテンプレート画像は、化粧品広告の画像および北京でのコンサートの画像である。マッチング範囲を限定することにより、フレーム画像にマッチするテンプレート画像を速く取得することができ、また、マッチング精度を向上することができる。
ステップS135において、マッチング範囲にあるテンプレート画像を検索し、フレーム画像が検索されたテンプレート画像とマッチするかを判定する。マッチする場合はステップS137に入り、マッチしない場合はステップS110に戻る。
本実施例では、マッチング範囲にあるテンプレート画像ひとつひとつに対して検索を実行し、フレーム画像にマッチするテンプレート画像を取得し、検索して得られたテンプレート画像を、フレーム画像をアップロードしたユーザーへ返す。
ステップS137において、検索されたテンプレート画像を返す。
図3に示すように、一実施例では、上述のステップS150の具体的なプロセスは、以下のステップを含む。
ステップS151において、テンプレート画像に対応する訓練データに基づいて、フレーム画像内の特徴点を得る。
本実施例では、訓練データにより、テンプレート画像内のマーカー領域の特徴点が記録される。テンプレート画像内のマーカー領域は、一連の特徴点を用いて標識することができる。テンプレート画像はフレーム画像にマッチするので、訓練データに記録される特徴点を用いて、フレーム画像内でマーカー領域を標識するのに用いられる特徴点を取得することができる。すなわち、訓練データに記録される特徴点とフレーム画像内の特徴点は、互いにマッチする特徴点ペアである。
ステップS153において、特徴点を用いて、フレーム画像内のマーカー領域の輪郭位置を取得する。
本実施例では、フレーム画像内の一連の特徴点を用いて、フレーム画像内のマーカー領域の輪郭位置が得られる。そして、輪郭位置を用いて、マーカー領域の輪郭とフレーム画像内の座標とを取得する。
上述のマーカー領域の取得プロセスは、クライアントで処理が実行されるが、これに限定されるものではなく、サーバーで処理が実行されてもよい。
図4に示すように、別の一実施例では、上述のステップS150の前に以下のステップが含まれる。
ステップS210において、ローカルファイル内にテンプレート画像に対応する訓練データおよびメディアデータが存在するかを判定する。存在しない場合はステップS230に入り、存在する場合はステップS250に入る。
本実施例では、ローカルファイルは、クライアントでローカルに記憶されるファイルである。フレーム画像のマーカー領域を取得した後、テンプレート画像に対応する訓練データおよびメディアデータがクライアントにおいてローカルに存在するかを判定する。存在しない場合は、サーバーから訓練データおよびメディアデータをダウンロードする必要がある。訓練データおよびメディアデータがクライアントにおいてローカルに存在する場合は、直接ロードが実行される。
ステップS230において、訓練データおよびメディアデータをダウンロードする。
本実施例では、ダウンロードが完了した後、ユーザーにより、マーカー領域の検出とメディアデータの重畳および再生とが実行されてよい。また、訓練データおよびメディアデータのストリーミングデータの伝送プロセスにおいて、伝送と同時に後続の処理が実行されてよい。
ステップS250において、訓練データおよびメディアデータをロードする。
図5に示すように、別の一実施例では、上述のステップS150の前に以下のステップが含まれる。
ステップS310において、記憶されたテンプレート画像に対して検出を実行して特徴点を得て、特徴点の数が閾値未満であるかを判定する。閾値未満でない場合はステップS330に入り、閾値未満である場合はプロセスを終了する。
本実施例では、テンプレート画像に基づいてフレーム画像のマーカー領域の検出を実行する際、該テンプレート画像に対応する特徴点を用いて、フレーム画像内の特徴点を得る。テンプレート画像は、サーバーが収集し保存する画像およびユーザーがアップロードし保存する画像である。テンプレート画像として保存される画像に関して、それに対応する訓練データおよびメディアデータがサーバーに記憶されるデータ中に存在しない場合、テンプレート画像に対して訓練を実行して訓練データを得て、また、テンプレート画像とメディアデータとの対応関係を確立する必要がある。テンプレート画像に対する訓練は、サーバーで実行されてもよいし、クライアントで実行されてもよい。しかしながら、サーバーでテンプレート画像の訓練を実行することが好ましく、これによりクライアントを軽くすることができる。
テンプレート画像に対し訓練を実行するプロセスにおいて、テンプレート画像として保存される画像に対し、特徴点検出アルゴリズムを用いて検出を実行し、画像内の特徴点を得る必要がある。特征検出アルゴリズムは、FAST(Features from Accelerated Segment Test)特徴点検出アルゴリズムであってもよいし、類似のSURF(Speeded Up Robust Features)特徴点検出アルゴリズムであってもよいし、その他の特徴点検出アルゴリズムであってもよく、ここに逐一列挙することはしない。
テンプレート画像内の特徴点を得た後、特徴点の数がフレーム画像のマーカー領域の検出に十分であるかを判定し、テンプレート画像の有効性を保証する必要がある。好ましい実施例では、閾値として100が選択される。
ステップS330において、テンプレート画像に対応する見本画像を取得し、見本画像内の特徴点を検出して得る。
本実施例では、特徴点検出の正確性を保証するために、テンプレート画像に対応するいくつかの見本画像を取得し、特徴点の検出を実行し、特徴点のロバスト性を保証する。見本画像は、テンプレート画像に対応し、回転角度および/または縮尺が異なる各種画像である。例えば、360度に対し各10度に回転角度を設定すると、36個の回転角度が得られる。毎回0.8の縮尺で7個の縮尺レベルとすると、合計で36×7=252個の、回転角度および縮尺が異なる見本画像が得られる。各見本画像に対して、等しく特徴点の検出が実行される。
ステップS350において、テンプレート画像内および見本画像内の特徴点を処理し、特徴点を記録する訓練データを生成する。
本実施例では、テンプレート画像の特徴点と見本画像の特徴点とを統合し、特徴点を記録する訓練データを生成する。具体的には、テンプレート画像内と見本画像内の同じ特徴点を統合して1つの特徴点とし、該特徴点の位置を記録して訓練データを得る。
別の一実施例では、特徴点の切除を実行して、特徴点の正確性を保証する。複数の見本画像において、特定の特徴点が繰り返し出現する頻度が非常に低い場合、このようなほとんど出現しない特徴点は、検出により誤って生成された可能性が比較的高く、後続のフレーム画像マーカー領域の検出の妨げになる恐れがある。よって、そのような特徴点に対し切除を実行し、該特徴点を除去する必要がある。
テンプレート画像内および見本画像内の特徴点を統合および切除するプロセスは、具体的には以下のようプロセスである。テンプレート画像および見本画像に対して、ランダムノイズを付加しファジー化処理を実行する。その後、ノイズを付加されファジー化された画像に対し、再度特徴点の検出を実行し、対応する特徴点を得る。テンプレート画像内および見本画像内の特徴点が、ノイズを付加されファジー化された画像に対応する特徴点に存在するかを判定し、存在しない場合は切除を実行し、存在する場合は統合を実行する。
テンプレート画像内および見本画像内の特徴点が、ノイズを付加されファジー化された画像に対応する特徴点にも存在すると判定された場合、該特徴点が再現可能であることを意味する。ある特徴点が、ノイズを付加されファジー化された画像に対応する特徴点に出現しない場合、再現可能性が低いとみなされる。
更に、再現可能な特徴点に対して、該特徴点の再現回数を判定する。再現回数が再現閾値より大きい場合は該特徴点を記録し、大きくない場合は該特徴点を除去する。これにより、更に効果的に特徴点の正確性を保証することができる。
上述の訓練データの生成プロセスはサーバーで実現されるが、これに限定されるものではなく、クライアントで実現することもできる。
図6に示すように、別の一実施例では、上述のステップS310の前に以下のステップが含まれる。
ステップS410において、テンプレート画像および対応するメディアデータを選定する。
本実施例では、予め記憶されたテンプレート画像およびメディアデータに対し、ユーザー自身がテンプレート画像および対応するメディアデータを選定し、拡張現実インタラクションをカスタマイズしてよい。具体的には、テンプレート画像は、ユーザーにより撮影された画像であってもよいし、その他の方法で得られる画像であってもよい。メディアデータは、ユーザーにより撮影された映像ストリームまたは3次元映像モデルであってもよいし、ユーザーがインターネットで取得した映像ストリームまたは3次元映像モデルを編集して得たものであってもよい。例えば、ダウンロードされた映像ストリームのバックグランド・ミュージックがユーザーにより変更されてもよいし、ユーザーの声に置き換えられてもよい。
ステップS430において、ログインユーザーのアップロード操作に基づいて、選定されたテンプレート画像および対応するメディアデータが共有されるかを判定する。共有される場合はステップS450に入り、共有されない場合はステップS470に入る。
本実施例では、選定されたテンプレート画像および対応するメディアデータをアップロードする前に、ユーザー情報を有効化してログイン状態に入る必要がある場合、ログインユーザーのアップロード操作を取得する。アップロード操作には、ユーザーによりトリガされるアップロード命令や共有命令が含まれ、共有を実行するか否かは、ユーザーにより適宜選択されてよい。
ステップS450において、選定されたテンプレート画像および対応するメディアデータを公共の記憶空間にアップロードして記憶する。
本実施例では、選定されたテンプレート画像および対応するメディアデータを共有する場合、それらは公共の記憶空間にアップロードし記憶される。これにより、他のユーザーも該ログインユーザーがアップロードしたテンプレート画像およびメディアデータを使用することができる。
ステップS470において、選択されたテンプレート画像および対応するメディアデータを、ログインユーザーに対応する記憶空間にアップロードして記憶する。
本実施例では、選定されたテンプレート画像および対応するメディアデータを共有しない場合、アップロードされたテンプレート画像および対応するメディアデータを、該ログインユーザーに対応する記憶空間に保存する。
一実施例では、ログインユーザーに対応する記憶空間の優先度は、公共の記憶空間の優先度よりも高い。
本実施例では、ログインユーザーに対応する記憶空間の優先度および公共の記憶空間の優先度の高低により、それらに記憶されるテンプレート画像の優先度が決定される。すなわち、フレーム画像にマッチするテンプレート画像を認識するプロセスにおいて、フレーム画像にマッチするテンプレート画像が2つ認識され、2つのテンプレート画像がそれぞれログインユーザーに対応する記憶空間と公共の記憶空間とに記憶されているとする。このとき、ログインユーザーに対応する記憶空間の優先度が公共の記憶空間の優先度よりも高いので、ログインユーザーに対応する記憶空間に記憶されたテンプレート画像が優先的に採用され、ログインユーザーへ返される。
図7に示すように、一実施例では、拡張現実インタラクションを実現するシステムを提供する。該システムは、クライアント10およびサーバー30を備える。クライアント10は、収集モジュール110、検出モジュール130および表示処理モジュール150を有する。
一実施例では、クライアントは端末機器にインストールされ、端末機器の種類に基づいてコンピュータークライアント、モバイルクライアントおよびウェブページクライアントに分類される。コンピュータークライアントはコンピューターにインストールされるものであり、モバイルクライアントはモバイル端末にインストールされるものであり、ウェブページクライアントはブラウザにより実現されるものである。
収集モジュール110は、フレーム画像を収集し、当該フレーム画像をアップロードする。
本実施例では、収集モジュール110は画像収集を実行し、フレーム画像を得る。フレーム画像は、2次元形式であっても3次元形式であってもよく、収集モジュール110により得られる映像ストリームに対応する画像シーケンス中の1画像であってよい。例えば、収集モジュール110は、継続的に画像収集を実行して映像ストリームを取得する。映像ストリームは画像シーケンスにより形成されるものであり、すなわち、画像シーケンスにはいくつかのフレーム画像が含まれる。収集されサーバーにアップロードされるフレーム画像は、すなわち、画像シーケンスにおいて収集されている画像である。具体的には、収集モジュール110は、端末機器のカメラであってよい。
サーバー30は、認識を実行してフレーム画像にマッチするテンプレート画像を得て、当該テンプレート画像を返す。
本実施例では、サーバー30にはいくつかの異なるテンプレート画像が予め記憶され、予め記憶されたテンプレート画像から、アップロードされたフレーム画像にマッチするテンプレート画像が認識される。フレーム画像に基づくテンプレート画像の認識は、SIFT(Scale-Invariant Feature Transformation)のパターン認識アルゴリズム等の認識アルゴリズムを用いて行われてよい。例えば、フレーム画像が映画XXのポスター画像である場合、サーバー30に予め記憶されるテンプレート画像には、数百枚の映画ポスターの画像が含まれる。このとき、記憶されたテンプレート画像を認識することにより、記憶されたテンプレート画像から、映画XXのポスター画像が得られる。この認識により得られたポスター画像が、フレーム画像にマッチするテンプレート画像である。フレーム画像にマッチするテンプレート画像を認識により得た後、サーバー30は、フレーム画像をアップロードしたクライアントに対し、認識により得られたテンプレート画像を返す。
検出モジュール130は、テンプレート画像に基づいて、フレーム画像のマーカー領域を検出する。
本実施例では、収集モジュール10は、画像収集プロセスにおいてマーカー物の撮影を実行し、該マーカー物のフレーム画像を得る。マーカー物がフレーム画像内に形成する領域が、マーカー領域である。テンプレート画像はフレーム画像内のマーカー領域の検出に用いられ、テンプレート画像にはマーカー物の画像も存在する。フレーム画像のマーカー領域の検出プロセスにおいて、テンプレート画像とフレーム画像を比較することにより、フレーム画像のマーカー領域を得ることができる。更に、テンプレート画像においてマーカー領域を形成する点を予め記録し、記録された点を用いて、比較的速くフレーム画像内のマーカー領域を得ることができる。
表示処理モジュール150は、テンプレート画像に対応するメディアデータをマーカー領域に重畳し、重畳により得た画像を表示する。
本実施例では、メディアデータはテンプレート画像に対応するものであり、映像ストリームであってもよいし、3次元の映像モデルであってもよい。例えば、テンプレート画像が映画ポスターである場合、メディアデータは該映画の再生ファイルである。メディアデータをマーカー領域に重畳し、重畳により得た画像を表示するプロセスにおいて、メディアデータの再生が仮想環境を構成し、マーカー領域を除く一連のフレーム画像が現実環境を構成することで、拡張現実の効果が実現される。
図8に示すように、一実施例では、上述のサーバー30は、属性取得モジュール310、範囲限定モジュール330および検索モジュール350を有する。
属性取得モジュール310は、アップロードされたフレーム画像の属性情報を取得する。
本実施例では、アップロードされたフレーム画像の属性情報は、フレーム画像に関連する明細情報の記録に用いられる。一実施例では、属性情報には、ユーザー情報および機器情報が含まれる。ユーザー情報はユーザーが登録した個人認識情報であり、例えば性別、年齢、教育背景、趣味等が挙げられる。機器情報は、ユーザーがフレーム画像をアップロードする際に使用するハードウェア機器から返される情報である。例えば、ユーザーがあるモバイル端末を使用してサーバーにフレーム画像をアップロードする場合、機器情報には、GPS地理情報、機器メーカー、ネットワーク環境等が含まれる。
範囲限定モジュール330は、属性情報に基づき、記憶されたテンプレート画像においてマッチング範囲を限定する。
本実施例では、範囲限定モジュール330は属性情報を用いて、記憶された複数のテンプレート画像に基づき、範囲の限定を実行する。例えば、属性情報の記録において、フレーム画像をアップロードしたユーザーが女性であり、GPS地理情報が北京である場合、マッチング範囲は、女性と北京に関連するテンプレート画像に限定される。具体的には、記憶されたテンプレート画像に、化粧品広告の画像と、髭剃り広告の画像と、北京でのコンサートの画像と、上海でのコンサートの画像とが存在する場合、マッチング範囲にあるテンプレート画像は、化粧品広告の画像および北京でのコンサートの画像である。マッチング範囲を限定することにより、フレーム画像にマッチするテンプレート画像を速く取得することができ、また、マッチング精度を向上することができる。
検索モジュール350は、マッチング範囲にあるテンプレート画像を検索し、フレーム画像が検索されたテンプレート画像とマッチするかを判定する。マッチする場合は、クライアント10にテンプレート画像を返す。マッチしない場合は、収集モジュール110に通知する。
本実施例では、検索モジュール350は、マッチング範囲にあるテンプレート画像ひとつひとつに対して検索を実行し、フレーム画像にマッチするテンプレート画像を取得し、検索して得られたテンプレート画像を、フレーム画像をアップロードしたユーザーへ返す。
図9に示すように、一実施例では、上述の検出モジュール130は、特徴検出ユニット131および輪郭取得ユニット133を有する。
特徴検出ユニット131は、テンプレート画像に対応する訓練データに基づいて、フレーム画像内の特徴点を得る。
本実施例では、訓練データにより、テンプレート画像内のマーカー領域の特徴点が記録される。テンプレート画像内のマーカー領域は、一連の特徴点を用いて標識することができる。テンプレート画像はフレーム画像にマッチするので、特徴検出ユニット131は訓練データに記録される特徴点を用いて、フレーム画像内でマーカー領域を標識するのに用いられる特徴点を取得することができる。すなわち、訓練データに記録される特徴点とフレーム画像内の特徴点は、互いにマッチする特徴点ペアである。
輪郭取得ユニット133は、特徴点を用いて、フレーム画像内のマーカー領域の輪郭位置を取得する。
本実施例では、輪郭取得ユニット133はフレーム画像内の一連の特徴点を用いて、フレーム画像内のマーカー領域の輪郭位置を得る。そして、輪郭取得ユニット133は輪郭位置を用いて、マーカー領域の輪郭とフレーム画像内の座標とを取得する。
上述の検出モジュール130は、クライアント10に設けられる代わりに、サーバー30に設けられてもよい。
図10に示すように、別の一実施例では、上述のクライアント10は更にデータ取得モジュール170を有する。
データ取得モジュール170は、ローカルファイル内にテンプレート画像に対応する訓練データおよびメディアデータが存在するかを判定する。存在しない場合は、訓練データおよびメディアデータをダウンロードし、存在する場合には、訓練データおよびメディアデータをロードする。
本実施例では、ローカルファイルは、クライアントでローカルに記憶されるファイルである。データ取得モジュール170は、フレーム画像のマーカー領域を取得した後、テンプレート画像に対応する訓練データおよびメディアデータがクライアントにおいてローカルに存在するかを判定する。存在しない場合は、訓練データおよびメディアデータをダウンロードする必要がある。テンプレート画像に対応する訓練データおよびメディアデータがクライアントにおいてローカルに存在する場合は、直接ロードが実行される。
ダウンロードが完了した後、ユーザーにより、マーカー領域の検出とメディアデータの重畳および再生とが実行されてよい。また、訓練データおよびメディアデータのストリーミングデータの伝送プロセスにおいて、伝送と同時に後続の処理が実行されてよい。
図11に示すように、別の一実施例では、上述のサーバー30は更に、特徴処理モジュール370および訓練データ生成モジュール390を有する。
特徴処理モジュール370は、記憶されたテンプレート画像に対して検出を実行して特徴点を得て、特徴点の数が閾値未満であるかを判定する。閾値未満でない場合は、テンプレート画像に対応する見本画像を取得し、当該見本画像内の特徴点を検出して得る。閾値未満である場合は、プロセスを終了する。
本実施例では、特徴処理モジュール370は、該テンプレート画像に対応する特徴点を用いて、フレーム画像内の特徴点を得る。テンプレート画像は、サーバーが収集し保存する画像およびユーザーがアップロードし保存する画像である。テンプレート画像として保存される画像に関して、それに対応する訓練データおよびメディアデータがサーバーに記憶されるデータ中に存在しない場合、テンプレート画像に対して訓練を実行して訓練データを得て、また、テンプレート画像とメディアデータとの対応関係を確立する必要がある。テンプレート画像に対する訓練は、サーバーで実行されてもよいし、クライアントで実行されてもよい。しかしながら、サーバーでテンプレート画像の訓練を実行することが好ましく、これによりクライアントを軽くすることができる。
テンプレート画像に対し訓練を実行するプロセスにおいて、特徴処理モジュール370は、テンプレート画像として保存される画像に対し、特徴点検出アルゴリズムを用いて検出を実行し、画像内の特徴点を得る必要がある。特征検出アルゴリズムは、FAST(Features from Accelerated Segment Test)特徴点検出アルゴリズムであってもよいし、類似のSURF(Speeded Up Robust Features)特徴点検出アルゴリズムであってもよいし、その他の特徴点検出アルゴリズムであってもよく、ここに逐一列挙することはしない。
特徴処理モジュール370は更に、特徴点の数がフレーム画像のマーカー領域の検出に十分であるかを判定し、テンプレート画像の有効性を保証する必要がある。好ましい実施例では、閾値として100が選択される。
訓練データ生成モジュール390は、テンプレート画像の特徴点および見本画像の特徴点を処理し、特徴点を記録する訓練データを生成する。
本実施例では、特徴点検出の正確性を保証するために、訓練データ生成モジュール390は、テンプレート画像に対応するいくつかの見本画像を取得し、特徴点の検出を実行し、特徴点のロバスト性を保証する。見本画像は、テンプレート画像に対応し、回転角度および/または縮尺が異なる各種画像である。例えば、訓練データ生成モジュール390が360度に対し各10度に回転角度を設定すると、36個の回転角度が得られる。毎回0.8の縮尺で7個の縮尺レベルとすると、合計で36×7=252個の、回転角度および縮尺が異なる見本画像が得られる。各見本画像に対して、等しく特徴点の検出が実行される。
別の一実施例では、訓練データ生成モジュール390は更に特徴点の切除を実行して、特徴点の正確性を保証する。複数の見本画像において、特定の特徴点が繰り返し出現する頻度が非常に低い場合、このようなほとんど出現しない特徴点は、検出により誤って生成された可能性が比較的高く、後続のフレーム画像マーカー領域の検出の妨げになる恐れがある。よって訓練データ生成モジュール390は、そのような特徴点に対し切除を行い、該特徴点を除去する。
具体的には、訓練データ生成モジュール390は、テンプレート画像および見本画像に対して、ランダムノイズを付加しファジー化処理を実行する。その後、ノイズを付加されファジー化された画像に対し、再度特徴点の検出を実行し、対応する特徴点を得る。テンプレート画像内および見本画像内の特徴点が、ノイズを付加されファジー化された画像に対応する特徴点に存在するかを判定し、存在しない場合は切除を実行し、存在する場合は統合を実行する。
訓練データ生成モジュール390により、テンプレート画像内および見本画像内の特徴点が、ノイズを付加されファジー化された画像に対応する特徴点にも存在する判定された場合、該特徴点は再現可能であることを意味する。ある特徴点が、ノイズを付加されファジー化された画像に対応する特徴点に出現しない場合、再現可能性が低いとみなされる。
更に、再現可能な特徴点に対して、訓練データ生成モジュール390は更に該特徴点の再現回数を判定する。再現回数が再現閾値より大きい場合は該特徴点を記録し、大きくない場合は該特徴点を除去する。これにより、更に効果的に特徴点の正確性を保証することができる。
別の一実施例では、上述の特徴処理モジュール370および訓練データ生成モジュール390はクライアント10に設けられてもよく、訓練データの生成後すぐに当該訓練データをサーバー30にアップロードしてよい。
別の一実施例では、上述のクライアント10は更に、テンプレート画像および対応するメディアデータを選定する。
本実施例では、予め記憶されたテンプレート画像およびメディアデータに対し、ユーザー自身がテンプレート画像および対応するメディアデータを選定し、拡張現実インタラクションをカスタマイズしてよい。具体的には、テンプレート画像は、ユーザーにより撮影された画像であってもよいし、その他の方法で得られる画像であってもよい。メディアデータは、ユーザーにより撮影された映像ストリームまたは3次元映像モデルであってもよいし、ユーザーがインターネットで取得した映像ストリームまたは3次元映像モデルを編集して得たものであってもよい。例えば、ダウンロードされた映像ストリームのバックグランド・ミュージックがユーザーにより変更されてもよいし、ユーザーの声に置き換えられてもよい。
図12に示すように、上述の拡張現実インタラクションを実現するシステムは更に、ユーザーデータベース50および共有データベース70を備える。
サーバー30は更に、ログインユーザーのアップロード操作に基づいて、選定されたテンプレート画像および対応するメディアデータが共有されるかを判定する。共有される場合は、選択されたテンプレート画像および対応するメディアデータを共有データベース70にアップロードして記憶し、共有されない場合は、ログインユーザーに対応するユーザーデータベース50にアップロードして記憶する。
本実施例では、選定されたテンプレート画像および対応するメディアデータをアップロードする前に、ユーザー情報を有効化してログイン状態に入る必要がある場合、サーバー30はログインユーザーのアップロード操作を取得する。アップロード操作には、ユーザーによりトリガされるアップロード命令や共有命令が含まれ、共有を実行するか否かは、ユーザーにより適宜選択されてよい。
選定されたテンプレート画像および対応するメディアデータを共有する場合、それらは共有データベース70にアップロードし記憶される。これにより、他のユーザーも該ログインユーザーがアップロードしたテンプレート画像およびメディアデータを使用することができる。
選定されたテンプレート画像および対応するメディアデータを共有しない場合、アップロードされたテンプレート画像および対応するメディアデータは、該ログインユーザーに対応するユーザーデータベース50に保存される。
別の一実施例では、ユーザーデータベース50の優先度は、共有データベース70の優先度よりも高い。
本実施例では、ログインユーザーに対応するユーザーデータベース50の優先度および共有データベース70の優先度の高低により、それらに記憶されるテンプレート画像の優先度が決定される。すなわち、フレーム画像にマッチするテンプレート画像を認識するプロセスにおいて、サーバー30がフレーム画像にマッチするテンプレート画像を2つ認識し、2つのテンプレート画像がそれぞれログインユーザーに対応するユーザーデータベース50と共有データベース70とに記憶されているとする。このとき、ログインユーザーに対応するユーザーデータベース50の優先度は共有データベース70の優先度よりも高いので、ログインユーザーに対応するユーザーデータベース50に記憶されたテンプレート画像が優先的に採用され、ログインユーザーへ返される。
上述の拡張現実インタラクションを実現する方法およびシステムでは、フレーム画像の収集後にアップロードを実行し、アップロードされたフレーム画像に基づいて、該フレーム画像にマッチするテンプレート画像を認識して返す。返されたテンプレート画像に基づいてマーカー領域の検出を実行し、メディアデータをマーカー領域に重畳し、重畳により得た画像を表示する。フレーム画像はリモートのサーバーへアップロードされて、テンプレート画像の認識とマッチングのプロセスが実行されるので、比較的複雑な認識とマッチングのプロセスをローカルで遂行する必要がなく、拡張現実インタラクションにおける認識能力を大いに向上することができる。各種マーカーを対象にマッチするテンプレート画像を等しく認識することができるので、柔軟性が大いに向上する。
当該技術分野の当業者には当然であるように、上記実施例のステップの全てまたは一部は、コンピュータープログラム命令に関連するハードウェアによって実現されてもよい。プログラムは、コンピューター可読の記憶媒体に記憶されてよく、該プログラムは、実行時に上述の各実施例に含まれるような工程を含んでよい。記憶媒体は、ディスク、光ディスク、ROM(Read Only Memory)、RAM(Random Access Memory)等であってよい。
以上に記載したものは本発明の単なる実施例であり、本発明を限定するものではない。本発明の趣旨および原則の範囲内におけるあらゆる変更、均等物、改良等は、全て本発明の保護範囲に包含される。
上記の実施例は、本発明の一部の実施方式を表したものに過ぎないが、具体的かつ詳細に記載した。ただし、本発明の範囲を限定するものではない。なお、当該技術分野の当業者には当然ながら、本発明の構成を前提として変形および変更を行うことができる。このような変形および変更は、本発明の保護範囲に包含されるものである。よって、本発明の保護範囲は、添付の特許請求の範囲に準じるものである。

Claims (17)

  1. フレーム画像を収集し、当該フレーム画像をアップロードするステップと、
    認識を実行して前記フレーム画像にマッチするテンプレート画像を得て、当該テンプレート画像を返すステップと、
    前記テンプレート画像に基づいて前記フレーム画像のマーカー領域を検出するステップと、
    前記テンプレート画像に対応するメディアデータを前記マーカー領域に重畳し、重畳により得た画像を表示するステップと、
    を含む、拡張現実インタラクションを実現する方法であって、
    前記テンプレート画像に基づいて前記フレーム画像のマーカー領域を検出する前記ステップは、
    前記テンプレート画像に対応する訓練データに基づいて、前記フレーム画像内の特徴点を得るステップと、
    前記特徴点を用いて、前記フレーム画像内の前記マーカー領域の輪郭位置を取得するステップと、
    を含み、
    前記テンプレート画像に基づいて前記フレーム画像のマーカー領域を検出する前記ステップの前に、
    記憶されたテンプレート画像に対して検出を実行して特徴点を取得し、前記特徴点の数が閾値未満であるかを判定し、閾値未満でない場合は、前記テンプレート画像に対応する見本画像を取得し、当該見本画像内の特徴点を検出するステップと、
    前記テンプレート画像内の特徴点および前記見本画像内の特徴点を処理し、当該特徴点を記録する訓練データを生成するステップと、
    を含む方法。
  2. 認識を実行して前記フレーム画像にマッチするテンプレート画像を取得し、当該テンプレート画像を返す前記ステップは、
    前記アップロードされたフレーム画像の属性情報を取得するステップと、
    前記属性情報に基づいて、記憶されたテンプレート画像においてマッチング範囲を限定するステップと、
    前記マッチング範囲にあるテンプレート画像を検索し、前記フレーム画像が検索されたテンプレート画像とマッチするかを判定し、マッチする場合は、当該検索されたテンプレート画像を返すステップと、
    を含む、請求項1に記載の拡張現実インタラクションを実現する方法。
  3. 前記テンプレート画像に基づいて前記フレーム画像のマーカー領域を検出する前記ステップの前に、
    ローカルファイル内に前記テンプレート画像に対応する訓練データおよびメディアデータが存在するかを判定し、存在しない場合は、当該訓練データおよび当該メディアデータをダウンロードし、存在する場合は、当該訓練データおよび当該メディアデータをロードするステップ、
    を含む、請求項1に記載の拡張現実インタラクションを実現する方法。
  4. 前記テンプレート画像内の特徴点および前記見本画像内の特徴点を処理し前記特徴点を記録する訓練データを生成する前記ステップは、
    前記テンプレート画像内の特徴点および前記見本画像内の特徴点を統合または切除し、当該特徴点を記録する訓練データを生成するステップ、
    を含む、請求項1に記載の拡張現実インタラクションを実現する方法。
  5. 前記テンプレート画像内の特徴点および前記見本画像内の特徴点を統合または切除し当該特徴点を記録する訓練データを生成する前記ステップの前に、
    前記テンプレート画像および前記見本画像に対してランダムノイズを付加してファジー化プロセスを実行し、当該ノイズを付加されファジー化された画像に対して再度特徴点の検出を実行し、対応する特徴点を取得するステップと、
    前記テンプレート画像の特徴点および前記見本画像の特徴点が、前記ノイズを添加されファジー化された画像に対応する特徴点に存在するかを判定するステップと、
    前記テンプレート画像の特徴点および前記見本画像の特徴点に対し、存在しない場合は切除を実行し、存在する場合は統合を実行するステップと、
    を含む、請求項4に記載の拡張現実インタラクションを実現する方法。
  6. 前記テンプレート画像の特徴点および前記見本画像の特徴点に対し切除を実行する前記ステップの前に、
    前記テンプレート画像の特徴点および前記見本画像の特徴点の再現回数が再現閾値より大きいかを更に判定し、大きくない場合は、前記特徴点を除去するステップと、
    記テンプレート画像の特徴点および前記見本画像の特徴点に対し切除を実行する前記ステップに入るステップと、
    を含む、請求項5に記載の拡張現実インタラクションを実現する方法。
  7. 記憶されたテンプレート画像に対して検出を実行して特徴点を取得する前記ステップの前に、
    テンプレート画像および対応するメディアデータを選定するステップと、
    ログインユーザーのアップロード操作に基づいて、前記選定されたテンプレート画像および対応するメディアデータが共有されるかを判定し、共有される場合は、前記選定されたテンプレート画像および対応するメディアデータを公共の記憶空間にアップロードして記憶し、共有されない場合は、前記ログインユーザーに対応する記憶空間にアップロードして記憶するステップと、
    を含む、請求項1に記載の拡張現実インタラクションを実現する方法。
  8. 前記ログインユーザーに対応する前記記憶空間の優先度は、前記公共の記憶空間の優先度よりも高い、
    請求項7に記載の拡張現実インタラクションを実現する方法。
  9. 前記重畳により得た画像を表示する前記ステップは、
    メディアデータの再生により仮想環境を構成し、マーカー領域を除くフレーム画像により現実環境を構成するステップ、
    を含む、請求項1に記載の拡張現実インタラクションを実現する方法。
  10. クライアントおよびサーバーを備え、
    前記クライアントは、収集モジュール、検出モジュールおよび表示処理モジュールを有し、
    前記収集モジュールは、フレーム画像を収集し、当該フレーム画像をアップロードし、
    前記サーバーは、認識を実行して前記フレーム画像にマッチするテンプレート画像を得て、当該テンプレート画像を返し、
    前記検出モジュールは、前記テンプレート画像に基づいて前記フレーム画像のマーカー領域を検出し、
    前記表示処理モジュールは、前記テンプレート画像に対応するメディアデータを前記マーカー領域に重畳し、重畳により得た画像を表示する、
    拡張現実インタラクションを実現するシステムであって、
    前記検出モジュールは、
    前記テンプレート画像に対応する訓練データに基づいて、前記フレーム画像内の特徴点を得る特徴検出ユニットと、
    前記特徴点を用いて、前記フレーム画像内の前記マーカー領域の輪郭位置を取得する輪郭取得ユニットと、
    を有し、
    前記サーバーは、
    記憶されたテンプレート画像に対して検出を実行して特徴点を取得し、当該特徴点の数が閾値未満であるかを判定し、閾値未満でない場合は、前記テンプレート画像に対応する見本画像を取得し、当該見本画像内の特徴点を検出し取得する特徴処理モジュールと、
    前記テンプレート画像の特徴点および前記見本画像の特徴点を処理し、前記特徴点を記録する訓練データを生成する訓練データ生成モジュールと、
    を有するシステム。
  11. 前記サーバーは更に、
    前記アップロードされたフレーム画像の属性情報を取得する属性取得モジュールと、
    前記属性情報に基づいて、記憶されたテンプレート画像においてマッチング範囲を限定する範囲限定モジュールと、
    前記マッチング範囲にあるテンプレート画像を検索し、前記フレーム画像が検索されたテンプレート画像とマッチするかを判定し、マッチする場合は、前記検索されたテンプレート画像を前記クライアントに返す検索モジュールと、
    を有する、請求項10に記載の拡張現実インタラクションを実現するシステム。
  12. 前記クライアントは更に、
    ローカルファイル内に前記テンプレート画像に対応する訓練データおよびメディアデータが存在するかを判定し、存在しない場合は、当該訓練データおよび当該メディアデータをダウンロードし、存在する場合は、当該訓練データおよび当該メディアデータをロードするデータ取得モジュール、
    を有する、請求項10に記載の拡張現実インタラクションを実現するシステム。
  13. 前記訓練データ生成モジュールは更に、テンプレート画像内の特徴点および見本画像内の特徴点を統合または切除し、特徴点を記録する前記訓練データを生成する、
    請求項10に記載の拡張現実インタラクションを実現するシステム。
  14. 前記訓練データ生成モジュールは更に、テンプレート画像および見本画像に対してランダムノイズを付加してファジー化プロセスを実行し、当該ノイズを付加されファジー化された画像に対して再度特徴点の検出を実行し、対応する特徴点を取得し、テンプレート画像の特徴点および見本画像の特徴点が、前記ノイズを付加されファジー化された画像に対応する特徴点に存在するかを判定し、前記テンプレート画像の特徴点および前記見本画像の特徴点に対し、存在しない場合は切除を実行し、存在する場合は統合を実行する、
    請求項13に記載の拡張現実インタラクションを実現するシステム。
  15. 前記訓練データ生成モジュールは更に、前記テンプレート画像の特徴点および前記見本画像の特徴点の再現回数が再現閾値より大きいかを更に判定し、大きくない場合は当該特徴点を除去し、前記テンプレート画像の特徴点および前記見本画像の特徴点に対し切除を実行する、
    請求項14に記載の拡張現実インタラクションを実現するシステム。
  16. 前記クライアントは更に、テンプレート画像および対応するメディアデータを選定し、
    前記システムは更に、ユーザーデータベースおよび共有データベースを備え、
    前記サーバーは更に、ログインユーザーのアップロード操作に基づいて、前記選定されたテンプレート画像および対応するメディアデータが共有されるかを判定し、共有される場合は、前記選定されたテンプレート画像および対応するメディアデータを前記共有データベースにアップロードして記憶し、共有されない場合は、前記ログインユーザーに対応するユーザーデータベースにアップロードして記憶する、
    請求項10に記載の拡張現実インタラクションを実現するシステム。
  17. 前記ユーザーデータベースの優先度は、前記共有データベースの優先度よりも高い、
    請求項16に記載の拡張現実インタラクションを実現するシステム。
JP2015513001A 2012-05-22 2013-05-17 拡張現実インタラクションを実現する方法およびシステム Active JP5827445B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201210160524.8 2012-05-22
CN201210160524.8A CN103426003B (zh) 2012-05-22 2012-05-22 增强现实交互的实现方法和系统
PCT/CN2013/075784 WO2013174231A1 (zh) 2012-05-22 2013-05-17 增强现实交互的实现方法和系统

Publications (2)

Publication Number Publication Date
JP2015524103A JP2015524103A (ja) 2015-08-20
JP5827445B2 true JP5827445B2 (ja) 2015-12-02

Family

ID=49623107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015513001A Active JP5827445B2 (ja) 2012-05-22 2013-05-17 拡張現実インタラクションを実現する方法およびシステム

Country Status (5)

Country Link
US (1) US9189699B2 (ja)
JP (1) JP5827445B2 (ja)
KR (1) KR101535579B1 (ja)
CN (1) CN103426003B (ja)
WO (1) WO2013174231A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107146275A (zh) * 2017-03-31 2017-09-08 北京奇艺世纪科技有限公司 一种设置虚拟形象的方法及装置

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8493408B2 (en) 2008-11-19 2013-07-23 Apple Inc. Techniques for manipulating panoramas
US10303945B2 (en) 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US8965066B1 (en) * 2013-09-16 2015-02-24 Eye Verify LLC Biometric template security and key generation
WO2015075937A1 (ja) 2013-11-22 2015-05-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理プログラム、受信プログラムおよび情報処理装置
CN105023266B (zh) * 2014-04-29 2018-03-30 高德软件有限公司 增强现实实现方法、装置和终端设备
HK1201682A2 (en) * 2014-07-11 2015-09-04 Idvision Ltd Augmented reality system
US10248881B2 (en) 2014-08-27 2019-04-02 Nec Corporation Information processing device and recognition support method
EP3998596A1 (en) * 2014-09-08 2022-05-18 Simx LLC Augmented reality simulator for professional and educational training
CN105574006A (zh) * 2014-10-10 2016-05-11 阿里巴巴集团控股有限公司 建立拍照模板数据库、提供拍照推荐信息的方法及装置
EP3220558B1 (en) * 2014-11-14 2019-03-06 Panasonic Intellectual Property Corporation of America Reproduction method, reproduction device and program
US9811734B2 (en) * 2015-05-11 2017-11-07 Google Inc. Crowd-sourced creation and updating of area description file for mobile device localization
US9977493B2 (en) * 2015-06-17 2018-05-22 Microsoft Technology Licensing, Llc Hybrid display system
CN107466477B (zh) 2015-11-12 2021-08-10 松下电器(美国)知识产权公司 显示方法、计算机可读取记录介质以及显示装置
WO2017104666A1 (ja) 2015-12-17 2017-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 表示方法および表示装置
CN105912555B (zh) * 2016-02-04 2019-03-05 北京通感科技有限公司 一种数据信息与实景空间的交互再现方法
GB2551473A (en) * 2016-04-29 2017-12-27 String Labs Ltd Augmented media
CN106127858B (zh) * 2016-06-24 2020-06-23 联想(北京)有限公司 一种信息处理方法及电子设备
CN106302444A (zh) * 2016-08-16 2017-01-04 深圳市巴古科技有限公司 智能云识别方法
CN110114988B (zh) 2016-11-10 2021-09-07 松下电器(美国)知识产权公司 发送方法、发送装置及记录介质
CN106777083A (zh) * 2016-12-13 2017-05-31 四川研宝科技有限公司 一种标记图片中物体的方法及装置
US10375130B2 (en) 2016-12-19 2019-08-06 Ricoh Company, Ltd. Approach for accessing third-party content collaboration services on interactive whiteboard appliances by an application using a wrapper application program interface
US10250592B2 (en) 2016-12-19 2019-04-02 Ricoh Company, Ltd. Approach for accessing third-party content collaboration services on interactive whiteboard appliances using cross-license authentication
CN106685941A (zh) * 2016-12-19 2017-05-17 宇龙计算机通信科技(深圳)有限公司 一种优化ar注册的方法、装置及服务器
CN106683196A (zh) * 2016-12-30 2017-05-17 上海悦会信息科技有限公司 一种增强现实的展示方法、系统以及智能终端
CN106859956B (zh) * 2017-01-13 2019-11-26 北京安云世纪科技有限公司 一种人体穴位识别按摩方法、装置及ar设备
US10395405B2 (en) * 2017-02-28 2019-08-27 Ricoh Company, Ltd. Removing identifying information from image data on computing devices using markers
CN107168619B (zh) * 2017-03-29 2023-09-19 腾讯科技(深圳)有限公司 用户生成内容处理方法和装置
CN107194817B (zh) * 2017-03-29 2023-06-23 腾讯科技(深圳)有限公司 用户社交信息的展示方法、装置和计算机设备
WO2018177134A1 (zh) * 2017-03-29 2018-10-04 腾讯科技(深圳)有限公司 用户生成内容处理方法、存储介质和终端
US10824866B2 (en) * 2017-06-13 2020-11-03 The Marketing Store Worldwife, LP System, method, and apparatus for augmented reality implementation
CN107358658B (zh) * 2017-07-20 2021-08-20 深圳市大象文化科技产业有限公司 一种乳房整形ar预测方法、装置和系统
CN109429002A (zh) * 2017-08-28 2019-03-05 中国科学院深圳先进技术研究院 一种拍摄人像的方法及装置
CN107845122B (zh) * 2017-09-08 2022-06-10 百度在线网络技术(北京)有限公司 一种确定建筑物的面状信息的方法与装置
PT3456905T (pt) 2017-09-19 2023-08-02 Univ Evora Sistema de abrigo transportável com capacidade de capturar, coletar e converter névoa e humidade ambientais em água potável
CN108369731B (zh) * 2018-02-02 2023-07-21 达闼机器人股份有限公司 模板优化方法、装置、电子设备和计算机程序产品
CN108388637A (zh) * 2018-02-26 2018-08-10 腾讯科技(深圳)有限公司 一种用于提供增强现实服务的方法、装置以及相关设备
CN109490843B (zh) * 2018-11-15 2020-08-04 成都傅立叶电子科技有限公司 一种归一化雷达屏幕监测方法及系统
KR102111499B1 (ko) * 2019-09-19 2020-05-18 (주)자이언트스텝 얼굴 애니메이션을 위한 얼굴 형태 변화 전사 방법 및 컴퓨터 판독 가능한 저장매체
WO2021173147A1 (en) * 2020-02-28 2021-09-02 Google Llc System and method for playback of augmented reality content triggered by image recognition
CN112153422B (zh) * 2020-09-25 2023-03-31 连尚(北京)网络科技有限公司 视频融合方法和设备
WO2024108026A1 (en) * 2022-11-16 2024-05-23 Aveva Software, Llc Computerized systems and methods for an industrial metaverse

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
KR100912264B1 (ko) * 2008-02-12 2009-08-17 광주과학기술원 사용자 반응형 증강 영상 생성 방법 및 시스템
CN101551732A (zh) * 2009-03-24 2009-10-07 上海水晶石信息技术有限公司 带有交互功能的增强现实的方法及其系统
KR101457313B1 (ko) * 2010-06-22 2014-11-04 노키아 코포레이션 템플릿 스위칭 및 특징 적응을 이용한 오브젝트 추적을 제공하는 방법, 장치 및 컴퓨터 프로그램 제품
JP5686673B2 (ja) * 2010-07-22 2015-03-18 富士フイルム株式会社 画像処理装置、画像処理方法およびプログラム
CN102129708A (zh) 2010-12-10 2011-07-20 北京邮电大学 增强现实环境中快速多层次虚实遮挡处理方法
CN102156808A (zh) * 2011-03-30 2011-08-17 北京触角科技有限公司 增强现实实时虚拟饰品试戴系统及方法
CN102332095B (zh) * 2011-10-28 2013-05-08 中国科学院计算技术研究所 一种人脸运动跟踪方法和系统以及一种增强现实方法
US8681179B2 (en) * 2011-12-20 2014-03-25 Xerox Corporation Method and system for coordinating collisions between augmented reality and real reality
KR20140082610A (ko) * 2014-05-20 2014-07-02 (주)비투지 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107146275A (zh) * 2017-03-31 2017-09-08 北京奇艺世纪科技有限公司 一种设置虚拟形象的方法及装置
CN107146275B (zh) * 2017-03-31 2020-10-27 北京奇艺世纪科技有限公司 一种设置虚拟形象的方法及装置

Also Published As

Publication number Publication date
KR101535579B1 (ko) 2015-07-09
CN103426003A (zh) 2013-12-04
US20150139552A1 (en) 2015-05-21
JP2015524103A (ja) 2015-08-20
KR20150011008A (ko) 2015-01-29
WO2013174231A1 (zh) 2013-11-28
CN103426003B (zh) 2016-09-28
US9189699B2 (en) 2015-11-17

Similar Documents

Publication Publication Date Title
JP5827445B2 (ja) 拡張現実インタラクションを実現する方法およびシステム
JP7361075B2 (ja) デバイスローカリゼーションのためのマルチシンクアンサンブルモデル
JP6348574B2 (ja) 総体的カメラ移動およびパノラマカメラ移動を使用した単眼視覚slam
JP6602889B2 (ja) 移動体装置ローカリゼーションのためのエリア記述ファイルのクラウドソーシングによる作成および更新
CN109685121B (zh) 图像检索模型的训练方法、图像检索方法、计算机设备
CN110516096A (zh) 合成感知数字图像搜索
EP3678035A1 (en) Computerized method and device for annotating at least one feature of an image of a view
US20200175770A1 (en) Information processing system
TW201823983A (zh) 移動物件的虛擬訊息建立方法、搜尋方法與應用系統
JP2013149073A (ja) 拡張現実装置、方法、及びプログラム
US10810466B2 (en) Method for location inference from map images
WO2022123466A1 (en) Visual camera re-localization using graph neural networks and relative pose supervision
US20210326376A1 (en) Navigating through a set of images
US11334621B2 (en) Image search system, image search method and storage medium
CN108509621A (zh) 景区全景图的景点识别方法、装置、服务器和存储介质
Qian et al. POI summarization by aesthetics evaluation from crowd source social media
WO2019134501A1 (zh) 模拟用户试装的方法、装置、存储介质及移动终端
KR102262702B1 (ko) 샷 변화패턴을 이용한 동영상 생성 시스템
JP2013214158A (ja) 表示画像検索装置、表示制御システム、表示制御方法、およびプログラム
JP2015232913A (ja) 拡張現実装置、方法、及びプログラム
JP2020035086A (ja) 情報処理システム、情報処理装置およびプログラム
CN117544829A (zh) 视频生成方法及装置
Lan et al. Social image aesthetic measurement based on 3D reconstruction
CN115529484A (zh) 视频处理方法及装置和电子设备
JP2011164668A (ja) 画像処理装置及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151015

R150 Certificate of patent or registration of utility model

Ref document number: 5827445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250