JP2013530462A - 拡張現実のための装置および方法 - Google Patents

拡張現実のための装置および方法 Download PDF

Info

Publication number
JP2013530462A
JP2013530462A JP2013513094A JP2013513094A JP2013530462A JP 2013530462 A JP2013530462 A JP 2013530462A JP 2013513094 A JP2013513094 A JP 2013513094A JP 2013513094 A JP2013513094 A JP 2013513094A JP 2013530462 A JP2013530462 A JP 2013530462A
Authority
JP
Japan
Prior art keywords
marker
image
real world
display
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013513094A
Other languages
English (en)
Other versions
JP5632073B2 (ja
Inventor
キム,ジェ−ヒョン
ホン,ジョン−チョル
キム,ホン−グン
クウォン,ボン−キ
Original Assignee
ビズモードライン カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ビズモードライン カンパニー リミテッド filed Critical ビズモードライン カンパニー リミテッド
Publication of JP2013530462A publication Critical patent/JP2013530462A/ja
Application granted granted Critical
Publication of JP5632073B2 publication Critical patent/JP5632073B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

開示されるのは、拡張現実のための方法である。マーカーを含む現実世界イメージが生成され、マーカーは現実世界イメージから検出され、検出されたマーカーに対応するオブジェクトイメージが現実世界イメージと組み合わされ、組み合わされたイメージが表示される。

Description

本開示は、拡張現実のための装置および方法に関する。
拡張現実(AR:augmented reality)は、現実世界イメージを仮想イメージと組み合わせる。現実世界イメージは、実際の観察可能なシーンであって、カメラもしくは他の光学または電子センサーにより取り込まれたシーンである。AR技術はまた、現実世界イメージを追跡するためにマーカーを使用する。マーカーは通常、黒および白のパターンと、そのパターンを取り囲む黒枠から成る。一般に、AR技術は、マーカーに対応する仮想イメージを決定し、仮想イメージをマーカー上に重ね合わせて仮想イメージを現実世界イメージと組み合わせる。本開示によれば、ARのための改良された装置および方法が提供される。
拡張現実のための装置の例示的な実施形態を示すブロック図である。 図1に示される拡張現実装置により提供される拡張サービスの例示的な実施形態を示す概略図である。 拡張現実のための装置のもう1つの例示的な実施形態を示すブロック図である。 マーカーの例示的な実施例を示す概略図である。 拡張現実のための方法の例示的な実施形態を示す流れ図である。 例示的な実施形態による拡張現実のための画面の例示的な実施例を示す概略図である。 本開示に従って拡張現実のために配置される例示のコンピューティングデバイスを示すブロック図である。
1つの実施形態において、拡張現実のための装置は、マーカーを含む現実世界イメージを生成するように構成された写真撮影ユニットと、現実世界イメージからマーカーを検出し、検出されたマーカーに対応するオブジェクトイメージを現実世界イメージと結合して、拡張現実イメージを生成するように構成された処理ユニットとを含む。マーカーは、少なくとも2つの異なるマーカーイメージを含む。
もう1つの実施形態において、処理デバイスは、拡張現実装置に提供される少なくとも2つの異なるマーカーイメージを含むマーカーを表示するための表示ユニットを含む。
さらなる実施形態において、拡張現実のための方法は、現実世界イメージからマーカーを検出することと、検出されたマーカーに対応するオブジェクトイメージを検索することと、オブジェクトイメージを現実世界イメージと組み合わせて拡張現実イメージを生成することとを含む。マーカーは、少なくとも2つの異なるマーカーイメージを含む。
なおさらなる実施形態において、少なくとも1つのプロセッサにより実行されるとき、プロセッサに拡張現実のための方法を実行させるコンピュータプログラムを格納したコンピュータ可読媒体。その方法は、現実世界イメージからマーカーを検出することと、検出されたマーカーに対応するオブジェクトイメージを検索することと、オブジェクトイメージを現実世界イメージと組み合わせて拡張現実イメージを生成することとを含む。マーカーは、少なくとも2つの異なるマーカーイメージを含む。
以下の詳細な説明において、本明細書の一部を形成する添付の図面が参照される。図面において、文脈に特に指示がない限り、類似する符号は概して、類似するコンポーネントを識別する。詳細な説明、図面、および特許請求の範囲において説明される例示的な実施形態は、限定的であることを意図されていない。本明細書において提示される主題の精神および範囲を逸脱することなく、その他の実施形態が使用されてもよく、その他の変更が行われてもよい。本明細書において概ね説明され、図面に示される本開示の態様が、多岐にわたるさまざまな構成において配置され、代替され、組み合わされ、分離され、設計されてもよく、それらのすべてが本明細書において明示的に検討されることは容易に理解されよう。
図1は、拡張現実のための装置の例示的な実施形態を示すブロック図である。図2は、図1に示される拡張現実装置により提供される拡張サービスの例示的な実施形態を示す概略図である。
図1は、拡張現実装置100が、相互に関連付けられている処理ユニット110および写真撮影ユニット120を含むことを示す。1つの実施形態において、拡張現実装置100は、デスクトップコンピュータ、ワークステーション、ラップトップコンピュータ、パームトップコンピュータ、ウルトラモバイルパーソナルコンピュータ(UMPC)、タブレットパーソナルコンピュータ(PC)、携帯情報端末(PDA)、ウェブパッド、携帯電話、スマートフォン、電子手帳、MP3プレイヤー、ポータブルマルチメディアプレイヤー(PMP)などのような、コンピュータまたはポータブル情報デバイスとして実施されてもよいが、それらに限定されることはない。
写真撮影ユニット120は、マーカーMKを含む現実世界イメージを取り込み、現実世界イメージを処理ユニット110に伝送するように構成されてもよい。一例として、写真撮影ユニット120は、デジタルカメラ、ビデオカメラ、ウェブカム、光学センサー、または電子センサーなどを、非限定的に含むことができる。1つの実施形態において、マーカーMKは、少なくとも2つの異なるマーカーイメージを含み、その詳細は後段において説明される。
処理ユニット110は、写真撮影ユニット120から現実世界イメージを受信して、現実世界イメージを処理するように構成されてもよい。1つの実施形態において、処理ユニット110は、非限定的に、エッジマッチング、グレースケールマッチング、およびグラジエントマッチングのような、オブジェクト認識技術を使用することにより、現実世界イメージに含まれるマーカーMKを検出し、検出されたマーカーMKに対応するオブジェクトイメージを求めて処理ユニット110のストレージまたはデータベース(図示せず)もしくは別個のストレージまたはデータベース(図示せず)を検索することができる。
もう1つの実施形態において、処理ユニット110は、マーカーMKに対応するオブジェクトイメージ(例えば、仮想グラフィックイメージ)を、写真撮影ユニット120からの現実世界イメージと組み合わせて、拡張イメージを生成することができる。処理ユニット110は、単一チップ、複数のチップとして、または複数の電気コンポーネント上で実施されてもよく、非限定的に、専用または組み込みプロセッサ、単一用途プロセッサ、コントローラ、特定用途向け集積回路(ASIC)などの形態であってもよい。
図2は、拡張現実装置100が、表示デバイス200に表示されるマーカーMKを含む画像を取り込むことを示す。一例として、表示デバイス200は、例えば、液晶ディスプレイ、ブラウン管(CRT)、有機発光ダイオード、プラズマディスプレイモニタなどを含むことができる。1つの実施形態において、表示デバイス200は、マーカーMKを表示することができる。表示デバイス200は、上記で説明されるように、コンピュータ、ポータブル情報デバイス、テレビジョンセットなどのような、汎用デバイスであってもよいが、マーカーMKの表示のために専用に設計されてもよい。表示デバイス200は、マーカーMKのマーカー情報を格納するためのストレージ(図示せず)を含むことができ、マーカー情報は、非限定的に、外部サーバ(図示せず)から供給されてもよい。マーカー情報は、例えば、マーカーMKに含まれるマーカーイメージの形状、色、または表示間隔を非限定的に含むことができ、その詳細は後段において説明される。マーカー情報は、例えば、表示デバイス200に出力されうる、グラフィック交換フォーマット(GIF:graphics interchange format)ファイル、フラッシュファイル、またはアニメーションファイルに含まれてもよいが、それらに限定されることはない。図2では、拡張現実装置100が表示デバイス200に表示されるイメージを取り込むことが示されているが、拡張現実装置100が、非限定的に、紙、プラスチック、木、金属などのような、任意の他の物質上に表示または印刷されたマーカーを含むイメージを取り込むことができることは、当業者には明らかである。
図3は、拡張現実のための装置のもう1つの例示的な実施形態を示すブロック図である。図3は、拡張現実装置300が、処理ユニット310、写真撮影ユニット320、入力ユニット330、ストレージユニット340、および表示ユニット350を含むことを示す。
処理ユニット310および写真撮影ユニット320は、それぞれ、処理ユニット110および写真撮影ユニット120とほぼ類似している。したがって、処理ユニット310および写真撮影ユニット320に関する詳細な説明は省略される。
入力ユニット330は、外部ユーザ入力から入力データを受信し、入力データを処理ユニット310に伝送することができる。1つの実施形態において、入力ユニット330は、タッチセンサー、キーパッド、およびマウスのうちの1つまたは複数を含むことができる。例えば、ユーザは、処理ユニット310により処理されるべきアプリケーションの始動を開始するための文字を入力することができる。もう1つの例では、ユーザは、表示ユニット350でグラフィカルユーザインターフェイス(GUI)のオプションを選択するために入力ユニット330を使用することができる。
ストレージユニット340は、実行コードおよびマーカーイメージデータを格納して、コードおよびデータを処理ユニット310に提供することができる。例えば、ストレージユニット340は、マーカーイメージデータを格納することができ、処理ユニット310の要求に応じて、命令および/またはデータを処理ユニット310に供給することができる。一例として、マーカーイメージデータは、マーカーのさまざまな形状または色、および/またはマーカーの形状または色に対応するオブジェクトイメージ、ならびに写真撮影ユニット320からの現実世界イメージに含まれるマーカーを検出するために処理ユニット310に使用されるアルゴリズムまたはプログラムに関する情報を含むことができる。ストレージユニット340の例は、非限定的に、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、ハードディスクドライブ、メモリカード、PCカード、CD−ROM、フロッピーディスク、または磁気テープであってもよい。
表示ユニット350は、画面またはモニタ上に、例えば、処理ユニット310により生成された拡張現実イメージなどのさまざまな情報を表示することができる。表示ユニット350は、例えば、液晶ディスプレイ、ブラウン管(CRT)、有機発光ダイオード、プラズマディスプレイモニタなどを含むことができるが、それらに限定されることはない。
図4は、マーカーの例示的な実施例を示す概略図である。例示的な実施例は、拡張現実装置100または300により実行されてもよい。
1つの実施形態において、マーカーMKは、相互に異なる少なくとも2つのイメージを含むことができる。説明の便宜上、マーカーMKに含まれる各イメージは、これ以降マーカーイメージと称される。一部の実施形態において、マーカーイメージは、2次元または3次元の図形であってもよい。2次元図形の例は、三角形、四角形、六角形、円、または星形であり、3次元図形の例は、六面体、円柱、三角柱、四面体、八面体、または球体である。しかし、図形はそれらに限定されることはなく、文字、数字、花、建造物などのような、さまざまな物体の形状を有することができる。マーカーイメージは、パターン化された形状を有さない場合もあり、マーカーイメージの図形は、相互に区別されうる任意の形状を有することができる。さらに、マーカーイメージは、グラフィックイメージに限定されることはないが、現実世界イメージであってもよい。一部の実施形態において、マーカーイメージは、さまざまな形状以外にさまざまな色を有することができる。
1つの実施形態において、1つのマーカーMKに含まれるマーカーイメージのセットは、連続して所定の時間間隔で、表示デバイス(例えば、表示デバイス200)に繰り返し表示されてもよい。表示されるマーカーイメージは、マーカーMKの所定の位置に配置されてもよい。2つの表示されるマーカーイメージの時間間隔は、写真撮影ユニット120および320により取り込まれる現実世界イメージの秒あたりのフレーム数(毎秒フレーム、fps)に応じて決定されてもよい。すなわち、マーカーイメージの表示間隔は、所定の自然数で除算された写真撮影ユニット120および320のfpsの数とほぼ等しくてもよい。例えば、表示デバイスは、30fpsの写真撮影ユニット120および320の場合、30Hz、15Hz、10Hzなどの周期でマーカーイメージを表示することができる。人間の眼は、表示デバイスにそのような周期で表示されるマーカーイメージを認識しないこともある。
図4は、例えば、4つのマーカーイメージ、すなわち立方体、円柱、三角柱、星形角柱(star−sectional cylinder)のセットにより表される4桁のマーカーMKを示す。図4は、マーカーMKが、4つのマーカーイメージ、すなわち連続する立方体、円柱、三角柱、星形角柱を含み、4つのマーカーイメージが連続して繰り返し表示されることを示す。特に、4つのマーカーイメージ、すなわち立方体、円柱、三角柱、星形角柱の第1の連続が表示デバイスに表示されたのち、4つのマーカーイメージの第2の連続は、所定の時間間隔内に表示デバイスに表示されてもよい。
1つの実施形態において、各マーカーイメージは所定の意味を有することができ、したがってマーカーMKは、それぞれマーカーイメージに割り当てられている所定の意味を組み合わせることによりさまざまな意味を表すことができる。例えば、10のマーカーイメージはそれぞれ、ゼロ(0)から9を表すことができる。この場合、10のマーカーイメージを有するマーカーMKは、一連の数字であってもよく、製品のシリアル番号を示すバーコードのようなオブジェクトイメージを暗示することもできる。もう1つの例において、28のマーカーイメージはそれぞれ、aからzの英文字、スラッシュ、およびドットに対応することができる。したがって、28のマーカーイメージを有するマーカーMKは、オブジェクトイメージを含むURL(uniform resource locator)を表すことができる。数字、英文字のような、マーカーイメージの前述の意味は、例に過ぎず、それらに限定されることはない。マーカーイメージの意味は、さまざまな方法で定義されてもよい。
さらにもう1つの実施形態において、マーカーMKは、オブジェクトイメージを表すマーカーイメージに加えて、マーカーイメージの始めを表す開始イメージ、マーカーイメージの終わりを表す終了イメージ、およびマーカーイメージのエラーを検出するための検査イメージのうちの少なくとも1つをさらに含むことができる。マーカーMKは、検出しやすいようにマーカーイメージを囲む境界線を含むことができるが、それに限定されることはない。
さまざまなマーカーイメージで生成されうるマーカーの数は、マーカーイメージの数とマーカーイメージの繰り返し回数の乗算により計算されてもよい。例えば、マーカーMKが4つのマーカーイメージを含み、マーカーイメージのセットが5回繰り返されると仮定すると、生成されるマーカーMKの数は256である。したがって、4つの異なるマーカーイメージからなる可能な4桁のマーカーMKの数は、4=256である。同様に、4つの異なるマーカーイメージからなる可能な5桁のマーカーMKの数は、4=1、024である。
マーカーイメージは、2次元図形、3次元図形などであってもよく、したがってマーカーイメージを検出することは容易である。さらに、マーカーイメージの数および/または桁を増やすことは容易であり、したがって、多数のマーカーMKが生成されうる。
図5は、拡張現実のための方法の例示的な実施形態を示す流れ図である。方法の例示的な実施形態は、拡張現実装置100により実行されてもよい。
写真撮影ユニット120は、表示デバイス(例えば、表示デバイス200)に表示されるマーカーMKを含む現実世界イメージを取り込むことができる(510)。1つの実施形態において、マーカーMKは、連続して所定の時間間隔で繰り返し表示される複数のマーカーイメージを含むことができる。写真撮影ユニット120は、現実世界イメージを処理ユニット110に送信することができる。
処理ユニット110は、写真撮影ユニット120から受信した現実世界イメージからマーカーMKを検出することができる(520)。1つの実施形態において、処理ユニット110は、所定のフレームレートで現実世界イメージから一部のイメージを選択して、非限定的に、エッジマッチング、グレースケールマッチング、およびグラジエントマッチングのようなオブジェクト認識技術を使用することにより、選択されたイメージからマーカーイメージを検出することができる。処理ユニット110が、表示デバイスへのマーカーイメージの表示間隔に関する情報を有するので、処理ユニット110は、表示間隔を考慮してフレームを決定することができる。例えば、表示デバイスが15Hzの表示間隔でマーカーイメージを表示し、写真撮影ユニット120により取り込まれる秒あたりのフレーム数が30fpsである場合、処理デバイス110は、2フレームごとに2つの現実世界イメージのうちの1つのイメージを選択して、選択されたイメージからマーカーイメージを検出することができる。ユーザは、写真撮影ユニット120の秒あたりのフレーム数を考慮して、表示デバイスのマーカーイメージ表示間隔を決定することができる。一部の実施形態において、ユーザは、表示デバイスのマーカーイメージ表示間隔を考慮して、写真撮影ユニット120の秒あたりのフレーム数を決定することができる。
処理ユニット110は、マーカーイメージの組合せを使用することにより、マーカーMKを解釈することができる。ここで、マーカーMKの「解釈」とは、マーカーイメージの所定の意味を解釈することを示す。一例として、一連の数字を有するマーカーMKは、バーコードを指示すると解釈されてもよい。もう1つの例として、28の英文字を有するマーカーMKは、URLを指示すると解釈されてもよい。1つの実施形態において、処理ユニット110は、マーカーイメージの組合せに対応するマーカー情報を格納したストレージまたはデータベースを検索することにより、要求に応じて外部サーバからマーカー情報を受信することにより、またはマーカーイメージの意味を使用することにより、マーカーMKを解釈することができる。処理ユニット110は、マーカー認識の正確度を高めるために、ブロック520を少なくとも2回繰り返すことができる。つまり、マーカーイメージの第1のセットが検出された後、マーカーイメージの第2のセットは、検出されて、マーカー認識が正しいかどうかを決定するためにマーカーイメージの第1のセットと比較されてもよい。
処理ユニット110は、オブジェクトイメージを格納するストレージまたはデータベースから検出されたマーカーMKに対応するオブジェクトイメージを検索するか(530)、または要求に応じて外部サーバからオブジェクトイメージを受信することができる。処理ユニット110は、オブジェクトイメージを、写真撮影ユニット120からの現実世界イメージと組み合わせて(540)、新しいイメージ、すなわち拡張現実イメージを生成し、装置100に含まれるかまたは外部デバイスである表示ユニットに拡張現実イメージを表示することができる(550)。イメージを組み合わせる場合、オブジェクトイメージは、マーカーMKが位置する現実世界イメージの位置に配置されてもよい。一方、マーカーMKが3次元図形のマーカーイメージを含む場合、処理ユニット110は、3次元図形の向きを検出して、3次元図形の向きに応じて決定される向きにオブジェクトを表示することができる。
図5は拡張現実装置100で実行される方法のフローを示すが、方法が装置300で実行されてもよいことは当業者には明らかである。この場合、入力ユニット330は、外部ユーザ入力から入力データを受信し、入力データを処理ユニット310に送信することができる。写真撮影ユニット320は、表示デバイスに表示されたマーカーMKを含む現実世界イメージを取り込み、現実世界イメージを処理ユニット310に伝送することができる。処理ユニット310は、入力データに従って現実世界イメージからマーカーイメージを検出し、マーカーイメージの組合せに対応するマーカーMKを解釈して、オブジェクトイメージを現実世界イメージと組み合わせることができる。ストレージユニット340は、マーカー情報および/またはオブジェクトイメージを格納して、マーカー情報および/またはオブジェクトイメージを処理ユニット310に伝送することができる。表示ユニット350は、組み合わされたイメージを表示することができる。
図6は、拡張現実のための画面の例示的な実施例を示す概略図である。図6は、拡張イメージが装置300の表示ユニット350に表示されることを示す。拡張イメージは、オブジェクトイメージ(例えば、地球儀オブジェクトOB)にマーカーMKを含む現実世界イメージ(例えば、マーカーMKが表示デバイスに表示される表示デバイス(例えば、表示デバイス200)のイメージ)をオーバーレイすることにより生成されてもよい。地球儀オブジェクトOBは、グラフィックイメージであってもよく、マーカーMKが位置する位置に表示されてもよい。ユーザが、例えば手、ペン、またはマウスを使用して、矢印に沿って表示デバイス200上でマーカーMKを移動させると、地球儀オブジェクトOBもまた、それと共に移動することができる。
1つの実施形態において、拡張現実のための装置は、例えば表示デバイス200のような、表示デバイスをさらにオプションで含むことができる。一例として、装置は、装置100または300により作成された拡張現実を表示するように構成された表示デバイスをオプションで含むことができる。もう1つの実施形態において、拡張現実のための方法は、表示デバイスにマーカーMKを表示することを含むことができる。一例として、マーカーMKの表示は、図5の方法において現実世界イメージの取り込み(510)の前に実行されてもよい。
上記で説明されるように、拡張現実のための装置および方法の例示的な実施形態は、マーカーイメージが単純な形状であることから、ユーザが容易にマーカーを認識できるようにして、拡張現実の分野において新しいタイプのマーカーとして機能できるように多数のマーカーを生成することができる。そのような装置および方法はまた、設計、ゲーム、教育、研究などのような、さまざまな分野に適用されてもよい。
1つの実施形態において、拡張現実のための方法の例示的な実施形態は、ストレージ媒体に適用されてもよい。ストレージ媒体は、コンピュータによって読み込まれ、さまざまなコンピュータにより実施されうる操作を実行するためのプログラム命令を含むことができる。媒体は、拡張現実のための前述の方法を実行するためのプログラムを記録することができる。媒体は、プログラム命令、データファイル、データ構造体、およびそれらの組合せの1つを含むことができる。媒体の例は、ハードディスク、フロッピーディスク、および磁気テープのような磁気媒体、CDおよびDVDのような光媒体、光フロッピーディスクのような光磁気媒体、ならびにROM、RAM、およびフラッシュメモリのようなハードウェアデバイスを含み、媒体はプログラム命令を格納して実行するように構成される。媒体は、光または金属回線、導波管などのような伝送媒体であってもよく、それらの媒体はプログラム命令、データ構造体などを指定するための信号を含むキャリアを含む。プログラム命令の例は、コンパイラによって作成されうる機械コード、およびインタープリタを介してコンピュータにより実行される高水準言語コードを含むことができる。
例示的な実施形態において、本明細書において説明される操作、プロセスなどはいずれも、コンピュータ可読媒体に格納されたコンピュータ可読命令として実施されてもよい。コンピュータ可読命令は、モバイルユニット、ネットワーク要素、および/またはその他のコンピューティングデバイスのプロセッサによって実行されてもよい。
図7は、本開示に従って拡張現実のために配置される例示のコンピューティングデバイス700を示すブロック図である。極めて基本的な構成701において、コンピューティングデバイス700は通常、1つまたは複数のプロセッサ710およびシステムメモリ720を含む。メモリバス730は、プロセッサ710とシステムメモリ720との間で通信するために使用されてもよい。
望ましい構成に応じて、プロセッサ710は、マイクロプロセッサ(μP)、マイクロコントローラ(μC)、デジタルシグナルプロセッサ(DSP)、またはそれらの任意の組合せを含む任意のタイプであってもよいが、これらに限定されることはない。プロセッサ710は、レベル1キャッシュ711およびレベル2キャッシュ712のような、1つまたは複数のレベルのキャッシング、プロセッサコア713、およびレジスタ714を含むことができる。例示のプロセッサコア713は、演算論理装置(ALU:arithmetic logic unit)、浮動小数点演算ユニット(FPU:floating point unit)、デジタル信号処理コア(DSP Core)、またはそれらの任意の組合せを含むことができる。例示のメモリコントローラ715はまた、プロセッサ710と共に使用されてもよいか、または一部の実施態様において、メモリコントローラ715はプロセッサ710の内部部品であってもよい。
望ましい構成に応じて、システムメモリ720は、(RAMのような)揮発性メモリ、(ROM、フラッシュメモリなどのような)不揮発性メモリ、またはそれらの任意の組合せを含む任意のタイプであってもよいが、これらに限定されることはない。システムメモリ720は通常、オペレーティングシステム721、1つまたは複数のアプリケーション722、およびプログラムデータ724を含むことができる。アプリケーション722は、図5のプロセス510から550に関して説明されている機能を含む、本明細書において説明される機能を実行するように配置される拡張現実アルゴリズム723を含むことができる。プログラムデータ724は、後段でさらに説明されるように、拡張現実アルゴリズム723による操作に有用となりうる拡張現実データ725を含むことができる。一部の実施形態において、アプリケーション722は、本明細書において説明されるように堅固な拡張現実の実施態様が提供されうるように、オペレーティングシステム721でプログラムデータ724と共に動作するように配置されてもよい。この説明される基本構成は、破線701内のコンポーネントにより図7に示される。
コンピューティングデバイス700は、基本構成701と任意の必要とされるデバイスおよびインターフェイスとの間の通信を容易にするために、追加の特徴または機能、および追加のインターフェイスを有することができる。例えば、バス/インターフェイスコントローラ740は、ストレージインターフェイスバス741を介して基本構成701と1つまたは複数のデータストレージデバイス750との間の通信を容易にするために使用されてもよい。データストレージデバイス750は、取り外し可能ストレージデバイス751、固定式ストレージデバイス752、またはその組合せであってもよい。取り外し可能ストレージデバイスおよび固定式ストレージデバイスの例は、ほんの一部をあげると、フレキシブルディスクドライブおよびハードディスクドライブ(HDD)のような磁気ディスクデバイス、コンパクトディスク(CD)ドライブまたはデジタル多用途ディスク(DVD)ドライブのような光ディスクドライブ、ソリッドステートドライブ(SSD)、およびテープドライブを含む。例示のコンピュータストレージ媒体は、コンピュータ可読命令、データ構造体、プログラムモジュール、またはその他のデータのような情報の格納のための任意の方法または技術で実施された揮発性および不揮発性の、取り外し可能および固定式媒体を含むことができる。
システムメモリ720、取り外し可能ストレージ751、および固定式ストレージ752はすべて、コンピュータストレージ媒体の例である。コンピュータストレージ媒体は、RAM、ROM、EEPROM、フラッシュメモリまたはその他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)またはその他の光ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージまたはその他の磁気ストレージデバイス、もしくは所望の情報を格納するために使用されうる、コンピューティングデバイス700によってアクセスされうる任意の他の媒体を含むが、これらに限定されることはない。任意のそのようなコンピュータストレージ媒体は、デバイス700の一部であってもよい。
コンピューティングデバイス700はまた、バス/インターフェイスコントローラ740を介して、さまざまなインターフェイスデバイス(例えば、出力インターフェイス、周辺インターフェイス、および通信インターフェイス)から基本構成701への通信を容易にするために、インターフェイスバス742を含むことができる。例示の出力デバイス760は、グラフィック処理ユニット761およびオーディオ処理ユニット762を含み、これらは1つまたは複数のA/Vポート763を介してディスプレイまたはスピーカのようなさまざまな外部デバイスと通信するように構成されてもよい。例示の周辺インターフェイス770は、シリアルインターフェイスコントローラ771またはパラレルインターフェイスコントローラ772を含み、これらは1つまたは複数のI/Oポート773を介して入力デバイス(例えば、キーボード、マウス、ペン、音声入力デバイス、タッチ入力デバイスなど)またはその他の周辺デバイス(例えば、プリンタ、スキャナなど)のような外部デバイスと通信するように構成されてもよい。例示の通信デバイス780はネットワークコントローラ781を含み、これは1つまたは複数の通信ポート782を介するネットワーク通信リンク上の1つまたは複数のその他のコンピューティングデバイス790との通信を容易にするために配置されてもよい。
ネットワーク通信リンクは、通信媒体の1つの例であってもよい。通信媒体は通常、搬送波または他のトランスポート機構のような、変調データ信号でコンピュータ可読命令、データ構造体、プログラムモジュール、またはその他のデータによって具現されてもよく、任意の情報配信媒体を含むことができる。「変調データ信号」とは、信号の特性セットの1つまたは複数を有する信号、または信号の情報をエンコードするような方法で変更された信号であってもよい。限定的ではなく、一例として、通信媒体は、有線ネットワークまたは直接有線接続のような有線媒体、ならびに音響、無線周波数(RF)、マイクロ波、赤外線(IR)および他の無線媒体のような無線媒体を含むことができる。本明細書に使用されているコンピュータ可読媒体という用語は、ストレージ媒体および通信媒体の両方を含むことができる。
コンピューティングデバイス700は、携帯電話、携帯情報端末(PDA)のような小型フォームファクターポータブル(またはモバイル)電子デバイス、パーソナルメディアプレイヤーデバイス、無線Web視聴デバイス、パーソナルハンドセットデバイス、アプリケーション固有デバイス、または上記の機能のいずれかを含む混合デバイスの一部として実施されてもよい。コンピューティングデバイス700はまた、ラップトップコンピュータおよびラップトップコンピュータ以外の両方の構成を含むパーソナルコンピュータとして実施されてもよい。
システムの側面でのハードウェアの実装形態とソフトウェアの実装形態との間には、ほとんど相違が残されていない。ハードウェアまたはソフトウェアの使用は、一般に(いつもそうではないが、ある状況ではハードウェアとソフトウェアの間の選択が重要になり得るという点で)コスト対効果のトレードオフを表す設計上の選択である。本明細書に記載された、プロセスおよび/またはシステムおよび/または他の技術をもたらすことができるさまざまな達成手段があり(例えば、ハードウェア、ソフトウェア、および/またはファームウェア)、好ましい達成手段は、プロセスおよび/またはシステムおよび/または他の技術が導入される状況によって異なる。例えば、実装者が速度と正確性が最も重要であると決定すると、実装者は主にハードウェアおよび/またはファームウェアの達成手段を選択することができる。フレキシビリティが最も重要なら、実装者は主にソフトウェアの実装形態を選択することができる。または、さらに別の代替案として、実装者は、ハードウェア、ソフトウェア、および/またはファームウェアのなんらかの組合せを選択することができる。
前述の詳細な説明では、ブロック図、フローチャート、および/または例の使用によって、装置および/またはプロセスのさまざまな実施形態を説明してきた。そのようなブロック図、フローチャート、および/または例が1つまたは複数の機能および/または動作を含む限りにおいて、そのようなブロック図、フローチャート、または例の中のそれぞれの機能および/または動作は、広範囲のハードウェア、ソフトウェア、ファームウェア、または実質上それらのすべての組合せにより、個別におよび/または集合的に実装可能であることが、当業者には理解されるであろう。ある実施形態では、本明細書に記載された主題のいくつかの部分は、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタルシグナルプロセッサ(DSP)、または他の集積化方式によって実装することができる。しかし、本明細書で開示された実施形態のいくつかの態様が、全体においてまたは一部において、1つまたは複数のコンピュータ上で動作する1つまたは複数のコンピュータプログラムとして(例えば、1つまたは複数のコンピュータシステム上で動作する1つまたは複数のプログラムとして)、1つまたは複数のプロセッサ上で動作する1つまたは複数のプログラムとして(例えば、1つまたは複数のマイクロプロセッサ上で動作する1つまたは複数のプログラムとして)、ファームウェアとして、あるいは実質上それらの任意の組合せとして、等価に集積回路に実装することができることを、当業者は認識するであろうし、電気回路の設計ならびに/またはソフトウェアおよび/もしくはファームウェアのコーディングが、本開示に照らして十分当業者の技能の範囲内であることを、当業者は認識するであろう。さらに、本明細書に記載された主題のメカニズムをさまざまな形式のプログラム製品として配布することができることを、当業者は理解するであろうし、本明細書に記載された主題の例示的な実施形態が、実際に配布を実行するために使用される信号伝達媒体の特定のタイプにかかわらず適用されることを、当業者は理解するであろう。信号伝達媒体の例には、フロッピーディスク、ハードディスクドライブ、CD、DVD、デジタルテープ、コンピュータメモリ、などの記録可能なタイプの媒体、ならびに、デジタル通信媒体および/またはアナログ通信媒体(例えば、光ファイバケーブル、導波管、有線通信リンク、無線通信リンクなど)の通信タイプの媒体が含まれるが、それらには限定されない。
本明細書で説明したやり方で装置および/またはプロセスを記載し、その後そのように記載された装置および/またはプロセスを、データ処理システムに統合するためにエンジニアリング方式を使用することは、当技術分野で一般的であることを当業者は認識するであろう。すなわち、本明細書に記載された装置および/またはプロセスの少なくとも一部を、妥当な数の実験によってデータ処理システムに統合することができる。通常のデータ処理システムは、一般に、システムユニットハウジング、ビデオディスプレイ装置、揮発性メモリおよび不揮発性メモリなどのメモリ、マイクロプロセッサおよびデジタル信号プロセッサなどのプロセッサ、オペレーティングシステムなどの計算実体、ドライバ、グラフィカルユーザインターフェイス、およびアプリケーションプログラムのうちの1つもしくは複数、タッチパッドもしくはスクリーンなどの1つもしくは複数の相互作用装置、ならびに/またはフィードバックループおよびコントロールモータを含むコントロールシステム(例えば、位置検知用および/もしくは速度検知用フィードバック、コンポーネントの移動用および/もしくは数量の調整用コントロールモータ)を含むことを、当業者は理解するであろう。通常のデータ処理システムは、データコンピューティング/通信システムおよび/またはネットワークコンピューティング/通信システムの中に通常見られるコンポーネントなどの、市販の適切なコンポーネントを利用して実装することができる。
本明細書に記載された主題は、さまざまなコンポーネントをしばしば例示しており、これらのコンポーネントは、他のさまざまなコンポーネントに包含されるか、または他のさまざまなコンポーネントに接続される。そのように図示されたアーキテクチャは、単に例に過ぎず、実際には、同じ機能を実現する多くの他のアーキテクチャが実装可能であることが理解されよう。概念的な意味で、同じ機能を実現するコンポーネントの任意の構成は、所望の機能が実現されるように効果的に「関連付け」される。したがって、特定の機能を実現するために組み合わされた、本明細書における任意の2つのコンポーネントは、アーキテクチャまたは中間のコンポーネントにかかわらず、所望の機能が実現されるように、お互いに「関連付け」されていると見ることができる。同様に、そのように関連付けされた任意の2つのコンポーネントは、所望の機能を実現するために、互いに「動作可能に接続」または「動作可能に結合」されていると見なすこともでき、そのように関連付け可能な任意の2つのコンポーネントは、所望の機能を実現するために、互いに「動作可能に結合できる」と見なすこともできる。動作可能に結合できる場合の具体例には、物理的にかみ合わせ可能な、および/もしくは物理的に相互作用するコンポーネント、ならびに/またはワイヤレスに相互作用可能な、および/もしくはワイヤレスに相互作用するコンポーネント、ならびに/または論理的に相互作用する、および/もしくは論理的に相互作用可能なコンポーネントが含まれるが、それらに限定されない。
本明細書における実質的にすべての複数形および/または単数形の用語の使用に対して、当業者は、状況および/または用途に適切なように、複数形から単数形に、および/または単数形から複数形に変換することができる。さまざまな単数形/複数形の置き換えは、理解しやすいように、本明細書で明確に説明することができる。
通常、本明細書において、特に添付の特許請求の範囲(例えば、添付の特許請求の範囲の本体部)において使用される用語は、全体を通じて「オープンな(open)」用語として意図されていることが、当業者には理解されよう(例えば、用語「含む(including)」は、「含むがそれに限定されない(including but not limited to)」と解釈されるべきであり、用語「有する(having)」は、「少なくとも有する(having at least)」と解釈されるべきであり、用語「含む(includes)」は、「含むがそれに限定されない(includes but is not limited to)」と解釈されるべきである、など)。導入される請求項で具体的な数の記載が意図される場合、そのような意図は、当該請求項において明示的に記載されることになり、そのような記載がない場合、そのような意図は存在しないことが、当業者にはさらに理解されよう。例えば、理解の一助として、添付の特許請求の範囲は、導入句「少なくとも1つの(at least one)」および「1つまたは複数の(one or more)」を使用して請求項の記載を導くことを含む場合がある。しかし、そのような句の使用は、同一の請求項が、導入句「1つまたは複数の」または「少なくとも1つの」および「a」または「an」などの不定冠詞を含む場合であっても、不定冠詞「a」または「an」による請求項の記載の導入が、そのように導入される請求項の記載を含む任意の特定の請求項を、単に1つのそのような記載を含む実施形態に限定する、ということを示唆していると解釈されるべきではない(例えば、「a」および/または「an」は、「少なくとも1つの」または「1つまたは複数の」を意味すると解釈されるべきである)。同じことが、請求項の記載を導入するのに使用される定冠詞の使用にも当てはまる。また、導入される請求項の記載で具体的な数が明示的に記載されている場合でも、そのような記載は、少なくとも記載された数を意味すると解釈されるべきであることが、当業者には理解されよう(例えば、他の修飾語なしでの「2つの記載(two recitations)」の単なる記載は、少なくとも2つの記載、または2つ以上の記載を意味する)。さらに、「A、BおよびC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(例えば、「A、B、およびCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。「A、B、またはC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(例えば、「A、B、またはCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。2つ以上の代替用語を提示する事実上いかなる離接する語および/または句も、明細書、特許請求の範囲、または図面のどこにあっても、当該用語の一方(one of the terms)、当該用語のいずれか(either of the terms)、または両方の用語(both terms)を含む可能性を企図すると理解されるべきであることが、当業者にはさらに理解されよう。例えば、句「AまたはB」は、「A」または「B」あるいは「AおよびB」の可能性を含むことが理解されよう。
加えて、本開示の特徴または態様がマーカッシュグループに関して説明される場合、それにより本開示はまた、マーカッシュグループの構成要素の任意の個々の構成要素または構成要素のサブグループに関しても説明されることを当業者は理解するであろう。
書面による説明を行うことに関してなど、任意およびすべての目的のため、当業者によって理解されるように、本明細書において開示されるあらゆる範囲はまた、任意およびすべての可能な下位範囲およびその下位範囲の組合せを網羅する。任意の一覧される範囲は、同範囲が少なくとも等価の2分の1、3分の1、4分の1、5分の1、10分の1などに分解されることを十分に説明および可能にするものと容易に理解されてもよい。非限定的な例として、本明細書において説明される各範囲は、下3分の1、中3分の1、および上3分の1などに容易に分解されてもよい。さらに当業者によって理解されるように、「最大(up to)」、「少なくとも(at least)」などのようなすべての表現は、列挙される数を含み、引き続き上記で説明されている下位範囲に分解されてもよい範囲を示す。最後に、当業者に理解されるように、範囲は個々の構成要素を含む。したがって、例えば、1〜3個のセルを有するグループは、1個、2個、または3個のセルを有するグループを示す。同様に、1〜5個のセルを有するグループは、1個、2個、3個、4個、または5個のセルを有するグループを示し、以下同様である。
以上の記述から、本開示のさまざまな実施形態は本明細書において例示の目的で説明されており、本開示の範囲および精神を逸脱することなくさまざまな変更が行われてもよいことが理解されよう。したがって、本明細書において開示されるさまざまな実施形態は、限定的であることを意図されておらず、真の範囲および精神は後段の特許請求の範囲により示される。

Claims (20)

  1. マーカーを含む現実世界イメージを生成するように構成された写真撮影ユニットと、
    前記現実世界イメージから前記マーカーを検出し、検出された前記マーカーに対応するオブジェクトイメージを前記現実世界イメージと結合して、拡張現実イメージを生成するように構成された処理ユニットとを備える拡張現実のための装置であって、
    前記マーカーは少なくとも2つの異なるマーカーイメージを備える装置。
  2. 前記マーカーイメージを表示するように構成された表示デバイスをさらに備える請求項1に記載の装置。
  3. 前記マーカーイメージが、連続して所定の時間間隔で前記表示デバイスに表示される請求項2に記載の装置。
  4. 前記マーカーイメージの表示間隔が、前記写真撮影ユニットが前記現実世界イメージを生成する毎秒フレーム数を所定の自然数で除算した商とほぼ等しい請求項2に記載の装置。
  5. 前記マーカーが、前記マーカーイメージの始めを表す開始イメージ、前記マーカーイメージの終わりを表す終了イメージ、および前記マーカーイメージのエラーを検出するための検査イメージのうちの少なくとも1つをさらに備える請求項1に記載の装置。
  6. 前記マーカーが、グラフィック交換フォーマット(GIF)ファイル、フラッシュファイル、およびアニメーションファイルのうちの少なくとも1つから成る請求項1に記載の装置。
  7. 前記マーカーイメージの各々が所定の意味を有する請求項1に記載の装置。
  8. 組み合わされた前記イメージを表示するように構成された表示ユニットをさらに備える請求項1に記載の装置。
  9. 前記オブジェクトイメージおよび/または前記マーカーに関する情報を格納するように構成されたストレージユニットをさらに備える請求項1に記載の装置。
  10. 外部ユーザ入力から入力データを受信し、前記入力データを前記処理ユニットに伝送するように構成された入力ユニットをさらに備える請求項1に記載の装置。
  11. 拡張現実装置に提供される少なくとも2つの異なるマーカーイメージを含むマーカーを表示するように構成された表示ユニットを備える処理デバイス。
  12. 前記表示ユニットが、連続して所定の時間間隔で前記マーカーイメージを表示する請求項11に記載のデバイス。
  13. 前記マーカーイメージの表示間隔が、前記拡張現実装置が現実世界イメージを取り込む毎秒フレーム数を所定の自然数で除算した商と等しい請求項11に記載のデバイス。
  14. 前記マーカーが、前記マーカーイメージの始めを表す開始イメージ、前記マーカーイメージの終わりを表す終了イメージ、および前記マーカーイメージのエラーを検出するための検査イメージのうちの少なくとも1つをさらに備える請求項11に記載のデバイス。
  15. 現実世界イメージからマーカーを検出することと、
    検出された前記マーカーに対応するオブジェクトイメージを検索することと、
    前記オブジェクトイメージを前記現実世界イメージと組み合わせて拡張現実イメージを生成することとを備える拡張現実のための方法であって、
    前記マーカーは少なくとも2つの異なるマーカーイメージを備える方法。
  16. 前記マーカーを含む前記現実世界イメージを生成することをさらに備える請求項15に記載の方法。
  17. 前記現実世界イメージから前記マーカーを検出する前に、前記現実世界イメージに含まれる前記マーカーの前記マーカーイメージを連続して所定の時間間隔で表示することをさらに備える請求項16に記載の方法。
  18. 前記マーカーイメージを前記表示することが、前記マーカーイメージを所定の表示間隔で表示することを備え、前記マーカーイメージの前記所定の表示間隔は、前記現実世界イメージを生成する毎秒フレーム数を所定の自然数で除算した商と等しい請求項17に記載の方法。
  19. 前記マーカーが、前記マーカーイメージの始めを表す開始イメージ、前記マーカーイメージの終わりを表す終了イメージ、および前記マーカーイメージのエラーを検出するための検査イメージのうちの少なくとも1つをさらに備える請求項15に記載の方法。
  20. 少なくとも1つのプロセッサにより実行されるとき、プロセッサに請求項15に記載の方法を実行させるコンピュータプログラムを格納したコンピュータ可読媒体。
JP2013513094A 2010-08-06 2010-08-06 拡張現実のための装置および方法 Expired - Fee Related JP5632073B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2010/005164 WO2012018149A1 (en) 2010-08-06 2010-08-06 Apparatus and method for augmented reality

Publications (2)

Publication Number Publication Date
JP2013530462A true JP2013530462A (ja) 2013-07-25
JP5632073B2 JP5632073B2 (ja) 2014-11-26

Family

ID=45555822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013513094A Expired - Fee Related JP5632073B2 (ja) 2010-08-06 2010-08-06 拡張現実のための装置および方法

Country Status (5)

Country Link
US (1) US9183675B2 (ja)
JP (1) JP5632073B2 (ja)
KR (1) KR101383982B1 (ja)
CN (1) CN102893596B (ja)
WO (1) WO2012018149A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015079433A (ja) * 2013-10-18 2015-04-23 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP2019095889A (ja) * 2017-11-20 2019-06-20 東京電力ホールディングス株式会社 拡張現実表示用マーカ
JP2020071543A (ja) * 2018-10-29 2020-05-07 大豊精機株式会社 複合現実感システム及び検査方法

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8315673B2 (en) * 2010-01-12 2012-11-20 Qualcomm Incorporated Using a display to select a target object for communication
US20110169947A1 (en) * 2010-01-12 2011-07-14 Qualcomm Incorporated Image identification using trajectory-based location determination
US20120256955A1 (en) * 2011-04-07 2012-10-11 Infosys Limited System and method for enabling augmented reality in reports
US8963957B2 (en) * 2011-07-15 2015-02-24 Mark Skarulis Systems and methods for an augmented reality platform
US9277367B2 (en) * 2012-02-28 2016-03-01 Blackberry Limited Method and device for providing augmented reality output
US9583032B2 (en) 2012-06-05 2017-02-28 Microsoft Technology Licensing, Llc Navigating content using a physical object
CN102739872A (zh) * 2012-07-13 2012-10-17 苏州梦想人软件科技有限公司 移动终端及应用于移动终端的增强现实方法
JP5960836B2 (ja) * 2012-10-31 2016-08-02 擴張世界有限公司 画像表示システム、電子機器、プログラムおよび画像表示方法
JP6021592B2 (ja) * 2012-11-06 2016-11-09 任天堂株式会社 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
US20140140573A1 (en) * 2012-11-21 2014-05-22 Gravity Jack, Inc. Pose Tracking through Analysis of an Image Pyramid
US9728008B2 (en) * 2012-12-10 2017-08-08 Nant Holdings Ip, Llc Interaction analysis systems and methods
US8988574B2 (en) 2012-12-27 2015-03-24 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
MX343578B (es) 2012-12-27 2016-11-10 Panasonic Ip Corp America Metodo de comunicacion de informacion.
US10951310B2 (en) 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter
US10523876B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Information communication method
WO2014103161A1 (ja) 2012-12-27 2014-07-03 パナソニック株式会社 情報通信方法
US9608725B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US10530486B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US8922666B2 (en) 2012-12-27 2014-12-30 Panasonic Intellectual Property Corporation Of America Information communication method
US10303945B2 (en) * 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
EP2940901B1 (en) 2012-12-27 2019-08-07 Panasonic Intellectual Property Corporation of America Display method
US9087349B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9430877B2 (en) * 2013-01-25 2016-08-30 Wilus Institute Of Standards And Technology Inc. Electronic device and method for selecting augmented content using the same
US20140270477A1 (en) * 2013-03-14 2014-09-18 Jonathan Coon Systems and methods for displaying a three-dimensional model from a photogrammetric scan
US10109075B2 (en) * 2013-03-15 2018-10-23 Elwha Llc Temporal element restoration in augmented reality systems
US8922589B2 (en) 2013-04-07 2014-12-30 Laor Consulting Llc Augmented reality apparatus
CA2852449A1 (en) * 2013-05-23 2014-11-23 Powerball Technologies Inc. Light fixture selection using augmented reality
CN103412954A (zh) * 2013-08-30 2013-11-27 苏州跨界软件科技有限公司 一种利用增强现实技术的虚拟动态杂志
CN103530594B (zh) * 2013-11-05 2017-06-16 深圳市幻实科技有限公司 一种提供增强现实的方法、系统及终端
CN104661101A (zh) * 2013-11-22 2015-05-27 胜华科技股份有限公司 针对多媒体数据提供增强现实效果的系统和方法
CN103760972B (zh) * 2013-12-18 2017-03-01 微软技术许可有限责任公司 跨平台的增强现实体验
KR102197964B1 (ko) * 2014-01-29 2021-01-04 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
US9541996B1 (en) * 2014-02-28 2017-01-10 Google Inc. Image-recognition based game
US20150302639A1 (en) * 2014-03-26 2015-10-22 Augmentecture, Inc. Method and system for creating enhanced images including augmented reality features to be viewed on mobile devices with corresponding designs
GB201410285D0 (en) * 2014-06-10 2014-07-23 Appeartome Ltd Augmented reality apparatus and method
US9934594B2 (en) 2015-09-09 2018-04-03 Spell Disain Ltd. Textile-based augmented reality systems and methods
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
JP7098870B2 (ja) * 2016-07-25 2022-07-12 富士フイルムビジネスイノベーション株式会社 測色システム、画像生成装置、および、プログラム
DE102016121281A1 (de) * 2016-11-08 2018-05-09 3Dqr Gmbh Verfahren und Vorrichtung zum Überlagern eines Abbilds einer realen Szenerie mit virtuellen Bild- und Audiodaten und ein mobiles Gerät
JP7313361B2 (ja) * 2018-02-15 2023-07-24 マジック リープ, インコーポレイテッド 複合現実楽器
CN110245667A (zh) * 2018-03-08 2019-09-17 中华映管股份有限公司 物件辨识方法及其装置
WO2019226001A1 (en) * 2018-05-23 2019-11-28 Samsung Electronics Co., Ltd. Method and apparatus for managing content in augmented reality system
CN108924533A (zh) * 2018-08-17 2018-11-30 Oppo(重庆)智能科技有限公司 增强现实显示方法和装置、存储介质、增强现实设备
CN109461145B (zh) * 2018-10-17 2021-03-23 网易(杭州)网络有限公司 增强现实光照处理测试方法及装置
US11455716B2 (en) * 2018-11-13 2022-09-27 Rivian Ip Holdings, Llc Image analysis of applied adhesive with fluorescence enhancement
US11475637B2 (en) * 2019-10-21 2022-10-18 Wormhole Labs, Inc. Multi-instance multi-user augmented reality environment
EP4200792A1 (en) 2020-08-21 2023-06-28 Mobeus Industries, Inc. Integrating overlaid digital content into displayed data via graphics processing circuitry
US20220138994A1 (en) * 2020-11-04 2022-05-05 Micron Technology, Inc. Displaying augmented reality responsive to an augmented reality image
KR102316042B1 (ko) * 2020-12-17 2021-10-22 전성훈 3d 모형의 마커를 다중으로 인식하는 증강현실 콘텐츠 제공 방법 및 시스템
US11481933B1 (en) 2021-04-08 2022-10-25 Mobeus Industries, Inc. Determining a change in position of displayed digital content in subsequent frames via graphics processing circuitry
US11483156B1 (en) 2021-04-30 2022-10-25 Mobeus Industries, Inc. Integrating digital content into displayed data on an application layer via processing circuitry of a server
US11682101B2 (en) * 2021-04-30 2023-06-20 Mobeus Industries, Inc. Overlaying displayed digital content transmitted over a communication network via graphics processing circuitry using a frame buffer
US11601276B2 (en) 2021-04-30 2023-03-07 Mobeus Industries, Inc. Integrating and detecting visual data security token in displayed data via graphics processing circuitry using a frame buffer
US11475610B1 (en) 2021-04-30 2022-10-18 Mobeus Industries, Inc. Controlling interactivity of digital content overlaid onto displayed data via graphics processing circuitry using a frame buffer
US11477020B1 (en) 2021-04-30 2022-10-18 Mobeus Industries, Inc. Generating a secure random number by determining a change in parameters of digital content in subsequent frames via graphics processing circuitry
US11586835B2 (en) 2021-04-30 2023-02-21 Mobeus Industries, Inc. Integrating overlaid textual digital content into displayed data via graphics processing circuitry using a frame buffer
US11562153B1 (en) 2021-07-16 2023-01-24 Mobeus Industries, Inc. Systems and methods for recognizability of objects in a multi-layer display

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01300285A (ja) * 1988-05-30 1989-12-04 Canon Inc 画像処理装置
JP2005250950A (ja) * 2004-03-05 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> マーカ提示用携帯端末および拡張現実感システムならびにその動作方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8547401B2 (en) * 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
CN100470452C (zh) * 2006-07-07 2009-03-18 华为技术有限公司 一种实现三维增强现实的方法及系统
US20090109240A1 (en) * 2007-10-24 2009-04-30 Roman Englert Method and System for Providing and Reconstructing a Photorealistic Three-Dimensional Environment
EP2157545A1 (en) 2008-08-19 2010-02-24 Sony Computer Entertainment Europe Limited Entertainment device, system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01300285A (ja) * 1988-05-30 1989-12-04 Canon Inc 画像処理装置
JP2005250950A (ja) * 2004-03-05 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> マーカ提示用携帯端末および拡張現実感システムならびにその動作方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200500287018; 岸野 泰恵 塚本 昌彦 坂根 裕 西尾 章治郎: 'コンピュータディスプレイとカメラを用いた拡張現実感のための位置登録方式' 情報処理学会論文誌 第44巻 第12号 第44巻 第12号, 20031215, P.3188-3196, 社団法人情報処理学会 *
JPN6013059515; 岸野 泰恵 塚本 昌彦 坂根 裕 西尾 章治郎: 'コンピュータディスプレイとカメラを用いた拡張現実感のための位置登録方式' 情報処理学会論文誌 第44巻 第12号 第44巻 第12号, 20031215, P.3188-3196, 社団法人情報処理学会 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015079433A (ja) * 2013-10-18 2015-04-23 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US9916687B2 (en) 2013-10-18 2018-03-13 Nintendo Co., Ltd. Computer-readable recording medium recording information processing program, information processing apparatus, information processing system, and information processing method
JP2019095889A (ja) * 2017-11-20 2019-06-20 東京電力ホールディングス株式会社 拡張現実表示用マーカ
JP2020071543A (ja) * 2018-10-29 2020-05-07 大豊精機株式会社 複合現実感システム及び検査方法

Also Published As

Publication number Publication date
WO2012018149A1 (en) 2012-02-09
CN102893596A (zh) 2013-01-23
US9183675B2 (en) 2015-11-10
CN102893596B (zh) 2016-08-03
US20120032977A1 (en) 2012-02-09
KR101383982B1 (ko) 2014-04-10
JP5632073B2 (ja) 2014-11-26
KR20130009829A (ko) 2013-01-23

Similar Documents

Publication Publication Date Title
JP5632073B2 (ja) 拡張現実のための装置および方法
JP7238139B2 (ja) 人工知能による画像領域の認識方法、モデルのトレーニング方法、画像処理機器、端末機器、サーバー、コンピュータ機器及びコンピュータプログラム
Qiu et al. Semanticadv: Generating adversarial examples via attribute-conditioned image editing
Huang et al. Mobile augmented reality survey: a bottom-up approach
US8610714B2 (en) Systems, methods, and computer-readable media for manipulating graphical objects
US20220335661A1 (en) System and method for playback of augmented reality content triggered by image recognition
US20110064381A1 (en) Method and apparatus for identifying video transitions
Badam et al. Visfer: Camera-based visual data transfer for cross-device visualization
CN102411614A (zh) 图像搜索结果的显示
US9524573B2 (en) Systems, methods, and computer-readable media for manipulating and mapping tiles of graphical object data
KR101572870B1 (ko) 큐알코드 큐브를 이용한 증강현실 서비스 시스템
Ritsos et al. Synthetic visualizations in web-based mixed reality
Chen et al. Egocentric-view fingertip detection for air writing based on convolutional neural networks
US11451721B2 (en) Interactive augmented reality (AR) based video creation from existing video
KR20150134998A (ko) 전자 장치 및 이의 출력 특성 제어 방법
KR20140131087A (ko) 학습 컨텐츠 제공 방법, 이를 위한 시스템 및 장치
Ogiela et al. Natural user interfaces for exploring and modeling medical images and defining gesture description technology
KR101572867B1 (ko) 오버레이 기반 큐알 코드를 이용한 증강현실 서비스 시스템
Rooney et al. HiReD: a high-resolution multi-window visualisation environment for cluster-driven displays
Ouyang et al. SwinD-Net: A lightweight segmentation network for laparoscopic liver segmentation
CN107872730A (zh) 一种视频中的嵌入内容的获取方法和装置
US20140149934A1 (en) Method, Apparatus and Computer Program Product for Managing Content
Chen et al. 3D registration based perception in augmented reality environment
Sousa et al. Glaze: A visualization framework for mobile devices
US20230326094A1 (en) Integrating overlaid content into displayed data via graphics processing circuitry and processing circuitry using a computing memory and an operating system memory

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140808

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141008

R150 Certificate of patent or registration of utility model

Ref document number: 5632073

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees