JP2013528870A - 拡張現実のための方法および装置 - Google Patents

拡張現実のための方法および装置 Download PDF

Info

Publication number
JP2013528870A
JP2013528870A JP2013513131A JP2013513131A JP2013528870A JP 2013528870 A JP2013528870 A JP 2013528870A JP 2013513131 A JP2013513131 A JP 2013513131A JP 2013513131 A JP2013513131 A JP 2013513131A JP 2013528870 A JP2013528870 A JP 2013528870A
Authority
JP
Japan
Prior art keywords
camera
world environment
image
features
real world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013513131A
Other languages
English (en)
Other versions
JP5578691B2 (ja
Inventor
ニコラス フォック,
ゲルト ヨハンソン,
アンダース アストローム,
Original Assignee
サーブ アクティエボラーグ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サーブ アクティエボラーグ filed Critical サーブ アクティエボラーグ
Publication of JP2013528870A publication Critical patent/JP2013528870A/ja
Application granted granted Critical
Publication of JP5578691B2 publication Critical patent/JP5578691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/487Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

【課題】本発明は、実世界の指標を必要としない拡張現実のためのモバイル機器における方法に関する。
【解決手段】その方法は、所定の位置で少なくとも1つのカメラにより撮られた実世界環境の画像を受信するステップ(200)と、前記位置を受信するステップ(210)と、前記位置と関連するIDを受信するステップであって、前記IDが前記画像から一組の特徴を抽出するために前記画像で使用されるべきアルゴリズムと関連付けられるステップ(220)と、前記アルゴリズムを使用して抽出された前記位置での前記実世界環境における記憶された特徴の組を受信するステップ(230)と、前記アルゴリズムを使用して前記画像から前記特徴の組を抽出するステップ(240)と、前記特徴の組と前記記憶された特徴の組とを比較することによって前記カメラが前記実世界環境内の物体を観察しているかどうか、および前記カメラが前記実世界環境内の物体をどのように観察しているのかを決定するステップ(250)とを備える。また、本発明は、対応するサーバおよびモバイル機器に関する。
【選択図】図2

Description

本発明は、拡張現実のための装置および方法に関し、特に、カメラが実世界環境(realworld environment)内の物体を観察しているかどうか、およびカメラが実世界環境内の物体をどのように観察しているのかを決定するための方法および装置に関する。
(背景)
拡張現実、ARは、仮想のCG像により実世界環境が拡張される、実世界環境の生の直接的な或いは間接的な視野である。
一般に、ユーザは拡張現実ゴーグルを携行し、この拡張現実ゴーグルによってユーザは実世界環境を見ることができる。同時に、1つの画像がユーザの視野内に投影される。画像が適切にユーザにより受けられるように、画像は幾何学的に正確に投影されなければならない。起こり得る世界をリアルタイムで広げる拡張現実を可能にするために、これは、例えばコンピュータゲームや他の用途などの多くの用途を大幅に変革し得る。
拡張現実に関連する1つの問題は、ユーザの視野内への画像の地理的に正確な投影の計算方法である。計算されなければならないパラメータは、例えば、姿勢、および、実世界環境内の物体までの距離である。
拡張現実を実施するために、カメラは、最初に、拡張現実システムが仮想のCG像により拡張したい実世界環境の画像を撮る必要がある。その後、拡張現実システムは、画像が何を描いているのかを決定し、その後、姿勢および実世界環境内の物体までの距離を決定する必要がある。これは、例えば、三次元内の物体とカメラの位置との間の関係であってもよい。
物体とカメラの位置との間の関係を決定するための1つの解決策は、容易に識別され得る公知のパターンを伴う指標を使用することであった。これらの指標は、実世界環境内に配置されてきた。拡張現実システムが後に画像を解析するときに、これらの指標が識別され得る。その後、カメラと指標との間の関係を計算するために、パターンが使用され得る。この情報は、その後、画像がユーザの視野内へどのようにして地理的に正確に投影されるべきかを決定するために使用される。
しかしながら、この解決策に伴う欠点は、それが実世界環境における指標を必要とするという点である。
したがって、前述した問題のうちの少なくとも1つを解決する或いは少なくとも軽減する、拡張現実のための改良された解決策の必要性がある。
(概要)
したがって、本発明の目的は、実世界環境における指標を必要としない拡張現実のための装置および方法を提供することである。
第1の態様によれば、本発明は、拡張現実のためのモバイル機器に関する。モバイル機器は、所定の位置で少なくとも1つのカメラにより撮られた実世界環境の画像を受信するように構成される受信手段を備える。受信手段は、その位置と、画像から一組の特徴を抽出するために画像で使用されるべきアルゴリズムと関連付けられるIDと、アルゴリズムを使用して抽出された位置での実世界環境における記憶された特徴の組と、を受信するように更に構成される。モバイル機器は、アルゴリズムを使用して画像から特徴の組を抽出するとともに、その特徴の組と記憶された特徴の組とを比較することによってカメラが実世界環境内の物体を観察しているかどうか、およびカメラが実世界環境内の物体をどのように観察しているのかを決定するように構成される処理手段を更に備える。
したがって、本発明に係る目的は、画像から抽出される特徴の組と記憶された特徴の組とを比較することにより達成される。画像全体を使用する代わりにその特徴の組と記憶された特徴の組とを比較すると、その特徴の組または記憶された特徴の組をモバイルネットワーク内で転送するだけで済むため、モバイル環境内のソリューションを使用できる。
第2の態様によれば、本発明は、拡張現実のためのモバイル機器における方法に関する。方法は、所定の位置で少なくとも1つのカメラにより撮られた実世界環境の画像を受信するステップと、その位置を受信するステップと、その位置と関連するIDを受信するステップであって、IDが画像から一組の特徴を抽出するために画像で使用されるべきアルゴリズムと関連付けられるステップと、アルゴリズムを使用して抽出された位置での実世界環境における記憶された特徴の組を受信するステップと、アルゴリズムを使用して画像から特徴の組を抽出するステップと、その特徴の組と記憶された特徴の組とを比較することによってカメラが実世界環境内の物体を観察しているかどうか、およびカメラが実世界環境内の物体をどのように観察しているのかを決定するステップとを備える。
第3の態様によれば、本発明は、拡張現実のためのサーバに関する。サーバは、所定の位置で少なくとも1つのカメラにより撮られた実世界環境の画像から抽出される一組の特徴とその位置とを受信するように構成される受信手段を備える。また、サーバは、その位置と関連するIDであって、画像から特徴の組を抽出するために画像で使用されたアルゴリズムと関連付けられるIDと、アルゴリズムを使用して抽出された位置での実世界環境における記憶された特徴の組とを検索するように構成される検索手段を更に備える。サーバの更なる手段は、その特徴の組と記憶された特徴の組とを比較することによってカメラが実世界環境内の物体を観察しているかどうか、およびカメラが実世界環境内の物体をどのように観察しているのかを決定するように構成される処理手段である。
第4の態様によれば、本発明は、拡張現実のためのサーバにおける方法に関する。方法は、少なくとも1つのカメラにより撮られた所定位置での実世界環境の画像から抽出される一組の特徴を受信するステップと、その位置を受信するステップと、その位置と関連するIDを検索するステップであって、IDが画像から一組の特徴を抽出するために画像で使用されるべきアルゴリズムと関連付けられるステップと、アルゴリズムを使用して抽出された所定の位置での実世界環境における記憶された特徴の組を検索するステップと、その特徴の組と記憶された特徴の組とを比較することによってカメラが実世界環境内の物体を観察しているかどうか、およびカメラが実世界環境内の物体をどのように観察しているのかを決定するステップと、を備える。
本発明の実施形態に伴う利点は、画像全体ではなくその特徴の組または記憶された特徴の組をモバイルネットワーク内で転送するだけで済むため、モバイル環境内のソリューションを実施できるという点である。
本発明の実施形態に伴う更なる他の利点は、その特徴の組または記憶された特徴の組だけを転送すれば済むため、ネットワークリソースの消費が少なくなるという点である。
また、本発明の実施形態に伴う更なる利点は、実世界環境における指標が不要であるという点である。
本発明の実施形態に伴う更に他の利点は、画像全体ではなく画像に関連する特徴だけがソリューション内で転送されるため、既存のソリューションよりも良好な実時間性能である。
以下、添付図面を参照して本発明を更に詳しく説明する。
本発明の典型的な実施形態に係るモバイル機器を概略的に示している。 本発明の典型的な実施形態に係る方法を示している。 本発明の典型的な実施形態に係るサーバを概略的に示している。 本発明の典型的な実施形態に係る方法を示している。
(詳細な説明)
以下の記述では、限定的ではなく説明の目的で、本発明の十分な理解を与えるために、ステップの特定の順序や機器構成などの特定の詳しい内容が記載される。当業者であれば明らかなように、本発明は、これらの特定の詳しい内容から逸脱する他の実施形態で実施されてもよい。
また、当業者であれば分かるように、以下の本明細書中で説明される機能および手段は、プログラムされたマイクロプロセッサまたは汎用コンピュータと併せてソフトウェア機能を使用して、および/または、特定用途向け集積回路(ASIC)を使用して実施されてもよい。
ここで、本発明に係るモバイル機器100の典型的な実施形態を示す図1を参照する。モバイル機器100は、ユーザにより容易に移動され得る携帯電話端末、ラップトップコンピュータ、または、任意の他の携帯端末機器であってもよい。モバイル機器は、所定の位置で少なくとも1つのカメラ(図示せず)により撮られた実世界環境の画像を受信するように構成される受信手段110を備える。複数のカメラを使用すると、精度を高めることができる。カメラは、例えば、一対の拡張現実ゴーグル、携帯電話端末、デジタルカメラ、または、HUD、すなわち、ヘッドアップディスプレイ、におけるカメラであってもよい。また、受信手段110は、画像が撮られた位置を受信するように構成される。その位置は、例えば、二次元または三次元の座標から成ってもよい。その位置には、例えばカメラがどの方向を向いているかなどの他の情報が加えられてもよい。
また、IDが受信手段110により受信されもよい。IDは、画像から一組の特徴を抽出するために画像で使用されるべきアルゴリズムと、関連付けられる。アルゴリズムは、その位置で撮られた画像から特徴を可能な限り効果的に抽出するために、その位置の実世界環境に基づいて選択されてもよい。異なる位置での実世界環境に基づくアルゴリズムの選択は、それが当分野における一般的な知識であると考えられるため、本明細書ではこれ以上説明しない。
また、受信手段110は、アルゴリズムを使用して抽出された位置での実世界環境における記憶された特徴の組を受信するように更に構成される。記憶された特徴の組は、例えば、その位置での実世界環境の画像における勾配であってもよい。モバイル機器における更なる他の手段は処理手段120である。処理手段120は、アルゴリズムを使用して実世界環境の画像から特徴の組を抽出するように構成される。その特徴の組のアルゴリズムと同じである、受信手段110により受信される記憶された特徴の組を抽出するためのアルゴリズムが使用されたため、これらの両方の異なる特徴の組を使用して、カメラが実世界環境内の物体を観察しているかどうか、および、カメラが実世界環境内の物体をどのように観察しているのかを決定することができる。この決定は、その特徴の組と記憶された特徴の組とを比較することによってカメラが実世界環境内の物体を観察しているかどうか、およびカメラが実世界環境内の物体をどのように観察しているのかを決定するように更に構成される処理手段120によって行なわれる。
カメラが物体を観察しているかどうか、およびカメラが物体をどのように観察しているのかという処理手段120により行なわれる決定は、例えば、実世界環境内の物体に対するカメラのより正確な位置の決定をもたらしてもよい。より正確な位置は、例えば、実世界環境内の物体に対するカメラにおける方向、回転、および、より正確な位置座標を含んでもよい。
受信手段110は、仮想画像または仮想物体を受信するように更に構成される。この仮想画像または仮想物体は、ユーザの視野内に投影されるべき仮想画像または仮想物体である。仮想画像または仮想物体の幾何学的に正確な投影は、カメラが実世界環境内の物体をどのように観察しているのかに基づいて、処理手段120により計算される。仮想画像または仮想物体の幾何学的に正確な投影の計算は、それぞれの眼ごとに投影を計算してもよい。仮想画像または仮想物体の幾何学的に正確な投影の計算は、より良い投影を計算するために、その位置での時期、天候、および、光状態を考慮に入れてもよい。
処理手段120は、その特徴の組と記憶された特徴の組との間の比較に基づいてカメラの今後の動きを予測するように構成されてもよい。
処理手段120によって行なわれるその特徴の組と記憶された特徴の組との間の比較は、その特徴の組および記憶された特徴の組の一部に関して行なわれてもよい。
図2を参照すると、本発明の前述した実施形態に係るステップを記載する拡張現実に関するモバイル機器100における方法のフローチャートが示されている。図2に示されるように、その方法は、
200 所定の位置で少なくとも1つのカメラにより撮られた実世界環境の画像を受信し、
210 その位置を受信し、
220 その位置と関連するIDを受信し、IDは画像から一組の特徴を抽出するために画像で使用されるべきアルゴリズムと関連付けられ、
230 アルゴリズムを使用して抽出された位置での実世界環境における記憶された特徴の組を受信し、
240 アルゴリズムを使用して画像から特徴の組を抽出し、
250 その特徴の組と記憶された特徴の組とを比較することによってカメラが実世界環境内の物体を観察しているかどうか、およびカメラが実世界環境内の物体をどのように観察しているのかを決定する、
ことを備える。
前述したように、その方法は、ユーザの視野内に投影されるべき仮想画像または仮想物体を受信する更なるステップ(図示せず)を備えてもよい。
その方法は、カメラが実世界環境内の物体をどのように観察しているのか基づいてユーザの視野内への仮想画像または仮想物体の幾何学的に正確な投影を計算する更なるステップ(図示せず)を備えてもよい。
ここで、本発明に係るサーバ300の典型的な実施形態を示す図3を参照する。サーバは、所定の位置で少なくとも1つのカメラ(図示せず)により撮られた実世界環境の画像の記憶された特徴の組を受信するように構成される受信手段310を備える。カメラは、例えば、一対の拡張現実ゴーグル、携帯電話端末、デジタルカメラ、または、HUD、すなわち、ヘッドアップディスプレイにおけるカメラであってもよい。また、受信手段310は、画像が撮られた位置を受信するように構成される。その位置は、例えば、二次元または三次元の座標から成ってもよい。その位置には、例えばカメラがどの方向を向いているかなどの他の情報が加えられてもよい。
サーバ300は検索手段320を更に備える。検索手段320は、その位置と関連するIDを検索するように構成される。IDは、画像から一組の特徴を抽出するために画像で使用されるべきアルゴリズムと関連付けられる。アルゴリズムは、その位置で撮られた画像から特徴を可能な限り効果的に抽出するためにその位置の実世界環境に基づいて選択されている。異なる位置での実世界環境に基づくアルゴリズムの選択は、それが当分野における一般的な知識であると考えられるため、本明細書ではこれ以上説明しない。
また、検索手段320は、アルゴリズムを使用して抽出された位置での実世界環境における記憶された特徴の組を検索するように更に構成される。記憶された特徴の組は、例えば、その位置での実世界環境の画像における勾配であってもよい。サーバ300における更なる他の手段は、処理手段330である。検索手段320により検索される記憶された特徴の組を抽出するために、受信手段310により受信される特徴の組と同じアルゴリズムが使用されたため、これらの両方の異なる特徴の組を使用して、カメラが実世界環境内の物体を観察しているかどうか、および、カメラが実世界環境内の物体をどのように観察しているのかを決定することができる。この決定は、その特徴の組と記憶された特徴の組とを比較することによってカメラが実世界環境内の物体を観察しているかどうか、およびカメラが実世界環境内の物体をどのように観察しているのかを決定するように更に構成される処理手段330によって行なわれる。
カメラが物体を観察しているかどうか、およびカメラが物体をどのように観察しているのかという処理手段330により行なわれる決定は、例えば、実世界環境内の物体に対するカメラのより正確な位置の決定をもたらしてもよい。より正確な位置は、例えば、実世界環境内の物体に対するカメラにおける方向、回転、および、より正確な位置座標を含んでもよい。
検索手段320は、仮想画像または仮想物体を検索するように更に構成される。この仮想画像または仮想物体は、ユーザの視野内に投影されるべき仮想画像または仮想物体である。
仮想画像または仮想物体の幾何学的に正確な投影は、カメラが実世界環境内の物体をどのように観察しているのかに基づいて、処理手段330により計算される。
検索手段320により検索される画像は、少なくとも1つのカメラにより撮られてもよく、その場合、少なくとも1つのカメラは、一対の拡張現実ゴーグル、携帯電話端末、デジタルカメラ、または、HUD、すなわち、ヘッドアップディスプレイにおけるカメラであってもよい。
仮想画像または仮想物体の幾何学的に正確な投影の計算は、それぞれの眼ごとに投影を計算してもよい。仮想画像または仮想物体の幾何学的に正確な投影の計算は、より良い投影を計算するために、その位置での時期、天候、および、光状態を考慮に入れてもよい。
処理手段330は、その特徴の組と記憶された特徴の組との間の比較に基づいてカメラの今後の動きを予測するように構成されてもよい。
処理手段330によって行なわれるその特徴の組と記憶された特徴の組との間の比較は、その特徴の組および記憶された特徴の組の一部に関して行なわれてもよい。
図4を参照すると、本発明の前述した実施形態に係るステップを記載する拡張現実に関するサーバ300における方法のフローチャートが示されている。図4に示されるように、その方法は、
410 少なくとも1つのカメラにより撮られた所定の位置での実世界環境の画像の記憶された特徴の組を受信し、
420 その位置を受信し、
430 その位置と関連するIDを検索し、IDは画像から一組の特徴を抽出するために画像で使用されるべきアルゴリズムと関連付けられ、
440 アルゴリズムを使用して抽出された位置での実世界環境における記憶された特徴の組を検索し、
460 その特徴の組と記憶された特徴の組とを比較することによってカメラが実世界環境内の物体を観察しているかどうか、およびカメラが実世界環境内の物体をどのように観察しているのかを決定する、
ことを備える。
前述したように、その方法は、ユーザの視野内に投影されるべき仮想画像または仮想物体を検索する更なるステップ(図示せず)を備えてもよい。
その方法は、カメラが実世界環境内の物体をどのように観察しているのか基づいてユーザの視野内への仮想画像または仮想物体の幾何学的に正確な投影を計算する更なるステップ(図示せず)を備えてもよい。
なお、本発明が1つの画像を使用して説明された場合であっても、本発明は、異なるカメラにより撮られる2つ以上の画像を使用して行なわれてもよい。これらの実施形態では、最良の結果を与える画像が使用されてもよい。例えば、最も特異なデータを含む特徴の組をもたらす画像が使用されてもよい。
特定の実施形態(特定の機器構成および様々な方法の中のステップの特定の順序を含む)に関して本発明を説明してきたが、当業者であれば分かるように、本発明は本明細書中で図示して説明した特定の実施形態に限定されない。そのため、この開示が単なる例示であることは言うまでもない。したがって、本発明が添付の特許請求の範囲によってのみ限定されるべきことが意図される。
その方法は、カメラが実世界環境内の物体をどのように観察しているのかに基づいてユーザの視野内への仮想画像または仮想物体の幾何学的に正確な投影を計算する更なるステップ(図示せず)を備えてもよい。
その方法は、カメラが実世界環境内の物体をどのように観察しているのかに基づいてユーザの視野内への仮想画像または仮想物体の幾何学的に正確な投影を計算する更なるステップ(図示せず)を備えてもよい。

Claims (24)

  1. 所定の位置で少なくとも1つのカメラにより撮られた実世界環境の画像を受信するように構成される受信手段(110)を備え、
    前記受信手段(110)が、前記位置と、前記画像から一組の特徴を抽出するために前記画像で使用されるべきアルゴリズムと関連付けられるIDと、前記アルゴリズムを使用して抽出された前記位置での前記実世界環境における記憶された特徴の組とを受信するように更に構成され、
    前記アルゴリズムを使用して前記画像から前記特徴の組を抽出するとともに、前記特徴の組と前記記憶された特徴の組とを比較することによって前記カメラが前記実世界環境内の物体を観察しているかどうか、および前記カメラが前記実世界環境内の物体をどのように観察しているのかを決定するように構成される処理手段(120)を備える、
    拡張現実のためのモバイル機器(100)。
  2. 前記受信手段(110)が、ユーザの視野内に投影されるべき仮想画像または仮想物体を受信するように更に構成される請求項2に記載のモバイル機器。
  3. 前記処理手段は、前記カメラが実世界環境内の物体をどのように観察しているのかに基づいてユーザの視野内への仮想画像または仮想物体の幾何学的に正確な投影を計算するように更に構成される請求項2に記載のモバイル機器。
  4. 前記少なくとも1つのカメラが、一対の拡張現実ゴーグル、携帯電話端末、デジタルカメラ、または、HUD、すなわち、ヘッドアップディスプレイにおけるカメラである請求項2〜3のいずれか一項に記載のモバイル機器。
  5. 前記アルゴリズムが、前記位置での前記実世界環境に基づいて選択された請求項2〜4のいずれか一項に記載のモバイル機器。
  6. 前記処理手段が、前記特徴の組の一部が前記記憶された特徴の組の一部と一緒であることを比較するように更に構成される請求項2〜5のいずれか一項に記載のモバイル機器。
  7. 所定の位置で少なくとも1つのカメラにより撮られた実世界環境の画像を受信するステップ(200)と、
    前記位置を受信するステップ(210)と、
    前記位置と関連するIDを受信するステップであって、前記IDが前記画像から一組の特徴を抽出するために前記画像で使用されるべきアルゴリズムと関連付けられるステップ(220)と、
    前記アルゴリズムを使用して抽出された前記位置での前記実世界環境における記憶された特徴の組を受信するステップ(230)と、
    前記アルゴリズムを使用して前記画像から前記特徴の組を抽出するステップ(240)と、
    前記特徴の組と前記記憶された特徴の組とを比較することによって前記カメラが前記実世界環境内の物体を観察しているかどうか、および前記カメラが前記実世界環境内の物体をどのように観察しているのかを決定するステップ(250)と、
    を備える拡張現実のためのモバイル機器における方法。
  8. ユーザの視野内に投影されるべき仮想画像または仮想物体を受信する更なるステップを備える請求項7に記載の方法。
  9. 前記カメラが実世界環境内の物体をどのように観察しているのか基づいてユーザの視野内への前記仮想画像または前記仮想物体の幾何学的に正確な投影を計算する更なるステップを備える請求項8に記載の方法。
  10. 前記少なくとも1つのカメラが、一対の拡張現実ゴーグル、携帯電話端末、デジタルカメラ、または、HUD、すなわち、ヘッドアップディスプレイにおけるカメラである請求項7〜9のいずれか一項に記載の方法。
  11. 前記アルゴリズムが、前記位置での前記実世界環境に基づいて選択された請求項7〜10のいずれか一項に記載の方法。
  12. 決定する前記ステップ(250)において、前記特徴の組の一部が前記記憶された特徴の組の一部と比較される請求項7〜11のいずれか一項に記載の方法。
  13. 所定の位置および前記位置で少なくとも1つのカメラにより撮られた実世界環境の画像から抽出される一組の特徴と前記位置とを受信するように構成される受信手段(310)と、
    前記位置と関連するIDであって、前記画像から前記特徴の組を抽出するために使用されたアルゴリズムと関連付けられるIDと、前記アルゴリズムを使用して抽出された前記位置での前記実世界環境における記憶された特徴の組とを検索するように構成される検索手段(320)と、
    前記特徴の組と前記記憶された特徴の組とを比較することによって前記カメラが前記実世界環境内の物体を観察しているかどうか、および前記カメラが前記実世界環境内の物体をどのように観察しているのかを決定するように構成される処理手段(330)と、
    を備える、拡張現実のためのサーバ(300)。
  14. 前記検索手段(320)が、ユーザの視野内に投影されるべき仮想画像または仮想物体を検索するように更に構成される請求項13に記載のサーバ。
  15. 前記処理手段(330)は、前記カメラが実世界環境内の物体をどのように観察しているのか基づいてユーザの視野内への仮想画像または仮想物体の幾何学的に正確な投影を計算するように更に構成される請求項14に記載のサーバ。
  16. 前記少なくとも1つのカメラが、一対の拡張現実ゴーグル、携帯電話端末、デジタルカメラ、または、HUD、すなわち、ヘッドアップディスプレイにおけるカメラである請求項13〜15のいずれか一項に記載のサーバ。
  17. 前記アルゴリズムが、前記位置での前記実世界環境に基づいて選択された請求項13〜16のいずれか一項に記載のサーバ。
  18. 前記処理手段が、前記特徴の組の一部と前記記憶された特徴の組の一部とを比較するように更に構成される請求項13〜17のいずれか一項に記載のサーバ。
  19. 少なくとも1つのカメラにより撮られた所定位置での実世界環境の画像画像から抽出される一組の特徴を受信するステップ(410)と、
    前記位置を受信するステップ(420)と、
    前記位置と関連するIDを検索するステップであって、前記IDが前記画像から一組の特徴を抽出するために前記画像で使用されたアルゴリズムと関連付けられるステップ(430)と、
    前記アルゴリズムを使用して抽出された所定の位置での前記実世界環境における記憶された特徴の組を検索するステップ(440)と、
    前記特徴の組と前記記憶された特徴の組とを比較することによって前記カメラが前記実世界環境内の物体を観察しているかどうか、および前記カメラが前記実世界環境内の物体をどのように観察しているのかを決定するステップ(460)と、
    を備える拡張現実のためのサーバにおける方法。
  20. ユーザの視野内に投影されるべき仮想画像または仮想物体を検索する更なるステップを備える請求項19に記載の方法。
  21. 前記カメラが実世界環境内の物体をどのように観察しているのか基づいてユーザの視野内への前記仮想画像または前記仮想物体の幾何学的に正確な投影を計算する更なるステップを備える請求項20に記載の方法。
  22. 前記少なくとも1つのカメラが、一対の拡張現実ゴーグル、携帯電話端末、デジタルカメラ、または、HUD、すなわち、ヘッドアップディスプレイにおけるカメラである請求項19〜21のいずれか一項に記載の方法。
  23. 前記アルゴリズムが、前記位置での前記実世界環境に基づいて選択された請求項19〜22のいずれか一項に記載の方法。
  24. 決定する前記ステップ(460)において、前記特徴の組の一部が前記記憶された特徴の組の一部と比較される請求項19〜23のいずれか一項に記載の方法。
JP2013513131A 2010-06-01 2010-06-01 拡張現実のための方法および装置 Active JP5578691B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/SE2010/050598 WO2011152764A1 (en) 2010-06-01 2010-06-01 Methods and arrangements for augmented reality

Publications (2)

Publication Number Publication Date
JP2013528870A true JP2013528870A (ja) 2013-07-11
JP5578691B2 JP5578691B2 (ja) 2014-08-27

Family

ID=45066964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013513131A Active JP5578691B2 (ja) 2010-06-01 2010-06-01 拡張現実のための方法および装置

Country Status (4)

Country Link
US (1) US8917289B2 (ja)
EP (1) EP2577504B1 (ja)
JP (1) JP5578691B2 (ja)
WO (1) WO2011152764A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054494A (ja) * 2011-09-02 2013-03-21 Sony Corp 情報処理装置、情報処理方法、プログラム、記録媒体、及び情報処理システム
US9429912B2 (en) * 2012-08-17 2016-08-30 Microsoft Technology Licensing, Llc Mixed reality holographic object development
US10586395B2 (en) * 2013-12-30 2020-03-10 Daqri, Llc Remote object detection and local tracking using visual odometry
WO2015164373A1 (en) * 2014-04-23 2015-10-29 Raytheon Company Systems and methods for context based information delivery using augmented reality
EP3007136B1 (en) * 2014-10-09 2019-01-16 Huawei Technologies Co., Ltd. Apparatus and method for generating an augmented reality representation of an acquired image
JP6283329B2 (ja) * 2015-05-26 2018-02-21 株式会社オプティム 拡張現実対象認識装置
US11127212B1 (en) 2017-08-24 2021-09-21 Sean Asher Wilens Method of projecting virtual reality imagery for augmenting real world objects and surfaces

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038153A (ja) * 2003-07-14 2005-02-10 Olympus Corp 画像処理装置
JP2008046806A (ja) * 2006-08-14 2008-02-28 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置およびプログラム
JP2008530676A (ja) * 2005-02-11 2008-08-07 ザ・ユニバーシティ・コート・オブ・ザ・ユニバーシティ・オブ・エディンバラ 取得した画像を使用したアクセスのための情報の格納
JP2010118019A (ja) * 2008-11-14 2010-05-27 Sharp Corp 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7747259B2 (en) 2001-10-09 2010-06-29 Sirf Technology, Inc. Method and system for sending location coded images over a wireless network
GB2403363A (en) * 2003-06-25 2004-12-29 Hewlett Packard Development Co Tags for automated image processing
US7706603B2 (en) * 2005-04-19 2010-04-27 Siemens Corporation Fast object detection for augmented reality systems
JP2010530998A (ja) * 2007-05-08 2010-09-16 アイトゲネーシッシュ テヒニッシュ ホーホシューレ チューリッヒ 画像ベース情報検索の方法およびシステム
US20090237546A1 (en) * 2008-03-24 2009-09-24 Sony Ericsson Mobile Communications Ab Mobile Device with Image Recognition Processing Capability
US20100045701A1 (en) * 2008-08-22 2010-02-25 Cybernet Systems Corporation Automatic mapping of augmented reality fiducials
US8970690B2 (en) * 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038153A (ja) * 2003-07-14 2005-02-10 Olympus Corp 画像処理装置
JP2008530676A (ja) * 2005-02-11 2008-08-07 ザ・ユニバーシティ・コート・オブ・ザ・ユニバーシティ・オブ・エディンバラ 取得した画像を使用したアクセスのための情報の格納
JP2008046806A (ja) * 2006-08-14 2008-02-28 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置およびプログラム
JP2010118019A (ja) * 2008-11-14 2010-05-27 Sharp Corp 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
矢澤 尚之 外4名: ""屋外での注釈情報表示の為のパノラマデータベースからの局所特徴に基づく画像検索による自己位置方向推定", 電子情報通信学会技術研究報告, vol. 第109巻,第215号, JPN6014023209, 1 October 2009 (2009-10-01), JP, pages 23 - 28, ISSN: 0002826961 *

Also Published As

Publication number Publication date
EP2577504A4 (en) 2014-10-29
JP5578691B2 (ja) 2014-08-27
EP2577504B1 (en) 2018-08-08
WO2011152764A1 (en) 2011-12-08
US8917289B2 (en) 2014-12-23
US20130069986A1 (en) 2013-03-21
EP2577504A1 (en) 2013-04-10

Similar Documents

Publication Publication Date Title
JP5578691B2 (ja) 拡張現実のための方法および装置
CN105210113B (zh) 具有一般和全景相机移动的单眼视觉slam
JP6602889B2 (ja) 移動体装置ローカリゼーションのためのエリア記述ファイルのクラウドソーシングによる作成および更新
US11195049B2 (en) Electronic device localization based on imagery
KR102149374B1 (ko) 로컬화 영역 설명 파일에 대한 프라이버시-민감 질의
JP6258953B2 (ja) 単眼視覚slamのための高速初期化
JP6609640B2 (ja) 電子デバイス上における環境マッピング用のフィーチャ・データの管理
JP2017005532A (ja) カメラ姿勢推定装置、カメラ姿勢推定方法およびカメラ姿勢推定プログラム
JP2011008687A (ja) 画像処理装置
CN111127524A (zh) 一种轨迹跟踪与三维重建方法、系统及装置
KR101851303B1 (ko) 3차원 공간 재구성 장치 및 방법
JP2019121136A (ja) 情報処理装置、情報処理システムおよび情報処理方法
JP5494427B2 (ja) 画像処理プログラムおよび画像処理装置
CN112419388A (zh) 深度检测方法、装置、电子设备和计算机可读存储介质
US20180020203A1 (en) Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium
WO2014139728A1 (en) Automatic stereoscopic camera calibration
JP2018112790A (ja) 情報処理装置およびその制御方法、プログラム
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
CN110060354B (zh) 真实图像在虚拟空间中的定位和交互方法
KR101586071B1 (ko) 마커리스 증강현실 서비스 제공 장치 및 이를 위한 촬영 위치 추정 방법
JP6388532B2 (ja) 画像提供システムおよび画像提供方法
JP2016195323A (ja) 情報処理装置、情報処理方法、プログラム
JP2019159593A (ja) 画像検索システム、画像検索装置、画像検索方法、及びプログラム
JP2012146305A (ja) ウィンドウ状の拡張現実を提供する装置および方法
CN111918114A (zh) 图像显示方法、装置、显示设备及计算机可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140704

R150 Certificate of patent or registration of utility model

Ref document number: 5578691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250