JP2016505961A - 実環境に仮想情報を表現する方法 - Google Patents

実環境に仮想情報を表現する方法 Download PDF

Info

Publication number
JP2016505961A
JP2016505961A JP2015548230A JP2015548230A JP2016505961A JP 2016505961 A JP2016505961 A JP 2016505961A JP 2015548230 A JP2015548230 A JP 2015548230A JP 2015548230 A JP2015548230 A JP 2015548230A JP 2016505961 A JP2016505961 A JP 2016505961A
Authority
JP
Japan
Prior art keywords
real
virtual information
real environment
scene
poi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015548230A
Other languages
English (en)
Other versions
JP6050518B2 (ja
Inventor
ワン レジン
ワン レジン
マイヤー ペーター
マイヤー ペーター
ミスリンガー シュテファン
ミスリンガー シュテファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Publication of JP2016505961A publication Critical patent/JP2016505961A/ja
Application granted granted Critical
Publication of JP6050518B2 publication Critical patent/JP6050518B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

【解決手段】システム装置がディスプレイ機器に仮想情報を調和させるために適合される工程と、実環境の少なくとも1つのコンポーネントに関連して視点の位置を決定する工程と、実環境の幾何学モデルを供給し、幾何学モデルは実環境のそれぞれのビルトイン実オブジェクトの複数の表現を具備し、各表現はそれぞれのオブジェクトの範囲を定める少なくとも1つの境界を有する少なくとも1つの二次元又は三次元幾何学形状を具備し、境界の一方はその内側に向かってオブジェクトの範囲を定め、境界の他方はその外側に向かってオブジェクトの範囲を定める工程と、仮想情報の少なくとも1つのアイテム及び仮想情報の少なくとも1つのアイテムの位置を供給する工程と、視点の位置及び幾何学モデルに従ってディスプレイ機器に仮想情報の少なくとも1つのアイテムを調和させる視覚化モードを決定する工程と、視点と仮想情報のアイテムの間の射線を演算する工程と、射線による境界交点の数を決定する工程とを備える。【選択図】図1

Description

本発明は、システム装置に少なくとも1つのディスプレイ機器を設けるステップを有し、前記システム装置は前記ディスプレイ機器の仮想情報を調和するために適合される、実環境の光景に仮想情報を表現する方法に関する。本発明は、前記方法を実行するソフトウェアコードセクションを具備するコンピュータプログラムプロダクトにも関する。
拡張現実(AR)システムは、実環境又は実環境の一部の光景にコンピュータで生成された仮想情報を重ねて視覚化することにより、実環境の情報を高めることで知られている。仮想情報は、オブジェクト、テキスト、図面、映像、或いはそれらの組合せのように、どのようなタイプの視覚的に知覚できるデータでも良い。ここでわかるように、実環境又は実環境の一部の光景は、ユーザの目で視覚的印象として感知され、且つ/又は、例えばユーザが携行しているか、ユーザが持っている機器に付属しているカメラによって1つ以上の画像として取得される。
重ねられる又は調和される仮想情報は、原理的には、仮想情報の様々なアイテムでよい。例えば、実環境の情報を高められる仮想情報のアイテムは、例えば地図やナビゲーションアプリケーションで知られているような興味点でよい。興味点(POI)は、実環境での実オブジェクト(例えばビルやランドマーク)の位置を表わし、多くの場合、実オブジェクトに関連するデジタルコンテンツを含んでいる。例えば、その位置は全地球位置(例えば経度及び緯度の二次元座標や経度、緯度及び標高の三次元座標のような地理座標)や郵便アドレス(例えば階数、通り、郵便番号、国)である。郵便アドレス及び全地球位置は相互に変換可能である。POIのデジタルコンテンツは様々なデータ、例えば、名前、説明、実オブジェクトに関する連絡先を含むことができる。
拡張現実システムの主要な機能は、実環境の光景に仮想情報のアイテム、例えば興味点(POI)を重ねることである。これは、特に、特許文献1、2及び非特許文献1に記載されているように、位置に基づく(モバイル)拡張現実アプリケーション、例えば都市環境を探索するツアーガイダンスにおいて有用であり、普及している。例えば、ユーザが初めての場所にいて、目にしたものの情報を得たいとき、実環境の光景にPOIを重ねる拡張現実アプリケーションを利用することができる。拡張現実システムでは、POI情報は、所望の視覚や有用性を満たすように、実環境又は実環境の一部の中で表現されなければならない。POI情報のためのデータソースの多くは、1つ以上のポイント又は頂点をもつ三次元モデルとしてではなく、実世界でのポイントに関する情報を提供する。本発明は仮想情報のアイテムの視覚化を制御するのに適しており、それらのアイテムは緯度、経度及びオプションとして標高及びテキストや二次元画像情報からなる付加的なメタ情報によって描写される。
拡張現実アプリケーションにおける実環境の光景へのPOI情報の調和又は重ね合わせでの視覚認識及び有用性を改良するために、いくつかの方法が開発されている。
POIのビュー距離は、POIの位置とカメラ又はユーザが立っている位置との間の距離に関連する。POIのビュー方向は、カメラ又はユーザが立っている位置からPOIの位置までの方向に関連する。
非特許文献1でのHoellererらは、ラベルがユーザの方を向いて、可読性を保証する距離に関係なくサイズを維持している間、ユーザの見るポーズに対して正確な遠近感の中の仮想フラグ及びラベルとしてPOIを表示することを提案している。
拡張現実システムは、より有効的にPOIをユーザに表示するという重要な技術的挑戦に直面している。特許文献1でのUusitaloらは、実環境の分割に基づいてPOI情報を表示する方法を開示している。その方法では、実環境の光景の1つ以上の区画に基づいて1つ以上のPOIを重ねることを決定している。建物を区画に分けるためにフロアプランや建物の高さの知識を利用し、建物の画像において対応する区画にPOIを重ねることを教示している。
POIが同じビュー方向である場合、拡張現実アプリケーションでの表示ではお互いに隠れて配置されてしまうかもしれない。この際、POIのいくつかが、他のPOIの後ろに隠れてしまって、見えなくなってしまうかもしれない。これに対して、特許文献2でのSandbergは、同じビュー方向のPOIをグループ化し、グループ化したPOIを見える状態で表示することを動機付けとしている。
特許文献3でのMeierらは、視点までのその領域の距離に基づいて実環境の光景を複数の領域に細分することにより、拡張現実システムでのPOIの人間工学的な表現を達成する方法を開示している。
拡張現実システムは、通常、実環境の光景の上にPOIを不透明に重ねる。例示的な風景を図9に示しており、POIは、実環境51の画像81の上に不透明なラベル92、93、94、95、96、97、98及び99として重ねられている。このように、POIの表示(例えば不透明なラベル)が、画像の中で実環境又は実環境の一部をオクルードする。特許文献2でのSandbergと特許文献1でのUusitaloらも、実環境の画像にPOIのアイコン及びラベルを不透明に重ねている。これにより、ユーザが重ねられたPOIから実環境を素早く直感的に理解することが困難になる。
実環境の実オブジェクトは、それらの前に置かれた実オブジェクトによって視点からオクルードされ、実環境の光景の中で時々見えなくなることがある。例が図8(POIを除いた図9のシーンを示している)に示されており、実環境51中の実オブジェクト(建物)D(図7参照)が、その環境での画像81の中で見えなくなっている。この状況において、オクルードされたオブジェクトに関連するPOIを(図9で示されているように)実環境の光景の上に単純に重ねると、ユーザがその光景で見えている前方の物体にそのPOIを誤って関連付けて、ユーザを混乱させるかもしれない。図9の例では、ユーザはPOI情報93、94、95、96、97及び98を実オブジェクト(建物)Aに関連付けるかもしれないが、POI_7及びPOI_8で表わされる97及び98は建物Aとは関係ない。
従って、見えている前方の物体とは違う方法で、さらにはユーザがオクルージョン効果を直感的に知覚できる方法で、オクルードされたオブジェクトに関連するPOIを視覚化することが望ましい。例えば、オクルードされたオブジェクトに関連するPOIが半透明或いは破線で示され、前方の物体に関連するPOIは不透明、実線或いは違う色で示される。
特許文献3でのMeierらは、オクルージョンモデルにPOIを表示するかどうかを決定するために、視点から実環境へのビュー方向に沿っての奥行きを使用することを教示している。もしPOIが奥行きよりも長いビュー距離を有しているならば、POIは、特許文献3に従って、オクルージョンの方法、即ち、半透明或いは破線で表示される。
実環境の実オブジェクトは、多くの場合、三次元空間でのボリュームである三次元の空間を占有するが、実オブジェクトに関連するPOIは、三次元空間でのポイントである位置を表わす。POIの位置は、POIが関連している実オブジェクト中のどこにでも割り当てられる。従って、POIが実オブジェクトへのビュー方向に沿って推定された奥行きよりも長いビュー距離を有している限り、実オブジェクトは視点から見ることができる。例えば、建物(例えばショッピングモール)は、その建物に関連するPOIのビュー距離が視点から建物の外面(例えば壁)までの奥行きよりも長い限り、実環境の光景の中で見ることができる。
図5、6、7及び8には、実オブジェクトAが画像81の中に見ることができるが、Aに関連するPOI_3(図7)は視点71に対してAより遠くにある例が描かれている。この場合では、特許文献3でMeierらによって開示された方法では、実環境の光景へのPOIの重ね合わせで不適切なオクルージョン理解という結果になるであろう。
拡張現実の空間での一般的な問題は、見栄えの良い拡張現実の体験のモックアップ又は空想映画を人々が非常に簡単に作れるが、そのような体験を達成するための詳細な問題が検討されておらず、解決されていないことである。
POIが他の実オブジェクトの中に置かれた実オブジェクトを表わすような状況は、拡張現実システムでPOIを適切に表示するためには、より挑戦的である。例えば、POI_4は実環境51での建物Aの中にある実オブジェクト(部屋)A3を表わしている(図7)。ユーザが建物Aの外に立ち、実環境51の画像にPOI_4を重ねるために拡張現実のテクノロジーを使用する場合、非オクルージョンモデルの中でPOI_4情報を表示する、即ち、画像の中で表示されるのが好ましい。他の場合では、建物Dは建物Aの外にあり、画像81の中でAによってオクルードされている(図7、8)。この場合では、画像81上のDに関連するPOI_8をオクルージョンモデルの中で重ねる、即ち、画像の中では表示されないのが好ましい。従来開発された方法は、オクルージョンモデルの中でPOI_8を表示することや非オクルージョンモデルの中でPOI_4を表示することを教示又は動機付けしていない。
米国特許出願公開第2012/0113138号明細書 米国特許出願公開第2012/0075341号明細書 米国特許出願公開第2012/0176410号明細書
Hoellerer, T., and S. Feriner. "Mobile augmented reality." Telegeoinformatics: Location-Based Computing and Services. Taylor and Francis Books Ltd., London, UK(2004) Feiner, Steven, et al. "A touring machine: Prototyping 3D mobile augmented reality systems for exploring the urban environment." Personal and Ubiquitous Computing 1.4(1997): 208-217. Woop et al. "RPU: a programmable ray processing unit for realtime ray tracing." ACM Transaction on Graphics(TOG). Vol.24. No.3. ACM, 2005 Ivan Sutherland et al., "A Characterization of Ten Hidden-Surface Algorithms" 1974, ACM Computing Surveys vol.6 no.1. "Point in Polygon, One More Time...", Ray Tracing News, vol.3 no.4, October 1, 1990 Horvat,. "Ray-casting point-in-polyhedron test."2012
上記の事情に鑑み、本発明の目的は、仮想情報のアイテムを、特に拡張現実のアプリケーション又はシステムでの実環境の光景へ調和させるときに、オクルージョン理解を改良することができる、実環境での仮想情報を表現する方法を提供することである。
本発明の態様によれば、実環境の光景に仮想情報を表現する方法であって、少なくとも1つのディスプレイ機器を備えるシステム装置を設け、前記システム装置は前記ディスプレイ機器の仮想情報を調和させるために適合される工程と、前記実環境の少なくとも1つのコンポーネントに関連して視点の位置を決定する工程と、前記実環境の幾何学モデルを供給し、前記幾何学モデルは前記実環境のそれぞれのビルトイン実オブジェクトの複数の表現を具備し、各表現は前記それぞれのオブジェクトの範囲を定める少なくとも1つの境界を有する少なくとも1つの二次元又は三次元幾何学形状を具備し、前記境界の一方はその内側に向かって前記オブジェクトの範囲を定め、前記境界の他方はその外側に向かって前記オブジェクトの範囲を定める工程と、仮想情報の少なくとも1つのアイテム及び前記仮想情報の少なくとも1つのアイテムの位置を供給する工程と、前記視点の位置及び前記幾何学モデルに従って前記ディスプレイ機器に前記仮想情報の少なくとも1つのアイテムを調和させる視覚化モードを決定する工程と、前記視点と前記仮想情報のアイテムの間の射線を演算する工程と、前記射線による境界交点の数を決定する工程とを備え、前記境界交点の数が2未満ならば前記仮想情報のアイテムは非オクルージョンモードで調和され、そうでなければオクルージョンモードで調和され、且つ/又は、前記仮想情報のアイテムの位置が前記視点に対して前記交差された境界の前に移動することを特徴とする実環境の光景に仮想情報を表現する方法が提供される。
特に、本発明は、前記視点の位置及び前記実環境の幾何学モデル、好ましくは二次元及び/又は三次元形状モデルを使用することにより、拡張現実アプリケーションでの前記実環境又は実環境の一部の光景に、仮想情報のデジタルコンテンツ又はアイテム、例えば興味点(POI)を調和又は重ねることでの不適切なオクルージョン理解の問題を扱う。
仮想情報のデジタルコンテンツ又はアイテムは、オブジェクト、テキスト、図面、映像、或いはそれらの組合せのように、どのようなタイプの視覚的に知覚できるデータでも良い。実環境又は実環境の一部の光景は、キャプチャ機器によって取り込まれる。例えば、実環境の光景はユーザの目によって視覚的印象として取り込まれるか、又はユーザが携行しているかユーザが持っている機器に付属しているカメラによって1つ以上の画像として取得される。他に代わりとなるディスプレイ機器はヘッドアップディスプレイで、例えば自動車や飛行機の中に取り付けられている。人間の目及びカメラは同じイメージング数学モデル、即ちピンホール投影モデルを有している。ピンホール投影モデルは、三次元ポイントの座標と光景上へのその画像投影との関係を記述する。画像平面は、光学システムによって生成される画像を形成する平面である。三次元ポイントの画像投影は、視点から三次元ポイントまでの射線と画像平面との交点によって定義される。
重ねられる又は調和される仮想情報のアイテム、例えばPOIの情報及び実環境を、半透明のメガネを有する既知の光学シースルーディスプレイにユーザは見ることができる。そして、ユーザは、前記半透明のメガネを通して、メガネの中で調和されたPOIの仮想情報により拡張された実環境のオブジェクトを見る。POIと実環境の重ね合わせも、カメラと一般のディスプレイ機器を有するビデオシースルーディスプレイにユーザは見ることができる。実環境はカメラによって取り込まれ、仮想データと実環境の重ね合わせはディスプレイでユーザに示される。
実施形態では、前記方法は実環境の少なくとも1つのコンポーネントに関連する視点のポーズの決定を含んでおり、そのポーズはキャプチャ機器(例えばカメラや人間の目)が画像又は視覚として実環境又は実環境の一部の光景を取り込む位置及び方向を記述する。
実環境は実世界でのどんな現実のシーンでも良く、例えば、自然のシーン、屋内環境のシーン又は市街のシーンである。実環境は1つ以上の実オブジェクトを含む。実オブジェクト、例えば場所、建物、木又は山は実環境に置かれ、エリアを占める。場所は、典型的にはエリア内に名前をもつ空間の境界又は部分によって実環境に置かれるエリアであり、例えば建物の屋内エリア、ミュンヘン、マンハッタン又はイギリス式庭園(ミュンヘンにある緑地)である。実オブジェクトは、さらに、含んでいる実オブジェクトの中に1つ以上の実環境を含むことがある。例えば、市街(実環境)はショッピングモール(市街の中の実オブジェクト)を含み、ショッピングモールは様々な店(ショッピングモールの中の実オブジェクト)を含む屋内シーン(実環境)を含むことがある。
特に、幾何学モデルは、オブジェクトの範囲を定めるための少なくとも1つの境界を有する少なくとも1つの二次元又は三次元幾何学形状をそれぞれ具備するビルトイン実オブジェクトの複数の表現を具備し、また、前記方法は視点と仮想情報のアイテムの間の射線を演算し、射線による境界交点の数を決定する工程を含む。特に、境界交点の数が2未満ならば仮想情報のアイテムは非オクルージョンモードで光景に調和され、そうでなければオクルージョンモードで調和される。付加的或いは代替の実施形態によれば、境界交点の数が2未満ならば、仮想情報のアイテムの位置は視点に対して交差された境界の前に移動する。境界の一方は一方に向かって、特にその内側に向かってオブジェクトの範囲を定め、境界の他方はもう一方に向かって、特にその外側に向かってオブジェクトの範囲を定める。例えば、境界は、そのラインの一方がその内側に向かってオブジェクトの範囲を定め、そのラインの他方がその外側に向かってオブジェクトの範囲を定めるラインの場合がある。例えば、ラインは建物の壁を表わすことがある。他の例によれば、境界はラインのセットによって定義されることがあり、例えば2つの側面(即ち、内側と外側)をもつ壁を示し、例えば壁の一方に対するラインと壁のもう一方に対するラインによって表わされる。この例では、境界は、壁を境界として表わす2つのラインのセットによって形成されると理解されるべきで、境界の一方(即ち、壁の内側の面/ライン)はその内側に向かってオブジェクトの範囲を定め、境界のもう一方(即ち、壁の外側の面/ライン)はその外側に向かってオブジェクトの範囲を定める。
実施形態によれば、基準は、幾何学モデルを使用して視点からビルトイン実オブジェクトまでの1つ以上の射線を放つことによって、少なくとも部分的には決定される。ビルトイン実オブジェクトの少なくとも1つの境界と最初に交差する、視点からの射線が少なくとも1つ存在するならば、ビルトイン実オブジェクトは実環境の光景の中で少なくとも部分的には見える。
実施形態によれば、ビルトイン実オブジェクトの表現は、オブジェクトの範囲を定める少なくとも1つの境界を有する少なくとも1つの二次元又は三次元幾何学形状を具備し、また、その方法は、仮想情報のアイテムの位置が二次元又は三次元幾何学形状の内側にあるか決定し、仮想情報のアイテムをそれに基づくビルトイン実オブジェクトと関連づける工程を含んでいる。
実施形態によれば、前記方法は繰り返し実行され、各繰り返しでは前記仮想情報のアイテムの高さが増加し、前記射線による前記境界交点の数が2未満になったとき、或いは前記高さが予め定められたリミットを超えたとき、繰り返しがストップする。
さらなる実施形態によれば、前記仮想情報のアイテムの視覚化モードの決定は前記視点までの前記仮想情報の距離に影響を受け、仮想情報のアイテムが非オクルージョンモードで調和されると決定された場合、前記仮想情報のアイテムの図形表現が前記幾何学モデルに付加され、仮想情報の次のアイテムの前記視覚化モードを決定するときに考慮される。
例えば、前記幾何学モデルは前記ディスプレイ機器、例えばステレオカメラ、アレイカメラ又はタイムオブフライトカメラと関連する深度センサ源から得られる。
さらなる実施形態では、前記方法は仮想情報の複数のアイテムを供給し、実環境の光景で少なくとも部分的には見えるビルトイン実オブジェクトに、つまり実環境のフロントシーングループ又は実環境のオクルードされたシーングループに仮想情報のアイテムのそれぞれを関連づける工程を具備する。
さらなる実施形態では、前記方法は、仮想情報の複数のアイテムを供給し、ビルトイン実オブジェクトに、つまり実環境のフロントシートグループ又は実環境のオクルードされたシーングループに仮想情報のアイテムのそれぞれを関連付け、見えないビルトインオブジェクトに関連付けられた仮想情報のアイテムを、オクルードされたシーングループに割り当てる工程を具備する。
詳細な実装では、写真を撮ることによって実環境の少なくとも1つの光景を供給し、少なくとも光景の一部の実環境に仮想情報が重ねられるようなディスプレイ機器に仮想情報を調和するためにシステム装置が適合される。
実施形態によれば、実環境の少なくとも1つの描写された光景を供給し、少なくとも光景の一部の実環境に仮想情報が重ねられるようなディスプレイ機器に仮想情報を調和するためにシステム装置が適合される。
他の実施形態では、実環境の少なくとも1つの光景を供給し、少なくとも光景の一部の実環境に仮想情報が重ねられるような半透明のディスプレイ機器に仮想情報を調和するためにシステム装置が適合される。
例えば、前記方法は、見えるビルトインオブジェクトに関連付けられた仮想情報のアイテムを非オクルージョンモードで、フロントシーングループの仮想情報のアイテム非オクルージョンモードで、オクルードされたシーングループの仮想情報のアイテムをオクルージョンモードで、実環境の光景に重ねる工程をさらに具備する。
前記方法は、システム装置の少なくとも1つの距離センサによって供給される実環境の光景の距離画像に基づいて、フロントシーングループかオクルードされたシーングループにフロントシーングループの仮想情報のアイテムを割り当て直す工程をさらに具備することができる。
実施形態によれば、前記方法は、システム装置の少なくとも1つの距離センサによって供給される実環境の光景の距離画像を供給する工程をさらに具備し、前記基準が距離画像に基づいて少なくとも部分的には決定される。
例えば、幾何学モデルは、特定平面、例えば二次元モデルのグランドプレーンに対して実環境の二次元形状を描写する実環境の二次元モデルである。幾何学モデルは、典型的には光景に表示されず、ここで述べられるように、寧ろ演算と処理の目的のために使用される。しかし、所望があれば、幾何学モデルを光景に表示することができる。
幾何学モデルは、実環境の属性である形状、対称性、幾何学サイズ、構造の少なくとも1つを描写することができる。幾何学モデルは、市街地図、市街地青写真、建物のフロアプラン又はショッピングモールの青写真を表わすことができる。
他の実施形態によれば、幾何学モデルは、実環境の三次元形状を描写する実環境の三次元モデルである。例えば、実環境の三次元モデルは、二次元モデルと二次元モデルのグランドプレーンに直交する次元から得られる。
好ましくは、幾何学モデルでは、実環境のビルトイン実オブジェクトは、幾何学モデル内に少なくとも1つの閉じた境界、例えば少なくとも1つのエッジ又は面を有する二次元及び三次元幾何学形状の少なくとも1つによって表わされる実オブジェクトに関連している。
実施形態によれば、実環境の光景でのオクルードされた実オブジェクトに関連する仮想情報のアイテムは半透明又は破線で示され、実環境の光景で少なくとも部分的に見ることができる実オブジェクトに関連する仮想情報のアイテムは不透明、実線又は異なる色で示される。
本発明は、デジタルコンピュータシステムの内部メモリにロードされるように適合されたコンピュータプログラムプロダクトにも関連しており、前記プロダクトが前記コンピュータシステム上で動作しているときに、上記の態様及び実施形態のいずれかに従う工程が実行されるために用いられるソフトウェアコードセクションを具備している。
拡張現実アプリケーションにおいて実環境の光景にPOIを重ねる本発明による方法の実施形態のフローチャートを示す。 実環境の二次元モデルを使用して、見えるビルトインオブジェクトを決定する実施形態のフローチャートを示す。 実環境の三次元モデルを使用して、見えるビルトインオブジェクトを決定する他の実施形態のフローチャートを示す。 見えるビルトインオブジェクト、フロントシーングループ又はオクルードされたシーングループにPOIを関連付ける実施形態のフローチャートを示す。 見えるビルトインオブジェクト、フロントシーングループ又はオクルードされたシーングループにPOIを関連付ける他の実施形態のフローチャートを示す。 拡張現実アプリケーションにおいて実環境の光景にPOIを重ねる本発明による方法の他の実施形態のフローチャートを示す。 建物A、B、C、D及びEの形式で実オブジェクトを含む例示的な実環境を示す。 実オブジェクトA1、A2、A3及びA4を含む実環境62をさらに含む建物Aを有する、図5による実環境の例示的な青写真を示す。 視野をもつ視点の遠近感からの図6のシーン及び実環境に対するPOI(POI_1、POI_2、POI_3、POI_4、POI_5、POI_6、POI_7、POI_8及びPOI_9)の位置を示す。 図7に示されるような視野をもつ視点で得られる実環境の例示的な画像を示す。 POIが画像に不透明に重ねられる図8のシーンを示す。 本発明の実施形態により図8のシーンの画像にPOIを重ねる適切なオクルージョン理解の実施形態を示す。 本発明の実施形態により図8のシーンの画像にPOIを重ねる適切なオクルージョン理解の他の実施形態を示す。 建物F及びGの形式で実オブジェクトを含む例示的な実環境を示す。 視点及び実環境に対するPOI(POI_10、POI_11及びPOI_12)の位置を有する、図12による実環境の例示的な青写真を示す。 図13に示されるような視野をもつ視点で得られる実環境の例示的な画像を示す。
図面と関連付けた以下の説明から、本発明のさらなる態様、有利な特徴及び実施形態を明らかにする。
拡張現実アプリケーションにおいて実環境の光景に仮想情報のアイテム、例えばPOIを重ねる本発明による方法の第1実施形態を説明するフローチャートとして、本発明の実施形態を図1に示す。
ステップ1では、キャプチャ機器、特にカメラが実環境の光景又は実環境の一部を取り込む。例えば、光景は、ユーザの目で視覚的印象として取り込まれ、且つ/又は、ユーザが携行しているか、ユーザが持っている機器に付属しているカメラによって1つ以上の画像として取得される。本実施形態では、図7に示されるように、取り込まれた光景は、視点71のポーズを決定するために使用することができる。
ステップ2では、キャプチャ機器が実環境の光景を取り込む視点71の位置及び方向(ポーズ)並びに視野72が決定される。視点の位置及び方向並びに視野は、実環境に対して決定されなければならない。キャプチャ機器の全地球位置、例えば経度及び緯度の二次元座標又は経度、緯度及び標高の三次元座標を決定するために、全地球測位システム(GPS)を使用することができる。様々な方位センサ、例えばコンパス及び重力センサが、グローバル座標システムに対する方向を測定することができる。実環境の二次元又は三次元形状モデルもグローバル座標システムに表わされる。この情報を有することにより、実環境に対する視点の位置及び方向が決定される。様々なビジョンベースのポーズ推定方法が、例えば実環境の二次元又は三次元形状モデルに基づいて、視点の位置及び方向を推定するために使用される。光景の角度範囲と共に、視覚方向は、実環境が見られる視野を定める。
視覚ポーズ、即ち視点の位置は、地理的位置又は参考の座標システムに対する位置となることができる。地理的位置は、経度及び緯度の二次元座標又は経度、緯度及び標高の三次元座標によって記述することができる。ユーザ又はカメラ機器は実環境において地表面に立つと知られているように、経度及び緯度の二次元座標は、多くの状況において視覚ポーズの位置を決定するには十分である。
視覚ポーズ、即ち視点の方向は角度位置又は参考の座標システムに対する視覚方向の姿勢を描写する。光景の角度範囲と共に、視覚方向は、実環境が見られる視野を定める。
視点の位置及び方向がわかり、幾何学モデル、例えば実環境の二次元及び/又は三次元形状モデルを使用することにより、下記でより詳細に述べているように、本発明の態様では、視点の位置と各POI間の射線による幾何学モデルでのビルトインオブジェクトの境界の横断または交点の数を決定又は確認することができる。
ここで記述されているように、実環境のビルトイン実オブジェクトは、オブジェクトの範囲を定めるために、それぞれ実環境の二次元及び三次元モデルにおいて少なくとも1つの境界、特に閉じた境界、例えばエッジ、面及び/又は壁を有する二次元及び/又は三次元幾何学形状により表わされる実オブジェクトを参考にする。二次元及び/又は三次元幾何学形状は、エッジ及び面を描写する任意の数式的表現、例えば二次元形状では多角形、円又は閉じたBスプライン、三次元形状では多面体、球体、円柱によって定義することができる。
「境界」という用語は、ここでは、境界の一方は一方、例えばその内側に向かってオブジェクトの範囲を定め、境界のもう一方はそのもう一方、例えばその外側に向かってオブジェクトの範囲を定めるということで理解すべきである。例えば、境界は、その内側、即ち建物のように閉じた或いは略閉じたオブジェクトの内側に向かってオブジェクトの範囲を定めるラインの一方と、その外側、例えば建物の外側に向かってオブジェクトの範囲を定めるラインのもう一方とを有するラインとすることができる。例えば、ラインは建物の壁を表わすかもしれない。他の例によれば、境界は、2つの側面(即ち、内側と外側)をもつ壁によって定められ、例えば壁の内側のライン及び壁の外側のラインによって表わすことができる。この例では、境界は、壁を境界として表わす2つのラインのセットによって形成されると理解すべきで、境界の一方(即ち、壁の内側の面/ライン)はその内側に向かってオブジェクトの範囲を定め、境界のもう一方(即ち、壁の外側の面/ライン)はその外側に向かってオブジェクトの範囲を定める。閉じた外殻、例えば建物によりオブジェクトが範囲を定められておらず、開いた形状(例えば、壁)を有している場合、オブジェクトの内側は視点から離れて向き合う境界面であると理解し、オブジェクトの外側は視点に向かって向き合う境界面であると理解すべきである。
建物又は道路は二次元市街地図では多角形で表わされるので、通常、市街のビルトイン実オブジェクトである。部屋は屋内シーンの二次元青写真では多角形で表わされるので、屋内シーンのビルトイン実オブジェクトとすることができる。人間又は移動する自動車は実環境の二次元又は三次元モデルでは実環境の一部として描写されないので、多くの場合、ビルトイン実オブジェクトではない。
本発明の態様によれば、実環境でのビルトイン実オブジェクトが実環境の光景において見えるか或いは部分的に見えるべきかが決定される。これは、視覚ポーズの位置及び方向並びに実環境の二次元及び/又は三次元形状モデルを使用することにより達成することができる。見えるビルトイン実オブジェクトに関してより現実的な結果は、距離センサからの実環境の光景の距離画像を考慮することにより得ることができ、それは任意のものであり、下記でより詳細に記述されている。本発明の様態では、さらにPOIがオクルージョンモードか非オクルージョンモードのどちらで表示されるべきかを決定する方法を開示する。これは、下記でより詳細に記述されているように、境界を横切る又は交差する数に基づいてビルトイン実オブジェクトに各POIを関連付けることにより達成される。
特に、実環境の二次元モデルは、特定平面に対して実環境の二次元形状を描写する。幾何学的形状は以下の属性、これらに限られないが、即ち形状、対称性、幾何学サイズ及び構造を記述する。二次元モデルによって描写される特定平面は、二次元モデルのグランドプレーンを参照して良い。
実環境の二次元モデルは、市街地図、市街地青写真、建物のフロアプラン又はショッピングモールの青写真とすることができる。市街地図又は青写真は、典型的には地球プレーンに対して市街の二次元形状を描写する。建物のフロアプランは、特定フロア上の建物の二次元形状又は構造として使用することができる。地球プレーン及びフロアプレーンは、ここでは、それぞれ二次元市街地図及び二次元フロアプランに対するグランドプレーンとして使用される。
特に、実環境の三次元モデルは、実環境の三次元形状及び実環境の実オブジェクトを描写する。その環境の三次元モデルは、二次元モデル及び二次元モデルのグランドプレーンに直交する次元から獲得することができる。市街の三次元モデルは、市街地青写真及び対応する高さデータから組み立てることができる。三次元モデルは、周囲表面の垂直及び水平次元である地形とすることもできる。
図12は建物F及びGの形式で実オブジェクトを含む例示的な実環境を示し、図13は図12による実環境121の例示的な青写真を示しており、実環境に対して視点131及び仮想情報(ここではPOI)のアイテムの位置、特にPOI_10、POI_11及びPOI_12を有している。図14は、図13に示されるような光景のフィールドでの視点において得られる実環境の例示的なイメージ141を示す。
実環境の光景にて見ることができるビルトイン実オブジェクトの内部にPOIが位置するとき、関連するPOIと視点との間にビルトイン実オブジェクトの1つの境界が存在する可能性が高い(例えば、実環境121でのビルトイン実オブジェクトとしての建物Fに対する視点131及びPOI_10、視点131にて取り込まれる光景141に対する建物Fの前面の壁である境界を有する図13参照)。従って、横切る(又は交差する)境界の数が2未満ならば、POIは非オクルージョンモードで光景に重ねられ、そうでなければ、オクルージョンモードで重ねられる。視点131とPOI_10の間の射線134は1つの境界を横切る。POI_10は、例えば実線(図14参照)にように、非オクルージョンモードで光景141に重ねられる。視点131とPOI_12の間の射線132は2つの境界を横切る。POI_12は、例えば破線(図14参照)にように、オクルージョンモードで光景141に重ねられる。射線133は3つの境界を横切るので、同様のことがPOI_11(図14参照)に対して起こる。
各ビルトイン実オブジェクトの境界に2未満で交差するPOIの位置を、視点に対して横切る各境界の前に移動することも可能である。そのとき、対応する(例えば、距離センサからの)奥行きデータと比べて視点により近く置かれたPOIは非オクルージョンモードで表示され、対応する奥行きデータと比べて視点からさらに離れて置かれたPOIはオクルージョンモードで表示される。これは、境界を横切る数を再計算せずに横切られる境界が実環境の光景で見ることができる限り、全ての場合で動作することができる。
ここで、図1の手順に戻ると、ステップ3は、実環境の光景で見えるビルトイン実オブジェクトを決定する。見えるビルトイン実オブジェクトは実環境の光景において見ることができる又は部分的に見ることができるビルトイン実オブジェクト(或いは、ここでは略称でビルトインオブジェクト)である。部分的に見ることができるとは、ビルトインオブジェクトの少なくとも一部が光景の中に見ることができることを意味する。本発明の態様では、実環境でのビルトインオブジェクトが実環境の光景において見ることができる又は部分的に見ることができるかどうかを決定する方法を開示する。これは、視覚ポーズの位置及び方向並びに実環境の二次元及び/又は三次元幾何学モデルを使用することにより達成することができる。見えるビルトインオブジェクトを決定する、より現実的な結果は、距離センサからの実環境の光景の距離画像を考慮することにより得ることができる。
視点及びPOIの二次元位置並びに実環境の二次元モデルは、多くの状況において見えるビルトインオブジェクトを決定するのに十分である。一例として、視界内での視点及びビルトインオブジェクトが実環境のグランドプレーンに対して同じ距離レベルにある状況がある。例えば、全ての建物とランドマークが市街の実環境で地球プレーン上に置かれているのと同じ地球プレーン上にキャプチャ機器が立っている。他の例として、視界内のビルトインオブジェクトが実環境のグランドプレーンに対して同じ距離レベルにあり、ビルトインオブジェクトがグランドプレーンに対して同じ高さをもつか高さがその光景におけるビルトインオブジェクトの可視性に影響を及ぼさない状況がある。例えば、ショッピングモール内の全ての店が同じ高さをもつことがあり、ショッピングモール内のキャプチャ機器により取り込まれる光景における店の可視性に高さが影響を及ぼさない。
実環境の二次元モデルを使用して、図1のステップ3に従って、見えるビルトインオブジェクトを決定する実施形態を図2Aに示す。ステップ3.1Aは実環境の二次元モデルを供給する。ステップ3.2Aは二次元モデルの二次元平面において視界内の視点から放たれる射線により、見えるビルトインオブジェクトを決定する。ビルトインオブジェクトの少なくとも一部が視点からの射線と最初に交わっているならば、ビルトインオブジェクトはその光景において見ることができる。交点座標は、視点からの射線の方程式とビルトインオブジェクトの二次元幾何学モデルの方程式に基づいて計算することができる。さらに、ステップ3.2Aは、見えるビルトインオブジェクトそれぞれがカバーする景域の一部を計算する。例えば、見えるビルトインオブジェクトがカバーする景域を、実環境の光景で取り込まれた画像中の見えるビルトインオブジェクトの画像領域とすることがある。その光景で見えるビルトインオブジェクトを決定する、画像面及び対応する射線又は対応する射線の一部との間の交点に基づいて、見えるビルトインオブジェクトがカバーする景域の一部は決定されることがある。見えるビルトインオブジェクトがカバーする景域の一部は、実環境に関連する視点の位置及び方向がわかり、見えるビルトインオブジェクトの幾何形状又は幾何形状の一部を画像面上に投影することによっても決定されることがある。
ステップ3.3Aでは、1つ以上の距離センサ(例えば、タイムオブフライトカメラ)から距離画像が実環境の光景に対して存在するかの確認が実行される。距離画像は、視点から実環境又は実環境の一部までの距離(即ち、奥行き)を測定する1つ以上の距離センサによって測定される奥行きデータのセットである。距離センサから距離画像が得られない場合、処理は終了する。1つ以上の距離センサから距離画像がステップ3.3Aから得られる場合、ステップ3.4Aが実行される。
実環境は、多くの場合、実オブジェクト、例えば実環境の二次元モデルには存在しない移動する自動車及び/又は人間を含む。距離センサは視点から実環境までの距離を測定するので、距離センサからの距離画像を使用することにより、見えるビルトインオブジェクトを決定する、より現実的な結果を得ることができる。
ステップ3.4Aで、ステップ3.3Aで決定された見えるビルトインオブジェクトの可視性が距離画像により再決定されることがある。ステップ3.3Aからの見えるビルトインオブジェクトそれぞれに対して人工の高さを作成し、その人工の高さは少なくとも視界内のグランドプレーンと直交する次元をカバーする。それから、見えるビルトインオブジェクトの三次元モデルは、人工の高さ及びそれらの二次元モデルから再構成される。三次元モデルを、奥行きデータから対応する奥行きと比較する。対応する奥行きと比べて三次元モデルの少なくとも一部が視点からあまり離れていなければ、ビルトインオブジェクトは光景の中で見ることができ、そうでなければ、見ることができない。距離画像の奥行きデータが、空に向かっているように、ビルトインオブジェクトが存在しないことを示しているかもしれないことに注意する。従って、ステップ3.4Aで見えるビルトインオブジェクトを再決定する前に、一定の閾値を超えた奥行きは、奥行きゼロと設定されることがある。
次のステップ3.5Aでは、見えるビルトインオブジェクトを距離画像により再決定する、画像面及び対応する射線との間の交点が、見えるビルトインオブジェクトがカバーする景域の少なくとも一部を再定義することがある。
図1のステップ3による実環境の三次元モデルを使用して、見えるビルトインオブジェクトを決定する実施形態を図2Bに示す。ステップ3.1Bは実環境の三次元モデルを供給し、実環境のビルトインオブジェクトは多面体によって表わすことができる。その環境の三次元モデルは、二次元モデルと二次元モデルのグランドプレーンと直交する次元から得られる。市街の三次元モデルは、市街地青写真及び対応する高さデータから組み立てられる。次のステップ3.2Bでは、距離センサ(例えば、タイムオブフライトカメラ)からの距離画像が実環境の光景に対して存在するか確認される。距離センサからの距離画像が得られない場合、ステップ3.3Bが実行される。
ステップ3.3Bでは、実環境の光景に対する距離画像が、視点のポーズ及び実環境の三次元モデルに基づいて作成される。これは、レイ・キャスティング法又は所謂ラスタ化法を使用することにより達成される。レイ・キャスティングの基本概念は、三次元空間での視点から多くの射線を放射し、三次元モデルによって定められた面と射線の最初の交点を検出することである。レイ・キャスティングの処理では、見えるビルトインオブジェクトは、視点からの射線と最初に交差するビルトインオブジェクトの少なくとも一部によって決定される。
距離センサからの距離画像がステップ3.2Bから得られる場合、ステップ3.4Bが実行される。ステップ3.4Bでは、距離画像での対応する奥行きと比べてオブジェクトの少なくとも一部が視点から射線に沿ってあまり離れていなければ、ビルトインオブジェクトは光景で見ることができる。
次のステップ3.5Bでは、見えるビルトインオブジェクトそれぞれがカバーする景域の一部が計算される。見えるビルトインオブジェクトがカバーする景域の一部は、その光景で見えるビルトインオブジェクトを決定する、画像面及び対応する射線又は対応する射線の一部との間の交点に基づいて決定されることがある。見えるビルトインオブジェクトがカバーする景域の一部は、実環境に関連する視点の位置及び方向がわかり、見えるビルトインオブジェクトの幾何形状又は幾何形状の一部を画像面上に投影することによっても決定されることがある。
図5は、ビルトインオブジェクトA、B、C、D及びEを含む実環境51を示す。ビルトインオブジェクトAは、さらにビルトインオブジェクトA1、A2、A3及びA4(図6)を含む実環境(屋内環境)62を含む。視点71で視界72にて取り込まれる実環境51の光景は、図8での画像81として示される。三次元モデルを使用して実環境の光景で見えるビルトインオブジェクトを決定する開示された方法に基づいて、A、B、C及びEは光景81で見えるビルトインオブジェクトである。
図1を再度参照すると、ステップ4は、POIを実環境の光景に表示させるか、重ねるか、或いは調和させるかを選択する。興味点(POI)は実環境においてビルトイン実オブジェクトと関連する位置のデジタルコンテンツを含む。POIの位置は、関連するビルトイン実オブジェクトの内部以外に存在することができる。
基本的に、POIは様々なソースから生じ、特許文献3でMeierらによって開示されたように、多くの種類で異なった形式の情報に対して設定される。インターネットからPOI情報を自動的に抽出することができる。例えば、それは、評価を与える、アドレスやページを有する会社やレストランのウェブサイトかもしれない。ユーザはテキスト、画像或いは三次元オブジェクトをそれらに置くことができ、他人に対して共用とすることができる。情報ページ、例えばウィキペディア(Wikipedia)(登録商標)は地理情報のために検索され、そのページはPOIとしてアクセス可能とされる。POIは、検索から自動的に作成され、モバイル機器のユーザの行動をブラウズする。他の興味対象の場所、例えば地下鉄又はバスステーション、病院、警察署、医者、不動産広告又はフィットネスクラブを示すことも可能である。
実環境の光景に重ねられる又は調和されるPOIは、種々の基準、例えば視点からの距離、視点からの視線に沿っているか、及び/又は視界内かに基づいて選ばれる。
図1のステップ5は、見えるビルトインオブジェクト、フロントシーングループ又はオクルードされたシーングループに、選択された各POIを関連付けている。フロントシーングループではPOIは非オクルージョンモードで示されるのに対して、オクルードされたシーングループではPOIはオクルージョンモードで示されるように取り扱われる(例えば、ここでより詳細に提示されるように、全く示されないか、破線で示される等)。
視点及びPOIの二次元位置並びに実環境の二次元幾何学モデルは、見えるビルトインオブジェクト又は関連のないグループに、選択された各POIを関連付けるには十分である。一例として、視界内での視点及びビルトインオブジェクトが実環境のグランドプレーンに対して同じ距離レベルにある状況がある。例えば、全ての建物とランドマークが市街の実環境で地球プレーン上に置かれているのと同じ地球プレーン上にキャプチャ機器が立っている。他の例として、視界内のビルトインオブジェクトが実環境のグランドプレーンに対して同じ距離レベルにあり、ビルトインオブジェクトがグランドプレーンに対して同じ高さをもつか高さがその光景におけるビルトインオブジェクトの可視性に影響を及ぼさない状況がある。例えば、ショッピングモール内の全ての店が同じ高さをもつことがあり、ショッピングモールの屋内シーンの光景において店の可視性に高さが影響を及ぼさない。
見えるビルトインオブジェクトにPOIを関連付けると、フロントシーングループ又はオクルードされたシーングループは、仮想情報のポイント(即ち、POI)がビルトインオブジェクトの二次元又は三次元幾何学形状の中にあるか調べることに基づくことになる。ポイントが二次元又は三次元幾何学形状の中にあるか調べるためにいくつかの方法、特に、例えばポイントインポリゴン(point-in-polygon)テスト(非特許文献4及び5参照)又はポイントインポリヘドロン(point-in-polyhedron)テスト(非特許文献6参照)が使用される。本発明の態様では、POIがビルトインオブジェクトの中に置かれるか否かのテストが提案される。それは、POIから視点までの射線に基づいて境界(例えば、二次元及び三次元幾何学形状それぞれに対するエッジ及び面)を横切ることにより実現される。このようなレイ・キャスティングに基づくアプローチは、ポイントからスタートし、任意の方向に向かう射線が二次元(又は三次元)形状のエッジ(又は面)に交差する回数を確認することにより、ポイントが二次元(又は三次元)形状の中に置かれているか調べることができる。ポイントが外にある場合、交差の数は偶数であり、中にある場合、奇数である。視点は全ての見えるビルトインオブジェクト(二次元又は三次元形状を調べる必要がある)の外にあると知られている。従って、射線が視点に届くまで、射線に沿ってPOIからテストがスタートする。
仮想情報のアイテム(例えば、POI)がビルトインオブジェクトの中に置かれているか否かの他のテストを提案する。例えば、非特許文献4で提案されている二次元多角形の中のポイントを調べるためにアングルサムメンション(angle summation)法が使用されたものである。アングルサムメンション法は、各エッジの終点近くのポイントで形成される符号付きの角度を合計するように実行されることがある。1つの符号付き角度は、1つのエッジがもつ2つの終点に対することによって、ポイント近くに形成される。合計がゼロならば、ポイントは外にあり、ゼロでなければ、ポイントは内にある。アングルサムメンション法は、多角形で近似られる任意の二次元形状に適用することができる。アングルサムメンション法は、ポイントと三次元幾何学形状を交差して二次元幾何学形状を形成することによって、ポイントが三次元幾何学形状の中にあるか調べることにも適用することができる。ポイントが中にない交差した二次元幾何学形状が1つ存在するならば、ポイントは三次元形状の外にあり、そうでなければ、ポイントは三次元形状の中にある。
見えるビルトインオブジェクト又は関連のないグループにPOIを関連付ける可能性のある実装を、図1のステップ5を実装するための実施形態として、図3Aに示されるフローチャートで記述する。
ステップ5.1では、POIの位置から視点までの射線を生成する。ステップ5.2では、ビルトインオブジェクト、好ましくは全てのビルトインオブジェクトの境界(例えば、エッジ又は面)と射線の交点を検出する。全く交点がない場合、POIをフロントシーングループに関連付ける(ステップ5.3)。交点がある場合、交点からPOIまでの距離の順で射線が交差したビルトインオブジェクトを分類する(ステップ5.4)。ステップ5.5では、分類されたグループから、最初に交差されたビルトインオブジェクトを取得する。ステップ5.6では、横切られた境界に基づいて、交差されたビルトインオブジェクトの内部にPOIがあるか確認する。イエスの場合、交差されたビルトインオブジェクトが、見えるビルトインオブジェクトであるか確認する(ステップ5.7)。イエスの場合、対応する見えるビルトインオブジェクトにPOIを関連付ける(ステップ5.11)。ステップ5.6及び5.7からの結果がノーの場合、ステップ5.8にて、交差され確認されたビルトインオブジェクトが、分類されたグループの中の最後の1つか確認する。最後の1つならば、オクルードされたシーングループにPOIを関連付ける(ステップ5.9)。そうでなければ、分類されたグループ中の次に移る(ステップ5.10)。
図1に戻ると、オプションであるステップ6では、1つ以上の距離センサから供給される距離画像に基づいて、フロントシーングループのPOIをフロントシーングループかオクルードされたシーングループのどちらかに割り当て直す。これにより、例えば自動車及び/又は人間を含む実環境の現実的な奥行きデータに基づいて、フロントシーングループ及びオクルードされたシーングループに対して、より現実的な結果を導き出すことができる。その環境の二次元又は三次元モデルに存在しない自動車や人間は前面に存在することがあり、視点に対してPOIをオクルードする。POIから視点までの距離が、それに対応した距離画像中のPOIから視点までの射線に沿った奥行きより長いならば、POIはオクルードされたシーングループに関連付けられ、そうでなければ、フロントシーングループに関連付けられる。
二次元モデルを使用して、見えるビルトインオブジェクト、フロントシーングループ又はオクルードされたシーングループにPOIを関連付ける開示された方法によれば、図10に示されるように、フロントシーングループはPOI_2を含み、オクルードされたシーングループはPOI_7及びPOI_8を含む。さらに、POI_1は見えるビルトインオブジェクトBに関連付けられ、POI_6は見えるビルトインオブジェクトCに関連付けられ、POI_9は見えるビルトインオブジェクトEに関連付けられ、POI_3、POI_4及びPOI_5は見えるビルトインオブジェクトAに関連付けられる。
本発明による方法の他の実施形態を図4に示す。図1及び4に示される実施形態では、ステップ1、2、3、4、6及び7に関しては、お互いに一致している。図1に対する図4による実施形態の違いは、以下に述べるように、ステップ44及び45にある。
図4に示される実施形態によれば、見えるビルトインオブジェクトがわからなくても、選択された各POIを、ビルトインオブジェクトか、フロントシーングループか、又はオクルードされたシーングループに関連付けることができる(ステップ44)。見えるビルトインオブジェクトの情報がステップ3より利用可能となったらすぐに、ステップ45で見えないビルトインオブジェクトに関連するPOIをオクルードされたシーングループに割り当てることができる。
図3Bは、図4のステップ44を実装するための実施形態として、選択された各POIをビルトインオブジェクト、フロントシーングループ又はオクルードされたシーングループに関連付ける可能性のある実装を示す。図3A及び3Bに示される実施形態では、ステップ5.1、5.2、5.3、5.4、5.5、5.6及び5.8、5.9、5.10に関しては、お互いに一致している。図3Aに対する図3Bによる実施形態の違いは、ステップ5.7及び5.11に代わるステップ5.12にある。ステップ5.12では、POIは、見えるか否かに関係なく、各ビルトインオブジェクトに関連付けられる。見えるビルトインオブジェクトの情報がステップ3より利用可能となったらすぐに、図4のステップ45で、図3Bで示されるようにオクルードされたシーングループ又はフロントシーングループにまだ割り当てられておらず、見えないビルトインオブジェクトに関連しているPOIを、オクルードされたシーングループに割り当てる。残ったビルトインオブジェクト及びそれらに関連するPOIは、少なくとも部分的に見えるビルトインオブジェクトに属するものと取り扱われる。
図1及び4の両方の実施形態によれば、ステップ7で、実環境の光景に、見えるビルトインオブジェクトに関連するPOIはオクルードされないものとして、フロントシーングループのPOIはオクルードされないものとして、オクルードされたシーングループのPOIはオクルードされるものとして重ねる。図10に示されるように、オクルードされるPOIは半透明又は破線で示し、一方、オクルードされないPOIは不透明、実線又は異なる色で示すことができる。
さらに、各POIは、好ましくは、重ねられたPOIから実環境を素早く且つ直感的にユーザが理解できるような使用可能でフレンドリな方法で、実環境の光景に重ねられるべきである。実環境にPOIを配置することにより、実環境の光景へのPOIの重ね合わせにおける有用性及びフレンドリ性を向上することができる。見えるビルトインオブジェクトの景域の一部分の内部又は近くに、見えるビルトインオブジェクトに関係するPOIを配置することができる。この目的のために、ステップ3.1A、3.5A及び/又は3.5Bでは、見えるビルトインオブジェクトそれぞれがカバーする景域の一部を計算する。例えば、図10に示されるように、光景81において、POI_6を、関連する見えるビルトインオブジェクトCがカバーする領域の近くに配置するのが好ましい。他の例として、図19に示されるように、光景81において、POI_3、POI_4及びPOI_5を、関連する見えるビルトインオブジェクトAがカバーする領域に配置するものがある。ビルトインオブジェクトBは光景81において見られるか、部分的に見られるので、関連するPOI_1は光景81においてビルトインオブジェクトBの画像領域に配置される。
さらに詳しくは、POIを実環境の光景において意味のある位置に配置するのが好ましい。実環境で入口を有する建物に対して、建物に関連するPOIは、入口がカバーする景域の一部の近くか内部に重ねることがある。実環境51の光景81において、POI_3、POI_4及びPOI_5は建物Aの入口に置かれ、POI_9は建物Eの入口に置かれる(図11)。入口が明示されている二次元又は三次元モデルを使用して、レイ・キャスティング又はラスタ化に基づいて、入口の画像領域を決定することができる。入口の視覚特性、例えば周囲とは異なるテクスチャに基づいて、画像ベースのパタン認識方法によっても入口の画像領域を検出することができる。
なお、キャプチャ機器が実オブジェクトの内部に位置し、屋内環境の光景を取り込んだとき、実オブジェクトに関連するPOIは、オクルージョンモードや非オクルージョンモードとは異なったモードで光景に重ねることができる。これにより、それらが実オブジェクトの内部にあることをユーザに気付かせることができる。
51、62、121 実環境
71、131 視点
72 視野
81 画像
132、133、134 射線
141 光景

Claims (15)

  1. 実環境の光景に仮想情報を表現する方法であって、
    少なくとも1つのディスプレイ機器を備えるシステム装置を設け、前記システム装置は前記ディスプレイ機器に仮想情報を調和させるために適合される工程と、
    前記実環境の少なくとも1つのコンポーネントに関連して視点の位置を決定する工程と、
    前記実環境の幾何学モデルを供給し、前記幾何学モデルは前記実環境のそれぞれのビルトイン実オブジェクトの複数の表現を具備し、各表現は前記それぞれのオブジェクトの範囲を定める少なくとも1つの境界を有する少なくとも1つの二次元又は三次元幾何学形状を具備し、前記境界の一方はその内側に向かって前記オブジェクトの範囲を定め、前記境界の他方はその外側に向かって前記オブジェクトの範囲を定める工程と、
    仮想情報の少なくとも1つのアイテム及び前記仮想情報の少なくとも1つのアイテムの位置を供給する工程と、
    前記視点の位置及び前記幾何学モデルに従って前記ディスプレイ機器に前記仮想情報の少なくとも1つのアイテムを調和させる視覚化モードを決定する工程と、
    前記視点と前記仮想情報のアイテムの間の射線を演算する工程と、
    前記射線による境界交点の数を決定する工程とを備え、
    前記境界交点の数が2未満ならば前記仮想情報のアイテムは非オクルージョンモードで調和され、そうでなければオクルージョンモードで調和され、且つ/又は、前記仮想情報のアイテムの位置が前記視点に対して前記交差された境界の前に移動することを特徴とする実環境の光景に仮想情報を表現する方法。
  2. 前記方法は繰り返し実行され、各繰り返しでは前記仮想情報のアイテムの高さが増加し、前記射線による前記境界交点の数が2未満になったとき、或いは前記高さが予め定められたリミットを超えたとき、前記繰り返しがストップする請求項1に記載の方法。
  3. 前記仮想情報のアイテムの視覚化モードの決定は前記視点までの前記仮想情報の距離に影響を受け、前記仮想情報のアイテムが非オクルージョンモードで調和されると決定された場合、前記仮想情報のアイテムの図形表現が前記幾何学モデルに付加され、仮想情報の次のアイテムの前記視覚化モードを決定するときに考慮される請求項1又は2に記載の方法。
  4. 前記幾何学モデルは、前記ディスプレイ機器、例えばステレオカメラ、アレイカメラ又はタイムオブフライトカメラと関連する深度センサ源から得られる請求項1乃至3のいずれか1項に記載の方法。
  5. 前記幾何学モデルは、特定平面、特に二次元モデルのグランドプレーンに対して実環境の二次元形状を描写する前記実環境の前記二次元モデルである請求項1乃至4のいずれか1項に記載の方法。
  6. 前記幾何学モデルは、前記実環境の属性である形状、対称性、幾何学サイズ、構造の少なくとも1つを描写する請求項1乃至5のいずれか1項に記載の方法。
  7. 前記幾何学モデルは、市街地図、市街地青写真、建物のフロアプラン又はショッピングモールの青写真を表わしている請求項1乃至6のいずれか1項に記載の方法。
  8. 前記幾何学モデルは、実環境の三次元形状を描写する前記実環境の三次元モデルである請求項1乃至7のいずれか1項に記載の方法。
  9. 前記実環境の前記三次元モデルは、二次元モデルと前記二次元モデルのグランドプレーンと直交する次元から得られる請求項8に記載の方法。
  10. 前記幾何学モデルでは、前記実環境の前記ビルトイン実オブジェクトは、前記幾何学モデルでの少なくとも1つの閉じた境界、特に少なくとも1つのエッジ又は面を有する二次元及び三次元幾何学形状の少なくとも1つによって表わされる実オブジェクトに関連している請求項1乃至9のいずれか1項に記載の方法。
  11. オクルードされた実オブジェクトに関連する仮想情報のアイテムは半透明又は破線で示され、少なくとも部分的に見ることができる実オブジェクトに関連する仮想情報のアイテムは不透明、実線又は異なる色で示される請求項1乃至10のいずれか1項に記載の方法。
  12. 写真を撮ることによって前記実環境の少なくとも1つの光景を供給し、前記光景の少なくとも一部の前記実環境に仮想情報が重ねられるように前記ディスプレイ機器に前記仮想情報を調和するために前記システム装置が適合される請求項1乃至11のいずれか1項に記載の方法。
  13. 前記実環境の少なくとも1つの描写された光景を供給し、前記光景の少なくとも一部の前記実環境に仮想情報が重ねられるように前記ディスプレイ機器に前記仮想情報を調和するために前記システム装置が適合される請求項1乃至12のいずれか1項に記載の方法。
  14. 前記実環境の少なくとも1つの光景を供給し、前記光景の少なくとも一部の前記実環境に仮想情報が重ねられるように半透明のディスプレイ機器に前記仮想情報を調和するために前記システム装置が適合される請求項1乃至13のいずれか1項に記載の方法。
  15. デジタルコンピュータシステムの内部メモリにロードされるように適合されたコンピュータプログラムプロダクトであって、前記プロダクトが前記コンピュータシステム上で動作しているときに、請求項1乃至14のいずれか1項に記載の工程を実行するために用いられるソフトウェアコードセクションを具備することを特徴とするコンピュータプログラムプロダクト。
JP2015548230A 2012-12-21 2012-12-21 実環境に仮想情報を表現する方法 Active JP6050518B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2012/076707 WO2014094881A1 (en) 2012-12-21 2012-12-21 Method for representing virtual information in a real environment

Publications (2)

Publication Number Publication Date
JP2016505961A true JP2016505961A (ja) 2016-02-25
JP6050518B2 JP6050518B2 (ja) 2016-12-21

Family

ID=47522592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015548230A Active JP6050518B2 (ja) 2012-12-21 2012-12-21 実環境に仮想情報を表現する方法

Country Status (5)

Country Link
US (1) US9558581B2 (ja)
EP (2) EP3779895A1 (ja)
JP (1) JP6050518B2 (ja)
CN (1) CN104995665B (ja)
WO (1) WO2014094881A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019130708A1 (ja) * 2017-12-25 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084878B (zh) * 2012-12-21 2023-07-07 苹果公司 用于在真实环境中表示虚拟信息的方法
US9959674B2 (en) * 2013-02-26 2018-05-01 Qualcomm Incorporated Directional and X-ray view techniques for navigation using a mobile device
US9547939B2 (en) * 2013-07-25 2017-01-17 Fluke Corporation Detecting and visualizing wireless network devices in communication networks
US9971853B2 (en) 2014-05-13 2018-05-15 Atheer, Inc. Method for replacing 3D objects in 2D environment
IL236243A (en) * 2014-12-14 2016-08-31 Elbit Systems Ltd Visual enhancement of color icons is shown
US9836874B2 (en) 2015-01-27 2017-12-05 Splunk Inc. Efficient polygon-clipping technique to reduce data transfer requirements for a viewport
US9767122B2 (en) 2015-01-27 2017-09-19 Splunk Inc. Efficient point-in-polygon indexing technique to facilitate displaying geographic data
US9916326B2 (en) 2015-01-27 2018-03-13 Splunk, Inc. Efficient point-in-polygon indexing technique for facilitating geofencing operations
US9607414B2 (en) * 2015-01-27 2017-03-28 Splunk Inc. Three-dimensional point-in-polygon operation to facilitate displaying three-dimensional structures
US10026204B2 (en) 2015-01-27 2018-07-17 Splunk Inc. Efficient point-in-polygon indexing technique for processing queries over geographic data sets
JP6344311B2 (ja) * 2015-05-26 2018-06-20 ソニー株式会社 表示装置、情報処理システム及び制御方法
US9767606B2 (en) * 2016-01-12 2017-09-19 Lenovo (Singapore) Pte. Ltd. Automatic modification of augmented reality objects
CA3015164A1 (en) * 2016-02-18 2017-08-24 Edx Technologies, Inc. Systems and methods for augmented reality representations of networks
US10395435B2 (en) 2016-04-04 2019-08-27 Occipital, Inc. System for multimedia spatial annotation, visualization, and recommendation
US10163271B1 (en) 2016-04-04 2018-12-25 Occipital, Inc. System for multimedia spatial annotation, visualization, and recommendation
GB2553148A (en) * 2016-08-26 2018-02-28 Nctech Ltd Modelling system and method
US20180137215A1 (en) * 2016-11-16 2018-05-17 Samsung Electronics Co., Ltd. Electronic apparatus for and method of arranging object in space
US10146300B2 (en) 2017-01-25 2018-12-04 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Emitting a visual indicator from the position of an object in a simulated reality emulation
US10429926B2 (en) * 2017-03-15 2019-10-01 International Business Machines Corporation Physical object addition and removal based on affordance and view
US10321258B2 (en) * 2017-04-19 2019-06-11 Microsoft Technology Licensing, Llc Emulating spatial perception using virtual echolocation
US10251011B2 (en) * 2017-04-24 2019-04-02 Intel Corporation Augmented reality virtual reality ray tracing sensory enhancement system, apparatus and method
CN108986224B (zh) * 2017-06-01 2021-08-17 腾讯科技(深圳)有限公司 电子地图处理方法、装置和计算机设备
US11118930B2 (en) * 2017-07-14 2021-09-14 Lyft, Inc. Providing information to users of a transportation system using augmented reality elements
US10469819B2 (en) * 2017-08-17 2019-11-05 Shenzhen China Star Optoelectronics Semiconductor Display Technology Co., Ltd Augmented reality display method based on a transparent display device and augmented reality display device
US11257245B1 (en) * 2017-09-11 2022-02-22 Apple Inc. Method and device for detection and tracking of low-texture objects
US11164380B2 (en) * 2017-12-05 2021-11-02 Samsung Electronics Co., Ltd. System and method for transition boundaries and distance responsive interfaces in augmented and virtual reality
EP3848909A4 (en) * 2018-09-30 2021-12-29 Huawei Technologies Co., Ltd. Information prompt method and electronic device
CN109545003B (zh) * 2018-12-24 2022-05-03 北京卡路里信息技术有限公司 一种显示方法、装置、终端设备及存储介质
EP3757723A1 (en) * 2019-06-28 2020-12-30 Rosemount Tank Radar AB Method for providing tank-specific information to an on-site operator
US11043038B1 (en) 2020-03-16 2021-06-22 Hong Kong Applied Science and Technology Research Institute Company Limited Apparatus and method of three-dimensional interaction for augmented reality remote assistance
CN111881861B (zh) * 2020-07-31 2023-07-21 北京市商汤科技开发有限公司 一种展示方法、装置、设备及存储介质
US11893698B2 (en) * 2020-11-04 2024-02-06 Samsung Electronics Co., Ltd. Electronic device, AR device and method for controlling data transfer interval thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085584A (ja) * 2001-06-11 2003-03-20 Canon Inc 3dコンピュータモデリング装置
WO2012038585A1 (en) * 2010-09-23 2012-03-29 Nokia Corporation Methods, apparatuses and computer program products for grouping content in augmented reality
US20120176410A1 (en) * 2009-08-18 2012-07-12 Metaio Gmbh Method for representing virtual information in a real environment

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPQ691100A0 (en) * 2000-04-14 2000-05-11 Lim, Dr Hong Lip Improvements to 3d graphics
US7499053B2 (en) * 2000-06-19 2009-03-03 Mental Images Gmbh Real-time precision ray tracing
KR101643869B1 (ko) * 2010-05-06 2016-07-29 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
US8952983B2 (en) 2010-11-04 2015-02-10 Nokia Corporation Method and apparatus for annotating point of interest information
CN102509342A (zh) * 2011-09-22 2012-06-20 北京航空航天大学 一种共享增强现实场景中协同式虚实遮挡处理方法
US9087412B2 (en) * 2011-09-26 2015-07-21 Nokia Technologies Oy Method and apparatus for grouping and de-overlapping items in a user interface
US9324190B2 (en) * 2012-02-24 2016-04-26 Matterport, Inc. Capturing and aligning three-dimensional scenes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085584A (ja) * 2001-06-11 2003-03-20 Canon Inc 3dコンピュータモデリング装置
US20120176410A1 (en) * 2009-08-18 2012-07-12 Metaio Gmbh Method for representing virtual information in a real environment
WO2012038585A1 (en) * 2010-09-23 2012-03-29 Nokia Corporation Methods, apparatuses and computer program products for grouping content in augmented reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019130708A1 (ja) * 2017-12-25 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
CN104995665A (zh) 2015-10-21
EP2936441B1 (en) 2020-09-30
JP6050518B2 (ja) 2016-12-21
EP3779895A1 (en) 2021-02-17
WO2014094881A1 (en) 2014-06-26
US20150332505A1 (en) 2015-11-19
CN104995665B (zh) 2018-01-26
US9558581B2 (en) 2017-01-31
EP2936441A1 (en) 2015-10-28

Similar Documents

Publication Publication Date Title
JP6050518B2 (ja) 実環境に仮想情報を表現する方法
US11315308B2 (en) Method for representing virtual information in a real environment
CN104731337B (zh) 用于在真实环境中表示虚拟信息的方法
KR101993920B1 (ko) 물리적 장면을 표현하기 위한 방법 및 장치
AU2020202551A1 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
EP3170151B1 (en) Blending between street view and earth view
KR101851303B1 (ko) 3차원 공간 재구성 장치 및 방법
KR102158324B1 (ko) 점군 정보 생성 장치 및 방법
JP2022507502A (ja) 拡張現実(ar)のインプリント方法とシステム
Trapp et al. Strategies for visualising 3D points-of-interest on mobile devices
EP3007136B1 (en) Apparatus and method for generating an augmented reality representation of an acquired image
CN110313021B (zh) 增强现实提供方法、装置以及计算机可读记录介质
EP3289554A1 (en) Digital signage for immersive views
WO2022089061A1 (zh) 物体标注信息呈现方法、装置、电子设备及存储介质
JP6487545B2 (ja) 認知度算出装置、認知度算出方法及び認知度算出プログラム
US10614308B2 (en) Augmentations based on positioning accuracy or confidence
KR101318324B1 (ko) 영상 기반의 보행 경로 poi표출 시스템

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160620

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160624

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161124

R150 Certificate of patent or registration of utility model

Ref document number: 6050518

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250