JP2020514848A - 拡張現実ソフトウェアアプリケーションのサポート - Google Patents

拡張現実ソフトウェアアプリケーションのサポート Download PDF

Info

Publication number
JP2020514848A
JP2020514848A JP2019524378A JP2019524378A JP2020514848A JP 2020514848 A JP2020514848 A JP 2020514848A JP 2019524378 A JP2019524378 A JP 2019524378A JP 2019524378 A JP2019524378 A JP 2019524378A JP 2020514848 A JP2020514848 A JP 2020514848A
Authority
JP
Japan
Prior art keywords
user
virtual object
physical location
physical
current virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019524378A
Other languages
English (en)
Other versions
JP6859436B2 (ja
Inventor
ワン, ユ
ユ ワン,
ヨーアン ハラルドソン,
ヨーアン ハラルドソン,
チェソン チョン,
チェソン チョン,
サンドラ ベックストレーム,
サンドラ ベックストレーム,
マシュー ジョン ローレンソン,
マシュー ジョン ローレンソン,
Original Assignee
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エルエム エリクソン(パブル), テレフオンアクチーボラゲット エルエム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Publication of JP2020514848A publication Critical patent/JP2020514848A/ja
Application granted granted Critical
Publication of JP6859436B2 publication Critical patent/JP6859436B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)

Abstract

拡張現実(AR)ソフトウェアアプリケーションをサポートするためのコンピューティングデバイス(120)を提供すること。コンピューティングデバイスは、ユーザ(110)の周辺環境において物理的シーン(100;200)をキャプチャするビデオシーケンス上にオーバーレイされた時に現在の仮想オブジェクト(104)が配置されているように見える、現在の仮想オブジェクトを配置するための物理的位置(131)を、物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示すること(123)に応答してユーザが想定する予想物理的位置、および空間依存しており、ARソフトウェアアプリケーションのユーザ体感に影響を与える特性に基づいて、選択するように動作可能である。仮想オブジェクトを配置するための物理的位置を選択する際にユーザの予想物理的位置における空間依存特性を考慮に入れることは、仮想オブジェクトが、改善された、または少なくとも満足のいくようなユーザ体感をユーザに提供するような物理的位置において展開可能であるという点で有利である。【選択図】図1

Description

本発明は、拡張現実(AR)ソフトウェアアプリケーションをサポートするためのコンピューティングデバイス、ARソフトウェアアプリケーションをサポートする方法、対応するコンピュータプログラム、および対応するコンピュータプログラム製品に関する。
ARは、音声、ビデオ、またはグラフィックスといったコンピュータ生成の感覚入力によって要素が拡張される(または補足される)物理的な実世界環境の生の直接的または間接的ビューである。このARは、現実のビューがコンピュータによって修正される(拡張ではなく減少される場合もある)媒介現実と呼ばれる、より全般的な概念に関する。拡張は従来、環境物と共に、リアルタイムでおよび意味的コンテキストにおいて行われる。さらに、オブジェクト認識を利用することによって、物理的な実世界のオブジェクトは、操作され、または実世界環境を拡張することを考慮に入れ得る。
典型的には、ARソフトウェアアプリケーションは、ユーザによって着用されるカメラによってキャプチャされることが多い、ユーザの周辺環境の拡張シーンを表示するためにユーザによって着用されるディスプレイを利用する。近年、ヘッドマウントディスプレイ(HMD)、または仮想現実(VR)ヘッドセットは、ARでの使用に対してますます普及してきている。これらのデバイスは、1つまたは複数のディスプレイ、および多くはカメラも含み、ハーネスまたはヘルメットのようにユーザの前額部に合わせるように設計される。HMDは、物質的世界、および物質的世界を拡張する仮想オブジェクト両方の画像をユーザの視野に覆いかぶせる。これらHMDは、ARソフトウェアアプリケーションを、ユーザの動きに応答して仮想オブジェクトを物質的世界に正確に位置合わせ可能とする6自由度監視のためのセンサを採用することが多い。例えば、Microsoft HoloLensおよびOculus RiftといったHMDが市販されている。また、スマートフォンをHMDとして利用することで、スマートフォンをユーザの前額部と合わせることを容易にするユーティリティも利用可能である(例えば、Google CardboardおよびSamsung Gear VR)。
ARソフトウェアアプリケーションの数は、市販のHMDの出現と共に大幅に増加している。ARは、例えば、建築プロジェクトを視覚化するためのアーキテクチャにおいて、製品を顧客に視覚化するための商業目的に、およびゲーム目的に使用される。例として、2016年7月に任天堂によってリリースされた、モバイルゲームアプリケーションのポケモンGoは、すぐに世界的に成功して、何億回もダウンロードされた。ポケモンGoは、ポケットモンスターの形態の仮想オブジェクトを物理的位置に展開する位置ベースのARゲームであり、プレイヤーは、モンスターをキャプチャするために物理的位置に移動しなければならない。
ポケモンGoの成功に続いて、位置ベースのARゲームおよびアプリの数が大幅に増加することが予想される。位置ベースのARゲームおよびアプリの共通の特徴は、プレイヤーまたはユーザが、具体的な物理的、すなわち、実世界の場所を訪問して、そこに配置されている仮想オブジェクトと対話することが必要とされることである。ARソフトウェアアプリケーションは典型的には、無線アクセスネットワーク(RAN)を介してARソフトウェアアプリケーションをホストするアプリケーションサーバと通信するため、これらのアプリケーションは、かなりのネットワーク負荷を発生させることによってRANに大きな負担をかけている。とりわけ、このことは、相当な数のARユーザが互いに近接して移動する場合に当てはまる。位置ベースのARゲームおよびアプリはまた、ユーザが例えば、シャドーイングまたは干渉などによって引き起こされる悪いカバレッジの領域に移動する場合の悪い接続性に悩まされる場合がある。これらの問題点は両方共、ARソフトウェアアプリケーションのユーザ体感に悪影響を与えている。
本発明の目的は、上記の技法および先行技術に対して改善された代替策を提供することである。
より具体的には、本発明の目的は、ARソフトウェアアプリケーションによって、仮想オブジェクトを配置するための物理的位置を選択するための改善された解決策を提供することである。
本発明のこれらのおよび他の目的は、独立請求項によって規定されるような、本発明の種々の態様によって実現される。本発明の実施形態は従属請求項によって特徴付けられる。
本発明の第1の態様によると、ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスが提供される。コンピューティングデバイスは、ARソフトウェアアプリケーションのユーザが想定する予想物理的位置、およびユーザの周辺環境に空間依存する特性に基づいて、現在の仮想オブジェクトを配置するための物理的位置を選択するように動作可能な処理手段を含む。空間依存特性は、ARソフトウェアアプリケーションのユーザ体感に影響を与える。予想物理的位置は、ユーザの周辺環境において物理的シーンをキャプチャするビデオシーケンス、およびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する物理的位置である。選択された物理的位置は、現在の仮想オブジェクトが、ユーザの周辺環境において物理的シーンをキャプチャするビデオシーケンス上にオーバーレイされる時に配置されているように見える物理的位置である。
本発明の第2の態様によると、ARソフトウェアアプリケーションをサポートするための方法が提供される。方法は、コンピューティングデバイスによって実施される、ARソフトウェアアプリケーションのユーザが想定する予想物理的位置、およびユーザの周辺環境に空間依存する特性に基づいて現在の仮想オブジェクトを配置するための物理的位置を選択することを含む。空間依存特性は、ARソフトウェアアプリケーションのユーザ体感に影響を与える。予想物理的位置は、ユーザの周辺環境において物理的シーンをキャプチャするビデオシーケンス、およびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する物理的位置である。選択された物理的位置は、現在の仮想オブジェクトが、ユーザの周辺環境において物理的シーンをキャプチャするビデオシーケンス上にオーバーレイされる時に配置されているように見える物理的位置である。
本発明の第3の態様によると、コンピュータプログラムが提供される。コンピュータプログラムは、コンピュータ実行可能命令であって、デバイスに、コンピュータ実行可能命令が、デバイスに含まれる処理ユニット上で実行される時、本発明の第2の態様の一実施形態による方法を行わせる、コンピュータ実行可能命令を含む。
本発明の第4の態様によると、コンピュータプログラム製品が提供される。コンピュータプログラム製品は、本発明の第3の態様によるコンピュータプログラムが具現化されているコンピュータ可読記憶媒体を含む。
このコンテキストでは、ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスは、例えば、ARソフトウェアアプリケーションをホストするアプリケーションサーバ、HMDもしくはVRヘッドセット、携帯電話、スマートフォン、移動体端末、パーソナルコンピュータ、ラップトップ、タブレット、またはゲーム機によって具現化されてよい。ARソフトウェアアプリケーションは、例えば、ポケモンGoなどのARゲーム、または、AR観光ガイドなどの物理的な実世界のオブジェクトを拡張するためのARアプリであってよい。本開示全体を通して、「物理的」および「実世界」という用語は区別なく使用され、実世界におけるオブジェクトまたは位置に言及すると理解されるものとする。ユーザの周辺環境、および仮想オブジェクトをオーバーレイすることによって拡張されるキャプチャされたシーンは、任意の実世界の屋内または屋外の位置、例えば、部屋または公共空間であってよい。
本発明は、ARソフトウェアアプリケーションによる、仮想オブジェクトの配置または展開のための物理的位置の改善された選択が、ARソフトウェアアプリケーションのユーザ体感に影響を与える、空間依存特性を考慮に入れることによって実現可能であるという理解を活用する。空間依存特性は、少なくともユーザの周辺環境において、実世界における物理的位置に応じて変化する。空間依存特性は、例えば、無線接続の、信号強度、データ速度、帯域幅、誤り率、再送率、およびレイテンシといった、ARソフトウェアアプリケーションによって利用される無線接続の性能に関連している場合がある。ARソフトウェアアプリケーションのユーザ体感が典型的には、高い信号強度、高いデータ速度または帯域幅、低い誤り率、低い再送率、および低いレイテンシから利益を得ることは理解されるであろう。無線接続は、受信された情報に基づいてユーザに対して表示するために拡張シーンをレンダリングするユーザデバイスに対する仮想オブジェクトの配置に関する情報を送信するためにARソフトウェアアプリケーションによって利用される接続であってよい。代替的には、無線接続は、ビデオストリームとしてレンダリングされた拡張シーンをユーザデバイスに送信して、拡張シーンをユーザに表示するために利用されてよい。無線接続は、例えば、セルラーRAN、無線ローカルエリアネットワーク(WLAN)/Wi−Fiネットワーク、またはBluetoothなどによって行われてよい。
代替的には、空間依存特性は、ARソフトウェアアプリケーションによってレンダリングされる音声のユーザによる認知に関連していてよい。とりわけ、これは、ユーザの周辺環境に配置されるスピーカによってレンダリングされる音声であってよい。例えば、ユーザの認知は、ステレオオーディオまたは3Dオーディオが、十分な品質を有し、ひいては、ARソフトウェアアプリケーションのユーザ体感に影響を与える特定の位置において送出することが可能であるかどうかに関係している場合がある。
現在の仮想オブジェクト、すなわち、ARソフトウェアアプリケーションが展開しようとしている仮想オブジェクトを配置するための物理的位置は、物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置における空間依存特性を評価することによって選択される。これは、ユーザの可能性がある将来的な位置、すなわち、オーバーレイされた仮想オブジェクトが、ユーザに表示されかつユーザが見た後のユーザの位置である。特に、仮想オブジェクトは、ユーザに表示される時、ユーザを自身の現在の物理的位置にとどめる、または位置の変化をトリガするための効果を有する場合がある。例えば、ユーザは、例えば、ARゲームにおける「友好的な」キャラクターからのアイテムを収集するために、仮想オブジェクトと対話することを望む場合がある。この場合、ユーザは、現在の仮想オブジェクトが実世界に配置されているように見える物理的位置に近い物理的位置に移動することが予想される。他方では、ARゲームにおいて「非友好的な」キャラクターを表す仮想オブジェクト、すなわち、ユーザのゲームキャラクターに脅威を与えるキャラクターは、ユーザを自身の現在の物理的位置にとどめる、またはさらには、仮想オブジェクトが配置されているように見える物理的位置への距離が増大するようにユーザの物理的位置の変更を開始する可能性がある。
仮想オブジェクトを配置するための物理的位置を選択する際にユーザの予想物理的位置における空間依存特性を考慮に入れることは、仮想オブジェクトが、改善された、または少なくとも満足のいくようなユーザ体感をユーザに提供するような物理的位置において展開可能であるという点で有利である。この目的に向けて、ARソフトウェアアプリケーションは、仮想オブジェクトを展開することを回避してよい。これは、悪い無線条件または無線接続性に悩まされる、または、ARソフトウェアアプリケーションによってレンダリングされる音声が十分な品質で認知できない物理的位置において、仮想オブジェクトが配置されているように見える実世界の位置へのユーザの物理的位置の変更をトリガすることが知られている。
本発明の一実施形態によると、現在の仮想オブジェクトを配置するための物理的位置は、現在の仮想オブジェクトを配置するための少なくとも1つの候補物理的位置を考慮することによって選択される。これらの候補位置は、例えば、ARソフトウェアアプリケーションから取得されてよい。代替的には、ARソフトウェアアプリケーションは、例えば、ユーザからの距離、および/または他の仮想オブジェクトもしくは実世界のオブジェクトからの距離といった、地理的境界および/または他の情報に基づいて、仮想オブジェクトを配置するための物理的位置を要求してよい。より具体的には、少なくとも1つの候補物理的位置のそれぞれに対して、ユーザが想定する予想物理的位置が判断され、その予想物理的位置における空間依存特性の値が評価される。物理的シーン、および候補物理的位置に配置されているように見えるようにオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答して、ユーザが想定する予想物理的位置はユーザが移動する先であるか、またはユーザがとどまる位置である。空間依存特性が少なくとも1つの候補物理的位置に対して評価された後、現在の仮想オブジェクトを配置するための物理的位置は、少なくとも1つの候補物理的位置において評価された空間依存特性の複数の値に基づいて選択される。
本発明の一実施形態によると、物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置は、候補物理的位置の所定の範囲内にある。とりわけ、予想物理的位置は、候補物理的位置に近い、または等しいものであってよい。これは、ユーザが、現在の仮想オブジェクトが配置されているように見える物理的位置の近くに移動することが予想される場合に有利である。
本発明の一実施形態によると、物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置は、現在の仮想オブジェクトのタイプに基づいて判断されてよい。例えば、予想物理的位置は、現在の仮想オブジェクトと同じタイプの仮想オブジェクトをユーザに表示することに応答して、ARソフトウェアアプリケーションのユーザの予想される行動に関する情報に基づいて判断されてよい。例として、ARゲームにおいて、仮想オブジェクトは、ユーザが、それぞれ、仮想オブジェクトの近くに移動する、自身の物理的位置にとどまる、または仮想オブジェクトからさらに遠ざかる可能性があるという予想に従って、「友好的」、「中立」、および「非友好的」などのタイプに分類されてよい。代替的には、物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置は、現在の仮想オブジェクトと同じタイプの以前に表示された仮想オブジェクトに応答してユーザの学習済み行動に基づいて判断されてよい。例として、AR観光ガイドのユーザは、オブジェクトについての情報(例えば、歴史的情報または営業時間)によって拡張される時、ユーザがこのようなオブジェクトを以前に訪れたことを知っている場合、像または建物といった実世界のオブジェクトの近くに移動することが予想される場合がある。
本発明の一実施形態によると、空間依存特性の1つまたは複数の値は、ユーザの周辺環境における物理的位置に応じて、データベースから検索されてよい。検索された値は、測定された値、例えば、ユーザが携帯する時のコンピューティングデバイスによって測定された値、または他の同様のコンピューティングデバイス(すなわち、クラウドソースによる)によって測定された値であってよい。代替的には、検索された値は、シミュレーションされた値であってよく、例えば、ユーザの周辺環境における無線カバレッジに対するモデルに基づいて算出されてよい。
本発明の利点が場合によって、本発明の第1の態様の実施形態に関して説明されていても、対応する推論は本発明の他の態様の実施形態にも当てはまる。
本発明の、さらなる目的、特徴、および利点は、以下の詳細な開示、図面、および添付の特許請求の範囲を検討すると明らかになるであろう。当業者には認識されることであるが、本発明の種々の特徴は以下に説明されるもの以外の実施形態を生じさせるために組み合わせ可能である。
本発明の、上記のならびに追加の目的、特徴、および利点は、添付の図面を参照して、本発明の実施形態の以下の例示の非限定的な、詳細な説明を通してより良く理解されるであろう。
本発明の実施形態による、ARソフトウェアアプリケーションのために仮想オブジェクトを配置するための物理的位置を選択するための第1のシナリオを示す図である。 本発明の実施形態による、ARソフトウェアアプリケーションのために仮想オブジェクトを配置するための物理的位置を選択するための第2のシナリオを示す図である。 ARソフトウェアアプリケーションのために仮想オブジェクトを配置するための物理的位置を選択する際に本発明の実施形態の種々の役割の間の相互作用を示す図である。 本発明の一実施形態による、ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスを示す図である。 本発明の別の実施形態による、ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスを示す図である。 本発明のさらなる実施形態による、ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスを示す図である。 ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスに含まれる処理手段の一実施形態を示す図である。 ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスに含まれる処理手段の別の実施形態を示す図である。 本発明の実施形態による、ARソフトウェアアプリケーションをサポートする方法を示す図である。
図全ては、概略的であり、必ずしも一定尺度ではなく、全般的に、本発明を明らかにするために必要である部分のみを示し、他の部分は、省略される、または示唆されるだけである場合がある。
ここで、本発明については、本発明のある特定の実施形態が示されている添付の図面を参照することで本明細書においてより詳しく説明する。しかしながら、本発明は、多くの種々の形態で具現化されてよく、本明細書に示される実施形態に限定されると解釈されないものとする。もっと正確に言えば、これらの実施形態は、本開示が綿密かつ完全なものになるようにして、本発明の範囲を当業者に十分に伝達するように例として提供される。
図1において、ARソフトウェアアプリケーションのために仮想オブジェクトを配置するための物理的位置を選択することは、例としてのARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスの一実施形態120を使用して示される。ARソフトウェアアプリケーションは、例えば、ARゲームアプリ、またはAR観光ガイドなどの任意の他のタイプのARアプリであってよい。ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスは、例えば、ARソフトウェアアプリケーションをホストするアプリケーションサーバ、ARソフトウェアアプリケーションによる要求に応じて仮想オブジェクトを配置するための物理的位置を選択するためのアプリケーションサーバ、HMDもしくはVRヘッドセット、携帯電話、スマートフォン、移動体端末、パーソナルコンピュータ、ラップトップ、タブレット、またはゲーム機によって具現化されてよい。
以下では、本発明の実施形態について、図1を参照して説明する。図1では、ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスの一実施形態120が、図4においてさらに詳細に示される、HMDまたはVRヘッドセットとして示されている。コンピューティングデバイス120は、視野122を有するカメラ121、少なくとも1つのディスプレイ124、処理手段125、および通信モジュール126を含む。
このコンテキストにおいて、仮想オブジェクトを配置すること、または仮想オブジェクトを展開することは、仮想オブジェクトのグラフィック表示、例えば、ARゲームにおけるキャラクター、またはAR観光ガイドによって提供される実世界のオブジェクトについての情報が、物理的な実世界のシーンをキャプチャするビデオシーケンス上にオーバーレイされることで、仮想オブジェクトが物理的シーンにおける対応する物理的位置に配置されているように見えると理解されるものとする。これは図1に示され、ここでは、物理的位置131に配置されるオーバーレイされた仮想オブジェクト104を有する屋内の物理的シーン100が示されている。さらに、ARソフトウェアアプリケーションによってレンダリングされ、かつコンピューティングデバイス120に組み込まれるディスプレイ121を使用して、ARソフトウェアアプリケーションのユーザ110に提示されるシーン123も示されている。
本開示全体を通して、ユーザ110が、物理的シーン100を含む自身の周辺環境全体にわたって移動する場合があることが想定される。物理的シーン100上にオーバーレイされ、かつユーザ110に提示される仮想オブジェクト104のタイプに応じて、ユーザ110は、仮想オブジェクト104が配置される物理的位置131の近くに移動してよい、自身の現在の位置にとどまってよい、または仮想オブジェクト104からさらに遠ざかってよい。例えば、仮想オブジェクト104がARゲームにおいて「友好的」なキャラクターを表す場合、ユーザ110は、例えば、宝物といった価値のあるアイテムを収集するために、仮想オブジェクト104と対話するために、仮想オブジェクト104が配置される物理的位置131の近くに移動することが予想される場合がある。対照的に、仮想オブジェクト104が「非友好的な」キャラクターを表す場合、ユーザ110は、仮想オブジェクト104が配置される物理的位置131からさらに遠ざかる、または自身の現在の位置を維持する可能性がある。
この目的に向けて、処理手段125は、図1に示される物理的位置131に配置される仮想オブジェクト104といった現在の仮想オブジェクトを配置するための物理的位置を選択するように動作可能である。選択された物理的位置131は、物理的シーン100をキャプチャするビデオシーケンス上にオーバーレイされる時に現在の仮想オブジェクト104が配置されているように見える物理的位置である。処理手段125は、物理的シーン100およびオーバーレイされた現在の仮想オブジェクト104をユーザ110に表示することに応答してユーザ110が想定する予想物理的位置、および、ユーザ110の周辺環境に空間依存する特性に基づいて、物理的位置131を選択するように動作可能である。空間依存特性は、ARソフトウェアアプリケーションのユーザ体感に影響を与える。本明細書において、ユーザ110が想定する予想物理的位置は、オーバーレイされた現在の仮想オブジェクト104がユーザ110に表示された後の、ユーザ110の、推定される、可能性がある将来的な位置である。ユーザ110のこの予想物理的位置は、現在の仮想オブジェクト104を配置するための物理的位置を選択する際に考慮に入れることで、ARソフトウェアアプリケーションのユーザに、改善された、または少なくとも満足のいくユーザ体感を提供するようにする。
空間依存特性は、ARソフトウェアアプリケーションが頼る物理的性質であり、これは、ARソフトウェアアプリケーションのユーザ体感に影響を与える。例えば、空間依存特性は、ARソフトウェアアプリケーションによって利用される無線接続の性能に関係している場合がある。図1を参照すると、無線接続は、例えば、無線ローカルエリアネットワーク(WLAN)/Wi−Fiネットワークのアクセスポイント103(AP)と、コンピューティングデバイス120に含まれる通信モジュール126との間で確立可能である。空間依存特性は、無線接続の、信号強度、データ速度、帯域幅、誤り率、再送率、およびレイテンシのいずれか1つであってよい。とりわけ、ARソフトウェアアプリケーションのユーザ体感は典型的には、高い信号強度、高いデータ速度、高い帯域幅、低い誤り率、低い再送率、および低いレイテンシから利益を得る。代替策として、空間依存特性は、ARソフトウェアアプリケーションによって、例えば、(図1に示されない)物理的シーン100の近くに設けられるスピーカによってレンダリングされる音声のユーザ110による認知に関係していてよい。この場合、ユーザ110による認知は、ステレオオーディオまたは3Dオーディオが十分な品質または音量である特定の位置において送出可能かどうかに関係している場合がある。
さらに、図1を参照すると、現在の仮想オブジェクト104を配置するための代替的な物理的位置132が示されている。本発明の実施形態が、現在の仮想オブジェクトを配置するための2つの候補物理的位置を考慮することに限定されないことは理解されるであろう。もっと正確に言えば、ここに提示される例は、簡略化のために簡潔にされている。物理的位置131と同様に、代替的な物理的位置132は、食器棚101に近く、物理的位置131および132は、例えば、ここではARゲームのキャラクターとして示され、このキャラクターが、部屋の隅、または食器棚101といった家具の近くに隠れることができるような、現在の仮想オブジェクト104を配置するための物理的位置を見つけるためのARゲームの要件に基づいて、選択されていてよい。しかしながら、物理的位置131と対照的に、代替的な物理的位置132は、AP103によってもたらされた無線ネットワークにおける干渉を引き起こす場合がある電子レンジ102により近い。それゆえに、通信モジュール126を介して、ARソフトウェアアプリケーションによって利用される無線接続の性能は、物理的位置131と比較して代替的な物理的位置132においては劣っていることが予想される。低位性能は、無線接続の、信号強度、データ速度、帯域幅、誤り率、再送率、またはレイテンシなどの空間依存特性によって反映され、かつこの空間依存特性から推測可能である。この目的に向けて、現在の仮想オブジェクト104を配置するための物理的位置131は、物理的位置131における無線接続の上位性能に基づいて2つの候補物理的位置131および132から選択される。
図2において、本発明の実施形態は異なるシナリオで示されている。ここで、ユーザ110によって着用される、HMDまたはVRヘッドセットとして再び示される、コンピューティングデバイス120に含まれるカメラ121によってキャプチャされる、屋外の物理的シーン200が示されている。図1と同様に、処理手段125は、物理的シーン200およびオーバーレイされた現在の仮想オブジェクト104を含むレンダリングされた拡張シーン223をユーザ110に表示することに応答して、ユーザ110が想定する予想物理的位置、および空間依存特性に基づいて、現在の仮想オブジェクト204を配置するための物理的位置231を選択するように動作可能である。物理的位置231は、現在の仮想オブジェクト104が、物理的シーン200をキャプチャするビデオシーケンス上にオーバーレイされる時に配置されているように見える物理的位置である。図1と同様に、空間依存特性は、この例では、ARソフトウェアアプリケーションによって利用される無線接続の性能に関連しており、これは、ARソフトウェアアプリケーションのユーザ体感に影響を与える。図1と対照的に、無線接続は、図2において、セルラー通信ネットワークの無線基地局203(RBS)と、コンピューティングデバイス120に含まれる通信モジュール126との間で確立される。セルラー通信ネットワークは、例えば、汎欧州デジタル移動電話方式(GSM)ネットワーク、Universal Mobile Telecommunications System(UMTS)ネットワーク、Long Term Evolution(LTE)ネットワーク、または5Gネットワークのいずれか1つであってよい。
図2に示されるシナリオでは、代替的な物理的位置232ではなく、物理的位置231が、物理的位置231における無線接続の上位性能に基づいて、仮想オブジェクト104を配置するために選択される。これは、代替的な物理的位置232がRBS203と通信モジュール126との間の無線接続に悪影響を与える建物202の陰にあるという事実による。本発明の実施形態が、現在の仮想オブジェクト204を配置するための2つの候補物理的位置231および232を考慮することに限定されないことは理解されるであろう。
以下では、現在の仮想オブジェクト104/204を配置するための物理的位置を選択することについて、本発明の実施形態に従って、より詳細に説明する。この目的に向けて、処理手段125は、候補物理的位置のセットから現在の仮想オブジェクト104/204を配置するための物理的位置を選択するように動作可能であってよく、このセットは、図1に示される物理的位置131および132、または図2に示される物理的位置231および232といった、少なくとも1つの候補物理的位置を含む。候補物理的位置は、例えば、ARソフトウェアアプリケーションによって提供されてよい。例えば、候補物理的位置のリストは、現在の仮想オブジェクト104/204を配置するための物理的位置を選択するための要求と共に、ARソフトウェアアプリケーションによって提供されてよい。代替的には、ARソフトウェアアプリケーションは、地理的境界、またはARソフトウェアアプリケーションによって提供される他の情報に基づいて、コンピューティングデバイス120から現在の仮想オブジェクト104/204を配置するための物理的位置を要求してよい。例として、ARソフトウェアアプリケーションは、ユーザ110、実世界のオブジェクト、および/または他の仮想オブジェクトからの距離、または現在の仮想オブジェクト104を配置するための物理的位置が選択可能である範囲内の地理的領域を提供することができる。
候補物理的位置のそれぞれについて、現在の仮想オブジェクト104/204が現在の候補物理的位置に配置されているように見えるように、物理的シーン100/200および現在の仮想オブジェクト104/204をユーザ110に表示することに応答して、ユーザ110が想定する予想物理的位置が判断される。その後、空間依存特性の値は、ユーザ110の判断された予想物理的位置において評価される。したがって、有利には、ARソフトウェアアプリケーションのユーザ体感は、現在の仮想オブジェクト104/204を配置するための物理的位置が選択される時に考慮される。これは、例えば、以下にさらに説明されるように、データベースからユーザ110の周辺環境における物理的位置に応じて空間依存特性の1つまたは複数の値を検索することによって、実現可能である。値は、例えば、1つの候補物理的位置に対して一度に検索されてよい。代替的には、ユーザ110の周辺環境を含める、空間依存特性を表す値のリストもしくは配列、またはマップは、データベースから検索されてよい。検索された値は、デバイス120の物理的位置、以前に配置された仮想オブジェクト、またはユーザ110によって着用されるカメラ121の視野122などに基づいて選択されてよい。最後に、現在の仮想オブジェクト104/204を配置するための物理的位置は、少なくとも1つの候補物理的位置において評価された空間依存特性の値に基づいて、候補物理的位置のセットから選択される。
例えば、対応する予想物理的位置において評価された空間依存特性が所定の基準を満たす候補物理的位置のうちの1つは、現在の仮想オブジェクト104/204を配置するための物理的位置として選択されてよい。例として、選択された物理的位置は、候補物理的位置において評価された空間依存特性が所定の基準を満たす第1の候補物理的位置であってよい。好ましくは、所定の基準は、空間依存特性によって影響されるARソフトウェアアプリケーションのユーザ体感に関する、またはこれを反映する。所定の基準は、例えば、それぞれ、ある特定のデータ速度または帯域幅を超える、またはある特定のレイテンシまたは誤り率を超えないといった閾値基準であってよい。
代替策として、現在の仮想オブジェクト104/204を配置するための物理的位置によって、評価された空間依存特性が最大値(例えば、データ速度または帯域幅)または最小値(例えば、誤り率またはレイテンシ)と想定される候補物理的位置として選択されてよい。
さらなる代替策として、現在の仮想オブジェクト104/204を配置するための物理的位置は、複数の候補物理的位置において評価された空間依存特性の複数の値を補間すること、および空間依存特性の補間された値によって、極値、例えば、データ速度または帯域幅の最大値、またはレイテンシまたは誤り率の最小値それぞれであると想定される物理的位置を選択することによって、選択されてよい。
空間依存特性が評価される候補物理的位置は、オプションとして、適応可能なやり方で判断されてよい。例えば、次の候補物理的位置は、以前の候補物理的位置に対して評価された空間依存特性の値において特定される傾向に基づいて選択されてよい。例として、次の候補物理的位置は、特定された傾向に基づいて、空間依存特性が無線接続のデータ速度または帯域幅に関する場合に増加する、または、空間依存特性が無線接続の誤り率またはレイテンシに関する場合に減少するようにそれぞれ予想される、ユーザ110の周辺環境における方向に基づいて選択されてよい。また、評価される候補物理的位置の数が、ユーザ110の周辺環境における物理的位置に応じて空間依存特性の変化率に左右されるものであってよいことは、理解されるであろう。すなわち、空間依存特性がユーザ110の周辺環境において比較的一定である場合、空間依存特性が物理的位置をすぐに変化させるシナリオと比較して、より少数の候補物理的位置を評価することで十分である。
処理手段125は、現在の候補物理的位置、すなわち、評価中の候補物理的位置の所定の範囲内にある予想物理的位置を選択することによって、物理的シーン100/200およびオーバーレイされた現在の仮想オブジェクト104/204をユーザ110に表示することに応答して、ユーザ110が想定する予想物理的位置を判断するように動作可能であってよい。とりわけ、空間依存特性を評価する目的で、ユーザ110の予想物理的位置は、候補物理的位置に近いまたは等しいものになるように選択されてよい。とりわけ、このことは、現在の仮想オブジェクト104/204が、物理的シーン100/200上にオーバーレイされる時の、現在の仮想オブジェクト104/204へとユーザ100の物理的位置の変更をトリガする可能性があるタイプのものである場合に当てはまる。
オプションとして、物理的シーン100/200およびオーバーレイされた現在の仮想オブジェクト104/204をユーザ110に表示することに応答して、ユーザ110が想定する予想物理的位置は、現在の仮想オブジェクト104/204のタイプに基づいて判断される。例えば、ARゲームにおいて、ARゲームのキャラクターに対して可能な仮想オブジェクトのタイプは、「友好的」、「非友好的」、「友達」、または「敵」などであってよい。好ましくは、仮想オブジェクトは、仮想オブジェクトから遠ざかる、仮想オブジェクトの近くに移動する、または自身の現在の物理的位置を維持するといったユーザの行動を反映する種々のタイプに分類される。例えば、物理的シーン100/200およびオーバーレイされた現在の仮想オブジェクト104/204をユーザ110に表示することに応答して、ユーザ110が想定する予想物理的位置は、現在の仮想オブジェクト104と同じタイプの仮想オブジェクトをユーザに表示することに応答して、ARソフトウェアアプリケーションのユーザのグループの予想される行動に関する情報に基づいて、判断されてよい。この情報は、例えば、ARソフトウェアアプリケーションによって提供されてよい。代替的には、物理的シーン100/200およびオーバーレイされた現在の仮想オブジェクト104/204をユーザ110に表示することに応答して、ユーザ110が想定する予想物理的位置は、現在の仮想オブジェクト104と同じタイプの以前に表示された仮想オブジェクトに応答して、ユーザ110の学習済み行動に基づいて判断される。すなわち、コンピューティングデバイス120の一実施形態は、ユーザ110が、ある特定のタイプのオーバーレイされた仮想オブジェクトにどのように反応するか、すなわち、ユーザ110は、仮想オブジェクトに対する自身の距離を、増加させる、減少させる、または維持するかどうかを学習することができる。
先に説明されるように、候補物理的位置のうちの1つに配置される現在の仮想オブジェクト104/204を表示することに応答して、ユーザ110が想定する予想物理的位置における空間依存特性の値を評価する際に、空間依存特性の1つまたは複数の値は、位置ごとに、または値のリストまたは配列を検索することによって、またはある特定の地理的領域内の空間依存特性を表すマップで、データベースから検索されてよい。とりわけ、これは、ユーザ110の周辺環境内の領域であってよい。これらの値は、コンピューティングデバイス120によって測定される値、または他の同様の、すなわち、クラウドソースによるコンピューティングデバイスによって測定される値のどちらかであってもよい。代替的には、これらの値は、ユーザ110の周辺環境における無線カバレッジに対するモデルを使用して得られる、シミュレーションされた値であってよい。
オプションとして、処理手段125は、データベースにおいて物理的位置に応じて空間依存特性の測定された値を記憶するようにさらに動作可能であってよい。この目的に向けて、これらの値は、ユーザ110によって着用される時にコンピューティングデバイス120によって測定される。測定は、一定の間隔を置いて、または測定された値が所定の程度まで変更された時、連続的に行われてよい。測定された値は、それらが測定された物理的位置、例えば、測定中のコンピューティングデバイス120の物理的位置と共に記憶される。値は、自らの使用のためにまたはクラウドソーシング目的のために、すなわち、ARソフトウェアアプリケーションの他のユーザによる使用のために記憶されてよい。
以下では、図3を参照して、種々の役割、およびこれらの相互作用に関する、本発明の実施形態について説明する。
ユーザデバイス301の役割は典型的には、ユーザ110によって着用されるHMD120もしくはVRヘッドセット120、タブレット、携帯電話、移動体端末、スマートフォン、またはゲーム機といった、ARソフトウェアアプリケーションのユーザによって動作させるデバイスによって具現化される。ユーザデバイス301は典型的には、ユーザ110の周辺環境における物理的シーン100/200をキャプチャする311ためのカメラ121、および、レンダリングされたビュー123/223、すなわち、物理的シーン100/200およびオーバーレイされた現在の仮想オブジェクト104/204をキャプチャするビデオシーケンスをユーザ110に表示するためのディスプレイ124を含む。
ARアプリ302の役割は、典型的には、ARソフトウェアアプリケーションをホストする、すなわち実行するコンピューティングデバイスまたはネットワークノードによって具現化される。とりわけ、これは、物理的シーン100/200に関するデータに基づいて、ARゲームにおけるキャラクター104/204またはAR観光ガイドによって提供される情報といった、仮想オブジェクトの展開を評価しかつ決定することを包含し得る。物理的シーン100/200に関するデータは、ビデオデータ、例えば、物理的シーン100/200をキャプチャするビデオシーケンス、または物理的シーン100/200における実世界の物理的対象の対応する物理的位置およびタイプを表すデータのどちらかとして、ユーザデバイス301から受信される312。実世界のオブジェクトを表すデータは、オブジェクト認識技法を利用することによって、物理的シーン100/200をキャプチャするビデオシーケンスを処理する画像/ビデオに基づいて、ユーザデバイス301によって判断されてよい。
ARアプリ302が仮想オブジェクト104/204を展開する決定を行う313時、仮想オブジェクト104/204を配置するための物理的位置についての要求314は、位置選択部303に送られる。位置選択部303の役割は、本発明の実施形態、とりわけ、ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスによって実装され、かつ、物理的シーン100/200およびオーバーレイされた現在の仮想オブジェクト104/204をユーザ110に表示すること123/223に応答して、ユーザ110が想定する予想物理的位置、およびARアプリ302によってホストされるARソフトウェアアプリケーションのユーザ体感に影響を与える空間依存特性に基づいて、仮想オブジェクト104/204を配置するための物理的位置131/231を選択することによって、ARソフトウェアアプリケーションをホストするARアプリ302をサポートする。
仮想オブジェクト104/204を配置するための物理的位置を選択する際に、位置選択部303は、ユーザ110の予想物理的位置における空間依存特性の値についての要求315を特性データベース304に送り、この特性データベース304は、要求された値を位置選択部303に送ること316によって応答する。特性データベース304の役割は、典型的には、位置に応じて空間依存特性の値を維持するコンピューティングデバイスまたはネットワークノードによって実装される。空間依存特性の値を記憶するデータベースは、例えば、コンピューティングデバイス120に含まれるメモリまたはデータ記憶域において、コンピューティングデバイス120によって、または別個のデバイスによってどちらかで維持されてよい。例えば、データベースは、ARソフトウェアアプリケーションをホストするアプリケーションサーバ、またはARソフトウェアアプリケーションに関連付けられた別のネットワークノードによって維持されてよい。さらなる例として、データベースは、RANノードまたはオペレーションサポートシステム(OSS)ノードによって維持されてよい。例えば、RANノードは、データ速度、誤り率、および信号強度といった、RANの性能についての空間分解情報を維持してよい。この情報は、RANを使用して移動体端末から収集されてよい、またはシミュレーションされてよい。
空間依存特性について受信された316値に基づいて、位置選択部303は、本明細書に説明されるように、仮想オブジェクト104/204を配置するために物理的位置131/231を選択する。選択された物理的位置はARアプリ302に送られ318、このARアプリ302は、選択された物理的位置に仮想オブジェクト104/204を配置することによって仮想オブジェクト104/204を展開する319。展開された仮想オブジェクトを表すデータは、ユーザデバイス301に提供され320、このユーザデバイス301はその後、選択された物理的位置における仮想オブジェクト104/204を物理的シーン100/200上にオーバーレイすること321によって、ユーザ110に表示されるビュー123/223をレンダリングする。代替的には、ユーザ110に表示されるビュー123/223は、ユーザデバイス301ではなくARアプリ302によってレンダリングされてよい。この場合、展開された仮想オブジェクトを表すデータ320は、レンダリングされた拡張シーンの画像/ビデオデータであり、これはその後、ユーザデバイス301によって表示される。
本発明の実施形態が、別個にまたは組み合わせてのどちらかで先に説明した種々の役割を実装することができることは理解されるであろう。例えば、HMD120は、ユーザデバイス301の役割を実装することに加えて、ARアプリ302、位置選択部303、および特性データベース304の役割のいずれか1つまたはいくつかをさらに実装することができる。代替的には、HMD120がユーザデバイス301の役割のみを実装する場合、HMD120は、通信ネットワーク、とりわけ、無線接続を介して、ARアプリ302の役割を実装する、およびオプションとして、位置選択部303および特性データベース304の役割を実装するアプリケーションサーバと対話してよい。ARアプリ302の役割を実装するだけのアプリケーションサーバは、さらにまた、位置選択部303の役割を実装する、およびオプションとして特性データベース304の役割を実装する位置サーバと対話してよい。位置選択部303の役割を実装するだけの位置サーバは、さらにまた、特性データベース304の役割を実装するネットワークノードと対話してよい。
本発明の実施形態は、図1、図2、および図4においてHMDまたはVRヘッドセットとして示されるコンピューティングデバイス120を参照して主に説明されているが、ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスは代替的には、他のタイプのデバイスによって具現化されてよい。例えば、コンピューティングデバイスは、図5に示されるように、タブレット、携帯電話、移動体端末、ゲーム機、またはスマートフォン500によって具現化されてよい。HMD120と同様に、スマートフォン500は、カメラ121、ディスプレイ124、処理手段125、および通信モジュール126を含む。スマートフォン500は、ユーザ110によって保持されてよい、またはGoogle CardboardまたはSamsung Gear VRと同様のアダプタ510を使用してユーザ110の前額部に合わせられてよい。
さらなる代替策として、図6を参照して、コンピューティングデバイスは、ARアプリ302の役割、または位置選択部303の役割を実装する、本発明の実施形態による、ARソフトウェアアプリケーションをホストするアプリケーションサーバ600として、またはARソフトウェアアプリケーションをサポートする位置サーバ600としてそれぞれ、具現化されてよい。また、アプリケーション/位置サーバ600の実施形態は、ユーザデバイス301の役割および/または特性データベース304の役割をさらに実装してよい。HMD120およびスマートフォン500と同様に、アプリケーション/位置サーバ600は、処理手段125および通信モジュール126を含む。図6に示されるように、アプリケーション/位置サーバ600は、ユーザ110の周辺環境における物理的シーンをキャプチャするためのカメラ、またはキャプチャされたシーンおよびオーバーレイされた仮想オブジェクトをユーザ110に提示するためのディスプレイを含まない。もっと正確に言えば、これは、外付けカメラおよび外付けディスプレイそれぞれによって達成されてよい。例えば、ARソフトウェアアプリケーションをホストするアプリケーションサーバ600は、ユーザデバイス301の役割を実装し、かつ、ユーザ110の周辺環境における物理的シーンをキャプチャするためのカメラのみならず、キャプチャされたシーンおよびオーバーレイされた仮想オブジェクトをユーザ110に提示するためのディスプレイを含む、ユーザ110によって着用されるデバイスと、好ましくは無線接続を介して通信してよい。ユーザ着用のデバイスは、例えば、図4に示されるものと同様のHMDまたはVRであってよい。さらなる例として、位置サーバ600は、ユーザデバイス301の役割を実装し、かつ、ユーザ110の周辺環境における物理的シーンをキャプチャするためのカメラのみならず、キャプチャされたシーンおよびオーバーレイされた仮想オブジェクトをユーザ110に提示するためのディスプレイを含むことに加えて、ARソフトウェアアプリケーションをホストすることによってARアプリ302の役割も実装する、ユーザ着用のデバイスと、好ましくは無線接続を介して通信してよい。
この目的に向けて、現在の仮想オブジェクトを配置するための物理的位置を選択すること、すなわち、位置選択部303の役割を実装することに加えて、ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスの一実施形態は、ARソフトウェアアプリケーションをホストする、すなわち実行するように、すなわち、ARアプリ302の役割を実装するようにさらに動作可能であってよい。代替的には、ARソフトウェアアプリケーションは、位置選択部303の役割を実装するARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスと通信している、ARアプリ302の役割を実装するアプリケーションサーバ600といった、別個のデバイスによって実行されてよい。
ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスの一実施形態は、仮想オブジェクトを、ARソフトウェアアプリケーションのユーザの周辺環境における物理的シーンをキャプチャするビデオシーケンス上にオーバーレイすることで、オーバーレイされた仮想オブジェクトが選択された物理的位置に配置されているように見えるようにすることによって、ユーザデバイス301の役割をさらに実装することができる。好ましくは、ビデオシーケンスは、ユーザによって着用されるカメラによってキャプチャされることで、カメラの視野がユーザの物理的位置および向きと相関する、すなわち、ユーザと共に移動するようにする。カメラはオプションとして、コンピューティングデバイス、例えば、スマートフォン、HMD、またはVRヘッドセットに含まれてよい。代替的には、外付けカメラは、有線または無線接続を使用してコンピューティングデバイスに、とりわけ、GoPro型カメラなど、ユーザによって着用されるカメラに接続されてよい。
さらに、ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスの一実施形態は、好ましくは、ユーザによって着用されるディスプレイを使用して、物理的シーンをキャプチャするビデオシーケンス、およびオーバーレイされた仮想オブジェクトをユーザに表示するようにさらに動作可能であってよい。ディスプレイは、例えば、スマートフォン、HMD、またはVRヘッドセットにおいて、例えば、コンピューティングデバイスに組み込まれてよい。代替的には、ディスプレイは、ユーザの視野にわたって、物質的世界および仮想オブジェクト両方の画像を配置するようにユーザの前額部に合わせられてよい。
以下では、コンピューティングデバイス120、500、および600といった、ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスに含まれる処理手段125の実施形態について、図7および図8を参照して説明する。
図7において、処理手段125の第1の実施形態700が示されている。処理手段700は、汎用プロセッサなどの処理ユニット702、ランダムアクセスメモリ(RAM)またはフラッシュメモリなどのコンピュータ可読記憶媒体703を含む。さらに、処理手段700は、カメラ121、ディスプレイ124、および通信モジュール126など、コンピューティングデバイス120/500/600に含まれる他の構成要素からの情報を制御するおよび/または受信するための1つまたは複数のインターフェース701(図7における「I/O」)を含む。メモリ703は、実行可能命令704であって、コンピュータ実行可能命令704が処理ユニット702上で実行される時、コンピューティングデバイス120/500/600に、本明細書に説明されるように本発明の実施形態に従って行わせる、実行可能命令704、すなわち、コンピュータプログラムを含有する。とりわけ、コンピューティングデバイス120/500/600は、物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答して、ARソフトウェアアプリケーションのユーザが想定する予想物理的位置、およびユーザの周辺環境に空間依存しており、ARソフトウェアアプリケーションのユーザ体感に影響を与える特性に基づいて、現在の仮想オブジェクトを配置するための物理的位置を選択するように動作可能であってよい。例えば、現在の仮想オブジェクトを配置するための物理的位置は、現在の仮想オブジェクトを配置するための少なくとも1つの候補物理的位置に対して、物理的シーンおよび現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置を判断すること、および予想物理的位置における空間依存特性の値を評価することによって、選択されてよい。現在の仮想オブジェクトを配置するための物理的位置は、さらにまた、少なくとも1つの候補物理的位置において評価された空間依存特性の複数の値に基づいて、選択される。物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置は、例えば、候補物理的位置の所定の範囲内のものであってよい、またはこれに等しいものであってよい。
オプションとして、物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置は、現在の仮想オブジェクトのタイプに基づいて判断されてよい。例えば、予想物理的位置は、現在の仮想オブジェクトと同じタイプの仮想オブジェクトをユーザに表示することに応答して、ARソフトウェアアプリケーションのユーザの予想される行動に関する情報に基づいて判断されてよい。代替的には、予想物理的位置は、現在の仮想オブジェクトと同じタイプの以前に表示された仮想オブジェクトに応答してユーザの学習済み行動に基づいて判断されてよい。
空間依存特性は、ARソフトウェアアプリケーションによって利用される無線接続の性能に関連している場合がある。例えば、空間依存特性は、無線接続の、信号強度、データ速度、帯域幅、誤り率、再送率、およびレイテンシのいずれか1つであってよい。代替的には、空間依存特性は、ARソフトウェアアプリケーションによってレンダリングされる音声のユーザによる認知に関連している場合がある。
図8において、処理手段125の代替的な実施形態800が示されている。処理手段700と同様に、処理手段800は、カメラ121、ディスプレイ124、および通信モジュール126など、コンピューティングデバイス120/500/600に含まれる他の構成要素からの情報を制御するおよび/または受信するための1つまたは複数のインターフェース801(図8における「I/O」)を含む。処理手段800は、コンピューティングデバイス120/500/600に、本明細書に説明されるように本発明の実施形態に従って行わせるように設定される位置選択モジュール803をさらに含む。とりわけ、位置選択モジュール803は、物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してARソフトウェアアプリケーションのユーザが想定する予想物理的位置、およびユーザの周辺環境に空間依存しており、ARソフトウェアアプリケーションのユーザ体感に影響を与える特性に基づいて、現在の仮想オブジェクトを配置するための物理的位置を選択するように設定される。例えば、現在の仮想オブジェクトを配置するための物理的位置は、現在の仮想オブジェクトを配置するための少なくとも1つの候補物理的位置に対して、物理的シーンおよび現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置を判断すること、および予想物理的位置における空間依存特性の値を評価することによって、選択されてよい。現在の仮想オブジェクトを配置するための物理的位置は、さらにまた、少なくとも1つの候補物理的位置において評価された空間依存特性の複数の値に基づいて、選択される。物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置は、例えば、候補物理的位置の所定の範囲内のものであってよい、またはこれに等しいものであってよい。
処理手段800は、オプションとして、ARソフトウェアアプリケーションをホストする、すなわち、実行するように設定されるARモジュール802を含んでよい。
オプションとして、物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置は、現在の仮想オブジェクトのタイプに基づいて判断されてよい。例えば、予想物理的位置は、現在の仮想オブジェクトと同じタイプの仮想オブジェクトをユーザに表示することに応答して、ARソフトウェアアプリケーションのユーザの予想される行動に関する情報に基づいて判断されてよい。この情報は、例えば、ARモジュール802によって提供されてよい、またはARソフトウェアアプリケーションをホストするアプリケーションサーバから検索されてよい。代替的には、予想物理的位置は、現在の仮想オブジェクトと同じタイプの以前に表示された仮想オブジェクトに応答してユーザの学習済み行動に基づいて、処理手段800に含まれるオプションの学習モジュール805によって判断されてよい。
空間依存特性は、ARソフトウェアアプリケーションによって利用される無線接続の性能に関連している場合がある。例えば、空間依存特性は、無線接続の、信号強度、データ速度、帯域幅、誤り率、再送率、およびレイテンシのいずれか1つであってよい。代替的には、空間依存特性は、ARソフトウェアアプリケーションによってレンダリングされる音声のユーザによる認知に関連している場合がある。処理手段800はオプションとして、ユーザの周辺環境における物理的位置に応じて空間依存特性の1つまたは複数の値が検索されてよいデータベースを維持するように設定されるデータベースモジュール804を含んでよい。さらにオプションとして、コンピューティングデバイス120/500/600によって測定される空間依存特性の値は、物理的位置に応じてデータベースにおいてデータベースモジュール804によって記憶可能である。
インターフェース701および801、モジュール802〜805、ならびに処理手段800に含まれる任意の追加のモジュールは、任意の種類の電子回路構成、例えば、アナログ電子回路構成、デジタル電子回路構成、および適したコンピュータプログラムを実行する処理手段のいずれか1つまたは組み合わせによって、実装されてよい。
コンピューティングデバイス120/500/600に含まれる通信モジュール126は、例えば、Bluetoothモジュール、WLAN/Wi−Fiモジュール、または、GMS、UMTS、LTE、および5G標準のいずれか1つまたは組み合わせをサポートするセルラー通信モジュールであってよい。代替的には、通信モジュール126は、赤外(IR)光、符号化可視光(VCL)、およびZigBeeなどによって通信をもたらすように設定されてよい。
以下では、ARソフトウェアアプリケーションをサポートする方法の実施形態900について、図9を参照して説明する。方法900は、ARソフトウェアアプリケーションをホストするゲームサーバ、ARソフトウェアアプリケーションをサポートするための位置サーバ、VRヘッドセットまたはHMD、携帯電話、スマートフォン、移動体端末、パーソナルコンピュータ、ラップトップ、タブレット、およびゲーム機といった、コンピューティングデバイスによって実施されてよい。方法900は、物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置、およびユーザの周辺環境において空間依存しており、ARソフトウェアアプリケーションのユーザ体感に影響を与える特性に基づいて、現在の仮想オブジェクトを配置するための物理的位置を選択すること906を含む。選択された物理的位置は、ARソフトウェアアプリケーションのユーザの周辺環境における物理的シーンをキャプチャするビデオシーケンス上にオーバーレイされる時に現在の仮想オブジェクトが配置されているように見える物理的位置である。
現在の仮想オブジェクトを配置するための物理的位置は、(より多くの候補物理的位置が評価される必要があることを判断すること905に応答して新しい候補物理的位置を選択するまたは生じさせること902によって)現在の仮想オブジェクトを配置するための少なくとも1つの候補物理的位置に対して、物理的シーン、および、候補物理的位置に配置されているように見えるようにオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置を判断すること903、および予想物理的位置における空間依存特性の値を評価すること904によって、選択されて906よい。現在の仮想オブジェクトを配置するための物理的位置は、さらにまた、少なくとも1つの候補物理的位置において評価された904空間依存特性の複数の値に基づいて、選択される906。候補物理的位置のセットは、例えば、ARソフトウェアアプリケーションから受信されてよい。代替的には、新しい候補物理的位置は、先に説明されるように、ARソフトウェアアプリケーションによって提供される情報に基づいて生じさせて902よい。
物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置は、例えば、候補物理的位置の所定の範囲内である、またはこれに等しいと判断されて903よい。オプションとして、物理的シーンおよびオーバーレイされた現在の仮想オブジェクトをユーザに表示することに応答してユーザが想定する予想物理的位置は、現在の仮想オブジェクトのタイプに基づいて判断されて903よい。例えば、予想物理的位置は、現在の仮想オブジェクトと同じタイプの仮想オブジェクトをユーザに表示することに応答して、ARソフトウェアアプリケーションのユーザの予想される行動に関する情報に基づいて、判断されて903よい。代替的には、予想物理的位置は、現在の仮想オブジェクトと同じタイプの以前に表示された仮想オブジェクトに応答してユーザの学習済み行動に基づいて判断されて903よい。
方法900は、ユーザの周辺環境における物理的位置に応じて空間依存特性の1つまたは複数の値を、データベースから検索することをさらに含んでよい。これらの値も、例えば、ユーザの判断された903予想物理的位置における空間依存特性を評価する904時に検索されてよい。代替的には、値のリストもしくは配列、またはある特定の地理的領域において空間依存特性を表すマップは、検索されて901よい。
方法900は、現在の仮想オブジェクトを、物理的シーンをキャプチャするビデオシーケンス上にオーバーレイすることで、オーバーレイされた現在の仮想オブジェクトが選択された物理的位置に配置されているように見えるようにすることをさらに含んで907よい。
方法900は、物理的シーンをキャプチャするビデオシーケンス、およびオーバーレイされた現在の仮想オブジェクトをユーザに表示すること908をさらに含んでよい。
方法900が、本開示全体を通して説明されることに従って、追加のまたは修正されたステップを含んでよいことは理解されるであろう。方法900の一実施形態は、ARソフトウェアアプリケーションをサポートするためのコンピューティングデバイスに含まれる処理ユニットによって実行される、コンピュータプログラム704といったソフトウェアとして実装されてよく、したがって、コンピューティングデバイスは、本明細書に説明される本発明の実施形態に従って行うように動作可能である。
当業者には認識されることだが、本発明は上述される実施形態には決して限定されない。むしろ、添付の特許請求の範囲内での多くの修正および変形が可能である。

Claims (35)

  1. 拡張現実(AR)ソフトウェアアプリケーションをサポートするためのコンピューティングデバイス(120;500;600)であって、
    前記ARソフトウェアアプリケーションのユーザ(110)の周辺環境において、物理的シーン(100;200)をキャプチャするビデオシーケンス上にオーバーレイされた時に現在の仮想オブジェクト(104;204)が配置されているように見える、前記現在の仮想オブジェクトを配置するための物理的位置(131;231)を、
    前記物理的シーンおよび前記オーバーレイされた現在の仮想オブジェクトを前記ユーザに表示すること(123;223)に応答して前記ユーザが想定する予想物理的位置、および
    前記ユーザの前記周辺環境において空間依存しており、前記ARソフトウェアアプリケーションのユーザ体感に影響を与える特性
    に基づいて、選択するように動作可能である処理手段(125)を含む、コンピューティングデバイス。
  2. 前記処理手段は、前記現在の仮想オブジェクトを配置するための少なくとも1つの候補物理的位置(131、132;231、232)に対して、
    前記物理的シーンと、前記候補物理的位置に配置されているように見えるようにオーバーレイされた前記現在の仮想オブジェクトとを前記ユーザに表示することに応答して、前記ユーザが想定する前記予想物理的位置を判断すること、および
    前記予想物理的位置における前記空間依存特性の値を評価すること
    によって、前記現在の仮想オブジェクトを配置するための前記物理的位置を選択するように動作可能であり、
    前記現在の仮想オブジェクトを配置するための前記物理的位置を選択することは、前記少なくとも1つの候補物理的位置において評価された前記空間依存特性の複数の値に基づく、請求項1に記載のコンピューティングデバイス。
  3. 前記物理的シーンおよび前記オーバーレイされた現在の仮想オブジェクトを前記ユーザに表示することに応答して前記ユーザが想定する前記予想物理的位置は、前記候補物理的位置の所定の範囲内にある、請求項2に記載のコンピューティングデバイス。
  4. 前記物理的シーンおよび前記オーバーレイされた現在の仮想オブジェクトを前記ユーザに表示することに応答して前記ユーザが想定する前記予想物理的位置は、前記現在の仮想オブジェクトのタイプに基づいて判断される、請求項2に記載のコンピューティングデバイス。
  5. 前記物理的シーンおよび前記オーバーレイされた現在の仮想オブジェクトを前記ユーザに表示することに応答して前記ユーザが想定する前記予想物理的位置は、前記現在の仮想オブジェクトと同じタイプの仮想オブジェクトを前記ユーザに表示することに応答して、前記ARソフトウェアアプリケーションのユーザの予想される行動に関する情報に基づいて判断される、請求項4に記載のコンピューティングデバイス。
  6. 前記物理的シーンおよび前記オーバーレイされた現在の仮想オブジェクトを前記ユーザに表示することに応答して前記ユーザが想定する前記予想物理的位置は、前記現在の仮想オブジェクトと同じタイプの以前に表示された仮想オブジェクトに応答して前記ユーザの学習済み行動に基づいて判断される、請求項4に記載のコンピューティングデバイス。
  7. 前記ユーザの前記周辺環境における物理的位置に応じて、前記空間依存特性の1つまたは複数の値をデータベース(703;804)から検索するようにさらに動作可能である、請求項1から6のいずれか一項に記載のコンピューティングデバイス。
  8. 前記処理手段は、データベース(703;804)において、物理的位置に応じて前記空間依存特性の測定された値を記憶するようにさらに動作可能である、請求項1から7のいずれか一項に記載のコンピューティングデバイス。
  9. 前記データベースは、前記コンピューティングデバイス、無線アクセスネットワーク(RAN)ノード、およびオペレーションサポートシステム(OSS)ノードのいずれか1つによって維持される、請求項7または8に記載のコンピューティングデバイス。
  10. 前記空間依存特性は、前記ARソフトウェアアプリケーションによって利用される無線接続の性能に関連している、請求項1から9のいずれか一項に記載のコンピューティングデバイス。
  11. 前記空間依存特性は、前記無線接続の、信号強度、データ速度、帯域幅、誤り率、再送率、およびレイテンシのいずれか1つである、請求項10に記載のコンピューティングデバイス。
  12. 前記空間依存特性は、前記ARソフトウェアアプリケーションによってレンダリングされる音声の前記ユーザによる認知に関連している、請求項1から9のいずれか一項に記載のコンピューティングデバイス。
  13. 前記処理手段は、前記物理的シーンをキャプチャする前記ビデオシーケンス上に前記現在の仮想オブジェクトを、前記オーバーレイされた現在の仮想オブジェクトが前記選択された物理的位置に配置されているように見えるようにオーバーレイするようにさらに動作可能である、請求項1から12のいずれか一項に記載のコンピューティングデバイス。
  14. 前記処理手段は、前記物理的シーンをキャプチャする前記ビデオシーケンス(123;223)、および前記オーバーレイされた現在の仮想オブジェクトを前記ユーザに表示するようにさらに動作可能である、請求項13に記載のコンピューティングデバイス。
  15. 前記ビデオシーケンスは、前記ユーザによって着用されるカメラ(121)によって、前記カメラの視野(122)が前記ユーザの物理的位置および向きと相関するようにキャプチャされる、請求項1から14のいずれか一項に記載のコンピューティングデバイス。
  16. 前記ディスプレイ(124)は前記ユーザによって着用される、請求項1から15のいずれか一項に記載のコンピューティングデバイス。
  17. 前記ARソフトウェアアプリケーションをホストするゲームサーバ(600)、仮想現実ヘッドセット(120)、ヘッドマウントディスプレイ(120)、携帯電話(500)、スマートフォン(500)、移動体端末(500)、パーソナルコンピュータ、ラップトップ、タブレット、およびゲーム機のいずれか1つである、請求項1から16のいずれか一項に記載のコンピューティングデバイス。
  18. コンピューティングデバイスによって実施される、拡張現実(AR)ソフトウェアアプリケーションをサポートする方法(900)であって、
    前記ARソフトウェアアプリケーションのユーザの周辺環境において、物理的シーンをキャプチャするビデオシーケンス上にオーバーレイされた時に現在の仮想オブジェクトが配置されているように見える、前記現在の仮想オブジェクトを配置するための物理的位置を、
    前記物理的シーンおよび前記オーバーレイされた現在の仮想オブジェクトを前記ユーザに表示することに応答して前記ユーザが想定する予想物理的位置、および
    前記ユーザの前記周辺環境において空間依存しており、前記ARソフトウェアアプリケーションのユーザ体感に影響を与える特性に基づいて
    選択すること(906)を含む、方法。
  19. 前記現在の仮想オブジェクトを配置するための前記物理的位置は、
    前記現在の仮想オブジェクトを配置するための少なくとも1つの(902、905)候補物理的位置に対して、
    前記物理的シーンと、前記候補物理的位置に配置されているように見えるようにオーバーレイされた前記現在の仮想オブジェクトとを前記ユーザに表示することに応答して前記ユーザが想定する前記予想物理的位置を判断すること(903)、および
    前記予想物理的位置における前記空間依存特性の値を評価すること(904)
    によって選択され(906)、前記現在の仮想オブジェクトを配置するための前記物理的位置を選択すること(906)は、前記少なくとも1つの候補物理的位置において評価された前記空間依存特性の複数の値に基づく、請求項18に記載の方法。
  20. 前記物理的シーンおよび前記オーバーレイされた現在の仮想オブジェクトを前記ユーザに表示することに応答して前記ユーザが想定する前記予想物理的位置は、前記候補物理的位置の所定の範囲内にある、請求項19に記載の方法。
  21. 前記物理的シーンおよび前記オーバーレイされた現在の仮想オブジェクトを前記ユーザに表示することに応答して前記ユーザが想定する前記予想物理的位置は、前記現在の仮想オブジェクトのタイプに基づいて判断される(903)、請求項19に記載の方法。
  22. 前記物理的シーンおよび前記オーバーレイされた現在の仮想オブジェクトを前記ユーザに表示することに応答して前記ユーザが想定する前記予想物理的位置は、前記現在の仮想オブジェクトと同じタイプの仮想オブジェクトを前記ユーザに表示することに応答して、前記ARソフトウェアアプリケーションのユーザの予想される行動に関する情報に基づいて判断される(903)、請求項21に記載の方法。
  23. 前記物理的シーンおよび前記オーバーレイされた現在の仮想オブジェクトを前記ユーザに表示することに応答して前記ユーザが想定する前記予想物理的位置は、前記現在の仮想オブジェクトと同じタイプの以前に表示された仮想オブジェクトに応答して前記ユーザの学習済み行動に基づいて判断される(903)、請求項21に記載の方法。
  24. 前記ユーザの前記周辺環境における物理的位置に応じて、前記空間依存特性の1つまたは複数の値をデータベースから検索すること(901、904)をさらに含む、請求項18から23のいずれか一項に記載の方法。
  25. データベースにおいて、物理的位置に応じて前記空間依存特性の測定された値を記憶することをさらに含む、請求項18から24のいずれか一項に記載の方法。
  26. 前記データベースは、前記コンピューティングデバイス、無線アクセスネットワーク(RAN)ノード、およびオペレーションサポートシステム(OSS)ノードのいずれか1つによって維持される、請求項24または25に記載の方法。
  27. 前記空間依存特性は、前記ARソフトウェアアプリケーションによって利用される無線接続の性能に関連している、請求項18から26のいずれか一項に記載の方法。
  28. 前記空間依存特性は、前記無線接続の、信号強度、データ速度、帯域幅、誤り率、再送率、およびレイテンシのいずれか1つである、請求項27に記載の方法。
  29. 前記空間依存特性は、前記ARソフトウェアアプリケーションによってレンダリングされる音声の前記ユーザによる認知に関連している、請求項18から26のいずれか一項に記載の方法。
  30. 前記物理的シーンをキャプチャする前記ビデオシーケンス上に前記現在の仮想オブジェクトを、前記オーバーレイされた現在の仮想オブジェクトが前記選択された物理的位置に配置されているように見えるようにオーバーレイすること(907)ことをさらに含む、請求項18から29のいずれか一項に記載の方法。
  31. 前記物理的シーンをキャプチャする前記ビデオシーケンス、および前記オーバーレイされた現在の仮想オブジェクトを前記ユーザに表示すること(908)をさらに含む、請求項30に記載の方法。
  32. 前記ビデオシーケンスは、前記ユーザによって着用されるカメラ(121)によって、前記カメラの視野(122)が前記ユーザの物理的位置および向きと相関するようにキャプチャされる、請求項18から31のいずれか一項に記載の方法。
  33. 前記ディスプレイは前記ユーザによって着用される、請求項18から32のいずれか一項に記載の方法。
  34. デバイスに含まれた処理ユニット(702)上でコンピュータ実行可能命令が実行される時、請求項18から33のいずれか一項に記載の方法を前記デバイスに実施させる前記コンピュータ実行可能命令を含む、コンピュータプログラム(704)。
  35. 請求項34に記載のコンピュータプログラム(704)が具現化されているコンピュータ可読記憶媒体(703)を含む、コンピュータプログラム製品。
JP2019524378A 2016-11-11 2016-11-11 拡張現実ソフトウェアアプリケーションのサポート Active JP6859436B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2016/077453 WO2018086704A1 (en) 2016-11-11 2016-11-11 Supporting an augmented-reality software application

Publications (2)

Publication Number Publication Date
JP2020514848A true JP2020514848A (ja) 2020-05-21
JP6859436B2 JP6859436B2 (ja) 2021-04-14

Family

ID=57348645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019524378A Active JP6859436B2 (ja) 2016-11-11 2016-11-11 拡張現実ソフトウェアアプリケーションのサポート

Country Status (17)

Country Link
US (1) US20210287440A1 (ja)
EP (2) EP3500908B1 (ja)
JP (1) JP6859436B2 (ja)
KR (1) KR102262812B1 (ja)
CN (1) CN109937393B (ja)
AU (1) AU2016429066B2 (ja)
BR (1) BR112019009494A2 (ja)
CO (1) CO2019003467A2 (ja)
ES (1) ES2807001T3 (ja)
HU (1) HUE049833T2 (ja)
IL (1) IL265494B (ja)
MX (1) MX2019005382A (ja)
MY (1) MY195155A (ja)
PL (1) PL3500908T3 (ja)
RU (1) RU2723920C1 (ja)
WO (1) WO2018086704A1 (ja)
ZA (1) ZA201902002B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021255864A1 (ja) * 2020-06-17 2021-12-23 日本電信電話株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108536295B (zh) * 2018-03-30 2021-08-10 腾讯科技(深圳)有限公司 虚拟场景中的对象控制方法、装置及计算机设备
CN108833937B (zh) * 2018-05-30 2021-03-23 华为技术有限公司 视频处理方法和装置
CN112822636A (zh) * 2019-11-15 2021-05-18 南宁富桂精密工业有限公司 提供增强现实导游的方法及其装置
US11682136B2 (en) 2021-01-07 2023-06-20 Htc Corporation Display method, display system and non-transitory computer readable storage medium
CN116212361B (zh) * 2021-12-06 2024-04-16 广州视享科技有限公司 虚拟对象显示方法、装置和头戴式显示装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602007007057D1 (de) * 2007-04-26 2010-07-22 Research In Motion Ltd Vorhersage der Benutzerverfügbarkeit aus angesammelten Signalstärkedaten
JP4926916B2 (ja) * 2007-11-07 2012-05-09 キヤノン株式会社 情報処理装置、情報処理方法、およびコンピュータプログラム
WO2010035106A1 (en) * 2008-09-24 2010-04-01 Iopener Media Gmbh System and method for simulating events in a real environment
US9901828B2 (en) * 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer
US8983502B2 (en) * 2010-04-22 2015-03-17 Telefonaktiebolaget L M Ericsson (Publ) Measures indicative of wireless data transfer rates for a user equipment
JP2012043194A (ja) * 2010-08-19 2012-03-01 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20120122570A1 (en) * 2010-11-16 2012-05-17 David Michael Baronoff Augmented reality gaming experience
US9454849B2 (en) * 2011-11-03 2016-09-27 Microsoft Technology Licensing, Llc Augmented reality playspaces with adaptive game rules
JP6065370B2 (ja) * 2012-02-03 2017-01-25 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5966425B2 (ja) * 2012-02-22 2016-08-10 日本電気株式会社 無線通信システム、移動局、ar位置情報交換システム、ar位置情報交換方法、及びプログラム
EP2837167B1 (en) * 2012-04-12 2018-12-19 Telefonaktiebolaget LM Ericsson (publ) Pairing a mobile terminal with a wireless device
US9508146B2 (en) * 2012-10-31 2016-11-29 The Boeing Company Automated frame of reference calibration for augmented reality
US20140129342A1 (en) * 2012-11-06 2014-05-08 Apple Inc. Dynamically adjusting invitational content placement opportunities in interactive environments
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
CN203761426U (zh) * 2013-10-12 2014-08-06 五邑大学 一种基于增强现实技术的食品安全信息公开系统
CN103810353A (zh) * 2014-03-09 2014-05-21 杨智 一种虚拟现实中的现实场景映射系统和方法
US11137601B2 (en) * 2014-03-26 2021-10-05 Mark D. Wieczorek System and method for distanced interactive experiences
US9495801B2 (en) * 2014-05-01 2016-11-15 Microsoft Technology Licensing, Llc Pose tracking an augmented reality device
US9645648B2 (en) * 2014-09-18 2017-05-09 Mary A. Spio Audio computer system for interacting within a virtual reality environment
US9791919B2 (en) * 2014-10-19 2017-10-17 Philip Lyren Electronic device displays an image of an obstructed target
US10169922B2 (en) * 2016-02-16 2019-01-01 Microsoft Technology Licensing, Llc Reality mixer for mixed reality
CN105892651B (zh) * 2016-03-28 2019-03-29 联想(北京)有限公司 一种虚拟对象的显示方法和电子设备
US10874943B2 (en) * 2016-06-28 2020-12-29 Rec Room Inc. Systems and methods for transferring object authority in a shared virtual environment
CN112513944A (zh) * 2018-07-23 2021-03-16 奇跃公司 用于头部姿势预测的深度预测器循环神经网络

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021255864A1 (ja) * 2020-06-17 2021-12-23 日本電信電話株式会社 情報処理装置、情報処理方法及びプログラム
JP7414139B2 (ja) 2020-06-17 2024-01-16 日本電信電話株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
EP3500908B1 (en) 2020-04-22
EP3500908A1 (en) 2019-06-26
AU2016429066A1 (en) 2019-05-23
HUE049833T2 (hu) 2020-10-28
MY195155A (en) 2023-01-11
CN109937393B (zh) 2022-04-19
EP3667464B1 (en) 2024-02-14
IL265494A (en) 2019-05-30
ES2807001T3 (es) 2021-02-19
EP3667464A1 (en) 2020-06-17
US20210287440A1 (en) 2021-09-16
MX2019005382A (es) 2019-08-12
BR112019009494A2 (pt) 2019-07-30
RU2723920C1 (ru) 2020-06-18
KR20190070971A (ko) 2019-06-21
AU2016429066B2 (en) 2020-05-28
EP3667464C0 (en) 2024-02-14
WO2018086704A1 (en) 2018-05-17
ZA201902002B (en) 2020-10-28
CO2019003467A2 (es) 2019-06-19
JP6859436B2 (ja) 2021-04-14
PL3500908T3 (pl) 2020-11-02
IL265494B (en) 2020-09-30
CN109937393A (zh) 2019-06-25
KR102262812B1 (ko) 2021-06-09

Similar Documents

Publication Publication Date Title
JP6859436B2 (ja) 拡張現実ソフトウェアアプリケーションのサポート
US11120616B2 (en) Method for implementing virtual scene conversion and related apparatus
US11504620B2 (en) Method for controlling game character and electronic device and computer storage medium
EP3882870B1 (en) Method and device for image display, storage medium and electronic device
CN108597530B (zh) 声音再现方法和装置、存储介质及电子装置
US10003769B2 (en) Video telephony system, image display apparatus, driving method of image display apparatus, method for generating realistic image, and non-transitory computer readable recording medium
US20200023276A1 (en) Video recording method based on virtual reality application, terminal device, and storage medium
CN109597481B (zh) Ar虚拟人物绘制方法、装置、移动终端及存储介质
US20240114231A1 (en) Viewing angle adjustment method and device, storage medium, and electronic device
JP6427079B2 (ja) ゲームプログラムおよびゲームシステム
JP2019080920A (ja) 音声情報を補償する視覚的表示方法及び装置、記録媒体、プログラム、電子機器
US11260300B2 (en) Image processing method and apparatus
KR102473628B1 (ko) 음원을 결정하기 위한 방법 및 디바이스, 저장 매체, 및 전자 디바이스
CN113398571B (zh) 虚拟道具的切换方法、装置、终端及存储介质
JP7191210B2 (ja) 仮想環境の観察方法、デバイス及び記憶媒体
CN111589141A (zh) 虚拟环境画面的显示方法、装置、设备及介质
JP2024509064A (ja) 位置マークの表示方法及び装置、機器並びにコンピュータプログラム
US20220161144A1 (en) Image display method and apparatus, storage medium, and electronic device
EP4270155A1 (en) Virtual content
CN111208903B (zh) 信息传输方法、穿戴式设备及介质
KR20230159090A (ko) 터치 스크린에 가상 입력 패드를 제공하는 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190724

A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20190709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210325

R150 Certificate of patent or registration of utility model

Ref document number: 6859436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250