JP2022505002A - 拡張現実データの表示方法、装置、機器、記憶媒体及びプログラム - Google Patents

拡張現実データの表示方法、装置、機器、記憶媒体及びプログラム Download PDF

Info

Publication number
JP2022505002A
JP2022505002A JP2020572499A JP2020572499A JP2022505002A JP 2022505002 A JP2022505002 A JP 2022505002A JP 2020572499 A JP2020572499 A JP 2020572499A JP 2020572499 A JP2020572499 A JP 2020572499A JP 2022505002 A JP2022505002 A JP 2022505002A
Authority
JP
Japan
Prior art keywords
data
display
virtual target
augmented reality
devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020572499A
Other languages
English (en)
Inventor
侯欣如
▲欒▼青
Original Assignee
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201910979898.4A external-priority patent/CN110764614B/zh
Application filed by ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド filed Critical ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Publication of JP2022505002A publication Critical patent/JP2022505002A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Figure 2022505002000001
本願は、拡張現実データの表示方法、装置、電子機器、記憶媒体及びプログラムを提供する。該方法は、拡張現実機器の位置データを取得することと、AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及びAR機器の位置データに基づいて、仮想対象の移動状態を含む表示データを決定することと、AR機器により、表示データを含む拡張現実データを表示することと、を含む。仮想対象の移動位置は、仮想対象の所定初期位置、仮想対象の所定終点位置、現在の移動状態における仮想対象の位置のうちの少なくとも1つを含むことを特徴とする。

Description

(関連出願の相互参照)
本願は、2019年10月15日に提出された、出願番号が201910979898.4である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願は、拡張現実技術分野に関し、拡張現実データの表示方法、装置、機器、記憶媒体及びコンピュータプログラムに関するが、これらに限定されない。
拡張現実(Augmented Reality:AR)技術は、仮想情報と現実世界を融合する技術である。拡張現実技術は、コンピュータにより生成された文字、画像、三次元モデル、音楽、ビデオなどの仮想情報を擬似してシミュレーションした後、現実世界に適用し、現実世界に対する拡張を実現する。AR機器により表示される拡張現実シーンの効果の最適化及びユーザとのインタラクションの向上は、ますます重要になる。
本願の実施例は、拡張現実データの表示方法、装置、機器、コンピュータ記憶媒体及びコンピュータプログラムを提供する。
本願の実施例は、拡張現実データの表示方法を提供する。前記方法は、
拡張現実(Augmented Reality:AR)機器の位置データを取得することと、
前記AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することと、
前記AR機器により、前記表示データを含む拡張現実データを表示することと、を含む。
上記方法によれば、仮想対象の移動状態を含む表示データを決定し、AR機器により、表示データを含む拡張現実データを表示することができる。それによって、該AR機器により、AR機器の位置とマッチングする仮想対象の移動状態を表示することができる。例えば、仮想対象がAR機器の位置へ移動するという拡張現実効果を表示する。これにより、仮想対象の表示を更に現実シーンに溶け込ませ、拡張現実データ表示の柔軟性を向上させる。
本願の幾つかの実施例において、前記仮想対象の移動位置は、
前記仮想対象の所定初期位置、前記仮想対象の所定終点位置、現在の移動状態における前記仮想対象の位置のうちの少なくとも1つを含む。
上記実施形態において、AR機器の位置、仮想対象の移動位置に基づいて、仮想対象の移動経路を生成し、該移動経路に基づいて、移動状態を表示し、それによって仮想対象の状態表示の多様性及び柔軟性を向上させ、仮想対象の現実シーンへの溶け込み性を向上させ、ARシーンの表示効果も向上させる。
本願の幾つかの実施例において、前記所定表示条件は、前記AR機器の位置データがターゲット領域範囲内にあることを含む。
本願の幾つかの実施例において、前記所定表示条件は、前記AR機器の位置データが前記ターゲット領域範囲内にあり、且つ前記AR機器に関連付けられたユーザの属性情報が所定属性条件を満たすことを含む。
上記実施形態において、所定表示条件を設定し、AR機器に対して選別を行い、所定表示条件を満たすAR機器の位置データに対して、仮想対象の位置状態を含む表示データを決定し、表示データを対応するAR機器に表示し、ARシーン表示の柔軟性を向上させる。
本願の幾つかの実施例において、仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することは、
前記仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動経路を取得することと、
前記移動経路、及び前記現実シーンとマッチングする三次元シーンモデルにおける前記仮想対象の特殊効果データを利用して、前記仮想対象の移動状態を含む表示データを生成することと、を含む。
本願の幾つかの実施例において、前記方法は、
前記AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、前記AR機器に関連付けられたユーザの属性情報に基づいて、前記属性情報とマッチングする仮想対象を決定することを更に含み、
仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することは、
前記属性情報とマッチングする仮想対象の移動位置を取得することと、
前記属性情報とマッチングする仮想対象の移動位置、及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することと、を含む。
上記実施形態において、異なる属性情報のユーザに対して、マッチングする異なる仮想対象を決定し、異なる仮想対象に基づいて、異なるAR機器に対して、異なる表示データを生成し、表示データの多様化を実現させ、ARシーン表示の柔軟性を向上させる。
本願の幾つかの実施例において、属性情報は、ユーザの年齢、ユーザの性別、ユーザの職業属性、ユーザにより事前設定された関心のある仮想対象情報のうちの少なくとも1つを含む。
上記実施形態において、ユーザの属性情報を設定することで、サーバ又はAR機器は、ユーザの属性情報に基づいて、表示する仮想情報をAR機器にマッチングしてあげるようにする。又は、ユーザの属性情報に基づいて、該AR機器とマッチングする表示データを決定するかどうかを判定する。異なるAR機器に対して、異なる表示データを表示するという効果を実現させ、表示効果を向上させる。
本願の実施例は、もう1つの拡張現実データの表示方法を更に提供する。前記方法は、
n個の第1拡張現実AR機器の位置データを取得することであって、nは正整数である、ことと、
前記n個の第1AR機器のうちのm個の第1AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及び前記m個の第1AR機器の位置データに基づいて、前記m個の第1AR機器とそれぞれマッチングする、前記仮想対象の移動状態を含む表示データを決定することであって、mは、n以下の正整数である、ことと、
前記m個の第1AR機器により、前記m個の第1AR機器とそれぞれマッチングする表示データの拡張現実データを表示することと、を含む。
上記実施形態において、複数のAR機器に基づいて、複数のAR機器とそれぞれマッチングする、仮想対象の移動状態を含む表示データを生成する。これにより、複数のAR機器は、ターゲット領域内で、仮想対象の移動状態を含む表示データを受信し、該表示データを含む拡張現実データを表示することができる。複数のAR機器において仮想対象を柔軟に表示することを実現させ、現実シーンの需要を満たし、拡張現実データの表示効果を向上させる。
本願の幾つかの実施例において、前記表示データは、前記仮想対象が移動経路に従って移動する過程において表される移動状態を含み、前記移動経路の経由地は、前記m個の第1AR機器の所在位置を含み、又は、前記移動経路の経由地は、m個の第1AR機器の所在位置との距離がそれぞれ所定距離範囲内にある位置点を含む。
本願の幾つかの実施例において、前記方法は、
第2AR機器の位置データを取得することと、
前記第2AR機器が前記所定表示条件を満たすことを検出した場合、現在の移動状態における前記仮想対象の位置、前記第2AR機器の位置データ、及び前記m個の第1AR機器のうち、移動経路を更新する前に経過していない第1AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを更新することと、を更に含む。
上記実現形態において、第2AR機器の位置データが所定表示条件を満たす場合、第2AR機器の位置データに基づいて、仮想対象の移動経路をリアルタイムに更新することで、ARシーンをリアルタイムに表示することを実現させ、表示効果を向上させる。
下記装置、電子機器などの効果に関する説明は、上記方法の説明を参照されたい。ここで詳細な説明を省略する。
本願の実施例は、拡張現実データ表示装置を更に提供する。前記装置は、
拡張現実AR機器の位置データを取得するように構成される位置データ取得モジュールと、
前記AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定するように構成される表示データ決定モジュールと、
前記AR機器により、前記表示データを含む拡張現実データを表示するように構成される第1表示モジュールと、を備える。
本願の幾つかの実施例において、前記表示データ決定モジュールにおける前記仮想対象の移動位置は、
前記仮想対象の所定初期位置、前記仮想対象の所定終点位置、現在の移動状態における前記仮想対象の位置のうちの少なくとも1つを含む。
本願の幾つかの実施例において、前記表示データ決定モジュールにおける前記所定表示条件は、前記AR機器の位置データがターゲット領域範囲内にあることを含む。
本願の幾つかの実施例において、前記表示データ決定モジュールにおける前記所定表示条件は、前記AR機器の位置データが前記ターゲット領域範囲内にあり、且つ前記AR機器に関連付けられたユーザの属性情報が所定属性条件を満たすことを含む。
本願の幾つかの実施例において、前記表示データ決定モジュールによる前記仮想対象の移動状態を含む表示データの決定は、
前記仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動経路を取得することと、
前記移動経路、及び前記現実シーンとマッチングする三次元シーンモデルにおける前記仮想対象の特殊効果データを利用して、前記仮想対象の移動状態を含む表示データを生成することと、を含む。
本願の幾つかの実施例において、前記装置は、
前記AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、前記AR機器に関連付けられたユーザの属性情報に基づいて、前記属性情報とマッチングする仮想対象を決定するように構成される仮想対象マッチングモジュールを更に備え、
前記表示データ決定モジュールによる前記仮想対象の移動状態を含む表示データの決定は、
前記属性情報とマッチングする仮想対象の移動位置を取得することと、
前記属性情報とマッチングする仮想対象の移動位置、及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することと、を含む。
考えられる実現形態において、属性情報は、ユーザの年齢、ユーザの性別、ユーザの職業属性、ユーザにより事前設定された関心のある仮想対象情報のうちの少なくとも1つを含む。
本願の実施例は、もう1つの拡張現実データ表示装置を更に提供する。前記装置は、
n個の第1拡張現実AR機器の位置データを取得するように構成される第1取得モジュールであって、nは正整数である、第1取得モジュールと、
前記n個の第1AR機器のうちのm個の第1AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及び前記m個の第1AR機器の位置データに基づいて、前記m個の第1AR機器とそれぞれマッチングする、前記仮想対象の移動状態を含む表示データを決定するように構成される第1決定モジュールであって、mは、n以下の正整数である、第1決定モジュールと、
前記m個の第1AR機器により、前記m個の第1AR機器とそれぞれマッチングする表示データの拡張現実データを表示するように構成される第2表示モジュールと、を備える。
本願の幾つかの実施例において、前記第1決定モジュールにおける前記表示データは、前記仮想対象が移動経路に従って移動する過程において表される移動状態を含み、前記移動経路の経由地は、前記m個の第1AR機器の所在位置を含み、又は、前記移動経路の経由地は、m個の第1AR機器の所在位置との距離がそれぞれ所定距離範囲内にある位置点を含む。
本願の幾つかの実施例において、前記装置は、
第2AR機器の位置データを取得するように構成される第2取得モジュールと、
前記第2AR機器が前記所定表示条件を満たすことを検出した場合、現在の移動状態における前記仮想対象の位置、前記第2AR機器の位置データ、及び前記m個の第1AR機器のうち、移動経路を更新する前に経過していない第1AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを更新するように構成される第2決定モジュールと、を更に備える。
本願の実施例は、電子機器を更に提供する。前記電子機器は、プロセッサと、メモリと、バスと、を備え、前記メモリに、前記プロセッサによる実行可能な機器可読命令が記憶されており、電子機器が動作する時、前記プロセッサと前記メモリは、バスを介して通信し、前記機器可読命令が前記プロセッサにより実行される時、上記第1態様又はいずれか1つの実施形態に記載の拡張現実データの表示方法を実行し、又は、前記機器可読命令が前記プロセッサにより実行される時、上記第2態様又はいずれか1つの実施形態に記載の拡張現実データの表示方法を実行する。
本願の実施例は、コンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体にコンピュータプログラムが記憶されており、該コンピュータプログラムがプロセッサにより実行される時、上記第1態様又はいずれか1つの実施形態に記載の拡張現実データの表示方法を実行し、又は、該コンピュータプログラムがプロセッサにより実行される時、上記第2態様又はいずれか1つの実施形態に記載の拡張現実データの表示方法を実行する。
本願の実施例は、コンピュータプログラムを更に提供する。前記コンピュータプログラムは、コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器で実行される時、前記電子機器におけるプロセッサは、上記いずれか1つの拡張現実データの表示方法を実行する。
本願の実施例は、下記有益な効果を有する。
仮想対象の移動状態を含む表示データを決定し、AR機器により、表示データを含む拡張現実データを表示することができる。それによって、該AR機器により、AR機器の位置とマッチングする仮想対象移動状態を表示することができる。例えば、仮想対象がAR機器の位置へ移動するという拡張現実効果を表示する。これにより、仮想対象の表示を更に現実シーンに溶け込ませ、拡張現実データの表示の柔軟性を向上させる。
本願の上記目的、特徴及び利点を分かりやすくするために、以下、好適な実施例を挙げて、添付図面を参照しながら、詳しく説明する。
本願の実施例による拡張現実データの表示方法を示すフローチャートである。 本願の実施例による初期移動経路を示す概略図である。 本願の実施例による初期移動経路に基づいて更新された移動経路を示す概略図である。 本願の実施例によるAR機器の表示データにおける画像を示す概略図である。 本願の実施例によるもう1つのAR機器の表示データにおける画像を示す概略図である。 本願の実施例によるもう1つの拡張現実データの表示方法を示すフローチャートである。 本願の実施例による移動経路を示す概略図である。 本願の実施例による更新された移動経路を示す概略図である。 本願の実施例による拡張現実データ表示装置のアーキテクチャを示す概略図である。 本願の実施例によるもう1つの拡張現実データ表示装置のアーキテクチャを示す概略図である。 本願の実施例による第1電子機器の構造を示す概略図である。 本願の実施例による第2電子機器の構造を示す概略図である。
本願の実施例の技術的解決手段をより明確に説明するために、以下、実施例に必要な図面を簡単に説明する。ここで添付した図面は、明細書に引き入れて本明細書の一部分を構成し、本願に適合する実施例を示し、かつ、明細書とともに本願の技術的解決手段を解釈することに用いられる。以下の図面は本出願の一部の実施例のみを示すため、本願の範囲を限定するものと見なすべきではなく、当業者は創造的な労力を要することなく、これらの図面に基づいて他の図面を得ることもできることを理解すべきである。
本願の実施例の目的、技術的解決手段及び利点をより明確にするために、以下、本願の実施例における図面を参照しながら、本願の具体的な技術的解決手段を更に詳しく説明する。勿論、記述される実施例は、全ての実施例ではなく、ただ本願の一部の実施例である。一般的に、ここの図面に記述されて示される本願の実施例のアッセンブリを様々な方式で配置して設計することができる。従って、下記図面で提供される本願の実施例の詳細な説明は、特許請求される本願の範囲を限定するものではなく、本願の好適な実施例のみを示す。本願の実施例に基づいて、当業者が創造的な労力なしに得られる他の実施例の全ては、本発明の保護範囲に含まれる。
表示される拡張現実シーンの最適化効果を向上させ、拡張現実シーンの表示の柔軟性を向上させるために、本願の実施例は、拡張現実データの表示方法を提供する。仮想対象の移動位置及びAR機器の位置データに基づいて、仮想対象の移動状態を含む表示データを決定し、AR機器により、表示データを含む拡張現実データを表示し、AR機器による拡張現実シーンの表示を実現させる。
本願の実施例を理解しやすくするために、まず、本願の実施例で提出される拡張現実データの表示方法を詳しく説明する。
本願の実施例で提供される拡張現実データの表示方法は、単一のAR機器の位置データに対して、該AR機器における表示しようとする仮想対象の移動状態に対応する表示データを取得することができる。また、現在のシーンにおける、複数のAR機器の位置データを算出し、複数のAR機器におけるそれぞれ表示しようとする仮想対象の移動状態に対応する表示データを決定することもできる。例示的に、複数のAR機器の場合、各AR機器に表示される仮想対象の移動状態は、他のAR機器の位置データから影響される移動状態であってもよい。
本願の実施例において、AR機器は、AR機能をサポートできるスマート機器である。例示的に、AR機器は、携帯電話、タブレット、ARメガネなどのような、拡張現実効果を表示できる電子機器を含むが、これらに限定されない。
図1は、本願の実施例による拡張現実データの表示方法を示すフローチャートである。図1に示すように、該方法は、上記AR機器に適用可能であり、又は、ローカル又はクラウド側サーバに適用可能である。
図1に示した拡張現実データの表示方法は、下記ステップを含む。
S101において、拡張現実AR機器の位置データを取得する。
S102において、AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及びAR機器の位置データに基づいて、仮想対象の移動状態を含む表示データを決定する。
S103において、AR機器により、表示データを含む拡張現実データを表示する。
上記ステップによれば、仮想対象の移動状態を含む表示データを決定し、AR機器により、表示データを含む拡張現実データを表示することができる。それによって、該AR機器により、AR機器の位置とマッチングする仮想対象の移動状態を表示することができる。例えば、仮想対象がAR機器の位置へ移動するという拡張現実効果を表示する。これにより、仮想対象の表示を更に現実シーンに溶け込ませ、拡張現実データ表示の柔軟性を向上させる。以下、S101~S103をそれぞれ説明する。
S101について、
本願の実施例において、AR機器の位置データは、現実シーンにおけるAR機器の位置データを含む。該位置データは、所定の参照座標系におけるAR機器の三次元座標データであってもよく、AR機器に対応する経緯度データであってもよい。
例示的に、AR機器位置データの取得方法は、全地球測位システム(Global Positioning System:GPS)、衛星測位システムなどによる方法を含むが、これらに限定しない。また、AR機器により、現在の現実シーン画像を取得し、該現実シーン画像に基づいて、実際の地理的位置を測位することができる。例えば、該現実シーン画像に対して画像認識を行い、該現実シーン画像に対応する現実シーンにおける地理的位置情報を決定する。具体的に画像認識を行う時、事前訓練された位置予測モデルにより認識を行うことができる。なお、該現実シーン画像を事前記憶されたサンプル画像と照合する方式で認識を行うこともできる。
S102について、
本実施形態において、仮想対象の移動位置及び予め設定された仮想対象の初期移動経路に基づいて、仮想対象の移動状態を含む初期表示データを決定することができる。AR機器の位置データを取得した後、AR機器が仮想対象の表示をトリガする所定表示条件を満たさないことを検出した場合、仮想対象の初期移動経路を変更せず、更に、初期表示データを変更しなくてもよい。AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及びAR機器の位置データに基づいて、仮想対象の移動経路を再生成し、該再生成された移動経路に基づいて、移動状態の表示データを変更し、現在のARシーンに仮想対象の更新された移動状態を表示する。
例示的に、図2Aは、初期移動経路を示す概略図である。図2Aにおける初期移動経路は、仮想対象の所定初期位置21、及び仮想対象の所定終点位置22を含む。AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、AR機器の位置データに基づいて、仮想対象の移動経路を再生成する。再生成された仮想対象の移動経路は、複数のケースを含み、例示的に、図2Bに示されるものは、そのうちの1つである。図2Bから分かるように、再生成された仮想対象の移動経路は、所定初期位置21と、仮想対象の所定終点位置22と、AR機器の位置23と、を含む。
本願の幾つかの実施例において、仮想対象の移動位置は、仮想対象の所定初期位置、仮想対象の所定終点位置、現在の移動状態における仮想対象の位置のうちの少なくとも1つを含む。
具体的に実施する場合、仮想対象の所定初期位置、仮想対象の所定終点位置は、実際の状況に応じて設定されてもよい。現在の移動状態における仮想対象の位置は、表示データを決定する時に三次元シーンモデルにおける仮想対象の所在するリアルタイムな位置であってもよい。ここで、三次元シーンモデルは、現実シーンを表すためのモデルである。該モデルは、現実シーンにおける外形特徴を全面的に表現することができる。現実シーンとの縮尺は、1:1である。該三次元シーンモデルに基づいて現実シーンにおける仮想対象の表示の特殊効果を設計することで、仮想シーンの表示の特殊効果と現実シーンとの溶け込み性を向上させることができる。
上記の移動状態を決定する時に、AR機器の位置データ及び仮想対象の移動位置に基づいて、AR機器の位置データ及び仮想対象の移動位置とマッチングする移動経路を生成することができる。例えば、仮想対象の現在のリアルタイムな位置、又は所定初期位置から、該AR機器の位置を経過して、仮想対象の所定終点位置に到着する移動経路を生成する。更に、現在のARシーンに、該移動経路での仮想対象の移動状態を表示する。上記から分かるように、AR機器の位置に基づいて仮想対象の移動経路を生成し、該移動経路に基づいて移動状態表示を行うという方式によれば、仮想対象の表示状態の多様性及び柔軟性を向上させ、仮想対象の現実シーンへの溶け込み性を向上させ、つまり、ARシーンの表示効果を向上させる。
本願の幾つかの実施例において、上記所定表示条件は、AR機器の位置データがターゲット領域範囲内にあることを含む。ここで、ターゲット領域範囲は、仮想対象を含む領域範囲であってもよく、仮想対象を含まない領域範囲であってもよい。例示的に、該ターゲット領域範囲は、所定の不規則な領域範囲であってもよく、仮想物の位置を中心として所定の距離を半径とした円形領域であってもよい。
本実施形態において、AR機器が仮想対象の表示をトリガする所定表示条件を満たすかどうかを検出することは、所定の領域範囲内に該AR機器の位置データが含まれるかどうかを判定し、含まれる場合、該AR機器が所定表示条件を満たすことを含む。又は、AR機器が仮想対象の表示をトリガする所定表示条件を満たすかどうかを検出することは、該AR機器の位置と該仮想物の位置との距離が所定距離以下であるかどうかを判定し、所定距離以下であれば、該AR機器が所定表示条件を満たすことを更に含んでもよい。本願は、AR機器が上記所定表示条件を満たすかどうかを判定する方式を限定しない。
本願の幾つかの実施例において、所定表示条件は、AR機器の位置データがターゲット領域範囲内にあり、且つAR機器に関連付けられたユーザの属性情報が所定属性条件を満たすことを含む。
本実施形態において、AR機器に関連付けられるユーザは、AR機器の所持者、AR機器利用者、及びAR機器との距離が所定の距離閾値未満であるユーザを含むが、これらに限定されない。
本願の幾つかの実施例において、AR機器に関連付けられたユーザの属性情報から、所定属性条件に対応する属性情報を選択してAR機器の第1属性情報とし、AR機器の第1属性情報に基づいて、AR機器が所定属性条件を満たすかどうかを判定する。
本願の幾つかの実施例において、ユーザの年齢、ユーザの性別、ユーザの職業属性、ユーザにより事前設定された関心のある仮想対象情報のうちの少なくとも1つを含んでもよいが、これらに限定されない。
本実施形態において、ユーザの属性情報の決定は、下記幾つかの実施形態を含むが、これらに限定されない。
形態1において、AR機器の対応する登録データにより、ユーザの属性情報を決定する。
形態2において、AR機器により検出された挙動データにより、ユーザの属性情報を決定する。
形態3において、画像認識技術により、ユーザの属性情報を決定する。
例示的に、登録データは、AR機器を利用する時にユーザにより入力されたデータである。例えば、AR機器が携帯電話である場合、登録データは、ARシーン表示機能を有するソフトウェアを利用する時に入力された基本情報などであってもよい。
例示的に、挙動データは、AR機器に記憶されたデータであってもよい。例えば、挙動データは、ユーザにより使用されるソフトウェアのタイプ、ソフトウェアを使用する継続時間などであってもよい。又は、挙動データは、AR機器によりリアルタイムに検出されたデータであってもよい。例えば、AR機器により検出された、ユーザがAR機器に対して実行したトリガ操作であってもよく、例えば、ジェスチャー操作、音声操作、ボタン押し操作などである。
例示的に、属性情報は、ユーザの年齢、身長、服装、表情などを含むが、これらに限定されない。考えられる実現形態において、画像認識技術により、ユーザの属性情報を決定することは、ユーザの画像データを取得し、画像認識技術に基づいて、ユーザの画像データから、ユーザの属性情報を取得することを含む。画像データの取得方式として、例えば、AR機器に内蔵されたカメラ(例えばフロントカメラ)により取得される。又は、現実シーンに配置された、AR機器から独立したカメラにより取得される。又は、他の装置からAR機器にユーザ画像データを伝送するという方式で取得されてもよい。具体的に実施する場合、ユーザの属性情報を設定することで、サーバ又はAR機器は、ユーザの属性情報に基づいて、表示する仮想情報をAR機器にマッチングしてあげるようにするか、又は、ユーザの属性情報に基づいて、該AR機器とマッチングする表示データを決定するかどうかを判定する。これにより、異なるAR機器に対して、異なる表示データを表示するという効果を実現させ、表示効果を向上させる。
例を挙げて説明すれば、所定属性条件として、ユーザの性別が女性であば、AR機器の位置データがターゲット領域範囲内にあり、且つAR機器に関連付けられたユーザの第1属性情報が「ユーザの性別が女性である」ことである場合、該AR機器は、所定表示条件を満たす。AR機器の位置データがターゲット領域範囲内ではないか又はAR機器に関連付けられたユーザの第1属性情報が「ユーザの性別が男性である」ことである場合、該AR機器は、所定表示条件を満たさない。所定表示条件を設定することで、AR機器に対して選別を行い、所定表示条件を満たすAR機器の位置データに対して、仮想対象の位置状態を含む表示データを決定し、表示データを対応するAR機器に表示し、ARシーン表示の柔軟性を向上させる。
本願の幾つかの実施例において、仮想対象の移動位置及びAR機器の位置データに基づいて、仮想対象の移動状態を含む表示データを決定することは、
仮想対象の移動位置及びAR機器の位置データに基づいて、仮想対象の移動経路を取得することと、
移動経路、現実シーンとマッチングする三次元シーンモデルにおける前記仮想対象の特殊効果データを利用して、仮想対象の移動状態を含む表示データを生成することと、を含む。
具体的に実施する場合、仮想対象の移動経路の生成プロセスは、AR機器で実行されてもよく、サーバで実行されてもよい。AR機器又はサーバは、経路計画アルゴリズムを設定し、仮想対象の移動位置及びAR機器の位置データに基づいて、仮想対象の移動経路を生成する。これにより、AR機器は、ローカルで生成された仮想対象の移動経路又はサーバで生成された仮想対象の移動経路を取得した後、現実シーンとマッチングする三次元シーンモデルでの仮想対象の特殊効果データを取得した移動経路と融合させ、仮想対象の移動状態を含む表示データを決定する。
本願の幾つかの実施例において、該拡張現実データの表示方法は、AR機器に関連付けられたユーザの属性情報に基づいて、該AR機器とマッチングする仮想対象を決定することを更に含む。具体的なプロセスは以下のとおりである。
AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、AR機器に関連付けられたユーザの属性情報に基づいて、属性情報とマッチングする仮想対象を決定する。
本実施形態において、仮想対象が複数である場合、AR機器に関連付けられたユーザの属性情報に基づいて、AR機器に対応する仮想対象を決定することができる。ここで、ユーザの属性情報から1つ又は複数の属性情報を選択してAR機器の第2属性情報とし、第2属性情報に基づいて、仮想対象をAR機器にマッチングしてあげる。第2属性情報は、AR機器が所定属性条件を満たすかどうかを判定する時に適用される第1属性情報と同じであっても異なってもよい。ここで、第1属性情報と第2属性情報が異なる場合について例示的に説明する。第1属性情報が、ユーザの性別が女性であることであれば、第2属性情報は、ユーザの年齢であってもよい。異なるユーザ年齢に基づいて、ユーザに対して、異なる仮想対象を決定する。具体的に、ユーザの年齢が3-10歳である場合、対応する仮想対象は、アニメ動物である。ユーザの年齢が11-18歳である場合、対応する仮想対象は、ゲームキャラクターである。ユーザの年齢が19-30歳である場合、対応する仮想対象は、スター人物などである。第1属性情報と第2属性情報が同じである場合について例示的に説明する。第1属性情報と第2属性情報がいずれもユーザの年齢であることを例として、第1属性情報は、ユーザの年齢が20歳(20歳を含む)以下であることであって、第2属性情報は、ユーザの年齢が5歳未満であることである場合、対応する仮想対象は、アニメ動物である。ユーザの年齢が5-10歳(5歳を含み、10歳を含まない)である場合、対応する仮想対象は、アニメ人物である。ユーザの年齢が10-20歳(10歳及び20歳を含む)である場合、対応する仮想対象は、映画スターである。
異なる属性情報に対して、異なる仮想対象を決定し、更に、異なる仮想対象に基づいて、異なるAR機器に対して、異なる表示データを生成し、表示データの多様化を実現させ、AR機器の表示効果を向上させる。
本願の幾つかの実施例において、ユーザの需要に基づいて、ユーザのために、仮想対象の移動状態をカスタマイズすることもできる。例えば、AR機器1は、スター1に関心のあることを示す指示情報を取得した場合、スター1の移動状態を含む表示データを生成する。AR機器2は、スター2に関心のあることを示す指示情報を取得した場合、スター2の移動状態を含む表示データを生成する。
上述において、属性情報とマッチングする仮想対象を決定した後、仮想対象とマッチングする移動位置及びAR機器の位置データに基づいて、仮想対象の移動状態を含む表示データを生成することは、
属性情報とマッチングする仮想対象の移動位置を取得することと、
属性情報とマッチングする仮想対象の移動位置、AR機器の位置データに基づいて、仮想対象の移動状態を含む表示データを決定することと、を含む。
本実施形態において、異なる仮想対象の移動位置は、同じであっても異なってもよい。ここで、仮想対象の移動位置は、実際の需要に応じて設定されてもよい。AR機器に関連付けられたユーザの属性情報に基づいて、マッチングする仮想対象を決定した後、まず、属性情報とマッチングする仮想対象の移動位置を取得し、続いて、取得した仮想対象の移動位置、AR機器の位置データに基づいて、属性情報とマッチングする仮想対象の移動経路を生成し、最後に、該移動経路、現実シーンとマッチングする、三次元シーンで属性情報とマッチングする仮想対象の特殊効果データを利用して、属性情報とマッチングする仮想対象の移動状態を含む表示データを決定する。
S103について、
本願の実施例において、拡張現実データは、例えば、複数フレームの画像からなる動画又は単一フレームの画像などの表示データを含む。また、音声データ、匂い合成データなどを含んでもよい。例示的に、表示データにおける所定のフレーム画像位置で声音データを配置し、声音データと表示データとの融合を実現させる。例えば、表示データで表示される仮想対象がAR機器の位置に移動した場合、AR機器に、所定の声音データを再生させる。例示的に、音声データは、こんにちわ!童話の世界へようこそという音声データであってもよい。これにより、AR機器に音声データを表示すると同時に表示データを表示し、AR機器による拡張現実データの表示の効果を向上させる。
例示的に、図3Aは、AR機器の表示データにおける画像を示す概略図である。図3Bは、もう1つのAR機器の表示データにおける画像を示す概略図である。図3A及び3Bから分かるように、仮想対象33は、位置点31から位置点32に移動し、且つ位置点31での仮想対象33の特殊効果データは、位置点32での特殊効果データと異なる。また、仮想対象が位置点32に移動した時、声音データを設定し、AR機器に、「サンタさんからのプレゼントをお届けします」という音声データを再生させる。
本願の実施例で提供される拡張現実データの表示方法は、単一のAR機器に基づいて、該AR機器とマッチングする、仮想対象の移動状態を含む表示データを生成する。表示データにおける仮想対象は、移動経路に基づいた移動状態にあり、つまり、表示データにおける仮想対象は動的なものである、これにより、該AR機器は、該表示データを含む拡張現実データを表示することができ、AR機器による拡張現実データの表示の効果を向上させる。
図4は、本願の実施例によるもう1つの拡張現実データの表示方法を示すフローチャートである。図4に示すように、該方法は、サーバに適用され、該方法は、複数のAR機器に対して拡張現実データを表示することに適用され、図4に示した拡張現実データの表示方法は、ステップS401-S403を含み、具体的なプロセスは以下のとおりである。
S401において、n個の第1拡張現実AR機器の位置データを取得し、nは正整数である。
本願の実施例において、n個の第1AR機器のうちの各AR機器の位置データを取得する。ここで、GPS、衛星測位システムにより、第1AR機器の位置データを取得することができる。n個のAR機器のうち、a個のAR機器が関連付けられるAR機器であり、aがn以下の正整数であり、関連付けられるAR機器のうちのいずれか1つのAR機器の位置データを取得することで、関連付けられるAR機器のうちの各AR機器の位置データとすることができる。ここで、関連付けられるAR機器は、ユーザにより手動で関連付けられたa個のAR機器であってもよく、サーバにより自動的に関連付けられた、関連付け条件を満たすAR機器であってもよい。関連付け条件として、例えば、同一の信号に接続されるAR機器であり得る。
S402において、n個の第1AR機器のうちのm個の第1AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及びm個の第1AR機器の位置データに基づいて、m個の第1AR機器とそれぞれマッチングする、仮想対象の移動状態を含む表示データを決定し、mは、n以下の正整数である。
本願の実施例において、仮想対象の移動位置及びm個の第1AR機器の位置データに基づいて、仮想対象の移動経路を生成し、該移動経路及び現実シーンとマッチングする三次元シーンモデルにおける仮想対象の特殊効果データに基づいて、m個の第1AR機器のうちの各第一AR機器に対応する、仮想対象の移動状態を含む表示データを決定する。
本願の幾つかの実施例において、表示データは、仮想対象が移動経路に従って移動する過程において表される移動状態を含み、移動経路の経由地は、m個の第1AR機器の所在位置を含み、又は、移動経路の経由地は、m個の第1AR機器の所在位置との距離がそれぞれ所定距離範囲内にある位置点を含む。
本願の実施例において、mの値は、実際に上記所定表示条件を満たすAR機器の数の変動に応じて更新されてもよい。具体的には、第1AR機器のうち、いずれか1つのAR機器の位置データが所定表示条件を満たさなくなる場合、移動経路の経由地は、所定表示条件を満たさない該AR機器を含まない。この時点で、mは、変動する。例示的に、初期時点でmの値は、3であり、3個の第1AR機器のうちのいずれか1つの第1AR機器の位置データが所定表示条件を満たさなくなる場合、つまり、3つの第1AR機器のうち、1つの第1AR機器の位置データがターゲット領域範囲外になる場合、mの値は、変動し、この時点で、mの値は、2である。従って、2個の第1AR機器の位置データ及び仮想対象の移動位置に基づいて、2個の第1AR機器とそれぞれマッチングする、仮想対象の移動状態を含む表示データを決定する。該表示データは、仮想対象が移動経路に従って移動する過程で表示される移動状態を含み、移動経路の経由地は、2個の第1AR機器の所在位置を含む。
本願の幾つかの実施例において、該拡張現実データの表示方法は、
第2AR機器の位置データを取得することと、
第2AR機器が前記所定表示条件を満たすことを検出した場合、現在の移動状態における仮想対象の位置、第2AR機器の位置データ、及びm個の第1AR機器のうち、移動経路を更新する前に経過していない第1AR機器の位置データに基づいて、仮想対象の移動状態を含む表示データを更新することと、を更に含む。
本実施形態において、仮想対象の移動位置及びm個の第1AR機器の位置データに基づいて、m個の第1AR機器とそれぞれマッチングする、仮想対象の移動状態を含む表示データを決定した後、サーバは、第2AR機器を検出した場合、第2AR機器の位置データを取得する。第2AR機器が所定表示条件を満たす場合、仮想対象の移動状態を含む表示データを更新する。ここで、第2AR機器は、第1AR機器以外の他のAR機器である。
例示的に説明すると、図5Aは、移動経路を示す概略図である。図5Aから分かるように、mの値は、2である。図5Aに、仮想対象の所定初期位置51、仮想対象の所定終点位置52、及び2個の第1AR機器の位置53が含まれる。ある時点で、第2AR機器の位置データが検出された場合、第2AR機器の位置データを取得する。第2AR機器が所定表示条件を満たす場合、現在の移動状態における仮想対象の位置、第2AR機器の位置データ、及び2個の第1AR機器のうち、移動経路を更新する前に経過していない第1AR機器の位置データに基づいて、図5Aに示される移動経路を更新する。図5Aに示される移動経路に対応する更新後の移動経路は、複数のケースがある。例示的に、そのうちの1つについて説明する。更新後の移動経路は、図5Bに示すとおりである。図5Bから分かるように、図5Bに、現在の移動状態における仮想対象の位置54、第2AR機器の位置55、仮想対象的所定終点位置52、及び移動経路を更新する前に経過していない第1AR機器の位置53が含まれる。更に、更新後の移動経路に基づいて、仮想対象の移動状態を含む表示データを更新する。
S403において、m個の第1AR機器により、m個の第1AR機器とそれぞれマッチングする表示データの拡張現実データを表示する。
例示的に、S402における例に続いて説明する。mの値が2である場合、サーバは、2個の第1AR機器とそれぞれマッチングする、仮想対象の移動状態を含む表示データを生成し、2個の表示データを対応する第1AR機器にそれぞれ送信し、第1ARに、表示データを含む拡張現実データを表示させる。
本願で提供される拡張現実データの表示方法は、複数のAR機器に基づいて、複数のAR機器とそれぞれマッチングする、仮想対象の移動状態を含む表示データを生成する。これにより、複数のAR機器は、ターゲット領域内で、仮想対象の移動状態を含む表示データを受信し、該表示データを含む拡張現実データを表示することができる。従って、複数のAR機器に仮想対象を柔軟に表示することを実現させ、現実シーンに需要を満たし、拡張現実データの表示効果を向上させる。
具体的な実施形態の上記方法において、各ステップの記述順番は、厳しい実行順番として実施過程を限定するものではなく、各ステップの具体的な実行順番はその機能及び考えられる内在的論理により決まることは、当業者であれば理解すべきである。
同様な構想によれば、本願の実施例は、拡張現実データ表示装置を更に提供する。図6は、本願の実施例による拡張現実データ表示装置のアーキテクチャを示す概略図である。該装置は、位置データ取得モジュール61と、表示データ決定モジュール62と、第1表示モジュール63と、を備え、具体的には、
位置データ取得モジュール61は、拡張現実AR機器の位置データを取得するように構成され、
表示データ決定モジュール62は、AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及びAR機器の位置データに基づいて、仮想対象の移動状態を含む表示データを決定するように構成され、
第1表示モジュール63は、AR機器により、表示データを含む拡張現実データを表示するように構成される。
考えられる実現形態において、表示データ決定モジュール62における仮想対象の移動位置は、
仮想対象の所定初期位置、仮想対象の所定終点位置、現在の移動状態における仮想対象の位置のうちの少なくとも1つを含む。
考えられる実現形態において、表示データ決定モジュール62における所定表示条件は、AR機器の位置データがターゲット領域範囲内にあることを含む。
考えられる実現形態において、表示データ決定モジュール62における所定表示条件は、AR機器の位置データがターゲット領域範囲内にあり、且つAR機器に関連付けられたユーザの属性情報が所定属性条件を満たすことを含む。
考えられる実現形態において、表示データ決定モジュール62による仮想対象の移動状態を含む表示データの決定は、
仮想対象の移動位置及びAR機器の位置データに基づいて、仮想対象の移動経路を取得することと、
移動経路、現実シーンとマッチングする三次元シーンモデルでの仮想対象の特殊効果データを利用して、仮想対象の移動状態を含む表示データを生成することと、を含む。
考えられる実現形態において、装置は、
AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、AR機器に関連付けられたユーザの属性情報に基づいて、属性情報とマッチングする仮想対象を決定するように構成される仮想対象マッチングモジュール64を更に備え、
表示データ決定モジュール62による仮想対象の移動状態を含む表示データの決定は、
属性情報とマッチングする仮想対象の移動位置を取得することと、
属性情報とマッチングする仮想対象の移動位置、AR機器の位置データに基づいて、仮想対象の移動状態を含む表示データを決定することと、を含む。
考えられる実現形態において、属性情報は、ユーザの年齢、ユーザの性別、ユーザの職業属性、ユーザにより事前設定された関心のある仮想対象情報のうちの少なくとも1つを含む。
同様な構想によれば、本願の実施例は、もう1つの拡張現実データ表示装置を更に提供する。図7は、本願の実施例によるもう1つの拡張現実データ表示装置のアーキテクチャを示す概略図である。該装置は、第1取得モジュール71と、第1決定モジュール72と、第2表示モジュール73と、を備え、具体的には、
第1取得モジュール71は、n個の第1拡張現実AR機器の位置データを取得するように構成され、nは正整数であり、
第1決定モジュール72は、n個の第1AR機器のうちのm個の第1AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及びm個の第1AR機器の位置データに基づいて、m個の第1AR機器とそれぞれマッチングする、仮想対象の移動状態を含む表示データを決定するように構成され、mは、n以下の正整数であり、
第2表示モジュール73は、m個の第1AR機器により、m個の第1AR機器とそれぞれマッチングする表示データの拡張現実データを表示するように構成される。
考えられる実現形態において、第1決定モジュール72における表示データは、仮想対象が移動経路に従って移動する過程において表される移動状態を含み、移動経路の経由地は、m個の第1AR機器の所在位置を含み、又は、移動経路の経由地は、m個の第1AR機器の所在位置との距離がそれぞれ所定距離範囲内にある位置点を含む。
考えられる実現形態において、装置は、
第2AR機器の位置データを取得するように構成される第2取得モジュール74と、
第2AR機器が所定表示条件を満たすことを検出した場合、現在の移動状態における仮想対象の位置、第2AR機器の位置データ、及びm個の第1AR機器のうち、移動経路を更新する前に経過していない第1AR機器の位置データに基づいて、仮想対象の移動状態を含む表示データを更新するように構成される第2決定モジュール75と、を更に備える。
幾つかの実施例において、本願の実施例で提供される装置が所持する機能又はモジュールは、上記方法実施例に記載の方法を実行するために用いられ、その具体的な実現形態は、上記方法実施例に関する説明を参照することができ、簡潔化を図るために、ここで、詳細な説明を省略する。
同様な技術的構想によれば、本願の実施例は第1電子機器を更に提供する。図8は、本願の実施例による第1電子機器の構造を示す概略図である。図8に示すように、第1電子機器800は、第1プロセッサ801と、第1メモリ802と、第1バス803と、を備える。ここで、第1メモリ802は、実行命令を記憶するように構成され、第1内部メモリ8021と、第1外部メモリ8022と、を備え、ここの第1内部メモリ8021は、内部メモリとも呼ばれ、第1プロセッサ801における演算データ、及びハードウェアなどの第1外部メモリ8022と交換されるデータを一時的に記憶するように構成され、第1プロセッサ801は、第1内部メモリ8021を介して第1外部メモリ8022とデータ交換を行う。
第1プロセッサ801は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、デジタル信号プロセッサ(Digital Signal Processor:DSP)、デジタル信号処理装置(Digital Signal Processing Device:DSPD)、プログラマブルロジックデバイス(Programmable Logic Device:PLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA)、コントローラ、マイクロコントローラのうちの少なくとも1つであってもよい。
第1内部メモリ8021又は第1外部メモリ8022は、例えば、スタティックランダムアクセスメモリ(Static Random-Access Memory:SRAM)、電気的消去可能なプログラマブル読出し専用メモリ(Electrically Erasable Programmable Read Only Memory:EEPROM)、消去可能なプログラマブル読出し専用メモリ(Electrical Programmable Read Only Memory,EPROM)、プログラミング可能な読み取り専用メモリ(Programmable Read-Only Memory:PROM)、読出し専用メモリ(Read-Only Memory:ROM)、磁気メモリ、フラッシュメモリ、磁気ディスク又は光ディスクのような、如何なるタイプの揮発性又は不揮発性記憶装置又はそれらの組み合わせにより実現してもよい。
第1電子機器800が実行される時、第1プロセッサ801と第1メモリ802とは、第1バス803を介して通信し、第1プロセッサ801に、
拡張現実AR機器の位置データを取得するという命令と、
AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及びAR機器の位置データに基づいて、仮想対象の移動状態を含む表示データを決定するという命令と、
AR機器により、表示データを含む拡張現実データを表示するという命令と、を実行させる。
第1プロセッサ801により実行される具体的な処理プロセスは、上記方法実施例又は対応する装置実施例における関連説明を参照されたい。ここで、詳細な説明を省略する。
同様な技術的構想によれば、本願の実施例は第2電子機器を更に提供する。図9は、本願の実施例による電子機器の構造を示す概略図である。図9に示すように、第2電子機器900は、第2プロセッサ901と、第2メモリ902と、第2バス903と、を備える。ここで、第2メモリ902は、実行命令を記憶するように構成され、第2内部メモリ9021と、第2外部メモリ9022と、を備え、ここの第2内部メモリ9021は、内部メモリとも呼ばれ、第2プロセッサ901における演算データ、及びハードウェアなどの第2外部メモリ9022と交換されるデータを一時的に記憶するように構成され、第2プロセッサ901は、第2内部メモリ9021を介して第2外部メモリ9022とデータ交換を行う。
第2プロセッサ901は、ASIC、DSP、DSPD、PLD、FPGA、コントローラ、マイクロコントローラ及びマイクロプロセッサのうちの少なくとも1つであってもよい。
第2内部メモリ9021又は第2外部メモリ9022は、SRAM、EEPROM、EPROM、PROM、ROM、磁気メモリ、フラッシュメモリ、磁気ディスク又は光ディスクのような、如何なるタイプの揮発性又は不揮発性記憶装置又はそれらの組み合わせにより実現してもよい。
第2電子機器900が実行される時、第2プロセッサ901と第2メモリ902とは、第2バス903を介して通信し、第2プロセッサ901に、
n個の第1拡張現実AR機器の位置データを取得する命令であって、nは正整数である、命令と、
n個の第1AR機器のうちのm個の第1AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及びm個の第1AR機器の位置データに基づいて、m個の第1AR機器とそれぞれマッチングする、仮想対象の移動状態を含む表示データを決定する命令であって、mは、n以下の正整数である、命令と、
m個の第1AR機器により、m個の第1AR機器とそれぞれマッチングする表示データの拡張現実データを表示する命令と、を実行させる。
第2プロセッサ901により実行される具体的な処理プロセスは、上記方法実施例又は対応する装置実施例における関連説明を参照されたい。ここで、詳細な説明を省略する。
本願の実施例は、コンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体にコンピュータプログラムが記憶されており、該コンピュータプログラムがプロセッサにより実行される時、上記方法実施例に記載の拡張現実データの表示方法を実行する。
本願の実施例は、コンピュータプログラムを更に提供する。コンピュータ可読記憶媒体は、プログラムコードを含み、前記プログラムコードに含まれる命令は、上記方法実施例に記載の拡張現実データの表示方法を実行するために用いられる。具体的には、上記方法実施例を参照することができ、ここで、詳細な説明を省略する。
便利で簡潔に説明するために、上記説明されたシステムと装置の具体的な作動過程は、前記方法実施例における過程を参照することができるから、ここで詳しく説明しないようにすることは、当業者にはっきり理解されるべきである。本願で提供される幾つかの実施例において、開示されるシステム、装置及び方法は、他の方式によって実現できることを理解すべきである。例えば、以上に記載した装置の実施例はただ例示的なもので、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。例えば、複数のユニット又は組立体を組み合わせてもよいし、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよいし、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、幾つかのインタフェース、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。
分離部材として説明したユニットは、物理的に別個のものであってもよいし、そうでなくてもよい。ユニットとして示された部材は、物理的ユニットであってもよいし、そうでなくてもよい。即ち、同一の位置に位置してもよいし、複数のネットワークユニットに分布してもよい。実際の需要に応じてそのうちの一部又は全てのユニットにより本実施例の方策の目的を実現することができる。
また、本発明の各実施例における各機能ユニットは一つの処理ユニットに集積されてもよいし、各ユニットが物理的に別個のものとして存在してもよいし、2つ以上のユニットが一つのユニットに集積されてもよい。
前記機能がソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、コンピュータにより読み取り可能な記憶媒体内に記憶されてもよい。このような理解のもと、本願の技術的解決手段は、本質的に、又は、従来技術に対して貢献をもたらした部分又は該技術的解決手段の一部は、ソフトウェア製品の形式で具現することができ、このようなコンピュータソフトウェア製品は、記憶媒体に記憶しても良く、また、コンピュータ機器(パーソナルコンピュータ、サーバ又はネットワーク装置など)に、本願の各実施例に記載の方法の全部又は一部のステップを実行させるための若干の命令を含む。前記の記憶媒体は、USBメモリ、リムーバブルハードディスク、読出し専用メモリ(Read-Only Memory:ROM)、ランダムアクセスメモリ(Random Access Memory:RAM)、磁気ディスク、又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含む。
上記は、本発明の具体的な実施形態だけであり、本発明の保護範囲はこれに限定されない。当業者であれば、本発明に開示された技術範囲内において、様々な均等物による修正又は置き換えを容易に想到し得る。これらの修正又は置き換えは、いずれも本発明の保護範囲内に含まれるべきである。従って、本発明の保護範囲は、特許請求の範囲の保護範囲に準すべきである。
本願の実施例は、拡張現実データの表示方法、装置、電子機器、記憶媒体及びプログラムを提供する。該方法は、拡張現実機器の位置データを取得することと、AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及びAR機器の位置データに基づいて、仮想対象の移動状態を含む表示データを決定することと、AR機器により、表示データを含む拡張現実データを表示することと、を含む。
本願の実施例は、コンピュータプログラムを更に提供する。前記コンピュータプログラムは、コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器で実行される時、前記電子機器におけるプロセッサは、上記いずれか1つの拡張現実データの表示方法を実行する。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
拡張現実データの表示方法であって、前記方法は、
拡張現実(AR)機器の位置データを取得することと、
前記AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することと、
前記AR機器により、前記表示データを含む拡張現実データを表示することと、を含む、拡張現実データの表示方法。
(項目2)
前記仮想対象の移動位置は、
前記仮想対象の所定初期位置、前記仮想対象の所定終点位置、現在の移動状態における前記仮想対象の位置のうちの少なくとも1つを含むことを特徴とする
項目1に記載の方法。
(項目3)
前記所定表示条件は、前記AR機器の位置データがターゲット領域範囲内にあることを含むことを特徴とする
項目1又は2に記載の方法。
(項目4)
前記所定表示条件は、前記AR機器の位置データが前記ターゲット領域範囲内にあり、且つ前記AR機器に関連付けられたユーザの属性情報が所定属性条件を満たすことを含むことを特徴とする
項目1又は2に記載の方法。
(項目5)
仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することは、
前記仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動経路を取得することと、
前記移動経路、及び前記現実シーンとマッチングする三次元シーンモデルにおける前記仮想対象の特殊効果データを利用して、前記仮想対象の移動状態を含む表示データを生成することと、を含むことを特徴とする
項目1から4のうちいずれか一項に記載の方法。
(項目6)
前記方法は、
前記AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、前記AR機器に関連付けられたユーザの属性情報に基づいて、前記属性情報とマッチングする仮想対象を決定することを更に含み、
仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することは、
前記属性情報とマッチングする仮想対象の移動位置を取得することと、
前記属性情報とマッチングする仮想対象の移動位置、及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することと、を含むことを特徴とする
項目1から5のうちいずれか一項に記載の方法。
(項目7)
前記属性情報は、ユーザの年齢、ユーザの性別、ユーザの職業属性、ユーザにより事前設定された関心のある仮想対象情報のうちの少なくとも1つを含むことを特徴とする
項目4又は6に記載の方法。
(項目8)
拡張現実データの表示方法であって、前記方法は、
n個の第1拡張現実(AR)機器の位置データを取得することであって、nは正整数である、ことと、
前記n個の第1AR機器のうちのm個の第1AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及び前記m個の第1AR機器の位置データに基づいて、前記m個の第1AR機器とそれぞれマッチングする、前記仮想対象の移動状態を含む表示データを決定することであって、mは、n以下の正整数である、ことと、
前記m個の第1AR機器により、前記m個の第1AR機器とそれぞれマッチングする表示データの拡張現実データを表示することと、を含む、拡張現実データの表示方法。
(項目9)
前記表示データは、前記仮想対象が移動経路に従って移動する過程において表される移動状態を含み、前記移動経路の経由地は、前記m個の第1AR機器の所在位置を含み、又は、前記移動経路の経由地は、m個の第1AR機器の所在位置との距離がそれぞれ所定距離範囲内にある位置点を含むことを特徴とする
項目8に記載の方法。
(項目10)
前記方法は、
第2AR機器の位置データを取得することと、
前記第2AR機器が前記所定表示条件を満たすことを検出した場合、現在の移動状態における前記仮想対象の位置、前記第2AR機器の位置データ、及び前記m個の第1AR機器のうち、移動経路を更新する前に経過していない第1AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを更新することと、を更に含むことを特徴とする
項目9に記載の方法。
(項目11)
拡張現実データ表示装置であって、前記装置は、
拡張現実(AR)機器の位置データを取得するように構成される位置データ取得モジュールと、
前記AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定するように構成される表示データ決定モジュールと、
前記AR機器により、前記表示データを含む拡張現実データを表示するように構成される第1表示モジュールと、を備える、拡張現実データ表示装置。
(項目12)
前記表示データ決定モジュールにおける前記仮想対象の移動位置は、
前記仮想対象の所定初期位置、前記仮想対象の所定終点位置、現在の移動状態における前記仮想対象の位置のうちの少なくとも1つを含むことを特徴とする
項目11に記載の装置。
(項目13)
前記表示データ決定モジュールにおける前記所定表示条件は、前記AR機器の位置データがターゲット領域範囲内にあることを含むことを特徴とする
項目11又は12に記載の装置。
(項目14)
前記表示データ決定モジュールにおける前記所定表示条件は、前記AR機器の位置データが前記ターゲット領域範囲内にあり、且つ前記AR機器に関連付けられたユーザの属性情報が所定属性条件を満たすことを含むことを特徴とする
項目11又は12に記載の装置。
(項目15)
前記表示データ決定モジュールによる前記仮想対象の移動状態を含む表示データの決定は、
前記仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動経路を取得することと、
前記移動経路、及び前記現実シーンとマッチングする三次元シーンモデルにおける前記仮想対象の特殊効果データを利用して、前記仮想対象の移動状態を含む表示データを生成することと、を含むことを特徴とする
項目11から14のうちいずれか一項に記載の装置。
(項目16)
前記装置は、
前記AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、前記AR機器に関連付けられたユーザの属性情報に基づいて、前記属性情報とマッチングする仮想対象を決定するように構成される仮想対象マッチングモジュールを更に備え、
前記表示データ決定モジュールによる前記仮想対象の移動状態を含む表示データの決定は、
前記属性情報とマッチングする仮想対象の移動位置を取得することと、
前記属性情報とマッチングする仮想対象の移動位置、及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することと、を含むことを特徴とする
項目11から15のうちいずれか一項に記載の装置。
(項目17)
前記属性情報は、ユーザの年齢、ユーザの性別、ユーザの職業属性、ユーザにより事前設定された関心のある仮想対象情報のうちの少なくとも1つを含むことを特徴とする
項目14又は16に記載の装置。
(項目18)
拡張現実データ表示装置であって、前記装置は、
n個の第1拡張現実(AR)機器の位置データを取得するように構成される第1取得モジュールであって、nは正整数である、第1取得モジュールと、
前記n個の第1AR機器のうちのm個の第1AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及び前記m個の第1AR機器の位置データに基づいて、前記m個の第1AR機器とそれぞれマッチングする、前記仮想対象の移動状態を含む表示データを決定するように構成される第1決定モジュールであって、mは、n以下の正整数である、第1決定モジュールと、
前記m個の第1AR機器により、前記m個の第1AR機器とそれぞれマッチングする表示データの拡張現実データを表示するように構成される第2表示モジュールと、を備える、拡張現実データ表示装置。
(項目19)
前記第1決定モジュールにおける前記表示データは、前記仮想対象が移動経路に従って移動する過程において表される移動状態を含み、前記移動経路の経由地は、前記m個の第1AR機器の所在位置を含み、又は、前記移動経路の経由地は、m個の第1AR機器の所在位置との距離がそれぞれ所定距離範囲内にある位置点を含むことを特徴とする
項目18に記載の装置。
(項目20)
前記装置は、
第2AR機器の位置データを取得するように構成される第2取得モジュールと、
前記第2AR機器が前記所定表示条件を満たすことを検出した場合、現在の移動状態における前記仮想対象の位置、前記第2AR機器の位置データ、及び前記m個の第1AR機器のうち、移動経路を更新する前に経過していない第1AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを更新するように構成される第2決定モジュールと、を更に備えることを特徴とする
項目19に記載の装置。
(項目21)
電子機器であって、前記電子機器は、プロセッサと、メモリと、バスと、を備え、前記メモリに、前記プロセッサによる実行可能な機器可読命令が記憶されており、前記電子機器が動作する時、前記プロセッサと前記メモリは、バスを介して通信し、前記機器可読命令が前記プロセッサにより実行される時、項目1から7のうちいずれか一項に記載の拡張現実データの表示方法を実行し、又は、前記機器可読命令が前記プロセッサにより実行される時、項目8から10のうちいずれか一項に記載の拡張現実データの表示方法を実行する、電子機器。
(項目22)
コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶されており、前記コンピュータプログラムがプロセッサにより実行される時、前記プロセッサに、項目1から7のうちいずれか一項に記載の拡張現実データの表示方法を実行させ、又は、前記コンピュータプログラムがプロセッサにより実行される時、前記プロセッサに、項目8から10のうちいずれか一項に記載の拡張現実データの表示方法を実行させる、コンピュータ可読記憶媒体。
(項目23)
コンピュータプログラムであって、前記コンピュータプログラムが電子機器で実行される時、前記電子機器におけるプロセッサに、項目1から7のうちいずれか一項に記載の拡張現実データの表示方法又は項目8から10のうちいずれか一項に記載の拡張現実データの表示方法を実行させる、コンピュータプログラム。

Claims (23)

  1. 拡張現実データの表示方法であって、前記方法は、
    拡張現実(AR)機器の位置データを取得することと、
    前記AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することと、
    前記AR機器により、前記表示データを含む拡張現実データを表示することと、を含む、拡張現実データの表示方法。
  2. 前記仮想対象の移動位置は、
    前記仮想対象の所定初期位置、前記仮想対象の所定終点位置、現在の移動状態における前記仮想対象の位置のうちの少なくとも1つを含むことを特徴とする
    請求項1に記載の方法。
  3. 前記所定表示条件は、前記AR機器の位置データがターゲット領域範囲内にあることを含むことを特徴とする
    請求項1又は2に記載の方法。
  4. 前記所定表示条件は、前記AR機器の位置データが前記ターゲット領域範囲内にあり、且つ前記AR機器に関連付けられたユーザの属性情報が所定属性条件を満たすことを含むことを特徴とする
    請求項1又は2に記載の方法。
  5. 仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することは、
    前記仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動経路を取得することと、
    前記移動経路、及び前記現実シーンとマッチングする三次元シーンモデルにおける前記仮想対象の特殊効果データを利用して、前記仮想対象の移動状態を含む表示データを生成することと、を含むことを特徴とする
    請求項1から4のうちいずれか一項に記載の方法。
  6. 前記方法は、
    前記AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、前記AR機器に関連付けられたユーザの属性情報に基づいて、前記属性情報とマッチングする仮想対象を決定することを更に含み、
    仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することは、
    前記属性情報とマッチングする仮想対象の移動位置を取得することと、
    前記属性情報とマッチングする仮想対象の移動位置、及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することと、を含むことを特徴とする
    請求項1から5のうちいずれか一項に記載の方法。
  7. 前記属性情報は、ユーザの年齢、ユーザの性別、ユーザの職業属性、ユーザにより事前設定された関心のある仮想対象情報のうちの少なくとも1つを含むことを特徴とする
    請求項4又は6に記載の方法。
  8. 拡張現実データの表示方法であって、前記方法は、
    n個の第1拡張現実(AR)機器の位置データを取得することであって、nは正整数である、ことと、
    前記n個の第1AR機器のうちのm個の第1AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及び前記m個の第1AR機器の位置データに基づいて、前記m個の第1AR機器とそれぞれマッチングする、前記仮想対象の移動状態を含む表示データを決定することであって、mは、n以下の正整数である、ことと、
    前記m個の第1AR機器により、前記m個の第1AR機器とそれぞれマッチングする表示データの拡張現実データを表示することと、を含む、拡張現実データの表示方法。
  9. 前記表示データは、前記仮想対象が移動経路に従って移動する過程において表される移動状態を含み、前記移動経路の経由地は、前記m個の第1AR機器の所在位置を含み、又は、前記移動経路の経由地は、m個の第1AR機器の所在位置との距離がそれぞれ所定距離範囲内にある位置点を含むことを特徴とする
    請求項8に記載の方法。
  10. 前記方法は、
    第2AR機器の位置データを取得することと、
    前記第2AR機器が前記所定表示条件を満たすことを検出した場合、現在の移動状態における前記仮想対象の位置、前記第2AR機器の位置データ、及び前記m個の第1AR機器のうち、移動経路を更新する前に経過していない第1AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを更新することと、を更に含むことを特徴とする
    請求項9に記載の方法。
  11. 拡張現実データ表示装置であって、前記装置は、
    拡張現実(AR)機器の位置データを取得するように構成される位置データ取得モジュールと、
    前記AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定するように構成される表示データ決定モジュールと、
    前記AR機器により、前記表示データを含む拡張現実データを表示するように構成される第1表示モジュールと、を備える、拡張現実データ表示装置。
  12. 前記表示データ決定モジュールにおける前記仮想対象の移動位置は、
    前記仮想対象の所定初期位置、前記仮想対象の所定終点位置、現在の移動状態における前記仮想対象の位置のうちの少なくとも1つを含むことを特徴とする
    請求項11に記載の装置。
  13. 前記表示データ決定モジュールにおける前記所定表示条件は、前記AR機器の位置データがターゲット領域範囲内にあることを含むことを特徴とする
    請求項11又は12に記載の装置。
  14. 前記表示データ決定モジュールにおける前記所定表示条件は、前記AR機器の位置データが前記ターゲット領域範囲内にあり、且つ前記AR機器に関連付けられたユーザの属性情報が所定属性条件を満たすことを含むことを特徴とする
    請求項11又は12に記載の装置。
  15. 前記表示データ決定モジュールによる前記仮想対象の移動状態を含む表示データの決定は、
    前記仮想対象の移動位置及び前記AR機器の位置データに基づいて、前記仮想対象の移動経路を取得することと、
    前記移動経路、及び前記現実シーンとマッチングする三次元シーンモデルにおける前記仮想対象の特殊効果データを利用して、前記仮想対象の移動状態を含む表示データを生成することと、を含むことを特徴とする
    請求項11から14のうちいずれか一項に記載の装置。
  16. 前記装置は、
    前記AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、前記AR機器に関連付けられたユーザの属性情報に基づいて、前記属性情報とマッチングする仮想対象を決定するように構成される仮想対象マッチングモジュールを更に備え、
    前記表示データ決定モジュールによる前記仮想対象の移動状態を含む表示データの決定は、
    前記属性情報とマッチングする仮想対象の移動位置を取得することと、
    前記属性情報とマッチングする仮想対象の移動位置、及び前記AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを決定することと、を含むことを特徴とする
    請求項11から15のうちいずれか一項に記載の装置。
  17. 前記属性情報は、ユーザの年齢、ユーザの性別、ユーザの職業属性、ユーザにより事前設定された関心のある仮想対象情報のうちの少なくとも1つを含むことを特徴とする
    請求項14又は16に記載の装置。
  18. 拡張現実データ表示装置であって、前記装置は、
    n個の第1拡張現実(AR)機器の位置データを取得するように構成される第1取得モジュールであって、nは正整数である、第1取得モジュールと、
    前記n個の第1AR機器のうちのm個の第1AR機器が仮想対象の表示をトリガする所定表示条件を満たすことを検出した場合、仮想対象の移動位置及び前記m個の第1AR機器の位置データに基づいて、前記m個の第1AR機器とそれぞれマッチングする、前記仮想対象の移動状態を含む表示データを決定するように構成される第1決定モジュールであって、mは、n以下の正整数である、第1決定モジュールと、
    前記m個の第1AR機器により、前記m個の第1AR機器とそれぞれマッチングする表示データの拡張現実データを表示するように構成される第2表示モジュールと、を備える、拡張現実データ表示装置。
  19. 前記第1決定モジュールにおける前記表示データは、前記仮想対象が移動経路に従って移動する過程において表される移動状態を含み、前記移動経路の経由地は、前記m個の第1AR機器の所在位置を含み、又は、前記移動経路の経由地は、m個の第1AR機器の所在位置との距離がそれぞれ所定距離範囲内にある位置点を含むことを特徴とする
    請求項18に記載の装置。
  20. 前記装置は、
    第2AR機器の位置データを取得するように構成される第2取得モジュールと、
    前記第2AR機器が前記所定表示条件を満たすことを検出した場合、現在の移動状態における前記仮想対象の位置、前記第2AR機器の位置データ、及び前記m個の第1AR機器のうち、移動経路を更新する前に経過していない第1AR機器の位置データに基づいて、前記仮想対象の移動状態を含む表示データを更新するように構成される第2決定モジュールと、を更に備えることを特徴とする
    請求項19に記載の装置。
  21. 電子機器であって、前記電子機器は、プロセッサと、メモリと、バスと、を備え、前記メモリに、前記プロセッサによる実行可能な機器可読命令が記憶されており、前記電子機器が動作する時、前記プロセッサと前記メモリは、バスを介して通信し、前記機器可読命令が前記プロセッサにより実行される時、請求項1から7のうちいずれか一項に記載の拡張現実データの表示方法を実行し、又は、前記機器可読命令が前記プロセッサにより実行される時、請求項8から10のうちいずれか一項に記載の拡張現実データの表示方法を実行する、電子機器。
  22. コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶されており、前記コンピュータプログラムがプロセッサにより実行される時、前記プロセッサに、請求項1から7のうちいずれか一項に記載の拡張現実データの表示方法を実行させ、又は、前記コンピュータプログラムがプロセッサにより実行される時、前記プロセッサに、請求項8から10のうちいずれか一項に記載の拡張現実データの表示方法を実行させる、コンピュータ可読記憶媒体。
  23. コンピュータプログラムであって、前記コンピュータプログラムが電子機器で実行される時、前記電子機器におけるプロセッサに、請求項1から7のうちいずれか一項に記載の拡張現実データの表示方法又は請求項8から10のうちいずれか一項に記載の拡張現実データの表示方法を実行させる、コンピュータプログラム。
JP2020572499A 2019-10-15 2020-08-27 拡張現実データの表示方法、装置、機器、記憶媒体及びプログラム Pending JP2022505002A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910979898.4A CN110764614B (zh) 2019-10-15 2019-10-15 增强现实数据呈现方法、装置、设备及存储介质
CN201910979898.4 2019-10-15
PCT/CN2020/111890 WO2021073269A1 (zh) 2019-10-15 2020-08-27 增强现实数据呈现方法、装置、设备、存储介质和程序

Publications (1)

Publication Number Publication Date
JP2022505002A true JP2022505002A (ja) 2022-01-14

Family

ID=75383791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020572499A Pending JP2022505002A (ja) 2019-10-15 2020-08-27 拡張現実データの表示方法、装置、機器、記憶媒体及びプログラム

Country Status (2)

Country Link
US (1) US20210110617A1 (ja)
JP (1) JP2022505002A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228856A1 (ja) * 2022-05-23 2023-11-30 株式会社Nttドコモ 仮想オブジェクトデータ選択装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11213179A (ja) * 1998-01-23 1999-08-06 Sony Corp 共有仮想空間提供装置および方法、並びに提供媒体
JP2010155052A (ja) * 2008-12-04 2010-07-15 Copcom Co Ltd ゲームプログラム、記憶媒体およびコンピュータ
JP2012212225A (ja) * 2011-03-30 2012-11-01 Nifty Corp 情報処理装置、方法およびプログラム
JP2012213587A (ja) * 2011-03-28 2012-11-08 Copcom Co Ltd ゲームプログラム及びゲームシステム
JP2014174589A (ja) * 2013-03-06 2014-09-22 Mega Chips Corp 拡張現実システム、プログラムおよび拡張現実提供方法
JP2018124926A (ja) * 2017-02-03 2018-08-09 Kddi株式会社 端末装置、端末装置の制御方法、コンピュータプログラム
JP2018200519A (ja) * 2017-05-26 2018-12-20 株式会社テクテック 拡張現実表示システム、プログラム及び方法
JP2019139425A (ja) * 2018-02-08 2019-08-22 株式会社バンダイナムコスタジオ シミュレーションシステム及びプログラム
JP2021514775A (ja) * 2018-03-05 2021-06-17 ソニー・インタラクティブエンタテインメント エルエルシー 現実世界の仮想現実マップを用いた仮想現実(vr)ゲーム環境の構築

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11213179A (ja) * 1998-01-23 1999-08-06 Sony Corp 共有仮想空間提供装置および方法、並びに提供媒体
JP2010155052A (ja) * 2008-12-04 2010-07-15 Copcom Co Ltd ゲームプログラム、記憶媒体およびコンピュータ
JP2012213587A (ja) * 2011-03-28 2012-11-08 Copcom Co Ltd ゲームプログラム及びゲームシステム
JP2012212225A (ja) * 2011-03-30 2012-11-01 Nifty Corp 情報処理装置、方法およびプログラム
JP2014174589A (ja) * 2013-03-06 2014-09-22 Mega Chips Corp 拡張現実システム、プログラムおよび拡張現実提供方法
JP2018124926A (ja) * 2017-02-03 2018-08-09 Kddi株式会社 端末装置、端末装置の制御方法、コンピュータプログラム
JP2018200519A (ja) * 2017-05-26 2018-12-20 株式会社テクテック 拡張現実表示システム、プログラム及び方法
JP2019139425A (ja) * 2018-02-08 2019-08-22 株式会社バンダイナムコスタジオ シミュレーションシステム及びプログラム
JP2021514775A (ja) * 2018-03-05 2021-06-17 ソニー・インタラクティブエンタテインメント エルエルシー 現実世界の仮想現実マップを用いた仮想現実(vr)ゲーム環境の構築

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228856A1 (ja) * 2022-05-23 2023-11-30 株式会社Nttドコモ 仮想オブジェクトデータ選択装置

Also Published As

Publication number Publication date
US20210110617A1 (en) 2021-04-15

Similar Documents

Publication Publication Date Title
CN110764614B (zh) 增强现实数据呈现方法、装置、设备及存储介质
KR102417645B1 (ko) Ar 장면 이미지 처리 방법, 장치, 전자 기기 및 저장 매체
WO2021073268A1 (zh) 一种增强现实数据呈现方法、装置、电子设备及存储介质
KR102185804B1 (ko) 혼합 현실 필터링
US20150097767A1 (en) System for virtual experience book and method thereof
JP2022505998A (ja) 拡張現実データの提示方法、装置、電子機器及び記憶媒体
US11227437B2 (en) Three-dimensional model constructing method, apparatus, and system
TWI783472B (zh) Ar場景內容的生成方法、展示方法、電子設備及電腦可讀儲存介質
KR20210131415A (ko) 인터렉티브 방법, 장치, 디바이스 및 기록 매체
US11887224B2 (en) Method, apparatus, and computer program for completing painting of image, and method, apparatus, and computer program for training artificial neural network
JP7150894B2 (ja) Arシーン画像処理方法及び装置、電子機器並びに記憶媒体
CN113487709A (zh) 一种特效展示方法、装置、计算机设备以及存储介质
CN112330819A (zh) 基于虚拟物品的交互方法、装置及存储介质
KR20210129714A (ko) 인터렉티브 방법, 장치, 디바이스 및 기록 매체
WO2015038444A2 (en) Strength based modeling for recommendation system
US11978232B2 (en) Method for displaying three-dimensional augmented reality
CN111693063A (zh) 导航互动展示方法、装置、电子设备及存储介质
JP2022505002A (ja) 拡張現実データの表示方法、装置、機器、記憶媒体及びプログラム
CN113220123A (zh) 一种音效控制的方法、装置、电子设备及存储介质
KR102167588B1 (ko) 복수의 사용자 장치를 기반으로 동영상을 생성하는 컨텐츠 생성 서비스 장치, 복수의 사용자 장치를 기반으로 동영상을 생성하는 방법 및 컴퓨터 프로그램이 기록된 기록매체
CN116704607B (zh) 一种3d数字人的行为数据挖掘方法及系统
CN114693848B (zh) 一种生成二维动画的方法、装置、电子设备及介质
KR20220111346A (ko) 경기 영상으로부터 타겟 영상 생성 시 불필요한 영상을 제거하기 위한 컴퓨터 시스템 및 그의 방법
CN113362474A (zh) 增强现实数据展示方法、装置、电子设备及存储介质
CN116736983A (zh) 一种切换视频区块的方法、装置、设备和可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220512

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220523