JP2022505998A - 拡張現実データの提示方法、装置、電子機器及び記憶媒体 - Google Patents
拡張現実データの提示方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP2022505998A JP2022505998A JP2020573244A JP2020573244A JP2022505998A JP 2022505998 A JP2022505998 A JP 2022505998A JP 2020573244 A JP2020573244 A JP 2020573244A JP 2020573244 A JP2020573244 A JP 2020573244A JP 2022505998 A JP2022505998 A JP 2022505998A
- Authority
- JP
- Japan
- Prior art keywords
- data
- augmented reality
- real scene
- target
- reality data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 191
- 238000000034 method Methods 0.000 title claims abstract description 95
- 230000000694 effects Effects 0.000 claims abstract description 150
- 230000015654 memory Effects 0.000 claims description 19
- 230000008921 facial expression Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 10
- 238000003062 neural network model Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 235000013361 beverage Nutrition 0.000 description 18
- 238000010586 diagram Methods 0.000 description 10
- 230000003993 interaction Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
現実シーンデータを取得することと、
前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別し、前記属性情報に一致する仮想対象の特殊効果データを決定することと、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データを含む拡張現実データを拡張現実(AR)機器に表示することとを含む。
前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別する前に、前記方法は、
現実シーンにおける前記AR機器のポーズデータを検出することであって、前記ポーズデータは、現実シーンにおける前記AR機器の位置情報および/または撮影角度を含むことと、
前記現実シーン画像に表示された少なくとも1つのエンティティオブジェクトのうち、前記ポーズデータに一致するターゲットエンティティオブジェクトを決定することとをさらに含む。
撮影された参照エンティティオブジェクトの姿勢を識別することと、
前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを取得することと、
現在前記AR機器に表示されている拡張現実データを第1目標拡張現実データに更新することであって、前記第1目標拡張現実データは、前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを含むこととをさらに含む。
現実シーンにおける前記AR機器の位置情報と前記現実シーンにおける前記仮想対象の対応する位置情報との間の距離を検出することと、
前記距離がプリセットの距離範囲内である場合に、撮影された参照エンティティオブジェクトの姿勢を識別することとを含む。
事前にトレーニングされたニューラルネットワークモデルに基づいて、取得された現実シーン画像に対して姿勢識別処理を実行して、前記現実シーン画像に表示された前記参照エンティティオブジェクトの姿勢を取得することを含む。
前記AR機器に作用するトリガ操作に応答することと、
前記トリガ操作に一致する仮想対象の特殊効果データを取得することと、
現在前記AR機器に表示されている拡張現実データを第2目標拡張現実データに更新することであって、前記第2目標拡張現実データは、前記トリガ操作に一致する仮想対象の特殊効果データを含むこととさらにを含む。
ナビゲーション要求に応答して、現実シーンにおける前記AR機器の現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を取得することと、
前記現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を使用して、ナビゲーションルートを生成することであって、前記ナビゲーションルート内のウェイポイントは、現実シーンにおける前記仮想対象の位置を含むことと、
前記ナビゲーションルートの指示データを含む拡張現実データを前記AR機器に表示することと、さらにを含む、
請求項1ないし8のいずれか一項に記載の拡張現実データの提示方法。
前記属性情報に一致する仮想対象の特殊効果データを決定することは、
現実シーンにおける前記AR機器のポーズデータを取得することと、
現実シーンにおける前記AR機器のポーズデータおよび現実シーンを表すための3次元シーンモデルにおける前記仮想対象のポーズデータに基づいて、前記属性情報に一致する前記仮想対象の特殊効果データを決定することとを含む。
現実シーンデータを取得し、前記現実シーンデータを識別部に伝送するように構成される取得部と、
前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別し、前記属性情報に一致する仮想対象の特殊効果データを決定し、前記仮想対象の特殊効果データを表示部に伝送するように構成される識別部と、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データを含む拡張現実データを拡張現実(AR)機器に表示するように構成される表示部とを備える。
前記識別部は、さらに、前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別する前に、現実シーンにおける前記AR機器のポーズデータを検出し、前記ポーズデータは、現実シーンにおける前記AR機器の位置情報および/または撮影角度を含み、前記現実シーン画像に表示された少なくとも1つのエンティティオブジェクトのうち、前記ポーズデータに一致するターゲットエンティティオブジェクトを決定するように構成される。
撮影された参照エンティティオブジェクトの姿勢を識別し、
前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを取得し、
現在前記AR機器に表示されている拡張現実データを第1目標拡張現実データに更新するように構成され、前記第1目標拡張現実データは、前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを含む。
現実シーンにおける前記AR機器の位置情報と前記現実シーンにおける前記仮想対象の対応する位置情報との間の距離を検出し、
前記距離がプリセットの距離範囲内である場合に、撮影された参照エンティティオブジェクトの姿勢を識別するように構成される。
事前にトレーニングされたニューラルネットワークモデルに基づいて、取得された現実シーン画像に対して姿勢識別処理を実行して、前記現実シーン画像に表示された前記参照エンティティオブジェクトの姿勢を取得するように構成される。
前記AR機器に作用するトリガ操作に応答し、
前記トリガ操作に一致する仮想対象の特殊効果データを取得し、
現在前記AR機器に表示されている拡張現実データを第2目標拡張現実データに更新するように構成され、前記第2目標拡張現実データは、前記トリガ操作に一致する仮想対象の特殊効果データを含む。
ナビゲーション要求に応答して、現実シーンにおける前記AR機器の現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を取得し、
前記現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を使用して、ナビゲーションルートを生成し、前記ナビゲーションルート内のウェイポイントは、現実シーンにおける前記仮想対象の位置を含み、
前記ナビゲーションルートの指示データを含む拡張現実データを前記AR機器に表示するように構成される。
前記識別部は、さらに、
現実シーンにおける前記AR機器のポーズデータを取得し、
現実シーンにおける前記AR機器のポーズデータおよび現実シーンを表すための3次元シーンモデルにおける前記仮想対象のポーズデータに基づいて、前記属性情報に一致する前記仮想対象の特殊効果データを決定するように構成される。
取得部701は、現実シーンデータを取得し、前記現実シーンデータを識別部702に伝送するように構成され、
識別部702は、前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別し、前記属性情報に一致する仮想対象の特殊効果データを決定するように構成され、前記仮想対象の特殊効果データを表示部703に伝送する。
前記識別部702は、さらに、前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別する前に、現実シーンにおける前記AR機器のポーズデータを検出し、前記ポーズデータは、現実シーンにおける前記AR機器の位置情報および/または撮影角度を含み、前記現実シーン画像に表示された少なくとも1つのエンティティオブジェクトのうち、前記ポーズデータに一致するターゲットエンティティオブジェクトを決定するように構成される。
撮影された参照エンティティオブジェクトの姿勢を識別し、
前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを取得し、
現在前記AR機器に表示されている拡張現実データを第1目標拡張現実データに更新するように構成され、前記第1目標拡張現実データは、前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを含む。
現実シーンにおける前記AR機器の位置情報と前記現実シーンにおける前記仮想対象の対応する位置情報との間の距離を検出し、
前記距離がプリセットの距離範囲内である場合に、撮影された参照エンティティオブジェクトの姿勢を識別するように構成される。
事前にトレーニングされたニューラルネットワークモデルに基づいて、取得された現実シーン画像に対して姿勢識別処理を実行して、前記現実シーン画像に表示された前記参照エンティティオブジェクトの姿勢を取得するように構成される。
前記AR機器に作用するトリガ操作に応答し、
前記トリガ操作に一致する仮想対象の特殊効果データを取得し、
現在前記AR機器に表示されている拡張現実データを第2目標拡張現実データに更新するように構成され、前記第2目標拡張現実データは、前記トリガ操作に一致する仮想対象の特殊効果データを含む。
ナビゲーション要求に応答して、現実シーンにおける前記AR機器の現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を取得し、
前記現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を使用して、ナビゲーションルートを生成し、前記ナビゲーションルート内のウェイポイントは、現実シーンにおける前記仮想対象の位置を含み、
前記ナビゲーションルートの指示データを含む拡張現実データを前記AR機器に表示するように構成される。
現実シーンにおける前記AR機器のポーズデータを取得し、
現実シーンにおける前記AR機器のポーズデータおよび現実シーンを表すための3次元シーンモデルにおける前記仮想対象のポーズデータに基づいて、前記属性情報に一致する前記仮想対象の特殊効果データを決定するように構成される。
現実シーンデータを取得する命令と、
前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別し、前記属性情報に一致する仮想対象の特殊効果データを決定する命令と、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データを含む拡張現実データを拡張現実(AR)機器に表示する命令を実行するようにする。
例えば、本願は以下の項目を提供する。
(項目1)
拡張現実データの提示方法であって、
現実シーンデータを取得することと、
前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別し、前記属性情報に一致する仮想対象の特殊効果データを決定することと、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データを含む拡張現実データを拡張現実(AR)機器に表示することと、を含む、前記拡張現実データの提示方法。
(項目2)
前記現実シーンデータは、現実シーン画像を含み、
前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別する前に、前記方法は、
現実シーンにおける前記AR機器のポーズデータを検出することであって、前記ポーズデータは、現実シーンにおける前記AR機器の位置情報および/または撮影角度を含むことと、
前記現実シーン画像に表示された少なくとも1つのエンティティオブジェクトのうち、前記ポーズデータに一致するターゲットエンティティオブジェクトを決定することと、を含む、
項目1に記載の拡張現実データの提示方法。
(項目3)
前記拡張現実データの提示方法は、
撮影された参照エンティティオブジェクトの姿勢を識別することと、
前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを取得することと、
現在前記AR機器に表示されている拡張現実データを第1目標拡張現実データに更新することであって、前記第1目標拡張現実データは、前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを含むことと、をさらに含む、
項目1または2に記載の拡張現実データの提示方法。
(項目4)
前記参照エンティティオブジェクトの姿勢は、顔の表情および体の動きのうちの少なくとも1つを含む、
項目3に記載の拡張現実データの提示方法。
(項目5)
前記撮影された参照エンティティオブジェクトの姿勢を識別することは、
現実シーンにおける前記AR機器の位置情報と前記現実シーンにおける前記仮想対象の対応する位置情報との間の距離を検出することと、
前記距離がプリセットの距離範囲内である場合に、撮影された参照エンティティオブジェクトの姿勢を識別することと、を含む、
項目3または4に記載の拡張現実データの提示方法。
(項目6)
前記撮影された参照エンティティオブジェクトの姿勢を識別することは、
事前にトレーニングされたニューラルネットワークモデルに基づいて、取得された現実シーン画像に対して姿勢識別処理を実行して、前記現実シーン画像に表示された前記参照エンティティオブジェクトの姿勢を取得することを含む、
項目3ないし5のいずれか一項に記載の拡張現実データの提示方法。
(項目7)
前記拡張現実データの提示方法は、
前記AR機器に作用するトリガ操作に応答することと、
前記トリガ操作に一致する仮想対象の特殊効果データを取得することと、
現在前記AR機器に表示されている拡張現実データを第2目標拡張現実データに更新することであって、前記第2目標拡張現実データは、前記トリガ操作に一致する仮想対象の特殊効果データを含むことと、さらにを含む、
項目1ないし6のいずれか一項に記載の拡張現実データの提示方法。
(項目8)
前記トリガ操作は、前記AR機器の画面に作用する操作、音声入力および前記AR機器のポーズの変更のうちの少なくとも1つを含む、
項目7に記載の拡張現実データの提示方法。
(項目9)
前記拡張現実データの提示方法は、
ナビゲーション要求に応答して、現実シーンにおける前記AR機器の現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を取得することと、
前記現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を使用して、ナビゲーションルートを生成することであって、前記ナビゲーションルート内のウェイポイントは、現実シーンにおける前記仮想対象の位置を含むことと、
前記ナビゲーションルートの指示データを含む拡張現実データを前記AR機器に表示することと、さらにを含む、
項目1ないし8のいずれか一項に記載の拡張現実データの提示方法。
(項目10)
前記属性情報に一致する仮想対象の特殊効果データを決定することは、
現実シーンにおける前記AR機器のポーズデータを取得することと、
現実シーンにおける前記AR機器のポーズデータおよび現実シーンを表すための3次元シーンモデルにおける前記仮想対象のポーズデータに基づいて、前記属性情報に一致する前記仮想対象の特殊効果データを決定することと、を含む、
項目1ないし9のいずれか一項に記載の拡張現実データの提示方法。
(項目11)
拡張現実データの提示装置であって、
現実シーンデータを取得し、前記現実シーンデータを識別部に伝送するように構成される取得部と、
前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別し、前記属性情報に一致する仮想対象の特殊効果データを決定し、前記仮想対象の特殊効果データを表示部に伝送するように構成される識別部と、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データを含む拡張現実データを拡張現実(AR)機器に表示するように構成される表示部と、を備える、前記拡張現実データの提示装置。
(項目12)
前記現実シーンデータは、現実シーン画像を含み、前記識別部は、さらに、
前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別する前に、現実シーンにおける前記AR機器のポーズデータを検出し、ここで、前記ポーズデータは、現実シーンにおける前記AR機器の位置情報および/または撮影角度を含み、
前記現実シーン画像に表示された少なくとも1つのエンティティオブジェクトのうち、前記ポーズデータに一致するターゲットエンティティオブジェクトを決定するように構成される、
項目11に記載の拡張現実データの提示装置。
(項目13)
前記表示部は、さらに、
撮影された参照エンティティオブジェクトの姿勢を識別し、
前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを取得し、
現在前記AR機器に表示されている拡張現実データを第1目標拡張現実データに更新するように構成され、前記第1目標拡張現実データは、前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを含む、
項目11または12に記載の拡張現実データの提示装置。
(項目14)
前記参照エンティティオブジェクトの姿勢は、顔の表情および体の動きのうちの少なくとも1つを含む、
項目13に記載の拡張現実データの提示装置。
(項目15)
前記表示部は、さらに、
現実シーンにおける前記AR機器の位置情報と前記現実シーンにおける前記仮想対象の対応する位置情報との間の距離を検出し、
前記距離がプリセットの距離範囲内である場合に、撮影された参照エンティティオブジェクトの姿勢を識別するように構成される、
項目13または14に記載の拡張現実データの提示装置。
(項目16)
前記表示部は、さらに、
事前にトレーニングされたニューラルネットワークモデルに基づいて、取得された現実シーン画像に対して姿勢識別処理を実行して、前記現実シーン画像に表示された前記参照エンティティオブジェクトの姿勢を取得するように構成される、
項目13または15のいずれか一項に記載の拡張現実データの提示装置。
(項目17)
前記表示部は、さらに、
前記AR機器に作用するトリガ操作に応答し、
前記トリガ操作に一致する仮想対象の特殊効果データを取得し、
現在前記AR機器に表示されている拡張現実データを第2目標拡張現実データに更新するように構成され、前記第2目標拡張現実データは、前記トリガ操作に一致する仮想対象の特殊効果データを含む、
項目11ないし16のいずれか一項に記載の拡張現実データの提示装置。
(項目18)
前記トリガ操作は、前記AR機器の画面に作用する操作、音声入力および前記AR機器のポーズの変更のうちの少なくとも1つを含む、
項目17に記載の拡張現実データの提示装置。
(項目19)
前記装置はナビゲーション部をさらに備え、前記ナビゲーション部は、
ナビゲーション要求に応答して、現実シーンにおける前記AR機器の現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を取得し、
前記現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を使用して、ナビゲーションルートを生成し、ここで、前記ナビゲーションルート内のウェイポイントは、現実シーンにおける前記仮想対象の位置を含み、
前記ナビゲーションルートの指示データを含む拡張現実データを前記AR機器に表示するように構成される、
項目11ないし18のいずれか一項に記載の拡張現実データの提示装置。
(項目20)
前記識別部は、さらに、
現実シーンにおける前記AR機器のポーズデータを取得し、
現実シーンにおける前記AR機器のポーズデータおよび現実シーンを表すための3次元シーンモデルにおける前記仮想対象のポーズデータに基づいて、前記属性情報に一致する前記仮想対象の特殊効果データを決定するように構成される、
項目11ないし19のいずれか一項に記載の拡張現実データの提示装置。
(項目21)
電子機器であって、
プロセッサ、メモリおよびバスを備え、前記メモリは、前記プロセッサによって実行可能な機械可読命令を記憶し、電子機器が実行される場合、前記プロセッサはバスを介して前記メモリと通信し、前記機械可読命令が前記プロセッサによって実行されるときに、項目1ないし10のいずれか一項に記載の拡張現実データの提示方法のステップを実行する、前記電子機器。
(項目22)
コンピュータプログラムが記憶される、コンピュータ可読記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行されるときに、項目1ないし10のいずれか一項に記載の拡張現実データの提示方法のステップを実行することを特徴とする、前記コンピュータ可読記憶媒体。
Claims (22)
- 拡張現実データの提示方法であって、
現実シーンデータを取得することと、
前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別し、前記属性情報に一致する仮想対象の特殊効果データを決定することと、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データを含む拡張現実データを拡張現実(AR)機器に表示することと、を含む、前記拡張現実データの提示方法。 - 前記現実シーンデータは、現実シーン画像を含み、
前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別する前に、前記方法は、
現実シーンにおける前記AR機器のポーズデータを検出することであって、前記ポーズデータは、現実シーンにおける前記AR機器の位置情報および/または撮影角度を含むことと、
前記現実シーン画像に表示された少なくとも1つのエンティティオブジェクトのうち、前記ポーズデータに一致するターゲットエンティティオブジェクトを決定することと、を含む、
請求項1に記載の拡張現実データの提示方法。 - 前記拡張現実データの提示方法は、
撮影された参照エンティティオブジェクトの姿勢を識別することと、
前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを取得することと、
現在前記AR機器に表示されている拡張現実データを第1目標拡張現実データに更新することであって、前記第1目標拡張現実データは、前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを含むことと、をさらに含む、
請求項1または2に記載の拡張現実データの提示方法。 - 前記参照エンティティオブジェクトの姿勢は、顔の表情および体の動きのうちの少なくとも1つを含む、
請求項3に記載の拡張現実データの提示方法。 - 前記撮影された参照エンティティオブジェクトの姿勢を識別することは、
現実シーンにおける前記AR機器の位置情報と前記現実シーンにおける前記仮想対象の対応する位置情報との間の距離を検出することと、
前記距離がプリセットの距離範囲内である場合に、撮影された参照エンティティオブジェクトの姿勢を識別することと、を含む、
請求項3または4に記載の拡張現実データの提示方法。 - 前記撮影された参照エンティティオブジェクトの姿勢を識別することは、
事前にトレーニングされたニューラルネットワークモデルに基づいて、取得された現実シーン画像に対して姿勢識別処理を実行して、前記現実シーン画像に表示された前記参照エンティティオブジェクトの姿勢を取得することを含む、
請求項3ないし5のいずれか一項に記載の拡張現実データの提示方法。 - 前記拡張現実データの提示方法は、
前記AR機器に作用するトリガ操作に応答することと、
前記トリガ操作に一致する仮想対象の特殊効果データを取得することと、
現在前記AR機器に表示されている拡張現実データを第2目標拡張現実データに更新することであって、前記第2目標拡張現実データは、前記トリガ操作に一致する仮想対象の特殊効果データを含むことと、さらにを含む、
請求項1ないし6のいずれか一項に記載の拡張現実データの提示方法。 - 前記トリガ操作は、前記AR機器の画面に作用する操作、音声入力および前記AR機器のポーズの変更のうちの少なくとも1つを含む、
請求項7に記載の拡張現実データの提示方法。 - 前記拡張現実データの提示方法は、
ナビゲーション要求に応答して、現実シーンにおける前記AR機器の現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を取得することと、
前記現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を使用して、ナビゲーションルートを生成することであって、前記ナビゲーションルート内のウェイポイントは、現実シーンにおける前記仮想対象の位置を含むことと、
前記ナビゲーションルートの指示データを含む拡張現実データを前記AR機器に表示することと、さらにを含む、
請求項1ないし8のいずれか一項に記載の拡張現実データの提示方法。 - 前記属性情報に一致する仮想対象の特殊効果データを決定することは、
現実シーンにおける前記AR機器のポーズデータを取得することと、
現実シーンにおける前記AR機器のポーズデータおよび現実シーンを表すための3次元シーンモデルにおける前記仮想対象のポーズデータに基づいて、前記属性情報に一致する前記仮想対象の特殊効果データを決定することと、を含む、
請求項1ないし9のいずれか一項に記載の拡張現実データの提示方法。 - 拡張現実データの提示装置であって、
現実シーンデータを取得し、前記現実シーンデータを識別部に伝送するように構成される取得部と、
前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別し、前記属性情報に一致する仮想対象の特殊効果データを決定し、前記仮想対象の特殊効果データを表示部に伝送するように構成される識別部と、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データを含む拡張現実データを拡張現実(AR)機器に表示するように構成される表示部と、を備える、前記拡張現実データの提示装置。 - 前記現実シーンデータは、現実シーン画像を含み、前記識別部は、さらに、
前記現実シーンデータにおけるターゲットエンティティオブジェクトの属性情報を識別する前に、現実シーンにおける前記AR機器のポーズデータを検出し、ここで、前記ポーズデータは、現実シーンにおける前記AR機器の位置情報および/または撮影角度を含み、
前記現実シーン画像に表示された少なくとも1つのエンティティオブジェクトのうち、前記ポーズデータに一致するターゲットエンティティオブジェクトを決定するように構成される、
請求項11に記載の拡張現実データの提示装置。 - 前記表示部は、さらに、
撮影された参照エンティティオブジェクトの姿勢を識別し、
前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを取得し、
現在前記AR機器に表示されている拡張現実データを第1目標拡張現実データに更新するように構成され、前記第1目標拡張現実データは、前記参照エンティティオブジェクトの姿勢に一致する仮想対象の特殊効果データを含む、
請求項11または12に記載の拡張現実データの提示装置。 - 前記参照エンティティオブジェクトの姿勢は、顔の表情および体の動きのうちの少なくとも1つを含む、
請求項13に記載の拡張現実データの提示装置。 - 前記表示部は、さらに、
現実シーンにおける前記AR機器の位置情報と前記現実シーンにおける前記仮想対象の対応する位置情報との間の距離を検出し、
前記距離がプリセットの距離範囲内である場合に、撮影された参照エンティティオブジェクトの姿勢を識別するように構成される、
請求項13または14に記載の拡張現実データの提示装置。 - 前記表示部は、さらに、
事前にトレーニングされたニューラルネットワークモデルに基づいて、取得された現実シーン画像に対して姿勢識別処理を実行して、前記現実シーン画像に表示された前記参照エンティティオブジェクトの姿勢を取得するように構成される、
請求項13または15のいずれか一項に記載の拡張現実データの提示装置。 - 前記表示部は、さらに、
前記AR機器に作用するトリガ操作に応答し、
前記トリガ操作に一致する仮想対象の特殊効果データを取得し、
現在前記AR機器に表示されている拡張現実データを第2目標拡張現実データに更新するように構成され、前記第2目標拡張現実データは、前記トリガ操作に一致する仮想対象の特殊効果データを含む、
請求項11ないし16のいずれか一項に記載の拡張現実データの提示装置。 - 前記トリガ操作は、前記AR機器の画面に作用する操作、音声入力および前記AR機器のポーズの変更のうちの少なくとも1つを含む、
請求項17に記載の拡張現実データの提示装置。 - 前記装置はナビゲーション部をさらに備え、前記ナビゲーション部は、
ナビゲーション要求に応答して、現実シーンにおける前記AR機器の現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を取得し、
前記現在の位置情報および前記現実シーンにおける前記仮想対象の対応する位置情報を使用して、ナビゲーションルートを生成し、ここで、前記ナビゲーションルート内のウェイポイントは、現実シーンにおける前記仮想対象の位置を含み、
前記ナビゲーションルートの指示データを含む拡張現実データを前記AR機器に表示するように構成される、
請求項11ないし18のいずれか一項に記載の拡張現実データの提示装置。 - 前記識別部は、さらに、
現実シーンにおける前記AR機器のポーズデータを取得し、
現実シーンにおける前記AR機器のポーズデータおよび現実シーンを表すための3次元シーンモデルにおける前記仮想対象のポーズデータに基づいて、前記属性情報に一致する前記仮想対象の特殊効果データを決定するように構成される、
請求項11ないし19のいずれか一項に記載の拡張現実データの提示装置。 - 電子機器であって、
プロセッサ、メモリおよびバスを備え、前記メモリは、前記プロセッサによって実行可能な機械可読命令を記憶し、電子機器が実行される場合、前記プロセッサはバスを介して前記メモリと通信し、前記機械可読命令が前記プロセッサによって実行されるときに、請求項1ないし10のいずれか一項に記載の拡張現実データの提示方法のステップを実行する、前記電子機器。 - コンピュータプログラムが記憶される、コンピュータ可読記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行されるときに、請求項1ないし10のいずれか一項に記載の拡張現実データの提示方法のステップを実行することを特徴とする、前記コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910979912.0 | 2019-10-15 | ||
CN201910979912.0A CN110716645A (zh) | 2019-10-15 | 2019-10-15 | 一种增强现实数据呈现方法、装置、电子设备及存储介质 |
PCT/CN2020/111888 WO2021073268A1 (zh) | 2019-10-15 | 2020-08-27 | 一种增强现实数据呈现方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022505998A true JP2022505998A (ja) | 2022-01-17 |
Family
ID=75492150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020573244A Pending JP2022505998A (ja) | 2019-10-15 | 2020-08-27 | 拡張現実データの提示方法、装置、電子機器及び記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210118235A1 (ja) |
JP (1) | JP2022505998A (ja) |
KR (1) | KR20230022269A (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009049073A1 (de) * | 2009-10-12 | 2011-04-21 | Metaio Gmbh | Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung |
KR20220045799A (ko) | 2020-10-06 | 2022-04-13 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
CN113220123A (zh) * | 2021-05-10 | 2021-08-06 | 深圳市慧鲤科技有限公司 | 一种音效控制的方法、装置、电子设备及存储介质 |
CN113359985A (zh) * | 2021-06-03 | 2021-09-07 | 北京市商汤科技开发有限公司 | 数据展示方法、装置、计算机设备以及存储介质 |
CN113470187A (zh) * | 2021-06-30 | 2021-10-01 | 北京市商汤科技开发有限公司 | 一种ar收藏方法、终端、设备及存储介质 |
CN113992851A (zh) * | 2021-10-22 | 2022-01-28 | 北京字跳网络技术有限公司 | 一种视频生成方法、装置、设备及存储介质 |
CN114283232A (zh) * | 2021-11-19 | 2022-04-05 | 北京字跳网络技术有限公司 | 一种画面展示方法、装置、计算机设备以及存储介质 |
CN114401442B (zh) * | 2022-01-14 | 2023-10-24 | 北京字跳网络技术有限公司 | 视频直播及特效控制方法、装置、电子设备及存储介质 |
CN115205432B (zh) * | 2022-09-03 | 2022-11-29 | 深圳爱莫科技有限公司 | 一种香烟终端陈列样本图像自动生成的仿真方法与模型 |
CN115631240B (zh) * | 2022-12-21 | 2023-05-26 | 速度时空信息科技股份有限公司 | 大规模场景的视觉定位数据处理方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011179967A (ja) * | 2010-03-01 | 2011-09-15 | Zenrin Datacom Co Ltd | 地図表示制御装置、地図表示制御方法及び地図表示制御プログラム |
WO2013118373A1 (ja) * | 2012-02-10 | 2013-08-15 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2014206904A (ja) * | 2013-04-15 | 2014-10-30 | オリンパス株式会社 | ウェアラブル装置、プログラム及びウェアラブル装置の表示制御方法 |
WO2014181380A1 (ja) * | 2013-05-09 | 2014-11-13 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置およびアプリケーション実行方法 |
JP2016115148A (ja) * | 2014-12-15 | 2016-06-23 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |
JP2018106262A (ja) * | 2016-12-22 | 2018-07-05 | 株式会社Cygames | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 |
-
2020
- 2020-08-27 KR KR1020237003932A patent/KR20230022269A/ko not_active Application Discontinuation
- 2020-08-27 JP JP2020573244A patent/JP2022505998A/ja active Pending
- 2020-12-28 US US17/134,772 patent/US20210118235A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011179967A (ja) * | 2010-03-01 | 2011-09-15 | Zenrin Datacom Co Ltd | 地図表示制御装置、地図表示制御方法及び地図表示制御プログラム |
WO2013118373A1 (ja) * | 2012-02-10 | 2013-08-15 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2014206904A (ja) * | 2013-04-15 | 2014-10-30 | オリンパス株式会社 | ウェアラブル装置、プログラム及びウェアラブル装置の表示制御方法 |
WO2014181380A1 (ja) * | 2013-05-09 | 2014-11-13 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置およびアプリケーション実行方法 |
JP2016115148A (ja) * | 2014-12-15 | 2016-06-23 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |
JP2018106262A (ja) * | 2016-12-22 | 2018-07-05 | 株式会社Cygames | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20230022269A (ko) | 2023-02-14 |
US20210118235A1 (en) | 2021-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022505998A (ja) | 拡張現実データの提示方法、装置、電子機器及び記憶媒体 | |
WO2021073268A1 (zh) | 一种增强现实数据呈现方法、装置、电子设备及存储介质 | |
US11043031B2 (en) | Content display property management | |
Hilfert et al. | Low-cost virtual reality environment for engineering and construction | |
CN104936665B (zh) | 合作增强现实 | |
CN110738737A (zh) | 一种ar场景图像处理方法、装置、电子设备及存储介质 | |
JP7008730B2 (ja) | 画像に挿入される画像コンテンツについての影生成 | |
CN111640171B (zh) | 一种历史场景的讲解方法、装置、电子设备及存储介质 | |
CN112148197A (zh) | 增强现实ar交互方法、装置、电子设备及存储介质 | |
CN104937641A (zh) | 信息处理装置、客户端装置、信息处理方法以及程序 | |
CN112070906A (zh) | 一种增强现实系统及增强现实数据的生成方法、装置 | |
CN111638797A (zh) | 一种展示控制方法及装置 | |
CN105184858A (zh) | 一种增强现实移动终端的方法 | |
CN112637665B (zh) | 增强现实场景下的展示方法、装置、电子设备及存储介质 | |
KR20210148074A (ko) | Ar 시나리오 콘텐츠의 생성 방법, 전시 방법, 장치 및 저장 매체 | |
JP2018514836A (ja) | バーチャル及びオーグメンテッドリアリティ環境におけるコントローラ可視化 | |
JP2022505999A (ja) | 拡張現実データの提示方法、装置、機器および記憶媒体 | |
JP7150894B2 (ja) | Arシーン画像処理方法及び装置、電子機器並びに記憶媒体 | |
CN113359986A (zh) | 增强现实数据展示方法、装置、电子设备及存储介质 | |
CN112905014A (zh) | Ar场景下的交互方法、装置、电子设备及存储介质 | |
CN114153548A (zh) | 一种展示方法、装置、计算机设备及存储介质 | |
CN112882576A (zh) | Ar交互方法、装置、电子设备及存储介质 | |
CN111651058A (zh) | 历史场景的控制展示方法、装置、电子设备及存储介质 | |
WO2022252688A1 (zh) | 增强现实数据呈现方法、装置、电子设备及存储介质 | |
CN111599292A (zh) | 一种历史场景的呈现方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220928 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230421 |