JP7150894B2 - Arシーン画像処理方法及び装置、電子機器並びに記憶媒体 - Google Patents
Arシーン画像処理方法及び装置、電子機器並びに記憶媒体 Download PDFInfo
- Publication number
- JP7150894B2 JP7150894B2 JP2020572865A JP2020572865A JP7150894B2 JP 7150894 B2 JP7150894 B2 JP 7150894B2 JP 2020572865 A JP2020572865 A JP 2020572865A JP 2020572865 A JP2020572865 A JP 2020572865A JP 7150894 B2 JP7150894 B2 JP 7150894B2
- Authority
- JP
- Japan
- Prior art keywords
- real scene
- scene
- pose data
- image
- virtual object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
本開示は、出願番号が201910979900.8で、出願日が2019年10月15日である中国特許出願に基づいて提案され、この中国特許出願の優先権を主張し、この中国特許出願の全ての内容が参照により本開示に組み込まれる。
本開示の実施例によるARシーン画像処理方法は、AR機器の撮影ポーズデータを取得することと、前記撮影ポーズデータ、及び現実シーンを特徴付けるための3次元シーンモデルにおける仮想オブジェクトのポーズデータに基づき、前記現実シーンにおける前記撮影ポーズデータに対応する仮想オブジェクトのプレゼンテーション特殊効果情報を取得することと、前記プレゼンテーション特殊効果情報に基づき、前記AR機器によってARシーン画像を表示することと、を含む。
901 第一の取得モジュール
902 第二の取得モジュール
903 表示モジュール
904 生成モジュール
905 第一のモデル訓練モジュール
906 第二のモデル訓練モジュール
1000 ARシーン画像処理装置
1001 取得モジュール
1002 第一の生成モジュール
1003 第二の生成モジュール
1004 表示モジュール
1100 電子機器
1101 プロセッサ
1102 メモリ
1103 バス
1200 電子機器
1201 プロセッサ
1202 メモリ
1203 バス
11021 内部メモリ
11022 外部メモリ
12021 内部メモリ
12022 外部メモリ
Claims (13)
- 拡張現実(AR)シーン画像処理方法であって、
AR機器の撮影ポーズデータを取得することと、
前記撮影ポーズデータ及び現実シーンを特徴付けるための3次元シーンモデルにおける仮想オブジェクトのポーズデータに基づき、前記現実シーンにおける前記撮影ポーズデータに対応する仮想オブジェクトのプレゼンテーション特殊効果情報を取得することと、
前記プレゼンテーション特殊効果情報に基づき、前記AR機器によってARシーン画像を表示することと、を含み、
前記AR機器の撮影ポーズデータを取得することは、
前記AR機器で撮影された現実シーン画像を取得することと、
前記現実シーン画像及び位置合わせされた3次元サンプル画像に基づき、前記現実シーン画像に対応する撮影ポーズデータを確定することであって、前記撮影ポーズデータは撮影位置情報及び/又は撮影角度情報を含み、前記位置合わせされた3次元サンプル画像は、前記現実シーンを予め撮影して取得されたサンプル画像ライブラリと予め記憶された3次元サンプル画像に基づいて特徴点を位置合わせした3次元サンプル画像であり、前記予め記憶された3次元サンプル画像は前記現実シーンの形態特徴を特徴付けるための予め記憶された3次元画像であり、
前記現実シーン画像及び位置合わせされた3次元サンプル画像に基づき、前記現実シーン画像に対応する撮影ポーズデータを確定することは、
前記位置合わせされた3次元サンプル画像に基づき、撮影された前記現実シーン画像の特徴点と一致する3次元サンプル画像の特徴点を確定することと、
前記位置合わせされた3次元サンプル画像での前記一致している3次元サンプル画像の特徴点の座標情報に基づき、前記サンプル画像ライブラリにおける、前記現実シーン画像と一致するターゲットサンプル画像を確定することであって、前記サンプル画像ライブラリは、前記現実シーンを予め撮影して取得されたサンプル画像及び各サンプル画像に対応する撮影ポーズデータを含む、ことと、
前記ターゲットサンプル画像に対応する撮影ポーズデータを前記現実シーン画像に対応する撮影ポーズデータとして確定することと、を含む、ARシーン画像処理方法。 - 前記取得された前記撮影ポーズデータ及び現実シーンを特徴付けるための3次元シーンモデルにおける仮想オブジェクトのポーズデータに基づき、前記現実シーンにおける前記撮影ポーズデータに対応する仮想オブジェクトのプレゼンテーション特殊効果情報を取得することは、
取得された前記撮影ポーズデータ、前記3次元シーンモデルにおける前記仮想オブジェクトのポーズデータ、及び前記3次元シーンモデルに基づき、前記撮影ポーズデータに対応する仮想オブジェクトのプレゼンテーション特殊効果情報を取得することを含むことを特徴とする
請求項1に記載の方法。 - 前記3次元シーンモデルは、
前記現実シーンに対応する複数の現実シーン画像を取得し、
前記複数の現実シーン画像に基づき、前記3次元シーンモデルを生成することにより生成され、
前記複数の現実シーン画像に基づき、前記3次元シーンモデルを生成することは、
取得された複数の現実シーン画像のそれぞれから複数の特徴点を抽出することと、
抽出された複数の特徴点、及び前記現実シーンと一致する予め記憶された3次元サンプル画像に基づき、前記3次元シーンモデルを生成することであって、前記3次元サンプル画像は、前記現実シーンの形態特徴を特徴付けるための予め記憶された3次元画像である、ことと、を含むことを特徴とする
請求項1又は2に記載の方法。 - 前記AR機器の撮影ポーズデータを取得することはさらに、
前記AR機器で撮影された現実シーン画像を取得することと、
前記現実シーン画像及び予め記憶された位置決め用の第一のニューラルネットワークモデルに基づき、前記現実シーン画像に対応する撮影ポーズデータを確定することであって、前記撮影ポーズデータは撮影位置情報及び/又は撮影角度情報を含む、ことと、を含み、
前記第一のニューラルネットワークモデルは、
前記現実シーンを予め撮影して取得された複数のサンプル画像、及び各サンプル画像に対応する撮影ポーズデータに基づき、前記第一のニューラルネットワークモデルを訓練することにより訓練されることを特徴とする
請求項1~3のいずれか一項に記載の方法。 - 前記AR機器の撮影ポーズデータを取得した後、
前記AR機器で撮影された現実シーン画像を取得することと、
前記現実シーン画像と、現実シーン画像の属性情報を確定するための予め記憶された第二のニューラルネットワークモデルとに基づき、前記現実シーン画像に対応する属性情報を確定することと、を更に含み、
前記撮影ポーズデータ、及び現実シーンを特徴付けるための3次元シーンモデルにおける仮想オブジェクトのポーズデータに基づき、前記現実シーンにおける前記撮影ポーズデータに対応する仮想オブジェクトのプレゼンテーション特殊効果情報を取得することは、
前記撮影ポーズデータ、前記属性情報、及び現実シーンを特徴付けるための3次元シーンモデルにおける仮想オブジェクトのポーズデータに基づき、前記現実シーンにおける前記撮影ポーズデータに対応する仮想オブジェクトのプレゼンテーション特殊効果情報を取得することを含み、
前記第二のニューラルネットワークモデルは、
前記現実シーンを予め撮影して取得された複数のサンプル画像、及び各サンプル画像に対応する属性情報に基づき、前記第二のニューラルネットワークモデルを訓練することにより訓練されることを特徴とする
請求項1~4のいずれか一項に記載の方法。 - 前記AR機器の撮影ポーズデータを取得した後、
前記AR機器で撮影された現実シーンの予め設定された識別子を取得することと、
前記予め設定された識別子、及び予め記憶された、予め設定された識別子と追加の仮想オブジェクト情報とのマッピング関係に応じて、前記現実シーンに対応する追加の仮想オブジェクト情報を確定することと、を更に含み、
前記撮影ポーズデータ、及び現実シーンを特徴付けるための3次元シーンモデルにおける仮想オブジェクトのポーズデータに基づき、前記現実シーンにおける前記撮影ポーズデータに対応する仮想オブジェクトのプレゼンテーション特殊効果情報を取得することは、
前記撮影ポーズデータ、前記追加の仮想オブジェクト、及び現実シーンを特徴付けるための3次元シーンモデルにおける仮想オブジェクトのポーズデータに基づき、前記現実シーンにおける前記撮影ポーズデータに対応する仮想オブジェクトのプレゼンテーション特殊効果情報を取得することを含むことを特徴とする
請求項1~4のいずれか一項に記載の方法。 - 前記プレゼンテーション特殊効果情報に基づき、前記AR機器によってARシーン画像を表示した後、
前記AR機器に表示されている前記仮想オブジェクトに対するトリガ操作を取得し、ARシーン画像に表示されているプレゼンテーション特殊効果情報を更新することを更に含むことを特徴とする
請求項1~6のいずれか一項に記載の方法。 - 前記仮想オブジェクトがターゲット楽器を含む場合、前記AR機器に表示されている前記仮想オブジェクトに対するトリガ操作を取得し、ARシーン画像に表示されているプレゼンテーション特殊効果情報を更新することは、
前記AR機器に表示されている仮想オブジェクトに対するトリガ操作を取得し、前記AR機器を制御して、現在表示されている前記仮想オブジェクトの音声再生効果を前記トリガ操作に対応する音声再生効果に更新することを更に含み、
又は、
前記仮想オブジェクトがターゲット楽器を含み、複数の前記AR機器が存在する場合、前記AR機器に表示されている前記仮想オブジェクトに対するトリガ操作を取得し、ARシーン画像に表示されているプレゼンテーション特殊効果情報を更新することは、
複数の前記AR機器に表示されている同一の仮想オブジェクトに対するトリガ操作を取得し、複数の前記AR機器を制御して、現在表示されている前記同一の仮想オブジェクトの音声再生効果を、前記同一の仮想オブジェクトに作用する複数の前記トリガ操作に共通の対応する混合音声再生効果に更新することを含み、
又は、
前記仮想オブジェクトがターゲット楽器を含み、複数の前記AR機器が存在する場合、前記AR機器に表示されている前記仮想オブジェクトに対するトリガ操作を取得し、ARシーン画像に表示されているプレゼンテーション特殊効果情報を更新することは、
複数の前記AR機器のうちの少なくとも1つのAR機器に表示されている仮想オブジェクトに対するトリガ操作を取得し、複数の前記AR機器を制御して、現在表示されている少なくとも1つの仮想オブジェクトの音声再生効果を、それぞれ少なくとも1つの仮想オブジェクトに作用する前記トリガ操作に共通の対応する混合音声再生効果に更新することを含むことを特徴とする
請求項7に記載の方法。 - 拡張現実(AR)シーン画像処理方法であって、
現実シーンに対応する複数の現実シーン画像を取得することと、
前記複数の現実シーン画像に基づき、前記現実シーンを特徴付けるための3次元シーンモデルを生成することと、
前記3次元シーンモデル、及び前記現実シーンと一致する仮想オブジェクトに基づき、ARシーンにおける前記仮想オブジェクトのプレゼンテーション特殊効果情報を生成することと、を含み、
前記複数の現実シーン画像に基づき、前記現実シーンを特徴付けるための3次元シーンモデルを生成することは、
取得された複数の現実シーン画像のそれぞれから複数の特徴点を抽出することと、
抽出された複数の特徴点、及び前記現実シーンと一致する予め記憶された3次元サンプル画像に基づき、前記3次元シーンモデルを生成することであって、前記3次元サンプル画像は、前記現実シーンの形態特徴を特徴付けるための予め記憶された3次元画像である、ことと、を含む、ARシーン画像処理方法。 - 拡張現実(AR)シーン画像処理装置であって、
AR機器の撮影ポーズデータを取得するように構成される第一の取得モジュールと、
前記撮影ポーズデータ、及び現実シーンを特徴付けるための3次元シーンモデルにおける仮想オブジェクトのポーズデータに基づき、前記現実シーンにおける前記撮影ポーズデータに対応する仮想オブジェクトのプレゼンテーション特殊効果情報を取得するように構成される第二の取得モジュールと、
前記プレゼンテーション特殊効果情報に基づき、前記AR機器によってARシーン画像を表示するように構成される表示モジュールと、を備え、
前記第一の取得モジュールはさらに、以下の方式を採用してAR機器の撮影ポーズデータを取得し、即ち、AR機器で撮影された現実シーン画像を取得し、現実シーン画像及び位置合わせされた3次元サンプル画像に基づき、撮影位置情報及び/又は撮影角度情報を含む、現実シーン画像に対応する撮影ポーズデータを確定するように構成され、位置合わせされた3次元サンプル画像が現実シーンを予め撮影して取得されたサンプル画像ライブラリと予め記憶された3次元サンプル画像に基づいて特徴点を位置合わせした3次元サンプル画像であり、予め記憶された3次元サンプル画像が現実シーンの形態特徴を特徴付けるための予め記憶された3次元画像であり、
前記第一の取得モジュールはさらに、以下の方式を採用し、現実シーン画像及び位置合わせされた3次元サンプル画像に基づき、現実シーン画像に対応する撮影ポーズデータを確定し、即ち、位置合わせされた3次元サンプル画像に基づき、撮影された現実シーン画像の特徴点と一致する3次元サンプル画像の特徴点を確定し、位置合わせされた3次元サンプル画像における一致している3次元サンプル画像の特徴点に基づき、現実シーンを予め撮影して取得されたサンプル画像及び各サンプル画像に対応する撮影ポーズデータを含むサンプル画像ライブラリにおける現実シーン画像と一致するターゲットサンプル画像を確定し、ターゲットサンプル画像に対応する撮影ポーズデータを現実シーン画像に対応する撮影ポーズデータとして確定するように構成される、ARシーン画像処理装置。 - プロセッサ、メモリとバスを備え、前記メモリには前記プロセッサで実行可能な機械可読命令が記憶され、電子機器が動作している場合、前記プロセッサと前記メモリがバスを介して通信し、前記機械可読命令が前記プロセッサによって実行されるときに、前記プロセッサに、請求項1~8のいずれか一項に記載のARシーン画像処理方法を実行させるか、又は請求項9に記載のARシーン画像処理方法を実行させる電子機器。
- コンピュータに、請求項1~8のいずれか一項に記載のARシーン画像処理方法を実行させるか、又は請求項9に記載のARシーン画像処理方法を実行させるためのコンピュータプログラムを記憶したコンピュータ可読記憶媒体。
- コンピュータに、請求項1~8のいずれか一項に記載のARシーン画像処理方法を実行させるか、又は請求項9に記載のARシーン画像処理方法を実行させるためのコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910979900.8 | 2019-10-15 | ||
CN201910979900.8A CN110738737A (zh) | 2019-10-15 | 2019-10-15 | 一种ar场景图像处理方法、装置、电子设备及存储介质 |
PCT/CN2020/112707 WO2021073292A1 (zh) | 2019-10-15 | 2020-08-31 | 一种ar场景图像处理方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022512525A JP2022512525A (ja) | 2022-02-07 |
JP7150894B2 true JP7150894B2 (ja) | 2022-10-11 |
Family
ID=75492151
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572865A Active JP7150894B2 (ja) | 2019-10-15 | 2020-08-31 | Arシーン画像処理方法及び装置、電子機器並びに記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11423625B2 (ja) |
JP (1) | JP7150894B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113176827B (zh) * | 2021-05-25 | 2022-10-28 | 青岛大学 | 基于表情的ar交互方法、系统、电子设备及存储介质 |
CN113628322B (zh) * | 2021-07-26 | 2023-12-05 | 阿里巴巴(中国)有限公司 | 图像处理、ar显示与直播方法、设备及存储介质 |
CN115997385A (zh) * | 2022-10-12 | 2023-04-21 | 广州酷狗计算机科技有限公司 | 基于增强现实的界面显示方法、装置、设备、介质和产品 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018039269A1 (en) | 2016-08-22 | 2018-03-01 | Magic Leap, Inc. | Augmented reality display device with deep learning sensors |
JP2019087229A (ja) | 2017-11-02 | 2019-06-06 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
WO2019161312A1 (en) | 2018-02-15 | 2019-08-22 | Magic Leap, Inc. | Mixed reality musical instrument |
JP2019153274A (ja) | 2018-02-28 | 2019-09-12 | 東芝デジタルソリューションズ株式会社 | 位置算出装置、位置算出プログラム、位置算出方法、及びコンテンツ付加システム |
WO2019177181A1 (ko) | 2018-03-12 | 2019-09-19 | 라인플러스(주) | 뉴럴 네트워크를 이용하여 상황을 인지하는 증강 현실 제공 장치, 제공 방법 및 상기 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9600067B2 (en) * | 2008-10-27 | 2017-03-21 | Sri International | System and method for generating a mixed reality environment |
US20110273466A1 (en) * | 2010-05-10 | 2011-11-10 | Canon Kabushiki Kaisha | View-dependent rendering system with intuitive mixed reality |
KR101679239B1 (ko) * | 2010-07-06 | 2016-11-24 | 삼성전자주식회사 | 휴대용 단말기에서 증강 현실 기법을 이용한 악기 연주를 제공하기 위한 장치 및 방법 |
US9348141B2 (en) * | 2010-10-27 | 2016-05-24 | Microsoft Technology Licensing, Llc | Low-latency fusing of virtual and real content |
US8749396B2 (en) * | 2011-08-25 | 2014-06-10 | Satorius Stedim Biotech Gmbh | Assembling method, monitoring method, communication method, augmented reality system and computer program product |
US20140152558A1 (en) * | 2012-11-30 | 2014-06-05 | Tom Salter | Direct hologram manipulation using imu |
US20140168261A1 (en) * | 2012-12-13 | 2014-06-19 | Jeffrey N. Margolis | Direct interaction system mixed reality environments |
US9514573B2 (en) * | 2013-12-26 | 2016-12-06 | Dassault Systemes | Diminished reality |
CN104143212A (zh) | 2014-07-02 | 2014-11-12 | 惠州Tcl移动通信有限公司 | 基于穿戴设备的增强现实方法及系统 |
US10126837B1 (en) * | 2015-06-29 | 2018-11-13 | Groupon, Inc. | Wearable device that is automatically configurable between wearer facing and redemption interfaces |
KR20170054638A (ko) | 2015-11-09 | 2017-05-18 | 현대오트론 주식회사 | 헤드업 디스플레이를 이용한 선행 차량 정보 표시 장치 및 방법 |
US9679547B1 (en) * | 2016-04-04 | 2017-06-13 | Disney Enterprises, Inc. | Augmented reality music composition |
EP4060462A1 (en) | 2016-05-20 | 2022-09-21 | Magic Leap, Inc. | Contextual awareness of user interface menus |
US11810318B2 (en) * | 2016-09-09 | 2023-11-07 | Intel Corporation | Training and deploying pose regressions in neural networks in autonomous machines |
US10262464B2 (en) * | 2016-12-30 | 2019-04-16 | Intel Corporation | Dynamic, local augmented reality landmarks |
CN106774937B (zh) | 2017-01-13 | 2020-01-10 | 宇龙计算机通信科技(深圳)有限公司 | 一种增强现实技术中的图像交互方法及其装置 |
CN106980381A (zh) | 2017-03-31 | 2017-07-25 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN109213728A (zh) | 2017-06-29 | 2019-01-15 | 深圳市掌网科技股份有限公司 | 基于增强现实的文物展示方法及系统 |
US10885712B2 (en) * | 2017-07-12 | 2021-01-05 | Nio Usa, Inc. | Camera pose estimation method for augmented reality manual for cars |
US11249714B2 (en) | 2017-09-13 | 2022-02-15 | Magical Technologies, Llc | Systems and methods of shareable virtual objects and virtual objects as message objects to facilitate communications sessions in an augmented reality environment |
US11079497B2 (en) * | 2017-09-25 | 2021-08-03 | Continental Automotive Systems, Inc. | Vehicle localization based on neural network |
CN108022306B (zh) | 2017-12-30 | 2021-09-21 | 华自科技股份有限公司 | 基于增强现实的场景识别方法、装置、存储介质和设备 |
US10506220B2 (en) * | 2018-01-02 | 2019-12-10 | Lumus Ltd. | Augmented reality displays with active alignment and corresponding methods |
US10416755B1 (en) * | 2018-06-01 | 2019-09-17 | Finch Technologies Ltd. | Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system |
US11397503B2 (en) * | 2019-06-28 | 2022-07-26 | Snap Inc. | Association of user identifiers to augmented-reality content |
CN110738737A (zh) | 2019-10-15 | 2020-01-31 | 北京市商汤科技开发有限公司 | 一种ar场景图像处理方法、装置、电子设备及存储介质 |
-
2020
- 2020-08-31 JP JP2020572865A patent/JP7150894B2/ja active Active
- 2020-12-28 US US17/134,811 patent/US11423625B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018039269A1 (en) | 2016-08-22 | 2018-03-01 | Magic Leap, Inc. | Augmented reality display device with deep learning sensors |
JP2019087229A (ja) | 2017-11-02 | 2019-06-06 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
WO2019161312A1 (en) | 2018-02-15 | 2019-08-22 | Magic Leap, Inc. | Mixed reality musical instrument |
JP2019153274A (ja) | 2018-02-28 | 2019-09-12 | 東芝デジタルソリューションズ株式会社 | 位置算出装置、位置算出プログラム、位置算出方法、及びコンテンツ付加システム |
WO2019177181A1 (ko) | 2018-03-12 | 2019-09-19 | 라인플러스(주) | 뉴럴 네트워크를 이용하여 상황을 인지하는 증강 현실 제공 장치, 제공 방법 및 상기 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램 |
Also Published As
Publication number | Publication date |
---|---|
US20210118237A1 (en) | 2021-04-22 |
JP2022512525A (ja) | 2022-02-07 |
US11423625B2 (en) | 2022-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102417645B1 (ko) | Ar 장면 이미지 처리 방법, 장치, 전자 기기 및 저장 매체 | |
AU2023200357B2 (en) | System and method for augmented and virtual reality | |
JP7002684B2 (ja) | 拡張現実および仮想現実のためのシステムおよび方法 | |
WO2022095467A1 (zh) | 增强现实场景下的展示方法、装置、设备、介质及程序 | |
Hilfert et al. | Low-cost virtual reality environment for engineering and construction | |
JP7150894B2 (ja) | Arシーン画像処理方法及び装置、電子機器並びに記憶媒体 | |
EP3798801A1 (en) | Image processing method and apparatus, storage medium, and computer device | |
CN106157359B (zh) | 一种虚拟场景体验系统的设计方法 | |
TWI567659B (zh) | 照片表示視圖的基於主題的增強 | |
JP2022505998A (ja) | 拡張現実データの提示方法、装置、電子機器及び記憶媒体 | |
CA3089311A1 (en) | Calibration to be used in an augmented reality method and system | |
JP2023504608A (ja) | 拡張現実場面における表示方法、装置、機器、媒体及びプログラム | |
JP6656382B2 (ja) | マルチメディア情報を処理する方法及び装置 | |
KR20180120456A (ko) | 파노라마 영상을 기반으로 가상현실 콘텐츠를 제공하는 장치 및 그 방법 | |
US20200074725A1 (en) | Systems and method for realistic augmented reality (ar) lighting effects | |
JP2022507502A (ja) | 拡張現実(ar)のインプリント方法とシステム | |
US11385856B2 (en) | Synchronizing positioning systems and content sharing between multiple devices | |
Soares et al. | Designing a highly immersive interactive environment: The virtual mine | |
CN112070901A (zh) | 一种园林的ar场景构建方法、装置、存储介质及终端 | |
KR101983233B1 (ko) | 깊이맵을 활용한 증강현실 영상표시 시스템 및 그 방법 | |
JP6680886B2 (ja) | マルチメディア情報を表示する方法及び装置 | |
JP7354185B2 (ja) | 表示制御装置、表示制御方法および表示制御プログラム | |
WO2021231261A1 (en) | Computationally efficient method for computing a composite representation of a 3d environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201224 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220506 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7150894 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |