JP2024502407A - 拡張現実に基づく表示方法、装置、機器及び記憶媒体 - Google Patents
拡張現実に基づく表示方法、装置、機器及び記憶媒体 Download PDFInfo
- Publication number
- JP2024502407A JP2024502407A JP2023535769A JP2023535769A JP2024502407A JP 2024502407 A JP2024502407 A JP 2024502407A JP 2023535769 A JP2023535769 A JP 2023535769A JP 2023535769 A JP2023535769 A JP 2023535769A JP 2024502407 A JP2024502407 A JP 2024502407A
- Authority
- JP
- Japan
- Prior art keywords
- video
- video material
- real scene
- image
- scene image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 43
- 238000003860 storage Methods 0.000 title claims abstract description 27
- 239000000463 material Substances 0.000 claims abstract description 23
- 230000004807 localization Effects 0.000 claims description 42
- 238000013507 mapping Methods 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 21
- 238000003709 image segmentation Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 39
- 230000000694 effects Effects 0.000 abstract description 11
- 238000004519 manufacturing process Methods 0.000 abstract description 9
- 230000006870 function Effects 0.000 description 11
- 238000013461 design Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 2
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 2
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 2
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/036—Insert-editing
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Circuits (AREA)
Abstract
本開示の実施例は、拡張現実に基づく表示方法、装置、機器及び記憶媒体を提供し、当該方法は、第1のビデオを受信し、第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得し、画像収集装置によって収集される実景画像を取得して表示し、ビデオ素材を実景画像の目標位置に拡張表示してビデオ素材を再生する。ビデオ素材は、第1のビデオを受信し、第1のビデオの中の目標物体をセグメンテーションして取得されるものであるため、ビデオ素材はユーザの需要に応じて設定されることができ、このようにして、ユーザがビデオ素材をカスタマイズしてロードし表示する目的を満たし、カスタマイズしたビデオ素材を拡張現実の手段を用いて実景画像に表示し、ユーザの構想に合致するビデオ特殊効果となり、ビデオ制作の柔軟性を強め、ビデオ表現力を向上させる。【選択図】図2
Description
本開示の実施例は、コンピュータ及びネットワーク通信の技術分野に関し、特に、拡張現実に基づく表示方法、装置、機器及び記憶媒体に関する。
ビデオ系ソフトウェアやプラットフォームについて、ビデオ制作機能はビデオ系ソフトウェアのコアとなる機能の1つである。ビデオ制作機能の豊富さ、多様性及び面白さは、当該ビデオ系ソフトウェアを利用するようにユーザやビデオ制作者を引き寄せる重要な要素である。
現在、ユーザはビデオ制作機能を利用するとき、撮影環境にビデオ特殊効果を追加する必要がある場合、プラットフォームにより提供されている固定の画像やビデオ素材しか選択することができない。
しかしながら、画像やビデオ素材の数が限られており、ユーザはビデオ制作をするとき、撮影環境の実景画像に対してはすべてが予想通りに特殊効果を設定することができないため、ビデオ制作の柔軟性が劣っており、ビデオの表現力にも影響を及ぼす。
本開示の実施例は、ビデオ制作の柔軟性が劣っており、ビデオの表現力にも影響を及ぼすという問題を解消するために、拡張現実に基づく表示方法、装置、機器及び記憶媒体を提供する。
第1の態様では、本開示の実施例は、拡張現実に基づく表示方法を提供し、前記方法は、
第1のビデオを受信するステップと、
前記第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得するステップと、
画像収集装置によって収集される実景画像を取得して表示するステップと、
前記ビデオ素材を前記実景画像の目標位置に拡張表示して前記ビデオ素材を再生するステップと、を含む。
第1のビデオを受信するステップと、
前記第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得するステップと、
画像収集装置によって収集される実景画像を取得して表示するステップと、
前記ビデオ素材を前記実景画像の目標位置に拡張表示して前記ビデオ素材を再生するステップと、を含む。
第2の態様では、本開示の実施例は、拡張現実に基づく表示装置を提供し、前記装置は、
第1のビデオを受信するための受信ユニットと、
前記第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得するための取得ユニットと、
画像収集装置によって収集される実景画像を取得して表示すること、及び前記ビデオ素材を前記実景画像の目標位置に拡張表示して前記ビデオ素材を再生することに用いられる表示ユニットと、を含む。
第1のビデオを受信するための受信ユニットと、
前記第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得するための取得ユニットと、
画像収集装置によって収集される実景画像を取得して表示すること、及び前記ビデオ素材を前記実景画像の目標位置に拡張表示して前記ビデオ素材を再生することに用いられる表示ユニットと、を含む。
第3の態様では、本開示の実施例は、少なくとも1つのプロセッサとメモリとを含む電子機器を提供し、
前記メモリはコンピュータ実行命令を記憶し、
前記少なくとも1つのプロセッサは前記メモリに記憶されているコンピュータ実行命令を実行すると、前記少なくとも1つのプロセッサは第1の態様及び第1の態様の様々な可能な設計に記載されている拡張現実に基づく表示方法を実行する。
前記メモリはコンピュータ実行命令を記憶し、
前記少なくとも1つのプロセッサは前記メモリに記憶されているコンピュータ実行命令を実行すると、前記少なくとも1つのプロセッサは第1の態様及び第1の態様の様々な可能な設計に記載されている拡張現実に基づく表示方法を実行する。
第4の態様では、本開示の実施例は、コンピュータ可読記憶媒体を提供し、前記コンピュータ可読記憶媒体にはコンピュータ実行命令が記憶されており、プロセッサが前記コンピュータ実行命令を実行するとき、上記の第1の態様及び第1の態様の様々な可能な設計に記載されている拡張現実に基づく表示方法が実現される。
第5の態様では、本開示の実施例は、コンピュータプログラムを含むコンピュータプログラム製品を提供し、当該コンピュータプログラムがプロセッサにより実行されるとき、上記の第1の態様及び第1の態様の様々な可能な設計に記載されている拡張現実に基づく表示方法が実現される。
第6の態様では、本開示の実施例は、コンピュータプログラムを提供し、前記コンピュータプログラムがプロセッサにより実行されるとき、上記の第1の態様及び第1の態様の様々な可能な設計に記載されている拡張現実に基づく表示方法が実現される。
本開示の実施例により提供される拡張現実に基づく表示方法、装置、機器及び記憶媒体によれば、当該方法は、第1のビデオを受信し、前記第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得し、画像収集装置によって収集される実景画像を取得して表示し、前記ビデオ素材を前記実景画像の目標位置に拡張表示して前記ビデオ素材を再生する。これにより、ビデオ素材は、第1のビデオを受信し、第1のビデオの中の目標物体をセグメンテーションして取得されるものであるため、ビデオ素材はユーザの需要に応じて設定されることができ、このようにして、ユーザがビデオ素材をカスタマイズしてロードし表示する目的を満たし、カスタマイズしたビデオ素材を拡張現実の手段を用いて実景画像に表示し、ユーザの構想に合致するビデオ特殊効果となり、ビデオ制作の柔軟性を強め、ビデオ表現力を向上させる。
以下、本開示の実施例や従来の技術における解決手段をより明瞭に説明するために、実施例又は従来の技術の記述において使用する必要がある図面を簡単に説明する。当然ながら、以下、記載する図面は本開示のいくつかの実施例であり、当業者であれば、創造的な労力を要することなく、これらの図面に基づいて他の図面を想到しうる。
従来の技術におけるビデオ撮影プロセスの一例を示す図である。
本開示の実施例により提供される拡張現実に基づく表示方法のフローチャート1である。
本開示の実施例により提供される第1のビデオを受信する一概略図である。
本開示の実施例により提供される第1のビデオを受信する他の概略図である。
本開示の実施例により提供されるビデオの中の目標物体をセグメンテーションする概略図である。
本開示の実施例により提供される実景画像の目標位置においてビデオ素材を再生する概略図である。
本開示の実施例により提供される拡張現実に基づく表示方法のフローチャート2である。
本開示の実施例により提供される、ユーザが第2のユーザ命令を入力する概略図である。
図7に示される実施例におけるステップS206のフローチャートである。
本開示の実施例により提供される1つの異なる表示角度でビデオ素材を再生する概略図である。
本開示の実施例により提供される他の異なる表示角度でビデオ素材を再生する概略図である。
本開示の実施例により提供される拡張現実に基づく表示装置の構造ブロック図である。
本開示の実施例により提供される電子機器のハードウェア構造概略図である。
以下、本開示の実施例の目的、技術的解決手段及び利点をより明瞭にするために、本開示の実施例に係る図面を参照しながら、その技術的解決手段について明瞭、且つ完全に説明し、当然ながら、記載される実施例は本開示の実施例の一部にすぎず、そのすべての実施例ではない。当業者が本開示における実施例に基づいて創造的な労働をすることなく獲得されたその他のすべての実施例は、いずれも本開示の保護範囲に属する。
図1を参照すると、図1は、従来の技術におけるビデオ撮影プロセスの一例を示す図である。従来の技術において、ユーザは、スマートフォンなどの端末機器を利用してビデオ撮影をするとき、撮影環境の実景画像にビデオ特殊効果を追加する必要がある場合、1つの可能な実現形態として、ビデオ系ソフトウェアにより提供されるビデオ特殊効果ライブラリの中で、ビデオ系ソフトウェアにより提供されるいくつかのビデオ素材11を選択し、端末機器が表示する実景画像12に当該ビデオ素材11を追加し、ビデオ特殊効果を有する撮影環境画像を生成し、ビデオを制作し、創造性と表現力に富むビデオを得る。
しかしながら、従来の技術において、ビデオ系ソフトウェアの中の予め設定された固定の数種のビデオ素材しかユーザは使用できないので、ユーザは複雑なシーンのビデオを撮影するとき、素材ライブラリにより提供されるビデオ素材はユーザの使用ニーズに満足できないことが多いため、ユーザが固定の素材を使用して撮影するビデオは、ユーザの構想を完全に実現することができず、ビデオの表現力が低下する。本開示の実施例は、上記の問題を解決するために、拡張現実に基づく表示方法を提供する。
図2を参照すると、図2は、本開示の実施例により提供される拡張現実に基づく表示方法のフローチャート1である。本実施例に係る方法はスマートフォンなどの端末機器に適用されることができる。当該拡張現実に基づく表示方法は、以下のステップを含む。
S101では、第1のビデオを受信する。
具体的には、第1のビデオには、ユーザが関心を持っているビデオ素材が含まれたビデオが含まれ得る。例えば、ダンスパフォーマンスのビデオ、歌唱パフォーマンスのビデオ、動画のビデオなどが挙げられる。1つの可能な実現形態では、ビデオ素材は人物画像ビデオ素材であってもよい。また、他の可能な実現形態では、ビデオ素材は物体ビデオ素材であってもよく、例えば、第1のビデオはレーシングカーのビデオである場合、運動しているレーシングカーはビデオ素材となる。さらに、他の可能な実現形態では、ビデオ素材はカートゥーンアニメーションのビデオ素材、動物のビデオ素材などであってもよく、本明細書では、第1のビデオの具体的な実現形式について繰り返して説明しない。
さらに、1つの可能な実現形態では、第1のビデオ素材は、ユーザが予め撮影して端末機器内に記憶したビデオであってもよいし、ユーザが記憶媒体を介してアップロードするか若しくはネットワークを介してダウンロードするような手段を用いて直接に端末機器内に記憶したビデオであってもよい。図3は、本開示の実施例により提供される第1のビデオを受信する一概略図であり、図3に示すように、第1のビデオを受信する方法は、ユーザが端末機器のユーザインタフェース(User Interface、UIと略称)をクリックして、端末機器のローカルに記憶しているビデオを選択することを含み、図3中に示すように、ローカルに記憶しているビデオ1、ビデオ2、ビデオ3、ビデオ4から、ビデオ1を第1のビデオとして選択してアップロードすることにより、端末機器が第1のビデオを受信するプロセスは実現される。
図4は、本開示の実施例により提供される第1のビデオを受信する他の概略図である。図4に示すように、第1のビデオはサーバに記憶されており、端末機器はサーバ側から送信された第1のビデオ情報を受信して表示する。より具体的には、例えば、第1のビデオのタイトル及びプレビュー図が挙げられ、ユーザは端末機器に表示されている第1のビデオのタイトル又はプレビュー図をクリックし、当該第1のビデオをサーバからダウンロードすることにより、端末機器は当該第1のビデオを受信することを実現する。
S102では、第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得する。
具体的には、図5は、本開示の実施例により提供されるビデオの中の目標物体をセグメンテーションする概略図である。図5に示すように、端末機器は、第1のビデオを獲得した後、ビデオセグメンテーション技術を用いて、目標ビデオに対して特徴識別を行い、すなわち、目標ビデオの中の目標物体の輪郭を決定し、そして、当該目標物体の輪郭に従ってビデオセグメンテーションを行い、当該目標物体のビデオ素材を得る。例示的に、当該ビデオ素材は動的ビデオ画像又は静的ビデオ画像であってもよく、本明細書ではそれを具体的に限定しない。ビデオ素材の具体的な実現形式は、ステップS101の例を参照することができ、ここで繰り返して説明しない。
1つの可能な実現形態では、第1のビデオの中の目標物体は人物画像であり、端末機器は第1のビデオの中の人物画像をセグメンテーションし、対応する人物画像ビデオ素材を獲得することができる。具体的には、当該プロセスでは、ビデオポートレートセグメンテーション(Video Portrait Segmentation)技術を用いて、第1のビデオの中の人物画像の輪郭に対して特徴識別を行い、人物画像の輪郭を決定し、人物画像の輪郭に基づいて第1のビデオの中の人物画像部分を保留し、第1のビデオの中の人物画像以外の部分を除去することで、人物画像ビデオ素材を得ることができる。ビデオポートレートセグメンテーションの具体的な実現プロセスは、様々な可能な実現手段を利用して実現することができ、本明細書では説明を省略する。また、第1のビデオの中の目標物体は、物体などを含むものであってもよく、端末機器は第1のビデオの中の目標物体をセグメンテーションすることで、対応する目標物体のビデオ素材を獲得することができる。
S103では、画像収集装置によって収集される実景画像を取得して表示する。
例示的に、画像収集装置は、例えば、端末機器に配置されたフロントカメラ又はバックカメラ、もしくは、端末機器の外部に配置され端末機器と通信可能な他のカメラである。端末機器はカメラを用いて当該端末機器が置かれている撮影環境を撮影し、撮影環境の対応する実景画像をリアルタイムに獲得することができ、当該実景画像は撮影環境のリアルな表現となる。
さらに、端末機器は、当該実景画像を獲得した後、当該実景画像を端末機器のUIにリアルタイムに表示することができる。ユーザは、撮影環境のリアルな表現を端末機器のUIによってリアルタイムに観察することができる。当該実景画像を取得して表示するプロセスは、ユーザがビデオ撮影をする前の準備プロセスであり、ユーザは撮影環境を観察し、具体的な撮影位置や撮影角度を決定した後、画像収集装置を利用してこの後のビデオ撮影プロセスを進めることができる。
S104では、ビデオ素材を実景画像の目標位置に拡張表示してビデオ素材を再生する。
例示的に、端末機器は、ビデオ素材を決定した後、ビデオ素材を実景画像の目標位置に表示することができ、当該目標位置は、ユーザにより設定された、ユーザ命令に従ってさらに調整できる位置であってもよいし、システムのデフォルトの位置であってもよい。1つの可能な実現形態では、ビデオ素材を実景画像の目標位置に表示するステップは、まず、デフォルトの位置、例えばUIに表示されている実景画像の幾何学的中心にビデオ素材を表示し、次に、ユーザから入力された命令に従って当該目標位置を調整し、調整の結果に応じてビデオ素材を対応する目標位置に表示するステップを含み、このようにして、ユーザによるビデオ素材表示位置の設定及び調整を実現する。
さらに、ビデオ素材は、拡張現実(Augmented Reality、ARと略称)の手段を用いて実景画像の目標位置に表示される。具体的には、例えば、ビデオ素材が、人物画像のビデオ素材であり且つ内容が踊っている人物画像である場合、実景画像(例えば、ユーザの居間の画像)の目標位置、例えば実景画像の中のソファの横に当該ビデオ素材を表示すると、当該ビデオ素材と実景画像との位置関係は固定されており、すなわち、新たなユーザ命令による目標位置の変更がなければ、当該踊っている人物画像はいつまでもソファの横に固定されており、たとえ端末機器が移動や回転するようにユーザは操作したとしても、端末機器のUIに表示されている視野内の実景画像は変化するが、当該ビデオ素材は移動せずに実景画像の中の固定位置に固定して表示されており、すなわち、実景画像にARで表示されている。
さらに、図6は、本開示の実施例により提供される実景画像の目標位置においてビデオ素材を再生する概略図であり、図6に示すように、ビデオ素材を実景画像の目標位置に拡張表示した後、当該ビデオ素材を再生し、例えばビデオ素材は人物画像ビデオ素材であり内容が踊っている人物画像である場合、当該人物画像が踊るビデオ内容を再生する。ビデオ素材は実景画像にARで表示されており、すなわち、当該ビデオ素材は視覚的に撮影環境の一部となるため、仮想の撮影環境を構築する目的を達成することができる。また、ユーザは当該仮想の撮影環境に基づいてビデオを撮影すると、カスタマイズした撮影内容を実現することができ、ユーザに創作上の想像力を十分に発揮させることができ、ビデオ素材が固定であるため必要な仮想の撮影環境を生成することができないことで制限されず、これによりビデオ制作の豊富さ及び表現力を大幅に向上させる。
当該方法は、第1のビデオを受信し、第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得し、画像収集装置によって収集される実景画像を取得して表示し、ビデオ素材を実景画像の目標位置に拡張表示してビデオ素材を再生する。ビデオ素材は、第1のビデオを受信し、第1のビデオの中の目標物体をセグメンテーションして取得されるものであるため、ビデオ素材はユーザの需要に応じて設定されることができ、このようにして、ユーザビデオ素材をカスタマイズしてロードし表示する目的を満たし、カスタマイズしたビデオ素材を拡張現実の手段を用いて実景画像に表示し、ユーザの構想に合致するビデオ特殊効果となり、ビデオ制作の柔軟性を強め、ビデオ表現力を向上させる。
図7は、本開示の実施例により提供される拡張現実に基づく表示方法のフローチャート2である。本実施例では、ユーザ命令に従ってビデオ素材を調整するステップが追加されており、当該方法は、以下のステップを含む。
S201では、第1のビデオを受信する。
S202では、第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得する。
S203では、画像収集装置によって収集される実景画像を取得して表示する。
S204では、スクリーン座標情報を含む第2のユーザ命令を受信する。
具体的には、第2のユーザ命令は、ユーザによって端末機器のUIを介して入力されるものであり、ビデオ素材を指定された位置に表示させるための命令である。図8は、本開示の実施例により提供される、ユーザが第2のユーザ命令を入力する概略図であり、図8に示すように、当該第2のユーザ命令は、ユーザのドラッグジェスチャーやクリックジェスチャーによって実現されることができ、第2のユーザ命令における平面座標情報は、端末機器のスクリーンにジェスチャー操作が作用する座標、例えばスクリーンでのクリックジェスチャーの座標、スクリーンを横切るドラッグジェスチャーの座標を特徴付ける。端末機器は、当該第2のユーザ命令を受信した後、スクリーン座標情報に基づいて第2のユーザ命令に対応する目標位置を決定し、ビデオ素材を当該目標位置に表示する。
選択的に、第2のユーザ命令には、さらに、寸法情報及び角度情報のうちの少なくとも一方が含まれる。寸法情報は、ビデオ素材の表示寸法を指示するために用いられ、角度情報は、画像収集装置が位置する平面である画像収集平面に対するビデオ素材の表示角度を指示するために用いられる。
選択的に、第2のユーザ命令は、異なる操作ジェスチャーによって実現され得る。例えば、ユーザは、指(例えば、2本の指)の相対的移動によって、寸法情報を特徴付けて、ビデオ素材の表示寸法を調整することができ、もちろん、ビデオ素材の表示角度を制御する情報である角度情報を操作ジェスチャーによって特徴付けることもできる。ビデオ素材が二次元平面ビデオである場合、角度情報は、画像収集平面に対する当該二次元平面ビデオの表示角度を特徴付けるために用いられるが、ビデオ素材は三次元立体ビデオである場合、角度情報は、三次元空間における当該三次元立体ビデオの表示角度を特徴付けるために用いられる。操作ジェスチャーの実現形態は、例えば、1本の指の回転やクリックなどが挙げられるが、具体的なジェスチャー操作は必要に応じて設定されることができ、本明細書では説明を省略する。
S205では、現在の実景画像の中でスクリーン座標情報に対応する実景座標点を決定する。
第2のユーザ命令に従ってスクリーン座標情報を獲得した後、当該スクリーン座標情報に対応する、スクリーン上に表示されている実景画像の実景座標点を決定する。当該実景座標点は、撮影環境において実景の位置を特徴付けるために用いられる。
S206では、実景座標点に基づいて実景画像におけるビデオ素材の目標位置を決定する。
選択的に、図9に示すように、ステップS206は、S2061、S2062、S2063という3つの具体的な実現ステップを含む。
S2061では、同時ローカリゼーションとマッピング(Simultaneous Localization And Mapping、Slamと略称)アルゴリズムに基づき、実景画像に対応する同時ローカリゼーションとマッピング平面を獲得し、同時ローカリゼーションとマッピング平面は、実景画像における実景のローカリゼーションモデルを特徴付けるために用いられる。
具体的には、Slamアルゴリズムは、未知環境における位置決めナビゲーションと地図構築の問題を解決するための方法であり、本実施例では、Slamアルゴリズムを用いて撮影環境に対応する実景画像情報を処理し、撮影環境における異なる実景物体間の位置決めを実現し、Slam平面を得て、当該Slam平面は、実景画像と撮影環境における実景物体との位置関係、すなわち、実景物体における実景のローカリゼーションモデルを特徴付けるために用いられる。Slamアルゴリズム及びSlamアルゴリズムを用いてSlam平面を生成する具体的な実現形態は従来の技術であり、本明細書では説明を省略する。
S2062では、同時ローカリゼーションとマッピング平面により特徴付けられる実景画像における実景のローカリゼーションモデルに基づき、実景座標点に対応する同時ローカリゼーションとマッピング平面座標点を決定する。
S2063では、同時ローカリゼーションとマッピング平面座標点に基づいて目標位置を決定する。
具体的には、Slam平面により特徴付けられるローカリゼーションモデルに基づき、当該Slam平面での実景座標点の位置、すなわち、Slam座標点を決定することができ、ビデオ素材の目標位置を決定する際、当該Slam座標点を目標位置とすれば、ビデオ素材の実景画像における表示を実現することができる。
S207では、角度情報に基づいて角度情報に対応する表示角度でビデオ素材を再生する。
具体的には、角度情報は、画像収集装置が位置する平面である画像収集平面に対するビデオ素材の表示角度を指示するために用いられる。端末機器により収集される実景画像は端末機器の位置及び撮影角度にしたがってリアルタイムに変化するため、例えば、端末機器は移動したり、三次元空間で一定の角度を回転したりすると、撮影及び表示する実景画像の表示角度にも角度変化が生じ、それに応じて、実景画像に表示されているビデオ素材の表示角度もそれにしたがって変化し、対応する表示角度で当該ビデオ素材を再生する。
図10は、本開示の実施例により提供される1つの異なる表示角度でビデオ素材を再生する概略図であり、図10を参照すると、ビデオ素材は二次元平面ビデオである場合、角度情報に基づいてビデオ素材の表示角度を決定することができ、図10に示すように、角度情報に変化が生じると、二次元平面ビデオ素材の表示角度もそれにしたがって変化し、すなわち、図10の表示角度1から表示角度2に変化するようになり、このようにして、二次元平面ビデオ素材の表示角度の調整を実現する。
図11は、本開示の実施例により提供される他の異なる表示角度でビデオ素材を再生する概略図であり、図11を参照すると、ビデオ素材は三次元立体ビデオである場合、角度情報に基づいてビデオ素材の表示角度を決定することができ、図11に示すように、角度情報に変化が生じると、三次元立体ビデオ素材の表示角度もそれにしたがって変化し、すなわち、図11の表示角度1から表示角度2に変化するようになり、このようにして、三次元立体ビデオ素材の表示角度の調整を実現する。
S208では、ビデオ素材に対応するオーディオ素材を取得し、ビデオ素材を実景画像の中の目標位置に表示するとともに、ビデオ素材の再生タイムスタンプに従ってオーディオ素材を同期して再生する。
例示的に、ビデオ素材は第1のビデオから取得されるものであり、ビデオ素材には、第1のビデオの中にビデオ素材の再生タイムスタンプに対応し再生時間が同じであるオーディオ素材が含まれている。当該オーディオ素材は、ビデオ素材の再生タイムスタンプに従ってビデオ素材と同期して再生されることができ、このようにして、第1のビデオでのビデオ素材の効果をより大きく復元することができる。
S209では、ビデオ素材の再生進捗状況を特徴付けるために用いられるビデオ素材の再生情報を取得し、再生情報に基づいてビデオ素材が再生完了したと判断する場合、目標位置においてビデオ素材を重複して再生する。
例示的に、ビデオ素材再生中に、ビデオ素材の再生情報、例えばビデオ素材の現在の再生時間、又は現在の再生タイムスタンプ、又はビデオ素材再生完了の識別情報に基づき、ビデオ素材が再生終了したかどうかを判定し、ビデオ素材が再生終了した場合、ビデオ素材の再生停止がビデオの全体的な表現効果に影響を与えないように、当該ビデオ素材を改めて再生するようにしている。
本実施例では、ステップS201~S203は、前述した実施例におけるステップS101~S103と一致するため、その詳細な説明はステップS101~S103に関する記述を参照することができ、ここで繰り返して説明しない。
上記の実施例に係る拡張現実に基づく表示方法に対応するように、図12は、本開示の実施例により提供される拡張現実に基づく表示装置の構造ブロック図である。説明の便宜上、本開示の実施例に関連する部分しか示されていない。図12を参照すると、拡張現実に基づく表示装置3は、
第1のビデオを受信するための受信ユニット31と、
第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得するための取得ユニット32と、
画像収集装置によって収集される実景画像を取得して表示すること、及びビデオ素材を実景画像の目標位置に拡張表示してビデオ素材を再生することに用いられる表示ユニット33と、を含む。
第1のビデオを受信するための受信ユニット31と、
第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得するための取得ユニット32と、
画像収集装置によって収集される実景画像を取得して表示すること、及びビデオ素材を実景画像の目標位置に拡張表示してビデオ素材を再生することに用いられる表示ユニット33と、を含む。
本開示の1つの実施例では、ビデオ素材は、第1のビデオに対してビデオ人物画像セグメンテーションを行って得られる人物画像ビデオ素材を含む。
本開示の1つの実施例では、受信ユニット31は、さらに、スクリーン座標情報を含む第2のユーザ命令を受信すること、現在の実景画像の中にスクリーン座標情報に対応する実景座標点を決定すること、及び実景座標点に基づいて実景画像におけるビデオ素材の目標位置を決定すること、に用いられる。
本開示の1つの実施例では、第2のユーザ命令には、さらに、寸法情報及び角度情報のうちの少なくとも一方が含まれ、寸法情報は、ビデオ素材の表示寸法を指示するために用いられ、角度情報は、画像収集装置が位置する平面である画像収集平面に対するビデオ素材の表示角度を指示するために用いられる。
本開示の1つの実施例では、表示ユニット33は、ビデオ素材を再生するとき、具体的に、角度情報に基づいて角度情報に対応する表示角度でビデオ素材を再生するために用いられる。
本開示の1つの実施例では、受信ユニット31は、実景座標点に基づいて実景画像におけるビデオ素材の目標位置を決定するとき、具体的に、同時ローカリゼーションとマッピングアルゴリズムに基づき、実景画像に対応する同時ローカリゼーションとマッピング平面を獲得し、同時ローカリゼーションとマッピング平面は、実景画像における実景のローカリゼーションモデルを特徴付けるために用いられること、同時ローカリゼーションとマッピング平面により特徴付けられる実景画像における実景のローカリゼーションモデルに基づき、実景座標点に対応する同時ローカリゼーションとマッピング平面座標点を決定すること、及び同時ローカリゼーションとマッピング平面座標点に基づいて目標位置を決定すること、に用いられる。
本開示の1つの実施例では、取得ユニット32は、さらに、ビデオ素材に対応するオーディオ素材を取得すること、及びビデオ素材を実景画像の中の目標位置に表示するとともに、ビデオ素材の再生タイムスタンプに従ってオーディオ素材を同期して再生すること、に用いられる。
本開示の1つの実施例では、取得ユニット32は、さらに、ビデオ素材の再生進捗状況を特徴付けるために用いられるビデオ素材の再生情報を取得すること、及び再生情報に基づいてビデオ素材が再生完了したと判断する場合、目標位置においてビデオ素材を重複して再生すること、に用いられる。
本実施例により提供される機器は、上記の方法の実施例に係る解決手段を実現することができ、その実現原理及び技術的効果は類似するため、本実施例はここで繰り返して説明しない。
図13を参照すると、図13は、本開示の実施例を実現するために適した電子機器900の構造概略図を示しており、当該電子機器900は端末機器やサーバにすることができる。端末機器は、携帯電話、ノートブックコンピュータ、デジタル放送受信機、パーソナルデジタルアシスタント(Personal Digital Assistant、PDAと略称)、タブレットコンピュータ(Portable Android Device、PADと略称)、携帯型マルチメディアプレーヤー(Portable Media Player、PMPと略称)、車載端末(例えば、車載ナビゲーション端末)、ウェアラブル電子デバイスなどのモバイル端末、及びデジタルTV(Television)、デスクトップコンピュータ、スマートホームデバイスなどの固定端末を含むことができるが、それらに限定されない。図13に示される電子機器は単なる一例であり、本開示の実施例の機能及び使用範囲にいかなる制限も課すべきでない。
図13に示すように、電子機器900は、処理装置(中央処理装置やグラフィックプロセッサなど)901を含むことができ、当該処理装置は、読み取り専用メモリ(Read Only Memory、ROMと略称)902に記憶されたプログラムまたは記憶装置908からランダムアクセスメモリ(Random Access Memory、RAMと略称)903にロードされたプログラムに従って、フローチャートに示される方法を実行するためのプログラムコードなどさまざまな適切な動作及び処理を実行することができ、本開示の実施例に係る方法で限定されている上記機能を実現する。RAM903には、電子機器900の操作に必要なさまざまなプログラム及びデータも記憶されている。処理装置901、ROM902及びRAM903は、バス904を介して互いに接続されている。入力/出力(Input/Output、I/Oと略称)インタフェース905もバス904に接続されている。
通常、タッチスクリーン、タッチパッド、キーボード、マウス、カメラ、マイクロフォン、加速度計、ジャイロスコープなどを含む入力装置906と、液晶ディスプレイ(Liquid Crystal Display、LCDと略称)、スピーカー、バイブレータなどを含む出力装置907と、磁気テープやハードディスクなどを含む記憶装置908と、通信装置909とは、I/Oインタフェース905に接続されることができる。通信装置909は、電子機器900が他のデバイスと無線又は有線で通信してデータを交換することを可能にし得る。図13は、さまざまなデバイスを備える電子機器900を示すが、図示されたデバイスのすべてが実施又は配置される必要があるわけではないことを理解すべきである。代替的に、より多くの又は少ないデバイスが実施又は配置され得る。
特に、本開示の実施例によれば、フローチャートを参照して説明されている上記のプロセスは、コンピュータソフトウェアプログラムとして実施されることができる。例えば、本開示の実施例は、コンピュータ可読媒体に搭載されているコンピュータプログラムを含むコンピュータプログラム製品を含み、当該コンピュータプログラムがフローチャートに示される方法を実行するためのプログラムコードを含む。このような実施例では、当該コンピュータプログラムは、通信装置909を介してネットワークからダウンロード及びインストールされるか、または記憶装置908からインストールされるか、またはROM902からインストールされることができる。当該コンピュータプログラムは、処理装置901により実行されると、本開示の実施例に係る方法で限定されている上記機能が実行される。
本開示の実施例は、さらに、可読記憶媒体に記憶されているコンピュータプログラムを提供し、電子機器の1つ又は複数のプロセッサは、前記可読記憶媒体から前記コンピュータプログラムを読み取ることができ、前記1つ又は複数のプロセッサは前記コンピュータプログラムを実行すると、前記電子機器は上記いずれの実施例により提供される解決手段を実行する。
なお、本開示に記載されたコンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体又は上記2つの任意の組み合わせであり得る。コンピュータ可読記憶媒体は、例えば、電気的、磁気的、光学的、電磁的、赤外線、又は半導体のシステム、装置又はデバイス、あるいは上記の任意の組み合わせにすることができるが、それらに限定されない。コンピュータ可読記憶媒体のより具体的な例として、1本又は複数のワイヤを有する電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(Erasable Programmable Read-Only Memory、EPROM又はフラッシュメモリと略称)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(Portable Compact Disc Read-Only Memory、CD-ROMと略称)、光ストレージデバイス、磁気メモリコンポーネント、または上記の任意の適切な組み合わせを含み得るが、それらに限定されない。本開示では、コンピュータ可読記憶媒体は、命令実行システム、装置、またはデバイスによって使用されるか、またはそれらに組み合わせて使用できるプログラムを含む又は記憶する任意の有形媒体であり得る。本開示では、コンピュータ可読信号媒体は、ベースバンドで、または搬送波の一部として伝播されるデータ信号を含むことができ、その中にコンピュータ可読プログラムコードが搭載されている。このような伝播されたデータ信号は、電磁信号、光信号、または上記の任意の適切な組み合わせを含むがそれらに限定されない多くの形をとることができる。コンピュータ可読信号媒体は、さらに、コンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体にすることができ、当該コンピュータ可読信号媒体は、命令実行システム、装置、またはデバイスによって使用されるか、またはそれらに組み合わせて使用するためのプログラムを送信、伝播、または伝送することができる。コンピュータ可読媒体に含まれたプログラムコードは、電線、光ファイバケーブル、RF(Radio Frequency、無線周波数)などを含むがそれらに限定されない任意の適切な媒体、または上記の任意の適切な組み合わせを使用して伝送されることができる。
上記のコンピュータ可読媒体は、上記の電子機器に含まれていてもよく、または当該電子機器に組み立てられずに単独で存在していてもよい。
上記のコンピュータ可読媒体には、1つ又は複数のプログラムが搭載されており、上記の1つ又は複数のプログラムは当該電子機器により実行されると、当該電子機器は上記の実施例に示される方法を実行する。
本開示の操作を実行するためのコンピュータプログラムコードは、Java(登録商標)、Smalltalk、C++などのオブジェクト指向プログラミング言語と、「C」言語又はそれに類似するプログラミング言語などの従来の手続き型プログラミング言語と、を含む1つ又は複数のプログラミング言語、あるいはそれらの組み合わせで書くことができる。プログラムコードは、完全にユーザのコンピュータ上で、一部はユーザのコンピュータ上で、スタンドアロンソフトウェアパッケージとして、一部はユーザのコンピュータ上で、一部はリモートコンピュータ上で、または完全にリモートコンピュータ又はサーバ上で実行できる。リモートコンピュータの場合、リモートコンピュータは、ローカルエリアネットワーク(Local Area Network、LANと略称)やワイドエリアネットワーク(Wide Area Network、WANと略称)など、あらゆる種類のネットワークを介してユーザのコンピュータに接続されることができ、もしくは、外部コンピュータに接続されることもできる(例えば、インターネットサービスプロバイダーを使用してインターネット経由で接続する)。
図面のフローチャート及びブロック図は、本開示の様々な実施例によるシステム、方法、及びコンピュータプログラム製品によって実現可能なアーキテクチャ、機能、及び操作を示している。これに関して、フローチャート又はブロック図の各ブロックは、指定される論理的機能を実現するための1つ又は複数の実行可能な命令を含むモジュール、プログラムセグメント、又はコードの一部を表すことができる。いくつかの代替の実現では、ブロックに示されている機能が、図に示されている順序と異なる順序で実行できることにも注意すべきである。例えば、連結して表示される2つのブロックは、実際には、基本的に並行して実行できるが、または、関連する機能に応じて、ブロックが逆の順序で実行される場合もある。なお、ブロック図及び/又はフローチャートの各ブロック、及びブロック図及び/又はフローチャートのブロックの組み合わせは、指定される機能又は操作を実行する専用のハードウェアベースのシステムを使用して実現することができ、または、専用のハードウェアとコンピュータ命令の組み合わせを使用して実現することもできる。
本開示の実施例に記載されたユニットは、ソフトウェアで実現することができ、またはハードウェアで実現することもできる。これらのユニットの名称は、特定の状況下でのユニット自体を制限する目的ではない場合があり、例えば、第1の取得ユニットは、「少なくとも2つのインターネットプロトコルアドレスを取得するユニット」と記載してもよい。
本明細書で上記に説明された機能は、少なくとも部分的に、1つ又は複数のハードウェアロジックコンポーネントによって実行され得る。例えば、使用できるハードウェアロジックコンポーネントの例示的なタイプとして、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array、FPGAと略称)、特定用途向け集積回路(Field Programmable Gate Array、ASICと略称)、特定用途向け標準部品(Application Specific Standard Product、ASSPと略称)、システムオンチップ(System-on-a-chip、SOCと略称)、複雑なプログラマブルロジックデバイス(Complex Programmable Logic Device、CPLDと略称)などを含むことができるが、それらに限定されない。
本開示のコンテキストでは、機械可読媒体は、命令実行システム、装置、またはデバイスによって使用されるか、またはそれらに組み合わせて使用できるプログラムを含む又は記憶する有形媒体であり得る。機械可読媒体は、機械可読信号媒体又は機械可読記憶媒体であり得る。機械可読媒体は、電気的、磁気的、光学的、電磁的、赤外線、又は半導体のシステム、装置又はデバイス、あるいは上記の任意の組み合わせにすることができるが、それらに限定されない。機械可読記憶媒体のより具体的な例として、1本又は複数のワイヤに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光ストレージデバイス、磁気メモリコンポーネント、または上記の任意の適切な組み合わせを含み得る。
第1の態様では、本開示の1つ又は複数の実施例によれば、拡張現実に基づく表示方法を提供し、前記方法は、
第1のビデオを受信するステップと、前記第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得するステップと、画像収集装置によって収集される実景画像を取得して表示するステップと、前記ビデオ素材を前記実景画像の目標位置に拡張表示して前記ビデオ素材を再生するステップと、を含む。
第1のビデオを受信するステップと、前記第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得するステップと、画像収集装置によって収集される実景画像を取得して表示するステップと、前記ビデオ素材を前記実景画像の目標位置に拡張表示して前記ビデオ素材を再生するステップと、を含む。
本開示の1つ又は複数の実施例によれば、前記ビデオ素材は、前記第1のビデオに対してビデオ人物画像セグメンテーションを行って得られる人物画像ビデオ素材を含む。
本開示の1つ又は複数の実施例によれば、前記方法は、さらに、スクリーン座標情報を含む第2のユーザ命令を受信するステップと、現在の実景画像の中に前記スクリーン座標情報に対応する実景座標点を決定するステップと、前記実景座標点に基づいて前記実景画像における前記ビデオ素材の前記目標位置を決定するステップと、を含む。
本開示の1つ又は複数の実施例によれば、前記第2のユーザ命令には、さらに、寸法情報及び角度情報のうちの少なくとも一方が含まれ、前記寸法情報は、前記ビデオ素材の表示寸法を指示するために用いられ、前記角度情報は、前記画像収集装置が位置する平面である画像収集平面に対する前記ビデオ素材の表示角度を指示するために用いられる。
本開示の1つ又は複数の実施例によれば、前記ビデオ素材を再生するステップは、前記角度情報に基づいて前記角度情報に対応する表示角度で前記ビデオ素材を再生するステップを含む。
本開示の1つ又は複数の実施例によれば、前記実景座標点に基づいて前記実景画像における前記ビデオ素材の前記目標位置を決定するステップは、同時ローカリゼーションとマッピングアルゴリズムに基づき、前記実景画像に対応する同時ローカリゼーションとマッピング平面を獲得するステップであって、前記同時ローカリゼーションとマッピング平面は前記実景画像における実景のローカリゼーションモデルを特徴付けるために用いられるステップと、前記同時ローカリゼーションとマッピング平面により特徴付けられる実景画像における実景のローカリゼーションモデルに基づき、前記実景座標点に対応する同時ローカリゼーションとマッピング平面座標点を決定するステップと、前記同時ローカリゼーションとマッピング平面座標点に基づいて前記目標位置を決定するステップと、を含む。
本開示の1つ又は複数の実施例によれば、前記方法は、さらに、前記ビデオ素材に対応するオーディオ素材を取得するステップと、前記ビデオ素材を前記実景画像の中の目標位置に表示するとともに、前記ビデオ素材の再生タイムスタンプに従って前記オーディオ素材を同期して再生するステップと、を含む。
本開示の1つ又は複数の実施例によれば、前記方法は、さらに、前記ビデオ素材の再生進捗状況を特徴付けるために用いられる前記ビデオ素材の再生情報を取得するステップと、前記再生情報に基づいて前記ビデオ素材が再生完了したと判断する場合、前記目標位置において前記ビデオ素材を重複して再生するステップと、を含む。
第2の態様では、本開示の1つ又は複数の実施例によれば、拡張現実に基づく表示装置を提供し、前記装置は、
第1のビデオを受信するための受信ユニットと、
前記第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得するための取得ユニットと、
画像収集装置によって収集される実景画像を取得して表示すること、及び前記ビデオ素材を前記実景画像の目標位置に拡張表示して前記ビデオ素材を再生すること、に用いられる表示ユニットと、を含む。
第1のビデオを受信するための受信ユニットと、
前記第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得するための取得ユニットと、
画像収集装置によって収集される実景画像を取得して表示すること、及び前記ビデオ素材を前記実景画像の目標位置に拡張表示して前記ビデオ素材を再生すること、に用いられる表示ユニットと、を含む。
本開示の1つ又は複数の実施例によれば、前記ビデオ素材は、前記第1のビデオに対してビデオ人物画像セグメンテーションを行って得られる人物画像ビデオ素材を含む。
本開示の1つ又は複数の実施例によれば、受信ユニットは、さらに、スクリーン座標情報を含む第2のユーザ命令を受信すること、現在の実景画像の中に前記スクリーン座標情報に対応する実景座標点を決定すること、及び前記実景座標点に基づいて前記実景画像における前記ビデオ素材の前記目標位置を決定すること、に用いられる。
本開示の1つ又は複数の実施例によれば、前記第2のユーザ命令には、さらに、寸法情報及び角度情報のうちの少なくとも一方が含まれ、前記寸法情報は、前記ビデオ素材の表示寸法を指示するために用いられ、前記角度情報は、前記画像収集装置が位置する平面である画像収集平面に対する前記ビデオ素材の表示角度を指示するために用いられる。
本開示の1つ又は複数の実施例によれば、表示ユニットは、前記ビデオ素材を再生するとき、具体的に、前記角度情報に基づいて前記角度情報に対応する表示角度で前記ビデオ素材を再生するために用いられる。
本開示の1つ又は複数の実施例によれば、受信ユニットは、前記実景座標点に基づいて前記実景画像における前記ビデオ素材の前記目標位置を決定するとき、具体的に、同時ローカリゼーションとマッピングアルゴリズムに基づき、前記実景画像に対応する同時ローカリゼーションとマッピング平面を獲得し、前記同時ローカリゼーションとマッピング平面は前記実景画像における実景のローカリゼーションモデルを特徴付けるために用いられること、前記同時ローカリゼーションとマッピング平面により特徴付けられる実景画像における実景のローカリゼーションモデルに基づき、前記実景座標点に対応する同時ローカリゼーションとマッピング平面座標点を決定すること、及び前記同時ローカリゼーションとマッピング平面座標点に基づいて前記目標位置を決定すること、に用いられる。
本開示の1つ又は複数の実施例によれば、取得ユニットは、さらに、前記ビデオ素材に対応するオーディオ素材を取得すること、及び前記ビデオ素材を前記実景画像の中の目標位置に表示するとともに、前記ビデオ素材の再生タイムスタンプに従って前記オーディオ素材を同期して再生すること、に用いられる。
本開示の1つ又は複数の実施例によれば、取得ユニットは、さらに、前記ビデオ素材の再生進捗状況を特徴付けるために用いられる前記ビデオ素材の再生情報を取得すること、及び前記再生情報に基づいて前記ビデオ素材が再生完了したと判断する場合、前記目標位置において前記ビデオ素材を重複して再生すること、に用いられる。
第3の態様では、本開示の1つ又は複数の実施例によれば、少なくとも1つのプロセッサとメモリとを含む電子機器を提供し、
前記メモリはコンピュータ実行命令を記憶し、
前記少なくとも1つのプロセッサは前記メモリに記憶されているコンピュータ実行命令を実行すると、前記少なくとも1つのプロセッサは上記の第1の態様及び第1の態様の様々な可能な設計に記載されている拡張現実に基づく表示方法を実行する。
前記メモリはコンピュータ実行命令を記憶し、
前記少なくとも1つのプロセッサは前記メモリに記憶されているコンピュータ実行命令を実行すると、前記少なくとも1つのプロセッサは上記の第1の態様及び第1の態様の様々な可能な設計に記載されている拡張現実に基づく表示方法を実行する。
第4の態様では、本開示の1つ又は複数の実施例によれば、コンピュータ可読記憶媒体を提供し、前記コンピュータ可読記憶媒体にはコンピュータ実行命令が記憶されており、プロセッサが前記コンピュータ実行命令を実行するとき、上記の第1の態様及び第1の態様の様々な可能な設計に記載されている拡張現実に基づく表示方法が実現される。
第5の態様では、本開示の1つ又は複数の実施例によれば、コンピュータプログラムを含むコンピュータプログラム製品を提供し、当該コンピュータプログラムがプロセッサにより実行されるとき、上記の第1の態様及び第1の態様の様々な可能な設計に記載されている拡張現実に基づく表示方法が実現される。
第6の態様では、本開示の1つ又は複数の実施例によれば、コンピュータプログラムを提供し、当該コンピュータプログラムがプロセッサにより実行されるとき、上記の第1の態様及び第1の態様の様々な可能な設計に記載されている拡張現実に基づく表示方法が実現される。
上記した説明は、本開示のいくつかの好ましい実施例に関する説明、及び適用される技術的原理に関する説明にすぎない。当業者は、本開示の実施例に係る発明範囲が、上記技術的特徴の特定の組み合わせによって形成される解決手段に限定されず、上記発明構想から逸脱することなく、上記技術的特徴又はそれらの同等の特徴の任意の組み合わせによって形成される他の解決手段、例えば、上記特徴を、本開示で開示される(ただしこれに限定されない)同様の機能を有する技術的特徴に置き換えることによって形成される解決手段もカバーすべきであることを理解すべきである。
なお、特定の順序で各操作について説明したが、これらの操作は示されている特定の順序又は順番に実行されることを要求するものと理解されるべきではない。マルチタスクや並列処理は、一定の環境下では有利である場合がある。同様に、上述の説明にはいくつかの具体的な実現の詳細が含まれているが、これらは本開示の範囲を限定するものとして解釈されるべきではない。個々の実施例のコンテキストにおいて説明される特定の特徴は、単一の実施例において組み合わせて実現されてもよい。逆に、単一の実施例のコンテキストにおいて説明される様々な特徴は、複数の実施例において、単独で又は任意の適切なサブ組合せで実現されてもよい。
本主題は、構造的特徴及び/又は方法的論理動作に固有の言語を用いて説明されてきたが、添付の特許請求の範囲に限定される主題は、必ずしも上述の特定の特徴又は動作に限定されないことが理解されるべきである。逆に、上述の特定の特徴及び動作は、特許請求の範囲を実施するための例示的な形態にすぎない。
本願は、2020年12月18日に中国国家知識産権局に出願された、出願番号第202011508594.9号で、発明の名称が「拡張現実に基づく表示方法、装置、機器及び記憶媒体」という中国特許出願の優先権を主張し、その全ての内容は援用によって本願に組み込まれる。
以下、本開示の実施例や従来の技術における解決手段をより明瞭に説明するために、実施例又は従来の技術の記述において使用する必要がある図面を簡単に説明する。当然ながら、以下、記載する図面は本開示のいくつかの実施例であり、当業者であれば、創造的な労力を要することなく、これらの図面に基づいて他の図面を想到しうる。
従来の技術におけるビデオ撮影プロセスの一例を示す図である。
本開示の実施例により提供される拡張現実に基づく表示方法のフローチャート1である。
本開示の実施例により提供される第1のビデオを受信する一手段の概略図である。
本開示の実施例により提供される第1のビデオを受信する他の手段の概略図である。
本開示の実施例により提供されるビデオの中の目標物体をセグメンテーションする概略図である。
本開示の実施例により提供される実景画像の目標位置においてビデオ素材を再生する概略図である。
本開示の実施例により提供される拡張現実に基づく表示方法のフローチャート2である。
本開示の実施例により提供される、ユーザが第2のユーザ命令を入力する概略図である。
図7に示される実施例におけるステップS206のフローチャートである。
本開示の実施例により提供される1つの異なる表示角度でビデオ素材を再生する概略図である。
本開示の実施例により提供される他の異なる表示角度でビデオ素材を再生する概略図である。
本開示の実施例により提供される拡張現実に基づく表示装置の構造ブロック図である。
本開示の実施例により提供される電子機器のハードウェア構造概略図である。
さらに、1つの可能な実現形態では、第1のビデオは、ユーザが予め撮影して端末機器内に記憶したビデオであってもよいし、ユーザが記憶媒体を介してアップロードするか若しくはネットワークを介してダウンロードするような手段を用いて直接に端末機器内に記憶したビデオであってもよい。図3は、本開示の実施例により提供される第1のビデオを受信する一概略図であり、図3に示すように、第1のビデオを受信する方法は、ユーザが端末機器のユーザインタフェース(User Interface、UIと略称)をクリックして、端末機器のローカルに記憶しているビデオを選択することを含み、図3中に示すように、ローカルに記憶しているビデオ1、ビデオ2、ビデオ3、ビデオ4から、ビデオ1を第1のビデオとして選択してアップロードすることにより、端末機器が第1のビデオを受信するプロセスは実現される。
具体的には、第2のユーザ命令は、ユーザによって端末機器のUIを介して入力されるものであり、ビデオ素材を指定された位置に表示させるための命令である。図8は、本開示の実施例により提供される、ユーザが第2のユーザ命令を入力する概略図であり、図8に示すように、当該第2のユーザ命令は、ユーザのドラッグジェスチャーやクリックジェスチャーによって実現されることができ、第2のユーザ命令におけるスクリーン座標情報は、端末機器のスクリーンにジェスチャー操作が作用する座標、例えばスクリーンでのクリックジェスチャーの座標、スクリーンを横切るドラッグジェスチャーの座標を特徴付ける。端末機器は、当該第2のユーザ命令を受信した後、スクリーン座標情報に基づいて第2のユーザ命令に対応する目標位置を決定し、ビデオ素材を当該目標位置に表示する。
具体的には、Slamアルゴリズムは、未知環境における位置決めナビゲーションと地図構築の問題を解決するための方法であり、本実施例では、Slamアルゴリズムを用いて撮影環境に対応する実景画像情報を処理し、撮影環境における異なる実景物体間の位置決めを実現し、Slam平面を得て、当該Slam平面は、実景画像と撮影環境における実景物体との位置関係、すなわち、実景における実景物体のローカリゼーションモデルを特徴付けるために用いられる。Slamアルゴリズム及びSlamアルゴリズムを用いてSlam平面を生成する具体的な実現形態は従来の技術であり、本明細書では説明を省略する。
本明細書で上記に説明された機能は、少なくとも部分的に、1つ又は複数のハードウェアロジックコンポーネントによって実行され得る。例えば、使用できるハードウェアロジックコンポーネントの例示的なタイプとして、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array、FPGAと略称)、特定用途向け集積回路(Application Specific Integrated Circuit、ASICと略称)、特定用途向け標準部品(Application Specific Standard Product、ASSPと略称)、システムオンチップ(System-on-a-chip、SOCと略称)、複雑なプログラマブルロジックデバイス(Complex Programmable Logic Device、CPLDと略称)などを含むことができるが、それらに限定されない。
Claims (13)
- 拡張現実に基づく表示方法であって、
第1のビデオを受信するステップと、
前記第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得するステップと、
画像収集装置によって収集される実景画像を取得して表示するステップと、
前記ビデオ素材を前記実景画像の目標位置に拡張表示して前記ビデオ素材を再生するステップと、を含む、ことを特徴とする拡張現実に基づく表示方法。 - 前記ビデオ素材は、前記第1のビデオに対してビデオ人物画像セグメンテーションを行って得られる人物画像ビデオ素材を含む、ことを特徴とする請求項1に記載の方法。
- スクリーン座標情報を含む第2のユーザ命令を受信するステップと、
現在の実景画像の中に前記スクリーン座標情報に対応する実景座標点を決定するステップと、
前記実景座標点に基づいて前記実景画像における前記ビデオ素材の前記目標位置を決定するステップと、をさらに含む、ことを特徴とする請求項1に記載の方法。 - 前記第2のユーザ命令には、さらに、寸法情報及び角度情報のうちの少なくとも一方が含まれ、
前記寸法情報は、前記ビデオ素材の表示寸法を指示するために用いられ、
前記角度情報は、前記画像収集装置が位置する平面である画像収集平面に対する前記ビデオ素材の表示角度を指示するために用いられる、ことを特徴とする請求項3に記載の方法。 - 前記ビデオ素材を再生するステップは、
前記角度情報に基づいて前記角度情報に対応する表示角度で前記ビデオ素材を再生するステップを含む、ことを特徴とする請求項4に記載の方法。 - 前記実景座標点に基づいて前記実景画像における前記ビデオ素材の前記目標位置を決定するステップは、
同時ローカリゼーションとマッピングアルゴリズムに基づき、前記実景画像に対応する同時ローカリゼーションとマッピング平面を獲得するステップであって、前記同時ローカリゼーションとマッピング平面は前記実景画像における実景のローカリゼーションモデルを特徴付けるために用いられるステップと、
前記同時ローカリゼーションとマッピング平面により特徴付けられる実景画像における実景のローカリゼーションモデルに基づき、前記実景座標点に対応する同時ローカリゼーションとマッピング平面座標点を決定するステップと、
前記同時ローカリゼーションとマッピング平面座標点に基づいて前記目標位置を決定するステップと、を含む、ことを特徴とする請求項3に記載の方法。 - 当該方法は、さらに、
前記ビデオ素材に対応するオーディオ素材を取得するステップと、
前記ビデオ素材を前記実景画像の中の目標位置に表示するとともに、前記ビデオ素材の再生タイムスタンプに従って前記オーディオ素材を同期して再生するステップと、を含む、ことを特徴とする請求項1~6のいずれか1項に記載の方法。 - 当該方法は、さらに、
前記ビデオ素材の再生進捗状況を特徴付けるために用いられる前記ビデオ素材の再生情報を取得するステップと、
前記再生情報に基づいて前記ビデオ素材が再生完了したと判断する場合、前記目標位置において前記ビデオ素材を重複して再生するステップと、を含む、ことを特徴とする請求項1~6のいずれか1項に記載の方法。 - 拡張現実に基づく表示装置であって、
第1のビデオを受信するための受信ユニットと、
前記第1のビデオの中の目標物体をセグメンテーションし、ビデオ素材を取得するための取得ユニットと、
画像収集装置によって収集される実景画像を取得して表示すること、及び前記ビデオ素材を前記実景画像の目標位置に拡張表示して前記ビデオ素材を再生すること、に用いられる表示ユニットと、を含む、ことを特徴とする拡張現実に基づく表示装置。 - 少なくとも1つのプロセッサとメモリとを含む電子機器であって、
前記メモリはコンピュータ実行命令を記憶し、
前記少なくとも1つのプロセッサは前記メモリに記憶されているコンピュータ実行命令を実行すると、前記少なくとも1つのプロセッサは請求項1~8のいずれか1項に記載の拡張現実に基づく表示方法を実行する、ことを特徴とする電子機器。 - コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体にはコンピュータ実行命令が記憶されており、プロセッサが前記コンピュータ実行命令を実行するとき、請求項1~8のいずれか1項に記載の拡張現実に基づく表示方法が実現される、ことを特徴とするコンピュータ可読記憶媒体。
- コンピュータプログラムを含むコンピュータプログラム製品であって、当該コンピュータプログラムがプロセッサにより実行されるとき、請求項1~8のいずれか1項に記載の拡張現実に基づく表示方法が実現される、コンピュータプログラム製品。
- コンピュータプログラムであって、前記コンピュータプログラムがプロセッサにより実行されるとき、請求項1~8のいずれか1項に記載の拡張現実に基づく表示方法が実現される、ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011508594.9 | 2020-12-18 | ||
CN202011508594.9A CN112672185B (zh) | 2020-12-18 | 2020-12-18 | 基于增强现实的显示方法、装置、设备及存储介质 |
PCT/SG2021/050721 WO2022132033A1 (zh) | 2020-12-18 | 2021-11-24 | 基于增强现实的显示方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024502407A true JP2024502407A (ja) | 2024-01-19 |
Family
ID=75407004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023535769A Pending JP2024502407A (ja) | 2020-12-18 | 2021-11-24 | 拡張現実に基づく表示方法、装置、機器及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230328197A1 (ja) |
EP (1) | EP4246435A4 (ja) |
JP (1) | JP2024502407A (ja) |
CN (1) | CN112672185B (ja) |
WO (1) | WO2022132033A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113891140A (zh) * | 2021-09-30 | 2022-01-04 | 北京市商汤科技开发有限公司 | 一种素材编辑方法、装置、设备及存储介质 |
CN114500773B (zh) * | 2021-12-28 | 2023-10-13 | 天翼云科技有限公司 | 一种转播方法、系统和存储介质 |
CN114430466A (zh) * | 2022-01-25 | 2022-05-03 | 北京字跳网络技术有限公司 | 素材展示方法、装置、电子设备、存储介质及程序产品 |
CN115767141A (zh) * | 2022-08-26 | 2023-03-07 | 维沃移动通信有限公司 | 视频播放方法、装置和电子设备 |
CN117676061B (zh) * | 2023-12-07 | 2024-06-28 | 亿海蓝(北京)数据技术股份公司 | 图像处理方法、装置、可读存储介质和计算机程序产品 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7609888B2 (en) * | 2005-07-01 | 2009-10-27 | Microsoft Corporation | Separating a video object from a background of a video sequence |
KR20130099317A (ko) * | 2012-02-29 | 2013-09-06 | 한국전자통신연구원 | 인터랙티브 증강현실 구현 시스템 및 증강현실 구현 방법 |
KR101887548B1 (ko) * | 2012-03-23 | 2018-08-10 | 삼성전자주식회사 | 증강현실 서비스를 위한 미디어 파일의 처리 방법 및 장치 |
US9153073B2 (en) * | 2012-05-23 | 2015-10-06 | Qualcomm Incorporated | Spatially registered augmented video |
CN102821323B (zh) * | 2012-08-01 | 2014-12-17 | 成都理想境界科技有限公司 | 基于增强现实技术的视频播放方法、系统及移动终端 |
US20140225922A1 (en) * | 2013-02-11 | 2014-08-14 | Rocco A. Sbardella | System and method for an augmented reality software application |
US10509533B2 (en) * | 2013-05-14 | 2019-12-17 | Qualcomm Incorporated | Systems and methods of generating augmented reality (AR) objects |
US9934252B2 (en) * | 2014-03-10 | 2018-04-03 | Microsoft Technology Licensing, Llc | Metadata-based photo and/or video animation |
US9754416B2 (en) * | 2014-12-23 | 2017-09-05 | Intel Corporation | Systems and methods for contextually augmented video creation and sharing |
JP6529160B2 (ja) * | 2015-05-22 | 2019-06-12 | Kddi株式会社 | Ar情報表示装置 |
CN105912121A (zh) * | 2016-04-14 | 2016-08-31 | 北京越想象国际科贸发展有限公司 | 一种增强现实的方法及系统 |
CN106204423B (zh) * | 2016-06-28 | 2019-09-27 | Oppo广东移动通信有限公司 | 一种基于增强现实的图片调整方法、装置及终端 |
US20180210628A1 (en) * | 2017-01-23 | 2018-07-26 | Snap Inc. | Three-dimensional interaction system |
CN108629800A (zh) * | 2017-03-20 | 2018-10-09 | 北京三星通信技术研究有限公司 | 平面确定方法及增强现实显示信息的显示方法、相应装置 |
CN107027015A (zh) * | 2017-04-28 | 2017-08-08 | 广景视睿科技(深圳)有限公司 | 基于增强现实的3d动向投影系统以及用于该系统的投影方法 |
CN108305317B (zh) * | 2017-08-04 | 2020-03-17 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置及存储介质 |
CN109427096A (zh) * | 2017-08-29 | 2019-03-05 | 深圳市掌网科技股份有限公司 | 一种基于增强现实的自动导览方法和系统 |
CN109903392B (zh) * | 2017-12-11 | 2021-12-31 | 北京京东尚科信息技术有限公司 | 增强现实方法和装置 |
CN108255304B (zh) * | 2018-01-26 | 2022-10-04 | 腾讯科技(深圳)有限公司 | 基于增强现实的视频数据处理方法、装置和存储介质 |
WO2019203952A1 (en) * | 2018-04-17 | 2019-10-24 | Pearson Education, Inc. | Systems and methods for applications of augmented reality |
US10665028B2 (en) * | 2018-06-04 | 2020-05-26 | Facebook, Inc. | Mobile persistent augmented-reality experiences |
CN109189302B (zh) * | 2018-08-29 | 2021-04-06 | 百度在线网络技术(北京)有限公司 | Ar虚拟模型的控制方法及装置 |
US10867447B2 (en) * | 2019-01-21 | 2020-12-15 | Capital One Services, Llc | Overlaying 3D augmented reality content on real-world objects using image segmentation |
CN109903129A (zh) * | 2019-02-18 | 2019-06-18 | 北京三快在线科技有限公司 | 增强现实显示方法与装置、电子设备、存储介质 |
CN110412765B (zh) * | 2019-07-11 | 2021-11-16 | Oppo广东移动通信有限公司 | 增强现实图像拍摄方法、装置、存储介质及增强现实设备 |
CN111580652B (zh) * | 2020-05-06 | 2024-01-16 | Oppo广东移动通信有限公司 | 视频播放的控制方法、装置、增强现实设备及存储介质 |
CN111640193A (zh) * | 2020-06-05 | 2020-09-08 | 浙江商汤科技开发有限公司 | 文字处理方法、装置、计算机设备及存储介质 |
CN111638797A (zh) * | 2020-06-07 | 2020-09-08 | 浙江商汤科技开发有限公司 | 一种展示控制方法及装置 |
CN111833459B (zh) * | 2020-07-10 | 2024-04-26 | 北京字节跳动网络技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN111833460B (zh) * | 2020-07-10 | 2024-07-26 | 北京字节跳动网络技术有限公司 | 增强现实的图像处理方法、装置、电子设备及存储介质 |
CN112053370A (zh) * | 2020-09-09 | 2020-12-08 | 脸萌有限公司 | 基于增强现实的显示方法、设备及存储介质 |
CN112073807B (zh) * | 2020-11-11 | 2021-02-09 | 支付宝(杭州)信息技术有限公司 | 基于区块链的视频数据的处理方法和装置 |
-
2020
- 2020-12-18 CN CN202011508594.9A patent/CN112672185B/zh active Active
-
2021
- 2021-11-24 EP EP21907253.5A patent/EP4246435A4/en active Pending
- 2021-11-24 WO PCT/SG2021/050721 patent/WO2022132033A1/zh active Application Filing
- 2021-11-24 JP JP2023535769A patent/JP2024502407A/ja active Pending
-
2023
- 2023-06-09 US US18/332,243 patent/US20230328197A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4246435A4 (en) | 2024-05-15 |
WO2022132033A1 (zh) | 2022-06-23 |
CN112672185B (zh) | 2023-07-07 |
EP4246435A1 (en) | 2023-09-20 |
CN112672185A (zh) | 2021-04-16 |
US20230328197A1 (en) | 2023-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2024502407A (ja) | 拡張現実に基づく表示方法、装置、機器及び記憶媒体 | |
CN110058685B (zh) | 虚拟对象的显示方法、装置、电子设备和计算机可读存储介质 | |
US20210312695A1 (en) | Hair rendering method, device, electronic apparatus, and storage medium | |
US20180276882A1 (en) | Systems and methods for augmented reality art creation | |
CN106846497B (zh) | 应用于终端的呈现三维地图的方法和装置 | |
US11776209B2 (en) | Image processing method and apparatus, electronic device, and storage medium | |
CN112053449A (zh) | 基于增强现实的显示方法、设备及存储介质 | |
WO2021008627A1 (zh) | 游戏角色渲染方法、装置、电子设备及计算机可读介质 | |
CN109189302B (zh) | Ar虚拟模型的控制方法及装置 | |
WO2022170958A1 (zh) | 基于增强现实的显示方法、设备、存储介质及程序产品 | |
CN112965780B (zh) | 图像显示方法、装置、设备及介质 | |
CN112053370A (zh) | 基于增强现实的显示方法、设备及存储介质 | |
WO2023020239A1 (zh) | 特效生成方法、装置、电子设备及存储介质 | |
JP2023533295A (ja) | 拡張現実の画像処理方法、装置、電子機器及び記憶媒体 | |
US20230405475A1 (en) | Shooting method, apparatus, device and medium based on virtual reality space | |
CN116958344A (zh) | 虚拟形象的动画生成方法、装置、计算机设备及存储介质 | |
CN111652675A (zh) | 展示方法、装置和电子设备 | |
CN113436348B (zh) | 三维模型处理方法、装置、电子设备及存储介质 | |
CN114049403A (zh) | 一种多角度三维人脸重建方法、装置及存储介质 | |
CN109636917B (zh) | 三维模型的生成方法、装置、硬件装置 | |
WO2023211364A2 (zh) | 图像处理方法、装置、电子设备及存储介质 | |
WO2022227918A1 (zh) | 视频处理方法、设备及电子设备 | |
JP7427786B2 (ja) | 拡張現実に基づく表示方法、機器、記憶媒体及びプログラム製品 | |
CN116824688A (zh) | 小腿动作捕捉方法、系统及存储介质 | |
CN116149469A (zh) | 一种基于ar设备的用户行为录制方法及ar设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230615 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230615 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240903 |