JP7422876B2 - 拡張現実に基づいた表示方法及び装置、並びに記憶媒体 - Google Patents

拡張現実に基づいた表示方法及び装置、並びに記憶媒体 Download PDF

Info

Publication number
JP7422876B2
JP7422876B2 JP2022530864A JP2022530864A JP7422876B2 JP 7422876 B2 JP7422876 B2 JP 7422876B2 JP 2022530864 A JP2022530864 A JP 2022530864A JP 2022530864 A JP2022530864 A JP 2022530864A JP 7422876 B2 JP7422876 B2 JP 7422876B2
Authority
JP
Japan
Prior art keywords
image
target object
virtual image
virtual
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022530864A
Other languages
English (en)
Other versions
JP2023504030A (ja
Inventor
ルゥ,ジション
チェン,ジリ
ジャン,ジンツォン
チェン,ズハオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zitiao Network Technology Co Ltd
Original Assignee
Beijing Zitiao Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zitiao Network Technology Co Ltd filed Critical Beijing Zitiao Network Technology Co Ltd
Publication of JP2023504030A publication Critical patent/JP2023504030A/ja
Application granted granted Critical
Publication of JP7422876B2 publication Critical patent/JP7422876B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Description

本開示の実施形態は、拡張現実に基づいた表示方法及び装置、並びに記憶媒体に関する。
拡張現実(AR)技術は、仮想情報を現実世界と統合する技術であり、様々な技術手段、例えば、マルチメディア、3次元モデリング、実時間トラッキング及びレジストレーション、インテリジェントインタラクション、及びセンシングを広く使用して、テキスト、画像、3次元モデル、音楽、及び映像などの、コンピュータにより生成された仮想情報をシミュレートし、かつ、コンピュータにより生成された仮想情報を現実世界に適用する。2種類の情報は相互補完的であり、これによって、現実世界の「拡張」(augmentation)が実装される。AR技術の発展とともに、それは様々な産業で広範囲にわたって使用されている。
先行技術でのAR技術の応用は、仮想モデル(例えば、カートゥーンキャラクタモデル、動物モデル、など)を現実世界の上に重ね合わせることである。しかし、先行技術の仮想モデルは、通常は固定されており、開発者によって予め設計された仮想モデル画像である。結果として、ユーザの様々なニーズを満足することができない比較的に単一の仮想モデル画像となり、AR技術を使用しようとするユーザの意欲及びユーザ経験に影響を及ぼす。
本開示の実施形態は、仮想モデル画像が比較的に単一であり、ユーザの様々なニーズを満足することができない、という問題を解決するように、拡張現実に基づいた表示方法及び装置、並びに記憶媒体を提供する。
第1の態様では、本開示の実施形態は、拡張現実に基づいた表示方法であって、ユーザからの第1指示に応答して、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得するステップと、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成するステップと、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示するステップとを有する方法を提供する。
第2の態様では、本開示の実施形態は、拡張現実に基づいた表示装置であって、ユーザからの第1指示に応答して、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得するよう構成されるターゲットオブジェクト決定ユニットと、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成するよう構成される生成ユニットと、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示するよう構成される表示ユニットとを有する表示装置を提供する。
第3の態様では、本開示の実施形態は、少なくとも1つのプロセッサと、メモリとを有し、メモリは、コンピュータ実行可能命令を記憶し、少なくとも1つのプロセッサは、少なくとも1つのプロセッサに、上記の第1の態様及び第1の態様の様々な可能な設計で記載される方法を実行させるように、メモリに記憶されているコンピュータ実行可能命令を実行する、電子機器を提供する。
第4の態様では、本開示の実施形態は、コンピュータ実行可能命令を記憶し、コンピュータ実行可能命令がプロセッサによって実行される場合に、上記の第1の態様及び第1の態様の様々な可能な設計で記載される方法が実装されるコンピュータ可読記憶媒体を提供する。
本開示の実施形態は、拡張現実に基づいた表示方法及び装置、並びに記憶媒体を提供する。方法は、ユーザからの第1指示に応答して、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得し、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成し、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示する。ターゲットオブジェクト画像を取得し、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成することによって、仮想画像が予め設計される必要があり、画像が単一であって固定されているという問題は、回避可能である。本開示の実施形態では、様々な仮想画像がユーザ要求に応じて生成可能であり、ユーザの様々なニーズが満足され得る。仮想画像は、拡張現実技術を使用することによって実時間シーン画像内のターゲット位置で表示され得る。それにより、AR技術を使用しようとするユーザの意欲及びユーザ経験は高められ得る。
本開示の実施形態における技術的解決法又は既知の技術における技術的解決法についてより明りょうに説明するために、以下は、実施形態又は既知の技術の記載において使用される必要がある添付の図面を簡潔に紹介する。当業者にとっては当然ながら、以下で説明される添付の図面は、本開示の一部の実施形態であり、他の図面も、創造的な作業を前提とせずに、これらの図面に従って得られる。
本開示の実施形態に従う拡張現実に基づいた表示方法の略フローチャートである。 本開示の実施形態に従う、ターゲットオブジェクト画像の輪郭を表示する例を表す図である。 本開示の実施形態に従う、ユーザが第1指示を発すること、及びターゲットオブジェクト画像を表示することの例を表す図である。 本開示の実施形態に従う、ターゲットオブジェクト画像に対応する仮想画像の例を表す図である。 本開示の実施形態に従う、実時間シーン画像において仮想画像を表示する例を表す図である。 本開示の実施形態に従う拡張現実に基づいた表示方法の略フローチャートである。 本開示の実施形態に従う拡張現実に基づいた表示方法の略フローチャートである。 本開示の実施形態に従う、ターゲットオブジェクトに対応する仮想画像を取得するプロセスの例を表す図である。 本開示の実施形態に従う拡張現実に基づいた表示装置の構造ブロック図である。 本開示の実施形態に従う電子装置のハードウェア構造を表す概略図である。
本開示の実施形態の目的、技術的解決法、及び利点をより明らかにするために、本開示の実施形態の技術的解決法は、本開示の実施形態における添付の図面を参照して以下で明りょうにかつ完全に記載される。明らかに、記載されている実施形態は、本開示の実施形態のほんの一部であり、全部ではない。本開示中の実施形態に基づき、当業者は、如何なる創造的な作業もなしで、他の実施形態を得ることができ、そのような他の実施形態は、本開示の保護範囲内にあるべきである。
本開示の実施形態は、スマートフォン、タブレットコンピュータ、及びウェアラブルデバイス、などのような、AR機能を備えているあらゆる電子機器に適用可能であり、本開示の実施形態の適用シナリオは、例えば、電子機器がその画像収集ユニットを通じて実時間シーン画像を捕捉し、実時間シーン内のターゲットオブジェクトに従って、対応する仮想画像を生成し、最後に、本開示の様々な実施形態に従う拡張現実に基づいた表示方法により、実時間シーンでのターゲットオブジェクトに対応する仮想画像の拡張表示を実行する、ことを含んでよい。拡張表示は、拡張現実に基づき仮想オブジェクトを表示することを含む。例えば、実時間シーン画像内のターゲットオブジェクトは、マンゴー(mango)であり、ターゲットオブジェクト‘マンゴー’に対応する仮想画像は、本開示の実施形態における仮想画像生成方法を使用することによって、生成される。ターゲットオブジェクト‘マンゴー’に対応する仮想画像は、強調されて、実時間シーン画像において表示され、更には、仮想画像が本開示の様々な実施形態に従う拡張現実に基づいた表示方法によって処理された後で、アニメーションの形で動的に表示され得る。更に、マンゴーに対応する仮想画像は、手足及び/又は表情を有してもよく、手足及び/又は表情は、マンゴーに対応する仮想画像が実時間シーン内で動くように、特定の動作を有してもよい。
図1を参照すると、図1は、本開示の実施形態に従う拡張現実に基づいた表示方法の略フローチャートである。実施形態の方法は、AR機能を備えている電子機器に適用されてよい。拡張現実に基づいた表示方法は、以下で記載されるステップを含み得る。
S101,ユーザからの第1指示に応答して、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得する。
実施形態において、電子機器の、カメラなどの画像収集ユニットは、実時間シーン画像を捕捉し、電子機器の表示ユニットで実時間シーン画像を表示し得る。ユーザが実時間シーン画像内の特定のターゲットオブジェクト画像に対応する仮想画像を取得したい場合に、ユーザは第1指示を与えてよく、それにより、電子機器は、第1指示に従って、実時間シーン画像においてターゲットオブジェクト画像を取得する。一実施形態では、電子機器は、第1指示に従って、画像収集ユニットによって捕捉された実時間シーン画像内のターゲットオブジェクト画像に基づき、取得されたターゲットオブジェクト画像と同じターゲットオブジェクト画像を複製し、複製されたターゲットオブジェクト画像に基づき仮想画像を生成し得る。
特に、電子機器は、ターゲットオブジェクト画像を取得するよう実時間シーン画像からターゲットオブジェクトをセグメント化し得る。更に、電子機器は、ターゲットオブジェクトがセグメント化された後で得られたターゲットオブジェクト画像にタグ付けし得る。具体的に、電子機器は、実時間シーン画像からターゲットオブジェクトをセグメント化してターゲットオブジェクト画像を取得するために、プレロードされているオブジェクトセグメンテーションアルゴリズムを実行し得る。本開示の実施形態で使用されるオブジェクトセグメンテーションアルゴリズムは、サリエントオブジェクト(salient object)セグメンテーションアルゴリズムを含んでもよく、セグメント化中に、実時間シーン画像内の顕著な(salient)オブジェクトがターゲットオブジェクトとして使用され、ターゲットオブジェクト画像を取得するようセグメント化され得る。顕著なオブジェクトは、実時間シーン画像内の背景色とは有意な相違を有しているオブジェクトであってよく、また、実時間シーン画像の中央領域にあるオブジェクト、又は実時間シーン画像内で最大面積を占有しているオブジェクトであってもよい。例えば、図2Aに示されるように、実時間シーン画像内のマンゴーは、実時間シーン画像の中央領域に位置し、最大面積を占有しているので、ターゲットオブジェクトと見なされ得る。その上、ひと組のイヤホンは、実時間シーン画像の中央領域に位置しておらず、マンゴーよりもずっと占有面積が小さいので、ターゲットオブジェクトと見なされない。
更に、電子機器がターゲットオブジェクト画像を取得し、ターゲットオブジェクト画像にタグ付けする場合に、電子機器は、ターゲットオブジェクト画像を強調表示し得る。例えば、図2Aに示されるように、ターゲットオブジェクト画像の輪郭が強調表示されてもよく、あるいは、ターゲットオブジェクト画像も強調表示されてもよく、あるいは、ターゲットオブジェクト画像以外の画像領域がより低い輝度で表示されてもよい、など。それによって、ユーザは、電子機器によって目下セグメント化されているターゲットオブジェクトが、ユーザによって要求されているターゲットオブジェクトと一致しているかどうかを確かめることができる。ターゲットオブジェクトがユーザによって要求されているターゲットオブジェクトと一致することをユーザが確認すると、ユーザは第1指示を発し得る。ここで、第1指示は、タグ付けされたターゲットオブジェクト画像に対するクリック操作指示、ドラッグ操作指示、音声操作指示、表情認識によって取得された操作指示、などを含むが、これらに限られない。本開示は、第1指示の具体的な形式を特に限定するものではない。図2Bに示されるように、ユーザは、ターゲットオブジェクト画像の輪郭領域内をドラッグすることによって、上記のドラッグ操作指示を与えることができる。ターゲットオブジェクトがユーザによって要求されているターゲットオブジェクトと一致しないことをユーザが確認する場合に、ユーザは電子機器を動かしてよく、それにより、電子機器の画像収集ユニットは、実時間シーン画像を捕捉し直すよう角度を変え、それからオブジェクトセグメンテーションアルゴリズムを再び実行して、実時間シーン画像内の顕著なオブジェクトをターゲットオブジェクトとしてセグメント化し、取得されたターゲットオブジェクト画像にタグ付けする。よって、ユーザは、電子機器によって決定された現在のターゲットオブジェクトがユーザによって要求されているターゲットオブジェクトと一致するかどうかを、そして、セグメンテーション効果がユーザの期待を満足するかどうかを再確認することができる。
任意に、電子機器がターゲットオブジェクト画像を取得し、ターゲットオブジェクト画像にタグ付けする場合に、プロンプトメッセージが表示ユニットで表示されてもよく、例えば、「スキャンするオブジェクトに焦点を合わせ、ドラッグして下さい」といったプロンプトワードが表示されてもよく、あるいは、指でターゲットオブジェクト画像をドラッグしてターゲットオブジェクト画像を平面に配置する動的プロンプト図のような、動的プロンプト図が表示されてもよく、それによって、ターゲットオブジェクト画像を確認及び操作する方法をユーザに促す。
S102,ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成する。
実施形態において、ターゲットオブジェクト画像(例えば、オリジナルのターゲットオブジェクト画像から複製した後に取得されたターゲットオブジェクト画像)を取得した後、電子機器は、ターゲットオブジェクト画像に基づき、ターゲットオブジェクトに対応する仮想画像を生成し得る。ここで、仮想画像は、手足-身体(limb-body)動作及び/又は表情動作を有してよい。例えば、ターゲットオブジェクト画像がマンゴーの画像である場合に、対応する仮想画像は、図3に示されるように、マンゴーの画像に手足及び顔の表情を有してもよい。更に、手足及び表情は、電子機器の画面上で動くようにマンゴーの仮想画像を駆動するための特定の動作を有してもよい。
代替的に、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成する場合に、ターゲットオブジェクト画像は、ターゲットオブジェクトに対応する仮想画像を生成するようアニメーション素材と合成されてもよい。ここで、アニメーション素材は、仮想画像の手足-身体アニメーション素材及び/又は表情アニメーション素材を含む。言い換えると、実施形態において、ターゲットオブジェクトに対応する仮想画像の手足-身体動作及び/又は表情動作は、その後の合成プロセスで使用される対応する手足-身体アニメーション素材及び/又は表情アニメーション素材を生成するよう前もってセットされてもよい。すなわち、身体アニメーション素材及び/又は表情アニメーション素材が、ターゲットオブジェクトに対応する仮想画像を取得するためにターゲットオブジェクト画像に加えられてもよく、仮想画像の手足及び/又は表情は、手足-身体アニメーション素材及び/又は表情アニメーション素材の再生に従って特定の動作を実行し得る。
S103,拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示する。
実施形態において、ターゲットオブジェクトの仮想画像を取得した後、電子機器は、拡張現実表示技術によって実時間シーン画像においてターゲットオブジェクトの仮想画像を表示し得る。すなわち、仮想画像は、図4に示されるように、拡張表示の効果を達成するために拡張現実表示技術によって現実の実時間シーン画像の上に重ね合わされ得る。特に、仮想画像は、実時間シーン画像内の任意の位置で、例えば、実時間シーン画像において検出された任意の平面領域に、又は実時間シーン画像においてユーザによって指定されたターゲット位置で、表示され得る。これは、実施形態において制限されない。
代替の実施形態では、ユーザは、取得された複製ターゲットオブジェクト画像をオリジナルのターゲットオブジェクト画像の初期位置から実時間シーン画像内の位置へドラッグしてもよい。更に、ターゲットオブジェクトの仮想画像は、拡張現実表示技術に基づきこの位置で表示される。代替的に、複製ターゲットオブジェクト画像に基づき生成されたターゲットオブジェクトの仮想画像は、最初に表示されてもよく、それから、仮想画像は、ユーザのドラッグ操作に基づき実時間シーン画像内の位置で表示され得る。
一実施形態では、ユーザは、表示されている仮想画像を回転させ、ズームイン若しくはズームアウトし、又は移動してもよい。例えば、ユーザは、電子機器の表示インターフェースで仮想画像に対する制御指示を与えることができる。制御指示は、回転制御指示、ズームアウト制御指示、移動制御指示、及びズームイン制御指示を含み得るが、これらに限られず、電子機器は、仮想画像に対するユーザの制御指示に応答して、対応する制御を仮想画像に対して実行し得る。留意されるべきは、実施形態における回転は、任意の場合の下での仮想画像の角度の変化を含んでもよく、移動は、任意の場合の下での仮想画像の位置の変化を含んでもよい点である。ズームイン又はズームアウト(スケーリング)は、任意の場合の下での仮想画像のサイズの変化を含んでもよい。当然のこととして、実施形態において、ユーザは、仮想画像との更なる他のインタラクションプロセスを実行してもよいが、これは、簡潔さのために、ここで1つずつ冗長的に記載されない。
実施形態で提供される拡張現実に基づいた表示方法において、ユーザからの第1指示に応答して、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得し、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成し、拡張現実表示技術に基づき、実時間シーン画像において仮想画像を表示するよう拡張する。ターゲットオブジェクト画像を取得し、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成することによって、仮想画像が前もって設計される必要があり、画像が単一であって固定されているという問題は、回避され得る。実施形態において、様々な仮想画像がユーザ要求に応じて生成可能であり、ユーザの様々なニーズが満足され得る。仮想画像は、拡張現実技術を使用することによって実時間シーン画像内のターゲット位置で表示可能であり、それにより、AR技術を使用しようとするユーザの意欲及びユーザ経験は、高められ得る。
本開示の一実施形態では、任意に、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得するときに、オブジェクトセグメンテーションアルゴリズムについて、オブジェクトセグメンテーションアルゴリズムが長時間実行されて、電子機器の計算資源を占有することを防ぐために、オブジェクトセグメンテーションアルゴリズムは、タイムリーに実行されて、実行を止めるよう制御され得る。図5に示されるように、具体的なプロセスは、次のステップを含み得る。
S201,ユーザからのトリガ指示に応答して、実時間シーン画像内のターゲットオブジェクトに対してオブジェクトセグメンテーションを実行するために、プレロードされているオブジェクトセグメンテーションアルゴリズムを実行する。
S202,第1指示に応答して、オブジェクトセグメンテーションアルゴリズムの実行を止める。
実施形態において、オブジェクトセグメンテーションアルゴリズムが実行される必要がある場合に、ユーザはトリガ指示を与えることができる。トリガ指示は、画像収集ユニットをオンするトリガ指示、又は画像収集ユニットが実時間シーン画像を捕捉する過程でユーザがインターフェース内の開始ボタンをトリガする場合にユーザによって発せられるトリガ指示であってよい。電子機器は、ユーザからのトリガ指示に応答してオブジェクトセグメンテーションアルゴリズムを開始及び実行し、それによって、実時間シーン画像からターゲットオブジェクトをセグメント化することを開始する。更に、ユーザが第1指示を与え、電子機器が第1指示に応じて実時間シーン画像においてターゲットオブジェクト画像を取得した後、オブジェクトセグメンテーションアルゴリズムの実行はこの時点で停止され得る。
当然のこととして、ユーザは、他の方法で、例えば、画像収集ユニットを閉じること、又はインターフェース内の停止ボタンをトリガすることによって、実行を止めるようにオブジェクトセグメンテーションアルゴリズムを制御してもよいが、これは、ここで制限されるものではない。
例えば、電子機器は、アルゴリズムモジュールでオブジェクトセグメンテーションアルゴリズムを実行する。第1トリガ指示(実行するようにアルゴリズムをトリガするための指示に対応)が受け取られると、オブジェクトセグメンテーションアルゴリズムの実行が開始される。第2トリガ指示(実行を停止するようにアルゴリズムをトリガするための指示に対応)が受け取られると、オブジェクトセグメンテーションアルゴリズムの実行が停止される。
一実施形態では、ユーザはまた、長押し操作によりオブジェクトセグメンテーションアルゴリズムの開始を制御することもできる。オブジェクトセグメンテーションアルゴリズムは、長押し操作の過程で実行し続けてよい。長押し操作が終わると、オブジェクトセグメンテーションアルゴリズムの実行は終了し得る。
オブジェクトセグメンテーションアルゴリズムは、上記のように適宜実行されて実行を停止するよう制御され、従って、オブジェクトセグメンテーションアルゴリズムが電子機器で長時間作動することは回避され得、電子機器の計算資源は節約され得る。
上記のいずれかの実施形態に基づき、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成する場合に、ターゲットオブジェクト画像は、ターゲットオブジェクトに対応する仮想画像を生成するようアニメーション素材と合成されてよく、アニメーション素材は、仮想画像の手足-身体アニメーション素材及び/又は表情アニメーション素材を含む。
一実施形態では、図6に示されるように、ターゲットオブジェクト画像をアニメーション素材と合成するステップは、具体的に、次のステップを含み得る。
S301,手足-身体アニメーション素材及び/又は表情アニメーション素材を取得する。
S302,ターゲットオブジェクト画像上の複数の接続点を決定する。
S303,複数の接続点を用いて手足-身体アニメーション素材及び/又は表情アニメーション素材をターゲットオブジェクト画像と合成して、ターゲットオブジェクトに対応する仮想画像を生成する。
実施形態において、電子機器は、最初に、仮想画像の手足-身体アニメーション素材及び/又は表情アニメーション素材を取得してよく、手足-身体アニメーション素材及び/又は表情アニメーション素材は、電子機器で事前設定され記憶されてよい。合成が必要とされる場合に、電子機器は、手足-身体アニメーション素材及び/又は表情アニメーション素材を取り出し、それから、ターゲットオブジェクト画像の特性(例えば、形状、サイズ、テクスチャ)に基づきターゲットオブジェクト画像上の複数の接続点を決定してよく、接続点は、手足-身体アニメーション素材及び/又は表情アニメーション素材がターゲットオブジェクト画像と結合される位置である。例えば、電子機器は、ターゲットオブジェクト画像を仮想画像の身体の胴体として、及びターゲット画像上で決定された複数の接続点を手足接続点としてセットし得る。よって、接続点は、身体の胴体との手足の接続点を含み得る。次いで、電子機器は、ターゲットオブジェクト画像が手足を有するように、接続点を用いて手足-身体アニメーション素材をターゲットオブジェクト画像と合成し得る。更に、電子機器はまた、ターゲットオブジェクト画像に従って、ターゲットオブジェクト画像上でターゲットオブジェクトに対応する仮想画像の身体の胴体での表情の配置位置を決定し、ターゲットオブジェクト画像が表情を有するように表情アニメーション素材をターゲットオブジェクト画像と合成してもよい。更に、手足及び/又は表情はまた、特定のアニメーション効果を有してもよく、これによって、アニメーション効果を有しているターゲットオブジェクトに対応する仮想画像が、図7で詳細に示されるように、更に取得される。
更に、電子機器はまた、手足-身体アニメーション素材及び/又は表情アニメーション素材を再生することを含め、アニメーション素材を再生してもよく、よって、仮想画像に対して動き及び/又は表情制御を実行する、すなわち、ターゲットオブジェクトに対応する仮想画像の手足及び/又は表情が対応する動きを示すことを可能にする。
具体的に、電子機器は、仮想画像に対して動き及び/又は表情制御を実行するようアニメーション素材の前もってセットされたアニメーションフレームに従ってアニメーション素材を再生しても、かつ/あるいは、ターゲットオブジェクトに対応する仮想画像に対して動き及び/又は表情制御を実行するようユーザの手足-身体動作及び/又は表情に基づきアニメーション素材のアニメーションフレームを生成及び再生してもよい。言い換えると、上記のアニメーション素材は、前もってセットされたアニメーションフレームを含んでよく、どのような具体的なアニメーションが手足及び/又は表情について示されるかが、前もってセットされたアニメーションフレームにおいて、前もってセットされてよい。一実施形態では、電子機器はまた、実時間でユーザの画像を捕捉し、ユーザの手足-身体動作及び/又は表情動作に従って手足-身体アニメーション素材及び/又は表情アニメーション素材のアニメーションフレームを生成してもよく、そのようにして、ユーザが、ユーザの動作により、ターゲットオブジェクトに対応する仮想画像の動きを制御することができることを達成する。例えば、ユーザが特定の手足-身体動作を行う場合に、仮想画像はそれに応じて同じ手足-身体動作を示し、かつ/あるいは、ユーザが特定の表情をする場合に、仮想画像はそれに応じて同じ表情を示す。ユーザの操作経験及び満足は、ユーザの動作を用いてターゲットオブジェクトに対応する仮想画像の動作を駆動及び制御することによって、高められ得る。
上記のいずれかの実施形態に基づき、拡張現実表示技術に基づき実時間シーン画像内のターゲット位置でターゲットオブジェクトの仮想画像を表示するステップは、次の動作を含む。
実時間シーン画像内に仮想平面を生成し、仮想平面で3次元(3D)空間を生成し、拡張現実表示技術に基づき、生成された3次元空間において、ターゲットオブジェクトの仮想画像を表示する。
実施形態において、ターゲットオブジェクトの仮想画像の拡張表示を実行する場合に、実時間シーン画像内の仮想画像の動きがより現実的かつ3次元であることを確かにするために、仮想3D空間が実時間シーン画像において作られ得る。具体的に、仮想平面が最初に実時間シーン画像において作られ、次いで、3D空間が、仮想平面に基づき仮想平面上に生成され、更には、仮想画像が、拡張現実表示技術に基づき3D空間において強調及び表示される。
上記の実施形態に基づき、実時間シーン画像内に仮想平面を生成することは、具体的に次の動作を含み得る。
ターゲット平面領域が実時間シーン画像に存在することを検出する場合に、ターゲット平面領域に基づき仮想平面を生成し、ターゲット平面領域は、第1の前もってセットされた距離範囲内の画像収集ユニットまでの距離を有する平面領域、及び/又は実時間シーン画像の中央領域に位置している平面領域である。あるいは、実時間シーン画像内の特定の位置で仮想平面を生成する。
実施形態において、電子機器は、例えば、自己位置推定及びマッピングの同時実行(simultaneous localization and mapping)(SLAM)アルゴリズムにより、実時間シーン画像に基づき、実時間シーン画像に含まれている平面領域を検出し、第1の前もってセットされた距離範囲内の画像収集ユニットまでの距離を有する平面領域、及び/又は実時間シーン画像の中央領域に位置している平面領域が存在するかどうかを決定し得る。そのような平面領域が存在する場合には、検出された平面領域がターゲット平面領域として使用され得る。更に、仮想平面は、ターゲット平面領域に基づき作られ、仮想平面は、ターゲット平面領域に近くても、あるいは、ターゲット平面領域に平行であり、ターゲット平面領域まである一定距離を保ってもよい。電子機器によってターゲット平面領域が検出されない場合には、仮想平面は、実時間シーン画像内の特定の位置で作られてもよい。代替的に、電子機器はターゲット平面領域を検出せず、仮想平面は、実時間シーン画像内の特定の位置で直接に作られ、このとき、実時間シーン画像内の特定の位置は、実時間シーン画像の中央領域又は左上隅のような領域を含んでもよく、特定の位置が実時間シーン画像において具体的に位置している位置は、実際には必要に応じてセットされてよい。
上記の実施形態に基づき、生成された3D空間においてターゲットオブジェクトの仮想画像を表示する場合に、3D空間は比較的に大きい可能性があるので、仮想画像が3D空間のターゲット位置で特に表示されることが決定される必要がある。すなわち、ターゲット位置が最初に3D空間において決定されてよく、ターゲットオブジェクトの仮想画像は、拡張現実表示技術に基づき3D空間のターゲット位置で表示され得る。
上記の実施形態に基づき、3次元空間においてターゲット位置を決定することは、具体的に次の動作を含み得る。
ユーザから位置指定指示を受け取り、ユーザからの位置指定指示によってトリガされた位置ポイントに基づき3次元空間において3次元アンカーポイントを定め、その3次元アンカーポイントをターゲット位置として使用する。
実施形態において、ユーザは位置指定指示を発してよく、電子機器は、ユーザから位置指定指示を受け取った後、ユーザからの位置指定指示によってトリガされた位置ポイントを決定してよい。直線が、その直線と3D空間との間の交点を形成するように位置ポイントから3D空間へ延在し、そして、3Dアンカーポイントが、交点に基づき3D空間において作られる。3Dアンカーポイントは、3D空間において仮想画像を表示するためのターゲット位置であり、次いで、電子機器は、3D空間内の3Dアンカーポイントでのターゲットオブジェクトの仮想画像の拡張表示を実行し得る。
任意に、ユーザからの位置指定指示は、仮想画像上でのユーザのドラッグ操作の終了指示であってもよく、ドラッグ終了指示によってトリガされた位置(つまり、ユーザのドラッグが終了した位置)が、ユーザからの位置指定指示によってトリガされた位置ポイントである。更に、位置指定指示は、仮想画像上でのユーザのドラッグ操作の終了指示に限られず、ユーザからのクリック操作指示であってもよく、クリック操作指示によってトリガされた位置ポイント(つまり、ユーザがクリックした位置)が、ユーザからの位置指定指示によってトリガされた位置ポイントである。
当然、電子機器はまた、実時間シーン画像内の如何なる位置でも仮想モデルを表示してもよく、例えば、実時間シーン画像において電子機器によって特定された任意の平面領域に表示してもよい。電子機器は、他の方法で仮想モデルの表示位置を決定してもよく、これは、ここで制限されない。
上記のいずれかの実施形態に基づき、ターゲットオブジェクト画像に基づきターゲットオブジェクトの仮想画像を生成した後、実時間シーン画像内のターゲット位置でターゲットオブジェクトの仮想画像の拡張表示を実行する前に、事前配置段が更に含まれる。すなわち、ターゲットオブジェクトに対応する仮想画像は、画像収集ユニットの前の所定の位置でサスペンドされてもよく、それから、仮想画像は、実時間シーン画像内のターゲット位置が確認された後で、ターゲット位置に表示され得る。
上記のいずれかの実施形態に基づき、ステップS101~S103はまた、複数の仮想画像が実時間シーン画像に配置されるように、実施形態において、複数回実行されてもよい。
任意に、少なくとも1つの仮想画像が実時間シーン画像に既に存在し、既に存在している少なくとも1つの仮想画像の位置とターゲットオブジェクトに対応する仮想画像との間の距離が第2の前もってセットされた距離範囲を越える場合に、既に存在している少なくとも1つの仮想画像は、ターゲットオブジェクトに対応する仮想画像の第2の所定の範囲内に動かされて、表示される。言い換えると、実施形態において、実時間シーン画像内の既存の仮想画像が、ターゲットオブジェクトに対応する仮想画像の現在の配置位置から離れすぎており、第2の前もってセットされた距離範囲を越える場合には、既存の仮想画像も、ターゲットオブジェクトに対応する仮想画像の近傍範囲内に、すなわち、第2の前もってセットされた距離範囲内に動かされてもよく、それより、複数の仮想画像がより良くかつより明りょうに表示され得る。更に、実時間シーン画像において最大で可能である仮想画像の数の上限が、セットされてもよい。実時間シーン画像に存在する仮想画像の数が上限に達する場合には、新しい仮想画像が加えられるときに、先に表示されている仮想画像がその新しい仮想画像で置換されてもよい。
任意に、複数の仮想画像が実時間シーン画像に既に存在する場合には、実時間シーン画像に既に存在している複数の仮想画像が互いに交わる現象を回避するために、すなわち、モデルが互いを通らないようにするために、衝突判定が仮想画像の間で実行されてもよい。いずれか2つの仮想画像間で衝突が起きていると決定される場合に、電子機器は、互いに衝突している2つの仮想画像のうちのどちらか1つを動かす。特に、衝突判定は、空間内のいずれか2つの仮想画像が互いに交わるか又は互いに干渉するかどうかを検出することを主に対象とする。例えば、第1仮想画像及び第2仮想画像の手足又は胴体が3D空間内の同じ空間位置に現れる場合に、それは、第1仮想画像及び第2仮想画像が互いに干渉していることを示す。従って、第1仮想画像及び第2仮想画像が互いに干渉しなくなるまで、第1仮想画像が離されても、かつ/あるいは、第2仮想画像が離されてもよい。
上記のいずれかの実施形態に基づき、実時間シーン画像内のターゲットオブジェクトの仮想画像が拡張現実表示技術に基づき強調及び表示される場合に、仮想画像の影も、仮想画像の周りの特定の位置に表示されてもよい。
実施形態において、仮想画像の影が取得され、次いで、仮想画像の周りの特定の位置に配置されてもよく、影の配置位置は、実時間シーン内の光源の位置に基づき決定されてよい。例えば、光源が仮想画像の左にある場合に、影は仮想画像の右に配置され、光源の位置は、実時間シーン画像に基づき決定され得る。例えば、光源の位置は、実時間シーン画像内のターゲットオブジェクトの影がどちらの方向に向けられているかを決定することによって、決定され得る。代替的に、仮想画像の影の配置位置は、実時間シーン画像内の光源の位置を検出することによって決定されてもよい。代替的に、仮想画像の影の配置位置は、直接に決定されてもよい。当然のこととして、仮想画像の影が配置される位置は、他の方法でも決定されてよい。例えば、影は、ランダムな方向で又は固定の位置に配置されてもよい。更に、任意に、仮想画像の影は、仮想画像の動きに従ってそれに応じて調整されてもよく、それにより、仮想画像の影は、より現実的な効果を達成するよう仮想画像の動きに従って調整される。
上記の実施形態では、実時間シーン画像内のターゲット位置でターゲットオブジェクトの仮想画像を強調及び表示することは、仮想画像を動的に表示することを更に含んでもよい。例えば、仮想画像のアニメーションが動的に表示されてもよい。よって、仮想画像の動き及び表情アニメーションは、ユーザの操作経験及び満足を高めるようインターフェース上で提示され得る。
上記の実施形態における拡張現実に基づいた表示方法に対応して、図8は、本開示の実施形態に従う拡張現実に基づいた表示装置の構造ブロック図である。記載を簡単にするために、本開示の実施形態に関係がある部分のみが説明される。図8を参照して、拡張現実に基づいた表示装置80は、ターゲットオブジェクト決定ユニット801、生成ユニット802、及び表示ユニット803を含む。
ターゲットオブジェクト決定ユニット801は、ユーザからの第1指示に応答して、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得するよう構成される。
生成ユニット802は、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成するよう構成される。
表示ユニット803は、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示するよう構成される。
本開示の1つ以上の実施形態に従って、ターゲットオブジェクト決定ユニット801は、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得するときに、実時間シーン画像内のターゲットオブジェクトに対してオブジェクトセグメンテーションを実行してターゲットオブジェクト画像を取得し、ターゲットオブジェクト画像にタグ付けするよう構成される。
本開示の1つ以上の実施形態に従って、ターゲットオブジェクト決定ユニット801は、ユーザからのトリガ指示に応答して、実時間シーン画像内のターゲットオブジェクトに対してオブジェクトセグメンテーションを実行するために、プレロードされているオブジェクトセグメンテーションアルゴリズムを実行し、第1指示に応答してオブジェクトセグメンテーションアルゴリズムの実行を止めるよう更に構成される。
本開示の1つ以上の実施形態に従って、生成ユニット802は、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成するときに、ターゲットオブジェクト画像をアニメーション素材と合成して、ターゲットオブジェクトに対応する仮想画像を生成するよう構成される。
ここて、アニメーション素材は、仮想画像の手足-身体アニメーション素材及び/又は表情アニメーション素材を含む。
本開示の1つ以上の実施形態に従って、生成ユニット802は、ターゲットオブジェクト画像をアニメーション素材と合成するときに、手足-身体アニメーション素材及び/又は表情アニメーション素材を取得し、ターゲットオブジェクト画像上の複数の接続点を決定し、複数の接続点を用いて手足-身体アニメーション素材及び/又は表情アニメーション素材をターゲットオブジェクト画像と合成して、ターゲットオブジェクトに対応する仮想画像を生成するよう構成される。
本開示の1つ以上の実施形態に従って、表示ユニット803は、仮想画像に対して動き及び/又は表情制御を実行するためにアニメーション素材を再生するよう更に構成される。
本開示の1つ以上の実施形態に従って、表示ユニット803は、仮想画像に対して動き及び/又は表情制御を実行するためにアニメーション素材を再生するときに、アニメーション素材の前もってセットされたアニメーションフレームに従ってアニメーション素材を再生して、仮想画像に対して動き及び/又は表情制御を実行するよう、かつ/あるいは、ユーザの手足-身体動作及び/又は表情に基づきアニメーション素材のアニメーションフレームを生成及び再生して、仮想画像に対して動き及び/又は表情制御を実行するよう構成される。
本開示の1つ以上の実施形態に従って、表示ユニット803は、ユーザからの仮想画像に対する制御指示に応答して仮想画像を相応に制御するよう更に構成され、制御指示は、回転制御指示、ズームアウト制御指示、移動制御指示、及びズームイン制御指示、から成るグループから選択された少なくとも1つを有する。
本開示の1つ以上の実施形態に従って、表示ユニット803は、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示するときに、実時間シーン画像内に仮想平面を生成し、仮想平面で3次元空間を生成し、拡張現実表示技術に基づき、生成された3次元空間において、ターゲットオブジェクトの仮想画像を表示するよう構成される。
本開示の1つ以上の実施形態に従って、表示ユニット803は、実時間シーン画像内に仮想平面を生成するときに、ターゲット平面領域が実時間シーン画像に存在することを検出する場合に、ターゲット平面領域に基づき仮想平面を生成し、ターゲット平面領域が、第1の前もってセットされた距離範囲内の画像収集ユニットまでの距離を有する平面領域、及び/又は実時間シーン画像の中央領域に位置している平面領域である、よう、あるいは、実時間シーン画像内の特定の位置で仮想平面を生成するよう構成される。
本開示の1つ以上の実施形態に従って、表示ユニット803は、拡張現実表示技術に基づき、生成された3次元空間において、ターゲットオブジェクトの仮想画像を表示するときに、3次元空間においてターゲット位置を決定し、拡張現実表示技術に基づき3次元空間内のターゲット位置でターゲットオブジェクトの仮想画像を表示するよう構成される。
本開示の1つ以上の実施形態に従って、表示ユニット803は、3次元空間においてターゲット位置を決定するとき、ユーザから位置指定指示を受け取り、ユーザからの位置指定指示によってトリガされた位置ポイントに基づき3次元空間において3次元アンカーポイントを設置し、3次元アンカーポイントをターゲット位置として使用するよう構成される。
本開示の1つ以上の実施形態に従って、表示ユニット803は、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成した後、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示する前に、画像収集ユニットの前の所定の位置で仮想画像をサスペンドするよう更に構成される。
本開示の1つ以上の実施形態に従って、表示ユニット803は、少なくとも1つの仮想画像が実時間シーン画像に既に存在し、既に存在している少なくとも1つの仮想画像の位置とターゲットオブジェクトに対応する仮想画像との間の距離が第2の前もってセットされた距離範囲を越える場合に、既に存在している少なくとも1つの仮想画像を、ターゲットオブジェクトに対応する仮想画像の第2の所定の範囲内に動かし、少なくとも1つの仮想画像を表示するよう更に構成される。
本開示の1つ以上の実施形態に従って、表示ユニット803は、複数の仮想画像が実時間シーン画像において既に存在する場合に、複数の仮想画像の間で衝突判定を実行し、いずれか2つの仮想画像間で衝突が起きていると決定される場合に、互いに衝突している2つの仮想画像のうちのいずれか1つを動かすよう更に構成される。
本開示の1つ以上の実施形態に従って、表示ユニット803は、実時間シーン画像内のターゲット位置でのターゲットオブジェクトの仮想画像の拡張表示を実行するときに、仮想画像の周りの特定の位置に仮想画像の影を表示するよう更に構成される。
本開示の1つ以上の実施形態に従って、表示ユニット803は、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を動的に表示するよう更に構成される。
実施形態で提供される拡張現実に基づいた表示装置は、上記の方法実施形態の拡張現実に基づいた表示方法の技術的解決法を実行するために使用されてもよく、拡張現実に基づいた表示装置の実施原理及び技術的効果は、方法実施形態のそれらと同様であり、詳細は、実施形態において再びここで記載されない。
本開示の実施形態に従う電子機器900を実装するのに適した構造を表す概略図である図9を参照する。電子機器900は、端末デバイス又はサーバであってよく、上記の方法実施形態における拡張現実に基づいた表示方法を実行するために使用されてもよい。特に、端末デバイスは、携帯電話機、ノートブックコンピュータ、デジタル放送受信機、パーソナルデジタルアシスタント(PDA)、ポータブルアンドロイド(登録商標)デバイス(PAD)、ポータブルメディアプレイヤー(PMP)、車載端末(例えば、車載ナビゲーション端末)、ウェアラブル電子機器、などのような移動端末、及びデジタルTV、デスクトップコンピュータ、などのような固定端末を含み得るが、これらに限られない。図9に示される電子機器は一例にすぎず、本開示の実施形態の使用の範囲及び機能に対して如何なる制限も課すべきではない。
図9に示されるように、電子機器900は、リードオンリーメモリ(ROM)902に記憶されているプログラム、又は記憶デバイス908からランダムアクセスメモリ(RAM)903にロードされたプログラムに従って様々な適切な動作及び処理を実行することができる処理デバイス(例えば、中央演算処理装置、グラフィクス処理ユニット、など)901を含み得る。RAM903は、電子機器900の動作に必要な様々なプログラム及びデータを更に記憶する。処理デバイス901、ROM902、及びRAM903は、バス904を通じて互いに接続され、入出力(I/O)インターフェース905もバス904に接続されている。
通常、I/Oインターフェース905には、次のデバイス:例えば、タッチスクリーン、タッチパッド、キーボード、マウス、カメラ、マイクロホン、加速度計、ジャイロスコープ、などを含む入力デバイス906;例えば、液晶ディスプレイ(LCD)、ラウドスピーカ、バイブレータ、などを含む出力デバイス907;例えば、磁気テープ、ハードディスク、などを含む記憶デバイス908;及び通信デバイス909が接続され得る。通信ユニット909は、電子機器900が無線により又は有線で他のデバイスと通信してデータを交換することを可能にする。図9は、様々なデバイスを備えている電子機器900を表すが、理解されるべきは、表されている全てのデバイスが必ずしも実装又は包含されるわけではない点である。より多くの又はより少ないデバイスが代替的に実装又は包含されてもよい。
特に、本開示の実施形態に従って、フローチャートを参照して上述されたプロセスは、コンピュータソフトウェアプログラムとして実装され得る。例えば、本開示の実施形態は、コンピュータ可読媒体で運ばれるコンピュータプログラムを含むコンピュータプログラム製品を含む。コンピュータプログラムは、フローチャートに示されている方法を実行するためのプログラムコードを含み、上記の方法実施形態における拡張現実に基づいた表示方法を実行するために使用され得る。そのような実施形態では、コンピュータプログラムは、通信デバイス909を通じてオンラインでダウンロードされてインストールされても、あるいは、記憶デバイス908からインストールされても、あるいは、ROM902からインストールされてもよい。コンピュータプログラムが処理デバイス901によって実行されると、本開示の実施形態で提供される方法で定義されている上記の機能が実行される。
留意されるべきは、本開示において上述されたコンピュータ可読媒体は、コンピュータ可読信号媒体若しくはコンピュータ可読記憶媒体又はそれらの任意の組み合わせであってよい点である。例えば、コンピュータ可読記憶媒体は、電気、磁気、光学、電磁気、赤外線、若しくは半導体システム、装置、若しくはデバイス、又はそれらの任意の組み合わせであってよいが、それらに限られない。コンピュータ可読記憶媒体のより具体的な例は、1つ以上の配線を有する電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラム可能リードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶デバイス、磁気記憶デバイス、又はそれらの任意の適切な組み合わせを含み得るが、それらに限られない。本開示において、コンピュータ可読記憶媒体は、命令実行システム、装置、若しくはデバイスによって又はそれと組み合わせて使用され得るプログラムを収容又は記憶する如何なる有形媒体であってもよい。本開示において、コンピュータ可読信号媒体は、ベースバンドで又は搬送波の一部として伝播し、コンピュータ可読プログラムコードを運ぶデータ信号を含み得る。そのようにして伝播するデータ信号は、電磁気信号、光信号、又はそれらの任意の適切な組み合わせを含むが、それらに限られない様々な形を取り得る。コンピュータ可読信号媒体はまた、コンピュータ可読記憶媒体以外のあらゆるコンピュータ可読媒体であってもよい。コンピュータ可読信号媒体は、命令実行システム、装置、若しくはデバイスによって又はそれと組み合わせて使用されるプログラムを送信、伝搬、又は伝送し得る。コンピュータ可読媒体に含まれるプログラムコードは、電気配線、光ファイバケーブル、無線周波数(RF)、など、又はそれらの任意の適切な組み合わせを含むが、それらに限られない如何なる適切な媒体も使用することによって、伝送されてよい。
上記のコンピュータ可読媒体は、上記の電子機器に含まれてよく、あるいは、電子機器内に組み立てられずに単独で存在してもよい。
上記のコンピュータ可読媒体は、1つ以上のプログラムを運んでよく、1つ以上のプログラムが電子機器によって実行されると、電子機器は、上記の実施形態で説明された方法を実行させられる。
本開示における動作を実行するためのコンピュータプログラムコードは、1つ以上のプログラミング言語又はそれらの組み合わせで記述されてよい。プログラミング言語は、Java(登録商標)、Smalltalk(登録商標)、及びC++のようなオブジェクト指向のプログラミング言語を含み、また、“C”言語又は同様のプログラミング言語のような従来の手続き型プログラミング言語も含む。プログラムコードは、完全にユーザのコンピュータで実行されるか、部分的にユーザのコンピュータで実行されるか、独立したソフトウェアパッケージとして実行されるか、部分的にユーザのコンピュータで及び部分的に遠隔のコンピュータで実行されるか、あるいは、完全に遠隔のコンピュータ又はサーバで実行され得る。遠隔のコンピュータを伴うシナリオでは、遠隔のコンピュータは、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む如何なるタイプのネットワークによってもユーザのコンピュータへ接続されてよく、あるいは、外部のコンピュータへ接続されても(例えば、インターネットサービスプロバイダからインターネットを通じて接続されても)よい。
添付の図面のフローチャート及びブロック図は、本開示の様々な実施形態に従うシステム、方法、及びコンピュータプログラム製品によって実装され得るシステムアーキテクチャ、機能、及び動作を表す。これに関連して、フローチャート又はブロック図の各ブロックは、モジュール、プログラムセグメント、又はコードの部分を表すことができ、モジュール、プログラムセグメント、又はコードの部分は、特定のロジック機能を実装するための1つ以上の実行可能命令を含む。また、留意されるべきは、いくつかの代替の実施において、ブロックでマークされた機能は、添付の図面に示されている順序とは異なる順序でも起こり得る点である。例えば、2つの連続したブロックは、実際には略同時に実行可能であり、それらは、ときどき、関連する機能によっては逆の順序で実行されてもよい。また、留意されるべきは、フローチャート及び/又はブロック図の各ブロック並びにフローチャート及び/又はブロック図のブロックの組み合わせは、特定の機能又は動作を実行するための専用のハードウェアベースシステムによって実装されてもよく、あるいは、専用のハードウェアとコンピュータ命令との組み合わせによって実行されてもよい点である。
本開示の実施形態で記載されている関連ユニットは、ソフトウェアによって実装されてもよく、あるいは、ハードウェアによって実装されてもよい。ユニットの名称は、ユニット自体に対する制限を構成しない。例えば、第1収集ユニットは、「少なくとも2つのインターネットプロトコルアドレスを取得するユニット」とも記載され得る。
本開示における上記の機能は、少なくとも部分的に1つ以上のハードウェアロジックコンポーネントによって実行されてもよい。例えば、制限なしに、使用され得るハードウェアロジックコンポーネントの例示的なタイプは、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(application specific standard product)(ASSP)、システム・オン・チップ(SOC)、結合プログラム可能ロジックデバイス(complex programmable logic device)(CPLD)、などを含む。
本開示の文脈中、マシン可読媒体は、命令実行システム、装置、若しくはデバイスによって又はそれと組み合わせて使用されるプログラムを収容又は記憶し得る有形媒体であってよい。マシン可読媒体は、マシン可読信号媒体又はマシン可読記憶媒体であってよい。マシン可読媒体は、電子、磁気、光学、電磁気、赤外線、若しくは半導体システム、装置、若しくはデバイス、又はそれらの任意の適切な組み合わせを含み得るが、それらに限られない。マシン可読記憶媒体のより具体的な例は、1つ以上の配線に基づいた電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラム可能リードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶デバイス、磁気記憶デバイス、又はそれらの任意の適切な組み合わせを含み得る。
第1の態様で、本開示の1つ以上の実施形態に従って、拡張現実に基づいた表示方法が提供され、ユーザからの第1指示に応答して、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得するステップと、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成するステップと、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示するステップとを含む。
本開示の1つ以上の実施形態に従って、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得するステップは、実時間シーン画像内のターゲットオブジェクトに対してオブジェクトセグメンテーションを実行してターゲットオブジェクト画像を取得し、ターゲットオブジェクト画像にタグ付けするステップを有する。
本開示の1つ以上の実施形態に従って、方法は、ユーザからのトリガ指示に応答して、実時間シーン画像内のターゲットオブジェクトに対してオブジェクトセグメンテーションを実行するために、プレロードされているオブジェクトセグメンテーションアルゴリズムを実行するステップと、第1指示に応答してオブジェクトセグメンテーションアルゴリズムの実行を止めるステップとを更に含む。
本開示の1つ以上の実施形態に従って、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成するステップは、ターゲットオブジェクトに対応する仮想画像を生成するようターゲットオブジェクト画像をアニメーション素材と合成するステップを有する。アニメーション素材は、仮想画像の手足-身体アニメーション素材及び/又は表情アニメーション素材を有する。
本開示の1つ以上の実施形態に従って、ターゲットオブジェクト画像をアニメーション素材と合成するステップは、手足-身体アニメーション素材及び/又は表情アニメーション素材を取得するステップと、ターゲットオブジェクト画像上の複数の接続点を決定するステップと、複数の接続点を用いて手足-身体アニメーション素材及び/又は表情アニメーション素材をターゲットオブジェクト画像と合成して、ターゲットオブジェクトに対応する仮想画像を生成するステップとを有する。
本開示の1つ以上の実施形態に従って、方法は、仮想画像に対して動き及び/又は表情制御を行うためにアニメーション素材を再生するステップを更に含む。
本開示の1つ以上の実施形態に従って、仮想画像に対して動き及び/又は表情制御を行うためにアニメーション素材を再生するステップは、アニメーション素材の前もってセットされたアニメーションフレームに従ってアニメーション素材を再生して、仮想画像に対して動き及び/又は表情制御を行うステップ、及び/又はユーザの手足-身体動作及び/又は表情に基づきアニメーション素材のアニメーションフレームを生成及び再生して、仮想画像に対して動き及び/又は表情制御を行うステップを有する。
本開示の1つ以上の実施形態に従って、方法は、ユーザからの仮想画像に対する制御指示に応答して仮想画像を相応に制御するステップを更に含む。制御指示は、回転制御指示、ズームアウト制御指示、移動制御指示、及びズームイン制御指示、のうちの少なくとも1つを有する。
本開示の1つ以上の実施形態に従って、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示するステップは、実時間シーン画像内に仮想平面を生成するステップと、仮想平面で3次元空間を生成するステップと、拡張現実表示技術に基づき、生成された3次元空間において、ターゲットオブジェクトの仮想画像を表示するステップとを有する。
本開示の1つ以上の実施形態に従って、実時間シーン画像内に仮想平面を生成するステップは、ターゲット平面領域が実時間シーン画像に存在することを検出する場合に、ターゲット平面領域に基づき仮想平面を生成するステップであり、ターゲット平面領域は、第1の前もってセットされた距離範囲内の画像収集ユニットまでの距離を有する平面領域、及び/又は実時間シーン画像の中央領域に位置している平面領域である、ステップ、あるいは、実時間シーン画像内の特定の位置で仮想平面を生成するステップを有する。
本開示の1つ以上の実施形態に従って、拡張現実表示技術に基づき、生成された3次元空間において、ターゲットオブジェクトの仮想画像を表示するステップは、3次元空間においてターゲット位置を決定するステップと、拡張現実表示技術に基づき3次元空間内のターゲット位置でターゲットオブジェクトの仮想画像を表示するステップとを有する。
本開示の1つ以上の実施形態に従って、3次元空間においてターゲット位置を決定するステップは、ユーザから位置指定指示を受け取るステップと、ユーザからの位置指定指示によってトリガされた位置ポイントに基づき3次元空間において3次元アンカーポイントを定め、3次元アンカーポイントをターゲット位置として使用するステップとを有する。
本開示の1つ以上の実施形態に従って、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成した後、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示する前に、方法は、画像収集ユニットの前の所定の位置で仮想画像をサスペンドするステップを更に有する。
本開示の1つ以上の実施形態に従って、方法は、少なくとも1つの仮想画像が実時間シーン画像に既に存在し、既に存在している少なくとも1つの仮想画像の位置とターゲットオブジェクトに対応する仮想画像との間の距離が第2の前もってセットされた距離範囲を越える場合に、既に存在している少なくとも1つの仮想画像を、ターゲットオブジェクトに対応する仮想画像の第2の所定の範囲内に動かし、少なくとも1つの仮想画像を表示するステップを更に有する。
本開示の1つ以上の実施形態に従って、方法は、複数の仮想画像が実時間シーン画像において既に存在する場合に、複数の仮想画像の間で衝突判定を実行するステップと、いずれか2つの仮想画像間で衝突が起きていると決定される場合に、互いに衝突している2つの仮想画像のうちのいずれか1つを動かすステップとを更に有する。
本開示の1つ以上の実施形態に従って、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示する場合に、方法は、仮想画像の周りの特定の位置に仮想画像の影を表示するステップを更に有する
本開示の1つ以上の実施形態に従って、方法は、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を動的に表示するステップを更に有する。
第2の態様で、本開示の1つ以上の実施形態に従って、拡張現実に基づいた表示装置が提供され、ユーザからの第1指示に応答して、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得するよう構成されるターゲットオブジェクト決定ユニットと、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成するよう構成される生成ユニットと、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示するよう構成される表示ユニットとを含む。
本開示の1つ以上の実施形態に従って、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得するときに、ターゲットオブジェクト決定ユニットは、実時間シーン画像内のターゲットオブジェクトに対してオブジェクトセグメンテーションを実行してターゲットオブジェクト画像を取得し、ターゲットオブジェクト画像にタグ付けするよう構成される。
本開示の1つ以上の実施形態に従って、ターゲットオブジェクト決定ユニットは、ユーザからのトリガ指示に応答して、実時間シーン画像内のターゲットオブジェクトに対してオブジェクトセグメンテーションを実行するために、プレロードされているオブジェクトセグメンテーションアルゴリズムを実行し、第1指示に応答してオブジェクトセグメンテーションアルゴリズムの実行を止めるよう更に構成される。
本開示の1つ以上の実施形態に従って、生成ユニットは、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成するときに、ターゲットオブジェクト画像をアニメーション素材と合成して、ターゲットオブジェクトに対応する仮想画像を生成するよう構成される。アニメーション素材は、仮想画像の手足-身体アニメーション素材及び/又は表情アニメーション素材を含む。
本開示の1つ以上の実施形態に従って、生成ユニットは、ターゲットオブジェクト画像をアニメーション素材と合成するときに、手足-身体アニメーション素材及び/又は表情アニメーション素材を取得し、ターゲットオブジェクト画像上の複数の接続点を決定し、複数の接続点を用いて手足-身体アニメーション素材及び/又は表情アニメーション素材をターゲットオブジェクト画像と合成して、ターゲットオブジェクトに対応する仮想画像を生成するよう構成される。
本開示の1つ以上の実施形態に従って、表示ユニットは、仮想画像に対して動き及び/又は表情制御を実行するためにアニメーション素材を再生するよう更に構成される。
本開示の1つ以上の実施形態に従って、表示ユニットは、仮想画像に対して動き及び/又は表情制御を実行するためにアニメーション素材を再生するときに、アニメーション素材の前もってセットされたアニメーションフレームに従ってアニメーション素材を再生して、仮想画像に対して動き及び/又は表情制御を実行するよう、かつ/あるいは、ユーザの手足-身体動作及び/又は表情に基づきアニメーション素材のアニメーションフレームを生成及び再生して、仮想画像に対して動き及び/又は表情制御を実行するよう構成される。
本開示の1つ以上の実施形態に従って、表示ユニットは、ユーザからの仮想画像に対する制御指示に応答して仮想画像を相応に制御するよう更に構成され、制御指示は、回転制御指示、ズームアウト制御指示、移動制御指示、及びズームイン制御指示、から成るグループから選択された少なくとも1つを有する。
本開示の1つ以上の実施形態に従って、表示ユニットは、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示するときに、実時間シーン画像内に仮想平面を生成し、仮想平面で3次元空間を生成し、拡張現実表示技術に基づき、生成された3次元空間において、ターゲットオブジェクトの仮想画像を表示するよう構成される。
本開示の1つ以上の実施形態に従って、表示ユニットは、実時間シーン画像内に仮想平面を生成するときに、ターゲット平面領域が実時間シーン画像に存在することを検出する場合に、ターゲット平面領域に基づき仮想平面を生成し、ターゲット平面領域が、第1の前もってセットされた距離範囲内の画像収集ユニットまでの距離を有する平面領域、及び/又は実時間シーン画像の中央領域に位置している平面領域である、よう、あるいは、実時間シーン画像内の特定の位置で仮想平面を生成するよう構成される。
本開示の1つ以上の実施形態に従って、表示ユニットは、拡張現実表示技術に基づき、生成された3次元空間において、ターゲットオブジェクトの仮想画像を表示するときに、3次元空間においてターゲット位置を決定し、拡張現実表示技術に基づき3次元空間内のターゲット位置でターゲットオブジェクトの仮想画像を表示するよう構成される。
本開示の1つ以上の実施形態に従って、表示ユニットは、3次元空間においてターゲット位置を決定するとき、ユーザから位置指定指示を受け取り、ユーザからの位置指定指示によってトリガされた位置ポイントに基づき3次元空間において3次元アンカーポイントを設置し、3次元アンカーポイントをターゲット位置として使用するよう構成される。
本開示の1つ以上の実施形態に従って、表示ユニットは、ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成した後、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を表示する前に、画像収集ユニットの前の所定の位置で仮想画像をサスペンドするよう更に構成される。
本開示の1つ以上の実施形態に従って、表示ユニットは、少なくとも1つの仮想画像が実時間シーン画像に既に存在し、既に存在している少なくとも1つの仮想画像の位置とターゲットオブジェクトに対応する仮想画像との間の距離が第2の前もってセットされた距離範囲を越える場合に、既に存在している少なくとも1つの仮想画像を、ターゲットオブジェクトに対応する仮想画像の第2の所定の範囲内に動かし、少なくとも1つの仮想画像を表示するよう更に構成される。
本開示の1つ以上の実施形態に従って、表示ユニットは、複数の仮想画像が実時間シーン画像において既に存在する場合に、複数の仮想画像の間で衝突判定を実行し、いずれか2つの仮想画像間で衝突が起きていると決定される場合に、互いに衝突している2つの仮想画像のうちのいずれか1つを動かすよう更に構成される。
本開示の1つ以上の実施形態に従って、表示ユニットは、実時間シーン画像内のターゲット位置でのターゲットオブジェクトの仮想画像の拡張表示を実行するときに、仮想画像の周りの特定の位置に仮想画像の影を表示するよう更に構成される。
本開示の1つ以上の実施形態に従って、表示ユニットは、拡張現実表示技術に基づき実時間シーン画像においてターゲットオブジェクトの仮想画像を動的に表示するよう更に構成される。
第3の態様で、本開示の1つ以上の実施形態に従って、電子機器が提供され、少なくとも1つのプロセッサと、メモリとを含み、メモリはコンピュータ実行可能命令を記憶し、少なくとも1つのプロセッサは、少なくとも1つのプロセッサに、上記の第1の態様及び第1の態様の様々な可能な設計で記載される方法を実行させるように、メモリに記憶されているコンピュータ実行可能命令を実行する。
第4の態様で、本開示の1つ以上の実施形態に従って、コンピュータ可読記憶媒体が提供され、コンピュータ可読信号媒体はコンピュータ実行可能命令を記憶し、コンピュータ実行可能命令がプロセッサによって実行される場合に、上記の第1の態様及び第1の態様の様々な可能な設計で記載される方法が実装される。
以上の記載は、本開示の代替の実施形態の例示及び関連する技術的原理の説明にすぎない。当業者は、本開示に関連する開示の範囲が上記の技術的特徴の特定の組み合わせによって形成される技術的解決法に限られず、本開示の概念から逸脱せずに上記の技術的特徴又はその同等の特徴の任意の組み合わせによって形成される他の技術的解決法もカバーすべきであることを理解するはずである。例えば、上記の技術的特徴は、新しい技術的解決法を形成するように、ここで開示されている(しかし、限られない)同様の機能を有している技術的特徴と相互に置換されてもよい。
更に、動作は特定の順序で記載されているが、そのような動作が、述べられている特定の順序で、又は連続した順序で実行されることを要求していると解釈されるべきではない。特定の状況の下で、マルチタスク及び並列処理は有利であり得る。同様に、いくつかの具体的な実施詳細が上記の議論に含まれているが、それらは、本開示の範囲に対する制限と解釈されるべきではない。別個の実施形態に関連して記載されているいくつかの特徴は、単一の実施形態にまとめられてもよい。反対に、単一の実施形態に関連して記載されている様々な特徴は、個別的に様々な実施形態で、又は任意の適切なサブコンビネーションで複数の実施形態で、実装されてもよい。
本主題は、構造的な特徴及び/又は論理的な方法動作に特有の言語で記載されているが、添付の特許請求の範囲で定義される主題は、必ずしも上記の特定の特徴又は動作に制限されないことが理解されよう。むしろ、上記の特定の特徴又は動作は、特許請求の範囲を実施するための例示的な形態にすぎない。
本願は、2020年9月9日付けで出願された中国特許出願第202010937921.6号の優先権を主張するものである。この中国特許出願によって開示されている全内容は、本願の部分として参照により本願に援用される。

Claims (19)

  1. 拡張現実に基づいた表示方法であって、
    ユーザからの第1指示に応答して、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得するステップと、
    前記ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成するステップと、
    拡張現実表示技術に基づき前記実時間シーン画像において前記ターゲットオブジェクトの前記仮想画像を表示するステップと
    少なくとも1つの仮想画像が前記実時間シーン画像に既に存在し、既に存在している前記少なくとも1つの仮想画像の位置と前記ターゲットオブジェクトに対応する前記仮想画像との間の距離が第2の前もってセットされた距離範囲を越えるとの決定に応答して、既に存在している前記少なくとも1つの仮想画像を、前記ターゲットオブジェクトに対応する前記仮想画像の前記第2の前もってセットされた距離範囲内に動かし、前記少なくとも1つの仮想画像を表示するステップと
    を有する、拡張現実に基づいた表示方法。
  2. 画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得する前記ステップは、
    前記実時間シーン画像内の前記ターゲットオブジェクトに対してオブジェクトセグメンテーションを実行して前記ターゲットオブジェクト画像を取得し、該ターゲットオブジェクト画像にタグ付けするステップを有する、
    請求項1に記載の拡張現実に基づいた表示方法。
  3. 前記ユーザからのトリガ指示に応答して、前記実時間シーン画像内の前記ターゲットオブジェクトに対してオブジェクトセグメンテーションを実行するために、プレロードされているオブジェクトセグメンテーションアルゴリズムを実行するステップと、
    前記第1指示に応答して前記オブジェクトセグメンテーションアルゴリズムの実行を止めるステップと
    を更に有する、請求項2に記載の拡張現実に基づいた表示方法。
  4. 前記ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成する前記ステップは、
    前記ターゲットオブジェクトに対応する前記仮想画像を生成するよう前記ターゲットオブジェクト画像をアニメーション素材と合成するステップを有し、
    前記アニメーション素材は、前記仮想画像の手足-身体アニメーション素材又は表情アニメーション素材の少なくとも1つを含む、
    請求項1乃至3のうちいずれか一項に記載の拡張現実に基づいた表示方法。
  5. 前記ターゲットオブジェクト画像をアニメーション素材と合成する前記ステップは、
    前記手足-身体アニメーション素材又は前記表情アニメーション素材の前記少なくとも1つを取得するステップと、
    前記ターゲットオブジェクト画像上の複数の接続点を決定するステップと、
    前記複数の接続点を用いて前記手足-身体アニメーション素材又は前記表情アニメーション素材の前記少なくとも1つを前記ターゲットオブジェクト画像と合成して、前記ターゲットオブジェクトに対応する前記仮想画像を生成するステップと
    を有する、
    請求項4に記載の拡張現実に基づいた表示方法。
  6. 前記仮想画像に対して動き又は表情制御の少なくとも1つを行うために前記アニメーション素材を再生するステップを更に有する、
    請求項4又は5に記載の拡張現実に基づいた表示方法。
  7. 前記仮想画像に対して動き又は表情制御の少なくとも1つを行うために前記アニメーション素材を再生する前記ステップは、
    前記アニメーション素材の前もってセットされたアニメーションフレームに従って前記アニメーション素材を再生して、前記仮想画像に対して動き又は表情制御の前記少なくとも1つを行うステップ、又は
    前記ユーザの手足-身体動作又は表情の少なくとも1つに基づき前記アニメーション素材のアニメーションフレームを生成及び再生して、前記仮想画像に対して動き又は表情制御の前記少なくとも1つを行うステップ
    のうちの少なくとも1ステップを有する、
    請求項6に記載の拡張現実に基づいた表示方法。
  8. 前記ユーザからの前記仮想画像に対する制御指示に応答して前記仮想画像を相応に制御するステップを更に有し、
    前記制御指示は、回転制御指示、ズームアウト制御指示、移動制御指示、及びズームイン制御指示、のうちの少なくとも1つを含む、
    請求項1乃至7のうちいずれか一項に記載の拡張現実に基づいた表示方法。
  9. 拡張現実表示技術に基づき前記実時間シーン画像において前記ターゲットオブジェクトの前記仮想画像を表示する前記ステップは、
    前記実時間シーン画像内に仮想平面を生成するステップと、
    前記仮想平面で3次元空間を生成するステップと、
    前記拡張現実表示技術に基づき、生成された前記3次元空間において、前記ターゲットオブジェクトの前記仮想画像を表示するステップと
    を有する、
    請求項1乃至8のうちいずれか一項に記載の拡張現実に基づいた表示方法。
  10. 前記実時間シーン画像内に仮想平面を生成する前記ステップは、
    ターゲット平面領域が前記実時間シーン画像に存在することを検出することに応答して、該ターゲット平面領域に基づき前記仮想平面を生成するステップであり、前記ターゲット平面領域は、第1の前もってセットされた距離範囲内の前記画像収集ユニットまでの距離を有する平面領域、又は前記実時間シーン画像の中央領域に位置している平面領域の少なくとも1つである、ステップ、又は
    前記実時間シーン画像内の特定の位置で前記仮想平面を生成するステップ
    を有する、
    請求項9に記載の拡張現実に基づいた表示方法。
  11. 前記拡張現実表示技術に基づき、生成された前記3次元空間において、前記ターゲットオブジェクトの前記仮想画像を表示する前記ステップは、
    前記3次元空間においてターゲット位置を決定するステップと、
    前記拡張現実表示技術に基づき前記3次元空間内の前記ターゲット位置で前記ターゲットオブジェクトの前記仮想画像を表示するステップと
    を有する、
    請求項9又は10に記載の拡張現実に基づいた表示方法。
  12. 前記3次元空間においてターゲット位置を決定する前記ステップは、
    前記ユーザから位置指定指示を受け取るステップと、
    前記ユーザからの前記位置指定指示によってトリガされた位置ポイントに基づき前記3次元空間において3次元アンカーポイントを定め、該3次元アンカーポイントを前記ターゲット位置として使用するステップと
    を有する、
    請求項11に記載の拡張現実に基づいた表示方法。
  13. 前記ターゲットオブジェクト画像に基づき前記ターゲットオブジェクトに対応する前記仮想画像を生成した後、前記拡張現実表示技術に基づき前記実時間シーン画像において前記ターゲットオブジェクトの前記仮想画像を表示する前に、
    前記画像収集ユニットの前の所定の位置で前記仮想画像をサスペンドするステップを更に有する、
    請求項1乃至12のうちいずれか一項に記載の拡張現実に基づいた表示方法。
  14. 複数の仮想画像が前記実時間シーン画像において既に存在するとの決定に応答して、前記複数の仮想画像の間で衝突判定を実行するステップと、
    いずれか2つの仮想画像間で衝突が起きているとの決定に応答して、互いに衝突している当該2つの仮想画像のうちのいずれか1つを動かすステップと
    を更に有する、請求項1乃至13のうちいずれか一項に記載の拡張現実に基づいた表示方法。
  15. 前記拡張現実表示技術に基づき前記実時間シーン画像において前記ターゲットオブジェクトの前記仮想画像を表示する前記ステップは
    前記仮想画像の周りの特定の位置に前記仮想画像の影を表示するステップを更に有する、
    請求項1乃至14のうちいずれか一項に記載の拡張現実に基づいた表示方法。
  16. 前記拡張現実表示技術に基づき前記実時間シーン画像において前記ターゲットオブジェクトの前記仮想画像を動的に表示するステップを更に有する、
    請求項1乃至15のうちいずれか一項に記載の拡張現実に基づいた表示方法。
  17. 拡張現実に基づいた表示装置であって、
    ユーザからの第1指示に応答して、画像収集ユニットによって捕捉された実時間シーン画像においてターゲットオブジェクト画像を取得するよう構成されるターゲットオブジェクト決定ユニットと、
    前記ターゲットオブジェクト画像に基づきターゲットオブジェクトに対応する仮想画像を生成するよう構成される生成ユニットと、
    拡張現実表示技術に基づき前記実時間シーン画像において前記ターゲットオブジェクトの前記仮想画像を表示し、
    少なくとも1つの仮想画像が前記実時間シーン画像に既に存在し、既に存在している前記少なくとも1つの仮想画像の位置と前記ターゲットオブジェクトに対応する前記仮想画像との間の距離が第2の前もってセットされた距離範囲を越えるとの決定に応答して、既に存在している前記少なくとも1つの仮想画像を、前記ターゲットオブジェクトに対応する前記仮想画像の前記第2の前もってセットされた距離範囲内に動かし、前記少なくとも1つの仮想画像を表示するよう構成される表示ユニットと
    を有する表示装置。
  18. 少なくとも1つのプロセッサと、
    メモリと
    を有し、
    前記メモリは、コンピュータ実行可能命令を記憶し、
    前記少なくとも1つのプロセッサは、該少なくとも1つのプロセッサに請求項1乃至16のうちいずれか一項に記載の方法を実行させるように、前記メモリに記憶されている前記コンピュータ実行可能命令を実行する、
    電子機器。
  19. コンピュータ実行可能命令を記憶し、該コンピュータ実行可能命令がプロセッサによって実行される場合に、請求項1乃至16のうちいずれか一項に記載の方法が実装されるコンピュータ可読記憶媒体。
JP2022530864A 2020-09-09 2021-08-20 拡張現実に基づいた表示方法及び装置、並びに記憶媒体 Active JP7422876B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010937921.6A CN112053449A (zh) 2020-09-09 2020-09-09 基于增强现实的显示方法、设备及存储介质
CN202010937921.6 2020-09-09
PCT/SG2021/050488 WO2022055418A1 (zh) 2020-09-09 2021-08-20 基于增强现实的显示方法、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2023504030A JP2023504030A (ja) 2023-02-01
JP7422876B2 true JP7422876B2 (ja) 2024-01-26

Family

ID=73611476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022530864A Active JP7422876B2 (ja) 2020-09-09 2021-08-20 拡張現実に基づいた表示方法及び装置、並びに記憶媒体

Country Status (7)

Country Link
US (2) US11594000B2 (ja)
EP (1) EP4044123A4 (ja)
JP (1) JP7422876B2 (ja)
KR (1) KR102646977B1 (ja)
CN (1) CN112053449A (ja)
BR (1) BR112022010368A2 (ja)
WO (1) WO2022055418A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210375023A1 (en) * 2020-06-01 2021-12-02 Nvidia Corporation Content animation using one or more neural networks
EP4071725A4 (en) 2021-02-09 2023-07-05 Beijing Zitiao Network Technology Co., Ltd. AUGMENTED REALITY-BASED DISPLAY METHOD AND DEVICE, STORAGE MEDIA AND PRODUCT-PROGRAM
CN113176827B (zh) * 2021-05-25 2022-10-28 青岛大学 基于表情的ar交互方法、系统、电子设备及存储介质
US11861778B1 (en) * 2022-07-25 2024-01-02 Gravystack, Inc. Apparatus and method for generating a virtual avatar
CN115712344A (zh) * 2022-09-27 2023-02-24 汉华智能科技(佛山)有限公司 一种智慧电子祭祀的场景交互方法、系统及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203377A (ja) 2013-04-09 2014-10-27 ソニー株式会社 画像処理装置および記憶媒体
JP2015115034A (ja) 2013-12-16 2015-06-22 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
WO2016203792A1 (ja) 2015-06-15 2016-12-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2019053423A (ja) 2017-09-13 2019-04-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006005044B4 (de) * 2006-02-03 2011-01-27 Metaio Gmbh Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung
KR101367175B1 (ko) * 2011-04-19 2014-02-27 네오뷰코오롱 주식회사 투명 디스플레이를 갖는 블루투스 단말
US9652895B2 (en) * 2014-03-06 2017-05-16 Disney Enterprises, Inc. Augmented reality image transformation
KR101575954B1 (ko) * 2014-04-30 2015-12-11 인하대학교 산학협력단 3차원 정합을 이용한 증강현실 장치 및 그 방법
CN106937531B (zh) * 2014-06-14 2020-11-06 奇跃公司 用于产生虚拟和增强现实的方法和系统
US10984610B2 (en) * 2016-04-23 2021-04-20 Devar Entertainment Limited Method for influencing virtual objects of augmented reality
CN106791784B (zh) * 2016-12-26 2019-06-25 深圳增强现实技术有限公司 一种虚实重合的增强现实显示方法和装置
CN107067474A (zh) * 2017-03-07 2017-08-18 深圳市吉美文化科技有限公司 一种增强现实处理方法及装置
US11353259B2 (en) * 2018-09-18 2022-06-07 Samsung Electronics Co., Ltd. Augmented-reality refrigerator and method of controlling thereof
CN110335334A (zh) * 2019-07-04 2019-10-15 北京字节跳动网络技术有限公司 虚拟头像驱动显示方法、装置、电子设备及存储介质
JP2020087429A (ja) * 2019-07-17 2020-06-04 株式会社ドワンゴ 動画合成装置、動画合成方法及び動画合成プログラム
US10665036B1 (en) * 2019-08-03 2020-05-26 VIRNECT inc. Augmented reality system and method with dynamic representation technique of augmented images
CN110597397A (zh) * 2019-09-29 2019-12-20 深圳传音控股股份有限公司 增强现实的实现方法、移动终端及存储介质
CN110941337A (zh) * 2019-11-25 2020-03-31 深圳传音控股股份有限公司 虚拟形象的控制方法、终端设备及计算机可读存储介质
CN111626183A (zh) * 2020-05-25 2020-09-04 深圳市商汤科技有限公司 一种目标对象展示方法及装置、电子设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203377A (ja) 2013-04-09 2014-10-27 ソニー株式会社 画像処理装置および記憶媒体
JP2015115034A (ja) 2013-12-16 2015-06-22 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
WO2016203792A1 (ja) 2015-06-15 2016-12-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2019053423A (ja) 2017-09-13 2019-04-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
US20230162452A1 (en) 2023-05-25
US20220277530A1 (en) 2022-09-01
EP4044123A4 (en) 2023-08-02
KR102646977B1 (ko) 2024-03-13
KR20220088924A (ko) 2022-06-28
BR112022010368A2 (pt) 2022-08-16
WO2022055418A1 (zh) 2022-03-17
CN112053449A (zh) 2020-12-08
US11594000B2 (en) 2023-02-28
JP2023504030A (ja) 2023-02-01
EP4044123A1 (en) 2022-08-17

Similar Documents

Publication Publication Date Title
JP7422876B2 (ja) 拡張現実に基づいた表示方法及び装置、並びに記憶媒体
JP7300563B2 (ja) 拡張現実に基づいた表示方法、装置、及び記憶媒体
WO2020186935A1 (zh) 虚拟对象的显示方法、装置、电子设备和计算机可读存储介质
US10162491B2 (en) Drag and drop of objects between applications
US20170329503A1 (en) Editing animations using a virtual reality controller
JP2024505995A (ja) 特殊効果展示方法、装置、機器および媒体
KR102655049B1 (ko) 비디오 처리 방법, 장치, 전자 디바이스 및 컴퓨터 판독가능 저장 매체
US11475636B2 (en) Augmented reality and virtual reality engine for virtual desktop infrastucture
CN112672185B (zh) 基于增强现实的显示方法、装置、设备及存储介质
US10964085B2 (en) Method and apparatus for inciting a viewer to rotate toward a reference direction when consuming an immersive content item
US20230267664A1 (en) Animation processing method and apparatus, electronic device and storage medium
EP4071725A1 (en) Augmented reality-based display method and device, storage medium, and program product
RU2801917C1 (ru) Способ и устройство для отображения изображений на основе дополненной реальности и носитель для хранения информации
US20230405475A1 (en) Shooting method, apparatus, device and medium based on virtual reality space
US20240135501A1 (en) Video generation method and apparatus, device and medium
JP2022146938A (ja) 遮られた物理的オブジェクトの位置を示すこと
JP5740700B2 (ja) ゲーム装置及びゲームプログラム
KR20170056831A (ko) 증강 현실에서 표현되는 html 컨텐츠와의 인터액션을 제공하는 증강 현실 제공 장치 및 방법
NZ709107B2 (en) Drag and drop of objects between applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240116

R150 Certificate of patent or registration of utility model

Ref document number: 7422876

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150