JP2023501642A - 仮想表示方法、装置、デバイス及びコンピュータ可読記憶媒体 - Google Patents

仮想表示方法、装置、デバイス及びコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP2023501642A
JP2023501642A JP2022527984A JP2022527984A JP2023501642A JP 2023501642 A JP2023501642 A JP 2023501642A JP 2022527984 A JP2022527984 A JP 2022527984A JP 2022527984 A JP2022527984 A JP 2022527984A JP 2023501642 A JP2023501642 A JP 2023501642A
Authority
JP
Japan
Prior art keywords
virtual
display screen
target
movement
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2022527984A
Other languages
English (en)
Inventor
▲張▼子▲隆▼
▲孫▼林
▲許▼▲親▼▲親▼
▲欒▼青
Original Assignee
ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド filed Critical ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Publication of JP2023501642A publication Critical patent/JP2023501642A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本開示の実施例は、仮想表示方法、装置、デバイス及びコンピュータ可読記憶媒体を提供する。前記方法は、制御情報を取得することと、前記制御情報に基づいて、ディスプレイスクリーンの第1移動情報を決定し、前記ディスプレイスクリーンを前記第1移動情報に従って移動させるように制御することと、前記ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得ることと、前記ディスプレイスクリーンに前記仮想効果画像を表示させることと、を含む。本開示により、表示の柔軟性が高くなり、表示効果が向上する。【選択図】図3a

Description

(関連出願への相互参照)
本出願は、出願番号が202010763221.Xであり、出願日が2020年7月31日である中国特許に基づいて提出され、当該中国特許出願の優先権を主張し、当該中国特許の全ての内容がここで参照により本開示に組み込まれる。
本開示は、画像処理技術に関し、特に仮想表示方法、装置、デバイス及びコンピュータ可読記憶媒体に関する。
現在、幾つかの大型展示会、例えば歴史的文物展示、自動車展示、工事地ビル展示又は建築計画用サンドテーブル展示などの場面では、展示物を展示し、展示物等の他の物品を解説することが常に必要となる。関連技術では、解説録音を再生しながらスクリーンに仮想人物を表示させるという方策が提案されている。しかしながら、関連技術では、展示物の解説又は他の実場面において、仮想人物及び展示物の表示モードが単一であり、表示方式が十分に柔軟ではない。
本開示の実施例は、仮想表示方法、装置、デバイス及びコンピュータ可読記憶媒体を提供する。
本開示の技術的手段は、以下のように実現される。
本開示の実施例による移動可能なディスプレイスクリーンを含む表示デバイスに適用される仮想表示方法は、
制御情報を取得することと、前記制御情報に基づいて、ディスプレイスクリーンの第1移動情報を決定し、前記ディスプレイスクリーンを前記第1移動情報に従って移動させるように制御することと、前記ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得ることと、前記ディスプレイスクリーンに前記仮想効果画像を表示させることと、を含む。
上記方法では、前記制御情報を取得することは、端末へのタッチ操作を受けることと、前記タッチ操作に基づいて、前記制御情報を生成することと、を含む。
上記方法では、前記制御情報を取得することは、第1画像収集装置を介して、実場面における目標インタラクション対象のマルチフレームインタラクション画像を収集することと、前記マルチフレームインタラクション画像に基づいて、前記マルチフレームインタラクション画像における目標インタラクション対象の第2移動情報を決定することであって、前記第2移動情報は、前記制御情報とされることと、を含む。
上記方法では、前記第2移動情報は、前記目標インタラクション対象の実際の移動方向及び実際の移動速度のうちの少なくとも一方を含み、前記制御情報に基づいて、ディスプレイスクリーンの第1移動情報を決定し、前記ディスプレイスクリーンを前記第1移動情報に従って移動させるように制御することは、前記目標インタラクション対象の実際の移動方向及び実際の移動速度のうちの少なくとも一方に基づいて、第1移動方向及び第1移動速度のうちの少なくとも一方を決定することであって、前記第1移動方向及び前記第1移動速度のうちの少なくとも一方は、前記第1移動情報であり、前記実際の移動速度は、前記第1移動速度に正比例することと、前記第1移動方向及び前記第1移動速度のうちの少なくとも一方に従って、前記ディスプレイスクリーンを移動させるように制御することと、を含む。
上記方法では、前記第1移動情報は、前記ディスプレイスクリーンの第1移動速度を含み、前記ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得ることは、前記第1移動速度に基づいて、前記仮想対象の第1動作データを決定することであって、異なる第1移動速度は、異なる第1動作データに対応することと、前記第1動作データに基づいて、前記仮想対象をレンダリングして前記仮想対象の第1動作効果を得ることであって、前記仮想効果画像は、前記第1動作効果を含むことと、含む。
上記方法では、前記第1動作データは、仮想対象のステップの長さ、仮想対象のケイデンス、仮想対象の肢体の振り幅、仮想対象の肢体の振り周波数、及び仮想対象のプリセット指示動作データのうちの少なくとも1種を含む。
上記方法では、前記第1移動情報は、ディスプレイスクリーンの第1移動方向を含み、前記ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得ることは、前記第1移動方向に基づいて、前記仮想対象の第2動作データを決定することと、前記第2動作データに基づいて、前記仮想対象をレンダリングして前記仮想対象の第2動作効果を得ることであって、前記仮想効果画像には、前記第2動作効果が含まれることと、を含む。
上記方法では、前記第2動作効果は、前記仮想対象の振り向き動作を含み、前記第1移動方向に基づいて、前記仮想対象の第2動作データを決定することは、前記第1移動方向に基づいて、前記仮想対象の目標向きを決定することであって、前記目標向きは、前記第1移動方向と同じであることと、前記仮想対象の現在の向きが前記目標向きと異なる場合、前記現在の向きを目標向きに切り替えて、前記仮想対象の向き切り替え情報を得ることと、前記向き切り替え情報に基づいて、前記第2動作データを決定することと、を含む。
上記方法では、前記方法は、前記ディスプレイスクリーンが静止にある場合、第2画像収集装置を介して実場面画像を収集することと、前記実場面画像の画像コンテンツを識別して、目標展示対象を得ることと、前記目標展示対象の仮想展示データを取得し、前記仮想展示データ及び仮想対象をレンダリングして仮想展示画像を得ることと、前記ディスプレイスクリーンに、前記仮想展示画像と前記実場面とを重ね合わせた拡張現実効果を表示させることと、をさらに含む。
上記方法では、前記第1画像収集装置を介して、実場面における目標インタラクション対象のマルチフレームインタラクション画像を収集することは、第1画像収集装置を介して、実場面のマルチフレーム画像を収集することと、前記マルチフレーム画像から複数のインタラクション対象を識別することと、前記複数のインタラクション対象から前記目標インタラクション対象を決定することと、前記マルチフレーム画像のうち、前記目標インタラクション対象を含む画像を前記マルチフレームインタラクション画像とすることと、を含む。
上記方法では、前記ディスプレイスクリーンは、透明のディスプレイスクリーン又は不透明のディスプレイスクリーンである。
本開示の実施例による仮想表示装置は、
制御情報を取得するように構成される取得部と、
前記制御情報に基づいて、ディスプレイスクリーンの第1移動情報を決定し、前記ディスプレイスクリーンを前記第1移動情報に従って移動させるように制御するように構成される制御部と、
前記ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得るように構成されるレンダリング部と、
前記ディスプレイスクリーンに前記仮想効果画像を表示させるように構成される表示部と、を備える。
上記装置では、前記取得部は、端末へのタッチ操作を受け、前記タッチ操作に基づいて、前記制御情報を生成するスように構成される。
上記装置では、前記取得部は、第1画像収集装置を介して、実場面における目標インタラクション対象のマルチフレームインタラクション画像を収集し、前記マルチフレームインタラクション画像に基づいて、前記マルチフレームインタラクション画像における目標インタラクション対象の第2移動情報を決定するように構成され、前記第2移動情報は、前記制御情報とされる。
上記装置では、前記第2移動情報は、前記目標インタラクション対象の実際の移動方向及び実際の移動速度のうちの少なくとも一方を含み、前記制御部は、さらに前記目標インタラクション対象の実際の移動方向及び実際の移動速度のうちの少なくとも一方に基づいて、第1移動方向及び第1移動速度のうちの少なくとも一方を決定し、前記第1移動方向及び前記第1移動速度のうちの少なくとも一方が前記第1移動情報であり、前記実際の移動速度が前記第1移動速度に正比例し、前記第1移動方向及び前記第1移動速度のうちの少なくとも一方に従って、前記ディスプレイスクリーンを移動させるように制御するように構成される。
上記装置では、前記第1移動情報は、前記ディスプレイスクリーンの第1移動速度を含み、前記レンダリング部は、前記第1移動速度に基づいて、前記仮想対象の第1動作データを決定し、異なる第1移動速度が異なる第1動作データに対応し、前記第1動作データに基づいて、前記仮想対象をレンダリングして前記仮想対象の第1動作効果を得るように構成される。
上記装置では、前記第1動作データは、仮想対象のステップの長さ、仮想対象のケイデンス、仮想対象の肢体の振り幅、仮想対象の肢体の振り周波数、及び仮想対象のプリセット指示動作データのうちの少なくとも1種を含む。
上記装置では、前記第1移動情報は、ディスプレイスクリーンの第1移動方向を含み、前記レンダリング部は、さらに前記第1移動方向に基づいて、前記仮想対象の第2動作データを決定し、前記第2動作データに基づいて、前記仮想対象をレンダリングして前記仮想対象の第2動作効果を得るように構成され、前記仮想効果画像には、前記第2動作効果が含まれる。
上記装置では、前記第2動作効果は、前記仮想対象の振り向き動作を含み、前記レンダリング部は、さらに前記第1移動方向に基づいて、前記仮想対象の目標向きを決定し、前記目標向きが前記第1移動方向と同じであり、前記仮想対象の現在の向きが前記目標向きと異なる場合、前記現在の向きを目標向きに切り替えて、前記仮想対象の向き切り替え情報を得て、前記向き切り替え情報に基づいて、前記第2動作データを決定するように構成される。
上記装置では、前記ディスプレイスクリーンが静止にある場合、第2画像収集装置を介して実場面画像を収集するように構成される収集部と、前記実場面画像の画像コンテンツを識別して、目標展示対象を得るように構成される識別部と、をさらに備え、前記レンダリング部は、さらに前記目標展示対象の仮想展示データを取得し、前記仮想展示データ及び仮想対象をレンダリングして仮想展示画像を得て、前記ディスプレイスクリーンに、前記仮想展示画像と前記実場面とを重ね合わせた拡張現実効果を表示させるように構成される。
上記装置では、前記収集部は、さらに第1画像収集装置を介して、実場面のマルチフレーム画像を収集し、前記マルチフレーム画像から複数のインタラクション対象を識別し、前記複数のインタラクション対象から前記目標インタラクション対象を決定し、前記マルチフレーム画像のうち、前記目標インタラクション対象を含む画像を前記マルチフレームインタラクション画像とするように構成される。
上記装置では、前記ディスプレイスクリーンは、透明のディスプレイスクリーン又は不透明のディスプレイスクリーンである。
本開示の実施例による表示デバイスは、
前記表示デバイスに仮想効果画像を表示させるように構成されるディスプレイスクリーンと、
コンピュータプログラムを記憶するように構成されるメモリと、
前記メモリに記憶されたコンピュータプログラムを実行する場合、前記ディスプレイスクリーンと組み合わせて、上記仮想表示方法を実現するように構成されるプロセッサと、を備える。
本開示の実施例は、プロセッサによって実行される場合、上記仮想表示方法を実現するためのコンピュータプログラムを記憶するコンピュータ可読記憶媒体を提供する。
本開示の実施例は、コンピュータ可読コードを含み、前記コンピュータコードが表示デバイスで実行される場合、前記表示デバイスにおけるプロセッサが上記仮想表示方法を実現する、コンピュータプログラムを提供する。
本開示の実施例は、以下の有益な効果を有する。
本開示の実施例は、仮想表示方法、装置、デバイス及びコンピュータ可読記憶媒体を提供する。前記方法では、制御情報を取得し、制御情報に基づいて、ディスプレイスクリーンの第1移動情報を決定し、ディスプレイスクリーンを第1移動情報に従って移動させるように制御し、ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得て、ディスプレイスクリーンに仮想効果画像を表示させ、つまり、制御情報に基づいて、ディスプレイスクリーンを移動させるように制御することにより、仮想対象がディスプレイスクリーンに対して移動することを対応する仮想効果画像として提示させることができ、これにより、表示の柔軟性が高くなり、表示効果が向上する。
本開示の実施例による1つの選択可能な仮想表示システムアーキテクチャの概略構成図である。 本開示の実施例による1つの選択可能な適用場面の概略図である。 本開示の実施例による1つの選択可能な仮想表示方法のフローチャートである。 本開示の実施例による1つの選択可能な仮想表示方法のフローチャートである。 本開示の実施例による1つの選択可能な仮想表示方法のフローチャートである。 本開示の実施例による1つの選択可能な仮想表示方法のフローチャートである。 本開示の実施例による1つの選択可能な仮想表示方法のフローチャートである。 本開示の実施例による1つの選択可能な仮想表示方法のフローチャートである。 本開示の実施例による1つの選択可能な仮想対象のステップの長さの概略図である。 本開示の実施例による1つの選択可能な仮想対象のステップの長さの概略図である。 本開示の実施例による1つの選択可能な仮想表示方法のフローチャートである。 本開示の実施例による1つの選択可能な仮想表示方法のフローチャートである。 本開示の実施例による1つの選択可能な仮想対象の向きの概略図である。 本開示の実施例による1つの選択可能な仮想対象の向きの概略図である。 本開示の実施例による1つの選択可能な仮想表示方法のフローチャートである。 本開示の実施例による1つの選択可能な表示効果の概略図である。 本開示の実施例による1つの選択可能な表示効果の概略図である。 本開示の実施例による仮想表示装置の概略構成図である。 本開示の実施例による表示デバイスの概略構成図である。
ここでの添付図面は、本明細書に組み込まれて本明細書の一部を構成し、これらの添付図面は、本開示に一致する実施例を示し、明細書と共に本開示の実施例の技術的手段を説明するために用いられる。
本開示の目的、技術的手段及び利点をより明確にするために、以下に添付図面を参照して本開示をさらに詳しく説明する。説明される実施例は、本開示を限定するためのものと見なすべきではなく、当業者が創造的な労働をせずに得られた他のすべての実施例は、本開示の保護範囲に属する。
本開示の実施例は、表示方式の柔軟性を向上させることができる仮想表示方法、装置、デバイス及びコンピュータ可読記憶媒体を提供する。本開示の実施例によって提供される仮想表示方法は、表示デバイスに適用され、以下では、本開示の実施例によって提供される表示デバイスの例示的な適用を説明する。本開示の実施例によって提供される表示デバイスは、ARメガネ、ノートブックコンピュータ、タブレットコンピュータ、デスクトップコンピュータ、セットトップボックス、モバイルデバイス(例えば、携帯電話、ポータブル音楽プレーヤー、パーソナルディジタルアシスタント、専用メッセージングデバイス、ポータブルゲームデバイス)などの様々なタイプのデバイスとして実施されてもよい。開示された実施例では、表示デバイスは、ディスプレイスクリーンを含み、ここで、ディスプレイスクリーンは、移動可能なディスプレイスクリーンとして実施され、例えば、ディスプレイスクリーンは、プリセットスライドレール上に移動することができ、又は、移動可能なスライドブラケット上に移動を実現し、又は、ユーザがディスプレイデバイスを手で持つことにより、ディスプレイスクリーンの移動が実現されてもよい。
例示的に、本開示の実施例では、仮想表示システムは、展示ホールにおける展示物の前に設けられてディスプレイスクリーンを備えた表示デバイス、及び展示ホールの側面に設けられて制御に用いられる端末を含み、表示デバイスと端末は、情報インタラクションを行うことができる。仮想表示システムは、端末とそのバックエンドサーバーで構成されてもよく、端末は、展示ホールにおける展示物の前に設けられてもよく、又はユーザが手で持って移動して、展示物の展示を行うことができる。この時の端末は、先の表示デバイス及び端末の機能を一体化したものである。
つまり、端末は、表示デバイス自体であってもよいし、表示デバイスとの接続関係を確立することにより、表示デバイスが端末へのユーザのタッチ操作を受けることを可能にする端末であってもよく、これに対して、本開示の実施例は限定しない。
ここで、端末は、携帯電話、タブレットコンピュータ、ノートブックコンピュータ、ハンドヘルドコンピュータ、パーソナルデジタルアシスタント、ポータブルメディアプレーヤー、スマートブレスレットなどのウェアラブルデバイス、仮想現実(VR:Virtual Reality)デバイス、拡張現実(AR:Augmented Reality)デバイス、ペドメーターなどであってもよく、これに対して、本開示の実施例は限定しない。
以下、表示デバイスの例示的な適用を説明する。表示デバイスがディスプレイスクリーンを備えた端末である場合、ディスプレイスクリーンを第1移動情報に従って移動させるように制御し、第1移動情報に基づいて仮想対象をレンダリングし、仮想効果画像を得ることができ、表示デバイスは、クラウドサーバーとのインタラクションを行い、第1移動情報に基づいて、クラウドサーバーに予め記憶された、プリセット仮想効果画像データベースから仮想効果データを決定することもできる。
図1を参照すると、図1は本開示の実施例による仮想表示システム100の1つの選択可能なアーキテクチャの概略図である。1つの仮想表示アプリケーションへのサポートを実現するために、端末400(端末400-1及び端末400-2が例示的に示される)は、ネットワーク300を介してサーバー200に接続され、ネットワーク300は、広域ネットワーク又はローカルエリアネットワークであってもよく、又は両者の組み合わせであってもよい。端末400は、移動可能なディスプレイスクリーンであってもよく、移動可能なディスプレイスクリーンは、プリセットラック上に移動することができる。
端末400は、制御情報を取得し、制御情報に基づいて、ディスプレイスクリーンの第1移動情報を決定し、ディスプレイスクリーンを第1移動情報に従って移動させるように制御し、ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得て、ディスプレイスクリーン410に仮想効果画像を表示させるように構成される(ディスプレイスクリーン410-1及びディスプレイスクリーン410-2が例示的に示される)。
例示的に、端末400が携帯電話として実施される場合、携帯電話におけるプリセット表示アプリケーションを起動し、プリセット表示アプリケーションを介して制御情報を取得し、さらに第1移動情報を決定し、第1移動情報に基づいてサーバー200にデータ要求を開始することができ、サーバー200は、データ要求を受け取った後、データベース500に予め記憶された、プリセット仮想効果画像から第1移動情報とマッチングする仮想効果データを決定し、仮想効果データを端末400に送り返す。端末400は、サーバーによってフィードバックされた仮想効果データを得た後、レンダリングツールを介して仮想効果データに基づいて仮想効果画像をレンダリングし、仮想効果画像を端末400のグラフィカルインターフェースに提示する。
幾つかの実施例では、サーバー200は、独立した物理サーバーであってもよいし、複数の物理サーバーで構成されるサーバークラスター又は分散システムであってもよいし、クラウドサービス、クラウドデータベース、クラウドコンピューティング、クラウド関数、クラウドストレージ、ネットワークサービス、クラウド通信、ミドルウェアサービス、ドメインネームサービス、セキュリティサービス、CDN、及びビックデータ及び人工知能プラットフォームなどの基本的なクラウドコンピューティングサービスを提供するためのクラウドサーバーであってもよい。端末400は、スマートフォン、タブレットコンピュータ、ノートブックコンピュータ、デスクトップコンピュータ、スマートスピーカー、スマートウォッチなどであってもよいが、これらに限定されない。端末とサーバーは、有線又は無線通信により直接又は間接的に接続されてもよく、本開示の実施例において限定されない。
以下の実施例では、表示デバイス及び端末が異なるデバイスであることを例として仮想表示方法の実現を説明する。
図2は本開示の実施例による適用場面の概略図である。図2に示すように、表示デバイスは、移動可能なディスプレイスクリーン201を含むことができ、当該移動可能なディスプレイスクリーン201は、展示会の複数の展示物の周りに設けられてもよく、移動可能なディスプレイスクリーン201には、展示物を撮影するように構成され得るリアカメラが配置され、移動可能なディスプレイスクリーン201には、展示物、展示物に関する仮想効果及び仮想対象が表示されてもよい。展示物の仮想効果は、展示物の紹介情報、展示物の内部詳細展示情報、展示物の輪郭線、展示物の仮想解説者のうちの少なくとも1種であってもよい。移動可能なディスプレイスクリーン201には、移動可能なディスプレイスクリーン201の前に位置する目標インタラクション対象(例えば出展者)を撮影するように構成されたフロントカメラも配置され、これにより、移動可能なディスプレイスクリーン201は、撮影された画像における目標インタラクション対象によって発信した命令を識別することができ、これにより、目標インタラクション対象に対してディスプレイスクリーンを移動させるように制御し、目標インタラクション対象の命令に従って仮想対象とのインタラクションを行い、展示物を展示するという効果を達成する。
本開示の実施例は、移動可能なディスプレイスクリーンを含む表示デバイスに適用される仮想表示方法を提供する。図3aを参照すると、図3aは本開示の実施例による1つの選択可能な仮想表示方法のフローチャートであり、図3aに示すステップを参照して説明する。
S301において、制御情報を取得する。
本開示の実施例では、表示デバイスは、制御情報を取得し、制御情報に基づいて、ディスプレイスクリーンを移動させるように制御することができる。
ここで、制御情報の形態は、例えば、端末によって端末に設けられたディスプレイスクリーンに作用する操作情報、例えば左移動、右移動、加速、減速、停止などを含むことができ、制御情報は、検出された表示デバイスのディスプレイスクリーンの周りにおけるユーザの歩行、静止、腕の振りなどのユーザの移動情報も含むことができ、これに対して、本開示の実施例は限定しない。
本開示の実施例では、制御情報を取得する方式は、1)センサーによりユーザの移動情報をセンシングすることと、2)カメラでユーザの移動情報をキャプチャすることと、3)ユーザが端末で操作する操作情報を受信することとを含むことができ、これに対して、本開示の実施例は限定しない。
ここで、表示デバイス及び端末の機能が一体化した場合、表示デバイスは、ユーザがユーザ自分に設けられたディスプレイスクリーンで行う操作により、制御情報を取得することもできる。
S302において、制御情報に基づいて、ディスプレイスクリーンの第1移動情報を決定し、ディスプレイスクリーンを第1移動情報に従って移動させるように制御する。
本開示の実施例では、表示デバイスは、制御情報を取得した後、制御情報に基づいて第1移動情報を決定することができ、第1移動情報は、ディスプレイスクリーンの移動状況を表し、第1移動情報は、ディスプレイスクリーンの第1移動方向、及びディスプレイスクリーンの第1移動速度のうちの少なくとも一方を含むことができる。第1移動情報が決定された後、ディスプレイスクリーンを第1移動情報に従って移動させるように制御する。
例示的に、制御情報が、ユーザが端末で左移動操作を行うものである場合、第1移動情報は、ディスプレイスクリーンが左に移動するものであってもよく、そこで、表示デバイスのディスプレイスクリーンは、プリセット速度に従って左に移動し、又は、制御情報が、ユーザの腕が左を指す動作である場合、第1移動情報は、ディスプレイスクリーンが左に移動し、プリセット速度で移動するものであってもよく、又は、制御情報が、ユーザが左に歩くものである場合、第1移動情報は、ディスプレイスクリーンが左に移動し、ユーザの速度に追従して移動するものであってもよい。
ここで、表示デバイス及び端末の機能が一体化した場合、制御情報は、ユーザが表示デバイスに設けられたディスプレイスクリーンで左移動操作を行うことにより得られるものであってもよく、この場合、制御情報に基づいて、ディスプレイスクリーンの第1移動情報が、ディスプレイスクリーンが左に移動するという情報であることを決定する。
S303において、ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得る。
本開示の実施例では、ディスプレイスクリーンに仮想対象が表示され、第1移動情報に基づいて仮想対象をレンダリングすることにより、仮想効果画像を提示し、仮想効果画像により、ディスプレイスクリーンの第1移動情報に対応する仮想対象の応答状況を実現する。
本開示の実施例では、仮想対象は、仮想人物、仮想動物、仮想物品、仮想アバターなどを含むことができ、これに対して、本開示の実施例は限定しない。
本開示の実施例では、表示デバイスは、ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングすることができ、これにより、異なるディスプレイスクリーンの第1移動情報は、異なる仮想効果画像に対応することができ、即ち、第1移動情報は、仮想効果画像とマッチングすることができる。
例示的に、ディスプレイスクリーンが第1移動情報に従って静止する場合、仮想効果画像は、仮想対象が静止する画像であってもよく、ディスプレイスクリーンが第1移動情報に従って移動する場合、仮想効果画像は、仮想対象がディスプレイスクリーンの方向及び速度に追従して移動する画像であってもよく、つまり、ユーザがディスプレイスクリーンを静止させるように制御する場合、仮想対象は、静止し、ユーザがディスプレイスクリーンを移動させるように制御する場合、仮想対象は、ディスプレイスクリーンに追従して移動する。
S304において、ディスプレイスクリーンに仮想効果画像を表示させる。
本開示の実施例では、仮想効果画像が得られた後、仮想効果画像をディスプレイスクリーンに表示させ、このようにして、ユーザは、ディスプレイスクリーンを介して、ディスプレイスクリーンの第1移動情報に対する仮想対象の応答状況を見ることができる。
表示デバイスは、制御情報を取得した後、制御情報に基づいて、ディスプレイスクリーンを第1移動情報に従って移動させるように制御し、さらに第1移動情報とマッチングする仮想対象の仮想効果画像をディスプレイスクリーンに表示させることができることが理解でき、それにより、表示の柔軟性が高くなり、表示効果が向上する。
本開示の幾つかの実施例では、制御情報を取得するS301は、図3bに示すように、以下のステップを含むことができる。
S401において、端末へのタッチ操作を受ける。
本開示の実施例では、端末でのユーザのタッチ操作を受け、タッチ操作により、表示デバイスのディスプレイスクリーンを移動させるように制御することができる。
ここで、表示デバイス及び端末の機能が一体化した場合、表示デバイスは、表示デバイスのディスプレイスクリーンでのユーザのタッチ操作を受け、タッチ操作により、表示デバイスのディスプレイスクリーンを移動させるように制御することもでき、本開示の実施例は限定しない。
S402において、タッチ操作に基づいて、制御情報を生成する。
本開示の実施例では、表示デバイスは、ユーザのタッチ操作を受けると、タッチ操作に基づいて対応する制御情報を生成することができる。
本開示の実施例では、表示デバイスは、ユーザの第1タッチ操作を受ける場合、左に移動するようにディスプレイスクリーンに指示する制御情報を生成し、表示デバイスは、ユーザの第2タッチ操作を受ける場合、右に移動するようにディスプレイスクリーンに指示する制御情報を生成し、表示デバイスは、ユーザの第3タッチ操作を受ける場合、静止するようにディスプレイスクリーンに指示する制御情報を生成し、移動プロセスにおいて、表示デバイスは、ユーザの第4タッチ操作を受ける場合、加速するようにディスプレイスクリーンに指示する制御情報を生成し、表示デバイスは、ユーザの第5タッチ操作を受ける場合、減速するようにディスプレイスクリーンに指示する制御情報を生成する。
ここで、第1タッチ操作、第2タッチ操作、第3タッチ操作、第4タッチ操作及び第5タッチ操作は、いずれもニーズに応じて設定されてもよく、ここで、本開示の実施例は限定しない。
例示的に、表示デバイスは、ユーザが携帯電話において左にスライドする操作を受ける場合、左に移動するようにディスプレイスクリーンに指示する制御情報を生成し、さらにディスプレイスクリーンの第1移動情報が、初期のプリセット速度0.2m/sで左に移動するものであることを決定し、ディスプレイスクリーンが左に移動するプロセスにおいて、ユーザが左にスライドする操作を再度受ける場合、移動を加速するようにディスプレイスクリーンに指示する制御情報を生成し、さらにディスプレイスクリーンの第1移動情報が第2プリセット速度0.4m/sで左に移動するものであることを決定し、ここで、第2プリセット速度は、初期のプリセット速度を基にしてプリセット速度ステップ0.2m/s上げるものであってもよく、幾つかの実施例では、速度の上限を0.8m/sに設定することもでき、このようにして、ユーザが携帯電話に左に複数回スライドする場合でも、ディスプレイスクリーンの最大移動速度は、0.8m/sを超えない。
表示デバイスは、端末へのユーザのタッチ操作に基づいて、ディスプレイスクリーンを第1移動情報に従って移動させるように制御し、さらに第1移動情報に基づいて仮想対象をレンダリングし、第1移動情報とマッチングする仮想効果画像をディスプレイスクリーンに表示させることができ、それにより、表示の柔軟性が高くなり、表示効果が向上することが理解できる。
本開示の幾つかの実施例では、制御情報を取得するS301の実現は、図3cに示すように、以下のステップを含むことができる。
S501において、第1画像収集装置を介して、実場面における目標インタラクション対象のマルチフレームインタラクション画像を収集する。
本開示の実施例では、ユーザの移動情報を取得するために、ユーザの移動情報を、ディスプレイスクリーンを移動させるように制御する制御情報とする。表示デバイスに第1画像収集装置を設けて、第1画像収集装置に対する実場面画像を撮影し、ユーザを、ディスプレイスクリーンを移動させるように制御する目標インタラクション対象とし、目標インタラクション対象を含むマルチフレームインタラクション画像を収集し、マルチフレームインタラクション画像における目標インタラクション対象の画面における動作変化状況を比較して、目標インタラクション対象の移動情報を得ることができる。
本開示の幾つかの実施例では、第1画像収集装置を介して、実場面における目標インタラクション対象のマルチフレームインタラクション画像を収集するS501の実現は、図3dに示すように、以下のステップを含むことができる。
S5011において、第1画像収集装置を介して、実場面のマルチフレーム画像を収集する。
本開示の実施例では、表示デバイスは、第1画像収集デバイスを介して実場面画像を撮影した後、マルチフレーム画像を得ることができ、マルチフレーム画像における各フレームの画像には、目標インタラクション対象が含まれる可能性があり、目標インタラクション対象が含まれない可能性もある。
ここで、第1画像収集装置は、ディスプレイスクリーンにおける、ディスプレイスクリーンの移動に追随して目標インタラクション対象の移動動作をリアルタイムで収集するカメラであってもよいし、目標インタラクション対象が静止する場合での腕の動作を収集する固定カメラであってもよく、これに対して、本開示の実施例は限定しない。
S5012において、マルチフレーム画像から複数のインタラクション対象を識別する。
S5013において、複数のインタラクション対象から目標インタラクション対象を決定する。
本開示の実施例では、表示デバイスは、まずマルチフレーム画像におけるインタラクション対象を識別することができる。マルチフレーム画像における各フレームの画像には、インタラクション対象が含まれる可能性があり、インタラクション対象が含まれない可能性もあり、インタラクション対象が含まれる場合、目標インタラクション対象を選択してインタラクションプロセスを行うことができる。
本開示の実施例では、表示デバイスは、複数のインタラクション対象を識別することができ、表示デバイスは、複数のインタラクション対象から目標インタラクション対象を決定することができる。
本開示の実施例では、表示デバイスは、プリセット選択条件に従って複数のインタラクション対象から目標インタラクション対象を決定することができ、例えば、表示デバイスは、複数のインタラクション対象のうち、ディスプレイスクリーンに最も近いインタラクション対象を目標インタラクション対象として決定することができ、表示デバイスは、目標インタラクション対象と表示デバイスとの間の関連関係を予め確立することもでき、このようにして、表示デバイスは、複数のインタラクション対象から目標インタラクション対象を決定することができ、表示デバイスは、複数のインタラクション対象のうち、受けた視線の数量が最も多いインタラクション対象を目標インタラクション対象とすることもでき、例えば、複数の視聴者が解説者を注視し、解説者を目標インタラクション対象と見なすことができ、ここで、プリセット選択条件は、必要に応じて設定されてもよく、これに対して、本開示の実施例は限定しない。
S5014において、マルチフレーム画像のうち、目標インタラクション対象を含む画像をマルチフレームインタラクション画像とする。
本開示の実施例では、表示デバイスは、複数の識別対象から目標インタラクション対象を決定した後、目標インタラクション対象を含むマルチフレーム画像をマルチフレームインタラクション画像とすることができ、マルチフレームインタラクション画像の各フレームの画像には目標インタラクション対象が含まれる。
表示デバイスは、第1画像収集装置を介して実場面画像を撮影し、それによってマルチフレーム画像を取得し、マルチフレーム画像からインタラクション対象を識別した後、続いてインタラクション対象から目標インタラクション対象を決定し、さらにマルチフレームインタラクション画像を取得することが理解できる。
S502において、マルチフレームインタラクション画像に基づいて、マルチフレームインタラクション画像における目標インタラクション対象の第2移動情報を決定し、ここで、第2移動情報は制御情報とされる。
本開示の実施例では、表示デバイスは、マルチフレームインタラクション画像を取得した後、マルチフレームインタラクション画像に基づいて目標インタラクション対象の移動情報、即ち第2移動情報を決定し、第2移動情報を制御情報とすることができる。
ここで、第2移動情報は、目標インタラクション対象の移動方向、移動速度、腕の移動方向、腕の移動速度などを含むことができ、これに対して、本開示の実施例は限定しない。
本開示の幾つかの実施例では、表示デバイスは、マルチフレームインタラクション画像における画面での目標インタラクション対象の変化に基づいて、第2移動情報を決定することができる。
例示的に、ディスプレイスクリーンにフロントカメラが設けられ、フロントカメラによって目標インタラクション対象の歩行プロセスを撮影し、画像での目標インタラクション対象の位置を比較することにより、目標インタラクション対象とディスプレイスクリーンとの間の距離を決定し、続いてマルチフレームインタラクション画像における画像での目標インタラクション対象の位置の変化及びマルチフレームインタラクション画像の時間情報により、目標インタラクション対象の実際の移動方向及び実際の移動速度を第2移動情報として決定する。
本開示の幾つかの実施例では、表示デバイスは、実場面画像に基づいて3次元空間を確立し、マルチフレームインタラクション画像における画像での目標インタラクション対象の位置に基づいて3次元空間における目標インタラクション対象の座標を決定し、さらに3次元空間における目標インタラクション対象の座標の変化状況に応じて、第2移動情報を決定することができる。
本開示の幾つかの実施例では、第2移動情報は、目標インタラクション対象の実際の移動方向及び実際の移動速度のうちの少なくとも一方を含み、制御情報に基づいて、ディスプレイスクリーンの第1移動情報を決定し、ディスプレイスクリーンを第1移動情報に従って移動させるように制御するS302は、図3eに示すように、以下のステップを含むことができる。
S601において、目標インタラクション対象の実際の移動方向及び実際の移動速度のうちの少なくとも一方に基づいて、第1移動方向及び第1移動速度のうちの少なくとも一方を決定し、ここで、第1移動方向及び第1移動速度のうちの少なくとも一方は、第1移動情報である。
本開示の実施例では、ディスプレイスクリーンは、目標インタラクション対象の移動に追随して移動し、第2移動情報は、目標インタラクション対象の実際の移動方向及び実際の移動速度のうちの少なくとも一方を含み、このようにして、表示デバイスは、第2移動情報を取得した後、目標インタラクション対象の実際の移動方向及び実際の移動速度のうちの少なくとも一方に基づいて、ディスプレイスクリーンの第1移動情報を決定することができ、第1移動情報は、第1移動方向及び第1移動速度のうちの少なくとも一方を含む。
本開示の幾つかの実施例では、目標インタラクション対象の移動方向に基づいてディスプレイスクリーンの第1移動方向を決定し、第1移動方向を第1移動情報とすることができる。
本開示の実施例では、表示デバイスは、目標インタラクション対象の移動方向がディスプレイスクリーンのスライドレールに投影する方向を第1移動方向とし、例えば、ディスプレイスクリーンのスライドレールの方向は、左右方向の延在であり、目標インタラクション対象の移動方向が左方向である場合、第1移動方向は左方向であり、目標インタラクション対象の移動方向が左前方向である場合、スライドレールに投影する方向は、左方向であり、第1移動方向は、左方向であり、目標インタラクション対象が静止する場合、目標インタラクション対象の実際の移動方向がなく、ディスプレイスクリーンの第1移動方向もなく、即ちディスプレイスクリーンも静止する。
本開示の幾つかの実施例では、表示デバイスは、目標インタラクション対象の移動速度に基づいてディスプレイスクリーンの第1移動速度を決定し、第1移動速度を第1移動情報とすることができ、ここで、第1移動速度は、実際の移動速度に正比例する。
本開示の実施例では、実際の移動速度を第1移動速度とすることができ、実際の移動速度をプリセット複数の速度範囲に分けることもでき、各範囲が1つのディスプレイスクリーンの移動速度に対応し、それによって実際の移動速度の属する速度範囲が決定された後、対応する第1移動速度を決定することができ、実際の移動速度に基づいて第1移動速度を決定する方式に対して、ニーズに応じて設定することができ、これに対して、本開示の実施例は限定しない。
本開示の幾つかの実施例では、目標インタラクション対象の移動方向に基づいてディスプレイスクリーンの第1移動方向を決定し、目標インタラクション対象の移動速度に基づいてディスプレイスクリーンの第1移動速度を決定し、それによってディスプレイスクリーンの第1移動情報を決定し、第1移動方向及び第1移動速度を第1移動情報とすることができる。
S602において、第1移動方向及び第1移動速度のうちの少なくとも一方に従って、ディスプレイスクリーンを移動させるように制御する。
本開示の実施例では、第1移動方向及び第1移動速度のうちの少なくとも一方が決定された後、第1移動方向及び第1移動速度のうちの少なくとも一方に従ってディスプレイスクリーンを移動させるように制御する。
本開示の幾つかの実施例では、第1移動情報は、第1移動方向であり、表示デバイスは、ディスプレイスクリーンを第1移動方向及びプリセット移動速度に従って移動させるように制御し、つまり、目標インタラクション対象が移動する場合、ディスプレイスクリーンは、第1移動方向及びプリセット移動速度に従って移動し、目標インタラクション対象が静止する場合、ディスプレイスクリーンは、静止する。
本開示の幾つかの実施例では、第1移動情報は、第1移動速度であり、表示デバイスは、ディスプレイスクリーンをプリセット移動方向及び第1移動速度に従って移動させるように制御する。
例示的に、目標インタラクション対象が左から右に移動して各展示物が順番に見られることができる場合、ディスプレイスクリーンの第1移動方向は、左から右に移動するように予め設定されてもよく、最も左側は、ディスプレイスクリーンが移動する初期位置であり、このようにして、表示デバイスがディスプレイスクリーンの第1移動速度を決定した場合、ディスプレイスクリーンは、第1移動速度に従って右に移動し、目標インタラクション対象が第1画像収集装置の撮影範囲を超える場合、ディスプレイスクリーンは、静止し、又は、初期位置に移動する。
本開示の幾つかの実施例では、第1移動情報は、第1移動方向及び第1移動速度であり、表示デバイスは、ディスプレイスクリーンを第1移動方向及び第1移動速度に従って移動させるように制御する。実際の移動速度が第1移動速度に正比例するため、目標インタラクション対象の移動速度が速いほど、ディスプレイスクリーンの速度が速くなり、目標インタラクション対象の移動速度が遅いほど、ディスプレイスクリーンの移動速度も遅くなる。
例示的に、目標インタラクション対象の実際の移動方向は、左方向であり、実際の移動速度は、0.3m/sであり、これにより、第1移動方向が左方向であり、第1移動速度が0.3m/sであることを決定し、実際の移動速度を0.4m/sに上げる場合、第1移動速度も0.4m/sであり、これにより、ディスプレイスクリーンと目標インタラクション対象は、左に同期して移動する。
本開示の幾つかの実施例では、第1移動情報は、ディスプレイスクリーンの第1移動速度を含む。ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得るS303の実現は、図3fに示すように、以下のステップを含むことができる。
S701において、第1移動情報に基づいて、仮想対象の第1動作データを決定し、ここで、異なる第1移動速度は、異なる第1動作データに対応する。
本開示の実施例では、ディスプレイスクリーンの第1移動速度が決定された後、第1移動速度に基づいて仮想対象の第1動作データを決定することができ、第1動作データは、仮想対象が移動する状態を表す。ディスプレイスクリーンが速く移動する場合、第1動作データは、仮想対象が速く移動することを示し、ディスプレイスクリーンが遅く移動する場合、第1動作データは、仮想対象が遅く移動することを示し、ディスプレイスクリーンが静止する場合、第1動作データは、仮想対象がアイドル状態にあることを示す。
本開示の幾つかの実施例では、第1動作データは、仮想対象のステップの長さ、仮想対象のケイデンス、仮想対象の肢体の振り幅、仮想対象の肢体の振り周波数、及び仮想対象のプリセット指示動作データのうちの少なくとも1種を含む。
本開示の実施例では、第1動作データごとについて複数のデータを設定することができ、各データは、仮想対象の異なる移動速度を表し、ディスプレイスクリーンの第1移動速度と第1動作データとの対応関係を設定し、対応関係によって第1動作データを決定する。
ここで、第1移動速度は、1種類の第1動作に対応することができ、複数種類の第1動作データに対応することもでき、これに対して、本開示の実施例は限定しない。
例示的に、第1移動速度を異なる速度範囲に従って分類することができ、各種類は、1つの第1動作データに対応し、第1動作データがステップの長さであることを例として、第1移動速度が(0.1-0.3)m/sである場合、対応するステップの長さは0.2mであり、第1移動速度が(0.3-0.5)m/sである場合、対応するステップの長さは0.4mである。
なお、ディスプレイスクリーンが静止する場合、即ち第1移動速度が0である場合、第1動作データがプリセット指示動作データであることを決定し、プリセット指示動作データは、仮想対象がアイドル状態にあることを示し、プリセット指示動作データは、仮想対象が手を振る動作データ、仮想対象が自由に歩く動作データ、仮想対象が歓迎するために腕を伸ばす動作データなどを含むことができ、プリセット指示動作データは、ニーズに応じて設定されてもよく、これに対して、本開示の実施例は限定しない。
S702において、第1動作データに基づいて、仮想対象をレンダリングして仮想対象の第1動作効果を得て、仮想効果画像には、第1動作効果が含まれる。
本開示の実施例では、第1動作データが決定された後、第1動作データに基づいて、仮想対象をレンダリングして仮想対象の第1動作効果を得て、異なる第1動作データによって異なる第1動作効果を得ることができる。
例示的に、異なるステップの長さで仮想対象をレンダリングすることにより、得られた第1動作効果が異なり、ステップの長さ0.2mとステップの長さ0.4mとを比較すると、対応する仮想対象の第1動作効果において異なるステップサイズが提示され、ステップの長さ0.2mに対応する第1動作効果について図4aを参照し、ステップの長さ0.4mに対応する第1動作効果について図4bを参照し、図4bにおける仮想対象のステップの長さが図4aにおけるステップの長さよりも大きく、つまり、異なるステップサイズに対応する異なるステップの長さを設定し、ステップサイズによって仮想対象の移動速度を体現することができる。
ここで、プリセット指示動作データによって仮想対象をレンダリングすることにより、プリセット指示動作、例えば、仮想対象が手を振る動作、仮想対象が自由に歩く動作などを得ることができる。
ディスプレイスクリーンの第1移動速度に基づいて仮想対象をレンダリングし、第1動作効果を得て、第1動作効果によって第1移動速度の差異を体現することが理解でき、つまり、目標インタラクション対象の移動速度が速いほど、ディスプレイスクリーンの移動速度が速くなり、第1動作効果によって提示される仮想対象の移動速度は速くなり、それによって表示の柔軟性が高くなり、表示効果が向上する。
本開示の幾つかの実施例では、第1移動情報は、ディスプレイスクリーンの第1移動方向を含む。ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得るS303の実現は、図5aに示すように、以下のステップを含むことができる。
S801において、第1移動方向に基づいて、仮想対象の第2動作データを決定する。
本開示の実施例では、ディスプレイスクリーンの第1移動方向が決定された後、第1移動方向に基づいて仮想対象の第2動作データを決定することができ、第2動作データは、仮想対象の目標向きの切り替えプロセスを示す。
本開示の実施例では、ディスプレイスクリーンが静止する場合、仮想対象は、目標インタラクション対象を向くことができ、プリセット指示動作を実行することもでき、ディスプレイスクリーンが移動し始める場合、仮想対象は、現在の向きから移動方向に切り替え、続いて移動方向に従って移動することができる。
ここで、第2動作データは、仮想対象の振り向き方向を含むことができ、仮想対象の振り向きによって、仮想対象の移動方向が変化することを示し、第2動作データは、仮想対象の左側/右側の腕の持ち上げであってもよく、仮想対象の左側の腕の持ち上げによって、仮想対象の移動方向が左方向であることを示し、ここで、第2動作データは、ニーズに応じて設定されてもよく、これに対して、本開示の実施例は限定しない。
本開示の幾つかの実施例では、第2動作効果は、仮想対象の振り向き動作を含み、第1移動方向に基づいて、仮想対象の第2動作データを決定するS801の実現は、図5bに示すように、以下のステップを含むことができる。
S8011において、第1移動方向に基づいて、仮想対象の目標向きを決定し、目標向きが第1移動方向と同じである。
本開示の実施例では、ディスプレイスクリーンの第1移動方向を仮想対象の目標向きとして決定することができ、例えば、第1移動方向が左方向である場合、仮想対象の目標向きが左方向であることを決定し、第1移動方向が右方向である場合、仮想対象の目標向きが右方向であることを決定し、ディスプレイスクリーンが静止する場合、仮想対象の目標向きがディスプレイスクリーンの真ん前であることを決定する。
S8012において、仮想対象の現在の向きが目標向きと異なる場合、現在の向きを目標向きに切り替えて、仮想対象の向き切り替え情報を得る。
本開示の実施例では、ディスプレイスクリーンの第1移動方向が変化する場合、仮想対象の現在の向きが目標向きと異なり、仮想対象を現在の向きから目標向きに切り替えて、仮想対象の向き切り替え情報を得ることができる。
例示的に、ディスプレイスクリーンが静止状態から移動する場合、仮想対象の現在の向きがディスプレイスクリーンの真ん前であり、目標向きが右方向である場合、向き切り替え情報は、ディスプレイスクリーンの真ん前から右方向に切り替えるものである。
図6aを参照すると、図6aには、ィスプレイスクリーンが静止する状態における仮想対象の現在の向きは、ディスプレイスクリーンの真ん前であり、ディスプレイスクリーンが静止状態から右に移動する場合、仮想対象は、右に振り向き、振り向いた後の仮想対象の向きは右方向であり、図6bに示される。
S8013において、向き切り替え情報に基づいて、第2動作データを決定する。
本開示の実施例では、向き切り替え情報を確認した後、第2動作データが、仮想対象が現在の方向から目標向きを向くように振り向くものであることを決定することができる。
本開示の実施例では、ディスプレイスクリーンが一方向に移動し続けているプロセスにおいて、仮想対象の現在の向きが目標向きと同じであり、仮想対象の向きを切り替える必要がないため、仮想対象の目標向きを決定しなくてもよい。
S802において、第2動作データに基づいて、仮想対象をレンダリングして仮想対象の第2動作効果を得て、仮想効果画像には第2動作効果が含まれる。
本開示の実施例では、第2動作データが決定された後、第2動作データに基づいて仮想対象をレンダリングして、仮想対象の第2動作効果を得て、異なる第2動作データによって異なる第2動作効果を得ることができる。
例示的に、ディスプレイスクリーンが静止する場合、目標インタラクション対象は、ディスプレイスクリーンの真ん前に位置し、仮想対象は、ディスプレイスクリーンの真ん前を向け、ディスプレイスクリーンの第1移動方向が左方向である場合、第2動作効果は、仮想対象が左に振り向くものであり、ディスプレイスクリーンの第1移動方向が右方向である場合、第2動作効果は、仮想対象が右に振り向くものであり、ディスプレイスクリーンが右に移動してから停止する場合、第2動作効果は、仮想対象が右側を向けてから、ディスプレイスクリーンの真ん前を向くように振り向くものである。
第1移動方向によって第2動作データを決定し、さらに仮想対象をレンダリングして第2動作効果を得て、第2動作効果によってディスプレイスクリーンの移動方向の変化を表示し、それにより、表示の柔軟性が高くなり、表示効果が向上することが理解できる。
上記実施例に基づいて、本開示の実施例は、仮想表示方法を提供する。図7に示すように、当該方法は、以下のステップを含むことができる。
S901において、ディスプレイスクリーンが静止にある場合、第2画像収集装置を介して、実場面画像を収集する。
S902において、実場面画像の画像コンテンツを識別して、目標展示対象を得る。
本開示の実施例では、表示デバイスには、実場面画像を収集するように構成される第2画像収集装置も設けられ、ここで、実場面は、建物の屋内場面、街路場面、具体的な物体などが仮想対象を重ね合わせることができる場面であってもよく、実場面において仮想対象を重ね合わせることで、拡張現実(AR:Augmented Reality)の効果を提示し、これに対して、本開示の実施例は限定しない。
AR技術は、仮想情報と現実世界を巧みに融合する技術であり、ユーザは、ARデバイスを介して、実際のキャンパスの遊び場に重ね合わせられた仮想樹木、空に重ね合わせられた仮想の飛ぶ鳥などの実場面に重ね合わせられた仮想対象を見ることができ、拡張現実場面における仮想対象の提示効果を達成する。
本開示の実施例では、ディスプレイスクリーンが静止する場合、表示デバイスは、収集された実場面画像に基づいて識別し、実場面における目標展示対象を得て、そうすると、表示デバイスは、目標展示対象及び仮想対象をレンダリングし、仮想展示対象を得る必要がある。
例示的に、ディスプレイスクリーンが静止する場合、表示デバイスは、実場面画像に基づいて目標展示対象を識別しない場合、ディスプレイスクリーンに仮想対象のプリセット指示動作を表示させることができる。
S903において、目標展示対象の仮想展示データを取得し、仮想展示データ及び仮想対象をレンダリングして仮想展示画像を得る。
本開示の実施例では、目標展示対象が識別された後、表示デバイスは、目標展示対象の仮想展示データを取得し、仮想展示データ及び仮想対象をレンダリングして、仮想展示画像を得る必要がある。
例示的に、目標展示対象は、文物であり、文物の仮想展示データは、文物の名前、サイズ、出土年代、文物の説明、仮想的な詳細などを含むことができ、この際に、仮想対象は、文物への解説者として展示してもよく、したがって、表示デバイスは、仮想対象をレンダリングすることにより、仮想対象にプリセット説明動作を提示させ、仮想対象の表示位置と表示サイズのうちの少なくとも一方を調整して、仮想対象による文物の遮蔽を回避することもできる。
S904において、ディスプレイスクリーンに、仮想展示画像と実場面とを重ね合わせた拡張現実効果を表示させる。
本開示の実施例では、レンダリングした後に仮想展示対象が得られた後、仮想展示対象及び収集された実場面画像を重ね合わせて、拡張現実効果を表示する。
図8は表示効果を示す図である。図8に示すように、ディスプレイスクリーン800が静止する場合、決定された目標展示対象は、文物804であり、且つ、文物804は、実場面画像において画像の右側に位置する場合、ディスプレイスクリーンに表示される仮想対象805は、ディスプレイスクリーン800の左側に位置し、文物804は、ディスプレイスクリーンの右側に位置し、文物804の仮想展示データは、文物説明8041及び文物の仮想的な詳細8042を含み、ここで、文物説明8041は、「口径75.6cm」であってもよい。
上記の実施例に基づいて、本開示の幾つかの実施例では、表示デバイスのディスプレイスクリーンは、透明のディスプレイスクリーン又は不透明のディスプレイスクリーンであってもよい。ここで、透明ディスプレイスクリーンは、OLEDディスプレイスクリーンであってもよい。
表示デバイスのディスプレイスクリーンが不透明のディスプレイスクリーンである場合、不透明のディスプレイスクリーンの裏面(即ち、ディスプレイスクリーンが設けられない面)には、不透明のディスプレイスクリーンの裏面に面している目標展示対象を収集するとともに不透明のディスプレイスクリーンの前面にあるディスプレイを介して目標展示対象に対応する実場面画像と仮想展示画像とを重ね合わせた拡張現実AR効果を表示させるように構成される単眼カメラ又は双眼カメラが設けられてもよい。このようにして、目標インタラクション対象は、不透明のディスプレイスクリーンの正面に位置し、実場面画像と仮想展示画像とを重ね合わせた拡張現実AR効果を見ることができる。
表示デバイスのディスプレイスクリーンが透明のディスプレイスクリーンである場合、透明のディスプレイスクリーンの一側には、透明のディスプレイスクリーンの一側に位置する展示物を収集するように構成される単眼カメラ又は双眼カメラが設けられてもよい。表示デバイスは、収集された目標展示対象を識別することにより、透明のスクリーンに、目標展示対象に対応する実場面画像と仮想展示画像とを重ね合わせた拡張現実AR効果を表示させる。これに基づいて、図9に示す表示効果の概略図を参照すると、目標インタラクション対象は、透明のディスプレイスクリーンを透過して透明のディスプレイスクリーンの後に位置する目標展示対象を見て、透明のディスプレイスクリーンから上記拡張表示AR効果を見ることができる。
本開示の実施例は、仮想表示装置を提供する。図10は、本開示の実施例による仮想表示装置の1つの選択可能な構成構造である。図10に示すように、当該仮想表示装置10は、
制御情報を取得するように構成される取得部1001と、
前記制御情報に基づいて、ディスプレイスクリーンの第1移動情報を決定し、前記ディスプレイスクリーンを前記第1移動情報に従って移動させるように制御するように構成される制御部1002と、
前記ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得るように構成されるレンダリング部1003と、
前記ディスプレイスクリーンに前記仮想効果画像を表示させるように構成される表示部1004と、を備える。
幾つかの実施例では、前記取得部1001はさらに、端末へのタッチ操作を受け、前記タッチ操作に基づいて、前記制御情報を生成するスように構成される。
幾つかの実施例では、前記取得部1001はさらに、第1画像収集装置を介して、実場面における目標インタラクション対象のマルチフレームインタラクション画像を収集し、前記マルチフレームインタラクション画像に基づいて、前記マルチフレームインタラクション画像における目標インタラクション対象の第2移動情報を決定するように構成され、前記第2移動情報は、前記制御情報とされる。
幾つかの実施例では、前記第2移動情報は、前記目標インタラクション対象の実際の移動方向及び実際の移動速度のうちの少なくとも一方を含み、前記制御部1002はさらに、前記目標インタラクション対象の実際の移動方向及び実際の移動速度のうちの少なくとも一方に基づいて、第1移動方向及び第1移動速度のうちの少なくとも一方を決定し、前記第1移動方向及び前記第1移動速度のうちの少なくとも一方が前記第1移動情報であり、前記実際の移動速度が前記第1移動速度に正比例し、前記第1移動方向及び前記第1移動速度のうちの少なくとも一方に従って、前記ディスプレイスクリーンを移動させるように制御するように構成される。
幾つかの実施例では、前記第1移動情報は、前記ディスプレイスクリーンの第1移動速度を含み、前記レンダリング部1003はさらに、前記第1移動速度に基づいて、前記仮想対象の第1動作データを決定し、異なる第1移動速度が異なる第1動作データに対応し、前記第1動作データに基づいて、前記仮想対象をレンダリングして前記仮想対象の第1動作効果を得るように構成され、前記仮想効果画像は、前記第1動作効果を含む。
幾つかの実施例では、前記第1動作データは、仮想対象のステップの長さ、仮想対象のケイデンス、仮想対象の肢体の振り幅、仮想対象の肢体の振り周波数、及び仮想対象のプリセット指示動作データのうちの少なくとも1種を含む。
幾つかの実施例では、前記第1移動情報は、ディスプレイスクリーンの第1移動方向を含み、前記レンダリング部1003はさらに、前記第1移動方向に基づいて、前記仮想対象の第2動作データを決定し、前記第2動作データに基づいて、前記仮想対象をレンダリングして前記仮想対象の第2動作効果を得るように構成され、前記仮想効果画像には、前記第2動作効果が含まれる。
幾つかの実施例では、前記第2動作効果は、前記仮想対象の振り向き動作を含み、前記レンダリング部1003はさらに、前記第1移動方向に基づいて、前記仮想対象の目標向きを決定し、前記目標向きが前記第1移動方向と同じであり、前記仮想対象の現在の向きが前記目標向きと異なる場合、前記現在の向きを目標向きに切り替えて、前記仮想対象の向き切り替え情報を得て、前記向き切り替え情報に基づいて、前記第2動作データを決定するように構成される。
幾つかの実施例では、前記ディスプレイスクリーンが静止する場合、第2画像収集装置を介して実場面画像を収集するように構成される収集部1005(図示せず)と、前記実場面画像の画像コンテンツを識別して、目標展示対象を得るように構成される識別部1006(図示せず)と、をさらに備え、前記レンダリング部1003はさらに、前記目標展示対象の仮想展示データを取得し、前記仮想展示データ及び仮想対象をレンダリングして仮想展示画像を得て、前記ディスプレイスクリーンに、前記仮想展示画像と前記実場面とを重ね合わせた拡張現実効果を表示させるように構成される。
幾つかの実施例では、前記収集部1005はさらに、第1画像収集装置を介して、実場面のマルチフレーム画像を収集し、前記マルチフレーム画像から複数のインタラクション対象を識別し、前記複数のインタラクション対象から前記目標インタラクション対象を決定し、前記マルチフレーム画像のうち、前記目標インタラクション対象を含む画像を前記マルチフレームインタラクション画像とするように構成される。
幾つかの実施例では、前記ディスプレイスクリーンは、透明のディスプレイスクリーン又は不透明のディスプレイスクリーンである。
本開示の実施例及び他の実施例では、「部」は、一部の回路、一部のプロセッサ、一部のプログラム又はソフトウェアなどであってもよく、当然、ユニットであってもよく、また、モジュールであってもよいし、モジュール化されないものであってもよい。
本開示の実施例は、表示デバイスをさらに提供する。図11は、本開示の実施例による表示デバイスの1つの選択可能な概略構成図である。図11に示すように、当該表示デバイス11は、
前記表示デバイスに仮想効果画像を表示させるように構成されるディスプレイスクリーン1101と、
コンピュータプログラムを記憶するように構成されるメモリ1102と、
前記メモリ1102に記憶されたコンピュータプログラムを実行する場合、前記ディスプレイスクリーン1101と組み合わせて、上記の実施例によって提供される仮想表示方法のステップを実現するように構成されるプロセッサ1103と、を備える。
表示デバイス11は、通信バス1104をさらに備える。通信バス1104は、上記コンポーネント間の接続通信を実現するように構成される。
メモリ1102は、プロセッサ1103によって実行されるコンピュータプログラム及びアプリケーションを記憶するように構成され、プロセッサ1103及び表示デバイスの各モジュールによって処理されるデータ又は処理されたデータ(例えば、画像データ、オーディオデータ、音声通信データ及びビデオ通信データ)をキャッシュすることもでき、フラッシュメモリ(FLASH(登録商標))又はランダムアクセスメモリ(RAM:Random Access Memory)により実現されてもよい。
プロセッサ1103がプログラムを実行する場合、上記のいずれかの仮想表示方法のステップを実現する。プロセッサ1103は、通常、表示デバイス11の全体的な動作を制御する。
上記プロセッサは、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、デジタル信号プロセッサ(DSP:Digital Signal Processor)、デジタル信号処理装置(DSPD:Digital Signal Processing Device)、プログラマブルロジックデバイス(PLD:Programmable Logic Device)、フィールドプログラマブルゲートアレイ(FPGA:Field-Programmable Gate Array)、中央処理装置(CPU:Central Processing Unit)、コントローラ、マイクロコントローラ、マイクロプロセッサのうちの少なくとも1種であってもよい。上記プロセッサ機能を実現する電子デバイスは、他のものであってもよいことが理解でき、本開示の実施例は限定しない。
本開示の実施例は、コンピュータ可読記憶媒体を提供し、当該コンピュータ可読記憶媒体にはコンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサに実行される場合、上記方法の実施例に記載される仮想表示方法のステップを実行する。
上記コンピュータ可読記憶媒体/メモリは、読み取り専用メモリ(ROM:Read Only Memory)、プログラマブル読み取り専用メモリ(PROM:Programmable Read-Only Memory)、消去可能プログラマブル読み取り専用メモリ(EPROM:Erasable Programmable Read-Only Memory)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM:Electrically Erasable Programmable Read-Only Memory)、磁気ランダムアクセスメモリ(FRAM(登録商標):ferromagnetic random access memory)、フラッシュメモリ(Flash Memory)、磁気表面メモリ、光ディスク、又は読み取り専用光ディスク(CD-ROM:Compact Disc Read-Only Memory)などのメモリであってもよく、携帯電話、コンピュータ、タブレットデバイス、パーソナルデジタルアシスタントなどの、上記メモリの1つの又は任意の組み合わせを含む様々な端末であってもよい。
上記の記憶媒体及びデバイスの実施例の説明が上記の方法の実施例の説明と同様であり、方法の実施例と同様の有益な効果を有することを指摘する必要がある。本開示の記憶媒体及びデバイスの実施例に開示されない技術的詳細について、本開示の方法の実施例の説明を参照して理解する。
本開示の実施例は、コンピュータ可読コードを含み、前記コンピュータコードが表示デバイスで実行される場合、前記表示デバイスにおけるプロセッサが上記仮想表示方法を実現する、コンピュータプログラムを提供する。
明細書全体にわたって言及する「1つの実施例」又は「一実施例」が実施例と関連する特定特徴、構造又は特性が本発明の少なくとも1つの実施例に含まれることを意味することを理解すべきである。したがって、本明細書を通して様々な箇所に現れる「1つの実施例において」又は「一実施形態で」は、必ずしも同じ実施例を意味するわけではない。また、これらの特定の特徴、構造又は特性は、1つ又は複数の実施例に任意の適切な方式で組合わせられてもよい。本開示の様々な実施例では、上記の各プロセスの番号の大きさが実行順序を意味せず、各プロセスの実行順序は、その機能と内部論理で決定されるべきであり、本開示の実施例の実施プロセスのいかなる限定を構成すべきではないことを理解すべきである。上記の本開示の実施例番号は、説明のためのものだけであり、実施例の優劣を表したものではない。
本開示で提供される幾つかの実施例では、開示されるデバイス及び方法が他の方式により実現されてもよいことを理解すべきである。上述したデバイスの実施例は、例示的なものだけであり、例えば、前記ユニットの区分は、論理機能的区分だけであり、実際に実現する場合他の区分方式もあり得て、例えば複数のユニット又はコンポーネントは、組み合わせられてもよく、又は他のシステムに統合されてもよく、又は幾つかの特徴は、無視されてもよく、又は実行されなくてもよい。また、示され又は議論される各コンポーネントの間の相互結合、又は直接結合、又は通信接続は、幾つかのインターフェース、デバイス又はユニットを介す間接的結合又は通信接続であってもよいし、電気的、機械的又は他の形態であってもよい。
分離部材として説明された前記ユニットは、物理的に分離するものであってもよく又は物理的に分離するものでなくてもよく、ユニットとして表示された部材は物理的ユニットであってもよく又は物理的ユニットでなくてもよく、即ち1つの箇所に位置してもよいし、複数のネットワークユニットに分布してもよく、実際のニーズに応じて一部又は全てのユニットを選択して本開示の実施例の案の目的を達成することができる。
また、本開示の各実施例における各機能ユニットは、全て1つの処理ユニットに統合されてもよいし、個々のユニットは、それぞれ単独で1つのユニットとして機能してもよく、2つ又は2つ以上のユニットは、1つのユニットに統合されてもよく、上記の統合されたユニットは、ハードウェアの形で実現されてもよいし、ハードウェアとソフトウェア機能の組み合わせの形で実現されてもよい。
又は、本開示では上記の統合されたユニットは、ソフトウェア機能モジュールの形で実現され且つ独立した製品として販売又は使用される場合に、1つのコンピュータ可読記憶媒体に記憶されてもよい。このような理解に基づき、本開示の実施例における技術的手段は本質的に又は関連技術に寄与する部分がソフトウェア製品の形で具現化されてもよく、当該コンピュータソフトウェア製品は、1つの記憶媒体に記憶され、機器自動テストラインに本開示の各実施例に記載の方法の全て又は一部を実行させるための幾つかの命令を含む。前記記憶媒体は、モバイルストレージデバイス、ROM、磁気ディスク又は光ディスク等のプログラムコードを記憶できる様々な媒体を含む。
本開示よって提供される幾つかの方法の実施例で開示される方法を衝突せずに任意に組み合わせて、新しい方法の実施例を得ることができる。
本開示によって提供される幾つかの方法又はデバイスの実施例で開示される特徴を衝突せずに任意に組み合わせて、新しい方法の実施例又はデバイスの実施例を得ることができる。
上記は、本開示の実施形態だけであるが、本開示の保護範囲は、これに制限されず、当業者が本開示で開示された技術範囲内で容易に想到し得る変化又は入れ替わりは、全て本開示の保護範囲内に含まれるべきである。したがって、本開示の保護範囲は、前記特許請求の保護範囲に準拠するべきである。
本開示の実施例では、制御情報に基づいて、ディスプレイスクリーンを移動させるように制御することにより、仮想対象がディスプレイスクリーンに対して移動することを対応する仮想効果画像として提示させることができ、これにより、表示の柔軟性が高くなり、表示効果が向上する。

Claims (15)

  1. 移動可能なディスプレイスクリーンを含む表示デバイスに適用される仮想表示方法であって、
    制御情報を取得することと、
    前記制御情報に基づいて、ディスプレイスクリーンの第1移動情報を決定し、前記ディスプレイスクリーンを前記第1移動情報に従って移動させるように制御することと、
    前記ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得ることと、
    前記ディスプレイスクリーンに前記仮想効果画像を表示させることと、を含む、仮想表示方法。
  2. 前記制御情報を取得することは、
    端末へのタッチ操作を受けることと、
    前記タッチ操作に基づいて、前記制御情報を生成することと、を含むことを特徴とする
    請求項1に記載の方法。
  3. 前記制御情報を取得することは、
    第1画像収集装置を介して、実場面における目標インタラクション対象のマルチフレームインタラクション画像を収集することと、
    前記マルチフレームインタラクション画像に基づいて、前記マルチフレームインタラクション画像における目標インタラクション対象の第2移動情報を決定することであって、前記第2移動情報は、前記制御情報とされることと、を含むことを特徴とする
    請求項1に記載の方法。
  4. 前記第2移動情報は、前記目標インタラクション対象の実際の移動方向及び実際の移動速度のうちの少なくとも一方を含み、
    前記制御情報に基づいて、ディスプレイスクリーンの第1移動情報を決定し、前記ディスプレイスクリーンを前記第1移動情報に従って移動させるように制御することは、
    前記目標インタラクション対象の実際の移動方向及び実際の移動速度のうちの少なくとも一方に基づいて、第1移動方向及び第1移動速度のうちの少なくとも一方を決定することであって、前記第1移動方向及び前記第1移動速度のうちの少なくとも一方は前記第1移動情報であり、前記実際の移動速度は、前記第1移動速度に正比例することと、
    前記第1移動方向及び前記第1移動速度のうちの少なくとも一方に基づいて、前記ディスプレイスクリーンを移動させるように制御することと、を含むことを特徴とする
    請求項3に記載の方法。
  5. 前記第1移動情報は、前記ディスプレイスクリーンの第1移動速度を含み、
    前記ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得ることは、
    前記第1移動速度に基づいて、前記仮想対象の第1動作データを決定することであって、異なる第1移動速度は、異なる第1動作データに対応することと、
    前記第1動作データに基づいて、前記仮想対象をレンダリングして前記仮想対象の第1動作効果を得ることであって、前記仮想効果画像には、前記第1動作効果が含まれることと、を含むことを特徴とする
    請求項1~4のいずれか一項に記載の方法。
  6. 前記第1動作データは、仮想対象のステップの長さ、仮想対象のケイデンス、仮想対象の肢体の振り幅、仮想対象の肢体の振り周波数、及び仮想対象のプリセット指示動作データのうちの少なくとも1種を含むことを特徴とする
    請求項5に記載の方法。
  7. 前記第1移動情報は、ディスプレイスクリーンの第1移動方向を含み、
    前記ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得ることは、
    前記第1移動方向に基づいて、前記仮想対象の第2動作データを決定することと、
    前記第2動作データに基づいて、前記仮想対象をレンダリングして前記仮想対象の第2動作効果を得ることであって、前記仮想効果画像には、前記第2動作効果が含まれることと、を含むことを特徴とする
    請求項1~6のいずれか一項に記載の方法。
  8. 前記第2動作効果は、前記仮想対象の振り向き動作を含み、
    前記第1移動方向に基づいて、前記仮想対象の第2動作データを決定することは、
    前記第1移動方向に基づいて、前記仮想対象の目標向きを決定することであって、前記目標向きは、前記第1移動方向と同じであることと、
    前記仮想対象の現在の向きが前記目標向きと異なる場合、前記現在の向きを目標向きに切り替えて、前記仮想対象の向き切り替え情報を得ることと、
    前記向き切り替え情報に基づいて、前記第2動作データを決定することと、を含むことを特徴とする
    請求項7に記載の方法。
  9. 前記方法は、
    前記ディスプレイスクリーンが静止にある場合、第2画像収集装置を介して、実場面画像を収集することと、
    前記実場面画像の画像コンテンツを識別して、目標展示対象を得ることと、
    前記目標展示対象の仮想展示データを取得し、前記仮想展示データ及び仮想対象をレンダリングして仮想展示画像を得ることと、
    前記ディスプレイスクリーンに、前記仮想展示画像と前記実場面とを重ね合わせた拡張現実効果を表示させることと、をさらに含むことを特徴とする
    請求項1~8に記載の方法。
  10. 前記第1画像収集装置を介して、実場面における目標インタラクション対象のマルチフレームインタラクション画像を収集することは、
    第1画像収集装置を介して、実場面のマルチフレーム画像を収集することと、
    前記マルチフレーム画像から複数のインタラクション対象を識別することと、
    前記複数のインタラクション対象から前記目標インタラクション対象を決定することと、
    前記マルチフレーム画像のうち、前記目標インタラクション対象を含む画像を前記マルチフレームインタラクション画像とすることと、を含むことを特徴とする
    請求項3に記載の方法。
  11. 前記ディスプレイスクリーンは、透明のディスプレイスクリーン又は不透明のディスプレイスクリーンであることを特徴とする
    請求項1~10のいずれか一項に記載の方法。
  12. 仮想表示装置であって、
    制御情報を取得するように構成される取得部と、
    前記制御情報に基づいて、ディスプレイスクリーンの第1移動情報を決定し、前記ディスプレイスクリーンを前記第1移動情報に従って移動させるように制御するように構成される制御部と、
    前記ディスプレイスクリーンの第1移動情報に基づいて、仮想対象をレンダリングして仮想効果画像を得るように構成されるレンダリング部と、
    前記ディスプレイスクリーンに前記仮想効果画像を表示させるように構成される表示部と、を備える、仮想表示装置。
  13. 表示デバイスであって、
    前記表示デバイスに仮想効果画像を表示させるように構成されるディスプレイスクリーンと、
    コンピュータプログラムを記憶するように構成されるメモリと、
    前記メモリに記憶されたコンピュータプログラムを実行する場合、前記ディスプレイスクリーンと組み合わせて、請求項1~11のいずれか一項に記載の方法を実現するように構成されるプロセッサと、を備える、表示デバイス。
  14. プロセッサによって実行される場合、請求項1~11のいずれか一項に記載の方法を実現するためのコンピュータプログラムを記憶するコンピュータ可読記憶媒体。
  15. コンピュータ可読コードを含み、
    前記コンピュータ可読コードがコンピュータデバイスで実行される場合、前記コンピュータデバイスにおけるプロセッサが請求項1~11のいずれか一項に記載の方法を実行するコンピュータプログラム。
JP2022527984A 2020-07-31 2021-05-24 仮想表示方法、装置、デバイス及びコンピュータ可読記憶媒体 Withdrawn JP2023501642A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010763221.X 2020-07-31
CN202010763221.XA CN111880720B (zh) 2020-07-31 2020-07-31 虚拟显示方法、装置、设备和计算机可读存储介质
PCT/CN2021/095583 WO2022022029A1 (zh) 2020-07-31 2021-05-24 虚拟显示方法、装置、设备和计算机可读存储介质

Publications (1)

Publication Number Publication Date
JP2023501642A true JP2023501642A (ja) 2023-01-18

Family

ID=73204998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022527984A Withdrawn JP2023501642A (ja) 2020-07-31 2021-05-24 仮想表示方法、装置、デバイス及びコンピュータ可読記憶媒体

Country Status (4)

Country Link
JP (1) JP2023501642A (ja)
KR (1) KR20220116056A (ja)
CN (1) CN111880720B (ja)
WO (1) WO2022022029A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111880720B (zh) * 2020-07-31 2022-05-27 北京市商汤科技开发有限公司 虚拟显示方法、装置、设备和计算机可读存储介质
CN112270767A (zh) * 2020-11-09 2021-01-26 重庆智慧之源科技有限公司 建筑物虚拟显示控制方法、装置、可穿戴设备及存储介质
CN114003092A (zh) * 2021-10-29 2022-02-01 深圳康佳电子科技有限公司 一种虚拟现实的智能显示设备及虚拟现实方法
CN114618163A (zh) * 2022-03-21 2022-06-14 北京字跳网络技术有限公司 虚拟道具的驱动方法、装置、电子设备及可读存储介质
CN114942716A (zh) * 2022-05-11 2022-08-26 美的集团(上海)有限公司 Vr场景建立方法及装置
CN116681869B (zh) * 2023-06-21 2023-12-19 西安交通大学城市学院 基于虚拟现实应用的文物3d展示处理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103116451B (zh) * 2013-01-25 2018-10-26 腾讯科技(深圳)有限公司 一种智能终端的虚拟角色交互方法、装置和系统
US9851805B2 (en) * 2014-12-24 2017-12-26 Immersion Corporation Systems and methods for haptically-enabled holders
CN208418084U (zh) * 2018-05-15 2019-01-22 宁波市沃野文化科技有限公司 一种智能滑轨电视交互展示系统
CN210344839U (zh) * 2019-05-20 2020-04-17 杭州立众数字科技有限公司 互动滑轨屏
CN110397827A (zh) * 2019-07-22 2019-11-01 上海爱道电子科技有限公司 一种互动轨道屏装置
CN211118620U (zh) * 2019-11-15 2020-07-28 李莉 一种电动移动式滑轨屏
CN111880720B (zh) * 2020-07-31 2022-05-27 北京市商汤科技开发有限公司 虚拟显示方法、装置、设备和计算机可读存储介质

Also Published As

Publication number Publication date
KR20220116056A (ko) 2022-08-19
WO2022022029A1 (zh) 2022-02-03
CN111880720A (zh) 2020-11-03
CN111880720B (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
JP2023501642A (ja) 仮想表示方法、装置、デバイス及びコンピュータ可読記憶媒体
US11043031B2 (en) Content display property management
KR101823182B1 (ko) 동작의 속성을 이용한 디스플레이 상의 3차원 사용자 인터페이스 효과
JP7008730B2 (ja) 画像に挿入される画像コンテンツについての影生成
JP5791433B2 (ja) 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
WO2018150831A1 (ja) 情報処理装置、情報処理方法及び記録媒体
US20150187108A1 (en) Augmented reality content adapted to changes in real world space geometry
JP2019510321A (ja) 仮想現実用パススルーカメラのユーザインターフェイス要素
JPWO2017134886A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
CN111701238A (zh) 虚拟画卷的显示方法、装置、设备及存储介质
KR20160148558A (ko) 바디 락 증강 현실과 월드 락 증강 현실 사이의 전환 기법
KR20160148557A (ko) 월드 락 디스플레이의 품질 피드백 기법
JP2022545851A (ja) 仮想対象制御方法及び装置、機器、コンピュータ可読記憶媒体
ES2688643T3 (es) Aparato y método de realidad aumentada
US10855925B2 (en) Information processing device, information processing method, and program
US11430192B2 (en) Placement and manipulation of objects in augmented reality environment
CN111679742A (zh) 基于ar的交互控制方法、装置、电子设备及存储介质
CN111083463A (zh) 虚拟内容的显示方法、装置、终端设备及显示系统
WO2020264149A1 (en) Fast hand meshing for dynamic occlusion
JP6730461B2 (ja) 情報処理システム及び情報処理装置
CN107277490B (zh) 可重配置多模式相机
JP2022526511A (ja) インタラクティブ方法、装置、デバイス、及び記憶媒体
CN112333498A (zh) 一种展示控制方法、装置、计算机设备及存储介质
CN114625468A (zh) 增强现实画面的展示方法、装置、计算机设备及存储介质
CN116440495A (zh) 场景画面的显示方法、装置、终端及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220513

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20230113