JP2023504608A - Display method, device, device, medium and program in augmented reality scene - Google Patents

Display method, device, device, medium and program in augmented reality scene Download PDF

Info

Publication number
JP2023504608A
JP2023504608A JP2022530223A JP2022530223A JP2023504608A JP 2023504608 A JP2023504608 A JP 2023504608A JP 2022530223 A JP2022530223 A JP 2022530223A JP 2022530223 A JP2022530223 A JP 2022530223A JP 2023504608 A JP2023504608 A JP 2023504608A
Authority
JP
Japan
Prior art keywords
special effect
display
position data
scene image
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2022530223A
Other languages
Japanese (ja)
Inventor
▲劉▼旭
▲欒▼青
李斌
Original Assignee
ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド filed Critical ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Publication of JP2023504608A publication Critical patent/JP2023504608A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

本願の実施例は、拡張現実場面における表示方法、装置、機器、媒体及びプログラムを提供する。前記方法は、電子機器によって実行され、該表示方法は、AR機器によって撮られた現在場面画像を取得することと、前記現在場面画像に目標実体対象が含まれることが識別された場合、前記目標実体対象とマッチングするAR特別効果の第1表示位置データを決定し、前記第1表示位置データに基づいて、前記AR特別効果を表示するように前記AR機器を制御することと、前記AR特別効果を表示するプロセスにおいて、前記現在場面画像において前記目標実体対象が識別されていないことに応答して、前記AR特別効果の第2表示位置データを決定し、前記第2表示位置データに基づいて、前記AR特別効果の表示済み進捗に従って前記AR特別効果を表示し続けるように前記AR機器を制御することと、を含む。Embodiments of the present application provide a display method, apparatus, apparatus, medium and program in an augmented reality scene. The method is performed by an electronic device, and the display method includes obtaining a current scene image taken by an AR device; determining first display position data of an AR special effect that matches a physical object, and controlling the AR device to display the AR special effect based on the first display position data; and the AR special effect. in the process of displaying, in response to the target physical object not being identified in the current scene image, determining second display position data for the AR special effect; based on the second display position data; controlling the AR device to keep displaying the AR special effect according to the displayed progress of the AR special effect.

Description

(関連出願の相互参照)
本願は、2020年11月06日に提出された、出願番号が202011232913.8であり、出願人が「ベイジン センスタイム テクノロジー デベロップメント カンパニー,リミテッド」であり、発明名称が「拡張現実場面における表示方法、装置、電子機器及び記憶媒体」である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
(Cross reference to related applications)
This application is filed on November 06, 2020, with the application number 202011232913.8, the applicant being "Beijing SenseTime Technology Development Company, Limited", and the invention title being "A display method in an augmented reality scene, Devices, Electronics and Storage Media”, the entire content of which is incorporated herein by reference.

本願は、拡張現実技術分野に関し、特に、拡張現実場面における表示方法、装置、機器、媒体及びプログラムに関する。 TECHNICAL FIELD The present application relates to the field of augmented reality technology, and more particularly to a display method, device, device, medium, and program in an augmented reality scene.

拡張現実(Augmented Reality:AR)技術は、実体情報(ビジョン情報、音声、触覚など)をシミュレーションした後、現実世界に重ね合わせることによって、リアルな環境と仮想物体を同一の画面又は空間にリアルタイムに呈する。 Augmented Reality (AR) technology simulates entity information (vision information, voice, touch, etc.) and then superimposes it on the real world to create a real environment and virtual objects on the same screen or space in real time. Present.

関連技術において、AR技術の発展に伴い、AR機器の応用領域は、ますます広くなってきた。AR機器によって、実体対象に重ね合わせるAR特別効果を表示することができる。AR特別効果の表示プロセスにおいて、一般的には、AR特別効果の表示位置を決定する必要がある。いくつかの場合には、実体対象又はAR機器が移動する可能性がある。移動プロセスにおいて、実体対象の位置が変わると、如何にAR特別効果の表示位置を決定し続けることで、AR特別効果を一貫して表示して、よりリアルな表示効果を提供することを実現させるかは、研究価値のある課題となっている。 In the related art, with the development of AR technology, the application area of AR equipment has become more and more wide. AR devices can display AR special effects that are superimposed on a physical object. In the process of displaying AR special effects, it is generally necessary to determine the display position of the AR special effects. In some cases, the physical object or AR device may move. How to continue to determine the display position of the AR special effect when the position of the physical object changes during the movement process, so as to consistently display the AR special effect and provide a more realistic display effect. is an issue worthy of research.

本願の実施例は、拡張現実場面における表示方案を提供する。 Embodiments of the present application provide a display scheme in an augmented reality scene.

本願の実施例は、拡張現実場面における表示方法を提供する。前記方法は、電子機器によって実行され、前記方法は、
AR機器によって撮られた現在場面画像を取得することと、
前記現在場面画像に目標実体対象が含まれることが識別された場合、前記目標実体対象とマッチングするAR特別効果の第1表示位置データを決定し、前記第1表示位置データに基づいて、前記AR特別効果を表示するように前記AR機器を制御することと、
前記AR特別効果を表示するプロセスにおいて、前記現在場面画像において前記目標実体対象が識別されていないことに応答して、前記AR特別効果の第2表示位置データを決定し、前記第2表示位置データに基づいて、前記AR特別効果の表示済み進捗に従って前記AR特別効果を表示し続けるように前記AR機器を制御することと、を含む。
Embodiments of the present application provide a display method in an augmented reality scene. The method is performed by an electronic device, the method comprising:
obtaining a current scene image captured by an AR device;
determining first display position data of an AR special effect that matches the target physical object if the current scene image includes a target physical object; and based on the first display position data, the AR controlling the AR device to display a special effect;
In the process of displaying the AR special effect, determining second display position data of the AR special effect in response to the target physical object not being identified in the current scene image; and controlling the AR device to keep displaying the AR special effect according to the displayed progress of the AR special effect based on.

このように、目標実体対象の識別結果によって、マッチングする特別効果データを表示することをトリガーすることができ、その表示効果が目標実体対象と緊密に関連付けられ、特別効果データが目標実体対象とより関連的に表示することができる。そして、目標実体対象の識別結果に基づいて、異なる位置決め方式で、AR特別効果を表示するようにAR機器を制御することで、表示プロセスにおけるAR特別効果の一貫性と安定性を向上させ、AR特別効果の表示をよりリアルにすることができる。 In this way, the identification result of the target entity object can trigger the display of matching special effect data, the display effect being closely associated with the target entity object, and the special effect data being more closely associated with the target entity object. can be displayed in relation to each other. And then, according to the identification result of the target entity object, control the AR equipment to display the AR special effects with different positioning methods, so as to improve the consistency and stability of the AR special effects in the display process, and the AR The display of special effects can be made more realistic.

本願のいくつかの実施例において、前記現在場面画像に目標実体対象が含まれることが識別された場合、前記目標実体対象とマッチングするAR特別効果の第1表示位置データを決定する前に、前記現在場面画像に対して特徴点抽出を行い、前記現在場面画像に含まれる複数の特徴点のそれぞれに対応する特徴情報を得て、前記複数の特徴点は、前記現在場面画像における目標検出領域に位置し、前記複数の特徴点のそれぞれに対応する特徴情報と予め記憶された前記目標実体対象に含まれる複数の特徴点のそれぞれに対応する特徴情報に基づいて比較を行い、前記現在場面画像に前記目標実体対象が含まれるかどうかを決定するという方式で、前記現在場面画像に前記目標実体対象が含まれるかどうかを識別する。このように、目標検出領域に含まれる複数の特徴点を抽出することによって、現在場面画像に目標実体対象が含まれるかどうかを識別し、特徴点比較の方式によれば、現在場面画像に目標実体対象が含まれるかどうかを迅速かつ正確に決定することができる。 In some embodiments of the present application, if it is identified that the current scene image includes a target entity object, before determining first display position data for an AR special effect that matches the target entity object, said performing feature point extraction on a current scene image, obtaining feature information corresponding to each of a plurality of feature points included in the current scene image, and detecting the plurality of feature points in a target detection region in the current scene image; based on the feature information corresponding to each of the plurality of feature points and the feature information corresponding to each of the plurality of feature points included in the target entity object stored in advance, and comparing the current scene image with the feature information corresponding to each of the plurality of feature points. Identifying whether the target physical object is included in the current scene image by determining whether the target physical object is included. Thus, by extracting a plurality of feature points included in the target detection area, it is possible to identify whether or not the target entity object is included in the current scene image. It can quickly and accurately determine whether an entity object is included.

本願のいくつかの実施例において、前記目標実体対象とマッチングするAR特別効果の第1表示位置データを決定することは、前記現在場面画像における前記目標実体対象の位置情報を取得することと、前記位置情報に基づいて、予め確立されたワールド座標系における前記目標実体対象の位置データを決定し、前記現在場面画像に基づいて、前記ワールド座標系における前記AR機器の位置データを決定することと、前記ワールド座標系における前記目標実体対象の位置データと前記ワールド座標系における前記AR機器の位置データに基づいて、前記第1表示位置データを決定することと、を含む。このように、同一のワールド座標系における目標実体対象、AR機器の位置データを決定することによって、同一のワールド座標系におけるAR特別効果のAR機器に対する第1表示位置データをより正確に決定することができ、このように、AR機器によって表示される拡張現実場面をよりリアルにする。 In some embodiments of the present application, determining first display position data of an AR special effect that matches the target physical object comprises obtaining position information of the target physical object in the current scene image; determining position data of the target physical object in a pre-established world coordinate system based on position information, and determining position data of the AR device in the world coordinate system based on the current scene image; determining the first display position data based on position data of the target physical object in the world coordinate system and position data of the AR device in the world coordinate system. Thus, by determining the position data of the target entity object and the AR device in the same world coordinate system, the first display position data of the AR special effect for the AR device in the same world coordinate system can be determined more accurately. , thus making the augmented reality scene displayed by the AR device more realistic.

本願のいくつかの実施例において、前記位置情報に基づいて、予め確立されたワールド座標系における前記目標実体対象の位置データを決定することは、前記位置情報、画像座標系とAR機器に対応するカメラ座標系との変換関係、及びAR機器に対応するカメラ座標系と前記ワールド座標系との変換関係に基づいて、前記ワールド座標系における前記目標実体対象の位置データを決定することを含み、前記ワールド座標系における前記目標実体対象の位置データと前記ワールド座標系における前記AR機器の位置データに基づいて、前記第1表示位置データを決定することは、前記ワールド座標系における前記目標実体対象の位置データに基づいて、前記ワールド座標系における前記AR特別効果の位置データを決定することと、前記ワールド座標系における前記AR特別効果の位置データ及び前記ワールド座標系における前記AR機器の位置データに基づいて、前記第1表示位置データを決定することと、を含む。このように、現在場面画像に目標実体対象が含まれることが識別された場合、現在場面画像に基づいて、ワールド座標系における目標実体対象とAR機器の位置データを正確に決定することができ、それによってAR特別効果の第1表示位置データを正確かつ迅速に得ることができる。 In some embodiments of the present application, determining position data of the target physical object in a pre-established world coordinate system based on the position information corresponds to the position information, the image coordinate system and the AR device. determining the position data of the target entity object in the world coordinate system based on the transformation relationship with the camera coordinate system and the transformation relationship between the camera coordinate system corresponding to the AR device and the world coordinate system; Determining the first display position data based on the position data of the target physical object in the world coordinate system and the position data of the AR device in the world coordinate system includes determining the position of the target physical object in the world coordinate system. determining position data of the AR special effect in the world coordinate system based on the data; and based on position data of the AR special effect in the world coordinate system and position data of the AR device in the world coordinate system. and determining the first display position data. Thus, when it is identified that the current scene image includes the target entity object, the position data of the target entity object and the AR device in the world coordinate system can be accurately determined based on the current scene image, Thereby, the first display position data of the AR special effect can be obtained accurately and quickly.

本願のいくつかの実施例において、前記AR特別効果の第2表示位置データを決定することは、前記現在場面画像、過去場面画像及び前記過去場面画像を撮る時の予め確立されたワールド座標系における前記AR機器と前記目標実体対象との相対的位置データに基づいて、現在場面画像を撮る時の前記AR機器と前記目標実体対象との相対的位置データを決定することと、前記相対的位置データに基づいて、前記AR特別効果の第2表示位置データを決定することと、を含む。このように、現在場面画像、過去場面画像及び過去場面画像を撮る時のワールド座標系におけるAR機器と目標実体対象との相対的位置データを利用して、現在場面画像を撮る時のAR機器と目標実体対象との相対的位置データを比較的正確に決定することができ、このように、正確な相対的位置データに基づいて、AR特別効果の第2表示位置データを決定することができ、目標実体対象が識別されていない場合にも、AR特別効果を表示できることを実現させることができる。 In some embodiments of the present application, determining the second display position data of the AR special effect includes: determining relative position data between the AR device and the target physical object when taking a current scene image based on the relative position data between the AR device and the target physical object; and determining second display position data for the AR special effect based on. In this way, using the relative position data of the current scene image, the past scene image, and the AR device and the target entity object in the world coordinate system when the past scene image is taken, the AR device and the target entity object when the current scene image is taken The relative position data with the target physical object can be determined relatively accurately, and thus the second display position data of the AR special effect can be determined based on the accurate relative position data; It can be realized that the AR special effects can be displayed even if the target physical object has not been identified.

本願のいくつかの実施例において、前記AR特別効果はAR画面と前記AR画面とマッチングするオーディオ内容とを含み、前記第2表示位置データに基づいて、前記AR特別効果の表示済み進捗に従って前記AR特別効果を表示し続けるように前記AR機器を制御することは、前記現在場面画像において前記目標実体対象が識別されておらず、且つ前記AR画面の表示が完了していない場合、前記第2表示位置データに基づいて、前記AR画面の表示済み進捗に従って、表示されていない前記AR画面とマッチングするオーディオ内容を表示し続けるように前記AR機器を制御することを含む。このように、目標実体対象が識別されていない場合、AR画面の表示が完了していないと、AR画面とマッチングするオーディオ内容を表示し続けることもでき、AR特別効果表示の一貫性を向上させ、AR特別効果をよりリアルに表示することができる。 In some embodiments of the present application, the AR special effect includes an AR screen and audio content matching the AR screen; Controlling the AR device to continue to display a special effect includes displaying the second display if the target entity object has not been identified in the current scene image and the AR screen display has not been completed. Based on the location data, controlling the AR device to keep displaying audio content matching the AR screen that is not being displayed according to the displayed progress of the AR screen. In this way, when the target entity object is not identified, if the AR screen display is not completed, it can also continue to display the audio content matching the AR screen, improving the consistency of the AR special effect display. , AR special effects can be displayed more realistically.

本願のいくつかの実施例において、前記AR特別効果を表示するプロセスにおいて、前記現在場面画像において前記目標実体対象が識別されていないことに応答して、前記AR特別効果の第2表示位置データを決定し、前記第2表示位置データに基づいて、前記AR特別効果の表示済み進捗に従って前記AR特別効果を表示し続けるように前記AR機器を制御した後、前記方法は、前記現在場面画像において前記目標実体対象が再識別された場合、改めて、決定された前記第1表示位置データに基づいて、前記AR特別効果の表示済み進捗に従って前記AR特別効果を表示し続けるようにAR機器を制御することを更に含む。このように、目標実体対象が再識別された後、改めて、正確度が比較的高い第1表示位置データに基づいて、AR特別効果を表示し続けることによって、表示プロセスにおけるAR特別効果の一貫性と安定性を向上させ、AR特別効果の表示をよりリアルにすることができる。 In some embodiments of the present application, in the process of displaying the AR special effect, in response to the target physical object not being identified in the current scene image, displaying second display position data of the AR special effect. After determining and controlling the AR device to continue to display the AR special effect according to the displayed progress of the AR special effect based on the second display position data, the method performs the Controlling the AR device to continue to display the AR special effect according to the displayed progress of the AR special effect again based on the determined first display position data when the target entity object is re-identified. further includes In this way, after the target entity object is re-identified, the AR special effect is continued to be displayed again based on the first display position data with relatively high accuracy, thereby improving the consistency of the AR special effect in the display process. And stability can be improved, and the display of AR special effects can be more realistic.

本願のいくつかの実施例において、前記AR特別効果を表示するように前記AR機器を制御する前に、前記方法は、前記目標実体対象とマッチングするAR特別効果を取得することであって、前記AR特別効果に複数の仮想対象のそれぞれに対応する特別効果データが含まれる、ことを更に含み、前記AR特別効果を表示するように前記AR機器を制御することは、前記複数の仮想対象のそれぞれに対応する特別効果データの表示順序に従って、前記複数の仮想対象のそれぞれに対応する特別効果データを順次表示するように前記AR機器を制御することを含む。このように、ユーザに対して、複数の仮想対象で構成されるAR特別効果を表示し、AR特別効果の表示をより生き生きとしていることができる。 In some embodiments of the present application, before controlling the AR device to display the AR special effect, the method comprises obtaining an AR special effect that matches the target physical object, The AR special effect includes special effect data corresponding to each of the plurality of virtual objects, and controlling the AR device to display the AR special effect comprises: and controlling the AR device to sequentially display the special effect data corresponding to each of the plurality of virtual objects according to the display order of the special effect data corresponding to the virtual objects. In this way, an AR special effect composed of multiple virtual objects can be displayed to the user, making the display of the AR special effect more lively.

本願のいくつかの実施例において、前記目標実体対象はカレンダーを含み、前記AR特別効果を表示するように前記AR機器を制御する前に、前記方法は、前記カレンダーとマッチングするAR特別効果を取得することであって、前記AR特別効果に前記カレンダーの表紙内容に基づいて生成された第1特別効果データが含まれる、ことを更に含み、前記AR特別効果を表示するように前記AR機器を制御することは、前記カレンダーの表紙内容が識別された場合、前記第1特別効果データに基づいて、前記カレンダーの表紙内容とマッチングする前記AR特別効果を表示するように前記AR機器を制御することを含む。このように、カレンダー表紙が識別された場合、カレンダー表紙に、カレンダーを紹介するAR特別効果を表示し、カレンダーの表示内容を豊かにし、カレンダーに対するユーザの鑑賞興味を向上させることができる。 In some embodiments of the present application, the target physical object includes a calendar, and before controlling the AR device to display the AR special effect, the method obtains an AR special effect that matches the calendar. wherein the AR special effect includes first special effect data generated based on the cover content of the calendar, and controlling the AR device to display the AR special effect. and controlling the AR device to display the AR special effect matching the calendar cover content based on the first special effect data when the calendar cover content is identified. include. In this way, when the calendar cover is identified, an AR special effect introducing the calendar can be displayed on the calendar cover, enriching the display contents of the calendar and enhancing the user's viewing interest in the calendar.

本願のいくつかの実施例において、前記目標実体対象はカレンダーを含み、前記AR特別効果を表示するように前記AR機器を制御する前に、前記方法は、前記カレンダーとマッチングするAR特別効果を取得することであって、前記AR特別効果に、前記カレンダーにおける少なくとも1つの所定の日付の過去の同一時期でのマークイベントに基づいて生成された第2特別効果データが含まれる、ことを更に含み、前記AR特別効果を表示するように前記AR機器を制御することは、前記カレンダーにおける少なくとも1つの所定の日付が識別された場合、前記第2特別効果データに基づいて、前記カレンダーにおける少なくとも1つの所定の日付とマッチングする前記AR特別効果を表示するように前記AR機器を制御することを含む。このように、ユーザに対してカレンダーを表示すると同時に、カレンダーにおける所定の日付を取得した場合、ユーザに対して、所定の日付に対応するAR特別効果を表示し、カレンダーの表示内容を豊かにすることもできる。 In some embodiments of the present application, the target physical object includes a calendar, and before controlling the AR device to display the AR special effect, the method obtains an AR special effect that matches the calendar. wherein the AR special effects include second special effect data generated based on mark events at the same time in the past on at least one predetermined date in the calendar; Controlling the AR device to display the AR special effect includes performing at least one predetermined date in the calendar based on the second special effect data when at least one predetermined date in the calendar is identified. and controlling the AR device to display the AR special effect that matches the date of the date. In this way, when the calendar is displayed to the user and at the same time a predetermined date in the calendar is acquired, the AR special effect corresponding to the predetermined date is displayed to the user to enrich the display contents of the calendar. can also

以下の装置、電子機器などの効果に関する記述は、上記拡張現実場面における表示方法の説明を参照する。 For the description of the effects of the following devices, electronic devices, etc., refer to the description of the display method in the augmented reality scene.

本願の実施例は、拡張現実場面における表示装置を提供する。前記装置は、
AR機器によって撮られた現在場面画像を取得するように構成される取得モジュールと、
前記現在場面画像に目標実体対象が含まれることが識別された場合、前記目標実体対象とマッチングするAR特別効果の第1表示位置データを決定し、前記第1表示位置データに基づいて、前記AR特別効果を表示するように前記AR機器を制御するように構成される第1制御モジュールと、
前記AR特別効果を表示するプロセスにおいて、前記現在場面画像において前記目標実体対象が識別されていないことに応答して、前記AR特別効果の第2表示位置データを決定し、前記第2表示位置データに基づいて、前記AR特別効果の表示済み進捗に従って前記AR特別効果を表示し続けるように前記AR機器を制御するように構成される第2制御モジュールと、を備える。
Embodiments of the present application provide a display device in an augmented reality scene. The device comprises:
an acquisition module configured to acquire a current scene image taken by the AR device;
determining first display position data of an AR special effect that matches the target physical object if the current scene image includes a target physical object; and based on the first display position data, the AR a first control module configured to control the AR device to display a special effect;
In the process of displaying the AR special effect, determining second display position data of the AR special effect in response to the target physical object not being identified in the current scene image; and a second control module configured to control the AR device to keep displaying the AR special effect according to the displayed progress of the AR special effect based on.

本願のいくつかの実施例において、前記取得モジュールは、前記現在場面画像に対して特徴点抽出を行い、前記現在場面画像に含まれる複数の特徴点のそれぞれに対応する特徴情報を得て、前記複数の特徴点は、前記現在場面画像における目標検出領域に位置し、前記複数の特徴点のそれぞれに対応する特徴情報と予め記憶された前記目標実体対象に含まれる複数の特徴点のそれぞれに対応する特徴情報に基づいて比較を行い、前記現在場面画像に前記目標実体対象が含まれるかどうかを決定するという方式で、前記現在場面画像に前記目標実体対象が含まれるかどうかを識別するように構成される。 In some embodiments of the present application, the acquisition module performs feature point extraction on the current scene image to obtain feature information corresponding to each of a plurality of feature points included in the current scene image, and A plurality of feature points are located in a target detection area in the current scene image, and correspond to feature information corresponding to each of the plurality of feature points and feature points included in the target entity object stored in advance. determining whether the current scene image includes the target entity object by performing a comparison based on the feature information to determine whether the current scene image includes the target entity object. Configured.

本願のいくつかの実施例において、前記第1制御モジュールは、前記現在場面画像における前記目標実体対象の位置情報を取得し、前記位置情報に基づいて、予め確立されたワールド座標系における前記目標実体対象の位置データを決定し、前記現在場面画像に基づいて、前記ワールド座標系における前記AR機器の位置データを決定し、前記ワールド座標系における前記目標実体対象の位置データと前記ワールド座標系における前記AR機器の位置データに基づいて、前記第1表示位置データを決定するように構成される。 In some embodiments of the present application, the first control module obtains location information of the target entity object in the current scene image, and based on the location information, locates the target entity in a pre-established world coordinate system. determining position data of an object; determining position data of the AR device in the world coordinate system based on the current scene image; It is configured to determine the first display position data based on position data of the AR device.

本願のいくつかの実施例において、前記第1制御モジュールは、前記位置情報、画像座標系とAR機器に対応するカメラ座標系との変換関係、及びAR機器に対応するカメラ座標系と前記ワールド座標系との変換関係に基づいて、前記ワールド座標系における前記目標実体対象の位置データを決定するように構成され、前記第1制御モジュールは、前記ワールド座標系における前記目標実体対象の位置データに基づいて、前記ワールド座標系における前記AR特別効果の位置データを決定し、前記ワールド座標系における前記AR特別効果の位置データ及び前記ワールド座標系における前記AR機器の位置データに基づいて、前記第1表示位置データを決定するように構成される。 In some embodiments of the present application, the first control module controls the position information, the transformation relationship between the image coordinate system and the camera coordinate system corresponding to the AR device, and the camera coordinate system corresponding to the AR device and the world coordinates. The first control module is configured to determine position data of the target physical object in the world coordinate system based on a transformation relationship with a system, wherein the first control module is configured to determine position data of the target physical object in the world coordinate system. to determine the position data of the AR special effect in the world coordinate system, and based on the position data of the AR special effect in the world coordinate system and the position data of the AR device in the world coordinate system, the first display configured to determine position data;

本願のいくつかの実施例において、前記第2制御モジュールは、前記現在場面画像、過去場面画像及び前記過去場面画像を撮る時の予め確立されたワールド座標系における前記AR機器と前記目標実体対象との相対的位置データに基づいて、現在場面画像を撮る時の前記AR機器と前記目標実体対象との相対的位置データを決定し、前記相対的位置データに基づいて、前記AR特別効果の第2表示位置データを決定するように構成される。 In some embodiments of the present application, the second control module aligns the AR device and the target entity object in a pre-established world coordinate system when taking the current scene image, the past scene image, and the past scene image. determining the relative position data between the AR device and the target physical object when taking the current scene image based on the relative position data of the second relative position data of the AR special effect based on the relative position data configured to determine display position data;

本願のいくつかの実施例において、前記AR特別効果はAR画面と前記AR画面とマッチングするオーディオ内容とを含み、前記第2制御モジュールは、前記現在場面画像において前記目標実体対象が識別されておらず、且つ前記AR画面の表示が完了していない場合、前記第2表示位置データに基づいて、前記AR画面の表示済み進捗に従って、表示されていない前記AR画面とマッチングするオーディオ内容を表示し続けるように前記AR機器を制御するように構成される。 In some embodiments of the present application, the AR special effect includes an AR screen and audio content matching the AR screen, and the second control module determines whether the target physical object has been identified in the current scene image. and the display of the AR screen is not completed, continue to display audio content matching the AR screen that is not displayed according to the display progress of the AR screen based on the second display position data. to control the AR device.

本願のいくつかの実施例において、前記第1制御モジュールは、前記現在場面画像において前記目標実体対象が再識別された場合、改めて、決定された前記第1表示位置データに基づいて、前記AR特別効果の表示済み進捗に従って前記AR特別効果を表示し続けるようにAR機器を制御するように構成される。 In some embodiments of the present application, when the target entity object is re-identified in the current scene image, the first control module re-executes the AR special display based on the determined first display position data. It is configured to control the AR device to keep displaying the AR special effect according to the displayed progress of the effect.

本願のいくつかの実施例において、前記第1制御モジュールが、前記AR特別効果を表示するように前記AR機器を制御するように構成される前に、前記取得モジュールは、前記目標実体対象とマッチングするAR特別効果を取得するように構成され、前記AR特別効果に複数の仮想対象のそれぞれに対応する特別効果データが含まれ、前記第1制御モジュールは、前記複数の仮想対象のそれぞれに対応する特別効果データの表示順序に従って、前記複数の仮想対象のそれぞれに対応する特別効果データを順次表示するように前記AR機器を制御するように構成される。 In some embodiments of the present application, before the first control module is configured to control the AR device to display the AR special effect, the acquisition module matches the target physical object. wherein the AR special effect includes special effect data corresponding to each of a plurality of virtual objects; and the first control module is configured to obtain an AR special effect corresponding to each of the plurality of virtual objects. The AR device is configured to sequentially display the special effect data corresponding to each of the plurality of virtual objects according to the display order of the special effect data.

本願のいくつかの実施例において、前記目標実体対象はカレンダーを含み、前記第1制御モジュールが、前記AR特別効果を表示するように前記AR機器を制御するように構成される前に、前記取得モジュールは、前記カレンダーとマッチングするAR特別効果を取得するように構成され、前記AR特別効果に前記カレンダーの表紙内容に基づいて生成された第1特別効果データが含まれ、前記第1制御モジュールは、前記カレンダーの表紙内容が識別された場合、前記第1特別効果データに基づいて、前記カレンダーの表紙内容とマッチングする前記AR特別効果を表示するように前記AR機器を制御するように構成される。 In some embodiments of the present application, the target physical object includes a calendar, and before the first control module is configured to control the AR device to display the AR special effect, the obtaining a module configured to obtain an AR special effect matching the calendar, the AR special effect including first special effect data generated based on the cover content of the calendar, the first control module comprising: and, if the calendar cover content is identified, control the AR device to display the AR special effect matching the calendar cover content based on the first special effect data. .

本願のいくつかの実施例において、前記目標実体対象はカレンダーを含み、前記第1制御モジュールが、前記AR特別効果を表示するように前記AR機器を制御するように構成される前に、前記取得モジュールは、前記カレンダーとマッチングするAR特別効果を取得するように構成され、前記AR特別効果に、前記カレンダーにおける少なくとも1つの所定の日付の過去の同一時期でのマークイベントに基づいて生成された第2特別効果データが含まれ、前記第1制御モジュールは、前記カレンダーにおける少なくとも1つの所定の日付が識別された場合、前記第2特別効果データに基づいて、前記カレンダーにおける少なくとも1つの所定の日付とマッチングする前記AR特別効果を表示するように前記AR機器を制御するように構成される。 In some embodiments of the present application, the target physical object includes a calendar, and before the first control module is configured to control the AR device to display the AR special effect, the obtaining The module is configured to obtain an AR special effect matching the calendar, wherein the AR special effect includes a first event generated based on mark events at the same time in the past of at least one predetermined date in the calendar. two special effect data are included, and the first control module determines, based on the second special effect data, at least one predetermined date in the calendar if at least one predetermined date in the calendar is identified; It is configured to control the AR device to display the matching AR special effect.

本願の実施例は、電子機器を更に提供する。前記電子機器は、プロセッサと、メモリと、バスと、を備え、前記メモリに、前記プロセッサによる実行可能な機器可読命令が記憶されており、電子機器が動作する場合、前記プロセッサと前記メモリとは、バスを介して通信し、前記機器可読命令が前記プロセッサにより実行される場合、いずれか1つの実施例に記載の拡張現実場面における表示方法を実行する。 Embodiments of the present application further provide an electronic device. The electronic device comprises a processor, a memory, and a bus, wherein the memory stores machine-readable instructions executable by the processor, and when the electronic device operates, the processor and the memory , communicates over a bus and, when the machine-readable instructions are executed by the processor, perform a method of display in an augmented reality scene according to any one embodiment.

本願の実施例は、コンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体に、コンピュータプログラムが記憶されており、該コンピュータプログラムがプロセッサに、いずれか1つの実施例に記載の拡張現実場面における表示方法を実行させる。 Embodiments of the present application further provide a computer-readable storage medium. A computer program is stored on the computer-readable storage medium and causes a processor to perform a method of displaying in an augmented reality scene according to any one embodiment.

本願の実施例は、コンピュータプログラムを更に提供する。前記コンピュータプログラムはコンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器のプロセッサに、上記いずれか1つの実施例に記載の拡張現実場面における表示方法を実行させる。 Embodiments of the present application further provide computer programs. The computer program includes computer readable code that causes a processor of an electronic device to perform a method of displaying in an augmented reality scene as described in any one of the embodiments above.

本願の実施例は少なくとも拡張現実場面における表示方法、装置、機器、媒体及びプログラムを提供し、目標実体対象の識別結果によって、マッチングする特別効果データを表示することをトリガーすることができ、その表示効果が目標実体対象と緊密に関連付けられ、特別効果データが目標実体対象とより関連的に表示することができる。そして、目標実体対象の識別結果に基づいて、異なる位置決め方式で、AR特別効果を表示するようにAR機器を制御することで、表示プロセスにおけるAR特別効果の一貫性と安定性を向上させ、AR特別効果の表示をよりリアルにすることができる。 Embodiments of the present application provide at least a display method, apparatus, apparatus, medium and program in an augmented reality scene, which can be triggered to display matching special effect data according to the identification result of the target entity object, and the display thereof. Effects are closely associated with the target physical object, allowing special effects data to be displayed more relevantly to the target physical object. And then, according to the identification result of the target entity object, control the AR equipment to display the AR special effects with different positioning methods, so as to improve the consistency and stability of the AR special effects in the display process, and the AR The display of special effects can be made more realistic.

本願の上記目的、特徴及び利点をより明確かつ分かりやすくするために、以下、好適な実施例を挙げて、添付図面を参照しながら、以下のように、詳しく説明する。 In order to make the above objects, features and advantages of the present application clearer and easier to understand, preferred embodiments are described in detail below with reference to the accompanying drawings.

本願の実施例による拡張現実場面における表示方法のフローチャートを示す。Fig. 3 shows a flow chart of a display method in an augmented reality scene according to an embodiment of the present application; 本願の実施例の拡張現実場面における表示方法を応用できるシステムアーキテクチャの概略図を示す。Fig. 2 shows a schematic diagram of a system architecture in which the display method in an augmented reality scene of an embodiment of the present application can be applied; 本願の実施例による現在場面画像に目標実体対象が含まれるかどうかを決定する方法のフローチャートを示す。FIG. 4 shows a flow chart of a method for determining whether a current scene image includes a target physical object according to an embodiment of the present application; FIG. 本願の実施例によるAR特別効果の表示位置データを決定する方法のフローチャートを示す。4 shows a flowchart of a method for determining display position data for AR special effects according to an embodiment of the present application; 本願の実施例によるAR特別効果の表示位置データを決定する別の方法のフローチャートを示す。FIG. 4 illustrates a flow chart of another method for determining display position data for AR special effects according to an embodiment of the present application; FIG. 本願の実施例によるAR特別効果の表示位置データを決定する別の方法のフローチャートを示す。FIG. 4 illustrates a flow chart of another method for determining display position data for AR special effects according to an embodiment of the present application; FIG. 本願の実施例によるAR特別効果の表示画面の概略図を示す。FIG. 4 shows a schematic diagram of a display screen of an AR special effect according to an embodiment of the present application; 本願の実施例による拡張現実場面における表示装置800の構造概略図を示す。Fig. 8 shows a structural schematic diagram of a display device 800 in an augmented reality scene according to an embodiment of the present application; 本願の実施例による電子機器900の構造概略図を示す。FIG. 9 shows a structural schematic diagram of an electronic device 900 according to an embodiment of the present application;

本願の実施例の技術的解決手段をより明確に説明するために、以下、実施例に必要な図面を簡単に説明する。ここで添付した図面は、明細書に引き入れて本明細書の一部を構成し、これらの図面は、本願に適合する実施例を示し、かつ、明細書とともに本願の技術的解決手段を解釈することに用いられる。下記図面は、説明のみの目的で本願の幾つかの実施例を図示しており、範囲を制限するものと見なされるべきではないことが理解されるべきである。当業者は、創造的労働を行うことなく、これらの図面に基づいてその他の関連する図面を得ることもできる。 In order to describe the technical solutions in the embodiments of the present application more clearly, the drawings required in the embodiments are briefly described below. The drawings attached hereto are incorporated into the specification and constitute a part of the specification, and the drawings show the embodiments compatible with the present application, and together with the description, interpret the technical solution of the present application. used for It should be understood that the following drawings depict several embodiments of the present application for purposes of illustration only and are not to be considered limiting in scope. Those skilled in the art can also derive other related drawings based on these drawings without creative effort.

本願の実施例の目的、技術的解決手段及び利点をより明確にするために、以下、本願の実施例における図面を参照しながら、本願の実施例における技術的解決手段を明瞭かつ完全に説明する。勿論、記述される実施例は、全ての実施例ではなく、ただ本出願の一部の実施例である。一般的には、ここの図面に説明されて示されている本願の実施例のコンポーネントは、多岐にわたる異なる構成で配置及び設計することができる。従って、図面で提供される本願の実施例に対する下記詳細な説明は、特許請求されている本願の範囲を限定するものではなく、本願の選択された実施例を示すためのものに過ぎない。本願の実施例に基づいて、当業者が創造的な労力なしに得られる他の実施例の全ては、本願の保護の範囲に含まれる。 In order to make the objectives, technical solutions and advantages of the embodiments of the present application clearer, the following clearly and completely describes the technical solutions in the embodiments of the present application with reference to the drawings in the embodiments of the present application. . Of course, the described embodiments are only some embodiments of the present application rather than all embodiments. Generally, the components of the embodiments of the present application illustrated and illustrated in the drawings herein can be arranged and designed in a wide variety of different configurations. Accordingly, the following detailed description of embodiments of the present application provided in the drawings is intended only to illustrate selected embodiments of the present application and not to limit the scope of the claimed application. Based on the embodiments of the present application, all other embodiments obtained by persons skilled in the art without creative efforts fall within the scope of protection of the present application.

下記図面において、類似した符号及び文字は、類似した要素を表すため、1つの要素が1つの図面において定義されていると、後続の図面において、これに対して定義及び説明を行う必要がないことに留意されたい。 In the following drawings, similar symbols and letters represent similar elements, so that once an element is defined in one drawing, it need not be defined and explained in subsequent drawings. Please note.

本明細書において、用語「及び/又は」は、関連関係を説明するためのものであり、3通りの関係が存在することを表す。例えば、A及び/又はBは、Aのみが存在すること、AとBが同時に存在すること、Bのみが存在することという3つのケースを表す。また、本明細書において、用語「少なくとも1つ」は、複数のうちのいずれか1つ又は複数のうちの少なくとも2つの任意の組み合わせを表す。例えば、A、B、Cのうちの少なくとも1つを含むことは、A、B及びCからなる集合から選ばれるいずれか1つ又は複数の要素を含むことを表す。 As used herein, the term "and/or" is used to describe a related relationship, indicating that there are three possible relationships. For example, A and/or B represents three cases: only A is present, A and B are present at the same time, and only B is present. Also, as used herein, the term "at least one" represents any one of the plurality or any combination of at least two of the plurality. For example, including at least one of A, B, and C means including any one or more elements selected from the set consisting of A, B, and C.

本願の実施例における複数又は複数種は、それぞれ、少なくとも2つ又は少なくとも2種を指してもよい。 A plurality or a plurality of types in the examples of this application may refer to at least two or at least two types, respectively.

AR技術の発展に伴い、AR技術は、次第に複数種の分野に用いられてきた。例えば、実体対象にAR特別効果を重ね合わせ、AR特別効果によって、ユーザに対して、実体対象を生き生きと紹介することができる。AR特別効果の表示プロセスにおいて、一般的には、AR特別効果の表示位置を決定する必要がある。ユーザに対してAR特別効果を表示するプロセスにおいて、関連技術では、実体対象又はAR機器が移動する可能性がある。移動プロセスにおいて、実体対象の位置が変わると、如何にAR特別効果の表示位置を決定し続けることで、AR特別効果を一貫して表示して、よりリアルな表示効果を提供することを実現させるかは、研究価値のある課題となっている。 With the development of AR technology, AR technology has been gradually applied to multiple fields. For example, an AR special effect can be superimposed on a physical object, and the AR special effect can introduce the physical object to the user in a lively manner. In the process of displaying AR special effects, it is generally necessary to determine the display position of the AR special effects. In the process of displaying AR special effects to the user, the related art may move the physical object or the AR device. How to continue to determine the display position of the AR special effect when the position of the physical object changes during the movement process, so as to consistently display the AR special effect and provide a more realistic display effect. is an issue worthy of research.

上記研究によれば、本願の実施例は拡張現実場面における表示方法、装置、機器、媒体及びプログラムを提供し、目標実体対象の識別結果によって、マッチングする特別効果データを表示することをトリガーすることができ、その表示効果が目標実体対象と緊密に関連付けられ、特別効果データが目標実体対象とより関連的に表示することができる。そして、目標実体対象の識別結果に基づいて、異なる位置決め方式で、AR特別効果を表示するようにAR機器を制御することで、表示プロセスにおけるAR特別効果の一貫性と安定性を向上させ、AR特別効果の表示をよりリアルにすることができる。 According to the above research, the embodiments of the present application provide a display method, apparatus, equipment, medium and program in an augmented reality scene, which can be triggered to display matching special effect data according to the identification result of the target entity object. , the display effect can be closely associated with the target physical object, and the special effect data can be displayed in a more relevant manner with the target physical object. And then, according to the identification result of the target entity object, control the AR equipment to display the AR special effects with different positioning methods, so as to improve the consistency and stability of the AR special effects in the display process, and the AR The display of special effects can be made more realistic.

本願の実施例を理解しやすくするために、まず、本願の実施例が開示する拡張現実場面における表示方法を詳しく説明する。本願の実施例による拡張現実場面における表示方法の実行主体は、一般的には、一定のコンピューティング能力を持つコンピュータ機器である。該コンピュータ機器は、例えば、端末機器、サーバ又は他の処理機器を含む。端末機器は、AR機能を有するAR機器であってもよく、例えば、ARメガネ、タブレット、スマートフォン、スマートウェアラブル機器などの、表示機能及びデータ処理能力を持つ機器を含んでもよく、本願の実施例において限定しない。本願の幾つかの実施例において、該拡張現実場面における表示方法は、プロセッサによりメモリに記憶されたコンピュータ可読命令を呼び出すことで実現してもよい。 For easy understanding of the embodiments of the present application, first, the display method in the augmented reality scene disclosed by the embodiments of the present application will be described in detail. The execution subject of the display method in an augmented reality scene according to the embodiments of the present application is generally a computer device with some computing power. Such computer equipment includes, for example, terminal equipment, servers or other processing equipment. The terminal device may be an AR device with an AR function, such as AR glasses, tablets, smart phones, smart wearable devices, etc., which have display functions and data processing capabilities. Not limited. In some embodiments of the present application, the method of displaying in the augmented reality scene may be implemented by a processor invoking computer readable instructions stored in memory.

図1を参照すると、図1は、本願の実施例による拡張現実場面における表示方法のフローチャートでる。該表示方法は、以下のS101~S103を含む。 Referring to FIG. 1, FIG. 1 is a flow chart of a display method in an augmented reality scene according to an embodiment of the present application. The display method includes the following S101 to S103.

S101において、AR機器によって撮られた現在場面画像を取得する。 At S101, a current scene image captured by an AR device is obtained.

例示的に、AR機器は、ARメガネ、タブレット、スマートフォン、スマートウェアラブル機器などの、表示機能及びデータ処理能力を持つ機器を含んでもよく、それらに限らない。これらのAR機器に、AR場面内容を表示するためのアプリケーションプログラムがインストールされてもよく、ユーザは、該アプリケーションプログラムにおいてAR場面内容を体験することができる。 Exemplary AR devices may include, but are not limited to, devices with display capabilities and data processing capabilities, such as AR glasses, tablets, smartphones, smart wearable devices, and the like. An application program for displaying AR scene content may be installed on these AR devices, and the user can experience the AR scene content in the application program.

例示的に、AR機器は、画像を撮るための画像収集部材、例えば、3原色(Red Green Blue:RGB)カメラを含んでもよい。AR機器によって撮られた現在場面画像を取得した後、該現在場面画像に対して識別を行い、特別効果データの表示をトリガーする目標実体対象が含まれるかどうかを識別することができる。 Illustratively, the AR device may include an image gathering member, eg, a Red Green Blue (RGB) camera, for taking images. After obtaining the current scene image taken by the AR device, identification can be performed on the current scene image to identify whether it contains a target entity object that triggers the display of special effect data.

S102において、現在場面画像に目標実体対象が含まれることが識別された場合、目標実体対象とマッチングするAR特別効果の第1表示位置データを決定し、第1表示位置データに基づいて、AR特別効果を表示するようにAR機器を制御する。 In S102, if it is identified that the target entity object is included in the current scene image, determine the first display position data of the AR special effect that matches the target entity object, and based on the first display position data, perform the AR special effect. Control the AR device to display the effect.

例示的に、異なる応用場面に対して、目標実体対象は、特定の形態を有する物体であってもよく、例えば、書物、書画、建築物などの実体物体であってもよい。異なる応用場面において、目標実体対象は、該応用場面における実体物体であってもよい。AR特別効果によって、該実体物体に対して紹介を行い、実体物体に対するユーザの理解を進めることができる
例示的に、目標実体対象とマッチングするAR特別効果は、目標実体対象と所定の相対的位置関係を有するAR特別効果と、目標実体対象の内容と関連関係を有するAR特別効果と、のうちの少なくとも1つを含む。
Illustratively, for different application scenarios, the target physical object may be an object with a specific shape, such as a physical object such as a book, a painting, or a building. In a different application, the target physical object may be a physical object in the application. An AR special effect can provide an introduction to the physical object and improve the user's understanding of the physical object. At least one of an AR special effect having a relationship and an AR special effect having a relationship relationship with the content of the target entity object.

例示的に、目標実体対象と所定の相対的位置関係を有するAR特別効果は、AR特別効果と目標実体対象とが同一の座標系において所定の相対的位置関係を有することを表すことができる。本願のいくつかの実施例において、AR特別効果は、三次元AR画面とオーディオ内容を含んでもよい。ここで、三次元AR画面は、予め構築された三次元場面モデルにおいて生成されてもよい。該三次元場面モデルにおいて、三次元AR画面の形態、サイズ、位置、姿勢などのデータ、及びAR画面と目標実体対象との位置関係、相対的姿勢関係、該三次元場面モデルに対応する三次元座標系と目標実体対象の位置するワールド座標系との所定の変換関係を予め設定してもよい。このように、ワールド座標系における目標実体対象の位置データを決定した後、ワールド座標系における目標実体対象の位置データに基づいて、ワールド座標系におけるAR画面の位置データを決定することができる。また、ワールド座標系における目標実体対象の姿勢データに基づいて、ワールド座標系におけるAR画面の姿勢データを同時に決定することもできる。 Exemplarily, an AR special effect having a predetermined relative positional relationship with a target physical object can represent that the AR special effect and the target physical object have a predetermined relative positional relationship in the same coordinate system. In some embodiments of the present application, AR special effects may include 3D AR screens and audio content. Here, the 3D AR screen may be generated in a pre-constructed 3D scene model. In the 3D scene model, data such as the shape, size, position, and attitude of the 3D AR screen, the positional relationship and relative attitude relationship between the AR screen and the target entity object, and the 3D data corresponding to the 3D scene model. A predetermined transformation relationship between the coordinate system and the world coordinate system in which the target physical object is located may be preset. Thus, after determining the position data of the target physical object in the world coordinate system, the position data of the AR screen in the world coordinate system can be determined based on the position data of the target physical object in the world coordinate system. Also, it is possible to simultaneously determine the posture data of the AR screen in the world coordinate system based on the posture data of the target entity object in the world coordinate system.

本願のいくつかの実施例において、目標実体対象とAR特別効果の三次元画面との位置関係と姿勢関係を更に予め設定してもよく、例えば、AR画面と目標実体対象の、同一の座標系(予め確立されたワールド座標系であってもよい)における位置関係と姿勢関係を設定してもよい。このように、ワールド座標系における目標実体対象の位置データを得た後、ワールド座標系におけるAR画面の位置データを決定することができ、ワールド座標系における目標実体対象の姿勢データを得た後、ワールド座標系におけるAR画面の姿勢データ(AR画面における指定方向のそれぞれとワールド座標系のX軸、Y軸及びZ軸とのなす角)を決定するもできる。該プロセスにおいて、三次元場面モデルを構築する必要がなく、AR特別効果に対する表示プロセスにおいて、より便利で迅速である。 In some embodiments of the present application, the positional relationship and attitude relationship between the target physical object and the three-dimensional screen of the AR special effect may be further preset, such as the same coordinate system for the AR screen and the target physical object. A positional relationship and a pose relationship in (which may be a pre-established world coordinate system) may be set. Thus, after obtaining the position data of the target entity object in the world coordinate system, the position data of the AR screen in the world coordinate system can be determined, and after obtaining the pose data of the target entity object in the world coordinate system, It is also possible to determine the attitude data of the AR screen in the world coordinate system (angles formed between each designated direction in the AR screen and the X-, Y-, and Z-axes of the world coordinate system). In the process, there is no need to build a 3D scene model, which is more convenient and faster in the display process for AR special effects.

例示的に、目標実体対象がカレンダーである場合について、カレンダーの中心を原点とし、カレンダーの中心を通過する長辺をX軸とし、カレンダーの中心を通過する短辺をY軸とし、カレンダーの中心を通過し且つカレンダー表紙に垂直である直線をZ軸としてワールド座標系を確立してもよい。AR画面と目標実体対象との位置関係が、AR画面がカレンダーの上表面における、カレンダーの中心点との距離が所定の距離である箇所で表示されることを含むと、ワールド座標系におけるカレンダーの位置データを決定した後、これに基づいて、AR画面の表示位置を決定することができる。また、ワールド座標系におけるカレンダーの姿勢データ、及び予め設定されたAR画面とカレンダーとの姿勢関係に基づいて、ワールド座標系におけるAR画面の姿勢データを決定することもできる。 For example, when the target entity object is a calendar, the center of the calendar is the origin, the long side passing through the center of the calendar is the X axis, the short side passing through the center of the calendar is the Y axis, and the center of the calendar is A world coordinate system may be established with the Z-axis being a straight line passing through and perpendicular to the calendar cover. If the positional relationship between the AR screen and the target entity object includes that the AR screen is displayed on the upper surface of the calendar at a location where the distance from the center point of the calendar is a predetermined distance, the calendar in the world coordinate system After determining the position data, the display position of the AR screen can be determined based on this. The orientation data of the AR screen in the world coordinate system can also be determined based on the orientation data of the calendar in the world coordinate system and the preset orientation relationship between the AR screen and the calendar.

例示的に、目標実体対象の内容と関連関係を有するAR特別効果は、AR特別効果の表示内容が目標実体対象の内容、目標実体対象の有する役割又は目標実体対象に対するユーザの了解を引き付けるAR画面を含むことを指してもよい。本願のいくつかの実施例において、目標実体対象がカレンダーである場合について、AR特別効果の表示内容は、該カレンダーに対応する年度に関わるAR画面、及び該カレンダーに含まれる内容を紹介するオーディオ内容などを含んでもよい。 Exemplarily, the AR special effect having a related relationship with the content of the target entity object is an AR screen in which the display content of the AR special effect attracts the user's understanding of the content of the target entity object, the role that the target entity object has, or the target entity object. may refer to including In some embodiments of the present application, when the target entity object is a calendar, the display content of the AR special effect is an AR screen related to the year corresponding to the calendar, and audio content introducing the content contained in the calendar. and so on.

例示的に、現在場面画像に目標実体対象が含まれることが識別された場合、第1位置決め方式で、現在場面画像における目標実体対象の位置情報を決定し、更に、現在場面画像における目標実体対象の位置情報に基づいて、AR特別効果の第1表示位置データを決定することができる。ここで、第1位置決め方式は、マーカー(marker)を利用して位置決めを行う方式であり、即ち、目標実体対象の画像をmarkerとして利用し、現在場面画像における目標実体対象の画像位置情報を決定することである。いくつかの実施例において、現在場面画像における目標実体対象の位置情報に基づいて、AR特別効果の第1表示姿勢データを決定することもできる。画像識別技術に基づいて、現在場面画像における目標実体対象の位置情報を比較的正確に決定することができる。従って、ここで、目標実体対象の位置情報に基づいて、AR特別効果の第1表示位置データと第1表示姿勢データを比較的正確に得ることができ、それによりAR特別効果の正確な表示のためにサポートを提供する。 Illustratively, if the current scene image is identified to include a target entity object, then in a first positioning scheme, determining position information of the target entity object in the current scene image; The first display position data of the AR special effect can be determined based on the position information of the . Here, the first positioning method is a positioning method using a marker, that is, the image of the target entity object is used as the marker to determine the image position information of the target entity object in the current scene image. It is to be. In some embodiments, the first display pose data of the AR special effect can also be determined based on the position information of the target physical object in the current scene image. Based on the image identification technology, the position information of the target physical object in the current scene image can be determined relatively accurately. Therefore, here, based on the position information of the target physical object, the first display position data and the first display attitude data of the AR special effect can be obtained relatively accurately, so that the accurate display of the AR special effect can be obtained. provide support for

例示的に、AR特別効果の第1表示姿勢データを決定することもできる。現在場面画像に目標実体対象が含まれることが識別された場合、第1位置決め方式によって、目標実体対象とマッチングするAR特別効果の第1表示位置データと第1表示姿勢データを決定し、第1表示位置データと第1表示姿勢データに基づいて、AR特別効果を表示するようにAR機器を制御する。 Illustratively, the first display pose data of the AR special effects can also be determined. If it is identified that the current scene image includes the target physical object, determine the first display position data and the first display orientation data of the AR special effect matching the target physical object by a first positioning scheme, and The AR device is controlled to display the AR special effect based on the display position data and the first display orientation data.

S103において、AR特別効果を表示するプロセスにおいて、現在場面画像において目標実体対象が識別されていないことに応答して、AR特別効果の第2表示位置データを決定し、第2表示位置データに基づいて、AR特別効果の表示済み進捗に従ってAR特別効果を表示し続けるようにAR機器を制御する。 In S103, in the process of displaying the AR special effect, in response to the target physical object not being identified in the current scene image, determining second display position data of the AR special effect, and based on the second display position data; to control the AR device to keep displaying the AR special effect according to the displayed progress of the AR special effect.

AR特別効果を表示するようにAR機器を制御するプロセスにおいて、目標実体対象とAR機器とのうちの少なくとも1つが移動すると、以下の2つのケースのうちの少なくとも1つを引き起こす可能性がある。即ち、ケース1において、目標実体対象とAR機器との相対的位置データが変化する。ケース2において、目標実体対象とAR機器との相対的姿勢データが変化する。この場合、AR機器は、現在場面画像を撮る時、目標実体対象を撮ることができないか又は完全な目標実体対象を撮ることができない可能性がある。このように、現在場面画像を識別する時、目標実体対象を識別できないというケースが存在する可能性がある。 In the process of controlling the AR device to display the AR special effect, movement of at least one of the target entity object and the AR device may cause at least one of the following two cases. That is, in Case 1, the relative position data between the target physical object and the AR device changes. In Case 2, the relative pose data between the target physical object and the AR device changes. In this case, the AR device may not be able to capture the target entity object or the complete target entity object when capturing the current scene image. Thus, when identifying the current scene image, there may be cases where the target physical object cannot be identified.

本願のいくつかの実施例において、目標実体対象を識別できないというケースは2つを含んでもよく、1つのケースは、現在場面画像に目標実体対象が含まれないことであり、もう1つのケースは、現在場面画像に一部の目標実体対象が含まれることであり、例えば、目標実体対象がカレンダーである場合、現在場面画像にカレンダーの1つの隅部のみが含まれる。この場合、目標実体対象に含まれる十分な特徴点を検出できない可能性があるため、目標実体対象を識別できない。 In some embodiments of the present application, the cases that the target physical object cannot be identified may include two cases, one case is that the current scene image does not contain the target physical object, another case is , the current scene image includes a part of the target entity object, for example, if the target entity object is a calendar, the current scene image includes only one corner of the calendar. In this case, the target physical object cannot be identified because it may not be possible to detect enough feature points contained in the target physical object.

現在場面画像に目標実体対象が含まれる場合、第1位置決め方式で目標第1表示位置データを決定することが、現在場面画像における目標実体対象の位置情報に基づいて、AR特別効果の第1表示位置データを決定することであることを考慮して、第1位置決め方式に基づいて、目標実体対象を位置決めるプロセスにおいて、各場面画像を撮る時のAR機器と目標実体対象との相対的位置データを同時に決定し、該相対的位置データを保存することができる。このように、現在場面画像において目標実体対象が識別されていない場合、保存されたAR機器と目標実体対象との相対的位置データ、及び同時位置決め地図作成(Simultaneous Localization And Mapping:SLAM)技術を組み合わせながら、現在場面画像を撮る時のAR機器と目標実体対象との相対的位置データを決定することができる。本願のいくつかの実施例において、該相対的位置データ及びAR特別効果と目標実体対象との相対的位置関係に基づいて、AR特別効果の第2表示位置データを決定することができる。該プロセスは、後に詳しく説明される。 If the current scene image includes a target physical object, determining the target first display position data by the first positioning method is performed based on the position information of the target physical object in the current scene image to perform the first display of the AR special effect. Considering that the position data is to be determined, in the process of positioning the target physical object according to the first positioning method, the relative position data between the AR device and the target physical object when taking each scene image can be simultaneously determined and the relative position data saved. In this way, when the target entity object is not identified in the current scene image, the stored relative position data of the AR device and the target entity object are combined with Simultaneous Localization And Mapping (SLAM) technology. Meanwhile, the relative position data between the AR device and the target physical object when taking the current scene image can be determined. In some embodiments of the present application, second display position data of the AR special effect can be determined based on the relative position data and the relative positional relationship between the AR special effect and the target physical object. The process will be detailed later.

また、AR特別効果を表示するプロセスにおいて、現在場面画像において目標実体対象が識別されていないことに応答して、第2位置決め方式でAR特別効果の第2表示姿勢データを決定することもできる。ここで、第2位置決め方式は、SLAM位置決め方式である。そして、第2表示位置データと第2表示姿勢データに基づいて、AR特別効果の表示済み進捗に従ってAR特別効果を表示し続けるようにAR機器を制御する。ここで、第2表示姿勢データの決定プロセスは、第2表示位置データの決定プロセスと類似する。 Also, in the process of displaying the AR special effect, in response to the target physical object not being identified in the current scene image, a second positioning scheme may be used to determine second display pose data for the AR special effect. Here, the second positioning method is the SLAM positioning method. Then, based on the second display position data and the second display orientation data, the AR device is controlled so as to continue displaying the AR special effect according to the displayed progress of the AR special effect. Here, the determination process of the second display orientation data is similar to the determination process of the second display position data.

例示的に、目標実体対象はカレンダーであり、AR特別効果は動的に表示される総時間長が30sであるAR画面を含む。該AR画面が10s目まで表示された場合、AR機器によって撮られた現在場面画像において目標実体対象が識別されていないと、この時、第2位置決め方式で決定されたAR特別効果の第2表示位置データに基づいて、又は第2表示位置データと第2表示姿勢データに基づいて、AR画面の表示済み進捗に従って表示し続ける(10s目から表示し続ける)ようにAR機器を制御することができる。表示し続けるプロセスにおいて、第2表示位置データが、AR機器がAR画面の表示位置範囲から完全に離れ、例えば、AR機器とカレンダーとの相対的距離が所定の閾値以上であることを指示し、又は、第2表示姿勢データが、AR機器の撮影角度がカレンダーから完全に離れることを指示すると、この場合、AR特別効果を表示し続けているが、ユーザは、AR機器によって、AR特別効果のAR画面を鑑賞できない。表示し続けるプロセスにおいて、第2表示位置データに基づいて、AR機器とカレンダーとの相対的距離が所定の閾値よりも小さく、且つAR機器の撮影角度によりカレンダーの一部の領域を撮影できると決定した場合、ユーザは、AR機器によって、表示されている一部のAR画面を鑑賞でき、例えば、カレンダーの一部の領域とマッチングするAR画面を鑑賞できる。 Exemplarily, the target physical object is a calendar, and the AR special effect includes a dynamically displayed AR screen with a total duration of 30s. When the AR screen is displayed until the 10th s, if the target physical object is not identified in the current scene image taken by the AR device, then the second display of the AR special effect determined by the second positioning method Based on the position data, or based on the second display position data and the second display orientation data, the AR device can be controlled to continue displaying according to the displayed progress of the AR screen (continue displaying from the 10th second). . In the process of continuing to display, the second display position data indicates that the AR device is completely away from the display position range of the AR screen, for example, the relative distance between the AR device and the calendar is greater than or equal to a predetermined threshold; Or, if the second display attitude data indicates that the shooting angle of the AR device is completely away from the calendar, in this case, the AR special effects continue to be displayed, but the user can change the AR special effects by the AR device. I can't appreciate the AR screen. In the process of continuing to display, it is determined, based on the second display position data, that the relative distance between the AR device and the calendar is less than a predetermined threshold, and that the shooting angle of the AR device can capture a part of the calendar. In this case, the user can view a part of the AR screen displayed by the AR device, for example, an AR screen that matches a part of the calendar.

本願の実施例において、現在場面画像において目標実体対象が含まれることが識別された場合、決定された第1表示位置データに基づいて、AR特別効果を表示するようにAR機器を制御する。ユーザに対してAR特別効果を表示するプロセスにおいて、現在場面画像において目標実体対象が識別されていない場合、AR特別効果の第2表示位置データを決定し、第2表示位置データに基づいて、表示されていないAR特別効果を表示し続けるようにAR機器を制御することもでき、表示プロセスにおけるAR特別効果の一貫性と安定性を向上させ、AR特別効果の表示をよりリアルにすることができる。 In an embodiment of the present application, the AR device is controlled to display the AR special effect based on the determined first display position data when the target physical object is identified in the current scene image. In the process of displaying the AR special effect to the user, if the target physical object is not identified in the current scene image, determine second display position data of the AR special effect, and display the AR special effect based on the second display position data. AR equipment can also be controlled to continue displaying AR special effects that have not been displayed, which can improve the consistency and stability of AR special effects in the display process and make the display of AR special effects more realistic. .

図2は、本願の実施例の拡張現実場面における表示方法を応用できるシステムアーキテクチャの概略図を示す。図2に示すように、該システムアーキテクチャに、現在場面画像取得端末201と、ネットワーク202と、制御端末203とが含まれる。1つの例示的な応用へのサポートを実現させるために、現在場面画像取得端末201と制御端末203とは、ネットワーク202を介して通信接続を確立し、現在場面画像取得端末201は、ネットワーク202を介して制御端末203に現在場面画像を報告し、制御端末203は、現在場面画像において目標実体対象が含まれることが識別された場合、目標実体対象とマッチングするAR特別効果の第1表示位置データを決定し、第1表示位置データに基づいて、AR特別効果を表示するようにAR機器を制御し、AR特別効果を表示するプロセスにおいて、現在場面画像において目標実体対象が識別されていないことに応答して、AR特別効果の第2表示位置データを決定し、第2表示位置データに基づいて、AR特別効果の表示済み進捗に従ってAR特別効果を表示し続けるようにAR機器を制御する。最後に、制御端末203は、表示位置情報とAR特別効果をネットワーク202にアップロードし、ネットワーク202を介して現在場面画像取得端末201に送信する。 FIG. 2 shows a schematic diagram of a system architecture in which the display method in an augmented reality scene of an embodiment of the present application can be applied. As shown in FIG. 2, the system architecture includes a current scene image acquisition terminal 201 , a network 202 and a control terminal 203 . To realize support for one exemplary application, the current scene image acquisition terminal 201 and the control terminal 203 establish a communication connection over the network 202, and the current scene image acquisition terminal 201 communicates with the network 202. The control terminal 203 reports the current scene image to the control terminal 203 via the control terminal 203, and if the control terminal 203 identifies that the target entity object is included in the current scene image, the control terminal 203 generates the first display position data of the AR special effect that matches the target entity object. and controlling the AR device to display the AR special effect based on the first display position data, and determining that the target entity object is not identified in the current scene image in the process of displaying the AR special effect In response, determining second display position data of the AR special effect, and controlling the AR device to continue displaying the AR special effect according to the displayed progress of the AR special effect based on the second display position data. Finally, the control terminal 203 uploads the display position information and the AR special effect to the network 202 and transmits them to the current scene image acquisition terminal 201 via the network 202 .

例として、現在場面画像取得端末201は、画像収集機器を含んでもよく、制御端末203は、ビジョン情報処理能力を有するビジョン処理機器又はリモートサーバを含んでもよい。ネットワーク202は、有線又は無線接続方式を用いてもよい。ここで、制御端末203がビジョン処理機器である場合、現在場面画像取得端末201は、有線接続の方式で、ビジョン処理機器と通信接続してもよく、例えば、バスを介してデータ通信を行う。制御端末203がリモートサーバである場合、現在場面画像取得端末201は、無線ネットワークを介してリモートサーバとデータインタラクションを行うことができる。 By way of example, the current scene image acquisition terminal 201 may include an image collection device, and the control terminal 203 may include a vision processing device or remote server with vision information processing capabilities. Network 202 may use wired or wireless connection schemes. Here, if the control terminal 203 is a vision processing device, the current scene image acquisition terminal 201 may communicate with the vision processing device by a wired connection method, and perform data communication via a bus, for example. If the control terminal 203 is a remote server, the current scene image acquisition terminal 201 can perform data interaction with the remote server through a wireless network.

又は、いくつかの場面において、現在場面画像取得端末201は、ビデオ収集モジュールを持つビジョン処理機器であってもよく、カメラを持つホストであってもよい。この場合、本願の実施例の拡張現実場面における表示方法は、現在場面画像取得端末201によって実行されてもよく、上記システムアーキテクチャは、ネットワーク202と制御端末203を含まなくてもよい。 Or, in some scenarios, the current scene image acquisition terminal 201 may be a vision processing device with a video acquisition module, or a host with a camera. In this case, the display method in the augmented reality scene of the embodiments of the present application may be performed by the current scene image acquisition terminal 201, and the above system architecture may not include the network 202 and the control terminal 203.

本願のいくつかの実施例において、現在場面画像に目標実体対象が含まれることが識別された場合、目標実体対象とマッチングするAR特別効果の第1表示位置データを決定する前に、以下の方式で現在場面画像に目標実体対象が含まれるかどうかを識別することができる。図3に示すように、以下のS201~S202を含む。 In some embodiments of the present application, when it is identified that the current scene image includes a target entity object, the following method is performed before determining the first display position data of the AR special effect that matches the target entity object. can identify whether the current scene image contains the target entity object. As shown in FIG. 3, the following S201-S202 are included.

S201において、現在場面画像に対して特徴点抽出を行い、現在場面画像に含まれる複数の特徴点のそれぞれに対応する特徴情報を得て、複数の特徴点は、現在場面画像における目標検出領域に位置する。 In S201, feature point extraction is performed on the current scene image to obtain feature information corresponding to each of a plurality of feature points included in the current scene image. To position.

例示的に、現在場面画像に対して識別を行うプロセスにおいて、まず、画像検出アルゴリズムによって、現在場面画像における、実体対象を含む目標検出領域を位置決めることができる。続いて、目標検出領域において、特徴点抽出を行い、例えば、目標検出領域における、実体対象の輪郭に位置する特徴点、標識パターン領域に位置する特徴点及び文字領域に位置する特徴点などを抽出してもよい。例示的に、抽出された特徴点が目標実体対象を完全に表すことができるために、特徴点は、現在場面画像における、目標実体対象に対応する位置領域に基づいて均一に抽出されてもよく、例えば、目標実体対象がカレンダーである場合、現在場面画像における、カレンダー表紙に対応する矩形領域において均一に抽出されてもよい。 Illustratively, in the process of performing identification on a current scene image, first, an image detection algorithm can locate a target detection region containing a physical object in the current scene image. Subsequently, in the target detection area, feature point extraction is performed, and for example, feature points located on the outline of the entity object, feature points located in the sign pattern area, feature points located in the character area, etc. are extracted in the target detection area. You may Illustratively, the feature points may be uniformly extracted based on the position region corresponding to the target physical object in the current scene image, so that the extracted feature points can completely represent the target physical object. For example, if the target entity object is a calendar, it may be uniformly extracted in the rectangular area corresponding to the calendar cover in the current scene image.

例示的に、ここで抽出された特徴点に含まれる特徴情報は、特徴点に対応するテクスチャ特徴値、RGB特徴値、グレースケール値などの、該特徴点の特徴を表すことができる情報を含んでもよい。 Exemplarily, the feature information included in the feature points extracted here includes information capable of representing features of the feature points, such as texture feature values, RGB feature values, and grayscale values corresponding to the feature points. It's okay.

S202において、複数の特徴点のそれぞれに対応する特徴情報と予め記憶された目標実体対象に含まれる複数の特徴点のそれぞれに対応する特徴情報に基づいて比較を行い、現在場面画像に目標実体対象が含まれるかどうかを決定する。 In step S202, comparison is performed based on the feature information corresponding to each of the plurality of feature points and the feature information corresponding to each of the plurality of feature points included in the target entity object stored in advance, and the target entity object is added to the current scene image. determines whether the is included.

例示的に、同じ方式で、目標実体対象を予め撮影し、目標実体対象に含まれる複数の特徴点のそれぞれに対応する特徴情報を得て保存してもよい。 Exemplarily, in the same manner, the target physical object may be photographed in advance, and feature information corresponding to each of a plurality of feature points included in the target physical object may be obtained and stored.

例示的に、複数の特徴点のそれぞれに対応する特徴情報と予め記憶された目標実体対象に含まれる複数の特徴点のそれぞれに対応する特徴情報に基づいて比較を行う時、まず、現在場面画像において抽出された複数の特徴点のそれぞれに対応する特徴情報に基づいて、現在場面画像における目標検出領域に対応する第1特徴ベクトルを決定し、目標実体対象に含まれる複数の特徴点のそれぞれに対応する特徴情報に基づいて、目標実体対象に対応する第2特徴ベクトルを決定してもよい。続いて、第1特徴ベクトルと第2特徴ベクトルによって、目標検出領域と目標実体対象との類似度を決定してもよく、例えば、コサインの式で決定してもよい。 Exemplarily, when the comparison is performed based on the feature information corresponding to each of the plurality of feature points and the feature information corresponding to each of the plurality of feature points included in the pre-stored target entity object, first, the current scene image determining a first feature vector corresponding to the target detection region in the current scene image based on the feature information corresponding to each of the plurality of feature points extracted in step 1, and determining a first feature vector corresponding to each of the plurality of feature points included in the target entity object A second feature vector corresponding to the target physical object may be determined based on the corresponding feature information. Subsequently, the similarity between the target detection region and the target entity object may be determined by the first feature vector and the second feature vector, for example, by cosine equation.

例示的に、第1特徴ベクトルと第2特徴ベクトルとの類似度が所定の類似度閾値以上であると決定した場合、現在場面画像に目標実体対象が含まれると決定する。逆に、第1特徴ベクトルと第2特徴ベクトルとの類似度が所定の類似度閾値よりも小さいと決定した場合、現在場面画像に目標実体対象が含まれないと決定する。 Exemplarily, if it is determined that the similarity between the first feature vector and the second feature vector is greater than or equal to a predetermined similarity threshold, it is determined that the current scene image includes the target entity object. Conversely, if it is determined that the similarity between the first feature vector and the second feature vector is less than the predetermined similarity threshold, then it is determined that the current scene image does not contain the target entity object.

本願の実施例において、目標検出領域に含まれる複数の特徴点を抽出することによって、現在場面画像に目標実体対象が含まれるかどうかを識別し、特徴点比較の方式により、現在場面画像に目標実体対象が含まれるかどうかを迅速かつ正確に決定することができる。 In an embodiment of the present application, a plurality of feature points included in the target detection area are extracted to identify whether the current scene image includes the target entity object, and a feature point comparison method is used to determine whether the target entity object is included in the current scene image. It can quickly and accurately determine whether an entity object is included.

上記S102について、目標実体対象とマッチングするAR特別効果の第1表示位置データを決定することは、図4に示すように、以下のS301~S303を含んでもよい。 Regarding S102 above, determining the first display position data of the AR special effect that matches the target physical object may include the following S301-S303, as shown in FIG.

S301において、現在場面画像における目標実体対象の位置情報を取得する。 In S301, the position information of the target entity object in the current scene image is obtained.

例示的に、現在場面画像によって画像座標系を確立し、目標実体対象に含まれる複数の特徴点の、画像座標系における画像座標値を取得し、現在場面画像における目標実体対象の位置情報を得ることができる。 Exemplarily, an image coordinate system is established according to the current scene image, image coordinate values of a plurality of feature points included in the target entity object in the image coordinate system are obtained, and position information of the target entity object in the current scene image is obtained. be able to.

S302において、位置情報に基づいて、予め確立されたワールド座標系における目標実体対象の位置データを決定し、現在場面画像に基づいて、ワールド座標系におけるAR機器の位置データを決定する。 In S302, determine the position data of the target physical object in a pre-established world coordinate system according to the position information, and determine the position data of the AR device in the world coordinate system according to the current scene image.

本願のいくかの実施例において、位置情報、画像座標系とAR機器に対応するカメラ座標系との変換関係、及びAR機器に対応するカメラ座標系とワールド座標系との変換関係に基づいて、ワールド座標系における目標実体対象の位置データを決定することができる。 In some embodiments of the present application, based on the position information, the transformation relationship between the image coordinate system and the camera coordinate system corresponding to the AR device, and the transformation relationship between the camera coordinate system corresponding to the AR device and the world coordinate system, Position data of the target physical object in the world coordinate system can be determined.

例示的に、AR機器に対応するカメラ座標系は、AR機器に含まれる画像収集部材の焦点中心を原点として光軸をZ軸として確立された三次元直交座標系であってもよい。AR機器が現在場面画像を撮った後、画像座標系とカメラ座標系との変換関係に基づいて、カメラ座標系における目標実体対象の位置データを決定することができる。 Illustratively, the camera coordinate system corresponding to the AR device may be a three-dimensional Cartesian coordinate system established with the origin at the focal center of the image acquisition member included in the AR device and the optical axis as the Z-axis. After the AR device captures the current scene image, the position data of the target physical object in the camera coordinate system can be determined according to the transformation relationship between the image coordinate system and the camera coordinate system.

例示的に、予め確立されたワールド座標系は、目標実体対象の中心点を原点として確立されてもよい。例えば、上記言及された、目標実体対象がカレンダーである場合に、カレンダーの中心を原点とし、カレンダーの中心を通過する長辺をX軸とし、カレンダーの中心を通過する短辺をY軸とし、カレンダーの中心を通過し且つカレンダー表紙に垂直である直線をZ軸として確立されてもよい。 Illustratively, a pre-established world coordinate system may be established with the center point of the target physical object as the origin. For example, when the target substantive object is a calendar as mentioned above, the center of the calendar is the origin, the long side passing through the center of the calendar is the X axis, the short side passing through the center of the calendar is the Y axis, A straight line passing through the center of the calendar and perpendicular to the calendar cover may be established as the Z-axis.

ここで、カメラ座標系とワールド座標系との変換は剛体変換であり、即ち、カメラ座標系を回転、並進によってワールド座標系と重なり合うことができる変換方式である。カメラ座標系とワールド座標系との変換関係は、目標実体対象における複数の位置点の、ワールド座標系における位置座標及びカメラ座標系における対応する位置座標によって決定されてもよい。ここで、カメラ座標系における目標実体対象の位置情報を得た後、AR機器に対応するカメラ座標系とワールド座標系との変換関係に基づいて、ワールド座標系における目標実体対象の位置データを決定することができる。 Here, the conversion between the camera coordinate system and the world coordinate system is a rigid body conversion, that is, a conversion method that allows the camera coordinate system to overlap with the world coordinate system by rotating and translating. A transformation relationship between the camera coordinate system and the world coordinate system may be determined by position coordinates in the world coordinate system and corresponding position coordinates in the camera coordinate system of a plurality of position points in the target physical object. Here, after obtaining the position information of the target entity object in the camera coordinate system, the position data of the target entity object in the world coordinate system is determined based on the transformation relationship between the camera coordinate system corresponding to the AR device and the world coordinate system. can do.

例示的に、ワールド座標系におけるAR機器の位置データは、AR機器によって撮られた現在場面画像によって決定されてもよい。例えば、現在場面画像において特徴点を選択し、目標実体対象によって確立されたワールド座標系における選択された特徴点の位置座標、及び、AR機器に対応するカメラ座標系における選択された特徴点の位置座標を決定することによって、現在場面画像を撮る時の、ワールド座標系におけるAR機器の位置データを決定することができる。 Illustratively, the position data of the AR device in the world coordinate system may be determined by the current scene image taken by the AR device. For example, select a feature point in the current scene image, the position coordinates of the selected feature point in the world coordinate system established by the target entity object, and the position of the selected feature point in the camera coordinate system corresponding to the AR device. By determining the coordinates, it is possible to determine the position data of the AR device in the world coordinate system when the current scene image is taken.

S303において、ワールド座標系における目標実体対象の位置データとワールド座標系におけるAR機器の位置データに基づいて、第1表示位置データを決定する。 In S303, first display position data is determined based on the position data of the target entity object in the world coordinate system and the position data of the AR device in the world coordinate system.

AR特別効果と目標実体対象とが同じ座標系において所定の位置関係を有することを考慮して、ここで、同じ座標系における目標実体対象とAR機器の位置データに基づいて、AR機器に対するAR特別効果の第1表示位置データを決定することができる。 Considering that the AR special effect and the target physical object have a predetermined positional relationship in the same coordinate system, here, based on the position data of the target physical object and the AR device in the same coordinate system, an AR special effect for the AR device First display position data for the effect can be determined.

例示的に、目標実体対象とAR機器とのうちの少なくとも1つの移動に伴い、該第1表示位置データの変化、例えば、ワールド座標系における目標実体対象の位置データの変化を引き起こす。AR機器によって、目標実体対象の位置データの変化に伴って変化するAR特別効果を表示することができる。又は、ワールド座標系におけるAR機器の位置データが変化した後、AR機器によって、AR機器の位置データの変化に伴って変化するAR特別効果を表示することもできる。目標実体対象とAR機器の同時移動により相対的位置データの変化を引き起こした後、同様に、AR特別効果の第1表示位置データの変化を引き起こし、それによってAR特別効果の表示を変化させる。このような方式で、よりリアルなAR体験をユーザに提供することできる。例えば、AR機器の向きが目標実体対象の左側から目標実体対象の右側へ移動すると、ユーザは、AR機器によって、AR特別効果の表示も対応する変換が発生したことを視認できる。 Illustratively, movement of at least one of the target physical object and the AR device causes a change in the first display position data, eg, a change in the position data of the target physical object in the world coordinate system. AR devices can display AR special effects that change as the target physical object's position data changes. Alternatively, after the position data of the AR device in the world coordinate system is changed, the AR device can display an AR special effect that changes with the change of the position data of the AR device. After the simultaneous movement of the target physical object and the AR device causes a change in the relative position data, it also causes a change in the first display position data of the AR special effect, thereby changing the display of the AR special effect. In such a manner, a more realistic AR experience can be provided to the user. For example, when the orientation of the AR device moves from the left side of the target physical object to the right side of the target physical object, the user can see that the AR device has caused a corresponding transformation of the display of the AR special effect.

本願のいくつかの実施例において、第1表示姿勢データの決定プロセスは、第1表示位置データの決定と類似する。 In some embodiments of the present application, the process of determining first presentation pose data is similar to determining first presentation position data.

本願の実施例において、同一のワールド座標系における目標実体対象、AR機器の位置データを決定することによって、同一のワールド座標系におけるAR特別効果のAR機器に対する第1表示位置データをより正確に決定することができ、このように、AR機器によって表示される拡張現実場面をよりリアルにする。 In the embodiments of the present application, by determining the position data of the target entity object and the AR device in the same world coordinate system, the first display position data of the AR special effect for the AR device in the same world coordinate system is more accurately determined. , thus making the augmented reality scene displayed by the AR device more realistic.

本願の実施例において、S303について、ワールド座標系における目標実体対象の位置データとワールド座標系におけるAR機器の位置データに基づいて、第1表示位置データを決定することは、図5に示すように、以下のS3031~S3032を含んでもよい。 In an embodiment of the present application, for S303, determining the first display position data based on the position data of the target entity object in the world coordinate system and the position data of the AR device in the world coordinate system is as shown in FIG. , may include the following S3031-S3032.

S3031において、ワールド座標系における目標実体対象の位置データに基づいて、ワールド座標系におけるAR特別効果の位置データを決定する。 At S3031, the position data of the AR special effect in the world coordinate system is determined based on the position data of the target entity object in the world coordinate system.

例示的に、ワールド座標系における目標実体対象の位置データ、及び予め設定された、同一の座標系におけるAR特別効果と目標実体対象の位置関係(詳細は上記の記述を参照する)によって、ワールド座標系におけるAR特別効果の位置データを決定することができる。 Exemplarily, according to the position data of the target entity object in the world coordinate system and the preset positional relationship between the AR special effect and the target entity object in the same coordinate system (see the above description for details), the world coordinates Positional data for AR special effects in the system can be determined.

S3032において、ワールド座標系におけるAR特別効果の位置データ及びワールド座標系におけるAR機器の位置データに基づいて、第1表示位置データを決定する。 In S3032, first display position data is determined based on the position data of the AR special effect in the world coordinate system and the position data of the AR device in the world coordinate system.

例示的に、AR特別効果がAR画面を含む場合、ワールド座標系におけるAR特別効果の位置データは、ワールド座標系におけるAR画面の位置を含んでもよい。ここで、ワールド座標系におけるAR画面の位置は、ワールド座標系におけるAR画面の中心点の座標値で表されてもよい
本願のいくつかの実施例において、上記言及した第1表示姿勢データを決定する場合、決定された、ワールド座標系におけるAR画面の姿勢は、AR画面の指定方向とワールド座標系の各座標軸とのなす角で表されてもよい。
Illustratively, if the AR special effect includes an AR screen, the position data of the AR special effect in the world coordinate system may include the position of the AR screen in the world coordinate system. Here, the position of the AR screen in the world coordinate system may be represented by the coordinate value of the center point of the AR screen in the world coordinate system. In this case, the determined orientation of the AR screen in the world coordinate system may be represented by the angle between the designated direction of the AR screen and each coordinate axis of the world coordinate system.

本願のいくつかの実施例において、ワールド座標系におけるAR機器の位置データは、ワールド座標系におけるAR機器における画像収集部材の位置を含んでもよい。ここで、ワールド座標系における画像収集部材の位置は、ワールド座標系における画像収集部材の所定の位置点の座標値で表されてもよい。 In some embodiments of the present application, the position data of the AR device in the world coordinate system may include the position of the image acquisition member in the AR device in the world coordinate system. Here, the position of the image acquisition member in the world coordinate system may be represented by coordinate values of a predetermined position point of the image acquisition member in the world coordinate system.

本願の実施例において、上記言及した第1表示姿勢データを決定する場合、ワールド座標系における画像収集部材の姿勢は、画像収集部材におけるカメラの向き方向とワールド座標系の各座標軸とのなす角で表されてもよい。 In the embodiment of the present application, when determining the above-mentioned first display orientation data, the orientation of the image acquisition member in the world coordinate system is the angle formed by the direction of the camera in the image acquisition member and each coordinate axis of the world coordinate system. may be represented.

例示的に、第1表示位置データは、ワールド座標系におけるAR特別効果の位置とワールド座標系におけるAR機器の位置によって決定されてもよい。第1表示姿勢データは、ワールド座標系におけるAR特別効果の姿勢とワールド座標系におけるAR機器の姿勢によって決定されてもよい
本願の実施例において、現在場面画像に目標実体対象が含まれることが識別された場合、現在場面画像に基づいて、ワールド座標系における目標実体対象とAR機器の位置データを正確に決定することができ、それによってAR特別効果の第1表示位置データを正確かつ迅速に得ることができる。
Illustratively, the first display position data may be determined by the position of the AR special effect in the world coordinate system and the position of the AR device in the world coordinate system. The first display pose data may be determined by the pose of the AR special effect in the world coordinate system and the pose of the AR device in the world coordinate system. Then, based on the current scene image, the position data of the target physical object and the AR device in the world coordinate system can be accurately determined, thereby obtaining the first display position data of the AR special effect accurately and quickly. be able to.

上記S103において、AR特別効果の第2表示位置データを決定することは、図6に示すように、以下のS401~S402を含んでもよい。 In S103 above, determining the second display position data of the AR special effect may include the following S401-S402, as shown in FIG.

S401において、現在場面画像、過去場面画像及び過去場面画像を撮る時の予め確立されたワールド座標系におけるAR機器と目標実体対象との相対的位置データに基づいて、現在場面画像を撮る時のAR機器と目標実体対象との相対的位置データを決定する。 In S401, based on the current scene image, the past scene image, and the relative position data of the AR device and the target entity object in the pre-established world coordinate system when taking the past scene image, the AR when taking the current scene image Determine relative position data between the instrument and the target physical object.

例示的に、以下、現在場面画像がAR機器によって撮られた3フレーム目の場面画像であることを例として、SLAM技術に基づいて、現在場面画像を撮る時、AR機器と目標実体対象との相対的位置データを如何に決定するかを簡単に説明する。 For example, hereinafter, taking the current scene image as an example of the third scene image captured by the AR device, when capturing the current scene image based on the SLAM technology, the AR device and the target entity object A brief description of how the relative position data is determined is provided.

AR機器が1フレーム目に目標実体対象を含む場面画像を撮る時から、目標実体対象の中心点を原点として確立されたワールド座標系、及びAR機器によって撮られた1フレーム目の場面画像から選択された特徴点のそれぞれの、ワールド座標系とAR機器に対応するカメラ座標系における位置座標に基づいて、1フレーム目の場面画像を撮る時の、ワールド座標系におけるAR機器の位置情報を決定することができ、同時に決定されたものは、AR機器が1フレーム目の場面画像を撮る時の、ワールド座標系における目標実体対象の位置情報を更に含む。1フレーム目の場面画像を撮る時の、ワールド座標系におけるAR機器の位置情報、及びAR機器が1フレーム目の場面画像を撮る時の、ワールド座標系における目標実体対象の位置情報に基づいて、1フレーム目の場面画像を撮る時の予め確立されたワールド座標系におけるAR機器と目標実体対象との相対的位置データを決定することができる。 Select from the world coordinate system established with the center point of the target entity as the origin and the first frame of the scene image captured by the AR device from the time the AR device captures the scene image including the target entity object in the first frame. Positional information of the AR device in the world coordinate system when the scene image of the first frame is captured is determined based on the positional coordinates of each feature point in the world coordinate system and the camera coordinate system corresponding to the AR device. It can further include the position information of the target physical object in the world coordinate system when the AR device takes the scene image of the first frame, which is determined at the same time. Based on the position information of the AR device in the world coordinate system when the scene image of the first frame is taken, and the position information of the target entity object in the world coordinate system when the AR device takes the scene image of the first frame, The relative position data between the AR device and the target physical object in the pre-established world coordinate system when taking the first frame of the scene image can be determined.

本願のいくつかの実施例において、AR機器が2フレーム目の場面画像を撮る時、2フレーム目の場面画像において1フレーム目の場面画像に含まれる目標特徴点を見出し、AR機器がこれら2フレームの場面画像をそれぞれ撮る時の、カメラ座標系における目標特徴点の位置情報に基づいて、1フレーム目の場面画像を撮る時に対する2フレーム目の場面画像を撮る時のAR機器の位置オフセット量を決定することができる。続いて、該位置オフセット量、及び1フレーム目の場面画像を撮る時の予め確立されたワールド座標系におけるAR機器と目標実体対象との相対的位置データに基づいて、2フレーム目の場面画像を撮る時の予め確立されたワールド座標系におけるAR機器と目標実体対象との相対的位置データを決定する。 In some embodiments of the present application, when the AR device captures the second frame of the scene image, the target feature points included in the first frame of the scene image are found in the second frame of the scene image, and the AR device captures these two frames. Based on the positional information of the target feature points in the camera coordinate system when each scene image is taken, the position offset amount of the AR device when taking the second frame scene image with respect to the first frame scene image is taken can decide. Subsequently, based on the position offset amount and the relative position data between the AR device and the target entity object in the world coordinate system established in advance when the scene image of the first frame was captured, the scene image of the second frame is generated. Determine the relative position data between the AR device and the target physical object in a pre-established world coordinate system at the time of shooting.

本願のいくつかの実施例において、同じ方式で、2フレーム目の場面画像を撮る時に対する現在場面画像を撮る時のAR機器の位置オフセット量を決定することができる。このように、2フレーム目の場面画像を撮る時に対する現在場面画像を撮る時のAR機器の位置オフセット量、及び2フレーム目の場面画像を撮る時の予め確立されたワールド座標系におけるAR機器と目標実体対象との相対的位置データを組み合わせ、現在場面画像を撮る時の、予め確立されたワールド座標系におけるAR機器と目標実体対象との相対的位置データを決定することができる。 In some embodiments of the present application, the same method can be used to determine the positional offset amount of the AR device when capturing the current scene image relative to capturing the second frame scene image. In this way, the positional offset amount of the AR device when capturing the current scene image with respect to when capturing the second frame scene image, and the positional offset amount of the AR device in the pre-established world coordinate system when capturing the second frame scene image. The relative position data with the target physical object can be combined to determine the relative position data between the AR device and the target physical object in a pre-established world coordinate system when the current scene image is taken.

また、現在場面画像、過去場面画像及び過去場面画像を撮る時の、予め確立されたワールド座標系におけるAR機器と目標実体対象との相対的姿勢データに基づいて、現在場面画像を撮る時のAR機器と目標実体対象との相対的姿勢データを決定することもできる。ここで、相対的姿勢データの決定プロセスは、上記相対的位置データの決定プロセスと類似する。 Also, based on the relative orientation data between the AR device and the target entity object in the pre-established world coordinate system when capturing the current scene image, the past scene image, and the past scene image, the AR when capturing the current scene image Relative pose data between the device and the target physical object can also be determined. Here, the relative attitude data determination process is similar to the relative position data determination process described above.

S402において、相対的位置データに基づいて、AR特別効果の第2表示位置データを決定する。 At S402, second display position data for the AR special effect is determined based on the relative position data.

例示的に、AR特別効果と目標実体対象が同じ座標系において所定の位置関係を有することを考慮して、ここで、同様に、現在場面画像を撮る時のAR機器と目標実体対象との相対的位置データに基づいて、AR機器に対するAR特別効果の第2表示位置データを決定することができる。 Exemplarily, considering that the AR special effect and the target physical object have a predetermined positional relationship in the same coordinate system, here is also the relative Second display position data of the AR special effects for the AR device can be determined based on the target position data.

本願の実施例において、現在場面画像、過去場面画像及び過去場面画像を撮る時のワールド座標系におけるAR機器と目標実体対象との相対的位置データを利用して、現在場面画像を撮る時のAR機器と目標実体対象との相対的位置データを比較的正確に決定することができ、このように、正確な相対的位置データに基づいて、AR特別効果の第2表示位置データを決定することができ、目標実体対象が識別されていない場合にも、AR特別効果を表示できることを実現させることができる。 In the embodiments of the present application, using the current scene image, the past scene image, and the relative position data of the AR device and the target entity object in the world coordinate system when taking the past scene image, the AR when taking the current scene image The relative position data between the device and the target physical object can be determined relatively accurately, and thus the second display position data of the AR special effect can be determined based on the accurate relative position data. It can be realized that the AR special effects can be displayed even if the target physical object has not been identified.

本願のいくつかの実施例において、AR特別効果は、AR画面と、AR画面とマッチングするオーディオ内容とを更に含んでもよく、上記S103について、第2表示位置データに基づいて、AR特別効果の表示済み進捗に従ってAR特別効果を表示し続けるようにAR機器を制御することは、
現在場面画像において目標実体対象が識別されておらず、且つAR画面の表示が完了していない場合、第2表示位置データに基づいて、AR画面の表示済み進捗に従って、表示されていないAR画面とマッチングするオーディオ内容を表示し続けるようにAR機器を制御することを含んでもよい。
In some embodiments of the present application, the AR special effect may further include an AR screen and audio content matching the AR screen, and for S103 above, display the AR special effect based on the second display position data. Controlling the AR device to continue displaying the AR special effect according to the completed progress is
If the target entity object is not identified in the current scene image and the display of the AR screen is not completed, the AR screen that is not displayed is displayed according to the displayed progress of the AR screen based on the second display position data. It may also include controlling the AR device to continue displaying matching audio content.

例示的に、AR機器がAR画面の表示位置範囲から離れる場合、この時のAR画面の表示進捗が終了していないと、この時のAR画面の進捗は続けることができるが、ユーザは、AR機器によってAR画面を鑑賞できず、AR画面とマッチングするオーディオ内容のみが聞こえる。これは、依然として、AR特別効果体験をユーザに与える。AR機器がAR画面の表示位置範囲内に再び戻る場合、AR画面の表示が依然として完了していないと、ユーザに対して、表示されていないAR画面と該AR画面とマッチングするオーディオ内容を表示し続け、一貫するAR体験をユーザに与えることができる。 As an example, when the AR device leaves the display position range of the AR screen, if the display progress of the AR screen at this time has not ended, the progress of the AR screen at this time can continue. The AR screen cannot be viewed on some devices, and only the audio content that matches the AR screen is heard. This still gives the user an AR special effects experience. When the AR device returns to the display position range of the AR screen again, if the display of the AR screen is still not completed, it will display the undisplayed AR screen and the audio content matching the AR screen to the user. It can go on and give users a consistent AR experience.

本願の実施例において、現在場面画像において目標実体対象が識別されていない場合、AR画面の表示が完了していないと、AR画面とマッチングするオーディオ内容を表示し続けることもでき、AR特別効果表示の一貫性を向上させ、AR特別効果をよりリアルに表示することができる。 In an embodiment of the present application, if the target entity object is not identified in the current scene image, and the AR screen display is not completed, the audio content matching the AR screen may continue to be displayed, and the AR special effect display is performed. , and can display AR special effects more realistically.

本願のいくつかの実施例において、AR特別効果を表示するプロセスにおいて、現在場面画像において目標実体対象が識別されていないことに応答して、AR特別効果の第2表示位置データを決定し、第2表示位置データに基づいて、AR特別効果の表示済み進捗に従ってAR特別効果を表示し続けるようにAR機器を制御した後、本願の実施例による方法は、
現在場面画像において目標実体対象が再識別された場合、改めて、決定された第1表示位置データに基づいて、AR特別効果の表示済み進捗に従ってAR特別効果を表示し続けるようにAR機器を制御することを更に含む。
In some embodiments of the present application, in the process of displaying the AR special effect, in response to the target physical object not being identified in the current scene image, determining second display position data for the AR special effect; 2 After controlling the AR device to keep displaying the AR special effect according to the displayed progress of the AR special effect based on the display position data, the method according to the embodiments of the present application includes:
If the target entity object is re-identified in the current scene image, control the AR device to continue displaying the AR special effect according to the displayed progress of the AR special effect, again based on the determined first display position data. further includes

例示的に、第2表示位置データに基づいて、AR特別効果の表示済み進捗に従ってAR特別効果を表示し続けるようにAR機器を制御するプロセスにおいて、AR機器によって撮られた現在場面画像に対して、画像識別を実行し続け、現在場面画像に目標実体対象が含まれるかどうかを識別することができる。現在場面画像において目標実体対象が含まれることが再識別された場合、依然として引き続き、第1位置決め方式で決定された第1表示位置データによって、AR特別効果の表示済み進捗に従ってAR特別効果を表示し続けるようにAR機器を制御する。 Illustratively, in the process of controlling the AR device to keep displaying the AR special effect according to the displayed progress of the AR special effect based on the second display position data, for the current scene image taken by the AR device: , can continue to perform image identification to identify whether the current scene image contains the target physical object. If the target entity object is re-identified in the current scene image, still continue to display the AR special effect according to the displayed progress of the AR special effect according to the first display position data determined by the first positioning method. Control the AR device to continue.

本願の実施例において、目標実体対象が再識別された後、改めて、正確度が比較的高い第1表示位置データに基づいて、AR特別効果を表示し続けることによって、表示プロセスにおけるAR特別効果の一貫性と安定性を向上させ、AR特別効果の表示をよりリアルにすることができる。 In the embodiment of the present application, after the target entity object is re-identified, the AR special effect is displayed again based on the first display position data with relatively high accuracy, so that the AR special effect in the display process is It can improve consistency and stability, and make the display of AR special effects more realistic.

本願のいくつかの実施例において、AR特別効果を表示するようにAR機器を制御する前に、
目標実体対象とマッチングするAR特別効果を取得し、AR特別効果に複数の仮想対象のそれぞれに対応する特別効果データが含まれる、ことを実行してもよい。
In some embodiments of the present application, before controlling the AR device to display the AR special effect:
Obtaining an AR special effect that matches the target physical object, wherein the AR special effect includes special effect data corresponding to each of the plurality of virtual objects.

例示的に、目標実体対象が初めて識別された場合、該目標実体対象とマッチングするAR特別効果を取得することができる。 Illustratively, when a target physical object is identified for the first time, an AR special effect matching the target physical object can be obtained.

AR特別効果における各仮想対象に対応する特別効果データは、該仮想対象の、AR機器によって表示される時の形態、色、及び対応するオーディオ内容などのデータを含んでもよい。 Special effect data corresponding to each virtual object in an AR special effect may include data such as the shape, color, and corresponding audio content of the virtual object when displayed by the AR device.

AR特別効果を表示するようにAR機器を制御する時、
複数の仮想対象のそれぞれに対応する特別効果データの表示順序に従って、複数の仮想対象のそれぞれに対応する特別効果データを順次表示するようにAR機器を制御することを含む。
When controlling AR equipment to display AR special effects,
It includes controlling the AR device to sequentially display the special effect data corresponding to each of the plurality of virtual objects according to the display order of the special effect data corresponding to each of the plurality of virtual objects.

例示的に、AR特別効果が複数の仮想対象を含む場合、各仮想対象の、AR機器において表示される時の表示順序を予め設定してもよい。各仮想対象の属性情報、及び予め設定された異なる属性の表示順序に基づいて、複数の仮想対象のそれぞれに対応する特別効果データの表示データを決定してもよい。ここで、属性情報は、静止物体、動的物体及び動的人物などを含んでもよい。 By way of example, if the AR special effect includes multiple virtual objects, the display order of each virtual object when displayed on the AR device may be set in advance. Display data of special effect data corresponding to each of a plurality of virtual objects may be determined based on attribute information of each virtual object and a preset display order of different attributes. Here, the attribute information may include static objects, dynamic objects, dynamic people, and the like.

本願の実施例において、ユーザに対して、複数の仮想対象で構成されるAR特別効果を表示し、AR特別効果の表示をより生き生きとしていることができる。 In embodiments of the present application, an AR special effect composed of multiple virtual objects can be displayed to the user, making the display of the AR special effect more vivid.

本願のいくつかの実施例において、目標実体対象はカレンダーを含み、AR特別効果を表示するようにAR機器を制御する前に、本願の実施例による表示方法は、
カレンダーとマッチングするAR特別効果を取得し、AR特別効果に、カレンダーの表紙内容に基づいて生成された第1特別効果データが含まれる、ことを更に含む。
In some embodiments of the present application, the target physical object includes a calendar, and before controlling the AR device to display the AR special effect, the display method according to the embodiments of the present application includes:
Further comprising obtaining an AR special effect that matches the calendar, the AR special effect including first special effect data generated based on the cover content of the calendar.

ここの第1特別効果データは、カレンダーの表紙内容に対応する複数の仮想対象のそれぞれに対応する第1特別効果データであってもよい。 The first special effect data here may be first special effect data corresponding to each of a plurality of virtual objects corresponding to the cover content of the calendar.

例示的に、AR特別効果に、仮想対象である漫画キャラクター竜、漫画キャラクターリス、カレンダー表紙を包む仮想カレンダー表紙、仮想文字、瑞雲などが含まれ、各仮想対象の、ARによって表示される時の表示順序がさらに含んでもよい。 Illustratively, the AR special effects include virtual objects such as a cartoon character dragon, a cartoon character squirrel, a virtual calendar cover that wraps the calendar cover, virtual characters, auspicious clouds, etc., and each virtual object when displayed by AR The display order may further include.

AR特別効果を表示するようにAR機器を制御する時、
カレンダーの表紙内容が識別された場合、第1特別効果データに基づいて、カレンダーの表紙内容とマッチングするAR特別効果を表示するようにAR機器を制御することを含んでもよい。
When controlling AR equipment to display AR special effects,
If the calendar cover content is identified, controlling the AR device to display an AR special effect matching the calendar cover content based on the first special effect data.

例示的に、カレンダーの表紙内容が識別された場合、第1特別効果データ、及び設定された表示順序に基づいて、まず、カレンダー表紙を包む仮想カレンダー表紙をトリガーして表示し、次に、動的形式でカレンダーの仮想タイトルを表示し、続いて、瑞雲を出現させ、その後、漫画キャラクター竜と漫画キャラクターリスを仮想カレンダー表紙に表示し、対話の形式でカレンダーを詳しく紹介し、紹介が完了した後、AR特別効果の表示を終了する。 Exemplarily, when the calendar cover content is identified, first trigger and display a virtual calendar cover wrapping the calendar cover based on the first special effect data and the set display order, and then move on. The virtual title of the calendar is displayed in the form of a square, followed by the appearance of Zuiun, and then the cartoon character dragon and cartoon character squirrel are displayed on the virtual calendar cover, and the calendar is introduced in detail in the form of dialogue, completing the introduction. After that, the display of the AR special effect ends.

図7は、カレンダー表紙内容とマッチングするAR特別効果を表示するようにAR機器を制御するプロセスにおいて表示されるAR画面を示す。ユーザは、AR画面を鑑賞し、対応するオーディオ内容を聴取することによって、該カレンダーを了解することができる。 FIG. 7 shows an AR screen displayed in the process of controlling the AR device to display AR special effects that match the calendar cover content. The user can comprehend the calendar by viewing the AR screen and listening to the corresponding audio content.

本願の実施例において、カレンダー表紙が識別された場合、カレンダー表紙に、カレンダーを紹介するAR特別効果を表示し、カレンダーの表示内容を豊かにし、カレンダーに対するユーザの鑑賞興味を向上させることができる。 In an embodiment of the present application, when the calendar cover is identified, the calendar cover can display an AR special effect to introduce the calendar, enrich the display content of the calendar, and improve the user's viewing interest in the calendar.

本願の実施例において、目標実体対象はカレンダーを含み、AR特別効果を表示するようにAR機器を制御する前に、本願の実施例による表示方法は、
カレンダーとマッチングするAR特別効果を取得し、AR特別効果に、カレンダーにおける少なくとも1つの所定の日付の過去の同一時期でのマークイベントに基づいて生成された第2特別効果データが含まれる、ことを更に含む。
In an embodiment of the present application, the target entity object includes a calendar, and before controlling the AR device to display the AR special effect, the display method according to an embodiment of the present application includes:
Obtaining an AR special effect that matches the calendar, wherein the AR special effect includes second special effect data generated based on mark events at the same time in the past of at least one predetermined date in the calendar. Including further.

例示的に、カレンダーに、過去の同一時期で特定のイベントが発生したいくつかの所定の日付が含まれる。例えば、1月1日は、元日であり、過去の元日に発生したイベントに基づいて、AR特別効果を生成することができる。該AR特別効果における第2特別効果データは、過去の同一時期で発生したイベントに基づいて生成された仮想文字、オーディオ内容及び仮想画面などを含んでもよく、それと同時に、各第2特別効果データ間の表示順序をさらに含んでもよい。 Illustratively, the calendar contains a number of predetermined dates on which a particular event occurred at the same time in the past. For example, January 1st is New Year's Day, and AR special effects can be generated based on events that occurred on New Year's Day in the past. The second special effect data in the AR special effect may include virtual characters, audio contents, virtual screens, etc. generated based on events occurring at the same time in the past. may further include the display order of

AR特別効果を表示するようにAR機器を制御する時、
カレンダーにおける少なくとも1つの所定の日付が識別された場合、第2特別効果データに基づいて、カレンダーにおける少なくとも1つの所定の日付とマッチングするAR特別効果を表示するようにAR機器を制御することを含んでもよい。
When controlling AR equipment to display AR special effects,
If at least one predetermined date in the calendar is identified, controlling the AR device to display an AR special effect matching the at least one predetermined date in the calendar based on the second special effect data. It's okay.

例示的に、AR機器によって撮られた現在場面画像に所定の日付が含まれる時、第2特別効果データに従って、所定の日付の過去の同一時期で発生したイベントを表示して紹介するようにAR機器を制御することができる。 Exemplarily, when the current scene image captured by the AR device includes a predetermined date, the AR may display and introduce events that occurred at the same time in the past on the predetermined date according to the second special effect data. You can control the equipment.

本願の実施例において、ユーザに対してカレンダーを表示すると同時に、カレンダーにおける所定の日付を取得した場合、ユーザに対して、所定の日付に対応するAR特別効果を表示し、カレンダーの表示内容を豊かにすることもできる。 In the embodiment of the present application, when a calendar is displayed to the user and a predetermined date in the calendar is acquired, the user is displayed with an AR special effect corresponding to the predetermined date to enrich the display content of the calendar. can also be

上記方法の実施例において、各ステップの記述順番は、厳しい実行順番を意味して実施プロセスを何ら限定するものではなく、各ステップの具体的な実行順番はその機能及び可能な内在的論理により決まることは、当業者であれば理解すべきである。 In the embodiment of the above method, the order of describing each step means a strict execution order and does not limit the implementation process in any way, and the specific execution order of each step is determined by its function and possible inherent logic. This should be understood by those skilled in the art.

同一の技術的思想によれば、本願の実施例は、拡張現実場面における表示方法に対応する拡張現実場面における表示装置を更に提供する。本願の実施例における装置による課題を解決するための原理は、本願の実施例における上記表示方法と類似するため、装置の実施は、方法の実施を参照することができる。 According to the same technical idea, the embodiments of the present application further provide a display device in augmented reality scene corresponding to the display method in augmented reality scene. The principle for solving the problems by the apparatus in the embodiments of the present application is similar to the above display method in the embodiments of the present application, so the implementation of the apparatus can refer to the implementation of the method.

図8を参照すると、図8は、本願の実施例による拡張現実場面における表示装置800の構造概略図である。該表示装置は、
AR機器によって撮られた現在場面画像を取得するように構成される取得モジュール801と、
現在場面画像に目標実体対象が含まれることが識別された場合、目標実体対象とマッチングするAR特別効果の第1表示位置データを決定し、第1表示位置データに基づいて、AR特別効果を表示するようにAR機器を制御するように構成される第1制御モジュール802と、
AR特別効果を表示するプロセスにおいて、現在場面画像において目標実体対象が識別されていないことに応答して、AR特別効果の第2表示位置データを決定し、第2表示位置データに基づいて、AR特別効果の表示済み進捗に従ってAR特別効果を表示し続けるようにAR機器を制御するように構成される第2制御モジュール803と、を備える。
Referring to FIG. 8, FIG. 8 is a structural schematic diagram of a display device 800 in an augmented reality scene according to an embodiment of the present application. The display device
an acquisition module 801 configured to acquire a current scene image taken by an AR device;
determining first display position data of an AR special effect that matches the target physical object if the current scene image includes the target physical object, and displaying the AR special effect based on the first display position data; a first control module 802 configured to control the AR device to
In the process of displaying the AR special effect, in response to the target physical object not being identified in the current scene image, determining second display position data for the AR special effect, and based on the second display position data, displaying the AR a second control module 803 configured to control the AR device to keep displaying the AR special effect according to the displayed progress of the special effect.

本願のいくつかの実施例において、取得モジュール801は、現在場面画像に対して特徴点抽出を行い、現在場面画像に含まれる複数の特徴点のそれぞれに対応する特徴情報を得て、複数の特徴点は、現在場面画像における目標検出領域に位置し、複数の特徴点のそれぞれに対応する特徴情報と予め記憶された目標実体対象に含まれる複数の特徴点のそれぞれに対応する特徴情報に基づいて比較を行い、現在場面画像に目標実体対象が含まれるかどうかを決定するという方式で、現在場面画像に目標実体対象が含まれるかどうかを識別するように構成される。 In some embodiments of the present application, the acquisition module 801 performs feature point extraction on the current scene image, obtains feature information corresponding to each of a plurality of feature points included in the current scene image, and obtains a plurality of feature points. The point is located in the target detection area in the current scene image, based on the feature information corresponding to each of the plurality of feature points and the feature information corresponding to each of the plurality of feature points included in the pre-stored target entity object. It is configured to identify whether the current scene image includes the target entity object in the manner of making the comparison and determining whether the current scene image includes the target entity object.

本願のいくつかの実施例において、第1制御モジュール802は、現在場面画像における目標実体対象の位置情報を取得し、位置情報に基づいて、予め確立されたワールド座標系における目標実体対象の位置データを決定し、現在場面画像に基づいて、ワールド座標系におけるAR機器の位置データを決定し、ワールド座標系における目標実体対象の位置データとワールド座標系におけるAR機器の位置データに基づいて、第1表示位置データを決定するように構成される。 In some embodiments of the present application, the first control module 802 obtains the position information of the target physical object in the current scene image, and based on the position information, calculates the position data of the target physical object in a pre-established world coordinate system. and determining the position data of the AR device in the world coordinate system based on the current scene image, and based on the position data of the target entity object in the world coordinate system and the position data of the AR device in the world coordinate system, the first configured to determine display position data;

本願のいくつかの実施例において、第1制御モジュール802は、位置情報、画像座標系とAR機器に対応するカメラ座標系との変換関係、及びAR機器に対応するカメラ座標系とワールド座標系との変換関係に基づいて、ワールド座標系における目標実体対象の位置データを決定するように構成され、第1制御モジュール802は、ワールド座標系における目標実体対象の位置データに基づいて、ワールド座標系におけるAR特別効果の位置データを決定し、ワールド座標系におけるAR特別効果の位置データ及びワールド座標系におけるAR機器の位置データに基づいて、第1表示位置データを決定するように構成される。 In some embodiments of the present application, the first control module 802 determines the position information, the transformation relationship between the image coordinate system and the camera coordinate system corresponding to the AR device, and the camera coordinate system corresponding to the AR device and the world coordinate system. and the first control module 802 determines position data of the target physical object in the world coordinate system based on the transformation relationship of It is configured to determine position data of the AR special effect and to determine first display position data based on the position data of the AR special effect in the world coordinate system and the position data of the AR device in the world coordinate system.

本願のいくつかの実施例において、第2制御モジュール803は、現在場面画像、過去場面画像及び過去場面画像を撮る時のAR機器と目標実体対象との予め確立されたワールド座標系における相対的位置データに基づいて、現在場面画像を撮る時のAR機器と目標実体対象との相対的位置データを決定し、相対的位置データに基づいて、AR特別効果の第2表示位置データを決定するように構成される。 In some embodiments of the present application, the second control module 803 determines the relative positions of the AR device and the target entity object in a pre-established world coordinate system when taking the current scene image, the past scene image, and the past scene image. Based on the data, determine relative position data between the AR device and the target physical object when taking the current scene image, and determine second display position data of the AR special effect based on the relative position data. Configured.

本願のいくつかの実施例において、AR特別効果はAR画面と、AR画面とマッチングするオーディオ内容とを含み、第2制御モジュール803は、現在場面画像において目標実体対象が識別されておらず、且つAR画面の表示が完了していない場合、第2表示位置データに基づいて、AR画面の表示済み進捗に従って、表示されていないAR画面とマッチングするオーディオ内容を表示し続けるようにAR機器を制御するように構成される。 In some embodiments of the present application, the AR special effect includes an AR screen and audio content matching the AR screen, the second control module 803 determines that no target physical object is identified in the current scene image, and If the display of the AR screen has not been completed, the AR device is controlled to continue displaying the audio content matching the AR screen that is not displayed according to the displayed progress of the AR screen based on the second display position data. configured as

本願のいくつかの実施例において、第1制御モジュール802は、現在場面画像において目標実体対象が再識別された場合、改めて、第1位置決め方式で決定された第1表示位置データに基づいて、AR特別効果の表示済み進捗に従ってAR特別効果を表示し続けるようにAR機器を制御するように構成される。 In some embodiments of the present application, the first control module 802, when the target physical object is re-identified in the current scene image, again based on the first display position data determined by the first positioning scheme, performs the AR It is configured to control the AR device to keep displaying the AR special effect according to the displayed progress of the special effect.

本願のいくつかの実施例において、第1制御モジュール802が、AR特別効果を表示するようにAR機器を制御するように構成される前に、取得モジュール801は、目標実体対象とマッチングするAR特別効果を取得するように構成され、AR特別効果に複数の仮想対象のそれぞれに対応する特別効果データが含まれ、第1制御モジュール802は、複数の仮想対象のそれぞれに対応する特別効果データの表示順序に従って、複数の仮想対象のそれぞれに対応する特別効果データを順次表示するようにAR機器を制御するように構成される。 In some embodiments of the present application, before the first control module 802 is configured to control the AR device to display the AR special effects, the acquisition module 801 generates AR special effects that match the target physical object. configured to obtain an effect, the AR special effect includes special effect data corresponding to each of the plurality of virtual objects, the first control module 802 displaying the special effect data corresponding to each of the plurality of virtual objects; The AR device is configured to sequentially display the special effect data corresponding to each of the plurality of virtual objects according to the order.

本願のいくつかの実施例において、目標実体対象はカレンダーを含み、第1制御モジュール802が、AR特別効果を表示するようにAR機器を制御するように構成される前に、取得モジュール801は、カレンダーとマッチングするAR特別効果を取得するように構成され、AR特別効果に、カレンダーの表紙内容に基づいて生成された第1特別効果データが含まれ、第1制御モジュール802は、カレンダーの表紙内容が識別された場合、第1特別効果データに基づいて、カレンダーの表紙内容とマッチングするAR特別効果を表示するようにAR機器を制御するように構成される。 In some embodiments of the present application, the target physical object includes a calendar, and before the first control module 802 is configured to control the AR device to display the AR special effect, the acquisition module 801: configured to obtain an AR special effect that matches the calendar, the AR special effect includes first special effect data generated based on the cover content of the calendar; is identified, the AR device is configured to display an AR special effect matching the cover content of the calendar based on the first special effect data.

本願のいくつかの実施例において、目標実体対象はカレンダーを含み、第1制御モジュール802が、AR特別効果を表示するようにAR機器を制御するように構成される前に、取得モジュール801は、カレンダーとマッチングするAR特別効果を取得するように構成され、AR特別効果に、カレンダーにおける少なくとも1つの所定の日付の過去の同一時期でのマークイベントに基づいて生成された第2特別効果データが含まれ、第1制御モジュール802は、カレンダーにおける少なくとも1つの所定の日付が識別された場合、第2特別効果データに基づいて、カレンダーにおける少なくとも1つの所定の日付とマッチングするAR特別効果を表示するようにAR機器を制御するように構成される。 In some embodiments of the present application, the target physical object includes a calendar, and before the first control module 802 is configured to control the AR device to display the AR special effect, the acquisition module 801: configured to obtain an AR special effect that matches the calendar, the AR special effect including second special effect data generated based on mark events at the same time in the past on at least one predetermined date in the calendar. and the first control module 802 is configured to display an AR special effect matching the at least one predetermined date in the calendar based on the second special effect data if the at least one predetermined date in the calendar is identified. to control the AR device.

装置における各モジュールの処理フロー及び各モジュール間のインタラクションフローに関する説明は、上記方法の実施例における関連説明を参照してもよく、ここで詳細な説明を省略する。 The description of the processing flow of each module and the interaction flow between each module in the apparatus may refer to the related descriptions in the above method embodiments, and the detailed description is omitted here.

図1における拡張現実場面における表示方法に対応して、本願の実施例は、電子機器900を更に提供する。図9を参照すると、図9は、本願の実施例による電子機器900の構造概略図である。該電子機器は、
プロセッサ91と、メモリ92と、バス93と、を備え、メモリ92にプロセッサ91による実行可能な機器可読命令が記憶されており、電子機器900が動作する時、プロセッサ91とメモリ92とは、バス93を介して通信し、機器可読命令がプロセッサ91により実行される場合、上記いずれか1つの実施例における拡張現実場面における表示方法を実行する
メモリ92は、実行命令を記憶するように構成され、内部メモリ921と、外部メモリ922とを含み、ここの内部メモリ921は、内メモリとも呼ばれ、プロセッサ91における演算データ及びハードディスクなどの外部メモリ922と交換されるデータを一時的に記憶するように構成され、プロセッサ91は、内部メモリ921を介して、外部メモリ922とデータ交換を行い、電子機器900が動作する時、プロセッサ91とメモリ92とは、バス93を介して通信し、プロセッサ91に、
拡張現実AR機器によって撮られた現在場面画像を取得し、現在場面画像に目標実体対象が含まれることが識別された場合、目標実体対象とマッチングするAR特別効果の第1表示位置データを決定し、第1表示位置データに基づいて、AR特別効果を表示するようにAR機器を制御し、AR特別効果を表示するプロセスにおいて、現在場面画像において目標実体対象が識別されていないことに応答して、AR特別効果の第2表示位置データを決定し、第2表示位置データに基づいて、AR特別効果の表示済み進捗に従ってAR特別効果を表示し続けるようにAR機器を制御するという命令を実行させる。
Corresponding to the display method in the augmented reality scene in FIG. 1, the embodiments of the present application further provide an electronic device 900. FIG. Referring to FIG. 9, FIG. 9 is a structural schematic diagram of an electronic device 900 according to an embodiment of the present application. The electronic device
A processor 91, a memory 92, and a bus 93, wherein machine readable instructions executable by the processor 91 are stored in the memory 92, and when the electronic device 900 operates, the processor 91 and the memory 92 are connected to the bus. 93 and executes the display method in the augmented reality scene of any one of the above embodiments when the machine readable instructions are executed by the processor 91. a memory 92 configured to store execution instructions; It includes an internal memory 921 and an external memory 922, where the internal memory 921 is also referred to as an internal memory, so as to temporarily store operation data in the processor 91 and data exchanged with the external memory 922 such as a hard disk. configured, processor 91 exchanges data with external memory 922 via internal memory 921, and when electronic device 900 operates, processor 91 and memory 92 communicate via bus 93 to processor 91. ,
Obtaining a current scene image captured by an augmented reality AR device, and determining the first display position data of the AR special effect matching the target entity object if the current scene image is identified to include the target entity object. , controlling the AR device to display the AR special effect based on the first display position data, in response to the target physical object not being identified in the current scene image in the process of displaying the AR special effect; , determine second display position data of the AR special effect, and cause execution of instructions to control the AR device to continue to display the AR special effect according to the displayed progress of the AR special effect based on the second display position data. .

本願の実施例は、コンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体に、コンピュータプログラムが記憶されており、該コンピュータプログラムがプロセッサにより実行される場合、上記方法の実施例に記載の拡張現実場面における表示方法を実行する。そのうち、該記憶媒体は、揮発性又は不揮発性コンピュータ可読記憶媒体であってもよい。 Embodiments of the present application further provide a computer-readable storage medium. A computer program is stored on the computer-readable storage medium and, when executed by a processor, performs the method of displaying in an augmented reality scene as described in the above method embodiments. Among them, the storage medium may be a volatile or non-volatile computer-readable storage medium.

本願の実施例は、コンピュータプログラムを更に提供する。コンピュータプログラムは、コンピュータ可読コードを含み、コンピュータ可読コードが電子機器において実行される場合、電子機器のプロセッサは、上記いずれか1つの実施例に記載の拡張現実場面における表示方法を実行する。 Embodiments of the present application further provide computer programs. The computer program includes computer readable code, and when the computer readable code is executed in the electronic device, the processor of the electronic device performs the method of displaying in an augmented reality scene as described in any one of the embodiments above.

本願の実施例は、コンピュータプログラム製品を更に提供する。該コンピュータプログラム製品にプログラムコードが含まれており、プログラムコードに含まれる命令は、上記方法の実施例に記載の拡張現実場面における表示方法を実行するように構成されてもよく、具体的に上記方法の実施例を参照してもよい。 Embodiments of the present application further provide a computer program product. The computer program product may include program code, instructions included in the program code may be configured to perform the method of displaying in an augmented reality scene as described in the method embodiments above, specifically Reference may be made to the method examples.

そのうち、上記コンピュータプログラム製品は、ハードウェア、ソフトウェア又はその組み合わせにより実現してもよい。いくつかの実施例において、前記コンピュータプログラム製品は、コンピュータ記憶媒体として具現化されてもよく、別のいくつかの実施例において、コンピュータプログラム製品は、例えば、ソフトウェア開発キット(Software Development Kit:SDK)等のようなソフトウェア製品として具現化されてもよい。 Among them, the computer program product may be realized by hardware, software or a combination thereof. In some embodiments, the computer program product may be embodied as a computer storage medium, and in some other embodiments, the computer program product is, for example, a Software Development Kit (SDK). It may be embodied as a software product such as.

本願の実施例において係る機器は、システム、方法及びコンピュータプログラム製品のうちの少なくとも1つであってもよい。コンピュータプログラム製品は、コンピュータ可読記憶媒体を備えてもよく、プロセッサに本願の各態様を実現させるためのコンピュータ可読プログラム命令がそれに記憶されている。 Apparatus according to embodiments of the present application may be at least one of a system, a method and a computer program product. A computer program product may comprise a computer readable storage medium having computer readable program instructions stored thereon for causing a processor to implement aspects of the present application.

コンピュータ可読記憶媒体は、命令実行装置に用いられる命令を保持又は記憶することができる有形装置であってもよい。コンピュータ可読記憶媒体は、例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置又は上記の任意の組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体の例(非網羅的なリスト)は、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(Random Access Memory:RAM)、読み出し専用メモリ(Read-Only Memory:ROM)、消去可能なプログラマブル読み出し専用メモリ(Electrical Programmable Read Only Memory:EPROM)又はフラッシュ、スタティックランダムアクセスメモリ(Static Random-Access Memory:SRAM)、ポータブルコンパクトディスク読み出し専用メモリ(Compact Disc Read-Only Memory:CD-ROM)、デジタル多目的ディスク(Digital Video Disc:DVD)、メモリスティック、フレキシブルディスク、命令が記憶されているパンチカード又は凹溝内における突起構造のような機械的符号化装置、及び上記任意の適切な組み合わせを含む。ここで用いられるコンピュータ可読記憶媒体は、電波もしくは他の自由に伝搬する電磁波、導波路もしくは他の伝送媒体を通って伝搬する電磁波(例えば、光ファイバケーブルを通過する光パルス)、または、電線を通して伝送される電気信号などの、一時的な信号それ自体であると解釈されるべきではない。 A computer-readable storage medium may be a tangible device capable of holding or storing instructions for use in an instruction-executing device. A computer-readable storage medium may be, for example, but not limited to, an electrical storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device, or any combination of the above. Examples of computer readable storage media (non-exhaustive list) include portable computer disks, hard disks, Random Access Memory (RAM), Read-Only Memory (ROM), erasable programmable read-only Memory (Electrical Programmable Read-Only Memory (EPROM) or Flash, Static Random-Access Memory (SRAM), Portable Compact Disc Read-Only Memory (CD-ROM), Digital Versatile Disc ( Digital Video Disc (DVD), memory sticks, floppy disks, punch cards on which instructions are stored or mechanical encoding devices such as protrusion structures in recesses, and any suitable combination of the above. Computer-readable storage media, as used herein, include radio waves or other freely propagating electromagnetic waves, electromagnetic waves propagating through waveguides or other transmission media (e.g., light pulses passing through fiber optic cables), or through electrical wires. It should not be construed as being a transitory signal per se, such as a transmitted electrical signal.

ここで説明されるコンピュータ可読プログラム命令を、コンピュータ可読記憶媒体から各コンピューティング/処理機器にダウンロードすることができるか、又は、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク及び/又は無線ネットワークのうちの少なくとも1つのようなネットワークを経由して外部コンピュータ又は外部記憶機器にダウンロードすることができる。ネットワークは、伝送用銅線ケーブル、光ファイバー伝送、無線伝送、ルータ、ファイアウォール、交換機、ゲートウェイコンピュータ及びエッジサーバのうちの少なくとも1つを含んでもよい。各コンピューティング/処理機器におけるネットワークインターフェースカード又はネットワークインタフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、該コンピュータ可読プログラム命令を転送し、各コンピューティング/処理機器におけるコンピュータ可読記憶媒体に記憶する。 The computer readable program instructions described herein can be downloaded from a computer readable storage medium to each computing/processing device or can be downloaded from at least one of the Internet, local area networks, wide area networks and/or wireless networks. It can be downloaded to an external computer or external storage device via a network such as one. The network may include at least one of copper transmission cables, fiber optic transmissions, wireless transmissions, routers, firewalls, switches, gateway computers and edge servers. A network interface card or network interface at each computing/processing device receives computer-readable program instructions from the network, transfers the computer-readable program instructions for storage on a computer-readable storage medium at each computing/processing device.

本願の操作を実行するためのコンピュータプログラム命令は、アセンブラ命令、命令セットアーキテクチャ(Industry Standard Architecture:ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は1つ又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はターゲットコードであってもよい。前記プログラミング言語は、Smalltalk、C++などのようなオブジェクト指向プログラミング言語と、「C」プログラミング言語又は類似したプログラミング言語などの従来の手続型プログラミング言語とを含む。コンピュータ可読プログラム命令は、ユーザコンピュータ上で完全に実行してもよいし、ユーザコンピュータ上で部分的に実行してもよいし、独立したソフトウェアパッケージとして実行してもよいし、ユーザコンピュータ上で部分的に実行してリモートコンピュータ上で部分的に実行してもよいし、又はリモートコンピュータ又はサーバ上で完全に実行してもよい。リモートコンピュータに係る場合に、リモートコンピュータは、ローカルエリアネットワーク(Local Area Network:LAN)やワイドエリアネットワーク(Wide Area Network:WAN)を含む任意の種類のネットワークを通じてユーザのコンピュータに接続するか、または、外部のコンピュータに接続することができる(例えばインターネットサービスプロバイダを用いてインターネットを通じて接続する)。いくつかの実施例において、コンピュータ可読プログラム命令の状態情報を利用して、例えばプログラマブル論理回路、FPGA又はプログラマブル論理アレイ(Programmable Logic Arrays:PLA)のような電子回路をカスタマイズする。該電子回路は、コンピュータ可読プログラム命令を実行することで、本願の各態様を実現させることができる。 Computer program instructions for performing the operations herein may be assembler instructions, Industry Standard Architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or one or more It may be source code or target code written in any combination of programming languages. The programming languages include object-oriented programming languages such as Smalltalk, C++, etc., and traditional procedural programming languages such as the "C" programming language or similar programming languages. The computer-readable program instructions may be executed entirely on the user computer, partially executed on the user computer, executed as a separate software package, or partially executed on the user computer. It may be executed locally and partially executed on a remote computer, or completely executed on a remote computer or server. When referring to a remote computer, the remote computer connects to the user's computer through any type of network, including a Local Area Network (LAN) or a Wide Area Network (WAN), or It can be connected to an external computer (eg, through the Internet using an Internet service provider). In some embodiments, state information in computer readable program instructions is used to customize electronic circuits, such as programmable logic circuits, FPGAs, or Programmable Logic Arrays (PLAs). The electronic circuitry may implement aspects of the present application by executing computer readable program instructions.

説明上の便宜及び簡素化を図るために、上記説明されたシステム及び装置の具体的な作動過程は、前記方法の実施例における対応した過程を参照することができることは、当業者にはっきり理解されるべきである。本発明で提供するいくつかの実施例で開示したシステム、装置及び方法は、他の方式によって実現できることを理解すべきである。以上に記載した装置の実施例はただ例示的なものであり、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。また例えば、複数のユニット又はコンポーネントを組み合わせてもよいし、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよいし、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、いくつかの通信インタフェース、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。 It is clearly understood by those skilled in the art that the specific working steps of the above-described systems and devices can refer to the corresponding steps in the method embodiments for convenience and simplification of description. should. It should be understood that the systems, devices and methods disclosed in some of the embodiments provided by the present invention can be implemented in other manners. The above-described embodiments of the apparatus are merely exemplary, for example, the division of the units is merely the division of logic functions, and other division schemes may be used in actual implementation. Also, for example, multiple units or components may be combined or incorporated into another system. Or some features may be ignored or not implemented. Also, the mutual couplings or direct couplings or communication connections shown or discussed may be indirect couplings or communication connections through some communication interface, device or unit, whether electrical, mechanical or Other forms are also possible.

分離部材として説明した前記ユニットは、物理的に別個のものであってもよいし、そうでなくてもよい。ユニットとして示された部材は、物理的ユニットであってもよいし、そうでなくてもよい。即ち、同一の位置に位置してもよいし、複数のネットワークユニットに分布してもよい。実際の需要に応じてそのうちの一部又は全てのユニットを選択して本実施例の方策の目的を実現することができる。 The units described as separate members may or may not be physically separate. Members shown as units may or may not be physical units. That is, they may be located at the same location or distributed over a plurality of network units. Some or all of them can be selected according to actual needs to achieve the purpose of the measures in this embodiment.

また、本願の各実施例における各機能ユニットは1つの処理ユニットに集積されてもよいし、各ユニットが物理的に別個のものとして存在してもよいし、2つ又は2つ以上のユニットが1つのユニットに集積されてもよい。 Also, each functional unit in each embodiment of the present application may be integrated into one processing unit, each unit may exist as a separate physical unit, or two or more units may be may be integrated in one unit.

前記機能はソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、プロセッサによる実行可能な不揮発性コンピュータ可読記憶媒体に記憶されてもよい。このような理解のもと、本願の技術的解決手段は、本質的に、又は、従来技術に対して貢献をもたらした部分又は該技術的解決手段の一部は、ソフトウェア製品の形式で具現化することができ、該コンピュータソフトウェア製品は、1つの記憶媒体に記憶してもよく、また、1台のコンピュータ機器(パソコン、サーバ、又はネットワーク機器など)に、本願の各実施例に記載の方法の全部又は一部のステップを実行させるための若干の命令を含む。上述した記憶媒体は、USBメモリ、リムーバブルハードディスク、ROM、RAM、磁気ディスク、又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含む。 The functionality may be implemented in the form of software functional units and stored in a non-volatile computer-readable storage medium executable by a processor when sold or used as a stand-alone product. Based on this understanding, the technical solution of the present application is essentially or the part that contributed to the prior art or part of the technical solution is embodied in the form of a software product. The computer software product may be stored in a single storage medium, and may be stored in a single computer device (such as a personal computer, server, or network device) to perform the methods described in each embodiment of the present application. contains some instructions for executing all or part of the steps of The storage media mentioned above include various media capable of storing program codes, such as USB memory, removable hard disk, ROM, RAM, magnetic disk, or optical disk.

最後に説明しておきたいこととして、上記実施例は本願の具体的な実施形態に過ぎず、本願の技術的解決手段を説明するためのものであり、これを限定するものではなく、本願の保護範囲はこれに制限されるものではない。前記実施例を参照しながら、本願を詳細に説明したが、本技術分野を周知するいかなる当業者であれば、本願で開示された技術的範囲内で、前記実施例に記載の技術的解決手段に対して修正を行うことができるか又は変更を容易に思いつくことができ、又は一部の技術的特徴に対して均等物による置換を行うこともでき、これらの修正、変更又は置換は、対応する技術的解決手段の本質を本願の実施例の技術的解決手段の精神及び範囲から離脱させるものではなく、本願の保護範囲内に含まれるものとすることは、理解すべきである。従って、本願の保護範囲は特許請求の範囲の保護範囲を基準とするべきである。 Finally, I would like to mention that the above examples are only specific embodiments of the present application, and are for the purpose of describing the technical solutions of the present application, not limiting them, and The scope of protection is not limited to this. Although the present application has been described in detail with reference to the above embodiments, any person skilled in the art who is familiar with the technical field can understand the technical solutions described in the above embodiments within the technical scope disclosed in the present application. Modifications can be made to or changes can be easily conceived, or some technical features can be replaced by equivalents, and these modifications, changes or replacements are It should be understood that the essence of the technical solution to be used is not departed from the spirit and scope of the technical solution in the embodiments of the present application, but shall fall within the protection scope of the present application. Therefore, the protection scope of the present application should be based on the protection scope of the claims.

本願の実施例は、拡張現実場面における表示方法、装置、機器、媒体及びプログラムを提供する。前記方法は、電子機器によって実行され、該表示方法は、AR機器によって撮られた現在場面画像を取得することと、前記現在場面画像に目標実体対象が含まれることが識別された場合、前記目標実体対象とマッチングするAR特別効果の第1表示位置データを決定し、前記第1表示位置データに基づいて、前記AR特別効果を表示するように前記AR機器を制御することと、前記AR特別効果を表示するプロセスにおいて、前記現在場面画像において前記目標実体対象が識別されていないことに応答して、前記AR特別効果の第2表示位置データを決定し、前記第2表示位置データに基づいて、前記AR特別効果の表示済み進捗に従って前記AR特別効果を表示し続けるように前記AR機器を制御することと、を含む。 Embodiments of the present application provide a display method, apparatus, apparatus, medium and program in an augmented reality scene. The method is performed by an electronic device, and the display method includes obtaining a current scene image taken by an AR device; determining first display position data of an AR special effect that matches a physical object, and controlling the AR device to display the AR special effect based on the first display position data; and the AR special effect. in the process of displaying, in response to the target physical object not being identified in the current scene image, determining second display position data for the AR special effect; based on the second display position data; controlling the AR device to keep displaying the AR special effect according to the displayed progress of the AR special effect.

Claims (14)

電子機器によって実行される拡張現実場面における表示方法であって、
拡張現実(AR)機器によって撮られた現在場面画像を取得することと、
前記現在場面画像に目標実体対象が含まれることが識別された場合、前記目標実体対象とマッチングするAR特別効果の第1表示位置データを決定し、前記第1表示位置データに基づいて、前記AR特別効果を表示するように前記AR機器を制御することと、
前記AR特別効果を表示するプロセスにおいて、前記現在場面画像において前記目標実体対象が識別されていないことに応答して、前記AR特別効果の第2表示位置データを決定し、前記第2表示位置データに基づいて、前記AR特別効果の表示済み進捗に従って前記AR特別効果を表示し続けるように前記AR機器を制御することと、を含む、拡張現実場面における表示方法。
A display method in an augmented reality scene performed by an electronic device, comprising:
obtaining a current scene image taken by an augmented reality (AR) device;
determining first display position data of an AR special effect that matches the target physical object if the current scene image includes a target physical object; and based on the first display position data, the AR controlling the AR device to display a special effect;
In the process of displaying the AR special effect, determining second display position data of the AR special effect in response to the target physical object not being identified in the current scene image; controlling the AR device to keep displaying the AR special effect according to the displayed progress of the AR special effect based on.
前記現在場面画像に目標実体対象が含まれることが識別された場合、前記目標実体対象とマッチングするAR特別効果の第1表示位置データを決定する前に、
前記現在場面画像に対して特徴点抽出を行い、前記現在場面画像に含まれる複数の特徴点のそれぞれに対応する特徴情報を得て、前記複数の特徴点は、前記現在場面画像における目標検出領域に位置し、
前記複数の特徴点のそれぞれに対応する特徴情報と予め記憶された前記目標実体対象に含まれる複数の特徴点のそれぞれに対応する特徴情報に基づいて比較を行い、前記現在場面画像に前記目標実体対象が含まれるかどうかを決定するという方式で、
前記現在場面画像に前記目標実体対象が含まれるかどうかを識別することを特徴とする
請求項1に記載の方法。
If the current scene image is identified to include a target physical object, before determining first display position data for an AR special effect that matches the target physical object;
performing feature point extraction on the current scene image to obtain feature information corresponding to each of a plurality of feature points included in the current scene image, wherein the plurality of feature points is a target detection region in the current scene image located in
A comparison is performed based on feature information corresponding to each of the plurality of feature points and feature information corresponding to each of a plurality of feature points included in the target entity object stored in advance, and the current scene image is compared with the target entity object. In a manner that determines whether an object is included,
2. The method of claim 1, further comprising identifying whether the current scene image includes the target entity object.
前記目標実体対象とマッチングするAR特別効果の第1表示位置データを決定することは、
前記現在場面画像における前記目標実体対象の位置情報を取得することと、
前記位置情報に基づいて、予め確立されたワールド座標系における前記目標実体対象の位置データを決定し、前記現在場面画像に基づいて、前記ワールド座標系における前記AR機器の位置データを決定することと、
前記ワールド座標系における前記目標実体対象の位置データと前記ワールド座標系における前記AR機器の位置データに基づいて、前記第1表示位置データを決定することと、を含むことを特徴とする
請求項1又は2に記載の方法。
Determining first display position data for an AR special effect that matches the target physical object includes:
obtaining location information of the target entity object in the current scene image;
determining position data of the target entity object in a pre-established world coordinate system based on the position information, and determining position data of the AR device in the world coordinate system based on the current scene image; ,
determining the first display position data based on position data of the target physical object in the world coordinate system and position data of the AR device in the world coordinate system. Or the method of 2.
前記位置情報に基づいて、予め確立されたワールド座標系における前記目標実体対象の位置データを決定することは、
前記位置情報、画像座標系とAR機器に対応するカメラ座標系との変換関係、及びAR機器に対応するカメラ座標系と前記ワールド座標系との変換関係に基づいて、前記ワールド座標系における前記目標実体対象の位置データを決定することを含み、
前記ワールド座標系における前記目標実体対象の位置データと前記ワールド座標系における前記AR機器の位置データに基づいて、前記第1表示位置データを決定することは、
前記ワールド座標系における前記目標実体対象の位置データに基づいて、前記ワールド座標系における前記AR特別効果の位置データを決定することと、
前記ワールド座標系における前記AR特別効果の位置データ及び前記ワールド座標系における前記AR機器の位置データに基づいて、前記第1表示位置データを決定することと、を含むことを特徴とする
請求項3に記載の方法。
Determining position data of the target physical object in a pre-established world coordinate system based on the position information includes:
The target in the world coordinate system based on the position information, the transformation relationship between the image coordinate system and the camera coordinate system corresponding to the AR device, and the transformation relationship between the camera coordinate system corresponding to the AR device and the world coordinate system determining location data of the entity object;
Determining the first display position data based on position data of the target entity object in the world coordinate system and position data of the AR device in the world coordinate system includes:
determining position data of the AR special effect in the world coordinate system based on position data of the target physical object in the world coordinate system;
and determining the first display position data based on position data of the AR special effect in the world coordinate system and position data of the AR device in the world coordinate system. The method described in .
前記AR特別効果の第2表示位置データを決定することは、
前記現在場面画像、過去場面画像及び前記過去場面画像を撮る時の予め確立されたワールド座標系における前記AR機器と前記目標実体対象との相対的位置データに基づいて、現在場面画像を撮る時の前記AR機器と前記目標実体対象との相対的位置データを決定することと、
前記相対的位置データに基づいて、前記AR特別効果の第2表示位置データを決定することと、を含むことを特徴とする
請求項1~4のうちいずれか一項に記載の方法。
Determining the second display position data of the AR special effect includes:
When taking a current scene image, based on the current scene image, the past scene image, and the relative position data of the AR device and the target entity object in a pre-established world coordinate system when taking the past scene image. determining relative position data between the AR device and the target physical object;
determining second display position data for the AR special effect based on the relative position data.
前記AR特別効果はAR画面と前記AR画面とマッチングするオーディオ内容とを含み、前記第2表示位置データに基づいて、前記AR特別効果の表示済み進捗に従って前記AR特別効果を表示し続けるように前記AR機器を制御することは、
前記現在場面画像において前記目標実体対象が識別されておらず、且つ前記AR画面の表示が完了していない場合、前記第2表示位置データに基づいて、前記AR画面の表示済み進捗に従って、表示されていない前記AR画面とマッチングするオーディオ内容を表示し続けるように前記AR機器を制御することを含むことを特徴とする
請求項1~5のうちいずれか一項に記載の方法。
The AR special effect includes an AR screen and audio content matching the AR screen, and based on the second display position data, the AR special effect continues to be displayed according to the displayed progress of the AR special effect. Controlling an AR device is
If the target entity object is not identified in the current scene image and the display of the AR screen is not completed, it is displayed according to the displayed progress of the AR screen based on the second display position data. 6. The method of any one of claims 1-5, comprising controlling the AR device to continue displaying audio content matching the AR screen that is not displayed.
前記AR特別効果を表示するプロセスにおいて、前記現在場面画像において前記目標実体対象が識別されていないことに応答して、前記AR特別効果の第2表示位置データを決定し、前記第2表示位置データに基づいて、前記AR特別効果の表示済み進捗に従って前記AR特別効果を表示し続けるように前記AR機器を制御した後、前記方法は、
前記現在場面画像において前記目標実体対象が再識別された場合、改めて、決定された前記第1表示位置データに基づいて、前記AR特別効果の表示済み進捗に従って前記AR特別効果を表示し続けるように前記AR機器を制御することを更に含むことを特徴とする
請求項1~6のうちいずれか一項に記載の方法。
In the process of displaying the AR special effect, determining second display position data of the AR special effect in response to the target physical object not being identified in the current scene image; after controlling the AR device to keep displaying the AR special effect according to the displayed progress of the AR special effect based on
When the target entity object is re-identified in the current scene image, the AR special effect continues to be displayed according to the displayed progress of the AR special effect based on the determined first display position data. A method according to any preceding claim, further comprising controlling the AR device.
前記AR特別効果を表示するように前記AR機器を制御する前に、前記方法は、
前記目標実体対象とマッチングするAR特別効果を取得することであって、前記AR特別効果に複数の仮想対象のそれぞれに対応する特別効果データが含まれる、ことを更に含み、
前記AR特別効果を表示するように前記AR機器を制御することは、
前記複数の仮想対象のそれぞれに対応する特別効果データの表示順序に従って、前記複数の仮想対象のそれぞれに対応する特別効果データを順次表示するように前記AR機器を制御することを含むことを特徴とする
請求項1~7のうちいずれか一項に記載の方法。
Before controlling the AR device to display the AR special effect, the method includes:
obtaining an AR special effect that matches the target physical object, wherein the AR special effect includes special effect data corresponding to each of a plurality of virtual objects;
Controlling the AR device to display the AR special effect includes:
and controlling the AR device to sequentially display the special effect data corresponding to each of the plurality of virtual objects according to the display order of the special effect data corresponding to each of the plurality of virtual objects. A method according to any one of claims 1-7.
前記目標実体対象はカレンダーを含み、前記AR特別効果を表示するように前記AR機器を制御する前に、前記方法は、
前記カレンダーとマッチングするAR特別効果を取得することであって、前記AR特別効果に前記カレンダーの表紙内容に基づいて生成された第1特別効果データが含まれる、ことを更に含み、
前記AR特別効果を表示するように前記AR機器を制御することは、
前記カレンダーの表紙内容が識別された場合、前記第1特別効果データに基づいて、前記カレンダーの表紙内容とマッチングする前記AR特別効果を表示するように前記AR機器を制御することを含むことを特徴とする
請求項1~8のうちいずれか一項に記載の方法。
The target physical object includes a calendar, and before controlling the AR device to display the AR special effect, the method includes:
further comprising obtaining an AR special effect that matches the calendar, wherein the AR special effect includes first special effect data generated based on cover content of the calendar;
Controlling the AR device to display the AR special effect includes:
and controlling the AR device to display the AR special effect matching the calendar cover content based on the first special effect data when the calendar cover content is identified. The method according to any one of claims 1 to 8.
前記目標実体対象はカレンダーを含み、前記AR特別効果を表示するように前記AR機器を制御する前に、前記方法は、
前記カレンダーとマッチングするAR特別効果を取得することであって、前記AR特別効果に、前記カレンダーにおける少なくとも1つの所定の日付の過去の同一時期でのマークイベントに基づいて生成された第2特別効果データが含まれる、ことを更に含み、
前記AR特別効果を表示するように前記AR機器を制御することは、
前記カレンダーにおける少なくとも1つの所定の日付が識別された場合、前記第2特別効果データに基づいて、前記カレンダーにおける少なくとも1つの所定の日付とマッチングする前記AR特別効果を表示するように前記AR機器を制御することを含むことを特徴とする
請求項1~9のうちいずれか一項に記載の方法。
The target physical object includes a calendar, and before controlling the AR device to display the AR special effect, the method includes:
obtaining an AR special effect that matches the calendar, wherein the AR special effect is a second special effect generated based on mark events at the same time in the past on at least one predetermined date in the calendar. further comprising comprising the data;
Controlling the AR device to display the AR special effect includes:
If at least one predetermined date in the calendar is identified, the AR device is configured to display the AR special effect matching at least one predetermined date in the calendar based on the second special effect data. A method according to any one of claims 1 to 9, characterized in that it comprises controlling.
拡張現実場面における表示装置であって、
拡張現実(AR)機器によって撮られた現在場面画像を取得するように構成される取得モジュールと、
前記現在場面画像に目標実体対象が含まれることが識別された場合、前記目標実体対象とマッチングするAR特別効果の第1表示位置データを決定し、前記第1表示位置データに基づいて、前記AR特別効果を表示するように前記AR機器を制御するように構成される第1制御モジュールと、
前記AR特別効果を表示するプロセスにおいて、前記現在場面画像において前記目標実体対象が識別されていないことに応答して、前記AR特別効果の第2表示位置データを決定し、前記第2表示位置データに基づいて、前記AR特別効果の表示済み進捗に従って前記AR特別効果を表示し続けるように前記AR機器を制御するように構成される第2制御モジュールと、を備える、拡張現実場面における表示装置。
A display device in an augmented reality scene,
an acquisition module configured to acquire a current scene image taken by an augmented reality (AR) device;
determining first display position data of an AR special effect that matches the target physical object if the current scene image includes a target physical object; and based on the first display position data, the AR a first control module configured to control the AR device to display a special effect;
In the process of displaying the AR special effect, determining second display position data of the AR special effect in response to the target physical object not being identified in the current scene image; a second control module configured to control the AR device to keep displaying the AR special effect according to the displayed progress of the AR special effect based on.
電子機器であって、前記電子機器は、プロセッサと、メモリと、バスと、を備え、前記メモリに、前記プロセッサによる実行可能な機器可読命令が記憶されており、電子機器が動作する場合、前記プロセッサと前記メモリとは、バスを介して通信し、前記機器可読命令が前記プロセッサにより実行される場合、請求項1~10のうちいずれか一項に記載の拡張現実場面における表示方法を実行する、電子機器。 An electronic device, the electronic device comprising a processor, a memory, and a bus, wherein the memory stores machine-readable instructions executable by the processor, and when the electronic device operates, the The processor and the memory communicate via a bus and perform the display method in an augmented reality scene according to any one of claims 1 to 10 when the machine readable instructions are executed by the processor. ,Electronics. コンピュータ可読記憶媒体であって、該コンピュータ可読記憶媒体に、コンピュータプログラムが記憶されており、該コンピュータプログラムがプロセッサに、請求項1~10のうちいずれか一項に記載の拡張現実場面における表示方法を実行させる、コンピュータ可読記憶媒体。 A computer readable storage medium, on which a computer program is stored, said computer program being stored in a processor, the display method in an augmented reality scene according to any one of claims 1 to 10. computer readable storage medium for executing コンピュータプログラムであって、前記コンピュータプログラムは、電子機器のプロセッサに、請求項1~10のうちいずれか一項に記載の拡張現実場面における表示方法を実行させる、コンピュータプログラム。 A computer program, said computer program causing a processor of an electronic device to execute the display method in an augmented reality scene according to any one of claims 1 to 10.
JP2022530223A 2020-11-06 2021-06-24 Display method, device, device, medium and program in augmented reality scene Withdrawn JP2023504608A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011232913.8A CN112348968B (en) 2020-11-06 2020-11-06 Display method and device in augmented reality scene, electronic equipment and storage medium
CN202011232913.8 2020-11-06
PCT/CN2021/102206 WO2022095468A1 (en) 2020-11-06 2021-06-24 Display method and apparatus in augmented reality scene, device, medium, and program

Publications (1)

Publication Number Publication Date
JP2023504608A true JP2023504608A (en) 2023-02-06

Family

ID=74428956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022530223A Withdrawn JP2023504608A (en) 2020-11-06 2021-06-24 Display method, device, device, medium and program in augmented reality scene

Country Status (3)

Country Link
JP (1) JP2023504608A (en)
CN (1) CN112348968B (en)
WO (1) WO2022095468A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348968B (en) * 2020-11-06 2023-04-25 北京市商汤科技开发有限公司 Display method and device in augmented reality scene, electronic equipment and storage medium
CN113240819A (en) * 2021-05-24 2021-08-10 中国农业银行股份有限公司 Wearing effect determination method and device and electronic equipment
CN113359986B (en) * 2021-06-03 2023-06-20 北京市商汤科技开发有限公司 Augmented reality data display method and device, electronic equipment and storage medium
CN113867875A (en) * 2021-09-30 2021-12-31 北京市商汤科技开发有限公司 Method, device, equipment and storage medium for editing and displaying marked object
CN114327059A (en) * 2021-12-24 2022-04-12 北京百度网讯科技有限公司 Gesture processing method, device, equipment and storage medium
CN116663329B (en) * 2023-07-26 2024-03-29 安徽深信科创信息技术有限公司 Automatic driving simulation test scene generation method, device, equipment and storage medium

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5145444B2 (en) * 2011-06-27 2013-02-20 株式会社コナミデジタルエンタテインメント Image processing apparatus, image processing apparatus control method, and program
US20170092001A1 (en) * 2015-09-25 2017-03-30 Intel Corporation Augmented reality with off-screen motion sensing
US10748342B2 (en) * 2018-06-19 2020-08-18 Google Llc Interaction system for augmented reality objects
CN110180167B (en) * 2019-06-13 2022-08-09 张洋 Method for tracking mobile terminal by intelligent toy in augmented reality
CN110475150B (en) * 2019-09-11 2021-10-08 广州方硅信息技术有限公司 Rendering method and device for special effect of virtual gift and live broadcast system
CN110716645A (en) * 2019-10-15 2020-01-21 北京市商汤科技开发有限公司 Augmented reality data presentation method and device, electronic equipment and storage medium
CN111640169A (en) * 2020-06-08 2020-09-08 上海商汤智能科技有限公司 Historical event presenting method and device, electronic equipment and storage medium
CN111667588A (en) * 2020-06-12 2020-09-15 上海商汤智能科技有限公司 Person image processing method, person image processing device, AR device and storage medium
CN112348968B (en) * 2020-11-06 2023-04-25 北京市商汤科技开发有限公司 Display method and device in augmented reality scene, electronic equipment and storage medium

Also Published As

Publication number Publication date
CN112348968A (en) 2021-02-09
CN112348968B (en) 2023-04-25
WO2022095468A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
WO2022095467A1 (en) Display method and apparatus in augmented reality scene, device, medium and program
JP2023504608A (en) Display method, device, device, medium and program in augmented reality scene
KR102417645B1 (en) AR scene image processing method, device, electronic device and storage medium
US9654734B1 (en) Virtual conference room
WO2017092303A1 (en) Virtual reality scenario model establishing method and device
US20120162384A1 (en) Three-Dimensional Collaboration
CN111694430A (en) AR scene picture presentation method and device, electronic equipment and storage medium
JP2022505998A (en) Augmented reality data presentation methods, devices, electronic devices and storage media
CN111696215A (en) Image processing method, device and equipment
JP7150894B2 (en) AR scene image processing method and device, electronic device and storage medium
JP2022545598A (en) Virtual object adjustment method, device, electronic device, computer storage medium and program
JP2022507502A (en) Augmented Reality (AR) Imprint Method and System
CN111651057A (en) Data display method and device, electronic equipment and storage medium
WO2023051356A1 (en) Virtual object display method and apparatus, and electronic device and storage medium
CN112882576A (en) AR interaction method and device, electronic equipment and storage medium
CN113470190A (en) Scene display method and device, equipment, vehicle and computer readable storage medium
CN113178017A (en) AR data display method and device, electronic equipment and storage medium
TW201126451A (en) Augmented-reality system having initial orientation in space and time and method
CN112604279A (en) Special effect display method and device
US10902554B2 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
KR102176805B1 (en) System and method for providing virtual reality contents indicated view direction
US11915371B2 (en) Method and apparatus of constructing chess playing model
JP7214926B1 (en) Image processing method, device, electronic device and computer-readable storage medium
CN109934930A (en) A kind of real Enhancement Method and system based on user's elaborate position
JP2023542598A (en) Character display methods, devices, electronic devices, and storage media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220524

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20230113