CN113262478B - 增强现实处理方法及装置、存储介质和电子设备 - Google Patents

增强现实处理方法及装置、存储介质和电子设备 Download PDF

Info

Publication number
CN113262478B
CN113262478B CN202010096940.0A CN202010096940A CN113262478B CN 113262478 B CN113262478 B CN 113262478B CN 202010096940 A CN202010096940 A CN 202010096940A CN 113262478 B CN113262478 B CN 113262478B
Authority
CN
China
Prior art keywords
augmented reality
equipment
information
virtual game
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010096940.0A
Other languages
English (en)
Other versions
CN113262478A (zh
Inventor
彭冬炜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN202010096940.0A priority Critical patent/CN113262478B/zh
Publication of CN113262478A publication Critical patent/CN113262478A/zh
Application granted granted Critical
Publication of CN113262478B publication Critical patent/CN113262478B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开提供了一种增强现实处理方法、增强现实处理装置、计算机可读存储介质和电子设备,涉及增强现实技术领域。该增强现实处理方法包括:获取第一设备在真实场景中的位置信息和朝向信息;如果位置信息和朝向信息与增强现实游戏的设备配置要求匹配,则确定与位置信息和朝向信息对应的虚拟游戏对象;将虚拟游戏对象与第一设备绑定,并在真实场景中配置虚拟游戏对象。本公开可以在保护用户隐私的情况下提高虚拟游戏对象分配的准确度。

Description

增强现实处理方法及装置、存储介质和电子设备
技术领域
本公开涉及增强现实技术领域,具体而言,涉及一种增强现实处理方法、增强现实处理装置、计算机可读存储介质和电子设备。
背景技术
增强现实(Augmented Reality,AR)是一种将虚拟信息与真实世界融合的技术。近年来,增强现实技术的应用已延伸至教育、医疗、游戏、物联网、智能制造等众多领域。
在增强现实游戏中,为了提高游戏的参与感和趣味性,可以为用户分配虚拟游戏对象。目前,通常利用场景及用户识别的方式为用户分配虚拟游戏对象。
然而,一方面,场景及用户的识别受环境影响较大,导致识别的准确度较低,也就造成分配虚拟游戏对象的准确度较低;另一方面,由于涉及到用户识别,可能存在触及用户隐私的问题。
发明内容
本公开提供一种增强现实处理方法、增强现实处理装置、计算机可读存储介质和电子设备,进而至少在一定程度上克服分配虚拟游戏对象准确度较低且可能会侵犯用户隐私的问题。
根据本公开的第一方面,提供了一种增强现实处理方法,应用于至少第一设备参与的增强现实游戏中,该增强现实处理方法包括:获取第一设备在真实场景中的位置信息和朝向信息;如果位置信息和朝向信息与增强现实游戏的设备配置要求匹配,则确定与位置信息和朝向信息对应的虚拟游戏对象;将虚拟游戏对象与第一设备绑定,并在真实场景中配置虚拟游戏对象。
根据本公开的第二方面,提供了一种增强现实处理装置,应用于至少第一设备参与的增强现实游戏中,该增强现实处理装置包括:信息获取模块,用于获取第一设备在真实场景中的位置信息和朝向信息;虚拟游戏对象确定模块,用于如果位置信息和朝向信息与增强现实游戏的设备配置要求匹配,则确定与位置信息和朝向信息对应的虚拟游戏对象;虚拟游戏对象处理模块,用于将虚拟游戏对象与第一设备绑定,并在真实场景中配置虚拟游戏对象。
根据本公开的第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的增强现实处理方法方法。
根据本公开的第四方面,提供了一种电子设备,包括处理器;存储器,用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得所述处理器实现上述的增强现实处理方法方法。
在本公开的一些实施例所提供的技术方案中,在第一设备的位置信息和朝向信息与增强现实游戏的设备配置要求匹配的情况下,为第一设备分配与该位置信息和朝向信息对应的虚拟游戏对象,并将该虚拟游戏对象与第一设备绑定,在真实场景中配置该虚拟游戏对象。一方面,相比于一些技术中利用场景和用户识别的方式来匹配虚拟游戏对象,本公开示例性实施方式利用位置信息和朝向信息来分配虚拟游戏对象,可以避免环境因素的干扰,提高了虚拟游戏对象分配的准确度;另一方面,本公开方案由于不涉及采集用户生物特征的过程,因此,可以较好地保护用户隐私;再一方面,由于增强现实游戏所涉及的设备本身会执行例如场景扫描、关键帧匹配等重定位操作,也就是说,会得到与设备位置信息和朝向信息相关的参数,本公开的方案可以直接利用这些参数实现为设备分配虚拟游戏对象的过程,不会造成过多的开发负担,实施简单;又一方面,通过第一设备的位置和朝向与游戏的设备配置要求匹配,也就是说,规定了游戏对应的位置和朝向,用户移动第一设备到指定位置并调整朝向,即可实现分配虚拟游戏对象的效果,这个过程可以提高用户的游戏仪式感和参与感。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本公开实施例的增强现实处理方法或增强现实处理装置的示例性系统架构的示意图;
图2示出了适于用来实现本公开实施例的电子设备的结构示意图;
图3示意性示出了根据本公开的示例性实施方式的增强现实处理方法的流程图;
图4示出了根据本公开的一个实施例的第一设备的位置和朝向与设备配置要求匹配的示意图;
图5示出了根据本公开的另一个实施例的第一设备的位置和朝向与设备配置要求匹配的示意图;
图6示出了根据本公开的一个实施例的引导用户前往预定位置的界面图;
图7示意性示出了根据本公开的示例性实施方式的增强现实处理装置的方框图;
图8示意性示出了根据本公开的另一示例性实施方式的增强现实处理装置的方框图;
图9示意性示出了根据本公开的又一示例性实施方式的增强现实处理装置的方框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。另外,下面所有的术语“第一”、“第二”仅是为了区分的目的,不应作为本公开内容的限制。
图1示出了可以应用本公开实施例的增强现实处理方法或增强现实处理装置的示例性系统架构的示意图。
如图1所示,系统架构可以包括第一设备11和云端10。
第一设备11通常可以是执行重定位的设备,是增强现实游戏的参与端。第一设备11上可以集成有实现SLAM(Simultaneous Localization And Mapping,即时定位与地图构建)的模块,并可以安装并运行增强现实游戏的应用程序。本公开对第一设备11的类型不做限制,可以是手机、平板电脑以及例如AR眼镜、AR头盔、智能手表等智能可穿戴设备。又例如,第一设备11还可以是AR头盔与游戏手柄的组合,来实现体感式的增强现实游戏。
云端10可以存储建图设备在建图过程中生成的信息,以便第一设备11进行重定位。在进行增强现实游戏的过程中,云端10执行增强现实游戏的交互数据处理过程,也就是说,第一设备11生成的游戏数据可以通过云端10进行处理并反馈。另外,在本公开的一些实施例中,云端10还用于提供增强现实游戏的设备配置要求,以便为第一设备11分配虚拟游戏对象,并响应第一设备11的空间状态变化对虚拟游戏对象的技能进行控制。
在如图1所示有云端10参与处理的实施例中,第一设备11可以确定其在真实场景中的位置信息和朝向信息,并将位置信息和朝向信息发送给云端10。在云端10确定出接收到的位置信息和朝向信息与增强现实游戏的设备配置要求匹配的情况下,云端10可以确定出与该位置信息和朝向信息对应的虚拟游戏对象,将该虚拟游戏对象与第一设备11绑定,并且可以在真实场景中配置虚拟游戏对象。本领域技术人员容易理解的是,本公开中在真实场景中配置虚拟游戏对象指的是,云端10将虚拟游戏对象的信息发送给游戏参与设备(如第一设备11),以便用户可以借助于该游戏参与设备在真实场景中看到虚拟游戏对象。
如图1所示,系统架构还可以包括第二设备12。也就是说,本公开的游戏可以是多人AR游戏。在这种情况下,第一设备11在真实场景中的位置信息和朝向信息除可以表征绝对坐标系下的位置和朝向外,还可以是相对于第二设备12的位置信息和朝向信息。与第一设备11类似的,针对第二设备12,在第二设备12的位置信息和朝向信息满足要求时,云端10也可以为第二设备12分配虚拟游戏对象,其中,分配给第一设备11的虚拟游戏对象与分配给第二设备12的虚拟游戏对象可以是类型相同的虚拟游戏对象,也可以是基于二者位置和朝向的不同而分配的不同类型的虚拟游戏对象。
应当理解的是,本公开参与增强现实游戏的设备除第一设备11和第二设备12外,还可以包括其他设备,本公开对参与游戏的设备数量不做限制。
在下面的描述中,以云端执行增强现实处理方法的步骤为例对本公开核心构思进行说明。然而,应当注意的是,在实现本公开核心构思的过程中,可以没有云端的参与。也就是说,第一设备自身可以执行本公开增强现实处理的过程。在这种情况下,第一设备可以将其位置信息和朝向信息与存储的游戏设备配置要求进行比对,如果匹配,则调取对应的虚拟游戏对象的信息,实现虚拟游戏对象与设备的绑定,第一设备的显示界面上可以呈现出虚拟游戏对象。
另外,针对多人游戏的场景,在没有云端参与处理过程的情况下,第一设备11和包括第二设备12在内的其他设备可以进行数据交互,为各自分配虚拟游戏对象,并执行游戏操作。
图2示出了适于用来实现本公开示例性实施方式的一种电子设备的示意图,也就是说,第一设备可以被配置为例如图2所示的设备。需要说明的是,图2示出的电子设备仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
本公开的电子设备至少包括处理器和存储器,存储器用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得处理器可以实现本公开示例性实施方式的增强现实处理方法。
具体的,如图2所示,电子设备200可以包括:处理器210、内部存储器221、外部存储器接口222、通用串行总线(Universal Serial Bus,USB)接口230、充电管理模块240、电源管理模块241、电池242、天线1、天线2、移动通信模块250、无线通信模块260、音频模块270、扬声器271、受话器272、麦克风273、耳机接口274、传感器模块280、显示屏290、摄像模组291、指示器292、马达293、按键294以及用户标识模块(Subscriber IdentificationModule,SIM)卡接口295等。其中传感器模块280可以包括深度传感器2801、压力传感器2802、陀螺仪传感器2803、气压传感器2804、磁传感器2805、加速度传感器2806、距离传感器2807、接近光传感器2808、指纹传感器2809、温度传感器2810、触摸传感器2811、环境光传感器2812及骨传导传感器2813等。
可以理解的是,本申请实施例示意的结构并不构成对电子设备200的具体限定。在本申请另一些实施例中,电子设备200可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或软件和硬件的组合实现。
处理器210可以包括一个或多个处理单元,例如:处理器210可以包括应用处理器(Application Processor,AP)、调制解调处理器、图形处理器(Graphics ProcessingUnit,GPU)、图像信号处理器(Image Signal Processor,ISP)、控制器、视频编解码器、数字信号处理器(Digital Signal Processor,DSP)、基带处理器和/或神经网络处理器(Neural-etwork Processing Unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。另外,处理器210中还可以设置存储器,用于存储指令和数据。
USB接口230是符合USB标准规范的接口,具体可以是MiniUSB接口,MicroUSB接口,USBTypeC接口等。USB接口230可以用于连接充电器为电子设备200充电,也可以用于电子设备200与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
充电管理模块240用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。电源管理模块241用于连接电池242、充电管理模块240与处理器210。电源管理模块241接收电池242和/或充电管理模块240的输入,为处理器210、内部存储器221、显示屏290、摄像模组291和无线通信模块260等供电。
电子设备200的无线通信功能可以通过天线1、天线2、移动通信模块250、无线通信模块260、调制解调处理器以及基带处理器等实现。
移动通信模块250可以提供应用在电子设备200上的包括2G/3G/4G/5G等无线通信的解决方案。
无线通信模块260可以提供应用在电子设备200上的包括无线局域网(WirelessLocal Area Networks,WLAN)(如无线保真(Wireless Fidelity,Wi-Fi)网络)、蓝牙(Bluetooth,BT)、全球导航卫星系统(Global Navigation Satellite System,GNSS)、调频(Frequency Modulation,FM)、近距离无线通信技术(Near Field Communication,NFC)、红外技术(Infrared,IR)等无线通信的解决方案。
电子设备200通过GPU、显示屏290及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏290和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器210可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
电子设备200可以通过ISP、摄像模组291、视频编解码器、GPU、显示屏290及应用处理器等实现拍摄功能。在一些实施例中,电子设备200可以包括1个或N个摄像模组291,N为大于1的正整数,若电子设备200包括N个摄像头,N个摄像头中有一个是主摄像头。
内部存储器221可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器221可以包括存储程序区和存储数据区。外部存储器接口222可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备200的存储能力。
电子设备200可以通过音频模块270、扬声器271、受话器272、麦克风273、耳机接口274及应用处理器等实现音频功能。例如音乐播放、录音等。
音频模块270用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块270还可以用于对音频信号编码和解码。在一些实施例中,音频模块270可以设置于处理器210中,或将音频模块270的部分功能模块设置于处理器210中。
扬声器271,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备200可以通过扬声器271收听音乐,或收听免提通话。受话器272,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备200接听电话或语音信息时,可以通过将受话器272靠近人耳接听语音。麦克风273,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风273发声,将声音信号输入到麦克风273。电子设备200可以设置至少一个麦克风273。耳机接口274用于连接有线耳机。
针对电子设备200包括的传感器,深度传感器2801用于获取景物的深度信息。压力传感器2802用于感受压力信号,可以将压力信号转换成电信号。陀螺仪传感器2803可以用于确定电子设备200的运动姿态。气压传感器2804用于测量气压。磁传感器2805包括霍尔传感器。电子设备200可以利用磁传感器2805检测翻盖皮套的开合。加速度传感器2806可检测电子设备200在各个方向上(一般为三轴)加速度的大小。距离传感器2807用于测量距离。接近光传感器2808可以包括例如发光二极管(LED)和光检测器,例如光电二极管。指纹传感器2809用于采集指纹。温度传感器2810用于检测温度。触摸传感器2811可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏290提供与触摸操作相关的视觉输出。环境光传感器2812用于感知环境光亮度。骨传导传感器2813可以获取振动信号。
按键294包括开机键,音量键等。按键294可以是机械按键。也可以是触摸式按键。马达293可以产生振动提示。马达293可以用于来电振动提示,也可以用于触摸振动反馈。指示器292可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。SIM卡接口295用于连接SIM卡。电子设备200通过SIM卡和网络交互,实现通话以及数据通信等功能。
本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读存储介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
图3示意性示出了本公开的示例性实施方式的增强现实处理方法的流程图,该增强现实处理方法可以应用于至少第一设备参与的增强现实游戏中。参考图3,所述增强现实处理方法可以包括以下步骤:
S32.获取第一设备在真实场景中的位置信息和朝向信息。
根据本公开的一些实施例,第一设备在真实场景中的位置信息和朝向信息可以是第一设备在绝对坐标系下的位置信息和朝向信息。
在这种情况下,一方面,第一设备可以基于其配备的定位模块确定出位置信息,该定位模块可以是基于GPS(Global Positioning System,全球定位系统)而构建出的模块。在一些室内场景,GPS信号弱,定位模块还可以是例如基于WiFi定位、蓝牙定位的模块,本公开对此不做限制。另一方面,第一设备可以基于其配备的方向传感器确定出朝向信息,该方向传感器例如包括电子指南针(或称电子罗盘)等。
在多人AR的场景下,参与游戏的设备包括第一设备和至少一个第二设备。第一设备在真实场景中的位置信息和朝向信息除可以表征绝对坐标系下的位置和朝向外,还可以被配置为相对于其他设备的位置信息和朝向信息。
也就是说,在本公开的另一些实施例中,第一设备可以确定出其相对于至少一个第二设备的位置信息和朝向信息,作为第一设备在真实场景下的位置信息和朝向信息。其中,在只有一个第二设备的情况下,即确定第一设备相对于第二设备的位置信息和朝向信息;在有多个第二设备的情况下,第一设备在真实场景下的位置信息和朝向信息可以是相对于指定第二设备或每一个第二设备的位置信息和朝向信息。
具体的,第一设备利用摄像模块拍摄场景图像,并可以利用其配备的深度传感器获取与拍摄到的图像对应的深度信息。在这种情况下,一方面,可以对拍摄到的图像进行分析(如设备识别、角度运算),确定除第一设备相对于第二设备的朝向信息。另一方面,可以根据深度信息确定第一设备距第二设备的距离,再结合图像所表征的相对位置关系,以确定第一设备相对于第二设备的位置信息。
在第一设备开启增强现实游戏的应用程序后,第一设备可以将位置信息和朝向信息发送给云端。
S34.如果位置信息和朝向信息与增强现实游戏的设备配置要求匹配,则确定与位置信息和朝向信息对应的虚拟游戏对象。
在本公开的示例性实施方式中,可以将设备配置要求理解为,只有参与游戏的设备处于场景中的指定位置,云端才能分配对应的虚拟游戏对象。
增强现实游戏包括至少一个预定位置和与预定位置对应的预定朝向。云端在获取到第一设备的位置信息和朝向信息后,可以将第一设备的位置和朝向与预定位置和对应预定朝向进行比较。
如果获取到的位置信息与预定位置一致,且获取到的朝向信息与预定朝向一致,则云端确定出位置信息和朝向信息与增强现实游戏的设备配置要求匹配。云端存储有预定位置和预定朝向与虚拟游戏对象的映射关系,在这种情况下,云端可以确定出与该位置信息和朝向信息对应的虚拟游戏对象。
本公开所述虚拟游戏对象可以是虚拟游戏角色,例如,游戏中的战士、法师等。另外,虚拟游戏对象还可以是例如弓箭、长刀等虚拟物体。应当理解的是,增强现实游戏不同,对应的虚拟游戏对象也不同,本公开对虚拟游戏对象的类型不做限制。
S36.将虚拟游戏对象与第一设备绑定,并在真实场景中配置虚拟游戏对象。
云端可以将虚拟游戏对象与第一设备绑定。具体的,可以确定出第一设备的唯一标识,例如,识别码、mac地址、cpu序列号等。接下来,云端将虚拟游戏对象与该唯一标识绑定。通过此绑定操作,即使场景中存在相同的虚拟游戏对象,也可以通过设备的唯一标识进行区分。
云端可以将确定出的虚拟游戏对象发送给第一设备,以便用户可以通过第一设备的显示界面看到该虚拟游戏对象。
另外,在多人AR的游戏场景下,云端还可以将虚拟游戏对象的信息发送给其他设备,以便其他设备的显示界面上也显示出该虚拟游戏对象,以便多人AR游戏的开展。
在进行游戏的过程中,云端可以跟踪第一设备的移动轨迹,容易理解的是,第一设备在移动的过程中位置和姿态会发生变化。云端可以根据第一设备位置和姿态的变化,对虚拟游戏对象的技能进行控制。需要说明的是,本公开所述的虚拟游戏对象的技能不限于虚拟游戏角色的技能,对于例如弓箭等的虚拟物体,也存在技能,例如,发射冰箭是一种技能、发射火箭又是一种技能。
第一设备位置的不同,虚拟游戏对象的技能会发生变化。例如,第一设备从位置A移动到位置B时,虚拟游戏对象的技能也会从技能a切换为技能b。
另外,当第一设备的累计移动距离大于一阈值时,虚拟游戏对象的技能可以自动升级。
图4示出了根据本公开的一个实施例的第一设备的位置和朝向与设备配置要求匹配的示意图。
参考图4,在AR游戏场景40中,第一设备11的位置信息和朝向信息可以相对的是绝对坐标系。在第一设备11位于预定位置400并且第一设备11的朝向为预定方向时,可以为第一设备11分配与预定位置400对应的虚拟游戏对象。
在第一设备11为手机或平板电脑的实施例中,虚拟游戏对象可以位于第一设备11的朝向方向(预定方向)上距第一设备11预定距离(如20cm)的位置。该虚拟游戏对象可以是一虚拟角色,例如,虚拟的游戏法师,在这种情况下,第一设备11响应用户在界面上对该虚拟游戏对象控件的操作,控制该虚拟角色移动、发出技能等。
在第一设备11被配置为体感设备的实施例中,虚拟游戏对象可以添加至第一设备11上。例如,虚拟弓箭可以添加到手柄上,当用户触及手柄按钮时,可实现虚拟弓箭的相应操作。
需要注意的是,图4的AR游戏场景40中,还可以包括其他预定位置和预定朝向,当第一设备11处于其他预定位置和预定朝向时,可以为第一设备11分配不同的虚拟游戏对象。
图5示出了根据本公开的另一个实施例的第一设备的位置和朝向与设备配置要求匹配的示意图。
参考图5,AR游戏场景50中包括第一设备11和多个第二设备。这些设备可以组成3对3(3V3)的对战模式。其中,预定位置500、预定位置501、预定位置502构成三角形的三个顶点,它们对应的预定朝向均可以是朝向该三角形的中心,以便在分配虚拟游戏对象时方便确认队友。另外,它们对应的预定朝向还可以是其他的方向,本公开对此不做限制。
例如,预定位置500对应的虚拟游戏对象为射手、预定位置501对应的虚拟游戏对象为辅助、预定位置502对应的虚拟游戏对象为战士。在持有第一设备11的用户想要体验射手时,可以移动至预定位置500,并在朝向满足预定朝向时,为第一设备11分配射手;在持有第二设备51的用户想要体验辅助时,可以移动至预定位置501,并在朝向满足预定朝向时,为第二设备51分配辅助;在持有第二设备52的用户想要体验战士时,可以移动至预定位置502,并在朝向满足预定朝向时,为第二设备52分配战士。类似的,可以为第二设备53、第二设备54和第二设备55分配对应的虚拟游戏对象。例如,第二设备53位于预定位置503且朝向满足预定朝向,则为第二设备53分配对应的虚拟游戏对象;第二设备54位于预定位置504且朝向满足预定朝向,则为第二设备54分配对应的虚拟游戏对象;第二设备55位于预定位置505且朝向满足预定朝向,则为第二设备55分配对应的虚拟游戏对象。
在分配虚拟游戏对象后,6个用户可以进行3V3的多人AR游戏体验。
应当理解的是,图5仅是示例性示出了一种实现方式,然而,鉴于增强现实游戏不同,本领域技术人员可以根据本公开的构思联想到其他实现方式,例如,4个设备构成四边形的游戏配置、3个设备构成一条直线的游戏配置,等等。这些均应当属于本公开的保护范围。
此外,在第一设备处于游戏场景中,但未与预定位置和预定朝向一致时,本公开还可以引导用户前往预定位置并调整朝向。也就是说,在第一设备的位置信息和朝向信息与增强现实游戏的设备匹配要求不匹配的情况下,可以提示用户将第一设备移动至预定位置,并提示将第二设备的朝向调整至于该预定位置对应的预定朝向。
参考图6,在游戏场景中,当用户开启增强现实游戏的应用程序时,如果第一设备11未处于预定位置600,则可以在第一设备11的显示界面上显示出路径或箭头,以便用户将第一设备11移动至预定位置600。在前往至预定位置600后,再通过箭头等方式提示用户将第一设备11的朝向调整至与预定位置600对应的朝向。
在场景中包括除预定位置600之外的其他预定位置的情况下,可以提示用户进行预定位置的选择。例如,在界面上以位置闪烁、文字说明、图像说明等方式提示用户每个预定位置对应的虚拟游戏对象,以便用户选择。在用户选择后,再显示路径或箭头,引导用户前往其选择的预定位置。
综上所述,基于本公开示例性实施方式的增强现实处理方法,一方面,相比于一些技术中利用场景和用户识别的方式来匹配虚拟游戏对象,本公开示例性实施方式利用位置信息和朝向信息来分配虚拟游戏对象,可以避免环境因素的干扰,提高了虚拟游戏对象分配的准确度;另一方面,本公开方案由于不涉及采集用户生物特征的过程,因此,可以较好地保护用户隐私;再一方面,由于增强现实游戏所涉及的设备本身会执行例如场景扫描、关键帧匹配等重定位操作,也就是说,会得到与设备位置信息和朝向信息相关的参数,本公开的方案可以直接利用这些参数实现为设备分配虚拟游戏对象的过程,不会造成过多的开发负担,实施简单;又一方面,通过第一设备的位置和朝向与游戏的设备配置要求匹配,也就是说,规定了游戏对应的位置和朝向,用户移动第一设备到指定位置并调整朝向,即可实现分配虚拟游戏对象的效果,这个过程可以提高用户的游戏仪式感和参与感。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中还提供了一种增强现实处理装置,应用于至少第一设备参与的增强现实游戏中。
图7示意性示出了本公开的示例性实施方式的增强现实处理装置的方框图。参考图7,根据本公开的示例性实施方式的增强现实处理装置7可以包括信息获取模块71、虚拟游戏对象确定模块73和虚拟游戏对象处理模块75。
具体的,信息获取模块71可以用于获取第一设备在真实场景中的位置信息和朝向信息;虚拟游戏对象确定模块73可以用于如果位置信息和朝向信息与增强现实游戏的设备配置要求匹配,则确定与位置信息和朝向信息对应的虚拟游戏对象;虚拟游戏对象处理模块75可以用于将虚拟游戏对象与第一设备绑定,并在真实场景中配置虚拟游戏对象。
基于本公开示例性实施方式的增强现实处理装置,一方面,相比于一些技术中利用场景和用户识别的方式来匹配虚拟游戏对象,本公开示例性实施方式利用位置信息和朝向信息来分配虚拟游戏对象,可以避免环境因素的干扰,提高了虚拟游戏对象分配的准确度;另一方面,本公开方案由于不涉及采集用户生物特征的过程,因此,可以较好地保护用户隐私;再一方面,由于增强现实游戏所涉及的设备本身会执行例如场景扫描、关键帧匹配等重定位操作,也就是说,会得到与设备位置信息和朝向信息相关的参数,本公开的方案可以直接利用这些参数实现为设备分配虚拟游戏对象的过程,不会造成过多的开发负担,实施简单;又一方面,通过第一设备的位置和朝向与游戏的设备配置要求匹配,也就是说,规定了游戏对应的位置和朝向,用户移动第一设备到指定位置并调整朝向,即可实现分配虚拟游戏对象的效果,这个过程可以提高用户的游戏仪式感和参与感。
根据本公开的示例性实施例,信息获取模块71可以被配置为执行:获取第一设备基于定位模块而确定出的位置信息,并获取第一设备基于方向传感器而确定出的朝向信息。
根据本公开的示例性实施例,参与增强现实游戏的设备包括第一设备和至少一个第二设备。在这种情况下,信息获取模块71还可以被配置为执行:获取第一设备相对于至少一个第二设备的位置信息和朝向信息,作为第一设备在真实场景中的位置信息和朝向信息。
根据本公开的示例性实施例,信息获取模块71获取第一设备相对于至少一个第二设备的位置信息和朝向信息的过程可以被配置为执行:获取第一设备的摄像模组拍摄的图像,并利用第一设备的深度传感器获取与图像对应的深度信息;根据图像确定第一设备相对于至少一个第二设备的朝向信息;根据图像以及对应的深度信息确定第一设备相对于至少一个第二设备的位置信息。
根据本公开的示例性实施例,增强现实游戏包括至少一个预定位置和与预定位置对应的预定朝向,如果位置信息与预定位置一致,且朝向信息与预定位置对应的预定朝向一致,则位置信息和朝向信息与增强现实游戏的设备配置要求匹配。
根据本公开的示例性实施例,参考图8,相比于增强现实处理装置7,增强现实处理装置8还可以包括引导模块81。
具体的,引导模块81可以被配置为执行:在位置信息和朝向信息与增强现实游戏的设备配置要求不匹配的情况下,提示将第一设备移动至预定位置,并提示将第一设备的朝向调整至与预定位置对应的预定朝向。
根据本公开的示例性实施例,参考图9,相比于增强现实处理装置7,增强现实处理装置9还可以包括技能控制模块91。
具体的,技能控制模块91可以被配置为执行:跟踪第一设备的移动轨迹,第一设备在移动的过程中位置和姿态发生变化,并根据第一设备位置和姿态的变化,对虚拟游戏对象的技能进行控制。
由于本公开实施方式的增强现实处理装置的各个功能模块与上述方法实施方式中相同,因此在此不再赘述。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (6)

1.一种增强现实处理方法,其特征在于,应用于增强现实游戏中,参与所述增强现实游戏的设备包括云端、第一设备和至少一个第二设备,所述增强现实处理方法由所述云端执行,所述增强现实处理方法包括:
获取所述第一设备的摄像模组拍摄的图像,并利用所述第一设备的深度传感器获取与所述图像对应的深度信息,根据所述图像确定所述第一设备相对于所述至少一个第二设备的朝向信息,根据所述图像以及对应的深度信息确定所述第一设备相对于所述至少一个第二设备的位置信息,将所述第一设备相对于所述至少一个第二设备的位置信息和朝向信息作为所述第一设备在真实场景中的位置信息和朝向信息;
如果所述位置信息和朝向信息与所述增强现实游戏的设备配置要求匹配,则确定与所述位置信息和朝向信息对应的虚拟游戏对象;
将所述虚拟游戏对象与所述第一设备绑定,并在所述真实场景中配置所述虚拟游戏对象;
跟踪所述第一设备的移动轨迹,所述第一设备在移动的过程中位置和姿态发生变化;
根据所述第一设备位置和姿态的变化,对所述虚拟游戏对象的技能进行控制。
2.根据权利要求1所述的增强现实处理方法,其特征在于,所述增强现实游戏包括至少一个预定位置和与所述预定位置对应的预定朝向,所述增强现实处理方法还包括:
如果所述位置信息与预定位置一致,且所述朝向信息与所述预定位置对应的预定朝向一致,则确定出所述位置信息和朝向信息与所述增强现实游戏的设备配置要求匹配。
3.根据权利要求2所述的增强现实处理方法,其特征在于,在所述位置信息和朝向信息与所述增强现实游戏的设备配置要求不匹配的情况下,所述增强现实处理方法还包括:
提示将所述第一设备移动至所述预定位置,并提示将所述第一设备的朝向调整至与所述预定位置对应的预定朝向。
4.一种增强现实处理装置,其特征在于,应用于增强现实游戏中,参与所述增强现实游戏的设备包括云端、第一设备和至少一个第二设备,所述增强现实处理装置配置于所述云端中,所述增强现实处理装置包括:
信息获取模块,用于获取所述第一设备的摄像模组拍摄的图像,并利用所述第一设备的深度传感器获取与所述图像对应的深度信息,根据所述图像确定所述第一设备相对于所述至少一个第二设备的朝向信息,根据所述图像以及对应的深度信息确定所述第一设备相对于所述至少一个第二设备的位置信息,将所述第一设备相对于所述至少一个第二设备的位置信息和朝向信息作为所述第一设备在真实场景中的位置信息和朝向信息;
虚拟游戏对象确定模块,用于如果所述位置信息和朝向信息与所述增强现实游戏的设备配置要求匹配,则确定与所述位置信息和朝向信息对应的虚拟游戏对象;
虚拟游戏对象处理模块,用于将所述虚拟游戏对象与所述第一设备绑定,并在所述真实场景中配置所述虚拟游戏对象;
技能控制模块,用于跟踪所述第一设备的移动轨迹,所述第一设备在移动的过程中位置和姿态发生变化,并根据所述第一设备位置和姿态的变化,对所述虚拟游戏对象的技能进行控制。
5.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至3中任一项所述的增强现实处理方法。
6.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述处理器执行时,使得所述处理器实现如权利要求1至3中任一项所述的增强现实处理方法。
CN202010096940.0A 2020-02-17 2020-02-17 增强现实处理方法及装置、存储介质和电子设备 Active CN113262478B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010096940.0A CN113262478B (zh) 2020-02-17 2020-02-17 增强现实处理方法及装置、存储介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010096940.0A CN113262478B (zh) 2020-02-17 2020-02-17 增强现实处理方法及装置、存储介质和电子设备

Publications (2)

Publication Number Publication Date
CN113262478A CN113262478A (zh) 2021-08-17
CN113262478B true CN113262478B (zh) 2023-08-25

Family

ID=77227640

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010096940.0A Active CN113262478B (zh) 2020-02-17 2020-02-17 增强现实处理方法及装置、存储介质和电子设备

Country Status (1)

Country Link
CN (1) CN113262478B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107770238A (zh) * 2016-08-19 2018-03-06 索尼公司 用于基于图像处理进行数据通信的系统和方法
CN107784885A (zh) * 2017-10-26 2018-03-09 歌尔科技有限公司 基于ar设备的操作培训方法及ar设备
CN107886576A (zh) * 2017-10-31 2018-04-06 广东小天才科技有限公司 一种ar交互方法及终端设备
CN110275620A (zh) * 2019-06-26 2019-09-24 Oppo广东移动通信有限公司 交互方法、交互装置、头戴设备和存储介质
CN110478901A (zh) * 2019-08-19 2019-11-22 Oppo广东移动通信有限公司 基于增强现实设备的交互方法及系统
CN110716646A (zh) * 2019-10-15 2020-01-21 北京市商汤科技开发有限公司 一种增强现实数据呈现方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107770238A (zh) * 2016-08-19 2018-03-06 索尼公司 用于基于图像处理进行数据通信的系统和方法
CN107784885A (zh) * 2017-10-26 2018-03-09 歌尔科技有限公司 基于ar设备的操作培训方法及ar设备
CN107886576A (zh) * 2017-10-31 2018-04-06 广东小天才科技有限公司 一种ar交互方法及终端设备
CN110275620A (zh) * 2019-06-26 2019-09-24 Oppo广东移动通信有限公司 交互方法、交互装置、头戴设备和存储介质
CN110478901A (zh) * 2019-08-19 2019-11-22 Oppo广东移动通信有限公司 基于增强现实设备的交互方法及系统
CN110716646A (zh) * 2019-10-15 2020-01-21 北京市商汤科技开发有限公司 一种增强现实数据呈现方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伯納特著.《解读云计算 A Brief Guide To Cloud Computing》.北京航空航天大学出版社,2013,第129-130页. *

Also Published As

Publication number Publication date
CN113262478A (zh) 2021-08-17

Similar Documents

Publication Publication Date Title
CN111445583B (zh) 增强现实处理方法及装置、存储介质和电子设备
CN110992493B (zh) 图像处理方法、装置、电子设备及存储介质
CN108734736B (zh) 相机姿态追踪方法、装置、设备及存储介质
CN111325842A (zh) 地图构建方法、重定位方法及装置、存储介质和电子设备
CN109977775B (zh) 关键点检测方法、装置、设备及可读存储介质
CN111246095B (zh) 控制镜头运动的方法、装置、设备及存储介质
CN111243105B (zh) 增强现实处理方法及装置、存储介质和电子设备
CN111815666B (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
CN111338474B (zh) 虚拟对象位姿校准方法及装置、存储介质和电子设备
CN109173258B (zh) 虚拟对象显示、定位信息发送方法、设备及存储介质
CN110956580B (zh) 图像换脸的方法、装置、计算机设备以及存储介质
JP2020120336A (ja) プログラム、方法、および情報処理装置
CN112669464A (zh) 一种分享数据的方法及设备
CN113244616A (zh) 基于虚拟场景的互动方法、装置、设备及可读存储介质
CN112581358A (zh) 图像处理模型的训练方法、图像处理方法及装置
CN110837300B (zh) 虚拟交互的方法、装置、电子设备及存储介质
CN210090827U (zh) 一种轻便化的ar眼镜实现系统
CN112241199B (zh) 虚拟现实场景中的交互方法及装置
CN106412810B (zh) 数据传输方法及装置
CN109806583B (zh) 用户界面显示方法、装置、设备及系统
US11995455B2 (en) True wireless headphones with improved user interface to an experiential eco-system and related devices, methods, and systems
KR101784095B1 (ko) 복수의 영상 데이터를 이용하는 헤드 마운트 디스플레이 장치 및 복수의 영상 데이터를 송수신하기 위한 시스템
WO2020056694A1 (zh) 增强现实的通信方法及电子设备
CN110152309B (zh) 语音通信方法、装置、电子设备及存储介质
CN113262478B (zh) 增强现实处理方法及装置、存储介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant