CN111311758A - 增强现实处理方法及装置、存储介质和电子设备 - Google Patents

增强现实处理方法及装置、存储介质和电子设备 Download PDF

Info

Publication number
CN111311758A
CN111311758A CN202010113144.3A CN202010113144A CN111311758A CN 111311758 A CN111311758 A CN 111311758A CN 202010113144 A CN202010113144 A CN 202010113144A CN 111311758 A CN111311758 A CN 111311758A
Authority
CN
China
Prior art keywords
image
current frame
frame image
scene
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010113144.3A
Other languages
English (en)
Inventor
彭冬炜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN202010113144.3A priority Critical patent/CN111311758A/zh
Publication of CN111311758A publication Critical patent/CN111311758A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开提供了一种增强现实处理方法、增强现实处理装置、计算机可读存储介质和电子设备,涉及增强现实技术领域。该增强现实处理方法包括:获取第一设备的当前帧图像的特征向量;利用当前帧图像的特征向量,从预存图像集合中确定出与当前帧图像相似的目标图像;获取目标图像的位姿,并计算当前帧图像与目标图像之间的相对位姿;利用目标图像的位姿以及当前帧图像与目标图像之间的相对位姿,计算当前帧图像的位姿,以便在第一设备上显示虚拟对象。本公开可以在增强现实处理过程中实现精确定位。

Description

增强现实处理方法及装置、存储介质和电子设备
技术领域
本公开涉及增强现实技术领域,具体而言,涉及一种增强现实处理方法、增强现实处理装置、计算机可读存储介质和电子设备。
背景技术
增强现实(Augmented Reality,AR)是一种将虚拟信息与真实世界融合的技术。近年来,增强现实技术的应用已延伸至教育、医疗、游戏、物联网、智能制造、智能驾驶等众多领域。
在真实场景中,为了增加趣味性、添加提示信息等目的,可以将虚拟物体配置于场景中,用户可以通过手机等电子设备看到虚拟物体。例如,在大型商场前,当用户通过手机扫描场景时,可以看到虚拟的提示牌,提示牌上显示有该商场的营业时间等,以便用户了解。
目前,在增强现实的处理过程中,可能存在定位不精确而导致虚拟物体放置的位置和姿态不准确的问题。
发明内容
本公开提供一种增强现实处理方法、增强现实处理装置、计算机可读存储介质和电子设备,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的增强现实处理过程中定位不精确的问题。
根据本公开的第一方面,提供了一种增强现实处理方法,包括:获取第一设备的当前帧图像的特征向量;利用当前帧图像的特征向量,从预存图像集合中确定出与当前帧图像相似的目标图像;获取目标图像的位姿,并计算当前帧图像与目标图像之间的相对位姿;利用目标图像的位姿以及当前帧图像与目标图像之间的相对位姿,计算当前帧图像的位姿,以便在第一设备上显示虚拟对象。
根据本公开的第二方面,提供了另一种增强现实处理方法,包括:向云端发送当前帧图像的信息,以便云端从预存图像集合中确定出与当前帧图像相似的目标图像;获取由云端发送的目标图像的位姿,计算当前帧图像与目标图像之间的相对位姿;利用目标图像的位姿以及当前帧图像与目标图像之间的相对位姿,计算当前帧图像的位姿,以便显示虚拟对象。
根据本公布的第三方面,提供了一种增强现实处理装置,包括:特征向量获取模块,用于获取第一设备的当前帧图像的特征向量;相似图像确定模块,用于利用当前帧图像的特征向量,从预存图像集合中确定出与当前帧图像相似的目标图像;第一位姿处理模块,用于获取目标图像的位姿,并计算当前帧图像与目标图像之间的相对位姿;第二位姿处理模块,用于利用目标图像的位姿以及当前帧图像与目标图像之间的相对位姿,计算当前帧图像的位姿,以便在第一设备上显示虚拟对象。
根据本公开的第四方面,提供了另一种增强现实处理装置,包括:信息发送模块,用于向云端发送当前帧图像的信息,以便云端从预存图像集合中确定出与当前帧图像相似的目标图像;第三位姿处理模块,用于获取由云端发送的目标图像的位姿,计算当前帧图像与目标图像之间的相对位姿;第四位姿处理模块,用于利用目标图像的位姿以及当前帧图像与目标图像之间的相对位姿,计算当前帧图像的位姿,以便显示虚拟对象。
根据本公开的第五方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的增强现实处理方法。
根据本公开的第六方面,提供了一种电子设备,包括处理器;存储器,用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得所述处理器实现上述的增强现实处理方法。
在本公开的一些实施例所提供的技术方案中,利用第一设备的当前帧图像的特征向量从预存图像集合中确定出与当前帧图像相似的目标图像,再根据目标图像的位姿以及当前帧图像与目标图像之间的相对位姿,计算当前帧图像的位姿。一方面,利用特征向量确定与当前帧图像相似的目标图像,并结合目标图像的位姿得到当前帧图像的位姿,通过计算,使当前帧图像的位姿和目标图像的位姿处于同一坐标系下,由此,可以实现精确定位,有助于将预先配置的属于同一坐标系的虚拟对象准确地渲染到第一设备的显示界面上;另一方面,本公开的方案不受真实场景的限制,也就是说,无论真实场景的大小如何,均可以利用本公开的方案实现精准定位。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本公开实施例的增强现实处理方法或增强现实处理装置的示例性系统架构的示意图;
图2示出了适于用来实现本公开实施例的电子设备的结构示意图;
图3示意性示出了根据本公开的示例性实施方式的增强现实处理方法的流程图;
图4示出了根据本公开的示例性实施方式的利用机器学习模型提取图像特征向量的示意图;
图5示出了根据本公开的包括场景图像的预存图像集合的示意图;
图6示意性示出了根据本公开的借助于场景图像确定目标图像的方法流程图;
图7示意性示出了根据本公开的一个实施例的增强现实处理方法的交互图;
图8示意性示出了根据本公开的另一示例性实施方式的增强现实处理方法的流程图;
图9示意性示出了应用本公开增强现实处理方法的在场景显示虚拟对象的示意图;
图10示意性示出了应用本公开增强现实处理方法的在另一场景中显示虚拟对象的示意图;
图11示意性示出了根据本公开的第一示例性实施方式的增强现实处理装置的方框图;
图12示意性示出了根据本公开的第二示例性实施方式的增强现实处理装置的方框图;
图13示意性示出了根据本公开的第三示例性实施方式的增强现实处理装置的方框图;
图14示意性示出了根据本公开的第四示例性实施方式的增强现实处理装置的方框图;
图15示意性示出了根据本公开的第五示例性实施方式的增强现实处理装置的方框图;
图16示意性示出了根据本公开的第六示例性实施方式的增强现实处理装置的方框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。另外,下面所有的术语“第一”、“第二”、“第三”、“第四”等仅是为了区分的目的,不应作为本公开内容的限制。
图1示出了可以应用本公开实施例的增强现实处理方法或增强现实处理装置的示例性系统架构的示意图。
如图1所示,系统架构可以包括云端100和第一设备110。
第一设备110可以是虚拟对象的显示端,用于呈现视觉上虚拟对象与真实场景的融合,用户可以通过第一设备110的显示屏看到融合至真实场景的虚拟对象。第一设备110可以包括手机、平板电脑、智能手表、AR眼镜、AR头盔等,本公开对第一设备110的类型不做限制。
云端100可以是各种类型的服务器,通常通过无线通信的方式与第一设备110建立通信连接。
在执行本公开一个示例性实施方式的增强现实处理过程中,首先,云端100可以获取第一设备的当前帧图像的特征向量。其中,在一个示例中,云端100可以直接接收由第一设备110发送的当前帧图像的特征向量,而在另一个实施例中,第一设备110可以仅将当前帧图像发送给云端100,云端100对当前帧图像进行特征提取,得到当前帧图像的特征向量。
接下来,云端100可以利用当前帧图像的特征向量,从预存图像集合中确定出与当前帧图像相似的目标图像,确定目标图像的位姿,并计算当前帧图像与目标图像之间的相对位姿;
随后,云端100可以利用目标图像的位姿以及当前帧图像与目标图像之间的相对位姿,计算出当前帧图像的位姿。
由此,云端100可以将预先配置的虚拟对象的信息发送给第一设备110,以便在第一设备110的显示界面上渲染出虚拟对象。
针对预存图像集合的来源,系统架构还可以包括第二设备120。第二设备120可以预先对真实场景进行拍摄,并将拍摄的图像发送给云端100,由此,云端100可以利用第二设备120发送的图像构建出预存图像集合。另外,本公开对第二设备120的类型也不进行限制,也可以例如是手机、平板电脑、智能手表、AR眼镜、AR头盔等设备。
应当注意的是,一方面,在一些实施例中,第二设备120可以与第一设备110是同一设备,也就是说,第一设备110可以利用其之前拍摄的结果确定当前自身的位姿。另一方面,在构建预存图像集合的过程中,云端100还可以从除第二设备120之外的其他设备(例如,第三设备、第四设备等)获取拍摄的真实场景图像,以便利用这些图像构建预存图像集合。
上面说明了基于云端100来执行本公开示例性实施方式的增强现实处理过程。而在本公开另一个示例性实施方式中,可以由第一设备110来计算当前帧图像的位姿。
首先,第一设备110向云端100发送当前帧图像的信息,以便云端100从预存图像集合中确定出当前帧图像相似的目标图像。接下来,第一设备110获取由云端100发送的目标图像的位姿,第一设备110计算当前帧图像与目标图像之间的相对位姿。随后,第一设备110利用目标图像的位姿以及当前帧他徐昂与目标图像之间的相对位姿,计算当前帧图像的位姿。
在第一设备110计算出当前帧图像的位姿后,云端100可以向第一设备110发送虚拟对象的信息,以便第一设备110可以在显示界面上渲染出虚拟对象。
图2示出了适于用来实现本公开示例性实施方式的电子设备的示意图。本公开的第一设备和/或第二设备可以被配置为如图2所示电子设备的形式,然而,需要说明的是,图2示出的电子设备仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
本公开的电子设备至少包括处理器和存储器,存储器用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得处理器可以实现本公开示例性实施方式的增强现实处理方法。
具体的,如图2所示,电子设备200可以包括:处理器210、内部存储器221、外部存储器接口222、通用串行总线(Universal Serial Bus,USB)接口230、充电管理模块240、电源管理模块241、电池242、天线1、天线2、移动通信模块250、无线通信模块260、音频模块270、扬声器271、受话器272、麦克风273、耳机接口274、传感器模块280、显示屏290、摄像模组291、指示器292、马达293、按键294以及用户标识模块(Subscriber IdentificationModule,SIM)卡接口295等。其中传感器模块280可以包括深度传感器2801、压力传感器2802、陀螺仪传感器2803、气压传感器2804、磁传感器2805、加速度传感器2806、距离传感器2807、接近光传感器2808、指纹传感器2809、温度传感器2810、触摸传感器2811、环境光传感器2812及骨传导传感器2813等。
可以理解的是,本申请实施例示意的结构并不构成对电子设备200的具体限定。在本申请另一些实施例中,电子设备200可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或软件和硬件的组合实现。
处理器210可以包括一个或多个处理单元,例如:处理器210可以包括应用处理器(Application Processor,AP)、调制解调处理器、图形处理器(Graphics ProcessingUnit,GPU)、图像信号处理器(Image Signal Processor,ISP)、控制器、视频编解码器、数字信号处理器(Digital Signal Processor,DSP)、基带处理器和/或神经网络处理器(Neural-etwork Processing Unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。另外,处理器210中还可以设置存储器,用于存储指令和数据。
USB接口230是符合USB标准规范的接口,具体可以是MiniUSB接口,MicroUSB接口,USBTypeC接口等。USB接口230可以用于连接充电器为电子设备200充电,也可以用于电子设备200与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
充电管理模块240用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。电源管理模块241用于连接电池242、充电管理模块240与处理器210。电源管理模块241接收电池242和/或充电管理模块240的输入,为处理器210、内部存储器221、显示屏290、摄像模组291和无线通信模块260等供电。
电子设备200的无线通信功能可以通过天线1、天线2、移动通信模块250、无线通信模块260、调制解调处理器以及基带处理器等实现。
移动通信模块250可以提供应用在电子设备200上的包括2G/3G/4G/5G等无线通信的解决方案。
无线通信模块260可以提供应用在电子设备200上的包括无线局域网(WirelessLocal Area Networks,WLAN)(如无线保真(Wireless Fidelity,Wi-Fi)网络)、蓝牙(Bluetooth,BT)、全球导航卫星系统(Global Navigation Satellite System,GNSS)、调频(Frequency Modulation,FM)、近距离无线通信技术(Near Field Communication,NFC)、红外技术(Infrared,IR)等无线通信的解决方案。
电子设备200通过GPU、显示屏290及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏290和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器210可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
电子设备200可以通过ISP、摄像模组291、视频编解码器、GPU、显示屏290及应用处理器等实现拍摄功能。在一些实施例中,电子设备200可以包括1个或N个摄像模组291,N为大于1的正整数,若电子设备200包括N个摄像头,N个摄像头中有一个是主摄像头。
内部存储器221可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器221可以包括存储程序区和存储数据区。外部存储器接口222可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备200的存储能力。
电子设备200可以通过音频模块270、扬声器271、受话器272、麦克风273、耳机接口274及应用处理器等实现音频功能。例如音乐播放、录音等。
音频模块270用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块270还可以用于对音频信号编码和解码。在一些实施例中,音频模块270可以设置于处理器210中,或将音频模块270的部分功能模块设置于处理器210中。
扬声器271,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备200可以通过扬声器271收听音乐,或收听免提通话。受话器272,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备200接听电话或语音信息时,可以通过将受话器272靠近人耳接听语音。麦克风273,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风273发声,将声音信号输入到麦克风273。电子设备200可以设置至少一个麦克风273。耳机接口274用于连接有线耳机。
针对电子设备200包括的传感器,深度传感器2801用于获取景物的深度信息。压力传感器2802用于感受压力信号,可以将压力信号转换成电信号。陀螺仪传感器2803可以用于确定电子设备200的运动姿态。气压传感器2804用于测量气压。磁传感器2805包括霍尔传感器。电子设备200可以利用磁传感器2805检测翻盖皮套的开合。加速度传感器2806可检测电子设备200在各个方向上(一般为三轴)加速度的大小。距离传感器2807用于测量距离。接近光传感器2808可以包括例如发光二极管(LED)和光检测器,例如光电二极管。指纹传感器2809用于采集指纹。温度传感器2810用于检测温度。触摸传感器2811可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏290提供与触摸操作相关的视觉输出。环境光传感器2812用于感知环境光亮度。骨传导传感器2813可以获取振动信号。
按键294包括开机键,音量键等。按键294可以是机械按键。也可以是触摸式按键。马达293可以产生振动提示。马达293可以用于来电振动提示,也可以用于触摸振动反馈。指示器292可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。SIM卡接口295用于连接SIM卡。电子设备200通过SIM卡和网络交互,实现通话以及数据通信等功能。
本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读存储介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
图3示意性示出了本公开一种示例性实施方式的增强现实处理方法的流程图,该增强显示处理方法的各个步骤可以由云端实现。参考图3,该增强现实处理方法可以包括以下步骤:
S32.获取第一设备的当前帧图像的特征向量。
持有或穿戴有第一设备的用户处于真实场景时,若想要获知该真实场景对应的虚拟对象,用户可以打开第一设备上预先安装的AR应用程序。在程序启动后,第一设备的摄像模组开启,扫描当前环境,生成当前帧图像。
根据本公开的一些实施例,第一设备在生成当前帧图像后,可以将当前帧图像发送给云端。云端对当前帧图像进行特征提取,以获取当前帧图像的特征向量。
具体的,云端可以将当前帧图像输入训练后的机器学习模型中,其中,该机器学习模型可以例如是卷积神经网络(Convolutional Neural Networks,CNN),本公开对机器学习模型的模型结构和参数配置均不做限制。训练后的机器学习模型可以对当前帧图像进行特征提取,模型的输出为当前帧图像特征向量。图4示出了利用机器学习模型提取图像的特征向量的示意图。
本公开还提供了一种该机器学习模型的训练方法。训练的过程可以在云端实现,也可以在其他终端设备上训练完成后,由其他终端设备将训练后的模型上传至云端。下面以在云端进行训练为例进行说明。
首先,云端获取训练集。该训练集中一些图像拍摄于同一位置,而另一些图像拍摄于不同的位置,这些图像均预先进行位置标注,其中,位置标注指的是根据位置进行标注,也就是说,位置不同,标注的信息也不同。通常采用人工标注的方式实现。另外,可以将训练集划分为多组训练图像,每组训练图像包括两张图像,其一被称为第一训练图像,其二被称为第二训练图像,图像可以随机进行组合,生成多组训练图像。
接下来,云端可以将第一训练图像输入机器学习模型,得到第一训练特征向量,并且可以将第二训练图像输入机器学习模型,得到第二训练特征向量。
云端可以基于第一训练图像的位置标注与第二训练图像的位置标注是否一致的判断结果来选择机器学习模型的损失函数。具体的,云端可以判断第一训练图像的位置标注与第二训练图像的位置标注是否一致。如果一致,也就是说,第一训练图像和第二训练图像所拍摄的场景在同一位置,则损失函数可以例如为第一训练特征向量与第二训练特征向量差的平方和。如果不一致,也就是说,第一训练图像和第二训练图像所拍摄的场景不是同一位置,则损失函数可以例如为第一训练特征向量与第二训练特征向量差的平方和的相反数。
随后,利用模型输出的第一训练特征向量和第二训练特征向量计算损失函数,以调节机器学习模型的参数。通过训练集的多组训练图像的训练过程,可以得到训练后的机器学习模型。
根据本公开的另一些实施例,第一设备在生成当前帧图像后,可以对该当前帧图像进行特征提取,得到当前帧图像的特征向量,并将该特征向量发送给云端。
具体的,第一设备可以将当前帧图像输入训练后的机器学习模块中,通过该训练后的机器学习模型对当前帧图像进行特征提取,以得到当前帧图像的特征向量。
该机器学习模型可以与上面描述云端提取特征向量时采用的机器学习模型相同。另外,在第一设备提取当前帧图像的特征向量的这些实施例中,模型的训练过程可以在第一设备上实现,也可以在其他终端设备上训练完成后,第一设备获取训练后的机器学习模型,本示例性实施方式中对此不做特殊限定。
S34.利用当前帧图像的特征向量,从预存图像集合中确定出与当前帧图像相似的目标图像。
在确定出当前帧图像的特征向量后,可以从预存图像集合中确定出与当前帧图像相似的目标图像。其中,预存图像集合包括预先存储于云端的图像(称为预存图像),这些图像可以预先由第二设备和/或其他设备采集。例如,如果要针对一个大厦配置虚拟对象,则可以利用第二设备对该大厦进行拍摄,以采集大厦各个位置的图像,上传至云端。
云端可以确定出预存图像集合中每一张图像的特征向量。具体的,在一些实施例中,可以由上传图像的设备(第二设备或其他设备)对这些图像进行特征提取,得到每一张图像的特征向量,例如,可以采用上述训练后的机器学习模型进行特征提取。在另一些实施例中,云端接收到这些图像后,可以对这些图像进行特征提取,得到每一张图像的特征向量,提取的方式也可以利用上述训练后的机器学习模型。
在确定出预存图像集合中各预存图像的特征向量以及当前帧图像的特征向量后,可以从预存图像集合中确定出与当前帧图像相似的目标图像。
根据本公开确定目标图像的一些实施例,云端可以分别计算当前帧图像的特征向量与各预存图像的特征向量的相似度,并根据相似度的计算结果从预存图像集合中确定出与当前帧图像相似的目标图像。其中,此处向量相似度可以采用欧氏距离、曼哈顿距离、切比雪夫距离、余弦距离等方式计算出,本公开对此不做限制。
在一个实施例中,云端可以从计算结果中确定出相似度最大值,例如,计算出的相似度a>b>c>d,则这四个结果中相似度最大值为a。
如果相似度最大值大于第一相似度阈值,则将相似度最大值对应的预存图像确定为与当前帧图像相似的目标图像。例如,预存图像A的特征向量与当前帧图像的特征向量计算出的相似度最大值a,则与当前帧图像相似的目标图像为预存图像A。
设定第一相似度阈值的目的在于,避免整体相似度过低而导致误匹配的问题,提高了定位的精确性。其中,本公开对第一相似度阈值的具体取值不做限制。
如果相似度最大值小于等于第一相似度阈值,则表示预存图像集合中图像的场景未与当前帧图像匹配,也就是说,当前帧图像的拍摄位置与预存图像集合中所有预存图像的拍摄位置均不同。在这种情况下,说明当前帧图像所处场景中未被配置有锚点,也就是说,当前帧图像的拍摄场景不是预定的AR场景,本方案过程结束。
在上述实施例中,采用相似度最大的预存图像作为目标图像。另外,在又一个实施例中,如果当前帧图像的特征向量与一预存图像的特征向量之间的相似度大于一预定阈值,则可以直接将该预存图像确定为与当前帧图像相似的目标图像。由此,可以避免对每一个预存图像均计算特征向量的相似度而导致资源消耗过大的问题。
根据本公开确定目标图像的另一些实施例,预存图像集合中包括场景图像集合以及与场景图像集合中场景图像所处场景对应的预存图像子集合。参考图5,预存图像集合可以包括由场景图像1、场景图像2、…、场景图像n组成的场景图像集合。针对每一个场景图像,可以对应一个预存图像子集合。例如,场景图像1对应预存图像子集合1。
在实际构建预存图像结合的过程中,第二设备可以拍摄一图像作为场景图像,在该图像所处场景继续拍摄若干张图像作为与该场景图像对应的预存图像子集合。另外,第二设备可以在同一场景拍摄多张图像,从中随机选取一张作为场景图像,该场景的其余图像作为对应的预存图像子集合。
应当理解的是,预存图像子集合可以为空,也就是说,在构建预存图像集合的过程中,在一个场景仅拍摄了一张图像。
在预存图像集合中包括场景图像集合的情况下,参考图6中的步骤S602至步骤S606,对确定目标图像的过程进行说明。
在步骤S602中,利用当前帧图像的特征向量,从场景图像集合中确定出与当前帧图像相似的目标场景图像。
云端可以获取场景图像集合中场景图像的特征向量,计算当前帧图像的特征向量与场景图像集合中场景图像的特征向量的相似度,并根据相似度的计算结果从场景图像集合中确定出与当前帧图像相似的目标场景图像。
考虑到预存图像集合中可能仅存在一个场景图像,在这种情况下,如果计算出的相似度大于第二相似度阈值,则可以将该场景图像确定为当前帧图像相似的目标场景图像。其中,本公开对第二相似度阈值的具体取值不做限制,第二相似度阈值通常小于上述第一相似度阈值。
在预存图像集合中存在两个以上场景的情况下,也就是说,在场景图像集合中存在两个以上场景图像的情况下,可以从当前帧图像与各场景图像之间的相似度计算结果中确定出相似度最大值,如果该相似度最大值大于第三相似度阈值,则可以将相似度最大值对应的场景图像确定为与当前帧图像相似的目标场景图像。其中,本公开对第三相似度阈值的具体取值不做限制,可以与第二相似度阈值相同。
另外,在预存图像结合中场景图像的数量大于一图像数量阈值时,说明场景图像较多,可能是由于场景划分过于细致导致。在这种情况下,如果当前帧图像特征向量与一场景图像的特征向量之间的相似度大于一预定阈值,则可以直接将该场景图像确定为当前帧图像相似的目标场景图像。由此,避免计算量过大的问题。
在步骤S604中,确定目标场景图像所处场景对应的预存图像子集合。
在确定出目标场景图像后,可以根据如图5所示的对应关系,从预存图像集合中确定出与目标场景图像所处场景对应的预存图像子集合。如上所述,本公开对与目标场景图像所处场景对应的预存图像子集合中包含的预存图像的数量不做限制。
在步骤S606中,利用当前帧图像的特征向量,从目标场景图像所处场景对应的预存图像子集合中,确定出与当前帧图像相似的目标图像。
首先,云端可以获取目标场景图像所处场景对应的预存图像子集合中各预存图像的特征向量。如上所述,这些图像的特征向量可以利用训练后的机器学习模型预先确定出。
接下来,云端可以分别计算当前帧图像的特征向量与上述各预存图像的特征向量的相似度,并根据相似度的计算结果,从目标场景图像所处场景对应的预存图像子集合中确定出与当前帧图像相似的目标图像。
在一个实施例中,云端可以从相似度的计算结果中确定出相似度最大值。如果相似度最大值大于第四相似度阈值,则将相似度最大值对应的预存图像确定为与当前帧图像相似的目标图像。其中,本公开对第四相似度阈值的具体取值不做限制,第四相似度阈值可以例如与第一相似度阈值相同。
与上述设置第一相似度阈值类似的,设置第四相似度阈值的目的在于避免整体相似度过低而导致误匹配的问题,由此,可以提高定位的精确性。
在另一个实施例中,如果当前帧图像的特征向量与预存图像子结合中一预存图像的特征向量之间的相似度大于一预定阈值,则可以直接将该预存图像确定为与当前帧图像相似的目标图像。由此,可以避免对每一个预存图像均计算特征向量的相似度而导致资源消耗过大的问题。
在基于场景图像确定与当前帧图像相似的目标图像的实施例中,由于场景图像的数量通常不大,因此先将当前帧图像与场景图像集合中场景图像的相似度进行比较,确定出场景后,再与该场景中对应的其他预存图像进行相似度计算。这种分两次对预存图像进行检索的方案,避免了当前帧图像的特征向量直接与所有预存图像的特征向量进行比较而造成计算量巨大的问题,大大减少了资源消耗。
S36.获取目标图像的位姿,并计算当前帧图像与目标图像之间的相对位姿。
针对获取目标图像的位姿的过程,在一些实施例中,例如第二设备采集目标图像时,即计算出目标图像的位姿,第二设备直接将目标图像的位姿上传至云端。在另一些实施例中,第二设备在采集目标图像时,将目标图像以及建图信息发送给云端,由云端计算出目标图像的位姿。
也就是说,针对预存图像集合中的每一个预存图像,云端均可以获取到相应的位姿信息。
具体的,可以通过运动恢复结构(Structure from Motion,SFM)算法计算出目标图像的位姿。
在确定出目标图像的位姿后,由于当前帧图像与筛选出的目标图像相似,可以利用求解相对位姿的算法计算当前帧图像与目标图像之间的相对位姿。例如,可以利用对极几何算法计算当前帧图像与目标图像之间的相对位姿。
S38.利用目标图像的位姿以及当前帧图像与目标图像之间的相对位姿,计算当前帧图像的位姿,以便在第一设备上显示虚拟对象。
在确定出目标图像的位姿以及当前帧图像与目标图像之间的相对位姿后,可以计算出当前帧图像的位姿。本领域技术人员容易理解的是,计算出的当前帧图像的位姿与目标图像的位姿在同一坐标系下。
根据本公开的一些实施例,在确定出当前帧图像的位姿的基础上,可以利用该位姿实现AR处理的跟踪过程。也就是说,云端可以获取第一设备的当前帧图像之后的视频帧图像,并计算当前帧图像之后的视频帧图像相对于当前帧图像的位姿。
在计算出当前帧图像的位姿后,首先,云端可以获取虚拟对象的信息,该虚拟对象的信息可以由上述第二设备配置出,也可以在云端配置出。
本公开所述的虚拟对象指的是渲染到真实场景中的虚拟对象,通过第一设备的界面可以显示出。该虚拟对象可以是虚拟物体、虚拟卡通、虚拟人物等,本公开对虚拟对象的属性(例如,类型、样式、色彩、大小等)不做限制。
这里所说的虚拟对象的信息可以包括与虚拟对象的属性相关的信息,以及虚拟对象的位置和姿态信息。
随后,云端可以将虚拟对象的信息发送给第一设备,以便虚拟对象可以显示于第一设备的界面上。应当理解的是,基于AR处理过程的跟踪方案,在第一设备移动的过程中,只要第一设备移动至摄像模组能够扫描到虚拟对象的放置位置,用户均可在第一设备的界面上看到该虚拟对象。另外,用户还可以通过屏幕上的控件或通过移动第一设备的方式与虚拟对象进行交互,本公开对此不做限制。
根据本公开的一些实施例,本公开还提供了一种通过第一设备进行平面检测,以精确调整虚拟对象的方案。
具体的,第一设备可以对当前拍摄的环境进行平面检测,尤其针对虚拟对象的放置位置及周围进行平面检测,以根据检测出的平面对虚拟对象的放置位置进行微调,微调后还可以避免虚拟对象歪斜、穿模等异常现象。
此外,本公开还提供了一种通过估计环境光照来进一步渲染虚拟对象的方案。
具体的,可以通过本证图像分解的方式,估计出真实场景的光照方向,第一设备显示虚拟对象时,利用估计出的光照方向以及光线强度,对虚拟对象进行进一步地渲染,使得显示出的虚拟对象与真实场景实时匹配。
下面将参考图7对本公开一个实施例的增强现实处理的整个过程进行说明。
在步骤S702中,第二设备利用其摄像模组采集真实场景的图像,并将采集到图像上传至云端。
在步骤S704中,云端接收到第二设备上传的图像后,利用SFM算法计算每一张图像的位姿,并利用训练后的机器学习模型提取每一张图像的特征向量。在步骤S706中,云端从这些图像中抽取若干张图像,作为场景图像,并确定出与场景图像所处场景对应的图像集合,以构建出预存图像集合。
需要说明的是,可以将步骤S702至步骤S706理解为本公开示例性方案的预处理过程,以构建用于比对的预存图像集合。
在步骤S708中,第一设备利用其摄像模组采集当前帧图像,并将当前帧图像上传至云端。
在步骤S710中,云端可以提取当前帧图像的特征向量,并利用当前帧图像的特征向量从预存图像集合中确定出与当前帧图像相似的目标场景图像。具体的,可以计算当前帧图像的特征向量与场景图像的特征向量的相似度,并根据相似度的计算结果确定出与当前帧图像相似的目标场景图像。
在步骤S712中,云端从预存图像集合中确定出与该目标场景图像所处场景对应的图像集合,并从该图像集合中确定出与当前帧图像相似的目标图像。具体的,可以计算当前帧图像的特征向量与该图像集合中预存图像的特征向量的相似度,并根据相似度的计算结果确定出与当前帧图像相似的目标图像。
在步骤S714中,云端可以通过对极几何算法计算出当前帧图像与目标图像的相对位姿。在步骤S716中,云端可以基于目标图像的位姿以及当前帧图像与目标图像的相对位姿,计算出当前帧图像的位姿。
在步骤S718中,在计算出当前帧图像的位姿后,云端可以将预先配置的虚拟对象的信息发送给第一设备。
在步骤S720中,第一设备可以将虚拟对象呈现在显示界面中。另外,第一设备可以对当前扫描的场景进行平面检测,以对虚拟对象放置的位置进行微调。
在上面的描述中,基于云端执行本公开示例性实施方式的增强现实处理方法。然而,基于本方案的核心构思,还可以基于第一设备实现本公开的增强显示处理方法的过程。
图8示意性示出了本公开一种示例性实施方式的增强现实处理方法的流程图,该增强显示处理方法的各个步骤可以由第一设备实现。参考图8,该增强现实处理方法可以包括以下步骤:
S82.向云端发送当前帧图像的信息,以便云端从预存图像集合中确定出与当前帧图像相似的目标图像。
在第一设备通过其摄像模组采集当前帧图像后,根据本公开的一些实施例,第一设备可以提取当前帧图像的特征向量,并将当前帧图像的特征向量作为当前帧图像的信息发送给云端。具体的,第一设备可以利用训练后的机器学习模型提取当前帧图像的特征向量,具体过程在此不再赘述。
根据本公开的另一些实施例,第一设备可以直接将当前帧图像发送给云端,云端提取当前帧图像的特征向量。具体的,云端可以利用训练后的机器学习模型提取当前帧图像的特征向量,具体过程在此不再赘述。
在云端获取到当前帧图像的特征向量的情况下,云端可以从预存图像集合中确定出与当前帧图像相似的目标图像。
在一些实施例中,云端可以分别计算当前帧图像的特征向量与预存图像集合中各预存图像的特征向量之间的相似度,从计算结果中确定出相似度最大值,并在该相似度最大值大于第一相似度阈值时,将相似度最大值对应的预存图像确定为与当前帧图像相似的目标图像。
在另一些实施例中,预存图像集合中包括场景图像集合以及与场景图像集合中场景图像所处场景对应的预存图像子集合。在这种情况下,首先,云端可以计算当前帧图像的特征向量与场景图像的特征向量的相似度,根据计算结果确定出与当前帧图像相似的目标场景图像,接下来,可以确定出目标场景图像对应的预存图像子集合,并再计算当前帧图像的特征向量与该预存图像子集合中预存图像的特征向量之间的相似度,根据计算结果确定出与当前帧图像相似的目标图像。
S84.获取由云端发送的目标图像的位姿,计算当前帧图像与目标图像之间的相对位姿。
云端可以获取目标图像的位姿,该位姿可以通过SFM算法确定出。接下来,云端可以将目标图像的位姿发送给第一设备,第一设备可以通过对极几何算法计算当前帧图像与目标图像之间的相对位姿。
S86.利用目标图像的位姿以及当前帧图像与目标图像之间的相对位姿,计算当前帧图像的位姿,以便显示虚拟对象。
在计算出当前帧图像与目标图像之间的位姿后,第一设备可以利用目标图像的位姿以及当前帧图像与目标图像之间的相对位姿,计算出当前帧图像的位姿。
在这种情况下,第一设备可以向云端反馈已确定出当前帧图像位姿的结果,云端向第一设备发送虚拟对象的信息,以便第一设备在界面上呈现出该虚拟对象。
另外,第一设备还可以对拍摄环境进行平面检测,以对虚拟对象的位置进行微调。
图9示意性示出了应用本公开增强现实处理方法的在场景显示虚拟对象的示意图。
参考图9,当用户位于一商场前时,如果想获知是否有与该商场对应的虚拟对象时,用户可以打开手机上的AR应用程序,对当前场景进行扫描,得到当前帧图像。利用上述任一种增强现实处理方法,可以在手机的界面上呈现出预先配置的虚拟对象。如图9所示,虚拟对象可以是一个提示牌,其上有该商场的营业时间(10:00~21:00)。
图10示意性示出了应用本公开增强现实处理方法的在另一场景中显示虚拟对象的示意图。
参考图10,本公开的增强现实处理过程还可以应用于智能驾驶领域。例如,当用户驾驶车辆进入一园区时,车载系统可以通过安装于车辆前方的摄像头获取当前帧图像,利用上述任一种增强现实处理方法,可以在每条路上以文字的形式呈现出虚拟对象。如图10所示,前进为园区正门,右拐为餐厅,左拐为停车场,以便用户选择驾驶方向。
需要说明的是,图9和图10仅示例性示出了应用本公开方法的例子,本公开的增强现实处理方法可以应用于各种场景,方案的实施不受场景的限制。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中还提供了一种应用于云端的增强现实处理装置。
图11示意性示出了本公开的示例性实施方式的应用于云端的增强现实处理装置的方框图。参考图11,根据本公开的示例性实施方式的应用于云端的增强现实处理装置11可以包括特征向量获取模块111、相似图像确定模块113、第一位姿处理模块115和第二位姿处理模块117。
具体的,特征向量获取模块111可以用于获取第一设备的当前帧图像的特征向量;相似图像确定模块113可以用于利用当前帧图像的特征向量,从预存图像集合中确定出与当前帧图像相似的目标图像;第一位姿处理模块115可以用于获取目标图像的位姿,并计算当前帧图像与目标图像之间的相对位姿;第二位姿处理模块117可以用于利用目标图像的位姿以及当前帧图像与目标图像之间的相对位姿,计算当前帧图像的位姿,以便在第一设备上显示虚拟对象。
基于本公开示例性实施方式的应用于云端的增强现实处理装置,一方面,利用特征向量确定与当前帧图像相似的目标图像,并结合目标图像的位姿得到当前帧图像的位姿,通过计算,使当前帧图像的位姿和目标图像的位姿处于同一坐标系下,由此,可以实现精确定位,有助于将预先配置的属于同一坐标系的虚拟对象准确地渲染到第一设备的显示界面上;另一方面,本公开的方案不受真实场景的限制,也就是说,无论真实场景的大小如何,均可以利用本公开的方案实现精准定位。
根据本公开的示例性实施例,特征向量获取模块111可以被配置为执行:获取由第一设备发送的当前帧图像的特征向量。在这种情况下,第一设备对当前帧图像进行特征提取,得到当前帧图像的特征向量。
根据本公开的示例性实施例,特征向量获取模块111还可以被配置为执行:获取由第一设备发送的当前帧图像;对当前帧图像进行特征提取,以获取当前帧图像的特征向量。
根据本公开的示例性实施例,特征向量获取模块111对当前帧图像进行特征提取以确定出当前帧图像的特征向量的过程可以被配置为执行:将当前帧图像输入训练后的机器学习模型中,利用训练后的机器学习模型对当前帧图像进行特征提取,机器学习模型的输出为当前帧图像的特征向量。
根据本公开的示例性实施例,参考图12,相比于增强现实处理装置11,增强现实处理装置12还可以包括模型训练模块121。
具体的,模型训练模块121可以被配置为执行:获取训练集,训练集包括多组训练图像,每组训练图像包括经过位置标注的第一训练图像和经过位置标注的第二训练图像;将第一训练图像输入至机器学习模型,得到第一训练特征向量;将第二训练图像输入至机器学习模型,得到第二训练特征向量;基于第一训练图像的位置标注与第二训练图像的位置标注是否一致的判断结果来选择机器学习模型的损失函数,利用第一训练特征向量和第二训练特征向量计算损失函数,调节机器学习模型的参数,以得到训练后的机器学习模型。
根据本公开的示例性实施例,参考图13,相比于增强现实处理装置11,增强现实处理装置13还可以包括预存图像集合构建模块131。
具体的,预存图像集合构建模块131可以被配置为执行:预先获取第二设备采集的图像,利用第二设备采集的图像构建预存图像集合。
根据本公开的示例性实施例,相似图像确定模块113可以被配置为执行:获取预存图像集合中各预存图像的特征向量;其中,利用训练后的机器学习模型确定出各预存图像的特征向量;分别计算当前帧图像的特征向量与各预存图像的特征向量的相似度,根据计算结果从预存图像集合中确定出与当前帧图像相似的目标图像。
根据本公开的示例性实施例,相似图像确定模块113根据计算结果从预存图像集合中确定出与当前帧图像相似的目标图像的过程可以被配置为执行:从计算结果中确定出相似度最大值;如果相似度最大值大于第一相似度阈值,则将与相似度最大值对应的预存图像确定为与当前帧图像相似的目标图像。
根据本公开的示例性实施例,预存图像集合中包括场景图像集合以及与场景图像集合中场景图像所处场景对应的预存图像子集合。在这种情况下,相似图像确定模块113还可以被配置为执行:利用当前帧图像的特征向量,从场景图像集合中确定出与当前帧图像相似的目标场景图像;确定目标场景图像所处场景对应的预存图像子集合;利用当前帧图像的特征向量,从目标场景图像所处场景对应的预存图像子集合中,确定出与当前帧图像相似的目标图像。
根据本公开的示例性实施例,相似图像确定模块113确定目标场景图像的过程可以被配置为执行:获取场景图像集合中场景图像的特征向量;其中,利用训练后的机器学习模型确定出场景图像的特征向量;计算当前帧图像的特征向量与场景图像集合中场景图像的特征向量的相似度,根据计算结果从场景图像集合中确定出与当前帧图像相似的目标场景图像。
根据本公开的示例性实施例,相似图像确定模块113根据计算结果从场景图像集合中确定出与当前帧图像相似的目标场景图像的过程可以被配置为执行:在场景图像集合中仅存在一个场景图像的情况下,如果计算出的相似度大于第二相似度阈值,则将该场景图像确定为与当前帧图像相似的目标场景图像;在场景图像集合中存在两个以上场景图像的情况下,从计算结果中确定出相似度最大值,如果相似度最大值大于第三相似度阈值,则将与相似度最大值对应的场景图像确定为与当前帧图像相似的目标场景图像。
根据本公开的示例性实施例,相似图像确定模块113基于目标场景图像确定与当前帧图像相似的目标图像的过程可以被配置为执行:获取目标场景图像所处场景对应的预存图像子集合中各预存图像的特征向量;其中,利用训练后的机器学习模型确定出各预存图像的特征向量;分别计算当前帧图像的特征向量与各预存图像的特征向量的相似度,根据计算结果从目标场景图像所处场景对应的预存图像子集合中确定出与当前帧图像相似的目标图像。
根据本公开的示例性实施例,相似图像确定模块113根据计算结果从目标场景图像所处场景对应的预存图像子集合中确定出与当前帧图像相似的目标图像的过程可以被配置为执行:从计算结果中确定出相似度最大值;如果相似度最大值大于第四相似度阈值,则将与相似度最大值对应的预存图像确定为与当前帧图像相似的目标图像。
根据本公开的示例性实施例,第一位姿处理模块115可以被配置为执行:获取基于运动恢复结构算法而计算出的目标图像的位姿;利用对极几何算法计算当前帧图像与目标图像之间的相对位姿。
根据本公开的示例性实施例,参考图14,相比于增强现实处理装置11,增强现实处理装置14还可以包括跟踪模块141。
具体的,跟踪模块141可以被配置为执行:获取第一设备的当前帧图像之后的视频帧图像;计算当前帧图像之后的视频帧图像相对于当前帧图像的位姿。
根据本公开的示例性实施例,参考图15,相比于增强现实处理装置11,增强现实处理装置15还可以包括虚拟对象发送模块151。
具体的,虚拟对象发送模块151可以被配置为执行:在计算出当前帧图像的位姿后,获取虚拟对象的信息;将虚拟对象的信息发送给第一设备,以便虚拟对象显示于第一设备的界面上,以便在第一设备上显示所述虚拟对象;其中,第一设备还用于对当前环境进行平面检测,根据平面检测的结果对虚拟对象的位姿进行调整。
进一步的,本示例实施方式中还提供了一种应用于第一设备的增强现实处理装置。
图16示意性示出了本公开的示例性实施方式的应用于第一设备的增强现实处理装置的方框图。参考图16,根据本公开的示例性实施方式的应用于第一设备的增强现实处理装置16可以包括信息发送模块161、第三位姿处理模块163和第四位姿处理模块165。
具体的,信息发送模块161可以用于向云端发送当前帧图像的信息,以便云端从预存图像集合中确定出与当前帧图像相似的目标图像;第三位姿处理模块163可以用于获取由云端发送的目标图像的位姿,计算当前帧图像与目标图像之间的相对位姿;第四位姿处理模块165可以用于利用目标图像的位姿以及当前帧图像与目标图像之间的相对位姿,计算当前帧图像的位姿,以便显示虚拟对象。
基于本公开示例性实施方式的应用于第一设备的增强现实处理装置,一方面,利用特征向量确定与当前帧图像相似的目标图像,并结合目标图像的位姿得到当前帧图像的位姿,通过计算,使当前帧图像的位姿和目标图像的位姿处于同一坐标系下,由此,可以实现精确定位,有助于将预先配置的属于同一坐标系的虚拟对象准确地渲染到第一设备的显示界面上;另一方面,本公开的方案不受真实场景的限制,也就是说,无论真实场景的大小如何,均可以利用本公开的方案实现精准定位。
由于本公开实施方式的增强现实处理装置的各个功能模块与上述方法实施方式中相同,因此在此不再赘述。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (21)

1.一种增强现实处理方法,其特征在于,包括:
获取第一设备的当前帧图像的特征向量;
利用所述当前帧图像的特征向量,从预存图像集合中确定出与所述当前帧图像相似的目标图像;
获取所述目标图像的位姿,并计算所述当前帧图像与所述目标图像之间的相对位姿;
利用所述目标图像的位姿以及所述当前帧图像与所述目标图像之间的相对位姿,计算所述当前帧图像的位姿,以便在所述第一设备上显示虚拟对象。
2.根据权利要求1所述的增强现实处理方法,其特征在于,获取第一设备的当前帧图像的特征向量包括:
接收由所述第一设备发送的当前帧图像的特征向量;
其中,所述第一设备对所述当前帧图像进行特征提取,得到所述当前帧图像的特征向量。
3.根据权利要求1所述的增强现实处理方法,其特征在于,获取第一设备的当前帧图像的特征向量包括:
获取由所述第一设备发送的当前帧图像;
对所述当前帧图像进行特征提取,以获取所述当前帧图像的特征向量。
4.根据权利要求3所述的增强现实处理方法,其特征在于,对所述当前帧图像进行特征提取,以获取所述当前帧图像的特征向量,包括:
将所述当前帧图像输入训练后的机器学习模型中,利用所述训练后的机器学习模型对所述当前帧图像进行特征提取,所述机器学习模型的输出为所述当前帧图像的特征向量。
5.根据权利要求4所述的增强现实处理方法,其特征在于,所述增强现实处理方法还包括:
获取训练集,所述训练集包括多组训练图像,每组训练图像包括经过位置标注的第一训练图像和经过位置标注的第二训练图像;
将所述第一训练图像输入至所述机器学习模型,得到第一训练特征向量;
将所述第二训练图像输入至所述机器学习模型,得到第二训练特征向量;
基于所述第一训练图像的位置标注与所述第二训练图像的位置标注是否一致的判断结果来选择机器学习模型的损失函数,利用所述第一训练特征向量和所述第二训练特征向量计算所述损失函数,调节所述机器学习模型的参数,以得到所述训练后的机器学习模型。
6.根据权利要求4所述的增强现实处理方法,其特征在于,所述增强现实处理方法还包括:
预先获取第二设备采集的图像,利用所述第二设备采集的图像构建所述预存图像集合。
7.根据权利要求6所述的增强现实处理方法,其特征在于,利用所述当前帧图像的特征向量,从预存图像集合中确定出与所述当前帧图像相似的目标图像,包括:
获取所述预存图像集合中各预存图像的特征向量;其中,利用所述训练后的机器学习模型确定出各所述预存图像的特征向量;
分别计算所述当前帧图像的特征向量与各所述预存图像的特征向量的相似度,根据计算结果从所述预存图像集合中确定出与所述当前帧图像相似的目标图像。
8.根据权利要求7所述的增强现实处理方法,其特征在于,根据计算结果从所述预存图像集合中确定出与所述当前帧图像相似的目标图像包括:
从计算结果中确定出相似度最大值;
如果所述相似度最大值大于第一相似度阈值,则将与所述相似度最大值对应的预存图像确定为与所述当前帧图像相似的目标图像。
9.根据权利要求6所述的增强现实处理方法,其特征在于,预存图像集合中包括场景图像集合以及与所述场景图像集合中场景图像所处场景对应的预存图像子集合;其中,利用所述当前帧图像的特征向量,从预存图像集合中确定出与所述当前帧图像相似的目标图像,包括:
利用所述当前帧图像的特征向量,从场景图像集合中确定出与所述当前帧图像相似的目标场景图像;
确定所述目标场景图像所处场景对应的预存图像子集合;
利用所述当前帧图像的特征向量,从所述目标场景图像所处场景对应的预存图像子集合中,确定出与所述当前帧图像相似的目标图像。
10.根据权利要求9所述的增强现实处理方法,其特征在于,利用所述当前帧图像的特征向量,从场景图像集合中确定出与所述当前帧图像相似的目标场景图像,包括:
获取所述场景图像集合中场景图像的特征向量;其中,利用所述训练后的机器学习模型确定出所述场景图像的特征向量;
计算所述当前帧图像的特征向量与所述场景图像集合中场景图像的特征向量的相似度,根据计算结果从所述场景图像集合中确定出与所述当前帧图像相似的目标场景图像。
11.根据权利要求10所述的增强现实处理方法,其特征在于,根据计算结果从所述场景图像集合中确定出与当前帧图像相似的目标场景图像包括:
在所述场景图像集合中仅存在一个场景图像的情况下,如果计算出的相似度大于第二相似度阈值,则将该场景图像确定为与所述当前帧图像相似的目标场景图像;
在所述场景图像集合中存在两个以上场景图像的情况下,从计算结果中确定出相似度最大值,如果所述相似度最大值大于第三相似度阈值,则将与所述相似度最大值对应的场景图像确定为与所述当前帧图像相似的目标场景图像。
12.根据权利要求9所述的增强现实处理方法,其特征在于,利用所述当前帧图像的特征向量,从所述目标场景图像所处场景对应的预存图像子集合中,确定出与所述当前帧图像相似的目标图像,包括:
获取所述目标场景图像所处场景对应的预存图像子集合中各预存图像的特征向量;其中,利用所述训练后的机器学习模型确定出各所述预存图像的特征向量;
分别计算所述当前帧图像的特征向量与各所述预存图像的特征向量的相似度,根据计算结果从所述目标场景图像所处场景对应的预存图像子集合中确定出与所述当前帧图像相似的目标图像。
13.根据权利要求12所述的增强现实处理方法,其特征在于,根据计算结果从所述目标场景图像所处场景对应的预存图像子集合中确定出与所述当前帧图像相似的目标图像,包括:
从计算结果中确定出相似度最大值;
如果所述相似度最大值大于第四相似度阈值,则将与所述相似度最大值对应的预存图像确定为与所述当前帧图像相似的目标图像。
14.根据权利要求1所述的增强现实处理方法,其特征在于,获取所述目标图像的位姿,并计算所述当前帧图像与所述目标图像之间的相对位姿,包括:
获取基于运动恢复结构算法而计算出的所述目标图像的位姿;
利用对极几何算法计算所述当前帧图像与所述目标图像之间的相对位姿。
15.根据权利要求1所述的增强现实处理方法,其特征在于,在计算出所述当前帧图像的位姿之后,所述增强现实处理方法还包括:
获取所述第一设备的所述当前帧图像之后的视频帧图像;
计算所述当前帧图像之后的视频帧图像相对于所述当前帧图像的位姿。
16.根据权利要求1至15中任一项所述的增强现实处理方法,其特征在于,在计算出所述当前帧图像的位姿后,所述增强现实处理方法还包括:
获取虚拟对象的信息;
将所述虚拟对象的信息发送给所述第一设备,以便在所述第一设备上显示所述虚拟对象;
其中,所述第一设备还用于对当前环境进行平面检测,根据平面检测的结果对所述虚拟对象的位姿进行调整。
17.一种增强现实处理方法,其特征在于,包括:
向云端发送当前帧图像的信息,以便所述云端从预存图像集合中确定出与所述当前帧图像相似的目标图像;
获取由所述云端发送的所述目标图像的位姿,计算所述当前帧图像与所述目标图像之间的相对位姿;
利用所述目标图像的位姿以及所述当前帧图像与所述目标图像之间的相对位姿,计算所述当前帧图像的位姿,以便显示虚拟对象。
18.一种增强现实处理装置,其特征在于,包括:
特征向量获取模块,用于获取第一设备的当前帧图像的特征向量;
相似图像确定模块,用于利用所述当前帧图像的特征向量,从预存图像集合中确定出与所述当前帧图像相似的目标图像;
第一位姿处理模块,用于获取所述目标图像的位姿,并计算所述当前帧图像与所述目标图像之间的相对位姿;
第二位姿处理模块,用于利用所述目标图像的位姿以及所述当前帧图像与所述目标图像之间的相对位姿,计算所述当前帧图像的位姿,以便在所述第一设备上显示虚拟对象。
19.一种增强现实处理装置,其特征在于,包括:
信息发送模块,用于向云端发送当前帧图像的信息,以便所述云端从预存图像集合中确定出与所述当前帧图像相似的目标图像;
第三位姿处理模块,用于获取由所述云端发送的所述目标图像的位姿,计算所述当前帧图像与所述目标图像之间的相对位姿;
第四位姿处理模块,用于利用所述目标图像的位姿以及所述当前帧图像与所述目标图像之间的相对位姿,计算所述当前帧图像的位姿,以便显示虚拟对象。
20.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至17中任一项所述的增强现实处理方法。
21.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述处理器执行时,使得所述处理器实现如权利要求1至17中任一项所述的增强现实处理方法。
CN202010113144.3A 2020-02-24 2020-02-24 增强现实处理方法及装置、存储介质和电子设备 Pending CN111311758A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010113144.3A CN111311758A (zh) 2020-02-24 2020-02-24 增强现实处理方法及装置、存储介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010113144.3A CN111311758A (zh) 2020-02-24 2020-02-24 增强现实处理方法及装置、存储介质和电子设备

Publications (1)

Publication Number Publication Date
CN111311758A true CN111311758A (zh) 2020-06-19

Family

ID=71149146

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010113144.3A Pending CN111311758A (zh) 2020-02-24 2020-02-24 增强现实处理方法及装置、存储介质和电子设备

Country Status (1)

Country Link
CN (1) CN111311758A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112034985A (zh) * 2020-09-01 2020-12-04 中国平安财产保险股份有限公司 增强现实影像展示方法、装置、设备及存储介质
CN112085828A (zh) * 2020-09-18 2020-12-15 深圳市欢太科技有限公司 图像处理方法及装置、云真机系统、存储介质和电子设备
CN112212865A (zh) * 2020-09-23 2021-01-12 北京市商汤科技开发有限公司 Ar场景下的引导方法、装置、计算机设备及存储介质
CN112530219A (zh) * 2020-12-14 2021-03-19 北京高途云集教育科技有限公司 一种教学信息展示方法、装置、计算机设备和存储介质
CN112766288A (zh) * 2021-03-03 2021-05-07 重庆赛迪奇智人工智能科技有限公司 图像处理模型构建方法、装置、电子设备和可读存储介质
CN112837424A (zh) * 2021-02-04 2021-05-25 脸萌有限公司 图像处理方法、装置、设备和计算机可读存储介质
CN112887793A (zh) * 2021-01-25 2021-06-01 脸萌有限公司 视频处理方法、显示设备和存储介质
CN113190120A (zh) * 2021-05-11 2021-07-30 浙江商汤科技开发有限公司 位姿获取方法、装置、电子设备及存储介质
CN114549869A (zh) * 2020-11-27 2022-05-27 顺丰科技有限公司 一种对象识别方法、装置、设备以及计算机可读存储介质
US11620829B2 (en) * 2020-09-30 2023-04-04 Snap Inc. Visual matching with a messaging application

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102598064A (zh) * 2009-10-12 2012-07-18 Metaio有限公司 用于在真实环境的视图中描绘虚拟信息的方法
CN103530881A (zh) * 2013-10-16 2014-01-22 北京理工大学 适用于移动终端的户外增强现实无标志点跟踪注册方法
CN107665508A (zh) * 2016-07-29 2018-02-06 成都理想境界科技有限公司 实现增强现实的方法及系统
CN107909638A (zh) * 2017-11-15 2018-04-13 网易(杭州)网络有限公司 虚拟物体的渲染方法、介质、系统和电子设备
CN108108748A (zh) * 2017-12-08 2018-06-01 联想(北京)有限公司 一种信息处理方法及电子设备
CN108958462A (zh) * 2017-05-25 2018-12-07 阿里巴巴集团控股有限公司 一种虚拟对象的展示方法及装置
CN109255043A (zh) * 2018-09-14 2019-01-22 哈尔滨工业大学 基于场景理解的图像检索方法
CN109740674A (zh) * 2019-01-07 2019-05-10 京东方科技集团股份有限公司 一种图像处理方法、装置、设备和存储介质
CN110738737A (zh) * 2019-10-15 2020-01-31 北京市商汤科技开发有限公司 一种ar场景图像处理方法、装置、电子设备及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102598064A (zh) * 2009-10-12 2012-07-18 Metaio有限公司 用于在真实环境的视图中描绘虚拟信息的方法
CN103530881A (zh) * 2013-10-16 2014-01-22 北京理工大学 适用于移动终端的户外增强现实无标志点跟踪注册方法
CN107665508A (zh) * 2016-07-29 2018-02-06 成都理想境界科技有限公司 实现增强现实的方法及系统
CN108958462A (zh) * 2017-05-25 2018-12-07 阿里巴巴集团控股有限公司 一种虚拟对象的展示方法及装置
CN107909638A (zh) * 2017-11-15 2018-04-13 网易(杭州)网络有限公司 虚拟物体的渲染方法、介质、系统和电子设备
CN108108748A (zh) * 2017-12-08 2018-06-01 联想(北京)有限公司 一种信息处理方法及电子设备
CN109255043A (zh) * 2018-09-14 2019-01-22 哈尔滨工业大学 基于场景理解的图像检索方法
CN109740674A (zh) * 2019-01-07 2019-05-10 京东方科技集团股份有限公司 一种图像处理方法、装置、设备和存储介质
CN110738737A (zh) * 2019-10-15 2020-01-31 北京市商汤科技开发有限公司 一种ar场景图像处理方法、装置、电子设备及存储介质

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112034985A (zh) * 2020-09-01 2020-12-04 中国平安财产保险股份有限公司 增强现实影像展示方法、装置、设备及存储介质
CN112085828A (zh) * 2020-09-18 2020-12-15 深圳市欢太科技有限公司 图像处理方法及装置、云真机系统、存储介质和电子设备
CN112085828B (zh) * 2020-09-18 2024-04-26 深圳市欢太科技有限公司 图像处理方法及装置、云真机系统、存储介质和电子设备
CN112212865A (zh) * 2020-09-23 2021-01-12 北京市商汤科技开发有限公司 Ar场景下的引导方法、装置、计算机设备及存储介质
CN112212865B (zh) * 2020-09-23 2023-07-25 北京市商汤科技开发有限公司 Ar场景下的引导方法、装置、计算机设备及存储介质
US11823456B2 (en) 2020-09-30 2023-11-21 Snap Inc. Video matching with a messaging application
US11620829B2 (en) * 2020-09-30 2023-04-04 Snap Inc. Visual matching with a messaging application
CN114549869A (zh) * 2020-11-27 2022-05-27 顺丰科技有限公司 一种对象识别方法、装置、设备以及计算机可读存储介质
CN112530219A (zh) * 2020-12-14 2021-03-19 北京高途云集教育科技有限公司 一种教学信息展示方法、装置、计算机设备和存储介质
CN112887793A (zh) * 2021-01-25 2021-06-01 脸萌有限公司 视频处理方法、显示设备和存储介质
CN112837424A (zh) * 2021-02-04 2021-05-25 脸萌有限公司 图像处理方法、装置、设备和计算机可读存储介质
CN112837424B (zh) * 2021-02-04 2024-02-06 脸萌有限公司 图像处理方法、装置、设备和计算机可读存储介质
CN112766288B (zh) * 2021-03-03 2024-01-23 重庆赛迪奇智人工智能科技有限公司 图像处理模型构建方法、装置、电子设备和可读存储介质
CN112766288A (zh) * 2021-03-03 2021-05-07 重庆赛迪奇智人工智能科技有限公司 图像处理模型构建方法、装置、电子设备和可读存储介质
CN113190120A (zh) * 2021-05-11 2021-07-30 浙江商汤科技开发有限公司 位姿获取方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN111311758A (zh) 增强现实处理方法及装置、存储介质和电子设备
CN111445583B (zh) 增强现实处理方法及装置、存储介质和电子设备
CN111325842B (zh) 地图构建方法、重定位方法及装置、存储介质和电子设备
CN111179435B (zh) 增强现实处理方法及装置、系统、存储介质和电子设备
CN112270754B (zh) 局部网格地图构建方法及装置、可读介质和电子设备
CN111935486B (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
CN111429517A (zh) 重定位方法、重定位装置、存储介质与电子设备
CN111917980B (zh) 拍照控制方法及装置、存储介质和电子设备
CN111784614A (zh) 图像去噪方法及装置、存储介质和电子设备
CN111815666B (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
CN111243105B (zh) 增强现实处理方法及装置、存储介质和电子设备
EP4243390A1 (en) Virtual object display method and apparatus, and storage medium and electronic device
CN111161176B (zh) 图像处理方法及装置、存储介质和电子设备
CN111338474B (zh) 虚拟对象位姿校准方法及装置、存储介质和电子设备
CN111641829B (zh) 视频处理方法及装置、系统、存储介质和电子设备
CN111784765A (zh) 物体测量、虚拟对象处理方法及装置、介质和电子设备
CN111766606A (zh) Tof深度图像的图像处理方法、装置、设备及存储介质
CN114022532A (zh) 身高测量方法、身高测量装置和终端
CN112581358A (zh) 图像处理模型的训练方法、图像处理方法及装置
CN111325786B (zh) 图像处理方法及装置、电子设备和存储介质
CN113743517A (zh) 模型训练方法、图像深度预测方法及装置、设备、介质
CN115147492A (zh) 一种图像处理方法以及相关设备
CN111982293B (zh) 体温测量方法、装置、电子设备及存储介质
WO2021129444A1 (zh) 文件聚类方法及装置、存储介质和电子设备
CN111757005A (zh) 拍摄控制方法及装置、计算机可读介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200619