CN111243105B - 增强现实处理方法及装置、存储介质和电子设备 - Google Patents
增强现实处理方法及装置、存储介质和电子设备 Download PDFInfo
- Publication number
- CN111243105B CN111243105B CN202010043241.XA CN202010043241A CN111243105B CN 111243105 B CN111243105 B CN 111243105B CN 202010043241 A CN202010043241 A CN 202010043241A CN 111243105 B CN111243105 B CN 111243105B
- Authority
- CN
- China
- Prior art keywords
- target image
- information
- real object
- target
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本公开提供了一种增强现实处理方法、增强现实处理装置、计算机可读存储介质和电子设备,涉及增强现实技术领域。该增强现实处理方法包括:获取目标图像,提取目标图像的亮度信息;如果目标图像的亮度信息满足第一亮度要求,则提取目标图像的边缘信息;结合目标图像的边缘信息确定目标图像中目标真实对象的轮廓坐标;在目标真实对象的轮廓坐标处配置第一虚拟标识,并展示第一虚拟标识。本公开可以为场景中真实对象添加虚拟标识,以在暗环境下提升用户的视觉感知。
Description
技术领域
本公开涉及增强现实技术领域,具体而言,涉及一种增强现实处理方法、增强现实处理装置、计算机可读存储介质和电子设备。
背景技术
增强现实(Augmented Reality,AR)是一种把虚拟世界和现实世界融合的技术,该技术已广泛应用到教育、游戏、医疗、物联网、智能制造等多个领域。
目前,在光线较暗的环境下,用户通过AR设备观看场景中真实对象时,可能出现看不清或用户无法辨认真实对象的问题。一方面,在用户行进时,用户遇到障碍物易发生磕碰;另一方面,由于无法准确判断出真实对象及其位置,因此,这种场景会影响用户的虚实交互操作效果,例如,用户放置虚拟对象的位置不准确。
发明内容
本公开提供一种增强现实处理方法、增强现实处理装置、计算机可读存储介质和电子设备,进而至少在一定程度上克服由于场景光线暗而导致无法识别真实对象的问题。
根据本公开的第一方面,提供了一种增强现实处理方法,包括:获取目标图像,提取目标图像的亮度信息;如果目标图像的亮度信息满足第一亮度要求,则提取目标图像的边缘信息;结合目标图像的边缘信息确定目标图像中目标真实对象的轮廓坐标;在目标真实对象的轮廓坐标处配置第一虚拟标识,并展示第一虚拟标识。
根据本公开的第二方面,提供了一种增强现实处理装置,包括:亮度信息获取模块,用于获取目标图像,提取目标图像的亮度信息;边缘信息提取模块,用于如果目标图像的亮度信息满足第一亮度要求,则提取目标图像的边缘信息;轮廓坐标确定模块,用于结合目标图像的边缘信息确定目标图像中目标真实对象的轮廓坐标;虚拟标识配置模块,用于在目标真实对象的轮廓坐标处配置第一虚拟标识,并展示第一虚拟标识。
根据本公开的第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的增强现实处理方法。
根据本公开的第四方面,提供了一种电子设备,包括处理器;存储器,用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得所述处理器实现上述的增强现实处理方法。
在本公开的一些实施例所提供的技术方案中,在目标图像的亮度信息满足第一亮度要求时,提取目标图像的边缘信息,结合目标图像的边缘信息确定目标图像中目标真实对象的轮廓坐标,并在轮廓坐标处配置第一虚拟标识并展示。一方面,在目标真实对象的轮廓坐标处展示虚拟标识,有助于提升用户在暗环境下的视觉感知,使得用户可以通过终端设备看到可能存在的障碍物,避免用户在行进时可能发生磕碰;另一方面,由于目标真实对象的轮廓配置有虚拟标识,使得用户在进行虚拟交互操作时,放置虚拟对象并进行交互操作的过程更加准确。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本公开实施例的增强现实处理方法或增强现实处理装置的示例性系统架构的示意图;
图2示出了适于用来实现本公开实施例的电子设备的结构示意图;
图3示意性示出了根据本公开的示例性实施方式的增强现实处理方法的流程图;
图4示意性示出了应用根据本公开的示例性实施方式的增强现实处理方法的一个效果对比图;
图5示意性示出了应用根据本公开的示例性实施方式的增强现实处理方法的另一个效果对比图;
图6示意性示出了根据本公开的示例性实施方式的增强现实处理装置的方框图;
图7示意性示出了根据本公开的另一示例性实施方式的增强现实处理装置的方框图;
图8示意性示出了根据本公开的又一示例性实施方式的增强现实处理装置的方框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。另外,下面所有的术语“第一”、“第二”仅是为了区分的目的,不应作为本公开内容的限制。
需要说明的是,本公开示例性实施方式的增强现实处理方案可以应用于具有AR功能的各种类型终端设备中,这些终端设备可以包括但不限于AR眼镜、AR头盔、手机、平板电脑等,本公开对终端设备的类型不做限制。
图1示出了可以应用本公开实施例的增强现实处理方法或增强现实处理装置的示例性系统架构的示意图。
实现本公开示例性方案的系统10可以包括AR显示模块101、存储模块102、摄像模块103和处理器105。
其中,本公开对系统10中各模块的类型不做限制。例如,在应用于AR眼镜的场景下,AR显示模块101可以包括光机、镜片(如,衍射波导片)等;在应用于手机的场景下,AR显示模块101可以为手机的显示屏。又例如,摄像模块103可以包括单目摄像模组、双目摄像模组或多目摄像模组,另外,本公开对摄像头传感器的尺寸也不做限制。
在利用系统10来实现本公开增强现实处理方案的过程中,摄像模块103可以采集场景的图像,在利用AR显示模块101显示图像的同时,可以将图像发送给处理器105。
处理器105提取图像的亮度信息,在基于亮度信息判断出所处场景为定义的暗环境的情况下,处理器105可以提取图像的边缘信息,并利用边缘信息确定出图像中真实对象的轮廓信息,在真实对象的轮廓坐标处配置虚拟标识,并通过AR显示模块101展示该虚拟标识。其中,虚拟标识可以是预先配置并存储于存储模块102中的标识。
基于如图1所示的系统,一方面,在目标真实对象的轮廓坐标处展示虚拟标识,有助于提升用户在暗环境下的视觉感知,使得用户可以通过终端设备看到可能存在的障碍物,避免用户在行进时可能发生磕碰;另一方面,由于目标真实对象的轮廓配置有虚拟标识,使得用户在进行虚拟交互操作时,放置虚拟对象并进行交互操作的过程更加准确。
图2示出了适于用来实现本公开示例性实施方式的电子设备的示意图。该电子设备作为本公开的终端设备的一种实现方式,可以达到在暗环境下提升用户视觉感知的目的。需要说明的是,图2示出的电子设备仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
本公开的电子设备至少包括处理器和存储器,存储器用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得处理器可以实现本公开示例性实施方式的增强现实处理方法。
具体的,如图2所示,电子设备200可以包括:处理器210、内部存储器221、外部存储器接口222、通用串行总线(Universal Serial Bus,USB)接口230、充电管理模块240、电源管理模块241、电池242、天线1、天线2、移动通信模块250、无线通信模块260、音频模块270、扬声器271、受话器272、麦克风273、耳机接口274、传感器模块280、显示屏290、摄像模组291、指示器292、马达293、按键294以及用户标识模块(Subscriber IdentificationModule,SIM)卡接口295等。其中传感器模块280可以包括深度传感器2801、压力传感器2802、陀螺仪传感器2803、气压传感器2804、磁传感器2805、加速度传感器2806、距离传感器2807、接近光传感器2808、指纹传感器2809、温度传感器2810、触摸传感器2811、环境光传感器2812及骨传导传感器2813等。
可以理解的是,本申请实施例示意的结构并不构成对电子设备200的具体限定。在本申请另一些实施例中,电子设备200可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或软件和硬件的组合实现。
处理器210可以包括一个或多个处理单元,例如:处理器210可以包括应用处理器(Application Processor,AP)、调制解调处理器、图形处理器(Graphics ProcessingUnit,GPU)、图像信号处理器(Image Signal Processor,ISP)、控制器、视频编解码器、数字信号处理器(Digital Signal Processor,DSP)、基带处理器和/或神经网络处理器(Neural-etwork Processing Unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。另外,处理器210中还可以设置存储器,用于存储指令和数据。
USB接口230是符合USB标准规范的接口,具体可以是MiniUSB接口,MicroUSB接口,USBTypeC接口等。USB接口230可以用于连接充电器为电子设备200充电,也可以用于电子设备200与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
充电管理模块240用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。电源管理模块241用于连接电池242、充电管理模块240与处理器210。电源管理模块241接收电池242和/或充电管理模块240的输入,为处理器210、内部存储器221、显示屏290、摄像模组291和无线通信模块260等供电。
电子设备200的无线通信功能可以通过天线1、天线2、移动通信模块250、无线通信模块260、调制解调处理器以及基带处理器等实现。
移动通信模块250可以提供应用在电子设备200上的包括2G/3G/4G/5G等无线通信的解决方案。
无线通信模块260可以提供应用在电子设备200上的包括无线局域网(WirelessLocal Area Networks,WLAN)(如无线保真(Wireless Fidelity,Wi-Fi)网络)、蓝牙(Bluetooth,BT)、全球导航卫星系统(Global Navigation Satellite System,GNSS)、调频(Frequency Modulation,FM)、近距离无线通信技术(Near Field Communication,NFC)、红外技术(Infrared,IR)等无线通信的解决方案。
电子设备200通过GPU、显示屏290及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏290和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器210可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
电子设备200可以通过ISP、摄像模组291、视频编解码器、GPU、显示屏290及应用处理器等实现拍摄功能。在一些实施例中,电子设备200可以包括1个或N个摄像模组291,N为大于1的正整数,若电子设备200包括N个摄像头,N个摄像头中有一个是主摄像头。
内部存储器221可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器221可以包括存储程序区和存储数据区。外部存储器接口222可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备200的存储能力。
电子设备200可以通过音频模块270、扬声器271、受话器272、麦克风273、耳机接口274及应用处理器等实现音频功能。例如音乐播放、录音等。
音频模块270用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块270还可以用于对音频信号编码和解码。在一些实施例中,音频模块270可以设置于处理器210中,或将音频模块270的部分功能模块设置于处理器210中。
扬声器271,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备200可以通过扬声器271收听音乐,或收听免提通话。受话器272,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备200接听电话或语音信息时,可以通过将受话器272靠近人耳接听语音。麦克风273,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风273发声,将声音信号输入到麦克风273。电子设备200可以设置至少一个麦克风273。耳机接口274用于连接有线耳机。
针对电子设备200包括的传感器,深度传感器2801用于获取景物的深度信息。压力传感器2802用于感受压力信号,可以将压力信号转换成电信号。陀螺仪传感器2803可以用于确定电子设备200的运动姿态。气压传感器2804用于测量气压。磁传感器2805包括霍尔传感器。电子设备200可以利用磁传感器2805检测翻盖皮套的开合。加速度传感器2806可检测电子设备200在各个方向上(一般为三轴)加速度的大小。距离传感器2807用于测量距离。接近光传感器2808可以包括例如发光二极管(LED)和光检测器,例如光电二极管。指纹传感器2809用于采集指纹。温度传感器2810用于检测温度。触摸传感器2811可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏290提供与触摸操作相关的视觉输出。环境光传感器2812用于感知环境光亮度。骨传导传感器2813可以获取振动信号。
按键294包括开机键,音量键等。按键294可以是机械按键。也可以是触摸式按键。马达293可以产生振动提示。马达293可以用于来电振动提示,也可以用于触摸振动反馈。指示器292可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。SIM卡接口295用于连接SIM卡。电子设备200通过SIM卡和网络交互,实现通话以及数据通信等功能。
本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读存储介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
图3示意性示出了本公开的示例性实施方式的增强现实处理方法的流程图。参考图3,增强现实处理方法可以包括以下步骤:
S32.获取目标图像,提取目标图像的亮度信息。
在本公开的示例性实施方式中,目标图像通常可以是终端设备的摄像模组实时拍摄出的图像,本公开对摄像模组的硬件参数及拍摄配置均不做限制。另外,目标图像还可以是现有的存储于终端设备的图像,例如,终端设备从其他设备或网络上接收到的图像,本公开对目标图像的来源也不做限制。
终端设备获取到目标图像后,可以提取目标图像的亮度信息。具体的,在以YUV格式传输图像信息的过程中,提取目标图像的亮度信息即是提取Y(亮度)通道的信息。
S34.如果目标图像的亮度信息满足第一亮度要求,则提取目标图像的边缘信息。
在步骤S32提取到目标图像的亮度信息后,终端设备判断该亮度信息是否满足第一亮度要求。
根据本公开的一些实施例,首先,终端设备可以计算目标图像上各像素点的亮度值的平均值;接下来,将该平均值与第一亮度阈值进行比较,如果该平均值小于第一亮度阈值,则执行提取目标图像的边缘信息的操作。
应当注意的是,第一亮度阈值可以人为设定,表征的是图像明暗的界限。也就是说,如果各像素点亮度值的平均值小于第一亮度阈值,则说明目标图像较暗,对应的,当前场景的光线较暗,此时可以执行本公开方案的后续处理过程。另外,如果各像素点亮度值的平均值大于等于第一亮度阈值,则说明目标图像的亮度满足通常的视觉要求,在这种情况下,结束本公开方案的处理过程。
根据本公开的另一些实施例,首先,针对目标图像,终端设备可以每间隔预设数量个像素点提取目标像素点,其中,该预设数量与目标图像的分辨率正相关。接下来,计算提取的目标像素点的亮度值的平均值,如果平均值小于上述第一亮度阈值,则执行提取目标图像的边缘信息的操作。
针对提取边缘信息的过程,可以利用一高频滤波器来实现边缘信息的提取。具体的,实现高频滤波器的特征提取算子可以包括但不限于Roberts算子、Sobel算子、Prewitt算子、Laplacian算子、DoG算子等。
S36.结合目标图像的边缘信息确定目标图像中目标真实对象的轮廓坐标。
根据本公开的一些实施例,可以将目标图像中由边缘信息确定出的所有真实对象作为本公开所述的目标真实对象,并确定出对应的轮廓坐标。
根据本公开的另一些实施例,考虑到目标图像可能即存在较暗的区域又存在较亮的区域,因此,可以将图像中较暗区域中的真实对象确定为目标真实对象。
具体的,首先,终端设备可以根据目标图像的边缘信息确定目标图像中所有候选对象的轮廓坐标,其中,候选对象为目标图像中的真实对象。也就是说,根据边缘信息直接确定出的对象即是这些实施例中描述的候选对象。
接下来,可以确定各候选对象轮廓坐标周围位置像素点的亮度信息,类似地,提取Y通道分量。
随后,终端设备判断候选对象的轮廓坐标周围位置像素点的亮度信息是否满足第二亮度要求,如果满足,则将该候选对象确定为目标真实对象,并确定出目标真实对象的轮廓坐标。
针对是否满足第二亮度要求,可以计算周围位置像素点的亮度值的平均值,如果周围位置像素点的亮度值的平均值小于第二亮度阈值,则将该候选对象确定为目标真实对象。其中,第二亮度阈值可以由人为设定,且通常小于上述第一亮度阈值。
在上述利用目标图像的边缘信息确定目标真实对象的轮廓坐标的基础上,根据本公开的又一些实施例,还可以利用深度信息来修正,以得到更加准确的轮廓坐标。
具体的,终端设备可以采用例如TOF(Time of flight,飞行时间)器件、结构光器件等来获取与目标图像对应的深度信息,并结合深度信息对边缘信息进行修正,例如,剔除与深度信息匹配度小于匹配度阈值的边缘信息,或者对边缘信息和深度信息进行加权处理,以得到修正后的特征点云,并利用修正后的特征点云确定目标图像中目标真实对象的轮廓坐标。
S38.在目标真实对象的轮廓坐标处配置第一虚拟标识,并展示第一虚拟标识。
在本公开的示例性实施方式中,第一虚拟标识可以是沿目标真实对象的轮廓而勾勒出的虚拟线条,应当理解的是,本公开的第一虚拟对象还可以是其他图形形状或样式,颜色也可以自定义配置,本公开对此不做限制。
确定出轮廓坐标,也就是说,确定出第一虚拟标识放置的位置后,可以在该位置处配置第一虚拟标识,具体的,可以从云端或终端设备本地获取第一虚拟标识,并通过放置锚点的方式在对应位置配置第一虚拟标识。在这种情况下,终端设备可以展示出第一虚拟标识。
参考图4,示出了一种显示虚拟标识前后的效果对比图。相比于原始的目标图像41,通过本公开示例性实施方式的增强现实处理方法,可以在对应的位置显示出虚拟线条,如图像42所示,以便用户进行查看。
另外,还可以在显示界面上配置控制虚拟标识显示与否的控件,以便可以根据用户的意愿开启或关闭显示虚拟标识的效果。
在本公开的另一些实施例中,如果配置第一虚拟标识的结果不能反映出完整的真实对象,例如,第一虚拟标识勾勒出的线条仅是完整真实对象的一部分,则可以补全真实对象的轮廓。
首先,根据目标图像的边缘信息确定目标真实对象的轮廓信息。
接下来,如果目标真实对象的轮廓信息为非完整轮廓信息,则根据目标真实对象的轮廓信息确定目标真实对象缺失的轮廓信息,以确定出目标真实对象缺失的轮廓信息对应的缺失轮廓坐标。具体的,可以将确定出的目标真实对象的轮廓信息上传至云端,以便云端将该轮廓信息与预存的完整的对象轮廓信息进行比对,以确定出缺失的轮廓信息,并将缺失的轮廓信息发送至终端设备,由此,终端设备可以确定出该缺失的轮廓信息对应的缺失轮廓坐标。
随后,终端设备可以在缺失轮廓坐标处配置第二虚拟标识,并展示第二虚拟标识。其中,第二虚拟标识可以是与第一虚拟标识不同的标识,例如,在第一虚拟标识以实线表示的情况下,第二虚拟标识可以表示为虚线。
此外,本公开还提供了一种预测暗环境下场景的方案,具体的,可以对目标图像进行分析,预设暗处可能的场景,并渲染出对应的对象形状和亮度。例如,可以利用机器学习模型实现此预测功能。参考图5,相比于原始的目标图像51,通过预测,可以得到如图像52预测的暗环境区域的对象。
根据本公开的又一些实施例,在目标图像为终端设备的摄像模组实时拍摄的图像的情况下,如果上述目标真实对象的轮廓坐标距终端设备的位置小于距离阈值,则终端设备可以结合该目标真实对象对应配置的第一虚拟标识发出提示信息。
具体的,针对确定距离的过程,在结合深度信息的实例中,可以根据深度传感器的反馈结果并结合边缘信息的坐标点位置确定出目标真实对象距终端设备的距离。
另外,提示信息可以包括但不限于以下形式或它们组合:将第一虚拟标识配置为以预设频率闪烁的样式、在第一虚拟标识的基础上叠加第三虚拟标识、改变第一虚拟标识的颜色,等等。
通过发出提示信息,进一步提醒了用户,避免行进时发生磕碰。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中还提供了一种应用于终端设备的增强现实处理装置。
图6示意性示出了本公开的示例性实施方式的增强现实处理装置的方框图。参考图6,根据本公开的示例性实施方式的增强现实处理装置6可以包括亮度信息获取模块61、边缘信息提取模块63、轮廓坐标确定模块65和虚拟标识配置模块67。
具体的,亮度信息获取模块61可以用于获取目标图像,提取目标图像的亮度信息;边缘信息提取模块63可以用于如果目标图像的亮度信息满足第一亮度要求,则提取目标图像的边缘信息;轮廓坐标确定模块65可以用于结合目标图像的边缘信息确定目标图像中目标真实对象的轮廓坐标;虚拟标识配置模块67可以用于在目标真实对象的轮廓坐标处配置第一虚拟标识,并展示第一虚拟标识。
基于本公开示例性实施方式的增强现实处理装置,一方面,在目标真实对象的轮廓坐标处展示虚拟标识,有助于提升用户在暗环境下的视觉感知,使得用户可以通过终端设备看到可能存在的障碍物,避免用户在行进时可能发生磕碰;另一方面,由于目标真实对象的轮廓配置有虚拟标识,使得用户在进行虚拟交互操作时,放置虚拟对象并进行交互操作的过程更加准确。
根据本公开的示例性实施例,边缘信息提取模块63可以被配置为执行:计算目标图像上各像素点的亮度值的平均值;如果各像素点的亮度值的平均值小于第一亮度阈值,则提取目标图像的边缘信息。
根据本公开的示例性实施例,轮廓坐标确定模块65可以被配置为执行:根据目标图像的边缘信息确定目标图像中所有候选对象的轮廓坐标;其中,候选对象为所述目标图像中的真实对象;确定各候选对象的轮廓坐标周围位置像素点的亮度信息;如果候选对象的轮廓坐标周围位置像素点的亮度信息满足第二亮度要求,则将该候选对象确定为目标真实对象,并确定出目标真实对象的轮廓坐标。
根据本公开的示例性实施例,轮廓坐标确定模块65确定目标真实对象的过程可以被配置为执行:计算周围位置像素点的亮度值的平均值;如果周围位置像素点的亮度值的平均值小于第二亮度阈值,则将该候选对象确定为目标真实对象。
根据本公开的示例性实施例,轮廓坐标确定模块65还可以被配置为执行:获取与目标图像对应的深度信息;利用深度信息对边缘信息进行修正,并根据修正后的结果确定目标图像中目标真实对象的轮廓坐标。
根据本公开的示例性实施例,参考图7,相比于增强现实处理装置6,增强现实处理装置7还可以包括缺失轮廓处理模块71。
具体的,缺失轮廓处理模块71可以被配置为执行:根据目标图像的边缘信息确定目标真实对象的轮廓信息;如果目标真实对象的轮廓信息为非完整轮廓信息,则根据目标真实对象的轮廓信息确定目标真实对象缺失的轮廓信息,以确定出目标真实对象缺失的轮廓信息对应的缺失轮廓坐标;在缺失轮廓坐标处配置第二虚拟标识,并展示第二虚拟标识。
根据本公开的示例性实施例,参考图8,相比于增强现实处理装置6,增强现实处理装置8还可以包括提示模块81。
具体的,提示模块81可以被配置为执行:如果目标真实对象的轮廓坐标距终端设备的位置小于距离阈值,则结合该目标真实对象对应配置的第一虚拟标识发出提示信息。
由于本公开实施方式的增强现实处理装置的各个功能模块与上述方法实施方式中相同,因此在此不再赘述。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。
Claims (8)
1.一种增强现实处理方法,应用于终端设备,其特征在于,包括:
获取目标图像,提取所述目标图像的亮度信息;
如果所述目标图像的亮度信息满足第一亮度要求,则提取所述目标图像的边缘信息;
根据所述目标图像的边缘信息确定所述目标图像中所有候选对象的轮廓坐标;其中,所述候选对象为所述目标图像中的真实对象;确定各所述候选对象的轮廓坐标周围位置像素点的亮度信息;计算所述周围位置像素点的亮度值的平均值;如果所述周围位置像素点的亮度值的平均值小于第二亮度阈值,则将所述候选对象确定为目标真实对象,并确定出所述目标真实对象的轮廓坐标;
在所述目标真实对象的轮廓坐标处配置第一虚拟标识,并展示所述第一虚拟标识。
2.根据权利要求1所述的增强现实处理方法,其特征在于,如果所述目标图像的亮度信息满足第一亮度要求,则提取所述目标图像的边缘信息,包括:
计算所述目标图像上各像素点的亮度值的平均值;
如果所述各像素点的亮度值的平均值小于第一亮度阈值,则提取所述目标图像的边缘信息。
3.根据权利要求1所述的增强现实处理方法,其特征在于,结合所述目标图像的边缘信息确定所述目标图像中目标真实对象的轮廓坐标包括:
获取与所述目标图像对应的深度信息;
利用所述深度信息对所述边缘信息进行修正,并根据修正后的结果确定所述目标图像中目标真实对象的轮廓坐标。
4.根据权利要求1至3中任一项所述的增强现实处理方法,其特征在于,所述增强现实处理方法还包括:
根据所述目标图像的边缘信息确定所述目标真实对象的轮廓信息;
如果所述目标真实对象的轮廓信息为非完整轮廓信息,则根据所述目标真实对象的轮廓信息确定所述目标真实对象缺失的轮廓信息,以确定出所述目标真实对象缺失的轮廓信息对应的缺失轮廓坐标;
在所述缺失轮廓坐标处配置第二虚拟标识,并展示所述第二虚拟标识。
5.根据权利要求1至3中任一项所述的增强现实处理方法,其特征在于,在所述目标图像为所述终端设备的摄像模组实时拍摄的图像的情况下,所述增强现实处理方法还包括:
如果所述目标真实对象的轮廓坐标距所述终端设备的位置小于距离阈值,则结合所述目标真实对象对应配置的第一虚拟标识发出提示信息。
6.一种增强现实处理装置,应用于终端设备,其特征在于,包括:
亮度信息获取模块,用于获取目标图像,提取所述目标图像的亮度信息;
边缘信息提取模块,用于如果所述目标图像的亮度信息满足第一亮度要求,则提取所述目标图像的边缘信息;
轮廓坐标确定模块,用于根据所述目标图像的边缘信息确定所述目标图像中所有候选对象的轮廓坐标;其中,所述候选对象为所述目标图像中的真实对象;确定各所述候选对象的轮廓坐标周围位置像素点的亮度信息;计算所述周围位置像素点的亮度值的平均值;如果所述周围位置像素点的亮度值的平均值小于第二亮度阈值,则将所述候选对象确定为目标真实对象,并确定出所述目标真实对象的轮廓坐标;
虚拟标识配置模块,用于在所述目标真实对象的轮廓坐标处配置第一虚拟标识,并展示所述第一虚拟标识。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至5中任一项所述的增强现实处理方法。
8.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述处理器执行时,使得所述处理器实现如权利要求1至5中任一项所述的增强现实处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010043241.XA CN111243105B (zh) | 2020-01-15 | 2020-01-15 | 增强现实处理方法及装置、存储介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010043241.XA CN111243105B (zh) | 2020-01-15 | 2020-01-15 | 增强现实处理方法及装置、存储介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111243105A CN111243105A (zh) | 2020-06-05 |
CN111243105B true CN111243105B (zh) | 2023-07-28 |
Family
ID=70879505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010043241.XA Active CN111243105B (zh) | 2020-01-15 | 2020-01-15 | 增强现实处理方法及装置、存储介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111243105B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112975957A (zh) * | 2021-02-07 | 2021-06-18 | 深圳市广宁股份有限公司 | 目标提取方法、系统、机器人及存储介质 |
CN113411227A (zh) * | 2021-05-07 | 2021-09-17 | 上海纽盾科技股份有限公司 | 基于ar辅助的网络设备测试方法及装置 |
CN113407267B (zh) * | 2021-05-07 | 2023-01-06 | 上海纽盾科技股份有限公司 | 等保测评中的ar辅助数据处理方法、装置及系统 |
CN113673330A (zh) * | 2021-07-14 | 2021-11-19 | 海南视联通信技术有限公司 | 一种监控显示方法、装置、电子设备及存储介质 |
CN114501051B (zh) * | 2022-01-24 | 2024-02-02 | 广州繁星互娱信息科技有限公司 | 直播对象的标记显示方法和装置、存储介质及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107507239A (zh) * | 2017-08-23 | 2017-12-22 | 维沃移动通信有限公司 | 一种图像分割方法及移动终端 |
CN109919866A (zh) * | 2019-02-26 | 2019-06-21 | Oppo广东移动通信有限公司 | 图像处理方法、装置、介质及电子设备 |
WO2019203952A1 (en) * | 2018-04-17 | 2019-10-24 | Pearson Education, Inc. | Systems and methods for applications of augmented reality |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2045774B1 (en) * | 2007-10-05 | 2016-05-04 | Sony Computer Entertainment Europe Ltd. | Homography estimation from multithreshold edges of a feature |
-
2020
- 2020-01-15 CN CN202010043241.XA patent/CN111243105B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107507239A (zh) * | 2017-08-23 | 2017-12-22 | 维沃移动通信有限公司 | 一种图像分割方法及移动终端 |
WO2019203952A1 (en) * | 2018-04-17 | 2019-10-24 | Pearson Education, Inc. | Systems and methods for applications of augmented reality |
CN109919866A (zh) * | 2019-02-26 | 2019-06-21 | Oppo广东移动通信有限公司 | 图像处理方法、装置、介质及电子设备 |
Non-Patent Citations (1)
Title |
---|
刘莉 ; .增强现实中基于轮廓深度恢复的虚实遮挡方法研究.计算机应用与软件.2011,(01),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111243105A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111243105B (zh) | 增强现实处理方法及装置、存储介质和电子设备 | |
CN110502954B (zh) | 视频分析的方法和装置 | |
CN111325842B (zh) | 地图构建方法、重定位方法及装置、存储介质和电子设备 | |
CN108594997B (zh) | 手势骨架构建方法、装置、设备及存储介质 | |
AU2020250124B2 (en) | Image processing method and head mounted display device | |
CN111179435B (zh) | 增强现实处理方法及装置、系统、存储介质和电子设备 | |
CN111815666B (zh) | 图像处理方法及装置、计算机可读存储介质和电子设备 | |
CN111445583B (zh) | 增强现实处理方法及装置、存储介质和电子设备 | |
CN111311758A (zh) | 增强现实处理方法及装置、存储介质和电子设备 | |
CN111917980B (zh) | 拍照控制方法及装置、存储介质和电子设备 | |
CN111161176B (zh) | 图像处理方法及装置、存储介质和电子设备 | |
CN112614057A (zh) | 一种图像虚化处理方法及电子设备 | |
CN112085647B (zh) | 一种人脸校正方法及电子设备 | |
CN111766606A (zh) | Tof深度图像的图像处理方法、装置、设备及存储介质 | |
US11798234B2 (en) | Interaction method in virtual reality scenario and apparatus | |
CN110807769B (zh) | 图像显示控制方法及装置 | |
CN112581358A (zh) | 图像处理模型的训练方法、图像处理方法及装置 | |
CN111837381A (zh) | 增强现实的通信方法及电子设备 | |
CN115601316A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN111462335B (zh) | 基于虚拟对象交互的设备控制方法及装置、介质和设备 | |
CN111400004B (zh) | 视频扫描中断处理方法及装置、存储介质和电子设备 | |
CN111325786B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN112329909B (zh) | 生成神经网络模型的方法、装置及存储介质 | |
KR20210052424A (ko) | 통신 장치 및 그 영상통화 방법 | |
CN113262478B (zh) | 增强现实处理方法及装置、存储介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |