CN110266939B - 显示方法及电子设备、存储介质 - Google Patents
显示方法及电子设备、存储介质 Download PDFInfo
- Publication number
- CN110266939B CN110266939B CN201910447529.0A CN201910447529A CN110266939B CN 110266939 B CN110266939 B CN 110266939B CN 201910447529 A CN201910447529 A CN 201910447529A CN 110266939 B CN110266939 B CN 110266939B
- Authority
- CN
- China
- Prior art keywords
- image
- acquisition
- shooting object
- obtaining
- collected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000010276 construction Methods 0.000 claims abstract description 64
- 230000007613 environmental effect Effects 0.000 claims abstract description 14
- 238000004590 computer program Methods 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 description 6
- 239000003086 colorant Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例公开了一种显示方法和电子设备、存储介质,其中,所述方法包括:所述电子设备所处的环境参数满足预定条件时,对所述电子设备所处的环境进行图像采集,得到第一采集图像,所述第一采集图像的像素表征为所述环境中至少一个拍摄对象相对于所述电子设备的距离;获得构建参数,所述构建参数至少能够使所述至少一个拍摄对象在目标图像中的显示色彩不同于在第一采集图像中的显示色彩;依据第一采集图像和构建参数,得到目标图像以使所述目标对象呈现在所述电子设备能够呈现的所述环境的虚拟画面中;其中,所述目标图像至少包括所述至少一个拍摄对象,所述目标图像至少在显示色彩上不同于所述第一采集图像。
Description
技术领域
本申请涉及显示技术,具体涉及一种显示方法和电子设备、存储介质。
背景技术
设置有红绿蓝(RGB)摄像装置如摄像头的增强现实(AR)或虚拟现实(VR)设备,由于RGB摄像头需依靠可见光进行成像,也即RGB摄像头可将从光线较好如光线明亮的环境中采集到的信息进行图像的呈现,对于从光线较差如光线暗淡的环境中采集到的信息无法进行成像。如何避免在光线较差条件下AR设备或VR设备无法正常显示RGB图像,成为了亟待解决的技术问题。
发明内容
为解决现有存在的技术问题,本发明实施例提供一种显示方法和电子设备、存储介质,至少能够避免在光线较差条件下AR设备或VR设备无法正常显示RGB图像的问题。
本发明实施例的技术方案是这样实现的:
本发明实施例提供一种显示方法,应用于电子设备中,所述方法包括:
所述电子设备所处的环境参数满足预定条件时,
对所述电子设备所处的环境进行图像采集,得到第一采集图像,所述第一采集图像的像素表征为所述环境中至少一个拍摄对象相对于所述电子设备的距离;
获得构建参数,所述构建参数至少能够使所述至少一个拍摄对象在目标图像中的显示色彩不同于在第一采集图像中的显示色彩;
依据第一采集图像和构建参数,得到目标图像以使所述目标对象呈现在所述电子设备能够呈现的所述环境的虚拟画面中;其中,所述目标图像至少包括所述至少一个拍摄对象,所述目标图像至少在显示色彩上不同于所述第一采集图像。
上述方案中,在依据第一采集图像和构建参数,得到目标图像之前,所述方法包括:
获得第二采集图像,所述第二采集图像的像素表征为所述至少一个拍摄对象的色彩属性;
相应地,所述依据第一采集图像和构建参数,得到目标图像,包括:
依据第一采集图像、第二采集图像和构建参数,得到目标图像。
上述方案中,所述依据第一采集图像、第二采集图像和构建参数,得到目标图像之前,所述方法包括:
获得至少一个拍摄对象在第一采集图像、第二采集图像中的位置信息;
获得至少一个拍摄对象在图像中的参考位置信息;
依据所述至少一个拍摄对象的参考位置信息,调整所述至少一个拍摄对象在第一采集图像、第二采集图像中的位置信息以使同一拍摄对象在第一采集图像、第二采集图像中的位置对应;
相应的,依据第一采集图像、第二采集图像和构建参数,得到目标图像,包括:
依据拍摄对象位置调整后的第一采集图像、第二采集图像和构建参数,得到目标图像。
上述方案中,所述依据拍摄对象位置调整后的第一采集图像、第二采集图像和构建参数,得到目标图像,包括:
依据拍摄对象位置调整后的第一采集图像、第二采集图像的像素,获得第一采集图像、第二采集图像的特征信息;
依据特征信息,至少得到所述至少一个拍摄对象的属性信息;
依据所述至少一个拍摄对象的属性信息,得到所述目标图像。
上述方案中,所述获得构建参数,包括:
根据网络训练模型获得构建参数;
其中,所述网络训练模型根据采集到的所述电子设备所处环境的第三采集图像、或者根据采集到的所述电子设备所处环境的第三采集图像和第四采集图像训练得到;其中,所述第三采集图像的像素表征为所述至少一个拍摄对象相对于所述电子设备的距离,所述第四采集图像的像素表征为所述至少一个拍摄对象的色彩属性。
上述方案中,所述方法包括:
获得至少一个拍摄对象在第三采集图像、第四采集图像中的位置信息;
获得至少一个拍摄对象在图像中的参考位置信息;
依据所述至少一个拍摄对象的参考位置信息,调整所述至少一个拍摄对象在第三采集图像、第四采集图像中的位置信息以使同一拍摄对象在第一采集图像、第二采集图像中的位置对应;
所述网络训练模型根据拍摄对象位置调整后的第三采集图像、第四采集图像训练得到。
本发明实施例提供一种电子设备,包括:
采集单元,用于所述电子设备所处的环境参数满足预定条件时,对所述电子设备所处的环境进行图像采集,得到第一采集图像,所述第一采集图像的像素表征为所述环境中至少一个拍摄对象相对于所述电子设备的距离;
第一获取单元,用于获得构建参数,所述构建参数至少能够使所述至少一个拍摄对象在目标图像中的显示色彩不同于在第一采集图像中的显示色彩;
第二获取单元,用于依据第一采集图像和构建参数,得到目标图像以使所述目标对象呈现在所述电子设备能够呈现的所述环境的虚拟画面中;其中,所述目标图像至少包括所述至少一个拍摄对象,所述目标图像至少在显示色彩上不同于所述第一采集图像。
上述方案中,所述电子设备还包括:第三获取单元,用于获得第二采集图像,所述第二采集图像的像素表征为所述至少一个拍摄对象的色彩属性;
相应地,所述第二获取单元,用于依据第一采集图像、第二采集图像和构建参数,得到目标图像。
上述方案中,所述电子设备包括:
第四获取单元,用于获得至少一个拍摄对象在第一采集图像、第二采集图像中的位置信息;获得至少一个拍摄对象在图像中的参考位置信息;
调整单元,用于依据所述至少一个拍摄对象的参考位置信息,调整所述至少一个拍摄对象在第一采集图像、第二采集图像中的位置信息以使同一拍摄对象在第一采集图像、第二采集图像中的位置对应;
相应地,所述第二获取单元,用于依据拍摄对象位置调整后的第一采集图像、第二采集图像和构建参数,得到目标图像。
上述方案中,所述第二获取单元,用于:
依据拍摄对象位置调整后的第一采集图像、第二采集图像的像素,获得第一采集图像、第二采集图像的特征信息;
依据特征信息,至少得到所述至少一个拍摄对象的属性信息;
依据所述至少一个拍摄对象的属性信息,得到所述目标图像。
上述方案中,所述第一获取单元,用于:
根据网络训练模型获得构建参数;
其中,所述网络训练模型根据采集到的所述电子设备所处环境的第三采集图像、或者根据采集到的所述电子设备所处环境的第三采集图像和第四采集图像训练得到;其中,所述第三采集图像的像素表征为所述至少一个拍摄对象相对于所述电子设备的距离,所述第四采集图像的像素表征为所述至少一个拍摄对象的色彩属性。
上述方案中,所述第一获取单元,用于:
获得至少一个拍摄对象在第三采集图像、第四采集图像中的位置信息;
获得至少一个拍摄对象在图像中的参考位置信息;
依据所述至少一个拍摄对象的参考位置信息,调整所述至少一个拍摄对象在第三采集图像、第四采集图像中的位置信息以使同一拍摄对象在第一采集图像、第二采集图像中的位置对应;
所述网络训练模型根据拍摄对象位置调整后的第三采集图像、第四采集图像训练得到。
本发明实施例提供一种存储介质,用于存储计算机程序,该计算机程序被执行时至少执行前述的显示方法。
本发明实施例提供的显示方法和电子设备、存储介质,其中,所述方法包括:所述电子设备所处的环境参数满足预定条件时,对所述电子设备所处的环境进行图像采集,得到第一采集图像,所述第一采集图像的像素表征为所述环境中至少一个拍摄对象相对于所述电子设备的距离;获得构建参数,所述构建参数至少能够使所述至少一个拍摄对象在目标图像中的显示色彩不同于在第一采集图像中的显示色彩;依据第一采集图像和构建参数,得到目标图像以使所述目标对象呈现在所述电子设备能够呈现的所述环境的虚拟画面中;其中,所述目标图像至少包括所述至少一个拍摄对象,所述目标图像至少在显示色彩上不同于所述第一采集图像。
本申请实施例中,环境参数满足预定条件时、如在光线条件较差(不好)情况下,通过采集所处环境的深度图像以及获得的构建参数,得到能够在AR或VR设备中呈现的正常图像-目标图像。以解决在光线较差条件下AR设备或VR设备无法正常显示RGB图像的问题,实现AR设备或VR设备在光线较差条件下的RGB图像的正常显示。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请提供显示方法的第一实施例的实现流程示意图;
图2为本申请提供显示方法的第二实施例的实现流程示意图;
图3为本申请提供的训练GAN模型的示意图;
图4为本申请提供的应用训练好的GAN模型实现显示方法的示意图;
图5为本申请提供的电子设备的组成结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行。并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请提供显示方法的第一实施例,应用于电子设备中,如图1所示,所述方法包括:
步骤101:所述电子设备所处的环境参数满足预定条件时,对所述电子设备所处的环境进行图像采集,得到第一采集图像,所述第一采集图像的像素表征为所述环境中至少一个拍摄对象相对于所述电子设备的距离;
本步骤中,电子设备所处的环境参数满足预定条件可以是表征环境光的参数如光线亮度达到预设亮度阈值,也即光线条件较好;也可以是表征环境光的参数如光线亮度未达到预设亮度阈值,也即光线条件较差。优选为,表征环境光的参数如光线亮度未达到预设亮度阈值。其中,预设亮度阈值可以是具体数值也可以是范围值,根据实际情况而灵活设定。
可以理解,在电子设备所处的环境参数满足预定条件的情况下,采集电子设备所处环境的深度图像(第一采集图像),深度图像的像素表征为所处环境中至少一个拍摄对象相对于电子设备的距离(深度信息)。对深度图像的采集可通过景深摄像头来实现。
步骤102:获得构建参数,所述构建参数至少能够使所述至少一个拍摄对象在目标图像中的显示色彩不同于在第一采集图像中的显示色彩;
步骤103:依据第一采集图像和构建参数,得到目标图像以使所述目标对象呈现在所述电子设备能够呈现的所述环境的虚拟画面中;其中,所述目标图像至少包括所述至少一个拍摄对象,所述目标图像至少在显示色彩上不同于所述第一采集图像。
本步骤中,依据采集到的深度图像和构建参数,得到至少在显示色彩上不同于深度图像的目标图像,并将目标图像呈现在电子设备呈现出的其所处环境的虚拟画面中。
可以理解,执行步骤101~103的实体为电子设备如AR或VR设备。
前述方案中,在光线条件较差(不好)情况下,通过采集所处环境的深度图像以及获得的构建参数,得到能够在AR或VR设备中呈现的正常图像-目标图像。以解决在光线较差条件下AR设备或VR设备无法正常显示RGB图像的问题,实现AR设备或VR设备在光线较差条件下的RGB图像的正常显示,为用户提供了方便,大大提升用户的使用体验。同时也突显了电子设备的功能多样性。
本申请提供显示方法的第二实施例,应用于电子设备中,如图2所示,所述方法包括:
步骤201:所述电子设备所处的环境参数满足预定条件时,对所述电子设备所处的环境进行图像采集,得到第一采集图像,所述第一采集图像的像素表征为所述环境中至少一个拍摄对象相对于所述电子设备的距离(深度信息);
本步骤中,电子设备所处的环境参数满足预定条件优选为表征环境光的参数如光线亮度未达到预设亮度阈值,也即在光线条件较差情况下,采集深度图像。深度图像由景深摄像头采集。
步骤202:获得第二采集图像,所述第二采集图像的像素表征为所述至少一个拍摄对象的色彩属性;
本步骤中,采集RGB图像(第二采集图像),RGB图像的像素用于表征拍摄对象的色彩。RGB图像由RGB摄像头采集。可以理解,本申请实施例中的第一采集图像、第二采集图像由两个不同的采集装置如摄像头进行采集。
步骤203:获得构建参数,所述构建参数至少能够使所述至少一个拍摄对象在目标图像中的显示色彩不同于在第一采集图像中的显示色彩;
步骤204:依据第一采集图像、第二采集图像和构建参数,得到目标图像。
本领域技术人员应该而知,深度图像的像素用于表示深度信息,其为灰度图像、不具有色彩。前述方案中,利用在光线较差条件下采集到的深度图像、能够表示拍摄对象的显示色彩的RGB图像以及构建参数,能够构建出可在AR或VR设备中正常显示的RGB图像(目标图像),并将其显示在AR或VR设备呈现的虚拟画面中。从而实现AR设备或VR设备在光线较差条件下的RGB图像的正常显示,大大提升用户的使用体验,也突显了电子设备的功能多样性。
在一个可选的方案中,所述依据第一采集图像、第二采集图像和构建参数,得到目标图像之前,所述方法包括:
获得至少一个拍摄对象在第一采集图像、第二采集图像中的位置信息;
获得至少一个拍摄对象在图像中的参考位置信息;
依据所述至少一个拍摄对象的参考位置信息,调整所述至少一个拍摄对象在第一采集图像、第二采集图像中的位置信息以使同一拍摄对象在第一采集图像、第二采集图像中的位置对应;
相应的,依据第一采集图像、第二采集图像和构建参数,得到目标图像,包括:
依据拍摄对象位置调整后的第一采集图像、第二采集图像和构建参数,得到目标图像。
本可选方案中,由于两个采集图像(深度图像和RGB图像)由各自的采集装置进行采集,两个采集装置在AR或VR设备上的采集角度均不相同,所以由采集角度不同的两个采集装置采集到的同一环境中的同一拍摄对象在图像中的位置不能,考虑到这一问题,在对目标图像进行构建之前,还需要校正同一拍摄对象在两个采集图像中的位置,通常校正为一致,例如,两个采集图像中的第5个像素-第40个像素表示同一拍摄对象如水杯,这个过程也可称之为数据对齐。数据对齐可对目标图像实现准确地构建,使得用户更能够体验到良好的AR或VR体验。
在一个可选的方案中,所述依据拍摄对象位置调整后的第一采集图像、第二采集图像和构建参数,得到目标图像,包括:
依据拍摄对象位置调整后的第一采集图像、第二采集图像的像素,获得第一采集图像、第二采集图像的特征信息;
依据特征信息,至少得到所述至少一个拍摄对象的属性信息;
依据所述至少一个拍摄对象的属性信息,得到所述目标图像。
本可选方案中,在进行数据对齐后,将数据对齐的两个采集图像的像素,提取两个采集图像的特征信息,并从特征信息中获得拍摄对象的轮廓信息和/或色彩信息,进而得到电子设备在当前所处环境中对拍摄对象进行拍摄的正常图像。
在一个可选的方案中,所述获得构建参数,包括:
根据网络训练模型获得构建参数;
其中,所述网络训练模型根据采集到的所述电子设备所处环境的第三采集图像、或者根据采集到的所述电子设备所处环境的第三采集图像和第四采集图像训练得到;其中,所述第三采集图像的像素表征为所述至少一个拍摄对象相对于所述电子设备的距离,所述第四采集图像的像素表征为所述至少一个拍摄对象的色彩属性。
在本可选方案中,网络训练模型预先训练而得,具体是依据大量的训练数据如在训练阶段采集的图像:由景深摄像头采集的电子设备所处环境的深度图像(第三采集图像)、和由RGB摄像头采集的电子设备所处环境的RGB图像(第四采集图像)训练得到。具体的训练过程请参见后续相关说明。本领域技术人员应该而知,根据大量的训练数据得到的网络训练模型鲁棒性更好,更为健壮,基于鲁棒性较强的网络训练模型得到的构建参数准确性较高,由此能够得到更为准确的目标图像,使得用户体验大大得到改善。
在一个可选的方案中,所述方法包括:
获得至少一个拍摄对象在第三采集图像、第四采集图像中的位置信息;
获得至少一个拍摄对象在图像中的参考位置信息;
依据所述至少一个拍摄对象的参考位置信息,调整所述至少一个拍摄对象在第三采集图像、第四采集图像中的位置信息以使同一拍摄对象在第一采集图像、第二采集图像中的位置对应;
所述网络训练模型根据拍摄对象位置调整后的第三采集图像、第四采集图像训练得到。
本可选方案中,在训练阶段采集的深度图像和RGB图像在训练之前,还需要先进行数据对齐,将两个采集图像中的表示同一拍摄对象的位置调整到相同像素上。如此,可方便对网络训练模型的训练,进而得到更为准确的构建参数,使得目标图像构建的准确性更高。
下面结合附图3和附图4对本发明实施例作进一步详细的说明。
可以理解,深度图像为灰度图像,不具有色彩,本申请实施例中在电子设备所处环境的光线条件较差的情况下,通过景深摄像头采集深度图像,还需要通过RGB摄像头采集RGB图像。考虑到深度图像为灰度图像,在光线条件差的情况下采集的RGB图像通常较黑,如果电子设备不经过任何处理、直接显示采集到的图像,是必导致用户的观看体验较差。本申请实施例中,考虑到深度图像不具有色彩以及光线条件差的情况下采集的RGB图像通常较黑的不足,利用RGB图像的像素表征色彩的特性,依据深度图像、RGB图像和根据网络训练模型获得的构建参数,得到能够在AR设备或VR设备中进行正常显示的图像(RGB图像),以避免相关技术中的在光线较差条件下AR设备或VR设备无法正常显示图像的问题,提升用户的体验度。
在使用网络训练模型进行构建参数的获取之前,需要先对网络训练模型进行训练。本申请实施例中,使用生成对抗模型(GAN,Generative Adversarial Network)作为网络训练模型,并对其进行训练从训练好的GAN中得到构建参数。
如图3所示,GAN包括生成网络和判别网络两个部分。其中,生成网络和判别网络的工作原理是:生成网络用于依据输入的训练数据如在电子设备所处的光线不足的情况下采集到的深度图像和RGB图像生成期望图像如正常的RGB图像。判别网络依据接收的训练数据,对生成网络依据训练数据生成的RGB图像进行判断,判断其是生成的RGB图像的概率,也即判断是生成的RGB图像还是采集的图像,如果判别网络无法识别一输入的图像是由生成网络生成的还是真实采集的RGB图像,则说明生成网络被训练好。本方案就在于利用被训练好的生成网络,依据在光线不好条件下采集的深度图像和RGB图像、以及被训练好的生成网络的权重参数(理想权重参数),对电子设备在光线条件好的情况下能够采集到的RGB图像进行构建。具体实现如下所述:
具体的,预先在电子设备所处的光线条件不足的情况下采集电子设备所处环境下的多个深度图像(第三采集图像)和多个RGB图像(在光线不足情况下采集的RGB图像-第四采集图像较黑),作为训练数据。在电子设备所处的光线条件较好的情况下采集多个RGB图像,作为训练阶段判别网络判断一输入图像是采集到的RGB图像还是生成网络生成的RGB图像的依据,用以判断生成网络训练的好坏。
采集如上信息后,将图像输入至GAN、具体是生成网络之前,考虑到用于采集深度图像的景深摄像头和用于采集RGB图像的RGB摄像头其设置在AR或VR设备上的位置不同、自然地采集角度不同而导致同一环境下的拍摄对象在二种图像中出现的位置不同。例如,电子设备当前所处的环境中具有一杯子,在通过景深摄像头采集的深度图像中像素[0,0]-[20,30]为水杯所在的位置,在通过RGB摄像头采集的RGB图像中像素[5,5]-[25,35]为水杯所在的位置,可见同一水杯在二种图像中出现的位置不同。为方便后续的训练,需要进行数据的对齐:如可以以RGB图像中各拍摄对象的位置为参考位置,对深度图像中相应拍摄对象的位置进行调整;或者,可以以深度图像中各拍摄对象的位置为参考位置,对RGB图像中相应拍摄对象的位置进行调整。调整为相同的拍摄对象在二种图像中的位置为相同,例如将深度图像中的水杯位置调整至像素[5,5]-[25,35]。
将位置调整后的深度图像、RGB图像输入至生成网络,对生成网络进行训练。其中,生成网络至少包括:输入层、卷积层、池化层和反卷积层。具体的,由于RGB图像基于红、绿、蓝三通道数据构成,将深度图像作为第四通道数据。假定电子设备的像素为100万,则RGB图像可表示为三通道数据100*100*3;深度图像表示为100*100*1,则输入至生成网络的输入层的数据即为100*100*4(表示四通道数据)。再将四通道数据进行预处理、如去均值、归一化、降维等处理。预处理后的四通道数据输入至卷积层。可以理解,数据经过卷积层即为进行卷积操作,卷积操作中自带有多个权重系数如w1~wL。依据训练数据对GAN模型、具体生成网络进行训练就是在于确定一组理想权重系数(L个权重系数)的具体取值,该具体取值能够使得判别网络无法识别一输入图像是真实采集的图像还是生成网络依据训练数据生成的图像(此时说明生成网络生成的图像足以接近于真实采集的图像)。如生成网络的卷积计算可以简单的表示为公式:其中,Z为生成网络依据四通道数据生成的RGB图像;xi表示为四通道数据;wi表示第i个权重系数;L表示为权重系数的数量。
本领域技术人员应该而知,通常生成网络的卷积层包括多个层,每一层的输出数据为下一层的输入数据,每一层的卷积操作可均视为提取该层输入数据的特征,例如第一层卷积用来识别图像梯度,第二层卷积用于识别拍摄对象的线,第三层卷积用于识别拍摄对象轮廓如形状,以此类推,直到用于识别出特定物体如杯子、桌子等的卷积层。可以理解,通过多个卷积层可识别出采集的深度图像和RGB图像中的各个拍摄对象。通过反卷积层对深度图像和RGB图像的细节之处如拍摄对象在环境中的显示色彩、与各个拍摄对象相邻的物体等进行构建,得到生成网络依据训练数据而生成的RGB图像。可以理解,生成网络在本方案中的作用在于:依据在电子设备所处的光线条件不足的情况下采集电子设备所处环境下的多个深度图像和多个RGB图像来推导该电子设备在光线条件好的情况下能够采集的RGB图像。
生成网络根据大量的深度图像、RGB图像可生成出多个RGB图像,每个RGB图像的生成都对应一组权重系数。在本申请实施例中,判别网络依据预先在电子设备所处的光线条件较好的情况下采集的多个RGB图像,对生成网络生成的多个RGB图像进行概率判断,也即判断输入至判别网络的RGB图像是真实采集的RGB图像还是由生成网络生成的RGB图像。一旦判别网络判断生成网络生成的一RGB图像的概率为0.5,也即其无法明确该生成的RGB图像是由生成网络生成的,并非真实采集的图像,则说明生成网络生成的这幅图像足以乱真,此时生成网络训练好、生成这幅图像时使用的那组权重系数即为理想权重系数组,将其进行存储。
待到使用时,也即在电子设备所处的环境的光线不足的情况下,电子设备通过景深摄像头采集当前环境下的深度图像(第一采集图像)、通过RGB摄像头采集当前环境下的RGB图像(第二采集图像),将这二种图像进行数据对齐,使得同一拍摄对象在二种图像的位置相同。然后,将这二种图像表示为四通道数据作为训练好的生成网络的输入数据,经过训练好的生成网络、具体是卷积层对四通道数据进行卷积操作。可以理解,训练好的生成网络中的权重系数为存储的理想权重系数。使用理想的权重系数(构建参数)进行卷积操作,可识别出在所处环境下的各个拍摄对象。再通过训练好的生成网络、具体是反卷积层对深度图像和RGB图像的细节之处如拍摄对象在当前环境中的显示色彩、与各个拍摄对象相邻的物体等进行构建,至此依据训练好的生成网络构建的RGB图像。
可以理解,由于该RGB图像的构建使用的权重参数是理想权重参数,所以构建出的RGB图像更能够接近在光线条件好的情况下电子设备采集的图像,也即能够使得电子设备显示正常的RGB图像,提升用户的使用体验。此外,根据大量的训练数据得到的训练好的GAN,其鲁棒性更好,权重参数的准确性更高。依据准确性更高的权重参数构建出的目标图像更接近于电子设备在光线条件好的情况下实际采集的图像,使得用户在光线不好的环境下能够观看到正常的RGB图像,用户体验被大大提升。
本申请提供一种电子设备的实施例,如图5所示,电子设备包括:采集单元501、第一获取单元502和第二获取单元503;其中,
采集单元501,用于所述电子设备所处的环境参数满足预定条件时,对所述电子设备所处的环境进行图像采集,得到第一采集图像,所述第一采集图像的像素表征为所述环境中至少一个拍摄对象相对于所述电子设备的距离;
第一获取单元502,用于获得构建参数,所述构建参数至少能够使所述至少一个拍摄对象在目标图像中的显示色彩不同于在第一采集图像中的显示色彩;
第二获取单元503,用于依据第一采集图像和构建参数,得到目标图像以使所述目标对象呈现在所述电子设备能够呈现的所述环境的虚拟画面中;其中,所述目标图像至少包括所述至少一个拍摄对象,所述目标图像至少在显示色彩上不同于所述第一采集图像。
在一个可选的方案中,所述电子设备还包括:第三获取单元,用于获得第二采集图像,所述第二采集图像的像素表征为所述至少一个拍摄对象的色彩属性;
相应地,所述第二获取单元502,用于依据第一采集图像、第二采集图像和构建参数,得到目标图像。
在一个可选的方案中,所述电子设备包括:
第四获取单元,用于获得至少一个拍摄对象在第一采集图像、第二采集图像中的位置信息;获得至少一个拍摄对象在图像中的参考位置信息;
调整单元,用于依据所述至少一个拍摄对象的参考位置信息,调整所述至少一个拍摄对象在第一采集图像、第二采集图像中的位置信息以使同一拍摄对象在第一采集图像、第二采集图像中的位置对应;
相应地,所述第二获取单元503,用于依据拍摄对象位置调整后的第一采集图像、第二采集图像和构建参数,得到目标图像。
在一个可选的方案中,所述第二获取单元503,用于:
依据拍摄对象位置调整后的第一采集图像、第二采集图像的像素,获得第一采集图像、第二采集图像的特征信息;
依据特征信息,至少得到所述至少一个拍摄对象的属性信息;
依据所述至少一个拍摄对象的属性信息,得到所述目标图像。
在一个可选的方案中,所述第一获取单元502,用于:
根据网络训练模型获得构建参数;
其中,所述网络训练模型根据采集到的所述电子设备所处环境的第三采集图像、或者根据采集到的所述电子设备所处环境的第三采集图像和第四采集图像训练得到;其中,所述第三采集图像的像素表征为所述至少一个拍摄对象相对于所述电子设备的距离,所述第四采集图像的像素表征为所述至少一个拍摄对象的色彩属性。
在一个可选的方案中,所述第一获取单元502,用于:
获得至少一个拍摄对象在第三采集图像、第四采集图像中的位置信息;
获得至少一个拍摄对象在图像中的参考位置信息;
依据所述至少一个拍摄对象的参考位置信息,调整所述至少一个拍摄对象在第三采集图像、第四采集图像中的位置信息以使同一拍摄对象在第一采集图像、第二采集图像中的位置对应;
所述网络训练模型根据拍摄对象位置调整后的第三采集图像、第四采集图像训练得到。
本发明实施例中,所述采集单元501、第一获取单元502和第二获取单元503,在实际应用中均可由所述电子设备中的中央处理器(CPU,Central Processing Unit)、数字信号处理器(DSP,Digital Signal Processor)、微控制单元(MCU,Microcontroller Unit)或可编程门阵列(FPGA,Field-Programmable Gate Array)实现。
需要说明的是,本申请实施例的电子设备,由于该电子设备解决问题的原理与前述的显示方法相似,因此,电子设备的实施过程及实施原理均可以参见前述显示方法的实施过程及实施原理描述,重复之处不再赘述。
本申请实施例还提供一种存储介质,用于存储计算机程序,该计算机程序被执行时至少执行前述实施例一和/或实施例二的控制方法,还可以执行在可选实施例中的方法。
所述计算机程序被执行时还至少执行前述的控制方法的其它步骤如实施例一和/或二的可选方案中的步骤。
需要说明的是,本申请实施例的存储介质可以由任何类型的易失性或非易失性存储设备、或者它们的组合来实现。其中,非易失性存储器可以是只读存储器(ROM,Read OnlyMemory)、可编程只读存储器(PROM,Programmable Read-Only Memory)、可擦除可编程只读存储器(EPROM,Erasable Programmable Read-Only Memory)、电可擦除可编程只读存储器(EEPROM,Electrically Erasable Programmable Read-Only Memory)、磁性随机存取存储器(FRAM,Ferromagnetic Random Access Memory)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(CD-ROM,Compact Disc Read-Only Memory);磁表面存储器可以是磁盘存储器或磁带存储器。易失性存储器可以是随机存取存储器(RAM,Random AccessMemory),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM,Static Random Access Memory)、同步静态随机存取存储器(SSRAM,Synchronous Static Random Access Memory)、动态随机存取存储器(DRAM,Dynamic Random Access Memory)、同步动态随机存取存储器(SDRAM,SynchronousDynamic Random Access Memory)、双倍数据速率同步动态随机存取存储器(DDRSDRAM,Double Data Rate Synchronous Dynamic Random Access Memory)、增强型同步动态随机存取存储器(ESDRAM,Enhanced Synchronous Dynamic Random Access Memory)、同步连接动态随机存取存储器(SLDRAM,SyncLink Dynamic Random Access Memory)、直接内存总线随机存取存储器(DRRAM,Direct Rambus Random Access Memory)。本发明实施例描述的存储介质旨在包括但不限于这些和任意其它适合类型的存储器。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
本申请所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的几个产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本申请所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (8)
1.一种显示方法,应用于电子设备中,其特征在于,所述方法包括:
所述电子设备所处的环境参数满足预定条件时,
对所述电子设备所处的环境进行图像采集,得到第一采集图像,所述第一采集图像的像素表征为所述环境中至少一个拍摄对象相对于所述电子设备的距离;
获得第二采集图像,所述第二采集图像的像素表征为所述至少一个拍摄对象的色彩属性;
获得构建参数,所述构建参数至少能够使所述至少一个拍摄对象在目标图像中的显示色彩不同于在第一采集图像中的显示色彩,所述构建参数用于根据所述第一采集图像和所述第二采集图像,推导出所述目标图像;
依据所述第一采集图像、所述第二采集图像和所述构建参数,得到目标图像,以使所述目标对象呈现在所述电子设备能够呈现的所述环境的虚拟画面中;其中,所述目标图像至少包括所述至少一个拍摄对象,所述目标图像至少在显示色彩上不同于所述第一采集图像。
2.根据权利要求1所述的方法,所述依据第一采集图像、第二采集图像和构建参数,得到目标图像之前,所述方法包括:
获得至少一个拍摄对象在第一采集图像、第二采集图像中的位置信息;
获得至少一个拍摄对象在图像中的参考位置信息;
依据所述至少一个拍摄对象的参考位置信息,调整所述至少一个拍摄对象在第一采集图像、第二采集图像中的位置信息以使同一拍摄对象在第一采集图像、第二采集图像中的位置对应;
相应的,依据第一采集图像、第二采集图像和构建参数,得到目标图像,包括:
依据拍摄对象位置调整后的第一采集图像、第二采集图像和构建参数,得到目标图像。
3.根据权利要求2所述的方法,所述依据拍摄对象位置调整后的第一采集图像、第二采集图像和构建参数,得到目标图像,包括:
依据拍摄对象位置调整后的第一采集图像、第二采集图像的像素,获得第一采集图像、第二采集图像的特征信息;
依据特征信息,至少得到所述至少一个拍摄对象的属性信息;
依据所述至少一个拍摄对象的属性信息,得到所述目标图像。
4.根据权利要求1至3任一项所述的方法,所述获得构建参数,包括:
根据网络训练模型获得构建参数;
其中,所述网络训练模型根据采集到的所述电子设备所处环境的第三采集图像、或者根据采集到的所述电子设备所处环境的第三采集图像和第四采集图像训练得到;其中,所述第三采集图像的像素表征为所述至少一个拍摄对象相对于所述电子设备的距离,所述第四采集图像的像素表征为所述至少一个拍摄对象的色彩属性。
5.根据权利要求4所述的方法,所述方法包括:
获得至少一个拍摄对象在第三采集图像、第四采集图像中的位置信息;
获得至少一个拍摄对象在图像中的参考位置信息;
依据所述至少一个拍摄对象的参考位置信息,调整所述至少一个拍摄对象在第三采集图像、第四采集图像中的位置信息以使同一拍摄对象在第一采集图像、第二采集图像中的位置对应;
所述网络训练模型根据拍摄对象位置调整后的第三采集图像、第四采集图像训练得到。
6.一种电子设备,其特征在于,包括:
采集单元,用于所述电子设备所处的环境参数满足预定条件时,对所述电子设备所处的环境进行图像采集,得到第一采集图像,所述第一采集图像的像素表征为所述环境中至少一个拍摄对象相对于所述电子设备的距离;
第一获取单元,用于获得构建参数,所述构建参数至少能够使所述至少一个拍摄对象在目标图像中的显示色彩不同于在第一采集图像中的显示色彩,所述构建参数用于根据所述第一采集图像和所述第二采集图像,推导出所述目标图像;
第三获取单元,用于获得第二采集图像,所述第二采集图像的像素表征为所述至少一个拍摄对象的色彩属性;
第二获取单元,用于依据所述第一采集图像、所述第二采集图像和所述构建参数,得到目标图像,以使所述目标对象呈现在所述电子设备能够呈现的所述环境的虚拟画面中;其中,所述目标图像至少包括所述至少一个拍摄对象,所述目标图像至少在显示色彩上不同于所述第一采集图像。
7.根据权利要求6所述的电子设备,所述电子设备包括:
第四获取单元,用于获得至少一个拍摄对象在第一采集图像、第二采集图像中的位置信息;获得至少一个拍摄对象在图像中的参考位置信息;
调整单元,用于依据所述至少一个拍摄对象的参考位置信息,调整所述至少一个拍摄对象在第一采集图像、第二采集图像中的位置信息以使同一拍摄对象在第一采集图像、第二采集图像中的位置对应;
相应地,所述第二获取单元,用于依据拍摄对象位置调整后的第一采集图像、第二采集图像和构建参数,得到目标图像;
其中,所述第二获取单元,还用于:
依据拍摄对象位置调整后的第一采集图像、第二采集图像的像素,获得第一采集图像、第二采集图像的特征信息;
依据特征信息,至少得到所述至少一个拍摄对象的属性信息;
依据所述至少一个拍摄对象的属性信息,得到所述目标图像。
8.一种存储介质,用于存储计算机程序,该计算机程序被执行时至少执行前述权利要求1~5任一项所述的显示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910447529.0A CN110266939B (zh) | 2019-05-27 | 2019-05-27 | 显示方法及电子设备、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910447529.0A CN110266939B (zh) | 2019-05-27 | 2019-05-27 | 显示方法及电子设备、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110266939A CN110266939A (zh) | 2019-09-20 |
CN110266939B true CN110266939B (zh) | 2022-04-22 |
Family
ID=67915558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910447529.0A Active CN110266939B (zh) | 2019-05-27 | 2019-05-27 | 显示方法及电子设备、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110266939B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104392045A (zh) * | 2014-11-25 | 2015-03-04 | 沈阳建筑大学 | 一种基于智能移动终端的实时增强虚拟现实系统及方法 |
CN107222734A (zh) * | 2017-06-30 | 2017-09-29 | 联想(北京)有限公司 | 一种图像采集装置及电子设备 |
CN107491771A (zh) * | 2017-09-21 | 2017-12-19 | 百度在线网络技术(北京)有限公司 | 人脸检测方法和装置 |
CN108198250A (zh) * | 2018-01-23 | 2018-06-22 | 网易(杭州)网络有限公司 | 虚拟对象模型染色方法及装置、存储介质、电子设备 |
CN108965731A (zh) * | 2018-08-22 | 2018-12-07 | Oppo广东移动通信有限公司 | 一种暗光图像处理方法及装置、终端、存储介质 |
CN108989783A (zh) * | 2018-08-22 | 2018-12-11 | Oppo广东移动通信有限公司 | 电子装置和电子装置的控制方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9448404B2 (en) * | 2012-11-13 | 2016-09-20 | Qualcomm Incorporated | Modifying virtual object display properties to increase power performance of augmented reality devices |
-
2019
- 2019-05-27 CN CN201910447529.0A patent/CN110266939B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104392045A (zh) * | 2014-11-25 | 2015-03-04 | 沈阳建筑大学 | 一种基于智能移动终端的实时增强虚拟现实系统及方法 |
CN107222734A (zh) * | 2017-06-30 | 2017-09-29 | 联想(北京)有限公司 | 一种图像采集装置及电子设备 |
CN107491771A (zh) * | 2017-09-21 | 2017-12-19 | 百度在线网络技术(北京)有限公司 | 人脸检测方法和装置 |
CN108198250A (zh) * | 2018-01-23 | 2018-06-22 | 网易(杭州)网络有限公司 | 虚拟对象模型染色方法及装置、存储介质、电子设备 |
CN108965731A (zh) * | 2018-08-22 | 2018-12-07 | Oppo广东移动通信有限公司 | 一种暗光图像处理方法及装置、终端、存储介质 |
CN108989783A (zh) * | 2018-08-22 | 2018-12-11 | Oppo广东移动通信有限公司 | 电子装置和电子装置的控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110266939A (zh) | 2019-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764091B (zh) | 活体检测方法及装置、电子设备和存储介质 | |
US10540806B2 (en) | Systems and methods for depth-assisted perspective distortion correction | |
US9940717B2 (en) | Method and system of geometric camera self-calibration quality assessment | |
CN113992861B (zh) | 一种图像处理方法及图像处理装置 | |
US9491366B2 (en) | Electronic device and image composition method thereof | |
CN113554658B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN105303161A (zh) | 一种多人拍照的方法及装置 | |
EP2733674A1 (en) | Object display device, object display method, and object display program | |
JP2004357277A (ja) | デジタル画像処理方法 | |
CN109525786B (zh) | 视频处理方法、装置、终端设备及存储介质 | |
CN112802081B (zh) | 一种深度检测方法、装置、电子设备及存储介质 | |
CN110349163A (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN111325051A (zh) | 一种基于人脸图像roi选取的人脸识别方法及装置 | |
CN111028276A (zh) | 图像对齐方法、装置、存储介质及电子设备 | |
CN111383254A (zh) | 一种深度信息获取方法、系统及终端设备 | |
CN111353965B (zh) | 图像修复方法、装置、终端及存储介质 | |
CN114511820A (zh) | 货架商品检测方法、装置、计算机设备及存储介质 | |
CN113298753A (zh) | 敏感肌的检测方法、图像处理方法、装置及设备 | |
CN111127367A (zh) | 人脸图像处理的方法、装置及系统 | |
CN114119701A (zh) | 图像处理方法及其装置 | |
CN114663570A (zh) | 贴图生成方法、装置、电子装置及可读存储介质 | |
CN112073640B (zh) | 全景信息采集位姿获取方法及装置、系统 | |
CN110177216B (zh) | 图像处理方法、装置、移动终端以及存储介质 | |
CN110266939B (zh) | 显示方法及电子设备、存储介质 | |
US12035033B2 (en) | DNN assisted object detection and image optimization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |