CN111696037B - 深度图像处理方法及装置、存储介质和电子设备 - Google Patents
深度图像处理方法及装置、存储介质和电子设备 Download PDFInfo
- Publication number
- CN111696037B CN111696037B CN202010449951.2A CN202010449951A CN111696037B CN 111696037 B CN111696037 B CN 111696037B CN 202010449951 A CN202010449951 A CN 202010449951A CN 111696037 B CN111696037 B CN 111696037B
- Authority
- CN
- China
- Prior art keywords
- depth
- information
- depth image
- image
- acquisition data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 33
- 239000013598 vector Substances 0.000 claims description 23
- 238000006243 chemical reaction Methods 0.000 claims description 22
- 238000013507 mapping Methods 0.000 claims description 5
- 230000000903 blocking effect Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 230000005236 sound signal Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提供了一种深度图像处理方法、深度图像处理装置、计算机可读存储介质和电子设备,涉及图像处理技术领域。该深度图像处理方法包括:接收第一深度采集数据和第二深度采集数据;确定与第一深度采集数据对应的第一深度信息,并确定与第二深度采集数据对应的第二深度信息;基于第一深度信息和第二深度信息,执行插值操作,得到至少一个第三深度信息;利用第三深度信息,生成与该第三深度信息对应的深度图像。本公开可以提高深度图像的准确性并可生成高帧率的深度视频。
Description
技术领域
本公开涉及图像处理技术领域,具体而言,涉及一种深度图像处理方法、深度图像处理装置、计算机可读存储介质和电子设备。
背景技术
随着图像处理技术的飞速发展,图像三维信息的获取需求越来越大。在工业制造、增强现实、物体重建、游戏娱乐等众多领域,均涉及获取场景深度信息的问题。
深度信息的获取需求也越来越高,具体体现在需要得到高帧率的深度视频。目前,可以通过提高深度采集模组的输出频率来得到高帧率的深度视频,然而,这种高输出频率的采集模组成本较高且功耗也会增大。
发明内容
本公开提供一种深度图像处理方法、深度图像处理装置、计算机可读存储介质和电子设备,进而至少在一定程度上克服高帧率深度采集模组成本高、功耗大的问题。
根据本公开的第一方面,提供了一种深度图像处理方法,包括:接收第一深度采集数据和第二深度采集数据;确定与第一深度采集数据对应的第一深度信息,并确定与第二深度采集数据对应的第二深度信息;基于第一深度信息和第二深度信息,执行插值操作,得到至少一个第三深度信息;利用第三深度信息,生成与该第三深度信息对应的深度图像。
根据本公开的第二方面,提供了一种深度图像处理装置,包括:深度传感器,用于接收第一深度采集数据和第二深度采集数据;深度信息生成器,用于确定与第一深度采集数据对应的第一深度信息,并确定与第二深度采集数据对应的第二深度信息;基于第一深度信息和第二深度信息,执行插值操作,得到至少一个第三深度信息;深度图像生成器,用于利用第三深度信息,生成与该第三深度信息对应的深度图像。
根据本公开的第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的深度图像处理方法。
根据本公开的第四方面,提供了一种电子设备,包括处理器;存储器,用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得所述处理器实现上述的深度图像处理方法。
在本公开的一些实施例所提供的技术方案中,利用第一深度采集数据对应的第一深度信息以及第二深度采集数据对应的第二深度信息,执行插值操作,得到至少一个第三深度信息,并生成与该第三深度信息对应的深度图像。一方面,在生成深度图像之前,进行插帧的操作,由此,可以避免生成深度图像后再进行插帧而导致深度信息丢失或信息不准确的问题,提高了新生成的深度图像的准确性;另一方面,相比于提高深度采集模组的输出频率或采用更高性能的采集处理装置的方案,本公开利用对原始深度信息的插帧处理来提高输出的深度视频的帧率,成本低且功耗小。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本公开实施例的深度图像处理方案的示例性系统架构的示意图;
图2示出了适于用来实现本公开实施例的电子设备的结构示意图;
图3示意性示出了根据本公开的示例性实施方式的深度图像处理方法的流程图;
图4示出了根据本公开的示例性实施方式的多帧插值方式的示意图;
图5示出了本公开示例性实施例中一种基于运动估计确定运动矢量的示意图;
图6示出了本公开示例性实施例中一种对修正后的运动矢量的示意图;
图7示出了本公开示例性实施例中一种基于运动补偿进行插帧的示意图;
图8示出了本公开深度图像处理过程的一个实施例的示意图;
图9示意性示出了根据本公开的示例性实施方式的深度图像处理装置的方框图;
图10示意性示出了根据本公开的另一示例性实施方式的深度图像处理装置的方框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。另外,下面所有的术语“第一”、“第二”仅是为了区分的目的,不应作为本公开内容的限制。
图1示出了可以应用本公开实施例的深度图像处理方案的示例性系统架构的示意图。
如图1所示,系统架构1000可以包括终端设备1001、1002、1003中的一种或多种,网络1004和服务器1005。网络1004用于在终端设备1001、1002、1003和服务器1005之间提供通信链路的介质。网络1004可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器1005可以是多个服务器组成的服务器集群等。
用户可以使用终端设备1001、1002、1003通过网络1004与服务器1005交互,以接收或发送消息等。终端设备1001、1002、1003可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。服务器1005可以是提供各种服务的服务器。
本公开示例性实施方式的深度图像处理过程可以仅通过终端设备1001、1002、1003实现。具体的,终端设备1001、1002、1003可以接收第一深度采集数据和第二深度采集数据,确定与第一深度采集数据对应的第一深度信息,确定与第二深度采集数据对应的第二深度信息,基于第一深度信息和第二深度信息执行插值操作,得到至少一个第三深度信息,并生成与第三深度信息对应的深度图像。
在本公开另一个实施方式中,终端设备1001、1002、1003还可以通过网络1004将接收到的第一深度采集数据和第二深度采集数据发送给服务器1005。服务器1005确定第一深度采集数据对应的第一深度信息以及第二深度采集数据对应的第二深度信息,执行插值操作,得到至少一个第三深度信息,生成对应的深度图像。服务器1005还可以将生成的深度图像反馈给终端设备1001、1002、1003。
另外,服务器1005还可以获取由终端设备1001、1002、1003发送的第一深度信息和第二深度信息,执行插值操作,得到第三深度信息,并生成对应的深度图像。
需要理解的是,虽然下面以仅由终端设备执行本公开的深度图像处理过程为例进行说明,然而,本公开对终端设备和服务器可以分别执行的步骤不做限制。
由于本公开的深度图像处理方案在生成深度图像之前,进行插值处理,因此,在尽可能不丢失深度信息的情况下生成新的深度图像,提高了深度图像准确性的同时,也提高了深度视频的帧率。可以单独输出高帧率的深度视频,还可以实现与高帧率RGB图像的匹配,可被应用于工业制造、增强现实、物体重建、游戏娱乐等众多领域。
图2示出了适于用来实现本公开示例性实施方式的电子设备的示意图。本公开示例性实施方式所述的终端设备可以被配置为如图2所示的方式。需要说明的是,图2示出的电子设备仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
本公开的电子设备至少包括处理器和存储器,存储器用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得处理器可以实现本公开示例性实施方式的深度图像处理方法。
具体的,如图2所示,电子设备200可以包括:处理器210、内部存储器221、外部存储器接口222、通用串行总线(Universal Serial Bus,USB)接口230、充电管理模块240、电源管理模块241、电池242、天线1、天线2、移动通信模块250、无线通信模块260、音频模块270、扬声器271、受话器272、麦克风273、耳机接口274、传感器模块280、显示屏290、摄像模组291、指示器292、马达293、按键294以及用户标识模块(Subscriber IdentificationModule,SIM)卡接口295等。其中传感器模块280可以包括深度传感器2801、压力传感器2802、陀螺仪传感器2803、气压传感器2804、磁传感器2805、加速度传感器2806、距离传感器2807、接近光传感器2808、指纹传感器2809、温度传感器2810、触摸传感器2811、环境光传感器2812及骨传导传感器2813等。
可以理解的是,本申请实施例示意的结构并不构成对电子设备200的具体限定。在本申请另一些实施例中,电子设备200可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或软件和硬件的组合实现。
处理器210可以包括一个或多个处理单元,例如:处理器210可以包括应用处理器(Application Processor,AP)、调制解调处理器、图形处理器(Graphics ProcessingUnit,GPU)、图像信号处理器(Image Signal Processor,ISP)、控制器、视频编解码器、数字信号处理器(Digital Signal Processor,DSP)、基带处理器和/或神经网络处理器(Neural-etwork Processing Unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。另外,处理器210中还可以设置存储器,用于存储指令和数据。
USB接口230是符合USB标准规范的接口,具体可以是MiniUSB接口,MicroUSB接口,USBTypeC接口等。USB接口230可以用于连接充电器为电子设备200充电,也可以用于电子设备200与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
充电管理模块240用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。电源管理模块241用于连接电池242、充电管理模块240与处理器210。电源管理模块241接收电池242和/或充电管理模块240的输入,为处理器210、内部存储器221、显示屏290、摄像模组291和无线通信模块260等供电。
电子设备200的无线通信功能可以通过天线1、天线2、移动通信模块250、无线通信模块260、调制解调处理器以及基带处理器等实现。
移动通信模块250可以提供应用在电子设备200上的包括2G/3G/4G/5G等无线通信的解决方案。
无线通信模块260可以提供应用在电子设备200上的包括无线局域网(WirelessLocal Area Networks,WLAN)(如无线保真(Wireless Fidelity,Wi-Fi)网络)、蓝牙(Bluetooth,BT)、全球导航卫星系统(Global Navigation Satellite System,GNSS)、调频(Frequency Modulation,FM)、近距离无线通信技术(Near Field Communication,NFC)、红外技术(Infrared,IR)等无线通信的解决方案。
电子设备200通过GPU、显示屏290及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏290和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器210可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
电子设备200可以通过ISP、摄像模组291、视频编解码器、GPU、显示屏290及应用处理器等实现拍摄功能。在一些实施例中,电子设备200可以包括1个或N个摄像模组291,N为大于1的正整数,若电子设备200包括N个摄像头,N个摄像头中有一个是主摄像头。
内部存储器221可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器221可以包括存储程序区和存储数据区。外部存储器接口222可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备200的存储能力。
电子设备200可以通过音频模块270、扬声器271、受话器272、麦克风273、耳机接口274及应用处理器等实现音频功能。例如音乐播放、录音等。
音频模块270用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块270还可以用于对音频信号编码和解码。在一些实施例中,音频模块270可以设置于处理器210中,或将音频模块270的部分功能模块设置于处理器210中。
扬声器271,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备200可以通过扬声器271收听音乐,或收听免提通话。受话器272,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备200接听电话或语音信息时,可以通过将受话器272靠近人耳接听语音。麦克风273,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风273发声,将声音信号输入到麦克风273。电子设备200可以设置至少一个麦克风273。耳机接口274用于连接有线耳机。
针对电子设备200包括的传感器,深度传感器2801用于获取景物的深度信息。压力传感器2802用于感受压力信号,可以将压力信号转换成电信号。陀螺仪传感器2803可以用于确定电子设备200的运动姿态。气压传感器2804用于测量气压。磁传感器2805包括霍尔传感器。电子设备200可以利用磁传感器2805检测翻盖皮套的开合。加速度传感器2806可检测电子设备200在各个方向上(一般为三轴)加速度的大小。距离传感器2807用于测量距离。接近光传感器2808可以包括例如发光二极管(LED)和光检测器,例如光电二极管。指纹传感器2809用于采集指纹。温度传感器2810用于检测温度。触摸传感器2811可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏290提供与触摸操作相关的视觉输出。环境光传感器2812用于感知环境光亮度。骨传导传感器2813可以获取振动信号。
按键294包括开机键,音量键等。按键294可以是机械按键。也可以是触摸式按键。马达293可以产生振动提示。马达293可以用于来电振动提示,也可以用于触摸振动反馈。指示器292可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。SIM卡接口295用于连接SIM卡。电子设备200通过SIM卡和网络交互,实现通话以及数据通信等功能。
本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读存储介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
图3示意性示出了本公开的示例性实施方式的深度图像处理方法的流程图。参考图3,所述深度图像处理方法可以包括以下步骤:
S32.接收第一深度采集数据和第二深度采集数据。
在本公开的示例性实施方式中,第一深度采集数据和第二深度采集数据可以是用于生成深度图像的原始深度数据,可以通过终端设备配备的深度传感器采集得到。其中,深度传感器可以是TOF(Time Of Flight,飞行时间)相位信息采集模组、3D结构光光斑信息采集模组或其他原始深度信息采集模组。
以3D结构光光斑信息采集模组为例,第一深度采集数据和第二深度采集数据均可以是光斑信号,具体的,第一深度采集数据对应第一光斑信号,第二深度采集数据对应第二光斑信号。
根据本公开的一些实施例,在深度传感器因为内部或外部因素导致在一段时间内深度采集失败的情况下,第一深度采集数据可以是该段时间之前最后一帧深度图对应的原始深度数据,第二深度采集数据可以是该段时间之后第一帧深度图对应的原始深度数据。
另外,需要注意的是,本公开对第一深度采集数据对应深度图和第二深度采集数据对应深度图之间的时间相位关系不做限制,可以是连续的深度图,也可以是间隔一定时间段的深度图。
S34.确定与第一深度采集数据对应的第一深度信息,并确定与第二深度采集数据对应的第二深度信息。
终端设备在接收到第一深度采集数据后,可以确定出对应的第一深度信息。
在第一深度采集数据对应相位信息的情况下,终端设备可以对第一深度采集数据进行相位校准,以得到对应的第一深度信息。
在第一深度采集数据对应光斑信号的情况下,终端设备可以对第一深度采集数据进行光电转换,以得到对应的第一深度信息。
首先,可以对光斑信号进行光电转换,生成中间信息;接下来,基于该中间信息确定与第一深度采集数据对应的第一深度信息。
根据本公开的一些实施例,可以直接将该中间信息确定为第一深度信息。
根据本公开的另一些实施例,生成中间信息的具体过程还可以包括:对光斑信号进行光电转换,得到光电转换后的信息。
如果光电转换后的信息为一维信息,则可以采用一定的顺序(如,正序、逆序、乱序等),排列生成二维信息,该二维信息满足预定排列要求。其中,预定排列要求为后续信息处理要求的排列方式,这种排列方式可以预先存储在设备中,以便调用。例如,在CMOS(Complementary Metal Oxide Semiconductor,补金属氧化物半导体)按行采样得到电信号的情况下,可以按列排布生成二维信息,并将生成的二维信息确定为中间信息。
如果光电转换后的信息为三维信息,则可以按采集时间的顺序,将三维信息转化为多个二维信息。针对这些二维信息,可以对每一个像素进行加权处理,还可以通过一存储列表,将加权的数值重新进行映射。其中,这些二维信息中像素的权重可以根据镜头的属性测试出,例如,按时间顺序,连续采集了四组二维信息,其中,第一组和第三组相比于第二组效果较好,则可以将第一组和第三组对应的权重设置为大于第二组对应的权重。通过上述加权的处理方式,可以将三维信息转换为满足预定排列要求的二维信息,作为中间信息。
如果光电转换后的信息本身即是二维信息,但不满足预定排列要求,则需要将光电转换后的信息转化为满足预定排列要求的二维信息,作为中间信息。例如,在预定排列要求为按列排列的情况下,如果光电转换后的信息为按行排列的信息,则可以将列排列的信息转化为按行排列的信息,作为中间信息。
此外,在得到中间信息后,还可以对中间信息进行进一步处理,以得到第一深度信息。具体的,这些处理可以包括镜头畸变校正、滤波、去噪中的一种或多种,本公开对此不作具体限制。
上面说明了确定与第一深度采集数据对应的第一深度信息的过程,类似地,可以确定与第二深度采集数据对应的第二深度信息,在此不再赘述。
S36.基于第一深度信息和第二深度信息,执行插值操作,得到至少一个第三深度信息。
步骤S34确定出的第一深度信息可以对应第一原始深度图像,第二深度信息可以对应第二原始深度图像。需要说明的是,这里所说的原始深度图像并非最终要生成并应用于实际的深度图像。
如果第一原始深度图像和第二原始深度图像对应单帧,也就是说,第一原始深度图像由单帧数据形成,第二原始深度图像由单帧数据形成,那么可以直接对第一原始深度图像和第二原始深度图像进行插值操作,生成至少一个第三深度信息。
如果第一原始深度图像和第二原始深度图像对应多帧,参考图4,第一原始深度图像(深度图P)由P1、P2、...、PN共N帧形成,第二原始深度图像(深度图T)由T1、T2、...、TN共N帧形成,那么可以对P1、T1进行插值操作以得到表征为插值1的图像、对P2、T2进行插值操作以得到表征为插值2的图像、…、对PN、TN进行插值操作以得到表征为插值N的图像。在这种情况下,可以由插值1的图像、插值2的图像、插值N的图像形成插值深度图,也就是对应于第三深度信息的原始深度图。
根据本公开的一些实施例,可以确定第一原始深度图像与第二原始深度图像之间待进行插帧的时间相位,并按待进行插帧的时间相位,进行插值操作。容易理解的是,待进行插帧的时间相位的数量与第三深度信息的数量相同。
具体的,可以对第一原始深度图像与第二原始深度图像之间的时间间隔进行等相位划分,以确定出待进行插帧的时间相位。例如,划分成n个时间段,针对每一个时间段的节点,均可以执行插值操作。其中,可以将这n-1个时间段节点记为待进行插帧的时间相位。另外,n可以是默认值或由用户自行设置,本公开对此不做限制。
针对插值操作,本公开可以采用的方法包括但不限于MEMC(Motion Estimate andMotion Compensation,运动估计和运动补偿)、光流法、神经网络等FRC(Frame RateConversion,频率转换)方法。下面以MEMC为例进行说明。
首先,可以分别对第一原始深度图像和第二原始深度图像进行图像分块操作,并确定第一原始深度图像中图像块相对于第二原始深度图像的运动矢量。参考图5,可以将第一原始深度图像中图像块相对于第二原始深度图像的运动矢量记为前向运动矢量。另外,还可以确定第二原始深度图像中图像块相对于第一原始深度图像的运动矢量,记为后向运动矢量。
另外,可以对前向运动矢量进行修正操作,其中,该修正操作包括滤波、加权等操作中的至少一种,以确定出每个图像块的前向运动矢量。针对利用后向运动矢量的实施例,过程类似,如图6所示。
接下来,可以根据第一原始深度图像中图像块相对于第二原始深度图像的运动矢量(即,前向运动矢量),并基于第一原始深度图像与第二原始深度图像之间待进行插帧的时间相位,确定待生成的插帧图像中与该图像块对应的插帧块相对于第一原始深度图像和第二原始深度图像的映射运动矢量,如图7所示。针对后向运动矢量的过程类似。
随后,利用映射运动矢量在第一原始深度图像和第二原始深度图像中查找对应的图像块,并对查找出的图像块进行插值操作,进而生成插帧图像,并将该插帧图像配置于对应的时间相位。
需要说明的是,这里的插帧图像对应于本公开所述的第三深度信息。
S38.利用第三深度信息,生成与该第三深度信息对应的深度图像。
在本公开的示例性实施方式中,可以来用深度图像生成器将第三深度信息转换为深度图像。
在一些实施例中,第三深度信息为满足预定排列要求的二维信息,而深度图像生成器的输入通常为原始深度信息,因此,在步骤S36确定出第三深度信息后,可以对第三深度信息进行与步骤S34中生成满足预定排列要求的二维信息相反的变换处理,以得到第三深度信息对应的原始深度信息,并将该原始深度信息输入深度图像生成器,以得到对应的深度图像。
此外,本公开还可以包括结合上述处理过程生成深度视频的方案。具体的,在深度图像生成器,利用第一深度信息,生成与第一深度信息对应的深度图像,并利用第二深度信息,生成与第二深度信息对应的深度图像。接下来,可以基于第一深度信息对应的深度图像、与插值得到的第三深度信息对应的深度图像以及与第二深度信息对应的深度图像,生成深度视频。这种进行插值后的深度视频具有高帧率。
输出的高帧率深度视频在前景及背景上具有如下特性:前景区域可产生位移、缩放、形状变化、位姿变化等,背景区域可以实现轻微的偏移。
输出的高帧率深度视频在帧率上具有如下特征:帧率可以实现均衡增加,或者动态增加(即,不同时间段的帧率可以发生变化)。另外,还可以对深度视频中的深度图进行替换、修改等操作。
此外,针对插值过程,除上述等相位划分时间相位外,还可以采用随机或时间渐变的方式确定出时间相位。
另外,针对原始深度视频中每两个待插值的深度图之间,插入新生成的深度图的数量和/或插值方法可以不一致。
下面将参考图8对本公开深度图像处理过程的一个实施例进行说明。
首先,可以采用连续调制的TOF方法,在两种不同的发射信号频率下,通过控制积分时间,深度传感器采样得到不同相位的8组电信号81,进行光电转换后,将8组电信号81进行10比特量化,生成8张原始电荷图83。另外,深度传感器还可以采样得到8组电信号82,进行光电转换后,将8组电信号82进行10比特量化,生成8张原始电荷图84。
一方面,深度图像生成器可以利用8张原始电荷图83生成深度图像85,可以利用8张原始电荷图84生成深度图像86。
另一方面,可以采用2倍帧率的方式进行插值操作,也就是说,在8张原始电荷图83与8张原始电荷图84中插值,形成8张插值电荷图87,即插值产生新的8张原始电荷图像,利用深度图像生成器可以生成深度图像88。
由此,综合新生成的深度图像,可以实现2倍于原始帧率的深度视频输出。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中还提供了一种深度图像处理装置。
图9示意性示出了本公开的示例性实施方式的深度图像处理装置的方框图。参考图9,根据本公开的示例性实施方式的深度图像处理装置9可以包括深度传感器91、深度信息生成器93和深度图像生成器95。
具体的,深度传感器91可以用于接收第一深度采集数据和第二深度采集数据;深度信息生成器93可以用于确定与第一深度采集数据对应的第一深度信息,并确定与第二深度采集数据对应的第二深度信息;基于第一深度信息和第二深度信息,执行插值操作,得到至少一个第三深度信息;深度图像生成器95可以用于利用第三深度信息,生成与该第三深度信息对应的深度图像。
根据本公开的示例性实施例,参考图10,相比于深度图像处理装置9,深度图像处理装置10还可以包括深度视频生成器101。
具体的,深度视频生成器101可以被配置为执行:利用第一深度信息,生成与第一深度信息对应的深度图像;利用第二深度信息,生成与第二深度信息对应的深度图像;基于与第一深度信息对应的深度图像、与第三深度信息对应的深度图像以及与第二深度信息对应的深度图像,生成深度视频。
根据本公开的示例性实施例,第一深度采集数据为光斑信号,在这种情况下,深度信息生成器93可以被配置为执行:对光斑信号进行光电转换,生成中间信息;基于中间信息确定与第一深度采集数据对应的第一深度信息。
根据本公开的示例性实施例,深度信息生成器93对光斑信号进行光电转换以生成中间信息的过程可以被配置为执行:对第一深度采集数据进行光电转换,得到光电转换后的信息;如果光电转换后的信息为一维信息或三维信息,则将光电转换后的信息转化为满足预定排列要求的二维信息,以生成中间信息;如果光电转换后的信息为二维信息且不满足预定排列要求,则将光电转换后的信息转化为满足预定排列要求的二维信息,以生成中间信息。
根据本公开的示例性实施例,第一深度信息对应第一原始深度图像,第二深度信息对应第二原始深度图像。在这种情况下,深度信息生成器93可以被配置为执行:确定第一原始深度图像与第二原始深度图像之间待进行插帧的时间相位;按待进行插帧的时间相位,进行插值操作。
根据本公开的示例性实施例,深度信息生成器93按待进行插帧的时间相位进行插值操作的过程可以被配置为执行:分别对第一原始深度图像和第二原始深度图像进行图像分块操作,并确定第一原始深度图像中图像块相对于第二原始深度图像的运动矢量;根据第一原始深度图像中图像块相对于第二原始深度图像的运动矢量,并基于待进行插帧的时间相位,确定插值操作后生成的插帧图像中与图像块对应的插值块相对于第一原始深度图像和第二原始深度图像的映射运动矢量;根据映射运动矢量分别在第一原始深度图像和第二原始深度图像中查找对应的图像块;对查找出的图像块进行插值操作,结合插值操作的结果生成插帧图像,并将插帧图像配置于对应的时间相位;其中,插帧图像对应于第三深度信息。
由于本公开实施方式的深度图像处理装置的各个功能模块与上述方法实施方式中相同,因此在此不再赘述。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。
Claims (9)
1.一种深度图像处理方法,其特征在于,包括:
接收第一深度采集数据和第二深度采集数据;
对第一深度采集数据进行光电转换,确定与所述第一深度采集数据对应的第一深度信息,并确定与所述第二深度采集数据对应的第二深度信息;
在生成深度图像之前,对所述第一深度信息对应的第一原始深度图像和所述第二深度信息对应的第二原始深度图像之间的时间间隔进行等相位划分,得到待进行插帧的时间相位,按所述时间相位执行插值操作,得到至少一个第三深度信息;
利用所述第三深度信息,生成与该所述第三深度信息对应的深度图像。
2.根据权利要求1所述的深度图像处理方法,其特征在于,所述深度图像处理方法还包括:
利用所述第一深度信息,生成与所述第一深度信息对应的深度图像;
利用所述第二深度信息,生成与所述第二深度信息对应的深度图像;
基于与所述第一深度信息对应的深度图像、与所述第三深度信息对应的深度图像以及与所述第二深度信息对应的深度图像,生成深度视频。
3.根据权利要求1所述的深度图像处理方法,其特征在于,所述第一深度采集数据为光斑信号;其中,确定与所述第一深度采集数据对应的第一深度信息包括:
对所述光斑信号进行光电转换,生成中间信息;
基于所述中间信息确定与所述第一深度采集数据对应的第一深度信息。
4.根据权利要求3所述的深度图像处理方法,其特征在于,对所述光斑信号进行光电转换,生成中间信息,包括:
对所述光斑信号进行光电转换,得到光电转换后的信息;
如果所述光电转换后的信息为一维信息或三维信息,则将所述光电转换后的信息转化为满足预定排列要求的二维信息,以生成所述中间信息;
如果所述光电转换后的信息为二维信息且不满足所述预定排列要求,则将所述光电转换后的信息转化为满足所述预定排列要求的二维信息,以生成所述中间信息。
5.根据权利要求1所述的深度图像处理方法,其特征在于,按所述待进行插帧的时间相位,进行插值操作,包括:
分别对所述第一原始深度图像和所述第二原始深度图像进行图像分块操作,并确定所述第一原始深度图像中图像块相对于所述第二原始深度图像的运动矢量;
根据所述第一原始深度图像中图像块相对于所述第二原始深度图像的运动矢量,并基于所述待进行插帧的时间相位,确定插值操作后生成的插帧图像中与图像块对应的插值块相对于所述第一原始深度图像和所述第二原始深度图像的映射运动矢量;
根据所述映射运动矢量分别在所述第一原始深度图像和所述第二原始深度图像中查找对应的图像块;
对查找出的图像块进行插值操作,结合插值操作的结果生成所述插帧图像,并将所述插帧图像配置于对应的时间相位;
其中,所述插帧图像对应于所述第三深度信息。
6.一种深度图像处理装置,其特征在于,包括:
深度传感器,用于接收第一深度采集数据和第二深度采集数据;
深度信息生成器,用于对第一深度采集数据进行光电转换,确定与所述第一深度采集数据对应的第一深度信息,并确定与所述第二深度采集数据对应的第二深度信息;
在生成深度图像之前,对所述第一深度信息对应的第一原始深度图像和所述第二深度信息对应的第二原始深度图像之间的时间间隔进行等相位划分,得到待进行插帧的时间相位,按所述时间相位执行插值操作,得到至少一个第三深度信息;
深度图像生成器,用于利用所述第三深度信息,生成与该所述第三深度信息对应的深度图像。
7.根据权利要求6所述的深度图像处理装置,其特征在于,所述深度图像处理装置还包括:
深度视频生成器,用于利用所述第一深度信息,生成与所述第一深度信息对应的深度图像;利用所述第二深度信息,生成与所述第二深度信息对应的深度图像;基于与所述第一深度信息对应的深度图像、与所述第三深度信息对应的深度图像以及与所述第二深度信息对应的深度图像,生成深度视频。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至5中任一项所述的深度图像处理方法。
9.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述处理器执行时,使得所述处理器实现如权利要求1至5中任一项所述的深度图像处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010449951.2A CN111696037B (zh) | 2020-05-25 | 2020-05-25 | 深度图像处理方法及装置、存储介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010449951.2A CN111696037B (zh) | 2020-05-25 | 2020-05-25 | 深度图像处理方法及装置、存储介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111696037A CN111696037A (zh) | 2020-09-22 |
CN111696037B true CN111696037B (zh) | 2023-07-18 |
Family
ID=72478176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010449951.2A Active CN111696037B (zh) | 2020-05-25 | 2020-05-25 | 深度图像处理方法及装置、存储介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111696037B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102769765A (zh) * | 2011-05-02 | 2012-11-07 | 索尼公司 | 图像处理方法、图像处理装置和显示装置 |
JP2017050731A (ja) * | 2015-09-02 | 2017-03-09 | 日本電信電話株式会社 | 動画像フレーム補間装置、動画像フレーム補間方法及び動画像フレーム補間プログラム |
CN106791279A (zh) * | 2016-12-30 | 2017-05-31 | 中国科学院自动化研究所 | 基于遮挡检测的运动补偿方法及系统 |
CN108805806A (zh) * | 2017-04-28 | 2018-11-13 | 华为技术有限公司 | 图像处理方法及装置 |
CN110351511A (zh) * | 2019-06-28 | 2019-10-18 | 上海交通大学 | 基于场景深度估计的视频帧率上变换系统及方法 |
CN111161176A (zh) * | 2019-12-24 | 2020-05-15 | RealMe重庆移动通信有限公司 | 图像处理方法及装置、存储介质和电子设备 |
-
2020
- 2020-05-25 CN CN202010449951.2A patent/CN111696037B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102769765A (zh) * | 2011-05-02 | 2012-11-07 | 索尼公司 | 图像处理方法、图像处理装置和显示装置 |
JP2017050731A (ja) * | 2015-09-02 | 2017-03-09 | 日本電信電話株式会社 | 動画像フレーム補間装置、動画像フレーム補間方法及び動画像フレーム補間プログラム |
CN106791279A (zh) * | 2016-12-30 | 2017-05-31 | 中国科学院自动化研究所 | 基于遮挡检测的运动补偿方法及系统 |
CN108805806A (zh) * | 2017-04-28 | 2018-11-13 | 华为技术有限公司 | 图像处理方法及装置 |
CN110351511A (zh) * | 2019-06-28 | 2019-10-18 | 上海交通大学 | 基于场景深度估计的视频帧率上变换系统及方法 |
CN111161176A (zh) * | 2019-12-24 | 2020-05-15 | RealMe重庆移动通信有限公司 | 图像处理方法及装置、存储介质和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111696037A (zh) | 2020-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111641828B (zh) | 视频处理方法及装置、存储介质和电子设备 | |
CN111445392B (zh) | 图像处理方法及装置、计算机可读存储介质和电子设备 | |
CN111741303B (zh) | 深度视频处理方法、装置、存储介质与电子设备 | |
CN111935486B (zh) | 图像处理方法及装置、计算机可读存储介质和电子设备 | |
CN111161176B (zh) | 图像处理方法及装置、存储介质和电子设备 | |
EP3889899B1 (en) | Method for motion estimation, non-transitory computer-readable storage medium, and electronic device | |
CN111641829B (zh) | 视频处理方法及装置、系统、存储介质和电子设备 | |
CN111445583B (zh) | 增强现实处理方法及装置、存储介质和电子设备 | |
CN111815666B (zh) | 图像处理方法及装置、计算机可读存储介质和电子设备 | |
CN112954251B (zh) | 视频处理方法、视频处理装置、存储介质与电子设备 | |
CN111696039B (zh) | 图像处理方法及装置、存储介质和电子设备 | |
CN111324196B (zh) | 内存运行频率调整方法及装置、存储介质和电子设备 | |
CN111766606A (zh) | Tof深度图像的图像处理方法、装置、设备及存储介质 | |
CN111598919B (zh) | 运动估计方法、运动估计装置、存储介质与电子设备 | |
CN112165575B (zh) | 图像虚化处理方法及装置、存储介质和电子设备 | |
CN113986177A (zh) | 投屏方法、投屏装置、存储介质与电子设备 | |
CN112599144B (zh) | 音频数据处理方法、音频数据处理装置、介质与电子设备 | |
CN111696037B (zh) | 深度图像处理方法及装置、存储介质和电子设备 | |
CN112037157A (zh) | 数据处理方法及装置、计算机可读介质及电子设备 | |
CN111626931B (zh) | 图像处理方法、图像处理装置、存储介质与电子设备 | |
CN113743517A (zh) | 模型训练方法、图像深度预测方法及装置、设备、介质 | |
CN111626928B (zh) | 深度图像生成方法及装置、存储介质和电子设备 | |
CN111626929B (zh) | 深度图像的生成方法及装置、计算机可读介质和电子设备 | |
CN113055713B (zh) | 视频图像超分方法及装置、存储介质和电子设备 | |
CN117135280B (zh) | 语音通话的方法和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |