CN117788542A - 移动物体的深度估计方法、装置、电子设备及存储介质 - Google Patents

移动物体的深度估计方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN117788542A
CN117788542A CN202211160924.9A CN202211160924A CN117788542A CN 117788542 A CN117788542 A CN 117788542A CN 202211160924 A CN202211160924 A CN 202211160924A CN 117788542 A CN117788542 A CN 117788542A
Authority
CN
China
Prior art keywords
depth
moving object
determining
target
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211160924.9A
Other languages
English (en)
Inventor
温佳伟
宋小东
郭亨凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zitiao Network Technology Co Ltd
Original Assignee
Beijing Zitiao Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zitiao Network Technology Co Ltd filed Critical Beijing Zitiao Network Technology Co Ltd
Priority to CN202211160924.9A priority Critical patent/CN117788542A/zh
Priority to PCT/CN2023/114570 priority patent/WO2024060923A1/zh
Publication of CN117788542A publication Critical patent/CN117788542A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本公开实施例提供了一种移动物体的深度估计方法、装置、电子设备及存储介质,其中,该方法包括:确定视频处理类型;根据视频处理类型,确定对移动物体进行深度估计的目标处理方式;基于目标处理方式,确定待处理视频帧中移动物体的深度估计值。本公开实施例所提供的技术方案,实现了对视频帧中的移动物体的深度信息进行准确估计的效果,并且,提高了深度估计的适用范围,满足了用户的个性化需求,提升了用户体验。

Description

移动物体的深度估计方法、装置、电子设备及存储介质
技术领域
本公开实施例涉及图像处理技术领域,尤其涉及一种移动物体的深度估计方法、装置、电子设备及存储介质。
背景技术
随着计算机视觉技术的发展,同步定位和建图(Simultaneous Localization andMapping,SLAM)算法被广泛应用于增强现实、虚拟现实、自动驾驶以及机器人或无人机的定位导航等领域。
现有技术中,将图像输入至SLAM系统中,利用SLAM系统对图像中场景深度信息进行提取,以基于场景深度信息实现图像中的物体深度进行估计,然而,这种深度估计方式仅适用于静态物体,对于视频中的动态物体,很难实现有效的深度估计。
发明内容
本公开提供一种移动物体的深度估计方法、装置、电子设备及存储介质,以实现对视频中的移动物体深度信息进行准确估计的效果。
第一方面,本公开实施例提供了一种移动物体的深度估计方法,该方法包括:
确定视频处理类型;
根据所述视频处理类型,确定对移动物体进行深度估计的目标处理方式;
基于所述目标处理方式,确定待处理视频帧中移动物体的深度估计值。
第二方面,本公开实施例还提供了一种移动物体的深度估计装置,该装置包括:
视频处理类型确定模块,用于确定视频处理类型;
目标处理方式确定模块,用于根据所述视频处理类型,确定对移动物体进行深度估计的目标处理方式;
深度估计值确定模块,用于基于所述目标处理方式,确定待处理视频帧中移动物体的深度估计值。
第三方面,本公开实施例还提供了一种电子设备,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本公开实施例任一所述的移动物体的深度估计方法。
第四方面,本公开实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如本公开实施例任一所述的移动物体的深度估计方法。
本公开实施例的技术方案,通过确定视频处理类型,进一步的,根据视频处理类型,确定对移动物体进行深度估计的目标处理方式,最后,基于目标处理方式,确定待处理视频帧中移动物体的深度估计值,解决了现有技术中仅可以对静态物体的深度信息进行估计的问题,实现了对视频帧中的移动物体的深度信息进行准确估计的效果,并且,提高了深度估计的适用范围,满足了用户的个性化需求,提升了用户体验。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是本公开实施例所提供的一种移动物体的深度估计方法流程示意图;
图2是本公开实施例所提供的一种移动物体的深度估计方法流程示意图;
图3是本公开实施例所提供的一种移动物体的深度估计装置结构示意图;
图4是本公开实施例所提供的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
可以理解的是,在使用本公开各实施例公开的技术方案之前,均应当依据相关法律法规通过恰当的方式对本公开所涉及个人信息的类型、使用范围、使用场景等告知用户并获得用户的授权。
例如,在响应于接收到用户的主动请求时,向用户发送提示信息,以明确地提示用户,其请求执行的操作将需要获取和使用到用户的个人信息。从而,使得用户可以根据提示信息来自主地选择是否向执行本公开技术方案的操作的电子设备、应用程序、服务器或存储介质等软件或硬件提供个人信息。
作为一种可选的但非限定性的实现方式,响应于接收到用户的主动请求,向用户发送提示信息的方式例如可以是弹窗的方式,弹窗中可以以文字的方式呈现提示信息。此外,弹窗中还可以承载供用户选择“同意”或者“不同意”向电子设备提供个人信息的选择控件。
可以理解的是,上述通知和获取用户授权过程仅是示意性的,不对本公开的实现方式构成限定,其它满足相关法律法规的方式也可应用于本公开的实现方式中。
可以理解的是,本技术方案所涉及的数据(包括但不限于数据本身、数据的获取或使用)应当遵循相应法律法规及相关规定的要求。
在介绍本技术方案之前,可以先对应用场景进行示例性说明。示例性的,当用户利用移动端的摄像装置拍摄视频,并将拍摄后的视频上传至基于SLAM 算法的系统,或者,在数据库中选择目标视频,并将视频主动上传至基于SLAM 算法的系统后,系统即可对视频中的场景深度信息进行解析,以基于场景深度信息对视频帧中所包含的物体深度信息进行估计,然而,基于当前的深度信息估计方法仅可以对视频帧中的静态物体的深度信息进行估计,无法对视频帧中的动态物体进行准确的深度估计。此时,基于本公开实施例的方案,可以利用 SLAM系统所提供的场景深度信息以及三维空间信息对视频帧中的移动物体的深度信息进行估计,从而实现了对视频帧中的动态物体的深度信息进行准确估计的效果。
图1是本公开实施例所提供的一种移动物体的深度估计方法流程示意图,本公开实施例适用于对视频帧中的移动物体的深度信息进行估计的情形,该方法可以由移动物体的深度估计装置来执行,该装置可以通过软件和/或硬件的形式实现,可选的,通过电子设备来实现,该电子设备可以是移动终端、PC端或服务器等。
如图1所示,所述方法包括:
S110、确定视频处理类型。
在本实施例中,执行本公开实施例提供的渲染图像的方法的装置,可以集成在支持特效视频处理功能的应用软件中,且该软件可以安装至电子设备中,可选的,电子设备可以是移动终端或者PC端等。应用软件可以是对图像/视频处理的一类软件,其具体的应用软件在此不再一一赘述,只要可以实现图像/视频处理即可。还可以是专门研发的应用程序,来实现添加特效并将特效进行展示的软件中,亦或是集成在相应的页面中,用户可以通过PC端中集成的页面来实现对特效视频的处理。
需要说明的是,本实施例的技术方案可以在基于移动端实时摄像的过程中执行,也可以在系统接收到用户主动上传的视频数据后执行,同时,本公开实施例的方案可以应用于增强现实(Augmented Reality,AR)、虚拟现实(Virtual Reality,VR)以及自动驾驶等多种应用场景内。
在本实施例中,视频处理类型可以为基于用户对待处理视频的上传方式所确定的视频处理方式。可选的,视频处理类型包括实时处理类型和后处理类型。在实际应用中,若待处理视频为用户基于移动端摄像装置实时拍摄得到的,并且,基于移动端对待处理视频中所包含的移动物体进行深度估计时,可以将当前对待处理视频的处理类型作为实时处理类型;若待处理视频为已拍摄完成的视频,并且,由用户主动上传至系统,此时,对接收到的待处理视频中所包含的移动物体进行深度估计,可以为后处理类型。
在具体实施中,若系统接收到的视频数据为基于移动端摄像装置实时拍摄得到的,则可以将视频处理类型确定为实时处理类型;若系统接收到视频数据时已经拍摄完成的完整视频数据,则可以将视频处理类型确定为后处理类型。这样设置的好处在于:可以增强移动物体深度估计处理方式的多样性,以使待处理视频帧中的移动物体深度估计既可以基于移动端实时进行,还可以对完整视频中的移动物体进行深度估计,提高了视频处理的多样性,满足了用户的个性化需求。
S120、根据视频处理类型,确定对移动物体进行深度估计的目标处理方式。
在本实施例中,当检测到用户触发特效操作时,移动端摄像装置可以是实时面向用户以实现待处理视频的采集,并根据预先编写的程序对待处理视频进行解析,即可得到多个待处理视频帧,此时,可以将视频处理类型确定为实时处理类型。相应的,待处理视频帧中可以包括移动物体。移动物体可以为入镜画面中任何姿态或位置信息发生变化的对象,例如可以是用户或者动物等。
本领域技术人员应当理解,深度估计可以是计算机视觉领域中的一个子任务,其目的是获取物体与拍摄点之间的距离,可以为三维重建、距离感知、SLAM、视觉里程估计、视频插帧、图像重建等一系列任务提供深度信息。移动物体的深度信息可以是最终所呈现的画面中与移动物体相对应的像素点与拍摄点之间的距离,也可以通过各像素点在相机坐标系下的位置坐标进行表示。
在本实施例中,当确定视频处理类型为实时处理类型时,则可以确定对视频帧中移动物体进行深度估计的目标处理方式可以为与实时处理类型相对应的深度均值估计方式。其中,深度均值估计方式可以为确定与移动物体相关联的一些像素点的深度值,并对这些深度值取均值,从而可以将最终得到的平均深度值作为移动物体的深度信息。
S130、基于目标处理方式,确定待处理视频帧中移动物体的深度估计值。
在本实施例中,用户可以基于移动终端的摄像装置实时对移动物体进行视频拍摄,并实时上传至移动端,因此可以理解,系统所获取的实时拍摄的视频即为待处理视频,进一步的,基于预先编写的程序对待处理视频进行解析,即可得到多个待处理视频帧。深度估计值可以为与移动物体相对应的至少一个像素点与拍摄点之间的距离,也可以为与移动物体相对应的至少一个像素点在相机坐标系下的坐标值。
在本实施例中,目标处理方式可以为深度均值估计方式,在基于目标处理方式确定移动物体的深度估计值,可以首先确定移动物体中满足深度均值估计条件的目标像素点,进而可以基于这些目标像素点的深度值确定深度均值,从而可以将最终得到的深度均值作为移动物体的深度估计值。
可选的,基于目标处理方式,确定待处理视频帧中移动物体的深度估计值,包括:确定与待处理视频帧相对应的拍摄参数以及移动物体的像素点参数;基于拍摄参数、像素点参数以及约束条件,确定目标像素点;基于目标像素点的点云数据,确定移动物体的深度估计值。
在本实施例中,拍摄参数可以待处理视频帧在进行位姿优化之后的相机位姿参数。需要说明的是,可以基于与待处理视频帧相对应的摄像装置中的陀螺仪以及惯性测量单元,获取相机位置信息和旋转信息,以基于相机位置信息和旋转信息,确定相机的初始位姿,进一步的,基于光束平差法(Bundle Adjustment) 对初始位姿进行优化,并将优化后的位姿作为与待处理视频帧相对应的拍摄参数。这样设置的好处在于:可以是同步定位与建图系统提供较高的BA速度,从而保证了系统对各视频帧进行处理的实时性。像素点参数可以为待处理视频帧中用于构成移动物体的至少一个像素点的像素坐标。需要说明的是,在对移动物体进行拍摄,以得到多个待处理视频帧时,待处理视频帧中不仅包含移动物体,还可以包含移动物体所在的场景,因此,在确定移动物体的像素点参数时,可以首先确定移动物体的掩膜图像,从而可以基于该掩膜图像确定构成移动物体的至少一个像素点的像素坐标。
在本实施例中,约束条件可以为空间几何信息约束,即在特定位置观测某一像素点时,确定该像素点的状态是否与该特定位置相对应,若该像素点的状态与其观测位置相对应,则可以确定该像素点满足约束条件;若该像素点的状态与其观测位置不对应,则可以确定该像素点不满足约束条件。
在具体实施中,在得到待处理视频帧后,可以基于与待处理视频帧相对应的摄像装置的各传感器的参数,确定待处理视频帧的初始位姿,再基于位姿优化方法对初始位姿进行优化,即可得到与待处理视频帧相对应的拍摄参数,同时,确定待处理视频帧中移动物体的像素点坐标,以作为像素点参数,进一步的,基于拍摄参数、像素点参数以及约束条件,确定目标像素点,从而可以基于目标像素点的点云数据,确定移动物体的深度估计值。这样设置的好处在于:可以基于约束条件将移动物体的各像素点划分为动态像素点和静态像素点,并将动态像素点筛选出来作为移动物体的跟踪像素点,提高了移动物体的深度估计值的准确率,提升了待处理视频帧中移动物体的定位效果。
在实际应用中,可以首先确定待处理视频帧的初始位姿,并基于位姿优化方法对初始位姿进行优化,得到与待处理视频帧相对应的拍摄参数,同时,确定与移动物体相对应的至少一个像素点的像素坐标,以得到像素点参数,进一步的,基于拍摄参数、像素点参数以及约束条件,确定与移动物体相对应的各像素点中满足约束条件的像素点,并将这些像素点作为目标像素点。
可选的,基于拍摄参数、像素点参数以及约束条件,确定目标像素点,包括:基于拍摄参数和像素点参数进行三角化处理,以得到像素点参数所对应的点云数据;基于点云数据和约束条件,确定反投影像素参数;基于像素点参数和反投影像素参数,确定所述目标像素点。
在本实施例中,三角化处理可以为基于角点检测算法确定相应的点云数据。其中,角点检测算法可以为KLT角点检测法,也称为KLT光流追踪法。具体来说,KLT角点检测法通过在各关键帧中确定一个适合跟踪的参考关键帧,并确定该参考关键帧的特征点,从而基于该特征点确定相应的点云数据(Point Cloud Data,PCD)。点云数据通常用于逆向工程中,是一种以点的形式记录的数据,这些点既可以是三维空间中的坐标,也可以是颜色或者光照强度等信息,在实际应用过程中,点云数据一般还包括点坐标精度、空间分辨率和表面法向量等内容,一般以PCD格式进行保存,在这种格式下,点云数据的可操作性较强,能够在后续过程中提高点云配准和融合的速度,本公开实施例对此不再赘述。
在实际应用中,在确定拍摄参数和像素点参数后,即可基于角点检测算法对拍摄参数和像素点参数进行三角化处理,从而可以得到与像素点参数相对应的三维点云数据。进一步的,根据点云数据和约束条件,确定这些点云数据在相机坐标系下的参数,即,将三维点云数据转换为二维坐标的形式,可以将转换之后的二维坐标参数作为反投影像素参数,由于点云数据是基于像素点参数确定的,反投影像素参数是基于点云数据确定的,并且,像素点参数和反投影像素参数均为二维坐标参数,因此,可以通过确定像素点参数与相应的反投影像素参数是否一致,来确定目标像素点,即,将像素点参数与相应的反投影像素参数不一致的像素点作为目标像素点。需要说明的是,移动物体的像素点是基于掩膜图像确定的,在实际应用过程中,通常采用部署在移动端的模型对待处理视频帧进行处理,以得到与移动物体相对应的掩膜图像,一般情况下,为了提高移动端的处理效率以及减少模型在移动端的内存占用率,部署在移动端的模型通常为模型结构简单、处理速度快的模型,在应用该模型对待处理视频帧进行移动物体掩膜图像处理时,可能会使得到的掩膜图像大于移动物体的实际尺寸,从而会将不属于移动物体的静态背景点也划分进来。本领域技术人员应当理解,对于静态像素点来说,一般是可以满足约束条件的,相反的,对于动态像素点来说,是不满足约束条件的,因此,可以通过确定与移动物体相对应的像素点是否满足约束条件,将动态像素点和静态像素点区分出来,以便可以针对不同的像素点采取不同的处理方式,从而可以最终得到移动物体的深度估计值。这样设置的好处在于:可以更加精准地确定移动物体的像素点,进而可以针对不同像素点采取不同的处理方式,提高了移动物体深度估计值的准确率。
示例性的,基于点云数据和约束条件,确定反投影像素参数可以基于如下公式进行确定:
其中,si可以表示任一像素点的深度值,(ui,vi)可以表示任一像素点的像素坐标,K可以表示相机内参,exp(ξ^)可以表示相机姿态,即R,T矩阵, (Xi,Yi,Zi)可以表示任一像素点的三维点云坐标。
进一步的,在确定目标像素点后,即可根据目标像素点的点云数据,确定移动物体的深度估计值。
可选的,基于目标像素点的点云数据,确定移动物体的深度估计值,包括:根据目标像素点的点云数据,确定目标像素点所属的至少两个待使用视频帧;根据目标像素点在至少两个待使用视频帧的深度值,确定移动物体的深度估计值。
在本实施例中,在得到目标像素点后,可以对这些目标像素点进行三角化处理,得到与目标像素点相对应的点云数据,进一步的,在包含移动物体的多个待处理视频帧中对点云数据进行观测,并将可以观测到点云数据的至少两个待处理视频帧作为待使用视频帧。
在实际应用中,在确定目标像素点所属的至少两个待使用视频帧后,即可确定目标像素点在相机坐标系下的深度值,并对这些深度值作均值处理,可以将最终得到的深度值均值作为移动物体的深度估计值。这样设置的好处在于:可以在移动端实现移动物体深度信息的粗略估计,提高了移动物体的深度估计的效率。
需要说明的是,若移动物体是处于静止状态时,则基于掩膜图像所确定的移动物体的各像素点均满足约束条件,即,各像素点的像素点参数和反投影像素参数相一致,此时,可以对这些像素点进行三角化处理,得到与这些像素点相对应的点云数据,并将这些点云数据存放至SLAM系统中,以便可以通过 SLAM系统确定移动物体的深度估计值。
还需说明的是,本实施例是对视频处理类型为实时处理类型的待处理视频帧中移动物体的深度估计值进行确定,在本实施例的基础上,当视频处理类型为后处理类型时,其对应的目标处理方式也会相应发生变化,下面可以对后处理类型进行详细阐述。
本公开实施例的技术方案,通过确定视频处理类型,进一步的,根据视频处理类型,确定对移动物体进行深度估计的目标处理方式,最后,基于目标处理方式,确定待处理视频帧中移动物体的深度估计值,解决了现有技术中仅可以对静态物体的深度信息进行估计的问题,实现了对视频帧中的移动物体的深度信息进行准确估计的效果,并且,提高了深度估计的适用范围,满足了用户的个性化需求,提升了用户体验。
图2是本公开实施例所提供的一种移动物体的深度估计方法流程示意图,在前述实施例的基础上,当视频处理类型为后处理类型时,其对应目标处理方式可以为逆深度估计方式,进而可以基于逆深度估计方式,确定移动物体的深度估计值。其具体的实施方式可以参见本实施例技术方案。其中,与上述实施例相同或者相应的技术术语在此不再赘述。
如图2所示,该方法具体包括如下步骤:
S210、确定视频处理类型为后处理类型。
需要说明的是,上述实施例是对视频处理类型为实时处理类型的待处理视频帧中移动物体的深度估计值进行确定,在上述实施例的基础上,当视频处理类型为后处理类型时,其对应的目标处理方式也会相应发生变化,下面可以对后处理类型进行详细阐述。
在本实施例中,可以预先开发视频上传控件,当检测到用户对应用内的视频上传控件的触发操作时,可以对用户主动上传的视频进行接收,并将该视频作为待处理视频,进一步的,基于预先编写的程序对待处理视频进行解析,即可得到多个待处理视频帧。相应的,待处理视频帧中包含移动物体,移动物体可以为用户、动物或者入镜画面中任何姿态或位置信息发生变化的物体。当接收到完整的待处理视频时,则可以将包含移动物体的视频帧作为待处理视频帧,并对这些视频帧进行特效处理,以得到相应的特效视频帧,可以将此种视频处理方式作为后处理类型。
S220、根据后处理类型,确定对移动物体进行深度估计的目标处理方式为逆深度估计方式。
在本实施例中,在接收到待处理视频并确定视频处理类型为后处理类型后,即可将对待处理视频帧中移动物体进行深度估计的目标处理方式确定为逆深度估计方式。其中,逆深度估计方式可以为基于与移动物体相对应的至少一个像素点的逆深度值,对移动物体的深度估计值进行确定。
需要说明的是,当视频处理方式为后处理类型时,即,是对完整的视频数据进行移动物体的深度估计,此时,与实时处理类型不同的是,在接收到完成的视频数据后,可以确定视频数据中各待处理视频帧中各像素点的深度信息,进而基于这些深度信息对移动物体的深度信息进行估计,然而,每一帧中各像素点的深度信息的分布范围较大,并且深度分布形式不稳定,因此,可以确定与这些深度信息相对应的逆深度信息,以基于这些逆深度信息对移动物体的深度估计值进行确定。这样设置的好处在于:逆深度分布形式更加符合高斯分布的分布形式,会更加稳定,从而在确定移动物体的深度估计值也会更加准确。
还需说明的是,在每一待处理视频帧中均包括远景像素点和近景像素点,对于远景像素点来说,由于这些远景像素点与拍摄点之间的距离较远,导致这些像素点的视差较小,在确定与这些远景像素点相对应的点云数据时,点云数据的精度也会较低,因此,可以采用逆深度的方式以减弱远景像素点对计算过程的影响,将远景像素点和近景像素点的深度值转换为逆深度值,进而可以基于这些逆深度值进行后续的计算,从而可以达到提高计算精度的效果。
S230、基于逆深度估计方式,确定待处理视频帧中移动物体的深度估计值。
在本实施例中,在确定目标处理方式为逆深度估计方式后,即可确定待处理视频帧中各像素点的逆深度值,从而可以基于这些逆深度值对移动物体的深度估计值进行确定。
可选的,基于逆深度估计方式,确定待处理视频帧中移动物体的深度估计值,包括:对目标视频中各待处理视频帧进行三角化处理,得到待处理视频帧中各像素点的逆深度值;通过同一待处理视频帧中的各逆深度值聚类处理,确定移动物体的深度估计值。
在本实施例中,目标视频可以为用户主动上传的,需要对视频中的移动物体的深度信息进行确定的视频。在实际应用过程中,在接收到目标视频中各待处理视频帧时,可以基于角点检测算法对各待处理视频帧进行三角化处理,以得到与各待处理视频帧相对应的点云数据,进一步的,可以根据平移旋转矩阵将与各待处理视频帧相对应的点云数据转换至相机坐标系下,以得到各像素点在相机坐标下的深度值,然后,对这些深度值进行求逆处理,即,分别确定这些深度值的负一次方,即可得到各像素点的逆深度值,从而可以通过对同一待处理视频帧中的各逆深度值进行聚类处理,确定移动物体的深度估计值。这样设置的好处在于:基于各像素点的逆深度值进行移动物体的深度估计,可以减弱远景像素点对深度估计的影响,从而可以提高深度估计值的准确率,提升目标视频中移动物体在不同时间戳下定格点的显示效果。
其中,聚类处理可以为对各逆深度值进行分类处理,可以为二分类,即,将各逆深度值划分为两大类。
可选的,通过同一待处理视频帧中的各逆深度值聚类处理,确定移动物体的深度估计值,包括:依据各逆深度值的大小进行排序后,确定相邻两个逆深度值之间的深度差值;获取深度差值最大的两个目标逆深度值,并基于大于目标逆深度值的各逆深度值确定移动物体的深度估计值。
在实际应用中,对于同一待处理视频帧中的各逆深度值来说,可以首先确定各逆深度值的大小,并依据各逆深度值的大小进行排序,然后,确定相邻两个逆深度值之间差值作为深度差值,并确定与最大深度差值相对应的相邻两个逆深度值,将这两个逆深度值作为目标逆深度值,进一步的,可以基于这两个目标逆深度值将各逆深度值划分为两大类,一类为大于目标逆深度值的各逆深度值,另一类为小于目标逆深度值的各逆深度值,最后,可以基于大于目标逆深度值的各逆深度值来对移动物体的深度估计值进行确定。这样设置的好处在于:可以基于各逆深度值,实现近景像素点和远景像素点的分类,从而可以基于近景像素点的深度信息确定移动物体的深度信息。
需要说明的是,在基于目标逆深度值对各逆深度值进行分类时,若任一类中的逆深度值的数量小于预设阈值时,则可以认为这一类中的逆深度值可能是存在一定误差的,为了提高移动物体深度估计值的准确率,可以将这些逆深度值删除,并对剩余的各逆深度值再次执行排序分类的操作,以在再次分类结束后,基于这次分类结果中大于目标逆深度值的各逆深度值,确定移动物体的深度估计值。
基于此,在基于大于目标逆深度值的各逆深度值确定移动物体的深度估计值之前,还包括:若大于或小于目标逆深度值的逆深度值数量与逆深度值总数量之间的比值的小于预设比例,则删除相应的逆深度值,并重新执行确定所述目标逆深度值的步骤。
在本实施例中,预设比例可以为任意值,可选的,可以为5%。
在实际应用中,在基于目标逆深度值将各逆深度值划分为大于目标逆深度值的各逆深度值,以及小于目标逆深度值的各逆深度值之后,可以确定这两类中逆深度值的数量与当前待处理视频帧中逆深度值的总数量之间的比值,若其中任意一类的比值小于预设比例时,则可以将这一类中的逆深度值删除,并基于剩余的各逆深度值的大小进行重新排序,然后,确定相邻两个逆深度之间的差值,并将差值最大的两个逆深度值作为目标逆深度值,进一步的,基于目标逆深度值对剩余的各逆深度值进行分类,从而可以最终基于大于目标逆深度值的各逆深度值,确定移动物体的深度估计值。这样设置的好处在于:可以将存在较大误差的逆深度值筛选出来并删除,以达到提高移动物体深度估计值的准确率的效果。
可选的,基于大于目标逆深度值的各逆深度值确定移动物体的深度估计值,包括:将大于目标逆深度值的各逆深度值均值处理,确定移动物体的深度估计值。
需要说明的是,在得到大于目标逆深度值的各逆深度值之后,由于这些逆深度值所对应的像素点为待处理视频帧的近景像素点,本领域技术人员应当理解,在基于近景像素点进行计算时,可以得到较为准确的计算结果,并且,对于移动物体来说,一般会处于待处理视频帧中的前景部分,因此,在确定移动物体的深度估计值时,基于大于目标逆深度值的各逆深度值进行计算,可以得到更加精确的深度估计结果。
在实际应用中,可以对大于目标逆深度值的各逆深度值作均值处理,并对得到的逆深度均值进行再次求逆处理,得到与逆深度均值相对应的深度均值,可以将该深度均值作为移动物体的深度估计值。这样设置的好处在于:基于近景像素点的深度信息确定移动物体的深度信息,可以达到提高深度估计准确率的效果。
需要说明的是,对于目标视频中的任一待处理视频帧,均可以采用上述技术方法确定各视频帧中移动物体的深度估计值,进而,在得到每一待处理视频帧中移动物体的深度估计值之后,可以将各待处理视频帧拼接起来,即可得到完整目标视频中移动物体的深度估计值。
本公开实施例的技术方案,通过确定视频处理类型为后处理类型,进一步的,根据后处理类型,确定对移动物体进行深度估计的目标处理方式为逆深度估计方式,最后,基于逆深度估计方式,确定待处理视频帧中移动物体的深度估计值,解决了现有技术中仅可以对静态物体的深度信息进行估计的问题,实现了对视频帧中的移动物体的深度信息进行准确估计的效果,并且,提高了深度估计的适用范围,满足了用户的个性化需求,提升了用户体验。。
图3为本公开实施例所提供的一种移动物体的深度估计装置结构示意图,如图3所示,所述装置包括:视频处理类型确定模块310、目标处理方式确定模块320以及深度估计值确定模块330。
其中,视频处理类型确定模块310,用于确定视频处理类型;
目标处理方式确定模块320,用于根据所述视频处理类型,确定对移动物体进行深度估计的目标处理方式;
深度估计值确定模块330,用于基于所述目标处理方式,确定待处理视频帧中移动物体的深度估计值。
在上述各技术方案的基础上,所述视频处理类型包括实时处理类型和后处理类型。
在上述各技术方案的基础上,所述目标处理方式包括与所述实时处理类型相对应的深度均值估计方式,或与所述后处理类型所对应的逆深度估计方式。
在上述各技术方案的基础上,所述目标处理方式包括深度均值估计方式,深度估计值确定模块330包括:拍摄参数确定子模块、目标像素点确定子模块以及深度估计值确定子模块。
拍摄参数确定子模块,用于确定与所述待处理视频帧相对应的拍摄参数以及所述移动物体的像素点参数;
目标像素点确定子模块,用于基于所述拍摄参数、像素点参数以及约束条件,确定目标像素点;
深度估计值确定子模块,用于基于所述目标像素点的点云数据,确定所述移动物体的深度估计值。
在上述各技术方案的基础上,目标像素点确定子模块包括:点云数据确定单元、反投影像素参数确定单元以及目标像素点确定单元。
点云数据确定单元,用于基于所述拍摄参数和所述像素点参数进行三角化处理,以得到所述像素点参数所对应的点云数据;
反投影像素参数确定单元,用于基于所述点云数据和所述约束条件,确定反投影像素参数;
目标像素点确定单元,用于基于所述像素点参数和所述反投影像素参数,确定所述目标像素点。
在上述各技术方案的基础上,深度估计值确定子模块包括:待使用视频帧确定单元和深度估计值确定单元。
待使用视频帧确定单元,用于根据所述目标像素点的点云数据,确定所述目标像素点所属的至少两个待使用视频帧;
深度估计值确定单元,用于根据所述目标像素点在所述至少两个待使用视频帧的深度值,确定所述移动物体的深度估计值。
在上述各技术方案的基础上,所述目标处理方式包括逆深度估计方式,深度估计值确定模块330还包括:逆深度值确定子模块和深度估计值确定子模块。
逆深度值确定子模块,用于对目标视频中各待处理视频帧进行三角化处理,得到待处理视频帧中各像素点的逆深度值;
深度估计值确定子模块,用于通过同一待处理视频帧中的各逆深度值聚类处理,确定所述移动物体的深度估计值。
在上述各技术方案的基础上,深度估计值确定子模块包括:深度差值确定单元和深度估计值确定单元。
深度差值确定单元,用于依据各逆深度值的大小进行排序后,确定相邻两个逆深度值之间的深度差值;
深度估计值确定单元,用于获取深度差值最大的两个目标逆深度值,并基于大于所述目标逆深度值的各逆深度值确定所述移动物体的深度估计值。
在上述各技术方案的基础上,所述装置还包括:逆深度值删除模块。
逆深度值删除模块,用于在所述基于大于所述目标逆深度值的各逆深度值确定所述移动物体的深度估计值之前,若大于或小于所述目标逆深度值的逆深度值数量与逆深度值总数量之间的比值的小于预设比例,则删除相应的逆深度值,并重新执行确定所述目标逆深度值的步骤。
在上述各技术方案的基础上,深度估计值确定单元,具体用于将大于所述目标逆深度值的各逆深度值均值处理,确定所述移动物体的深度估计值。
本公开实施例的技术方案,通过确定视频处理类型,进一步的,根据视频处理类型,确定对移动物体进行深度估计的目标处理方式,最后,基于目标处理方式,确定待处理视频帧中移动物体的深度估计值,解决了现有技术中仅可以对静态物体的深度信息进行估计的问题,实现了对视频帧中的移动物体的深度信息进行准确估计的效果,并且,提高了深度估计的适用范围,满足了用户的个性化需求,提升了用户体验。
本公开实施例所提供的移动物体的深度估计装置可执行本公开任意实施例所提供的移动物体的深度估计方法,具备执行方法相应的功能模块和有益效果。
值得注意的是,上述装置所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本公开实施例的保护范围。
图4为本公开实施例所提供的一种电子设备的结构示意图。下面参考图4,其示出了适于用来实现本公开实施例的电子设备(例如图4中的终端设备或服务器)500的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图4示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图4所示,电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有电子设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。编辑/输出(I/O) 接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图4示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502 被安装。在该计算机程序被处理装置501执行时,执行本公开实施例的方法中限定的上述功能。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
本公开实施例提供的电子设备与上述实施例提供的移动物体的深度估计方法属于同一发明构思,未在本实施例中详尽描述的技术细节可参见上述实施例,并且本实施例与上述实施例具有相同的有益效果。
本公开实施例提供了一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述实施例所提供的移动物体的深度估计方法。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM 或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、 RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
确定视频处理类型;
根据所述视频处理类型,确定对移动物体进行深度估计的目标处理方式;
基于所述目标处理方式,确定待处理视频帧中移动物体的深度估计值。
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
确定视频处理类型;
根据所述视频处理类型,确定对移动物体进行深度估计的目标处理方式;
基于所述目标处理方式,确定待处理视频帧中移动物体的深度估计值。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器 (EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (13)

1.一种移动物体的深度估计方法,其特征在于,包括:
确定视频处理类型;
根据所述视频处理类型,确定对移动物体进行深度估计的目标处理方式;
基于所述目标处理方式,确定待处理视频帧中移动物体的深度估计值。
2.根据权利要求1所述的方法,其特征在于,所述视频处理类型包括实时处理类型和后处理类型。
3.根据权利要求2所述的方法,其特征在于,所述目标处理方式包括与所述实时处理类型相对应的深度均值估计方式,或与所述后处理类型所对应的逆深度估计方式。
4.根据权利要求1所述的方法,其特征在于,所述目标处理方式包括深度均值估计方式,所述基于所述目标处理方式,确定待处理视频帧中移动物体的深度估计值,包括:
确定与所述待处理视频帧相对应的拍摄参数以及所述移动物体的像素点参数;
基于所述拍摄参数、像素点参数以及约束条件,确定目标像素点;
基于所述目标像素点的点云数据,确定所述移动物体的深度估计值。
5.根据权利要求4所述的方法,其特征在于,所述基于所述拍摄参数、像素点参数以及约束条件,确定目标像素点,包括:
基于所述拍摄参数和所述像素点参数进行三角化处理,以得到所述像素点参数所对应的点云数据;
基于所述点云数据和所述约束条件,确定反投影像素参数;
基于所述像素点参数和所述反投影像素参数,确定所述目标像素点。
6.根据权利要求4所述的方法,其特征在于,所述基于所述目标像素点的点云数据,确定移动物体的深度估计值,包括:
根据所述目标像素点的点云数据,确定所述目标像素点所属的至少两个待使用视频帧;
根据所述目标像素点在所述至少两个待使用视频帧的深度值,确定所述移动物体的深度估计值。
7.根据权利要求1所述的方法,其特征在于,所述目标处理方式包括逆深度估计方式,所述基于所述目标处理方式,确定待处理视频帧中移动物体的深度估计值,包括:
对目标视频中各待处理视频帧进行三角化处理,得到待处理视频帧中各像素点的逆深度值;
通过同一待处理视频帧中的各逆深度值聚类处理,确定所述移动物体的深度估计值。
8.根据权利要求7所述的方法,其特征在于,所述通过同一待处理视频帧中的各逆深度值聚类处理,确定所述移动物体的深度估计值,包括:
依据各逆深度值的大小进行排序后,确定相邻两个逆深度值之间的深度差值;
获取深度差值最大的两个目标逆深度值,并基于大于所述目标逆深度值的各逆深度值确定所述移动物体的深度估计值。
9.根据权利要求8所述的方法,其特征在于,在所述基于大于所述目标逆深度值的各逆深度值确定所述移动物体的深度估计值之前,还包括:
若大于或小于所述目标逆深度值的逆深度值数量与逆深度值总数量之间的比值的小于预设比例,则删除相应的逆深度值,并重新执行确定所述目标逆深度值的步骤。
10.根据权利要求8所述的方法,其特征在于,所述基于大于所述目标逆深度值的各逆深度值确定所述移动物体的深度估计值,包括:
将大于所述目标逆深度值的各逆深度值均值处理,确定所述移动物体的深度估计值。
11.一种移动物体的深度估计装置,该装置包括:
视频处理类型确定模块,用于确定视频处理类型;
目标处理方式确定模块,用于根据所述视频处理类型,确定对移动物体进行深度估计的目标处理方式;
深度估计值确定模块,用于基于所述目标处理方式,确定待处理视频帧中移动物体的深度估计值。
12.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的移动物体的深度估计方法。
13.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-10中任一所述的移动物体的深度估计方法。
CN202211160924.9A 2022-09-22 2022-09-22 移动物体的深度估计方法、装置、电子设备及存储介质 Pending CN117788542A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202211160924.9A CN117788542A (zh) 2022-09-22 2022-09-22 移动物体的深度估计方法、装置、电子设备及存储介质
PCT/CN2023/114570 WO2024060923A1 (zh) 2022-09-22 2023-08-24 移动物体的深度估计方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211160924.9A CN117788542A (zh) 2022-09-22 2022-09-22 移动物体的深度估计方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN117788542A true CN117788542A (zh) 2024-03-29

Family

ID=90391591

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211160924.9A Pending CN117788542A (zh) 2022-09-22 2022-09-22 移动物体的深度估计方法、装置、电子设备及存储介质

Country Status (2)

Country Link
CN (1) CN117788542A (zh)
WO (1) WO2024060923A1 (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5337282B1 (ja) * 2012-05-28 2013-11-06 株式会社東芝 3次元画像生成装置および3次元画像生成方法
CN105100771A (zh) * 2015-07-14 2015-11-25 山东大学 一种基于场景分类和几何标注的单视点视频深度获取方法
CN113643342B (zh) * 2020-04-27 2023-11-14 北京达佳互联信息技术有限公司 一种图像处理方法、装置、电子设备及存储介质
CN113989717A (zh) * 2021-10-29 2022-01-28 北京字节跳动网络技术有限公司 视频图像处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2024060923A1 (zh) 2024-03-28

Similar Documents

Publication Publication Date Title
CN112733820B (zh) 障碍物信息生成方法、装置、电子设备和计算机可读介质
CN115690382B (zh) 深度学习模型的训练方法、生成全景图的方法和装置
CN110728622B (zh) 鱼眼图像处理方法、装置、电子设备及计算机可读介质
CN109661815B (zh) 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
CN112116655A (zh) 目标对象的图像的位置信息确定方法和装置
CN109495733B (zh) 三维影像重建方法、装置及其非暂态电脑可读取储存媒体
CN113327318A (zh) 图像显示方法、装置、电子设备和计算机可读介质
CN113361365A (zh) 定位方法和装置、设备及存储介质
CN111833459B (zh) 一种图像处理方法、装置、电子设备及存储介质
WO2018219274A1 (zh) 降噪处理方法、装置、存储介质及终端
CN115965520A (zh) 特效道具、特效图的生成方法、装置、设备及存储介质
CN117788542A (zh) 移动物体的深度估计方法、装置、电子设备及存储介质
CN115086541B (zh) 一种拍摄位置确定方法、装置、设备及介质
CN112880675B (zh) 用于视觉定位的位姿平滑方法、装置、终端和移动机器人
CN114419298A (zh) 虚拟物体的生成方法、装置、设备及存储介质
CN115937383B (zh) 渲染图像的方法、装置、电子设备及存储介质
CN112070903A (zh) 虚拟对象的展示方法、装置、电子设备及计算机存储介质
CN112991542B (zh) 房屋三维重建方法、装置和电子设备
CN116563817B (zh) 障碍物信息生成方法、装置、电子设备和计算机可读介质
CN116563818B (zh) 障碍物信息生成方法、装置、电子设备和计算机可读介质
CN111489428B (zh) 图像生成方法、装置、电子设备及计算机可读存储介质
CN117409072A (zh) 一种描述子确定方法、装置、设备及介质
CN117788659A (zh) 渲染图像的方法、装置、电子设备及存储介质
CN112037280A (zh) 物体距离测量方法及装置
CN117906634A (zh) 一种设备检测方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination