CN113781539A - 深度信息获取方法、装置、电子设备和计算机可读介质 - Google Patents

深度信息获取方法、装置、电子设备和计算机可读介质 Download PDF

Info

Publication number
CN113781539A
CN113781539A CN202111038631.9A CN202111038631A CN113781539A CN 113781539 A CN113781539 A CN 113781539A CN 202111038631 A CN202111038631 A CN 202111038631A CN 113781539 A CN113781539 A CN 113781539A
Authority
CN
China
Prior art keywords
image
depth information
image frames
determining
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111038631.9A
Other languages
English (en)
Inventor
徐鑫
张亮亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jingdong Kunpeng Jiangsu Technology Co Ltd
Original Assignee
Jingdong Kunpeng Jiangsu Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jingdong Kunpeng Jiangsu Technology Co Ltd filed Critical Jingdong Kunpeng Jiangsu Technology Co Ltd
Priority to CN202111038631.9A priority Critical patent/CN113781539A/zh
Publication of CN113781539A publication Critical patent/CN113781539A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本公开的实施例公开了深度信息获取方法、装置、电子设备和计算机可读介质。该方法的一具体实施方式包括:获取图像帧序列,上述图像帧序列包含图像采集装置连续采集的图像帧,上述图像帧包括用于表征图像帧中物体与上述图像采集装置之间距离的深度信息;对于上述图像帧序列中相邻两张图像帧,确定上述相邻两张图像帧中物体之间的位置关系,得到位置关系序列;基于上述位置关系序列构建三维空间,并通过上述三维空间获取目标物体的目标深度信息。该实施方式提高了目标深度信息的准确性。

Description

深度信息获取方法、装置、电子设备和计算机可读介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及深度信息获取方法、装置、电子设备和计算机可读介质。
背景技术
随着现代工业技术的发展,特别是机器人、自动驾驶领域的需求,复杂场景中的深度估计成为了研究者们关注的重点领域之一。现有方法通常依靠物体之间的点、线、面等特征进行深度估计,但是存在以下不足:
现有方法通常是通过能够采集深度信息的图像采集装置采集的某一位置或某一时刻物体的深度信息。而由于实际中的各种干扰,图像采集装置在某一位置或某一时刻通常无法对物体的点、线、面等特征进行准确判断,进而使得采集的深度信息准确性不高;
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了深度信息获取方法、装置、电子设备和计算机可读介质,来解决以上背景技术部分提到的技术问题。
第一方面,本公开的一些实施例提供了一种深度信息获取方法,该方法包括:获取图像帧序列,上述图像帧序列包含图像采集装置连续采集的图像帧,上述图像帧包括用于表征图像帧中物体与上述图像采集装置之间距离的深度信息;对于上述图像帧序列中相邻两张图像帧,确定上述相邻两张图像帧中物体之间的位置关系,得到位置关系序列;基于上述位置关系序列构建三维空间,并通过上述三维空间获取目标物体的目标深度信息。
第二方面,本公开的一些实施例提供了一种深度信息获取装置,该装置包括:图像帧序列获取单元,被配置成获取图像帧序列,上述图像帧序列包含图像采集装置连续采集的图像帧,上述图像帧包括用于表征图像帧中物体与上述图像采集装置之间距离的深度信息;位置关系获取单元,被配置成对于上述图像帧序列中相邻两张图像帧,确定上述相邻两张图像帧中物体之间的位置关系,得到位置关系序列;深度信息获取单元,被配置成基于上述位置关系序列构建三维空间,并通过上述三维空间获取目标物体的目标深度信息。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
本公开的上述各个实施例中具有如下有益效果:通过本公开的一些实施例的深度信息获取方法得到的深度信息,深度信息的准确性有所提高。具体来说,造成深度信息的准确性不高的原因在于:现有的深度信息通常是图像采集装置在某一位置或某一时刻采集的,容易受到多种因素的干扰。基于此,本公开的一些实施例的深度信息获取方法首先获取图像采集装置连续采集图像帧得到的图像帧序列;然后确定图像帧序列中相邻图像帧中物体之间的位置关系,可以获取到物体之间位置关系的微小变化。然后基于位置关系序列构建三维空间,大大提高了三维空间中物体之间的位置关系的准确性。在此基础上,通过三维空间获取目标物体的目标深度信息,提高了目标深度信息的准确性。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是本公开的一些实施例的深度信息获取方法的应用场景的示意图;
图2是根据本公开的深度信息获取方法的一些实施例的流程图;
图3是根据本公开的深度信息获取方法的另一些实施例的流程图;
图4是根据本公开的深度信息获取方法的又一些实施例的流程图;
图5是根据本公开的深度信息获取装置的一些实施例的结构示意图;
图6是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是根据本公开一些实施例的深度信息获取方法的一个应用场景的示意图。
如图1所示,电子设备101可以获取图像帧序列102。其中,图像帧序列102包含图像采集装置连续采集的图像帧,图像帧序列102中的图像帧包括用于表征图像帧中物体与上述图像采集装置之间距离的深度信息。电子设备101可以确定图像帧序列102中相邻的两张图像帧中物体的位置关系103,得到图像帧序列102对应的位置关系序列。电子设备101可以基于位置关系序列构建三维空间,则该三维空间包含了物体的位置、点、线、面等特征的准确信息。电子设备101可以基于该三维空间获取目标物体的目标深度信息。由此,提高了采集的深度信息的准确性。
应该理解,图1中的电子设备101的数目仅仅是示意性的。根据实现需要,可以具有任意数目的电子设备101。
继续参考图2,图2示出了根据本公开的深度信息获取方法的一些实施例的流程200。该深度信息获取方法,包括以下步骤:
步骤201,获取图像帧序列。
在一些实施例中,深度信息获取方法的执行主体(例如图1所示的电子设备101)可以通过有线连接方式或者无线连接方式获取图像帧序列。需要指出的是,上述无线连接方式可以包括但不限于3G/4G/5G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(Ultra Wide Band)连接、以及其他现在已知或将来开发的无线连接方式。
执行主体可以获取图像采集装置采集的图像帧序列。图像帧序列可以是图像采集装置在静止状态下转动多个角度采集的,也可以是图像采集装置在移动过程中、或移动过程中转动角度采集的。其中,图像采集装置可以包含测量深度信息的设备(例如可以是距离传感器)的摄像头等。图像采集装置还可以是采集点云数据得到图像帧序列。相应的,上述图像帧序列包含图像采集装置连续采集的图像帧,上述图像帧包括用于表征图像帧中物体与上述图像采集装置之间距离的深度信息。
步骤202,对于上述图像帧序列中相邻两张图像帧,确定上述相邻两张图像帧中物体之间的位置关系,得到位置关系序列。
在一些实施例中,图像帧序列中的图像帧是图像采集装置连续采集的。因此,相邻两张图像帧包含了物体之间的位置变化,根据位置变化可以确定物体之间的位置关系。相应的,通过图像帧序列可以得到位置关系序列,则位置关系序列就可以表征图像帧中物体之间位置关系的连续变化。由此,可以实现从多个视角对图像帧中物体的位置关系进行描述,进而有利于获取三维空间中物体之间准确的位置关系。
步骤203,基于上述位置关系序列构建三维空间,并通过上述三维空间获取目标物体的目标深度信息。
在一些实施例中,位置关系序列可以表征图像帧中物体之间位置关系的连续变化,进而,基于位置关系序列构建的三维空间,可以实现对物体在三维空间中位置、点、线和面等特征的多角度修正,提高了三维空间的准确性。进而,在接收到获取目标物体深度信息的请求时,可以在三维空间中获取目标物体的准确的目标深度信息。
本公开的一些实施例公开的深度信息获取方法得到的深度信息,深度信息的准确性有所提高。具体来说,造成深度信息的准确性不高的原因在于:现有的深度信息通常是图像采集装置在某一位置或某一时刻采集的,容易受到多种因素的干扰。基于此,本公开的一些实施例的深度信息获取方法首先获取图像采集装置连续采集图像帧得到的图像帧序列;然后确定图像帧序列中相邻图像帧中物体之间的位置关系,可以获取到物体之间位置关系的微小变化。然后基于位置关系序列构建三维空间,大大提高了三维空间中物体之间的位置关系的准确性。在此基础上,通过三维空间获取目标物体的目标深度信息,提高了目标深度信息的准确性。
继续参考图3,图3示出了根据本公开的深度信息获取方法的一些实施例的流程300。该深度信息获取方法,包括以下步骤:
步骤301,获取图像帧序列。
步骤301的内容与步骤201的内容相同,此处不再一一赘述。
步骤302,对于上述图像帧序列中相邻两张图像帧,确定相邻两张图像帧中的静止物体图像区域和运动物体图像区域。
执行主体可以对图像帧序列中相邻两张图像帧进行比较,以确定相邻两张图像帧中的静止物体图像区域和运动物体图像区域。例如,执行主体可以通过图像识别等方法,识别出图像帧中的静止物体和运动物体,进而确定静止物体图像区域和运动物体图像区域。
在一些实施例的一些可选的实现方式中,上述确定相邻两张图像帧中的静止物体图像区域和运动物体图像区域,可以包括:对于相邻的两张图像帧中的图像帧,确定图像帧中的至少一个超像素区域,基于上述语义标签确定上述至少一个超像素区域中的静止物体图像区域和运动物体图像区域。
执行主体可以首先确定图像帧中的至少一个超像素区域。其中,超像素区域可以为像素值相同或相近的连续像素构成的区域。实际中,可能存在颜色相同或相近的多个物体在图像帧中聚集的情况。基于此,执行主体可以进一步通过语义标签来确定超像素区域中的静止物体图像区域和运动物体图像区域。其中,上述图像帧序列中的图像帧包含至少一条语义标签,上述语义标签用于描述图像帧中的物体。语义标签可以是对图像帧进行图像识别后得到的。如此,通过语义标签提高了识别静止物体图像区域和运动物体图像区域的准确性。
步骤303,通过上述运动物体图像区域在上述相邻两张图像帧中的位置变化确定物体之间的位置关系,得到位置关系序列。
确定了静止物体图像区域和运动物体图像区域后,执行主体可以比较相邻两张图像帧中运动物体图像区域的位置变化,进而确定物体之间的位置关系。
在一些实施例的一些可选的实现方式中,其中上述通过上述运动物体图像区域在上述相邻两张图像帧中的位置变化确定物体之间的位置关系,可以包括以下步骤:
第一步,在上述相邻两张图像帧中相同静止物体图像区域设置对应的至少一个静止位置标记点,在相同运动物体图像区域设置对应的至少一个运动位置标记点。
为了确定物体之间的位置关系,执行主体可以分别在相邻两张图像帧中的相同物体的相同位置设置至少一个静止位置标记点和至少一个运动位置标记点。可选的,至少一个静止位置标记点和至少一个运动位置标记点可以选择物体的角、边等具有准确表征物体特征的位置。
第二步,基于上述深度信息、上述至少一个静止位置标记点和至少一个运动位置标记点确定对应的运动物体之间的位置关系。
深度信息可以表征图像帧中物体与上述图像采集装置之间距离。基于静止位置标记点和运动位置标记点在相邻两张图像帧中的变化,以及深度信息,可以确定物体与图形采集装置的位置关系,进而确定物体之间的位置关系。
在一些实施例的一些可选的实现方式中,上述基于上述深度信息、上述至少一个静止位置标记点和至少一个运动位置标记点确定对应的运动物体之间的位置关系,可以包括以下步骤:
第一步,对于上述相邻两张图像帧中的图像帧,对应构建至少一个静止位置标记点和至少一个运动位置标记点之间的多条线段。
执行主体可以在相邻图像帧中的每一个图像帧中构建静止位置标记点和运动位置标记点之间的多条线段。为了能够通过静止位置标记点和运动位置标记点准确标记物体,可以通过一个静止位置标记点和多个运动位置标记点,多个静止位置标记点和一个运动位置标记点,或多个静止位置标记点和多个运动位置标记点等方式构建线段。
第二步,通过上述相邻两张图像帧中对应线段的长度差值确定运动物体的位置变化量。
执行主体可以比较相邻两张图像帧中连接连个相同点的线段之间的长度差,并通过长度差来确定运动物体的位置变化量。
第三步,基于上述深度信息和位置变化量确定对应的运动物体之间的位置关系。
执行主体可以通过深度信息和位置变化量确定对应的运动物体之间是共边、共面、遮挡等位置关系。其中,共边可以是两个物体位置变化量相同,但深度信息不同;共面可以是两个物体变化量不相同,但深度信息相同;遮挡可以是两个物体变化量和深度信息都不相同。
步骤304,对于上述位置关系序列中的位置关系,确定该位置关系对应的目标位置信息,通过该位置关系和上述目标位置信息确定视角三维图像。
执行主体可以基于位置关系确定目标位置信息。例如,在获取相邻两张图像帧的前一张图像帧时,图像采集装置所在的位置为位置1,获取相邻两张图像帧的后一张图像帧时,图像采集装置所在的位置为位置2,则基于位置关系确定的目标位置信息可以表征图像采集装置从位置1到位置2时图像帧的变化,即图像采集装置在三维空间中的位置变化量。之后,可以通过位置关系和目标位置信息确定视角三维图像。其中,视角三维图像是指图像采集装置在目标位置信息对应的目标位置处的视角所获取的图像。由于目标位置信息为图像采集装置在三维空间中的位置变化量,对应的,视角三维图像可以是相邻两张图像帧中对应像素的像素变化差值构成图像。如此,建立了图像与图像采集装置的位置之间的对应关系,提高了三维空间中物体与图像采集装置之间相对位置的准确性,有利于构建好的三维空间获取准确的深度信息。
由上述描述可知,位置关系是通过相邻两张图像帧得到的,则目标位置信息可以认为是建立了相邻两张图像帧之间的对应关系。然后再通过目标位置信息确定视角三维图像,实现了通过目标位置信息对图像帧的修正和融合,提高了构建三维空间的准确性。
在一些实施例的一些可选的实现方式中,上述通过该位置关系和上述目标位置信息确定视角三维图像,可以包括以下步骤:
第一步,根据上述深度信息和该位置关系确定物体之间的相对位置。
通过深度信息可以确定图像采集设备与物体之间的距离,进而可以根据位置关系确定物体之间的相对位置。其中,相对位置可以包括前后位置、左右位置等。
第二步,根据上述目标位置信息和相对位置确定视角三维图像。
执行主体可以在目标位置信息对应的目标位置处确定视角,然后再根据相对位置关系确定物体在视角中出现的位置,进而确定视角三维图像。其中,上述视角三维图像用于表征图像采集装置在上述目标位置信息对应的目标位置处的视角获取的图像。
步骤305,基于上述位置关系序列对应的视角三维图像集合构建三维空间,并通过上述三维空间获取目标物体的目标深度信息。
视角三维图像是通过相邻的两张图像帧获取的,而位置关系序列包含多张图像帧,由此可以得到是视角三维图像集合。执行主体可以视角三维图像投射在三维空间,并通过相邻的视角三维图像中相同的物体图像逐步构建三维空间。则该三维空间就是对应图像帧序列的三维空间。
在一些实施例的一些可选的实现方式中,上述基于上述位置关系序列对应的视角三维图像集合构建三维空间,可以包括以下步骤:
第一步,对上述视角三维图像集合内的视角三维图像进行融合,得到初始三维空间。
视角三维图像建立了图像与图像采集装置的位置之间的对应关系,有利于提高三维空间中物体与图像采集装置之间相对位置的准确性。基于此,执行主体可以对视角三维图像集合内地视角三维图像按照得到的先后顺序依次融合,每次融合都可以进行一次物体的位置、空间的匹配,逐步融合得到初始三维空间。初始三维空间能够满足多个视角下图像中物体的位置要求,因此初始三维空间能够最大化的跟实际空间相符合。
第二步,对上述初始三维空间进行平滑处理,得到目标三维空间。
实际中,图像采集装置可能受到振动等因素的影响,因此,得到的图像帧可能存在多个方向上的偏差。执行主体可以对初始三维空间进行平滑处理,以使得目标三维空间能够符合实际情况,有利于提高基于三维空间获取的深度信息的准确性。
进一步参考图4,其示出了深度信息获取方法的另一些实施例的流程400。该深度信息获取方法的流程400,包括以下步骤:
步骤401,获取图像帧序列。
步骤402,对于上述图像帧序列中相邻两张图像帧,确定上述相邻两张图像帧中物体之间的位置关系,得到位置关系序列。
步骤403,基于上述位置关系序列构建三维空间,并通过上述三维空间获取目标物体的目标深度信息。
步骤401至步骤403的内容与步骤201至步骤203的内容相同,此处不再一一赘述。
步骤404,在上述三维空间确定物体的位姿信息。
在一些实施例中,当执行主体接收到获取目标物体的位姿请求时,可以在三维空间中设置对应的视角,并获取到该视角下物体的位姿信息。由于视角在三维空间中设置的选择性很大,因此,可以获取到物体在多个视角下的位姿信息,有利于通过位姿信息对物体的运动状态进行调整。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种深度信息获取装置的一些实施例,这些装置实施例与图2所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,一些实施例的深度信息获取装置500包括:图像帧序列获取单元501、位置关系获取单元502和深度信息获取单元503。其中,图像帧序列获取单元501,被配置成获取图像帧序列,上述图像帧序列包含图像采集装置连续采集的图像帧,上述图像帧包括用于表征图像帧中物体与上述图像采集装置之间距离的深度信息;位置关系获取单元502,被配置成对于上述图像帧序列中相邻两张图像帧,确定上述相邻两张图像帧中物体之间的位置关系,得到位置关系序列;深度信息获取单元503,被配置成基于上述位置关系序列构建三维空间,并通过上述三维空间获取目标物体的目标深度信息。
在一些实施例的可选实现方式中,上述位置关系获取单元502可以包括:图像区域确定子单元(图中未示出)和位置关系获取子单元(图中未示出)。其中,图像区域确定子单元,被配置成确定相邻两张图像帧中的静止物体图像区域和运动物体图像区域;位置关系获取子单元,被配置成通过上述运动物体图像区域在上述相邻两张图像帧中的位置变化确定物体之间的位置关系。
在一些实施例的可选实现方式中,上述图像帧序列中的图像帧包含至少一条语义标签,上述语义标签用于描述图像帧中的物体;以及,上述图像区域确定子单元可以包括:图像区域确定模块(图中未示出),被配置成对于相邻的两张图像帧中的图像帧,确定图像帧中的至少一个超像素区域,基于上述语义标签确定上述至少一个超像素区域中的静止物体图像区域和运动物体图像区域。
在一些实施例的可选实现方式中,上述位置关系获取子单元可以包括:标记点设置模块(图中未示出)和位置关系确定模块(图中未示出)。其中,标记点设置模块,被配置成在上述相邻两张图像帧中相同静止物体图像区域设置对应的至少一个静止位置标记点,在相同运动物体图像区域设置对应的至少一个运动位置标记点;位置关系确定模块,被配置成基于上述深度信息、上述至少一个静止位置标记点和至少一个运动位置标记点确定对应的运动物体之间的位置关系。
在一些实施例的可选实现方式中,上述位置关系确定模块可以包括:线段构建子模块(图中未示出)、位置变化量确定子模块(图中未示出)和位置关系确定子模块(图中未示出)。其中,线段构建子模块,被配置成对于上述相邻两张图像帧中的图像帧,对应构建至少一个静止位置标记点和至少一个运动位置标记点之间的多条线段;位置变化量确定子模块,被配置成通过上述相邻两张图像帧中对应线段的长度差值确定运动物体的位置变化量;位置关系确定子模块,被配置成基于上述深度信息和位置变化量确定对应的运动物体之间的位置关系,上述位置关系包括以下任意一项:共边、共面、遮挡。
在一些实施例的可选实现方式中,上述图像帧包括位置信息;以及,上述深度信息获取单元503可以包括:视角三维图像确定子单元(图中未示出)和三维空间构建子单元(图中未示出)。其中,视角三维图像确定子单元,被配置成对于上述位置关系序列中的位置关系,确定该位置关系对应的目标位置信息,通过该位置关系和上述目标位置信息确定视角三维图像;三维空间构建子单元,被配置成基于上述位置关系序列对应的视角三维图像集合构建三维空间。
在一些实施例的可选实现方式中,上述图像帧包括深度信息,其中,上述深度信息用于表征图像帧中物体与上述图像采集装置之间的距离;以及,上述视角三维图像确定子单元可以包括:相对位置确定模块(图中未示出)和视角三维图像确定模块(图中未示出)。其中,相对位置确定模块,被配置成根据上述深度信息和该位置关系确定物体之间的相对位置;视角三维图像确定模块,被配置成根据上述目标位置信息和相对位置确定视角三维图像,上述视角三维图像用于表征图像采集装置在上述目标位置信息对应的目标位置处的视角拍摄的图像。
在一些实施例的可选实现方式中,上述三维空间构建子单元可以包括:初始三维空间获取模块(图中未示出)和三维空间构建模块(图中未示出)。其中,初始三维空间获取模块,被配置成对上述视角三维图像集合内的视角三维图像进行融合,得到初始三维空间;三维空间构建模块,被配置成对上述初始三维空间进行平滑处理,得到目标三维空间。
在一些实施例的可选实现方式中,上述深度信息获取装置500还可以包括:位姿信息获取单元(图中未示出),被配置成在上述三维空间确定物体的位姿信息。
可以理解的是,该装置500中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置500及其中包含的单元,在此不再赘述。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取图像帧序列,上述图像帧序列包含图像采集装置连续采集的图像帧,上述图像帧包括用于表征图像帧中物体与上述图像采集装置之间距离的深度信息;对于上述图像帧序列中相邻两张图像帧,确定上述相邻两张图像帧中物体之间的位置关系,得到位置关系序列;基于上述位置关系序列构建三维空间,并通过上述三维空间获取目标物体的目标深度信息。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括图像帧序列获取单元、位置关系获取单元和深度信息获取单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,深度信息获取单元还可以被描述为“用于获取目标物体在三维空间的深度信息的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (12)

1.一种深度信息获取方法,包括:
获取图像帧序列,所述图像帧序列包含图像采集装置连续采集的图像帧,所述图像帧包括用于表征图像帧中物体与所述图像采集装置之间距离的深度信息;
对于所述图像帧序列中相邻两张图像帧,确定所述相邻两张图像帧中物体之间的位置关系,得到位置关系序列;
基于所述位置关系序列构建三维空间,并通过所述三维空间获取目标物体的目标深度信息。
2.根据权利要求1所述的方法,其中,所述确定所述相邻两张图像帧中物体之间的位置关系,包括:
确定相邻两张图像帧中的静止物体图像区域和运动物体图像区域;
通过所述运动物体图像区域在所述相邻两张图像帧中的位置变化确定物体之间的位置关系。
3.根据权利要求2所述的方法,其中,所述图像帧序列中的图像帧包含至少一条语义标签,所述语义标签用于描述图像帧中的物体;以及
所述确定相邻两张图像帧中的静止物体图像区域和运动物体图像区域,包括:
对于相邻的两张图像帧中的图像帧,确定图像帧中的至少一个超像素区域,基于所述语义标签确定所述至少一个超像素区域中的静止物体图像区域和运动物体图像区域。
4.根据权利要求2所述的方法,其中,所述通过所述运动物体图像区域在所述相邻两张图像帧中的位置变化确定物体之间的位置关系,包括:
在所述相邻两张图像帧中相同静止物体图像区域设置对应的至少一个静止位置标记点,在相同运动物体图像区域设置对应的至少一个运动位置标记点;
基于所述深度信息、所述至少一个静止位置标记点和至少一个运动位置标记点确定对应的运动物体之间的位置关系。
5.根据权利要求4所述的方法,其中,所述基于所述深度信息、所述至少一个静止位置标记点和至少一个运动位置标记点确定对应的运动物体之间的位置关系,包括:
对于所述相邻两张图像帧中的图像帧,对应构建至少一个静止位置标记点和至少一个运动位置标记点之间的多条线段;
通过所述相邻两张图像帧中对应线段的长度差值确定运动物体的位置变化量;
基于所述深度信息和位置变化量确定对应的运动物体之间的位置关系,所述位置关系包括以下任意一项:共边、共面、遮挡。
6.根据权利要求1所述的方法,其中,所述图像帧包括位置信息;以及
所述基于所述位置关系序列构建三维空间,包括:
对于所述位置关系序列中的位置关系,确定该位置关系对应的目标位置信息,通过该位置关系和所述目标位置信息确定视角三维图像;
基于所述位置关系序列对应的视角三维图像集合构建三维空间。
7.根据权利要求6所述的方法,其中,所述图像帧包括深度信息,其中,所述深度信息用于表征图像帧中物体与所述图像采集装置之间的距离;以及
所述通过该位置关系和所述目标位置信息确定视角三维图像,包括:
根据所述深度信息和该位置关系确定物体之间的相对位置;
根据所述目标位置信息和相对位置确定视角三维图像,所述视角三维图像用于表征图像采集装置在所述目标位置信息对应的目标位置处的视角拍摄的图像。
8.根据权利要求6所述的方法,其中,所述基于所述位置关系序列对应的视角三维图像集合构建三维空间,包括:
对所述视角三维图像集合内的视角三维图像进行融合,得到初始三维空间;
对所述初始三维空间进行平滑处理,得到目标三维空间。
9.根据权利要求1所述的方法,其中,所述方法还包括:
在所述三维空间确定物体的位姿信息。
10.一种深度信息获取装置,包括:
图像帧序列获取单元,被配置成获取图像帧序列,所述图像帧序列包含图像采集装置连续采集的图像帧,所述图像帧包括用于表征图像帧中物体与所述图像采集装置之间距离的深度信息;
位置关系获取单元,被配置成对于所述图像帧序列中相邻两张图像帧,确定所述相邻两张图像帧中物体之间的位置关系,得到位置关系序列;
深度信息获取单元,被配置成基于所述位置关系序列构建三维空间,并通过所述三维空间获取目标物体的目标深度信息。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
图像采集装置,用于获取包含深度信息和语义标签的图像帧,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1至9中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时,实现如权利要求1至9中任一所述的方法。
CN202111038631.9A 2021-09-06 2021-09-06 深度信息获取方法、装置、电子设备和计算机可读介质 Pending CN113781539A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111038631.9A CN113781539A (zh) 2021-09-06 2021-09-06 深度信息获取方法、装置、电子设备和计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111038631.9A CN113781539A (zh) 2021-09-06 2021-09-06 深度信息获取方法、装置、电子设备和计算机可读介质

Publications (1)

Publication Number Publication Date
CN113781539A true CN113781539A (zh) 2021-12-10

Family

ID=78841356

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111038631.9A Pending CN113781539A (zh) 2021-09-06 2021-09-06 深度信息获取方法、装置、电子设备和计算机可读介质

Country Status (1)

Country Link
CN (1) CN113781539A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115965942A (zh) * 2023-03-03 2023-04-14 安徽蔚来智驾科技有限公司 位置估计方法、车辆控制方法、设备、介质及车辆

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001029767A2 (en) * 1999-10-21 2001-04-26 Koninklijke Philips Electronics N.V. System and method for three-dimensional modeling
CN108230437A (zh) * 2017-12-15 2018-06-29 深圳市商汤科技有限公司 场景重建方法和装置、电子设备、程序和介质
CN111127584A (zh) * 2019-11-19 2020-05-08 奇点汽车研发中心有限公司 建立视觉地图的方法和装置、电子设备和存储介质
CN111488812A (zh) * 2020-04-01 2020-08-04 腾讯科技(深圳)有限公司 障碍物位置识别方法、装置、计算机设备和存储介质
CN111914715A (zh) * 2020-07-24 2020-11-10 廊坊和易生活网络科技股份有限公司 一种基于仿生视觉的智能车目标实时检测与定位方法
CN112015170A (zh) * 2019-05-29 2020-12-01 北京市商汤科技开发有限公司 运动物体检测及智能驾驶控制方法、装置、介质及设备
US20210248763A1 (en) * 2019-03-26 2021-08-12 Tencent Technology (Shenzhen) Company Limited Three-dimensional object reconstruction method and apparatus
CN113255520A (zh) * 2021-05-25 2021-08-13 华中科技大学 基于双目视觉和深度学习的车辆避障方法与电子设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001029767A2 (en) * 1999-10-21 2001-04-26 Koninklijke Philips Electronics N.V. System and method for three-dimensional modeling
CN108230437A (zh) * 2017-12-15 2018-06-29 深圳市商汤科技有限公司 场景重建方法和装置、电子设备、程序和介质
US20210248763A1 (en) * 2019-03-26 2021-08-12 Tencent Technology (Shenzhen) Company Limited Three-dimensional object reconstruction method and apparatus
CN112015170A (zh) * 2019-05-29 2020-12-01 北京市商汤科技开发有限公司 运动物体检测及智能驾驶控制方法、装置、介质及设备
CN111127584A (zh) * 2019-11-19 2020-05-08 奇点汽车研发中心有限公司 建立视觉地图的方法和装置、电子设备和存储介质
CN111488812A (zh) * 2020-04-01 2020-08-04 腾讯科技(深圳)有限公司 障碍物位置识别方法、装置、计算机设备和存储介质
CN111914715A (zh) * 2020-07-24 2020-11-10 廊坊和易生活网络科技股份有限公司 一种基于仿生视觉的智能车目标实时检测与定位方法
CN113255520A (zh) * 2021-05-25 2021-08-13 华中科技大学 基于双目视觉和深度学习的车辆避障方法与电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鲁鹏;汪国平;王衡;: "自然的三维场景视点控制系统", 计算机辅助设计与图形学学报, no. 11, 15 November 2010 (2010-11-15), pages 120 - 125 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115965942A (zh) * 2023-03-03 2023-04-14 安徽蔚来智驾科技有限公司 位置估计方法、车辆控制方法、设备、介质及车辆

Similar Documents

Publication Publication Date Title
CN107123142B (zh) 位姿估计方法和装置
CN112184738B (zh) 一种图像分割方法、装置、设备及存储介质
CN111242881A (zh) 显示特效的方法、装置、存储介质及电子设备
US20230005194A1 (en) Image processing method and apparatus, readable medium and electronic device
CN110516678B (zh) 图像处理方法和装置
CN110728622B (zh) 鱼眼图像处理方法、装置、电子设备及计算机可读介质
CN111784712B (zh) 图像处理方法、装置、设备和计算机可读介质
CN113607185B (zh) 车道线信息显示方法、装置、电子设备和计算机可读介质
CN110310299B (zh) 用于训练光流网络、以及处理图像的方法和装置
US20210264198A1 (en) Positioning method and apparatus
CN111726675A (zh) 对象的信息显示方法、装置、电子设备及计算机存储介质
CN113781539A (zh) 深度信息获取方法、装置、电子设备和计算机可读介质
CN111327762A (zh) 操作轨迹的显示方法、装置、电子设备及存储介质
CN112818898B (zh) 模型训练方法、装置和电子设备
CN110399802B (zh) 处理面部图像眼睛亮度的方法、装置、介质和电子设备
CN109816791B (zh) 用于生成信息的方法和装置
CN113780247B (zh) 红绿灯检测方法、装置、电子设备和计算机可读介质
CN114125485B (zh) 图像处理方法、装置、设备及介质
CN111915532B (zh) 图像追踪方法、装置、电子设备及计算机可读介质
CN110348374B (zh) 车辆检测方法、装置、电子设备及存储介质
CN111401182B (zh) 针对饲喂栏的图像检测方法和装置
CN115082516A (zh) 一种目标跟踪方法、装置、设备及介质
CN110825480A (zh) 图片的展示方法、装置、电子设备及计算机可读存储介质
CN112883757B (zh) 生成跟踪姿态结果的方法
CN112880675B (zh) 用于视觉定位的位姿平滑方法、装置、终端和移动机器人

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination