CN108596116A - 测距方法、智能控制方法及装置、电子设备和存储介质 - Google Patents
测距方法、智能控制方法及装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN108596116A CN108596116A CN201810394688.4A CN201810394688A CN108596116A CN 108596116 A CN108596116 A CN 108596116A CN 201810394688 A CN201810394688 A CN 201810394688A CN 108596116 A CN108596116 A CN 108596116A
- Authority
- CN
- China
- Prior art keywords
- target object
- detection block
- distance measurement
- distance
- rectangle frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/026—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/14—Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Remote Sensing (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本公开涉及一种测距方法、智能控制方法及装置、电子设备和存储介质,所述方法包括:获取当前对象所拍摄的图像中目标对象的检测框;根据所述检测框的形状确定至少一个测距点;基于所述测距点确定所述目标对象与所述当前对象之间的距离。由于检测框的形状与目标对象距离的远近、拍摄视角、以及目标对象自身的运动状态密切相关,因此,根据检测框的形状确定出的测距点,能够用于得出准确的测量结果。
Description
技术领域
本公开涉及计算机视觉技术领域,尤其涉及一种测距方法、智能控制方法及装置、电子设备和存储介质。
背景技术
在车辆智能驾驶时,需要利用计算机视觉技术感知其它车辆和行人的距离,并将感知到的其它车辆和行人的距离用于智能驾驶的决策。
发明内容
本公开提出了一种测距方法技术方案和智能控制方法技术方案。
根据本公开的一方面,提供了一种测距方法,包括:
获取当前对象所拍摄的图像中目标对象的检测框;
根据所述检测框的形状确定至少一个测距点;
基于所述测距点确定所述目标对象与所述当前对象之间的距离。
在一种可能的实现方式中,所述检测框包括矩形框,根据所述检测框的形状确定至少一个测距点,包括:
根据所述矩形框的高度确定至少一个测距点。
在一种可能的实现方式中,根据所述矩形框的高度确定至少一个测距点,包括:
根据所述矩形框的高度,在所述矩形框的底边上确定至少一个测距点。
在一种可能的实现方式中,根据所述矩形框的高度,在所述矩形框的底边上确定测距点,包括:
根据所述矩形框的宽高比和宽高阈值确定高度权重系数;
根据所述矩形框的高度和所述高度权重系数,在所述矩形框的底边上确定测距点。
在一种可能的实现方式中,基于所述测距点确定所述目标对象与所述当前对象之间的距离,包括:
基于所述测距点和基于当前对象所处的环境构建的单应矩阵确定所述目标对象与所述当前对象之间的距离。
在一种可能的实现方式中,基于所述测距点和单应矩阵确定所述目标对象与所述当前对象之间的距离,包括:
基于所述测距点和第一单应矩阵确定所述目标对象与所述当前对象之间的第一距离,第一单应矩阵包括第一距离范围的单应矩阵;
根据确定出的所述第一距离和第二单应矩阵,确定所述目标对象与所述当前对象之间的第二距离,所述第二单应矩阵包括第二距离范围的单应矩阵,所述第一距离范围大于所述第二距离范围。
在一种可能的实现方式中,获取当前对象所拍摄的图像中目标对象的检测框,包括:
基于神经网络对所述当前对象所拍摄的图像进行目标对象检测,获得所述目标对象的检测框。
在一种可能的实现方式中,所述图像为所述当前对象所拍摄的视频中的帧图像,获取当前对象所拍摄的图像中目标对象的检测框,包括:
对所述图像进行目标对象检测,得到所述目标对象的第一检测框;
在所述视频中时序位于所述图像之前的至少一帧图像中,获取所述目标对象的历史检测框;
根据所述目标对象的历史检测框,在所述图像中确定所述目标对象的预测框;
根据所述第一检测框和所述预测框确定所述目标对象的第二检测框。
在一种可能的实现方式中,根据所述目标对象的历史检测框,在所述图像中确定所述目标对象的预测框,包括:
根据所述目标对象的历史检测框确定所述目标对象的运动状态;
根据所述目标对象的运动状态拟合所述目标对象的预测框。
在一种可能的实现方式中,根据所述目标对象的历史检测框,在所述图像中确定所述目标对象的预测框,包括:
根据所述目标对象的历史检测框确定历史检测框的宽高比的变化状态;
根据所述历史检测框的宽高比的变化状态拟合所述目标对象的预测框的宽高比。
在一种可能的实现方式中,根据所述第一检测框和所述预测框确定所述目标对象的第二检测框,包括:
确定所述目标对象的第一检测框和所述目标对象的预测框之间的第一重叠率;
当所述第一重叠率大于或等于第一重叠阈值时,根据所述目标对象的第一检测框的位置和所述目标对象的预测框的位置,确定所述目标对象的检测位置;
根据所述目标对象的第一检测框的宽高比和所述目标对象的预测框的宽高比,确定所述目标对象的检测宽高比;
根据所述检测位置和所述检测宽高比,确定所述目标对象的第二检测框。
在一种可能的实现方式中,所述方法还包括:
当所述第一重叠率小于第一重叠阈值时,将所述目标对象的第一检测框确定为所述目标对象的第二检测框。
在一种可能的实现方式中,根据所述第一检测框和所述预测框确定所述目标对象的第二检测框,还包括:
当对所述图像进行目标对象检测,无法得到所述目标对象的第一检测框时,将所述目标对象的预测框确定为所述目标对象的第二检测框。
在一种可能的实现方式中,根据所述第一检测框和所述预测框确定所述目标对象的第二检测框,还包括:
当所述目标对象的历史检测框与其它对象的历史检测框有重叠时,获取所述目标对象的历史检测框与所述其它对象的历史检测框之间的第二重叠率;
计算在所述图像的前一帧图像中所述目标对象的历史检测框和所述目标对象的第一检测框之间的第三重叠率;
当所述第三重叠率大于所述第二重叠率时,将所述目标对象的第一检测框确定为所述目标对象的第二检测框。
根据本公开的一方面,提供了一种智能控制方法,所述方法包括:
采用如权利要求1-14任一所述的方法获取当前对象与目标对象之间的距离;
根据所述距离生成针对所述当前对象的预警信息和/或控制信息。
在一种可能的实现方式中,所述当前对象包括以下对象中的其中一种或任意组合:人、车辆、机器人、可穿戴式设备、导盲设备、监控设备、智能终端设备、生产设备、建筑物。
在一种可能的实现方式中,根据所述距离生成针对所述当前对象的预警信息和/或控制信息,包括:
根据距离和距离阈值,生成针对所述当前对象的预警信息和/或控制信息。
在一种可能的实现方式中,根据距离和距离阈值,生成针对所述当前对象的预警信息和/或控制信息,包括:
当所述距离小于或等于所述距离阈值时,生成针对所述当前对象的第一预警信息和/或第一控制信息;
当所述距离大于所述距离阈值时,生成针对所述当前对象的第二预警信息和/或第二控制信息。
在一种可能的实现方式中,根据所述距离生成针对所述当前对象的预警信息和/或控制信息,包括:
根据所述距离确定预警级别;
根据所述预警级别确定预警信息,和/或
根据所述距离确定控制级别;
根据所述控制级别确定控制信息。
在一种可能的实现方式中,所述预警信息包括以下信息中的其中一种或任意组合:声音预警信息、光预警信息、文字预警信息、图像预警信息、振动信息;
所述控制信息包括以下信息中的其中一种或任意组合:紧急制动信息、停止信息、加速信息、降速信息、转弯信息。
根据本公开的一方面,提供了一种测距装置,所述装置包括:
检测框获取模块,用于获取当前对象所拍摄的图像中目标对象的检测框;
测距点确定模块,用于根据所述检测框的形状确定至少一个测距点;
距离确定模块,用于基于所述测距点确定所述目标对象与所述当前对象之间的距离。
在一种可能的实现方式中,所述检测框包括矩形框,所述测距点确定模块,包括:
第一测距点确定子模块,用于根据所述矩形框的高度确定至少一个测距点。
在一种可能的实现方式中,第一测距点确定子模块,包括:
底边测距点确定子模块,用于根据所述矩形框的高度,在所述矩形框的底边上确定至少一个测距点。
在一种可能的实现方式中,所述底边测距点确定子模块,包括:
高度权重系数确定子模块,用于根据所述矩形框的宽高比和宽高阈值确定高度权重系数;
第一底边测距点确定子模块,用于根据所述矩形框的高度和所述高度权重系数,在所述矩形框的底边上确定测距点。
在一种可能的实现方式中,所述距离确定模块,包括:
第一距离确定子模块,用于基于所述测距点和基于当前对象所处的环境构建的单应矩阵确定所述目标对象与所述当前对象之间的距离。
在一种可能的实现方式中,所述第一距离确定子模块,包括:
第二距离确定子模块,用于基于所述测距点和第一单应矩阵确定所述目标对象与所述当前对象之间的第一距离,第一单应矩阵包括第一距离范围的单应矩阵;
第三距离确定子模块,用于根据确定出的所述第一距离和第二单应矩阵,确定所述目标对象与所述当前对象之间的第二距离,所述第二单应矩阵包括第二距离范围的单应矩阵,所述第一距离范围大于所述第二距离范围。
在一种可能的实现方式中,所述检测框获取模块,包括:
第一检测框获取子模块,用于基于神经网络对所述当前对象所拍摄的图像进行目标对象检测,获得所述目标对象的检测框。
在一种可能的实现方式中,所述图像为所述当前对象所拍摄的视频中的帧图像,所述检测框获取模块,包括:
第二检测框获取子模块,用于获取对所述图像进行目标对象检测,得到所述目标对象的第一检测框;
历史检测框获取子模块,用于在所述视频中时序位于所述图像之前的至少一帧图像中,获取所述目标对象的历史检测框;
预测框获取子模块,用于根据所述目标对象的历史检测框,在所述图像中确定所述目标对象的预测框;
第三检测框获取子模块,用于根据所述第一检测框和所述预测框确定所述目标对象的第二检测框。
在一种可能的实现方式中,所述预测框获取子模块,包括:
运动状态获取子模块,用于根据所述目标对象的历史检测框确定所述目标对象的运动状态;
第一预测框获取子模块,用于根据所述目标对象的运动状态拟合所述目标对象的预测框。
在一种可能的实现方式中,所述预测框获取子模块,包括:
变化状态获取子模块,用于根据所述目标对象的历史检测框确定历史检测框的宽高比的变化状态;
第二预测框获取子模块,用于根据所述历史检测框的宽高比的变化状态拟合所述目标对象的预测框的宽高比。
在一种可能的实现方式中,所述第三检测框获取子模块,包括:
第一重叠率获取子模块,用于确定所述目标对象的第一检测框和所述目标对象的预测框之间的第一重叠率;
检测位置获取子模块,用于当所述第一重叠率大于或等于第一重叠阈值时,根据所述目标对象的第一检测框的位置和所述目标对象的预测框的位置,确定所述目标对象的检测位置;
检测宽高比获取子模块,用于根据所述目标对象的第一检测框的宽高比和所述目标对象的预测框的宽高比,确定所述目标对象的检测宽高比;
第四检测框获取子模块,用于根据所述检测位置和所述检测宽高比,确定所述目标对象的第二检测框。
在一种可能的实现方式中,所述装置还包括:
第五检测框获取子模块,用于当所述第一重叠率小于第一重叠阈值时,将所述目标对象的第一检测框确定为所述目标对象的第二检测框。
在一种可能的实现方式中,所述第三检测框获取子模块,还包括:
第六检测框获取子模块,用于当对所述图像进行目标对象检测,无法得到所述目标对象的第一检测框时,将所述目标对象的预测框确定为所述目标对象的第二检测框。
在一种可能的实现方式中,所述第三检测框获取子模块,还包括:
第二重叠率获取子模块,用于当所述目标对象的历史检测框与其它对象的历史检测框有重叠时,获取所述目标对象的历史检测框与所述其它对象的历史检测框之间的第二重叠率;
第三重叠率获取子模块,用于计算在所述图像的前一帧图像中所述目标对象的历史检测框和所述目标对象的第一检测框之间的第三重叠率;
第七检测框获取子模块,用于当所述第三重叠率大于所述第二重叠率时,将所述目标对象的第一检测框确定为所述目标对象的第二检测框。
根据本公开的一方面,提供了一种智能控制装置,所述装置包括:
距离获取模块,用于采用如权利要求21-24任一所述的装置获取当前对象与目标对象之间的距离;
控制信息生成模块,用于根据所述距离生成针对所述当前对象的预警信息和/或控制信息。
在一种可能的实现方式中,所述当前对象包括以下对象中的其中一种或任意组合:人、车辆、机器人、可穿戴式设备、导盲设备、监控设备、智能终端设备、生产设备、建筑物。
在一种可能的实现方式中,所述控制信息生成模块,包括:
第一控制信息生成模块,用于根据距离和距离阈值,生成针对所述当前对象的预警信息和/或控制信息。
在一种可能的实现方式中,所述第一控制信息生成模块,包括:
第一控制信息生成子模块,用于当所述距离小于或等于所述距离阈值时,生成针对所述当前对象的第一预警信息和/或第一控制信息;
第二控制信息生成子模块,用于当所述距离大于所述距离阈值时,生成针对所述当前对象的第二预警信息和/或第二控制信息。
在一种可能的实现方式中,所述第一控制信息生成模块,包括:
预警级别确定子模块,用于根据所述距离确定预警级别;
预警信息确定子模块,用于根据所述预警级别确定预警信息,和/或
控制级别确定子模块,用于根据所述距离确定控制级别;
控制信息确定子模块,用于根据所述控制级别确定控制信息。
在一种可能的实现方式中,所述预警信息包括以下信息中的其中一种或任意组合:声音预警信息、光预警信息、文字预警信息、图像预警信息、振动信息;
所述控制信息包括以下信息中的其中一种或任意组合:紧急制动信息、停止信息、加速信息、降速信息、转弯信息。
根据本公开的一方面,提供了一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行上述测距方法和/或智能控制方法。
根据本公开的一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述测距方法和/或智能控制方法。
在本公开实施例中,根据目标对象的检测框的形状确定至少一个测距点,再根据测距点确定当前对象与目标对象的之间的距离。由于检测框的形状与目标对象距离的远近、拍摄视角、以及目标对象自身的运动状态密切相关,因此,根据检测框的形状确定出的测距点,能够用于得出准确的测量结果。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1示出根据本公开一实施例的测距方法的流程图;
图2示出根据本公开一实施例的测距方法的流程图;
图3示出根据本公开一实施例的测距方法的流程图;
图4示出根据本公开一实施例的测距方法的流程图;
图5示出根据本公开一实施例的测距方法的流程图;
图6示出根据本公开一实施例的测距方法的流程图;
图7示出根据本公开一实施例的测距装置的框图;
图8示出根据本公开一实施例的智能控制设备的框图;
图9是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1示出根据本公开一实施例的测距方法的流程图,如图1所示,所述测距方法包括:
步骤S10,获取当前对象所拍摄的图像中目标对象的检测框。
在一种可能的实现方式中,当前对象可以包括可移动的对象,也可以包括不可移动的对象。当前对象可以包括人、机动车、非机动车、机器人、可穿戴设备等。当前对象为车辆时,本公开实施例可以用于自动驾驶、辅助驾驶等技术领域。当前对象为在路边设置的监控设备时,本公开实施例可以用于测量目标对象与监控设备之间的距离。可以根据需求确定当前对象,本公开对此不做限定。
可以在当前对象上配备拍摄装置,并可以根据测距的需求,拍摄设定方向的图像。当前对象所拍摄的图像,可以包括利用拍摄装置拍摄的单帧图像,也可以包括利用拍摄装置拍摄的视频流中的帧图像。
当前对象可以利用单目摄像头、RGB摄像头、红外摄像头、双目摄像头等各种视觉传感器拍摄图像。使用单目摄像头系统成本低反应迅速,使用RGB摄像头或红外摄像头可以拍摄特殊环境下的图像,使用双目摄像头可以得到更加丰富的目标对象的信息。可以根据测距的需求、环境、当前对象的类型以及成本等,选用不同的拍摄设备。本公开对此不做限定。
目标对象包括车辆、行人、建筑物、障碍物、动物等。目标对象可以是一个对象类型中的单个或多个目标对象,也可以是多个对象类型中的多个目标对象。例如,可以只将车辆作为目标对象,目标对象可以是一个车辆,可以是多个车辆。也可以将车辆和行人共同作为目标对象。目标对象是多个车辆和多个行人。根据需求,可以将设定的对象类型作为目标对象,也可以将设定的对象个体作为目标对象。
可以利用图像检测技术获取当前对象所拍摄的图像中目标对象的检测框。检测框可以是矩形框,也可以是其它形状的框。图像中各目标对象的检测框的形状可以相同,也可以根据目标对象形状的不同而不同。检测框的大小可以根据图像中目标对象所占的图像面积大小的不同而不同。例如,图像中的目标对象包括三辆机动车和两个行人。利用图像检测技术,可以在图像中利用五个检测框标识出各目标对象。
检测框可以为检测到的目标对象的外轮廓框,例如,检测框为检测到的目标对象的最小外轮廓框,三辆机动车的检测框可以是宽度方向跨度方向较长的矩形框,两个行人的检测框可以是高度方向较长的矩形框。其中,距离较近的机动车和行人的检测框可以较大,距离较远的机动车和行人的检测框可以较小。
步骤S20,根据所述检测框的形状确定至少一个测距点。
在一种可能的实现方式中,在图像中确定出的测距点,可以用来测量目标对象与当前对象之间的距离。可以在检测框的底边上的固定位置确定测距点,例如将检测框的底边的中心点确定为测距点,可以利用测距点确定目标对象与当前对象之间的距离。
在图像中,目标对象距离的远近、拍摄视角、以及目标对象自身的运动状态的不同,都会导致目标对象在检测框中的图像内容有所变化,也会导致检测框的形状发生变化。例如,当目标对象机动车1相对于具有自动驾驶或辅助驾驶功能的车辆2横向停放或横向行驶时,机动车1的侧面面对摄像头,在机动车1的检测框中包括机动车1侧面的车身图像,检测框的形状为宽度方向较长的矩形框。当机动车1相对于具有自动驾驶或辅助驾驶功能车辆纵向行驶或者纵向停放时,机动车1的车头或车尾面对摄像头,在机动车1的检测框中,包括机动车1的车头或车尾的图像,检测框的形状为宽度方向较短的矩形框。
在传统的测距方法中,根据检测框底边的中心点确定的测距点,可能是机动车1的侧面底边的中心点,也可能是机动车1的车头或车尾的底边的中心点。测距点对应目标对象自身不同的位置。随着目标对象距离的远近、拍摄视角、以及目标对象自身的运动状态的不同,测距点的选取位置可以差异较大。进一步的,在具有自动驾驶或辅助驾驶功能车辆获取到的图像中通常包括移动中的目标对象,例如,道路上行驶的机动车和正在步行的行人等。移动的目标对象对应的检测框内的图像内容,会随着目标对象的移动产生很大变化。因此,根据检测框的固定位置确定出的测距点,无法反映出目标对象自身的任何不变的属性信息,对应在目标对象的不同位置,且变化较大。测距点的选取可以影响到距离测量结果的准确性,因此,根据检测框的固定位置确定出的测距点,不能用于得出准确的测量结果。
所述检测框的形状确定至少一个测距点,包括根据检测框的形状在检测框的边框或检测框内确定至少一个测距点。由于检测框的形状与目标对象距离的远近、拍摄视角、以及目标对象自身的运动状态密切相关,因此,根据检测框的形状确定出的测距点,能够用于得出准确的测量结果。
步骤S30,基于所述测距点确定所述目标对象与所述当前对象之间的距离。
在一种可能的实现方式中,在计算机视觉技术领域,平面单应性可以被定义为一个平面到另外一个平面的投影映射。平面单应性可以包括一个二维平面上的点映射到图像上的映射。可以利用基于当前对象所处的环境构建的单应矩阵(Homography matrix),将测距点在图像中对应的位置映射到当前对象所处的环境中后,确定出目标对象与当前对象之间的距离。
在一种可能的实现方式中,当前对象拍摄的图像为多幅相互关联的静态的图像时,或当前对象拍摄的图像为视频流中的帧图像时,可以根据各图像单独确定测距点。也可以将相同的目标对象在第一幅图像中确定出的测距点的位置,作为所有图像中的测距点的位置,后续的图像不再单独计算。
在本实施例中,根据目标对象的检测框的形状确定至少一个测距点,再根据测距点确定当前对象与目标对象的之间的距离。由于检测框的形状与目标对象距离的远近、拍摄视角、以及目标对象自身的运动状态密切相关,因此,根据检测框的形状确定出的测距点,能够用于得出准确的测量结果。
在一种可能的实现法方式中,可以根据确定出的距离发送提示信息。
提示信息可以包括声音信息、图像信息、振动信息、短信、邮件信息等。根据确定出的距离的大小,可以发送不同等级的提示信息。例如距离小于5米,发送严重警告信息,距离大于5米小于10米,发送警告信息,距离大于10米,发送通知信息。不同等级的提示信息,可以利用不同的信息表现形式,例如,严重警告信息利用声音信息,警告信息利用振动信息,通知信息利用短信信息。也可以利用声音分贝的高低不同来表现不同级别的提示信息。例如,100分贝的声音表示严重告警信息,50分贝的声音表示警告信息,20分贝的声音表示通知信息。本公开对此不做限定。
在一种可能的实现方式中,所述检测框包括矩形框,根据所述检测框的形状确定至少一个测距点,包括:根据所述矩形框的高度确定至少一个测距点。
在一种可能的实现方式中,可以以地平面为X轴和Y轴确定的平面,以地平面向天空的方向为Z轴正方向建立三维坐标系。将建立的三维坐标系对应至当前对象拍摄的图像中时,目标对象的矩形框的高度,为以矩形框的底边的Z轴坐标为起点,以矩形框的顶边的Z轴坐标为重点,计算出的Z轴方向的距离。其中,矩形框的底边为目标对象接触地面的部位所在的边。例如,目标对象为车辆,矩形框的底边为轮胎所在的边。矩形框的高度为车辆轮胎至车顶方向的高度。
矩形框的宽度方向为矩形框以地平面为参照在平行地平面的投影方向(也可称为横向)。可选的,矩形框的宽度可以包括目标对象在被拍摄方向上的自身的宽度信息。矩形框的高度方向为矩形框以地平面为参照在垂直地平面的投影方向(也可称为纵向)。可选的,矩形框的高度可以包括目标对象在被拍摄方向上的自身的高度信息。目标对象对应的矩形框的宽度,根据运动状态和拍摄角度的不同,变化可能较大。但目标对象对应的矩形框的高度,由于反映的是目标对象自身的高度信息,即使运动状态和拍摄角度不同,变化也不明显。例如,目标对象机动车1在图像中对应的矩形框,随着机动车1的转弯,矩形框的宽度变化较大,而矩形框的形状变化不大。
在本实施例中,由于目标对象自身的高度信息在图像中的变化不大,因此,根据矩形框的高度确定出的测距点,能够得到更加准确的距离测量结果。
在一种可能的实现方式中,根据所述矩形框的高度确定至少一个测距点,包括:根据所述矩形框的高度,在所述矩形框的底边上确定至少一个测距点。
在一种可能的实现方式中,可以根据矩形框的高度,在矩形框的底边上确定至少一个测距点。矩形框的底边为目标对象与地平面接触的部位所在边,底边的位置相对固定且稳定性高。
在矩形框的底边上确定测距点,可以以矩形框的底边的左侧端点或右侧端点为起点,将矩形框的高度和高度权重系数相乘后得到乘积,将矩形框的底边上与起点的距离为乘积的数值的位置,确定为测距点的位置。例如,机动车1的矩形框的宽度为3厘米,高度为1厘米,高度权重系数为0.5。以矩形框底边的左侧端点为起点,将矩形框底边上距离底边左侧端点1×0.5=0.5(厘米)的位置,确定为测距点的位置。
在本实施例中,根据所述矩形框的高度,在所述矩形框的底边上确定出的至少一个测距点,能够用于得到更加准确的距离测量结果。
在一种可能的实现方式中,根据所述矩形框的高度,在所述矩形框的底边上确定测距点,包括:
根据所述矩形框的宽高比和宽高阈值确定高度权重系数;
根据所述矩形框的高度和所述高度权重系数,在所述矩形框的底边上确定测距点。
在一种可能的实现方式中,高度权重系数可以包括第一高度权重系数和第二高度权重系数,且所述第一高度权重系数和所述第二高度权重系数不同。矩形框的宽高比包括矩形框的宽度和高度之间的比值。由于目标对象的不同,矩形框的宽度和高度之间的比例也不同。根据矩形框的高度,在矩形框的底边上确定测距点,可能因为矩形框的高度过大,使得在矩形框的底边上确定出的测距点的位置有较大的偏差。根据矩形框的宽高比和宽高阈值,选择第一高度权重系数或第二高度权重系数和矩形框的高度相乘后确定测距点,可以根据目标对象的不同,更加准确、合理地确定测距点的位置。
宽高阈值包括根据矩形框的宽度与高度之间的比值确定的阈值。可以根据矩形框的宽高比和宽度阈值,确定使用第一高度权重系数或第二高度权重系数来与矩形框的高度相乘。例如,宽高阈值为1,第一高度权重系数为0.1,第二高度权重系数为0.5。矩形框1为车辆,矩形框1的宽度为3厘米、高度为1厘米,矩形框1的宽高比为3。矩形框2为行人,矩形框2的宽度为1厘米,高度为3厘米,矩形框2的宽高比为0.3。如果根据相同的高度权重系数0.5来确定测距点,以矩形框底边的左侧端点为起点,矩形框1在距离起点为0.5厘米的位置确定测距点。而矩形框2在距离起点为1.5厘米的位置确定测距点,超出了矩形框2的底边的总长度,测距点的位置出现较大偏差。
可以将矩形框1和矩形框2的宽高比与宽高阈值进行比较,矩形框1的宽高比为3,大于宽高阈值1,将矩形框1的高度与第二高度权重系数0.5相乘。可以以矩形框1的左侧端点为起点,在距离矩形框1的底边左侧端点1×0.5=0.5(厘米)的位置确定测距点。矩形框2的宽高比为0.3,小于宽高阈值1,将矩形框2的高度与第一高度权重系数0.1相乘。可以以矩形框2的左侧端点为起点,在矩形框2的底边距离左侧端点3×0.1=0.3(厘米)的位置确定测距点的位置。
在本实施例中,根据矩形框的宽高比和宽高阈值的比较结果,选择不同的高度权重系数和矩形框的高度相乘后,在矩形框的底边上确定测距点。可以适应各种高度的矩形框,使得确定出的测距点的位置更加合理,测量结果更加准确。也使得本实施例的应用范围更广。
图2示出根据本公开一实施例的测距方法的流程图,如图2所示,步骤S30包括:
步骤S31,基于所述测距点和基于当前对象所处的环境构建的单应矩阵确定所述目标对象与所述当前对象之间的距离。
在一种可能的实现方式中,在计算机视觉中,平面的单应性被定义为一个平面到另外一个平面的投影映射。可以使三维空间内的两个平面进行转换。一个二维平面上的点映射到摄像机成像仪上的映射就是平面单应性的例子。如果使用齐次坐标将标定板上一点P映射到成像仪上的点m的,这种映射可以用所谓的单应性矩阵来表示。其中,齐次坐标包括将一个原本是n维的向量用一个n+1维向量来表示,是指用于投影几何的坐标系统,类似于用于欧氏几何里的笛卡儿坐标。
利用单应矩阵可以得出当前对象拍摄的图像中的测距点距离目标对象之间的距离信息。可以在测距前,基于当前对象所处的环境构建单应矩阵。例如,可以利用自动驾驶车辆配置的单目摄像头拍摄真实的路面图像,利用路面图像上的点集,和图像上的点集在真实路面上对应的点集,构建单应矩阵。具体方法可以包括:1、建立坐标系:以自动驾驶车辆的左前轮为原点,以驾驶员的视角向右的方向为X轴的正方向,向前的方向为Y轴的正方向,建立车体坐标系。2、选点,选取车体坐标系下的点,得到选点集。例如(0,5)、(0,10)、(0,15)、(1.85,5)、(1.85,10)、(1.85,15),各点的单位为米。根据需求,也可以选取距离更远的点。3、标记、将选取的点在真实路面上进行标记,得到真实点集。4、标定,使用标定板和标定程序得到真实点集在拍摄图像中对应的像素位置。5、根据对应出的像素位置生成单应矩阵。
根据需求,可以根据不同的距离范围构建单应矩阵。例如,可以以100米的距离范围构建单应矩阵,也可以根据10米的范围构建单应矩阵。距离范围越小,根据单应矩阵确定出的距离的精度越高。
在本实施例中,利用单应矩阵和测距点确定目标对象的距离。利用标定好的单应矩阵,可以得到准确的目标对象的距离。
图3示出根据本公开一实施例的测距方法的流程图,如图3所示,步骤S31包括:
步骤S311,基于所述测距点和第一单应矩阵确定所述目标对象与所述当前对象之间的第一距离,第一单应矩阵包括第一距离范围的单应矩阵。
步骤S312,根据确定出的所述第一距离和第二单应矩阵,确定所述目标对象与所述当前对象之间的第二距离,所述第二单应矩阵包括第二距离范围的单应矩阵,所述第一距离范围大于所述第二距离范围。
在一种可能的实现方式中,根据第一单应矩阵和测距点,确定目标对象的第一距离后,可以再利用第二单应矩阵确定目标对象的第二距离。由于第一距离范围大于第二距离范围,因此,利用第二单应矩阵计算出的第二距离,更加精确。例如,第一单应矩阵的距离范围为100米。第二单应矩阵的距离范围为10米,可以生成包括0-10米、10-20米、20-30米……90-100米等共10个距离范围的第二单应矩阵。也可以根据需求,只生成设定的距离范围的第二单应矩阵,例如只生成20-30米、30-40米、40-50米、50-60米的四个第二单应矩阵。例如,根据第一单应矩阵和测距点,确定目标对象的距离为58.32米,再根据50-60米的第二单应矩阵,进一步确定目标对象的第二距离为54.21米。
在本实施例中,根据不同距离范围的单应矩阵,确定出的目标对象与所述当前对象之间的距离,提高计算效率的同时,测距的结果更加精确。
图4示出根据本公开一实施例的测距方法的流程图,如图4所示,步骤S10包括:
步骤S11,基于神经网络对所述当前对象所拍摄的图像进行目标对象检测,获得所述目标对象的检测框。
在一种可能的实现方式中,可以基于神经网络对图像进行检测,得到目标对象的检测框。神经网络可以基于RFCN、SSD、RCNN、FastRCNN、FasterRCNN、SPPNet、DPM、OverFeat、YOLO等架构方式,本公开对此不做限定。
图5示出根据本公开一实施例的测距方法的流程图,所述图像为所述当前对象所拍摄的视频中的帧图像,如图5所示,步骤S10包括:
步骤S12,对所述图像进行目标对象检测,得到所述目标对象的第一检测框。
步骤S13,在所述视频中时序位于所述图像之前的至少一帧图像中,获取所述目标对象的历史检测框。
步骤S14,根据所述目标对象的历史检测框,在所述图像中确定所述目标对象的预测框。
步骤S15,根据所述第一检测框和所述预测框确定所述目标对象的第二检测框。
在一种可能的实现方式中,当图像为所述当前对象所拍摄的视频中的帧图像时,目标对象也可以出现在视频中时序位于所述图像之前的至少一帧图像中。可以将目标对象在之前的帧图像中的检测框作为所述目标对象的历史检测框。例如,在面对道路的监控摄像头获取的监控视频中,包括机动车1的监测画面。在监控视频的第10-120帧,均出现机动车1的检测框。以第10-120帧图像中机动车1的检测框为历史检测框。根据机动车1的历史检测框,可以确定机动车1的运动状态。根据确定出的机动车1的运动状态,可以推测出在121帧的帧图像中机动车1的位置,以及可以根据推测出的位置预测机动车1在121帧图像中的预测框的位置。
可以对历史检测框进行筛选,使得预测框的预测结果更加准确。例如可以排除在图像之前的帧图像中位置变化过大的历史检测框。
可以根据目标对象的所有的历史检测框确定目标对象的预测框,也可以根据目标对象的设定数量的历史检测框确定目标对象的预测框。例如,只根据目标对象的100个历史检测框确定预测框。
当第一检测框和预测框之间的位置差别小于设定的阈值时,可以将第一检测框和预测框的位置进行加权平均后,得到第二检测框的位置,第二检测框为获取到的当前对象所拍摄的图像中目标对象的检测框。
在本实施例中,根据目标对象的历史检测框确定目标对象的预测框,并根据预测框和第一检测框,确定目标对象的第二检测框,可以使得检测框的确认过程更加高效,确认结果更加准确。
在一种可能的实现方式中,可以在所述当前对象所拍摄的视频中所述图像之前的N幅帧图像中,获取所述目标对象的历史检测框,其中,N为大于1的正整数。
在一种可能的实现方式中,在确定目标对象的历史检测框时,由于目标对象的运动状态的不断改变,较长时间以前的历史检测框将失去参考意义,并可能对预测框的预测结果产生干扰。可以通过设定平滑队列的方式,将图像之前的N幅帧图像放入平滑队列。例如,当前帧图像的检测框确定后,可以作为下一帧的帧图像中目标对象的历史检测框。可以将当前帧加入平滑队列,并删除平滑队列中时间最早的帧图像,保持平滑队列中只有N帧图像。可以根据需求设定N的大小。
在本实施例中,通过在所述图像之前的N帧图像中得到的目标对象的历史检测框,能够排除时间过早的历史检测框对预测框产生的干扰,使得预测框的预测结果更加准确。
图6示出根据本公开一实施例的测距方法的流程图,所述图像为检测视频中的帧图像,如图6所示,步骤S14包括:
步骤S141,根据所述目标对象的历史检测框确定所述目标对象的运动状态。
步骤S142,根据所述目标对象的运动状态拟合所述目标对象的预测框。
在一种可能的实现方式中,根据目标对象的历史检测框,可以得到目标对象的历史位置、运动速度、运动加速度、运动轨迹等。可以根据目标对象的历史位置、运动速度、运动加速度、运动轨迹,得到目标对象在图像中的运动状态。例如,根据目标对象机动车2的历史检测框,可以得到机动车2的历史检测框的位置包括100个,分别为坐标点1、坐标点2、坐标点3……坐标点98、坐标点99、坐标点100,根据上述坐标点,可以得到机动车2的行驶速度为A公里/小时。根据100个历史坐标点,以及行驶速度,可以得到机动车2在图像中的预测坐标点101,并将预测坐标点101确定为机动车2的预测框的位置。
在一种可能的实现方式中,可以根据历史检测框拟合出预测框的位置,并以最后一个历史检测框的宽高比为预测框的宽高比,确定预测框。
在本实施例中,根据目标对象的历史检测框确定出目标对象的运动状态后,根据目标对象的运动状态可以拟合得到目标对象的预测框的位置,可以使得预测框更加准确。
在一种可能的实现方式中,所述图像为检测视频中的帧图像,步骤S14包括:
根据所述目标对象的历史检测框确定历史检测框的宽高比的变化状态。
根据所述历史检测框的宽高比的变化状态拟合所述目标对象的预测框的宽高比。
在一种可能的实现方式中,随着目标对象的运动状态的不同,历史检测框的大小和形状会有相应的变化。例如,在具有自动驾驶或辅助驾驶功能的车辆对面行驶过来的机动车3,随着机动车3距离具有自动驾驶或辅助驾驶功能车辆越来越近,机动车3的检测框中包括越来越多的侧面车身的图像,检测框的宽度也不断变大。历史检测框的宽高比与目标对象的运动状态、位置信息密切关联。根据历史检测框中目标对象的宽高比的变化状态,可以拟合出目标对象在图像中的预测框的宽高比。
在一种可能的实现方式中,可以根据历史检测框拟合出预测框的位置,并根据历史检测框的宽高比拟合预测框的宽高比,最后根据拟合出的位置和拟合出的宽高比确定预测框。
在本实施例中,根据目标对象的历史检测框的宽高比的变化状态拟合得到预测框的宽高比,可以使得预测框更加准确。
在一种可能的实现方式中,步骤S15包括:
确定所述目标对象的第一检测框和所述目标对象的预测框之间的第一重叠率。
当所述第一重叠率大于或等于第一重叠阈值时,根据所述目标对象的第一检测框的位置和所述目标对象的预测框的位置,确定所述目标对象的检测位置。
根据所述目标对象的第一检测框的宽高比和所述目标对象的预测框的宽高比,确定所述目标对象的检测宽高比。
根据所述检测位置和所述检测宽高比,确定所述目标对象的第二检测框。
在一种可能的实现方式中,第一重叠率可以包括第一检测框和预测框中图像内容的重复比例。当第一检测框和预测框之间的第一重叠率大于等于第一重叠阈值时,可以认为第一检测框和预测框基本吻合,可以根据预测框修正第一检测框后得到第二检测框。当第一检测框和预测框小于第一重叠率时,可以认为第一检测框和预测框差别较大,不能根据预测框修正第一检测框后得到第二检测框。
根据预测框修正第一检测框,包括根据预测框的位置对第一检测框的位置进行修正,以及根据预测框的宽高比对第一检测框的宽高比进行修正。可以将预测框的位置和第一检测框的位置取中间点,确定目标对象的检测位置。也可以将预测框的宽高比和第一检测框的宽高比取中间值后,确定目标对象的检测宽高比。
也可以将预测框和第一检测框的位置进行加权平均,确定目标对象的检测位置,其中第一检测框的位置的权重高于预测框的位置的权重。可以将预测框和第一检测框的宽高比进行加权平均,确定目标对象的检测宽高比,其中第一检测框的宽高比的权重高于预测框的宽高比的权重。
可以根据确定出的目标对象的检测位置和检测宽高比,确定目标对象的第二检测框
在本实施例中,通过计算目标对象的预测框和第一检测框之间的第一重叠率,并将第一重叠率和第一重叠阈值进行比较后,根据重叠率较大的预测框和第一检测框共同确定目标对象的检测位置和检测宽高比。根据预测框和第一检测框确定的目标对象的检测位置和检测宽高比,更加符合目标对象的运行轨迹。得到的第二检测框的位置和宽高比都更加准确。
在一种可能的实现方式中,所述方法还包括:
当所述第一重叠率小于第一重叠阈值时,将所述目标对象的第一检测框确定为所述目标对象的第二检测框。
在一种可能的实现方式中,当目标对象的运动过快时,预测框和第一检测框的第一重叠率可以小于第一重叠阈值。例如目标对象机动车4由于行驶速度过快,导致预测框与第一检测框中的图像差别过大,根据历史检测框得到的预测框失去了预测的价值。可以将第一检测框确定为第二检测框。
在本实施例中,当预测框和第一检测框之间的第一重叠率过小时,只根据第一检测框确定目标对象的第二检测框。可以避免历史检测框中不具有预测价值的内容干扰第二检测框的准确性。
在一种可能的实现方式中,根据所述第一检测框和所述预测框确定所述目标对象的第二检测框,还包括:
当对所述图像进行目标对象检测,无法得到所述目标对象的第一检测框时,将所述目标对象的预测框确定为所述目标对象的第二检测框。
在一种可能的实现方式中,当无法得到目标对象的第一检测框时,为避免出现漏检,可以将预测框确定为目标对象的第二检测框。使得检测框具有连续性,也使得测量结果更加完整。
在一种可能的实现方式中,步骤S15还包括:
当所述目标对象的历史检测框与其它对象的历史检测框有重叠时,获取所述目标对象的历史检测框与所述其它对象的历史检测框之间的第二重叠率。
计算在所述图像的前一帧图像中所述目标对象的历史检测框和所述目标对象的第一检测框之间的第三重叠率。
当所述第三重叠率大于所述第二重叠率时,将所述目标对象的第一检测框确定为所述目标对象的第二检测框。
在一种可能的实现方式中,当目标对象和其它对象的位置比较靠近时,在图像中目标对象和其它对象的图像可能会有重叠。例如,停车场中并列停放的机动车5和机动车6,在一定的拍摄角度下,在监控图像中机动车5和机动车6的图像会有重叠。当目标对象为机动车5时,在图像中,需要计算机动车5的历史检测框和机动车6的历史检测框之间的第二重叠率,并计算机动车5的第一检测框和机动车5的历史检测框之间的第三重叠率,当第三重叠率大于第二重叠率时,可以将机动车5的第一检测框确认为机动车5的第二检测框。可以防止误把机动车6的第一检测框确认为机动车5的检测框。
在本实施例中,当目标对象的历史检测框与其它对象的历史检测框有重叠时,根据目标对象的历史检测框与其它对象的历史检测框之间的第二重叠率,以及目标对象的历史检测框与第一检测框之间的第三重叠率,确定目标对象的第二检测框。能够减少甚至排除的距离较近的其它对象对目标对象产生的干扰,提高目标对象的检测框的准确度。
在一种可能的实现方式中,本公开提供一种智能控制方法,所述方法包括:
采用如本公开实施例中任一项测距方法获取当前对象与目标对象之间的距离。
根据所述距离生成针对所述当前对象的预警信息和/或控制信息。
在一种可能的实现方式中,可以根据本公开实施例中任一项测距方法获取当前对象与目标对象之间的距离,并根据智能控制的需求,根据获取到的距离生成预警信息和/或控制信息。
在一种可能的实现方式中,当前对象可以包括以下对象中的其中一种或任意组合:人、车辆、机器人、可穿戴式设备、导盲设备、监控设备、智能终端设备、生产设备、建筑物。可以根据当前对象确定智能控制的需求。例如,当前对象为人,可以根据获取到的与目标对象之间的距离,向人发送预警信息,提示距离目标对象距离过近,需要采取避让措施。当前对象为具有自动驾驶或辅助驾驶功能车辆时,可以根据获取到的与目标对象之间的距离,向具有自动驾驶或辅助驾驶功能车辆发送预警信息和/或控制信息,提示司机采取避让措施,或直接控制具有自动驾驶或辅助驾驶功能车辆做出避让动作等。当前对象为可穿戴式设备、导盲设备、智能终端设备时,可以根据获取到的与目标对象之间的距离,向使用或佩戴可穿戴式设备、导盲设备、智能终端设备的人发送预警信息。当前对象为监控设备、生产设备、建筑物时,可以根据获取到的与目标对象之间的距离,向监控设备、生产设备、建筑物的管理者发送预警信息。
当目标对象为多种对象的组合时,可以根据获取到的与目标对象之间的距离,向不同的对象发送不同的预警信息和/或控制信息。本公开对此不做限定。
在本实施例中,根据获取到的当前对象与目标对象之间的距离,生成针对所述当前对象的预警信息和/或控制信息,可以使得当前对象能够根据预警信息和/或控制信息采取相应的措施。
在一种可能的实现方式中,根据所述距离生成针对所述当前对象的预警信息和/或控制信息,包括:
根据距离和距离阈值,生成针对所述当前对象的预警信息和/或控制信息。
在一种可能的实现方式中,可以设定距离阈值,并将获取到的距离和距离阈值比较后,根据比较结果生成针对所述当前对象的预警信息和/或控制信息。可以在获取到的距离大于距离阈值时,生成针对所述当前对象的预警信息和/或控制信息。可以避免智能控制系统发送预警意义不大的预警信息,和/或根据控制信息进行不必要的智能控制。
例如,当前对象为具有自动驾驶或辅助驾驶功能车辆A,获取到三个目标对象的距离,包括距离为100米的目标对象1、距离为30米的目标对象2和距离为10米的目标对象3,如果根据三个目标对象的距离均生成预警信息和/或控制信息,则根据目标对象1生成的预警信息的预警意义不大。可以设定距离阈值为20米,根据距离小于20米的目标对象3的距离生成预警信息和/或控制信息,提高智能控制系统的针对性。
在一种可能的实现方式中,根据距离和距离阈值,生成针对所述当前对象的预警信息和/或控制信息,包括:
当所述距离小于或等于所述距离阈值时,生成针对所述当前对象的第一预警信息或第一控制信息;
当所述距离大于所述距离阈值时,生成针对所述当前对象的第二预警信息和第二控制信息。
在一种可能的实现方式中,第一预警信息的预警级别高于第二预警信息,第一控制信息的控制级别高于第二控制信息。可以根据距离阈值确定不同等级的预警信息和控制信息。当获取到的距离小于或等于所述距离阈值时,当前对象和目标对象之间的距离较近,可以发送级别较高的第一预警信息和/或第一控制信息。当获取到的距离大于所述距离阈值时,当前对象和目标对象之间的距离较远,可以发送级别较低的第二预警信息和/或第二控制信息。
在本实施例中,可以根据距离阈值确定不同级别的预警信息和/或控制信息,使得针对所述当前对象的生成的预警信息和/或控制信息更加精准、实用性更强。
在一种可能的实现方式中,根据所述距离生成针对所述当前对象的预警信息和/或控制信息,包括:
根据所述距离确定预警级别;据所述预警级别确定预警信息,和/或
根据所述距离确定控制级别;根据所述控制级别确定控制信息。
在一种可能的实现方式中,根据智能控制的需求,可以根据距离的不同确定多个预警级别。可以根据相同的距离间隔确定预警级别。例如,可以确定5个预警级别,分别为0-5米的第一预警级别、5-10米的第二预警级别,10-15米的第三预警级别、15-20米的第四预警级别、20-100米的第五预警级别。也可以根据不同的距离间隔确定预警级别。例如,可以确定3个预警级别,分别为0-5米的第一预警级别、5-20米的第二预警级别、20-200米的第三预警级别。本公开对此不做限定。
控制级别的确定方式可以参照上述预警级别的确定方式。预警级别的确定方式与控制级别的确定方式可以相同,也可以不同。例如,当距离小于150米时开始确定预警级别,当距离小于20米时,才开始确定控制级别。本公开对此不做限定。
在一种可能的实现方式中,所述预警信息可以包括以下信息中的其中一种或任意组合:声音预警信息、光预警信息、文字预警信息、图像预警信息、振动信息;所述控制信息可以包括以下信息中的其中一种或任意组合:紧急制动信息、停止信息、加速信息、转弯信息。
在一种可能的实现方式中,可以为不同的预警级别设定不同信息类型的预警信息,利用信息类型区分不同的预警级别。也可以为不同的预警级别设定相同的信息类型的预警信息,利用预警信息自身的不同特征区分不同的预警级别。例如,可以为较高的预警级别设定声音预警信息,为较低的预警级别设定文字信息。也可以利用声音分贝的高低不同来表现不同级别的预警信息。本公开对此不做限定。
在一种可能的实现方式中,可以为不同的控制级别设定不同控制类型的控制信息。利用控制类型区分不同的控制级别。也可以为不同的控制级别设定相同的控制类型的控制信息,利用控制信息自身的不同特征区分不同的控制级别。例如,可以为较低的控制级别设定加速信息或降速信息,为较高的控制级别设定紧急制动信息或停止信息。也可以为较低的控制级别设定加速度较小的加速信息,为级别较高的控制级别设定加速度较大的加速信息。本公开对此不做限定。
在一种可能的实现方式中,控制信息可以用于具有自动驾驶或辅助驾驶功能车辆的驾驶控制。驾驶控制可以包括用于改变当前行驶对象的运动状态和/或运动方向的控制动作,例如可以包括:对当前行驶对象进行加速、制动减速、改变行驶方向等可以改变当前行驶对象的运动方向和/或运动状态的控制动作。例如,在一个实际应用场景中,如果当前具有自动驾驶或辅助驾驶功能车辆原来的运动方向是保持在所在车道内直行,如果基于碰撞时间当前车辆将会与前方的疑似碰撞对象发生碰撞,则可以通过驾驶控制改变当前具有自动驾驶或辅助驾驶功能车辆的行驶方向,使当前具有自动驾驶或辅助驾驶功能车辆变道、以避免碰撞;如果在此过程中前方的疑似碰撞对象加速远离了,则可以通过驾驶控制改变当前具有自动驾驶或辅助驾驶功能车辆的行驶方向使当前具有自动驾驶或辅助驾驶功能车辆保持原来的运动方向、保持在所在车道内直行。
在本实施例中,根据距离确定预警级别和/或控制级别,可以使得智能控制系统进行更加精密的智能控制。
可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。
此外,本公开还提供了图像处理装置、电子设备、计算机可读存储介质、程序,上述均可用来实现本公开提供的任一种方法,相应技术方案和描述和参见方法部分的相应记载,不再赘述。
图7示出根据本公开一实施例的测距装置的框图,如图7所示,所述测距装置包括:
检测框获取模块10,用于获取当前对象所拍摄的图像中目标对象的检测框;
测距点确定模块20,用于根据所述检测框的形状确定至少一个测距点;
距离确定模块30,用于基于所述测距点确定所述目标对象与所述当前对象之间的距离。
在一种可能的实现方式中,所述检测框包括矩形框,所述测距点确定模块20,包括:
第一测距点确定子模块,用于根据所述矩形框的高度确定至少一个测距点。
在一种可能的实现方式中,第一测距点确定子模块,包括:
底边测距点确定子模块,用于根据所述矩形框的高度,在所述矩形框的底边上确定至少一个测距点。
在一种可能的实现方式中,所述底边测距点确定子模块,包括:
高度权重系数确定子模块,用于根据所述矩形框的宽高比和宽高阈值确定高度权重系数;
第一底边测距点确定子模块,用于根据所述矩形框的高度和所述高度权重系数,在所述矩形框的底边上确定测距点。
在一种可能的实现方式中,所述距离确定模块,包括:
第一距离确定子模块,用于基于所述测距点和基于当前对象所处的环境构建的单应矩阵确定所述目标对象与所述当前对象之间的距离。
在一种可能的实现方式中,所述第一距离确定子模块,包括:
第二距离确定子模块,用于基于所述测距点和第一单应矩阵确定所述目标对象与所述当前对象之间的第一距离,第一单应矩阵包括第一距离范围的单应矩阵;
第三距离确定子模块,用于根据确定出的所述第一距离和第二单应矩阵,确定所述目标对象与所述当前对象之间的第二距离,所述第二单应矩阵包括第二距离范围的单应矩阵,所述第一距离范围大于所述第二距离范围。
在一种可能的实现方式中,所述检测框获取模块,包括:
第一检测框获取子模块,用于基于神经网络对所述当前对象所拍摄的图像进行目标对象检测,获得所述目标对象的检测框。
在一种可能的实现方式中,所述图像为所述当前对象所拍摄的视频中的帧图像,所述检测框获取模块,包括:
第二检测框获取子模块,用于获取对所述图像进行目标对象检测,得到所述目标对象的第一检测框;
历史检测框获取子模块,用于在所述视频中时序位于所述图像之前的至少一帧图像中,获取所述目标对象的历史检测框;
预测框获取子模块,用于根据所述目标对象的历史检测框,在所述图像中确定所述目标对象的预测框;
第三检测框获取子模块,用于根据所述第一检测框和所述预测框确定所述目标对象的第二检测框。
在一种可能的实现方式中,所述预测框获取子模块,包括:
运动状态获取子模块,用于根据所述目标对象的历史检测框确定所述目标对象的运动状态;
第一预测框获取子模块,用于根据所述目标对象的运动状态拟合所述目标对象的预测框。
在一种可能的实现方式中,所述预测框获取子模块,包括:
变化状态获取子模块,用于根据所述目标对象的历史检测框确定历史检测框的宽高比的变化状态;
第二预测框获取子模块,用于根据所述历史检测框的宽高比的变化状态拟合所述目标对象的预测框的宽高比。
在一种可能的实现方式中,所述第三检测框获取子模块,包括:
第一重叠率获取子模块,用于确定所述目标对象的第一检测框和所述目标对象的预测框之间的第一重叠率;
检测位置获取子模块,用于当所述第一重叠率大于或等于第一重叠阈值时,根据所述目标对象的第一检测框的位置和所述目标对象的预测框的位置,确定所述目标对象的检测位置;
检测宽高比获取子模块,用于根据所述目标对象的第一检测框的宽高比和所述目标对象的预测框的宽高比,确定所述目标对象的检测宽高比;
第四检测框获取子模块,用于根据所述检测位置和所述检测宽高比,确定所述目标对象的第二检测框。
在一种可能的实现方式中,所述装置还包括:
第五检测框获取子模块,用于当所述第一重叠率小于第一重叠阈值时,将所述目标对象的第一检测框确定为所述目标对象的第二检测框。
在一种可能的实现方式中,所述第三检测框获取子模块,还包括:
第六检测框获取子模块,用于当对所述图像进行目标对象检测,无法得到所述目标对象的第一检测框时,将所述目标对象的预测框确定为所述目标对象的第二检测框。
在一种可能的实现方式中,所述第三检测框获取子模块,还包括:
第二重叠率获取子模块,用于当所述目标对象的历史检测框与其它对象的历史检测框有重叠时,获取所述目标对象的历史检测框与所述其它对象的历史检测框之间的第二重叠率;
第三重叠率获取子模块,用于计算在所述图像的前一帧图像中所述目标对象的历史检测框和所述目标对象的第一检测框之间的第三重叠率;
第七检测框获取子模块,用于当所述第三重叠率大于所述第二重叠率时,将所述目标对象的第一检测框确定为所述目标对象的第二检测框。
图8示出根据本公开一实施例的智能控制装置的框图,如图8所示,所述智能控制装置包括:
距离获取模块1,用于采用如测距方法中任一项权利要求所述的装置获取当前对象与目标对象之间的距离;
控制信息生成模块2,用于根据所述距离生成针对所述当前对象的预警信息和/或控制信息。
在一种可能的实现方式中,所述当前对象包括以下对象中的其中一种或任意组合:人、车辆、机器人、可穿戴式设备、导盲设备、监控设备、智能终端设备、生产设备、建筑物。
在一种可能的实现方式中,所述控制信息生成模块2,包括:
第一控制信息生成模块,用于根据距离和距离阈值,生成针对所述当前对象的预警信息和/或控制信息。
在一种可能的实现方式中,所述第一控制信息生成模块,包括:
第一控制信息生成子模块,用于当所述距离小于或等于所述距离阈值时,生成针对所述当前对象的第一预警信息和/或第一控制信息;
第二控制信息生成子模块,用于当所述距离大于所述距离阈值时,生成针对所述当前对象的第二预警信息和/或第二控制信息。
在一种可能的实现方式中,所述第一控制信息生成模块,包括:
预警级别确定子模块,用于根据所述距离确定预警级别;
预警信息确定子模块,用于根据所述预警级别确定预警信息,和/或
控制级别确定子模块,用于根据所述距离确定控制级别;
控制信息确定子模块,用于根据所述控制级别确定控制信息。
在一种可能的实现方式中,所述预警信息包括以下信息中的其中一种或任意组合:声音预警信息、光预警信息、文字预警信息、图像预警信息、振动信息;
所述控制信息包括以下信息中的其中一种或任意组合:紧急制动信息、停止信息、加速信息、降速信息、转弯信息。
图9是根据一示例性实施例示出的一种电子设备的框图。所述电子设备800可以被提供为一终端、一服务器或其它形态的设备。所述电子设备用于测距。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图9,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在装置800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为装置800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到装置800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由装置800的处理器820执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (10)
1.一种测距方法,其特征在于,所述方法包括:
获取当前对象所拍摄的图像中目标对象的检测框;
根据所述检测框的形状确定至少一个测距点;
基于所述测距点确定所述目标对象与所述当前对象之间的距离。
2.根据权利要求1所述的方法,其特征在于,所述检测框包括矩形框,根据所述检测框的形状确定至少一个测距点,包括:
根据所述矩形框的高度确定至少一个测距点。
3.根据权利要求2所述的方法,其特征在于,根据所述矩形框的高度确定至少一个测距点,包括:
根据所述矩形框的高度,在所述矩形框的底边上确定至少一个测距点。
4.一种智能控制方法,其特征在于,所述方法包括:
采用如权利要求1-3任一所述的方法获取当前对象与目标对象之间的距离;
根据所述距离生成针对所述当前对象的预警信息和/或控制信息。
5.一种测距装置,其特征在于,所述装置包括:
检测框获取模块,用于获取当前对象所拍摄的图像中目标对象的检测框;
测距点确定模块,用于根据所述检测框的形状确定至少一个测距点;
距离确定模块,用于基于所述测距点确定所述目标对象与所述当前对象之间的距离。
6.根据权利要求5所述的装置,其特征在于,所述检测框包括矩形框,所述测距点确定模块,包括:
第一测距点确定子模块,用于根据所述矩形框的高度确定至少一个测距点。
7.根据权利要求6所述的装置,其特征在于,第一测距点确定子模块,包括:
底边测距点确定子模块,用于根据所述矩形框的高度,在所述矩形框的底边上确定至少一个测距点。
8.一种智能控制装置,其特征在于,所述装置包括:
距离获取模块,用于采用如权利要求5-7任一所述的装置获取当前对象与目标对象之间的距离;
控制信息生成模块,用于根据所述距离生成针对所述当前对象的预警信息和/或控制信息。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行权利要求1至4中任意一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至4中任意一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810394688.4A CN108596116B (zh) | 2018-04-27 | 2018-04-27 | 测距方法、智能控制方法及装置、电子设备和存储介质 |
PCT/CN2019/084519 WO2019206270A1 (zh) | 2018-04-27 | 2019-04-26 | 测距方法、智能控制方法及装置、电子设备和存储介质 |
SG11202006010TA SG11202006010TA (en) | 2018-04-27 | 2019-04-26 | Distance measurement method, intelligent control method and apparatus, electronic device and storage medium |
JP2020555287A JP7007497B2 (ja) | 2018-04-27 | 2019-04-26 | 測距方法、知能制御方法及び装置、電子機器ならびに記憶媒体 |
US16/913,826 US11468581B2 (en) | 2018-04-27 | 2020-06-26 | Distance measurement method, intelligent control method, electronic device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810394688.4A CN108596116B (zh) | 2018-04-27 | 2018-04-27 | 测距方法、智能控制方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108596116A true CN108596116A (zh) | 2018-09-28 |
CN108596116B CN108596116B (zh) | 2021-11-05 |
Family
ID=63610878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810394688.4A Active CN108596116B (zh) | 2018-04-27 | 2018-04-27 | 测距方法、智能控制方法及装置、电子设备和存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11468581B2 (zh) |
JP (1) | JP7007497B2 (zh) |
CN (1) | CN108596116B (zh) |
SG (1) | SG11202006010TA (zh) |
WO (1) | WO2019206270A1 (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109814401A (zh) * | 2019-03-11 | 2019-05-28 | 广东美的制冷设备有限公司 | 家电设备的控制方法、家电设备及可读存储介质 |
CN109859216A (zh) * | 2019-02-16 | 2019-06-07 | 深圳市未来感知科技有限公司 | 基于深度学习的测距方法、装置、设备及存储介质 |
WO2019206270A1 (zh) * | 2018-04-27 | 2019-10-31 | 深圳市商汤科技有限公司 | 测距方法、智能控制方法及装置、电子设备和存储介质 |
CN110398203A (zh) * | 2019-08-14 | 2019-11-01 | 东风设备制造有限公司 | 长距离激光测长方法及装置 |
WO2020154990A1 (zh) * | 2019-01-30 | 2020-08-06 | 深圳市大疆创新科技有限公司 | 目标物体运动状态检测方法、设备及存储介质 |
CN111521117A (zh) * | 2019-08-21 | 2020-08-11 | 长城汽车股份有限公司 | 单目视觉测距方法、存储介质及单目摄像头 |
CN111597959A (zh) * | 2020-05-12 | 2020-08-28 | 三一重工股份有限公司 | 行为检测方法、装置及电子设备 |
CN112686832A (zh) * | 2019-10-18 | 2021-04-20 | 高萍 | 高度偏差数据辨识系统以及相应终端 |
CN112784639A (zh) * | 2019-11-07 | 2021-05-11 | 北京市商汤科技开发有限公司 | 路口检测、神经网络训练及智能行驶方法、装置和设备 |
CN113103957A (zh) * | 2021-04-28 | 2021-07-13 | 上海商汤临港智能科技有限公司 | 一种盲区监测方法、装置、电子设备及存储介质 |
WO2021212297A1 (en) * | 2020-04-21 | 2021-10-28 | Beijing Voyager Technology Co., Ltd. | Systems and methods for distance measurement |
CN115272483A (zh) * | 2022-07-22 | 2022-11-01 | 北京城市网邻信息技术有限公司 | 一种图像生成方法、装置、电子设备及存储介质 |
WO2022227708A1 (zh) * | 2021-04-28 | 2022-11-03 | 上海商汤智能科技有限公司 | 一种测距方法、装置、电子设备及存储介质 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11441890B2 (en) * | 2019-09-20 | 2022-09-13 | Nec Corporation | Linear-grammetry and calibration by simultaneous multilateration using only edge distance estimates through two-way ranging |
US11900706B1 (en) * | 2019-10-22 | 2024-02-13 | Objectvideo Labs, Llc | Object of interest detector distance-based multi-thresholding |
CN110992422B (zh) * | 2019-11-04 | 2023-11-07 | 浙江工业大学 | 一种基于3d视觉的药盒姿态估计方法 |
CN111401210B (zh) * | 2020-03-11 | 2023-08-04 | 北京航天自动控制研究所 | 一种基于模板框增广的提高小目标检测稳定性的方法 |
JP7393270B2 (ja) | 2020-03-25 | 2023-12-06 | 株式会社コア | 情報処理装置、情報処理方法及び情報処理プログラム |
CN115516509A (zh) * | 2020-06-03 | 2022-12-23 | 谷歌有限责任公司 | 基于对象底部位置的深度估计 |
DE102020118801A1 (de) * | 2020-07-16 | 2022-01-20 | Carl Zeiss Microscopy Gmbh | Mikroskop und verfahren zur abstandsbestimmung einer probenreferenzebene |
CN112489450B (zh) * | 2020-12-21 | 2022-07-08 | 阿波罗智联(北京)科技有限公司 | 交通路口处的车辆流量控制方法、路侧设备及云控平台 |
CN112633258B (zh) * | 2021-03-05 | 2021-05-25 | 天津所托瑞安汽车科技有限公司 | 一种目标确定方法及装置、电子设备、计算机可读存储介质 |
CN113075716A (zh) * | 2021-03-19 | 2021-07-06 | 地平线(上海)人工智能技术有限公司 | 基于图像的车辆定位方法和装置、存储介质以及电子设备 |
CN113298869B (zh) * | 2021-04-23 | 2023-08-04 | 南方电网数字电网科技(广东)有限公司 | 距离测定方法、装置、计算机设备和存储介质 |
US11854138B2 (en) * | 2021-07-23 | 2023-12-26 | Advanced Micro Devices, Inc. | Techniques for introducing oriented bounding boxes into bounding volume hierarchy |
CN113607064A (zh) * | 2021-08-06 | 2021-11-05 | 广联达科技股份有限公司 | 目标物体的间距测算方法、装置、设备及可读存储介质 |
CN114440821B (zh) * | 2022-02-08 | 2023-12-12 | 三一智矿科技有限公司 | 基于单目相机的测距方法及装置、介质、设备 |
US20230339394A1 (en) * | 2022-04-22 | 2023-10-26 | Velo.Ai, Inc | Artificially intelligent mobility safety system |
CN117649737B (zh) * | 2024-01-30 | 2024-04-30 | 云南电投绿能科技有限公司 | 一种园区的设备监控方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101234046B1 (ko) * | 2011-11-11 | 2013-02-15 | 재단법인대구경북과학기술원 | 객체 내부의 특징점을 이용한 객체 추적 방법 및 장치 |
CN103164860A (zh) * | 2011-12-15 | 2013-06-19 | 无锡中星微电子有限公司 | 平移速度确定方法及装置 |
CN103578109A (zh) * | 2013-11-08 | 2014-02-12 | 中安消技术有限公司 | 一种监控摄像机测距方法及装置 |
CN106407894A (zh) * | 2016-08-29 | 2017-02-15 | 上海交通大学 | 一种改进基于ldcf的行人检测方法 |
CN107016357A (zh) * | 2017-03-23 | 2017-08-04 | 北京工业大学 | 一种基于时间域卷积神经网络的视频行人检测方法 |
CN107741231A (zh) * | 2017-10-11 | 2018-02-27 | 福州大学 | 一种基于机器视觉的多运动目标快速测距方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003098424A (ja) * | 2001-09-25 | 2003-04-03 | Fujitsu Ten Ltd | 画像処理測距装置 |
JP4958600B2 (ja) * | 2007-03-30 | 2012-06-20 | パナソニック株式会社 | 見守りシステムおよびマスキング処理方法 |
US8508363B2 (en) * | 2009-05-15 | 2013-08-13 | First Principles, Inc. | Systems and methods for permitting movement of an object outside a predetermined proximity distance threshold |
US9723271B2 (en) * | 2012-06-29 | 2017-08-01 | Omni Ai, Inc. | Anomalous stationary object detection and reporting |
US10474921B2 (en) * | 2013-06-14 | 2019-11-12 | Qualcomm Incorporated | Tracker assisted image capture |
JP6184877B2 (ja) * | 2014-01-09 | 2017-08-23 | クラリオン株式会社 | 車両用外界認識装置 |
JP6473571B2 (ja) * | 2014-03-24 | 2019-02-20 | アルパイン株式会社 | Ttc計測装置およびttc計測プログラム |
JP6323249B2 (ja) * | 2014-08-11 | 2018-05-16 | 株式会社デンソー | 情報処理システム、端末装置、及びプログラム |
JP6448325B2 (ja) * | 2014-11-19 | 2019-01-09 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
US9811732B2 (en) * | 2015-03-12 | 2017-11-07 | Qualcomm Incorporated | Systems and methods for object tracking |
WO2017045116A1 (en) * | 2015-09-15 | 2017-03-23 | SZ DJI Technology Co., Ltd. | System and method for supporting smooth target following |
KR102592076B1 (ko) * | 2015-12-14 | 2023-10-19 | 삼성전자주식회사 | 딥러닝 기반 영상 처리 장치 및 방법, 학습 장치 |
DK3398019T3 (da) * | 2016-02-29 | 2021-12-13 | Sz Dji Technology Co Ltd | Fremgangsmåder og systemer til bevægelsesstyring af flyvende indretninger |
US10318827B2 (en) * | 2016-12-19 | 2019-06-11 | Waymo Llc | Object detection neural networks |
US10878578B2 (en) * | 2017-10-30 | 2020-12-29 | Qualcomm Incorporated | Exclusion zone in video analytics |
US10825251B2 (en) * | 2018-02-08 | 2020-11-03 | Varian Medical Systems International Ag | Systems and methods for providing medical information and for performing a medically-related process using augmented reality technology |
US10982968B2 (en) * | 2018-03-29 | 2021-04-20 | Nio Usa, Inc. | Sensor fusion methods for augmented reality navigation |
CN108596116B (zh) * | 2018-04-27 | 2021-11-05 | 深圳市商汤科技有限公司 | 测距方法、智能控制方法及装置、电子设备和存储介质 |
-
2018
- 2018-04-27 CN CN201810394688.4A patent/CN108596116B/zh active Active
-
2019
- 2019-04-26 WO PCT/CN2019/084519 patent/WO2019206270A1/zh active Application Filing
- 2019-04-26 SG SG11202006010TA patent/SG11202006010TA/en unknown
- 2019-04-26 JP JP2020555287A patent/JP7007497B2/ja active Active
-
2020
- 2020-06-26 US US16/913,826 patent/US11468581B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101234046B1 (ko) * | 2011-11-11 | 2013-02-15 | 재단법인대구경북과학기술원 | 객체 내부의 특징점을 이용한 객체 추적 방법 및 장치 |
CN103164860A (zh) * | 2011-12-15 | 2013-06-19 | 无锡中星微电子有限公司 | 平移速度确定方法及装置 |
CN103578109A (zh) * | 2013-11-08 | 2014-02-12 | 中安消技术有限公司 | 一种监控摄像机测距方法及装置 |
CN106407894A (zh) * | 2016-08-29 | 2017-02-15 | 上海交通大学 | 一种改进基于ldcf的行人检测方法 |
CN107016357A (zh) * | 2017-03-23 | 2017-08-04 | 北京工业大学 | 一种基于时间域卷积神经网络的视频行人检测方法 |
CN107741231A (zh) * | 2017-10-11 | 2018-02-27 | 福州大学 | 一种基于机器视觉的多运动目标快速测距方法 |
Non-Patent Citations (1)
Title |
---|
伍宗富 等: "基于图像识别的汽车智能防撞系统研究与实现", 《机械与电子》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019206270A1 (zh) * | 2018-04-27 | 2019-10-31 | 深圳市商汤科技有限公司 | 测距方法、智能控制方法及装置、电子设备和存储介质 |
US11468581B2 (en) | 2018-04-27 | 2022-10-11 | Shenzhen Sensetime Technology Co., Ltd. | Distance measurement method, intelligent control method, electronic device, and storage medium |
WO2020154990A1 (zh) * | 2019-01-30 | 2020-08-06 | 深圳市大疆创新科技有限公司 | 目标物体运动状态检测方法、设备及存储介质 |
CN109859216A (zh) * | 2019-02-16 | 2019-06-07 | 深圳市未来感知科技有限公司 | 基于深度学习的测距方法、装置、设备及存储介质 |
CN109814401A (zh) * | 2019-03-11 | 2019-05-28 | 广东美的制冷设备有限公司 | 家电设备的控制方法、家电设备及可读存储介质 |
CN110398203A (zh) * | 2019-08-14 | 2019-11-01 | 东风设备制造有限公司 | 长距离激光测长方法及装置 |
CN111521117A (zh) * | 2019-08-21 | 2020-08-11 | 长城汽车股份有限公司 | 单目视觉测距方法、存储介质及单目摄像头 |
CN112686832A (zh) * | 2019-10-18 | 2021-04-20 | 高萍 | 高度偏差数据辨识系统以及相应终端 |
CN112784639A (zh) * | 2019-11-07 | 2021-05-11 | 北京市商汤科技开发有限公司 | 路口检测、神经网络训练及智能行驶方法、装置和设备 |
CN113826145A (zh) * | 2020-04-21 | 2021-12-21 | 北京航迹科技有限公司 | 距离测量的系统和方法 |
WO2021212297A1 (en) * | 2020-04-21 | 2021-10-28 | Beijing Voyager Technology Co., Ltd. | Systems and methods for distance measurement |
CN111597959A (zh) * | 2020-05-12 | 2020-08-28 | 三一重工股份有限公司 | 行为检测方法、装置及电子设备 |
CN111597959B (zh) * | 2020-05-12 | 2023-09-26 | 盛景智能科技(嘉兴)有限公司 | 行为检测方法、装置及电子设备 |
CN113103957A (zh) * | 2021-04-28 | 2021-07-13 | 上海商汤临港智能科技有限公司 | 一种盲区监测方法、装置、电子设备及存储介质 |
WO2022227708A1 (zh) * | 2021-04-28 | 2022-11-03 | 上海商汤智能科技有限公司 | 一种测距方法、装置、电子设备及存储介质 |
CN115272483A (zh) * | 2022-07-22 | 2022-11-01 | 北京城市网邻信息技术有限公司 | 一种图像生成方法、装置、电子设备及存储介质 |
CN115272483B (zh) * | 2022-07-22 | 2023-07-07 | 北京城市网邻信息技术有限公司 | 一种图像生成方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US11468581B2 (en) | 2022-10-11 |
US20200326179A1 (en) | 2020-10-15 |
JP7007497B2 (ja) | 2022-01-24 |
WO2019206270A1 (zh) | 2019-10-31 |
JP2021509515A (ja) | 2021-03-25 |
CN108596116B (zh) | 2021-11-05 |
SG11202006010TA (en) | 2020-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108596116A (zh) | 测距方法、智能控制方法及装置、电子设备和存储介质 | |
CN111257866B (zh) | 车载摄像头和车载雷达联动的目标检测方法、装置及系统 | |
US20200317190A1 (en) | Collision Control Method, Electronic Device and Storage Medium | |
US10424195B2 (en) | Traffic prediction system, vehicle-mounted display apparatus, vehicle, and traffic prediction method | |
WO2020172842A1 (zh) | 车辆智能驾驶控制方法及装置、电子设备和存储介质 | |
CN108762245A (zh) | 数据融合方法以及相关设备 | |
CN108549880A (zh) | 碰撞控制方法及装置、电子设备和存储介质 | |
JP6163017B2 (ja) | 携帯端末、及び、危険報知システム | |
KR20190115040A (ko) | 운전 거동 결정 방법, 디바이스, 장비 및 저장 매체 | |
CN111114554B (zh) | 行驶轨迹预测方法、装置、终端及存储介质 | |
US10254123B2 (en) | Navigation system with vision augmentation mechanism and method of operation thereof | |
CN110278383A (zh) | 聚焦方法、装置以及电子设备、存储介质 | |
CN110979318B (zh) | 车道信息获取方法、装置、自动驾驶车辆及存储介质 | |
CN109668742A (zh) | 基于激光雷达的无人车辆的测试方法及装置 | |
CN112540739B (zh) | 一种投屏方法及系统 | |
US11801602B2 (en) | Mobile robot and driving method thereof | |
CN114764911B (zh) | 障碍物信息检测方法、装置、电子设备及存储介质 | |
CN114332821A (zh) | 决策信息获取方法、装置、终端及存储介质 | |
CN106200654A (zh) | 无人机飞行速度的控制方法和装置 | |
JP2016164793A (ja) | 携帯端末 | |
CN115407355B (zh) | 库位地图的验证方法、装置及终端设备 | |
CN109919126A (zh) | 一种移动物体探测方法、装置及存储介质 | |
CN116612638A (zh) | 交通碰撞事故检测方法、装置及可读介质 | |
CN109829393A (zh) | 一种移动物体探测方法、装置及存储介质 | |
CN114862931A (zh) | 深度距离确定方法、装置、车辆、存储介质与芯片 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |