CN112991439A - 定位目标物体的方法、装置、电子设备及介质 - Google Patents
定位目标物体的方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN112991439A CN112991439A CN201911213797.2A CN201911213797A CN112991439A CN 112991439 A CN112991439 A CN 112991439A CN 201911213797 A CN201911213797 A CN 201911213797A CN 112991439 A CN112991439 A CN 112991439A
- Authority
- CN
- China
- Prior art keywords
- depth image
- target object
- light source
- tof
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000003384 imaging method Methods 0.000 claims abstract description 27
- 238000005516 engineering process Methods 0.000 claims abstract description 26
- 238000001514 detection method Methods 0.000 claims description 28
- 230000005540 biological transmission Effects 0.000 claims description 10
- 230000007547 defect Effects 0.000 abstract description 6
- 238000012545 processing Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 238000005286 illumination Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 238000002366 time-of-flight method Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种定位目标物体的方法、装置、电子设备及介质。其中,本申请中,在获取基于TOF成像技术生成的由第一灯杆针对目标区域拍摄的第一深度图像之后,可以解析第一深度图像,并检测第一深度图像中是否包含目标物体,再当确定第一深度图像中包含目标物体时,获取目标物体在目标区域的位置信息。通过应用本申请的技术方案,可以由设置在路面上的灯杆针对特定区域拍摄TOF成像技术的深度图像。并根据该深度图像确定是否包含待检测的物体以及对应的位置信息。这也避免了相关技术中存在的,仅能拍摄二维图像所带来的不能定位物体方位的弊端。
Description
技术领域
本申请中涉及图像处理技术,尤其是一种定位目标物体的方法、装置、电子设备及介质
背景技术
由于通信时代和社会的兴起,智能设备已经随着通信技术的崛起而不断被更多的人们所应用。例如,利用智能设备进行特定区域的监控可以极大的减少人工巡逻的时间。
进一步的,对于传统监控方案中,只能将图像传回监控室,由人工来查看图像分析,找到相关目标后,再由人工判断目标物的距离,最终形成决策。另外,有加入人像,车牌识别等初步和智能识别后,也只能在画面中标识出当前目标物,提示用户已发现目标,无法自动识别目标物当前准确的位置。后续的处理都需要由用户进行决策。
因此,如何利用智能设备准确的定位到目标物体,成为了本领域技术人员需要解决的问题。
发明内容
本申请实施例提供一种定位目标物体的方法、装置、电子设备及介质。
其中,根据本申请实施例的一个方面,提供的一种定位目标物体的方法,其特征在于,包括:
获取基于TOF成像技术生成的第一深度图像,所述第一深度图像为第一灯杆针对目标区域拍摄的图像;
解析所述第一深度图像,检测所述第一深度图像中是否包含目标物体;
当确定所述第一深度图像中包含所述目标物体时,获取所述目标物体在所述目标区域的位置信息。
可选地,在基于本申请上述方法的另一个实施例中,所述获取基于TOF成像技术生成的第一深度图像,包括:
向所述目标区域的预设范围内投射TOF光源,所述TOF光源为基于红外探测技术生产的光源;
记录投射所述投射TOF光源的第一时刻;
当获取到返回光源时,记录获取所述返回光源的第二时刻,所述返回光源为基于所述TOF光源生成的光源;
根据所述第一时刻以及所述第二时刻,生成所述第一深度图像。
可选地,在基于本申请上述方法的另一个实施例中,所述根据所述第一时刻以及所述第二时刻,生成所述第一深度图像,包括:
解析所述第一时刻以及所述第二时刻,获取所述TOF光源中各投射点的传输时间;
基于所述TOF光源中各投射点的传输时间,确定所述TOF光源中各投射点的距离信息;
根据所述TOF光源中各投射点的距离信息,生成所述第一深度图像。
可选地,在基于本申请上述方法的另一个实施例中,所述解析所述第一深度图像,检测所述第一深度图像中是否包含目标物体,包括:
获取所述目标物体的3D轮廓,所述3D轮廓对应于所述目标物体的类别;
解析所述第一深度图像,得到所述第一深度图像中各物体的3D轮廓;
基于所述目标物体的3D轮廓与所述第一深度图像中各物体的3D轮廓的匹配关系,检测第一深度图像中是否包含所述目标物体。
可选地,在基于本申请上述方法的另一个实施例中,所述检测第一深度图像中是否包含所述目标物体,包括:
基于所述目标物体的3D轮廓与所述第一深度图像中各物体的3D轮廓的匹配关系,确定所述第一深度图像中,与所述目标物体的3D轮廓相匹配的待检测物体;
当确定所述待检测物体的数量超过预设阈值时,获取所述待检测物体的特征参数;
基于所述待检测物体的特征参数,检测所述第一深度图像中是否包含所述目标物体。
可选地,在基于本申请上述方法的另一个实施例中,所述解析所述第一深度图像,检测所述第一深度图像中是否包含目标物体,包括:
获取所述目标物体的第一色彩参数;
解析所述第一深度图像,得到所述第一深度图像中各物体的第二色彩参数;
基于所述目标物体的第一色彩参数与所述第一深度图像中各物体的第二色彩参数的匹配关系,检测第一深度图像中是否包含所述目标物体。
可选地,在基于本申请上述方法的另一个实施例中,所述当确定所述第一深度图像中包含所述目标物体时,获取所述目标物体在所述目标区域的位置信息,还包括:
当确定所述第一深度图像中包含所述目标物体时,获取第二深度图像,所述第二深度图像为利用第二灯杆针对所述目标区域拍摄的图像,所述第二灯杆为距离所述第一灯杆预设范围内的灯杆;
基于所述第一深度图像以及所述第二深度图像,获取所述目标物体在所述目标区域的位置信息。
根据本申请实施例的另一个方面,提供的一种定位目标物体的装置,包括:
获取模块,被设置为获取基于TOF成像技术生成的第一深度图像,所述第一深度图像为第一灯杆针对目标区域拍摄的图像;
检测模块,被设置为解析所述第一深度图像,检测所述第一深度图像中是否包含目标物体;
确定模块,被设置为当确定所述第一深度图像中包含所述目标物体时,获取所述目标物体在所述目标区域的位置信息。
根据本申请实施例的又一个方面,提供的一种电子设备,包括:
存储器,用于存储可执行指令;以及
显示器,用于与所述存储器显示以执行所述可执行指令从而完成上述任一所述定位目标物体的方法的操作。
根据本申请实施例的还一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时执行上述任一所述定位目标物体的方法的操作。
本申请中,在获取基于TOF成像技术生成的由第一灯杆针对目标区域拍摄的第一深度图像之后,可以解析第一深度图像,并检测第一深度图像中是否包含目标物体,再当确定第一深度图像中包含目标物体时,获取目标物体在目标区域的位置信息。通过应用本申请的技术方案,可以由设置在路面上的灯杆针对特定区域拍摄TOF成像技术的深度图像。并根据该深度图像确定是否包含待检测的物体以及对应的位置信息。这也避免了相关技术中存在的,仅能拍摄二维图像所带来的不能定位物体方位的弊端。
下面通过附图和实施例,对本申请的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本申请的实施例,并且连同描述一起用于解释本申请的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本申请,其中:
图1为本申请视定位目标物体的系统架构示意图;
图2为本申请提出的一种定位目标物体的方法的示意图;
图3为本申请提出的一种定位目标物体的方法的示意图;
图4为本申请定位目标物体的装置的结构示意图;
图5为本申请显示电子设备结构示意图。
具体实施方式
现在将参照附图来详细描述本申请的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,不作为对本申请及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
另外,本申请各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
需要说明的是,本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
下面结合图1-图3来描述根据本申请示例性实施方式的用于进行定位目标物体的方法。需要注意的是,下述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施方式在此方面不受任何限制。相反,本申请的实施方式可以应用于适用的任何场景。
图1示出了可以应用本申请实施例的视频处理方法或视频处理装置的示例性系统架构100的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一种或多种,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。
本申请中的终端设备101、102、103可以为提供各种服务的终端设备。例如用户通过终端设备103(也可以是终端设备101或102)获取基于TOF成像技术生成的第一深度图像,所述第一深度图像为第一灯杆针对目标区域拍摄的图像;解析所述第一深度图像,检测所述第一深度图像中是否包含目标物体;当确定所述第一深度图像中包含所述目标物体时,获取所述目标物体在所述目标区域的位置信息。
在此需要说明的是,本申请实施例所提供的视频处理方法可以由终端设备101、102、103中的一个或多个,和/或,服务器105执行,相应地,本申请实施例所提供的视频处理装置一般设置于对应终端设备中,和/或,服务器105中,但本申请不限于此。
本申请还提出一种定位目标物体的方法、装置、目标终端及介质。
图2示意性地示出了根据本申请实施方式的一种定位目标物体的方法的流程示意图。如图2所示,该方法包括:
S101,获取基于TOF成像技术生成的第一深度图像,第一深度图像为第一灯杆针对目标区域拍摄的图像。
需要说明的是,本申请中获取第一深度图像的设备做具体限定,例如可以为智能设备,也可以为服务器。其中,智能设备可以是PC(Personal Computer,个人电脑),也可以是智能手机、平板电脑、电子书阅读器、MP3(Moving Picture Experts Group AudioLayerIII,动态影像专家压缩标准音频层面3)定位目标物体的器、MP4(Moving PictureExpertsGroup Audio Layer IV,动态影像专家压缩标准音频层面4)定位目标物体的器、便携计算机等具有显示功能的可移动式终端设备等等。
进一步的,本申请不对目标区域做具体限定,也即目标区域可以为任意的区域。
更进一步的,本申请中的灯杆可以是设置在目标区域的智慧灯杆。相比于传统灯杆仅能提供照明功能而言,智慧灯杆通过应用先进、高效、可靠的载波通信等技术,可以实现对灯杆的远程集中控制与管理,大幅节省电力资源,提高公共管理水平,节省维护成本。进而避免了现有的路灯存在功能单一、能耗过高、灯杆老化等问题。
另外,本申请中的灯杆可以包括有一个或多个光源、一个或多个摄像采集装置、一个或多个传感设备以及一个或多个显示屏。同时该一个或多个摄像采集装置安装在智慧灯杆上,一个或多个传感设备包括光线传感设备、温度传感设备、PM值传感设备、风速传感设备和声音传感设备等等。进一步的,本申请中的灯杆还可以包括有中继设备和一个或多个控制模块,且中继设备用于收集摄像设备和传感设备等采集的电子信息,并将所采集的电子信息传送到软件平台,一个或多个控制模块根据软件平台发送的电子信息控制智慧灯杆运行。
本申请中,在当接收到针对目标区域的监控请求时,相比于相关技术中仅能生成二维图像来说,本申请可以利用第一灯杆的摄像采集装置,获取目标区域的第一深度图像。其中,本申请的第一深度图像可以为基于TOF成像技术生成的图像。需要说明的是,本申请不对第一灯杆的数量做具体限定,例如可以有一个,也可以有多个。
可以理解的,该第一灯杆即为可以拍摄到目标区域的路面状态的灯杆。例如第一灯杆即可以为存在于目标区域的灯杆。本申请通过启动位于目标区域的灯杆的摄像采集装置,进而获取目标区域对应的深度图像信息。其中,该图像信息中可以包含有多个物体,例如人体,汽车,自行车,交通标志,交通信号灯等等。
其中,TOF(Time Of Flight)成像技术是基于“飞行时间法”测距原理的3D成像仪,包括照射装置和TOF传感器。一般的,TOF相机的照射装置为阵列式,即多个子照射源以阵列方式分布(照射阵列),分别向场景内发送经过调制的近红外光,每个子照射源发送的近红外光分别到达场景内一个照射点,传感器接收经由照射点反射的回波,并利用光波发射和反射的时间差或相位差来计算物体到相机的距离,也称为“深度数据”。在场景坐标系下,即可以计算出拍摄装置的位置及方位角,即可将每个深度数据换算为三维坐标数据,因而可以认为TOF成像技术的深度图像输出了覆盖范围内每个照射点的三维坐标数据。
S102,解析第一深度图像,检测第一深度图像中是否包含目标物体。
本申请中,在获取到第一深度图像之后,即可以首先检测该图像中是否包含有待查找的目标物体。可以理解的,只有在当图像中包含目标物体时,才可进一步的对该物体的位置进行定位。
其中,本申请不对检测第一深度图像中是否包含目标物体的方式做具体限定。例如,本申请可以TOF技术生成的图像中的三维坐标数据来确定目标物体。进一步的,TOF技术生成的深度图像除了提供三维坐标数据外,还可以提供每个照射点对应的反射光强度数据,在一定程度上,每个照射点的强度数据将反映该点三维坐标数据的可信程度。
进一步的,三维探测在计算机视觉领域有着越来越广泛的应用,相比较传统的双目立体相机,TOF技术生成的深度图像在三维探测方面有着天然的优势,它无需复杂的算法处理即可获得场景内目标的三维信息,探测精度稳定在厘米级。使用TOF深度图像进行目标识别传统的方法是使用TOF深度图像提供的深度数据,将其换算为三维坐标数据,并进行后续的识别算法,进而从中确定是否包含有待检测的目标物体。
需要说明的是,本申请中不对目标物体做具体限定,例如该目标物体可以为人体,也可以为动物,还可以为车辆,或者为车牌等等。可以理解的,本申请可以根据第一深度图像,监测目标区域中是否存在有特定的目标物体,进而避免了相关技术中存在的需要人工肉眼查询的弊端。
S103,当确定第一深度图像中包含目标物体时,获取目标物体在目标区域的位置信息。
进一步的,本申请中在检测到第一深度图像中包含目标物体时,即可以利用深度图像的三维坐标数据,确定目标物体在目标区域的位置信息。需要说明的是,本申请不对确定目标物体在目标区域的位置信息的方式做具体限定,例如可以为仅基于第一深度图像确定对应的位置信息,也可以为基于第一深度图像以及其他灯杆拍摄的至少一个第二深度图像来确定目标物体对应的位置信息。
本申请中,在获取基于TOF成像技术生成的由第一灯杆针对目标区域拍摄的第一深度图像之后,可以解析第一深度图像,并检测第一深度图像中是否包含目标物体,再当确定第一深度图像中包含目标物体时,获取目标物体在目标区域的位置信息。通过应用本申请的技术方案,可以由设置在路面上的灯杆针对特定区域拍摄TOF成像技术的深度图像。并根据该深度图像确定是否包含待检测的物体以及对应的位置信息。这也避免了相关技术中存在的,仅能拍摄二维图像所带来的不能定位物体方位的弊端。
在本申请另外一种可能的实施方式中,在S101(获取基于TOF成像技术生成的第一深度图像)中,可以通过以下方式实现:
向目标区域的预设范围内投射TOF光源,TOF光源为基于红外探测技术生产的光源;
记录投射投射TOF光源的第一时刻;
当获取到返回光源时,记录获取返回光源的第二时刻,返回光源为基于TOF光源生成的光源;
根据第一时刻以及第二时刻,生成第一深度图像。
进一步的,本申请可以首先利用灯杆上的光源投射装置,向目标区域中的预设范围内投射由多束探测光源组成的TOF光源,并同时记录投射光源的第一时刻。需要说明的是,本申请中的TOF光源可以为基于红外探测技术生成的光源。可以理解的,对于红外探测技术生成的光源来说,其不受外部光源的影响。也就是说,本申请中生成第一深度图像的过程中,在白天或夜晚均可实现。
进一步的,本申请不对预设范围做具体限定,例如预设范围可以为目标区域的全部区域,也可以为目标区域的部分区域。
另外,本申请可以接收被目标区域预定范围内的各点反射回来的TOF光源,并同时记录各点对应返回的TOF光源的接收时间(第二时刻)。进一步的,本申请的,本申请中的返回光源可以为以面状形式被反射回来的TOF光源。可以理解的,本申请中在接收返回光源时,可以由呈矩阵排列的多个接收点组成,各个接收点均可单独接收被反射回来的对应点的TOF光源(返回光源),并在接收到返回光源的同时,可以同时或者分别的记录每个返回点光源对应的第二时刻。
本申请中,在根据第一时刻以及第二时刻,生成第一深度图像的过程中,还可以通过以下方式得到:
解析第一时刻以及第二时刻,获取TOF光源中各投射点的传输时间;
基于TOF光源中各投射点的传输时间,确定TOF光源中各投射点的距离信息;
根据TOF光源中各投射点的距离信息,生成第一深度图像。
进一步的,本申请在基于第一时刻以及第二时刻,生成第一深度图像的过程中,可以通过TOF光源中各投射点的传输时间,来确定TOF光源中各投射点的距离信息,进而生成对应的第一深度图像。
需要说明的是,本申请不对TOF光源中各投射点的数量做具体限定,例如可以为1个,也可以为多个等等。
进一步的,本申请可以根据TOF光源的发射时间(第一时刻)和接收时间(第二时刻),计算目标区域预定范围内的各点的距离数据。具体而言,在该步骤中,目标区域预定范围内的各点的距离数据L=(T2-T1)*Vc/2,其中T1为TOF激光投射的第一时刻对应的时间,T2为各点对应的返回光源的第二时刻对应的时间,Vc为光速。
更进一步的,本申请在获取到TOF光源中各投射点的距离信息之后,即可以依据各投射点的距离数据,建立目标区域在预定范围内的动态三维模型,以使后续根据该三维模型,生成对应的第一深度图像。
在本申请另外一种可能的实施方式中,在S102(解析第一深度图像,检测第一深度图像中是否包含目标物体)中,可以通过以下两种方式的任意一种或多种方式实现:
第一种方式:
获取目标物体的3D轮廓,3D轮廓对应于目标物体的类别;
解析第一深度图像,得到第一深度图像中各物体的3D轮廓;
基于目标物体的3D轮廓与第一深度图像中各物体的3D轮廓的匹配关系,检测第一深度图像中是否包含目标物体。
进一步的,本申请在检测第一深度图像中是否包含目标物体的过程中,可以首先基于目标物体的3D轮廓信息来确定。具体而言,可以进一步的获取第一深度图像中各物体的3D轮廓信息,并依据各个物体的轮廓信息,来确定第一深度图像中是否包含目标物体。
需要说明的是,本申请中的3D轮廓信息可以对应于目标物体的类别。可以理解的,当目标物体为生物时,对应的3D轮廓信息即为生物3D轮廓。而当目标物体为汽车时,对应的3D轮廓信息即为车辆3D轮廓。进一步的,例如当目标物体为人类时,目标物体的3D轮廓即为人形3D轮廓,且在解析第一深度图像之后,得到第一深度图像中存在有若干个汽车3D轮廓的物体后,本申请即可以在确定人形3D轮廓与第一深度图像中若干个汽车3D轮廓的匹配关系为不匹配后,即可以确定第一深度图像中未包含有人类。进而得到第一深度图像中不包含有目标物体的检测结果。
又或,例如当目标物体为车辆时,目标物体的3D轮廓即为汽车的3D轮廓,且在解析第一深度图像之后,得到第一深度图像中存在有一个人形3D轮廓和一个汽车3D轮廓的物体后,本申请即可以在确定该汽车3D轮廓与第一深度图像中人形3D轮廓的匹配关系为不匹配,且与该第一深度图像中一个汽车3D轮廓的物体相匹配后,即可以确定第一深度图像中包含有一个汽车。进而得到第一深度图像中包含有目标物体的检测结果。
进一步可选的,本申请中在检测第一深度图像中是否包含目标物体的过程中,可以通过以下步骤得到:
基于目标物体的3D轮廓与第一深度图像中各物体的3D轮廓的匹配关系,确定第一深度图像中,与目标物体的3D轮廓相匹配的待检测物体;
当确定待检测物体的数量超过预设阈值时,获取待检测物体的特征参数;
基于待检测物体的特征参数,检测第一深度图像中是否包含目标物体。
进一步的,当本申请在将目标物体的3D轮廓与第一深度图像中各物体的3D轮廓进行匹配之后,当得到二者相匹配的待检测物体的数量超过预设阈值时,为了进一步的确定用户想要查找的目标物体。本申请即可以再次获取各个待检测物体的特征参数,以使后续根据该多个特征参数,得到第一深度图像中是否包含目标物体的检测结果。
又或,例如当目标物体为车牌号为京A的车辆时,目标物体的3D轮廓即为汽车的3D轮廓,且在解析第一深度图像之后,得到第一深度图像中存在有一个人形3D轮廓,三个汽车3D轮廓的物体后,本申请即可以在确定该汽车3D轮廓与第一深度图像中若干个汽车3D轮廓的匹配关系为不匹配,且该第一深度图像中三个汽车3D轮廓的物体相匹配后,即可以确定第一深度图像中包含有三个汽车。进一步的,为了从包含有三个汽车的第一深度图像中选择出目标物体时,本申请即可以进一步的获取该三个汽车对应的预定位置的特征参数,以分别获取每个汽车对应的车牌号码。可以理解的,当本申请确定汽车甲对应的车牌号码为京A,汽车乙对应的车牌号码为京F以及汽车丙对应的车牌号码为京N时,即可以确定第一深度图像中包含有车牌号为京A的一个汽车。进而得到第一深度图像中包含有目标物体的检测结果。
需要说明的是,本申请中不对待检测物体的特征参数做具体限定,例如可以为车牌号信息,也可以为温度信息,颜色信息,尺寸信息,体积信息等等。
第二种方式:
获取目标物体的第一色彩参数;
解析第一深度图像,得到第一深度图像中各物体的第二色彩参数;
基于目标物体的第一色彩参数与第一深度图像中各物体的第二色彩参数的匹配关系,检测第一深度图像中是否包含目标物体。
进一步的,本申请在检测第一深度图像中是否包含目标物体的过程中,还可以基于目标物体的色彩参数来确定。具体而言,可以进一步的获取第一深度图像中各物体的第二色彩参数,并依据各个物体的第二色彩参数,来确定第一深度图像中是否包含目标物体。
需要说明的是,本申请中的色彩参数可以对应于目标物体的颜色信息。可以理解的,例如当目标物体为车辆时,对应的色彩参数即为该车辆的颜色信息。又或当目标物体为车辆牌照时,对应的色彩参数即可以为该牌照的颜色信息。
进一步的,例如当目标物体为黄色汽车时,目标物体的色彩参数即为对应于黄色的颜色参数,且在解析第一深度图像之后,得到第一深度图像中存在有两个绿色物体以及一个红色物体后,本申请即可以在确定黄色的颜色参数与第一深度图像中两个绿色物体以及一个红色物体的匹配关系为不匹配后,即可以确定第一深度图像中未包含有黄色的物体。进而得到第一深度图像中不包含有目标物体的检测结果。
进一步的举例而言,例如当目标物体为绿色牌照时,目标物体的色彩参数即为对应于绿色的颜色参数,且在解析第一深度图像之后,得到第一深度图像中存在有一个绿色牌照以及一个蓝色牌照后,本申请即可以在确定绿色的颜色参数与第一深度图像中一个绿色牌照为匹配,以及与该蓝色牌照的匹配关系为不匹配后,即可以确定第一深度图像中包含有绿色的牌照。进而得到第一深度图像中包含有目标物体的检测结果。
进一步可选的,在本申请的一种实施方式中,在S103(基于第一烟气参数以及第二烟气参数,生成预警消息)之后,还包括一种具体的实施方式,如图3所示,包括:
S201,获取基于TOF成像技术生成的第一深度图像。
S202,解析第一深度图像,检测第一深度图像中是否包含目标物体。
S203,当确定第一深度图像中包含目标物体时,获取第二深度图像,第二深度图像为利用第二灯杆针对目标区域拍摄的图像,第二灯杆为距离第一灯杆预设范围内的灯杆。
进一步的,本申请中在确定第一深度图像中是否包含目标物体之后,为了精确的定位目标物体在目标区域的位置信息。本申请还可以启动在距离第一灯杆预设范围内的第二灯杆拍摄对应的第二深度图像,并根据该第一深度图像以及第二深度图像,共同确定目标物体的位置。
首先需要说明的是,本申请不对第二灯杆做具体限定,只要第二灯杆为可以拍摄到目标物体的灯杆即可。可以理解的,利用第二灯杆拍摄对应的第二深度图像可以从多个角度对目标物体进行拍摄。进而可以更好的观测物体,以避免出现由于目标物体被其他物体所遮挡而带来的不能准确定位的问题。其中,本申请不对第二灯杆做数量限定,例如可以为1个,也可以为多个等等。
另外,本申请同样不对预设范围做具体限定,例如可以为1米,也可以为5米等等。
S204,基于第一深度图像以及第二深度图像,获取目标物体在目标区域的位置信息。
例如,以目标物体为汽车的后牌照为例进行说明,本申请的第一深度图像可以为位于该汽车正前方的第一灯杆拍摄的图像。进一步的,当确定第一深度图像中包含该汽车时,为了获取位于该汽车正后方的车牌照的所在位置,本申请即可以启动位于第一灯杆预设范围内的,且位于该汽车后方的一个或多个第二灯杆的摄像采集装置,去拍摄该汽车后侧对应的第二深度图像。以使后续根据该第二深度图像确定该汽车的后牌照的位置。
本申请中,在获取基于TOF成像技术生成的由第一灯杆针对目标区域拍摄的第一深度图像之后,可以解析第一深度图像,并检测第一深度图像中是否包含目标物体,再当确定第一深度图像中包含目标物体时,获取目标物体在目标区域的位置信息。通过应用本申请的技术方案,可以由设置在路面上的灯杆针对特定区域拍摄TOF成像技术的深度图像。并根据该深度图像确定是否包含待检测的物体以及对应的位置信息。这也避免了相关技术中存在的,仅能拍摄二维图像所带来的不能定位物体方位的弊端。
在本申请的另外一种实施方式中,如图3所示,本申请还提供一种定位目标物体的装置。其中,该装置包括获取模块201,检测模块202,确定模块203,其中:
获取模块301,被设置为获取基于TOF成像技术生成的第一深度图像,所述第一深度图像为第一灯杆针对目标区域拍摄的图像;
检测模块302,被设置为解析所述第一深度图像,检测所述第一深度图像中是否包含目标物体;
确定模块303,被设置为当确定所述第一深度图像中包含所述目标物体时,获取所述目标物体在所述目标区域的位置信息。
本申请中,在获取基于TOF成像技术生成的由第一灯杆针对目标区域拍摄的第一深度图像之后,可以解析第一深度图像,并检测第一深度图像中是否包含目标物体,再当确定第一深度图像中包含目标物体时,获取目标物体在目标区域的位置信息。通过应用本申请的技术方案,可以由设置在路面上的灯杆针对特定区域拍摄TOF成像技术的深度图像。并根据该深度图像确定是否包含待检测的物体以及对应的位置信息。这也避免了相关技术中存在的,仅能拍摄二维图像所带来的不能定位物体方位的弊端。
在本申请的另一种实施方式中,获取模块301,还包括:
获取模块301,被配置为向所述目标区域的预设范围内投射TOF光源,所述TOF光源为基于红外探测技术生产的光源;
获取模块301,被配置为记录投射所述投射TOF光源的第一时刻;
获取模块301,被配置为当获取到返回光源时,记录获取所述返回光源的第二时刻,所述返回光源为基于所述TOF光源生成的光源;
获取模块301,被配置为根据所述第一时刻以及所述第二时刻,生成所述第一深度图像。
在本申请的另一种实施方式中,获取模块301,还包括:
获取模块301,被配置为解析所述第一时刻以及所述第二时刻,获取所述TOF光源中各投射点的传输时间;
获取模块301,被配置为基于所述TOF光源中各投射点的传输时间,确定所述TOF光源中各投射点的距离信息;
获取模块301,被配置为根据所述TOF光源中各投射点的距离信息,生成所述第一深度图像。
在本申请的另一种实施方式中,检测模块302,其中:
检测模块302,被配置为获取所述目标物体的3D轮廓,所述3D轮廓对应于所述目标物体的类别;
检测模块302,被配置为解析所述第一深度图像,得到所述第一深度图像中各物体的3D轮廓;
检测模块302,被配置为基于所述目标物体的3D轮廓与所述第一深度图像中各物体的3D轮廓的匹配关系,检测第一深度图像中是否包含所述目标物体。
在本申请的另一种实施方式中,检测模块302,其中:
检测模块302,被配置为基于所述目标物体的3D轮廓与所述第一深度图像中各物体的3D轮廓的匹配关系,确定所述第一深度图像中,与所述目标物体的3D轮廓相匹配的待检测物体;
检测模块302,被配置为当确定所述待检测物体的数量超过预设阈值时,获取所述待检测物体的特征参数;
检测模块302,被配置为基于所述待检测物体的特征参数,检测所述第一深度图像中是否包含所述目标物体。
在本申请的另一种实施方式中,检测模块302,还包括:
检测模块302,被配置为获取所述目标物体的第一色彩参数;
检测模块302,被配置为解析所述第一深度图像,得到所述第一深度图像中各物体的第二色彩参数;
检测模块302,被配置为基于所述目标物体的第一色彩参数与所述第一深度图像中各物体的第二色彩参数的匹配关系,检测第一深度图像中是否包含所述目标物体。
在本申请的另一种实施方式中,获取模块301,还包括:
获取模块301,被配置为当确定所述第一深度图像中包含所述目标物体时,获取第二深度图像,所述第二深度图像为利用第二灯杆针对所述目标区域拍摄的图像,所述第二灯杆为距离所述第一灯杆预设范围内的灯杆;
获取模块301,被配置为基于所述第一深度图像以及所述第二深度图像,获取所述目标物体在所述目标区域的位置信息。
图5是根据一示例性实施例示出的一种电子设备的逻辑结构框图。例如,电子设备400可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图5,电子设备400可以包括以下一个或多个组件:处理器401和存储器402。
处理器401可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器401可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器401也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器401可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器401还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器402可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器402还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器402中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器401所执行以实现本申请中方法实施例提供的互动特效标定方法。
在一些实施例中,电子设备400还可选包括有:外围设备接口403和至少一个外围设备。处理器401、存储器402和外围设备接口403之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口403相连。具体地,外围设备包括:射频电路404、触摸显示屏405、摄像头406、音频电路407、定位组件408和电源409中的至少一种。
外围设备接口403可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器401和存储器402。在一些实施例中,处理器401、存储器402和外围设备接口403被集成在同一芯片或电路板上;在一些其他实施例中,处理器401、存储器402和外围设备接口403中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路404用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路404通过电磁信号与通信网络以及其他通信设备进行通信。射频电路404将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路404包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路404可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路404还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏405用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏405是触摸显示屏时,显示屏405还具有采集在显示屏405的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器401进行处理。此时,显示屏405还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏405可以为一个,设置电子设备400的前面板;在另一些实施例中,显示屏405可以为至少两个,分别设置在电子设备400的不同表面或呈折叠设计;在再一些实施例中,显示屏405可以是柔性显示屏,设置在电子设备400的弯曲表面上或折叠面上。甚至,显示屏405还可以设置成非矩形的不规则图形,也即异形屏。显示屏405可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件406用于采集图像或视频。可选地,摄像头组件406包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件406还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路407可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器401进行处理,或者输入至射频电路404以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备400的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器401或射频电路404的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路407还可以包括耳机插孔。
定位组件408用于定位电子设备400的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件408可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源409用于为电子设备400中的各个组件进行供电。电源409可以是交流电、直流电、一次性电池或可充电电池。当电源409包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备400还包括有一个或多个传感器410。该一个或多个传感器410包括但不限于:加速度传感器411、陀螺仪传感器412、压力传感器413、指纹传感器414、光学传感器415以及接近传感器416。
加速度传感器411可以检测以电子设备400建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器411可以用于检测重力加速度在三个坐标轴上的分量。处理器401可以根据加速度传感器411采集的重力加速度信号,控制触摸显示屏405以横向视图或纵向视图进行用户界面的显示。加速度传感器411还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器412可以检测电子设备400的机体方向及转动角度,陀螺仪传感器412可以与加速度传感器411协同采集用户对电子设备400的3D动作。处理器401根据陀螺仪传感器412采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器413可以设置在电子设备400的侧边框和/或触摸显示屏405的下层。当压力传感器413设置在电子设备400的侧边框时,可以检测用户对电子设备400的握持信号,由处理器401根据压力传感器413采集的握持信号进行左右手识别或快捷操作。当压力传感器413设置在触摸显示屏405的下层时,由处理器401根据用户对触摸显示屏405的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器414用于采集用户的指纹,由处理器401根据指纹传感器414采集到的指纹识别用户的身份,或者,由指纹传感器414根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器401授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器414可以被设置电子设备400的正面、背面或侧面。当电子设备400上设置有物理按键或厂商Logo时,指纹传感器414可以与物理按键或厂商Logo集成在一起。
光学传感器415用于采集环境光强度。在一个实施例中,处理器401可以根据光学传感器415采集的环境光强度,控制触摸显示屏405的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏405的显示亮度;当环境光强度较低时,调低触摸显示屏405的显示亮度。在另一个实施例中,处理器401还可以根据光学传感器415采集的环境光强度,动态调整摄像头组件406的拍摄参数。
接近传感器416,也称距离传感器,通常设置在电子设备400的前面板。接近传感器416用于采集用户与电子设备400的正面之间的距离。在一个实施例中,当接近传感器416检测到用户与电子设备400的正面之间的距离逐渐变小时,由处理器401控制触摸显示屏405从亮屏状态切换为息屏状态;当接近传感器416检测到用户与电子设备400的正面之间的距离逐渐变大时,由处理器401控制触摸显示屏405从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图4中示出的结构并不构成对电子设备400的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器404,上述指令可由电子设备400的处理器420执行以完成上述定位目标物体的方法,该方法包括:获取基于TOF成像技术生成的第一深度图像,所述第一深度图像为第一灯杆针对目标区域拍摄的图像;解析所述第一深度图像,检测所述第一深度图像中是否包含目标物体;当确定所述第一深度图像中包含所述目标物体时,获取所述目标物体在所述目标区域的位置信息。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种应用程序/计算机程序产品,包括一条或多条指令,该一条或多条指令可以由电子设备400的处理器420执行,以完成上述定位目标物体的方法,该方法包括:获取基于TOF成像技术生成的第一深度图像,所述第一深度图像为第一灯杆针对目标区域拍摄的图像;解析所述第一深度图像,检测所述第一深度图像中是否包含目标物体;当确定所述第一深度图像中包含所述目标物体时,获取所述目标物体在所述目标区域的位置信息。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (10)
1.一种定位目标物体的方法,其特征在于,包括:
获取基于TOF成像技术生成的第一深度图像,所述第一深度图像为第一灯杆针对目标区域拍摄的图像;
解析所述第一深度图像,检测所述第一深度图像中是否包含目标物体;
当确定所述第一深度图像中包含所述目标物体时,获取所述目标物体在所述目标区域的位置信息。
2.如权利要求1所述的方法,其特征在于,所述获取基于TOF成像技术生成的第一深度图像,包括:
向所述目标区域的预设范围内投射TOF光源,所述TOF光源为基于红外探测技术生产的光源;
记录投射所述投射TOF光源的第一时刻;
当获取到返回光源时,记录获取所述返回光源的第二时刻,所述返回光源为基于所述TOF光源生成的光源;
根据所述第一时刻以及所述第二时刻,生成所述第一深度图像。
3.如权利要求2所述的方法,其特征在于,所述根据所述第一时刻以及所述第二时刻,生成所述第一深度图像,包括:
解析所述第一时刻以及所述第二时刻,获取所述TOF光源中各投射点的传输时间;
基于所述TOF光源中各投射点的传输时间,确定所述TOF光源中各投射点的距离信息;
根据所述TOF光源中各投射点的距离信息,生成所述第一深度图像。
4.如权利要求1或3所述的方法,其特征在于,所述解析所述第一深度图像,检测所述第一深度图像中是否包含目标物体,包括:
获取所述目标物体的3D轮廓,所述3D轮廓对应于所述目标物体的类别;
解析所述第一深度图像,得到所述第一深度图像中各物体的3D轮廓;
基于所述目标物体的3D轮廓与所述第一深度图像中各物体的3D轮廓的匹配关系,检测第一深度图像中是否包含所述目标物体。
5.如权利要求4所述的方法,其特征在于,所述检测第一深度图像中是否包含所述目标物体,包括:
基于所述目标物体的3D轮廓与所述第一深度图像中各物体的3D轮廓的匹配关系,确定所述第一深度图像中,与所述目标物体的3D轮廓相匹配的待检测物体;
当确定所述待检测物体的数量超过预设阈值时,获取所述待检测物体的特征参数;
基于所述待检测物体的特征参数,检测所述第一深度图像中是否包含所述目标物体。
6.如权利要求3或4所述的方法,其特征在于,所述解析所述第一深度图像,检测所述第一深度图像中是否包含目标物体,包括:
获取所述目标物体的第一色彩参数;
解析所述第一深度图像,得到所述第一深度图像中各物体的第二色彩参数;
基于所述目标物体的第一色彩参数与所述第一深度图像中各物体的第二色彩参数的匹配关系,检测第一深度图像中是否包含所述目标物体。
7.如权利要求1所述的方法,其特征在于,所述当确定所述第一深度图像中包含所述目标物体时,获取所述目标物体在所述目标区域的位置信息,还包括:
当确定所述第一深度图像中包含所述目标物体时,获取第二深度图像,所述第二深度图像为利用第二灯杆针对所述目标区域拍摄的图像,所述第二灯杆为距离所述第一灯杆预设范围内的灯杆;
基于所述第一深度图像以及所述第二深度图像,获取所述目标物体在所述目标区域的位置信息。
8.一种定位目标物体的装置,其特征在于,包括:
获取模块,被设置为获取基于TOF成像技术生成的第一深度图像,所述第一深度图像为第一灯杆针对目标区域拍摄的图像;
检测模块,被设置为解析所述第一深度图像,检测所述第一深度图像中是否包含目标物体;
确定模块,被设置为当确定所述第一深度图像中包含所述目标物体时,获取所述目标物体在所述目标区域的位置信息。
9.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;以及,
处理器,用于与所述存储器显示以执行所述可执行指令从而完成权利要求1-7中任一所述定位目标物体的方法的操作。
10.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1-7中任一所述定位目标物体的方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911213797.2A CN112991439B (zh) | 2019-12-02 | 2019-12-02 | 定位目标物体的方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911213797.2A CN112991439B (zh) | 2019-12-02 | 2019-12-02 | 定位目标物体的方法、装置、电子设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112991439A true CN112991439A (zh) | 2021-06-18 |
CN112991439B CN112991439B (zh) | 2024-04-16 |
Family
ID=76331210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911213797.2A Active CN112991439B (zh) | 2019-12-02 | 2019-12-02 | 定位目标物体的方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112991439B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116740873A (zh) * | 2023-08-08 | 2023-09-12 | 深圳市劳恩科技有限公司 | 一种基于光学传感技术的测量检测系统及方法 |
CN117115262A (zh) * | 2023-10-24 | 2023-11-24 | 锐驰激光(深圳)有限公司 | 基于视觉和tof的定位方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104243798A (zh) * | 2013-06-14 | 2014-12-24 | 索尼公司 | 图像处理装置、服务器和存储介质 |
CN106954036A (zh) * | 2016-01-07 | 2017-07-14 | 宁波舜宇光电信息有限公司 | 基于3d深度视觉的监控系统和监控路灯及其监控方法 |
CN107292241A (zh) * | 2017-05-24 | 2017-10-24 | 国网北京市电力公司 | 路灯 |
CN108549874A (zh) * | 2018-04-19 | 2018-09-18 | 广州广电运通金融电子股份有限公司 | 一种目标检测方法、设备及计算机可读存储介质 |
CN109089047A (zh) * | 2018-09-29 | 2018-12-25 | Oppo广东移动通信有限公司 | 控制对焦的方法和装置、存储介质、电子设备 |
US20190196499A1 (en) * | 2017-12-26 | 2019-06-27 | Samsung Electronics Co., Ltd. | System and method for providing overhead camera-based precision localization for intelligent vehicles |
-
2019
- 2019-12-02 CN CN201911213797.2A patent/CN112991439B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104243798A (zh) * | 2013-06-14 | 2014-12-24 | 索尼公司 | 图像处理装置、服务器和存储介质 |
CN106954036A (zh) * | 2016-01-07 | 2017-07-14 | 宁波舜宇光电信息有限公司 | 基于3d深度视觉的监控系统和监控路灯及其监控方法 |
CN107292241A (zh) * | 2017-05-24 | 2017-10-24 | 国网北京市电力公司 | 路灯 |
US20190196499A1 (en) * | 2017-12-26 | 2019-06-27 | Samsung Electronics Co., Ltd. | System and method for providing overhead camera-based precision localization for intelligent vehicles |
CN108549874A (zh) * | 2018-04-19 | 2018-09-18 | 广州广电运通金融电子股份有限公司 | 一种目标检测方法、设备及计算机可读存储介质 |
CN109089047A (zh) * | 2018-09-29 | 2018-12-25 | Oppo广东移动通信有限公司 | 控制对焦的方法和装置、存储介质、电子设备 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116740873A (zh) * | 2023-08-08 | 2023-09-12 | 深圳市劳恩科技有限公司 | 一种基于光学传感技术的测量检测系统及方法 |
CN116740873B (zh) * | 2023-08-08 | 2023-10-03 | 深圳市劳恩科技有限公司 | 一种基于光学传感技术的测量检测系统及方法 |
CN117115262A (zh) * | 2023-10-24 | 2023-11-24 | 锐驰激光(深圳)有限公司 | 基于视觉和tof的定位方法、装置、设备及存储介质 |
CN117115262B (zh) * | 2023-10-24 | 2024-03-26 | 锐驰激光(深圳)有限公司 | 基于视觉和tof的定位方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112991439B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113763228B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113627413B (zh) | 数据标注方法、图像比对方法及装置 | |
CN110874905A (zh) | 监控方法及装置 | |
CN111127509A (zh) | 目标跟踪方法、装置和计算机可读存储介质 | |
CN112406707B (zh) | 车辆预警方法、车辆、装置、终端和存储介质 | |
CN111982305A (zh) | 温度测量方法、装置及计算机存储介质 | |
CN110839128A (zh) | 拍照行为检测方法、装置及存储介质 | |
CN112991439B (zh) | 定位目标物体的方法、装置、电子设备及介质 | |
CN109754439B (zh) | 标定方法、装置、电子设备及介质 | |
CN111127541B (zh) | 车辆尺寸的确定方法、装置及存储介质 | |
CN110874699B (zh) | 记录物品的物流信息方法、装置及系统 | |
CN111131392A (zh) | 处理消息的方法、装置、电子设备及介质 | |
CN110471614B (zh) | 一种存储数据的方法、检测终端的方法及装置 | |
CN112700647B (zh) | 监测车辆行驶信息的方法及装置 | |
CN112396076A (zh) | 车牌图像生成方法、装置及计算机存储介质 | |
CN111753606A (zh) | 一种智能模型的升级方法及装置 | |
CN111754564B (zh) | 视频展示方法、装置、设备及存储介质 | |
CN111064657B (zh) | 关注账户分组的方法、装置、系统 | |
CN111383243B (zh) | 一种跟踪目标对象的方法、装置、设备和存储介质 | |
CN112241987A (zh) | 确定防区的系统、方法、装置及存储介质 | |
CN111982293B (zh) | 体温测量方法、装置、电子设备及存储介质 | |
CN112699906B (zh) | 获取训练数据的方法、装置及存储介质 | |
CN113935678A (zh) | 确定配送员持多配送终端的方法、装置、设备及存储介质 | |
CN112135256A (zh) | 移动轨迹的确定方法、装置、设备及可读存储介质 | |
CN113706807A (zh) | 发出报警信息的方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |