CN108491795A - 轨道交通场景的行人检测方法与装置 - Google Patents
轨道交通场景的行人检测方法与装置 Download PDFInfo
- Publication number
- CN108491795A CN108491795A CN201810240221.4A CN201810240221A CN108491795A CN 108491795 A CN108491795 A CN 108491795A CN 201810240221 A CN201810240221 A CN 201810240221A CN 108491795 A CN108491795 A CN 108491795A
- Authority
- CN
- China
- Prior art keywords
- image
- rail
- video frame
- region
- frame images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种轨道交通场景的行人检测方法与装置,所述方法,包括:在视频帧图像中检测并获取铁轨区域的图像;其中,所述铁轨区域为所述视频帧图像中表征铁轨的区域;放大所述铁轨区域的图像;在放大后的铁轨区域的图像中检测行人目标;根据所述行人目标在所述铁轨区域中的位置,以及所述铁轨区域在所述视频帧图像中的位置,在所述视频帧图像中标识所述行人目标。本发明改善了行人检测的检测结果,提高了检测的准确率。
Description
技术领域
本发明涉及轨道交通领域,尤其涉及一种轨道交通场景的行人检测方法与装置。
背景技术
在轨道交通场景下,轨道上的列车的行进速度快,惯性大,一旦启动很难刹车。因此铁轨上的行人会对列车的行进造成很大的不良影响,甚至会威胁到人们的生命安全,带来危险。
为了避免这类不良影响与危险的发生,现有的相关技术中,可以利用机器采集铁轨的视频帧图像,并依据对视频帧图像中行人的检测,提前做好相关防范措施。
然而,所采集的视频帧图像中,包含铁轨的铁轨区域,以及铁轨区域中的行人目标的尺寸均较小,不利于对行人的检测,会造成行人检测的结果不佳。
发明内容
本发明提供了一轨道交通场景的行人检测方法与装置,以解决行人检测的结果不佳的问题。
根据本发明的第一方面,提供了一种轨道交通场景的行人检测方法,包括:
在视频帧图像中检测并获取铁轨区域的图像;其中,所述铁轨区域为所述视频帧图像中表征全部铁轨或铁轨的部分区段的区域;
放大所述铁轨区域的图像;
在放大后的铁轨区域的图像中检测行人目标;
根据所述行人目标在所述铁轨区域中的位置,以及所述铁轨区域在所述视频帧图像中的位置,在所述视频帧图像中标识所述行人目标。
可选的,所述在视频帧图像中检测并获取铁轨区域的图像,包括:
利用经训练的第一神经网络,得到第一标识信息;其中,所述第一标识信息用于标识所述视频帧图像中所述铁轨区域的位置与尺寸;
根据所述第一标识信息,获取所述视频帧图像中铁轨区域的图像。
可选的,所述第一神经网络是经过第一训练图像和第二训练图像训练得到的,所述第一训练图像为已标识铁轨区域的图像,所述第二训练图像为对所述第一训练图像进行缩放、裁剪、旋转后的图像。
可选的,所述第一标识信息的数量为N个,其中,N为大于或等于2的整数,不同的第一标识信息分别用于标识所述视频帧图像中不同铁轨区域的位置与尺寸。
可选的,所述铁轨区域为多边形区域;
所述放大所述铁轨区域的图像,包括:
根据所述铁轨区域的图像的第一坐标集合,以及预设的放大比例,确定放大后的铁轨区域的图像的第二坐标集合;
其中,所述第一坐标集合包括所述铁轨区域的图像的中心点在所述视频帧图像所处坐标系中的第一坐标,以及所述铁轨区域的图像的部分或全部顶点在所述坐标系中的第二坐标;所述第二坐标集合包括放大后的铁轨区域的图像的中心点在所述坐标系中的第三坐标,以及放大后的铁轨区域的图像的部分或全部顶点在所述坐标系中的第四坐标,所述第三坐标与所述第一坐标相同;
根据所述第二坐标集合,放大所述铁轨区域的图像。
可选的,所述根据所述铁轨区域的图像的第一坐标集合,以及预设的放大比例,确定放大后的铁轨区域的图像的第二坐标集合之后,包括:
若所述第二坐标集合中的至少一个第四坐标的位置处于所述视频帧图像的范围外,则在保证所述第三坐标不变的同时,调整所述第四坐标,以使所述至少一个第四坐标处于所述视频帧图像的范围内和/或处于所述视频帧图像的边缘。
可选的,所述在放大后的铁轨区域的图像中检测行人目标,包括:
利用经训练的第二神经网络,得到第二标识信息;其中,所述第二标识信息用于标识铁轨区域中所述行人目标的位置与尺寸;
所述根据所述行人目标在所述铁轨区域中的位置,以及所述铁轨区域在所述视频帧图像中的位置,在所述视频帧图像中标识所述行人目标,包括:
根据所述铁轨区域在所述视频帧图像中的位置,以及所述第二标识信息,确定第三标识信息;所述第三标识信息用于标识所述视频帧图像中所述行人目标的位置与尺寸;
根据所述第三标识信息,在所述视频帧图像中标识所述行人目标。
可选的,所述第二神经网络是经过第三训练图像和第四训练图像训练得到的,所述第三训练图像为已标识行人目标的图像,所述第四训练图像为对所述第三训练图像进行缩放、裁剪、旋转后的图像。
根据本发明的第二方面,提供了一种轨道交通场景的行人检测装置,包括:
第一检测模块,用于在视频帧图像中检测并获取铁轨区域的图像;其中,所述铁轨区域为所述视频帧图像中表征全部铁轨或铁轨的部分区段的区域;
放大模块,用于放大所述铁轨区域的图像;
第二检测模块,用于在放大后的铁轨区域的图像中检测行人目标;
标识模块,用于在所述视频帧图像中标识所述行人目标。
可选的,所述第一检测模块,具体用于:
利用经训练的第一神经网络,得到第一标识信息;其中,所述第一标识信息用于标识所述视频帧图像中所述铁轨区域的位置与尺寸;
根据所述行人目标在所述铁轨区域中的位置,以及所述铁轨区域在所述视频帧图像中的位置,在所述视频帧图像中标识所述行人目标。
可选的,所述第一神经网络是经过第一训练图像和第二训练图像训练得到的,所述第一训练图像为已标识铁轨区域的图像,所述第二训练图像为对所述第一训练图像进行缩放、裁剪、旋转后的图像。
可选的,所述第一标识信息的数量为N个,其中,N为大于或等于2的整数,不同的第一标识信息分别用于标识所述视频帧图像中不同铁轨区域的位置与尺寸,不同的铁轨区域具体为所述视频帧图像中表征铁轨的不同区段的区域。
可选的,所述铁轨区域为多边形区域;
所述放大模块,具体用于:
根据所述铁轨区域的图像的第一坐标集合,以及预设的放大比例,确定放大后的铁轨区域的图像的第二坐标集合;
其中,所述第一坐标集合包括所述铁轨区域的图像的中心点在所述视频帧图像所处坐标系中的第一坐标,以及所述铁轨区域的图像的部分或全部顶点在所述坐标系中的第二坐标;所述第二坐标集合包括放大后的铁轨区域的图像的中心点在所述坐标系中的第三坐标,以及放大后的铁轨区域的图像的部分或全部顶点在所述坐标系中的第四坐标,所述第三坐标与所述第一坐标相同;
根据所述第二坐标集合,放大所述铁轨区域的图像。
可选的,所述放大模块,具体用于:
若所述第二坐标集合中的至少一个第四坐标的位置处于所述视频帧图像的范围外,则在保证所述第三坐标不变的同时,调整所述第四坐标,以使所述至少一个第四坐标处于所述视频帧图像的范围内和/或处于所述视频帧图像的边缘。
可选的,所述第二检测模块,具体用于:
利用经训练的第二神经网络,得到第二标识信息;其中,所述第二标识信息用于标识铁轨区域中所述行人目标的位置与尺寸;
所述标识模块,具体用于:
根据所述铁轨区域在所述视频帧图像中的位置,以及所述第二标识信息,确定第三标识信息;所述第三标识信息用于标识所述视频帧图像中所述行人目标的位置与尺寸;
根据所述第三标识信息,在所述视频帧图像中标识所述行人目标。
可选的,所述第二神经网络是经过第三训练图像和第四训练图像训练得到的,所述第三训练图像为已标识行人目标的图像,所述第四训练图像为对所述第三训练图像进行缩放、裁剪、旋转后的图像。
根据本发明的第三方面,提供了一种电子设备,包括:存储器、处理器以及计算机程序,所述计算机程序存储在所述存储器中,所述处理器运行所述计算机程序执行第一方面及其可能涉及的方法。
根据本发明的第四方面,提供了一种存储介质,存储有计算机程序,所述计算机程序被执行时实现第一方面及其可能涉及的方法。
本发明提供的轨道交通场景的行人检测方法与装置,通过放大所述铁轨区域的图像,以及在放大后的铁轨区域的图像中检测行人目标;在所述视频帧图像中标识所述行人目标,实现了在放大后铁轨区域的图像中检测行人目标,通过铁轨区域的尺寸放大,避免了铁轨区域以及其中行人太小对行人目标检测的不良影响,改善了行人检测的检测结果,提高了检测的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一轨道交通场景的行人检测方法的流程示意图;
图2是图1中步骤S11的流程示意图;
图3是图1中步骤S12的流程示意图;
图4是图1中步骤S13与S14的流程示意图;
图5是本发明一轨道交通场景的行人检测方法的处理过程示意图;
图6是本发明一轨道交通场景的行人检测装置的结构示意图;
图7是本发明一电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
图1是本发明一轨道交通场景的行人检测方法的流程示意图。
请参考图1,轨道交通场景的行人检测方法,包括:
S11:在视频帧图像中检测并获取铁轨区域的图像。
铁轨区域为所述视频帧图像中表征全部铁轨或铁轨的部分区段的区域,其可以包括视频帧图像中全部铁轨或部分区段的图像部分,还可以包括附近的图像部分,其中,若铁轨区域为矩形的,则附近的图像部分,也可理解为适于通过矩形框定的内容,该矩形由表征全部铁轨或铁轨的部分区段的区域,以及附近的图像部分组成,同时,由于对行人的检测可理解为具有危险探测作用,其中的危险可以包括列车对铁轨上行人产生的危险,也可以包括列车对铁轨附近行人产生的危险,故而:在一种实施方式中,铁轨附近的图像部分也可为除铁轨本身以外其他需要进行危险探测的部分,对于该部分,进一步可理解为:若人处于对应位置,也会因列车的行进带来危险。
视频帧图像,可以理解为机器采集的包含了铁轨以及铁轨以外其他对象的视频中的图像,通过视频帧图像的采集,可以有利于依据对视频帧图像中行人的检测,提前做好防范措施。其中的设备可以为无人机的摄像头、安装于探测车的摄像头等。
图2是图1中步骤S11的流程示意图。
请参考图2,步骤S11,包括:
S111:利用经训练的第一神经网络,得到第一标识信息。
其中,所述第一标识信息用于标识所述视频帧图像中所述铁轨区域的位置与尺寸。第一标识信息的数据形式可以是任意的,只要能够对位置与尺寸进行标识,就不脱离以上描述。
其中一种实施方式中,可以通过铁轨区域中特定点的位置表征铁轨区域的位置以及尺寸,例如:若铁轨区域为矩形的,第一标识信息可以包括铁轨区域中心点的坐标,用于表征铁轨区域中心点的位置,其可参照后文的第一坐标与第三坐标理解;进而可用于表征铁轨区域的位置,还可以包括铁轨区域顶点的坐标,具体可以为四个顶点的坐标,或者对角线对应的两个对角的顶点的坐标,其可参照后文列举的第二坐标与第四坐标理解。此外,铁轨区域也可采用其他任意的多边形区域。
图5是本发明一轨道交通场景的行人检测方法的处理过程示意图。
请参考图5,其示意了其中一个铁轨区域22放大并检测行人的过程,以上所称的坐标可理解为相对于视频帧图像的位置坐标,铁轨区域22的中心点的距离视频帧图像21上边缘的距离为H,中心点距离视频帧图像21左边缘的距离为L。
其中一种实施方式中,所述第一标识信息的数量可以为N个,其中,N为大于或等于2的整数,不同的第一标识信息分别用于标识所述视频帧图像中不同铁轨区域的位置与尺寸,不同的铁轨区域具体为表征所述视频帧图像中铁轨的不同区段的区域。
可见,轨道区域可进行分段标识,以使检测结果为分段的不同的轨道区域。具体实施过程中,标识过程中可尽量使标识的N个轨道区域覆盖图像中全部轨道,降低检测结果无法覆盖全部铁轨的可能性。
在其他可选实施方式中,也可采用一个第一标识信息标识整个轨道区域。
第一神经网络,可以理解为能够针对图像检测出铁轨区域的网络。
其中一种实施方式中,第一神经网络可在训练时输入已标识铁轨区域的图像,第一神经网络通过对图像中铁轨区域的标识方式进行学习,进而针对任意输入的图像,都能识别出其中的铁轨区域。
所述第一神经网络可以是经过第一训练图像和第二训练图像训练得到的,所述第一训练图像为已标识铁轨区域的图像,所述第二训练图像为对所述第一训练图像进行缩放、裁剪、旋转后的图像。可见,通过第二训练图像,可以在第一训练图像的基础上对训练素材进行有效扩充,提高训练的效率,进而可以增加网络的扛过拟合能力,提高检测的准确性。
第一神经网络采用的网络结构可以采用卷积神经网络,例如可以为ZF网络结构、VGG网络结构等,相比于VGG网络,本实施例可以采用ZF网络,ZF网络在检测精度足够的情况下,拥有更快的训练速度与检测速度,更适合于实时性要求较高的场景,即可具有较高的实时性。
S112:根据所述第一标识信息,获取所述视频帧图像中铁轨区域的图像。
S12:放大所述铁轨区域的图像。
图3是图1中步骤S12的流程示意图。
其中一种实施方式中,请参考图3,步骤S12可以包括:
S121:根据所述铁轨区域的图像的第一坐标集合,以及预设的放大比例,确定放大后的铁轨区域的图像的第二坐标集合。
其中,所述第一坐标集合包括所述铁轨区域的图像的中心点在所述视频帧图像所处坐标系中的第一坐标,以及所述铁轨区域的图像的部分或全部顶点在所述坐标系中的第二坐标;所述第二坐标集合包括放大后的铁轨区域的图像的中心点在所述坐标系中的第三坐标,以及放大后的铁轨区域的图像的部分或全部顶点在所述坐标系中的第四坐标,所述第三坐标与所述第一坐标相同。其中,若铁轨区域为矩形区域,则第二坐标与第四坐标可以采用矩形的对角的两个顶点的坐标。
预设的放大比例,可以为任意预设的放大比例,且该放大比例也可以为人为手调的。
针对矩形的铁轨区域,以1.44的放大比例为例,在保持中心点坐标不变的情况下,通过改变顶点坐标,可以根据第二坐标得到第四坐标,从而使得铁轨区域的图像的长与宽都扩大至1.2倍。
请参考图5,在放大过程中,铁轨区域22的中心点坐标的横坐标保持为与视频帧图像21的左边缘相距L,铁轨区域22的中心点坐标的竖坐标保持为与视频帧图像21的上边缘相距H。
通过图像的放大,可以使得其中的行人的尺寸变大,也可行人的轮廓可以更清晰,最终达到便于被识别的效果,从而提高行人检测的准确率。
若铁轨区域22放大后超出了视频帧图像的范围,也可实施步骤S122与步骤S123;若未超出,也可直接实施步骤S124。
S122:所述第二坐标集合中的至少一个第四坐标是否处于所述视频帧图像的范围外。
若是,则实施步骤S123:在保证所述第三坐标不变的同时,调整所述第四坐标的位置,以使所述至少一个第四坐标处于所述视频帧图像的范围内和/或处于所述视频帧图像的边缘。同时,在调整时还需保证多边形区域的形状保持不变。
可见,在该实施方式中,虽然预设有放大比例,若放大后超出视频帧图像的范围,则最终放大后的铁轨区域可能小于预设的放大比例,只要能满足铁轨区域处于视频帧图像的范围内即可。此外,对于同一视频帧图像的不同铁轨区域,也可能以不同的放大比例放大后进行行人检测。
具体实施过程中,请参考图5,也可不实际得到中间一张图,只需在计算过程中满足该过程,同时得到放大后尺寸的铁轨区域即可,例如,可以得到放大后铁轨区域的图像本身,以及其对应的第二坐标集合。
S124:根据所述第二坐标集合,放大所述铁轨区域的图像。
S13:在放大后的铁轨区域的图像中检测行人目标。
图4是图1中步骤S13与S14的流程示意图。
请参考图4,步骤S13,可以包括步骤S131:利用经训练的第二神经网络,得到第二标识信息。
其中,所述第二标识信息用于标识铁轨区域中所述行人目标的位置与尺寸;还可用于标识行人目标的轮廓等信息。其具体实现方式可以例如:通过四个标签表征行人目标对应的行人标识框的位置,通过该四个标签,可以表征行人对象的位置与尺寸,四个标签所表征位置还可确定行人标识框的形状,其可对应标识行人目标的轮廓。
第二神经网络,可在训练时输入已标识行人的铁轨区域的图像,第二神经网络通过对铁轨区域的图像中行人的标识方式进行学习,进而针对任意输入的铁轨区域的图像,都能识别出其中的行人。
第二神经网络采用的网络结构可以采用卷积神经网络,例如可以为ZF网络结构、VGG网络结构等,相比于VGG网络,本实施例可以采用ZF网络,ZF网络在检测精度足够的情况下,拥有更快的训练速度与检测速度,更适合于实时性要求较高的场景,即可具有较高的实时性,同时,还可具有较佳的精度。
所述第二神经网络可以是经过第三训练图像和第四训练图像训练得到的,所述第三训练图像为已标识行人目标的图像,所述第四训练图像为对所述第三训练图像进行缩放、裁剪、旋转后的图像。可见,通过第四训练图像,可以在第三训练图像的基础上对训练素材进行有效扩充,提高训练的效率,进而可以增加网络的扛过拟合能力,提高检测的准确性。第三训练图像和第四训练图像可以具体为标识了行人目标的铁轨区域的图像。
第一神经网络与第二神经网络可形成级联检测,将面向交通轨道的行人检测转化为由粗粒度,到细粒度的级联检测过程,应对任意具有光照、视角多变,大量遮挡等问题的多变图像,均可具有较佳的鲁棒性。
S14:根据所述行人目标在所述铁轨区域中的位置,以及所述铁轨区域在所述视频帧图像中的位置,在所述视频帧图像中标识所述行人目标。
步骤S14,可以包括:
S141:根据所述铁轨区域在所述视频帧图像中的位置,以及所述第二标识信息,确定第三标识信息。
其中,所述铁轨区域在所述视频帧图像中的位置可以利用第一标识信息表征。所述第三标识信息用于标识所述视频帧图像中所述行人目标的位置与尺寸,具体实施过程中,可以理解为用于将以上所述的行人标识框对应定位于视频帧图像中的信息。
S142:根据所述第三标识信息,在所述视频帧图像中标识所述行人目标。
具体可以为利用行人标识框在视频帧图像中标识行人目标,步骤S142采用的行人标识框可以与步骤S13中得到的行人标识框相同,也可根据放大后的铁轨区域与未放大的铁轨区域的尺寸比缩小步骤S13得到的行人标识框,从而得到步骤S142所采用的行人标识框。同时,根据放大后的铁轨区域与未放大的铁轨区域的尺寸比,可适应性调整行人标识框相对于铁轨区域的参考点位置,例如调整与铁轨区域的中心点位置之间的距离,以实现准确的定位。
本实施例提供的轨道交通场景的行人检测方法,通过放大所述铁轨区域的图像,以及在放大后的铁轨区域的图像中检测行人目标;在所述视频帧图像中标识所述行人目标,实现了在放大后铁轨区域的图像中检测行人目标,通过铁轨区域的尺寸放大,避免了铁轨区域以及其中行人太小对对行人目标检测的不良影响,改善了行人检测的检测结果,提高了检测的准确率。
图6是本发明一轨道交通场景的行人检测装置的结构示意图。
请参考图6,轨道交通场景的行人检测装置,包括:
第一检测模块301,用于在视频帧图像中检测并获取铁轨区域的图像;其中,所述铁轨区域为所述视频帧图像中表征铁轨的区域;
放大模块302,用于放大所述铁轨区域的图像;
第二检测模块303,用于在放大后的铁轨区域的图像中检测行人目标;
标识模块304,用于在所述视频帧图像中标识所述行人目标。
可选的,所述第一检测模块301,具体用于:
利用经训练的第一神经网络,得到第一标识信息;其中,所述第一标识信息用于标识所述视频帧图像中所述铁轨区域的位置与尺寸;
根据所述行人目标在所述铁轨区域中的位置,以及所述铁轨区域在所述视频帧图像中的位置,在所述视频帧图像中标识所述行人目标。
可选的,所述第一神经网络是经过第一训练图像和第二训练图像训练得到的,所述第一训练图像为已标识铁轨区域的图像,所述第二训练图像为对所述第一训练图像进行缩放、裁剪、旋转后的图像。
可选的,所述第一标识信息的数量为N个,其中,N为大于或等于2的整数,不同的第一标识信息分别用于标识所述视频帧图像中不同铁轨区域的位置与尺寸,不同的铁轨区域具体为表征铁轨的不同区段的区域。
可选的,所述铁轨区域为多边形区域;
所述放大模块302,具体用于:
根据所述铁轨区域的图像的第一坐标集合,以及预设的放大比例,确定放大后的铁轨区域的图像的第二坐标集合;
其中,所述第一坐标集合包括所述铁轨区域的图像的中心点在所述视频帧图像所处坐标系中的第一坐标,以及所述铁轨区域的图像的部分或全部顶点在所述坐标系中的第二坐标;所述第二坐标集合包括放大后的铁轨区域的图像的中心点在所述坐标系中的第三坐标,以及放大后的铁轨区域的图像的部分或全部顶点在所述视频帧图像中的第四坐标,所述第三坐标与所述第一坐标相同;
根据所述第二坐标集合,放大所述铁轨区域的图像。
可选的,所述放大模块302,具体用于:
若所述第二坐标集合中的至少一个第四坐标处于所述视频帧图像的范围外,则在保证所述第三坐标不变的同时,调整所述第四坐标的位置,以使所述至少一个第四坐标处于所述视频帧图像的范围内和/或处于所述视频帧图像的边缘。
可选的,所述第二检测模块303,具体用于:
利用经训练的第二神经网络,得到第二标识信息;其中,所述第二标识信息用于标识铁轨区域中所述行人目标的位置与尺寸;
所述标识模块304,具体用于:
根据所述铁轨区域在所述视频帧图像中的位置,以及所述第二标识信息,确定第三标识信息;所述第三标识信息用于标识所述视频帧图像中所述行人目标的位置与尺寸;
根据所述第三标识信息,在所述视频帧图像中标识所述行人目标。
可选的,所述第二神经网络是经过第三训练图像和第四训练图像训练得到的,所述第三训练图像为已标识行人目标的图像,所述第四训练图像为对所述第三训练图像进行缩放、裁剪、旋转后的图像。
本实施例提供的轨道交通场景的行人检测装置,通过放大所述铁轨区域的图像,以及在放大后的铁轨区域的图像中检测行人目标;在所述视频帧图像中标识所述行人目标,实现了在放大后铁轨区域的图像中检测行人目标,通过铁轨区域的尺寸放大,避免了铁轨区域以及其中行人太小对对行人目标检测的不良影响,改善了行人检测的检测结果,提高了检测的准确率。
图7是本发明一电子设备的结构示意图。
请参考图7,本实施例还提供了一种电子设备50包括:处理器51以及存储器52;其中
存储器52,用于存储计算机程序,该存储器还可以是flash(闪存)。
处理器51,用于执行存储器存储的执行指令,以实现上述编码方法中的各个步骤。具体可以参见前面方法实施例中的相关描述。
可选地,存储器52既可以是独立的,也可以跟处理器51集成在一起。
当所述存储器52是独立于处理器51之外的器件时,所述电子终端50还可以包括:
总线53,用于连接所述存储器52和处理器51。
本实施例还提供一种可读存储介质,可读存储介质中存储有计算机程序,当电子设备的至少一个处理器执行该计算机程序时,电子执行执行上述的各种实施方式提供的方法。
本实施例还提供一种程序产品,该程序产品包括计算机程序,该计算机程序存储在可读存储介质中。电子设备的至少一个处理器可以从可读存储介质读取该计算机程序,至少一个处理器执行该计算机程序使得电子设备实施上述的各种实施方式提供的方法。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (10)
1.一种轨道交通场景的行人检测方法,其特征在于,包括:
在视频帧图像中检测并获取铁轨区域的图像;其中,所述铁轨区域为所述视频帧图像中表征全部铁轨或铁轨的部分区段的区域;
放大所述铁轨区域的图像;
在放大后的铁轨区域的图像中检测行人目标;
根据所述行人目标在所述铁轨区域中的位置,以及所述铁轨区域在所述视频帧图像中的位置,在所述视频帧图像中标识所述行人目标。
2.根据权利要求1所述的方法,其特征在于,所述在视频帧图像中检测并获取铁轨区域的图像,包括:
利用经训练的第一神经网络,得到第一标识信息;其中,所述第一标识信息用于标识所述视频帧图像中所述铁轨区域的位置与尺寸;
根据所述第一标识信息,获取所述视频帧图像中铁轨区域的图像。
3.根据权利要求2所述的方法,其特征在于,所述第一神经网络是经过第一训练图像和第二训练图像训练得到的,所述第一训练图像为已标识铁轨区域的图像,所述第二训练图像为对所述第一训练图像进行缩放、裁剪、旋转后的图像。
4.根据权利要求2所述的方法,其特征在于,所述第一标识信息的数量为N个,其中,N为大于或等于2的整数,不同的第一标识信息分别用于标识所述视频帧图像中不同铁轨区域的位置与尺寸,不同的铁轨区域具体为所述视频帧图像中表征铁轨的不同区段的区域。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述铁轨区域为多边形区域;
所述放大所述铁轨区域的图像,包括:
根据所述铁轨区域的图像的第一坐标集合,以及预设的放大比例,确定放大后的铁轨区域的图像的第二坐标集合;
其中,所述第一坐标集合包括所述铁轨区域的图像的中心点在所述视频帧图像所处坐标系中的第一坐标,以及所述铁轨区域的图像的部分或全部顶点在所述坐标系中的第二坐标;所述第二坐标集合包括放大后的铁轨区域的图像的中心点在所述坐标系中的第三坐标,以及放大后的铁轨区域的图像的部分或全部顶点在所述坐标系中的第四坐标,所述第三坐标与所述第一坐标相同;
根据所述第二坐标集合,放大所述铁轨区域的图像。
6.根据权利要求5所述的方法,其特征在于,所述根据所述铁轨区域的图像的第一坐标集合,以及预设的放大比例,确定放大后的铁轨区域的图像的第二坐标集合之后,包括:
若所述第二坐标集合中的至少一个第四坐标的位置处于所述视频帧图像的范围外,则在保证所述第三坐标不变的同时,调整所述第四坐标,以使所述至少一个第四坐标处于所述视频帧图像的范围内和/或处于所述视频帧图像的边缘。
7.根据权利要求1至4任一项所述的方法,其特征在于,所述在放大后的铁轨区域的图像中检测行人目标,包括:
利用经训练的第二神经网络,得到第二标识信息;其中,所述第二标识信息用于标识铁轨区域中所述行人目标的位置与尺寸;
所述根据所述行人目标在所述铁轨区域中的位置,以及所述铁轨区域在所述视频帧图像中的位置,在所述视频帧图像中标识所述行人目标,包括:
根据所述铁轨区域在所述视频帧图像中的位置,以及所述第二标识信息,确定第三标识信息;所述第三标识信息用于标识所述视频帧图像中所述行人目标的位置与尺寸;
根据所述第三标识信息,在所述视频帧图像中标识所述行人目标。
8.根据权利要求7所述的方法,其特征在于,所述第二神经网络是经过第三训练图像和第四训练图像训练得到的,所述第三训练图像为已标识行人目标的图像,所述第四训练图像为对所述第三训练图像进行缩放、裁剪、旋转后的图像。
9.一种轨道交通场景的行人检测装置,其特征在于,包括:
第一检测模块,用于在视频帧图像中检测并获取铁轨区域的图像;其中,所述铁轨区域为所述视频帧图像中表征全部铁轨或铁轨的部分区段的区域;
放大模块,用于放大所述铁轨区域的图像;
第二检测模块,用于在放大后的铁轨区域的图像中检测行人目标;
标识模块,用于根据所述行人目标在所述铁轨区域中的位置,以及所述铁轨区域在所述视频帧图像中的位置,在所述视频帧图像中标识所述行人目标。
10.根据权利要求9所述的装置,其特征在于,所述第一检测模块,具体用于:
利用经训练的第一神经网络,得到第一标识信息;其中,所述第一标识信息用于标识所述视频帧图像中所述铁轨区域的位置与尺寸;
根据所述第一标识信息,获取所述视频帧图像中铁轨区域的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810240221.4A CN108491795B (zh) | 2018-03-22 | 2018-03-22 | 轨道交通场景的行人检测方法与装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810240221.4A CN108491795B (zh) | 2018-03-22 | 2018-03-22 | 轨道交通场景的行人检测方法与装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108491795A true CN108491795A (zh) | 2018-09-04 |
CN108491795B CN108491795B (zh) | 2022-05-13 |
Family
ID=63319215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810240221.4A Active CN108491795B (zh) | 2018-03-22 | 2018-03-22 | 轨道交通场景的行人检测方法与装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108491795B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110782443A (zh) * | 2019-10-23 | 2020-02-11 | 四川大学 | 一种铁路轨道缺陷检测方法和系统 |
CN111753766A (zh) * | 2020-06-28 | 2020-10-09 | 平安科技(深圳)有限公司 | 一种图像处理方法、装置、设备及介质 |
CN114067290A (zh) * | 2021-11-22 | 2022-02-18 | 天津天瞳威势电子科技有限公司 | 一种基于轨道交通的视觉感知方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102496001A (zh) * | 2011-11-15 | 2012-06-13 | 无锡港湾网络科技有限公司 | 一种视频监控目标自动检测的方法和系统 |
WO2012164804A1 (ja) * | 2011-06-02 | 2012-12-06 | パナソニック株式会社 | 物体検出装置、物体検出方法および物体検出プログラム |
CN103345644A (zh) * | 2013-06-17 | 2013-10-09 | 华为终端有限公司 | 在线训练的目标检测方法及装置 |
CN105224905A (zh) * | 2014-05-26 | 2016-01-06 | 中兴通讯股份有限公司 | 一种多目标逆向违规检测方法、装置及系统 |
CN107358177A (zh) * | 2017-06-27 | 2017-11-17 | 维拓智能科技(深圳)有限公司 | 一种基于图像分析的中远距离行人检测方法及终端设备 |
US20180039853A1 (en) * | 2016-08-02 | 2018-02-08 | Mitsubishi Electric Research Laboratories, Inc. | Object Detection System and Object Detection Method |
-
2018
- 2018-03-22 CN CN201810240221.4A patent/CN108491795B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012164804A1 (ja) * | 2011-06-02 | 2012-12-06 | パナソニック株式会社 | 物体検出装置、物体検出方法および物体検出プログラム |
CN102496001A (zh) * | 2011-11-15 | 2012-06-13 | 无锡港湾网络科技有限公司 | 一种视频监控目标自动检测的方法和系统 |
CN103345644A (zh) * | 2013-06-17 | 2013-10-09 | 华为终端有限公司 | 在线训练的目标检测方法及装置 |
US20160155241A1 (en) * | 2013-06-17 | 2016-06-02 | Huawei Device Co., Ltd. | Target Detection Method and Apparatus Based On Online Training |
CN105224905A (zh) * | 2014-05-26 | 2016-01-06 | 中兴通讯股份有限公司 | 一种多目标逆向违规检测方法、装置及系统 |
US20180039853A1 (en) * | 2016-08-02 | 2018-02-08 | Mitsubishi Electric Research Laboratories, Inc. | Object Detection System and Object Detection Method |
CN107358177A (zh) * | 2017-06-27 | 2017-11-17 | 维拓智能科技(深圳)有限公司 | 一种基于图像分析的中远距离行人检测方法及终端设备 |
Non-Patent Citations (2)
Title |
---|
ZHIJIE HUANG 等: "Pedestrian Detection Algorithm in Video Analysis Based on Centrist", 《2016 INTERNATIONAL CONFERENCE ON INTELLIGENT TRANSPORTATION, BIG DATA & SMART CITY (ICITBS)》 * |
陆星家 等: "基于隐 SVM 和混合高斯模型的目标检测算法", 《计算机工程》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110782443A (zh) * | 2019-10-23 | 2020-02-11 | 四川大学 | 一种铁路轨道缺陷检测方法和系统 |
CN110782443B (zh) * | 2019-10-23 | 2023-04-07 | 四川大学 | 一种铁路轨道缺陷检测方法和系统 |
CN111753766A (zh) * | 2020-06-28 | 2020-10-09 | 平安科技(深圳)有限公司 | 一种图像处理方法、装置、设备及介质 |
CN111753766B (zh) * | 2020-06-28 | 2024-08-27 | 平安科技(深圳)有限公司 | 一种图像处理方法、装置、设备及介质 |
CN114067290A (zh) * | 2021-11-22 | 2022-02-18 | 天津天瞳威势电子科技有限公司 | 一种基于轨道交通的视觉感知方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108491795B (zh) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110501018A (zh) | 一种服务于高精度地图生产的交通标志牌信息采集方法 | |
CN111967393A (zh) | 一种基于改进YOLOv4的安全帽佩戴检测方法 | |
CN108491795A (zh) | 轨道交通场景的行人检测方法与装置 | |
CN107705552A (zh) | 一种应急车道占用行为检测方法、装置及系统 | |
CN104268596B (zh) | 一种车牌识别器及其车牌检测方法与系统 | |
CN105426894B (zh) | 铁道塞钉图像检测方法及装置 | |
CN111444798B (zh) | 电动自行车驾驶行为的识别方法、装置和计算机设备 | |
CN106909886A (zh) | 一种基于深度学习的高精度交通标志检测方法及系统 | |
CN110991447B (zh) | 基于深度学习的列车车号精确定位与识别方法 | |
CN108717789A (zh) | 一种车辆样本的采集标注方法及装置 | |
JP6698191B1 (ja) | 路面標示不具合検出装置、路面標示不具合検出方法及び路面標示不具合検出プログラム | |
CN113505638B (zh) | 车流量的监测方法、监测装置及计算机可读存储介质 | |
CN112487894B (zh) | 基于人工智能的轨道交通保护区自动巡查方法及装置 | |
CN106205135B (zh) | 一种违章掉头车辆行为的检测方法、装置及系统和一种球机 | |
CN112084892B (zh) | 一种道路异常事件检测管理装置及其方法 | |
CN107480653A (zh) | 基于计算机视觉的客流量检测方法 | |
CN113903008A (zh) | 基于深度学习和轨迹跟踪的匝道出口车辆违法识别方法 | |
US20240270294A1 (en) | Systems and methods for auditing assets | |
CN117152971A (zh) | 一种基于高空全景视频的ai交通信号优化方法 | |
CN117710843A (zh) | 一种基于无人机视频的交叉口动态信号配时方案检测方法 | |
CN112989916A (zh) | 一种结合密度估计与目标检测的人群计数方法 | |
CN117612117A (zh) | 基于车载记录仪的路边近处杂草分割方法、系统及介质 | |
CN110147695A (zh) | 一种用于公交站点识别的站点标志牌和公交站点的识别系统 | |
CN115457532A (zh) | 违停车辆车牌检测方法、装置、存储介质和计算机设备 | |
CN116012724A (zh) | 基于车辆轨迹数据和计算机视觉的地图poi发现方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |