CN112699798A - 一种车路协同的交警动作识别方法和装置 - Google Patents

一种车路协同的交警动作识别方法和装置 Download PDF

Info

Publication number
CN112699798A
CN112699798A CN202011613476.4A CN202011613476A CN112699798A CN 112699798 A CN112699798 A CN 112699798A CN 202011613476 A CN202011613476 A CN 202011613476A CN 112699798 A CN112699798 A CN 112699798A
Authority
CN
China
Prior art keywords
vehicle
image
personnel
monitoring area
traffic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011613476.4A
Other languages
English (en)
Inventor
苏松剑
苏松志
蔡国榕
江文涛
吴俊�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lop Xiamen System Integration Co ltd
Ropt Technology Group Co ltd
Original Assignee
Lop Xiamen System Integration Co ltd
Ropt Technology Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lop Xiamen System Integration Co ltd, Ropt Technology Group Co ltd filed Critical Lop Xiamen System Integration Co ltd
Priority to CN202011613476.4A priority Critical patent/CN112699798A/zh
Publication of CN112699798A publication Critical patent/CN112699798A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种车路协同的交警动作识别方法和装置,通过获取在指挥监测区域拍摄到的包含人员的第一图像,并通过人脸识别技术对人员的身份进行识别,根据识别结果判断人员是否是合法交通指挥人员;获取在车辆监测区域拍摄到的车辆前方的包含人员的第二图像,并获取拍摄到的包含人员和车辆的第三图像;通过位置回归网络分别对第二图像和第三图像进行人体检测,将各自的颜色通道分别进行归一化并叠加得到双视角图片;将双视角图片输入深度卷积神经网络,输出分数最高的动作作为最终结果;将各个动作的三维模型生成的二维图片与第二局部图像输入姿态一致性判别网络,判断得到姿态是否具备一致性。本发明可以提高自动驾驶系统的安全性。

Description

一种车路协同的交警动作识别方法和装置
技术领域
本发明涉及行为识别领域,具体涉及一种车路协同的交警动作识别方法和装置。
背景技术
自动驾驶是当前人工智能智能的热点研究方向。对车辆感知到的场景进行理解和分析是自动驾驶中的核心技术。自动驾驶作为未来智能交通系统的重要组成部分,能够准确识别交警动作并及时作出判断是无人驾驶汽车安全行驶的重要保障。
现有的交警动作识别方法将常规的动作识别方法直接应用过来。主要的思路是:首先获取带标签的动作类别的训练数据集(图像或者视频);然后,利用机器学习技术构建分类器。常用的分类器有:支持向量机、随机森林和深度学习等。
目前对交警动作识别的研究有两大类:基于可穿戴式传感器的方法以及基于视觉传感器的方法,对于自动驾驶汽车而言基于视觉方法更具有可行性。传统的基于视觉的交警动作识别方法分为两步,首先基于视频序列提取交警手势的空间特征,其次对空间特征分类。然而由于交警的身高、衣着,交通场景光照以及复杂度等条件的影响,交警手势空间特征提取存在较大误差;同时传统的特征分类方法只能针对简单特定场景,而且模型泛化能力较差,无法满足实际应用中实时性与精度要求。
现有的交警动作识别方法将常规的动作识别方法直接应用过来。主要的思路是:首先获取带标签的(动作类别)的训练数据集(图像或者视频);然后,利用机器学习技术构建分类器。常用的分类器有:支持向量机、随机森林和深度学习等。
现有的方法没有解决的一个问题是:自动驾驶场景中的交警动作识别方法包含两个层面:
(1)要判断当前在车辆前方的人是否是交警;
(2)在步骤1的基础,利用现有的技术对交警的动作进行识别。
有鉴于此,建立一种车路协同的交警动作识别方法和装置是非常具有意义的。
发明内容
针对上述提到当自动驾驶车辆在十字路口时,如何确定是否有交警并理解交警的动作,从而决定驾驶策略等问题。本申请的实施例的目的在于提出了一种车路协同的交警动作识别方法和装置来解决以上背景技术部分提到的技术问题。
第一方面,本申请的实施例提供了一种车路协同的交警动作识别方法,包括以下步骤:
身份确认步骤,获取在指挥监测区域拍摄到的包含人员的第一图像,并通过人脸识别技术对人员的身份进行识别,得到识别结果,根据识别结果判断人员是否是合法交通指挥人员,若是则进入下一步骤,否则发出预警;
数据采集步骤,在车辆进入车辆监测区域后,对车辆发送指挥监测区域内有合法交通指挥人员的指示,获取在车辆监测区域拍摄到的车辆前方的包含人员的第二图像,并获取在指挥监测区域和车辆监测区域的附近拍摄到的包含人员和车辆的第三图像;
数据处理步骤,通过位置回归网络分别对第二图像和第三图像中的人员进行检测,获得包含人员的外接紧凑矩形框的第二局部图像和第三局部图像,将第二局部图像和第三局部图像的各自的颜色通道分别进行归一化并叠加得到双视角图片;
分类步骤,将双视角图片输入深度卷积神经网络,得到对应于人员的各个动作的分数,输出分数最高的动作作为最终结果;以及
验证步骤,通过具有各个动作的三维模型生成对应视角下的二维图片,将二维图片与最终结果所对应的第二局部图像输入姿态一致性判别网络,判断得到二维图像与最终结果所对应的第二局部图像的姿态是否具备一致性,若是,则表明最终结果是正确的,否则将车辆设置为人工驾驶模式,其中姿态一致性判别网络采用三层架构的多层感知机模型。
在一些实施例中,第三图像中人员的外接紧凑矩形框的高度大于100个像素,车辆的外接紧凑矩形框的宽度大于200个像素。根据第三图像上人员和车辆的像素大小可以清晰地看到指挥监测区域上的人员和车辆监测区域的车辆,便于后续对第三图像进行处理,获得不同视角下的人员的动作。
在一些实施例中,身份确认步骤具体包括:
当人员进入指挥监测区域,判断人员是否是交警着装的人体并站立在指挥监测区域,若是则进入下一步骤;
获取第一图像,基于第一图像进行人脸识别,得到识别结果;以及
根据识别结果与交通指挥系统当天的任务分配情况进行比对,得到比对结果,根据比对结果判断人员是否是合法交通指挥人员。
通过以上步骤,可以避免其他人员在指挥监测区域进行对自动驾驶的车辆进行误导指挥,造成其他安全隐患。
在一些实施例中,第一图像的高度大于60个像素。在此情况下可以拍摄到人员的人脸图片,人脸识别的准确度比较高。
在一些实施例中,数据采集步骤具体包括:
在车辆监测区域监测到车辆驶入,则建立与车辆的通信连接,并向车辆发送指挥监测区域内有合法交通指挥人员的指示;
当车辆对指示进行解析后,通过车辆上的图像采集设备拍摄获得车辆前方的第二图像;以及
在接收到第二图像后,获取到第三图像。
第二图像和第三图像从多个视角中获得,可以准确分析评估出交警的动作,提高动作识别的准确度。
在一些实施例中,还包括以下步骤:
在接收到第二图像的第n毫秒后,接收到车辆发送的获取最终结果的请求,若在m秒内无法发送最终结果或发送的最终结果为未识别,则将车辆设置为人工驾驶模式。
基于动作识别的最终结果切换车辆的人工驾驶和自动驾驶模式,实现车路协同创新一体化。
在一些实施例中,数据处理步骤中第二局部图像和第三局部图像归一化后具有固定大小,并至少包含RGB三个颜色通道,根据颜色通道分别进行叠加后转换为具有三维张量的双视角图片。通过对第二局部图像和第三局部图像结合进行归一化处理得到双视角图片,通过双视角进行动作识别,提高动作识别的准确度。
在一些实施例中,深度卷积神经网络的隐含层设置为5层,采用ReLU作为激活函数,隐含层的神经元的数目分别为200、150、100、50、25,深度卷积神经网络的损失函数采用交叉熵损失。经过训练后的深度卷积神经网络能够对交警的动作进行准确的识别。
在一些实施例中,数据处理步骤具体包括:在第二图像和第三图像上设置感兴趣区域,将感兴趣区域输入位置回归网络,输出第二局部图像和第三局部图像,其中位置回归网络采用包括输入、隐含层和输出层的全连接的卷积神经网络,隐含层有3个,隐含层的神经元数目分别为100、50、25,并采用距离平方损失函数。通过位置回归网络可以对第二图像和第三图像中的交警人员进行检测,得到具有紧凑矩形框的第二局部图像和第三局部图像。
第二方面,本申请的实施例还提出了一种车路协同的交警动作识别装置,包括:
身份确认模块,被配置为获取在指挥监测区域拍摄到的包含人员的第一图像,并通过人脸识别技术对人员的身份进行识别,得到识别结果,根据识别结果判断人员是否是合法交通指挥人员,若是则进入下一步骤,否则发出预警;
数据采集模块,被配置为在车辆进入车辆监测区域后,对车辆发送指挥监测区域内有合法交通指挥人员的指示,获取在车辆监测区域拍摄到的车辆前方的包含人员的第二图像,并获取在指挥监测区域和车辆监测区域的附近拍摄到的包含人员和车辆的第三图像;
数据处理模块,被配置为通过位置回归网络分别对第二图像和第三图像中的人员进行检测,获得包含人员的外接紧凑矩形框的第二局部图像和第三局部图像,将第二局部图像和第三局部图像的各自的颜色通道分别进行归一化并叠加得到双视角图片;
分类模块,被配置为将双视角图片输入深度卷积神经网络,得到对应于人员的各个动作的分数,输出分数最高的动作作为最终结果;以及
验证模块,被配置为通过具有各个动作的三维模型生成对应视角下的二维图片,将二维图片与最终结果所对应的第二局部图像输入姿态一致性判别网络,判断得到二维图像与最终结果所对应的第二局部图像的姿态是否具备一致性,若是,则表明最终结果是正确的,否则将车辆设置为人工驾驶模式,其中姿态一致性判别网络采用三层架构的多层感知机模型。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本发明公开了一种车路协同的交警动作识别方法和装置,通过获取在指挥监测区域拍摄到的包含人员的第一图像,并通过人脸识别技术对人员的身份进行识别,得到识别结果,根据识别结果判断人员是否是合法交通指挥人员,若是则进入下一步骤,否则发出预警;在车辆进入车辆监测区域后,对车辆发送指挥监测区域内有合法交通指挥人员的指示,获取在车辆监测区域拍摄到的车辆前方的包含人员的第二图像,并获取在指挥监测区域和车辆监测区域的附近拍摄到的包含人员和车辆的第三图像;通过位置回归网络分别对第二图像和第三图像进行人体检测,获得包含人员的外接紧凑矩形框的第二局部图像和第三局部图像,将第二局部图像和第三局部图像的各自的颜色通道分别进行归一化并叠加得到双视角图片;将双视角图片输入深度卷积神经网络,得到对应于人员的各个动作的分数,输出分数最高的动作作为最终结果;通过具有各个动作的三维模型生成对应视角下的二维图片,将二维图片与最终结果所对应的第二局部图像输入姿态一致性判别网络,判断得到二维图像与最终结果所对应的第二局部图像的姿态是否具备一致性,若是,则表明最终结果是正确的,否则将车辆设置为人工驾驶模式,其中姿态一致性判别网络采用三层架构的多层感知机模型。本发明可以提高自动驾驶系统的安全性,防止人为随便拦住自动驾驶车辆,对其进行错误指挥。同时,通过双视角图片作为深度卷积神经网络的输入,得到最终结果,并结合姿态一致性判别网络对最终结果进行验证,提高交警动作识别的准确率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请的一个实施例可以应用于其中的示例性装置架构图;
图2为本发明的实施例的车路协同的交警动作识别方法的流程示意图;
图3为本发明的实施例的车路协同的交警动作识别方法的步骤S1的流程示意图;
图4为本发明的实施例的车路协同的交警动作识别方法的步骤S2的流程示意图;
图5为本发明的实施例的车路协同的交警动作识别装置的示意图;
图6是适于用来实现本申请实施例的电子设备的计算机装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图1示出了可以应用本申请实施例的车路协同的交警动作识别方法或车路协同的交警动作识别装置的示例性装置架构100。
如图1所示,装置架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种应用,例如数据处理类应用、文件处理类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上传的文件或数据进行处理的后台数据处理服务器。后台数据处理服务器可以对获取的文件或数据进行处理,生成处理结果。
需要说明的是,本申请实施例所提供的车路协同的交警动作识别方法可以由服务器105执行,也可以由终端设备101、102、103执行,相应地,车路协同的交警动作识别装置可以设置于服务器105中,也可以设置于终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。在所处理的数据不需要从远程获取的情况下,上述装置架构可以不包括网络,而只需服务器或终端设备。
图2示出了本申请的实施例公开了一种车路协同的交警动作识别方法,包括以下步骤:
步骤S1,获取在指挥监测区域拍摄到的包含人员的第一图像,并通过人脸识别技术对人员的身份进行识别,得到识别结果,根据识别结果判断人员是否是合法交通指挥人员,若是则进入下一步骤,否则发出预警。
在具体的实施例中,如图3所示,步骤S1具体包括:
S11:当人员进入指挥监测区域,判断人员是否是交警着装的人体并站立在指挥监测区域,若是则进入下一步骤;
S12:获取第一图像,基于第一图像进行人脸识别,得到识别结果;以及
S13:根据识别结果与交通指挥系统当天的任务分配情况进行比对,得到比对结果,根据比对结果判断人员是否是合法交通指挥人员。
在具体的实施例中,第一图像的高度大于60个像素。在此情况下可以拍摄到人员的人脸图片,人脸识别的准确度比较高。通过对在指挥监测区域上人员的人脸识别和身份信息确认,可以避免其他人员在指挥监测区域进行对自动驾驶的车辆进行误导指挥,从而造成其他安全隐患。
此步骤的目的是确认站在指挥监测区域上的人员是一个具备交通指挥资格的人员。当摄像头上的交警人员检测程序发现指挥监测区域上有交警着装的人体站立时,则广播要求指挥监测区域上的人员面向摄像头,使得摄像头可以拍摄到人员的人脸图片,人脸的图片要求高度至少大于60个像素;当捕获到人脸图片后,智能硬件则启动人脸识别程序,进行人脸识别,将识别出来的人脸ID与交通指挥系统当天的任务分配相比对,若匹配一致,则确认指挥监测区域上的人员为合法交通指挥人员;如果不匹配,则启动报警程序,对该位置上的人员进行驱离。
步骤S2,在车辆进入车辆监测区域后,对车辆发送指挥监测区域内有合法交通指挥人员的指示,获取在车辆监测区域拍摄到的车辆前方的包含人员的第二图像,并获取在指挥监测区域和车辆监测区域的附近拍摄到的包含人员和车辆的第三图像。
在具体的实施例中,如图4所示,步骤S2具体包括:
S21:在车辆监测区域监测到车辆驶入,则建立与车辆的通信连接,并向车辆发送指挥监测区域内有合法交通指挥人员的指示;
S22:当车辆对指示进行解析后,通过车辆上的图像采集设备拍摄获得车辆前方的第二图像;以及
S23:在接收到第二图像后,获取到第三图像。
智能硬件实时监测车辆监测区域是否有车辆驶入,当车辆进入车辆监测区域后,智能硬件则要求与车辆建立通信连接,并向车辆发送报文,指示指挥监测区域有合法的交通指挥人员在指挥交通。当车辆解析完成来自智能硬件的报文得知此处有合法的交通指挥人员时,则启动车辆上的图像采集设备,拍摄获得车辆前方的第二图像,并将第二图像发送给智能硬件,同时要求智能硬件启动交警动作识别程序。当智能硬件获取得到第二图像后,则启动摄像头,获取第三图像。智能硬件上的交警动作识别程序接受到第二图像和第三图像之后执行步骤S3。
在具体的实施例中,为了让监控摄像头可以清晰看到指挥监测区域上的交警和车辆监测区域上的车辆,同时保证识别和检测算法的性能,第三图像中人员的外接紧凑矩形框的高度大于100个像素,车辆的外接紧凑矩形框的宽度大于200个像素。根据第三图像上人员和车辆的像素大小可以清晰地看到指挥监测区域上的人员和车辆监测区域的车辆,便于后续对第三图像进行处理,获得不同视角下的人员的动作。第二图像和第三图像从多个视角中获得,可以准确分析评估出交警的动作,提高动作识别的准确度。
步骤S3,通过位置回归网络分别对第二图像和第三图像中的人员进行检测,获得包含人员的外接紧凑矩形框的第二局部图像和第三局部图像,将第二局部图像和第三局部图像的各自的颜色通道分别进行归一化并叠加得到双视角图片。
在具体的实施例中,步骤S3具体包括:在第二图像和第三图像上设置感兴趣区域,将感兴趣区域输入位置回归网络,输出第二局部图像和第三局部图像,其中位置回归网络采用包括输入、隐含层和输出层的全连接的卷积神经网络,隐含层有3个,隐含层的神经元数目分别为100、50、25,并采用距离平方损失函数。通过位置回归网络可以对第二图像和第三图像中的交警人员进行检测,得到具有紧凑矩形框的第二局部图像和第三局部图像。
在具体的实施例中,步骤S3中第二局部图像和第三局部图像归一化后具有固定大小,并至少包含RGB三个颜色通道,根据颜色通道分别进行叠加后转换为具有三维张量的双视角图片。在优选的实施例中,第二局部图像和第三局部图像各自的颜色通道叠加起来,组成一个6*80*160的三维张量,即双视角图片。通过对第二局部图像和第三局部图像结合进行归一化处理得到双视角图片,通过双视角进行动作识别,提高动作识别的准确度。
步骤S4,将双视角图片输入深度卷积神经网络,得到对应于人员的各个动作的分数,输出分数最高的动作作为最终结果。
在具体的实施例中,将双视角图片输入到深度卷积神经网络中,得到各个动作的得分,其中score_i表示第i个交警动作的得分值,然后输入得分最高的交警动作,作为最终结果。深度卷积神经网络的隐含层设置为5层,采用ReLU作为激活函数,隐含层的神经元的数目分别为200、150、100、50、25,深度卷积神经网络的损失函数采用交叉熵损失。经过训练后的深度卷积神经网络能够对交警的动作进行准确的识别。
步骤S5,通过具有各个动作的三维模型生成对应视角下的二维图片,将二维图片与最终结果所对应的第二局部图像输入姿态一致性判别网络,判断得到二维图像与最终结果所对应的第二局部图像的姿态是否具备一致性,若是,则表明最终结果是正确的,否则将车辆设置为人工驾驶模式,其中姿态一致性判别网络采用三层架构的多层感知机模型。
在具体的实施例中,利用事先准备好的各个交警动作的三维CAD模型,根据场景的几何结构,设置焦距和光照等参数,生成对应视角下的二维图片,将二维图片与最终结果所对应的第二局部图像输入姿态一致性判别网络,姿态一致性判别网络的隐含层的数目为100。姿态一致性判别网络的训练过程为:首先获取n对<Ii,Ji,yi>,其中Ii表示三维模型成像后的交警图片,Ji表示紧凑矩形框中的交警图片,yi=0或者1,当yi=0时,表示二者的Ii和Ji的动作是一致,否则相反。通过以上验证方式可以进一步确定通过双视角图片预测得到的动作是否正确,进一步提高交警动作识别的准确度。
在具体的实施例中,还包括以下步骤:
在接收到第二图像的第n毫秒后,接收到车辆发送的获取最终结果的请求,若在m秒内无法发送最终结果或发送的最终结果为未识别,则将车辆设置为人工驾驶模式。基于动作识别的最终结果切换车辆的人工驾驶和自动驾驶模式,实现车路协同创新一体化。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种车路协同的交警动作识别装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
本申请的实施例还提出的一种车路协同的交警动作识别装置,包括:
身份确认模块1,被配置为获取在指挥监测区域拍摄到的包含人员的第一图像,并通过人脸识别技术对人员的身份进行识别,得到识别结果,根据识别结果判断人员是否是合法交通指挥人员,若是则进入下一步骤,否则发出预警;
数据采集模块2,被配置为在车辆进入车辆监测区域后,对车辆发送指挥监测区域内有合法交通指挥人员的指示,获取在车辆监测区域拍摄到的车辆前方的包含人员的第二图像,并获取在指挥监测区域和车辆监测区域的附近拍摄到的包含人员和车辆的第三图像;
数据处理模块3,被配置为通过位置回归网络分别对第二图像和第三图像中的人员进行检测,获得包含人员的外接紧凑矩形框的第二局部图像和第三局部图像,将第二局部图像和第三局部图像的各自的颜色通道分别进行归一化并叠加得到双视角图片;
分类模块4,被配置为将双视角图片输入深度卷积神经网络,得到对应于人员的各个动作的分数,输出分数最高的动作作为最终结果;以及
验证模块5,被配置为通过具有各个动作的三维模型生成对应视角下的二维图片,将二维图片与最终结果所对应的第二局部图像输入姿态一致性判别网络,判断得到二维图像与最终结果所对应的第二局部图像的姿态是否具备一致性,若是,则表明最终结果是正确的,否则将车辆设置为人工驾驶模式,其中姿态一致性判别网络采用三层架构的多层感知机模型。
本发明公开了一种车路协同的交警动作识别方法和装置,通过获取在指挥监测区域拍摄到的包含人员的第一图像,并通过人脸识别技术对人员的身份进行识别,得到识别结果,根据识别结果判断人员是否是合法交通指挥人员,若是则进入下一步骤,否则发出预警;在车辆进入车辆监测区域后,对车辆发送指挥监测区域内有合法交通指挥人员的指示,获取在车辆监测区域拍摄到的车辆前方的包含人员的第二图像,并获取在指挥监测区域和车辆监测区域的附近拍摄到的包含人员和车辆的第三图像;通过位置回归网络分别对第二图像和第三图像进行人体检测,获得包含人员的外接紧凑矩形框的第二局部图像和第三局部图像,将第二局部图像和第三局部图像的各自的颜色通道分别进行归一化并叠加得到双视角图片;将双视角图片输入深度卷积神经网络,得到对应于人员的各个动作的分数,输出分数最高的动作作为最终结果;通过具有各个动作的三维模型生成对应视角下的二维图片,将二维图片与最终结果所对应的第二局部图像输入姿态一致性判别网络,判断得到二维图像与最终结果所对应的第二局部图像的姿态是否具备一致性,若是,则表明最终结果是正确的,否则将车辆设置为人工驾驶模式,其中姿态一致性判别网络采用三层架构的多层感知机模型。本发明可以提高自动驾驶系统的安全性,防止人为随便拦住自动驾驶车辆,对其进行错误指挥。同时,通过双视角图片作为深度卷积神经网络的输入,得到最终结果,并结合姿态一致性判别网络对最终结果进行验证,提高交警动作识别的准确率。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器或终端设备)的计算机装置600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机装置600包括中央处理单元(CPU)601和图形处理器(GPU)602,其可以根据存储在只读存储器(ROM)603中的程序或者从存储部分609加载到随机访问存储器(RAM)604中的程序而执行各种适当的动作和处理。在RAM 604中,还存储有装置600操作所需的各种程序和数据。CPU 601、GPU602、ROM 603以及RAM 604通过总线605彼此相连。输入/输出(I/O)接口606也连接至总线605。
以下部件连接至I/O接口606:包括键盘、鼠标等的输入部分607;包括诸如、液晶显示器(LCD)等以及扬声器等的输出部分608;包括硬盘等的存储部分609;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分610。通信部分610经由诸如因特网的网络执行通信处理。驱动器611也可以根据需要连接至I/O接口606。可拆卸介质612,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器611上,以便于从其上读出的计算机程序根据需要被安装入存储部分609。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分610从网络上被下载和安装,和/或从可拆卸介质612被安装。在该计算机程序被中央处理单元(CPU)601和图形处理器(GPU)602执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的装置、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行装置、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行装置、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的装置来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取在指挥监测区域拍摄到的包含人员的第一图像,并通过人脸识别技术对人员的身份进行识别,得到识别结果,根据识别结果判断人员是否是合法交通指挥人员,若是则进入下一步骤,否则发出预警;在车辆进入车辆监测区域后,对车辆发送指挥监测区域内有合法交通指挥人员的指示,获取在车辆监测区域拍摄到的车辆前方的包含人员的第二图像,并获取在指挥监测区域和车辆监测区域的附近拍摄到的包含人员和车辆的第三图像;通过位置回归网络分别对第二图像和第三图像进行人体检测,获得包含人员的外接紧凑矩形框的第二局部图像和第三局部图像,将第二局部图像和第三局部图像的各自的颜色通道分别进行归一化并叠加得到双视角图片;将双视角图片输入深度卷积神经网络,得到对应于人员的各个动作的分数,输出分数最高的动作作为最终结果;通过具有各个动作的三维模型生成对应视角下的二维图片,将二维图片与最终结果所对应的第二局部图像输入姿态一致性判别网络,判断得到二维图像与最终结果所对应的第二局部图像的姿态是否具备一致性,若是,则表明最终结果是正确的,否则将车辆设置为人工驾驶模式,其中姿态一致性判别网络采用三层架构的多层感知机模型。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (12)

1.一种车路协同的交警动作识别方法,其特征在于,包括以下步骤:
身份确认步骤,获取在指挥监测区域拍摄到的包含人员的第一图像,并通过人脸识别技术对所述人员的身份进行识别,得到识别结果,根据所述识别结果判断所述人员是否是合法交通指挥人员,若是则进入下一步骤,否则发出预警;
数据采集步骤,在车辆进入车辆监测区域后,对所述车辆发送所述指挥监测区域内有合法交通指挥人员的指示,获取在所述车辆监测区域拍摄到的所述车辆前方的包含所述人员的第二图像,并获取在所述指挥监测区域和所述车辆监测区域的附近拍摄到的包含所述人员和所述车辆的第三图像;
数据处理步骤,通过位置回归网络分别对所述第二图像和所述第三图像中的所述人员进行检测,获得包含所述人员的外接紧凑矩形框的第二局部图像和第三局部图像,将所述第二局部图像和所述第三局部图像的各自的颜色通道分别进行归一化并叠加得到双视角图片;
分类步骤,将所述双视角图片输入深度卷积神经网络,得到对应于所述人员的各个动作的分数,输出分数最高的动作作为最终结果;以及
验证步骤,通过具有各个动作的三维模型生成对应视角下的二维图片,将所述二维图片与所述最终结果所对应的所述第二局部图像输入姿态一致性判别网络,判断得到所述二维图像与所述最终结果所对应的所述第二局部图像的姿态是否具备一致性,若是,则表明所述最终结果是正确的,否则将所述车辆设置为人工驾驶模式,其中所述姿态一致性判别网络采用三层架构的多层感知机模型。
2.根据权利要求1所述的车路协同的交警动作识别方法,其特征在于,所述第三图像中所述人员的外接紧凑矩形框的高度大于100个像素,所述车辆的外接紧凑矩形框的宽度大于200个像素。
3.根据权利要求1所述的车路协同的交警动作识别方法,其特征在于,所述身份确认步骤具体包括:
当所述人员进入所述指挥监测区域,判断所述人员是否是交警着装的人体并站立在所述指挥监测区域,若是则进入下一步骤;
获取所述第一图像,基于所述第一图像进行人脸识别,得到所述识别结果;以及
根据所述识别结果与交通指挥系统当天的任务分配情况进行比对,得到比对结果,根据所述比对结果判断所述人员是否是合法交通指挥人员。
4.根据权利要求1所述的车路协同的交警动作识别方法,其特征在于,所述第一图像的高度大于60个像素。
5.根据权利要求1所述的车路协同的交警动作识别方法,其特征在于,所述数据采集步骤具体包括:
在所述车辆监测区域监测到所述车辆驶入,则建立与所述车辆的通信连接,并向所述车辆发送所述指挥监测区域内有合法交通指挥人员的指示;
当所述车辆对所述指示进行解析后,通过所述车辆上的图像采集设备拍摄获得所述车辆前方的所述第二图像;以及
在接收到所述第二图像后,获取到所述第三图像。
6.根据权利要求5所述的车路协同的交警动作识别方法,其特征在于,还包括以下步骤:
在接收到所述第二图像的第n毫秒后,接收到所述车辆发送的获取所述最终结果的请求,若在m秒内无法发送所述最终结果或发送的所述最终结果为未识别,则将所述车辆设置为人工驾驶模式。
7.根据权利要求1-6中任一项所述的车路协同的交警动作识别方法,其特征在于,所述数据处理步骤中所述第二局部图像和所述第三局部图像归一化后具有固定大小,并至少包含RGB三个颜色通道,根据所述颜色通道分别进行叠加后转换为具有三维张量的所述双视角图片。
8.根据权利要求1-6中任一项所述的车路协同的交警动作识别方法,其特征在于,所述深度卷积神经网络的隐含层设置为5层,采用ReLU作为激活函数,所述隐含层的神经元的数目分别为200、150、100、50、25,所述深度卷积神经网络的损失函数采用交叉熵损失。
9.根据权利要求1-6中任一项所述的车路协同的交警动作识别方法,其特征在于,所述数据处理步骤具体包括:在所述第二图像和所述第三图像上设置感兴趣区域,将所述感兴趣区域输入所述位置回归网络,输出所述第二局部图像和所述第三局部图像,其中所述位置回归网络采用包括输入、隐含层和输出层的全连接的卷积神经网络,所述隐含层有3个,所述隐含层的神经元数目分别为100、50、25,并采用距离平方损失函数。
10.一种车路协同的交警动作识别装置,其特征在于,包括:
身份确认模块,被配置为获取在指挥监测区域拍摄到的包含人员的第一图像,并通过人脸识别技术对所述人员的身份进行识别,得到识别结果,根据所述识别结果判断所述人员是否是合法交通指挥人员,若是则进入下一步骤,否则发出预警;
数据采集模块,被配置为在车辆进入车辆监测区域后,对所述车辆发送所述指挥监测区域内有合法交通指挥人员的指示,获取在所述车辆监测区域拍摄到的所述车辆前方的包含所述人员的第二图像,并获取在所述指挥监测区域和所述车辆监测区域的附近拍摄到的包含所述人员和所述车辆的第三图像;
数据处理模块,被配置为通过位置回归网络分别对所述第二图像和所述第三图像中的所述人员进行检测,获得包含所述人员的外接紧凑矩形框的第二局部图像和第三局部图像,将所述第二局部图像和所述第三局部图像的各自的颜色通道分别进行归一化并叠加得到双视角图片;
分类模块,被配置为将所述双视角图片输入深度卷积神经网络,得到对应于所述人员的各个动作的分数,输出分数最高的动作作为最终结果;以及
验证模块,被配置为通过具有各个动作的三维模型生成对应视角下的二维图片,将所述二维图片与所述最终结果所对应的所述第二局部图像输入姿态一致性判别网络,判断得到所述二维图像与所述最终结果所对应的所述第二局部图像的姿态是否具备一致性,若是,则表明所述最终结果是正确的,否则将所述车辆设置为人工驾驶模式,其中所述姿态一致性判别网络采用三层架构的多层感知机模型。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-9中任一所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-9中任一所述的方法。
CN202011613476.4A 2020-12-30 2020-12-30 一种车路协同的交警动作识别方法和装置 Pending CN112699798A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011613476.4A CN112699798A (zh) 2020-12-30 2020-12-30 一种车路协同的交警动作识别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011613476.4A CN112699798A (zh) 2020-12-30 2020-12-30 一种车路协同的交警动作识别方法和装置

Publications (1)

Publication Number Publication Date
CN112699798A true CN112699798A (zh) 2021-04-23

Family

ID=75512692

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011613476.4A Pending CN112699798A (zh) 2020-12-30 2020-12-30 一种车路协同的交警动作识别方法和装置

Country Status (1)

Country Link
CN (1) CN112699798A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114546110A (zh) * 2022-01-29 2022-05-27 歌尔科技有限公司 手势操作方法、装置、耳机设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114546110A (zh) * 2022-01-29 2022-05-27 歌尔科技有限公司 手势操作方法、装置、耳机设备及存储介质

Similar Documents

Publication Publication Date Title
Zhang et al. Edge video analytics for public safety: A review
KR102151365B1 (ko) 이미지 기반 차량 손실 평가 방법, 장치 및 시스템, 및 전자 디바이스
KR102418446B1 (ko) 픽쳐 기반의 차량 손해 평가 방법 및 장치, 및 전자 디바이스
CA3160731A1 (en) Interactive behavior recognizing method, device, computer equipment and storage medium
CN111242097A (zh) 一种人脸识别方法、装置、计算机可读介质及电子设备
CN111325107B (zh) 检测模型训练方法、装置、电子设备和可读存储介质
CN107832721B (zh) 用于输出信息的方法和装置
KR20180054407A (ko) 로봇 시스템
Kumtepe et al. Driver aggressiveness detection via multisensory data fusion
CN114926766A (zh) 识别方法及装置、设备、计算机可读存储介质
WO2023279799A1 (zh) 对象识别方法、装置和电子系统
CN113111782A (zh) 基于显著对象检测的视频监控方法及装置
CN111126411B (zh) 一种异常行为识别方法及装置
CN111783674A (zh) 一种基于ar眼镜的人脸识别方法和系统
KR101350882B1 (ko) 영상 분석 서버
CN108881846B (zh) 信息融合方法、装置及计算机可读存储介质
CN112699798A (zh) 一种车路协同的交警动作识别方法和装置
CN111310595B (zh) 用于生成信息的方法和装置
CN111241918B (zh) 一种基于人脸识别的车用防跟踪方法及系统
CN112528825A (zh) 一种基于图像识别的车站乘客招援服务方法
US20240046612A1 (en) Fusion-based sensing intelligence and reporting
KR20230166840A (ko) 인공지능을 이용한 객체 이동 경로 확인 방법
CN115223141A (zh) 交通灯检测方法、电子设备及存储介质
US11508241B2 (en) Parking area mapping using image-stream derived vehicle description and space information
Tsiktsiris et al. A novel image and audio-based artificial intelligence service for security applications in autonomous vehicles

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination