CN109934045B - 行人检测方法和装置 - Google Patents
行人检测方法和装置 Download PDFInfo
- Publication number
- CN109934045B CN109934045B CN201711346003.0A CN201711346003A CN109934045B CN 109934045 B CN109934045 B CN 109934045B CN 201711346003 A CN201711346003 A CN 201711346003A CN 109934045 B CN109934045 B CN 109934045B
- Authority
- CN
- China
- Prior art keywords
- information
- image
- sample
- image information
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本申请实施例公开了行人检测方法和装置。该方法的一具体实施方式包括:接收图像采集设备发送的图像信息,其中,图像信息包括平面图像信息和景深图像信息;提取图像信息的相关信息,其中,相关信息包括以下至少一项:颜色信息、语义信息和景深信息;将相关信息输入预先训练的卷积神经网络,得到图像信息的行人检测结果,其中,卷积神经网络用于检测图像中的行人信息;响应于确定图像信息中存在行人信息,对行人信息在图像信息中的位置进行标注,生成反馈信息。该实施方式可以有助于提高行人检测精度。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及图像处理技术领域,尤其涉及行人检测方法和装置。
背景技术
行人检测(Pedestrian Detection)是利用计算机视觉技术判断图像或者视频序列中是否存在行人并给予精确定位。该技术可广泛应用于人工智能、车辆辅助驾驶系统、智能机器人、智能视频监控、人体行为分析、智能交通等领域。由于行人兼具刚性和柔性物体的特性,外观易受穿着、尺度、遮挡、姿态和视角等影响,使得行人检测成为计算机视觉领域中一个既具有研究价值同时又极具挑战性的热门课题。
发明内容
本申请实施例提出了行人检测方法和装置。
第一方面,本申请实施例提供了一种行人检测方法,包括:接收图像采集设备发送的图像信息,其中,图像信息包括平面图像信息和景深图像信息;提取图像信息的相关信息,其中,相关信息包括以下至少一项:颜色信息、语义信息和景深信息;将相关信息输入预先训练的卷积神经网络,得到图像信息的行人检测结果,其中,卷积神经网络用于检测图像中的行人信息;响应于确定图像信息中存在行人信息,对行人信息在图像信息中的位置进行标注,生成反馈信息。
在一些实施例中,提取图像信息的相关信息,包括以下至少一项:根据平面图像信息,提取图像信息的颜色信息;对平面图像信息进行语义分割处理,得到图像信息的语义信息;根据景深图像信息,提取图像信息的景深信息。
在一些实施例中,对平面图像信息进行语义分割处理,得到图像信息的语义信息,包括:利用全卷积神经网络,将平面图像信息的像素数据转换为二维矩阵,并对二维矩阵进行池化、反卷积处理;利用全连接条件随机场、马尔科夫随机场或高斯条件随机场,对处理后的二维矩阵进行优化,得到图像信息的分割图像信息。
在一些实施例中,卷积神经网络通过以下步骤训练得到:获取样本图像和与样本图像对应的目标物标记数据,其中,样本图像包括平面样本图像和景深样本图像,目标物标记数据包括行人标记数据;对样本图像进行预处理,以使处理后的样本图像满足预设像素数;提取处理后的样本图像的样本信息,其中,样本信息包括颜色信息、语义信息和景深信息;将样本信息作为输入,目标物标记数据作为输出,训练得到卷积神经网络。
在一些实施例中,将样本信息作为输入,目标物标记数据作为输出,训练得到卷积神经网络,包括:将样本信息作为输入,目标物标记数据作为输出,利用端到端的深度学习目标检测方法来训练得到卷积神经网络。
第二方面,本申请实施例提供了一种行人检测装置,包括:接收单元,配置用于接收图像采集设备发送的图像信息,其中,图像信息包括平面图像信息和景深图像信息;提取单元,配置用于提取图像信息的相关信息,其中,相关信息包括以下至少一项:颜色信息、语义信息和景深信息;检测单元,配置用于将相关信息输入预先训练的卷积神经网络,得到图像信息的行人检测结果,其中,卷积神经网络用于检测图像中的行人信息;生成单元,配置用于响应于确定图像信息中存在行人信息,对行人信息在图像信息中的位置进行标注,生成反馈信息。
在一些实施例中,提取单元包括以下至少一项:颜色提取子单元,配置用于根据平面图像信息,提取图像信息的颜色信息;语义提取子单元,配置用于对平面图像信息进行语义分割处理,得到图像信息的语义信息;景深提取子单元,配置用于根据景深图像信息,提取图像信息的景深信息。
在一些实施例中,语义提取子单元进一步配置用于:利用全卷积神经网络,将平面图像信息的像素数据转换为二维矩阵,并对二维矩阵进行池化、反卷积处理;利用全连接条件随机场、马尔科夫随机场或高斯条件随机场,对处理后的二维矩阵进行优化,得到图像信息的分割图像信息。
在一些实施例中,卷积神经网络通过以下步骤训练得到:获取样本图像和与样本图像对应的目标物标记数据,其中,样本图像包括平面样本图像和景深样本图像,目标物标记数据包括行人标记数据;对样本图像进行预处理,以使处理后的样本图像满足预设像素数;提取处理后的样本图像的样本信息,其中,样本信息包括颜色信息、语义信息和景深信息;将样本信息作为输入,目标物标记数据作为输出,训练得到卷积神经网络。
在一些实施例中,将样本信息作为输入,目标物标记数据作为输出,训练得到卷积神经网络,包括:将样本信息作为输入,目标物标记数据作为输出,利用端到端的深度学习目标检测方法来训练得到卷积神经网络。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上述第一方面中任一实施例所描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序。该计算机程序被处理器执行时实现如上述第一方面中任一实施例所描述的方法。
本申请实施例提供的行人检测方法和装置,通过接收图像采集设备发送的图像信息,从而可以提取该图像信息的相关信息。其中,图像信息可以包括平面图像信息和景深图像信息;相关信息可以包括以下至少一项:颜色信息、语义信息和景深信息。进而将提取的相关信息输入预先训练的卷积神经网络中,可以得到该图像信息的行人检测结果。其中,卷积神经网络可以用于检测图像中的行人信息。这样,根据行人检测结果,若确定该图像信息中存在行人信息,则可以对行人信息在该图像信息中的位置进行标注,并生成反馈信息。这样有助于提高行人检测精度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的行人检测方法的一个实施例的流程图;
图3是根据本申请的行人检测方法的应用场景的示意图;
图4是根据本申请的行人检测装置的一个实施例的结构示意图;
图5是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的行人检测方法或行人检测装置的示例性系统架构100。
如图1所示,系统架构100可以包括图像采集设备101、102,网络103、105,服务器104和终端106、107。网络103用以在图像采集设备101、102与服务器104之间提供通信链路的介质。网络105用以在服务器104与终端106、107之间提供通信链路的介质。网络103、105可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
图像采集设备101、102可以是各种用于采集图像的设备,例如摄像头、相机、传感器等。在这里,图像采集设备可以是普通的常规摄像头,用于采集平面图像;还可以是景深摄像头,用于采集景深图像。其中,景深(DOF,Depth of Field),一般是指在摄影机镜头或其他成像器前沿能够取得清晰图像的成像所测定的被摄物体前后距离范围。即在聚焦完成后,在焦点前后的范围内都能形成清晰的像,这一前一后的距离范围,便叫做景深。而光圈、镜头、及拍摄物的距离是影响景深的重要因素。
用户可以使用终端106、107通过网络105与服务器104进行交互,以接收或发送消息等。终端106、107上可以安装有各种客户端应用,例如行人检测类应用、图像显示类应用、网页浏览器应用和即时通讯工具等。
在这里,终端106、107可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。
服务器104可以是提供各种服务的服务器,例如对终端106、107上所安装的应用提供支持的后台服务器。同时,服务器104还可以接收图像采集设备101、102发送的图像信息,并对该图像信息进行分析、检测等处理。还可以将处理结果(例如生成的反馈信息)发送给终端106、107。
需要说明的是,本申请实施例所提供的行人检测方法一般由服务器104执行,相应地,行人检测装置一般设置于服务器104中。
应该理解,图1中的图像采集设备、网络、服务器和终端的数目仅仅是示意性的。根据实现需要,可以具有任意数目的图像采集设备、网络、服务器和终端。
继续参考图2,示出了根据本申请的行人检测方法的一个实施例的流程200。该行人检测方法可以包括以下步骤:
步骤201,接收图像采集设备发送的图像信息。
在本实施例中,行人检测方法运行于其上的电子设备(例如图1所示的服务器104)可以通过有线连接方式或无线连接方式,接收图像采集设备(例如图1所示的图像采集设备101、102)发送的图像信息。其中,图像信息可以包括平面图像信息和景深图像信息。
在本实施例中,图像采集设备的具体结构在本申请中并不限制,例如图像采集设备可以是具有两个独立摄像头的设备。这两个独立摄像头中的一个可以是常规摄像头,用于采集平面图像信息;而另一个可以是景深摄像头,用于采集景深图像信息。再例如图像采集设备还可以是集成摄像头,用于同时采集平面图像信息和景深图像信息。
在这里,平面图像信息可以包括分辨率信息、尺寸信息、颜色RGB(red greenblue,红绿蓝)信息或灰度信息等。景深图像信息可以包括景深信息。其中,平面图像和景深图像可以是彩色图像,也可以是灰度图像。
步骤202,提取图像信息的相关信息。
在本实施例中,电子设备可以提取步骤201中接收的图像信息的相关信息。其中,该相关信息可以包括以下至少一项:颜色信息、语义信息和景深信息。颜色信息可以是RGB值,即红、绿、蓝三个通道的颜色值。语义信息可以是对图像进行语义分割后的信息。景深信息可以是图像中各物体之间的距离信息。
在本实施例的一些可选地实现方式中,电子设备可以根据平面图像信息,提取图像信息的颜色信息。对平面图像信息进行语义分割处理,得到图像信息的语义信息;根据景深图像信息,提取图像信息的景深信息。
例如若平面图像信息为彩色平面图像信息,则电子设备可以直接获取其颜色信息。再例如若平面图像信息为灰度图像信息,则电子设备可以将灰度值转换为RGB值,从而获取其颜色信息。可以理解的是,若景深图像信息为彩色图像信息,电子设备也可以从景深图像中获取图像信息的语义信息。
在这里,电子设备可以利用各种常用的语义分割方法,来对平面图像信息进行语义分割处理。例如,电子设备可以利用图划分方法(Normalized cut,简称“N-cut”)。该方法是基于图划分(Graph partitioning)的语义分割方法中最著名的方法之一,即提出一种考虑全局信息的方法来进行图划分。再例如,电子设备也可以通过交互式图像语义分割方法(Grab cut)。该方法与N-cut一样,同样也是基于图划分,不过是其改进版本。该方法利用了图像中的纹理(颜色)信息和边界(反差)信息,只要少量的用户交互操作即可得到比较好的前后背景分割结果。
可选地,为了提高语义分割结果的精确度,电子设备首先可以利用全卷积神经网络(FCN,Fully Convolutional Networks),对平面图像信息进行卷积,即将平面图像信息的像素数据转换为二维矩阵,并对二维矩阵进行池化、反卷积处理。然后,可以利用全连接条件随机场(fully connected conditional random fields)、马尔科夫随机场或高斯条件随机场,对处理后的二维矩阵进行优化,得到图像信息的分割图像信息。在这里,全卷积神经网络可以接受任意大小的输入图像,而不用要求所有的训练图像和测试图像具有同样的尺寸。同时,因为避免了使用像素块而带来的重复存储和计算卷积的问题,所以处理效率更加高效。
进一步地,为了使语义分割结果更加精细,电子设备还可以利用DeepLab语义分割方法,来对平面图像信息进行语义分割。该方法通过带孔卷积(Atrous Convolution)既能够保证池化后的感受野不变,从而可以微调整(fine tune),同时也能保证输出的结果更加精细。其中,感受野可以理解为输出某个节点的响应对应的输入图像的区域。
可以理解的是,上述各种语义分割方法已在现有技术中得到广泛应用,而且是可市售的,此处不再赘述。
可选地,电子设备可以根据图像采集设备的位置信息和配置参数信息(如镜头参数)、图像信息中的物体与图像采集设备间的距离等信息,从而可以提取出图像信息的景深信息。
步骤203,将相关信息输入预先训练的卷积神经网络,得到图像信息的行人检测结果。
在本实施例中,电子设备可以将步骤202中提取的相关信息输入至预先训练的卷积神经网络。卷积神经网络可以根据输入的相关信息,对图像信息中的行人信息进行检测,并得到图像信息的行人检测结果。其中,卷积神经网络可以用于检测图像中的行人信息。行人检测结果可以包括图像中是否存在行人图像以及行人图像在图像中的位置。
在本实施例的一些可选地实现方式中,电子设备中可以预先存储有多个卷积神经网络,每个卷积神经网络的输入信息不同,即对应不同的相关信息。电子设备可以将提取的不同的相关信息分别输入对应的卷积神经网络,从而得到与输入的相关信息对应的图像信息的行人检测结果。例如电子设备可以将颜色信息、语义信息和景深信息分别输入卷积神经网络A、B和C,从而分别得到图像信息的行人检测结果a、b和c。接着,电子设备可以根据得到的行人检测结果a、b和c,最终确定图像信息的行人检测结果。
此时,上述预先存储的多个卷积神经网络可以通过以下步骤训练得到:首先,电子设备可以获取样本图像以及与样本图像对应的行人标记数据;接着,电子设备可以提取样本图像的样本颜色信息、样本语义信息和样本景深信息;之后,电子设备可以将样本颜色信息、样本语义信息和样本景深信息分别作为三个卷积神经网络的输入,并将行人标记数据均作为三个卷积神经网络的输出,从而训练得到三个不同的卷积神经网络。其中,行人标记数据可以包括以下至少一项:行人图像在样本图像中的位置信息、行人的轮廓图像在样本图像中的位置信息和行人标识(如用于标记行人图像的标注框)在样本图像中的位置信息等数据。需要说明的是,为了提取样本景深信息,样本图像中可以包含样本景深图像。
可选地,为了提高卷积神经网络的适用范围和行人检测效率,可以通过以下步骤训练得到:
首先,电子设备可以获取样本图像和与样本图像对应的目标物标记数据。其中,样本图像可以包括平面样本图像和景深样本图像。目标物标记数据可以是包括行人标记数据的数据。在这里,目标物不仅可以包括人,还可以包括图像中的其他物(如动物、植物、交通工具等)。目标物标记数据同样可以包括以下至少一项:目标物图像在样本图像中的位置信息、目标物的轮廓图像在样本图像中的位置信息和目标物标识在样本图像中的位置信息等数据。
接着,电子设备可以对样本图像进行预处理,以使处理后的样本图像满足预设像素数(如100*100像素)。也就是说,对样本图像的尺寸没有限定。电子设备在获取样本图像后,可以先计算其分辨率尺寸。若不满足预设像素数,则电子设备可以对该样本图像进行预处理(如放大或缩小),从而可以使各样本图像的分别率尺寸相同。
之后,电子设备可以提取处理后的样本图像的样本信息。其中,样本信息可以包括颜色信息、语义信息和景深信息。这里的提取过程可以参见步骤202中的相关描述,此处不再赘述。
最后,电子设备可以将提取的样本信息作为输入,并将目标物标记数据作为输出,训练得到卷积神经网络。也就是说,通过采集多通道的信息来对卷积神经网络进行训练,这样可以提高检测精度。
进一步地,可以利用端到端的深度学习目标检测方法(如YOLO,you only lookonce或者SSD,single shot multi-box detector)来训练得到卷积神经网络。这种端到端(End-to-End)的检测方法将目标检测转换为回归问题,而无需区域提名(RegionProposal),也就是无需找出可能的感兴趣区域(Region Of Interest,ROI)。而且可以把目标判定和目标识别合二为一,所以识别性能可以有很大提升。
具体地,1)对同一时刻的多通道样本图像(平面样本图像和景深样本图像)进行尺寸处理;2)设置卷积核,深度为5,滑动窗口设置为3*3*5;3)卷积得到该时刻的特征图(即二维矩阵),其中,该特征图中可以包含RGB三通道的颜色信息、语义通道信息和景深通道信息;4)进行池化,如采用最大池化(max pooling)方法;5)进行全连接层分析处理,将处理后的特征图像的特征值与目标物标记数据进行比较,以确定所选定区域是否为目标物(如行人);6)如果确定是目标物,则进行存储标记,反之则抛弃;7)进行人为检测,回归(bbox)以重新训练卷积神经网络。其中,回归可以包含卷积核、滑动窗口大小和池化方法等。
可以理解的是,上述样本图像和目标物标记数据可以是由技术人员收集并处理得到的,也可以是来自现有的计算机视觉标准数据集(如VOC、coco)。
在一些应用场景中,电子设备也可以将上述预处理过程和样本信息提取过程加入到卷积神经网络的训练过程中。这样,电子设备在接收图像采集设备发送的图像信息后,可以直接将该图像信息输入训练的卷积神经网络中。卷积神经网络可以先对图像信息进行预处理,再提取相关信息,最后输出得到图像信息的行人检测结果。这样可以有助于进一步提高行人检测效率。
步骤204,响应于确定图像信息中存在行人信息,对行人信息在图像信息中的位置进行标注,生成反馈信息。
在本实施例中,根据步骤203中的行人检测结果,若电子设备确定图像信息中存在行人信息,则可以对行人信息在图像信息中的位置进行标注,并生成反馈信息。
在本实施例中,标注的方式在本申请中并不限制,例如采用不同颜色和/或粗细的方框或圆环进行标注。在这里,反馈信息中可以包含用于描述图像信息中的行人信息的信息。例如反馈信息中可以包含以下至少一项:行人的位置信息,行人的属性信息(性别、身高、年龄等)或标注后的图像信息。
本申请实施例提供的行人检测方法,通过接收图像采集设备发送的图像信息,从而可以提取该图像信息的相关信息。其中,图像信息可以包括平面图像信息和景深图像信息;相关信息可以包括以下至少一项:颜色信息、语义信息和景深信息。进而将提取的相关信息输入预先训练的卷积神经网络中,可以得到该图像信息的行人检测结果。其中,卷积神经网络可以用于检测图像中的行人信息。这样,根据行人检测结果,若确定该图像信息中存在行人信息,则可以对行人信息在该图像信息中的位置进行标注,并生成反馈信息。这样有助于提高行人检测精度。
进一步参见图3,图3是根据本实施例的行人检测方法的应用场景的示意图。在图3中,图像采集设备31可以采集目标区域的图像信息311,并将其发送至服务器32。其中,图像信息311可以包括平面图像信息和景深图像信息。服务器32在接收到该图像信息311后,首先可以提取其中的相关信息321(颜色信息、语义信息、景深信息);然后可以将相关信息321输入至预先训练的卷积神经网络322中,得到该图像信息311的行人检测结果;之后根据检测结果,可以对图像信息中的行人信息进行标注,生成反馈信息323;最后服务器32可以将反馈信息323发送给终端33。这样,终端33可以将该反馈信息323展示给用户。
继续参见图4,作为对上述各图所示方法的实现,本申请提供了一种行人检测装置的一个实施例。该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例的行人检测装置400可以包括:接收单元401,配置用于接收图像采集设备发送的图像信息,其中,图像信息包括平面图像信息和景深图像信息;提取单元402,配置用于提取图像信息的相关信息,其中,相关信息包括以下至少一项:颜色信息、语义信息和景深信息;检测单元403,配置用于将相关信息输入预先训练的卷积神经网络,得到图像信息的行人检测结果,其中,卷积神经网络用于检测图像中的行人信息;生成单元404,配置用于响应于确定图像信息中存在行人信息,对行人信息在图像信息中的位置进行标注,生成反馈信息。
在本实施例中,接收单元401、提取单元402、检测单元403和生成单元404的具体实现方式及产生的有益效果,可以分别参见图2所示实施例中的步骤201、步骤202、步骤203和步骤204的相关描述,此处不再赘述。
在本实施例的一些可选的实现方式中,提取单元402可以包括以下至少一项:颜色提取子单元(图中未示出),配置用于根据平面图像信息,提取图像信息的颜色信息;语义提取子单元(图中未示出),配置用于对平面图像信息进行语义分割处理,得到图像信息的语义信息;景深提取子单元(图中未示出),配置用于根据景深图像信息,提取图像信息的景深信息。
可选地,语义提取子单元可以进一步配置用于:利用全卷积神经网络,将平面图像信息的像素数据转换为二维矩阵,并对二维矩阵进行池化、反卷积处理;利用全连接条件随机场、马尔科夫随机场或高斯条件随机场,对处理后的二维矩阵进行优化,得到图像信息的分割图像信息。
进一步地,卷积神经网络可以通过以下步骤训练得到:获取样本图像和与样本图像对应的目标物标记数据,其中,样本图像包括平面样本图像和景深样本图像,目标物标记数据包括行人标记数据;对样本图像进行预处理,以使处理后的样本图像满足预设像素数;提取处理后的样本图像的样本信息,其中,样本信息包括颜色信息、语义信息和景深信息;将样本信息作为输入,目标物标记数据作为输出,训练得到卷积神经网络。
可选地,将样本信息作为输入,目标物标记数据作为输出,训练得到卷积神经网络,可以包括:将样本信息作为输入,目标物标记数据作为输出,利用端到端的深度学习目标检测方法来训练得到卷积神经网络。
下面参考图5,其示出了适于用来实现本申请实施例的电子设备的计算机系统500的结构示意图。图5示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图5所示,计算机系统500包括中央处理单元(CPU)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储部分508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有系统500操作所需的各种程序和数据。CPU 501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
以下部件连接至I/O接口505:包括触摸屏、键盘、图像采集设备等的输入部分506;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分507;包括硬盘等的存储部分508;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分509。通信部分509经由诸如因特网的网络执行通信处理。驱动器510也根据需要连接至I/O接口505。可拆卸介质511,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器510上,以便于从其上读出的计算机程序根据需要被安装入存储部分508。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分509从网络上被下载和安装,和/或从可拆卸介质511被安装。在该计算机程序被中央处理单元(CPU)501执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括接收单元、提取单元、检测单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,接收单元还可以被描述为“接收图像采集设备发送的图像信息的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收图像采集设备发送的图像信息,其中,图像信息包括平面图像信息和景深图像信息;提取图像信息的相关信息,其中,相关信息包括以下至少一项:颜色信息、语义信息和景深信息;将相关信息输入预先训练的卷积神经网络,得到图像信息的行人检测结果,其中,卷积神经网络用于检测图像中的行人信息;响应于确定图像信息中存在行人信息,对行人信息在图像信息中的位置进行标注,生成反馈信息。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种行人检测方法,包括:
接收图像采集设备发送的图像信息,其中,所述图像信息包括平面图像信息和景深图像信息;
提取所述图像信息的相关信息,其中,所述相关信息包括以下至少一项:颜色信息、语义信息和景深信息;
将所述相关信息输入预先训练的卷积神经网络,得到所述图像信息的行人检测结果,其中,所述卷积神经网络用于检测图像中的行人信息;所述卷积神经网络为多个,每个卷积神经网络的输入信息对应不同的相关信息,每个卷积神经网络的输出信息为与输入的相关信息对应的图像信息的行人检测结果;多个卷积神经网络通过以下步骤训练得到:获取样本图像以及所述样本图像对应的行人标记数据;提取所述样本图像的样本颜色信息、样本语义信息和样本景深信息;将所述样本颜色信息、所述样本语义信息和所述样本景深信息分别作为三个卷积神经网络的输入,并将行为标记数据均作为三个卷积神经网络的输出,训练得到三个不同的卷积神经网络;
响应于确定所述图像信息中存在行人信息,对行人信息在所述图像信息中的位置进行标注,生成反馈信息。
2.根据权利要求1所述的方法,其中,所述提取所述图像信息的相关信息,包括以下至少一项:
根据所述平面图像信息,提取所述图像信息的颜色信息;
对所述平面图像信息进行语义分割处理,得到所述图像信息的语义信息;
根据所述景深图像信息,提取所述图像信息的景深信息。
3.根据权利要求2所述的方法,其中,所述对所述平面图像信息进行语义分割处理,得到所述图像信息的语义信息,包括:
利用全卷积神经网络,将所述平面图像信息的像素数据转换为二维矩阵,并对所述二维矩阵进行池化、反卷积处理;
利用全连接条件随机场、马尔科夫随机场或高斯条件随机场,对处理后的二维矩阵进行优化,得到所述图像信息的分割图像信息。
4.根据权利要求1所述的方法,其中,所述卷积神经网络通过以下步骤训练得到:
获取样本图像和与所述样本图像对应的目标物标记数据,其中,所述样本图像包括平面样本图像和景深样本图像,所述目标物标记数据包括行人标记数据;
对所述样本图像进行预处理,以使处理后的样本图像满足预设像素数;
提取处理后的样本图像的样本信息,其中,所述样本信息包括颜色信息、语义信息和景深信息;
将所述样本信息作为输入,所述目标物标记数据作为输出,训练得到卷积神经网络。
5.根据权利要求1所述的方法,其中,所述将所述样本信息作为输入,所述目标物标记数据作为输出,训练得到卷积神经网络,包括:
将所述样本信息作为输入,所述目标物标记数据作为输出,利用端到端的深度学习目标检测方法来训练得到卷积神经网络。
6.一种行人检测装置,包括:
接收单元,配置用于接收图像采集设备发送的图像信息,其中,所述图像信息包括平面图像信息和景深图像信息;
提取单元,配置用于提取所述图像信息的相关信息,其中,所述相关信息包括以下至少一项:颜色信息、语义信息和景深信息;
检测单元,配置用于将所述相关信息输入预先训练的卷积神经网络,得到所述图像信息的行人检测结果,其中,所述卷积神经网络用于检测图像中的行人信息;所述卷积神经网络为多个,每个卷积神经网络的输入信息对应不同的相关信息,每个卷积神经网络的输出信息为与输入的相关信息对应的图像信息的行人检测结果;多个卷积神经网络通过以下步骤训练得到:获取样本图像以及所述样本图像对应的行人标记数据;提取所述样本图像的样本颜色信息、样本语义信息和样本景深信息;将所述样本颜色信息、所述样本语义信息和所述样本景深信息分别作为三个卷积神经网络的输入,并将行为标记数据均作为三个卷积神经网络的输出,训练得到三个不同的卷积神经网络;
生成单元,配置用于响应于确定所述图像信息中存在行人信息,对行人信息在所述图像信息中的位置进行标注,生成反馈信息。
7.根据权利要求6所述的装置,其中,所述提取单元包括以下至少一项:
颜色提取子单元,配置用于根据所述平面图像信息,提取所述图像信息的颜色信息;
语义提取子单元,配置用于对所述平面图像信息进行语义分割处理,得到所述图像信息的语义信息;
景深提取子单元,配置用于根据所述景深图像信息,提取所述图像信息的景深信息。
8.根据权利要求6所述的装置,其中,所述卷积神经网络通过以下步骤训练得到:
获取样本图像和与所述样本图像对应的目标物标记数据,其中,所述样本图像包括平面样本图像和景深样本图像,所述目标物标记数据包括行人标记数据;
对所述样本图像进行预处理,以使处理后的样本图像满足预设像素数;
提取处理后的样本图像的样本信息,其中,所述样本信息包括颜色信息、语义信息和景深信息;
将所述样本信息作为输入,所述目标物标记数据作为输出,训练得到卷积神经网络。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711346003.0A CN109934045B (zh) | 2017-12-15 | 2017-12-15 | 行人检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711346003.0A CN109934045B (zh) | 2017-12-15 | 2017-12-15 | 行人检测方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109934045A CN109934045A (zh) | 2019-06-25 |
CN109934045B true CN109934045B (zh) | 2022-09-30 |
Family
ID=66979548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711346003.0A Active CN109934045B (zh) | 2017-12-15 | 2017-12-15 | 行人检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109934045B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111209844A (zh) * | 2020-01-02 | 2020-05-29 | 秒针信息技术有限公司 | 养殖场所的监控方法、装置、电子设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103186776A (zh) * | 2013-04-03 | 2013-07-03 | 西安电子科技大学 | 基于多特征和深度信息的人体检测方法 |
CN105049790A (zh) * | 2015-06-18 | 2015-11-11 | 中国人民公安大学 | 视频监控系统图像获取方法及装置 |
CN106845374A (zh) * | 2017-01-06 | 2017-06-13 | 清华大学 | 基于深度学习的行人检测方法及检测装置 |
-
2017
- 2017-12-15 CN CN201711346003.0A patent/CN109934045B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103186776A (zh) * | 2013-04-03 | 2013-07-03 | 西安电子科技大学 | 基于多特征和深度信息的人体检测方法 |
CN105049790A (zh) * | 2015-06-18 | 2015-11-11 | 中国人民公安大学 | 视频监控系统图像获取方法及装置 |
CN106845374A (zh) * | 2017-01-06 | 2017-06-13 | 清华大学 | 基于深度学习的行人检测方法及检测装置 |
Non-Patent Citations (1)
Title |
---|
"基于深度学习的无人车夜视图像语义分割";高凯珺等;《应用光学》;20170531;第38卷(第3期);论文第1.3节,图5 * |
Also Published As
Publication number | Publication date |
---|---|
CN109934045A (zh) | 2019-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10810735B2 (en) | Method and apparatus for analyzing medical image | |
US11392792B2 (en) | Method and apparatus for generating vehicle damage information | |
US11270099B2 (en) | Method and apparatus for generating facial feature | |
CN109753928B (zh) | 违章建筑物识别方法和装置 | |
CN108197618B (zh) | 用于生成人脸检测模型的方法和装置 | |
CN110379020B (zh) | 一种基于生成对抗网络的激光点云上色方法和装置 | |
CN108229504B (zh) | 图像解析方法及装置 | |
CN109308490B (zh) | 用于生成信息的方法和装置 | |
CN108229418B (zh) | 人体关键点检测方法和装置、电子设备、存储介质和程序 | |
CN109344752B (zh) | 用于处理嘴部图像的方法和装置 | |
CN113674421B (zh) | 3d目标检测方法、模型训练方法、相关装置及电子设备 | |
CN109389096B (zh) | 检测方法和装置 | |
CN108389172B (zh) | 用于生成信息的方法和装置 | |
CN110298281B (zh) | 视频结构化方法、装置、电子设备及存储介质 | |
CN109285181B (zh) | 用于识别图像的方法和装置 | |
CN108388889B (zh) | 用于分析人脸图像的方法和装置 | |
US20220012884A1 (en) | Image analysis system and analysis method | |
CN108229375B (zh) | 用于检测人脸图像的方法和装置 | |
CN108133197B (zh) | 用于生成信息的方法和装置 | |
CN115170792B (zh) | 红外图像处理方法、装置及设备、存储介质 | |
CN109948429A (zh) | 图像分析方法、装置、电子设备及计算机可读介质 | |
CN108038473B (zh) | 用于输出信息的方法和装置 | |
CN108399401B (zh) | 用于检测人脸图像的方法和装置 | |
CN114913338A (zh) | 分割模型的训练方法及装置、图像识别方法及装置 | |
CN111368698A (zh) | 主体识别方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |