CN111634233A - 一种安全驾驶系统和方法 - Google Patents
一种安全驾驶系统和方法 Download PDFInfo
- Publication number
- CN111634233A CN111634233A CN202010449619.6A CN202010449619A CN111634233A CN 111634233 A CN111634233 A CN 111634233A CN 202010449619 A CN202010449619 A CN 202010449619A CN 111634233 A CN111634233 A CN 111634233A
- Authority
- CN
- China
- Prior art keywords
- code stream
- video code
- alarm information
- driver
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/804—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8093—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明实施例提供一种安全驾驶系统和方法。所述系统包括传感器组、图像识别模块,报警模块;所述传感器组用于获取车辆行驶过程中的监测信息;所述图像识别模块用于将所述监测信息通过人工智能算法进行处理,得到报警信息;所述报警模块用于根据接收到的所述报警信息生成对应的警报。本发明提高了车辆行驶过程中对车辆行驶状态监测的可靠性,生成警报提醒驾驶员,节省了人力物力并降低了运输成本。
Description
技术领域
本发明涉及模式识别领域,尤其涉及一种安全驾驶系统和方法。
背景技术
车辆在行驶过程中,常常会因为各种原因发生交通事故,其中最常出现的事故原因包括:1、驾驶员驾驶操作不规范、例如疲劳驾驶、驾驶时玩手机等,导致发生事故;2、没有注意到或由于车辆设计的原因导致的不能注意到车辆行驶时的盲区有人或车辆;3、没有注意观察前方路况,导致对前方车辆、行人或障碍物的忽视导致的事故。
目前为了解决以上事故的发生,对于驾驶员驾驶操作通常是通过副驾驶进行监督和替换,或者是靠驾驶员对自身行为的约束;对于车辆附近驾驶员视野盲区通常是通过副驾驶进行观察,或是驾驶员自己进行观察;对于前方路况的判断主要是通过地图导航以及驾驶员自己的观察。
但是,副驾驶对驾驶员驾驶行为的监督以及对驾驶员视野盲区的观察通常会浪费人力物力,提高运输成本;对前方路况的判断通过导航可能会由于导航更新不及时且驾驶员观察不够仔细造成事故,由此产生可靠性低的问题。
发明内容
本发明实施例提供一种安全驾驶系统和方法,用以解决现有技术中车辆行驶过程中对车辆行驶状态监测的可靠性低、浪费人力物力以及导致的运输成本高的问题。
第一方面,本发明实施例提供一种安全驾驶系统,包括:传感器组、图像识别模块,报警模块;
所述传感器组用于获取车辆行驶过程中的监测信息;
所述图像识别模块用于将所述监测信息通过人工智能算法进行处理,得到报警信息;
所述报警模块用于根据接收到的所述报警信息生成对应的警报。
可选地,传感器组包括:
第一传感器,所述第一传感器安装于车辆右侧,用于获取驾驶员视野盲区图像;
第二传感器,所述第二传感器安装于驾驶员正前方,用于获取驾驶员驾驶动作图像;和/或
第三传感器,所述第三传感器安装于车辆前方,用于获取车辆前方路况图像。
可选地,所述图像识别模块包括:
盲区监视子模块,所述盲区监视子模块用于将所述驾驶员视野盲区图像通过人工智能算法进行处理,得到第一报警信息;
驾驶员检测子模块,所述驾驶员检测子模块用于将所述驾驶员驾驶动作图像通过预置人工智能算法进行处理,得到第二报警信息;和/或
辅助驾驶子模块,所辅助驾驶子模块用于将所述车辆前方路况图像通过预置人工智能算法进行处理,得到第三报警信息。
可选地,所述盲区监视子模块进一步用于:
将所述驾驶员视野盲区图像转化为第一视频码流;
将所述第一视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第一报警信息;
所述驾驶员检测子模块进一步用于:
将所述驾驶员驾驶动作图像转化为第二视频码流;
将所述第二视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第二报警信息;和/或
所述辅助驾驶子模块进一步用于:
将所述车辆前方路况图像转化为第三视频码流;
将所述第三视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第三报警信息。
可选地,所述盲区监视子模块进一步用于:
将所述驾驶员视野盲区图像转化为第一YUV数据;
将所述第一YUV数据传输至编解码处理器,生成第一视频码流;
所述驾驶员检测子模块进一步用于:
将所述驾驶员驾驶动作图像转化为第二YUV数据;
将所述第二YUV数据传输至编解码处理器,生成第二视频码流;和/或
所述辅助驾驶子模块进一步用于:
将所述车辆前方路况图像转化为第三YUV数据;
将所述第三YUV数据传输至编解码处理器,生成第三视频码流。
可选地,所述盲区监视子模块进一步用于:
提取所述第一视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K1,并统计所述差异点K1在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K1作为识别结果生成的依据,并根据所述识别结果生成对应的第一报警信息;
所述驾驶员检测子模块进一步用于:
提取所述第二视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K2,并统计所述差异点K2在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K2作为识别结果生成的依据,并根据所述识别结果生成对应的第二报警信息;和/或
所述辅助驾驶子模块进一步用于:
提取所述第三视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K3,并统计所述差异点K3在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K3作为识别结果生成的依据,并根据所述识别结果生成对应的第三报警信息。
第二方面,本发明实施例提供一种安全驾驶方法,包括:
获取车辆行驶过程中的监测信息;
将所述监测信息通过人工智能算法进行处理得到报警信息;
根据接收到的所述报警信息生成对应的警报。
可选地,所述获取车辆行驶过程中的监测信息具体包括:
通过第一传感器获取驾驶员视野盲区图像;
通过第二传感器获取驾驶员驾驶动作图像;和/或
通过第三传感器获取车辆前方路况图像。
可选地,所述将所述监测信息通过人工智能算法进行处理得到报警信息,具体包括:
将所述驾驶员视野盲区图像转化为第一视频码流;
将所述第一视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第一报警信息;
将所述驾驶员驾驶动作图像转化为第二视频码流;
将所述第二视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第二报警信息;和/或
将所述车辆前方路况图像转化为第三视频码流;
将所述第三视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第三报警信息。
可选地,所述将所述第一视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第一报警信息具体包括:
提取所述第一视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K1,并统计所述差异点K1在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K1作为识别结果生成的依据,并根据所述识别结果生成对应的第一报警信息;
所述将所述第二视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第二报警信息具体包括:
提取所述第二视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K2,并统计所述差异点K2在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K2作为识别结果生成的依据,并根据所述识别结果生成对应的第二报警信息;和/或
所述将所述第三视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第三报警信息具体包括:
提取所述第三视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K3,并统计所述差异点K3在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K3作为识别结果生成的依据,并根据所述识别结果生成对应的第三报警信息。
本发明实施例提供的安全驾驶系统和方法,通过传感器组获取车辆行驶过程中的监测信息并通过图像识别模块进行人工智能算法处理,得到报警信息并生成警报提醒驾驶员。本发明提高了车辆行驶过程中对车辆行驶状态监测的可靠性,节省了人力物力并降低了运输成本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1本发明实施例提供的一种安全驾驶系统结构示意图;
图2为发明实施例提供的一种安全驾驶方法流程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的一种安全驾驶系统结构示意图,包括:传感器组101、图像识别模块102,报警模块103;
所述传感器组101用于获取车辆行驶过程中的监测信息;
具体地,传感器组101包括不少于一个传感器,传感器的类型可以根据需要自由设定,传感器组的作用是获取车辆行驶过程中的监测信息,包括但不限于通过摄像头拍摄的图像和视频。
所述图像识别模块102用于将所述监测信息通过人工智能算法进行处理,得到报警信息;
具体地,图像识别模块用于将监测信息通过人工智能算法进行处理,得到报警信息;其中包括将监测信息转换为人工智能算法处理所需要的信息格式,例如将监测信息(视频图像)转换为YUV数据,并输入给到编码解码处理器如3520D芯片,该芯片将这些数据转换成H264码流或H265码流,视频码流输入给到人工智能算法。人工智能算法收到视频图像后开始进行分析,其中人工智能算法在分析前会进行大量的模型框架学习,学习好后会有个数据比对库,用以识别图像中的关键数据,将该数据和获取的数据源进行分析,进而输出对应的报警信息。
需要说明的是,本实施例中采用的模型框架是HQNN深度学习框架;首先,获取监测数据与深度学习框架中各个训练数据之间的差异点,并按照差异大小的递增或递减关系进行排序,选取其中差异最小的K个点(K为预设值),并确定差异最小的K个点所在数据比对库中的出现频率;最后,返回差异最小的K个点中出现频率最高的差异点在数据比对库中对应的类别作为监测数据的预测分类,并根据该预测分类输出对应的报警信息。
所述报警模块103用于根据接收到的所述报警信息生成对应的警报。
具体地,报警模块103将接收到的报警信息生成对应的警报,其中不同的报警信息会生成不同的警报模式以及警报内容用以提醒驾驶员或行人。例如通过驾驶室内的显示器报警或者是通过驾驶室内及车外安装的语音报警器等。
本发明实施例提供一种安全驾驶系统和方法。所述系统包括传感器组、图像识别模块,报警模块;所述传感器组用于获取车辆行驶过程中的监测信息;所述图像识别模块用于将所述监测信息通过人工智能算法进行处理,得到报警信息;所述报警模块用于根据接收到的所述报警信息生成对应的警报。通过传感器组获取车辆行驶过程中的监测信息并通过图像识别模块进行人工智能算法处理,得到报警信息并生成警报提醒驾驶员。本发明提高了车辆行驶过程中对车辆行驶状态监测的可靠性,节省了人力物力并降低了运输成本。
作为本发明的一种实施例,传感器组包括:
第一传感器,所述第一传感器安装于车辆右侧,用于获取驾驶员视野盲区图像;
第二传感器,所述第二传感器安装于驾驶员正前方,用于获取驾驶员驾驶动作图像;和/或
第三传感器,所述第三传感器安装于车辆前方,用于获取车辆前方路况图像。
具体地,第一传感器可以是1080P的室外摄像头安装在车辆右侧,让摄像头能够照射前方,然后在司机驾驶室旁边安装上一个显示屏用于盲区报警提示司机,在车辆右侧安装声光报警器用于提醒车辆旁边的人。
第二传感器可以是1080P的摄像头安装在驾驶室司机的正前方,使得摄像头能够照射司机的头部,用于抓拍司机的驾驶行为,包括司机的行为异常,抽烟,喝水,打电话,分神等。
第三传感器可以是1080P的摄像头安装在车前的地方,能够照射道路前方情况,例如车前方的车辆、障碍物、道路标线以及指示牌等。
作为本发明的一种实施例,所述图像识别模块包括:
盲区监视子模块,所述盲区监视子模块用于将所述驾驶员视野盲区图像通过人工智能算法进行处理,得到第一报警信息;
驾驶员检测子模块,所述驾驶员检测子模块用于将所述驾驶员驾驶动作图像通过预置人工智能算法进行处理,得到第二报警信息;和/或
辅助驾驶子模块,所辅助驾驶子模块用于将所述车辆前方路况图像通过预置人工智能算法进行处理,得到第三报警信息。
具体地,图像识别模块包括多个子模块,盲区监视子模块、驾驶员检测子模块和/或辅助驾驶子模块;各个子模块分别根据第一传感器、第二传感器和/或第三传感器发送的驾驶员视野盲区图像、驾驶员驾驶动作图像和/或车辆前方路况图像并通过人工智能算法进行处理,得到对应的报警信息。
作为本发明的一种实施例,所述盲区监视子模块进一步用于:
将所述驾驶员视野盲区图像转化为第一视频码流;
将所述第一视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第一报警信息;
所述驾驶员检测子模块进一步用于:
将所述驾驶员驾驶动作图像转化为第二视频码流;
将所述第二视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第二报警信息;和/或
所述辅助驾驶子模块进一步用于:
将所述车辆前方路况图像转化为第三视频码流;
将所述第三视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第三报警信息。
具体地,图像识别模块中的各个子模块首先将驾驶员视野盲区图像、驾驶员驾驶动作图像和/或车辆前方路况图像分别转化为第一视频码流、第二视频码流和/或第三视频码流,其中码流格式为H264码流或H265码流。然后将所述第一视频码流、第二视频码流和/或第三视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第一报警信息、第二报警信息和/或第三报警信息。其中学习好的模型中包括但不限于对盲区行人超过警戒线的学习、对驾驶员异常行为,抽烟,喝水,打电话,分神等行为的学习、对是否会与前车以及前面障碍物碰撞的学习、对是否偏移车道的学习等。
作为本发明的一种实施例,所述盲区监视子模块进一步用于:
将所述驾驶员视野盲区图像转化为第一YUV数据;
将所述第一YUV数据传输至编解码处理器,生成第一视频码流;
所述驾驶员检测子模块进一步用于:
将所述驾驶员驾驶动作图像转化为第二YUV数据;
将所述第二YUV数据传输至编解码处理器,生成第二视频码流;和/或
所述辅助驾驶子模块进一步用于:
将所述车辆前方路况图像转化为第三YUV数据;
将所述第三YUV数据传输至编解码处理器,生成第三视频码流。
具体地,YUV数据是对于图像处理常用的一种数据格式,将驾驶员视野盲区图像、驾驶员驾驶动作图像和/或车辆前方路况图像分别转化为第一YUV数据、第二YUV数据和/或第三YUV数据以后,还需要将YUV数据传输至编解码处理器,例如3520D芯片,然后通过编解码处理器生成第一视频码流、第二视频码流和/或第三视频码流。
作为本发明的一种实施例,所述盲区监视子模块进一步用于:
提取所述第一视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K1,并统计所述差异点K1在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K1作为识别结果生成的依据,并根据所述识别结果生成对应的第一报警信息;
所述驾驶员检测子模块进一步用于:
提取所述第二视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K2,并统计所述差异点K2在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K2作为识别结果生成的依据,并根据所述识别结果生成对应的第二报警信息;和/或
所述辅助驾驶子模块进一步用于:
提取所述第三视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K3,并统计所述差异点K3在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K3作为识别结果生成的依据,并根据所述识别结果生成对应的第三报警信息。
具体地,盲区监视子模块用于提取第一视频码流和训练数据之间的差异点;并将差异点按递增或递减顺序进行排列,选取差异点中差异最小的预设数目的差异点K1,并统计差异点K1在训练数据中出现的频率;将在训练数据中出现频率最高的差异点K1作为识别结果生成的依据,根据在训练数据中出现频率最高的差异点K1在数据比对库中对应的类别作为监测数据的预测分类,并根据该预测分类输出对应的第一报警信息。
驾驶员检测子模块用于提取第二视频码流和训练数据之间的差异点;并将差异点按递增或递减顺序进行排列,选取所述差异点中差异最小的预设数目的差异点K2,并统计所述差异点K2在所述训练数据中出现的频率;将在所述训练数据中出现频率最高的差异点K2作为识别结果生成的依据,根据在训练数据中出现频率最高的差异点K2在数据比对库中对应的类别作为监测数据的预测分类,并根据该预测分类输出对应的第二报警信息;和/或
辅助驾驶子模块用于提取第三视频码流和训练数据之间的差异点;并将差异点按递增或递减顺序进行排列,选取差异点中差异最小的预设数目的差异点K3,并统计差异点K3在训练数据中出现的频率;将在训练数据中出现频率最高的差异点K3作为识别结果生成的依据,根据在训练数据中出现频率最高的差异点K3在数据比对库中对应的类别作为监测数据的预测分类,并根据该预测分类输出对应的第三报警信息。
图2为本发明实施例提供的一种安全驾驶方法的流程示意图,包括:
步骤201,获取车辆行驶过程中的监测信息;
具体地,首先获取车辆行驶过程中的监测信息,包括但不限于通过摄像头拍摄的图像和视频。
步骤202,将所述监测信息通过人工智能算法进行处理得到报警信息;
具体地,将监测信息通过人工智能算法进行处理,得到报警信息;其中包括将监测信息转换为人工智能算法处理所需要的信息格式,例如将监测信息(视频图像)转换为YUV数据,并输入给到编码解码处理器如3520D芯片,该芯片将这些数据转换成H264码流或H265码流,视频码流输入给到人工智能算法。人工智能算法收到视频图像后开始进行分析,其中人工智能算法在分析前会进行大量的模型框架学习,学习好后会有个数据比对库,用以识别图像中的关键数据,将该数据和获取的数据源进行分析,进而输出对应的报警信息。
需要说明的是,本实施例中采用的模型框架是HQNN深度学习框架;首先,获取监测数据与深度学习框架中各个训练数据之间的差异点,并按照差异大小的递增或递减关系进行排序,选取其中差异最小的K个点(K为预设值),并确定差异最小的K个点所在数据比对库中的出现频率;最后,返回差异最小的K个点中出现频率最高的差异点在数据比对库中对应的类别作为监测数据的预测分类,并根据该预测分类输出对应的报警信息。
步骤203,根据接收到的所述报警信息生成对应的警报。
具体地,将接收到的报警信息生成对应的警报,其中不同的报警信息会生成不同的警报模式以及警报内容用以提醒驾驶员或行人。例如通过驾驶室内的显示器报警或者是通过驾驶室内及车外安装的语音报警器等。
作为本发明的一种实施例,所述获取车辆行驶过程中的监测信息具体包括:
通过第一传感器获取驾驶员视野盲区图像;
通过第二传感器获取驾驶员驾驶动作图像;和/或
通过第三传感器获取车辆前方路况图像。
具体地,第一传感器可以是1080P的室外摄像头安装在车辆右侧,让摄像头能够照射前方,然后在司机驾驶室旁边安装上一个显示屏用于盲区报警提示司机,在车辆右侧安装声光报警器用于提醒车辆旁边的人。
第二传感器可以是1080P的摄像头安装在驾驶室司机的正前方,使得摄像头能够照射并获取司机的头部,用于抓拍司机的驾驶行为,包括司机的行为异常,抽烟,喝水,打电话,分神等。
第三传感器可以是1080P的摄像头安装在车前的地方,能够照射并获取道路前方情况,例如车前方的车辆、障碍物、道路标线以及指示牌等。
作为本发明的一种实施例,所述将所述监测信息通过人工智能算法进行处理得到报警信息,具体包括:
将所述驾驶员视野盲区图像转化为第一视频码流;
将所述第一视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第一报警信息;
将所述驾驶员驾驶动作图像转化为第二视频码流;
将所述第二视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第二报警信息;和/或
将所述车辆前方路况图像转化为第三视频码流;
将所述第三视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第三报警信息。
具体地,首先将驾驶员视野盲区图像、驾驶员驾驶动作图像和/或车辆前方路况图像分别转化为第一视频码流、第二视频码流和/或第三视频码流,例如H264码流或H265码流。然后将所述第一视频码流、第二视频码流和/或第三视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第一报警信息、第二报警信息和/或第三报警信息。其中学习好的模型中包括但不限于对盲区行人超过警戒线的学习、对驾驶员异常行为,抽烟,喝水,打电话,分神等行为的学习、对是否会与前车以及前面障碍物碰撞的学习、对是否偏移车道的学习等。
作为本发明的一种实施例,所述将所述第一视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第一报警信息具体包括:
提取所述第一视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K1,并统计所述差异点K1在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K1作为识别结果生成的依据,并根据所述识别结果生成对应的第一报警信息;
所述将所述第二视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第二报警信息具体包括:
提取所述第二视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K2,并统计所述差异点K2在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K2作为识别结果生成的依据,并根据所述识别结果生成对应的第二报警信息;和/或
所述将所述第三视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第三报警信息具体包括:
提取所述第三视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K3,并统计所述差异点K3在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K3作为识别结果生成的依据,并根据所述识别结果生成对应的第三报警信息。
具体地,提取第一视频码流和训练数据之间的差异点;并将差异点按递增或递减顺序进行排列,选取差异点中差异最小的预设数目的差异点K1,并统计差异点K1在训练数据中出现的频率;将在训练数据中出现频率最高的差异点K1作为识别结果生成的依据,根据在训练数据中出现频率最高的差异点K1在数据比对库中对应的类别作为监测数据的预测分类,并根据该预测分类输出对应的第一报警信息。
提取第二视频码流和训练数据之间的差异点;并将差异点按递增或递减顺序进行排列,选取所述差异点中差异最小的预设数目的差异点K2,并统计所述差异点K2在所述训练数据中出现的频率;将在所述训练数据中出现频率最高的差异点K2作为识别结果生成的依据,根据在训练数据中出现频率最高的差异点K2在数据比对库中对应的类别作为监测数据的预测分类,并根据该预测分类输出对应的第二报警信息;和/或
提取第三视频码流和训练数据之间的差异点;并将差异点按递增或递减顺序进行排列,选取差异点中差异最小的预设数目的差异点K3,并统计差异点K3在训练数据中出现的频率;将在训练数据中出现频率最高的差异点K3作为识别结果生成的依据,根据在训练数据中出现频率最高的差异点K3在数据比对库中对应的类别作为监测数据的预测分类,并根据该预测分类输出对应的第三报警信息。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种安全驾驶系统,其特征在于,包括:传感器组、图像识别模块,报警模块;
所述传感器组用于获取车辆行驶过程中的监测信息;
所述图像识别模块用于将所述监测信息通过人工智能算法进行处理,得到报警信息;
所述报警模块用于根据接收到的所述报警信息生成对应的警报。
2.根据权利要求1所述的系统,其特征在于,传感器组包括:
第一传感器,所述第一传感器安装于车辆右侧,用于获取驾驶员视野盲区图像;
第二传感器,所述第二传感器安装于驾驶员正前方,用于获取驾驶员驾驶动作图像;和/或
第三传感器,所述第三传感器安装于车辆前方,用于获取车辆前方路况图像。
3.根据权利要求2所述的系统,其特征在于,所述图像识别模块包括:
盲区监视子模块,所述盲区监视子模块用于将所述驾驶员视野盲区图像通过人工智能算法进行处理,得到第一报警信息;
驾驶员检测子模块,所述驾驶员检测子模块用于将所述驾驶员驾驶动作图像通过预置人工智能算法进行处理,得到第二报警信息;和/或
辅助驾驶子模块,所辅助驾驶子模块用于将所述车辆前方路况图像通过预置人工智能算法进行处理,得到第三报警信息。
4.根据权利要求3所述的系统,其特征在于,所述盲区监视子模块进一步用于:
将所述驾驶员视野盲区图像转化为第一视频码流;
将所述第一视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第一报警信息;
所述驾驶员检测子模块进一步用于:
将所述驾驶员驾驶动作图像转化为第二视频码流;
将所述第二视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第二报警信息;和/或
所述辅助驾驶子模块进一步用于:
将所述车辆前方路况图像转化为第三视频码流;
将所述第三视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第三报警信息。
5.根据权利要求4所述的系统,其特征在于,所述盲区监视子模块进一步用于:
将所述驾驶员视野盲区图像转化为第一YUV数据;
将所述第一YUV数据传输至编解码处理器,生成第一视频码流;
所述驾驶员检测子模块进一步用于:
将所述驾驶员驾驶动作图像转化为第二YUV数据;
将所述第二YUV数据传输至编解码处理器,生成第二视频码流;和/或
所述辅助驾驶子模块进一步用于:
将所述车辆前方路况图像转化为第三YUV数据;
将所述第三YUV数据传输至编解码处理器,生成第三视频码流。
6.根据权利要求4所述的系统,其特征在于,所述盲区监视子模块进一步用于:
提取所述第一视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K1,并统计所述差异点K1在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K1作为识别结果生成的依据,并根据所述识别结果生成对应的第一报警信息;
所述驾驶员检测子模块进一步用于:
提取所述第二视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K2,并统计所述差异点K2在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K2作为识别结果生成的依据,并根据所述识别结果生成对应的第二报警信息;和/或
所述辅助驾驶子模块进一步用于:
提取所述第三视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K3,并统计所述差异点K3在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K3作为识别结果生成的依据,并根据所述识别结果生成对应的第三报警信息。
7.一种安全驾驶方法,其特征在于,所述方法包括:
获取车辆行驶过程中的监测信息;
将所述监测信息通过人工智能算法进行处理得到报警信息;
根据接收到的所述报警信息生成对应的警报。
8.根据权利要求7所述的方法,其特征在于,所述获取车辆行驶过程中的监测信息具体包括:
通过第一传感器获取驾驶员视野盲区图像;
通过第二传感器获取驾驶员驾驶动作图像;和/或
通过第三传感器获取车辆前方路况图像。
9.根据权利要求8所述的方法,其特征在于,所述将所述监测信息通过人工智能算法进行处理得到报警信息,具体包括:
将所述驾驶员视野盲区图像转化为第一视频码流;
将所述第一视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第一报警信息;
将所述驾驶员驾驶动作图像转化为第二视频码流;
将所述第二视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第二报警信息;和/或
将所述车辆前方路况图像转化为第三视频码流;
将所述第三视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第三报警信息。
10.根据权利要求9所述的方法,其特征在于,所述将所述第一视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第一报警信息具体包括:
提取所述第一视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K1,并统计所述差异点K1在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K1作为识别结果生成的依据,并根据所述识别结果生成对应的第一报警信息;
所述将所述第二视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第二报警信息具体包括:
提取所述第二视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K2,并统计所述差异点K2在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K2作为识别结果生成的依据,并根据所述识别结果生成对应的第二报警信息;和/或
所述将所述第三视频码流与学习好的模型进行对比识别,根据识别结果生成对应的第三报警信息具体包括:
提取所述第三视频码流和训练数据之间的差异点;
选取所述差异点中差异最小的预设数目的差异点K3,并统计所述差异点K3在所述训练数据中出现的频率;
将在所述训练数据中出现频率最高的差异点K3作为识别结果生成的依据,并根据所述识别结果生成对应的第三报警信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010449619.6A CN111634233A (zh) | 2020-05-25 | 2020-05-25 | 一种安全驾驶系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010449619.6A CN111634233A (zh) | 2020-05-25 | 2020-05-25 | 一种安全驾驶系统和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111634233A true CN111634233A (zh) | 2020-09-08 |
Family
ID=72328167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010449619.6A Pending CN111634233A (zh) | 2020-05-25 | 2020-05-25 | 一种安全驾驶系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111634233A (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105306947A (zh) * | 2015-10-27 | 2016-02-03 | 中国科学院深圳先进技术研究院 | 基于机器学习的视频转码方法 |
CN105654049A (zh) * | 2015-12-29 | 2016-06-08 | 中国科学院深圳先进技术研究院 | 人脸表情识别的方法及装置 |
CN106899861A (zh) * | 2017-04-08 | 2017-06-27 | 腾讯科技(深圳)有限公司 | 一种图片文件处理方法及其设备、系统 |
CN107953830A (zh) * | 2017-12-04 | 2018-04-24 | 广东工业大学 | 一种大型客车盲区检测警报系统及其检测警报方法 |
CN107977598A (zh) * | 2016-10-21 | 2018-05-01 | 三星电子株式会社 | 用于识别面部表情的方法和设备 |
EP3373193A1 (en) * | 2017-03-10 | 2018-09-12 | The Hi-Tech Robotic Systemz Ltd | Method and system for artificial intelligence based advanced driver assistance |
CN108647630A (zh) * | 2018-05-08 | 2018-10-12 | 北京优创新港科技股份有限公司 | 一种基于视频识别的危险驾驶行为监督方法与装置 |
WO2018212538A1 (en) * | 2017-05-16 | 2018-11-22 | Samsung Electronics Co., Ltd. | Electronic device and method of detecting driving event of vehicle |
CN110494863A (zh) * | 2018-03-15 | 2019-11-22 | 辉达公司 | 确定自主车辆的可驾驶自由空间 |
CN110807351A (zh) * | 2019-08-28 | 2020-02-18 | 杭州勒格网络科技有限公司 | 一种基于人脸识别的智能化车载疲劳检测系统、方法及装置 |
-
2020
- 2020-05-25 CN CN202010449619.6A patent/CN111634233A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105306947A (zh) * | 2015-10-27 | 2016-02-03 | 中国科学院深圳先进技术研究院 | 基于机器学习的视频转码方法 |
CN105654049A (zh) * | 2015-12-29 | 2016-06-08 | 中国科学院深圳先进技术研究院 | 人脸表情识别的方法及装置 |
CN107977598A (zh) * | 2016-10-21 | 2018-05-01 | 三星电子株式会社 | 用于识别面部表情的方法和设备 |
EP3373193A1 (en) * | 2017-03-10 | 2018-09-12 | The Hi-Tech Robotic Systemz Ltd | Method and system for artificial intelligence based advanced driver assistance |
CN106899861A (zh) * | 2017-04-08 | 2017-06-27 | 腾讯科技(深圳)有限公司 | 一种图片文件处理方法及其设备、系统 |
WO2018212538A1 (en) * | 2017-05-16 | 2018-11-22 | Samsung Electronics Co., Ltd. | Electronic device and method of detecting driving event of vehicle |
CN107953830A (zh) * | 2017-12-04 | 2018-04-24 | 广东工业大学 | 一种大型客车盲区检测警报系统及其检测警报方法 |
CN110494863A (zh) * | 2018-03-15 | 2019-11-22 | 辉达公司 | 确定自主车辆的可驾驶自由空间 |
CN108647630A (zh) * | 2018-05-08 | 2018-10-12 | 北京优创新港科技股份有限公司 | 一种基于视频识别的危险驾驶行为监督方法与装置 |
CN110807351A (zh) * | 2019-08-28 | 2020-02-18 | 杭州勒格网络科技有限公司 | 一种基于人脸识别的智能化车载疲劳检测系统、方法及装置 |
Non-Patent Citations (1)
Title |
---|
缪鹏: "《深度学习实践计算机视觉》", 28 February 2019 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110390262B (zh) | 视频分析方法、装置、服务器及存储介质 | |
CN110770084B (zh) | 一种车辆监控系统及车辆监控方法 | |
US9442176B2 (en) | Bus lane infraction detection method and system | |
EP3026880B1 (en) | Damage recognition assist system | |
CN111629181B (zh) | 消防生命通道监控系统及方法 | |
CN110895662A (zh) | 车辆超载报警方法、装置、电子设备及存储介质 | |
CN109146914B (zh) | 一种高速公路基于视频分析的醉酒驾驶行为预警方法 | |
CN110838230B (zh) | 一种移动视频监控方法、监控中心及系统 | |
KR102122850B1 (ko) | 딥 러닝 기반의 교통분석 및 차량번호 인식 솔루션 | |
CN112744174B (zh) | 车辆碰撞监测方法、装置、设备及计算机可读存储介质 | |
CN110047272A (zh) | 一种基于大数据的智能交通行人行为监控报警系统 | |
CN111785050A (zh) | 一种高速公路疲劳驾驶预警装置及方法 | |
CN114633744A (zh) | 一种基于车联网系统的车辆报警方法 | |
CN109858459A (zh) | 基于警用车载视频要素信息实现智能解析处理的系统及其方法 | |
CN114429619A (zh) | 目标车辆的检测方法及装置 | |
CN113076852A (zh) | 一种基于5g通信的占用公交车道车载抓拍处理系统 | |
CN112818814A (zh) | 入侵检测方法及装置、电子设备和计算机可读存储介质 | |
CN112907979A (zh) | 一种基于多摄像头的机动车违法行驶轨迹跟踪系统及方法 | |
KR101593676B1 (ko) | 주행상황 인지 방법 및 장치 | |
CN111634233A (zh) | 一种安全驾驶系统和方法 | |
CN113408319A (zh) | 一种城市道路异常感知处理方法、装置、系统及存储介质 | |
CN111845556A (zh) | 一种专项作业车状态监测系统和方法 | |
CN115019263A (zh) | 交通监管模型的建立方法、交通监管系统及方法 | |
CN115472028A (zh) | 一种隧道紧急停车带智能预警诱导方法及系统 | |
CN113869126A (zh) | 评估方法、预警设备、电子设备以及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200908 |
|
RJ01 | Rejection of invention patent application after publication |