CN107703931B - 用于控制无人驾驶车辆的方法和装置 - Google Patents

用于控制无人驾驶车辆的方法和装置 Download PDF

Info

Publication number
CN107703931B
CN107703931B CN201610647814.3A CN201610647814A CN107703931B CN 107703931 B CN107703931 B CN 107703931B CN 201610647814 A CN201610647814 A CN 201610647814A CN 107703931 B CN107703931 B CN 107703931B
Authority
CN
China
Prior art keywords
information
automatic driving
driving vehicle
mentioned
route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610647814.3A
Other languages
English (en)
Other versions
CN107703931A (zh
Inventor
张钊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201610647814.3A priority Critical patent/CN107703931B/zh
Priority to US15/429,334 priority patent/US9889856B1/en
Publication of CN107703931A publication Critical patent/CN107703931A/zh
Application granted granted Critical
Publication of CN107703931B publication Critical patent/CN107703931B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/182Selecting between different operative modes, e.g. comfort and performance modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs

Abstract

本申请公开了用于控制无人驾驶车辆的方法和装置。所述方法的一具体实施方式包括:采集无人驾驶车辆内人员的影像信息、生命体征信息和所述无人驾驶车辆的始发地信息、目的地信息;根据所述影像信息,生成所述人员的动作特征信息;根据所述动作特征信息、所述生命体征信息,生成所述人员的情绪特征信息和身体状态信息;根据所述情绪特征信息、所述身体状态信息、所述始发地信息和所述目的地信息,确定所述无人驾驶车辆的路线和工作模式;根据所述路线和所述工作模式,控制所述无人驾驶车辆。该实施方式实现了根据无人驾驶车辆内人员的情绪和身体状态自动控制无人驾驶车辆。

Description

用于控制无人驾驶车辆的方法和装置
技术领域
本申请涉及汽车技术领域,具体涉及无人驾驶车辆技术领域,尤其涉及用于控制无人驾驶车辆的方法和装置。
背景技术
无人驾驶车辆也被称为智能无人驾驶汽车,无人驾驶车辆是电子计算机等最新科技成果与现代汽车工业相结合的产物,通常具有自动驾驶,自动变速,自动识别道路的功能。用户可以通过触屏或语音与无人驾驶车辆进行交互,设置行驶路线和工作模式。
然而,现有的通过触屏或语音与无人驾驶车辆进行交互,设置行驶路线和工作模式的过程较为繁琐,并且无法根据用户的情绪和身体状态自动调整路线和工作模式。
发明内容
本申请的目的在于提出一种用于控制无人驾驶车辆的方法和装置。来解决以上背景技术部分提到的技术问题。
第一方面,本申请提供了一种用于控制无人驾驶车辆的方法,所述方法包括:采集无人驾驶车辆内人员的影像信息、生命体征信息和所述无人驾驶车辆的始发地信息、目的地信息;根据所述影像信息,生成所述人员的动作特征信息;根据所述动作特征信息、所述生命体征信息,生成所述人员的情绪特征信息和身体状态信息;根据所述情绪特征信息、所述身体状态信息、所述始发地信息和所述目的地信息,确定所述无人驾驶车辆的路线和工作模式;根据所述路线和所述工作模式,控制所述无人驾驶车辆。
在一些实施例中,所述根据所述情绪特征信息、所述身体状态信息、所述始发地信息和所述目的地信息,确定所述无人驾驶车辆的路线和工作模式,包括:根据所述始发地信息、所述目的地信息,检索出至少一条路线;根据所述情绪特征信息、所述身体状态信息,从所述至少一条路线中确定用于所述无人驾驶车辆行驶的路线;根据所述情绪特征信息、所述身体状态信息、所确定的路线,确定所述无人驾驶车辆的工作模式。
在一些实施例中,所述根据所述路线和工作模式,控制所述无人驾驶车辆,包括:根据所述工作模式,设置所述无人驾驶车辆的参数,其中,所述参数包括以下至少一项:雷达监测频率、摄像头拍摄角度、动力参数、速度参数、确认是否超车的参数、影音类型参数、影音音量参数、空调设置参数、车窗开闭参数。
在一些实施例中,所述采集无人驾驶车辆内人员的影像信息、生命体征信息和所述无人驾驶车辆的始发地信息和目的地信息,包括:通过安装在所述无人驾驶车辆上的传感器,周期性地采集或实时采集所述人员的影像信息、生命体征信息。
在一些实施例中,所述动作特征信息包括以下至少一项:表情特征信息、头部动作特征信息、肢体动作特征信息。
第二方面,本申请提供的一种用于控制无人驾驶车辆的装置,所述装置包括:采集单元,配置用于采集无人驾驶车辆内人员的影像信息、生命体征信息和所述无人驾驶车辆的始发地信息、目的地信息;第一生成单元,配置用于根据所述影像信息,生成所述人员的动作特征信息;第二生成单元,配置用于根据所述动作特征信息、所述生命体征信息,生成所述人员的情绪特征信息和身体状态信息;确定单元,配置用于根据所述情绪特征信息、所述身体状态信息、所述始发地信息和所述目的地信息,确定所述无人驾驶车辆的路线和工作模式;控制单元,配置用于根据所述路线和所述工作模式,控制所述无人驾驶车辆。
在一些实施例中,所述确定单元包括:检索模块,配置用于根据所述始发地信息、所述目的地信息,检索出至少一条路线;路线确定模块,配置用于根据所述情绪特征信息、所述身体状态信息,从所述至少一条路线中确定用于所述无人驾驶车辆行驶的路线;工作模式确定模块,配置用于根据所述情绪特征信息、所述身体状态信息、所确定的路线,确定所述无人驾驶车辆的工作模式。
在一些实施例中,所述控制单元进一步配置用于:根据所述工作模式,设置所述无人驾驶车辆的参数,其中,所述参数包括以下至少一项:雷达监测频率、摄像头拍摄角度、动力参数、速度参数、确认是否超车的参数、影音类型参数、影音音量参数、空调设置参数、车窗开闭参数。
在一些实施例中,所述采集单元进一步配置用于:通过安装在所述无人驾驶车辆上的传感器,周期性地采集或实时采集所述人员的影像信息、生命体征信息。
在一些实施例中,所述动作特征信息包括以下至少一项:表情特征信息、头部动作特征信息、肢体动作特征信息。
本申请提供的用于控制无人驾驶车辆的方法和装置,通过采集无人驾驶车辆内人员的影像信息、生命体征信息、上述无人驾驶车辆的始发地信息和目的地信息,然后,根据上述影像信息,生成人员的动作特征信息,之后,根据上述动作特征信息和上述生命体征信息,生成上述人员的情绪特征信息和身体状态信息,最后,根据上述情绪特征信息、上述身体状态信息、上述始发地信息和上述目的地信息,确定上述无人驾驶车辆的路线和工作模式,控制上述无人驾驶车辆。从而实现了根据用户的情绪和身体状态自适应调整路线和工作模式。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的用于控制无人驾驶车辆的方法的一个实施例的流程图;
图3是根据本申请的用于控制无人驾驶车辆的方法的一个应用场景的示意图;
图4是根据本申请的用于控制无人驾驶车辆的方法的又一个实施例的流程图;
图5是根据本申请的用于控制无人驾驶车辆的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的车载终端的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于控制无人驾驶车辆的方法或用于控制无人驾驶车辆的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括无人驾驶车辆101,安装了无人驾驶控制系统的车载终端102,传感器103、104、105、106,通信链路107。车载终端102安装在无人驾驶车辆101上。传感器103、104、105、106是安装在无人驾驶车辆101上的各种类型的传感器。通信链路107用以在传感器103、104、105、106和车载终端102之间提供通信的介质。通信链路107可以包括各种连接类型,例如有线通信链路、无线通信链路等等。
传感器103、104、105、106可以采集人员的影像信息、生命体征信息,也可以采集无人驾驶车辆101的始发地信息和目的地信息。车载终端102可以是提供各种服务的车载终端。例如,可以接收传感器103、104、105、106发送的影像信息、生命体征信息、始发地信息和目的地等信息;还可以生成人员的情绪特征信息和身体状态信息;此外,还可以确定路线和工作模式;另外,还可以向传感器103、104、105、106发送指令信息。
需要说明的是,本申请实施例所提供的用于控制无人驾驶车辆的方法一般由车载终端102执行。
应该理解,图1中的车载终端和传感器数目和位置仅仅是示意的。根据实现需要,可以具有任意数目的车载终端、传感器,车载终端和传感器可以被放置在任意的位置。
继续参考图2,示出了根据本申请的用于控制无人驾驶车辆的方法的一个实施例的流程200。所述的用于控制无人驾驶车辆的方法,包括以下步骤:
步骤201,采集无人驾驶车辆内人员的影像信息、生命体征信息和上述无人驾驶车辆的始发地信息、目的地信息。
在本实施例中,用于控制无人驾驶车辆的方法运行其上的电子设备(例如图1所示的车载终端102)可以通过安装在无人驾驶车辆(例如图1所示的101)上的摄像机、红外热像仪等传感器(例如图1所示的103、104、105、106)采集上述无人驾驶车辆内人员(例如图1所示的108)的影像信息,识别影像信息中上述人员的图像,并确定上述人员的图像的大小及位置信息。上述电子设备还可以根据上述人员的图像的大小及位置信息调整传感器的角度、焦距、光轴,追踪并获取清晰度较高的影像信息。上述影像信息可以包括但不限于以下至少一项:头部影像信息、肢体影像信息。上述影像信息可以包括但不限于静态图像、动态图像序列。上述传感器可安装在与座椅相对应的区域。
在本实施例中,上述电子设备可以采用各种类型的导航定位系统定位上述无人驾驶车辆当前的位置信息,并将上述位置信息确定为始发地信息。上述电子设备也可以通过触屏或语音与上述人员进行交互,确定始发地信息。上述电子设备可以通过触屏或语音与上述人员进行交互,确定目的地信息。
在本实施例中,上述电子设备可以通过安装在上述无人驾驶车辆上的各种类型的传感器采集上述人员的生命体征信息。作为示例,上述生命体征信息可以包括但不限于以下至少一项:温度信息、心率信息、呼吸信息、血压信息。上述电子设备可以通过非接触式测温仪测量上述人员的表面温度及温度场的温度分布。此外,上述电子设备可以利用脉搏传感器采集上述人员的心率及血氧饱和度等信息。另外,上述电子设备还可以通过薄膜压力传感器采集呼吸频率信息。再者,上述电子设备还可以通过间接式血压测量仪采集上述人员的血压信息。其中,血压信息包括以下至少一项:收缩压、舒张压。
在本实施例的一些可选的实现方式中,上述电子设备通过安装在上述无人驾驶车辆上的各种类型的传感器,周期性地采集或实时采集上述人员的影像信息、生命体征信息。作为示例,如果上述电子设备检测到上述无人驾驶车辆的工作模式是越野模式,生成的上述人员情绪特征信息是表征高兴或恐惧的情绪特征信息,则在预设的时间段内,实时采集上述人员的影像信息和生命体征信息。如果上述电子设备检测到上述无人驾驶的工作模式是城市模式或乡村模式,生成的上述人员情绪特征信息是表征高兴的情绪特征信息,检测到上述人员的生命特征信息中温度值在正常的范围之内,则上述电子设备按照预设的时间间隔周期性的采集上述人员的影像信息和生命体征信息。
步骤202,根据上述影像信息,生成上述人员的动作特征信息。
在本实施例中,基于步骤201中采集的影像信息,上述电子设备可以采用频率特征提取算法或深度学习算法,识别并提取上述影像信息的静态图像和/或动态图像序列中的上述人员的动作特征信息。其中,上述频率特征提取算法是将图像从空间域转换到频率域并提取其特征的算法。上述深度学习算法是一种含多隐层的人工神经网络。上述深度学习算法通过组合低层特征形成更加抽象的高层特征。
在本实施例的一些可选的实现方式中,上述电子设备可以采用频率特征提取算法,识别并提取上述影像信息中的上述人员的动作特征信息。上述电子设备首先对图像的像素矩阵中的每一行像素做傅里叶变换,然后对上述图像像素矩阵的每一列像素进行傅里叶变换得到该图像的频率值。上述图像中人的五官轮廓、头部轮廓、四肢轮廓的像素对应的频率域中的频率值较高。上述频率值即动作特征信息。
在本实施例的一些可选的实现方式中,上述电子设备可以采用深度学习算法中的卷积神经网络(Convolutional Neural Network,CNN)从上述影像信息中识别并提取上述人员的动作特征信息。上述卷积神经网络是一种有监督的深度学习算法,上述卷积神经网络类似于生物神经网络,每一个神经元都不需要对全局图像做处理,每个神经元只处理局部的图像区域,然后在更高层,将这些已处理的局部图像综合起来得到全局信息。上述卷积神经网络可以包括输入层、卷积层、池化层、全连接层、输出层。其中,上述电子设备对每一层都预先进行了训练。上述卷积神经网络可以包括多个卷积层和多个池化层。上述卷积神经网络可以按照如下步骤识别并提取上述人员的动作特征信息:
第一,输入层预处理上述影像信息。上述输入层接收输入的上述影像信息,然后对上述影像信息进行去噪及归一化处理得到数值矩阵,并将上述数值矩阵发送至下一层。
第二,卷积层及池化层生成局部特征信息。上述卷积层处理数据的步骤如下:首先,上述卷积层接收上述输入层发送的上述数值矩阵,然后,将上述数值矩阵切分成8乘8的小矩阵,之后,将每一个小矩阵与卷积核进行卷积计算得到特征矩阵,最后,将上述特征矩阵发送至池化层。上述池化层处理数据的步骤如下:首先,上述池化层接收上述卷积层发送的上述特征矩阵,然后,将上述特征矩阵切分成4乘4的小矩阵,之后,对每一个小矩阵求平均值或最大值得到池化特征矩阵,最后将上述池化特征矩阵发送至下一层。上述池化特征矩阵也称为局部特征信息。
第三,全连接层生成全局特征信息。全连接层的每一个节点与上一层的每一个节点相连,根据接收的局部特征信息,生成全局特征信息。将上述全局特征信息发送至下一层。
第四,输出层接收上述全连接层发送的全局特征信息,然后将全局特征信息进行分类处理,得到上述人员的动作特征信息。
步骤203,根据上述动作特征信息、上述生命体征信息,生成上述人员的情绪特征信息和身体状态信息。
在本实施例中,基于步骤201中采集的生命体征信息和步骤202中生成的动作特征信息,上述电子设备可以采用深度学习算法中的卷积神经网络或深度置信网络(DeepBelief Network,DBN),生成上述人员的情绪特征信息和身体状态信息。其中,上述情绪特征信息可以是用于表征各种情绪的信息,上述情绪特征信息可以包括但不限于以下任意一项:表征正常情绪的信息、表征高兴情绪的信息、表征惊讶情绪的信息、表征愤怒情绪的信息、表征厌恶情绪的信息、表征恐惧情绪的信息、表征悲伤情绪的信息。上述身体状态信息可以是用于指示身体状态优良等级的信息,上述身体状态信息可以包括但不限于以下一项:指示身体状态优的信息、指示身体状态良的信息、指示身体状态差的信息。如果需要更准确的生成上述人员的情绪特征信息,可以综合上述人员的语音、语调、唇语等信息。
作为常识,人的情绪和身体状态都会通过表情、头部动作、肢体动作、生命体征等信息表征。人在不同的情绪下,会做出不同的动作,例如,人处于正常情绪中可能会懒散的坐在椅子上、处于厌恶情绪中可能会坐立不安、处于愤怒情绪中可能会晃动拳头、处于悲伤情绪中可能会垂头。人在不同的情绪下,生命体征也会有变化,例如:人处于高兴情绪中体温可能上升、处于悲伤情绪中呼吸可能急促,同时情绪对人的血压和心率影响较为明显。人在生病的情况下,生命体征可能会超出正常的范围、情绪忧伤、肢体动作较少。人在健康的情况下,生命体征一般在正常的范围内、情绪高兴或正常、肢体动作较多。
在本实施例的一些可选的实现方式中,上述电子设备可以采用卷积神经网络按照如下步骤生成情绪特征信息和身体状态信息:
第一,上述电子设备选取上述生命体征信息和上述动作特征信息作为卷积神经网络的输入参数,其中,上述卷积神经网络可以包括:输入层、卷积层、池化层、全连接层、输出层,上述电子设备对每一层都预先进行了训练。
第二,上述输入层对输入的上述生命体征信息与相应的生命体征的正常范围做比较,初步确定上述人员的身体状态信息。
第三,,上述卷积层及池化层生成局部特征信息。首先,上述卷积层对上述生命体征信息、上述动作特征信息、上述初步确定的身体状态信息进行卷积计算得到数值矩阵,然后,上述池化层采用聚合统计的算法缩小上述数值矩阵中数据量的规模,并生成局部特征信息。其中,上述聚合统计的算法可以是对数值矩阵的局部数据求平均值或最大值的算法。
第四,上述全连接层对上述局部特征信息进行处理,生成全局特征信息。
第五,上述输出层对上述全局特征信息进行分类处理,输出上述人员的情绪特征信息和身体状态信息。
在本实施例的一些可选的实现方式中,上述电子设备可以采用深度置信网络生成情绪特征信息和身体状态信息。其中,上述深度置信网络是经大量的含标签的样本训练过的网络。上述电子设备可以根据上述动作特征信息、上述生命体征信息与标签的联合分布,选取概率值最大的标签,其中,上述概率值最大的标签对应的情绪特征信息和身体状态信息是上述人员的情绪特征信息和身体状态信息。
步骤204,根据上述情绪特征信息、上述身体状态信息、上述始发地信息和上述目的地信息,确定上述无人驾驶车辆的路线和工作模式。
在本实施例中,上述电子设备可以采用各种导航系统,根据上述始发地信息和目的地信息检索可行性路线。之后,针对可行性路线中的每一条路线,检索该路线的路线信息,其中,路线信息可以包括以下至少一项:路面信息、距离信息、拥堵信息、预估行驶时长信息、周边设施信息、周边自然环境信息。其中,上述周边设施信息可以是上述路线周边的加油站、酒店、商店的位置信息,上述周边自然环境信息可以是上述路线周边的景点信息。上述预估行驶时长信息可以是上述电子设备根据上述距离信息、上述拥堵信息和上述无人驾驶车辆可行驶的速度计算得出的时长信息。
在本实施例中,工作模式可以根据上述无人驾驶车辆的性能划分为:城市模式、乡村模式、越野模式。上述工作模式可以根据上述无人驾驶车辆内环境划分为:低效模式、高效模式。其中,在低效模式下播放音乐的类型可以是乡村音乐、空调可以设置成微风、天窗可以打开。在高效模式下播放音乐的类型可以是摇滚音乐、金属音乐,音量设置大于50分贝,空调可以设置成中风、天窗可以打开。
在本实施例的一些可选的实现方式中,上述电子设备可以采用深度学习算法中的卷积神经网络或深度置信网络根据上述情绪特征信息、上述身体状态信息和所检索出的可行性路线及每条路线的路线信息,确定上述无人驾驶车辆的路线和工作模式。作为示例,上述电子设备可以采用深度置信网络确定上述无人驾驶车辆的路线和工作模式。其中,上述深度置信网络是一种无监督的深度学习算法。上述深度置信网络是经大量的含标签的样本训练过的网络。上述电子设备可以根据上述情绪特征信息、上述身体状态信息、上述路线信息与标签的联合分布,选取概率值最大的标签,其中,上述概率值最大的标签对应的路线可以作为确定的上述无人驾驶车辆行驶的路线,上述概率值最大的标签对应的工作模式可以最为确定的上述无人驾驶车辆的工作模式。
在本实施例的一些可选的实现方式中,上述电子设备可以根据预设的规则,确定上述无人驾驶车辆的路线和工作模式。作为示例,上述电子设备可以根据导航定位系统,确定当前无人驾驶车辆的位置信息是否处于城市边界范围内,如果当前无人驾驶车辆的位置信息处于城市边界范围内,则根据检索出的可行性路线的预估行驶时长,选取预估行驶时长最短的一条路线作为确定的上述无人驾驶车辆行驶的路线。设定工作模式为城市模式,此外,还可以设置播放的音乐的类型为轻音乐,音量小于60分贝,车窗关闭等参数的值。如果当前无人驾驶车辆的位置信息不处于城市边界范围内,则根据检索出的可行性路线的周边设施信息,选取周边设施数量最多的一条路线作为确定的上述无人驾驶车辆行驶的路线。设定工作模式为乡村模式或越野模式,此外,还可以设置播放的音乐的类型为摇滚乐,音量大于60分贝,车窗打开等参数的值。
步骤205,根据上述路线和上述工作模式,控制上述无人驾驶车辆。
在本实施例中,上述电子设备根据上述路线、上述工作模式,生成相应的指令。并将上述指令发送至对应的传感器或设备中。上述传感器或设备接收上述指令,并执行上述指令。上述指令中包括设置上述无人驾驶车辆参数的参数值。其中,所设置的参数可以是上述无人驾驶车辆的性能参数。例如,雷达监测频率、速度参数等。所设置的参数也可以是上述无人驾驶车辆内环境参数。例如,自动播放的影音的类型参数、空调设置参数、上述无人驾驶座椅的高度参数等。作为示例,当上述的工作模式是乡村模式,上述路线的路面信息指示上述路线中存在不平整路面且存在多个弯道,此时设置雷达监测频率为每秒三次、速度为每小时30公里、摄像头拍摄角度是180度、影音音量为50分贝。生成控制雷达监测频率、行驶速度、摄像头拍摄角度及影音音量的指令,并将上述指令分别发送至对应的传感器及设备中。
继续参见图3,图3是根据本实施例的用于控制无人驾驶车辆的方法的应用场景的一个示意图。在图3的应用场景中,安装在无人驾驶车辆301上的车载终端302通过GPS(Global Positioning System,全球定位系统)306定位当前的位置信息为始发地信息,并通过语音传感器307与上述无人驾驶车辆301内的人员309进行交互,确定目的地信息是某省医院311的位置信息。传感器303、304、305采集上述无人驾驶车辆301内人员308、309的影像信息和生命体征信息,并通过无线连接的方式发送上述影像信息和生命体征信息至车载终端302。车载终端302根据上述影像信息和生命体征信息,经分析确定上述人员309的情绪特征信息是表征恐惧的情绪特征且身体状态信息是指示身体状态良的信息;经分析确定上述人员308的情绪特征信息是表征悲伤的情绪特征、面部温度高出正常范围且身体状态信息是指示身体状态差的信息。然后,车载终端302根据上述始发地信息和目的地检索所有可行路线及可行性路线中每一条路线的路线信息。之后,车载终端302根据人员308和人员309的情绪特征信息和身体状态信息,确定一条距离最短的路线310,并设置上述无人驾驶车辆301的工作模式为城市模式。设置无人驾驶车辆301的参数,例如:设置雷达监测频率为每秒六次、设置无人驾驶车辆301速度为每小时40公里、设置摄像头拍摄角度是180度、设置空调的风的类型为微风、设置是否超车的参数为是。
本申请的上述实施例提供的方法根据采集的无人驾驶车辆内人员的影像信息、生命体征信息和无人驾驶车辆的始发地信息、目的地信息,分析生成上述人员的情绪信息和身体状态信息,之后,根据上述人员的情绪信息和身体状态信息自动设置无人驾驶车辆行驶路线及工作模式。
进一步参考图4,其示出了用于控制无人驾驶车辆的方法的又一个实施例的流程400。该用于控制无人驾驶车辆的方法的流程400,包括以下步骤:
步骤401,采集无人驾驶车辆内人员的影像信息、生命体征信息和上述无人驾驶车辆的始发地信息、目的地信息。
在本实施例中,用于控制无人驾驶车辆的方法运行其上的电子设备(例如图1所示的车载终端102)采集无人驾驶车辆内人员的影像信息、生命体征信息和上述无人驾驶车辆的始发地信息、目的地信息的方法可以参照步骤201。
步骤402,根据上述影像信息,生成上述人员的动作特征信息。
在本实施例中,基于步骤401中采集的影像信息,上述电子设备可以采用频率特征提取算法与深度置信网络相结合的算法,识别并提取上述影像信息中的动作特征信息。首先,对上述影像信息进行去噪和归一化处理,生成数值矩阵。然后,采用上述频率特征提取算法对上述数值矩阵进行小波变化得到频域特征信息。之后,将上述频域特征信息输入深度置信网络,其中,上述深度置信网络是经大量的含标签的样本训练过的网络。最后,根据上述频域特征信息与标签的联合分布,选取概率值最大的标签,其中,上述概率值最大的标签对应的动作特征信息可以作为上述人员的动作特征信息。
步骤403,根据上述动作特征信息、上述生命体征信息,生成上述人员的情绪特征信息和身体状态信息。
在本实施例中,上述电子设备根据上述动作特征信息、上述生命体征信息,生成上述人员的情绪特征信息和身体状态信息的方法可以参照步骤203。
步骤404,根据上述始发地信息、上述目的地信息,检索出至少一条路线。
在本实施例中,上述电子设备通过安装在上述无人驾驶车辆上的GPS检索出至少一条路线。其中,每一条路线是上述GPS根据上述始发地信息和目的地信息检索出的可行性路线。针对每一条路线,上述电子设备检索该路线的路线信息。其中,路线信息可以包括但不限于以下至少一项:路面信息、距离信息、拥堵信息、预估行驶时长信息、周边设施信息、周边自然环境信息。
步骤405,根据上述情绪特征信息、上述身体状态信息,从上述至少一条路线中确定用于上述无人驾驶车辆行驶的路线。
在本实施例中,上述电子设备可以采用各种算法,根据上述情绪特征信息、上述身体状态信息,从上述至少一条路线中确定用于上述无人驾驶车辆行驶的路线。
在本实施例的一些可选的实现方式中,上述电子设备可以根据预设的路线确定规则,确定用于上述无人驾驶车辆行驶的路线。例如,如果情绪特征是表征厌恶的情绪特征,身体状态信息是指示身体状态优的信息,且每一条路线预估实行时长都大于20小时,则选择一条路面平整、周边有加油站、周边有自然景点的路线。
在本实施例的一些可选的实现方式中,上述电子设备可以采用卷积神经网络或深度置信网络,根据上述情绪特征信息、上述身体状态信息,从上述至少一条路线中确定用于上述无人驾驶车辆行驶的路线。作为示例,上述深度置信网络是经大量的含标签的样本训练过的网络。上述电子设备可以根据上述情绪特征信息、上述身体状态信息、上述检索的路线及路线信息与标签的联合分布,选取概率值最大的标签,其中,上述概率值最大的标签对应的路线可以作为确定的上述无人驾驶车辆行驶的路线。
步骤406,根据上述情绪特征信息、上述身体状态信息、所确定的路线,确定上述无人驾驶车辆的工作模式。
在本实施例中,上述电子设备可以采用各种算法,根据上述情绪特征信息、上述身体状态信息、所确定的路线,确定上述无人驾驶车辆的工作模式。
在本实施例的一些可选的实现方式中,上述电子设备可以根据预设的工作模式确定规则,确定上述无人驾驶车辆行驶的工作模式。例如,如果无人驾驶车辆内人员的情绪是厌恶、身体状态信息是优、所确定的路线的预估行驶时长是21小时且周边设施少,则根据上述无人驾驶车辆的性能参数设定工作模式是越野模式,根据上述无人驾驶车辆内环境参数设定工作模式是高效模式。
在本实施例的一些可选的实现方式中,上述电子设备可以采用卷积神经网络或深度置信网络,根据上述情绪特征信息、上述身体状态信息、所确定的路线,确定上述无人驾驶车辆的工作模式。作为示例,上述电子设备采用卷积神经算法按照如下步骤确定上述无人驾驶车辆的工作模式:
第一,输入层对情绪特征信息、上述身体状态信息、确定的路线信息进行归一化处理,得到归一化后的数据。
第二,卷积层对上述归一化后的数据进行卷积计算,得到数据矩阵。
第三,池化层对上述数据矩阵进行聚合统计计算,得到局部特征信息。
第四,全连接层对上述局部特征信息进行处理,生成全局特征信息。
第五,输出层对上述全局特征信息进行分类处理,确定上述无人驾驶车辆的工作模式。
步骤407,根据上述工作模式,设置上述无人驾驶车辆的参数。
在本实施例中,上述电子设备可以根据预设的上述工作模式中参数的参数值,生成相应的指令,将上述指令发送至对应的传感器或设备中。上述传感器或设备接收相应的指令,并执行上述指令。其中,上述参数包括以下至少一项:雷达监测频率、摄像头拍摄角度、动力参数、速度参数、确认是否超车的参数、影音类型参数、影音音量参数、空调设置参数、车窗开闭参数。例如,上述工作模式是越野模式,则设置雷达监测频率为每秒5次,动力参数是汽油和电池混合动力、音乐类型是摇滚、音量是70分贝、天窗打开。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于控制无人驾驶车辆的方法的流程400突出以下步骤:步骤一,根据无人驾驶车辆内人员的情绪特征信息、身体状态信息确定上述无人驾驶车辆的路线;步骤二,根据无人驾驶车辆内人员的情绪特征信息、身体状态信息、所确定的路线确定工作模式。由此,本实施例描述的方案可以根据上述无人驾驶车辆内人员的情绪特征信息、身体状态信息更加准确的确定路线和工作模式,从而提供了更佳适宜的乘车体验。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于控制无人驾驶车辆的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种车载终端中。
如图5所示,本实施例所述的用于控制无人驾驶车辆的装置500包括:采集单元501、第一生成单元502、第二生成单元503、确定单元504、控制单元505。其中,采集单元501,配置用于采集无人驾驶车辆内人员的影像信息、生命体征信息和上述无人驾驶车辆的始发地信息、目的地信息;第一生成单元502,配置用于根据上述影像信息,生成上述人员的动作特征信息;第二生成单元503,配置用于根据上述动作特征信息、上述生命体征信息,生成上述人员的情绪特征信息和身体状态信息;确定单元504,配置用于根据上述情绪特征信息、上述身体状态信息、上述始发地信息和上述目的地信息,确定上述无人驾驶车辆的路线和工作模式;控制单元505,配置用于根据上述路线和上述工作模式,控制上述无人驾驶车辆。
在本实施例中,用于控制无人驾驶车辆的装置500的采集单元可以通过安装在无人驾驶车辆上的摄像机、红外热像仪等传感器采集上述无人驾驶车辆内人员的影像信息。可以利用GPS定位上述无人驾驶车辆目前的位置信息,并将上述位置信息确定为始发地信息。可以通过语音与上述人员进行交互,确定目的地信息。可以通过安装在上述无人驾驶车辆上的各种类型的传感器采集上述人员的生命体征信息。上述生命体征信息可以包括但不限于以下至少一项:温度信息、心率信息、呼吸信息、血压信息。
在本实施例中,上述第一生成单元502可以采用频率特征提取算法或深度学习算法,识别并提取上述影像信息的静态图像和/或动态图像序列中的动作特征信息。
在本实施例中,基于采集单元501中采集的生命体征信息和第一生成单元502中生成的动作特征信息,上述第二生成单元503可以采用深度学习中的卷积神经网络或深度置信网络,生成上述人员的情绪特征信息和身体状态信息。
在本实施例中,首先,确定单元504通过采用各种导航系统,根据上述始发地信息和目的地信息检索可行性路线。针对可行性路线中的每一条路线,上述电子设备检索该路线的路线信息。之后,确定单元504可以采用深度置信网络或预设的规则根据上述情绪特征信息、上述身体状态信息和所检索出的可行性路线及每条路线的路线信息,确定上述无人驾驶车辆的路线和工作模式。
在本实施例中,控制单元505根据上述路线、上述工作模式,生成相应的指令。并将上述指令发送至相应的传感器或设备中。上述传感器或设备接收相应的指令,并执行上述指令。
在本实施例的一些可选的实现方式中,上述确定单元504包括:检索模块,配置用于根据上述始发地信息、上述目的地信息,检索出至少一条路线;路线确定模块,配置用于根据上述情绪特征信息、上述身体状态信息,从上述至少一条路线中确定用于上述无人驾驶车辆行驶的路线;工作模式确定模块,配置用于根据上述情绪特征信息、上述身体状态信息、所确定的路线,确定上述无人驾驶车辆的工作模式。
在本实施例的一些可选的实现方式中,控制单元505进一步配置用于:根据上述工作模式,设置上述无人驾驶车辆的参数,其中,上述参数包括以下至少一项:雷达监测频率、摄像头拍摄角度、动力参数、速度参数、确认是否超车的参数、影音类型参数、影音音量参数、空调设置参数、车窗开闭参数。
在本实施例的一些可选的实现方式中,采集单元501进一步配置用于:通过安装在上述无人驾驶车辆上的传感器,周期性地采集或实时采集上述人员的影像信息、生命体征信息。
在本实施例的一些可选的实现方式中,上述动作特征信息可以包括但不限于以下至少一项:表情特征信息、头部动作特征信息、肢体动作特征信息。
本申请的上述实施例提供的装置通过采集无人驾驶车辆内人员的影像信息、生命体征信息和无人驾驶车辆的始发地信息、目的地信息,分析生成上述人员的情绪信息和身体状态信息自动设置无人驾驶车辆行驶路线及工作模式。
下面参考图6,其示出了适于用来实现本申请实施例的车载终端的计算机系统600的结构示意图。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括触屏、语音交互模块等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,所述计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,所述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括采集单元、第一生成单元、第二生成单元、确定单元和控制单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,采集单元还可以被描述为“用于采集无人驾驶车辆内人员的影像信息、生命体征信息和无人驾驶车辆的始发地信息、目的地信息的单元”。
作为另一方面,本申请还提供了一种非易失性计算机存储介质,该非易失性计算机存储介质可以是上述实施例中所述装置中所包含的非易失性计算机存储介质;也可以是单独存在,未装配入终端中的非易失性计算机存储介质。上述非易失性计算机存储介质存储有一个或者多个程序,当所述一个或者多个程序被一个设备执行时,使得所述设备:采集无人驾驶车辆内人员的影像信息、生命体征信息和所述无人驾驶车辆的始发地信息、目的地信息;根据所述影像信息,生成所述人员的动作特征信息;根据所述动作特征信息、所述生命体征信息,生成所述人员的情绪特征信息和身体状态信息;根据所述情绪特征信息、所述身体状态信息、所述始发地信息和所述目的地信息,确定所述无人驾驶车辆的路线和工作模式;根据所述路线和所述工作模式,控制所述无人驾驶车辆。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种用于控制无人驾驶车辆的方法,其特征在于,所述方法包括:
采集无人驾驶车辆内人员的影像信息、生命体征信息和所述无人驾驶车辆的始发地信息、目的地信息;
根据所述影像信息,生成所述人员的动作特征信息;
根据所述动作特征信息、所述生命体征信息,生成所述人员的情绪特征信息和身体状态信息;
根据所述情绪特征信息、所述身体状态信息、所述始发地信息和所述目的地信息,确定所述无人驾驶车辆的路线和工作模式;
根据所述路线和所述工作模式,控制所述无人驾驶车辆。
2.根据权利要求1所述的用于控制无人驾驶车辆的方法,其特征在于,所述根据所述情绪特征信息、所述身体状态信息、所述始发地信息和所述目的地信息,确定所述无人驾驶车辆的路线和工作模式,包括:
根据所述始发地信息、所述目的地信息,检索出至少一条路线;
根据所述情绪特征信息、所述身体状态信息,从所述至少一条路线中确定用于所述无人驾驶车辆行驶的路线;
根据所述情绪特征信息、所述身体状态信息、所确定的路线,确定所述无人驾驶车辆的工作模式。
3.根据权利要求1所述的用于控制无人驾驶车辆的方法,其特征在于,所述根据所述路线和所述工作模式,控制所述无人驾驶车辆,包括:
根据所述工作模式,设置所述无人驾驶车辆的参数,其中,所述参数包括以下至少一项:雷达监测频率、摄像头拍摄角度、动力参数、速度参数、确认是否超车的参数、影音类型参数、影音音量参数、空调设置参数、车窗开闭参数。
4.根据权利要求1所述的用于控制无人驾驶车辆的方法,其特征在于,所述采集无人驾驶车辆内人员的影像信息、生命体征信息和所述无人驾驶车辆的始发地信息、目的地信息,包括:
通过安装在所述无人驾驶车辆上的传感器,周期性地采集或实时采集所述人员的影像信息、生命体征信息。
5.根据权利要求1所述的用于控制无人驾驶车辆的方法,其特征在于,所述动作特征信息包括以下至少一项:表情特征信息、头部动作特征信息、肢体动作特征信息。
6.一种用于控制无人驾驶车辆的装置,其特征在于,所述装置包括:
采集单元,配置用于采集无人驾驶车辆内人员的影像信息、生命体征信息和所述无人驾驶车辆的始发地信息、目的地信息;
第一生成单元,配置用于根据所述影像信息,生成所述人员的动作特征信息;
第二生成单元,配置用于根据所述动作特征信息、所述生命体征信息,生成所述人员的情绪特征信息和身体状态信息;
确定单元,配置用于根据所述情绪特征信息、所述身体状态信息、所述始发地信息和所述目的地信息,确定所述无人驾驶车辆的路线和工作模式;
控制单元,配置用于根据所述路线和所述工作模式,控制所述无人驾驶车辆。
7.根据其权利要求6所述的用于控制无人驾驶车辆的装置,其特征在于,所述确定单元包括:
检索模块,配置用于根据所述始发地信息、所述目的地信息,检索出至少一条路线;
路线确定模块,配置用于根据所述情绪特征信息、所述身体状态信息,从所述至少一条路线中确定用于所述无人驾驶车辆行驶的路线;
工作模式确定模块,配置用于根据所述情绪特征信息、所述身体状态信息、所确定的路线,确定所述无人驾驶车辆的工作模式。
8.根据其权利要求6所述的用于控制无人驾驶车辆的装置,其特征在于,所述控制单元进一步配置用于:
根据所述工作模式,设置所述无人驾驶车辆的参数,其中,所述参数包括以下至少一项:雷达监测频率、摄像头拍摄角度、动力参数、速度参数、确认是否超车的参数、影音类型参数、影音音量参数、空调设置参数、车窗开闭参数。
9.根据其权利要求6所述的用于控制无人驾驶车辆的装置,其特征在于,所述采集单元进一步配置用于:
通过安装在所述无人驾驶车辆上的传感器,周期性地采集或实时采集所述人员的影像信息、生命体征信息。
10.根据其权利要求6所述的用于控制无人驾驶车辆的装置,其特征在于,所述动作特征信息包括以下至少一项:表情特征信息、头部动作特征信息、肢体动作特征信息。
CN201610647814.3A 2016-08-09 2016-08-09 用于控制无人驾驶车辆的方法和装置 Active CN107703931B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201610647814.3A CN107703931B (zh) 2016-08-09 2016-08-09 用于控制无人驾驶车辆的方法和装置
US15/429,334 US9889856B1 (en) 2016-08-09 2017-02-10 Method and apparatus for controlling unmanned vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610647814.3A CN107703931B (zh) 2016-08-09 2016-08-09 用于控制无人驾驶车辆的方法和装置

Publications (2)

Publication Number Publication Date
CN107703931A CN107703931A (zh) 2018-02-16
CN107703931B true CN107703931B (zh) 2019-04-05

Family

ID=61147846

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610647814.3A Active CN107703931B (zh) 2016-08-09 2016-08-09 用于控制无人驾驶车辆的方法和装置

Country Status (2)

Country Link
US (1) US9889856B1 (zh)
CN (1) CN107703931B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6513069B2 (ja) * 2016-12-27 2019-05-15 本田技研工業株式会社 運転支援装置および運転支援方法
CN108466619B (zh) * 2018-03-26 2020-03-27 北京小马慧行科技有限公司 一种自动驾驶系统运行模式自动设置的方法及装置
CN110852133A (zh) * 2018-07-27 2020-02-28 宝时得科技(中国)有限公司 自动行走设备、及其控制方法、控制装置及计算机设备
CN109409207B (zh) 2018-09-10 2022-04-12 阿波罗智能技术(北京)有限公司 无人车内乘客状态的识别方法、装置、设备及存储介质
US11072344B2 (en) * 2019-03-18 2021-07-27 The Regents Of The University Of Michigan Exploiting acoustic and lexical properties of phonemes to recognize valence from speech
CN110032099B (zh) * 2019-03-28 2021-04-13 联想(北京)有限公司 一种信息处理方法及装置、设备
CN110083164B (zh) * 2019-05-20 2022-05-13 阿波罗智联(北京)科技有限公司 控制方法及系统、电子设备、服务器、计算机可读介质
CN112068538A (zh) * 2019-05-22 2020-12-11 北京百度网讯科技有限公司 路线切换方法及装置、电子设备、计算机可读介质
CN110626352A (zh) * 2019-10-08 2019-12-31 昆山聚创新能源科技有限公司 车辆及其司乘人员焦虑情况的检测方法和装置
CN110867096B (zh) * 2019-10-08 2021-07-20 江苏大学 一种适用于多种自动驾驶等级车辆的山区道路安全控制系统及方法
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
CN111277755B (zh) * 2020-02-12 2021-12-07 广州小鹏汽车科技有限公司 一种拍照控制方法、系统及车辆
CN111857138A (zh) * 2020-07-03 2020-10-30 深圳怡丰自动化科技有限公司 载人自动导引车的控制方法及其应用以及相关装置
CN112697457B (zh) * 2020-12-14 2022-11-01 中国科学院国家空间科学中心 一种基于深度学习的车辆自主检测与控制系统
CN113433874B (zh) * 2021-07-21 2023-03-31 广东工业大学 一种基于5g的无人艇综合控制管理系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5155684A (en) * 1988-10-25 1992-10-13 Tennant Company Guiding an unmanned vehicle by reference to overhead features
US8788118B2 (en) * 2006-09-06 2014-07-22 Jeffrey A. Matos Systems and methods for detecting and managing the unauthorized use of an unmanned aircraft
CN102961126B (zh) * 2012-11-16 2014-08-13 福建工程学院 基于脉象诊断模式的驾驶预警方法
US9149236B2 (en) * 2013-02-04 2015-10-06 Intel Corporation Assessment and management of emotional state of a vehicle operator
US9475496B2 (en) * 2013-11-22 2016-10-25 Ford Global Technologies, Llc Modified autonomous vehicle settings
CN103956028B (zh) * 2014-04-23 2016-01-20 山东大学 一种汽车多元驾驶安全防护方法
US9476729B2 (en) * 2014-05-29 2016-10-25 GM Global Technology Operations LLC Adaptive navigation and location-based services based on user behavior patterns
JP6464572B2 (ja) * 2014-05-30 2019-02-06 日産自動車株式会社 経路情報提示システム及び経路情報提示方法
CN104125348A (zh) * 2014-07-04 2014-10-29 北京智谷睿拓技术服务有限公司 通信控制方法、装置和智能终端
CN105035025B (zh) * 2015-07-03 2018-04-13 郑州宇通客车股份有限公司 一种驾驶员识别管理方法及系统
CN204813832U (zh) * 2015-08-04 2015-12-02 内蒙古麦酷智能车技术有限公司 无人驾驶汽车驾驶位人员状况监测系统
CN105303829A (zh) * 2015-09-11 2016-02-03 深圳市乐驰互联技术有限公司 汽车驾驶员情绪识别方法及装置
CN105700682A (zh) * 2016-01-08 2016-06-22 北京乐驾科技有限公司 基于视觉和语音的智能性别、情绪识别检测系统及方法
CN105788330A (zh) * 2016-04-29 2016-07-20 百度在线网络技术(北京)有限公司 无人驾驶车辆的实时路况预警方法和装置

Also Published As

Publication number Publication date
US20180043902A1 (en) 2018-02-15
CN107703931A (zh) 2018-02-16
US9889856B1 (en) 2018-02-13

Similar Documents

Publication Publication Date Title
CN107703931B (zh) 用于控制无人驾驶车辆的方法和装置
US11511598B2 (en) Apparatus and method for controlling air conditioning of vehicle
US11292477B2 (en) Vehicle manipulation using cognitive state engineering
CN107544516A (zh) 基于相对熵深度逆强化学习的自动驾驶系统及方法
CN109147368A (zh) 基于车道线的智能驾驶控制方法装置与电子设备
CN109416733A (zh) 便携式个性化
CN108376235A (zh) 图像检测方法、装置及计算机可读存储介质
CN110329271A (zh) 一种基于机器学习的多传感器车辆行驶检测系统及方法
CA3040961C (en) Airport noise classification method and system
US20110190008A1 (en) Systems, methods, and apparatuses for providing context-based navigation services
CN112906617B (zh) 一种基于手部检测的驾驶员异常行为识别方法与系统
CN101303764A (zh) 基于非下采样轮廓波的多传感器图像自适应融合方法
CN107909037B (zh) 信息输出方法和装置
CN107689052A (zh) 基于多模型融合和结构化深度特征的视觉目标跟踪方法
CN109606384A (zh) 车辆控制方法、装置、设备和存储介质
CN110163153A (zh) 用于识别交通标志牌边界的方法及装置
CN106887012A (zh) 一种基于循环矩阵的快速自适应多尺度目标跟踪方法
CN111052161A (zh) 用于识别线上到线下服务平台中醉酒请求者的系统和方法
CN110091877A (zh) 用于车辆安全驾驶的控制方法、系统及车辆
CN113177515A (zh) 一种基于图像的眼动追踪方法和系统
KR20200044173A (ko) 전자 장치 및 그의 제어 방법
CN110516622A (zh) 一种车内人员的性别、年龄和情绪智能识别方法及系统
WO2021185468A1 (en) Technique for providing a user-adapted service to a user
CN111898693A (zh) 能见度分类模型的训练方法、能见度估计方法、装置
CN113460060B (zh) 驾驶员疲劳程度评估系统、控制方法及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant