CN111565989A - 用于车辆的自主驾驶的自主驾驶装置和方法 - Google Patents
用于车辆的自主驾驶的自主驾驶装置和方法 Download PDFInfo
- Publication number
- CN111565989A CN111565989A CN201980007673.0A CN201980007673A CN111565989A CN 111565989 A CN111565989 A CN 111565989A CN 201980007673 A CN201980007673 A CN 201980007673A CN 111565989 A CN111565989 A CN 111565989A
- Authority
- CN
- China
- Prior art keywords
- autonomous driving
- vehicle
- processor
- event
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 18
- 230000004044 response Effects 0.000 claims description 49
- 230000008859 change Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 8
- 206010039203 Road traffic accident Diseases 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
提供了一种用于防止或减少漏光的摄影装置及其图像传感器。该摄影装置包括:图像传感器,被配置为包括分别具有光电二极管和用于临时存储光电二极管中累积的电荷的存储二极管的多个像素,以及图像处理器,被配置为通过接收存储在多个像素中的每个像素的存储二极管中的电荷来执行图像处理操作。此外,图像传感器具有多个像素的存储二极管彼此相邻排列的结构。因此,摄影装置可以防止来自相邻像素的光泄漏流入每个像素的存储二极管。
Description
技术领域
本公开涉及一种用于车辆的自主驾驶的自主驾驶装置及其控制方法。
背景技术
随着人们对车辆的自主驾驶的兴趣越来越大,相关技术的研发也越来越多。
具体而言,安装在车辆中的自主驾驶装置收集关于周围环境的信息和车辆的状态信息,将收集的信息应用于预定的自主驾驶模型,并根据应用结果进行车辆的自主驾驶。
当车辆执行自主驾驶时,可能发生根据周围环境(诸如交通事故、道路损失、意外发生障碍等)的事件,,或者根据内部环境(诸如自主驾驶系统中的错误或车辆的缺陷)的事件。
当上述各种事件发生时,使用被学习为适合于普通自主驾驶情况的自主驾驶模型来执行车辆的自主驾驶的自主驾驶装置可能不会快速改变为对应于事件的自主驾驶模型,并且不能执行车辆的自主驾驶。
因此,当通过传统的自主驾驶装置执行车辆的自主驾驶时,车辆的驾驶员由于如上所述的各种事件而面临事故风险。
发明内容
【技术问题】
示范性实施例可以解决以上缺点或者以上没有描述的缺点。
本公开解决了上述需求,并且本公开的一个示例方面是允许车辆安全地自主驾驶。
本公开的另一个方面是通过将驾驶模式快速改变为适合于在车辆自主驾驶期间发生的事件的自主驾驶模式来执行车辆的自主驾驶。
【技术方案】
根据示例实施例的用于执行车辆的自主驾驶的自主驾驶装置包括:传感器,被配置为获取感测信息以确定车辆的驾驶状态;存储器,被配置为存储多个自主驾驶模型;以及至少一个处理器,被配置为基于由传感器感测到的感测信息,使用存储在存储器中的多个自主驾驶模型中的一个来执行车辆的自主驾驶。
多个自主驾驶模型可以包括第一自主驾驶模型和至少一个第二自主驾驶模型,第一自主驾驶模型被学习为在正常驾驶状态下自主驾驶,第二自主驾驶模型被学习为响应于事件情况中的每一个进行自主驾驶。
当在使用第一自主驾驶模型执行车辆的自主驾驶的同时,基于通过传感器感测到的感测信息确定事件发生时,该至少一个处理器可以被配置为使用至少一个第二自主驾驶模型中与事件相对应的一个模型来执行车辆的自主驾驶。
该至少一个处理器可以包括:第一处理器,被配置为使用第一自主驾驶模型来执行车辆的自主驾驶;以及第二处理器,被配置为当在车辆由第一处理器执行自主驾驶的同时基于由传感器感测到的感测信息发生事件时,使用至少一个第二自主驾驶模型中对应于该事件的一个模型来执行车辆的自主驾驶。
当在车辆由第二处理器执行自主驾驶时,通过分析由传感器感测到的感测信息确定车辆在正常驾驶状态下驾驶时,第一处理器可以使用第一自主驾驶模型执行车辆的自主驾驶。
当在车辆由第二处理器执行自主驾驶时,通过分析由传感器感测的感测信息确定发生了不同于事件的另一事件时,第一处理器可以使用至少一个第二自主驾驶模型中与另一事件相对应的一个模型来执行车辆的自主驾驶。
至少一个处理器可以被实施为对应于多个自主驾驶模型的多个处理器。
感测信息可以包括车辆的状态信息和与车辆正在驾驶的道路相关的状态信息。
自主驾驶装置还包括输出器,该输出器包括输出电路,并且至少一个处理器可以基于自主驾驶模型改变,控制输出器输出消息以引导自主驾驶模式的改变。
根据另一示例实施例,车辆的自主驾驶装置的控制方法可以包括:获取感测信息以确定车辆的驾驶状态;基于由传感器感测的感测信息,从多个预先存储的自主驾驶模型中获取一个模型;以及通过至少一个处理器使用所获取的自主驾驶模型来执行车辆的自主驾驶。
多个自主驾驶模型可以包括第一自主驾驶模型和至少一个第二自主驾驶模型,第一自主驾驶模型被学习为在正常驾驶状态下自主驾驶,第二自主驾驶模型被学习为响应于事件情况中的每一个进行自主驾驶。
执行自主驾驶可以包括,在正在使用第一自主驾驶模型执行车辆的自主驾驶的同时,当基于传感器感测到的感测信息确定事件发生时,使用至少一个第二自主驾驶模型中对应于该事件的一个模型执行车辆的自主驾驶。
执行自主驾驶可以包括:使用第一自主驾驶模型执行车辆的自主驾驶;以及当在车辆由第一处理器执行自主驾驶的同时基于由传感器感测到的感测信息发生事件时,使用至少一个第二自主驾驶模型中对应于该事件的一个模型来执行车辆的自主驾驶。
执行自主驾驶可以包括:在车辆由第二处理器执行自主驾驶时,当通过分析由传感器感测的感测信息确定车辆在正常驾驶状态下驾驶时,由第一处理器使用第一自主驾驶模型执行车辆的自主驾驶。
执行自主驾驶可以包括:在车辆通过第二处理器执行自主驾驶时,当通过分析由传感器感测的感测信息确定发生了不同于事件的另一事件时,使用至少一个第二自主驾驶模型中与另一事件相对应的一个模型来执行车辆的自主驾驶。
至少一个处理器可以被实施为对应于多个自主驾驶模型的多个处理器。
感测信息可以包括车辆的状态信息和与车辆正在驾驶的道路相关的状态信息。
该方法还可以包括,基于自主驾驶模式改变,输出消息以引导自主驾驶模式的改变。
【有益效果】
如上所述,根据本公开,自主驾驶装置可以通过将驾驶模式快速改变为适合于在执行车辆自主驾驶时发生的事件的自主驾驶模式来执行车辆的自主驾驶。
附图说明
从下面结合附图的描述中,本公开的某些实施例的上述和/或其他方面、特征、和优点将变得更加明显,其中:
图1是示出根据示例实施例的车辆的自主驾驶的示例视图的图;
图2是示出根据示例实施例的示例自主驾驶装置的框图;
图3是示出根据示例性实施例的将自主驾驶模型用于自主驾驶装置的自主驾驶的示例的框图;
图4是示出根据另一示例性实施例的将自主驾驶模型用于自主驾驶装置的自主驾驶的示例的框图;
图5是示出根据又一示例性实施例的将自主驾驶模型用于自主驾驶装置的自主驾驶的示例的框图;
图6是示出根据示例实施例的自主驾驶装置的框图;
图7是示出根据示例实施例响应于自主驾驶装置的事件来执行车辆的自主驾驶的图;
图8A和图8B是示出根据又一示例实施例响应于自主驾驶装置的事件来执行车辆的自主驾驶的图;
图9是示出根据另一示例实施例响应于自主驾驶装置的事件来执行车辆的自主驾驶的图;
图10是示出根据又一示例实施例响应于自主驾驶装置的事件来执行车辆的自主驾驶的图;和
图11是示出根据示例实施例的自主驾驶装置的控制方法的框图。
具体实施方式
下文中,将参考附图更详细地描述示范性实施例。
本公开的示例实施例可以被不同地修改。因此,各种示范性实施例被示出在附图中并且在本公开中被详细描述。然而,应当理解,本公开不限于任何特定的示例实施例,而是包括所有修改、等同物和替换,而不脱离本公开的范围和精神。并且,熟知的功能或者结构在它们将以不必要的细节模糊本申请的情况下不被详细描述。
在下面的描述中,相同的附图参考标号被用于相同的元素,即使在不同的附图中。在本公开中定义的事物,诸如详细结构和元素,被提供来帮助对示范性实施例的全面理解。因此,很明显,可以无需那些具体定义的事物来执行示范性实施例。此外,在相关技术中已知的功能或元件在它们将以不必要的细节模糊示例实施例的情况下可能不会被详细描述。
本文使用的术语选自目前广泛使用的通用术语,并且考虑到本公开中的功能,但是同时,术语可以根据本领域技术人员的意图或先例或者新技术的出现而变化。此外,某些术语可以任意选择,在这种情况下,相应的含义将在本公开中描述。因此,本文使用的术语将不仅仅基于术语的名称来定义,而是基于术语的含义和整个公开的上下文来定义。
诸如“第一”、“第二”等术语可以用来描述各种元素,但是这些元素不应该被这些术语所限制。所述术语仅仅被用于将一个元素与其它元素区分开的目的。
除非另有说明,单数表达式包括复数表达式。应当理解,诸如“包括”或“由……组成”的术语在本文用于表示特征、数量、步骤、操作、元件、组件或其组合的存在,而不排除一个或多个其他特征、数量、步骤、操作、元件、组件或其组合的存在或添加其的可能性。
在本公开的示例实施例中,“模块”或“单元”可以执行至少一个功能或操作,并且被实施为硬件(例如,电路)或软件,或者硬件和软件的任意组合。此外,除了必须被实施为特定硬件的“模块”或“单元”(例如,专用处理器),多个“模块”或多个“单元”可以被集成到至少一个模块中,并且被实施为至少一个处理器(未示出)。
在下文中,将参考附图更详细地描述本公开的示例实施例,以便本领域技术人员能够容易地实施本公开。然而,本公开可以以许多不同的形式来具体实现,并且不限于这里阐述的实施例。
图1是示出根据示例实施例的示例的车辆的自主驾驶的图。
如图1所示,车辆10可以根据自主驾驶装置100的控制命令执行自主驾驶到用户请求的目的地。
例如,自主驾驶装置100可以获得预先存储的地图信息、目的地信息、车辆10的状态和周围环境的感测信息中的至少一个。此后,自主驾驶装置100将所获得的信息应用于所学习的自主驾驶模型,并基于处理的结果执行车辆10的自主驾驶。
可以针对每个驾驶情况学习用于车辆10的自主驾驶的自主驾驶模型(例如,通过机器学习、人工智能技术等),并且可以在自主驾驶装置100中登记针对每个驾驶情况学习的多个自主驾驶模型。
根据实施例,自主驾驶模型可以包括被学习为在正常驾驶情况下自主驾驶的第一自主驾驶模型,以及被学习为响应于各种事件(情况)中的每一个进行自主驾驶的至少一个第二自主驾驶模型。
事件情况可以是例如下雨或下雪的天气事件情况、车辆10或驾驶员发生异常的事件情况、自主驾驶装置100中的系统错误相关的事件情况以及发生交通事故的事件情况等,但不限于此。
通过基于预先获得的信息选择预先学习的多个自主驾驶模型中的一个,并将预先获得的信息应用于选择的自主驾驶模型,自主驾驶装置100可以根据处理的结果执行车辆10的自主驾驶。
例如,自主驾驶装置100可以将预先获得的信息应用于多个自主驾驶模型中的第一自主驾驶模型,并且基于处理的结果执行车辆10的自主驾驶。
自主驾驶装置100基于第一自主驾驶模型分析在自主驾驶期间获得的信息,并确定前述至少一个事件是否已经发生。
作为确定的结果,如果确定事件已经发生,则自主驾驶装置100选择被学习为响应于所确定的事件进行自主驾驶的第二自主驾驶模型。此后,自主驾驶装置100将预先获得的信息应用于选择的第二自主驾驶模型,并基于处理的结果执行车辆10的自主驾驶。
这样,根据本公开的自主驾驶装置100可以使用自主驾驶模型来执行自主驾驶,并且当事件发生时自适应地执行车辆10的自主驾驶,该自主驾驶模型被学习为响应于预定事件情况来执行自主驾驶。
图2是示出根据示例实施例的示例自主驾驶装置的框图。
如图2所示,自主驾驶装置100包括传感器110、存储器120和处理器(例如,包括处理电路)130。
传感器110获取用于确定车辆10的驾驶状态的各种感测信息。感测信息可以例如但不限于包括车辆10的状态信息和与车辆10正在驾驶的道路相关的状态信息。
车辆10的状态信息可以例如但不限于包括气压信息、振动强度信息、加速度信息、拍摄信息、红外感测信息、车辆10的位置信息等。
另外,车辆10的状态信息可以包括控制车辆10自主驾驶的自主驾驶车辆100的系统信息。系统信息可以包括,例如但不限于,控制车辆10自主驾驶的处理器130的处理速度信息、引导信息等。
与车辆10正在驾驶的道路相关的状态信息可以包括例如但不限于车辆10之间的事故检测信息、道路信息、天气信息等。
存储器120存储用于车辆10的自主驾驶的多个自主驾驶模型。所述多个自主驾驶模型可以包括第一自主驾驶模型和至少一个第二自主驾驶模型,第一自主驾驶模型被学习为在正常驾驶情况下自主驾驶,第二自主驾驶模型被学习为响应于事件情况中的每一个进行自主驾驶。
处理器130可以包括各种处理电路,并控制自主驾驶装置100的每个组件的整体操作。处理器130使用存储在存储器120中的多个自主驾驶模型中的至少一个来执行车辆10的自主驾驶。
例如,处理器130基于传感器110感测到的感测信息,使用存储在存储器120中的多个自主驾驶模型中的一个来执行车辆10的自主驾驶。
然而,本公开不限于此,并且处理器130可以不仅基于传感器110感测到的感测信息,而且基于例如但不限于关于相邻车辆10、管理道路上的交通的交通管理服务器(未示出)、气象管理服务器(未示出)等的信息,使用存储在存储器120中的多个自主驾驶模型中的一个来执行车辆10的自主驾驶。
处理器130可以使用如下所示的示例实施例来执行车辆10的自主驾驶。
当处理器130是单个单元时,当使用第一自主驾驶模型进行车辆10的自主驾驶时,处理器130可以基于由传感器110感测的感测信息来确定事件是否发生。
作为该确定的结果,如果确定事件已经发生,则可以使用至少一个第二自主驾驶模型中的与所确定的事件相对应的一个来执行车辆10的自主驾驶。
当提供多个处理器130时,多个处理器130中的第一处理器130-1(例如,参见图4和图5)可以使用第一自主驾驶模型来执行车辆10的自主驾驶。
在多个处理器130中,当车辆10通过第一处理器130-1执行自主驾驶时,第二处理器130-2(如图4和5所示)基于通过传感器110感测到的感测信息来确定事件是否发生。作为确定的结果,如果确定事件已经发生,则第二处理器130-2使用至少一个第二自主驾驶模型中的与所确定的事件相对应的第二自主驾驶模型来执行车辆10的自主驾驶。
当车辆10通过第二处理器130-2执行自主驾驶时,第一处理器130-1分析通过传感器110感测到的感测信息,并确定车辆10是否在正常驾驶状态下驾驶。如果确定车辆正以正常驾驶状态驾驶,则第一处理器130-1可以使用第一自主驾驶模型来执行车辆10的自主驾驶。
当车辆10通过第二处理器130-2执行自主驾驶时,第一处理器130-1分析由传感器110感测到的感测信息,并且确定已经发生了与第二处理器130-2正使用的第二自主驾驶模型相关的事件不同的另一事件。在这种情况下,第一处理器130-1可以使用至少一个第二自主驾驶模型中的对应于另一事件的一个来执行车辆10的自主驾驶。
例如,第二处理器130-2使用多个事件中对应于第一事件的第二自主驾驶模型,可以执行车辆10的自主驾驶。
当车辆10使用第二自主驾驶模型自主驾驶时,第一处理器130-1可以分析由传感器110感测到的感测信息,并且确定车辆10是否在正常驾驶状态下驾驶,或者是否已经发生了不同于第一事件的第二事件。
作为确定的结果,如果确定车辆10正以正常驾驶状态驾驶,则第一处理器130-1可以使用第一自主驾驶模型来执行车辆10的自主驾驶。
如果确定已经发生了不同于第一事件的第二事件,则第一处理器130-1可以使用至少一个第二自主驾驶模型中对应于第二事件的第二自主驾驶模型来执行车辆10的自主驾驶。
如上所述,当存在多个处理器130时,处理器可以例如以对应于多个自主驾驶模型中的每一个的数量来实施。
在下文中,将在根据本公开的至少一个过程130中使用多个自主驾驶模型中的一个更详细地描述操作。
图3是示出根据示例性实施例的将自主驾驶模型用于自主驾驶装置的自主驾驶的示例的图。
如图3所示,处理器130根据车辆10的驾驶状态使用多个自主驾驶模型310中的一个来执行车辆10的自主驾驶。
多个自主驾驶模型310包括例如第一自主驾驶模型311和第二自主驾驶模型312-1~312-3,第一自主驾驶模型311被学习为在正常驾驶状态下自主驾驶,第二自主驾驶模型312-1~312-3被学习为响应于事件状态中的每一个进行自主驾驶。
例如,当车辆10的驾驶开始时,处理器130可以使用第一自主驾驶模型311来执行车辆10的自主驾驶,第一自主驾驶模型311被学习为在正常驾驶状态下自主驾驶。
当使用第一自主驾驶模型311来执行车辆10的自主驾驶时,处理器130基于由传感器110感测到的感测信息来确定事件是否已经发生。如果确定事件已经发生,则处理器130使用被学习为响应于事件情况中的每一个进行自主驾驶的第二自主驾驶模型312-1~312-3中的与预定事件状态相对应的第二自主驾驶模型中的一个来执行车辆10的自主驾驶。
例如,当正使用第一自主驾驶模型311执行车辆10的自主驾驶时,如果感测到车辆事故已经发生,则可以使用第二自主驾驶模型312-1执行车辆10的自主驾驶,该第二自主驾驶模型312-1被学习为响应于车辆事故相关事件进行自主驾驶。
因此,通过第一自主驾驶模型311以每小时60千米的速度驾驶的车辆10可以例如通过第二自主驾驶模型312-1以低于当前速度的速度驾驶在发生车辆事故的路段。
在另一示例中,当使用第一自主驾驶模型311执行车辆10的自主驾驶时,当感测到下雨事件时,可以使用第二自主驾驶模型312-2来执行车辆10的自主驾驶,第二自主驾驶模型312-2被学习为响应于相应事件进行自主驾驶。
因此,通过第一自主驾驶模型311以每小时60千米的速度驾驶的车辆10可以通过第二自主驾驶模型312-1以低于当前速度的速度驾驶。
作为又一示例,当正使用第一自主驾驶模型311执行车辆10的自主驾驶时,如果感测到驾驶员发生异常的事件,则处理器130可以使用第二自主驾驶模型312-3执行车辆10的自主驾驶,该第二自主驾驶模型312-3被学习为响应于相应的事件进行自主驾驶。
因此,通过第一自主驾驶模型311以每小时60千米的速度驾驶的车辆10可以通过第二自主驾驶模型312-2自主驾驶到位于最靠近车辆10的地方的医院。
作为前述示例,当正使用第二自主驾驶模型312-2~312-3中的确定事件中的一个执行车辆10的自主驾驶时,处理器130使用第一自主驾驶模型311执行车辆10的自主驾驶。
图4是示出根据另一示例性实施例的将自主驾驶模型用于自主驾驶装置的自主驾驶的示例的图。
如图4所示,处理器130可以包括第一处理器130-1和第二处理器130-2。
第一处理器130-1使用第一自主驾驶模型311执行车辆10的自主驾驶,第一自主驾驶模型311被学习为在正常驾驶状态下自主驾驶。
此外,第二处理器130-2使用第二自主驾驶模型312-1~312-3中的一个来执行车辆10的自主驾驶,该第二自主驾驶模型312-1~312-3被学习为响应于事件中的每一个进行自主驾驶。
例如,当车辆10的发动机启动并且电力被供应给自主驾驶装置100时,第一处理器130-1可以使用第一自主驾驶模型311来执行车辆10的自主驾驶,第一自主驾驶模型311被学习为在正常驾驶状态下自主驾驶。
如上所述,当第一处理器130-1使用第一自主驾驶模型311执行车辆10的自主驾驶时,第二处理器130-2使用通过传感器110感测到的感测信息来确定事件是否已经发生。作为确定的结果,如果确定事件已经发生,则第二处理器130-2使用被学习为响应于事件中的每一个进行自主驾驶的第二自主驾驶模型312-1~312-3中的对应于预定事件状态的第二自主驾驶模型来执行车辆10的自主驾驶。
例如,当第一处理器130-1正使用第一自主驾驶模型311执行车辆10的自主驾驶时,如果感测到车辆事故已经发生,则第二处理器130-2可以使用第二自主驾驶模型312-1执行车辆10的自主驾驶,该第二自主驾驶模型312-1被学习为响应于车辆事故相关事件进行自主驾驶。
因此,通过第一自主驾驶模型311以每小时60千米的速度驾驶的车辆10可以通过第二自主驾驶模型312-1以低于当前速度的速度驾驶在发生车辆事故的路段。
在另一示例中,当第一处理器130-1使用第一自主驾驶模型311执行车辆10的自主驾驶时,当检测到下雨事件时,可以使用被学习为响应于该事件进行自主驾驶的第二自主驾驶模型312-2执行车辆10的自主驾驶。
因此,通过第一自主驾驶模型311以每小时60千米的速度驾驶的车辆10可以通过第二自主驾驶模型312-2以低于当前速度的速度驾驶在发生车辆事故的路段。
作为又一示例,当在第一处理器130-1中正使用第一自主驾驶模型311执行车辆10的自主驾驶时,如果感测到驾驶员发生异常的事件,则第二处理器130-2可以使用第二自主驾驶模型312-3执行车辆10的自主驾驶,该第二自主驾驶模型312-3被学习为响应于相应的事件进行自主驾驶。
因此,通过第一自主驾驶模式311以每小时60千米的速度驾驶的车辆10可以通过第二自主驾驶模式312-3自主驾驶到离车辆10最近的医院。
如果在车辆10的自主驾驶期间基于由传感器110感测到的感测信息确定车辆处于一般自主状态,则第一处理器130-1可以使用第一自主驾驶模型311来执行车辆10的自主驾驶。
图5是示出根据又一示例性实施例的将自主驾驶模型用于自主驾驶装置的自主驾驶的示例的图。
如图5所示,处理器130可以包括第一处理器130-1至第四处理器130-4。
在该示例中,第一处理器130-1使用被学习为在正常驾驶情况下自主驾驶的第一自主驾驶模型311来执行车辆10的自主驾驶。
第二处理器130-2使用第二自主驾驶模型312-1来执行车辆10的自主驾驶,第二自主驾驶模型312-1被学习为响应于多个事件中的第一事件来自主驾驶。
第三处理器130-3使用第二自主驾驶模型312-2来执行车辆10的自主驾驶,第二自主驾驶模型312-2被学习为响应于多个事件中的第二事件来自主驾驶。
第四处理器130-4使用第二自主驾驶模型312-3来执行车辆10的自主驾驶,第二自主驾驶模型312-3被学习为响应于多个事件中的第三事件来自主驾驶。
例如,当车辆10的发动机启动并且电力被供应给自主驾驶装置100时,第一处理器130-1可以使用第一自主驾驶模型311来执行车辆10的自主驾驶,第一自主驾驶模型311被学习为在正常驾驶状态下自主驾驶。
当第一处理器130-1使用第一自主驾驶模型311执行车辆10的自主驾驶时,如果基于传感器110检测到的感测信息确定第一事件已经发生,则第二处理器130-2使用第二自主驾驶模型312-1执行车辆10的自主驾驶,第二自主驾驶模型312-1被学习为响应于第一事件状态进行自主驾驶。
例如,第一事件可以是与车辆事故相关的事件。
因此,当第一处理器130-1使用第一自主驾驶模型311执行车辆10的自主驾驶时,如果确定发生了车辆事故的第一事件,则第二处理器130-2可以使用第二自主驾驶模型312-1执行车辆10的自主驾驶,第二自主驾驶模型312-1被学习为响应于第一事件进行自主驾驶。
因此,通过第一自主驾驶模型311以每小时60千米的速度驾驶的车辆10可以通过第二自主驾驶模型312-1以低于当前速度的速度驾驶在发生车辆事故的路段。
第二事件可以是与天气相关的事件。
因此,当第一处理器130-1确定在正使用第一自主驾驶模型311执行车辆10的自主驾驶的同时已经发生了第二下雨事件时,处理器130-3可以使用被学习为响应于第二事件自主驾驶的第二自主驾驶模型312-2执行车辆10的自主驾驶。
因此,通过第一自主驾驶模型311以每小时60千米的速度驾驶的车辆10可以通过第二自主驾驶模型312-2以低于当前速度的时速驾驶。
第三事件可以是与驾驶员的意外事件相关的事件。
因此,当第一处理器130-1使用第一自主驾驶模型311执行车辆10的自主驾驶时,如果确定发生了驾驶员具有异常的第三事件,则第四处理器130-4可以使用被学习为响应于第三事件进行自主驾驶的第二自主驾驶模型312-3执行车辆10的自主驾驶。
因此,通过第一自主驾驶模型311以每小时60千米的速度驾驶的车辆10可以通过第二自主驾驶模型312-3执行到位于最靠近车辆10的地方的医院的自主驾驶。
同时,当第一处理器130-1使用第二自主驾驶模型312-1至312-3中的一个来执行车辆10的自主驾驶时,基于通过第一自主驾驶模型311感测到的感测信息来确定车辆处于一般自主驾驶状态。
同时,第一处理器130-1至第四处理器130-4中的预定第一处理器130-1可以基于传感器110感测到的感测信息来确定事件是否已经发生。
此后,第一处理器130-1使用第二自主驾驶模型312向处理器130-2至130-4发送事件发生信息,第二自主驾驶模型312被学习为响应于来自第二第四处理器130-2至第四处理器130-4中的预定事件进行自主驾驶。
因此,第二处理器130-2至第四处理器130-4中的接收事件发生信息的处理器可以使用第二自主驾驶模型312来执行车辆10的自主驾驶,该第二自主驾驶模型312被学习为响应于相应的事件来进行自主驾驶。
然而,本公开不限于此,并且第一处理器130-1至第四处理器130-4中的每一个可以基于通过传感器110感测到的感测信息来确定事件是否已经发生。
在这种情况下,当确定事件已经发生时,第一处理器130-1至第四处理器至130-4中的与先前确定的事件相关的处理器可以执行被学习为响应于相应的事件进行自主驾驶的车辆10的自主驾驶。
图6是示出根据示例实施例的示例自主驾驶装置的框图。
如图6所示,除了传感器110、存储器120和处理器130之外,自主驾驶装置100还可以包括通信器(例如,包括通信电路)140、输入器(例如,包括输入电路)150和输出器(例如,包括输出电路)160。
如上所述,用于获取用于确定车辆10的驾驶状态的感测信息的传感器110可以包括,例如但不限于,加速度计传感器、陀螺仪传感器、接近传感器、温度和空气质量检测传感器、气囊传感器、轮胎气压传感器、碰撞传感器、照相机等。
然而,本公开不限于此,并且传感器110还可以包括用于感测车辆10的位置的地磁传感器、重力传感器和用于感测车道偏离的车道偏离检测传感器等。
加速度计传感器是用于测量移动车辆10的加速度或碰撞的传感器,以及陀螺仪传感器是通过旋转加速度计传感器来识别六轴方向以识别更详细和精确的操作的传感器。
接近传感器是用于检测驾驶车辆10附近的车辆20的接近度的传感器。温度和空气质量检测传感器是用于测量车辆10内部温度和二氧化碳浓度的传感器。
气囊传感器是用于检测气囊是否被操作以保护驾驶员的身体免受车辆10的碰撞事故的传感器。轮胎气压传感器测量并检测车辆10的轮胎的供给压力状态。照相机是用于拍摄已经登上车辆10的驾驶员的传感器。
地磁传感器是用于检测车辆10的位置的传感器。重力传感器是用于通过检测作用在车辆10上的重力方向来检测车辆10的方向的传感器,以及车道偏离检测传感器是用于检测驾驶车辆10是否正常驾驶而未离开车道的传感器。碰撞传感器是用于检测车辆的碰撞强度的传感器。可以根据通过碰撞传感器检测到的碰撞强度来确定存在或不存在安全气囊的操作。
根据本公开的传感器110可以通过能够感测车辆10的状态和进入车辆10的驾驶员或乘客的状态的传感器来感测各种状态信息。
如上所述,除了存储多个自主驾驶模型之外,存储器120还可以存储各种操作程序以控制自主驾驶装置100的操作。
当自主驾驶装置100开启时,操作程序可以是在存储器120中读取、编译并操作自主驾驶装置100的每个配置的程序。存储器120可以例如但不限于被实施为可附接到自主驾驶装置100或从自主驾驶装置100分离的ROM131、RAM 134或存储卡(例如,SD卡或存储棒)、非易失性存储器、易失性存储器、硬盘驱动器(HDD)、固态驱动器(SSD)等中的至少一个。
处理器130可以包括各种处理电路并控制自主驾驶装置100的整体操作,或者可以是如上所述控制自主驾驶装置100的整体操作的处理设备。
处理器130可以包括CPU 132、ROM 131、RAM 134和GPU 133,并且CPU 132、ROM131、RAM 134和GPU 133可以通过总线135互连。
CPU 132访问存储器120,并使用存储在存储器120中的操作系统程序来执行引导。此外,CPU 132使用存储在存储器120中的各种程序、内容和数据来执行各种操作。
ROM 131存储用于引导系统等的命令集。当输入开启命令并供电时,CPU133根据存储在ROM 131中的命令将存储在存储器120中的OS复制到RAM134中,并运行OS以引导系统。当引导完成时,CPU 133将存储在存储器120中的各种程序复制到RAM 134,运行复制到RAM134的程序,并执行各种操作。
GPU 133生成包括各种对象(诸如图标、图像、文本等)的显示屏。具体而言,GPU133基于接收到的控制命令,根据屏幕的布局,计算要由每个对象显示的诸如坐标值、形状、大小和颜色的属性值,并且基于计算出的属性值,生成包括对象的各种布局的显示屏幕。
处理器130可以被实施为与前述传感器110、存储器120或稍后将描述的每个配置相结合的片上系统或片上系统(SOC,SoC)。
通信器140可以包括各种通信电路,并且与车辆10中包括的设备、驾驶员或乘客的用户终端设备、外围车辆10的自主驾驶装置100以及交通管理服务器(未示出)等通信。这里,车辆10中包括的设备可以例如但不限于包括诸如黑匣子的行车记录仪(未示出),并且交通管理服务器(未示出)可以包括存储交通事故相关信息的云服务器(未示出)和负责事故处理的组织服务器(未示出)。
通信器140可以包括各种通信电路,并被实施为通信模块,诸如短程通信模块(未示出)和无线通信模块(未示出)等。
这里,短程通信模块(未示出)是与安装在车辆10中的行车记录仪(未示出)和驾驶员或乘客的用户终端(未示出)进行无线通信的通信模块。例如,该模块可以是蓝牙、紫蜂、近场通信(NFC)等。
无线通信模块(未示出)根据各种移动通信标准(诸如,WiFi、第三代(3G)、第三代合作伙伴计划(3GPP)和长期演进(LTE)等)连接到移动通信网络,并且可以与外围车辆10的自主驾驶车辆100和交通管理服务器(未示出)通信。
此外,通信器140可以发送存储在外部记录介质中的内容,或者通过连接器(未示出)从物理上连接到自主驾驶装置100的外部记录介质向外部记录介质发送,该连接器提供与各种源设备的接口,诸如,USB 2.0、USB 3.0、HDMI、IEEE 1394。此外,通信器140可以通过连接器(未示出)接收电力。
输入器150可以包括各种输入电路,用于从驾驶员或乘客接收各种用户命令,并将该命令发送到处理器130。
输入器150可以包括例如但不限于麦克风、操纵单元、触摸输入和用户输入。
麦克风接收用户的语音命令,并且操纵单元可以被实施为具有各种功能键、数字键、特殊键、字符键等的小键盘。当稍后描述的输出单元160中包括的显示单元161被实施为触摸屏时,触摸输入器可以被实施为与显示单元161具有相互布局结构的触摸板。在这种情况下,触摸输入器可以接收对通过显示单元161显示的各种应用相关图标的选择命令。
用户输入器可以从诸如遥控设备的至少一个外围设备(未示出)接收用于控制自主驾驶装置100的操作的IR信号或RF信号。
输出器160可以包括各种输出电路,包括例如但不限于,输出内容的图像的显示单元(例如,包括显示器)161和包括输出内容的音频的各种音频输出电路的音频输出器162。另外,当自主驾驶模型改变时,输出器160通过显示单元161和音频输出器162中的至少一个输出用于引导自主驾驶模式的改变的消息。
在下文中,将更详细地描述通过自主驾驶装置100中的多个处理器执行车辆10的自主驾驶的操作。
图7是示出根据示例实施例响应于自主驾驶装置的事件来执行车辆的自主驾驶的示例的图。
如图7所示,在自主驾驶装置100的多个处理器中,第一处理器130-1使用多个自主驾驶模型中的第一自主驾驶模型来执行车辆10的自主驾驶,该第一自主驾驶模型被学习为在正常驾驶状态下自主驾驶。
当使用第一自主驾驶模型来执行车辆10的自主驾驶时,第二处理器130-2基于通过传感器110感测到的感测信息来确定事件是否已经发生。
然而,本公开不限于此,并且第二处理器130-2可以基于由传感器110感测到的感测信息和通过通信器140从外围车辆10、管理道路上的交通的交通管理服务器(未示出)和气象管理服务器(未示出)接收的信息来确定事件是否已经发生。
作为确定的结果,如果确定在车辆10驾驶的道路上相邻车辆710和720之间发生事故的事件发生,则第二处理器130-2使用第二自主驾驶模型执行车辆10的自主驾驶,该第二自主驾驶模型被学习为响应于车辆事故相关事件进行自主驾驶。
如上所述,根据本公开的自主驾驶装置100通过多个处理器使用对应于每个事件的学习的自主驾驶模型来执行车辆10的自主驾驶。因此,当在正常驾驶期间发生交通事故相关事件时,根据本公开的自主驾驶装置100可以更快和更安全地执行车辆10的自主驾驶以通过发生交通事故的区域。
图8A和图8B是示出根据又一示例实施例响应于自主驾驶装置的事件来执行车辆的自主驾驶的的示例的图。
自主驾驶装置100的多个处理器130中的第一处理器130-1使用多个自主驾驶模型中被学习为在正常驾驶情况下自主驾驶的第一自主驾驶模型来执行车辆10的自主驾驶。
当通过使用第一自主驾驶模型来执行车辆10的自主驾驶时,第二处理器130-2基于通过传感器110感测到的感测信息来确定事件是否已经发生。
然而,本公开不限于此,并且第二处理器130-2可以基于由传感器110感测到的感测信息和通过通信器140从外围车辆10、管理道路上的交通的交通管理服务器(未示出)和气象管理服务器(未示出)接收的信息来确定事件是否已经发生。
作为确定的结果,如图8A所示,如果确定驾驶车辆10进入其中车辆能够高速驾驶的高速公路810的事件,则第二处理器130-2使用被学习为响应于相应事件进行自主驾驶的第二自主驾驶模型来执行车辆10的自主驾驶。
同时,在使用被学习为响应于进入高速公路810的事件进行自主驾驶的第二自主驾驶模型的车辆10的自主驾驶期间,第一处理器130-1或第三处理器130-3基于通过传感器110感测到的感测信息来确定事件是否发生。
然而,本公开不限于此,并且第三处理器130-3可以基于由传感器110感测到的感测信息和通过通信器140从外围车辆10、管理道路上的交通的交通管理服务器(未示出)和气象管理服务器(未示出)接收的信息来确定事件是否已经发生。
作为确定的结果,如图8B所示,如果确定驾驶车辆10进入拥挤交通道路的道路820的事件,则第一处理器130-1或第三处理器130-3使用被学习为响应于该事件自主驾驶的第二自主驾驶模型来执行车辆10的自主驾驶。
如上所述,根据本公开的自主驾驶装置100通过多个处理器使用对应于每个事件的学习的自主驾驶模型来执行车辆10的自主驾驶。因此,根据本公开的自主驾驶装置100能够以适合于公路、普通道路、拥挤道路等的驾驶模式执行车辆10的自主驾驶。
图9是示出根据又一示例实施例响应于自主驾驶装置的事件来执行车辆的自主驾驶的示例的图。
如图9所示,自主驾驶装置100的多个处理器130中的第一处理器130-1学习在多个自主驾驶模型中的正常驾驶情况下自主驾驶,并使用第一自主驾驶模型执行车辆10的自主驾驶。
当使用第一自主驾驶模型来执行车辆10的自主驾驶时,第二处理器130-2基于通过传感器110感测到的感测信息来确定事件是否已经发生。
然而,本公开不限于此,并且第二处理器130-2可以基于由传感器110感测的感测信息和通过通信器140从外围车辆10、管理道路上的交通的交通管理服务器(未示出)和气象管理服务器(未示出)接收的信息来确定事件是否已经发生。
作为该确定的结果,当确定发生了车辆在不同于车辆正在驾驶的驾驶路线的驾驶路线上驾驶的事件时,第二处理器130-2使用多个自主驾驶模型中的被学习为响应于对应的事件的第二自主驾驶模型来执行车辆10的自主驾驶。
例如,车辆10根据第一处理器130-1的用于自主驾驶的控制命令,可以在对应于用户请求的目的地的驾驶路线上驾驶。
同时,如图所示,通过离开与用户请求的目的地相对应的驾驶路线上的道路910,车辆10可以在不同于相应道路910的道路920上驾驶。
例如,当在使用第一自主驾驶模型执行车辆10的自主驾驶的第一处理器130-1中发生系统错误时,车辆10可以偏离对应于目的地的驾驶路线上的道路910,并且在不同于对应道路910的道路920上驾驶。
当这种系统错误相关事件发生时,第二处理器130-2使用多个自主驾驶模型中的被学习为响应于系统错误相关事件进行自主驾驶的第二自主驾驶模型,并执行车辆10的自主驾驶。
如上所述,根据本公开的自主驾驶装置100通过多个处理器130使用对应于每个事件的学习的自主驾驶模型来执行车辆10的自主驾驶。因此,根据本公开的自主驾驶装置100可以执行车辆10的自主驾驶,使得即使在用于自主驾驶的系统中出现错误,移动终端10也移动到用户请求的目的地。
图10是示出根据又一示例实施例响应于自主驾驶装置的事件来执行车辆的自主驾驶的示例的图。
如图10所示,自主驾驶装置100的多个处理器130中的第一处理器130-1使用被学习为在正常驾驶状态下自主学习的第一自主驾驶模型,并使用第一自主驾驶模型执行车辆10的自主驾驶。
同时,当使用第一自主驾驶模型来执行车辆10的自主驾驶时,第二处理器130-2基于通过传感器110感测到的感测信息来确定事件是否已经发生。
然而,本公开不限于此,并且第二处理器130-2可以基于由传感器110感测到的感测信息和通过通信器140从外围车辆10、管理道路上的交通的交通管理服务器(未示出)和气象管理服务器(未示出)接收的信息来确定事件是否已经发生。
作为该确定的结果,当确定发生了车辆在多雪道路1010上驾驶的事件时,第二处理器130-2使用多个自主驾驶模型中的第二自主驾驶模型来执行车辆10的自主驾驶,该第二自主驾驶模型被学习为响应于该事件来自主驾驶。
如上所述,根据本公开的自主驾驶装置100通过多个处理器使用对应于每个事件的学习的自主驾驶模型来执行车辆10的自主驾驶。因此,即使当在车辆10的自主驾驶期间下雪或下雨的天气变化时,自主驾驶装置100也以适合于天气变化的驾驶模式执行车辆10的自主驾驶,并且可以最小化和/或减少由于天气变化引起的交通事故。
在上文中,已经详细描述了在根据本公开的自主驾驶装置100中使用多个自主驾驶模型来执行车辆10的自主驾驶的操作。在下文中,将更详细地描述在根据本公开的自主驾驶装置100中使用多个自主驾驶模型来执行车辆10的自主驾驶的方法。
图11是示出根据示例实施例的自主驾驶装置的控制方法的框图。
如图11所示,在步骤S1110中,自主驾驶装置100获得(获取)感测信息以确定车辆10的驾驶状态。
用于确定车辆10的驾驶状态的感测信息可以包括车辆10的状态信息和与车辆10正在驾驶的道路相关的状态信息。
车辆10的状态信息可以包括例如但不限于气压信息、振动强度信息、加速度信息、拍摄信息、红外线感测信息、车辆10的位置信息等。
另外,车辆10的状态信息可以包括车辆10被控制自主驾驶的自主驾驶装置100的系统信息。这里,系统信息可以包括,例如但不限于,控制车辆10自主驾驶的处理器130的处理速度信息引导信息等。
与车辆正在驾驶的道路相关的状态信息可以包括关于车辆10中的事故的信息、道路信息、天气信息等。
自主驾驶装置100还可以不仅获取用于确定车辆10的驾驶状态的感测信息,还可以获取当前时间信息、地图信息、目的地信息、电源状态信息等。
在步骤S1120中,自主驾驶装置100基于包括上述感测信息的各种信息获取先前存储的多个自主驾驶模型中的一个。
在步骤S1130中,自主驾驶装置100使用至少一个处理器使用预先获取的自主驾驶模型来执行车辆10的自主驾驶。
多个自主驾驶模型可以例如包括第一自主驾驶模型和至少一个第二自主驾驶模型,第一自主驾驶模型被学习为在正常驾驶情况下自主驾驶,第二自主驾驶模型被学习为响应于事件情况中的每一个进行自主驾驶。
因此,当车辆10的驾驶开始时,自主驾驶装置100可以获取多个自主驾驶模型中被学习为在正常驾驶情况下自主驾驶的第一自主驾驶模型。此后,自主驾驶装置100可以使用获取的第一自主驾驶模型来执行车辆10的自主驾驶。
在步骤S1140中,在使用第一自主驾驶模型的车辆10的自主驾驶期间,自主驾驶装置100基于包括上述感测信息的各种信息来确定事件是否已经发生。
作为确定的结果,如果确定没有事件发生,则自主驾驶装置100使用第一自主驾驶模型执行车辆10的自主驾驶。
如果确定事件已经发生,则在步骤S1150中,自主驾驶装置100获取第二自主驾驶模型,该第二自主驾驶模型被学习为响应于该事件自主驾驶。
此后,在步骤S1160中,自主驾驶装置100可以输出通知自主驾驶模式已经从第一自主驾驶模型改变为第二自主驾驶模型的消息,并且可以向使用改变后的第二自主驾驶模型的至少一个处理器输出,从而执行车辆10的自主驾驶。
根据示例实施例,自主驾驶装置100可以通过单个处理器使用第一自主驾驶模型来执行车辆10的自主驾驶。在使用第一自主驾驶模型的车辆10的自主驾驶期间,自主驾驶装置100分析感测到的感测信息以确定事件是否已经发生。如果确定事件已经发生,则自主驾驶装置100可以通过处理器使用响应于该事件学习的第二自主驾驶模型来执行车辆10的自主驾驶。
根据另一示例实施例,自主驾驶装置100可以通过多个处理器中的第一处理器使用第一自主驾驶模型来执行车辆10的自主驾驶。
当车辆通过第一处理器执行自主驾驶时,自主驾驶装置100分析感测到的感测信息以确定事件是否已经发生。作为该确定的结果,如果确定事件已经发生,则自主驾驶装置100可以通过多个处理器中的第二处理器获取响应于该事件的第二自主驾驶模型,并且使用获取的第二自主驾驶模型来执行车辆10的自主驾驶。
同时,自主驾驶装置100通过第二处理器分析在使用第二自主驾驶模型的车辆10的自主驾驶期间感测到的感测信息,并确定是否存在与前述事件不同的事件。
作为确定的结果,如果确定已经发生了不同于上述事件的事件,则自主驾驶装置100通过第一处理器获取响应于该事件而学习的另一个第二自主驾驶模型,并且使用另一个第二自主驾驶模型来执行车辆10的自主驾驶。
同时,当自主驾驶装置100确定在使用第二自主驾驶模型执行车辆10的自主驾驶的同时发生车辆10以正常驾驶状态驾驶的事件时,可以获取由第一处理器学习的第一自主驾驶模型,以根据对应的事件执行一般自主驾驶,并使用获得的第一自主驾驶模型执行车辆10的自主驾驶。
根据本公开的另一方面,使用自主驾驶模型来执行车辆10的自主驾驶的至少一个处理器可以以对应于多个自主驾驶模型中的每一个的数量来实施。
在这种情况下,自主驾驶装置100可以通过多个处理器中的第一处理器使用第一自主驾驶模型来执行车辆10的自主驾驶。
当车辆正通过第一处理器执行自主驾驶时,自主驾驶装置100分析感测到的感测信息以确定事件是否已经发生。作为该确定的结果,如果确定事件已经发生,则自主驾驶装置100通过多个处理器中的第二处理器获取响应于该事件的所学习的第二自主驾驶模型,并执行车辆10的自主驾驶。
同时,自主驾驶装置100通过第二处理器来分析在使用第二自主驾驶模型的车辆10的自主驾驶期间感测到的感测信息,并确定是否发生了与上述事件不同的事件。
作为确定的结果,如果确定已经发生了不同于上述事件的事件,则自主驾驶装置100通过第三处理器获取响应于该事件学习的另一个第二自主驾驶模型,并且使用另一个第二自主驾驶模型来执行车辆10的自主驾驶。
前述自主驾驶装置100的控制方法可以实施为至少一个运行程序,并且该运行程序可以存储在非暂时性计算机可读记录介质中。
非暂时性可读介质可以是半永久性存储数据并可由设备读取的介质。例如,上述程序可以存储在计算机可读记录介质中,诸如随机存取存储器(RAM)、闪存、只读存储器(ROM)、可擦可编程ROM(EPROM)、电可擦可编程ROM(EEPROM)、寄存器、硬盘、可移动磁盘、存储卡、USB存储、CD-ROM等。
已经围绕优选示例实施例描述了本公开。
上述示范性实施例和优点仅仅是示范性的,并且将不会被理解为进行限制。示例实施例可以容易地应用于其他类型的设备或装置。并且,对示范性实施例的描述旨在为例示性的,而不是用来限制本公开的范围,并且许多替换、修改、和变化对于本领域技术人员而言将是清楚的。
Claims (15)
1.一种被配置为执行车辆的自主驾驶的自主驾驶装置,包括:
传感器,被配置为获取感测信息以确定车辆的驾驶状态;
存储器,被配置为存储多个自主驾驶模型;以及
至少一个处理器,被配置为基于由所述传感器感测到的感测信息,使用存储在存储器中的多个自主驾驶模型中的一个模型来执行车辆的自主驾驶。
2.根据权利要求1所述的自主驾驶装置,其中,所述多个自主驾驶模型包括被配置为在正常驾驶状态下自主驾驶的第一自主驾驶模型和被配置为响应于多个检测到的事件情况中的每一个来自主驾驶的至少一个第二自主驾驶模型。
3.根据权利要求2所述的自主驾驶装置,其中,所述至少一个处理器被配置为当在使用第一自主驾驶模型执行车辆的自主驾驶的同时,基于由所述传感器感测到的感测信息确定发生事件时,使用所述至少一个第二自主驾驶模型中的与事件相对应的一个模型来执行车辆的自主驾驶。
4.根据权利要求2所述的自主驾驶装置,其中,所述至少一个处理器包括:
第一处理器,被配置为使用第一自主驾驶模型来执行车辆的自主驾驶;和
第二处理器,被配置为当在车辆通过第一处理器执行自主驾驶的同时,基于由所述传感器感测到的感测信息发生事件时,使用至少一个第二自主驾驶模型中的与事件相对应的一个模型来执行车辆的自主驾驶。
5.根据权利要求4所述的自主驾驶装置,其中,第一处理器被配置为当在车辆通过第二处理器执行自主驾驶的同时,通过分析由所述传感器感测到的感测信息确定所述车辆在正常驾驶状态下驾驶时,使用第一自主驾驶模型来执行所述车辆的自主驾驶。
6.根据权利要求4所述的自主驾驶装置,其中,第一处理器被配置为当在车辆通过第二处理器执行自主驾驶的同时,通过分析由所述传感器感测到的感测信息确定发生与所述事件不同的另一事件时,使用所述至少一个第二自主驾驶模型中的与另一事件相对应的一个模型来执行车辆的自主驾驶。
7.根据权利要求2所述的自主驾驶装置,其中,所述至少一个处理器包括对应于所述多个自主驾驶模型中的每一个的多个处理器。
8.根据权利要求1所述的自主驾驶装置,其中,所述感测信息包括车辆的状态信息和/或与车辆正在驾驶的道路相关的状态信息。
9.根据权利要求1所述的自主驾驶装置,还包括:
包括输出电路的输出器,
其中,所述至少一个处理器被配置为基于自主驾驶模式被改变而控制所述输出器输出引导自主驾驶模式的改变的消息。
10.一种车辆的自主驾驶装置的控制方法,所述方法包括:
获取感测信息以确定车辆的驾驶状态;
基于由传感器感测到的感测信息,从多个预先存储的自主驾驶模型中获取一个模型;和
由所述至少一个处理器使用所获取的自主驾驶模型来执行车辆的自主驾驶。
11.根据权利要求10所述的方法,其中,所述多个自主驾驶模型包括被配置为在正常驾驶状态下自主驾驶的第一自主驾驶模型和被配置为响应于多个检测到的事件情况中的每一个来自主驾驶的至少一个第二自主驾驶模型。
12.根据权利要求10所述的方法,其中,执行自主驾驶包括:当在使用第一自主驾驶模型执行车辆的自主驾驶的同时,基于由所述传感器感测到的感测信息确定发生事件时,使用至少一个第二自主驾驶模型中的与事件相对应的一个模型来执行车辆的自主驾驶。
13.根据权利要求10所述的方法,其中,执行自主驾驶包括:
使用第一自主驾驶模型来执行车辆的自主驾驶;和
当在车辆通过第一处理器执行自主驾驶的同时,基于由所述传感器感测到的感测信息发生事件时,使用至少一个第二自主驾驶模型中的与事件相对应的一个模型来执行车辆的自主驾驶。
14.根据权利要求13所述的方法,其中,执行自主驾驶包括:
当在车辆通过第二处理器执行自主驾驶的同时,通过分析由所述传感器感测到的感测信息确定车辆在正常驾驶状态下驾驶时,由第一处理器使用第一自主驾驶模型执行车辆的自主驾驶。
15.根据权利要求13所述的方法,其中,执行自主驾驶包括:
当在车辆通过第二处理器执行自主驾驶的同时,通过分析由所述传感器感测到的感测信息确定发生与所述事件不同的另一事件时,使用所述至少一个第二自主驾驶模型中的与另一事件相对应的一个模型来执行车辆的自主驾驶。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0002921 | 2018-01-09 | ||
KR1020180002921A KR102384743B1 (ko) | 2018-01-09 | 2018-01-09 | 차량의 자율 주행을 위한 자율 주행 장치 및 그 제어 방법 |
PCT/KR2019/000199 WO2019139310A1 (en) | 2018-01-09 | 2019-01-07 | Autonomous driving apparatus and method for autonomous driving of a vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111565989A true CN111565989A (zh) | 2020-08-21 |
CN111565989B CN111565989B (zh) | 2023-09-19 |
Family
ID=67140046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980007673.0A Active CN111565989B (zh) | 2018-01-09 | 2019-01-07 | 用于车辆的自主驾驶的自主驾驶装置和方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11262757B2 (zh) |
EP (1) | EP3676147B1 (zh) |
KR (1) | KR102384743B1 (zh) |
CN (1) | CN111565989B (zh) |
WO (1) | WO2019139310A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210029335A (ko) * | 2019-09-05 | 2021-03-16 | 현대자동차주식회사 | 오류 모니터링을 이용한 교통사고 분석 시스템 |
DE102019127541B3 (de) * | 2019-10-14 | 2021-01-14 | Audi Ag | Verfahren zur assistierten oder zumindest teilautomatisierten Führung eines Kraftfahrzeugs |
KR102278692B1 (ko) * | 2019-11-26 | 2021-07-16 | 한국교통대학교산학협력단 | 자율주행 자동차에 대한 운전능력 훈련 및 평가를 위한 방법 및 장치 |
US11740628B2 (en) * | 2020-03-18 | 2023-08-29 | Baidu Usa Llc | Scenario based control of autonomous driving vehicle |
KR102275017B1 (ko) * | 2020-04-24 | 2021-07-12 | 한국철도기술연구원 | 자율주행 차량의 진단 시스템, 자율주행 차량의 제어장치, 관제 장치 및 이의 동작 방법 |
KR102527972B1 (ko) * | 2020-12-29 | 2023-04-28 | 서울대학교산학협력단 | 주행 제어 방법 및 장치 |
CN113830106A (zh) * | 2021-09-28 | 2021-12-24 | 英博超算(南京)科技有限公司 | 一种基于高精度六轴自动驾驶的实现方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8965621B1 (en) * | 2010-10-05 | 2015-02-24 | Google Inc. | Driving pattern recognition and safety control |
CN106314152A (zh) * | 2015-07-03 | 2017-01-11 | Lg电子株式会社 | 车辆驾驶辅助装置及具有其的车辆 |
KR20170015214A (ko) * | 2015-07-30 | 2017-02-08 | 삼성전자주식회사 | 자율 주행 차량을 제어하는 장치 및 방법 |
US20170038775A1 (en) * | 2015-07-20 | 2017-02-09 | Lg Electronics Inc. | Autonomous vehicle |
US20170135621A1 (en) * | 2015-11-16 | 2017-05-18 | Samsung Electronics Co., Ltd. | Apparatus and method to train autonomous driving model, and autonomous driving apparatus |
CN107249954A (zh) * | 2014-12-29 | 2017-10-13 | 罗伯特·博世有限公司 | 用于使用个性化驾驶简档操作自主车辆的系统和方法 |
US20170341513A1 (en) * | 2016-05-25 | 2017-11-30 | Baidu Usa Llc | System and method for providing content in autonomous vehicles based on real-time traffic information |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7343232B2 (en) | 2003-06-20 | 2008-03-11 | Geneva Aerospace | Vehicle control system including related methods and components |
EP1692026B1 (de) * | 2003-12-12 | 2012-04-11 | Continental Automotive GmbH | Verfahren und anordnung zur überwachung einer in einem radfahrzeug angeordneten messeinrichtung |
JP5592832B2 (ja) * | 2011-05-17 | 2014-09-17 | 日立建機株式会社 | 電気駆動ダンプトラック |
US9176500B1 (en) | 2012-05-14 | 2015-11-03 | Google Inc. | Consideration of risks in active sensing for an autonomous vehicle |
KR101204720B1 (ko) | 2012-06-14 | 2012-11-26 | (주)아모스텍 | 플래핑 날개짓 회전자의 진폭제어와 플래핑 날개짓 속도제어를 통해 자율적 비행자세와 자동항법비행이 가능한 무선원격 지능형 무인 플래핑 비행체 및 비행 방법 |
US8825258B2 (en) | 2012-11-30 | 2014-09-02 | Google Inc. | Engaging and disengaging for autonomous driving |
KR101736306B1 (ko) * | 2013-02-27 | 2017-05-29 | 한국전자통신연구원 | 차량과 운전자간 협력형 자율 주행 장치 및 방법 |
WO2015103374A1 (en) | 2014-01-06 | 2015-07-09 | Johnson Controls Technology Company | Vehicle with multiple user interface operating domains |
GB2525840B (en) | 2014-02-18 | 2016-09-07 | Jaguar Land Rover Ltd | Autonomous driving system and method for same |
JP6472626B2 (ja) * | 2014-09-01 | 2019-02-20 | Ntn株式会社 | 車両の横滑り防止制御装置 |
US10377303B2 (en) | 2014-09-04 | 2019-08-13 | Toyota Motor Engineering & Manufacturing North America, Inc. | Management of driver and vehicle modes for semi-autonomous driving systems |
KR20160135482A (ko) * | 2015-05-18 | 2016-11-28 | 한국전자통신연구원 | 동적 장애물 움직임 예측 장치 및 그 방법 |
US9884631B2 (en) | 2015-06-04 | 2018-02-06 | Toyota Motor Engineering & Manufacturing North America, Inc. | Transitioning between operational modes of an autonomous vehicle |
KR20170010645A (ko) | 2015-07-20 | 2017-02-01 | 엘지전자 주식회사 | 자율 주행 차량 및 이를 구비하는 자율 주행 차량 시스템 |
KR20170015112A (ko) * | 2015-07-30 | 2017-02-08 | 삼성전자주식회사 | 자율 주행 차량 및 그의 동작 방법 |
WO2017142935A1 (en) | 2016-02-15 | 2017-08-24 | Allstate Insurance Company | Real time risk assessment and operational changes with semi-autonomous vehicles |
JP6338614B2 (ja) * | 2016-04-27 | 2018-06-06 | 株式会社Subaru | 車両の走行制御装置 |
JP6747044B2 (ja) | 2016-05-11 | 2020-08-26 | 株式会社豊田中央研究所 | 走行経路生成装置、モデル学習装置、及びプログラム |
JP6796798B2 (ja) | 2017-01-23 | 2020-12-09 | パナソニックIpマネジメント株式会社 | イベント予測システム、イベント予測方法、プログラム、及び移動体 |
JP6846624B2 (ja) * | 2017-02-23 | 2021-03-24 | パナソニックIpマネジメント株式会社 | 画像表示システム、画像表示方法及びプログラム |
CN110914127B (zh) * | 2017-07-27 | 2023-08-04 | 日产自动车株式会社 | 驾驶辅助方法及驾驶辅助装置 |
US10775806B2 (en) * | 2017-12-22 | 2020-09-15 | Lyft, Inc. | Autonomous-vehicle dispatch based on fleet-level target objectives |
-
2018
- 2018-01-09 KR KR1020180002921A patent/KR102384743B1/ko active IP Right Grant
-
2019
- 2019-01-07 CN CN201980007673.0A patent/CN111565989B/zh active Active
- 2019-01-07 US US16/241,083 patent/US11262757B2/en active Active
- 2019-01-07 WO PCT/KR2019/000199 patent/WO2019139310A1/en unknown
- 2019-01-07 EP EP19739056.0A patent/EP3676147B1/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8965621B1 (en) * | 2010-10-05 | 2015-02-24 | Google Inc. | Driving pattern recognition and safety control |
CN107249954A (zh) * | 2014-12-29 | 2017-10-13 | 罗伯特·博世有限公司 | 用于使用个性化驾驶简档操作自主车辆的系统和方法 |
CN106314152A (zh) * | 2015-07-03 | 2017-01-11 | Lg电子株式会社 | 车辆驾驶辅助装置及具有其的车辆 |
US20170038775A1 (en) * | 2015-07-20 | 2017-02-09 | Lg Electronics Inc. | Autonomous vehicle |
KR20170015214A (ko) * | 2015-07-30 | 2017-02-08 | 삼성전자주식회사 | 자율 주행 차량을 제어하는 장치 및 방법 |
US20170135621A1 (en) * | 2015-11-16 | 2017-05-18 | Samsung Electronics Co., Ltd. | Apparatus and method to train autonomous driving model, and autonomous driving apparatus |
US20170341513A1 (en) * | 2016-05-25 | 2017-11-30 | Baidu Usa Llc | System and method for providing content in autonomous vehicles based on real-time traffic information |
Also Published As
Publication number | Publication date |
---|---|
US11262757B2 (en) | 2022-03-01 |
EP3676147A1 (en) | 2020-07-08 |
EP3676147B1 (en) | 2022-04-27 |
CN111565989B (zh) | 2023-09-19 |
WO2019139310A1 (en) | 2019-07-18 |
US20190212736A1 (en) | 2019-07-11 |
KR102384743B1 (ko) | 2022-04-08 |
KR20190093729A (ko) | 2019-08-12 |
EP3676147A4 (en) | 2020-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111565989B (zh) | 用于车辆的自主驾驶的自主驾驶装置和方法 | |
US10762775B2 (en) | Vehicle terminal device and control method thereof | |
US20200209874A1 (en) | Combined virtual and real environment for autonomous vehicle planning and control testing | |
US20180017799A1 (en) | Heads Up Display For Observing Vehicle Perception Activity | |
KR102183189B1 (ko) | 차량내 휴대기기 관리 방법 및 장치 | |
KR102431698B1 (ko) | 정보 제공을 위한 시스템, 서버 및 방법 | |
US11587438B2 (en) | Control apparatus and method for causing light demitting devices to display crosswalk | |
KR20220142590A (ko) | 차량 외관의 검출을 위한 전자 장치, 방법, 및 컴퓨터 판독가능 저장 매체 | |
US11492002B2 (en) | Electronic device attached to vehicle and control method therefor | |
US10878257B2 (en) | Electronic apparatus and control method thereof | |
KR102545199B1 (ko) | 전자 장치 및 그 제어 방법 | |
US10977934B2 (en) | Information providing system, vehicle-mounted device, and information providing method | |
KR20200070100A (ko) | 차량 검출 방법 및 이를 수행하는 전자 기기 | |
CN108859950A (zh) | 车辆下钻碰撞检测系统和方法 | |
KR20170018699A (ko) | 사고 정보 수집 장치 및 그 제어 방법 | |
JP7140483B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
KR20210102212A (ko) | 화상 처리 장치, 화상 처리 방법 및 화상 처리 시스템 | |
US11590988B2 (en) | Predictive turning assistant | |
KR20200044164A (ko) | 주행 보조 장치 및 이미지 처리 방법 | |
KR102438689B1 (ko) | 주행 데이터 실시간 분석을 통한 운전자 시선 및 집중도 예측을 위한 컴퓨터 시스템 및 그의 방법 | |
KR102551819B1 (ko) | 다차원적으로 차량 운전행태를 감지하는 전자장치 및 방법 | |
WO2024043024A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
US20220388538A1 (en) | Cabin preferences setting that is based on identification of one or more persons in the cabin | |
JP6869165B2 (ja) | 緊急停車判定装置、サーバ、および緊急停車判定用プログラム | |
KR20230075032A (ko) | 차량의 사고 이벤트를 분석하기 위한 전자 장치 및 그 동작방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |