CN110461675B - 用于基于感测信息控制驾驶的方法和设备 - Google Patents
用于基于感测信息控制驾驶的方法和设备 Download PDFInfo
- Publication number
- CN110461675B CN110461675B CN201880021096.6A CN201880021096A CN110461675B CN 110461675 B CN110461675 B CN 110461675B CN 201880021096 A CN201880021096 A CN 201880021096A CN 110461675 B CN110461675 B CN 110461675B
- Authority
- CN
- China
- Prior art keywords
- information
- sensing
- control signal
- dead zone
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000004891 communication Methods 0.000 claims description 73
- 238000010586 diagram Methods 0.000 description 22
- 230000008859 change Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/30—Conjoint control of vehicle sub-units of different type or different function including control of auxiliary equipment, e.g. air-conditioning compressors or oil pumps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/507—Depth or shape recovery from shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/161—Decentralised systems, e.g. inter-vehicle communication
- G08G1/162—Decentralised systems, e.g. inter-vehicle communication event-triggered
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2720/00—Output or target parameters relating to overall vehicle dynamics
- B60W2720/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2720/00—Output or target parameters relating to overall vehicle dynamics
- B60W2720/24—Direction of travel
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Traffic Control Systems (AREA)
- Electromagnetism (AREA)
Abstract
提供了一种基于感测信息控制驾驶的方法,该方法例如由包括在对象中的设备执行,并且包括:获得感测信息;基于感测信息确定在感测区域中的感测盲区;基于感测盲区生成控制信号;以及使用控制信号控制对象的驾驶。
Description
技术领域
本公开涉及一种用于使用感测信息来控制驾驶的方法、设备和系统。
背景技术
近期,由于信息通信技术和汽车工业的融合,汽车已经迅速变得智能。相应地,汽车已经从简单的机构演进为智能汽车,并且具体地,使用汽车的至少一个传感器的驾驶控制技术是智能汽车的核心技术的亮点。各种传感器安装在智能汽车中,并且智能汽车使用传感器获得各种类型的感测信息以向用户提供便利和安全,并且使用感测信息控制驾驶或辅助驾驶控制。
然而,并非感测目标区域中的所有信息都可以通过所安装在智能汽车中的传感器获得。例如,在某个区域被建筑物或另一汽车阻挡的情况下,安装在智能汽车中的传感器可能不能检测或标识阻挡区域中的对象。因此,由于不可被传感器检测到的区域而引起的事故风险可能会增加。
相应地,需要一种即使在传感器不能从其中获得信息的区域中也能降低不确定性和风险的方法。
发明内容
技术方案
根据示例性实施例的一方面,提供了一种使用感测信息的驾驶控制方法。
有益效果
示例性实施例提供了一种用于降低不确定性和风险的驾驶控制方法。
附图说明
从以下结合附图的详细描述中,本公开的特定实施例的以上和其他方面、特征和优点将变得更加明显,其中:
图1是与使用安装在汽车中的传感器提供警报信息的方法相关的图;
图2是示出根据一些实施例的感测区域和感测盲区的概念的图;
图3是示出根据一些实施例的基于感测信息来控制驾驶的方法的流程图;
图4是示出根据一些实施例的基于感测盲区来控制驾驶的方法的图;
图5是示出根据一些实施例的由对象执行的、控制灯并输出警报消息的方法的图;
图6是示出根据一些实施例的使用对象之间的通信来交换感测信息的方法的图;
图7是示出根据一些实施例的使用对象之间的通信来控制驾驶的方法的流程图;
图8是示出根据一些实施例的基于以视图为基础的感测信息对通过跟踪位置来执行的移动轨迹进行预测的图;
图9是示出根据一些实施例的基于移动轨迹的预测来提供警报消息的图;
图10是示出根据一些实施例的使用移动轨迹的预测来提供警报信息的方法的流程图;
图11和图12是示出根据一些实施例的基于情况信息的驾驶控制系统的图;
图13是示出根据一些实施例的用于基于感测信息来控制驾驶的设备的框图;以及
图14是示出根据一些实施例的用于基于感测信息来控制驾驶的设备的框图。
具体实施方式
实施本发明的最佳模式
根据示例实施例,提供了一种控制驾驶以避免风险和增加安全性的方法。
附加的方面将部分地在下面的描述中阐述,并且部分将从描述中显而易见,或者可以通过所呈现的实施例的实践来获知。
根据本公开的一方面,一种由包括在对象中的设备执行的、基于感测信息来控制驾驶的方法包括:获得感测信息;基于感测信息,确定感测区域中的感测盲区;基于感测盲区生成控制信号;以及使用控制信号来控制对象的驾驶。
感测盲区的确定可以包括:基于感测信息确定感测区域中至少一个部分区域的位置和特性,其中不能从该至少一个部分区域获得信息;以及基于确定的结果,将该至少一个部分区域确定为感测盲区。
生成可以包括基于感测盲区的位置和感测盲区的特性来生成控制信号。
控制对象的驾驶可以包括通过提供使用控制信号生成的警报消息来控制以下中的至少一个:对象的速度、对象的方向、对象的路径、对象的至少一个灯的方向、至少一个灯的角度、以及至少一个灯的亮度。
该方法可以进一步包括从另一对象接收另一对象的感测信息,并且生成控制信号可以包括基于确定的结果和另一对象的感测信息来生成控制信号。
由另一对象获得的另一对象的感测信息可以包括关于感测盲区的信息。
该方法可以进一步包括向另一对象传输由设备获得的感测信息。
该方法可以进一步包括从外部设备获得情况信息,并且生成控制信号可以包括基于感测盲区和情况信息生成控制信号。
该方法可以进一步包括:基于感测信息来估计对象的移动轨迹;并且基于关于移动轨迹的信息向对象提供警报信息。
该估计可以包括:基于感测信息检测对象;获得关于检测到的对象的位置的信息;以及基于关于位置的信息来预测对象的移动轨迹。
根据本公开的另一方面,一种非瞬时性计算机可读记录介质包括记录在其上用于使用计算机执行该方法的程序。
根据本公开的另一方面,一种基于感测信息控制对象的驾驶的设备包括:感测单元,其包括被配置为获得感测信息的感测电路系统;以及处理器,其被配置为基于感测信息来确定在感测区域中的感测盲区,基于感测盲区来生成控制信号,以及使用控制信号来控制对象的驾驶。
处理器可以进一步被配置为基于感测信息来确定在感测区域中的至少一个部分区域的位置和特性,其中不能从该至少一个部分区域获得信息,以及基于确定的结果将该至少一个部分区域确定为感测盲区。
处理器可以进一步被配置为基于感测盲区的位置和感测盲区的特性来生成控制信号。
设备可以进一步包括输出单元,该输出单元包括输出电路系统,并且处理器可以进一步被配置为通过经由输出单元提供使用控制信号生成的警报消息来控制以下中的至少一个:对象的速度、对象的方向、对象的路径、对象的至少一个灯的方向、至少一个灯的角度、以及至少一个灯的亮度。
设备可以进一步包括通信接口,该通信接口包括被配置为从另一对象接收另一对象的感测信息的通信电路系统,并且处理器可以进一步被配置为基于确定的结果和另一对象的感测信息来生成控制信号。
由另一对象获得的另一对象的感测信息可以包括关于感测盲区的信息。
通信接口可以进一步被配置为向另一对象传输由设备获得的感测信息。
设备可以进一步包括通信接口,该通信接口包括被配置为从外部设备获得情况信息的通信电路系统,并且处理器可以进一步被配置为基于感测盲区和情况信息来生成控制信号。
设备可以进一步包括:通信接口通信电路系统;以及输出单元,该输出单元包括输出电路系统,并且处理器可以进一步被配置为控制通信接口和输出单元以基于感测信息来估计对象的移动轨迹,以及基于关于移动轨迹的信息向对象提供警报信息。
处理器可以进一步被配置为基于感测信息来检测对象,获得关于检测到的对象的位置的信息,以及基于关于位置的信息来预测对象的移动轨迹。
本发明的模式
本文所使用的包括描述性或技术性术语的所有术语应该理解为具有对本领域普通技术人员显而易见的含义。然而,根据本领域普通技术人员的意图、先例或新技术的出现,这些术语可以具有不同的含义。此外,一些术语可以任意地选择,并且在这种情况下,将在详细的描述中详细描述所选的术语的含义。因此,本文所使用的术语是基于术语的含义以及说明书中的描述来定义的。
贯穿本公开,还将理解的是,当元件被称为“连接到”或“耦合到”另一元件时,它可以直接地连接到或耦合到另一元件,或者它可以通过具有在其间插入的中间元件来电连接到或耦合到另一元件。贯穿本公开,诸如“单元”和“模块”的术语例如可以指用于处理至少一个功能或操作的单元,其中该单元和模块可以体现为硬件或软件或者通过组合硬件和软件来体现。
贯穿本公开,装置或设备可以包括但不限于个人计算机(personalcomputer,PC)、移动电话、智能手机、电视(television,TV)、平板计算机、笔记本、个人数字助理(personaldigital assistant,PDA)、便携式多媒体播放器(portable multimedia player,PMP)、导航、MP3播放器、数码相机、冰箱、洗衣机、真空吸尘器、传感器、以及安装在汽车中的设备等,但不限于此。
贯穿本公开,对象可以指汽车或行人,并且可以包括但不限于动物、机器人、可移动智能设备等。
贯穿本公开,感测区域例如可以指可以使用至少一个传感器来感测的区域。也就是说,感测区域可以指可以使用传感器来感测的区域,从该区域传感器可以获得关于对象的信息或关于周围环境的信息。感测区域可以被分成多个区域或者可以是一个区域,并且感测区域的大小和范围可以根据传感器的数量、每个传感器的类型以及每个传感器的位置而变化。本公开不限于此。
贯穿本公开,感测盲区可以指例如但不限于被建筑物、基础设施或另一对象等阻挡的区域,或者可以指包括在感测区域中的区域,但由于在传感器中发生错误、在获得感测信息方面延迟等而无法从该区域获得感测信息。
贯穿本公开,感测信息例如可以指使用传感器获得的信息。例如,感测信息可以包括对象信息和驾驶信息,对象信息是关于预设范围内的对象的信息。然而,本公开不限于此,并且可以包括使用至少一个传感器获得的所有类型的信息。此外,感测信息可以包括例如但不限于关于感测盲区的信息,该信息包括该感测盲区的位置、范围等。
贯穿本公开,对象信息可以包括关于对象的位置、对象的形状、对象的移动方向、对象的速度、或对象的类型的信息。也就是说,对象信息可以包括所有类型的信息,包括但不限于由传感器获得的关于对象的信息、基于获得的关于对象的信息而确定的信息等。对象信息可以包括例如但不限于由传感器获得的关于对象的所有类型的信息、基于获得的关于对象的信息而标识的信息等。例如但不限于,对象信息可以是对象的图像、或者基于对象的图像而确定的对象的类型等。然而,本公开不限于此。贯穿本公开,感测盲区的特性可以包括但不限于感测盲区的大小和感测盲区的形状。此外,感测区域的特性可以包括但不限于感测区域的大小和感测区域的形状。
贯穿本公开,驾驶信息可以包括但不限于关于设备的速度、方向、路径和轨迹的信息,以及关于至少一个灯的方向、亮度和角度的信息等。
贯穿本公开,设备可以包括例如但不限于对象,或者设备可以包括在对象中、可以由对象携带、可以装备在对象中、或者可以安装在对象中等。此外,该设备可以是例如但不限于装置、服务器、传感器、控制设备或包括在对象中的移动设备等。在这点上,对象可以是汽车,但是本公开不限于此。
贯穿本公开,关于对象的位置的信息可以包括但不限于对象的位置、对象的位置的变化、对象的位置与时间之间的关系、对象的移动距离、对象的移动路径等。
贯穿本公开,情况信息可以包括例如但不限于关于情况变化的信息和关于当前情况的信息。例如,关于交通灯何时变红或者关于交通灯当前颜色的信息可以例如被称为情况信息,并且情况信息可以包括关于交通状况的信息或者关于对象的当前状态的信息等。情况信息可以从外部设备提供给对象,但是本公开不限于此。因此,对象可以向外部设备提供情况信息,并且情况信息可以在对象之间交换。此外,外部设备可以直接地获得情况信息或者可以从外部服务器获得情况信息。然而,本公开不限于此。
根据一些示例实施例,外部设备可以包括但不限于诸如交通控制设备(例如交通灯)和卫星等基础设施。
贯穿本公开,传感器可以包括各种感测电路系统,诸如,例如但不限于磁性传感器、位置传感器、加速度传感器、气压传感器、温度/湿度传感器、近距离传感器、红外传感器、RGB传感器、以及陀螺仪传感器等。此外,传感器可以包括但不限于相机或包括诸如麦克风等输入电路系统的音频输入单元。
贯穿本公开,预测例如可以指预测和估计两者。换句话说,贯穿本公开,预测可以包括基于数据或信息对将要发生的事情的预先确定。
如本文所使用的,术语“和/或”包括相关联的所列出项目中的一个或多个的任何和所有组合。当在元件的列表之前时,诸如“……中的至少一个”的表达式将修饰整个元件列表,而不会修饰列表中的各个元件。
图1是示出使用安装在汽车中的传感器来提供警报信息的方法的图。图1的汽车可以在其中安装有能够获得各种类型的信息的至少一个传感器,诸如,例如但不限于近距离传感器、雷达传感器、相机等。
汽车可以使用所安装的传感器来检测和标识在汽车的感测区域内的对象。例如,汽车可以在预设范围内标识汽车周围的人、建筑物、另一汽车等。也就是说,汽车或者被安装并且因此被包括在汽车的设备可以检测和标识汽车的感测区域内的对象。
然而,在感测区域中存在感测盲区的情况下,汽车可能不能充分地获得关于感测盲区的信息,使得在汽车驾驶期间可能发生事故。
图2是示出根据一些示例实施例的感测区域和感测盲区的概念的图。
根据一些示例实施例,第一对象211可以包括传感器。第一对象211可以包括多个传感器,并且在可以包括在第一对象211中的传感器的数量或传感器的类型方面不存在限制。
根据一些实施例,第一对象211可以是汽车。包括在第一对象211中的传感器可以从感测区域221获得感测信息。感测区域221例如可以指可被传感器检测的区域。也就是说,感测区域221可以指示传感器可以从其获得信息的区域。此外,感测区域221可以指示包括在第一对象211中的至少一个传感器可以从其获得各种类型信息的每个区域,或者可以指示包括在第一对象211中的至少一个传感器可以从其获得各种类型信息的区域的总和。
包括在第一对象211中的传感器例如可以包括但不限于被配置为获得关于对象的形状或位置的信息的距离传感器。例如,传感器可以包括但不限于渡越时间(Time ofFlight,ToF)传感器、结构化光传感器、超声波传感器、红外传感器、以及激光传感器(诸如光检测和测距(light detection and ranging,LiDAR)传感器)等。距离传感器可以通过发射各种波形的超声波、红外光、激光等,然后接收从对象反射的波形,来获得关于对象的形状或位置的信息。此外,距离传感器可以获得关于对象的形状或位置的信息,或者可以使用基于从测量点到对象的传播时间来测量到对象的距离的时间传播方法,或基于三角测量使用光来测量距离的方法,来获得关于到对象的距离的信息。LiDAR传感器可以包括但不限于多光束LiDAR传感器和微机械系统(micromechanical system,MEMS)/光学相控阵(opticalphased array,OPA)LiDAR传感器等。
然而,即使第一对象211使用传感器,也可能无法获得关于感测区域221中的特定区域的感测信息。例如,当第一对象211正在道路上驾驶时,第一对象211可以经过第二对象213。当第一对象211使用传感器获得感测信息时,从第一对象211输出以获得感测信息的各种波形的超声波、激光、红外光等可能由于第二对象213的存在和/或位置而被反射、衍射或失真。
因此,即使包括在第一对象211中的传感器可以从第二对象213的左侧区域获得感测信息,该传感器也不能从第二对象213的右侧区域获得感测信息。也就是说,第一对象211的感测区域221包括第一对象211由于预定原因二不能从其获得感测信息的区域。该区域例如可以被称为感测盲区223。换句话说,感测盲区223可以是对于包括在第一对象211中的传感器的盲区。
为什么出现感测盲区223的原因不限于上述示例,并且如上所述,感测盲区223可能由于在获得感测信息方面的延迟、传感器中发生错误等而发生。
因为第一对象211不能获得关于感测盲区223的信息,所以第一对象211难以预测感测盲区223中将会发生什么。例如,第一对象211不能获得关于在感测盲区223中移动的另一对象的信息,因此,如果一个对象突然地从感测盲区223出现,则存在诸如碰撞的事故的可能性。也就是说,当感测盲区223存在时,不确定性和风险可能增加。
因此,在存在感测盲区223的情况下,可能需要适当的驾驶控制来增加安全性。
图3是示出根据一些示例实施例的基于感测信息来控制驾驶的方法的流程图。
在操作301中,设备可以获得感测信息。根据一些实施例,设备可以使用设备的传感器来获得感测信息。例如,该设备可以使用例如但不限于距离传感器来获得对象信息,诸如关于感测区域中的对象的形状的信息、关于到对象的距离的信息等,并且可以使用例如加速度传感器来获得驾驶信息,诸如关于对象的速度的信息、关于对象的移动方向的信息等。本公开不限于前述示例,并且感测信息可以全部包括使用传感器获得的信息和基于使用传感器获得的信息而确定的信息。在操作303中,设备可以基于感测信息来确定感测区域中的感测盲区。设备可以基于感测信息来标识感测区域中的感测盲区。
根据一些示例实施例,在设备获得感测信息之后,该设备可以确定感测区域的哪个部分不包括在感测区域中。根据一些实施例,设备可以标识感测区域中的哪个部分不包括在感测区域中。例如,设备可以确定在感测区域的整个部分当中的关于右上区域的信息被省略或者相对于预设参考值失真,设备可以将右上区域确定为感测盲区。
也就是说,设备可以获得并分析关于感测区域的整个部分的感测信息,并且然后可以将来自感测区域的整个部分当中的区域确定为感测盲区,该区域与省略的信息或失真的信息相对应。
根据一些示例实施例,设备可以确定感测区域中的感测盲区的位置和大小。根据一些实施例,设备可以标识感测区域中的感测盲区的位置和大小。也就是说,设备可以基于所获得的感测信息来确定感测区域中的、不能从其获得信息的至少一个区域的位置和大小。
根据一些示例实施例,设备可以从另一对象接收关于另一对象的感测信息。也就是说,设备可以接收由另一对象获得的感测信息,并且可以使用所接收的感测信息和由设备获得的感测信息两者。此外,设备可以向另一设备传输所获得的感测信息。
根据一些示例实施例,从另一对象获得的感测信息可以是关于感测盲区的信息。也就是说,因为每个对象周围的环境彼此不同,所以与其相对应的感测盲区可以彼此不同。因此,通过在对象之间交换感测信息,可以减小每个对象的感测盲区。这将在下面参考图6更详细地描述。
此外,设备可以从外部设备获得情况信息。在已经出现感测盲区的情况下,设备不仅可以考虑感测信息,还可以考虑情况信息。
在操作305中,设备可以基于感测盲区生成控制信号。根据一些实施例,控制信号可以被配置为控制对象的速度、对象的方向、对象的路径、至少一个灯的方向、至少一个灯的角度、以及至少一个灯的亮度中的至少一个。控制信号不限于此,并且因此可以包括用于控制对象的所有操作的信号,这些操作包括警报消息的生成、警报消息的输出等。
根据一些实施例,设备可以基于感测盲区的位置和感测盲区的大小来生成控制信号。例如,在感测盲区出现在感测区域的右侧的情况下,设备可以向左改变对象的路径方向(例如,车道改变)。
在感测盲区大于预设范围的情况下,设备可以显著地降低速度或者可以控制灯的方向或角度朝向感测盲区。此外,设备可以经由扬声器或光束朝向感测盲区输出警报消息。
在考虑感测盲区和从另一对象接收且由另一对象获得的感测信息两者的情况下,设备可以生成控制信号。此外,在考虑感测信息和从外部设备接收的情况信息两者的情况下,设备可以生成控制信号。设备可以考虑所有感测信息、情况信息和从另一对象或另一设备接收的感测信息,或者可以设置其优先级,并且然后可以考虑优先级。
在操作307中,设备可以使用所生成的控制信号来控制对象的驾驶。设备可以通过生成控制信号来直接地控制对象,或者可以通过向被配置为控制对象的单独的设备(例如,汽车中的电子控制单元(electronic control unit,ECU))提供控制信号来控制对象。
根据一些示例实施例,设备可以通过提供使用所生成的控制信号生成的警报消息来控制对象的速度、对象的方向、对象的路径、至少一个灯的方向、至少一个灯的角度、以及至少一个灯的亮度中的至少一个。
例如,设备可以生成用于生成并输出警报消息的控制信号,可以使用所生成的控制信号生成警报消息,并且可以输出所生成的警报消息。设备可以通过输出警报消息来引导用户输入,并且可以基于用户输入来控制对象。
根据一些示例实施例,设备可以基于感测信息预测至少一个对象的移动轨迹,并且可以基于关于所预测的移动轨迹的信息来向至少一个对象提供警报信息。
例如,设备可以通过基于感测信息而检测至少一个对象和获得关于检测到的至少一个对象的位置的信息来预测至少一个对象的移动轨迹。根据预测的结果,设备可以提供警报消息或者可以生成用于提供警报消息的控制信号。
图4是示出根据一些示例实施例的基于感测盲区来控制驾驶的方法的图。
图4示出了道路431和人行道433。图4的道路431例如包括三条交通车道。从左侧开始,三个交通车道依次是第一车道、第二车道、以及第三车道,并且在这点上,第三车道接触人行道433。道路431可以是汽车可以在其上移动的路,并且人行道433可以是至少一个行人可以在其上经过的路。
参照图4,第一对象411正在道路431上驾驶。第二对象413、第三对象415、以及第四对象417被停放或停止在作为道路431的最外侧车道的第三车道上。也就是说,图4示出了驾驶中的常见情况。
根据一些示例实施例,第一对象411可以使用第一对象411的传感器来获得感测信息。第一对象411可以指示包括在第一对象411中的设备。
因为第二对象413至第四对象417被停放或停止在道路431的第三车道上,所以即使设备使用包括在第一对象411中的传感器,该设备也不能获得关于人行道433和第二对象413至第四对象417的右侧区域的感测信息。
例如,人行道433和第二对象413至第四对象417的右侧区域对应于第一对象411不能从其获得感测信息的感测盲区423。第一对象411可以确定感测盲区423,并且可以控制驾驶。
根据一些示例实施例,第一对象411可以基于感测盲区423的位置改变路径。参照图4,感测盲区423出现在相对于第一对象411的右侧,因此,第一对象411可以将车道改变到第一车道。通过将路径改变到左车道,第一对象411可以改变其路径以在距感测盲区423最远的另一路径上驾驶。
根据一些示例实施例,第一对象411可以降低速度。例如,在感测盲区423存在于预设距离内的情况下,第一对象411可以降低驾驶速度或者可以限制最大速度。
根据一些示例实施例,第一对象411可以改变灯的方向、角度以及亮度中的至少一个。例如,第一对象411可以改变灯对于感测盲区423的方向或角度,可以通过控制灯来加宽由灯照亮的面积,或者可以调节灯的亮度。根据一些实施例,第一对象411可以输出警报消息。通过向可能在感测盲区423中的对象广播警报消息可以降低事故风险。例如,第一对象411可以以声音、光、以及光束中的至少一种的形式来输出警报消息。
此外,第一对象411可以从第二对象413至第四对象417获得感测信息。也就是说,因为第二对象413至第四对象417可以获得关于感测盲区423的感测信息,所以第一对象411可以从第二对象413至第四对象417获得感测信息。将在下面参考图6更详细地描述这种获得。
图5是示出根据一些示例实施例的由第一对象411执行的、控制灯并输出警报消息的方法的图。
参照图5,与图4中一样,第一对象411正在道路431上驾驶。并且,第二对象413、第三对象415以及第四对象417被停放或停止在作为道路431的最外侧车道的第三车道上。
根据一些示例实施例,第一对象411可以使用第一对象411的传感器来获得感测信息。然而,因为第二对象413至第四对象417被停放或停止在道路431的第三车道上,所以即使设备使用包括在第一对象411中的传感器,该设备也不能获得关于人行道433和第二对象413至第四对象417的右侧区域的感测信息。
根据一些示例实施例,当感测盲区423定位在第一对象411的感测区域中时,第一对象411可以控制第一对象411的灯。例如,第一对象411可以控制灯的角度被调节朝向感测盲区423。此外,第一对象411可以通过控制灯来加宽被灯照亮的面积。
根据一些示例实施例,第一对象411可以调节灯的亮度或灯的闪烁,并且还可以通过控制灯形成预设形式来显示停止信号、汽车接近信号等。
此外,第一对象411可以经由扬声器或光束朝向感测盲区423输出警报消息。例如,第一对象411可以通过使用布置在第一对象411处的扬声器输出警告声、汽车接近信号等,或者通过将光束发射到路上或者发射到定位在路上的另一对象中,来向可能在感测盲区423中的行人递送预设信号。
第一对象411可以通过调节声音输出方向朝向感测盲区423输出扬声器的警报声,并且可以调节警报声的标度(分贝(dB)),但是本公开不限于此,并且第一对象411可以向可能在感测盲区423中的行人递送预设信号。
图6是示出根据一些示例实施例的使用对象之间的通信来交换感测信息的方法的图。
图6示出了道路531和人行道533。图6的道路531具有三条交通车道。从左侧开始,三个交通车道依次是第一车道、第二车道、以及第三车道,并且在这点上,第三车道接触人行道533。参照图6,第一对象511正在第二车道上驾驶,并且第二对象513正在第三车道上驾驶。
根据一些示例实施例,第一对象511可以使用第一对象511的传感器来获得感测信息。第一对象511例如可以指包括在第一对象511中的设备。第一对象511可以从其获得感测信息的感测区域对应于第一感测区域521,并且该感测区域相对于第一对象511具有半圆形。
然而,第二对象513的右侧区域被第二对象513阻挡,因此,第一对象511不能从其获得感测信息。也就是说,第二对象513的右侧区域被包括在第一感测区域521中,但是第一对象511不能从其获得感测信息,因此,第二对象513的右侧区域是第一对象511的感测盲区523。
第二对象513也可以使用第二对象513的传感器来获得感测信息。第二对象513从其获得感测信息的感测区域是第二感测区域621。与第一对象511不同,在第二对象513的第二感测区域621中不存在感测盲区。也就是说,因为第二对象513在第一对象511前方,所以第二感测区域621的部分不会被第一对象511阻挡。因此,在这个示例中不存在第二对象513的感测盲区,并且第二对象513可以获得关于第二感测区域621的整个部分的感测信息。
再参照图6,行人541正从人行道533接近道路531。然而,因为行人541在第一对象511的感测盲区523中,所以第一对象511不能获得关于行人541的信息,因此,事故的风险可能很高。
因此,第一对象511可以从第二对象513接收由第二对象513或包括在第二对象513中的设备获得的感测信息。第二对象513可以获得关于感测盲区523的整个部分或感测盲区523的一部分的感测信息,其中第一对象511不能获得该感测信息。因此,第二对象513可以向第一对象511提供由第二对象513获得的感测信息。
根据一些示例实施例,第一对象511可以通过向第二对象513请求由第二对象513获得的感测信息来接收感测信息,或者可以获得由第二对象513广播的感测信息,但是本公开不限于此。此外,第一对象511可以向第二对象513传输由第一对象511或包括在第一对象511中的设备所获得的感测信息。
第一对象511可以基于由第一对象511获得的感测信息和由第二对象513获得并从第二对象513接收的感测信息来生成控制信号,并且可以基于所生成的控制信号来控制驾驶。参照图5和图6,已经接收到由第二对象513获得的感测信息的第一对象511可以识别出行人541位于人行道533上,因此,第一对象511可以改变路径或降低速度。
图7是示出根据一些示例实施例的使用对象之间的通信来控制驾驶的方法的流程图。
在操作701中,设备可以获得感测信息。
在操作703中,设备可以基于感测信息来确定在感测区域中的感测盲区。操作701至703对应于前述描述,并且因此不再详细描述。
在操作705中,设备可以从另一对象接收另一对象的感测信息。根据一些实施例,另一对象的感测信息可以包括由另一对象或包括在另一对象中的设备获得的感测信息。另一对象可以指示另一汽车。
根据一些示例实施例,设备可以向另一对象请求另一对象的感测信息。另一对象可以接收该请求,并且可以向设备传输由另一对象获得的感测信息。
根据一些示例实施例,在操作703中,当设备确定感测盲区不存在时,设备可以不从另一对象接收另一对象的感测信息。
根据一些示例实施例,当在设备周围存在多个对象时,设备可以选择最有可能具有关于感测盲区的信息的对象,并且可以请求该对象传输由主要选择的对象获得的感测信息。例如,当卡车和公共汽车存在于设备周围,并且公共汽车有很高概率具有关于设备的感测盲区的信息时,设备可以相对于卡车优先请求公共汽车传输感测信息。
根据一些示例实施例,设备可以基于感测盲区的位置来获得另一对象的感测信息。例如,设备可以获得感测盲区的坐标信息,并且可以从另一对象接收仅关于与坐标信息相对应的感测盲区的感测信息。也就是说,设备可以从另一对象仅接收该设备没有获得的感测信息。
此外,设备可以直接地与另一对象通信,或者可以经由第三对象或外部设备间接地与另一对象通信。在该设备和另一设备之间执行的通信方法方面没有限制。该通信方法可以包括所有类型的通信,这些通信包括预定的通信标准、预定的频带、预定的协议、经由预定信道的通信等。例如,该通信方法可以包括但不限于Wi-Fi、蓝牙、蓝牙低功耗(Bluetooth Low Energy,BLE)、Zigbee、第三代(3G)、长期演进(Long-Term Evolution,LTE)、近场通信(near-field communication,NFC)、使用超声波执行的通信、短程通信、以及远程通信等。
根据一些示例实施例,短程通信可以指这样的通信方案,即通过该通信方案,仅当用于执行通信的两个设备存在于预定范围内时通信才可用,并且短程通信的示例可以包括蓝牙、BLE、NFC等,但不限于此。
远程通信可以指这样的通信方案,即通过该通信方案,两个设备之间的通信是可用的,不管它们之间的距离如何。例如,远程通信可以指经由中继站(诸如接入点(accesspoint,AP))的通信,其中即使在两个设备之间的距离超过预定距离,两个设备也可以彼此通信,并且远程通信可以包括使用蜂窝网络的通信方案(诸如短消息业务(short messageservice,SMS)、电话等)。本公开不限于此,并且远程通信可以包括除了短程通信之外的所有通信方案。
在操作707中,设备可以基于确定结果和另一对象的感测信息来生成控制信号。也就是说,设备不仅可以基于在操作701至703中获得的感测信息,还可以基于从另一对象接收的另一对象的感测信息来生成控制信号。
在操作709中,设备可以使用所生成的控制信号来控制包括该设备的对象的驾驶。其描述对应于前述描述,并且因此在此不再重复。
图8是示出根据一些示例实施例的基于以视图为基础的感测信息对通过跟踪位置来执行的移动轨迹进行预测的示例的图;
参照图8,第一对象811可以使用第一对象811的传感器来检测、识别和跟踪感测区域821中的至少一个对象。第一对象811可以指示包括在第一对象811中的设备。
例如,第一对象811可以使用传感器来检测感测区域821中的对象,可以识别出该对象对应于行人841和第二对象813,并且可以跟踪行人841和第二对象813。根据一些实施例,第一对象811可以通过跟踪行人841和第二对象813来预测行人841和第二对象813的移动轨迹。
例如,第一对象811可以基于在感测区域821中的对象的位置信息来预测移动轨迹。换句话说,第一对象811可以获得对象已经移动的坐标信息,可以分析关于移动的坐标信息,并且可以预测对象将如何移动或者移动到哪里,从而预测对象的移动轨迹。
根据一些示例实施例,第一对象811可以基于,例如但不限于,关于根据路径、时间段(包括白天和夜间)、以及速度等的移动路径或驾驶模式的统计数据来预测对象的移动轨迹。根据路径、时区(包括白天和夜间)、以及速度的移动路径或驾驶模式可以被预先存储在第一对象811中,或者可以从外部服务器接收。
此外,根据一些示例性实施例,第一对象811可以向外部设备传输对象的位置信息,并且然后该外部设备可以预测移动轨迹,并且可以向第一对象811提供预测结果。
根据一些示例实施例,第一对象811可以基于预测的移动轨迹来确定碰撞的可能性,并且可以基于确定的结果向至少一个对象传输警报消息。这将在下面参考图9更详细地描述。
图9是示出根据一些示例性实施例的基于移动轨迹的预测来提供警报消息的示例的图。
如参考图8所述的那样,第一对象811可以预测第二对象813和行人841的移动轨迹,并且可以确定碰撞的可能性。第一对象811可以预测第二对象813和行人841的移动轨迹,并且可以标识碰撞的可能性。根据确定的结果,第一对象811可以向第二对象813和/或行人841传输警报消息。
与图8相比,图9的第二对象813正在不同的交通车道上驾驶。也就是说,第二对象813正在由图8中的第一对象811所预测的移动轨迹上移动。然而,由于第一对象811,第二对象813可能难以检测到行人841。也就是说,第一对象811的右侧区域可以对应于第二对象813的感测盲区。
当行人841穿过人行横道831时,由于第一对象811,有可能行人841不能够看到第二对象813。因此,存在事故风险。也就是说,如果基于所预测的移动轨迹存在碰撞的可能性,那么第一对象811可以向至少一个对象提供警报消息,以防止和/或降低事故的可能性。
此外,第一对象811可以确定在第一对象811与第二对象813之间碰撞的可能性,并且然后可以向第二对象813提供警报消息,和/或可以确定在第一对象811与行人841之间碰撞的可能性,并且然后可以向行人841的移动设备提供警报消息。
根据一些示例实施例,第一对象811可以基于至少一个对象的位置和角度来预测每个对象的感测盲区,并且可以基于所预测的感测盲区来提供警报消息。
例如,即使在行人841与第二对象813之间存在碰撞的可能性,如果第二对象813几乎可以肯定地检测到行人841,则也可以不需要提供警报消息,因此,第一对象811可能不单独地提供警报消息。
根据一些实施例,第一对象811可以以各种方式提供警报消息。例如,但不限于,第一对象811可以经由扬声器向行人841输出警报声,并且可以经由通信向第二对象813提供警报消息。第二对象813可以从第一对象811接收警报消息,并且可以向第二对象813的平视显示器(head-up display,HUD)或中央信息显示器(central information display,CID)输出警报消息。可替换地,第一对象811可以通过输出光束在道路上显示警告短语,或者可以通过控制灯来替换警报消息。
图10是示出根据一些示例实施例的使用移动轨迹的预测来提供警报信息的方法的流程图。
在操作1001中,设备可以获得关于感测区域的信息。其描述对应于前述描述,因此在此不再重复。
在操作1005中,设备可以基于感测信息来估计对象的移动轨迹。
根据一些示例实施例,该设备可以基于感测信息来检测和标识感测区域中的至少一个对象。此外,设备可以识别和跟踪检测到且标识的至少一个对象。
例如,该设备可以基于关于感测区域中的对象的位置信息来预测对象的移动轨迹。设备可以获得对象已经移动的坐标信息,可以分析关于移动的坐标信息,并且可以预测对象将如何移动,从而预测对象的移动轨迹。
根据一些示例实施例,设备可以向外部设备传输关于对象的位置信息,并且可以从外部设备接收由外部设备预测的对象的移动轨迹。外部设备可以包括外部服务器。
在操作1007中,设备可以确定对象之间是否存在碰撞的可能性。设备可以标识对象之间是否存在碰撞的可能性。
设备可以基于在操作1005中预测的移动轨迹来确定对象之间是否存在碰撞的可能性。例如,在所标识的至少一个对象包括单个对象的情况下,设备可以确定在单个对象与包括该设备的对象之间是否存在碰撞的可能性。在所标识的至少一个对象包括多个对象的情况下,设备可以确定在多个对象之间是否存在碰撞的可能性。
例如,设备可以通过比较例如但不限于多个对象的所预测的移动路径,和/或基于多个对象之间的距离、多个对象的速度的相应变化、以及多个对象之间的距离的相应变化中的至少一个,来确定在多个对象之间是否存在碰撞的可能性。因此,基于对象的相应移动速度,即使一些轨迹重叠,也可能没有碰撞的可能性。
在操作1009中,设备可以向对象提供警报信息。
设备可以使用各种方法中的一个向至少一个对象提供警报信息。根据一些实施例,设备可以通过控制声音输出单元(诸如扬声器)向外输出警告声,或者可以通过输出光束在道路上显示警告短语。此外,设备可以基于到对象的距离或者对象或设备的移动速度来调节警告声的标度或间隔。设备可以使用灯发出警告。
设备可以使用预设通信方案向另一对象提供警报消息。也就是说,设备可以经由短程通信或远程通信与另一对象通信,并且可以经由另一对象以直接方式或间接方式与另一对象通信。
此外,设备可以向设备的用户提供警报消息。设备可以向HUD或CID输出警报消息,或者可以通过在包括该设备的对象中生成警告声来向该设备的用户提供警报消息。
图11和图12是示出根据一些示例实施例的基于情况信息的驾驶控制系统的图。
参照图11,交通灯1143被定位在人行横道1131上方。图11的交通灯1143可以是用于汽车的。此外,交通灯1143可以是作为基础设施的外部设备。作为外部设备的交通灯1143可以从外部设备获得情况信息,或者可以直接地获得情况信息并且可以广播情况信息。
例如,交通灯1143可以广播指示在距离人行横道50m的范围内或距离十字路口30m范围内的当前交通灯是绿色的信息和指示当前交通灯将在5秒内变成红色或黄色的信息中的至少一个。
第一对象1111和第二对象1113可以接收由交通灯1143广播的情况信息。在第一对象1111和第二对象1113接收到情况信息之后,第一对象1111和第二对象1113可以识别出没有留下多少信号改变时间。因此,第一对象1111和第二对象1113可以停止在人行横道1131前面,并且可以各自向交通灯1143传输响应。
根据一些示例实施例,第一对象1111和第二对象1113可以在第一对象1111和第二对象1113接收到情况信息之后立即响应于交通灯1143,或者第一对象1111和第二对象1113可以基于情况信息来控制第一对象1111和第二对象1113的驾驶,并且然后可以响应于交通灯1143。
根据一些示例实施例,第一对象1111和第二对象1113可以向交通灯1143传输确认(acknowledgement,ACK)信号,或者可以各自基于情况信息传输驾驶控制结果。例如,第一对象1111和第二对象1113可以向交通灯1143传输指示它们在人行横道1131前面停止的信息。
根据一些示例实施例,行人1141的移动设备也可以从交通灯1143接收情况信息,并且可以向交通灯1143传输响应。
参照图12,交通灯1143变红,并且行人1141穿过人行横道1131。然后,第一对象1111和第二对象1113可以使用它们的传感器跟踪行人1141。
根据一些示例实施例,在从作为第一对象1111的感测区域的第一感测区域1221检测到行人1141、但是没有从作为第二对象1113的感测区域的第二感测区域1223检测到行人1141的情况下,第一对象1111和第二对象1113可以通过交换感测信息来连续跟踪行人1141的位置。
根据一些示例实施例,交通灯1143也可以跟踪行人1141。交通灯1143可以使用相机、距离传感器、以及近距离传感器中的至少一个传感器来跟踪行人1141。交通灯1143可以通过从第一对象1111和第二对象1113中的一个接收感测信息来跟踪行人1141,或者可以通过跟踪行人1141的移动设备的位置或者与行人1141的移动设备通信来跟踪行人1141。
在行人1141没有完全穿过人行横道1131的情况下,交通灯1143可以广播包括指示危险的信号的情况信息。并且,交通灯1143可以不变绿。例如,即使维持红色信号的估计时间已经结束,当行人1141没有完全穿过人行横道1131时,交通灯1143也可以不变绿。
因为第一对象1111和第二对象1113基于分别从第一感测区1221和第二感测区1223获得的感测信息来连续跟踪行人1141,所以当行人1141没有完全穿过人行横道1131时,第一对象1111和第二对象1113不会开始驾驶。此外,即使第一对象1111和第二对象1113不能基于感测信息标识行人1141,当第一对象1111和第二对象1113从交通灯1143接收到包括指示危险的信号的情况信息时,第一对象1111和第二对象1113也可以不开始驾驶。
当行人1141完全穿过人行横道1131时,交通灯1143变绿,并且第一对象1111和第二对象1113可以开始驾驶。交通灯1143变绿,并且可以广播情况信息,并且第一对象1111和第二对象1113可以接收情况信息,并且然后可以开始驾驶。
图13是示出根据一些示例实施例的基于感测信息来控制驾驶的设备101的框图。
如图13中所示,被配置为基于感测信息来控制驾驶的设备101可以包括处理器(例如,包括处理电路系统)1301和感测单元(例如,包括例如传感器的各种感测电路系统)1303。贯穿本公开,感测单元1303可以指示包括前述各种传感器的群组。然而,并非图13中所示的所有元件都是必要的元件。也就是说,设备101可以用比所示的元件更多的元件来体现,或者可以用比所示的元件更少的元件来体现。此外,如上所述,设备101可以被包括在对象中或者可以指示对象本身。
处理器1301可以包括各种处理电路系统,并且通常控制设备101的所有操作。例如,处理器1301通常可以通过执行存储在设备101中的程序来控制包括在设备101中的元件(例如,感测单元1303)。
根据一些示例实施例,处理器1301可以基于感测信息来确定感测区域中的感测盲区,并且可以基于感测盲区生成控制信号。此外,处理器1301可以使用所生成的控制信号来控制对象的驾驶。处理器1301可以基于感测信息来标识感测区域中的感测盲区,并且可以基于感测盲区来生成控制信号。
根据一些示例实施例,处理器1301可以基于感测信息来确定感测区域中的、从其中不能获得信息的至少一个区域的位置和大小,并且可以基于确定的结果来将该至少一个区域确定为感测盲区。处理器1301可以基于感测信息来标识感测区域中的、从其中不能获得信息的至少一个区域的位置和大小,并且可以基于确定的结果来将该至少一个区域标识为感测盲区。换句话说,处理器1301可以基于感测信息来确定感测区域中的哪个区域是感测盲区。
根据一些示例实施例,处理器1301可以基于感测盲区的位置和感测盲区的大小来生成控制信号。也就是说,处理器1301可以基于感测盲区的位置来改变路径,或者可以基于感测盲区的大小来调节速度。
处理器1301可以使用由感测单元1303获得的感测信息和从另一对象获得的另一对象的感测信息来生成控制信号。可替换地,处理器1301可以使用由感测单元1303获得的感测信息和从外部设备获得的感测信息来生成控制信号。
此外,处理器1301可以通过提供使用控制信号生成的警报消息来控制对象的速度、对象的方向、对象的路径、至少一个灯的方向、至少一个灯的角度、至少一个灯的亮度等。本公开不限于此,并且处理器1301可以利用使用控制信号的各种方法来提供警报消息。
控制信号可以被用于生成警报消息。也就是说,处理器1301可以使用控制信号生成警报消息,并且可以通过控制输出单元(未示出)向用户提供警报消息,从而引入用户输入。
根据一些示例实施例,处理器1301可以基于感测信息检测至少一个对象,可以获得关于检测到的至少一个对象的位置的信息,并且可以基于所获得的关于位置的信息来预测至少一个对象的移动轨迹。
根据一些实施例,感测单元1303可以包括各种感测电路系统(例如,以(多个)传感器的形式),以获得关于感测区域的感测信息。也就是说,感测单元1303可以获得对象信息或驾驶信息,但是本公开不限于此。
图14是示出根据一些示例实施例的基于感测信息来控制驾驶的设备101的框图。
如图14中所示,被配置为基于感测信息来控制驾驶的设备101可以包括处理器1301(也称为控制器1301)和感测单元1303,并且可以进一步包括输出单元(例如,包括输出电路系统)1305、通信接口(例如,包括通信电路系统)1413、用户接口1415、以及存储器1411。然而,并非图14中所示的所有元件都是必要的元件。也就是说,设备101可以利用比所示的元件更多的元件来体现,或者可以利用比所示的元件更少的元件来体现。
根据一些示例实施例,处理器1301可以包括各种处理电路系统,并且基于感测信息来估计至少一个对象的移动轨迹,并且可以基于关于所估计的移动轨迹的信息来控制通信接口1413和输出单元1305向至少一个对象提供警报信息。处理器1301的操作对应于上述内容,因此,这里省略详细描述。
根据一些示例实施例,感测单元1303可以包括各种感测电路系统,诸如,例如但不限于多个相机(例如,第一相机1403,第二相机1405,……,第n相机1406)以及LiDAR传感器1407等。此外,感测单元1303可以附加地包括但不限于磁传感器1421、位置传感器(例如,全球定位系统(globalpositioning system,GPS))1422、加速度传感器1423、气压传感器1424、温度/湿度传感器1425、近距离传感器1426、红外传感器1427、RGB传感器(例如,照度传感器)1428、以及陀螺仪传感器1429。本领域普通技术人员可以通过参考传感器的名称直观地推断出传感器的功能,因此,这里省略了对其的详细描述。
根据一些示例实施例,处理器1301可以通过考虑到布置在感测单元1303中的各种传感器的感测范围来确定感测区域和感测盲区。此外,感测单元1303可以基于布置在感测单元1303中的各种传感器来获得各种类型的信息。例如,感测单元1303可以通过控制LiDAR传感器1407获得关于对象的形状和对象与另一对象之间的距离的信息,并且可以通过控制第一相机1403和第二相机1405获得关于对象的形状的信息。本公开不限于此。
根据一些示例实施例,输出单元1305可以包括各种输出电路系统,诸如,例如但不限于CID显示器1431、HUD显示器1432、音频输出单元(例如,包括音频输出电路系统)1433、以及光束输出单元(例如,包括光束输出电路系统)1434等。根据一些实施例,音频输出单元1433可以包括扬声器,并且光束输出单元1434可以包括发光二极管(light emittingdiode,LED)。此外,输出单元1305可以进一步包括振动马达(未示出)。
根据一些示例实施例,输出单元1305可以使用CID显示器1431、HUD显示器1432、音频输出单元1433、以及光束输出单元1434中的至少一个来输出警报消息。如上所述,输出单元1305可以通过处理器1301的控制基于各种组合并以各种速度来输出警报消息。
处理器1301可以通过控制输出单元1305中的音频输出单元1433,在向感测盲区的方向上输出扬声器警报声,并且可以调节警报声的标度(分贝(dB))。处理器1301不限于此,并且可以向可能存在于感测盲区中的行人广播预设信号。
此外,处理器1301可以通过经由输出单元1305提供使用控制信号生成的警报消息来控制对象的速度、对象的方向、对象的路径、至少一个灯的方向、至少一个灯的角度、以及至少一个灯的亮度中的至少一个。换句话说,处理器1301可以通过控制输出单元1305来提供警报消息,并且可以通过经由用户接口1415接收用户输入来控制驾驶。
根据一些示例实施例,存储器1411可以存储用于处理和控制处理器1301和/或通信接口1413的程序,并且可以存储输入到设备101和/或从设备101输出的数据。
根据一些示例实施例,存储器1411可以包括储存介质中的至少一个,这些储存介质包括闪存型储存介质、硬盘型储存介质、多媒体卡微型储存介质、卡型存储器(例如,安全数字(secure digital,SD)存储器、xD存储器等)、随机存取存储器(random-accessmemory,RAM)、静态随机存取存储器(staticrandom-access memory,SRAM)、只读存储器(read-only memory,ROM)、电可擦除可编程只读存储器(electrically erasableprogrammable read-only memory,EEPROM)、可编程只读存储器(programmable read-onlymemory,PROM)、磁存储器、磁盘、以及光盘。
根据一些示例实施例,通信接口1413可以包括各种通信电路系统,并且执行与另一对象、外部设备或外部服务器的通信。也就是说,通信接口1413可以使用各种频带和各种通信方法来接收设备101中的其他元件必须从另一对象、外部设备或外部服务器获得的信息。
例如,通信接口1413可以通过与外部设备通信来获得情况信息,可以通过与另一对象通信来接收另一对象的情况信息,并且可以传输由感测单元1303获得的感测信息。如上所述,通信接口1413可以从另一对象接收关于感测单元1303不能从其获得感测信息的感测盲区的感测信息。
此外,通信接口1413可以基于由处理器1301预测的移动轨迹向另一对象传输警报信息。
通信接口1413可以包括模块,模块包括被配置为使用各种通信频带中的各种通信方案来执行通信的各种通信电路系统。例如,通信接口1413可以包括但不限于蓝牙通信接口、BLE通信接口、NFC通信接口、无线局域网(wireless local area network,WLAN)(Wi-Fi)通信接口、Zigbee通信接口、红外数据协会(infrared Data Association,IrDA)通信接口、Wi-Fi直接(Wi-Fi Direct,WFD)通信接口、超宽带(ultra wideband,UWB)通信接口、Ant+通信接口、3G通信接口、LTE通信接口、传输协议专家组(Transport ProtocolExpertGroup,TPEG)通信接口、或数字多媒体广播(digital multimediabroadcasting,DMB)。
根据一些示例实施例,用户接口1415可以包括被配置为获得用户输入的各种电路系统和/或程序元件。例如,用户接口1415可以但不限于经由操纵杆、触摸屏、触摸板、按钮、语音等接收用户输入。
各种示例实施例可以最小化和/或降低由于感测盲区引起的不确定性,从而增加驾驶员的安全性。
本公开的示例实施例可以包括处理器、用于存储和执行程序数据的存储器、包括磁盘驱动器的非暂时性储存器、用于与外部设备通信的通信端口、包括触摸面板、按键、按钮等的用户接口设备。实现为软件模块或算法的方法在存储在非暂时性计算机可读记录介质中可以存储为可在处理器上执行的计算机可读代码或程序命令。非暂时性计算机可读记录介质是能够存储此后可以被计算机系统读取的数据的任何数据存储设备。非暂时性计算机可读记录介质的示例包括磁储存介质(例如,ROM、RAM、软盘、硬盘等)和光学读取介质(包括CD-ROM、DVD等)。非暂时性计算机可读记录介质也可以分布在网络耦合的计算机系统上,使得以分布式方式来存储和执行计算机可读代码。介质可以被计算机读取,可以被存储在存储器中,并且可以在处理器上执行。
在本文引用的包括出版物、专利申请和专利的所有参考文献通过引用结合到本文中,其程度如同每个参考文献被单独且具体地指示为通过引用并入并在本文中整体阐述。
为了促进对本公开原理的理解,在附图所示的实施例中使用了附图标记,并且使用了特定的语言来描述这些实施例。然而,本公开的范围不旨在受该特定的语言的限制,并且本公开应该被解释为涵括对于本领域的普通技术人员来说通常发生的所有实施例。
可以依据功能块组件和各种处理步骤来描述本公开。这种功能块可以由被配置为执行指定功能的任意数量的硬件和/或软件组件来实现。例如,本公开可以采用各种集成的电路组件(例如存储器元件、处理元件、逻辑元件、查找表等),这些集成的电路组件可以在一个或多个微处理器或其他控制设备的控制下实行各种功能。类似地,在使用软件编程或软件元件来实施本公开的元件的情况下,本公开可以利用任何编程或脚本语言(诸如C、C++、Java、汇编器等)来实施,其中各种算法利用数据结构、对象、过程、例程或其他编程元素的任意组合来实施。功能性方面可以以一个或多个处理器上执行的算法实施。另外,本公开可以采用任意数量的传统技术用于电子构造、信号处理和/或控制、数据处理等。词语“机制”、“元件”、“装置”和“构造”被广泛使用,并且不限于机械或物理实施例,但是可以包括与处理器结合的软件例程等。
本文示出和描述的特定实施方式是本公开的说明性示例,并不旨在以任何方式限制本公开的范围。为了简洁起见,传统的电子设备、控制系统、软件开发和系统的其他功能方面(以及系统的各个操作组件的组件)可以不再详细描述。另外,在所呈现的各种附图中所示的连接线或连接器旨在表示在各种元件之间的示例功能关系和/或物理或逻辑耦合。应当注意的是,在实际设备中可以呈现许多替代或附加的功能关系、物理连接或逻辑连接。并且,除非元件被具体地描述为“必需的”或“关键的”,否则没有任何项目或组件对本公开的实践是必需的。
在描述本公开的上下文中(特别是在以下权利要求的上下文中),术语“一”和“一个”和“该”以及类似的指代物的使用应被解释为涵盖单数和复数。另外,除非在本文另有说明,否则在本文对数值范围的叙述仅旨在用作单独提及落入该范围内的每个单独的值的简写方法,并且每个单独的值被结合到说明书中,如同在此单独叙述一样。本文描述的所有方法的步骤可以以任何合适的顺序执行,除非本文另有说明或者否则与上下文明显矛盾。
除非另外声明,否则本文提供的任何和所有示例或示例语言(例如,“诸如”)的使用仅旨在更好地说明本公开,并且不对本公开的范围构成限制。在不脱离本公开的精神和范围的情况下,许多修改和调整对于本领域普通技术人员来说将是显而易见的。
Claims (14)
1.一种基于由包括在对象中的设备获得的感测信息来控制驾驶的方法,包括:
获得所述对象的感测信息;
基于所述对象的感测信息来确定在感测区域中的感测盲区;
基于所述对象的感测信息确定所确定的感测盲区的大小和位置;
基于所确定的感测盲区的位置,从另一对象接收所述另一对象的感测信息;
基于所确定的感测盲区的大小和位置以及所述另一对象的感测信息来生成控制信号;以及
使用所述控制信号来控制所述对象的驾驶,
其中,所述对象的感测信息包括感测盲区的坐标信息,并且
所接收的所述另一对象的感测信息仅关于与所述坐标信息相对应的感测盲区。
2.根据权利要求1所述的方法,其中,所述感测盲区的确定包括:
基于所述对象的感测信息来确定在所述感测区域中的至少一个部分区域的位置和特性,其中,不能从所述至少一个部分区域获得信息;以及
基于所述确定将所述至少一个部分区域确定为感测盲区。
3.根据权利要求1所述的方法,其中,所述生成包括基于所述感测盲区的位置和所述感测盲区的特性来生成所述控制信号。
4.根据权利要求1所述的方法,其中,控制所述对象的驾驶包括通过提供使用所述控制信号生成的警报消息来控制以下中的至少一个:所述对象的速度、所述对象的方向、所述对象的路径、所述对象的至少一个灯的方向、所述至少一个灯的角度、以及所述至少一个灯的亮度。
5.根据权利要求1所述的方法,其中,由所述另一对象获得的所述另一对象的感测信息包括关于所述感测盲区的信息。
6.根据权利要求5所述的方法,进一步包括向所述另一对象传输由所述设备获得的所述对象的感测信息。
7.根据权利要求1所述的方法,进一步包括从外部设备获得情况信息,并且
其中,所述生成控制信号包括基于所述感测盲区和所述情况信息生成所述控制信号。
8.根据权利要求1所述的方法,进一步包括:
基于所述对象的感测信息来估计另一对象的移动轨迹;以及
基于关于所述另一对象的移动轨迹的信息向所述另一对象提供警报信息。
9.根据权利要求8所述的方法,其中所述估计包括:
基于所述对象的感测信息检测所述另一对象;
获得关于检测到的另一对象的位置的信息;以及
基于关于所述位置的所述信息来预测所述另一对象的移动轨迹。
10.一种基于感测信息来控制对象的驾驶的设备,所述设备包括:
感测单元,其包括被配置为获得所述对象的感测信息的感测电路系统;
通信接口,其被配置为从另一对象接收所述另一对象的感测信息;以及
处理器,其被配置为基于所述对象的感测信息确定在感测区域中的感测盲区,基于所述对象的感测信息确定所确定的感测盲区的大小和位置,基于所确定的感测盲区的大小和位置以及所述另一对象的感测信息生成控制信号,以及使用所述控制信号来控制所述对象的驾驶,
其中,所述对象的感测信息包括感测盲区的坐标信息,
所接收的所述另一对象的感测信息仅关于与所述坐标信息相对应的感测盲区。
11.根据权利要求10所述的设备,其中,所述处理器进一步被配置为:
基于所述对象的感测信息来确定在所述感测区域中的至少一个部分区域的位置和特性,其中,不能从所述至少一个部分区域获得信息,以及
基于所述确定的结果,将所述至少一个部分区域确定为所述感测盲区。
12.根据权利要求10所述的设备,其中,所述处理器进一步被配置为基于所述感测盲区的位置和所述感测盲区的特性来生成所述控制信号。
13.根据权利要求10所述的设备,进一步包括输出单元,所述输出单元包括输出电路系统,并且
其中,所述处理器进一步被配置为通过经由所述输出单元提供使用所述控制信号生成的警报消息来控制以下中至少一个:所述对象的速度、所述对象的方向、所述对象的路径、所述对象的至少一个灯的方向、所述至少一个灯的角度、以及所述至少一个灯的亮度。
14.一种非暂时性计算机可读记录介质,其上具有记录有用于使用计算机执行根据权利要求1所述的方法的程序。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2017-0041931 | 2017-03-31 | ||
KR1020170041931A KR102381372B1 (ko) | 2017-03-31 | 2017-03-31 | 센싱 정보에 기초한 주행 제어 방법 및 제어 디바이스 |
PCT/KR2018/003582 WO2018182275A1 (en) | 2017-03-31 | 2018-03-27 | Method and device for controlling driving based on sensing information |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110461675A CN110461675A (zh) | 2019-11-15 |
CN110461675B true CN110461675B (zh) | 2022-09-30 |
Family
ID=63671004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880021096.6A Active CN110461675B (zh) | 2017-03-31 | 2018-03-27 | 用于基于感测信息控制驾驶的方法和设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10665106B2 (zh) |
EP (1) | EP3548351A4 (zh) |
KR (1) | KR102381372B1 (zh) |
CN (1) | CN110461675B (zh) |
WO (1) | WO2018182275A1 (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102381372B1 (ko) * | 2017-03-31 | 2022-03-31 | 삼성전자주식회사 | 센싱 정보에 기초한 주행 제어 방법 및 제어 디바이스 |
US11625045B2 (en) * | 2017-08-31 | 2023-04-11 | Uatc, Llc | Systems and methods for controlling an autonomous vehicle with occluded sensor zones |
KR102111880B1 (ko) * | 2019-01-30 | 2020-05-15 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | 폴스 알람을 줄이기 위한 자동차 시트 시스템 및 그 구동 방법 |
CN109835253A (zh) * | 2019-03-19 | 2019-06-04 | 安徽中科美络信息技术有限公司 | 一种行车盲区道路危险源提示方法及系统 |
CN110481526B (zh) * | 2019-07-22 | 2021-05-25 | 江苏大学 | 一种智能汽车传感器盲区行人检测及主动避撞方法 |
US20210031760A1 (en) * | 2019-07-31 | 2021-02-04 | Nissan North America, Inc. | Contingency Planning and Safety Assurance |
KR102212217B1 (ko) * | 2019-08-14 | 2021-02-04 | 엘지전자 주식회사 | 충돌을 효과적으로 방지하는 자율 주행 차량 및 이를 제어하는 제어 장치 및 방법 |
WO2020011281A2 (en) * | 2019-09-04 | 2020-01-16 | Tingting Zhao | System and method for controlling vehicle |
CN110466524B (zh) * | 2019-09-18 | 2021-04-02 | 北京小马慧行科技有限公司 | 车辆控制方法、装置和系统、存储介质及处理器 |
KR102276393B1 (ko) * | 2019-12-06 | 2021-07-13 | 주식회사 현대케피코 | 전방 충돌 방지를 위한 차량제어시스템 |
KR20210093550A (ko) * | 2020-01-20 | 2021-07-28 | 삼성전자주식회사 | 객체 검출 장치 및 이를 포함하는 차량 제어 시스템 |
KR102385431B1 (ko) * | 2020-09-14 | 2022-04-13 | 주식회사 옐로나이프 | 어린이 보호구역 내 사고를 방지하기 위한 방법 및 장치 |
KR102195881B1 (ko) * | 2020-09-28 | 2020-12-29 | 김병준 | 안전운전을 위해 사각지대의 정보를 제공하는 장치 |
CN113002422B (zh) * | 2021-01-27 | 2022-12-16 | 浙江大华技术股份有限公司 | 安全行车预警方法、系统、终端及计算机可读存储介质 |
CN116176607B (zh) * | 2023-04-27 | 2023-08-29 | 南京芯驰半导体科技有限公司 | 驾驶方法、驾驶设备、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1865479A1 (en) * | 2006-06-05 | 2007-12-12 | Mazda Motor Corporation | A vehicle surrounding information device, method and computer program product |
JP2013186722A (ja) * | 2012-03-08 | 2013-09-19 | Nissan Motor Co Ltd | 走行制御装置及び走行制御方法 |
JP2013203251A (ja) * | 2012-03-28 | 2013-10-07 | Denso Corp | ライト照射制御装置、照射警告システム、ライト制御システム、およびライト照射制御プログラム |
WO2013186620A1 (en) * | 2012-06-15 | 2013-12-19 | Toyota Jidosha Kabushiki Kaisha | Driving support system |
KR101433916B1 (ko) * | 2013-01-09 | 2014-08-29 | 인하대학교 산학협력단 | 내비게이션을 이용한 안전 운전 시스템 |
CN104115198A (zh) * | 2011-12-14 | 2014-10-22 | 罗伯特·博世有限公司 | 车辆合流辅助系统和方法 |
US9230442B2 (en) * | 2013-07-31 | 2016-01-05 | Elwha Llc | Systems and methods for adaptive vehicle sensing systems |
CN106448260A (zh) * | 2015-08-05 | 2017-02-22 | Lg电子株式会社 | 驾驶员辅助设备和包括该驾驶员辅助设备的车辆 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006209325A (ja) | 2005-01-26 | 2006-08-10 | Denso Corp | 車両用警報装置及び車両における警報発生方法 |
US7908060B2 (en) * | 2007-07-31 | 2011-03-15 | International Business Machines Corporation | Method and system for blind spot identification and warning utilizing portable and wearable devices |
KR20120059109A (ko) * | 2010-11-30 | 2012-06-08 | 한국전자통신연구원 | 레이저 스캐너 센서를 이용한 다중 차량 감지 장치 및 그 방법 |
JP2013186723A (ja) * | 2012-03-08 | 2013-09-19 | Nissan Motor Co Ltd | 走行制御装置及び走行制御方法 |
US20130278441A1 (en) * | 2012-04-24 | 2013-10-24 | Zetta Research and Development, LLC - ForC Series | Vehicle proxying |
JP6069938B2 (ja) * | 2012-08-07 | 2017-02-01 | 日産自動車株式会社 | 飛び出し検出装置 |
JP5696701B2 (ja) | 2012-08-31 | 2015-04-08 | 株式会社デンソー | 対歩行者報知装置 |
US9196164B1 (en) | 2012-09-27 | 2015-11-24 | Google Inc. | Pedestrian notifications |
KR101399026B1 (ko) | 2012-11-23 | 2014-05-27 | 현대엠엔소프트 주식회사 | 차선 변경 시 위험 알림 시스템 및 그 방법 |
US9776632B2 (en) * | 2013-07-31 | 2017-10-03 | Elwha Llc | Systems and methods for adaptive vehicle sensing systems |
WO2015180090A1 (en) * | 2014-05-29 | 2015-12-03 | Empire Technology Development Llc | Remote driving assistance |
DE102014008283A1 (de) * | 2014-06-03 | 2015-12-03 | Man Truck & Bus Ag | Verfahren und Anordnung zur Warnung von Verkehrsteilnehmern, die ein stillstehendes Fahrzeug passieren |
KR20150144125A (ko) * | 2014-06-16 | 2015-12-24 | 현대모비스 주식회사 | 안전 운전 유도 시스템 및 이의 방법 |
KR102381372B1 (ko) * | 2017-03-31 | 2022-03-31 | 삼성전자주식회사 | 센싱 정보에 기초한 주행 제어 방법 및 제어 디바이스 |
-
2017
- 2017-03-31 KR KR1020170041931A patent/KR102381372B1/ko active IP Right Grant
-
2018
- 2018-03-27 CN CN201880021096.6A patent/CN110461675B/zh active Active
- 2018-03-27 EP EP18776290.1A patent/EP3548351A4/en active Pending
- 2018-03-27 WO PCT/KR2018/003582 patent/WO2018182275A1/en unknown
- 2018-03-28 US US15/938,137 patent/US10665106B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1865479A1 (en) * | 2006-06-05 | 2007-12-12 | Mazda Motor Corporation | A vehicle surrounding information device, method and computer program product |
CN104115198A (zh) * | 2011-12-14 | 2014-10-22 | 罗伯特·博世有限公司 | 车辆合流辅助系统和方法 |
JP2013186722A (ja) * | 2012-03-08 | 2013-09-19 | Nissan Motor Co Ltd | 走行制御装置及び走行制御方法 |
JP2013203251A (ja) * | 2012-03-28 | 2013-10-07 | Denso Corp | ライト照射制御装置、照射警告システム、ライト制御システム、およびライト照射制御プログラム |
WO2013186620A1 (en) * | 2012-06-15 | 2013-12-19 | Toyota Jidosha Kabushiki Kaisha | Driving support system |
KR101433916B1 (ko) * | 2013-01-09 | 2014-08-29 | 인하대학교 산학협력단 | 내비게이션을 이용한 안전 운전 시스템 |
US9230442B2 (en) * | 2013-07-31 | 2016-01-05 | Elwha Llc | Systems and methods for adaptive vehicle sensing systems |
CN106448260A (zh) * | 2015-08-05 | 2017-02-22 | Lg电子株式会社 | 驾驶员辅助设备和包括该驾驶员辅助设备的车辆 |
Also Published As
Publication number | Publication date |
---|---|
WO2018182275A1 (en) | 2018-10-04 |
KR102381372B1 (ko) | 2022-03-31 |
EP3548351A4 (en) | 2020-01-01 |
US10665106B2 (en) | 2020-05-26 |
CN110461675A (zh) | 2019-11-15 |
KR20180111252A (ko) | 2018-10-11 |
US20180286248A1 (en) | 2018-10-04 |
EP3548351A1 (en) | 2019-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110461675B (zh) | 用于基于感测信息控制驾驶的方法和设备 | |
RU2656933C2 (ru) | Способ и устройство для предупреждения о встречном транспортном средстве | |
JP2020164162A (ja) | 車両状態表示システム | |
US11881030B2 (en) | Method for detecting vehicle and device for executing the same | |
US10486701B2 (en) | Driving control device, driving control method and vehicle-to-vehicle communication system | |
US11868138B2 (en) | Control device and control method | |
US20210331655A1 (en) | Method and device for monitoring vehicle's brake system in autonomous driving system | |
US20200184827A1 (en) | Electronic control device and vehicle comprising the same | |
US11842631B2 (en) | Communication device, control method thereof and communication system including the same | |
CN114175126A (zh) | 基于无线通信的对象分类 | |
CN113795873B (zh) | 用于辅助车辆驾驶的电子装置和方法 | |
US11532232B2 (en) | Vehicle having dangerous situation notification function and control method thereof | |
CN116569231A (zh) | 用于用户安全和体验的车辆控制 | |
US20220343757A1 (en) | Information processing apparatus, information processing system, and information processing method | |
US11948461B2 (en) | Information processing device, information processing method, and program | |
US20200307619A1 (en) | Encounter warning method and encounter warning system | |
TW201511998A (zh) | 車輛碰撞偵測系統與方法 | |
CN114527735A (zh) | 用于控制自动驾驶车辆的方法和装置、车辆及存储介质 | |
JP2021056873A (ja) | 走行支援システム、走行支援方法およびプログラム | |
US20240153415A1 (en) | Vehicle and mobile device communicating with the vehicle | |
KR20210068643A (ko) | 자율주행 차량의 실시간 주행 상황정보 알림장치 및 방법 | |
JP6549416B2 (ja) | 交通信号機を制御可能な制御システムおよびその制御方法 | |
KR20140128800A (ko) | 조향 경로 결정 방법 및 그 장치 | |
EP4358058A1 (en) | A vehicular system and method for notifying a vehicle occupant of a nearby emergency vehicle | |
KR20120106691A (ko) | 차량의 사행 운전 검지 및 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |