ES2848868T3 - Inferencia de estado de señal de tráfico y otros aspectos del entorno de un vehículo basándose en datos sustitutivos - Google Patents

Inferencia de estado de señal de tráfico y otros aspectos del entorno de un vehículo basándose en datos sustitutivos Download PDF

Info

Publication number
ES2848868T3
ES2848868T3 ES13797850T ES13797850T ES2848868T3 ES 2848868 T3 ES2848868 T3 ES 2848868T3 ES 13797850 T ES13797850 T ES 13797850T ES 13797850 T ES13797850 T ES 13797850T ES 2848868 T3 ES2848868 T3 ES 2848868T3
Authority
ES
Spain
Prior art keywords
vehicle
sensors
environment
inference
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13797850T
Other languages
English (en)
Inventor
Peter Lombrozo
Eric Teller
Bradley Templeton
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waymo LLC
Original Assignee
Waymo LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waymo LLC filed Critical Waymo LLC
Application granted granted Critical
Publication of ES2848868T3 publication Critical patent/ES2848868T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18159Traversing an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/107Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0017Planning or execution of driving tasks specially adapted for safety of other traffic participants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/406Traffic density
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/18Propelling the vehicle
    • B60Y2300/18008Propelling the vehicle related to particular drive situations
    • B60Y2300/18166Overtaking, changing lanes

Abstract

Un método implementado por ordenador, que comprende: obtener datos de sensor de uno o más sensores (104) observando uno o más aspectos de un entorno de un vehículo (100), en donde el uno o más sensores están asociados de manera funcional con el vehículo, y en donde el vehículo está configurado para funcionar de un modo autónomo; utilizar un sistema de inferencia para inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores; determinar un nivel de confianza basándose en el al menos un aspecto inferido del entorno del vehículo, al menos una inferencia previa y al menos un resultado previo; y controlar el vehículo en el modo autónomo basándose en el al menos un aspecto inferido del entorno del vehículo y el nivel de confianza.

Description

DESCRIPCIÓN
Inferencia de estado de señal de tráfico y otros aspectos del entorno de un vehículo basándose en datos sustitutivos
Antecedentes
A menos que se indique lo contrario en el presente documento, los materiales descritos en esta sección no son el estado de la técnica de las reivindicaciones en esta solicitud y no se admite que sean estado de la técnica por inclusión en esta sección.
Algunos vehículos están configurados para funcionar en un modo autónomo en el que el vehículo navega a través de un entorno con poca o ninguna intervención del conductor. Un vehículo de este tipo incluye normalmente uno o más sensores que están configurados para detectar información sobre el entorno. El vehículo utiliza la información detectada para navegar por el entorno. Por ejemplo, si los sensores detectan que el vehículo se está acercando a un obstáculo, el vehículo puede navegar alrededor del obstáculo. RACCOON: A Real-time Autonomous Car Chaser Operating Optimally an Night, por Rahul Sukthankar, Instituto de Robótica, Universidad Carnegie Mellon, presenta un sistema de visión que rastrea las luces traseras de los automóviles por la noche. Construye un mapa global en tiempo real de la posición del vehículo principal basándose en la ubicación y separación de las luces traseras en una secuencia de imágenes de video. La publicación de solicitud de patente europea número EP 249 5713 A1 presenta un dispositivo de apoyo a la conducción en el que una ECU predice el riesgo de contacto entre un vehículo huésped y obstáculos alrededor del vehículo huésped cuando el vehículo huésped viaja por una acción de conducción relacionada con al menos un candidato de acción normativa, que es un candidato de acción de conducción normativa del vehículo huésped para las condiciones circundantes del vehículo huésped.
Resumen
La invención está definida en las reivindicaciones adjuntas del presente documento. En un primer aspecto, se proporciona un método. El método incluye obtener datos de sensor de uno o más sensores que observan uno o más aspectos de un entorno de un vehículo. El uno o más sensores están asociados de manera funcional con el vehículo. El vehículo está configurado para funcionar en un modo autónomo. El método incluye además el uso de un sistema de inferencia para inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores. El método también incluye determinar un nivel de confianza basándose en al menos un aspecto inferido del entorno del vehículo, al menos una inferencia previa y al menos un resultado previo. El método también incluye controlar el vehículo en el modo autónomo basándose en al menos un aspecto inferido del entorno del vehículo y el nivel de confianza.
En un segundo aspecto, se proporciona un vehículo. El vehículo incluye uno o más sensores, un sistema de inferencia y un sistema de control. El uno o más sensores están configurados para adquirir datos de sensor. Los datos de sensor se refieren a uno o más aspectos de un entorno de un vehículo observado por el uno o más sensores. El vehículo está configurado para funcionar en un modo autónomo. El sistema de inferencia está configurado para inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores. El sistema de inferencia está configurado para determinar un nivel de confianza basándose en al menos un aspecto inferido del entorno del vehículo, al menos una inferencia previa y al menos un resultado previo. El sistema de control está configurado para controlar el vehículo en el modo autónomo basándose en al menos un aspecto inferido del entorno del vehículo y el nivel de confianza.
En un tercer aspecto, se proporciona un medio legible por ordenador no transitorio que tiene instrucciones almacenadas. Las instrucciones son ejecutables por un sistema informático para hacer que el sistema informático realice funciones. Las funciones incluyen obtener datos de sensor de uno o más sensores que observan uno o más aspectos del entorno de un vehículo. El uno o más sensores están asociados de manera funcional con el vehículo. El vehículo está configurado para funcionar en un modo autónomo. Las funciones incluyen además inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores. Las funciones incluyen además determinar un nivel de confianza basándose en al menos un aspecto inferido del entorno del vehículo, al menos una inferencia previa, y al menos un resultado previo. Las funciones también incluyen controlar el vehículo en el modo autónomo basándose en el al menos un aspecto inferido del entorno del vehículo y el nivel de confianza.
El resumen anterior es sólo ilustrativo y no pretende ser limitante de ningún modo. Además de los aspectos ilustrativos, modos de realización y características descritas anteriormente, otros aspectos, modos de realización y características resultarán evidentes por referencia a las figuras y la siguiente descripción detallada.
Breve descripción de los dibujos
La figura 1 es un diagrama de bloques funcional que ilustra un vehículo, de acuerdo con un modo de realización de ejemplo.
La figura 2 muestra un vehículo, de acuerdo con un modo de realización de ejemplo.
La figura 3A es una vista superior de un escenario de funcionamiento de un vehículo autónomo, de acuerdo con un modo de realización de ejemplo.
La figura 3B es una vista trasera del escenario de funcionamiento de un vehículo autónomo de la figura 3A, de acuerdo con un modo de realización de ejemplo.
La figura 3C es una vista superior de un escenario de funcionamiento de un vehículo autónomo, de acuerdo con un modo de realización de ejemplo.
La figura 3D es una vista superior de un escenario de funcionamiento de un vehículo autónomo, de acuerdo con un modo de realización de ejemplo.
La figura 4A muestra un método, de acuerdo con un modo de realización de ejemplo.
La figura 4B muestra un método, de acuerdo con un modo de realización de ejemplo.
La figura 5 es un diagrama esquemático de un producto de programa informático, de acuerdo con un modo de realización de ejemplo.
Descripción detallada
En el presente documento se describen métodos y sistemas de ejemplo. Cualquier modo de realización o característica de ejemplo descrito en el presente documento no ha de interpretarse necesariamente como preferido o ventajoso sobre otros modos de realización o características. Los modos de realización de ejemplo descritos en el presente documento no pretenden ser limitantes. Se comprenderá fácilmente que ciertos aspectos de los sistemas y métodos divulgados pueden disponerse y combinarse en una amplia variedad de configuraciones diferentes, todas de las cuales se contemplan en el presente documento.
Además, las disposiciones concretas que se muestran en las figuras no han de verse como limitantes. Ha de entenderse que otros modos de realización pueden incluir más o menos de cada elemento mostrado en una figura determinada. Además, algunos de los elementos ilustrados pueden combinarse u omitirse. Además, un modo de realización de ejemplo puede incluir elementos que no se ilustran en las figuras.
1. Compendio
Los modos de realización de ejemplo divulgados en el presente documento se refieren a la obtención de datos de sensor de uno o más sensores que observan uno o más aspectos de un entorno de un vehículo, utilizando un sistema de inferencia para inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores, y controlar el vehículo basándose en el al menos un aspecto inferido del entorno del vehículo.
Dentro del contexto de la invención, el vehículo podría funcionar en varios modos de funcionamiento. En algunos modos de realización, dichos modos de funcionamiento podrían incluir modos manual, semiautónomo y autónomo. En el modo autónomo, el vehículo podría conducirse con poca o ninguna interacción del usuario. En los modos manual y semiautónomo, el vehículo podría conducirse total y parcialmente, respectivamente, por un usuario.
Algunos métodos divulgados en el presente documento podrían llevarse a cabo en parte o en su totalidad por un vehículo configurado para funcionar en un modo autónomo con o sin interacción externa (por ejemplo, como de un usuario del vehículo). En uno de estos ejemplos, un vehículo podría obtener datos de sensor de uno o más sensores asociados de manera funcional con el vehículo. Los sensores podrían estar ubicados a bordo del vehículo o los sensores podrían estar en otro lugar. Se puede utilizar un sistema de inferencia, que podría ubicarse total o parcialmente a bordo del vehículo, para inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores. En un modo de realización de ejemplo, el al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores podría estar relacionado con el flujo del tráfico (por ejemplo, un accidente no observable adelante) y/o la regulación del tráfico (por ejemplo, el estado de un semáforo no observable, orden de los vehículos que avanzan en una intersección de cuatro vías, etc.). Son posibles otros aspectos del entorno de los vehículos que no son observados por el uno o más sensores. El sistema de inferencia podría incluir, por ejemplo, un sistema informático (por ejemplo, un procesador y una memoria). El vehículo podría controlarse basándose en el al menos un aspecto inferido del entorno del vehículo.
Otros métodos divulgados en el presente documento podrían llevarse a cabo en parte o en su totalidad por un servidor. En un modo de realización de ejemplo, un servidor recibe datos de sensor de uno o más sensores que observan uno o más aspectos de un entorno de un vehículo. En algunos modos de realización, los datos de sensor se transmiten al servidor usando un sistema de comunicación inalámbrica. El servidor puede incluir un sistema de inferencia. El sistema de inferencia se utiliza para inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores. En un modo de realización de ejemplo, el servidor incluye un almacén de datos de escenarios predeterminados. Si los datos de sensor coinciden esencialmente con al menos uno de los escenarios predeterminados, el sistema de inferencia infiere el al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores. Otras interacciones entre un vehículo que funciona en un modo autónomo y un servidor son posibles dentro del contexto de la divulgación.
También se describe un vehículo en la presente solicitud. El vehículo incluye elementos como uno o más sensores, un sistema de inferencia y un sistema de control. El uno o más sensores están configurados para adquirir datos de sensor. Los datos de sensor se refieren a uno o más aspectos de un entorno de un vehículo observado por el uno o más sensores.
El uno o más sensores podrían incluir uno de, o una combinación de, una cámara, un sistema RADAR, un sistema LIDAR, un sensor acústico, un telémetro u otro tipo de sensor.
El sistema de inferencia está configurado para inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores. Cuando el sistema de inferencia está configurado para utilizar uno o más algoritmos para determinar la inferencia, los algoritmos podrían incluir, por ejemplo, uno o más de una red bayesiana, un modelo de Markov oculto y un árbol de decisión. Son posibles otros tipos de sistemas de inferencia dentro del contexto de esta divulgación.
El sistema de control está configurado para controlar el vehículo en el modo autónomo basándose en el al menos un aspecto inferido del entorno del vehículo. El sistema de control podría funcionar para controlar que el vehículo acelere, desacelere, ajuste el rumbo, cambie la ruta y realice acciones evasivas, entre muchas otras posibilidades.
En algunos modos de realización, el sistema de inferencia y el sistema de control podrían ser proporcionados por un sistema informático en el vehículo. En otros modos de realización, el sistema de inferencia y/o el sistema de control podrían ser proporcionados por uno o más servidores u otros sistemas informáticos externos al vehículo.
También se divulgan en el presente documento medios legibles por ordenador no transitorios con instrucciones almacenadas. Las instrucciones podrían ser ejecutadas por un dispositivo informático para hacer que el dispositivo informático realice funciones similares a las descritas en los métodos anteriormente mencionados.
Existen muchos métodos y sistemas específicos diferentes que podrían usarse para obtener datos de sensor de uno o más sensores que observan uno o más aspectos del entorno de un vehículo. Se utiliza un sistema de inferencia para inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores. El vehículo se controla basándose en el al menos un aspecto inferido del entorno del vehículo. Cada uno de estos métodos y sistemas específicos se contempla en el presente documento, y a continuación se describen varios modos de realización de ejemplo.
2. Sistemas de ejemplo
Los sistemas de ejemplo se describirán ahora con mayor detalle. Generalmente, un sistema de ejemplo puede implementarse o puede tomar la forma de un vehículo. Sin embargo, un sistema de ejemplo también puede implementarse o tomar la forma de otros vehículos, como automóviles, camiones, motocicletas, autobuses, barcos, aviones, helicópteros, cortadoras de césped, excavadoras, barcos, motos de nieve, aeronaves, vehículos recreativos, vehículos de parques de atracciones, equipo agrícola, equipo de construcción, tranvías, carritos de golf, trenes y carritos. También son posibles otros vehículos.
La figura 1 es un diagrama de bloques funcional que ilustra un vehículo 100, de acuerdo con un modo de realización de ejemplo. El vehículo 100 está configurado para funcionar total o parcialmente en un modo autónomo. Por ejemplo, el vehículo 100 se controla a sí mismo mientras está en el modo autónomo, y puede funcionar para determinar un estado actual del vehículo y su entorno, y determinar un comportamiento previsto de al menos otro vehículo en el entorno. El vehículo 100 está configurado para determinar un nivel de confianza que puede corresponder a la probabilidad de que el al menos otro vehículo realice el comportamiento predicho y controlar el vehículo 100 basándose en la información determinada. Mientras está en modo autónomo, el vehículo 100 puede configurarse para funcionar sin interacción humana.
El vehículo 100 podría incluir varios subsistemas como un sistema 102 de propulsión, un sistema 104 de sensores, un sistema 106 de control, uno o más periféricos 108, así como una fuente 110 de alimentación, un sistema 112 informático y una interfaz 116 de usuario. El vehículo 100 puede incluir más o menos subsistemas y cada subsistema podría incluir múltiples elementos. Además, cada uno de los subsistemas y elementos del vehículo 100 podría estar interconectado. Por tanto, una o más de las funciones descritas del vehículo 100 pueden dividirse en componentes funcionales o físicos adicionales, o combinarse en menos componentes funcionales o físicos. En algunos ejemplos adicionales, se pueden agregar componentes funcionales y/o físicos adicionales a los ejemplos ilustrados en la figura 1.
El sistema 102 de propulsión puede incluir componentes que funcionan para proporcionar movimiento motorizado para el vehículo 100. En un modo de realización de ejemplo, el sistema 102 de propulsión podría incluir un propulsor/motor 118, una fuente 119 de energía, una transmisión 120 y ruedas/neumáticos 121. El propulsor/motor 118 podría ser cualquier combinación de un propulsor de combustión interna, un motor eléctrico, un propulsor de vapor, un propulsor Stirling u otros tipos de propulsores y/o motores. En algunos modos de realización, el propulsor/motor 118 puede configurarse para convertir la fuente 119 de energía en energía mecánica. En algunos modos de realización, el sistema 120 de propulsión podría incluir múltiples tipos de propulsores y/o motores. Por ejemplo, un automóvil híbrido de gas y eléctrico podría incluir un propulsor de gasolina y un motor eléctrico. Son posibles otros ejemplos.
La fuente 119 de energía podría representar una fuente de energía que puede, total o parcialmente, alimentar el propulsor/motor 118. Es decir, el propulsor/motor 118 podría configurarse para convertir la fuente 119 de energía en energía mecánica. Ejemplos de fuentes 119 de energía incluyen gasolina, diésel, otros combustibles a base de petróleo, propano, otros combustibles a base de gas comprimido, etanol, paneles solares, baterías y otras fuentes de energía eléctrica. La(s) fuente(s) 119 de energía podría(n) incluir adicionalmente o como alternativa cualquier combinación de depósitos de combustible, baterías, condensadores y/o volantes de inercia. La fuente 119 de energía también podría proporcionar energía para otros sistemas del vehículo 100.
La transmisión 120 incluye elementos que funcionan para transmitir potencia mecánica desde el propulsor/motor 118 a las ruedas/neumáticos 121. Con este fin, la transmisión 120 podría incluir una caja de cambios, embrague, diferencial y árbol de transmisión. La transmisión 120 podría incluir otros elementos. Los árboles de transmisión podrían incluir uno o más ejes que podrían acoplarse a la una o más ruedas/neumáticos 121.
Las ruedas/neumáticos 121 del vehículo 100 podrían configurarse en varios formatos, incluyendo un formato de monociclo, bicicleta/motocicleta, triciclo o automóvil/camión de cuatro ruedas. Son posibles otras geometrías de rueda/neumático, como las que incluyen seis o más ruedas. Cualquier combinación de las ruedas/neumáticos 121 del vehículo 100 puede funcionar para girar diferencialmente con respecto a otras ruedas/neumáticos 121. Las ruedas/neumáticos 121 podrían representar al menos una rueda que está unida de manera fija a la transmisión 120 y al menos un neumático acoplado a una llanta de la rueda que podría hacer contacto con la superficie de conducción. Las ruedas/neumáticos 121 podrían incluir cualquier combinación de metal y caucho, u otra combinación de materiales.
El sistema 104 de sensores puede incluir varios sensores configurados para detectar información sobre un entorno del vehículo 100. Por ejemplo, el sistema 104 de sensores podría incluir un Sistema 122 de Posicionamiento Global (GPS), una unidad 124 de medición inercial (IMU), una unidad 126 RADAR, una unidad 128 de telémetro láser/LIDAR y una cámara 130. El sistema 104 de sensores también podría incluir sensores configurados para supervisar los sistemas internos del vehículo 100 (por ejemplo, monitor de O2, indicador de combustible, temperatura del aceite del propulsor). También son posibles otros sensores.
Uno o más de los sensores incluidos en el sistema 104 de sensores podrían configurarse para ser actuados por separado y/o colectivamente con el fin de modificar una posición y/o una orientación del uno o más sensores.
El GPS 122 puede ser cualquier sensor configurado para estimar una ubicación geográfica del vehículo 100. Con este fin, el GPS 122 podría incluir un transceptor que funciona para proporcionar información sobre la posición del vehículo 100 con respecto a la Tierra.
La IMU 124 podría incluir cualquier combinación de sensores (por ejemplo, acelerómetros y giroscopios) configurados para detectar cambios de posición y orientación del vehículo 100 basándose en la aceleración inercial.
La unidad 126 RADAR puede representar un sistema que utiliza señales de radio para detectar objetos dentro del entorno local del vehículo 100. En algunos modos de realización, además de detectar los objetos, la unidad 126 RADAR puede configurarse de manera adicional para detectar la velocidad y/o rumbo de los objetos.
De manera similar, la unidad 128 de telémetro láser o LIDAR puede ser cualquier sensor configurado para detectar objetos en el entorno en el que se encuentra el vehículo 100 utilizando láseres. En un modo de realización de ejemplo, la unidad 128 de telémetro láser/LIDAR podría incluir una o más fuentes láser, un escáner láser y uno o más detectores, entre otros componentes del sistema. La unidad 128 de telémetro láser/LIDAR podría configurarse para funcionar en un modo de detección coherente (por ejemplo, usando detección heterodina) o detección incoherente.
La cámara 130 podría incluir uno o más dispositivos configurados para capturar una pluralidad de imágenes del entorno del vehículo 100. La cámara 130 podría ser una cámara fija o una cámara de vídeo.
El sistema 106 de control está configurado para controlar el funcionamiento del vehículo 100 y sus componentes. Por consiguiente, el sistema 106 de control podría incluir varios elementos, incluyendo la unidad 132 de dirección, el acelerador 134, la unidad 136 de freno, un algoritmo 138 de fusión de sensores, un sistema 140 de visión por ordenador, un sistema 142 de navegación/ruta y un sistema 144 de evitación de obstáculos.
La unidad 132 de dirección podría representar cualquier combinación de mecanismos que puedan funcionar para ajustar el rumbo del vehículo 100.
El acelerador 134 podría configurarse para controlar, por ejemplo, la velocidad de funcionamiento del propulsor/motor 118 y, a su vez, controlar la velocidad del vehículo 100.
La unidad 136 de freno podría incluir cualquier combinación de mecanismos configurados para desacelerar el vehículo 100. La unidad 136 de freno podría usar la fricción para ralentizar las ruedas/neumáticos 121. En otros modos de realización, la unidad 136 de freno podría convertir la energía cinética de las ruedas/neumáticos 121 a corriente eléctrica. La unidad 136 de freno también puede adoptar otras formas.
El algoritmo 138 de fusión de sensores puede ser un algoritmo (o un producto de programa informático que almacena un algoritmo) configurado para aceptar datos del sistema 104 de sensores como una entrada. Los datos pueden incluir, por ejemplo, datos que representan información detectada en los sensores del sistema 104 de sensores. El algoritmo 138 de fusión de sensores podría incluir, por ejemplo, un filtro de Kalman, una red Bayesiana u otro algoritmo. El algoritmo 138 de fusión de sensores podría proporcionar además varias evaluaciones basadas en los datos del sistema 104 de sensores. En un modo de realización de ejemplo, las evaluaciones podrían incluir evaluaciones de objetos individuales y/o características en el entorno del vehículo 100, evaluación de una situación concreta y/o evaluar posibles impactos en función de la situación concreta. Son posibles otras evaluaciones.
El sistema 140 de visión por ordenador puede ser cualquier sistema que funciona para procesar y analizar imágenes capturadas por la cámara 130 con el fin de identificar objetos y/o características en el entorno del vehículo 100 que podrían incluir señales de tráfico, límites de carreteras y obstáculos. El sistema 140 de visión por ordenador podría usar un algoritmo de reconocimiento de objetos, un algoritmo de Estructura a Partir del Movimiento (SFM), seguimiento de video y otras técnicas de visión por ordenador. En algunos modos de realización, el sistema 140 de visión por ordenador podría configurarse de manera adicional para mapear un entorno, rastrear objetos, estimar la velocidad de los objetos, etc.
El sistema 142 de navegación y ruta puede ser cualquier sistema configurado para determinar una ruta de conducción para el vehículo 100. El sistema 142 de navegación y ruta puede configurarse de manera adicional para actualizar la ruta de conducción de manera dinámica mientras el vehículo 100 está en funcionamiento. En algunos modos de realización, el sistema 142 de navegación y ruta podría configurarse para incorporar datos del algoritmo 138 de fusión de sensores, el GPS 122 y uno o más mapas predeterminados para determinar la ruta de conducción del vehículo 100.
El sistema 144 de evitación de obstáculos podría representar un sistema de control configurado para identificar, evaluar y evitar o sortear obstáculos potenciales en el entorno del vehículo 100.
El sistema 106 de control puede incluir adicionalmente o como alternativa componentes distintos de los mostrados y descritos.
Los periféricos 108 pueden configurarse para permitir la interacción entre el vehículo 100 y sensores externos, otros vehículos, otros sistemas informáticos y/o un usuario. Por ejemplo, los periféricos 108 podrían incluir un sistema 146 de comunicación inalámbrica, una pantalla 148 táctil, un micrófono 150 y/o un altavoz 152.
En un modo de realización de ejemplo, los periféricos 108 podrían proporcionar, por ejemplo, medios para que un usuario del vehículo 100 interactúe con la interfaz 116 de usuario. Con este fin, la pantalla 148 táctil podría proporcionar información a un usuario del vehículo 100. La interfaz 116 de usuario también podría funcionar para aceptar entrada del usuario a través de la pantalla 148 táctil. La pantalla 148 táctil puede configurarse para detectar al menos uno de una posición y un movimiento del dedo de un usuario a través de detección capacitiva, detección de resistencia o un proceso de ondas acústicas superficiales, entre otras posibilidades. La pantalla 148 táctil puede ser capaz de detectar el movimiento de los dedos en una dirección paralela o plana a la superficie de la pantalla táctil, en una dirección normal a la superficie de la pantalla táctil, o ambas, y también puede ser capaz de detectar un nivel de presión aplicado a la superficie de la pantalla táctil. La pantalla 148 táctil puede estar formada por una o más capas aislantes translúcidas o transparentes y una o más capas conductoras translúcidas o transparentes. La pantalla 148 táctil también puede adoptar otras formas.
En otros casos, los periféricos 108 pueden proporcionar medios para que el vehículo 100 se comunique con dispositivos dentro de su entorno. El micrófono 150 puede configurarse para recibir audio (por ejemplo, un comando de voz u otra entrada de audio) de un usuario del vehículo 100. De manera similar, los altavoces 152 pueden configurarse para emitir audio al usuario del vehículo 100.
En un ejemplo, el sistema 146 de comunicación inalámbrica podría configurarse para comunicarse de forma inalámbrica con uno o más dispositivos directamente o mediante una red de comunicación. Por ejemplo, el sistema 146 de comunicación inalámbrica podría utilizar comunicación celular 3G, como CDMA, EVDO, GSM/GPRS, o comunicación celular 4G, como WiMAX o LTE. Como alternativa, el sistema 146 de comunicación inalámbrica podría comunicarse con una red de área local inalámbrica (WLAN), por ejemplo, usando WiFi. En algunos modos de realización, el sistema 146 de comunicación inalámbrica podría comunicarse directamente con un dispositivo, por ejemplo, usando un enlace de infrarrojos, Bluetooth o ZigBee. Otros protocolos inalámbricos, como varios sistemas de comunicación vehicular, son posibles dentro del contexto de la divulgación. Por ejemplo, el sistema 146 de comunicación inalámbrica podría incluir uno o más dispositivos dedicados de comunicaciones de corto alcance (DSRC) que podrían incluir comunicaciones de datos públicas y/o privadas entre vehículos y/o estaciones de carretera.
La fuente 110 de alimentación puede proporcionar alimentación a varios componentes del vehículo 100 y podría representar, por ejemplo, una batería recargable de iones de litio o de plomo-ácido. En algunos modos de realización, uno o más bancos de dichas baterías podrían configurarse para proporcionar alimentación eléctrica. Son posibles otros materiales y configuraciones de fuente de alimentación. En algunos modos de realización, la fuente 110 de alimentación y la fuente 119 de energía podrían implementarse juntas, como en algunos automóviles totalmente eléctricos.
Muchas o todas las funciones del vehículo 100 podrían ser controladas por el sistema 112 informático. El sistema 112 informático puede incluir al menos un procesador 113 (que podría incluir al menos un microprocesador) que ejecute instrucciones 115 almacenadas en un medio legible por ordenador no transitorio, como el almacenamiento 114 de datos. El sistema 112 informático también puede representar una pluralidad de dispositivos informáticos que pueden servir para controlar componentes individuales o subsistemas del vehículo 100 de una manera distribuida.
En algunos modos de realización, el almacenamiento 114 de datos puede contener instrucciones 115 (por ejemplo, lógica de programa) ejecutables por el procesador 113 para ejecutar varias funciones del vehículo 100, incluyendo las descritas anteriormente en relación con la figura 1. El almacenamiento 114 de datos también puede contener instrucciones adicionales, incluyendo instrucciones para transmitir datos a, recibir datos de, interactuar con y/o controlar uno o más del sistema 102 de propulsión, el sistema 104 de sensores, el sistema 106 de control y los periféricos 108.
Además de las instrucciones 115, el almacenamiento 114 de datos puede almacenar datos como mapas de carreteras, información de rutas, entre otra información. Dicha información puede ser utilizada por el vehículo 100 y el sistema 112 informático durante el funcionamiento del vehículo 100 en los modos autónomo, semiautónomo y/o manual.
El vehículo 100 puede incluir una interfaz 116 de usuario para proporcionar información o recibir información de un usuario del vehículo 100. La interfaz 116 de usuario podría controlar o permitir el control del contenido y/o el diseño de imágenes interactivas que podrían mostrarse en la pantalla 148 táctil. Además, la interfaz 116 de usuario podría incluir uno o más dispositivos de entrada/salida dentro del conjunto de periféricos 108, como el sistema 146 de comunicación inalámbrica, la pantalla 148 táctil, el micrófono 150 y el altavoz 152.
El sistema 112 informático puede controlar el funcionamiento del vehículo 100 basándose en las entradas recibidas de varios subsistemas (por ejemplo, el sistema 102 de propulsión, el sistema 104 de sensores y el sistema 106 de control), así como desde la interfaz 116 de usuario. Por ejemplo, el sistema 112 informático puede utilizar la entrada del sistema 106 de control para controlar la unidad 132 de dirección para evitar un obstáculo detectado por el sistema 104 de sensores y el sistema 144 de evitación de obstáculos. En un modo de realización de ejemplo, el sistema 112 informático podría funcionar para proporcionar control sobre muchos aspectos del vehículo 100 y sus subsistemas.
Aunque la figura 1 muestra varios componentes del vehículo 100, es decir, el sistema 146 de comunicación inalámbrica, el sistema 112 informático, el almacenamiento 114 de datos y la interfaz 116 de usuario, integrados en el vehículo 100, uno o más de estos componentes se podrían montar o asociar separadamente del vehículo 100. Por ejemplo, el almacenamiento 114 de datos podría, en parte o en su totalidad, existir separado del vehículo 100. Por tanto, el vehículo 100 podría proporcionarse en forma de elementos de dispositivo que pueden estar ubicados por separado o juntos. Los elementos de dispositivo que componen el vehículo 100 podrían acoplarse de forma comunicativa entre sí de forma por cable y/o inalámbrica.
La figura 2 muestra un vehículo 200 que podría ser similar o idéntico al vehículo 100 descrito con referencia a la figura 1. Aunque el vehículo 200 se ilustra en la figura 2 como un automóvil, son posibles otros modos de realización. Por ejemplo, el vehículo 200 podría representar un camión, una furgoneta, un camión semirremolque, una motocicleta, un carrito de golf, un vehículo todoterreno o un vehículo agrícola, entre otros ejemplos.
En algunos modos de realización, el vehículo 200 podría incluir una unidad 202 de sensor, un sistema 204 de comunicación inalámbrico, una unidad 206 LIDAR, una unidad 208 de telémetro láser y una cámara 210. Los elementos del vehículo 200 podrían incluir algunos o todos los elementos descritos para la figura 1.
La unidad 202 de sensor podría incluir uno o más sensores diferentes configurados para capturar información sobre un entorno del vehículo 200. Por ejemplo, la unidad 202 de sensor podría incluir cualquier combinación de cámaras, RADARes, LIDARes, telémetros y sensores acústicos. Son posibles otros tipos de sensores. En un modo de realización de ejemplo, la unidad 202 de sensor podría incluir uno o más soportes móviles que podrían funcionar para ajustar la orientación de uno o más sensores en la unidad 202 de sensor. En un modo de realización, el soporte móvil podría incluir una plataforma giratoria que podría escanear sensores para obtener información de cada dirección alrededor del vehículo 200. En otro modo de realización, el soporte móvil de la unidad 202 de sensor podría moverse en una forma de escaneo dentro de un rango concreto de ángulos y/o acimutes. La unidad 202 de sensor podría montarse, por ejemplo, sobre el techo de un automóvil, sin embargo, son posibles otras ubicaciones de montaje. Además, los sensores de la unidad 202 de sensor podrían distribuirse en diferentes ubicaciones y no es necesario que se coloquen en una única ubicación. Algunos posibles tipos de sensores y ubicaciones de montaje incluyen la unidad 206 LIDAR y la unidad 208 de telémetro láser. Además, cada sensor de la unidad 202 de sensor podría configurarse para moverse o escanearse independientemente de otros sensores de la unidad 202 de sensor.
El sistema 204 de comunicación inalámbrica podría ubicarse en el techo del vehículo 200 como se muestra en la figura 2. Como alternativa, el sistema 204 de comunicación inalámbrica podría ubicarse, total o parcialmente, en otro lugar. El sistema 204 de comunicación inalámbrica puede incluir transmisores y receptores inalámbricos que podrían configurarse para comunicarse con dispositivos externos o internos al vehículo 200. Específicamente, el sistema 204 de comunicación inalámbrica podría incluir transceptores configurados para comunicarse con otros vehículos y/o dispositivos informáticos, por ejemplo, en un sistema de comunicación vehicular o una estación de carretera. Ejemplos de dichos sistemas de comunicación vehicular incluyen comunicaciones dedicadas de corto alcance (DSRC), identificación por radiofrecuencia (RFID) y otros estándares de comunicación propuestos dirigidos a los sistemas de transporte inteligentes.
La cámara 210 puede ser cualquier cámara (por ejemplo, una cámara fija, una cámara de video, etc.) configurada para capturar una pluralidad de imágenes del entorno del vehículo 200. Con este fin, la cámara 210 puede configurarse para detectar luz visible, o puede configurarse para detectar luz de otras partes del espectro, como luz infrarroja o ultravioleta. También son posibles otros tipos de cámaras.
La cámara 210 puede ser un detector bidimensional o puede tener un rango espacial tridimensional. En algunos modos de realización, la cámara 210 puede ser, por ejemplo, un detector de alcance configurado para generar una imagen bidimensional que indica una distancia desde la cámara 210 a varios puntos del entorno. Con este fin, la cámara 210 puede usar una o más técnicas de detección de rango. Por ejemplo, la cámara 210 puede usar una técnica de luz estructurada en la que el vehículo 200 ilumina un objeto en el entorno con un patrón de luz predeterminado, como un patrón de cuadrícula o tablero de ajedrez y usa la cámara 210 para detectar un reflejo del patrón de luz predeterminado del objeto. Basándose en las distorsiones en el patrón de luz reflejado, el vehículo 200 puede determinar la distancia a los puntos del objeto. El patrón de luz predeterminado puede comprender luz infrarroja o luz de otra longitud de onda. Como otro ejemplo, la cámara 210 puede usar una técnica de escaneo láser en la que el vehículo 200 emite un láser y escanea a través de varios puntos sobre un objeto en el entorno. Mientras escanea el objeto, el vehículo 200 usa la cámara 210 para detectar un reflejo del láser en el objeto para cada punto. Basándose en el tiempo que tarda el láser en reflejarse en el objeto en cada punto, el vehículo 200 puede determinar la distancia a los puntos del objeto. Como otro ejemplo más, la cámara 210 puede usar una técnica de tiempo de vuelo en la que el vehículo 200 emite un pulso de luz y usa la cámara 210 para detectar un reflejo del pulso de luz en un objeto en varios puntos del objeto. En concreto, la cámara 210 puede incluir varios píxeles y cada píxel puede detectar el reflejo del pulso de luz desde un punto del objeto. Basándose en el período de tiempo que tarda el pulso de luz en reflejarse en el objeto en cada punto, el vehículo 200 puede determinar la distancia a los puntos del objeto. El pulso de luz puede ser un pulso láser. También son posibles otras técnicas de detección de rango, que incluyen triangulación estereoscópica, triangulación de hoja de vuelo, interferometría y técnicas de apertura codificada, entre otras. La cámara 210 también puede adoptar otras formas.
La cámara 210 podría montarse dentro de un parabrisas delantero del vehículo 200. Específicamente, como se ilustra, la cámara 210 podría capturar imágenes desde una vista hacia adelante con respecto al vehículo 200. Son posibles otras ubicaciones de montaje y ángulos de visión de la cámara 210, ya sea dentro o fuera del vehículo 200.
La cámara 210 podría tener ópticas asociadas que podrían funcionar para proporcionar un campo de visión ajustable. Además, la cámara 210 podría montarse en el vehículo 200 con una montura móvil que podría funcionar para variar un ángulo de orientación de la cámara 210.
Dentro del contexto de la presente divulgación, los componentes del vehículo 100 y/o el vehículo 200 podrían configurarse para funcionar de manera interconectada con otros componentes dentro o fuera de sus respectivos sistemas. Por ejemplo, en un modo de realización de ejemplo, la cámara 130 podría capturar una pluralidad de imágenes que podrían representar datos de sensor relacionados con un entorno del vehículo 100 que funciona en un modo autónomo. El entorno podría incluir otro vehículo que bloquea una ubicación de señal de tráfico conocida delante del vehículo 100. Basándose en la pluralidad de imágenes, un sistema de inferencia (que podría incluir el sistema 112 informático, el sistema 104 de sensores y el sistema 106 de control) podría inferir que la señal de tráfico no observable es roja basándose en los datos de sensor de otros aspectos del entorno (por ejemplo, imágenes que indican que las luces de freno del vehículo que bloquea están encendidas). Basándose en la inferencia, el sistema 112 informático y el sistema 102 de propulsión podrían actuar para controlar el vehículo 100. A continuación se comentarán implementaciones de ejemplo más detalladas.
3. Implementaciones de ejemplo
Se describirán ahora en el presente documento varias implementaciones de ejemplo. Ha de entenderse que hay muchas formas de implementar los dispositivos, sistemas y métodos divulgados en el presente documento. Por consiguiente, los siguientes ejemplos no pretenden limitar el alcance de la presente divulgación.
La figura 3A y la figura 3B ilustran una vista superior y una vista posterior, respectivamente, de un escenario 300 de funcionamiento de vehículo autónomo. En el escenario 300, un vehículo 306, que puede estar funcionando en un modo autónomo, se detiene detrás de un camión 304 grande. El vehículo 306 podría ser similar o idéntico al vehículo 100 y al vehículo 200 como se describió con referencia a la figura 1 y la figura 2. El vehículo 306 podría incluir un sistema 310 de sensores. El camión 304 grande podría estar ocultando una señal 302 de tráfico de modo que el sistema 310 de sensores puede no ser capaz de detectar directamente el estado de la señal 302 de tráfico. Dicho de otro modo, en el escenario 300, ninguno de los sensores en el sistema 310 de sensores puede ser capaz de observar, tomar imágenes, transducir o si no detectar el estado de la señal 302 de tráfico debido a la presencia de un camión 304 grande.
En dicho caso, el sistema 310 de sensores podría funcionar para obtener datos de sensor con respecto a otros aspectos del entorno del vehículo 306 en un esfuerzo por determinar el estado de la señal 302 de tráfico o cualquier otro aspecto no observable relevante de su entorno. En un modo de realización de ejemplo, una cámara asociada con el sistema 310 de sensores podría capturar una pluralidad de imágenes. La pluralidad de imágenes podría incluir información sobre una o más luces 308 de freno del camión 304 grande. La pluralidad de imágenes podría ser una entrada a un sistema de inferencia.
El sistema de inferencia podría determinar a partir de las imágenes que la una o más luces 308 de freno del camión 304 grande están encendidas. El sistema de inferencia también podría incluir otros datos de sensor que puedan confirmar que el camión 304 grande está detenido. Por ejemplo, el sistema de inferencia podría obtener información sobre el entorno del vehículo 306 de los sistemas de sensores RADAR y/o LIDAR.
El sistema de inferencia podría comparar los datos de sensor con un conjunto de escenarios predeterminados en un esfuerzo por hacer coincidir los datos de sensor actuales con un escenario predeterminado concreto. Los escenarios predeterminados podrían guardarse en el almacenamiento de datos a bordo del vehículo. Como alternativa, los escenarios predeterminados podrían almacenarse en otro lugar, como en una red de servidores.
Si existe una coincidencia considerable entre un escenario predeterminado concreto y los datos de sensor actuales, se podría hacer una inferencia con respecto a un posible estado de la señal 302 de tráfico no visible. Por ejemplo, en el escenario 300, la inferencia podría ser que el estado de la señal 302 de tráfico es "roja" (porque el camión 304 grande está detenido debido a que obedece la señal 302 de tráfico).
Dentro del contexto de la divulgación, se podría hacer una coincidencia considerable basándose en cualquiera de, o una combinación de, una disposición similar de vehículos detenidos, una carretera similar, una ubicación/intersección similar, una ruta similar, una hora del día, o cualquier otro aspecto similar del entorno del vehículo 306.
Se podrían hacer inferencias mediante el sistema de inferencia basándose en otros algoritmos. Por ejemplo, la inferencia se podría hacer basándose en una red Bayesiana, un modelo de Markov oculto y/o un árbol de decisiones. Se podrían usar otros algoritmos individualmente o en combinación para inferir sobre un aspecto del entorno.
Basándose en el aspecto inferido del entorno del vehículo 306, el vehículo 306 puede controlarse para realizar acciones. En el escenario 300, la acción podría constituir permanecer detenido hasta que el camión 304 grande comience a moverse nuevamente.
En algunos escenarios, el sistema de inferencia podría hacer una o más inferencias posteriores si las condiciones en el entorno cambian, o si las condiciones en el entorno permanecen iguales. Por ejemplo, en el escenario 300, si el vehículo 306 permanece detenido detrás del camión 304 grande durante más tiempo del esperado, el vehículo 306 podría hacer una inferencia posterior de que el camión 304 grande está detenido debido a una avería y no obedeciendo la señal 302 de tráfico. En respuesta a la inferencia posterior, el vehículo 306 puede tomar medidas, por ejemplo, para moverse a un carril adyacente para moverse alrededor del camión 304 grande. Las inferencias posteriores podrían hacerse de forma continua, a intervalos predeterminados específicos, o al detectar eventos desencadenantes específicos, como datos de sensor específicos del escenario. Otras inferencias posteriores pueden ser posibles dentro del contexto de esta divulgación.
La figura 3C ilustra una vista superior de un escenario 320 de funcionamiento de vehículo autónomo. Similar al escenario 300, un camión 324 grande puede estar bloqueando una vista de una señal 326 de tráfico en dirección norte para el vehículo 322, que puede estar funcionando en un modo autónomo. Por tanto, el sistema 323 de sensores del vehículo 322 puede tener impedimentos para observar directamente o si no detectar el estado de la señal 326 de tráfico en dirección norte. El vehículo 322 podría ser similar o idéntico al vehículo 100 y al vehículo 200 como se describió con referencia a la figura 1 y figura 2.
En un esfuerzo por inferir el estado de la señal 326 de tráfico en dirección norte, el vehículo 322 podría usar datos de sensor de aspectos observables del entorno. Por ejemplo, el sistema 323 de sensores podría usar uno o una combinación de sus sensores asociados (por ejemplo, una cámara, un RADAR, un LIDAR, un sensor acústico, un sensor ultrasónico, etc.) para observar otros indicadores de tráfico o no tráfico que podrían utilizarse como entradas para el sistema de inferencia.
En el escenario 320, uno o más sensores asociados con el sistema 323 de sensores podrían observar que el automóvil 328 gira a la derecha hacia una carretera con dirección sur y el camión 332 avanza en una ruta con dirección oeste. Los datos de sensor relacionados con las acciones del automóvil 328 y el camión 332 podrían usarse como una entrada para el sistema de inferencia. Basándose en los datos de sensor, el sistema de inferencia podría inferir que el estado de la señal 326 de tráfico es "roja" para el tráfico en dirección norte y sur, y el estado de la señal 334 de tráfico es "verde" para tráfico en dirección este y oeste. Como se describió anteriormente, el sistema de inferencia podría comparar los datos de sensor y otros datos con un conjunto de escenarios predeterminados. Si existe una coincidencia considerable entre los datos de sensor/otros datos y un escenario predeterminado específico, se podría hacer una inferencia basada en el resultado más probable dentro del contexto del escenario predeterminado específico.
Basándose en la inferencia, por ejemplo de que la señal 326 de tráfico en dirección norte es "roja", el vehículo 322 podría controlarse para que actúe en forma de que permanezca detenido detrás de un camión 324 grande.
La figura 3D ilustra una vista superior de un escenario 340 de funcionamiento de vehículo autónomo. En el escenario 340, un vehículo 342 podría detenerse en una intersección de parada de cuatro vías, obedeciendo la señal 344 de stop en dirección norte. El vehículo 342 podría estar funcionando en un modo autónomo. El vehículo 342 podría ser similar o idéntico al vehículo 100 y al vehículo 200 como se describió con referencia a la figura 1 y la figura 2. El camión 346 también puede detenerse en la intersección debido a la señal 348 de stop en dirección este. En dicho escenario, el vehículo 342 puede querer determinar un estado de progresión del tráfico de la intersección de parada de cuatro vías. Sin embargo, dicho estado de progresión del tráfico puede no ser observable. Dicho de otro modo, el vehículo 342 puede no estar seguro de qué vehículo debe avanzar a través de la intersección a continuación y puede que no haya una señal directamente observable (por ejemplo, una señal de tráfico) para indicar el orden de progresión.
El sistema 343 de sensores puede funcionar para detectar otras partes observables del entorno del vehículo 343 que podrían proporcionar información sobre el estado de la progresión del tráfico en la intersección de parada de cuatro vías. Por ejemplo, el sistema 343 de sensores podría usar uno o más sensores asociados para observar el automóvil 350 moviéndose hacia el sur a través de la intersección. Los datos de sensor podrían obtenerse mediante el sistema de inferencia.
Basándose en los datos de sensor, el sistema de inferencia podría inferir sobre el estado de la progresión del tráfico en la intersección de parada de cuatro vías. En este caso, el sistema de inferencia podría determinar que es demasiado tarde para avanzar hacia el norte a través de la intersección e inferir que el camión 346 debería ser el siguiente en avanzar a través de la intersección.
Basándose en la inferencia, el vehículo 342 podría controlarse para esperar a que el camión 346 despeje la intersección antes de continuar a través de la intersección.
4. Métodos de ejemplo
Se proporciona un método 400 para obtener datos de sensor de uno o más sensores que observan uno o más aspectos del entorno de un vehículo. El uno o más sensores están asociados de manera funcional con el vehículo. El método incluye además el uso de un sistema de inferencia para inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores y controlar el vehículo basándose en el al menos un aspecto inferido del entorno del vehículo. El método podría realizarse usando cualquiera de los aparatos mostrados en las figuras 1 y 2 y descritos anteriormente, sin embargo, podrían usarse otras configuraciones. La figura 4A ilustra las etapas en un método de ejemplo, sin embargo, ha de entenderse que en otros modos de realización, las etapas pueden aparecer en un orden diferente y se podrían añadir o quitar etapas.
La etapa 402 incluye obtener datos de sensor de uno o más sensores que observan uno o más aspectos del entorno de un vehículo. El uno o más sensores están asociados de manera funcional con el vehículo. El vehículo está configurado para funcionar en un modo autónomo. El vehículo descrito en este método podría ser el vehículo 100 y/o el vehículo 200 como se ilustró y describió con referencia a las figuras 1 y 2, respectivamente.
La obtención de datos de sensor podría incluir el uso de una o más de una cámara, un sistema de radar, un sistema lidar y un sistema de detección acústica. Son posibles otros sensores y sistemas de sensores en el contexto de la divulgación. Los datos de sensor podrían recibirse mediante señales por cable y/o inalámbricas de los sensores mencionados anteriormente. En algunos modos de realización, los datos de sensor podrían obtenerse mediante una red de servidor y comunicarse al vehículo. Como alternativa o de manera adicional, los datos de sensor podrían obtenerse mediante un sistema informático incorporado en el vehículo.
La etapa 404 incluye el uso de un sistema de inferencia para inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores. El sistema de inferencia podría ser proporcionado por el sistema 112 informático como se mostró y describió con referencia a la figura 1. En otros modos de realización, el sistema de inferencia podría ser proporcionado parcial o totalmente por uno o más sistemas informáticos externos al vehículo, como en una red de servidores.
El sistema de inferencia podría funcionar para hacer inferencias sobre cualquier número de aspectos del entorno del vehículo que no sean observados directamente por el uno o más sensores asociados con el vehículo. Por ejemplo, el sistema de inferencia podría hacer una inferencia sobre un estado de una señal de tráfico no visible o una parada de cuatro vías. En otros modos de realización, el sistema de inferencia podría hacer una inferencia sobre una densidad del tráfico en una carretera, un límite de velocidad, una condición del camino, el comportamiento de otro vehículo, una ruta del camino y/o un accidente u obstáculo que obstaculice una carretera. Se podrían inferir otros aspectos del entorno.
El sistema de inferencia podría hacer inferencias basándose en datos de sensor de uno de, o cualquier combinación de, sensores asociados de manera funcional con el vehículo. Los sensores podrían estar ubicados a bordo del vehículo. Como alternativa, algunos de los sensores podrían ubicarse separados del vehículo.
Las inferencias realizadas por el sistema de inferencia podrían basarse en cualquier aspecto del entorno del vehículo observable para los sensores. En un modo de realización de ejemplo, se podrían hacer inferencias a partir de datos de sensor con respecto a los otros vehículos. Los datos de sensor podrían estar relacionados, por ejemplo, con la velocidad, el rumbo y/o la posición de otros vehículos. Por ejemplo, se podrían hacer inferencias basadas en la aceleración y/o desaceleración (con o sin luces de freno) de otros vehículos cuando se acercan a una intersección con una señal de tráfico ocluida. La desaceleración de los otros vehículos puede implicar una señal de tráfico "roja", mientras que la aceleración puede implicar una señal de tráfico "verde". Son posibles otros ejemplos con respecto al uso de datos de sensor basados en otros vehículos.
También se podrían hacer inferencias basadas en la posición detectada de los obstáculos, cambios en la carretera observada en comparación con un mapa conocido, condición de la carretera, etc. Además, el sistema de inferencia podría utilizar los datos de sensor de más de un sensor para hacer una inferencia.
El sistema de inferencia podría incluir inteligencia artificial y/o un algoritmo de aprendizaje. En dichos casos, el sistema de inferencia podría inferir sobre un aspecto del entorno del vehículo en función de los datos de sensor obtenidos. Los datos de sensor podrían compararse con un conjunto de escenarios de entrada de sensores representativos o escenarios predeterminados que podrían representar un conjunto de escenarios similares con un conjunto de posibles resultados. Es decir, para un conjunto determinado de entradas de sensor, se podría asociar un conjunto de posibles resultados al conjunto determinado de entradas de sensor. Cada resultado posible asociado con el conjunto determinado de entradas de sensor podría asociarse con una probabilidad. La probabilidad podría relacionarse con el posible resultado que realmente ocurra.
La inferencia realizada por el sistema de inferencia podría relacionarse con una "mejor estimación" para el resultado, que puede incluir uno de los posibles resultados. Si se confirma la inferencia (por ejemplo, la "mejor suposición" era correcta), el posible resultado dentro del conjunto de escenarios de entrada de sensor representativos podría reforzarse, por ejemplo, aumentando la probabilidad de que se produzca el posible resultado. Si se determina que la inferencia es incorrecta, la probabilidad podría reducirse para el resultado posible determinado entre el conjunto de escenarios de entrada de sensor representativos o escenarios predeterminados. Son posibles otros tipos de algoritmos de aprendizaje.
Cada escenario o inferencia predeterminado podría incluir un nivel de confianza asociado basándose en qué tan seguro puede estar el sistema de inferencia en el resultado predicho. El nivel de confianza puede o no correlacionarse directamente con la probabilidad respectiva del resultado más probable en cada escenario predeterminado. El nivel de confianza podría basarse, por ejemplo, en uno o más resultados reales después de una o más inferencias previas. En dicho ejemplo, si una inferencia previa predijo incorrectamente el resultado real, el nivel de confianza del escenario predeterminado podría disminuirse posteriormente. Por el contrario, si una inferencia previa predijo correctamente el resultado real, se podría aumentar el nivel de confianza del escenario predeterminado.
Dentro del contexto de la divulgación, se podrían hacer inferencias utilizando un enfoque a prueba de fallos. Dicho de otro modo, el sistema de inferencia podría hacer inferencias que pueden ser representaciones correctas o incorrectas de un aspecto no observable del entorno. En un enfoque a prueba de fallos, las inferencias incorrectas (por ejemplo, inferir que un semáforo está "rojo" cuando en realidad está "verde") podrían llevarse a cabo dentro del contexto del funcionamiento seguro del vehículo para evitar un funcionamiento inseguro.
Por ejemplo, el sistema de inferencia podría utilizar o modificar varias reglas de tráfico en un esfuerzo por proporcionar un funcionamiento a prueba de fallos. Una regla de tráfico real podría ser: "A menos que se sepa que una señal de tráfico es verde, no avanzar por la intersección". El sistema de inferencia podría usar una versión modificada de la regla, como: "A menos que se observe directamente una señal de tráfico como que es verde o, a menos que otros vehículos en su carril estén pasando por la intersección, no avanzar por la intersección”. El sistema de inferencia también puede agregar limitaciones adicionales a varias acciones para un funcionamiento más seguro. Dichas limitaciones adicionales podrían incluir verificaciones de datos de sensor redundantes (para que el vehículo no se mueva basándose en un fallo del sensor), verificaciones de sensores heterogéneos (por ejemplo, las entradas de sensores ópticos y de radar deben coincidir), tiempos de espera adicionales, etc. Se pueden agregar limitaciones adicionales para proporcionar un funcionamiento más fiable y seguro del vehículo mientras está en el modo autónomo.
En algunos escenarios, el sistema de inferencia podría solicitar la entrada del conductor/ocupante del vehículo para confirmar o rechazar una inferencia. Por ejemplo, al acercarse a una intersección donde la señal de tráfico está parpadeando en rojo, el sistema de inferencia podría inferir que la señal de tráfico no funciona y puede solicitar información de un ocupante del vehículo. El sistema de inferencia podría preguntar: "Este semáforo parece estropeado, ¿puede confirmarlo?" El ocupante del vehículo podría responder "Sí, parece estropeado" o "No, creo que normalmente parpadea en rojo". Dicha información del ocupante del vehículo podría usarse sola o en combinación con datos de sensor para hacer más inferencias sobre el aspecto del entorno y/o para controlar el vehículo. La interacción entre el sistema de inferencia y el ocupante del vehículo podría llevarse a cabo mediante voz, texto u otras formas de comunicación.
En otro modo de realización de ejemplo, mientras se aproxima a una intersección, una señal de tráfico podría estar ocluida del sistema de sensores del vehículo. El vehículo puede detenerse en la intersección. Después de esperar al menos un tiempo de ciclo del semáforo y no recibir otros datos de sensor apropiados para avanzar por la intersección, el sistema de inferencia podría preguntar al ocupante del vehículo "¿Es seguro avanzar por esta intersección?" El ocupante del vehículo podría responder con "continuar" o "no continuar". El vehículo podría controlarse en función de la respuesta del ocupante del vehículo. En otros modos de realización, el ocupante del vehículo podría tomar el control manual del vehículo para superar la intersección. Son posibles otras interacciones entre el sistema de inferencia y el ocupante del vehículo.
En algunos modos de realización, las inferencias se podrían transmitir a uno o más vehículos configurados para funcionar en un modo autónomo. Por ejemplo, una inferencia sobre el estado de una señal de tráfico podría transmitirse a los vehículos que se encuentran detrás del vehículo de la inferencia como una "advertencia temprana" para evitar un frenado brusco u otras condiciones de emergencia.
Las inferencias también podrían transmitirse en forma de una consulta a vehículos autónomos cercanos que pueden funcionar para respaldar o refutar la inferencia. Por ejemplo, un vehículo detenido detrás de un camión grande que podría estar bloqueando una señal de tráfico puede inferir que el camión grande está detenido debido a que el estado de la señal de tráfico es "rojo". En algunos modos de realización, el vehículo puede difundir la inferencia en un esfuerzo por obtener más información sobre el estado de la señal de tráfico. En respuesta, otros vehículos pueden responder con otra información para respaldar o refutar la inferencia.
Basándose en la inferencia realizada por el sistema de inferencia, el sistema de inferencia podría generar una instrucción de control o un conjunto de instrucciones de control y transmitirla o si no comunicarla al vehículo u otro sistema informático que funciona para controlar parte o todas las funciones del vehículo.
La etapa 406 incluye controlar el vehículo en el modo autónomo basándose en el al menos un aspecto inferido del entorno del vehículo. Controlar el vehículo podría representar el vehículo siguiendo la(s) instrucción(es) de control para realizar uno o más del vehículo acelerando, desacelerando, cambiando de rumbo, cambiando de carril, cambiando de posición dentro de un carril, proporcionando una notificación de advertencia (por ejemplo, mensaje de comunicación de vehículo a vehículo, señal de claxon, señal luminosa, etc.) y cambio a un modo de conducción diferente (por ejemplo, modo semiautomático o manual). Otras acciones que implican controlar el vehículo son posibles dentro del contexto de la presente divulgación.
El vehículo podría controlarse basándose al menos parcialmente en el nivel de confianza de la inferencia o escenario predeterminado.
El vehículo y cualquier sistema informático de a bordo podría controlar el vehículo en el modo autónomo. Como alternativa, se podrían usar sistemas informáticos, como una red de servidores, para controlar algunas o todas las funciones del vehículo en el modo autónomo.
Los métodos y aparatos divulgados en el presente documento podrían aplicarse a una situación en la que el vehículo que funciona en el modo autónomo se acerca a una luz de medición de la autovía (por ejemplo, en una rampa de entrada a la autopista). En la situación de ejemplo, mientras el vehículo está detenido junto a la luz de medición, el campo de visión de la cámara puede no ser suficiente para observar directamente la luz de medición. El vehículo puede recibir información (por ejemplo, de un administrador de autopistas u otro servicio de información de carreteras) sobre la luz de medición concreta. La información recibida podría incluir si la medición está activada en la luz de medición concreta, así como el intervalo de medición actual. La información podría recibirse a través de una interfaz de comunicación inalámbrica. Por tanto, en situaciones en las que el vehículo puede no ser capaz de observar directamente la luz de medición, hay varias formas en que el vehículo podría inferir un intervalo de tiempo apropiado y/o un estado de la luz de medición para continuar desde la luz de medición.
Por ejemplo, el vehículo puede observar otros automóviles e inferir un intervalo de tiempo a partir de los movimientos de los otros vehículos. En dicho ejemplo, el vehículo podría observar a otros vehículos avanzando a una cierta velocidad (por ejemplo, aproximadamente uno cada cinco segundos). Basándose en la observación de otros vehículos, el vehículo puede inferir que el intervalo es de aproximadamente cinco segundos y continuar desde la luz de medición después de esperar el tiempo de intervalo inferido.
Si se conoce la información del intervalo (por ejemplo, basándose en datos históricos anteriores o información recibida), el vehículo puede inferir el intervalo de medición adecuado basándose en esa información de intervalo. Por ejemplo, la autoridad vial puede proporcionar información del intervalo de medición al vehículo (por ejemplo, el intervalo en la luz de medición actual es de siete segundos). Basándose en la información del intervalo, el vehículo puede inferir que el intervalo es de siete segundos y continuar desde la luz de medición después de esperar siete segundos después de la salida del vehículo anterior. Sin embargo, si el vehículo observa que otros vehículos están esperando mucho más tiempo (o menos tiempo) de lo que indica la información del intervalo, se puede inferir un nuevo intervalo basándose en observaciones en tiempo real.
En un escenario que incluye una luz de medición de dos carriles, el vehículo puede observar que otros vehículos continúan desde la luz de medición de forma alterna (por ejemplo, carril derecho, carril izquierdo, carril derecho...). Basándose en el intervalo de salida, el vehículo podría inferir un tiempo apropiado para esperar en la luz de medición. Además, basándose en el intervalo de salida y el carril actual del vehículo, el vehículo podría inferir el orden correcto en el que partir desde la luz de medición.
En otro modo de realización de ejemplo, el vehículo puede hacer una inferencia sobre el estado de la luz de medición basándose en observaciones previas de la luz de medición. Por ejemplo, cuando el vehículo se acerca a la luz de medición, puede observar el estado de la luz de medición. Sin embargo, la vista de la luz de medición puede quedar ocluida por otro vehículo o la luz de medición puede estar fuera del campo de visión de la cámara. En dicha situación, el vehículo puede inferir un estado actual de la luz de medición basándose en el estado previamente observado de la luz de medición. En concreto, el vehículo puede observar una transición de la luz de medición (por ejemplo, de roja a verde o de verde a roja) mientras se mueve hacia la luz de medición, que luego puede llegar a no ser observable. Si el vehículo conoce la información del intervalo, el vehículo podría hacer una inferencia con respecto al estado actual de la luz de medición basándose en la información del intervalo y el tiempo transcurrido desde la transición observada anteriormente.
El vehículo puede acercarse deliberadamente a la luz de medición lentamente cuando la medición está activada para asegurar que se observe un ciclo de medición completo (o al menos una transición de la luz de medición) antes de que el vehículo entre en un lugar donde la luz de medición no es observable. Por tanto, el vehículo puede hacer una inferencia más segura sobre el estado actual de la luz de medición.
En otro modo de realización más, el vehículo puede acercarse a una luz de medición no observable sin que ningún otro vehículo esté esperando o avanzando. Si el vehículo tiene información de que la medición está activada, así como información sobre el intervalo para la luz de medición, el vehículo puede sencillamente esperar en la luz de medición durante el intervalo. Por tanto, a pesar de no observar directamente la luz de medición, el vehículo podría hacer inferencias sobre la luz de medición y controlar el vehículo en un esfuerzo por estar seguro y también de acuerdo con el cumplimiento de las leyes y regulaciones de tráfico.
Se proporciona un método 410 en el que pueden obtenerse datos de sensor de al menos un sensor que observa al menos una fuente de luz en un entorno del vehículo cuando un estado de una señal de tráfico de control no es directamente observable. Basándose en los datos de sensor, un sistema de inferencia podría inferir un estado inferido de la señal de tráfico de control. El vehículo puede controlarse basándose en el estado inferido de la señal de tráfico de control. El método podría realizarse usando cualquiera de los aparatos mostrados en las figuras 1 y 2 y descritos anteriormente, sin embargo, podrían usarse otras configuraciones. La figura 4B ilustra las etapas en un método de ejemplo, sin embargo, ha de entenderse que en otros modos de realización, las etapas pueden aparecer en un orden diferente y se podrían añadir o quitar etapas.
La etapa 412 incluye obtener datos de sensor de uno o más sensores que observan al menos una fuente de luz en un entorno de un vehículo, mientras que el estado de una señal de tráfico de control no es directamente observable usando el uno o más sensores. El vehículo podría configurarse para funcionar en un modo autónomo y el uno o más sensores pueden estar asociados de manera funcional con el vehículo.
El uno o más sensores podrían incluir cualquier tipo de sensor como se describe en otra parte en la presente divulgación. El uno o más sensores podrían estar conectados al vehículo o podrían estar ubicados en otro lugar.
La al menos una fuente de luz podría incluir una o más luces de freno de otro vehículo. Son posibles otras fuentes de luz.
La señal de tráfico de control podría representar cualquier dispositivo de regulación del tráfico, como un semáforo, una señal de stop o una luz de medición. Por ejemplo, el vehículo podría estar acercándose a una intersección. En dicho caso, la señal de tráfico de control podría ser un semáforo que regule el flujo del tráfico a través de la intersección. Son posibles otros tipos de señales de tráfico de control. En un modo de realización de ejemplo, la señal de tráfico de control podría estar obstruida por otro vehículo, un edificio, un árbol o cualquier otro tipo de obstrucción de manera que la señal de tráfico de control no sea directamente observable utilizando el uno o más sensores del vehículo. En otros modos de realización, la señal de tráfico de control podría estar fuera del rango observable del uno o más sensores del vehículo.
La etapa 414 incluye el uso de un sistema de inferencia para inferir un estado inferido de la señal de tráfico de control basándose en los datos de sensor. En un modo de realización de ejemplo, el sistema de inferencia podría ser un sistema informático asociado con el vehículo, como el sistema 112 informático descrito con referencia a la figura 1. En otros modos de realización, el sistema de inferencia podría estar asociado total o parcialmente con otro sistema informático (por ejemplo, una red de servidores).
Como se describe en otra parte de la presente divulgación, el sistema de inferencia podría funcionar para hacer inferencias basadas en datos de sensor. En algunos modos de realización, el sistema de inferencia podría hacer inferencias sobre un estado no observable de una señal de tráfico de control. Por ejemplo, un vehículo puede estar acercándose a una intersección con una señal de tráfico de control. En dicho caso, un camión puede evitar que uno o más sensores asociados con el vehículo observen directamente un estado de la señal de tráfico de control. El vehículo podría adquirir datos de sensor relacionados con una o más fuentes de luz en el entorno del vehículo, como las luces de freno de otros vehículos. Si las luces de freno de otros vehículos están encendidas, el sistema de inferencia podría inferir que el estado de la señal de tráfico de control es rojo o "parar". Si las luces de freno de los otros vehículos no están encendidas, el sistema de inferencia podría inferir que el estado de la señal de tráfico de control es verde o "avanzar". Son posibles otros tipos de inferencias.
La etapa 416 incluye controlar el vehículo en el modo autónomo basándose en el estado inferido de la señal de tráfico de control. En un modo de realización de ejemplo, si el estado inferido de la señal de tráfico de control es verde o "avanzar", el vehículo podría controlarse para "atravesar la intersección" o "avanzar con precaución". Si el estado inferido de la señal de tráfico de control es rojo o "parar", se podría controlar el vehículo para que se detenga. En algunos modos de realización, el vehículo puede controlarse para alertar al conductor y/o para entrar en un modo semiautomático o manual. Son posibles otras formas de controlar el vehículo en el modo autónomo basándose en el estado inferido de la señal de tráfico de control.
Los métodos de ejemplo, como el método 400 de la figura 4A y el método 410 de la figura 4B, pueden llevarse a cabo total o parcialmente por el vehículo y sus subsistemas. Por consiguiente, los métodos de ejemplo podrían describirse a modo de ejemplo en el presente documento como implementados por el vehículo. Sin embargo, ha de entenderse que un método de ejemplo puede implementarse en su totalidad o en parte mediante otros dispositivos informáticos. Por ejemplo, un método de ejemplo puede ser implementado en su totalidad o en parte por un sistema de servidores, que recibe datos de un dispositivo como los asociados con el vehículo. Son posibles otros ejemplos de dispositivos informáticos o combinaciones de dispositivos informáticos que pueden implementar un método de ejemplo.
En algunos modos de realización, los métodos divulgados pueden implementarse como instrucciones de programa informático codificadas en un medio de almacenamiento no transitorio legible por ordenador en un formato legible por máquina, o en otros medios no transitorios o artículos de fabricación. La figura 5 es un esquema que ilustra una vista conceptual parcial de un producto de programa informático de ejemplo que incluye un programa informático para ejecutar un proceso informático en un sistema informático, dispuesto de acuerdo con al menos algunos modos de realización presentados en el presente documento.
En un modo de realización, el producto 500 de programa informático de ejemplo se proporciona usando un medio 502 portador de señales. El medio 502 portador de señales puede incluir una o más instrucciones 504 de programación que, cuando son ejecutadas por uno o más procesadores pueden proporcionar funcionalidad o porciones de la funcionalidad descrita anteriormente con respecto a las figuras 1-4. En algunos ejemplos, el medio 502 portador de señales puede abarcar un medio 506 legible por ordenador, como, pero no limitado a, una unidad de disco duro, un disco compacto (CD), un disco de video digital (DVD), una cinta digital, memoria, etc. En algunas implementaciones, el medio 502 portador de señales puede abarcar un medio 508 grabable por ordenador, como, entre otros, memoria, CD de lectura/escritura (R/W), DVD R/W, etc. En algunas implementaciones, el medio 502 portador de señales puede abarcar un medio 510 de comunicaciones, como, pero no limitado a, un medio de comunicación digital y/o analógico (por ejemplo, un cable de fibra óptica, una guía de ondas, un enlace de comunicaciones por cable, un enlace de comunicación inalámbrica, etc.). Por tanto, por ejemplo, el medio 502 portador de señales puede ser transportado mediante una forma inalámbrica del medio 510 de comunicaciones.
La una o más instrucciones 504 de programación pueden ser, por ejemplo, instrucciones ejecutables por ordenador y/o implementadas de manera lógica. En algunos ejemplos, un dispositivo informático, como el sistema 112 informático de la figura 1, puede configurarse para proporcionar diversas operaciones, funciones o acciones en respuesta a las instrucciones 504 de programación transmitidas al sistema 112 informático por uno o más del medio 506 legible por ordenador, el medio 508 de grabación por ordenador y/o el medio 510 de comunicaciones.
El medio legible por ordenador no transitorio también podría distribuirse entre múltiples elementos de almacenamiento de datos, que podrían estar ubicados de forma remota entre sí. El dispositivo informático que ejecuta algunas o todas las instrucciones almacenadas podría ser un vehículo, como el vehículo 200 ilustrado en la figura 2. Como alternativa, el dispositivo informático que ejecuta algunas o todas las instrucciones almacenadas podría ser otro dispositivo informático, como un servidor.
La descripción detallada anterior describe varias características y funciones de los sistemas, dispositivos y métodos divulgados con referencia a las figuras adjuntas. Si bien en el presente documento se han divulgado varios aspectos y modos de realización, son posibles otros aspectos y modos de realización. Los diversos aspectos y modos de realización divulgados en el presente documento tienen un propósito ilustrativo, y el alcance se indica en las siguientes reivindicaciones.

Claims (10)

REIVINDICACIONES
1. Un método implementado por ordenador, que comprende:
obtener datos de sensor de uno o más sensores (104) observando uno o más aspectos de un entorno de un vehículo (100), en donde el uno o más sensores están asociados de manera funcional con el vehículo, y en donde el vehículo está configurado para funcionar de un modo autónomo;
utilizar un sistema de inferencia para inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores;
determinar un nivel de confianza basándose en el al menos un aspecto inferido del entorno del vehículo, al menos una inferencia previa y al menos un resultado previo; y
controlar el vehículo en el modo autónomo basándose en el al menos un aspecto inferido del entorno del vehículo y el nivel de confianza.
2. El método de la reivindicación 1, en donde el uno o más sensores comprenden al menos dos sensores, y en donde el al menos un aspecto inferido del entorno del vehículo se basa en datos de sensor de los al menos dos sensores.
3. El método de la reivindicación 1, en donde la obtención de datos de sensor comprende usar al menos uno de una cámara (130), un sistema (126) de radar, un sistema de detección acústica, un sistema de detección ultrasónica y un sistema (128) lidar.
4. El método de la reivindicación 1, en donde el al menos un aspecto inferido comprende al menos uno de un semáforo, un límite de velocidad, una condición de la carretera, un obstáculo, un comportamiento de otro vehículo y una ruta de la carretera.
5. El método de la reivindicación 1, que comprende además transmitir el al menos un aspecto inferido del entorno del vehículo y el nivel de confianza a al menos otro vehículo, en donde el al menos otro vehículo está configurado para funcionar en un modo autónomo.
6. El método de la reivindicación 1, en donde controlar el vehículo comprende al menos uno de controlar el vehículo para acelerar, controlar el vehículo para desacelerar, controlar el vehículo para cambiar de rumbo, controlar el vehículo para cambiar de carril, controlar el vehículo para cambiar dentro de un carril actual y controlar el vehículo para proporcionar una notificación de advertencia.
7. El método de la reivindicación 6, en donde la notificación de advertencia comprende al menos uno de una señal de claxon, una señal luminosa y un mensaje de comunicación de vehículo a vehículo.
8. Un vehículo (100) configurado para realizar un método según lo reivindicado en cualquiera de las reivindicaciones anteriores, que comprende:
uno o más sensores (104), en donde el uno o más sensores están configurados para adquirir datos de sensor, en donde los datos de sensor se relacionan con uno o más aspectos de un entorno de un vehículo observado por el uno o más sensores, y en donde el vehículo está configurado para funcionar en un modo autónomo;
un sistema de inferencia, en donde el sistema de inferencia está configurado para inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores, en donde el sistema de inferencia está configurado además para determinar un nivel de confianza basándose en el al menos un aspecto inferido del entorno del vehículo, al menos una inferencia previa, y al menos un resultado previo; y
un sistema (106) de control, en donde el sistema de control está configurado para controlar el vehículo en el modo autónomo basándose en el al menos un aspecto inferido del entorno del vehículo y el nivel de confianza.
9. Un medio legible por ordenador no transitorio que tiene almacenadas en el mismo instrucciones ejecutables por un sistema informático para hacer que el sistema informático realice un método según lo reivindicado en una cualquiera de las reivindicaciones 1 a 7.
10. Un sistema para su uso en un vehículo (100) que funciona en un modo autónomo para realizar un método según lo reivindicado en una cualquiera de las reivindicaciones 1 a 7, que incluye un sistema de inferencia para procesar datos de sensor que se relacionan con uno o más aspectos de un entorno del vehículo observado por el uno o más sensores (104), para inferir, basándose en los datos de sensor, al menos un aspecto del entorno del vehículo que no es observado por el uno o más sensores y además para determinar un nivel de confianza basándose en el al menos un aspecto inferido del entorno del vehículo, al menos una inferencia previa, y al menos un resultado previo, y un sistema (106) de control para controlar el vehículo en el modo autónomo basándose en el al menos un aspecto inferido del entorno del vehículo y el nivel de confianza.
ES13797850T 2012-06-01 2013-03-11 Inferencia de estado de señal de tráfico y otros aspectos del entorno de un vehículo basándose en datos sustitutivos Active ES2848868T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/486,886 US8793046B2 (en) 2012-06-01 2012-06-01 Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
PCT/US2013/030120 WO2013180787A1 (en) 2012-06-01 2013-03-11 Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data

Publications (1)

Publication Number Publication Date
ES2848868T3 true ES2848868T3 (es) 2021-08-12

Family

ID=49671236

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13797850T Active ES2848868T3 (es) 2012-06-01 2013-03-11 Inferencia de estado de señal de tráfico y otros aspectos del entorno de un vehículo basándose en datos sustitutivos

Country Status (7)

Country Link
US (8) US8793046B2 (es)
EP (2) EP2855225B1 (es)
JP (1) JP6018705B2 (es)
KR (1) KR101705961B1 (es)
CN (2) CN104470781B (es)
ES (1) ES2848868T3 (es)
WO (1) WO2013180787A1 (es)

Families Citing this family (157)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0781697B1 (en) 1995-12-26 2002-06-12 Denso Corporation Brake control apparatus for vehicle
DE102011088130B4 (de) * 2011-12-09 2023-03-02 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung einer Bremssituation
US9760092B2 (en) * 2012-03-16 2017-09-12 Waymo Llc Actively modifying a field of view of an autonomous vehicle in view of constraints
US9145140B2 (en) * 2012-03-26 2015-09-29 Google Inc. Robust method for detecting traffic signals and their associated states
US8793046B2 (en) 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
DE102012212065A1 (de) * 2012-07-11 2014-01-16 Robert Bosch Gmbh Verfahren zum Betreiben eines Fahrerassistenzsystems für ein Fahrzeug und Fahrerassistenzsystem für ein Fahrzeug
DE102012018212A1 (de) * 2012-09-14 2014-03-20 Audi Ag Erfassen von Verkehrs- und Unfalldaten an Knotenpunkten im Straßenverkehr
US9488492B2 (en) * 2014-03-18 2016-11-08 Sri International Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics
DE102013215098A1 (de) * 2013-08-01 2015-02-05 Bayerische Motoren Werke Aktiengesellschaft Umfeldmodelle für Fahrzeuge
US9685082B2 (en) * 2013-12-05 2017-06-20 United Safety Towers, Llc Traffic signaling apparatus
DE102013226267A1 (de) * 2013-12-17 2015-07-02 Bayerische Motoren Werke Aktiengesellschaft Kraftfahrzeug mit einer Schnittstelle und System zur Fernsteuerung eines Kraftfahrzeugs
US9406177B2 (en) * 2013-12-20 2016-08-02 Ford Global Technologies, Llc Fault handling in an autonomous vehicle
US9720410B2 (en) * 2014-03-03 2017-08-01 Waymo Llc Remote assistance for autonomous vehicles in predetermined situations
US9550498B2 (en) 2014-05-13 2017-01-24 Ford Global Technologies, Llc Traffic light anticipation
CN103996312B (zh) * 2014-05-23 2015-12-09 北京理工大学 具有社会行为交互的无人驾驶汽车控制系统
US9365218B2 (en) * 2014-07-14 2016-06-14 Ford Global Technologies, Llc Selectable autonomous driving modes
US9707960B2 (en) 2014-07-31 2017-07-18 Waymo Llc Traffic signal response for autonomous vehicles
US9187088B1 (en) 2014-08-15 2015-11-17 Google Inc. Distribution decision trees
US9168882B1 (en) * 2014-09-30 2015-10-27 Verizon Patent And Licensing Inc. Method and apparatus for providing vehicle sensor data access and storage
DE102014115292A1 (de) * 2014-10-21 2016-04-21 Connaught Electronics Ltd. Verfahren zum Bereitstellen von Bilddateien von einem Kamerasystem, Kamerasystem und Kraftfahrzeug
US9586585B2 (en) * 2014-11-20 2017-03-07 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle detection of and response to traffic officer presence
US9493157B2 (en) * 2015-01-29 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in obstructed occupant view and sensor detection environments
US9555736B2 (en) 2015-04-03 2017-01-31 Magna Electronics Inc. Vehicle headlamp control using sensing and communication systems
JP6282246B2 (ja) * 2015-04-24 2018-02-21 オムロンオートモーティブエレクトロニクス株式会社 車載用距離計測装置
US9676386B2 (en) * 2015-06-03 2017-06-13 Ford Global Technologies, Llc System and method for controlling vehicle components based on camera-obtained image information
JP6448154B2 (ja) * 2015-07-10 2019-01-09 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム
KR102092484B1 (ko) * 2015-07-21 2020-03-23 닛산 지도우샤 가부시키가이샤 씬 평가 장치, 주행 지원 장치, 씬 평가 방법
BR112018001165B1 (pt) * 2015-07-21 2023-11-07 Nissan Motor Co., Ltd Dispositivo de planejamento de condução, aparelho de auxílio de deslocamento e método para planejamento de condução
WO2017013746A1 (ja) * 2015-07-21 2017-01-26 日産自動車株式会社 シーン評価装置、走行支援装置、シーン評価方法
MX368086B (es) * 2015-07-21 2019-09-19 Nissan Motor Dispositivo de plan de conduccion, dispositivo de apoyo de viaje, y metodo de plan de conduccion.
WO2017013747A1 (ja) * 2015-07-21 2017-01-26 日産自動車株式会社 シーン評価装置、走行支援装置、シーン評価方法
KR20170015114A (ko) 2015-07-30 2017-02-08 삼성전자주식회사 자율 주행 차량 및 자율 주행 차량 제어 방법
WO2017018852A1 (ko) * 2015-07-30 2017-02-02 삼성전자 주식회사 자율 주행 차량 및 자율 주행 차량 제어 방법
WO2017018842A1 (ko) * 2015-07-30 2017-02-02 삼성전자 주식회사 자율 주행 차량을 제어하는 장치 및 방법
US9869560B2 (en) 2015-07-31 2018-01-16 International Business Machines Corporation Self-driving vehicle's response to a proximate emergency vehicle
US9483948B1 (en) 2015-08-07 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and pedestrians
US9785145B2 (en) 2015-08-07 2017-10-10 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9721397B2 (en) 2015-08-11 2017-08-01 International Business Machines Corporation Automatic toll booth interaction with self-driving vehicles
US9718471B2 (en) 2015-08-18 2017-08-01 International Business Machines Corporation Automated spatial separation of self-driving vehicles from manually operated vehicles
US9481366B1 (en) 2015-08-19 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and animals
US9896100B2 (en) 2015-08-24 2018-02-20 International Business Machines Corporation Automated spatial separation of self-driving vehicles from other vehicles based on occupant preferences
JP6686327B2 (ja) * 2015-08-26 2020-04-22 三菱自動車工業株式会社 運転支援装置
CN107924613B (zh) * 2015-08-26 2021-03-16 福特全球技术公司 使用同步和平衡v2v通信的设备
US9731726B2 (en) 2015-09-02 2017-08-15 International Business Machines Corporation Redirecting self-driving vehicles to a product provider based on physiological states of occupants of the self-driving vehicles
US9513632B1 (en) * 2015-09-16 2016-12-06 International Business Machines Corporation Driving mode alerts from self-driving vehicles
US9566986B1 (en) 2015-09-25 2017-02-14 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US10817065B1 (en) * 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US9481367B1 (en) 2015-10-14 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and animals
US9834224B2 (en) 2015-10-15 2017-12-05 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9944291B2 (en) 2015-10-27 2018-04-17 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9751532B2 (en) 2015-10-27 2017-09-05 International Business Machines Corporation Controlling spacing of self-driving vehicles based on social network relationships
JP7049996B2 (ja) * 2015-11-04 2022-04-07 ズークス インコーポレイテッド 自律車両サービスを要求および制御するソフトウェアアプリケーション
US10176525B2 (en) 2015-11-09 2019-01-08 International Business Machines Corporation Dynamically adjusting insurance policy parameters for a self-driving vehicle
US9791861B2 (en) 2015-11-12 2017-10-17 International Business Machines Corporation Autonomously servicing self-driving vehicles
US10061326B2 (en) 2015-12-09 2018-08-28 International Business Machines Corporation Mishap amelioration based on second-order sensing by a self-driving vehicle
US10029682B2 (en) 2016-01-22 2018-07-24 Toyota Motor Engineering & Manufacturing North America, Inc. Surrounding vehicle classification and path prediction
US10938655B2 (en) * 2016-01-26 2021-03-02 International Business Machines Corporation Enterprise cloud garbage collector
US9836973B2 (en) 2016-01-27 2017-12-05 International Business Machines Corporation Selectively controlling a self-driving vehicle's access to a roadway
KR101951035B1 (ko) 2016-01-29 2019-05-10 한국전자통신연구원 차량의 자율 주행 시스템 및 그 방법
KR101826408B1 (ko) 2016-03-03 2018-03-22 엘지전자 주식회사 디스플레이 장치 및 이를 포함하는 차량
US9898008B2 (en) * 2016-03-22 2018-02-20 Delphi Technologies, Inc. Scenario aware perception system for an automated vehicle
US10685247B2 (en) * 2016-03-29 2020-06-16 Aptiv Technologies Limited Infrastructure-device status-verification system for automated vehicles
WO2017173139A1 (en) * 2016-03-30 2017-10-05 Oceaneering International, Inc. Rider-controlled trackless ride system
US10037696B2 (en) * 2016-03-31 2018-07-31 Delphi Technologies, Inc. Cooperative automated vehicle system
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
CN107310550B (zh) * 2016-04-27 2019-09-17 腾讯科技(深圳)有限公司 道路交通工具行驶控制方法和装置
US10423292B2 (en) * 2016-05-17 2019-09-24 Google Llc Managing messages in vehicles
US10077050B2 (en) * 2016-05-24 2018-09-18 GM Global Technology Operations LLC Automated driving system for evaluating lane cut-out and method of using the same
US9891628B2 (en) * 2016-06-06 2018-02-13 GM Global Technology Operations LLC Sensor-based association of traffic control devices to traffic lanes for autonomous vehicle navigation
US10126136B2 (en) 2016-06-14 2018-11-13 nuTonomy Inc. Route planning for an autonomous vehicle
US11092446B2 (en) 2016-06-14 2021-08-17 Motional Ad Llc Route planning for an autonomous vehicle
US10309792B2 (en) 2016-06-14 2019-06-04 nuTonomy Inc. Route planning for an autonomous vehicle
CN107657821A (zh) * 2016-07-26 2018-02-02 奥迪股份公司 用于车辆的电子控制装置和方法
JP2018018389A (ja) * 2016-07-29 2018-02-01 パナソニックIpマネジメント株式会社 自動運転車輌の制御装置、及び制御プログラム
DE102016215501B4 (de) * 2016-08-18 2019-03-07 Robert Bosch Gmbh Verfahren und Vorrichtung zur Hinderniserkennung durch Landmarken
DE102016216520A1 (de) * 2016-09-01 2018-03-01 Robert Bosch Gmbh Verfahren und System zum Betrieb eines Fahrzeugs
KR102366723B1 (ko) * 2016-10-11 2022-02-23 삼성전자주식회사 운송 수단으로 시야 확보 영상을 제공하는 방법, 이를 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
US10857994B2 (en) 2016-10-20 2020-12-08 Motional Ad Llc Identifying a stopping place for an autonomous vehicle
US10331129B2 (en) 2016-10-20 2019-06-25 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10681513B2 (en) 2016-10-20 2020-06-09 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10473470B2 (en) 2016-10-20 2019-11-12 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US20180150083A1 (en) * 2016-11-29 2018-05-31 Waymo Llc Pod connection for Autonomous Vehicle Sensors
CN106681328B (zh) * 2017-01-13 2021-02-09 深圳市元征科技股份有限公司 基于智能穿戴设备的自动驾驶方法及智能穿戴设备
WO2018147871A1 (en) * 2017-02-10 2018-08-16 Nissan North America, Inc. Autonomous vehicle operational management
JP7037830B2 (ja) 2017-03-13 2022-03-17 オプシス テック リミテッド 眼安全性走査lidarシステム
US10124804B2 (en) * 2017-04-12 2018-11-13 GM Global Technology Operations LLC Method and apparatus for traffic control device detection optimization
US10643084B2 (en) 2017-04-18 2020-05-05 nuTonomy Inc. Automatically perceiving travel signals
CN113665570A (zh) * 2017-04-18 2021-11-19 动态Ad有限责任公司 自动地感知行驶信号的方法、装置及运载工具
DE202018006695U1 (de) 2017-05-15 2022-04-01 Ouster, Inc. Optischer Bildübertrager mit Helligkeitsverbesserung
US10535266B2 (en) 2017-06-21 2020-01-14 International Business Machines Corporation Management of mobile objects
US10504368B2 (en) 2017-06-21 2019-12-10 International Business Machines Corporation Management of mobile objects
US10540895B2 (en) 2017-06-21 2020-01-21 International Business Machines Corporation Management of mobile objects
US10585180B2 (en) 2017-06-21 2020-03-10 International Business Machines Corporation Management of mobile objects
US10600322B2 (en) 2017-06-21 2020-03-24 International Business Machines Corporation Management of mobile objects
US10546488B2 (en) 2017-06-21 2020-01-28 International Business Machines Corporation Management of mobile objects
EP3422045B1 (en) * 2017-06-30 2022-04-20 Veoneer Sweden AB A system for enhanced object tracking
US10525903B2 (en) * 2017-06-30 2020-01-07 Aptiv Technologies Limited Moving traffic-light detection system for an automated vehicle
CN115015883A (zh) 2017-07-28 2022-09-06 欧普赛斯技术有限公司 具有小角发散度的vcsel阵列lidar发送器
US10558224B1 (en) * 2017-08-10 2020-02-11 Zoox, Inc. Shared vehicle obstacle data
US10928832B2 (en) 2017-09-29 2021-02-23 Huawei Technologies Co., Ltd. Impedance-based motion control for autonomous vehicles
WO2019221776A2 (en) 2017-11-15 2019-11-21 OPSYS Tech Ltd. Noise adaptive solid-state lidar system
JP6915512B2 (ja) * 2017-11-28 2021-08-04 トヨタ自動車株式会社 サーバ装置、故障車両推定方法および故障車両推定プログラム
JP7027844B2 (ja) * 2017-11-29 2022-03-02 株式会社デンソー カメラモジュール
EP3723064A4 (en) * 2017-12-05 2020-12-16 Nissan Motor Co., Ltd. VEHICLE CONTROL PROCESS AND CONTROL DEVICE
US11247702B2 (en) * 2017-12-25 2022-02-15 Hitachi Astemo, Ltd. Vehicle control device and electronic control system
JP7067067B2 (ja) 2018-01-11 2022-05-16 トヨタ自動車株式会社 信号機認識装置、及び自動運転システム
CN108407797B (zh) * 2018-01-19 2021-02-05 洛阳中科龙网创新科技有限公司 一种基于深度学习的实现农机自动换挡的方法
WO2019171378A1 (en) * 2018-03-06 2019-09-12 Technion Research & Development Foundation Limited Efficient inference update using belief space planning
CN111615676B (zh) * 2018-03-26 2023-05-23 赫尔实验室有限公司 用于估计由监督机器学习器做出的决策的不确定性的系统和方法
US11906663B2 (en) 2018-04-01 2024-02-20 OPSYS Tech Ltd. Noise adaptive solid-state LIDAR system
JP7077726B2 (ja) * 2018-04-02 2022-05-31 株式会社デンソー 車両システム、空間領域推測方法及び空間領域推測装置
CN108674412B (zh) * 2018-04-04 2020-01-24 江苏大学 一种采用传感器融合的车辆主动避撞方法
US10699565B2 (en) 2018-04-04 2020-06-30 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for inferring lane obstructions
US10632913B2 (en) * 2018-04-13 2020-04-28 GM Global Technology Operations LLC Vehicle behavior using information from other vehicles lights
WO2019203022A1 (ja) * 2018-04-20 2019-10-24 ソニー株式会社 移動体、情報処理装置、情報処理方法、及びプログラム
FR3080344B1 (fr) * 2018-04-20 2022-01-21 Psa Automobiles Sa Detection fiabilisee d’un objet par un vehicule
US10331128B1 (en) * 2018-04-20 2019-06-25 Lyft, Inc. Control redundancy
FR3080345A1 (fr) * 2018-04-20 2019-10-25 Psa Automobiles Sa Amelioration de la detection par le suivi d’un vehicule eclaireur
US10649459B2 (en) 2018-04-26 2020-05-12 Zoox, Inc. Data segmentation using masks
JP7110729B2 (ja) 2018-05-25 2022-08-02 トヨタ自動車株式会社 自動運転システム及び自動運転システムの制御方法
JP2020527761A (ja) * 2018-06-22 2020-09-10 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 高度自動運転マップを更新するためのシステムおよび方法
US10884410B2 (en) * 2018-06-29 2021-01-05 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for determining whether a vehicle is capable of navigating an intersection in an autonomous driving mode
US11017671B2 (en) * 2018-07-02 2021-05-25 Nio Usa, Inc. Precautionary visual perception by detection of rear stop light of vehicle that is two vehicles ahead
DE102018116079A1 (de) * 2018-07-03 2020-01-09 HELLA GmbH & Co. KGaA Verfahren zur Erfassung und Verarbeitung der Fahrbahnbeschaffenheit einer mit einem Fahrzeug befahrenen Fahrbahn
US10909866B2 (en) * 2018-07-20 2021-02-02 Cybernet Systems Corp. Autonomous transportation system and methods
US10650678B2 (en) 2018-08-21 2020-05-12 International Business Machines Corporation Cognitive traffic light pattern analysis and notification
CZ308605B6 (cs) * 2018-10-01 2020-12-30 Roboauto s.r.o. Senzorický systém s rychlou skupinovou fúzí pro získání modelu objektů v jeho okolí
US11208111B2 (en) 2018-12-11 2021-12-28 Waymo Llc Redundant hardware system for autonomous vehicles
CN109785655B (zh) * 2018-12-11 2020-09-29 北京百度网讯科技有限公司 车辆控制方法、装置、设备、无人驾驶车辆及存储介质
GB2589247B (en) 2019-01-29 2023-07-05 Motional Ad Llc Traffic light estimation
US10796571B2 (en) * 2019-01-31 2020-10-06 StradVision, Inc. Method and device for detecting emergency vehicles in real time and planning driving routes to cope with situations to be expected to be occurred by the emergency vehicles
US11205343B2 (en) * 2019-02-20 2021-12-21 GM Global Technology Operations LLC Methods and systems for interpretating traffic signals and negotiating signalized intersections
JP7278578B2 (ja) * 2019-04-05 2023-05-22 株式会社Liberaware 飛行体
EP3953727A4 (en) 2019-04-09 2023-01-04 Opsys Tech Ltd. SOLID STATE LIDAR TRANSMITTER WITH LASER CONTROL
CN113906316A (zh) 2019-05-30 2022-01-07 欧普赛斯技术有限公司 使用致动器的眼睛安全的长范围lidar系统
CN112033425B (zh) * 2019-06-04 2023-06-13 长沙智能驾驶研究院有限公司 车辆辅助驾驶方法、装置、计算机设备和存储介质
KR102580722B1 (ko) 2019-06-10 2023-09-22 옵시스 테크 엘티디 눈-안전 장거리 고체 상태 lidar 시스템
KR20220024177A (ko) * 2019-06-25 2022-03-03 옵시스 테크 엘티디 적응형 다중 펄스 lidar 시스템
CN110606085B (zh) * 2019-08-29 2020-08-28 江苏大学 智能驾驶辅助系统下预防车辆在交叉口误闯交通灯的方法
BR112022009416A2 (pt) * 2019-11-15 2022-08-09 Nissan Motor Método para controlar veículo e dispositivo de controle de veículo
FR3103219B1 (fr) * 2019-11-19 2021-10-08 Vitesco Technologies Procédé de gestion des anomalies sporadiques d’un système de motorisation d’un véhicule automobile
CN111002980B (zh) * 2019-12-10 2021-04-30 苏州智加科技有限公司 基于深度学习的道路障碍物轨迹预测方法和系统
US11055998B1 (en) 2020-02-27 2021-07-06 Toyota Motor North America, Inc. Minimizing traffic signal delays with transports
JP7406432B2 (ja) * 2020-03-31 2023-12-27 本田技研工業株式会社 移動体制御装置、移動体制御方法、およびプログラム
US11938939B1 (en) * 2020-06-04 2024-03-26 Aurora Operations, Inc. Determining current state of traffic light(s) for use in controlling an autonomous vehicle
IT202000017158A1 (it) 2020-07-15 2022-01-15 Ecologia E Servizi Italia S R L Sistema di rilevamento dati stradali e ambientali per automezzi di servizio pubblico di igiene urbana
US11726471B2 (en) * 2020-08-27 2023-08-15 Waymo Llc Methods and systems for gradually adjusting vehicle sensor perspective using remote assistance
CN112061133A (zh) * 2020-09-15 2020-12-11 苏州交驰人工智能研究院有限公司 交通信号状态推测方法、车辆控制方法、车辆及存储介质
CN112071064A (zh) * 2020-09-17 2020-12-11 苏州交驰人工智能研究院有限公司 基于相反规则车道进行交通信号状态推测的方法及装置
DE102021103732A1 (de) 2021-02-17 2022-08-18 Cariad Se Fahrerassistenzsystem, Kraftfahrzeug und Verfahren zur automatischen Längsführung eines Kraftfahrzeugs
CN112918488B (zh) * 2021-03-11 2022-06-21 知行汽车科技(苏州)有限公司 车辆控制方法、装置及存储介质
US11932260B2 (en) 2021-03-30 2024-03-19 Motional Ad Llc Selecting testing scenarios for evaluating the performance of autonomous vehicles
CN112799412A (zh) * 2021-04-12 2021-05-14 北京三快在线科技有限公司 一种无人驾驶设备的控制方法及控制装置
KR102331807B1 (ko) 2021-04-16 2021-12-02 국방과학연구소 차량의 주행을 위한 전자 장치 및 그의 동작 방법
CN112859884B (zh) * 2021-04-25 2021-07-30 北京三快在线科技有限公司 一种控制无人驾驶设备的方法及装置
KR20230031730A (ko) * 2021-08-27 2023-03-07 현대자동차주식회사 신호등 판단 장치, 그를 포함한 시스템 및 그 방법
CN116767224B (zh) * 2023-07-03 2024-01-23 小米汽车科技有限公司 确定可行驶区域的方法、装置、车辆、及存储介质

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0312799A (ja) * 1989-06-12 1991-01-21 Akio Kato 車載用運転操作支援報知装置
JPH08263784A (ja) 1995-03-23 1996-10-11 Honda Motor Co Ltd 道路状況認識装置
JPH10129438A (ja) * 1996-11-06 1998-05-19 Toyota Motor Corp 自動制動制御装置
US7979172B2 (en) 1997-10-22 2011-07-12 Intelligent Technologies International, Inc. Autonomous vehicle travel control systems and methods
EP0913751B1 (de) 1997-11-03 2003-09-03 Volkswagen Aktiengesellschaft Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
JPH11306498A (ja) 1998-04-16 1999-11-05 Matsushita Electric Ind Co Ltd 車載カメラシステム
JP2001228740A (ja) 2000-02-16 2001-08-24 Konica Corp 画像形成装置の定着装置
JP3646605B2 (ja) 2000-02-23 2005-05-11 株式会社日立製作所 車両走行制御装置
US6470272B2 (en) * 2000-06-09 2002-10-22 Automotive Systems Laboratory, Inc. Situation awareness processor
US7102496B1 (en) * 2002-07-30 2006-09-05 Yazaki North America, Inc. Multi-sensor integration for a vehicle
JP4019854B2 (ja) * 2002-08-12 2007-12-12 日産自動車株式会社 走行経路生成装置
JP3985748B2 (ja) * 2003-07-08 2007-10-03 日産自動車株式会社 車載用障害物検出装置
JP4435519B2 (ja) 2003-08-21 2010-03-17 富士重工業株式会社 車両の走行制御装置
JP2005202922A (ja) 2003-12-18 2005-07-28 Nissan Motor Co Ltd 運転支援装置及び運転支援プログラム
JP2006316644A (ja) 2005-05-10 2006-11-24 Toyota Motor Corp エンジン制御装置
JP4692073B2 (ja) * 2005-05-19 2011-06-01 トヨタ自動車株式会社 運転支援装置
DE102005049458A1 (de) * 2005-10-15 2007-04-26 Daimlerchrysler Ag Verfahren und Vorrichtung zur Verbrauchsreduzierung in einem Fahrzeug
JP4771365B2 (ja) 2005-11-30 2011-09-14 アイシン・エィ・ダブリュ株式会社 経路案内システム、経路案内方法及びプログラム
JP4400584B2 (ja) * 2006-03-01 2010-01-20 トヨタ自動車株式会社 障害物検出方法及び障害物検出装置
DE102006017177A1 (de) * 2006-04-12 2007-10-18 Robert Bosch Gmbh Fahrerassistenzsystem mit Anfahrhinweisfunktion
JP4600357B2 (ja) 2006-06-21 2010-12-15 トヨタ自動車株式会社 測位装置
JP4525670B2 (ja) 2006-11-20 2010-08-18 トヨタ自動車株式会社 走行制御計画生成システム
DE102006057277A1 (de) * 2006-12-05 2008-06-12 Robert Bosch Gmbh Verfahren zum Betrieb eines Radarsystems bei möglicher Zielobjektverdeckung sowie Radarsystem zur Durchführung des Verfahrens
JP5082433B2 (ja) * 2006-12-26 2012-11-28 トヨタ自動車株式会社 移動体周囲危険度判定方法、装置、およびプログラム
US9302678B2 (en) 2006-12-29 2016-04-05 Robotic Research, Llc Robotic driving system
JP2008191781A (ja) 2007-02-01 2008-08-21 Hitachi Ltd 衝突回避システム
FR2916893A1 (fr) * 2007-05-30 2008-12-05 Eurolum Soc Par Actions Simpli Procede et dispositif d'assistance a la conduite pour un vehicule destine a parcourir un trajet defini entre un premier point et un deuxieme point
US9043138B2 (en) * 2007-09-07 2015-05-26 Green Driver, Inc. System and method for automated updating of map information
FR2923016B1 (fr) 2007-10-31 2009-11-20 Valeo Vision Procede de detection d'un phenomene perturbateur de visibilite pour un vehicule.
DE102007058192A1 (de) * 2007-12-04 2009-06-10 Continental Teves Ag & Co. Ohg Zentrales Steuergerät für mehrere in einem Kraftfahrzeug vorgesehene Assistenzsysteme und Kraftfahrzeug (Wegen nicht zuerkannter Prio)
US8031062B2 (en) 2008-01-04 2011-10-04 Smith Alexander E Method and apparatus to improve vehicle situational awareness at intersections
JP5419390B2 (ja) 2008-06-13 2014-02-19 富士通テン株式会社 ドライブレコーダ及びシステム
US8170739B2 (en) 2008-06-20 2012-05-01 GM Global Technology Operations LLC Path generation algorithm for automated lane centering and lane changing control system
CN102089178B (zh) 2008-07-08 2013-04-17 西门子公司 用于给车辆充能量的适配器装置和方法
KR101338058B1 (ko) * 2008-09-23 2013-12-06 현대자동차주식회사 차량의 전방 영상을 이용하는 도로상 요철 검출 시스템
EP2346012A4 (en) * 2008-10-08 2012-04-04 Toyota Motor Co Ltd DRIVING DEVICE AND METHOD
US8126642B2 (en) 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
JP5262986B2 (ja) * 2009-03-05 2013-08-14 日産自動車株式会社 走行経路生成装置、走行経路生成方法、及び運転操作支援装置
JP4957747B2 (ja) * 2009-05-18 2012-06-20 トヨタ自動車株式会社 車両環境推定装置
JP5278378B2 (ja) * 2009-07-30 2013-09-04 日産自動車株式会社 車両運転支援装置及び車両運転支援方法
US8482431B2 (en) 2009-10-23 2013-07-09 Fuji Jukogyo Kabushiki Kaisha Driving support apparatus
JP5407764B2 (ja) * 2009-10-30 2014-02-05 トヨタ自動車株式会社 運転支援装置
US8559673B2 (en) 2010-01-22 2013-10-15 Google Inc. Traffic signal mapping and detection
DE102010002300B4 (de) * 2010-02-24 2022-09-01 Robert Bosch Gmbh Verfahren zum Ermitteln eines Fahrverhaltens
JP2011192177A (ja) 2010-03-16 2011-09-29 Toyota Motor Corp 前方状況予測装置
KR101735050B1 (ko) 2010-09-10 2017-05-12 현대모비스 주식회사 차량의 지능형 순항 제어 시스템 및 그 제어방법
DE102010049214A1 (de) * 2010-10-21 2011-07-28 Daimler AG, 70327 Verfahren zur Bestimmung eines Fahrspurverlaufs für ein Fahrzeug
DE102011004425A1 (de) * 2011-02-18 2012-08-23 Bayerische Motoren Werke Aktiengesellschaft Schätzen des Status einer Ampelanlage
US8675909B2 (en) * 2011-07-22 2014-03-18 American Megatrends, Inc. Traffic signal connected digital electronic display and method of controlling the same
DE102012213815A1 (de) * 2011-08-03 2013-02-07 Continental Teves Ag & Co. Ohg Verfahren und System zum Anhalten eines Kraftfahrzeugs
US8571743B1 (en) * 2012-04-09 2013-10-29 Google Inc. Control of vehicles based on auditory signals
US8793046B2 (en) 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data

Also Published As

Publication number Publication date
CN104470781B (zh) 2017-10-24
EP3792126A1 (en) 2021-03-17
US20140303829A1 (en) 2014-10-09
WO2013180787A1 (en) 2013-12-05
US20180032076A1 (en) 2018-02-01
KR101705961B1 (ko) 2017-02-10
US11474520B2 (en) 2022-10-18
US9327734B2 (en) 2016-05-03
US20160209844A1 (en) 2016-07-21
US11845472B2 (en) 2023-12-19
JP6018705B2 (ja) 2016-11-02
US20130325241A1 (en) 2013-12-05
CN104470781A (zh) 2015-03-25
CN107628027A (zh) 2018-01-26
US20230004159A1 (en) 2023-01-05
US10831196B2 (en) 2020-11-10
US20240075961A1 (en) 2024-03-07
US20190271983A1 (en) 2019-09-05
EP2855225B1 (en) 2021-01-20
KR20150016381A (ko) 2015-02-11
EP2855225A1 (en) 2015-04-08
US9804601B2 (en) 2017-10-31
CN107628027B (zh) 2021-07-30
US8793046B2 (en) 2014-07-29
US20210018920A1 (en) 2021-01-21
US10331133B2 (en) 2019-06-25
EP2855225A4 (en) 2016-06-29
JP2015524762A (ja) 2015-08-27

Similar Documents

Publication Publication Date Title
ES2848868T3 (es) Inferencia de estado de señal de tráfico y otros aspectos del entorno de un vehículo basándose en datos sustitutivos
ES2749698T3 (es) Modificación activa de un campo de visión de un vehículo autónomo en vista de restricciones
US10444754B2 (en) Remote assistance for an autonomous vehicle in low confidence situations
USRE46966E1 (en) Controlling a vehicle having inadequate map data
EP2825435B1 (en) Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles
JP6270064B2 (ja) 交通信号とそれらに関連した状態を検出するためのロバスト法
WO2014130178A1 (en) A method to detect nearby aggressive drivers and adjust driving modes