MX2015002104A - Tratamiento de fallas en un vehiculo autonomo. - Google Patents

Tratamiento de fallas en un vehiculo autonomo.

Info

Publication number
MX2015002104A
MX2015002104A MX2015002104A MX2015002104A MX2015002104A MX 2015002104 A MX2015002104 A MX 2015002104A MX 2015002104 A MX2015002104 A MX 2015002104A MX 2015002104 A MX2015002104 A MX 2015002104A MX 2015002104 A MX2015002104 A MX 2015002104A
Authority
MX
Mexico
Prior art keywords
vehicle
data
computer
location
road
Prior art date
Application number
MX2015002104A
Other languages
English (en)
Other versions
MX343922B (es
Inventor
Christopher Attard
Shane Elwart
Jeff Allen Greenberg
Rajit Johri
John P Joyce
Devinder Singh Kochhar
Douglas Scott Rhode
John Shutko
Hongtei Eric Tseng
Original Assignee
Ford Global Tech Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/184,860 external-priority patent/US9406177B2/en
Application filed by Ford Global Tech Llc filed Critical Ford Global Tech Llc
Publication of MX2015002104A publication Critical patent/MX2015002104A/es
Publication of MX343922B publication Critical patent/MX343922B/es

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0018Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions
    • B60W60/00186Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions related to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0225Failure correction strategy
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0059Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/021Means for detecting failure or malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Vehicle Cleaning, Maintenance, Repair, Refitting, And Outriggers (AREA)
  • Hardware Redundancy (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)

Abstract

Se recopilan datos durante la operación de un vehículo. Se determina que una evaluación de confianza de al menos uno de los datos indica al menos una condición de falla. Una primera operación autónoma afectada por la condición de falla es discontinuada, donde una segunda operación autónoma que no es afectada por la condición de falla es continuada.

Description

TRATAMIENTO DE FALLAS EN UN VEHÍCULO AUTÓNOMO ANTECEDENTES DE LA INVENCIÓN Un vehículo, ej., un automóvil, un camión, un bus, etc., puede ser operado total o parcialmente sin intervención humana, es decir, puede ser semi-autónomo o autónomo. Por ejemplo, el vehículo puede incluir sensores y lo similar que transmiten información a una computadora central en el vehículo. La computadora central puede utilizar la información recibida para operar el vehículo, ej., para tomar decisiones con respecto a la velocidad, rumbo, etc. del vehículo. Sin embargo, se necesitan mecanismos para evaluar la capacidad de una computadora de operar el vehículo de manera autónoma, y para determinar una acción o acciones a llevar a cabo cuando se detectan una o más fallas.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La Figura 1 es un diagrama de bloques de un sistema de vehículo a modo de ejemplo para la operación de un vehículo autónomo, que incluye mecanismos para detectar y tratar fallas.
La Figura 2 es un diagrama de un procedimiento a modo de ejemplo para evaluar, y proporcionar alertas en base a niveles de confianza relacionados con las operaciones de un vehículo autónomo.
La Figura 3 es un diagrama de un proceso a modo de ejemplo para evaluar, y llevar a cabo una acción en base a los niveles de confianza relacionados con las operaciones de un vehículo autónomo.
DESCRIPCIÓN DETALLADA DE LAS REALIZACIONES PREFERIDAS DE LA INVENCIÓN INTRODUCCIÓN La Figura 1 es un diagrama de bloques de un sistema de vehículo 100 a modo de ejemplo para la operación de un vehículo autónomo 101, es decir, un vehículo 101 operado total o parcialmente de acuerdo con directivas de control determinadas en una computadora 105 del vehículo 101. La computadora 105 puede incluir instrucciones para determinar que un módulo de conducción autónoma 106, ej. incluido en la computadora del vehículo 105, puede no ser capaz de operar el vehículo 101 de manera autónoma o semi-autónoma con una confianza aceptable, ej., una confianza expresada numéricamente que es inferior a un umbral predeterminado. Por ejemplo, se podría detectar una falla o fallas con respecto a uno o más recolectores de datos 110, ej., sensores o lo similar, en un primer vehículo 101. Además, una vez detectada una falla, el primer vehículo 101 puede enviar una comunicación de vehículo a vehículo 112 a uno o más segundos vehículos 101 y/o puede enviar datos a través de una red 120 a un servidor remoto 125. Además, la operación adicional del primer vehículo 101 puede utilizar los datos 115 de los recolectores 110 en el primer vehículo 101 en la medida en que dichos datos 115 no estén sujetos a una falla, y además puede utilizar datos 115 de uno o más segundos vehículos 101 que puedan ser recibidos en una comunicación de vehículo a vehículo 112.
De manera alternativa o adicional, cuando se detecta una falla en un vehículo 101, el vehículo 101 podría detener y/o inhabilitar una o más operaciones autónomas en particular que dependen de un recolector de datos 110 en el cual se detectó la falla. Por ejemplo, la computadora 105 del vehículo 101 podría depender de los datos de un radar o lidar 115 para detectar y/o mantener una distancia con otros vehículos 101. De esta manera, si los recolectores de datos del radar o lidar 110 necesarios para detectar o mantener dicha distancia estuvieran asociados con una condición de falla, el vehículo 101 podría detener y/o inhabilitar un control de navegación adaptable o mecanismo similar para detectar y mantener una distancia con otros vehículos 101. Sin embargo, si otros recolectores de datos 110 estuvieran disponibles para otras operaciones autónomas, ej. detectar y mantener un carril, limpiar las ventanillas del vehículo 101, etc., el vehículo 101 podría continuar llevando a cabo dichas operaciones.
Las razones para una confianza inferior podrían incluir la degradación de los dispositivos de recolección de datos 110 tales como sensores, ej. causada por condiciones climáticas, obstrucción u otros factores de ruido. La confianza inferior en las operaciones autónomas podría ocurrir también si se exceden los parámetros de diseño de operación del vehículo autónomo 101. Por ejemplo, las evaluaciones de confianza 118 pueden surgir a partir de datos 115 provistos por recolectores de datos 110 incluidos en una capa perceptiva (PL por sus siglas en inglés) del vehículo autónomo 101, o a partir de recolectores de datos 110 en una capa de accionamiento (AL por sus siglas en inglés). Para la PL, estas estimaciones de confianza, o probabilidades, se pueden interpretar como una probabilidad de que la información perceptiva es suficiente para la operación segura y normal del vehículo 101. Para la AL, las probabilidades, es decir, las estimaciones de confianza, expresan una probabilidad de que un sistema de accionamiento del vehículo 101 puede ejecutar operaciones de mando del vehículo 101 dentro de una o más tolerancias del diseño. De esta manera, el sistema 100 proporciona mecanismos para detectar y tratar confianza/s inferior/es a la/s aceptable/s en uno o más aspectos de las operaciones del vehículo 101.
Las operaciones autónomas del vehículo 101, incluyendo la generación y análisis de las evaluaciones de confianza 118, se pueden llevar a cabo en un módulo de conducción autónoma 106, ej., como un conjunto de instrucciones almacenadas en una memoria de, y ejecutables mediante un procesador de, un dispositivo de computación 105 en el vehículo 101. El dispositivo de computación 105 en general recibe datos recolectados 115 de uno o más recolectores de datos, ej., sensores, 110. Los datos recolectados 115, tal como se explica anteriormente, se pueden utilizar para generar una o más evaluaciones de confianza 118 relacionadas con la operación autónoma del vehículo 101. Al comparar la única o más evaluaciones de confianza con uno o más parámetros almacenados 117, la computadora 105 puede determinar si proporcionar una alerta o lo similar a un ocupante del vehículo 101, ej., mediante una interfaz 119. Además de manera adicional o alternativa, en base a la única o más evaluaciones de confianza 118, el mensaje 116, ej., una alerta, puede trasmitir un nivel de urgencia o importancia a un operador del vehículo 101, ej., utilizando téenicas de prosodia para incluir contenido emocional en una alerta de voz, un avatar visual que tenga una apariencia personalizada para un nivel de urgencia, etc. Inclusive de manera adicional o alternativa en base a la única o más evaluaciones de confianza 118, es decir, una indicación de una falla o fallas detectadas, la computadora 105 puede determinar una acción a llevar a cabo con relación a la operación autónoma del vehículo 101, ej., inhabilitar una o más funciones u operaciones autónomas, limitar o detener la operación del vehículo 101, implementar una operación de “reducir la velocidad hasta detenerse” o “desviarse a la banquina y detenerse”, implementar una operación de funcionamiento reducido o “limp home etc.
Con respecto a los mensajes 116, un ejemplo de muchos posibles, una alerta le puede informar al ocupante del vehículo 101 una necesidad de reanudar el control manual parpial o completo del vehículo 101. Además, como se menciona anteriormente, una forma de un mensaje 116 puede estar adaptada según su urgencia. Por ejemplo, se puede generar una alerta de audio con téenicas de prosodia utilizadas para transmitir un nivel de urgencia asociado con la alerta. De manera alternativa o adicional, se puede configurar una interfaz gráfica de usuario incluida en una interfaz hombre-máquina de la computadora 105 para que muestre colores, fuentes, tamaños de fuente, un avatar o lo similar que represente un ser humano, etc., en particular para indicar un nivel de urgencia, ej., se recomienda control manual inmediato, se puede recomendar el control manual dentro del próximo minuto, dentro de los próximos cinco minutos, se recomienda el control manual por motivos mecánicos, se recomienda el control manual debido a las condiciones ambientales o climáticas, se recomienda el control manual debido a las condiciones del tránsito, etc.
Con relación a una acción o acciones en respuesta a una o más fallas detectadas, los ejemplos incluyen un primer vehículo 101 que recibe una comunicación 112 desde uno o más segundos vehículos 101 para la operación, ej., navegación, del primer vehículo 101. Los ejemplos con relación a la acción o acciones en respuesta a una o más fallas detectadas incluyen de manera alternativa o adicional que el primer vehículo 101 inhabilite y/o detenga una o más operaciones autónomas, ej., control de la dirección, control de la velocidad, control de navegación adaptable, mantenimiento del carril, etc.
Elementos del sistema a modo de ejemplo Un vehículo 101 puede ser un vehículo terrestre tal como una motocicleta, un automóvil, un camión, un bus, etc., pero además podría ser una embarcación, una aeronave, etc. En cualquier caso, el vehículo 101 en general incluye una computadora del vehículo 105 que incluye un procesador y una memoria, incluyendo la memoria una o más formas de medios legibles por computadora, y que almacena instrucciones ejecutables por el procesador para llevar a cabo diferentes operaciones, incluyendo las que se divulgan en la presente. Por ejemplo, la computadora 105 en general incluye, y es capaz de ejecutar, instrucciones que puedan estar incluidas en el módulo de conducción autónoma 106 para operar de manera autónoma o semi-autónoma el vehículo 101, es decir, para operar el vehículo 101 sin control del operador, o solamente con control parcial del operador.
Además, la computadora 105 puede incluir más de un dispositivo de computación, ej. controladores o lo similar incluidos en el vehículo 101 para monitorear y/o controlar diferentes componentes del vehículo, ej., una unidad de control del motor (ECU por sus siglas en inglés), unidad de control de transmisión (TCU por sus siglas en inglés), etc. La computadora 105 en general está configurada para comunicarse mediante un protocolo de red del área del controlador (CAN por sus siglas en inglés) o lo similar. La computadora 105 además puede tener una conexión con un conector de diagnósticos a bordo (OBD-II). Mediante el protocolo CAN, el OBD-II, y/u otros mecanismos por cable o inalámbricos, la computadora 105 puede transmitir mensajes a diferentes dispositivos en un vehículo y/o recibir mensajes desde varios dispositivos, ej., controladores, accionadores, sensores, etc., incluyendo recopiladores de datos 110. De manera alternativa o adicional, en los casos en que la computadora 105 en realidad comprende dispositivos múltiples, el protocolo CAN o lo similar se puede utilizar para las comunicaciones entre los dispositivos representados como la computadora 105 en la presente divulgación.
Además, la computadora 105 se puede configurar para comunicarse con la red 120, la cual, como se describe a continuación, puede incluir diferentes teenologías de redes con cables o inalámbricas, ej., celular, Bluetooth, redes de paquetes con cables y/o inalámbricas, etc. Además, la computadora 105, ej., en el módulo 106, en general incluye instrucciones para recibir datos, ej., datos recopilados 115 desde uno o más recopiladores de datos 110 y/o datos de una interfaz afectiva del usuario 119 que en general incluye una interfaz hombre-máquina (HMI por sus siglas en inglés), tal como un sistema de respuesta de voz interactiva (IVR por sus siglas en inglés), una interfaz gráfica del usuario (GUI por sus siglas en inglés) que incluye una pantalla táctil o lo similar, etc.
Tal como se menciona anteriormente, incluido generalmente en las instrucciones almacenadas en y ejecutadas por la computadora 105 se encuentra un módulo de conducción automática 106 o, en el caso de un vehículo no terrestre o de carretera, se puede hacer referencia al módulo 106 más genéricamente como un módulo de operaciones autónomas 106. Utilizando los datos recibidos en la computadora 105, ej., a partir de recopiladores de datos 110, datos incluidos como parámetros almacenados 117, evaluaciones de confianza 118, etc., el módulo 106 puede controlar diferentes componentes del vehículo 101 y/u operaciones sin que un conductor opere el vehículo 101. Por ejemplo, el módulo 106 se puede utilizar para regular la velocidad, aceleración, desaceleración, dirección, frenado, etc., del vehículo 101.
Los recolectores de datos 110 pueden incluir una variedad de dispositivos. Por ejemplo, diferentes controladores en un vehículo pueden operar como recopiladores de datos 110 para proporcionar datos 115 a través del protocolo CAN, ej., los datos 115 relacionados con la velocidad, aceleración, etc., del vehículo. Además, los sensores o lo similar, el equipo del sistema de posicionamiento global (GPS), etc., se podrían incluir en un vehículo y configurar como recolectores de datos 110 para proporcionar datos directamente a la computadora 105, ej., a través de una conexión con cables o inalámbrica. Los recolectores de datos 110 también podrían incluir sensores o lo similar para detectar las condiciones afuera del vehículo 101, ej., sensores de mediano alcance y de largo alcance. Por ejemplo, los recolectores de datos 110 de los sensores podrían incluir mecanismos tales como RADAR, LIDAR, sonar, cámaras u otros dispositivos de captura de imágenes, que podrían implementarse para medir una distancia entre el vehículo 101 y otros vehículos u objetos, para detectar otros vehículos u objetos, y/o para detectar atributos de la ruta, tales como curvas, baches, pendientes, salientes, cambios de grado, límites de los carriles, etc.
Un recolector de datos 110 además puede incluir sensores biométricos 110 y/u otros dispositivos que se pueden utilizar para identificar un operador de un vehículo 101. Por ejemplo, un recolector de datos 110 puede ser un sensor de huella digital, un escáner de retina, u otro sensor 110 que proporcione datos biométricos 105 que se puedan utilizar para identificar a un operador de un vehículo 101 y/o las características de un operador de un vehículo 101, ej., sexo, edad, condiciones de salud, etc. De manera alternativa o adicional, un recolector de datos 110 puede incluir un dispositivo hardware portátil, ej., que incluye un procesador y un firmware de almacenamiento de memoria ejecutable por el procesador, para identificar a un operador del vehículo 101. Por ejemplo, dicho dispositivo hardware portátil podría incluir una capacidad de comunicarse de manera inalámbrica, ej., utilizando Bluetooth o lo similar, con la computadora 105 para identificar a un operador del vehículo 101.
Una memoria de la computadora 105 en general almacena datos recopilados 115. Los datos recopilados 115 pueden incluir una variedad de datos recopilados en un vehículo 101 a partir de recopiladores de datos 110. Ejemplos de datos recolectados 115 se proporcionan anteriormente, y además, los datos 115 puede además incluir datos calculados a partir de los mismos en la computadora 105. En general, los datos recolectados 115 pueden incluir cualquier dato que pueda ser reunido por un dispositivo de recolección 110 y/o derivado a partir de dichos datos. De esta manera, los datos recolectados 115 podrían incluir una variedad de datos relacionados con las operaciones y/o el rendimiento del vehículo 101, así como también datos relacionados con el movimiento, navegación, etc., del vehículo 101. Por ejemplo, los datos recolectados 115 podrían incluir datos 115 relativos a la velocidad, aceleración, frenado del vehículo, detección de atributos de la ruta tales como aquellos mencionados anteriormente, condiciones climáticas, etc.
Tal como se menciona anteriormente, un vehículo 101 puede enviar y recibir una o más comunicaciones de vehículo a vehículo (v2v) 112. Se pueden utilizar diferentes teenologías, que incluyen hardware, protocolos de comunicación, etc., para las comunicaciones de vehículo a vehículo. Por ejemplo, las comunicaciones v2v 112 tal como se describen en la presente son en general comunicaciones en paquete y podrían ser enviadas y recibidas al menos parcialmente de acuerdo con las Comunicaciones Especializadas de Corto Alcance (DSRC por sus siglas en inglés) o lo similar. Tal como se conoce, las DSRC están operando relativamente a baja potencia en un alcance corto a mediano en un espectro especialmente asignado por el gobierno de los Estados Unidos en la banda de 5.9 GHz.
Una comunicación v2v 112 puede incluir una variedad de datos relativos a las operaciones de un vehículo 101. Por ejemplo, un requisito actual para las DSRC, promulgado por la Sociedad de Ingenieros Automotrices, establece incluir una amplia variedad de datos del vehículo 101 en una comunicación v2v 112, que incluye la posición (ej., latitud y longitud), velocidad, rumbo, estado de aceleración, estado del sistema de frenos, estado de transmisión, posición del volante, etc., del vehículo 101.
Además, las comunicaciones v2v 112 no se limitan a los elementos de datos incluidos en el estándar de las DSRC, o a cualquier otro estándar. Por ejemplo, una comunicación v2v 112 puede incluir una amplia variedad de datos recolectados 115 obtenidos a partir de un recolector de datos 110 del vehículo 101, tales como imágenes de cámara, datos del radar o lidar, datos de los sensores infrarrojos, etc. De esta manera, un primer vehículo 101 podría recibir datos recolectados 115 a partir de un segundo vehículo 101, mediante los cuales la computadora 105 del primer vehículo 101 podría utilizar los datos recolectados 115 de un segundo vehículo 101 como ingreso de datos al módulo autónomo 106 en el primer vehículo 101, es decir, para determinar operaciones autónomas o semi-autónomas del primer vehículo 101, tal como cómo ejecutar una operación de funcionamiento reducido o lo similar y/o cómo continuar con las operaciones aun cuando existe una falla o fallas indicadas en uno o más recolectores de datos 110 en el primer vehículo 101.
Una comunicación v2v 112 podría incluir mecanismos distintos de las comunicaciones RF, ej., un primer vehículo 101 podría proporcionar indicaciones visuales a un segundo vehículo 101 para establecer una comunicación v2v 112. Por ejemplo, el primer vehículo 101 podría mover o proyectar las luces según un patrón predeterminado para que sea detectado por los recolectores de datos de la cámara o lo similar en un segundo vehículo 101.
Una memoria de la computadora 105 además puede almacenar uno o más parámetros 117 para compararlos con evaluaciones de confianza 118. De esta manera, un parámetro 117 podría definir un conjunto de intervalos de confianza; cuando una evaluación de confianza 118 indica que un valor de confianza está dentro de un intervalo de confianza en o pasado un umbral predeterminado, estando dicho umbral también especificado por un parámetro 117, entonces la computadora 105 puede incluir instrucciones para proveer una alerta o lo similar a un operador de un vehículo 101.
En general, se puede almacenar un parámetro 117 asociado a un identificador para un usuario u operador particular del vehículo 101, y/o un parámetro 117 puede ser genérico para todos los operadores del vehículo 101. Los parámetros adecuados 117 a ser asociados con un operador del vehículo 101 en particular, ej., de acuerdo con un identificador para el operador, se pueden determinar en una variedad de formas, ej., de acuerdo con la edad, nivel de experiencia de conducción, etc., del operador. Tal como se menciona anteriormente, la computadora 101 puede utilizar mecanismos, tales como una señal de un dispositivo hardware que identifica a un operador del vehículo 101, el ingreso de datos del usuario a la computadora 105 y/o mediante un dispositivo 150, datos biométricos recopilados 115, etc., para identificar un operador en particular del vehículo 101 cuyos parámetros 117 deberían utilizarse.
Se podrían utilizar diferentes téenicas de modelado matemáticas, estadísticas y/o predictivas para generar y/o ajustar los parámetros 117. Por ejemplo, un vehículo 101 podría ser operado de manera autónoma mientras es monitoreado por un operador. El operador podría proporcionar ingreso de datos a la computadora 105 sobre cuándo las operaciones autónomas parecían seguras, y cuando inseguras. Se podrían utilizar entonces diferentes téenicas para determinar funciones en base a los datos recolectados 115 para generar parámetros 117 y evaluaciones 118 con los cuales se podrían comparar los parámetros 118.
Las evaluaciones de confianza 118 son números que se pueden generar de acuerdo con instrucciones almacenadas en una memoria de la computadora 105 en un vehículo 101 que utiliza datos recolectados 115 del vehículo 101. Las evaluaciones de confianza 118 se proporcionan generalmente en dos formas. En primer lugar, una evaluación de confianza general 118, denominada en la presente F, puede ser un valor variable continuo o casi continuo que indica una confianza en general de que el vehículo 101 puede y/o debería ser operado de manera autónoma. Es decir, la evaluación de confianza general 118 puede ser comparada de manera continua o casi continua con un parámetro 117 para determinar si la confianza general iguala o excede un umbral proporcionado por el parámetro 117. De esta manera, la evaluación de confianza general 118 puede servir como un indicio de si, en base a los datos recolectados actuales 115, un vehículo 101 debería ser operado de manera autónoma, puede ser proporcionado como un valor escalar, ej., como un número que tiene un valor en el rango de 0 a 1.
En segundo lugar, se puede proporcionar uno o más vectores de evaluaciones de atributos autónomos 118, donde cada valor en el vector se relaciona con un atributo y/o del vehículo 101 y/o de un ambiente del entorno relacionado con una operación autónoma del vehículo 101, ej., atributos tales como la velocidad del vehículo 101, desempeño de los frenos, aceleración, dirección, navegación (ej., si un mapa proporcionado para una ruta del vehículo 101 se desvía de la disposición real de las rutas, si se encuentra una construcción inesperada, si se encuentra tránsito inesperado, etc.), condiciones climáticas, condiciones de la ruta, etc.
En general, se conocen y se pueden utilizar diferentes modos de estimar confianzas y/o de asignar valores a los intervalos de confianza para generar las evaluaciones de confianza 118. Por ejemplo, los diferentes recopiladores de datos 110 y/o sub-sistemas del vehículo 101 pueden proporcionar datos recopilados 115, ej., relacionados con la velocidad, aceleración, frenado, etc., del vehículo. Por ejemplo, una evaluación de la precisión probable de un recopilador de datos 110, ej., la precisión del sensor, se podría determinar a partir de datos recopilados 115 utilizando técnicas conocidas. Además, los datos recopilados 115 pueden incluir información acerca de un ambiente externo en el cual está viajado el vehículo 101, ej., atributos de la ruta tales como aquellos mencionados anteriormente, datos 115 que indican un grado de precisión de los datos del mapa que están siendo utilizados para la navegación del vehículo 101, datos 115 relacionados con construcciones inesperadas en la ruta, condiciones del tránsito, etc. Al evaluar dichos datos recopilados 115, y posiblemente sopesar diferentes determinaciones, ej., una determinación de la precisión de un recopilador de datos 110 de un sensor y una o más determinaciones relacionadas con condiciones extemas y/o ambientales, ej., la presencia o ausencia de precipitación, condiciones de la ruta, etc., se puede generar una o más evaluaciones de confianza 118 que proporcionan uno o más indicios de la capacidad del vehículo 101 de operar de manera autónoma.
Un ejemplo de un vector de las estimaciones de confianza 118 incluye un vector <PPL = 0 v L , fz1, ·, fzi), relacionado con la capa perceptiva (PL) del vehículo 101, donde n es un número de sub-sistemas perceptivos, ej., grupos de uno o más recolectores de datos 110 de sensores, en la PL. Otro ejemplo de un vector de estimaciones de confianza 118 incluye un vector <pAL = >Yth ·> relacionado con la capa de accionamiento (AL) del vehículo 101, ej., grupos de uno o más recolectores de datos 110 de accionadores, en la AL.
En general, el vector < PLse puede generar utilizando una o más téenicas conocidas, incluyendo, sin limitación, la Estimación de Fiabilidad de la Reconstrucción del Ingreso de Datos (IRRE por sus siglas en inglés) para una red neuronal, error de reconstrucción de los vectores de desplazamiento en un campo de flujo óptico, estimaciones de contraste globales de un sistema de toma de imágenes, estimaciones de la relación entre señal de regreso y mido en un sistema de radar, controles de consistencia interna, etc. Por ejemplo, un clasificador de mta de la Red Neuronal puede proporcionar niveles de activación conflictivos para diferentes clasificaciones de rutas (ej., un solo carril, dos carriles, autovía dividida, intersección, etc.). Estos niveles de activación conflictivos darán como resultado que los recolectores de datos 110 de la PL reporten una estimación de confianza disminuida a partir de un módulo clasificador de rutas en la PL. En otro ejemplo, las señales de regreso del radar pueden estar atenuadas debido a la humedad del ambiente de modo que el módulo de radar reporta una confianza baja al estimar el alcance, relación de alcance o azimut de los vehíjculos cercanos.
Las estimaciones de confianza tambien pueden ser modificadas por la PL en base a conocimientos obtenidos sobre eventos futuros. Por ejemplo, la PL puede estar comunicada en tiempo real con un servicio de datos, ej., a través del servidor 125, que puede informar el clima a lo largo de una ruta planificada o proyectada de un vehículo 101. La información acerca de una probabilidad de clima que pueda afectar de manera adversa la PL (e.g., lluvias fuertes o nieve) puede ser factorizada en las evaluaciones de confianza 118 en el vector <pPL con anterioridad a la degradación real de las señales del recolector de datos 110 del sensor. De esta manera se pueden ajustar las evaluaciones de confianza 118 para reflejar no solo el estado inmediato del sensor sino también una probabilidad de que el estado del sensor se pueda degradar en el futuro cercano.
Además, en general el vector <pAL se puede generar mediante téenicas generalmente conocidas que incluyen comparar un accionamiento ordenado con el desempeño resultante de un vehículo 101. Por ejemplo, una variación medida en la aceleración lateral para un determinado ingreso de datos de dirección ordenados (aumento de dirección) se podría comparar con un modelo intemo. Si el valor medido del aumento de dirección varía más que una cantidad umbral respecto del valor modelo, entonces se informará un nivel de confianza inferior para ese sub-sistema. Cabe destacar que las evaluaciones de confianza inferior 118 pueden o no reflejar una falla del hardware; por ejemplo, las condiciones ambientales (ej., rutas mojadas o con hielo) pueden disminuir una evaluación de confianza relacionada 118 aun cuando no implique una falla del hardware.
Cuando una evaluación de confianza general 118 para un valor específico o rango de valores, ej., un intervalo de confianza, iguala o excede un umbral predeterminado dentro de un margen de error predeterminado, ej., 95 por ciento más o menos tres por ciento, entonces la computadora 105 puede incluir instrucciones para proporcionar un mensaje 116, ej., una alerta, a través de una interfaz afectiva 119. Es decir, la interfaz afectiva 119 puede ser activada cuando la evaluación de confianza general 118 (F) desciende por debajo de un umbral predeterminado específico >m¿n. Cuando esto ocurre, la interfaz afectiva 119 formula un mensaje 116 (Af) para que sea entregado a un operador del vehículo 101. El mensaje 116 Men general incluye dos componentes, un componente de contenido semántico 5 y un modificador de urgencia U. De esta manera, la interfaz 119 puede incluir un módulo generador de discurso, y un sistema interactivo de respuesta de voz (IVR), o lo similar, tales como aquellos conocidos para generar un discurso de audio. Del mismo modo, la interfaz 119 puede incluir una interfaz gráfica del usuario (GUI) o lo similar que puede mostrar alertas, mensajes, etc., de un modo para transmitir un grado de urgencia, ej., de acuerdo al tamaño de la fuente, color, utilización de iconos o símbolos, expresiones, tamaño, etc., de un avatar o lo similar, etc.
Además, las sub-evaluaciones de confianza de los atributos 118, ej., uno o más valores en un vector <pPL o <pAL, pueden relacionarse con datos recolectados en particular 115, y pueden utilizarse para proporcionar contenido específico para uno o más mensajes 116 a través de la interfaz 119 en relación con atributos o condiciones en particular relacionadas con el vehículo 101, ej., una advertencia para un ocupante del vehículo 101 para tomar el control del volante, para establecer el freno manual, para tomar control completo del vehículo 101, etc. Es decir, se puede utilizar una evaluación de confianza general 118 para determinar que se debería proveer una alerta o lo similar a través de la interfaz afectiva 119 en un mensaje 116, y también es posible que, además, el contenido específico de la alerta del mensaje 116 pueda estar basado en las evaluaciones de atributos 118. Por ejemplo, el mensaje 116 se podría basar al menos parcialmente en una o más evaluaciones de atributos 118 y podría ser provisto indicando que la operación autónoma de un vehículo 101 debería detenerse, y de manera alternativa o adicional, el mensaje 116 podría indicar como contenido una alerta tal como “precaución: ruta resbaladiza”, o “precaución: cierre de carril inesperado adelante.” Además, tal como se menciona anteriormente como se explica en mayor detalle a continuación, se puede utilizar la prosodia emocional en el mensaje 116 para indicar un nivel de urgencia, preocupación, o alarma relacionado con una o más evaluaciones de confianza 118.
En general, un mensaje 116 puede ser provisto por una computadora 105 cuando F < Fgh?h (cabe destacar que se puede representar la histéresis adecuada en esta evaluación para evitar un cambio rápido). Además, cuando se determina que F < ^min» lo componentes de cada uno de los vectores fri y fAI se pueden evaluar para determinar si un valor del componente del vector está por debajo de un umbral predeterminado para el componente del vector. Para cada componente del vector que está por debajo del umbral, la computadora puede formular un mensaje 116 para que sea provisto a un operador del vehículo 101. Además, se puede determinar un elemento de contenido semántico 5¿ del mensaje 116 de acuerdo a una identidad del componente que ha disminuido por debajo del umbral, es decir: Si = S(<Pi) V<Pi < <pmin Por ejemplo, si (p1 es un componente que representa la confianza visual de seguimiento de carril y f1 < fth?h entonces S¿ podría convertirse en: “Precaución: el sistema de seguimiento de carril es incapaz de ver las señalizaciones del carril. Se recomienda la intervención del conductor”.
Lo anterior representa un ejemplo específico de una construcción general en base a una gramática mediante la cual se puede formular un mensaje 116. La gramática completa de una construcción tal puede variar; los elementos importantes de la gramática de un mensaje 116 pueden incluir: • Una palabra señal (SW por sus siglas en inglés) que comienza un mensaje 116; en el ejemplo anterior, SW = f(i, <p¿) es la palabra “Precaución”. Dependiendo del sub-sistema (i) del vehículo 101 en particular y del valor de confianza <p¿, la SW podría ser una de {“Mortal”, “Peligro”, “Advertencia”, “Precaución”, “Aviso”} o alguna otra palabra; • Una descripción del sub-sistema (SSD por sus siglas en inglés) que identifica un sub-sistema del vehículo 101; en el ejemplo anterior, SSD = /(i) es la frase “el sistema de seguimiento de carril” el cual describe el sistema Ith en un lenguaje comprensible por el usuario; • Una cualidad del indicador de función (QoF por sus siglas en inglés) que describe cómo se ha degradado la operación del sub-sistema; en el ejemplo anterior, QoF = /(i, (pi) es la frase “es incapaz”; • Un descriptor de función (FD por sus siglas en inglés) que transmite qué función será afectada; en el ejemplo anterior, FD = /(i) es la frase “ver las señalizaciones del carril”; • Una acción requerida (RA por sus siglas en inglés); en el ejemplo anterior, RA = f i, <pi) es la frase “la intervención del conductor”; • La intensidad de la recomendación (RS por sus siglas en inglés); en el ejemplo anterior, RS = f(i, <p¡) es la frase “se recomienda”.
En general, se puede definir una gramática adecuada del lenguaje para determinar la disposición adecuada de los diferentes términos para asegurar que se construya una frase sintácticamente correcta en el lenguaje meta. Continuando con el ejemplo anterior, una plantilla para un mensaje de advertencia 116 podría ser: <SW>: <SSD><QoF><FD><RA><RS> Una vez que se ha formulado el contenido semántico S¿, la computadora 105 modifica los parámetros de texto a discurso en base a que el valor de la evaluación de confianza general 118 (F) está por debajo de un umbral predeterminado, ej., para agregar urgencia para llamar la atención del conductor. En general, se puede aplicar un conjunto de parámetros modificados U = {sexo, coníeo de repetición de sw, duración de unidad de palabra , palabra...} al 5¿ para alterar o influenciar la percepción del mensaje de un operador del vehículo 116. Cabe destacar que el “conteo de repetición de sw” se aplica solamente al componente de la palabra señal (ej., “Peligro-Peligro” en lugar de “Peligro”). Para los componentes continuos de U se asume que la urgencia percibida sigue una lcy de energía de Stevens tal como urgencia = k(Ui)m. Los t/¿ individuales son una función de la estimación de confianza general F. Aplicada a la advertencia de seguimiento de carril anterior estas modificaciones podrían alterar la presentación de la advertencia de las siguientes maneras.
• El sexo (masculino, femenino) de la voz texto a discurso podría ser masculina para los valores superiores de Fy femenina para valores inferiores, dado que se ha hallado que las voces femeninas generan respuestas más prudentes. Esto podría revertirse en algunas culturas dependiendo de los hallazgos empíricos.
• El conteo de repetición de SW sería superior para los valores inferiores de F?3?o que las repeticiones aumentadas de la palabra señal están asociadas a la urgencia aumentada percibida.
• La duración de la unidad de palabra sería más corta para valores inferiores de Fbh base a una percepción aumentada de la urgencia con duraciones más cortas de las palabras.
• El tono aumentaría para los valores inferiores de F.
• Otros parámetros (ej., el número de armonías irregulares) que cambian la representación acústica del discurso también podría alterarse.
Continuando con la descripción de los elementos que se muestran en la Figura 1, la red 120 representa uno o más mecanismos mediante los cuales una computadora del vehículo 105 puede comunicarse con un servidor remoto 125 y/o con un dispositivo de usuario 150. De esta manera, la red 120 puede ser uno o más de diferentes mecanismos de comunicación con cables o inalámbricos, incluyendo cualquier combinación deseada de mecanismos de comunicación con cables (ej., cable y fibra) y/o inalámbricos (ej., celular, inalámbrico, satélite, microondas, y frecuencia radial) y cualquier topología de redes deseada (o topologías cuando se utilizan múltiples mecanismos de comunicación). Redes de comunicación a modo de ejemplo incluyen redes de comunicación inalámbricas (ej., que utilizan Bluetooth, IEEE 802.11, etc.), redes de área local (LAN) y/o red de área extendida (WAN), incluyendo la Internet, servicios de comunicación proveedores de datos.
El servidor 125 puede ser uno o más servidores de computadora, generalmente incluyendo cada uno al menos un procesador y al menos una memoria, la memoria almacena instrucciones ejecutables por el procesador, incluyendo instrucciones para llevar a cabo varios pasos y procesos descritos en la presente. El servidor 125 puede incluir o estar comunicativamente acoplado a un almacén de datos 130 para almacenar los datos recopilados 115 y/o los parámetros 117. Por ejemplo, se podría almacenar uno o más de los parámetros 117 para un usuario en particular en el servidor 125 y retirar mediante la computadora 105 cuando el usuario se encuentre en un vehículo en particular 101. Del mismo modo, el servidor 125 podría, tal como se menciona anteriormente, proveer datos a la computadora 105 para utilizarlos en la determinación de parámetros 117, ej., datos del mapa, datos relacionados con las condiciones del clima, condiciones de la ruta, zonas de construcción, etc.
Un dispositivo del usuario 150 podría ser cualquiera de una variedad de dispositivos de computación que incluyen un procesador y una memoria, así como también capacidades de comunicación. Por ejemplo, el dispositivo del usuario 150 podría ser una computadora portátil, una computadora tablet, un teléfono inteligente, etc. que incluye capacidades para comunicaciones inalámbricas que utilizan protocolos de comunicaciones IEEE 802.11, Bluetooth, y/o celular. Además, el dispositivo del usuario 150 puede utilizar dichas capacidades de comunicación para comunicarse a través de la red 120 incluyendo con una computadora del vehículo 105. Un dispositivo del usuario 150 podría comunicar con la computadora 105 del vehículo 101 los otros mecanismos, tales como una red en el vehículo 101, protocolos conocidos tales como Bluetooth, etc. De esta manera, se puede utilizar un dispositivo de usuario 150 para llevar a cabo ciertas operaciones asignadas en la presente a un recolector de datos 110, ej., las funciones de reconocimiento de voz, cámaras, funciones del sistema de posicionamiento global (GPS), etc., en un dispositivo del usuario 150 podrían ser utilizados para proveer datos 115 a la computadora 105. Además, se podría utilizar un dispositivo del usuario 150 para proveer una interfaz afectiva del usuario 119 incluyendo, o de manera alternativa, una interfaz hombre-máquina (HMI) a la computadora 105.
Flujos de procesos a modo de ejemplo La Figura 2 es un diagrama de un proceso a modo de ejemplo 200 para evaluar, y proveer alertas en base a los niveles de confianza relacionados con las operaciones del vehículo autónomo 101.
El proceso 200 comienza en un bloque 205, en el cual el vehículo 101 comienza las operaciones de conducción autónoma. De ese modo, el vehículo 101 es operado parcial o completamente de manera autónoma, es decir, en una manera controlada parcial o completamente por el módulo de conducción autónoma 106. Por ejemplo, todas las operaciones del vehículo 101, ej., dirección, frenado, velocidad, etc., podrían ser controladas por el módulo 106 en la computadora 105. También es posible que el vehículo 101 pueda ser operado de manera parcialmente autónoma (es decir un modo parcialmente manual, donde algunas operaciones, ej., frenado, podrían ser controladas manualmente por un conductor, mientras que otras operaciones, ej., incluyendo la dirección, podrían ser controladas por la computadora 105). Del mismo modo, el módulo 106 podría controlar cuando un vehículo 101 cambia de carril. Además, es posible que el proceso 200 pueda comenzar en algún punto luego de comenzadas las operaciones de conducción del vehículo 101, ej., cuando es manualmente iniciado por un ocupante del vehículo a través de una interfaz del usuario de la computadora 105.
Luego, en un bloque 210, la computadora 105 adquiere los datos recolectados 115. Tal como se menciona anteriormente, una variedad de recolectores de datos 110, ej., sensores o subsistemas de sensores en la PL, o accionadores o subsistemas de accionadores en la AL, pueden proveer datos 115 a la computadora 105.
Luego, en un bloque 215, la computadora 105 computa una o más evaluaciones de confianza 118. Por ejemplo, la computadora 105 en general computa la evaluación de confianza escalar general 118 mencionada anteriormente, es decir, un valor F que provee un indicio de si el vehículo 101 debería continuar las operaciones autónomas, ej., cuando se comparan con un umbral predeterminado La evaluación de confianza general 118 puede tener en cuenta una variedad de factores, incluyendo diferentes datos recolectados 115 relacionados con diferentes atributos del vehículo 101 y/o atributos de un ambiente circundante.
Además, la evaluación de confianza general 118 puede tomar en cuenta un aspecto temporal. Por ejemplo, los datos 115 pueden indicar que adelante se encuentra un cierre de carril inesperado, y puede comenzar a afectar el tránsito para el vehículo 101 en cinco minutos. De esta manera, una evaluación de confianza general 118 en un tiempo dado puede indicar que las operaciones autónomas del vehículo 101 pueden continuar. Sin embargo, la evaluación de confianza 118 en un tiempo dado más tres minutos puede indicar que las operaciones autónomas del vehículo 101 deberían finalizar. De manera alternativa o adicional, la evaluación de confianza general 118 en el tiempo dado puede indicar que las operaciones autónomas del vehículo 101 deberían detenerse, o que existe una posibilidad de que las operaciones autónomas deberían detenerse, dentro de un período de tiempo, ej., tres minutos, cinco minutos, etc.
Además en el bloque 215, también se pueden generar uno o más vectores de las evaluaciones de confianza de un atributo o sub-sistema 118. Tal como se explica anteriormente, las evaluaciones de confianza de los vectores 118 proveen indicios relacionados con los datos recolectados 115 correspondientes a un vehículo 101 en particular y/o un sub-sistema del vehículo 101, atributo ambiental, o condición. Por ejemplo, una evaluación de confianza de un atributo 118 puede indicar un grado de riesgo o urgencia asociado a un atributo o condición tales como las condiciones de la ruta, condiciones del clima, capacidades de frenado, capacidad de detectar un carril, capacidad de mantener una velocidad del vehículo 101, etc.
A continuación del bloque 215, en el bloque 220, la computadora 105 compara la evaluación de confianza escalar general 118, ej., el valor F, con un parámetro almacenado 117 para determinar un intervalo de confianza, es decir, rango de valores, dentro de los cuales se encuentra la presente evaluación de confianza escalar 118. Por ejemplo, los parámetros 117 pueden especificar, para varios intervalos de confianza, valores que pueden ser igualados o excedidos dentro de un grado predeterminado de certeza, ej., cinco por ciento, 10 por ciento, etc., mediante una evaluación de confianza escalar 118.
A continuación del bloque 220, en un bloque 225, la computadora 105 determina si una evaluación de confianza general 118 igualó o excedió un umbral predeterminado, por ejemplo, utilizando el resultado de la comparación del bloque 215, la computadora 105 puede determinar un intervalo de confianza al cual se le puede asignar la evaluación de confianza 118. Un parámetro almacenado 117 puede indicar un intervalo de confianza umbral, y la computadora 105 puede entonces determinar si el intervalo de confianza umbral indicado por el parámetro 117 se ha igualado o excedido.
Tal como se menciona anteriormente, un intervalo de confianza umbral puede depender en parte de un parámetro de tiempo 117. Es decir, una evaluación de confianza 118 podría indicar que un vehículo 101 no debería ser operado de manera autónoma luego de pasado un período de tiempo dado, aun cuando en el tiempo actual el vehículo 101 se pueda operar de manera autónoma dentro de un margen seguro. De manera alternativa o adicional, se podría generar una primera evaluación de confianza general 118, y posiblemente tambien subevaluaciones relacionadas 118, para un tiempo presente y se podría generar una segunda evaluación de confianza general 18, y posiblemente también sub-evaluaciones relacionadas, para un tiempo subsiguiente al tiempo presente. Se podría generar un mensaje 116 que incluye un alerta similar cuando una segunda evaluación 118 alcanzó o excedió un umbral, aún si la primera evaluación 118 no igualó o excedió el umbral, dicha alerta especifica que debería llevarse a cabo una acción, ej., detener las operaciones autónomas del vehículo 101, antes del tiempo correspondiente a la segunda evaluación 118. En cualquier caso, el bloque 225 puede incluir determinar un período de tiempo después del cual la evaluación de confianza 118 igualará o excederá el umbral predeterminado dentro de un margen de error específico.
En cualquier caso, el objeto del bloque 225 es determinar si la computadora 105 debería proveer un mensaje 116, ej., a través de la interfaz afectiva 119. Tal como se acaba de explicar, una alerta se puede referir a una recomendación presente de que las operaciones autónomas del vehículo 101 concluyan, o pueden referirse a una recomendación de que las operaciones autónomas del vehículo 101 han de concluir luego de transcurrido algún período de tiempo, dentro de un cierto período de tiempo, etc. Si se debe proveer un mensaje 116, entonces luego se ejecuta un bloque 230. De lo contrario, entonces luego se ejecuta un bloque 240.
En el bloque 230, la computadora 105 identifica las evaluaciones de atributo o subsistema 118, ej., valores en un vector de las evaluaciones 118 tales como se describe anteriormente, que pueden ser relevantes para un mensaje 116. Por ejemplo, los parámetros 117 podrían especificar valores umbrales, sobre los cuales se podría identificar una evaluación 118 que iguale o exceda un valor de umbral especificado por un parámetro 117 como relevante para una alerta. Además, las evaluaciones 118, como las evaluaciones escalares 118 analizadas anteriormente, podrían ser temporales, Es decir, una evaluación 118 podría especificar un período de tiempo luego del cual un atributo del vehículo 101 y/o ambiental podría representar un riesgo para las operaciones autónomas del vehículo 101, o una evaluación 118 podría corresponder a un tiempo presente. También, una evaluación 118 podría especificar un grado de urgencia asociado a un atributo, ej., porque una evaluación 118 igualó o excedió un intervalo de confianza umbral correspondiente a un tiempo presente o a un tiempo dentro de una distancia temporal predeterminada, ej., 30 segundos, dos minutos, etc. desde el tiempo presente. De manera adicional o alternativa, los diferentes grados de urgencia podrían estar asociados con diferentes intervalos de confianza. En cualquier caso, en el bloque 230, se identifican las evaluaciones de atributos 118 que igualan o exceden un umbral predeterminado para la inclusión en el mensaje 116. Anteriormente se provee un ejemplo de utilización de una gramática para un mensaje de audio 116, y de modificar las palabras en el mensaje para lograr una prosodia deseada, estando la prosodia predeterminada de acuerdo a las evaluaciones de confianza del sub-sistema 118 en un vector de evaluaciones de confianza 118.
A continuación del bloque 230, en un bloque 235, la computadora 105 provee un mensaje 116 que incluye una alerta o lo similar, ej., a través de una HMI o lo similar tal como se podría incluir en una interfaz afectiva 119. Además, se podría utilizar un valor para una evaluación general 118 y/o uno o más valores de las evaluaciones de atributos 118 para determinar un grado de urgencia emocional provista en el mensaje 116, ej., tal como se describe anteriormente. Los parámetros 117 podrían especificar diferentes valores de umbral para diferentes evaluaciones de atributos" 118, y respectivos niveles de urgencia diferentes asociados a los diferentes valores umbrales. Entonces, por ejemplo, si una evaluación general 118 se encuentra dentro de un intervalo de confianza inferior, es decir, si existiera una menor probabilidad de que las operaciones autónomas del vehículo 101 deban concluirse, se podría utilizar la interfaz afectiva 119 para proveer un mensaje 116 con un menor grado de urgencia del que sería el caso si la evaluación 118 se encontrara en un intervalo de confianza superior. Por ejemplo, tal como se describe anteriormente, un tono de una palabra, o un número de veces en las que se repite una palabra, podría determinarse de acuerdo a un grado de urgencia asociado a un valor de una evaluación 118 en un vector de PL o AL. También como se describe anteriormente, el mensaje 116 podría incluir mensajes específicos relacionados con una o más evaluaciones de atributos 118, y cada uno del único o más mensajes de atributos podrían tener diferentes grados de urgencia emocional, ej., indicados por la prosodia en un mensaje de audio, etc., en base a un valor de una evaluación 118 para una atributo en particular.
En el bloque 240, el cual podría seguir a continuación de ya sea el bloque 225 o el bloque 235, la computadora 105 determina si el proceso 200 debería continuar. Por ejemplo, un ocupante del vehículo 101 podría responder a una alerta provista en el bloque 235 deteniendo las operaciones autónomas del vehículo 101. Además, el vehículo 101 podría ser apagado y/o la computadora 105 podría ser apagada. En cualquier caso, si el proceso 200 ha de continuar, entonces el control regresa al bloque 210. De otro modo, el proceso 200 finaliza luego del bloque 240.
La Figura 3 es un diagrama de un proceso a modo de ejemplo 300 para evaluar, y actuar en base a, los niveles de confianza relacionados con las operaciones del vehículo autónomo 101. El proceso 300 comienza con los bloques 305, 310, 315, 320 que se ejecutan de un modo similar a los bloques respectivos 205, 210, 215, y 220, que se analizan anteriormente con referencia al proceso 200.
A continuación del bloque 320, en un bloque 325, la computadora 105 determina si la evaluación de confianza general 118 igualó o excedió un umbral determinado, ej., de un modo descrito anteriormente con respecto al bloque 225, mediante el cual la computadora 105 puede determinar si se detecta una falla para un recolector de datos 115 del vehículo 101.
En el caso donde una confianza umbral depende al menos en parte de un parámetro de tiempo 117, se puede indicar una falla debido a que una evaluación de confianza 118 indica que un vehículo 101 no debería ser operado de manera autónoma luego de transcurrido un período de tiempo dado, aun cuando en un tiempo actual el vehículo 101 pueda ser operado de manera autónoma dentro de un margen seguro. Del mismo modo, se podría indicar una falla cuando una segunda evaluación 118 alcanzó o excedió un umbral, aún si una primera evaluación 118 no alcanzó ni excedió el umbral.
En cualquier caso, el objeto del bloque 325 es determinar si la computadora 105 en un primer vehículo 101 debería determinar que se ha detectado una falla, ej., en un recolector de datos 110. Además, es posible que se puedan detectar múltiples fallas al mismo tiempo en un vehículo 101. Tal como se destaca anteriormente, la detección de una falla puede ameritar una recomendación de que se finalicen una o más operaciones autónomas del vehículo 101, o puede referirse a una recomendación de que una o más operaciones autónomas del vehículo 101 han de finalizar luego de transcurrido algún período de tiempo, ej., dentro de un cierto período de tiempo, etc. Si se detecta una falla, entonces luego se ejecuta un bloque 330, o, en las implementaciónes que, tal como se describe anteriormente, omiten los bloques 330 y 335, el proceso 300 puede, al detectar una falla en el bloque 325, proceder a un bloque 340. De lo contrario, entonces un bloque 345 se ejecuta a continuación.
En el bloque 330, el primer vehículo 101 envía una comunicación v2v 112 que puede ser recibida por uno o más segundos vehículos 101 dentro del alcance del primer vehículo 101. La comunicación v2v 112 en general indica que se ha detectado una falla en el primer vehículo 101, y puede además indicar la naturaleza de la falla. Por ejemplo, una comunicación v2v 112 puede incluir un código o lo similar que indica que un componente en el primer vehículo 101 se ha determinado como defectuoso y/o indica que no se puede obtener y/o confiar en una clase particular de datos recolectados 115, ej., en una instancia donde un dato recolectado 115 puede ser el resultado de la fusión de varios datos 115 recibidos directamente de más de recolector de datos 110 de sensores.
Luego, en un bloque 335, el primer vehículo 101 puede recibir una o más comunicaciones v2v 112 desde uno o más segundos vehículos 101. Las comunicaciones V2v recibidas en el primer vehículo 101 desde un segundo vehículo 101 pueden incluir datos recolectados 115 del segundo vehículo 101 para el primer vehículo 101, mediante los cuales el primer vehículo 101 puede llevar a cabo ciertas operaciones. En general, los datos 115 de un segundo vehículo 101 pueden ser útiles para dos tipos de condiciones de falla en un primer vehículo 101. En primer lugar, un primer vehículo 101 puede haber perdido la capacidad de determinar la ubicación de un vehículo 101, ej., coordenadas de GPS, ubicación en una carretera debido a un mapa defectuoso, etc. En segundo lugar, el primer vehículo 101 puede haber perdido una capacidad de detectar objetos tales como obstáculos en el ambiente circundante, ej., en una carretera.
Por ejemplo, el primer vehículo 101 podría recibir datos 115 de un segundo vehículo 101 relacionados con una velocidad y/o ubicación del segundo vehículo 101, relacionados con una ubicación de obstáculos tales como rocas, baches, barreras de construcción, barandillas protectoras, etc., así como también datos 115 relacionados con una carretera, ej., curvas, señalizaciones del carril, etc.
A continuación del bloque 335, en un bloque 340, la computadora 105 del primer vehículo 101 determina una acción o acciones a llevar a cabo con respecto a las operaciones del vehículo 101, con lo cual dichas acciones pueden ser implementadas por el módulo autónomo 106. Dicha determinación se puede tomar, tal como se menciona anteriormente, al menos en parte en base a los datos 115 recibidos de uno o más segundos vehículos 101, así como también posiblemente en base a una falla o fallas detectadas en el primer vehículo 101. De manera alternativa o adicional, tal como se menciona anteriormente, en algunas implementaciones del sistema 100 se pueden omitir los bloques 330 y 335, es decir, un primer vehículo 101 en el cual se detectó una falla puede no entablar las comunicaciones v2v, o puede no recibir datos 115 desde cualquier segundo vehículo 101. De esta manera, y de manera consistente con los ejemplos proporcionados anteriormente, la acción determinada en el bloque 340 podría ser que el vehículo 101 detenga o inhabilite una o más operaciones autónomas en base a una falla o fallas detectadas en uno o más recolectores de datos 110.
Regresando al caso en el cual un primer vehículo 101 ha recibido datos 115 desde uno o más segundos vehículos 101, por ejemplo, una computadora del primer vehículo 101 podría incluir instrucciones para crear un mapa virtual, ya sea de dos dimensiones o de tres dimensiones, de un ambiente, ej., una carretera, obstáculos y/u objetos sobre la carretera (incluyendo otros vehículos 101), etc. El mapa virtual se podría crear utilizando una variedad de datos recolectados 115, ej., datos de imágenes de cámaras, datos lidar, datos del radar, datos del GPS, etc. Cuando los datos 115 en un primer vehículo 101 pueden ser defectuosos porque se identifica una condición defectuosa con respecto a uno o más recopiladores de datos 110, se pueden utilizar los datos 115 de uno o más segundos vehículos 101, incluyendo posiblemente datos históricos 115 tal como se analiza en mayor detalle a continuación, para construir un mapa virtual.
De manera alternativa o adicional, un segundo vehículo 101 podría proveer un mapa virtual o lo similar a un primer vehículo 101. Por ejemplo, un segundo vehículo 101 podría estar dentro de alguna distancia, ej., a cinco metros, 10 metros, 20 metros, etc. de un primer vehículo 101 en una carretera. El segundo vehículo 101 podría además detectar una diferencia de velocidad, si la hubiere, entre el segundo vehículo 101 en el primer vehículo 101, así como también una posición del primer vehículo 101 en relación con el segundo vehículo 101, ej., una distancia adelante o detrás en la carretera. El segundo vehículo 101 podría entonces proveer datos del mapa virtual 115 al primer vehículo 101, siendo dichos datos 115 traducidos para proveer conformidad para una posición del primer vehículo 101 a diferencia de una posición del segundo vehículo 101. De esta manera, el primer vehículo 101 podría obtener información sobre otros vehículos 101, obstáculos, señalizaciones del carril, etc., en una carretera aun cuando los datos 115 recolectados en el primer vehículo 101 puedan ser defectuosos.
En cualquier caso, los datos 115 de un segundo vehículo 101 podrían, para dar unos pocos ejemplos, indicar la presencia de un obstáculo en una carretera, una ubicación o líneas u otras señalizaciones u objetos en una carretera que indiquen límites del carril, una ubicación del segundo vehículo 101 o de algunos otros vehículos 101, etc., con lo cual el primer vehículo 101 podría utilizar los datos 115 del segundo vehículo 101 para la navegación. Por ejemplo, los datos 115 acerca de una ubicación de un segundo vehículo 101 podrían ser utilizados por un primer vehículo 101 para evitar el segundo vehículo 101; del mismo modo, podrían utilizarse los datos 115 en una comunicación 112 acerca de objetos u obstáculos en una carretera, señalizaciones del carril, etc. Cabe destacar, que los datos 115 de un segundo vehículo 101 podrían incluir datos históricos o pasados, ej., datos 115 que muestran una ubicación o datos detectados, tales como los del segundo vehículo 101 a través del tiempo.
Además a modo de ejemplo, la computadora 105 en el primer vehículo 101 podría determinar, en base a una falla indicada, una acción tal como doblar hacia la banquina y reducir la velocidad hasta detenerse, continuar hasta una salida de la carretera antes de detenerse, continuar con la navegación en base a los datos disponibles 115, posiblemente pero no necesariamente incluyendo datos recolectados 115 del primer vehículo 101 así como también uno o más segundos vehículos 101, etc. Cabe destacar que los datos 115 de un segundo vehículo 101 podrían utilizarse para determinar una acción, ej., determinar una ubicación segura para detenerse. Por ejemplo, un recolector de datos 110 de una cámara en un primer vehículo 101 puede ser defectuoso, con lo cual las imágenes desde un recolector de datos 110 de una cámara en un segundo vehículo 101 podría proveer datos 115 en una comunicación 112 mediante la cual el primer vehículo 101 podría determinar un camino seguro hacia, y un punto para detenerse en, una carretera. De manera alternativa, un vehículo 101, ej., donde se omiten los bloques 330 y 335, podría determinar una acción, ej., una ubicación segura para detenerse, en base a datos disponibles 115 recolectados en el vehículo 101. Por ejemplo, si un recolector de datos 110 de una cámara o lo similar que se utiliza para determinar los límites de un carril de la ruta ha sido objeto de una falla, el vehículo 101 podría continuar hasta una banquina en base a los datos del mapa almacenados, datos del GPS 115, y/o extrapolación de los últimos límites del carril conocidos determinados de manera confiable.
Además, es posible que las comunicaciones v2v 112 entre un primer vehículo 101 y un segundo vehículo 101 se puedan utilizar para que el segundo vehículo 101 guíe al primer vehículo. Por ejemplo, información del camino y/o una velocidad recomendada, etc., podría ser provista por un segundo vehículo conductor 101 adelante de un primer vehículo 101. El segundo vehículo 101 podría guiar al primer vehículo 101 hasta un punto seguro para detenerse, ej., a un costado de la ruta, o podría guiar al primer vehículo 101 hacia una ubicación solicitada por el primer vehículo 101. Es decir, el segundo vehículo 101, en una o más comunicaciones v2v 112, podría proveer instrucciones al primer vehículo 101, ej., para proceder a una cierta velocidad, dirección, etc., hasta que el primer vehículo 101 haya sido llevado a una parada segura. Se puede hacer referencia a esta cooperación entre vehículos 101 como que el segundo vehículo 101 “remolca” al primer vehículo 101.
En general, la naturaleza de una falla, puede indicar una acción ordenada por la computadora 105. Por ejemplo, una falla en un recolector de datos 110 de un sensor redundante, ej., una cámara donde se montan múltiples cámaras en el frente de un vehículo, puede indicar que el vehículo 101 puede continuar operando utilizando los datos disponibles 115. Por otra parte, una falla en un controlador de velocidad del vehículo 101 y/o de otros elementos responsables del control del vehículo 101, puede indicar que el vehículo 101 debería proceder a una banquina tan rápido como sea posible.
A continuación del bloque 340, en un bloque 345, la computadora 105 determina si el proceso 300 debería continuar. Por ejemplo, el vehículo 101 podría ser apagado y/o la computadora 105 podría ser apagada. En cualquier caso, si el proceso 300 ha de continuar, entonces el control regresa al bloque 310. De lo contrario, el proceso 300 finaliza a continuación del bloque 345.
Conclusión Los dispositivos de computación, tales como los analizados en la presente, generalmente incluyen cada uno instrucciones ejecutables por uno o más dispositivos de computación tales como aquellos identificados anteriormente, y a fin de llevar a cabo bloques o pasos de los procesos descritos anteriormente. Por ejemplo, los bloques de procesos mencionados anteriormente en la presente pueden estar representados como instrucciones ejecutables por computadora.
Las instrucciones ejecutables por computadora pueden compilarse o interpretarse desde programas de computadora creados utilizando una variedad de lenguajes y/o teenologías de programación, que incluyen, pero sin limitación, y ya sea solos o en combinación, Java™, C, C++, Visual Basic, Java Script, Perl, HTML, etc. En general, un procesador (por ejemplo, un microprocesador) recibe instrucciones, por ejemplo, de una memoria, de un medio legible por computadora, etc., y ejecuta estas instrucciones, realizando de este modo uno o más procesos, que incluyen uno o más de los procesos descritos en la presente. Dichas instrucciones y otros datos pueden almacenarse y transmitirse utilizando una variedad de meceos legibles por computadora. Un archivo en un dispositivo de computación es generalmente una recopilación de datos almacenados en un medio legible por computadora, tal como un medio de almacenamiento, una memoria de acceso aleatorio, etc.
Un medio legible por computadora incluye todo medio que participa en la provisión de datos (por ejemplo instrucciones), los cuales pueden ser leídos por una computadora. Dicho medio puede adoptar diversas formas, que incluyen, pero sin limitación, medios permanentes, medios volátiles, etc. Los medios permanentes incluyen, por ejemplo, discos ópticos o magnéticos y otra memoria persistente. Los medios volátiles incluyen memoria dinámica de acceso aleatorio (DRAM, por sus siglas en inglés), la cual típicamente constituye la memoria principal. Formas comunes de medios legibles por computadora incluyen, por ejemplo, un disco floppy, un disco flexible, un disco rígido, una cinta magnética, todo otro medio magnético, un CD-ROM, DVD, todo otro medio óptico, tarjetas perforadas, cinta de papel, todo otro medio físico con patrones de perforaciones, una RAM, una PROM, una EPROM, una FLASH-EEPROM, todo otro chip o cartucho de memoria, todo otro medio del cual una computadora puede leer.
En los dibujos, los mismos números de referencia indican los mismos elementos. Además, algunos o todos de estos elementos pueden cambiarse. En cuanto a los medios, procesos, sistemas, métodos, etc. descritos en la presente, se comprenderá que, si bien los pasos de dichos procesos, etc. han sido descritos como pasos que ocurren conforme a una cierta secuencia ordenada, dichos procesos pueden practicarse con los pasos descritos realizados en un orden diferente del orden descrito en la presente. También se comprenderá que ciertos pasos pueden realizarse de modo simultáneo, que otros pasos pueden adicionarse, o que ciertos pasos descritos en la presente podrían omitirse. En otras palabras, las descripciones de los procesos de la presente se proporcionan a los fines de ilustrar ciertas realizaciones, y en ningún modo deberían interpretarse de modo que limiten la invención reivindicada.
De esta manera, debe comprenderse que la descripción anterior es a modo ilustrativo y no restrictivo. Muchas realizaciones y aplicaciones diferentes de los ejemplos provistos serían evidentes para aquellos capacitados en la téenica al leer la descripción anterior. El alcance de la invención debería determinarse no con referencia a la descripción anterior sino que, por el contrario, debería determinarse con referencia a las reivindicaciones anexas, junto con el alcance total de los equivalentes a los cuales dichas reivindicaciones dan derecho. Se espera y se pretende que ocurran desarrollos futuros en las técnicas analizadas en la presente, y que los sistemas y métodos divulgados se incorporen en dichas realizaciones futuras. En resumen, se comprenderá que la invención permite modificaciones y variaciones y se limita únicamente mediante las siguientes reivindicaciones.
Se pretende que a todos los términos utilizados en las reivindicaciones se les de su interpretación razonable más amplia y sus significados usuales según lo comprenden las personas capacitadas en la téenica a menos que se indique explícitamente lo contrario en la presente. En particular, el uso de artículos singulares tales como “un/a”, “el/la”, “dicho/a”, etc. deberían comprenderse como que mencionan a uno o más de los elementos indicados a menos que una reivindicación mencione una limitación explícita en contrario.

Claims (19)

REIVINDICACIONES
1. Un sistema, caracterizado porque comprende una computadora en un primer vehículo, comprendiendo la computadora un procesador y una memoria, donde la computadora incluye instrucciones para: recolectar datos durante la operación del primer vehículo; determinar que una evaluación de confianza de al menos uno de los datos indica al menos una condición de falla; transmitir una comunicación a al menos un segundo vehículo que indica la al menos una condición de falla; y recibir al menos un dato desde un segundo vehículo; determinar una operación autónoma del primer vehículo basándose al menos parcialmente en el al menos un dato.
2. El sistema de la reivindicación 1, caracterizado porque la operación autónoma es una de mantener un carril en una carretera, mantener una velocidad, doblar hacia un costado de la carretera, y hacer que el primer vehículo se detenga.
3. El sistema de la reivindicación 1, caracterizado porque la comunicación incluye datos enviados de acuerdo con las Comunicaciones Especializadas de Corto Alcance (DSRC).
4. El sistema de la reivindicación 1, caracterizado porque la comunicación se establece utilizando luz visible emitida por el primer vehículo.
5. El sistema de la reivindicación 1, caracterizado porque la computadora además incluye instrucciones para utilizar el al menos un dato para determinar la ubicación de un obstáculo.
6. El sistema de la reivindicación 1, caracterizado porque el al menos un dato incluye al menos una de una ubicación del segundo vehículo, una ubicación de un objeto en una carretera, una ubicación de una inclinación en una carretera, una ubicación de un tercer vehículo, y una instrucción para operar el primer vehículo.
7. El sistema de la reivindicación 1, caracterizado porque la al menos una condición de falla se relaciona con al menos uno de un sensor en un primer vehículo y una fiabilidad de un valor de un dato determinado en el primer vehículo.
8. Un sistema, caracterizado porque comprende una computadora en un vehículo, comprendiendo la computadora un procesador y una memoria, donde la computadora incluye instrucciones para: recolectar datos durante la operación del primer vehículo; determinar que una evaluación de confianza de al menos uno de los datos indica al menos una condición de falla; y discontinuar una primera operación autónoma afectada por la condición de falla; continuar con una segunda operación autónoma que no es afectada por la condición de falla.
9. El sistema de la reivindicación 8, caracterizado porque al menos una de la primera operación autónoma y de la segunda operación autónoma es una de mantener un carril en una carretera, mantener una velocidad, doblar hacia el costado de una carretera, y hacer que el primer vehículo se detenga.
10. El sistema de la reivindicación 8, caracterizado porque la computadora además incluye instrucciones para utilizar el al menos un dato para determinar la ubicación de un obstáculo.
11. El sistema de la reivindicación 8, caracterizado porque el al menos un dato incluye al menos una ubicación del segundo vehículo, una ubicación de un objeto en una carretera, una ubicación de una inclinación en una carretera, una ubicación de un tercer vehículo, y una instrucción para operar el primer vehículo.
12. El sistema de la reivindicación 8, caracterizado porque la al menos una condición de falla se relaciona con al menos uno de un sensor en un primer vehículo y la fiabilidad de un valor de un dato determinado en el primer vehículo.
13. Un método, caracterizado porque comprende: recolectar datos durante la operación de un primer vehículo; determinar que una evaluación de confianza de al menos uno de los datos indica al menos una condición de falla; transmitir una comunicación a al menos un segundo vehículo que indica la al menos una condición de falla; y recibir al menos un dato desde al menos un segundo vehículo; determinar una operación autónoma del primer vehículo basándose al menos parcialmente en el al menos un dato.
14. El método de la reivindicación 13, caracterizado porque la operación autónoma es una de mantener un carril en una carretera, mantener una velocidad, doblar hacia un costado de la carretera, y hacer que el primer vehículo se detenga.
15. El método de la reivindicación 13, caracterizado porque la comunicación incluye datos enviados de acuerdo con las Comunicaciones Especializadas de Corto Alcance (DSRC).
16. El método de la reivindicación 13, caracterizado porque la comunicación se establece utilizando luz visual emitida por el primer vehículo.
17. El método de la reivindicación 13, caracterizado porque además comprende utilizar el al menos un dato para determinar una ubicación de un obstáculo.
18. El método de la reivindicación 13, caracterizado porque el al menos un dato incluye al menos una de una ubicación del segundo vehículo, una ubicación de un objeto en una carretera, una ubicación de una inclinación en una carretera, una ubicación de un tercer vehículo, y una instrucción para operar el primer vehículo.
19. El método de la reivindicación 13, caracterizado porque la al menos una condición de falla se relaciona con al menos uno de un sensor en un primer vehículo y una fiabilidad de un valor de un dato determinado en el primer vehículo.
MX2015002104A 2014-02-20 2015-02-17 Tratamiento de fallas en un vehículo autónomo. MX343922B (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US14/184,860 US9406177B2 (en) 2013-12-20 2014-02-20 Fault handling in an autonomous vehicle

Publications (2)

Publication Number Publication Date
MX2015002104A true MX2015002104A (es) 2015-08-19
MX343922B MX343922B (es) 2016-11-29

Family

ID=52781803

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2015002104A MX343922B (es) 2014-02-20 2015-02-17 Tratamiento de fallas en un vehículo autónomo.

Country Status (5)

Country Link
CN (1) CN104859662B (es)
DE (1) DE102015202837A1 (es)
GB (1) GB2524393A (es)
MX (1) MX343922B (es)
RU (1) RU2015105513A (es)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10144419B2 (en) * 2015-11-23 2018-12-04 Magna Electronics Inc. Vehicle dynamic control system for emergency handling
DE102015223429A1 (de) * 2015-11-26 2017-06-01 Robert Bosch Gmbh Überwachungssystem für ein autonomes Fahrzeug
DE102015015743B4 (de) * 2015-12-04 2020-08-13 Audi Ag Verfahren zum Ermitteln einer Fahrtreichweite eines Kraftfahrzeugs und Kraftfahrzeug
US9834223B2 (en) * 2015-12-15 2017-12-05 Ford Global Technologies, Llc Diagnosing and supplementing vehicle sensor data
DE102016002768C5 (de) 2016-03-05 2024-05-02 Audi Ag Verfahren zum Betreiben eines mehrere Kraftfahrzeuge umfassenden Kommunikationsnetzes und Kraftfahrzeug
CN105976450A (zh) * 2016-04-27 2016-09-28 百度在线网络技术(北京)有限公司 无人驾驶车辆的数据处理方法和装置、黑匣子系统
ITUA20163205A1 (it) * 2016-05-06 2017-11-06 Cnh Ind Italia Spa Metodo e sistema per la mappatura di un luogo di lavoro.
US10423971B2 (en) * 2016-05-19 2019-09-24 Toyota Jidosha Kabushiki Kaisha Roadside service estimates based on wireless vehicle data
US9840253B1 (en) * 2016-06-14 2017-12-12 Delphi Technologies, Inc. Lane keeping system for autonomous vehicle during camera drop-outs
DE102016215541A1 (de) * 2016-08-18 2018-02-22 Robert Bosch Gmbh Testen eines autonom steuerbaren Kraftfahrzeugs
US10246086B2 (en) 2016-09-08 2019-04-02 Ford Global Technologies, Llc Echelon parking
US10121376B2 (en) * 2016-10-05 2018-11-06 Ford Global Technologies, Llc Vehicle assistance
DE102016122686B4 (de) * 2016-11-24 2021-01-07 Henrik Stiewe Verfahren zum Informieren eines Verkehrsteilnehmers über eine Verkehrssituation
US10488863B2 (en) * 2016-12-13 2019-11-26 Ford Global Technologies, Llc Autonomous vehicle post-fault operation
US10095238B2 (en) 2016-12-14 2018-10-09 Ford Global Technologies, Llc Autonomous vehicle object detection
WO2018111877A1 (en) * 2016-12-14 2018-06-21 Uber Technologies, Inc. Vehicle management system
US9811086B1 (en) 2016-12-14 2017-11-07 Uber Technologies, Inc. Vehicle management system
US10452067B2 (en) * 2017-02-23 2019-10-22 GM Global Technology Operations LLC System and method for detecting improper sensor installation within a vehicle to mitigate hazards associated with object detection
WO2018232032A1 (en) * 2017-06-16 2018-12-20 nuTonomy Inc. Intervention in operation of a vehicle having autonomous driving capabilities
US10831190B2 (en) * 2017-08-22 2020-11-10 Huawei Technologies Co., Ltd. System, method, and processor-readable medium for autonomous vehicle reliability assessment
US10569784B2 (en) 2017-09-28 2020-02-25 Waymo Llc Detecting and responding to propulsion and steering system errors for autonomous vehicles
JP6939376B2 (ja) * 2017-10-10 2021-09-22 トヨタ自動車株式会社 自動運転システム
DE102017219599A1 (de) * 2017-11-06 2019-05-09 Robert Bosch Gmbh Verfahren und System zum Veranlassen eines Ausweichmanövers von autonomen oder teilautonomen Fahrzeugen
US11040726B2 (en) * 2017-12-15 2021-06-22 Baidu Usa Llc Alarm system of autonomous driving vehicles (ADVs)
DE102018207533B4 (de) * 2018-05-15 2020-01-16 Conti Temic Microelectronic Gmbh Verfahren zum autonomen Betreiben eines nachfolgenden Fahrzeugs in einem Fahrzeugverbund
CN108769225A (zh) * 2018-06-05 2018-11-06 北京智行者科技有限公司 车辆应急处理方法
CN112041819B (zh) * 2018-06-29 2022-08-05 罗伯特·博世有限公司 用于监测和识别电驱动系统中的传感器故障的方法
CN108909879B (zh) * 2018-07-05 2020-10-27 北京智行者科技有限公司 一种故障处理方法
US11175669B2 (en) * 2019-08-01 2021-11-16 Toyota Motor Engineering & Manufacturing North America, Inc. Increasing consumer confidence in autonomous vehicles
US11535270B2 (en) 2019-12-17 2022-12-27 Zoox, Inc. Fault coordination and management
WO2021126648A1 (en) * 2019-12-17 2021-06-24 Zoox, Inc. Fault coordination and management
US11180156B2 (en) 2019-12-17 2021-11-23 Zoox, Inc. Fault coordination and management
US11407423B2 (en) * 2019-12-26 2022-08-09 Intel Corporation Ego actions in response to misbehaving vehicle identification
US11691637B2 (en) * 2020-06-19 2023-07-04 Ghost Autonomy Inc. Handling input data errors in an autonomous vehicle
CN112109727B (zh) * 2020-09-08 2021-09-03 北京踏歌智行科技有限公司 一种面向露天矿区无人驾驶车辆的制动力标定方法
CN112677976B (zh) * 2020-12-28 2022-05-13 广州小鹏自动驾驶科技有限公司 车辆行驶方法、装置、车辆和存储介质
US12008100B2 (en) 2021-04-19 2024-06-11 Toyota Motor North America, Inc. Transport component tamper detection based on impedance measurements
US11787434B2 (en) 2021-04-19 2023-10-17 Toyota Motor North America, Inc. Modification of transport functionality based on modified components
CN113370996B (zh) * 2021-07-26 2023-09-15 清华大学 自动驾驶换道跟驰决策方法及系统、自动驾驶车辆
WO2023034264A1 (en) * 2021-09-02 2023-03-09 Termson Management Llc Systems and methods for mobile device movement
US11891078B1 (en) * 2021-09-29 2024-02-06 Zoox, Inc. Vehicle operating constraints
CN117795579A (zh) * 2021-12-02 2024-03-29 华为技术有限公司 一种数据融合方法、装置、设备、存储介质、车辆

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5572449A (en) * 1994-05-19 1996-11-05 Vi&T Group, Inc. Automatic vehicle following system
JP2000113400A (ja) * 1998-09-30 2000-04-21 Honda Motor Co Ltd 自動追従走行システム
JP2000330637A (ja) * 1999-03-16 2000-11-30 Honda Motor Co Ltd 車両の障害物検知方法
US7764188B2 (en) * 2007-11-29 2010-07-27 Caterpillar Inc System and method for maintaining machine operation
JP4544325B2 (ja) * 2008-03-25 2010-09-15 株式会社デンソー 車載装置
US8195358B2 (en) * 2008-09-11 2012-06-05 Deere & Company Multi-vehicle high integrity perception
US8618922B2 (en) * 2010-03-30 2013-12-31 GM Global Technology Operations LLC Method and system for ensuring operation of limited-ability autonomous driving vehicles
US8504233B1 (en) * 2012-04-27 2013-08-06 Google Inc. Safely navigating on roads through maintaining safe distance from other vehicles

Also Published As

Publication number Publication date
RU2015105513A3 (es) 2018-07-06
GB201502727D0 (en) 2015-04-01
RU2015105513A (ru) 2016-09-10
DE102015202837A1 (de) 2015-08-20
CN104859662B (zh) 2019-07-19
GB2524393A (en) 2015-09-23
MX343922B (es) 2016-11-29
CN104859662A (zh) 2015-08-26

Similar Documents

Publication Publication Date Title
MX2015002104A (es) Tratamiento de fallas en un vehiculo autonomo.
US9406177B2 (en) Fault handling in an autonomous vehicle
US9346400B2 (en) Affective user interface in an autonomous vehicle
CN110997387B (zh) 具有自主驾驶能力的运载工具的风险处理
CN109388130B (zh) 确保联网的自动车辆的安全控制的方法、系统和介质
US10026317B2 (en) Autonomous probability control
CN111354187B (zh) 用于辅助交通工具的驾驶员的方法和驾驶员辅助系统
KR102231013B1 (ko) 충돌 회피를 위한 운전 보조 방법 및 시스템
US20170248951A1 (en) Autonomous confidence control
WO2020259705A1 (en) Autonomous driving handoff systems and methods
US10642266B2 (en) Safe warning system for automatic driving takeover and safe warning method thereof
GB2549376A (en) Autonomous peril control
EP3971526B1 (en) Path planning in autonomous driving environments
JP2020528187A (ja) 自律車両シナリオ評価および意図される車両アクションを通信するためのシステムおよび方法
CN112622930A (zh) 无人车的行驶控制方法、装置、设备以及自动驾驶车辆
CN111660954A (zh) 增强的车辆操作
KR20180126219A (ko) 운전 가이드 방법 및 그를 제공하는 시스템
EP3915851B1 (en) System and method for estimating take-over time
EP4057252A1 (en) Information processing device, information processing method, and information processing program
CN114117719A (zh) 提高自主运载工具的安全性和可靠性的自主运载工具模拟
CN115601956A (zh) 交叉路口碰撞缓解风险评估模型
US20180222494A1 (en) Enhanced curve negotiation
US20210300354A1 (en) Systems and Methods for Controlling Operation of a Vehicle Feature According to a Learned Risk Preference
CN113533876B (zh) 用于执行自主驾驶车辆的电磁兼容性测试的方法和系统
CN114348014A (zh) 车道偏离预警方法、装置、车辆和介质

Legal Events

Date Code Title Description
FG Grant or registration