MX2014015331A - Interfaz de usuario afectiva en un vehiculo autonomo. - Google Patents

Interfaz de usuario afectiva en un vehiculo autonomo.

Info

Publication number
MX2014015331A
MX2014015331A MX2014015331A MX2014015331A MX2014015331A MX 2014015331 A MX2014015331 A MX 2014015331A MX 2014015331 A MX2014015331 A MX 2014015331A MX 2014015331 A MX2014015331 A MX 2014015331A MX 2014015331 A MX2014015331 A MX 2014015331A
Authority
MX
Mexico
Prior art keywords
vehicle
confidence
computer
assessment
predetermined threshold
Prior art date
Application number
MX2014015331A
Other languages
English (en)
Other versions
MX342408B (es
Inventor
Christopher Attard
Shane Elwart
Jeff Allen Greenberg
Rajit Johri
Devinder Singh Kochhar
John Shutko
Doug Scott Rhode
Hongtei Eric Tseng
Original Assignee
Ford Global Tech Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Tech Llc filed Critical Ford Global Tech Llc
Publication of MX2014015331A publication Critical patent/MX2014015331A/es
Publication of MX342408B publication Critical patent/MX342408B/es

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0061Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/082Selecting or switching between different modes of propelling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0059Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/15Road slope, i.e. the inclination of a road segment in the longitudinal direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/35Road bumpiness, e.g. potholes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/406Traffic density
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • B60W60/0055Handover processes from vehicle to occupant only part of driving tasks shifted to occupants

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Multimedia (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es posible recolectar datos relativos a la operación autónoma de un vehículo. Puede entonces generarse una primera evaluación de confianza sobre si el vehículo debe operar en forma autónoma, y puede determinarse si dicha evaluación se ubica dentro de un umbral predeterminado o lo supera. Puede emitirse entonces una señal de alerta a través de una interfaz de usuario en el vehículo con respecto al cese de la operación autónoma del vehículo si la primera evaluación de confianza se ubica dentro del umbral predeterminado o lo supera.

Description

INTERFAZ DE USUARIO AFECTIVA EN UN VEHÍCULO AUTÓNOMO ANTECEDENTES DE LA INVENCIÓN Un vehículo autónomo, por ejemplo, un automóvil, camión o autobús, etc., es aquel que puede operarse, total o parcialmente, sin intervención humana. Para ello puede contar con sensores y lo similar que transmiten información a una computadora central incorporada que puede utilizar dicha información para su operación, actividad que involucra, por ejemplo, tomar decisiones relativas a la velocidad, curso del vehículo, etc. No obstante, resulta necesario contar con mecanismos para evaluar la capacidad de una computadora para operar el vehículo de forma autónoma BREVE DESCRIPCIÓN DE LOS DIBUJOS La figura 1 es un diagrama de bloques que representa, a modo de ejemplo, un sistema de vehículo para la operación autónoma de un vehículo que incluye mecanismos para evaluar el nivel de confianza de una conducción autónoma.
La figura 2 es un diagrama que representa, a modo de ejemplo, un proceso para la evaluación y provisión de alertas basadas en los niveles de confianza relativos a las operaciones de un vehículo autónomo.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN La figura 1 es un diagrama de bloques que representa, a modo de ejemplo, un sistema 100 para la operación de un vehículo autónomo 101. Respecto de un vehículo operado de forma autónoma 101, puede resultar necesario o deseable que un operador humano asuma el control del vehículo 101 toda vez que un módulo de conducción autónoma 106, p.ej., incorporado a una computadora 105 del vehículo, no pueda continuar a cargo del vehículo 101 de acuerdo con un nivel de confianza aceptable, por ej. la confianza expresada numéricamente que sea menor a un umbral predeterminado.
Una disminución de la confianza puede deberse, entre otras razones, a un deterioro de los dispositivos de recolección de datos 110, tales como los sensores, por ej., causado por condiciones climáticas, una obstrucción u otros factores sonoros. También puede generarse una menor confianza en las operaciones autónomas si se excedieran los parámetros de diseño de la operación del vehículo autónomo 101. Por ejemplo, una evaluación de confianza 118 puede originarse a partir de datos 115 obtenidos a través de colectores de datos 110 incluidos en una capa de percepción (PL, por sus siglas en inglés) del vehículo autónomo 101 o de colectores de datos 110 correspondientes a una capa de activación (AL, por sus siglas en inglés). Para la PL, estas estimaciones de confianza, o probabilidades, pueden interpretarse como una probabilidad de que la información captada resulte suficiente para el funcionamiento normal y seguro del vehículo 101. Para la AL, las probabilidades, es decir, las estimaciones de confianza, expresan una probabilidad de que el sistema de activación de un vehículo 101 pueda ejecutar operaciones ordenadas al vehículo 101 dentro de una o más tolerancias de diseño. De esta manera, el sistema 100 proporciona mecanismos para la detección y manejo de niveles de confianza inferiores a los aceptables respecto de uno o más aspectos relativos a las operaciones autónomas del vehículo 101.
Las operaciones autónomas del vehículo 101, incluidas la generación y valoración de las evaluaciones de confianza 118, pueden llevarse a cabo a través de un módulo de conducción autónoma 106, p.ej., como un conjunto de instrucciones almacenadas en una memoria de una computadora 105, y ejecutables por el procesador de la computadora, en el vehículo 101. Dicha computadora 105 generalmente recibe datos recolectados 115 por uno o más colectores de datos, como pueden ser los sensores 110. Tal como se ha explicado, los datos recolectados 115 pueden emplearse para la generación de una o más evaluaciones de confianza 118 relativas a la operación autónoma del vehículo 101. Mediante la comparación de una o más evaluaciones con uno o más parámetros almacenados 117, la computadora 105 puede determinar si debe emitir una señal de alerta o indicador similar al ocupante del vehículo 101 a través, por ejemplo, de una interfaz afectiva 119. Asimismo, sobre la base de las evaluaciones de confianza 118, el mensaje 116, por ejemplo, una señal de alerta, puede transmitir un determinado nivel de urgencia o importancia al operador del vehículo 101 mediante el empleo de téenicas de prosodia destinadas a imprimir un tono emocional a una alerta de voz o de un avatar visual cuyo aspecto resulte indicativo de un determinado nivel de urgencia.
A modo de ejemplo de los muchos posibles, una señal de alerta puede informar al ocupante del vehículo 101 sobre la necesidad de retomar total o parcialmente el control del vehículo 101. Además, como ya se ha expuesto, la forma del mensaje 116 puede obedecer a su nivel de urgencia. Por ejemplo, puede generarse una señal de alerta sonora que mediante el empleo de téenicas de prosodia transmita un nivel de urgencia asociado. Además, o de manera alternativa, puede configurarse una interfaz gráfica de usuario incorporada en una interfaz hombre máquina de la computadora 105 que permita visualizar colores, fuentes o tamaños de fuentes específicos, un avatar o lo similar que represente un ser humano, etc. Para indicar un nivel de urgencia, se recomienda control manual de inmediato, puede recomendarse control manual dentro del próximo minuto, dentro de los próximos cinco minutos, se recomienda control manual por razones mecánicas, se recomienda control manual debido a condiciones climáticas o medioambientales, se recomienda control manual debido a la situación del tránsito, etc.
Elementos del sistema a modo de ejemplo Un vehículo 101 puede ser un vehículo terrestre tal como una motocicleta, un automóvil, un camión o un autobús, pero también puede ser una embarcación, aeronave, etc. Cualquiera sea el caso, el vehículo 101 generalmente cuenta con una computadora 105 equipada con un procesador y una memoria dotada a su vez de una o más formas de medios legibles por computadora que almacena instrucciones ejecutables por el procesador a fin de llevar a cabo varias funciones, incluidas las divulgadas en la presente. Así, la computadora 105 normalmente incluye, y es capaz de ejecutar, instrucciones como las que pueden originarse en el módulo de conducción autónoma 106 para el funcionamiento autónomo del vehículo 101, es decir, para la operación del vehículo 101 sin la intervención de un operador o con una intervención parcial.
Además, la computadora 105 puede incluir más de un dispositivo informático, p. ej., controladores o dispositivos similares incorporados al vehículo 101 a fin de monitorear y/o controlar diferentes componentes del vehículo tales como la unidad de control del motor (ECU, por sus siglas en inglés), la unidad de control de la transmisión (TCU, por sus siglas en inglés), etc. Normalmente, la computadora 105 se encuentra configurada para el desarrollo de comunicaciones de acuerdo con un protocolo CAN (por sus siglas en inglés) u otro similar. La computadora 105 puede hallarse también conectada a un sistema de diagnóstico a bordo (OBD-II, por sus siglas en inglés). A través del protocolo CAN, del OBD-II, y/u otros mecanismos alámbricos o inalámbricos, la computadora 105 puede transmitir mensajes a varios dispositivos en el vehículo y/o recibir mensajes provenientes de diferentes dispositivos, tales como controladores, actuadores y sensores, incluidos los colectores de datos 110. Además, o bien como alternativa, en aquellos casos en los que la computadora 105 consta de múltiples dispositivos, el protocolo CAN u otro similar puede emplearse respecto de toda comunicación entre los dispositivos representados como la computadora 105 en la presente.
Asimismo, la computadora 105 puede configurarse para comunicarse con la red 120, la que, tal como se expone a continuación, puede incluir varias teenologías en redes alámbricas y/o inalámbricas tales como celulares, Bluetooth, redes de paquetes alámbricos o inalámbricos, etc. Además, la computadora 105, p. ej., en el módulo 106, normalmente incluye instrucciones para la recepción de información, p. ej., datos recolectados 115 provenientes de uno o más colectores de datos 110 y/o de una interfaz de usuario afectiva 119 que en general consta de una interfaz hombre máquina (HMI, por sus siglas en inglés), como puede ser un sistema de respuesta de voz interactiva (IVR, por sus siglas en inglés), una interfaz de usuario gráfica (GUI, por sus siglas en inglés), que puede incluir una pantalla táctil, o lo similar, etc.
Tal como se ha expuesto, generalmente incluido en las instrucciones almacenadas en y ejecutadas por la computadora 105 , hay un módulo de conducción autónoma 106 o, en el caso de un vehículo que no se desplace por tierra o por carretera, el módulo 106 puede referirse de manera más general a un módulo de operaciones autónomas 106. A partir de datos recibidos en la computadora 105, que pueden provenir de colectores de datos 110, de datos incorporados como parámetros almacenados 117 o evaluaciones de confianza 118, el módulo 106 es capaz de ejercer el control de varios componentes y/u operaciones del vehículo 101 sin la intervención de un operador que opere el vehículo 101. Por ejemplo, el módulo 106 puede emplearse para regular la velocidad, aceleración, desaceleración o dirección del vehículo 101.
Los colectores de datos 110 comprenden diferentes dispositivos. Por ejemplo, varios controladores en un vehículo pueden funcionar como colectores de datos 110 a fin de suministrar datos 115 a través del protocolo CAN, p.ej. en relación con la velocidad o aceleración del vehículo. Además, los sensores, dispositivos de radionavegación (GPS), etc., pueden incorporarse a un vehículo y configurarse para que funcionen como colectores de datos 110 que proporcionen datos directamente a la computadora 105 a través de una conexión alámbrica o inalámbrica. Los colectores de datos 110 pueden también incluir sensores destinados a la detección de las condiciones presentes fuera del vehículo 101; sería el caso de sensores de mediano y largo alcance. Dichos sensores utilizados como colectores de datos 110 podrían hacer uso de mecanismos tales como RADAR, LIDAR, SONAR, cámaras u otros dispositivos para la captura de imágenes que podrían utilizarse para medir la distancia existente entre el vehículo 101 y otros vehículos u objetos, para detectar su presencia y/o para identificar determinadas características del camino, tales como curvas, baches, declives, montículos, cambios en la pendiente, marcas de carril, etc.
Los colectores de datos 110 pueden además incluir sensores biométricos 110 y/u otros dispositivos que puedan emplearse a fin de identificar al operador del vehículo 101. Así, podría tratarse de un sensor de huellas digitales, de un escáner de retina o de cualquier otro sensor capaz de suministrar datos biométricos 105 que contribuyan a identificar o bien al operador del vehículo 101 o bien alguno de sus atributos, como su sexo, edad, estado de salud, etc. Además, o bien como alternativa, un colector de datos 110 puede contar con un dispositivo de hardware portátil dotado de un procesador y una memoria que almacene firmware ejecutable por el procesador a fin de reconocer al operador del vehículo 101. A tal efecto, dicho dispositivo portátil de hardware podría ser capaz de comunicarse en forma inalámbrica, p.ej., por medio de Bluetooth o lo similar, con la computadora 105 para identificar al operador de un vehículo 101.
La memoria de la computadora 105 generalmente almacena datos recolectados 115 de variada naturaleza obtenidos en el vehículo 101 a partir de los correspondientes colectores 110. Ya se han brindado ejemplos de datos recolectados 115, que además pueden incluir datos resultantes de cálculos efectuados en la computadora 105 a partir de dichos datos. En líneas generales, puede entenderse por datos recolectados 115 a aquellos datos provenientes de un dispositivo destinado a su recolección 110 y/o derivados de dichos datos. De esta manera, podrían obtenerse variados datos relativos a las funciones y/o desempeño del vehículo 101 así como a su movimiento, navegación, etc. A modo de ejemplo, podrían reunirse datos relativos a la aceleración, frenos, detección de atributos del camino como los que ya se han expuesto o a las condiciones meteorológicas.
La memoria de la computadora 105 puede almacenar además uno o más parámetros 117 para su comparación con las evaluaciones de confianza 118. De esta manera, un parámetro 117 puede definir un conjunto de intervalos de confianza; cuando una evaluación de confianza 118 indica que un determinado valor se encuentra comprendido en el intervalo de confianza de acuerdo con un umbral predeterminado o habiéndolo superado, tal umbral también especificado por un parámetro 117, la computadora 105 puede entonces incluir instrucciones para la emisión de una señal de alerta o lo similar dirigida al operador de un vehículo 101.
En general, un parámetro 117 puede almacenarse en asociación con algún identificador para un operador o usuario determinado del vehículo 101, pero también puede resultar aplicable a todos los operadores del vehículo 101. Los parámetros 117 apropiados que deben asociarse a un operador determinado, p.ej., de conformidad con un identificador para dicho usuario, pueden establecerse de diversas maneras, es decir, de acuerdo con su edad, nivel de experiencia al mando de un vehículo, etc. Tal como ya se ha expuesto, la computadora 105 puede valerse de distintos mecanismos, como una señal emitida por un dispositivo de hardware que identifique al operador, ingresos del operador en la computadora 105 y/o a través de un dispositivo 150, datos biométricos recolectados 115, etc. a fin de identificar a un operador determinado del vehículo 101 cuyos parámetros 117 deberían emplearse.
Podrían emplearse varias téenicas de modelado de carácter matemático, estadístico y/o predictivo a fin de generar y/o ajustar los parámetros 117. Un vehículo 101 podría funcionar de manera autónoma bajo la supervisión de un operador que a su vez podría ingresar en la computadora 105 datos relativos a aquellas instancias en las que el funcionamiento del vehículo parezca seguro y aquellas en las que no lo parezca. Podrían emplearse entonces varias técnicas conocidas a fin de determinar funciones basadas en datos recolectados 115 a fin de generar parámetros 117 y evaluaciones 118 con las que dichos parámetros 117 puedan compararse.
Las evaluaciones de confianza 118 son números que pueden generarse a partir de instrucciones almacenadas en una memoria de la computadora 105 mediante el empleo de datos recolectados 115 y generalmente se proporcionan de dos maneras. En primer lugar, una evaluación de confianza global 118, designada en la presente con el símbolo F, puede equivaler a un valor sujeto a variaciones continuas o casi continuas indicativo de que existe confianza global respecto de que el vehículo 101 es capaz de funcionar autónomamente y/o debería hacerlo. Ello significa que la evaluación de confianza global 118 puede compararse de modo continuo o casi continuo con un parámetro 117 a fin de determinar si dicha confianza global se encuentra dentro de un umbral establecido por el parámetro 117 o lo supera. De esta manera, la evaluación de confianza 118 puede servir a los efectos de establecer, sobre la base de datos recolectados actuales 115, si un vehículo 101 debería funcionar de manera autónoma, o puede proveerse como valor escalar, p. ej., como un número comprendido en el rango entre O y 1.
En segundo lugar, pueden proporcionarse uno o más vectores de evaluaciones correspondientes a atributos de autonomía 118 en los que cada valor en el vector se encuentre vinculado a un atributo del vehículo 101 y/o a una condición del entorno relevante para su conducción autónoma. Entre dichos atributos pueden mencionarse la velocidad del vehículo, el funcionamiento del sistema de frenos, su aceleración, dirección, navegación (p.ej., si un mapa provisto en función del itinerario a seguir se desvía de la ruta fijada o si el vehículo se encuentra con una obra en construcción o flujo de tránsito no previstos), las condiciones meteorológicas, el estado del camino, etc.
En líneas generales se conocen varias maneras de estimar confianzas y/o asignar valores a intervalos de confianza que pueden emplearse para generar las evaluaciones de confianza 118. Varios colectores de datos 110 del vehículo 101 y/o subsistemas pueden suministrar datos recolectados 115 relativos, p. ej., a su velocidad, aceleración o frenos. A modo de ejemplo, la evaluación de precisión probable de un colector de datos 110, p.ej., la precisión de un sensor, podría determinarse a partir de datos recolectados 115 mediante el empleo de téenicas conocidas. Además, dichos datos 115 pueden contener información relativa a un medio externo en el que el vehículo 101 se esté desplazando y hacer mención de atributos del camino como los que se han expuesto, indicar el grado de precisión de los datos del mapa utilizado por el vehículo 101 o hacer mención de obras en el camino o un estado del tránsito no previstos. Mediante la valoración de dichos datos 115 y, posiblemente la ponderación de varias determinaciones, como las relativas a la precisión de un colector de datos 110 en la forma de sensor y a condiciones extemas y/o medioambientales (presencia o ausencia de precipitaciones, estado del camino, etc.), pueden generarse una o más evaluaciones de confianza 118 que proporcionen indicios relativos a la capacidad del vehículo 101 para funcionar de manera autónoma.
Un ejemplo de un vector de estimaciones de confianza 118 incluye un vector <pPL = (JPPL, <P2L, , <p£L), en relación con la capa de percepción (PL) del vehículo 101, en el que n es un número de subsistemas de percepción, p.ej., grupos de uno o más colectores de datos 110 en la forma de sensores, en la PL. Otro ejemplo de un vector de estimaciones de confianza 118 incluye un vector <pAL = en relación con la capa de activación (AL) del vehículo 101, p. ej., grupos de uno o más colectores de datos 110 en la forma de actuadores en la AL.
En general, el vector <pPL puede generarse mediante el empleo de una o más téenicas conocidas, incluidas, sin limitación, la denominada IRRE [Input Reconstruction Reliability Estímate ] para una red neuronal, el error de reconstrucción de vectores desplazamiento en un campo de flujo óptico, estimaciones de contraste globales a partir de un sistema de procesamiento de imágenes, estimaciones del coeficiente señal de retomo/ruido en un sistema de radar, verificaciones de consistencia interna, etc. Por ejemplo, un clasificador de caminos basado en una red neuronal puede proporcionar niveles de activación contradictorios para varias clasificaciones de caminos (p.ej., carril simple, doble carril, autovía, intersección, etc.). Estos niveles de activación contradictorios conducirán a colectores de datos 110 de la PL que reportarán una estimación de confianza más baja a partir de un módulo de clasificación de caminos en la PL. En otro ejemplo, las señales de retomo de radar pueden verse atenuadas debido a la presencia de humedad atmosférica de manera tal que el módulo de radar reporte una disminución de la confianza a la hora de estimar el alcance, tasa de alcance y acimut de los vehículos próximos.
Las estimaciones de confianza también pueden verse modificadas por la PL sobre la base de conocimiento obtenido acerca de acontecimientos futuros. Por ejemplo, la PL puede hallarse comunicada en tiempo real con un servicio de datos, p.ej., a través del servidor 125, capaz de brindar información sobre las condiciones meteorológicas presentes a lo largo de una ruta proyectada o planificada para él vehículo 101. Toda información sobre la probabilidad de condiciones meteorológicas que puedan afectar de manera adversa a la PL (p.ej., lluvias fuertes o nieve) puede ser tenida en cuenta en las evaluaciones de confianza 118 en el vector <pPL con antelación al deterioro real de las señales del colector de datos 110 en la forma de sensor. De esta manera, las evaluaciones de confianza 118 pueden ajustarse para reflejar no solamente el estado inmediato de un sensor sino la probabilidad que existe de que pueda deteriorarse en un futuro cercano.
Además, en general el vector <pAL puede generarse a partir de teenicas habitualmente conocidas que implican contrastar una activación ordenada con el desempeño resultante del vehículo 101. Por ejemplo, un cambio medido en la aceleración lateral para un determinado ingreso direccional ordenado (ganancia de dirección) podría compararse con un modelo intemo. Si el valor medido de la ganancia de dirección varía en más de un valor de umbral respecto del valor modelo, entonces se informará una disminución de la confianza para ese subsistema. Debe tenerse en cuenta que la generación de evaluaciones de confianza 118 más bajas puede o no reflejar una falla de hardware ; por ejemplo, las condiciones medioambientales (caminos húmedos o cubiertos de hielo) pueden disminuir una evaluación de confianza 118 asociada aunque no se halle implicada ninguna falla de hardware.
Cuando una evaluación de confianza global 118 para un valor o rango de valores específico, p.ej. un intervalo de confianza, se encuentra dentro de un umbral predeterminado o lo supera dentro de un margen de error predeterminado, p.ej., 95 por ciento más o menos tres por ciento, entonces la computadora 105 puede incluir instrucciones para emitir un mensaje 116, como puede ser una señal de alerta, a través de la interfaz afectiva 119. Ello significa que la interfaz afectiva 119 puede activarse cuando la evaluación de confianza global 118 (F) cae por debajo de un umbral específico predeterminado F„ah. Cuando ello ocurre, la interfaz afectiva 119 formula un mensaje 116 (M) para que sea dirigido al operador del vehículo 101. El mensaje 116 M generalmente consta de dos componentes: un componente de contenido semántico 5 y un modificador de urgencia U. De esta manera, la interfaz 119 puede contar con un módulo de generación discursiva y un sistema de respuesta de voz interactiva (IVR) u otro similar como los conocidos para la generación de discursos audibles. De igual modo, la interfaz 119 puede incluir una interfaz de usuario gráfica (GUI) u otra similar que permita la visualización de señales de alerta, mensajes, etc., de manera tal que se transmita un nivel de urgencia sobre la base, por ejemplo, del tamaño de fuente, color, empleo de iconos o símbolos, expresiones, tamaños, etc. de un avatar o figura similar.
Además, las subevaluaciones de atributos de confianza, p.ej., uno o más valores en un vector tpPL or <pAL, pueden hallarse vinculadas a datos recolectados 115 determinados y utilizarse para proporcionar contenido específico para uno o más mensajes 116 a traves de la interfaz 119 relacionados con atributos particulares y/o condiciones que afecten al vehículo 101, como puede ser una advertencia al ocupante del vehículo 101 para que tome el control del volante, proceda a frenar manualmente, asuma el mando completo del vehículo 101, etc. Ello significa que una evaluación de confianza global 118 puede emplearse para determinar que una señal de alerta o indicador similar debería emitirse a través de la interfaz afectiva 119 en un mensaje 116, y es además posible que el contenido específico del mensaje 116 de alerta pueda basarse en evaluaciones de atributos 118. Por ejemplo, el mensaje 116 podría apoyarse al menos en parte en una o más evaluaciones de atributos 118 y proporcionarse para indicar que la conducción autónoma del vehículo 101 debería cesar y además, o bien como alternativa, el mensaje 116 podría contener una advertencia del tipo “precaución: caminos resbalosos” o “precaución: más adelante, cierre de carril no previsto”. Además, tal como ya se ha expuesto y se explicará en mayor detalle más adelante, puede hacerse empleo de la prosodia emocional en el mensaje 116 a fin de indicar un nivel de urgencia, preocupación o alarma relacionado con una o más evaluaciones de confianza 118.
En general, la computadora 105 puede emitir un mensaje 116 cuando F < (se debe tener en cuenta que puede explicarse una adecuada histéresis en esta evaluación para evitar un cambio rápido). Asimismo, cuando se determina que F < Fh?h, componentes de cada uno de los vectores <pPL and <pAL pueden evaluarse a fin de establecer si un valor del componente del vector se encuentra ubicado por debajo de un umbral predeterminado para el componente del vector. Para cada componente del vector que se encuentra debajo del umbral, la computadora 105 puede formular un mensaje 116 para ser dirigido al operador del vehículo 101. Además, un determinado contenido semántico S¿ del mensaje 116 puede establecerse de conformidad con una identidad del componente ubicado por debajo del umbral, es decir: Por ejemplo, si pt es un componente que representa la confianza referida a la identificación óptica de carriles y f < <pm¿n , entonces St podría transformarse en: “Precaución: el sistema de identificación de carriles no puede detectar las marcas de los carriles. Se recomienda la intervención del conductor”.
El que antecede es un ejemplo específico de una construcción general basada en la gramática de acuerdo con la cual puede formularse un mensaje 116. La gramática completa de tal construcción puede variar. La gramática de un mensaje 116 puede incluir los siguientes elementos de importancia: • Una palabra de señalización (SW, por sus siglas en inglés) que inicie el mensaje 116; en el ejemplo consignado, SW = /(i,<p¿) es la palabra “precaución”. Dependiendo de un subsistema particular del vehículo 101 (i) y del valor de confianza <pi, la SW podría ser una de las siguientes palabras {“mortal”, “peligro”, “advertencia”, “precaución”, “aviso”} u otra palabra.
• La descripción de un subsistema (SD, por sus siglas en inglés) que identifique a un subsistema del vehículo 101; en el ejemplo consignado, SD = /(i) es la frase “el sistema de identificación de carriles” que describe el sistema i* en un lenguaje comprensible para el usuario.
• Una calidad de indicador de función (QoF, por sus siglas en inglés) que describa de qué manera el funcionamiento del subsistema se ha deteriorado; en el ejemplo consignado, QoF = /(i, <p¿) es la fiase “no puede”.
• Un descriptor de función (FD, por sus siglas en inglés) que transmita qué función se verá interrumpida; en el ejemplo consignado, FD = /(i) es la frase “detectar las marcas de los carriles”.
• Una acción solicitada (RA, por sus siglas en inglés); en el ejemplo consignado, RA = f i, f ) es la frase “la intervención del conductor”.
• La fuerza de la recomendación (RS, por sus siglas en inglés); en el ejemplo consignado, RS = f(i, <p ) es la frase “se recomienda”.
En líneas generales, la correcta gramática correspondiente a una lengua puede definirse para establecer una adecuada disposición de los diferentes términos a fin de asegurar la construcción de una frase correcta desde el punto de vista sintáctico en la lengua de llegada. Si se continua con el ejemplo antes consignado, una plantilla para un mensaje 116 de advertencia podría ser: <SW>: <SD><QoF><FD><RA><RS> Una vez que el contenido semántico 5¿ ha sido formulado, la computadora 105 modifica los parámetros de texto a discurso sobre la base de que el valor de la evaluación de confianza global 118 (F) se encuentra por debajo de un umbral predeterminado, p.ej., a fin de transmitir urgencia para atraer la atención del conductor. En general, un conjunto de parámetros modificados U = { género , número de repeticiones de sw, duración de la unidad -palabra, palabra,···} puede aplicarse a S¿ a fin de alterar o influenciar la percepción del mensaje 116 por parte del operador del vehículo. Debe tenerse en cuenta que el término “número de repeticiones de SW” solo se aplica a la palabra de señalización (p.ej., “peligro, peligro” por oposición a “peligro”). Respecto de los componentes continuos de U, se supone que la urgencia percibida sigue una lcy de la energía de Stevens tal como urgency = k(U )m. Las Ui individulaes constituyen una función de la estimación de confianza global F. Aplicada a la advertencia relativa a la identificación de carriles, estas modificaciones podrían alterar la presentación de la advertencia de las siguientes maneras: • El género (masculino, femenino) de la articulación del texto al discurso podría ser masculino para valores más elevados de F y femenino para valores más bajos debido a que se ha descubierto que la voz femenina genera respuestas más cautas. No obstante, sobre la base de hallazgos empíricos, ello podría invertirse en algunas culturas.
• El número de repeticiones de SW sería mayor para valores más bajos de F debido a que un número mayor de repeticiones de la palabra de señalización se asocia con una urgencia percibida también mayor.
• La duración de la unidad-palabra sería menor para valores más bajos de F sobre la base de una percepción mayor de urgencia frente a palabras de menor duración.
• El tono se incrementaría para valores más bajos de F.
• Otros parámetros (p.ej., el número de armonías irregulares) que modifican los atributos acústicos del discurso también podrían modificarse.
Si se retoma la descripción de los elementos en la figura 1, la red 120 representa uno o más mecanismos a través de los cuales la computadora 105 de un vehículo puede comunicarse con un servidor remoto 125 y/o un dispositivo de usuario 150. De esta manera, por red 120 debe entenderse uno o más mecanismos de comunicación alámbricos o inalámbricos diferentes, incluida cualquier combinación de mecanismos de comunicación alámbricos (p.ej., cable y fibra) y/o inalámbricos (p.ej., celulares, inalámbricos, satelitales, de microondas y de radiofrecuencia) y cualquier topología de red deseada (o topologías cuando se utilizan múltiples mecanismos de comunicación). Constituyen ejemplos de redes de comunicación las redes de comunicación inalámbricas (p.ej., mediante el empleo de Bluetooth, del estándar IEEE 802.11, etc.), de área local (LAN, por sus siglas en inglés) y/o de área amplia (WAN, por sus siglas en inglés), incluida Internet, que proporcionen servicios de comunicación de datos.
Por servidor 125 debe entenderse uno o más servidores de computadora, cada uno generalmente compuesto por al menos un procesador y al menos una memoria que almacena a su vez instrucciones ejecutables por el procesador, incluidas aquellas necesarias para llevar a cabo los procesos descritos en la presente. El servidor 125 puede incluir o hallarse comunicativamente asociado a un almacén de datos 130 para el almacenamiento de datos recolectados 115 y/o parámetros 117. Por ejemplo, podrían almacenarse en el servidor 125 uno o más parámetros 117 para un usuario determinado y recuperarse a través de la computadora 105 cuando el usuario condujo un determinado vehículo 101. De la misma manera, el servidor 125 podría, como ya se ha expuesto, proporcionar datos a la computadora 105 para su empleo en el establecimiento de parámetros 117, p.ej., datos de mapa, datos relativos a las condiciones meteorológicas, estado del camino, zonas en construcción, etc.
Un dispositivo de usuario 150 puede ser cualquier dispositivo informático que cuente con un procesador, una memoria y funcionalidades para la comunicación. Por ejemplo, un dispositivo de usuario 150 puede ser una computadora portátil, una tableta, un smart phone, etc. que permita la comunicación inalámbrica a través del estándar IEEE 802.11 , Bluetooth y/o protocolos de comunicación para celulares. Asimismo, el dispositivo de usuario 150 puede hacer uso de tales funcionalidades para comunicarse a través de la red 120 con la computadora 105 del vehículo 101. Un dispositivo de usuario 150 podría comunicarse con la computadora 105 del vehículo 101 a través de otros mecanismos como una red en el vehículo 101, un protocolo conocido como es Bluetooth , etc. De esta manera, un dispositivo de usuario 150 puede emplearse para llevar a cabo ciertas operaciones atribuidas en la presente a un colector de datos 110, p.ej., las funciones de reconocimiento de voz, de captura de imágenes o de GPS en un dispositivo de usuario 150 podrían utilizarse para proporcionar datos 115 a la computadora. Además, un dispositivo de usuario 150 podría emplearse a fin de proveer una interfaz de usuario afectiva 119 que incluya una interfaz hombre máquina (HMI), o bien esta interfaz, a la computadora 105.
FLUJO DE PROCESO PRESENTADO A MODO DE EJEMPLO La figura 2 es un diagrama que representa, a modo de ejemplo, un proceso para la evaluación y generación de señales de alerta basadas en niveles de confianza relativos a las funciones de un vehículo autónomo.
El proceso 200 se inicia en el bloque 205, en el cual el vehículo 101 comienza a ejecutar las funciones relativas a su conducción autónoma. Ello quiere decir que el vehículo 101 funciona total o parcialmente de manera autónoma, es decir, sujeto al control total o parcial del módulo de conducción autónoma 106. Por ejemplo, todas las funciones del vehículo 101, como las de dirección, frenado, velocidad, etc., podrían hallarse sujetas al control del módulo 106 en la computadora 105. También es posible que el vehículo 101 pueda funcionar de manera parcialmente autónoma (es decir, de manera parcialmente manual, lo que implica que algunas funciones, como la de los frenos, se ejecuten manualmente en tanto que otras, como la dirección, puedan hallarse sujetas al control de la computadora 105). De la misma manera, el módulo 106 podría controlar cuándo un vehículo cambia de carril. Asimismo, es posible que el proceso 200 pueda iniciarse en alguna etapa posterior al inicio de las funciones de conducción del vehículo 101, p.ej., cuando el ocupante del vehículo le dé inicio en forma manual a través de una interfaz de usuario de la computadora 105.
Luego, en el bloque 210, la computadora 105 adquiere datos recolectados 115. Tal como ya se ha expuesto, una variedad de colectores de datos 110, como sensores o subsistemas de percepción en la PL, o actuadores o subsistemas de activación en la AL, pueden proporcionar datos 115 a la computadora 105.
Con posterioridad, en el bloque 215, la computadora 105 calcula una o más evaluaciones de confianza 118. Por ejemplo, la computadora 105 generalmente calcula la evaluación de confianza escalar global 118 antes aludida, es decir, un valor F que proporcione un indicio respecto de la capacidad del vehículo 101 para continuar funcionando de manera autónoma, p.ej., cuando se la compara con un umbral predeterminado La evaluación de confianza global 118 puede tener en cuenta varios factores, incluidos distintos datos recolectados 115 relativos a diferentes atributos del vehículo 101 y/o de su entorno.
Asimismo, la evaluación de confianza global 118 puede tener en cuenta un aspecto temporal. Por ejemplo, los datos 115 pueden indicar la existencia de un cierre de carril no previsto más adelante que en cinco minutos puede comenzar a afectar al tránsito con el que ha de encontrarse el vehículo 101. De esta manera, una evaluación de confianza global 118 en un momento dado puede indicar que las funciones autónomas del vehículo 101 pueden continuar. No obstante, la evaluación de confianza 118 en dicho momento más tres minutos puede indicar que las funciones autónomas del vehículo 101 deberían interrumpirse. Además, o bien como alternativa, la evaluación de confianza 118 en dicho momento puede indicar que las funciones autónomas del vehículo 101 deberían cesar, o que existe la posibilidad de que dichas funciones cesen dentro de un determinado período de tiempo, p.ej., tres minutos, cinco minutos, etc.
Asimismo, en el bloque 215, también pueden generarse uno o más vectores de evaluaciones de confianza 118 correspondientes a un atributo o subsistema. Tal como ya se ha expuesto, las evaluaciones de confianza vectoriales 118 proporcionan indicios relativos a datos recolectados 115 correspondientes a un determinado vehículo 101 y/o subsistema del vehículo 101, atributo medioambiental o condición. Así, una evaluación de confianza 118 correspondiente a un atributo puede indicar un grado de riesgo o urgencia asociado a un atributo o condición tal como el estado del camino, las condiciones meteorológicas, el sistema de frenos, la capacidad para detectar un carril o mantener la velocidad del vehículo 101, etc.
Luego del bloque 215, en el bloque 220, la computadora 105 compara la evaluación de confianza escalar global, p.ej., el valor F, con un parámetro almacenado 117 a fin de establecer el intervalo de confianza, es decir, el rango de valores dentro de los cuales se ubica la presente evaluación de confianza escalar 118. Por ejemplo, los parámetros 117 pueden especificar, respecto de diferentes intervalos de confianza, valores que una evaluación de confianza escalar puede cumplir o superar de acuerdo con un determinado grado de certeza, p.ej. cinco por ciento, diez por ciento, etc.
Superado el bloque 220, en el bloque 225, la computadora 105 establece si la evaluación de confianza global 118 se ubicó dentro de un umbral predeterminado o lo superó, p. ej. mediante el empleo del resultado de la comparación correspondiente al bloque 215, la computadora 105 puede establecer un intervalo de confianza al que pueda atribuirse la evaluación de confianza 118. Un parámetro almacenado 117 puede indicar un intervalo de confianza que funcione como umbral y la computadora 105 puede entonces establecer si se ha cumplido o superado dicho intervalo indicado por el parámetro 117.
Tal como ya se ha expuesto, un intervalo de confianza que funcione como umbral puede depender en parte de un parámetro temporal 117. Ello significa que una evaluación de confianza 118 podría indicar que el vehículo 101 no debería funcionar de manera autónoma luego de transcurrido un determinado período de tiempo, aunque en el momento el vehículo 101 se encuentre operando de manera autónoma dentro de un margen seguro. Además, o bien como alternativa, podría generarse una primera evaluación de confianza global 118, y posiblemente subevaluaciones asociadas 118, relativas al momento presente y una segunda evaluación de confianza global 118, y posiblemente subevaluaciones asociadas 118, relativas a un período posterior al presente. Podría emitirse un mensaje 116 de alerta o algún indicador similar cuando la segunda evaluación 118 se ubicó dentro de un umbral o lo superó, aun si la primera evaluación 118 no se ubicó dentro del umbral ni tampoco lo superó. Dicha señal de alerta debe especificar que debería adoptarse una medida, p.ej., el cese de las funciones autónomas del vehículo 101, antes de que transcurra el período de tiempo correspondiente a la segunda evaluación 118. En cualquier caso, el bloque 225 puede involucrar la determinación de un período de tiempo vencido el cual la evaluación de confianza 118 se ubicará dentro del umbral preestablecido o lo superará dentro de un determinado margen de error.
En cualquier caso, la finalidad del bloque 225 es determinar si la computadora 105 debería emitir un mensaje 116, p.ej., a través de la interfaz afectiva 119. Como acaba de explicarse, una señal de alerta puede tener por objeto recomendar el inmediato cese de las funciones autónomas del vehículo 101 o el cese de las funciones del vehículo 101 una vez transcurrido un determinado período de tiempo, dentro de un determinado plazo, etc. Si debe emitirse un mensaje 116, se ejecuta a continuación el bloque 230. Si no debe emitirse, el bloque siguiente es el 240.
En el bloque 230, la computadora 105 identifica evaluaciones 118 de atributos o subsistemas, p.ej., valores en un vector de evaluaciones tal como se ha descrito, que puedan revestir importancia para un mensaje 116. Por ejemplo, los parámetros 117 podrían especificar valores para los umbrales sobre cuya base una evaluación 118 que se ubique dentro de un valor de umbral establecido por un parámetro 117 o que lo supere pueda identificarse como relevante para la emisión de una señal de alerta. Asimismo, las evaluaciones 118, como las evaluaciones 118 escalares antes abordadas, podrían revestir carácter temporal. Ello significa que una evaluación 118 podría establecer un período de tiempo luego del cual un vehículo 101 y/o un atributo medioambiental podrían representar un riesgo para la ejecución de las funciones autónomas del vehículo 101, o la evaluación 118 podría referirse al momento presente. Además, una evaluación 118 podría determinar un nivel de urgencia asociado a un atributo, p.ej. porque una evaluación 118 se ubicó dentro del intervalo de confianza correspondiente al momento presente o a un momento ubicado dentro de una distancia temporal preestablecida, p.ej. 30 segundos, dos minutos, etc. a partir del momento presente. Asimismo, o bien como alternativa, diferentes niveles de urgencia pueden asociarse a diferentes intervalos de confianza. En cualquier caso, en el bloque 230, las evaluaciones correspondientes a atributos 118 que se ubiquen dentro de un umbral predeterminado o lo superen se identificarán a efectos de su inclusión en el mensaje 116. Ya se ha proporcionado un ejemplo del empleo de normas gramaticales en un mensaje de audio 116 y de la modificación de las palabras en dicho mensaje a fin de obtener la prosodia deseada, la que queda determinada a partir de las evaluaciones de confianza correspondientes al subsistema 118 en un vector de evaluaciones de confianza 118.
Superado el bloque 230, en el bloque 235, la computadora 105 emite un mensaje 116 de alerta o indicador similar, p.ej. a través de una interfaz hombre máquina u otra similar que pueda formar parte de una interfaz afectiva 119. Además, podría emplearse el valor de una evaluación de confianza global 118 y/o los valores de las evaluaciones correspondientes a atributos 118 a fin de establecer el nivel de urgencia emocional transmitido en el mensaje 116 como ya se ha descrito. Los parámetros 117 podrían especificar diferentes valores de umbrales para diferentes evaluaciones correspondientes a atributos 118 y los respectivos niveles de urgencia asociados a los diferentes valores de umbrales. Así, por ejemplo, si una evaluación global 118 se ubicara dentro de un intervalo de confianza inferior, es decir, si existiera una probabilidad menor respecto del cese de las funciones autónomas del vehículo 101, la interfaz afectiva 119 podría emplearse para emitir un mensaje 116 con un nivel de urgencia menor que aquel aplicable a una evaluación 118 que se ubicara dentro de un intervalo de confianza más elevado. Por ejemplo, tal como ya se ha descrito, el tono de una palabra o el número de veces que se la reitera puede establecerse de conformidad con el nivel de urgencia asociado al valor de una evaluación 118 en un vector de la PL o de la AL. Asimismo, tal como ya se ha descrito, el mensaje 116 podría incluir a su vez mensajes específicos relativos a una o más evaluaciones correspondientes a atributos 118, y cada uno de dichos mensajes podría implicar variados niveles de urgencia emocional, p.ej. indicados por la prosodia en un mensaje de audio, sobre la base del valor de una evaluación 118 respecto de un determinado atributo.
En el bloque 240, que puede constituir la etapa siguiente al bloque 225 o al bloque 235, la computadora 105 establece si el proceso 200 debe continuar. Por ejemplo, el ocupante de un vehículo 101 podría responder a un mensaje de alerta emitido en el bloque 235 mediante el cese de las funciones autónomas del vehículo 101. Además, el vehículo 101 y/o la computadora 105 podrían desconectarse. En cualquier caso, si el proceso 200 debe continuar, el control retoma al bloque 210. De otro modo, el proceso 200 termina superado el bloque 240.
Conclusión Los dispositivos informáticos como aquellos a los que se refiere la presente generalmente incluyen individualmente instrucciones ejecutables por uno o más dispositivos informáticos como los que se han identificado y destinadas al cumplimiento de los bloques o las etapas de procesos antes descritos. Por ejemplo, los bloques de proceso descritos con anterioridad pueden considerarse instrucciones ejecutables por computadora.
Las instrucciones ejecutables por computadora pueden compilarse o interpretarse a partir de programas creados mediante variados lenguajes y/o teenologías de programación, tanto empleadas individualmente como en combinación. A título enunciativo, entre dichos lenguajes y/o tecnologías pueden citarse Java™, C, C++, Visual Basic, Java Script, Perl, HTML, etc. En general, un procesador (p.ej., un microprocesador) recibe instrucciones, p.ej. de una memoria o de un medio legible por computadora, y ejecuta estas instrucciones a través de las cuales lleva a cabo uno o más procesos, incluidos los descritos en la presente. Dichas instrucciones y otros pueden almacenarse y transmitirse mediante un gran número de medios legibles por computadora. Un archivo en una computadora constituye en general un conjunto de datos almacenados en un medio legible por computadora, como puede ser una unidad de almacenamiento, una memoria de acceso aleatorio (RAM), etc.
Por medio legible por computadora debe entenderse cualquier medio que participe en el suministro de datos (p.ej., instrucciones) y que pueda ser leído por una computadora. Un medio legible por computadora puede adoptar muchas formas. A modo de ejemplo, existen medios no volátiles y volátiles. A título enunciativo, los primeros incluyen discos ópticos o magnéticos y otros tipos de memorias persistentes. Los medios volátiles incluyen la memoria dinámica de acceso aleatorio (DRAM), que generalmente constituye la memoria principal. Constituyen ejemplos comunes de medios legibles por computadora los disquetes, los discos flexibles, los discos rígidos, la cinta magnética y cualquier otro medio magnético; un CD-ROM, un DVD y cualquier otro medio óptico; las tarjetas perforadas, cintas perforadas y cualquier otro medio físico con perforaciones; las memorias RAM, PROM, EPROM, FLASH-EEPROM, cualquier otro chip de memoria o cartucho y cualquier otro medio a partir del cual una computadora pueda leer.
En los dibujos, los mismos números de referencia indican los mismos elementos. Asimismo, podrían modificarse algunos o todos ellos. Respecto de los medios, procesos, sistemas, métodos, etc. descritos en la presente, debe comprenderse que, aunque las etapas de dichos procesos, etc. han sido descritas como parte de una determinada secuencia ordenada, dichos procesos pueden implementarse de conformidad con un orden distinto del descrito aplicado a dichas etapas. Deberá comprenderse además que algunas etapas pueden ejecutarse en forma simultánea, que pueden adicionarse nuevas o que algunas de las etapas aludidas podrían omitirse. En otras palabras, las descripciones de los procesos en la presente se proporcionan a efectos de ilustrar ciertas realizaciones y no deberían interpretarse de modo tal que constituyan una limitación de la invención reivindicada.
De esta manera, se deberá comprender que la descripción que antecede es ilustrativa y no restrictiva. Muchas realizaciones y aplicaciones distintas de los ejemplos provistos serían evidentes a partir de la lectura de la descripción que antecede para una persona capacitada en la téenica. El alcance debe determinarse, no con referencia a la descripción que antecede, sino más bien con referencia a las reivindicaciones anexas, junto con el alcance completo de equivalentes a los cuales se autorizan las reivindicaciones. Se anticipa y se busca que ocurran futuros desarrollos en las teenologías descritas en la presente, y que los sistemas y métodos divulgados se incorporen en dichas futuras realizaciones. En resumen, se deberá comprender que la invención es susceptible de modificación y variación y que se encuentra únicamente limitada por las reivindicaciones siguientes.
Todos los términos usados en las reivindicaciones pretenden tener sus construcciones razonables más amplias y sus significados comunes como lo comprenderán aquellas personas con conocimiento en las tecnologías descritas en la presente, a menos que se realice en la presente indicación explícita en contrario. En particular, el uso de los artículos en singular tales como “un/una,” “el/la,” “dicho/a,” etc. debe leerse para indicar uno o más de los elementos indicados a menos que una reivindicación indique una limitación explícita en contrario.

Claims (20)

REIVINDICACIONES
1. Un sistema que comprende una computadora en un vehículo, la computadora comprende una memoria y un procesador, caracterizado porque la computadora se configura para: recolectar datos relativos a la operación autónoma del vehículo, generar una evaluación de confianza de valor escalar sobre si el vehículo debe operar de manera autónoma, generar un vector de valores de las evaluaciones de confianza del subsistema, cada uno de los valores de evaluaciones de confianza del subsistema se relaciona con una operación específica del vehículo, determinar que la evaluación de confianza de valor escalar se encuentra ubicada por debajo de un umbral predeterminado; y emitir un mensaje dirigido al operador del vehículo sobre la base de al menos uno de los valores de las evaluaciones de confianza del subsistema.
2. El sistema de la reivindicación 1, caracterizado porque el mensaje es un mensaje de audio y la computadora se configura además para modificar al menos una palabra del mensaje de audio de acuerdo con uno de los valores de las evaluaciones de confianza del subsistema.
3. El sistema de la reivindicación 2, caracterizado porque la modificación de al menos una palabra involucra al menos una de las siguientes determinaciones: la del número de veces que se reiterará la palabra, la del tono de la palabra, la del volumen para la palabra y la del género asociado con la voz que pronuncie la palabra.
4. El sistema de la reivindicación 1, caracterizado porque los valores de las evaluaciones de confianza del subsistema se refieren al menos a una de las siguientes habilidades: la habilidad para detectar carriles en un camino, la habilidad para mantener la velocidad, la habilidad para maniobrar, la habilidad para frenar, y la habilidad para evitar colisiones con otros vehículos.
5. El sistema de la reivindicación 1, caracterizado porque la computadora se configura a fin de determinar que la evaluación de confianza escalar se ubica en un umbral predeterminado o lo supera mediante el establecimiento de un intervalo de confianza en donde queda comprendida la evaluación de confianza.
6. Un sistema que comprende una computadora en un vehículo que comprende una memoria y un procesador, caracterizado porque la computadora se configura a fin de: recolectar datos relativos a la operación autónoma del vehículo, generar una primera evaluación de confianza sobre si el vehículo debe operar de manera autónoma; determinar si la primera evaluación de confianza se ubica dentro de un umbral predeterminado o lo supera; y emitir una señal de alerta a través de una interfaz de usuario en el vehículo relativa al cese de la operación autónoma del vehículo si la primera evaluación de confianza se ubica dentro del umbral predeterminado o lo supera.
7. El sistema de la reivindicación 1, caracterizado porque la primera evaluación de confianza es un valor escalar y la computadora se configura además para generar al menos un vector de segundas evaluaciones de confianza, cada una de las segundas evaluaciones de confianza se refiere a una operación del vehículo.
8. El sistema de la reivindicación 1, caracterizado porque la computadora se configura para determinar que la primera evaluación de confianza se ubica dentro de un umbral predeterminado o lo supera mediante el establecimiento de un intervalo de confianza en el que queda comprendida la evaluación de confianza.
9. El sistema de la reivindicación 1, caracterizado porque el umbral predeterminado se elige al menos en parte de conformidad con una determinación de una identidad del operador del vehículo.
10. El sistema de la reivindicación 1 , caracterizado porque la primera evaluación de confianza se refiere al momento presente y la computadora se configura además para: generar una segunda evaluación de confianza sobre si el vehículo debe operar de manera autónoma; la segunda evaluación de confianza se relaciona con un momento posterior al presente, determinar si la segunda evaluación de confianza se ubica dentro del umbral predeterminado o lo supera; y emitir una señal de alerta a traves de una interfaz de usuario en el vehículo relativa al cese de la operación autónoma del vehículo si la segunda evaluación de confianza se ubica dentro del umbral predeterminado o lo supera.
11. El sistema de la reivindicación 1, caracterizado porque está configurado además para: generar una o más segundas evaluaciones de confianza, cada una referida a un atributo correspondiente a la operación autónoma del vehículo incluido en un conjunto de uno o más atributos; y para cada segunda evaluación de confianza que supere un segundo umbral predeterminado, con inclusión de un elemento en la señal de alerta.
12. El sistema de la reivindicación 11, caracterizado porque los atributos incluyen al menos uno de los siguientes: velocidad del vehículo, frenos, estado del camino, condiciones meteorológicas y estado del tránsito.
13. Un sistema comprende una computadora en un vehículo que comprende una memoria y un procesador, caracterizado porque la computadora se configura a fin de: recolectar datos relativos a la operación autónoma del vehículo, generar una evaluación de confianza de valor escalar sobre si el vehículo debe funcionar de manera autónoma; generar un vector de valores de las evaluaciones de confianza del subsistema, cada uno de los valores de las evaluaciones de confianza del sistema se relaciona con una operación específica del vehículo; determinar que la evaluación de confianza de valor escalar se encuentra ubicada por debajo de un umbral predeterminado; y emitir un mensaje dirigido a un operador del vehículo sobre la base de al menos uno de los valores de las evaluaciones de confianza del subsistema.
14. El sistema de la reivindicación 13, caracterizado porque el mensaje es un mensaje de audio y la computadora se configura además para modificar al menos una palabra del mensaje de audio de acuerdo con uno de los valores de las evaluaciones de confianza del subsistema.
15. El sistema de la reivindicación 13, caracterizado porque la modificación de al menos una palabra involucra al menos una de las siguientes determinaciones: la del número de veces que se reiterará la palabra, la del tono de la palabra, la del volumen para la palabra y la del género asociado con la voz que pronuncie la palabra.
16. El sistema de la reivindicación 13, caracterizado porque los valores de las evaluaciones de confianza del subsistema se refieren al menos a una de las siguientes habilidades: detectar carriles en un camino, mantener la velocidad, maniobrar, frenar, y evitar colisiones con otros vehículos.
17. El sistema de la reivindicación 12, caracterizado porque la computadora se configura a fin de determinar que la evaluación de confianza escalar se ubica en un umbral predeterminado o lo supera mediante el establecimiento de un intervalo de confianza en donde queda comprendida la evaluación de confianza.
18. Un método caracterizado porque comprende: recolectar datos relativos a la operación autónoma del vehículo, generar una primera evaluación de confianza sobre si el vehículo debe operar de manera autónoma; determinar si la primera evaluación de confianza se ubica dentro de un umbral predeterminado o lo supera; y emitir una señal de alerta a través de una interfaz de usuario en el vehículo relativa al cese de la operación autónoma del vehículo si la primera evaluación de confianza se ubica dentro del umbral predeterminado o lo supera.
19. El método de la reivindicación 18, caracterizado porque la primera evaluación de confianza es un valor escalar y la computadora se configura además para generar al menos un vector de segundas evaluaciones de confianza, cada una de las segundas evaluaciones de confianza se relaciona con una operación del vehículo
20. El método de la reivindicación 17, caracterizado porque comprende además determinar que la primera evaluación de confianza se ubica dentro de un umbral predeterminado o lo supera mediante la determinación de un intervalo de confianza en donde la evaluación de confianza se encuentra comprendida. RESUMEN DE LA INVENCIÓN Es posible recolectar datos relativos a la operación autónoma de un vehículo. Puede entonces generarse una primera evaluación de confianza sobre si el vehículo debe operar en forma autónoma, y puede determinarse si dicha evaluación se ubica dentro de un umbral predeterminado o lo supera. Puede emitirse entonces una señal de alerta a través de una interfaz de usuario en el vehículo con respecto al cese de la operación autónoma del vehículo si la primera evaluación de confianza se ubica dentro del umbral predeterminado o lo supera.
MX2014015331A 2013-12-20 2014-12-15 Interfaz de usuario afectiva en un vehiculo autonomo. MX342408B (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US14/136,495 US9346400B2 (en) 2013-12-20 2013-12-20 Affective user interface in an autonomous vehicle

Publications (2)

Publication Number Publication Date
MX2014015331A true MX2014015331A (es) 2015-07-06
MX342408B MX342408B (es) 2016-09-28

Family

ID=53275482

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2014015331A MX342408B (es) 2013-12-20 2014-12-15 Interfaz de usuario afectiva en un vehiculo autonomo.

Country Status (5)

Country Link
US (1) US9346400B2 (es)
CN (1) CN104730949B (es)
DE (1) DE102014118479B4 (es)
MX (1) MX342408B (es)
RU (1) RU2014151607A (es)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8443202B2 (en) 2009-08-05 2013-05-14 Daon Holdings Limited Methods and systems for authenticating users
US10697790B2 (en) * 2014-06-10 2020-06-30 Clarion Co., Ltd. Lane selecting device, vehicle control system and lane selecting method
US9869560B2 (en) 2015-07-31 2018-01-16 International Business Machines Corporation Self-driving vehicle's response to a proximate emergency vehicle
US9785145B2 (en) 2015-08-07 2017-10-10 International Business Machines Corporation Controlling driving modes of self-driving vehicles
EP3131020B1 (en) * 2015-08-11 2017-12-13 Continental Automotive GmbH System and method of a two-step object data processing by a vehicle and a server database for generating, updating and delivering a precision road property database
US9721397B2 (en) 2015-08-11 2017-08-01 International Business Machines Corporation Automatic toll booth interaction with self-driving vehicles
US9718471B2 (en) 2015-08-18 2017-08-01 International Business Machines Corporation Automated spatial separation of self-driving vehicles from manually operated vehicles
US9896100B2 (en) 2015-08-24 2018-02-20 International Business Machines Corporation Automated spatial separation of self-driving vehicles from other vehicles based on occupant preferences
US9619638B2 (en) 2015-08-25 2017-04-11 International Business Machines Corporation Vehicle operations based on biometric fingerprint analysis
US9731726B2 (en) 2015-09-02 2017-08-15 International Business Machines Corporation Redirecting self-driving vehicles to a product provider based on physiological states of occupants of the self-driving vehicles
US11040725B2 (en) 2015-09-04 2021-06-22 Inrix Inc. Manual vehicle control notification
US9566986B1 (en) 2015-09-25 2017-02-14 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9834224B2 (en) 2015-10-15 2017-12-05 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9944291B2 (en) 2015-10-27 2018-04-17 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9751532B2 (en) 2015-10-27 2017-09-05 International Business Machines Corporation Controlling spacing of self-driving vehicles based on social network relationships
US10607293B2 (en) 2015-10-30 2020-03-31 International Business Machines Corporation Automated insurance toggling for self-driving vehicles
US10176525B2 (en) 2015-11-09 2019-01-08 International Business Machines Corporation Dynamically adjusting insurance policy parameters for a self-driving vehicle
US9791861B2 (en) 2015-11-12 2017-10-17 International Business Machines Corporation Autonomously servicing self-driving vehicles
CN105280187A (zh) * 2015-11-13 2016-01-27 上海斐讯数据通信技术有限公司 一种家庭情绪管理的装置和方法
US10061326B2 (en) 2015-12-09 2018-08-28 International Business Machines Corporation Mishap amelioration based on second-order sensing by a self-driving vehicle
US9836973B2 (en) 2016-01-27 2017-12-05 International Business Machines Corporation Selectively controlling a self-driving vehicle's access to a roadway
JP6917708B2 (ja) * 2016-02-29 2021-08-11 株式会社デンソー 運転者監視システム
EP3425607A4 (en) * 2016-03-01 2019-04-10 Ricoh Company Ltd. MOBILE BODY MANAGEMENT DEVICE, MOBILE BODY MANAGEMENT METHOD, AND STORAGE MEDIUM
DE102016003969B4 (de) 2016-04-01 2019-02-21 Audi Ag Verfahren zum Erfassen von Umgebungsdaten mittels mehrerer Kraftfahrzeuge
US9908464B2 (en) * 2016-04-10 2018-03-06 Toyota Motor Engineering & Manufacturing North America, Inc. Apprising a driver of confidence in operation of a vehicle
US9720416B1 (en) * 2016-04-18 2017-08-01 Ford Global Technologies, Llc Vehicle security system
US10685391B2 (en) 2016-05-24 2020-06-16 International Business Machines Corporation Directing movement of a self-driving vehicle based on sales activity
US10358287B2 (en) 2016-06-22 2019-07-23 Con-Tech Manufacturing, Inc. Automated container handling system for refuse collection vehicles
US10272783B2 (en) 2016-07-15 2019-04-30 Toyota Motor Engineering & Manufacturing North America, Inc. Driver and vehicle responsibility matrix
US10571908B2 (en) 2016-08-15 2020-02-25 Ford Global Technologies, Llc Autonomous vehicle failure mode management
US10118610B2 (en) * 2016-08-31 2018-11-06 Ford Global Technologies, Llc Autonomous vehicle using path prediction
US10093322B2 (en) 2016-09-15 2018-10-09 International Business Machines Corporation Automatically providing explanations for actions taken by a self-driving vehicle
US10268195B2 (en) * 2017-01-06 2019-04-23 Qualcomm Incorporated Managing vehicle driving control entity transitions of an autonomous vehicle based on an evaluation of performance criteria
WO2018134863A1 (ja) * 2017-01-17 2018-07-26 株式会社日立製作所 移動体の走行制御装置
JP6438516B2 (ja) * 2017-03-31 2018-12-12 株式会社Subaru 車両の走行制御装置
US11009870B2 (en) 2017-06-06 2021-05-18 Zoll Medical Corporation Vehicle compatible ambulatory defibrillator
US10559140B2 (en) * 2017-06-16 2020-02-11 Uatc, Llc Systems and methods to obtain feedback in response to autonomous vehicle failure events
US20190011275A1 (en) * 2017-07-06 2019-01-10 Andrew Whinston System and method for routing autonomous vehicles
DE102017212222B3 (de) 2017-07-18 2018-10-25 Audi Ag Verfahren zum Betreiben einer Anzeigeeinrichtung eines Kraftfahrzeugs, Fahrerassistenzeinrichtung, und Kraftfahrzeug
DE102017214611B4 (de) 2017-08-22 2023-02-02 Audi Ag Verfahren zum Überprüfen eines Reaktionssignals einer Fahrzeugkomponente sowie Überprüfungsvorrichtung und Kraftfahrzeug
US10611381B2 (en) 2017-10-24 2020-04-07 Ford Global Technologies, Llc Decentralized minimum risk condition vehicle control
US10501085B2 (en) * 2017-12-07 2019-12-10 Waymo Llc Early object detection for unprotected turns
US10745006B2 (en) * 2018-02-01 2020-08-18 GM Global Technology Operations LLC Managing automated driving complexity of the forward path using perception system measures
WO2019150331A1 (en) * 2018-02-04 2019-08-08 Wedrive Technology, Inc. Systems and methods for a common operator to control multiple vehicles cross-reference to related applications
CN110136295A (zh) * 2018-02-09 2019-08-16 驭势(上海)汽车科技有限公司 用于检测自动驾驶的可信度的系统和方法
US10726645B2 (en) 2018-02-16 2020-07-28 Ford Global Technologies, Llc Vehicle diagnostic operation
US11994860B2 (en) 2018-06-15 2024-05-28 Allstate Insurance Company Processing system for evaluating autonomous vehicle control systems through continuous learning
US11235802B2 (en) 2019-11-11 2022-02-01 Ford Global Technologies, Llc Enhanced vehicle operation
US20210278852A1 (en) * 2020-03-05 2021-09-09 Uatc, Llc Systems and Methods for Using Attention Masks to Improve Motion Planning
DE102020203819A1 (de) 2020-03-24 2021-09-30 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines zumindest teilautomatisiert fahrenden Fahrzeugs und Fahrzeug
US11634130B2 (en) * 2020-03-26 2023-04-25 Robert Bosch Gmbh Adapting an advanced driver assistance system of a vehicle
DE102020212347A1 (de) 2020-09-30 2022-03-31 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Evaluieren eines Verfahrens für eine Steuerung einer zumindest teilautomatisierten mobilen Plattform
USD985615S1 (en) 2021-08-23 2023-05-09 Waymo Llc Display screen or portion thereof with graphical user interface
CN118613411A (zh) * 2022-01-25 2024-09-06 株式会社电装 驾驶系统的设计方法以及驾驶系统
US20230281949A1 (en) * 2022-02-02 2023-09-07 Ford Global Technologies, Llc Biometric authorization

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113400A (ja) 1998-09-30 2000-04-21 Honda Motor Co Ltd 自動追従走行システム
JP3537705B2 (ja) 1999-05-31 2004-06-14 本田技研工業株式会社 自動追従走行システム
JP3713171B2 (ja) 1999-11-10 2005-11-02 富士通株式会社 車両走行制御システムおよび車両制御装置
JP2003252130A (ja) * 2002-03-01 2003-09-10 Denso Corp 車両エージェントシステム,ecu
US6813557B2 (en) 2003-03-27 2004-11-02 Deere & Company Method and system for controlling a vehicle having multiple control modes
US6985089B2 (en) 2003-10-24 2006-01-10 Palo Alto Reserach Center Inc. Vehicle-to-vehicle communication protocol
US7499804B2 (en) 2004-10-22 2009-03-03 Irobot Corporation System and method for multi-modal control of an autonomous vehicle
US7499776B2 (en) * 2004-10-22 2009-03-03 Irobot Corporation Systems and methods for control of an unmanned ground vehicle
FI120191B (fi) 2005-10-03 2009-07-31 Sandvik Tamrock Oy Menetelmä kaivosajoneuvojen ajamiseksi kaivoksessa ja kuljetusjärjestelmä
US7579942B2 (en) 2006-10-09 2009-08-25 Toyota Motor Engineering & Manufacturing North America, Inc. Extra-vehicular threat predictor
JP4211841B2 (ja) * 2006-11-15 2009-01-21 トヨタ自動車株式会社 ドライバ状態推定装置、サーバ、ドライバ情報収集装置及び運転者状態推定システム
US8560157B2 (en) * 2007-09-19 2013-10-15 Topcon Positioning Systems, Inc. Partial manual control state for automated vehicle navigation system
CN101823435B (zh) * 2009-03-03 2012-12-12 珠海市智汽电子科技有限公司 便于外置安装、便于手动/自动切换的车辆自动驾驶系统
CN102053619B (zh) * 2009-11-06 2012-11-21 北京理工大学 微小型无人直升机自动驾驶和手动遥控飞行切换方法
US8618922B2 (en) * 2010-03-30 2013-12-31 GM Global Technology Operations LLC Method and system for ensuring operation of limited-ability autonomous driving vehicles
US8260482B1 (en) 2010-04-28 2012-09-04 Google Inc. User interface for displaying internal state of autonomous driving system
US20110298808A1 (en) 2010-06-02 2011-12-08 Toyota Motor Engineering & Manufacturing North America, Inc. Animated Vehicle Attendance Systems
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US8078349B1 (en) 2011-05-11 2011-12-13 Google Inc. Transitioning a mixed-mode vehicle to autonomous mode
JP5533810B2 (ja) 2011-07-23 2014-06-25 株式会社デンソー 追従走行制御装置
US8907814B2 (en) 2011-12-19 2014-12-09 Fujitsu Limited Cooperative vehicle collision warning system
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
DE102012002305A1 (de) * 2012-02-06 2013-08-22 Audi Ag Kraftwagen mit einer Fahrerassistenzeinrichtung und Verfahren zum Betreiben eines Kraftwagens
US8718861B1 (en) * 2012-04-11 2014-05-06 Google Inc. Determining when to drive autonomously
CN102707708B (zh) * 2012-05-25 2014-04-09 清华大学 多模型飞行控制系统故障诊断方法及装置
US9633564B2 (en) * 2012-09-27 2017-04-25 Google Inc. Determining changes in a driving environment based on vehicle behavior
JP5765326B2 (ja) 2012-12-19 2015-08-19 株式会社デンソー 車車間通信装置および隊列走行制御装置
US20140302774A1 (en) 2013-04-04 2014-10-09 General Motors Llc Methods systems and apparatus for sharing information among a group of vehicles
US9342074B2 (en) * 2013-04-05 2016-05-17 Google Inc. Systems and methods for transitioning control of an autonomous vehicle to a driver

Also Published As

Publication number Publication date
US9346400B2 (en) 2016-05-24
CN104730949A (zh) 2015-06-24
RU2014151607A (ru) 2016-07-10
DE102014118479A1 (de) 2015-06-25
MX342408B (es) 2016-09-28
US20150175070A1 (en) 2015-06-25
DE102014118479B4 (de) 2023-08-31
CN104730949B (zh) 2020-01-14

Similar Documents

Publication Publication Date Title
MX2014015331A (es) Interfaz de usuario afectiva en un vehiculo autonomo.
US9406177B2 (en) Fault handling in an autonomous vehicle
US11380193B2 (en) Method and system for vehicular-related communications
CN104859662B (zh) 自主车辆中的故障处理
US11375338B2 (en) Method for smartphone-based accident detection
Nilsson et al. Safe transitions from automated to manual driving using driver controllability estimation
US10528833B1 (en) Health monitoring system operable in a vehicle environment
US10435036B2 (en) Enhanced curve negotiation
WO2022240823A1 (en) Online driver delay and frequency response model
US10562450B2 (en) Enhanced lane negotiation
US11853741B2 (en) Federated learning for connected camera
EP4219261B1 (en) Estimation of risk exposure for autonomous vehicles
CN117533326A (zh) 车辆控制方法、装置、存储介质和电子设备
CN115384541A (zh) 行驶风险检测的方法和系统
JP2022170413A (ja) 異常判断装置
WO2017069733A1 (en) Enhanced lane behavior detection

Legal Events

Date Code Title Description
FG Grant or registration