MXPA02003895A - Sistema de deteccion de ocupantes de vehiculo de motor que emplea modelos en forma de elipse y clasificacion bayesiana. - Google Patents

Sistema de deteccion de ocupantes de vehiculo de motor que emplea modelos en forma de elipse y clasificacion bayesiana.

Info

Publication number
MXPA02003895A
MXPA02003895A MXPA02003895A MXPA02003895A MXPA02003895A MX PA02003895 A MXPA02003895 A MX PA02003895A MX PA02003895 A MXPA02003895 A MX PA02003895A MX PA02003895 A MXPA02003895 A MX PA02003895A MX PA02003895 A MXPA02003895 A MX PA02003895A
Authority
MX
Mexico
Prior art keywords
method defined
segment
seat
classifying
class
Prior art date
Application number
MXPA02003895A
Other languages
English (en)
Inventor
Zhang Jun
Original Assignee
Univ Wisconsin System Board Of
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Univ Wisconsin System Board Of filed Critical Univ Wisconsin System Board Of
Publication of MXPA02003895A publication Critical patent/MXPA02003895A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Air Bags (AREA)
  • Seats For Vehicles (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Un objeto (20) en un asiento (16) de un vehículo de motor (10) es clasificado creando una imagen de video delárea y formando una silueta del objeto. La silueta es dividida en dos segmentos y una elipse separada (64, 66) es colocada para aproximar la forma de cada segmento. Los parámetros que definen la ubicación y el tamaño de las dos elipses (64, 66) forman un vector de aspecto para el objeto (20). Una función de clasificación Bayesiana utiliza el vector de aspecto para determinar la probabilidad de que el objeto encaje en cada una de una pluralidad de clases. Se determina una clase para el objeto (20) con base en las probabilidades. Este método puede ser usado para controlar la operación de una bolsa de aire (24) en el vehículo de motor (10) en respuesta a la clase del objeto en el asien

Description

SISTEMA DE DETECCIÓN DE OCUPANTES DE VEHICULO DE MOTOR QUE EMPLEA MODELOS EN FORMA DE ELIPSE Y CLASIFICACIÓN BAYESIANA Antecedentes de la Invención La presente invención se refiere generalmente a clasificar objetos en una imagen, y mas particularmente a detectar si una persona adulta, un niño o un asiento de infante están presentes en un asiento de un vehículo de motor. Como un aspecto de seguridad, los vehículos de motor modernos incorporan una bolsa de aire dentro del tablero, en frente de un pasajero en el asiento delantero. Bolsas de aire adicionales están siendo propuestas para las puertas a los lados de estos ocupantes. La rápida deceleración del vehículo de motor durante un accidente es detectada y activa el inflado de las bolsas de aire, que acojinan a los ocupantes. Aunque las bolsas de aire han reducido en gran medida la severidad de las lesiones producto de colisiones de vehículos de motor, las personas son ocasionalmente lesionadas debido a la rápida tasa con la que debe desplegarse la bolsa de aire. En particular, la bolsa de aire puede lesionar en forma severa a un niño pequeño o infante sentado en el asiento frontal del vehículo. Como consecuencia, ahora se recomienda que los niños pequeños e infantes viajen en el asiento trasero del vehículo, de modo de no estar expuestos a la fuerza de despliegue de la bolsa de aire en el caso de un accidente. Sin embargo, eso no enfoca la situación que ocurre cuando la recomendación es ignorada y un niño viaja en el asiento frontal del vehículo. A mayor abundamiento, en vehículos que no tienen un asiento trasero, tales como carros deportivos y camiones, un niño o infante debe colocarse en un asiento que mira hacia una bolsa de aire. En esta última situación, se han propuesto proveer un interruptor de sobre -marcha manual para deshabilitar la bolsa de aire en frente del niño. Sin embargo, no solo debe operarse manualmente este interruptor siempre que un niño esté presente, sino que el operador del vehículo de motor debe recordar re-activar la bolsa de aire para pasajeros adultos. Estas precauciones tampoco se enfocan a la presencia de un ocupante adulto relativamente pequeño de talla en un vehículo con una bolsa de aire diseñada para proteger a una persona mas grande de talla. De esta manera, existe una necesidad de que las bolsas de aire sean controladas de manera dinámica en respuesta a si la persona en el asiento del vehículo de motor es un adulto, un niño o un infante en un asiente especial para infante. Compendio de la Invención La presente invención provee un mecanismo para detectar la presencia o ausencia de un ocupante en un asiento dentro de un vehículo de motor y clasificar el tipo de persona. El método también distingue los ob etos inanimados que hay en el asiento de las personas. Una imagen del objeto es adquirida y luego segmentada en un primer segmento y un segundo segmento. Por ejemplo, el objeto es dividido en segmentos con base en una línea de demarcación en una posición fija en todas las imágenes que son procesadas . El primer segmento está encerrado sustancialmente por una primera forma geométrica, tal como una elipse, que es definida por un primer conjunto de parámetros. El segundo segmento es sustancialmente encerrado por una segunda forma geométrica que es definida por un segundo conjunto de parámetros. Los dos conjuntos de parámetros son combinados para formar un vector de aspecto que caracteriza el objeto. El vector de aspecto en comparado con vectores de plantilla, cada uno representando una diferente clase de objetos, para determinar probabilidades de que el objeto caiga dentro de cada clase. En la forma de realización preferida, una técnica de clasificación Bayesiana es utilizada para producir el conjunto de probabilidades. Una clase para el objeto es determinada con base en esas probabilidades. Por ejemplo, el objeto es colocado en la clase que tiene la mayor probabilidad. Sin embargo, si ninguna de las probabilidades excede un valor de umbral pre-definido, es poco factible que el objeto ajuste en cualquiera de las clases pre-definidas . En ese caso, el objeto es considerado estar en el asiento vacío y una clase de objeto irrelevante. Un proceso también es descrito para formar los vectores de plantilla para cada una de las clases de objetos pre-defini-das . La presente invención tiene aplicación particular para controlar una bolsa de aire en el vehículo de motor. Específicamente, este método de clasificación puede ser usado para determinar si el objeto en el asiento es una persona adulta, niño o un asiento de infante, y si el asiento de infante está mirando hacia adelante o atrás. Esta clasificación es entonces usada para controlar si la bolsa de aire se infla durante un accidente y, en caso afirmativo, la velocidad de inflado, de modo de proteger al ocupante del asiento contra lesiones por la bolsa de aire . Breve Descripción de los Dibujos La figura 1 es una vista desde arriba del interior de la parte delantera de un vehículo de motor; La figura 2 es un diagrama esquemático en bloques de un sistema ejemplar para clasificar objetos dentro de un vehículo de motor; La figura 3 es un diagrama de flujo del método mediante el cual las imágenes son procesadas por el sistema de clasificación de objetos; La figura 4 bosqueja un paso del procesamiento de . imágenes; y La figura 5 ilustra parámetros de un par de elipses que han sido definidas en la imagen mediante el paso de procesamiento bosquejado en la figura 4. Descripción Detallada de la Invención Con referencia a la figura 1, la porción delantera del compartimiento de pasajeros de un automóvil 10 tiene un tablero 12 desde el cual se proyecta un volante de dirección 14. Un asiento frontal 16 está espaciado del tablero 12 e incluye soportes de descanso para la cabeza 18, estándares, tanto para el pasajero 20 como el conductor 21. Deberá notarse que el pasajero 20 puede ser un adulto, un niño o un infante que se sienta en un asiento para infante que mira ya sea hacia adelante o atrás, colocado en el asiento 16 del vehículo. El volante de dirección 14 tiene un compartimiento que aloja una primera bolsa de aire 22 y una segunda bolsa de aire 24 está oculta en un compartimiento del tablero en frente del pasajero 20. Una cámara de video 26 está montada en el techo del compartimiento de pasajeros, cerca del centro horizontal del parabrisas. La cámara de video 26 está enfocada hacia abajo, hacia el área del asiento ocupada normalmente por el pasajero 20, como se indica por líneas punteadas, y produce una imagen, generalmente en vista lateral, del pasajero. Puede usarse cualquiera de las diversas cámaras de video comúnmente disponibles, tales como un formador de imágenes de dispositivo acoplado en carga (CCD) o un sensor de pixeles activos (APS) . La cámara de video 26 puede responder a la luz visual, pero de preferencia responde a la luz infrarroja cercana de fuentes (no mostradas) que están montadas sobre el parabrisas para iluminar el asiento frontal 16 del vehículo. El uso de luz infrarroja permite operación del presente sistema en la noche sin afectar la capacidad del ocupante de mirar el camino. Además, la iluminación llena sombras de imágenes durante operación en el día. Con referencia a la figura 2, las imágenes producidas por la cámara de video 26 son aplicadas a un circuito de entrada de video 32 de un procesador de imágenes 30. Cada imagen de video consiste en un arreglo en dos dimensiones de elementos de imagen (pixeles) . El circuito de entrada de video 32 controla el almacenamiento de los pixeles en una memoria de acceso aleatorio (RAM) 34, ambos dispositivos estando conectados a un conjunto de barras conectoras de señal 36. La RAM 34 también almacena valores variables, datos intermedios, y los resultados finales producidos por el análisis de imágenes, como será descrito. El análisis de las imágenes adquiridas es controlado por un microprocesador 38 que ejecuta un programa que está almacenado en una memoria de solo lectura (ROM) 40. Un circuito de interfaz de control 42 también está conectado al conjunto de barras conectoras de señal 36 y pone en interfaz el procesador de imágenes 30 con otros componentes del vehículo de motor 10. En el sistema ejemplar, el análisis de imágenes controla la operación de las bolsas de aire 22 y 24 y el circuito de interfaz de control 42 está conectado al controlador de bolsas de aire 44 para el vehículo. El controlador de bolsas de aire 44 también recibe una señal de un sensor de colisión 46 convencional cuando ocurre un accidente. El controlador de bolsas de aire 44 responde a estas entradas activando las bolsas de aire para el conductor y el pasajero 22 y 24. Con referencia a la figura 3, el análisis de imágenes comienza cada vez que un pasajero se sienta en el lado derecho del asiento frontal 16 del vehículo de motor 10. Por ejemplo, el microprocesador 38 recibe una señal en la línea de entrada 48 que indica cuando todas las puertas del vehículo se cierran después de que una de ellas ha sido abierta. Esto puede ser logrado por interruptores de sensor (no mostrados) montados en la cerradura de cada puerta. De manera alternativa, el proceso de análisis de imágenes puede ocurrir durante la operación del vehículo a intervalos periódicos definidos por una interrupción sincronizada del microprocesador 38. Independientemente del mecanismo usado para disparar el procesamiento de imágenes, la ejecución del programa inicia con un paso de inicialización 50 en el cual las variables y otros parámetros usados en el procesamiento son fijados a valores iniciales. El programa luego avanza al paso 51, donde se adquiere una nueva imagen del área de pasajeros del vehículo. De manera específica, el microprocesador 38 expide un comando al circuito de entrada de video 32 que hace que la cámara 26 produzca una imagen que es entonces almacenada pixel por pixel dentro de la RAM 34. En este punto, cada pixel tiene un valor numérico que define el nivel de brillantez en escala de tonos grises para la ubicación correspondiente dentro de la imagen. El procesamiento de imágenes avanza entonces al paso 52, donde la imagen en tonos grises recién adquirida es transformada para producir una silueta de cualquier objeto en el asiento. Técnicas para esta transformación son descritas por W.K. Pratt en Digital I age Processing, segunda edición, John Wiley & Sons, Londres, 1991. Una técnica primero separa la porción de la imagen que corresponde al ocupante del fondo, almacenando una imagen de referencia del asiento vacío en la memoria del procesador de imágenes 30. Esa imagen de referencia es sustraída en una base de pixel por pixel de la imagen recién adquirida para producir una imagen de diferencia. Los pixeles en esa imagen de diferencia tienen un valor relativamente grande donde la porción correspondiente de la imagen recién adquirida es sumamente diferente de la imagen de referencia de un asiento vacío, es decir la porción donde un objeto está presente en el asiento. A continuación, los pixeles en la imagen de diferencia son comparados con un valor de umbral para formar una imagen binaria convirtiendo los pixeles con valores sobre el valor de umbral a un valor de uno y ccnvirtiendo los demás pixeles a cero. En la imagen binaria resultante, los pixeles del objeto tienen un valor de uno y los pixeles remanentes son cero, con ello formando una silueta de cualquier objeto o persona que esté presente en el lado de pasajeros del asiento 16 del vehículo de motor. A fin de clasificar ese objeto o persona, los aspectos que reflejan la forma de la silueta deben ser extraídos de la imagen. Se reconoce que una persona sentada en el área de pasajeros del vehículo tendrá una silueta generalmente en forma de L, tal como se muestra por la silueta 60 en la figura 4. Esta silueta puede ser caracterizada por un par de elipses 64 y 66 que se aproximan a la forma de un segmento del objeto. La primera elipse 64 encierra sustancialmente el torso y la cabeza del pasajero 20, mientras que la segunda elipse 66 encierra sustancialmente la porción inferior del cuerpo del pasajero. El uso de una sola elipse para encerrar un objeto en una imagen que está siendo procesada es bien conocido, como se describe por W.K. Pratt, supra. Esta es una modificación de la técnica en la que dos elipses son empleadas para diferentes segmentos del objeto. En otras palabras, la silueta es descompuesta en un par de formas geométricas que proveen una representación mas precisa del objeto. Deberá entenderse que la aplicación de cada elipse al segmento respectivo de la silueta es una aproximación de menor ajuste de la elipse a ese segmento del objeto. Unos cuantos pixeles hacia afuera, que se escapan del cuerpo principal de la silueta, pueden no estar encerrados por la elipse correspondiente. De esta manera, ajustar cada elipse al segmento respectivo de la silueta encierra sustancialmente la porción correspondiente del objeto. De esta manera, el tamaño y la forma de la elipse se aproximan a una porción del objeto. Aunque la forma de realización preferida de la presente invención usa elipses, pueden emplearse otras formas geométricas, tales como un círculo o un polígono regular. Específicamente, el microprocesador 38 divide la imagen en porciones izquierda y derecha alrededor de una línea de demarcación vertical imaginaria, fija 62. La posición de la línea de demarcación es especificada en términos de lugares de pixeles horizontales en la imagen, y corresponde a la ubicación en la imagen donde las piernas se unen con el torso de un pasajero típico sentado en el vehículo de motor 10. Se entenderá que esta línea de demarcación 62 no siempre puede corresponder a la unión entre las piernas y el torso de cada pasajero sentado en el vehículo, pues las dimensiones corporales reales difieren entre las personas y ya que la unión es desplazada en la imagen al moverse el asiento 16 hacia adelante y hacia atrás. El desplazamiento relativo en la ubicación de esa unión física debido a los diferentes tamaños corporales y posiciones de asiento es una cantidad relativamente pequeña (v.gr., un máximo de seis pulgadas en un automóvil típico) y corresponde a un desplazamiento de solamente unos cuantos pixeles con la imagen. Por tanto, el hecho que la línea de demarcación fija 62 no siempre caiga exactamente en la unión entre las piernas y el torso del pasajero no afecta de manera considerable los resultados de procesamiento de imagen.
Cada elipse 64 y 66 está colocada y dimensionada para encerrar el segmento de la silueta que está en un lado u otro de la línea 62. Se ha encontrado que dos elipses proveen un modelo razonable para diferenciar entre diferentes tipos de ocupantes y objetos en el área de pasajeros del vehículo a fin de controlar de manera apropiada las bolsas de aire. Por ejemplo, esto permite al procesador de imágenes determinar si el objeto en el área de asiento de pasajeros es un adulto, un niño, un asiento para infante que mira hacia adelante (FFIS) o un asiento para infante que mira hacia atrás (RFIS) . Después de que cada elipse 64 y 66 es ajustada al segmento respectivo de la silueta en el paso 54, los parámetros que definen cada elipse son almacenados dentro de la RAM 34 en el paso 56. Como se bosqueja en la figura 5, cada elipse es definida por un vector de aspecto de cinco dimensiones que tiene los parámetros de coordenadas horizontal y vertical (x,y) para el centro en la imagen, la longitud (a) del eje mayor, la longitud (b) del eje menor, y un ángulo f entre el eje mayor y la horizontal de la imagen. El procesador de imágenes 30 calcula estos cinco parámetros para cada elipse 64 y 66, que luego se combinan para formar un vector de aspecto de diez dimensiones (x) de la silueta que está siendo analizada: x = (x,, y1( alr b1# f1# x2, y2, a2, b2,f2) (1) En el paso 58, el procesamiento de imágenes entra en una fase en la cual el vector de aspecto x es comparado con vectores de plantilla para cada una de las cuatro clases de objetos para determinar la clase del objeto. En el momento, se ignora la clase de asiento vacío y objeto irrelevante. El proceso de clasificación de objetos puede ser vaciado en un armazón Bayesiano, en el cual un modelo prescribe una distribución previa de objetos en las cuatro clases (adulto, niño, FFIS, RFIS) y una función de factibilidad describe que tan bien los parámetros de elipse derivados de la imagen están de acuerdo con cada clase. Este es un típico problema de reconocimiento de patrones donde una solución general utiliza un conjunto de funciones de decisión. Específicamente, cada clase es denotada como una función de decisión dk(x) , donde k es igual a 1, 2, 3, 4, denotando la clase asociada. Entonces, el vector de aspecto x puede ser clasificado con base en la regla de decisión: asignar x a la clase kO si dk0(x)>dk(x) para todas las k?k0. En esta regla, dk0(x) es el valor de clasificación Bayesiana de un vector ejemplar para la respectiva clase. En este caso, el vector de aspecto de diez dimensiones x es asignado a la clase que tiene el máximo valor de la función de decisión, es decir la mayor probabilidad. La forma óptima de la función de decisión que minimiza la probabilidad del error de clasificación es dada por: dk(x) = log pk(x) + log P[k] , k = 1,2,3,4 (2) donde ??(?) es la función de densidad de probabilidad condicional de x dado que ha venido de la clase k, y P[k] es la probabilidad previa de la clase k. En el presente sistema de clasificación de objetos, el término P[k] tiene un valor constante de 0.25, pues el objeto desconocido es igualmente factible que esté en cualquiera de las cuatro clases. Si ese no es el caso en una aplicación dada de la presente técnica, pueden utilizarse otros valores de P[k] . Se usa para p¾( ) un modelo Gaussiano multi-variado, como se da por: /2ir 1-1/2 -1/2(x-mk)1 ckn(x-mk) Pk(x) = W 10 donde mk y Ck son el vector medio y la matriz de co-variancia, respectivamente, para la clase k. vector medio y la matriz de co-variancia para cada clase posible son estimados a partir de imágenes de entrenamiento. En el caso del sistema de control de bolsas de aire, se coloca una pluralidad de diferentes objetes de cada clase en el asiento y se produce una imagen de cada uno. Suponga que xx, x2, x3, ... , xn son los vectores de aspecto de dos elipses extraídos de n imágenes de entrenamiento de la clase de adultos {k=3) , entonces los estimados del vector medio mk y la matriz de covariancia Ck son dados por: De esta manera, se desarrolla un conjunto de plantillas para una silueta típica de cada clase. De esta manera, la aplicación de la función clasificadora Bayesiana al vector de aspecto x produce una probabilidad de que la silueta actual ajuste dentro de cada una de las clases de objetos. Una determinación preliminar en cuanto al tipo del objeto en el asiento (adulto, niño, asiento de infante que mira hacia adelante, o asiento de infante que mira hacia atrás) es entonces alcanzada, con base en la clase que tiene la mayor probabilidad. Sin embargo, continúa existiendo la situación en que el asiento está vacío o contiene un objeto irrelevante, tal como una bolsa del supermercado, que no cae dentro de ninguna de las clases esperadas. Si el clasificador Bayesiano asigna el vector de aspecto de diez dimensiones a la primera clase k0 (por ejemplo, la clase de objetos FFIS) , entonces d^(x) alcanza un valor máximo para k igual a k0. Sin embargo, si la probabilidad dk0 (x) es menor que un valor de umbral pre-definido, se alcanza una determinación de que hay evidencia insuficiente que el vector de aspecto de diez dimensiones pertenezca a alguna de las cuatro clases. En este caso, la determinación razonable es la de asignar el vector de aspecto a la clase de objetos vacíos e irrelevantes . Una vez que la clase del objeto ha sido determinada en el paso 58, esa información puede ser usada para formular un comando que es enviado en el paso 59 a la interfaz de control 42 para proveer información al controlador de bolsas de aire 4 . Por ejemplo, si el controlador de bolsas de aire es informado de que está presente en el asiento un asiento de infante que mira hacia adelante (FFIS) o un asiento de infante que mira hacia atrás (RFIS) , el controlador de bolsas de aire 44 inhibe la bolsa de aire del lado del pasajero 24 en caso de un accidente. De manera similar, si se hace una determinación de que un niño puede estar presente en el área de asiento de pasajero, el controlador de bolsas de aire 44 infla la bolsa de aire durante un accidente a una tasa mucho menor que para un adulto.

Claims (20)

  1. REIVINDICACIONES 1. Un método para clasificar un objeto (20) que está presente dentro de un vehículo de motor (10) , ese método comprendiendo : adquirir una imagen (60) del objeto; segmentar el objeto en un primer segmento y un segundo segmento ; aproximar el primer segmento con una primera forma geométrica (64) que se selecciona de un grupo que consiste en un círculo, una elipse, y un polígono regular, y que es definida por un primer conjunto de parámetros; aproximar el segundo segmento con una segunda forma geométrica (66) que es seleccionada de un grupo que consiste en un círculo, una elipse, y un polígono regular, y que es definida por un segundo conjunto de parámetros; formar un vector de aspecto de los conjuntos de parámetros primero y segundo; comparar el vector de aspecto con una pluralidad de vectores de plantilla, cada uno representando una diferente clase de objetos, para determinar las probabilidades de que el objeto caiga dentro de cada clase; y clasificar el objeto en respuesta a las probabilidades.
  2. 2. El método definido en la reivindicación 1, donde la comparación del vector de aspecto con la pluralidad de vectores de plantilla utiliza una función de clasificación Bayesiana.
  3. 3. El método definido en la reivindicación 1, comprendiendo además clasificar el objeto (20) en una case de objetos dada cuando ninguna de las probabilidades excede de un valor predeterminado.
  4. 4. El método definido en la reivindicación 1, donde la primera forma geométrica (64) y la segunda forma geométrica (66) son ambas elipses.
  5. 5. El método definido en la reivindicación 4, donde el primer conjunto de parámetros y el segundo conjunto de parámetros comprenden, cada uno, una ubicación de un centro, una longitud del eje mayor, una longitud del eje menor, y una cantidad de rotación para la elipse respectiva.
  6. 6. El método definido en la reivindicación 1, donde segmentar el objeto (20) comprende definir una porción del objeto en un lado de una línea de demarcación (62¡ en la imagen como el primer segmento, y definir otra porción del objeto en otro lado de la línea de demarcación como el segundo segmento.
  7. 7. El método definido en la reivindicación 6, comprendiendo además pre-definir la línea de demarcación (62) para uso con todas las imágenes producidas por la cámara.
  8. 8. El método definido en la reivindicación 1, comprendiendo además definir cada vector de plantilla de la pluralidad de vector de plantilla produciendo un vector de aspecto para al menos un objeto ejemplar en una clase respectiva de ob etos .
  9. 9. El método definido en la reivindicación 1, donde clasificar el objeto comprende determinar si el objeto (20) es una persona adulta, un niño o un asiento para infantes.
  10. 10. El método definido en la reivindicación 9, donde clasificar el objeto (20) comprende además determinar si el asiento para infantes está mirando hacia adelante o atrás en el vehículo de motor.
  11. 11. El método definido en la reivindicación 1, comprendiendo además controlar un mecanismo en el vehículo de motor (10) en respuesta a clasificar el objeto.
  12. 12. El método definido en la reivindicación 1, comprendiendo además controlar una bolsa de aire (24) en el vehículo de motor en respuesta a clasificar el objeto.
  13. 13. Un método para clasificar un objeto que está presente en un asiento (16) de un vehículo de motor y controlar una bolsa de aire (24) en respuesta a la clasificación, ese método comprendiendo: adquirir una imagen de un interior del vehículo de motor; extraer una porción de la imagen que corresponde a un objeto (20) en el asiento (16); dividir el objeto en un primer segmento y un segundo segmento ; encerrar sustancialmente el segundo segmento con una segunda elipse (66) que tiene una forma especificada por un segundo conjunto de parámetros; formar un vector de aspecto a partir de los conjuntos de parámetros primero y segundo; comparar el vector de aspecto con una pluralidad de vectores de plantilla representando diferentes clases de objetos para determinar probabilidades de que el objeto caiga dentro de cada clase; clasificar el objeto (20) en una de las diferentes clases de objetos en respuesta a las probabilidades; y controlar la operación de la bolsa de aire (24) en respuesta a clasificar el objeto (20) .
  14. 14. El método definido en la reivindicación 13, donde la pluralidad de vectores de plantilla representan a una persona adulta, un niño, y un asiento para infantes.
  15. 15. El método definido en la reivindicación 13, donde la pluralidad de vectores de plantilla representan a una persona adulta, un niño, un asiento para infantes que mira hacia adelante y un asiento para infantes que mira hacia atrás.
  16. 16. El método definido en la reivindicación 13, donde extraer una porción de la imagen que corresponde a un objeto comprende crear una silueta del objeto (20) .
  17. 17. El método definido en la reivindicación 13, donde el primer conjunto de parámetros y el segundo conjunto de parámetros comprenden, cada uno, una ubicación de un centro, una longitud del eje mayor, una longitud del eje menor, y un ángulo de rotación para la elipse respectiva.
  18. 18. El método definido en la reivindicación 13, comprendiendo además pre-definir la línea de demarcación (62) dentro de todas las imágenes producidas por la cámara; y donde dividir el objeto define el primer segmento como una porción del objeto en un lado de una línea de demarcación, y define el segundo segmento como una porción del objeto en otro lado de una línea de demarcación.
  19. 19. El método definido en la reivindicación 12, comprendiendo además definir cada vector de plantilla de la pluralidad de vectores de plantilla produciendo un vector de aspecto de al menos un objeto ejemplar en una clase respectiva de obj etos .
  20. 20. El método definido en la reivindicación 1, comprendiendo además clasificar el objeto en una clase de objetos dada cuando ninguna de las probabilidades excede un valor predeterminado .
MXPA02003895A 2001-04-18 2002-04-18 Sistema de deteccion de ocupantes de vehiculo de motor que emplea modelos en forma de elipse y clasificacion bayesiana. MXPA02003895A (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US09/837,012 US6493620B2 (en) 2001-04-18 2001-04-18 Motor vehicle occupant detection system employing ellipse shape models and bayesian classification

Publications (1)

Publication Number Publication Date
MXPA02003895A true MXPA02003895A (es) 2003-07-14

Family

ID=25273258

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA02003895A MXPA02003895A (es) 2001-04-18 2002-04-18 Sistema de deteccion de ocupantes de vehiculo de motor que emplea modelos en forma de elipse y clasificacion bayesiana.

Country Status (7)

Country Link
US (1) US6493620B2 (es)
EP (1) EP1251465A3 (es)
JP (1) JP2003040016A (es)
AU (1) AU784215B2 (es)
BR (1) BR0201532A (es)
CA (1) CA2381915A1 (es)
MX (1) MXPA02003895A (es)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7889133B2 (en) * 1999-03-05 2011-02-15 Itt Manufacturing Enterprises, Inc. Multilateration enhancements for noise and operations management
US20050129274A1 (en) * 2001-05-30 2005-06-16 Farmer Michael E. Motion-based segmentor detecting vehicle occupants using optical flow method to remove effects of illumination
US20080131004A1 (en) * 2003-07-14 2008-06-05 Farmer Michael E System or method for segmenting images
US6856694B2 (en) * 2001-07-10 2005-02-15 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
DE10301468B4 (de) 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
JP2004252603A (ja) * 2003-02-18 2004-09-09 Canon Inc 三次元データ処理方法
EP1597699A2 (en) * 2003-02-20 2005-11-23 Intelligent Mechatronic Systems, Inc. Adaptive visual occupant detection and classification system
US20040220705A1 (en) * 2003-03-13 2004-11-04 Otman Basir Visual classification and posture estimation of multiple vehicle occupants
US7193209B2 (en) * 2003-04-17 2007-03-20 Eaton Corporation Method for distinguishing objects in a video image by using infrared reflective material
US7111869B2 (en) * 2003-07-22 2006-09-26 Trw Automotive U.S. Llc Apparatus and method for controlling an occupant protection system in response to determined passenger compartment occupancy information
US7049947B2 (en) * 2003-09-29 2006-05-23 Nattel Group, Inc. System and method for monitoring the operational condition of a motor vehicle
US7142959B2 (en) * 2003-10-30 2006-11-28 General Motors Corporation Providing status data for vehicle maintenance
US20050165538A1 (en) * 2004-01-28 2005-07-28 Aisin Seiki Kabushiki Kaisha Load-detecting device for an object on a seat
US20050179239A1 (en) * 2004-02-13 2005-08-18 Farmer Michael E. Imaging sensor placement in an airbag deployment system
US20060056657A1 (en) * 2004-02-13 2006-03-16 Joel Hooper Single image sensor positioning method and apparatus in a multiple function vehicle protection control system
US20060050953A1 (en) * 2004-06-18 2006-03-09 Farmer Michael E Pattern recognition method and apparatus for feature selection and object classification
US20060030988A1 (en) * 2004-06-18 2006-02-09 Farmer Michael E Vehicle occupant classification method and apparatus for use in a vision-based sensing system
US7466860B2 (en) * 2004-08-27 2008-12-16 Sarnoff Corporation Method and apparatus for classifying an object
US7283901B2 (en) * 2005-01-13 2007-10-16 Trw Automotive U.S. Llc Controller system for a vehicle occupant protection device
JP2007022401A (ja) * 2005-07-19 2007-02-01 Takata Corp 乗員情報検出システム、乗員拘束装置、車両
US9269265B2 (en) 2005-11-29 2016-02-23 Google Technology Holdings LLC System and method for providing content to vehicles in exchange for vehicle information
US20070120697A1 (en) * 2005-11-29 2007-05-31 Ayoub Ramy P Method and device for determining a location and orientation of a device in a vehicle
US20070124045A1 (en) * 2005-11-29 2007-05-31 Ayoub Ramy P System and method for controlling the processing of content based on zones in vehicles
US20070124044A1 (en) * 2005-11-29 2007-05-31 Ayoub Ramy P System and method for controlling the processing of content based on vehicle conditions
US20070124043A1 (en) * 2005-11-29 2007-05-31 Ayoub Ramy P System and method for modifying the processing of content in vehicles based on vehicle conditions
US20070127824A1 (en) * 2005-12-07 2007-06-07 Trw Automotive U.S. Llc Method and apparatus for classifying a vehicle occupant via a non-parametric learning algorithm
KR100815160B1 (ko) * 2005-12-08 2008-03-19 한국전자통신연구원 베이시안 호프 변환을 이용한 선형 특징 추출 장치 및 그방법
JP5041458B2 (ja) * 2006-02-09 2012-10-03 本田技研工業株式会社 三次元物体を検出する装置
US20080123959A1 (en) * 2006-06-26 2008-05-29 Ratner Edward R Computer-implemented method for automated object recognition and classification in scenes using segment-based object extraction
US20080059027A1 (en) * 2006-08-31 2008-03-06 Farmer Michael E Methods and apparatus for classification of occupancy using wavelet transforms
US20080112593A1 (en) * 2006-11-03 2008-05-15 Ratner Edward R Automated method and apparatus for robust image object recognition and/or classification using multiple temporal views
JP2008129948A (ja) * 2006-11-22 2008-06-05 Takata Corp 乗員検出装置、作動装置制御システム、シートベルトシステム、車両
JP2008261749A (ja) * 2007-04-12 2008-10-30 Takata Corp 乗員検出装置、作動装置制御システム、シートベルトシステム、車両
US8335382B2 (en) * 2007-05-18 2012-12-18 The Boeing Company Method and system for applying silhouette tracking to determine attitude of partially occluded objects
US8360051B2 (en) * 2007-11-12 2013-01-29 Brightsource Industries (Israel) Ltd. Solar receiver with energy flux measurement and control
JP2010195139A (ja) * 2009-02-24 2010-09-09 Takata Corp 乗員拘束制御装置および乗員拘束制御方法
JP5453229B2 (ja) * 2010-12-15 2014-03-26 本田技研工業株式会社 乗員判別装置、及び、乗員判別方法
WO2013097166A1 (en) 2011-12-30 2013-07-04 Intel Corporation Object detection using motion estimation
US9594942B2 (en) 2012-10-11 2017-03-14 Open Text Corporation Using a probabilistic model for detecting an object in visual data
JP2013252863A (ja) * 2013-09-27 2013-12-19 Takata Corp 乗員拘束制御装置および乗員拘束制御方法
US9541507B2 (en) 2014-08-26 2017-01-10 Northrop Grumman Systems Corporation Color-based foreign object detection system
US9384396B2 (en) * 2014-09-29 2016-07-05 Xerox Corporation System and method for detecting settle down time using computer vision techniques
KR101774692B1 (ko) * 2016-05-16 2017-09-04 현대자동차주식회사 에어백 제어 장치 및 방법
KR20210077858A (ko) * 2019-12-17 2021-06-28 현대자동차주식회사 베이비 모드에 따른 차량 주행제어 방법 및 장치

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6039139A (en) 1992-05-05 2000-03-21 Automotive Technologies International, Inc. Method and system for optimizing comfort of an occupant
US4843463A (en) 1988-05-23 1989-06-27 Michetti Joseph A Land vehicle mounted audio-visual trip recorder
US5193124A (en) 1989-06-29 1993-03-09 The Research Foundation Of State University Of New York Computational methods and electronic camera apparatus for determining distance of objects, rapid autofocusing, and obtaining improved focus images
JP2605922B2 (ja) * 1990-04-18 1997-04-30 日産自動車株式会社 車両用安全装置
US5835613A (en) 1992-05-05 1998-11-10 Automotive Technologies International, Inc. Optical identification and monitoring system using pattern recognition for use with vehicles
US5670935A (en) 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
DE4492128T1 (de) 1993-03-31 1996-06-27 Automotive Tech Int Positions- und Geschwindigkeitssensor für Fahrzeuginsassen
JP3522317B2 (ja) 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
US5914610A (en) 1994-02-03 1999-06-22 Massachusetts Institute Of Technology Apparatus and method for characterizing movement of a mass within a defined space
US5740266A (en) 1994-04-15 1998-04-14 Base Ten Systems, Inc. Image processing system and method
US5901978A (en) 1994-05-09 1999-05-11 Automotive Technologies International, Inc. Method and apparatus for detecting the presence of a child seat
US5559695A (en) * 1994-12-27 1996-09-24 Hughes Aircraft Company Apparatus and method for self-calibrating visual time-to-contact sensor
US5668675A (en) * 1995-01-18 1997-09-16 Fredricks; Ronald J. Opto-electronic aid for alignment of exterior vehicle mirrors to minimize blind spot effects
US5528698A (en) * 1995-03-27 1996-06-18 Rockwell International Corporation Automotive occupant sensing device
US5770997A (en) 1995-06-26 1998-06-23 Alliedsignal Inc. Vehicle occupant sensing system
US6023535A (en) * 1995-08-31 2000-02-08 Ricoh Company, Ltd. Methods and systems for reproducing a high resolution image from sample data
CA2190674A1 (en) 1995-12-27 1997-06-28 Alexander George Dickinson Inflatable restraint system including an optical image sensor
US5871232A (en) 1997-01-17 1999-02-16 Automotive Systems, Laboratory, Inc. Occupant position sensing system
US5983147A (en) 1997-02-06 1999-11-09 Sandia Corporation Video occupant detection and classification
US6116640A (en) 1997-04-01 2000-09-12 Fuji Electric Co., Ltd. Apparatus for detecting occupant's posture
JP3337197B2 (ja) * 1997-04-04 2002-10-21 富士重工業株式会社 車外監視装置
US6005958A (en) 1997-04-23 1999-12-21 Automotive Systems Laboratory, Inc. Occupant type and position detection system
US5930379A (en) 1997-06-16 1999-07-27 Digital Equipment Corporation Method for detecting human body motion in frames of a video sequence
US5926568A (en) 1997-06-30 1999-07-20 The University Of North Carolina At Chapel Hill Image object matching using core analysis and deformable shape loci
JP3286219B2 (ja) * 1997-09-11 2002-05-27 トヨタ自動車株式会社 座席の使用状況判定装置
US6215518B1 (en) * 1998-07-22 2001-04-10 D. Scott Watkins Headrest and seat video imaging apparatus
EP1049046A1 (de) * 1999-04-23 2000-11-02 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Ermittlung der Position eines Objektes innerhalb einer Szene

Also Published As

Publication number Publication date
AU784215B2 (en) 2006-02-23
AU3437102A (en) 2002-10-24
US20020169532A1 (en) 2002-11-14
EP1251465A2 (en) 2002-10-23
US6493620B2 (en) 2002-12-10
BR0201532A (pt) 2003-01-07
JP2003040016A (ja) 2003-02-13
CA2381915A1 (en) 2002-10-18
EP1251465A3 (en) 2006-09-13

Similar Documents

Publication Publication Date Title
US6493620B2 (en) Motor vehicle occupant detection system employing ellipse shape models and bayesian classification
US6757009B1 (en) Apparatus for detecting the presence of an occupant in a motor vehicle
CN113147664B (zh) 检测车辆中是否使用了安全带的方法和系统
US7472007B2 (en) Method of classifying vehicle occupants
CN113556975A (zh) 检测车辆中的对象并获得对象信息的系统、装置和方法
US7505841B2 (en) Vision-based occupant classification method and system for controlling airbag deployment in a vehicle restraint system
US20040220705A1 (en) Visual classification and posture estimation of multiple vehicle occupants
CN113459982B (zh) 用于乘员分类和基于此调节气囊展开的系统和方法
US20210001796A1 (en) Physique estimation device and physique estimation method
WO2002030717A1 (en) Object detection system and method
JP2002513358A (ja) 搭乗者タイプと位置検出システム
US7308349B2 (en) Method of operation for a vision-based occupant classification system
US8560179B2 (en) Adaptive visual occupant detection and classification system
EP3581440A1 (en) Method and system for controlling a state of an occupant protection feature for a vehicle
EP1655688A2 (en) Object classification method utilizing wavelet signatures of a monocular video image
JP2013252863A (ja) 乗員拘束制御装置および乗員拘束制御方法
US7193209B2 (en) Method for distinguishing objects in a video image by using infrared reflective material
CN114475511A (zh) 基于视觉的气囊启动
JP2004534343A (ja) 所定の領域内の人間の実際位置を識別するための方法及び装置並びに方法及び/又は装置の使用
US20230264674A1 (en) Passenger compartment mapping and control
JP2018156212A (ja) 体格判定装置、体格判定方法およびプログラム

Legal Events

Date Code Title Description
FG Grant or registration