MXPA03009269A - Etiquetado de ocupante para aplicaciones relacionadas con bolsas de aire. - Google Patents

Etiquetado de ocupante para aplicaciones relacionadas con bolsas de aire.

Info

Publication number
MXPA03009269A
MXPA03009269A MXPA03009269A MXPA03009269A MXPA03009269A MX PA03009269 A MXPA03009269 A MX PA03009269A MX PA03009269 A MXPA03009269 A MX PA03009269A MX PA03009269 A MXPA03009269 A MX PA03009269A MX PA03009269 A MXPA03009269 A MX PA03009269A
Authority
MX
Mexico
Prior art keywords
occupant
torso
upper torso
image
metric
Prior art date
Application number
MXPA03009269A
Other languages
English (en)
Inventor
M Slicker James
Original Assignee
Eaton Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eaton Corp filed Critical Eaton Corp
Publication of MXPA03009269A publication Critical patent/MXPA03009269A/es

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01542Passenger detection systems detecting passenger motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/02Occupant safety arrangements or fittings, e.g. crash pads
    • B60R21/16Inflatable occupant restraints or confinements designed to inflate upon impact or impending impact, e.g. air bags
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01556Child-seat detection systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01558Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use monitoring crash strength
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/24765Rule-based classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/003Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks characterised by occupant or pedestian
    • B60R2021/0039Body parts of the occupant or pedestrian affected by the accident
    • B60R2021/0044Chest
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R2021/01315Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over monitoring occupant displacement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Air Bags (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Se divulga una invencion para dividir una imagen segmentada de un ocupante en una imagen de torso superior y una imagen de torso inferior. Una heuristica de etiquetado de ocupante puede identificar cada pixel dentro de la imagen segmentada como un pixel de torso superior o un pixel de torso inferior. Un modulo de k-medios puede proveer una clasificacion de pixel inicial comparando la distancia entre el pixel particular y un punto medio estimado en el torso superior con la distancia entre el pixel particular y un punto medio estimado en el torso inferior. El estimador de parametros iterativo puede actualizar los valores medios para el torso superior y el torso inferior llevando a cabo una heuristica de factibilidad condicional. Los pixeles pueden entonces ser clasificados ya sea como pixeles de torso superior o de torso inferior, comparando una distancia de Mahalanobis para cada torso. Las aplicaciones relacionadas con bolsas de aire pueden entonces usar la imagen de torso superior para generar caracteristicas de ocupante relevantes a las aplicaciones relacionadas con bolsas de aire.

Description

ETIQUETADO DE OCUPANTE PARA. APLICACIONES RELACIONADAS CON BOLSAS DE AIRE Antecedentes de la Invención La presente invención se refiere en general a sistemas o métodos relativos al despliegue de bolsas de aire. En particular, la presente invención se refiere a identificar el torso superior de un ocupante de modo que las características relativas al torso superior del ocupante puedan servir como la base para tomar decisiones relativas al despliegue potencial de una bolsa de aire. Los sistemas convencionales de detección de colisiones típicamente usan acelerómetros o sensores a base de peso para determinar si ha habido una colisión del vehículo para disparar el despliegue de una bolsa de aire. Tales sistemas están sujetos a falsas alarmas a partir de condiciones severas del camino, tal como el patinado del vehículo en hielo que luego llega a una cuneta, e impactos menores, tales como el golpe accidental de un bloque de estacionamiento al entrar a un estacionamiento. Sería deseable que un sistema de despliegue de bolsas de aire estuviese basado en las características del ocupante derivadas de una imagen del ocupante debido a que la imagen de un ocupante puede ser menos susceptible a errores ocasionados por un movimiento o peso que se desplazan rápidamente.
Los sistemas de despliegue de bolsas de aire deben llevar a cabo sus funciones en un ambiente en tiempo real. Incluso una cámara estándar de video puede capturar tantas como 100 imágenes en un solo segundo. De esta manera, el proceso de capturar una lectura o imagen de sensor hasta la toma de una decisión de despliegue debe llevarse a cabo en una manera pronta y confiable. Puede ser deseable que el procesamiento de imágenes relacionadas con bolsas de aire se enfoque en el torso superior del ocupante. En la mayoría de las situaciones de despliegue de bolsas de aire, la parte del ocupante que exhibe la mayor parte del movimiento es el torso superior del ocupante. El movimiento del torso superior domina incluso en situaciones donde no se restringe a un ocupante por medio de un cinturón de seguridad, con la cabeza moviéndose hacia adelante en forma rápida al girar el torso superior hacia adelante a lo largo de la cadera. Dadas las limitaciones de tiempo, los sistemas de despliegue de bolsas de aire deben ser robustos para facilitar un procesamiento confiable. A fin de facilitar la resistencia a procesar "ruido", sería deseable que el proceso de identificar la imagen del torso superior del ocupante incorpore procesamiento iterativo y un análisis ponderado en probabilidades. Puede también ser deseable que se incorporen en ciertas suposiciones realizadas en diversos puntos en el proceso de identificar la imagen del torso superior datos antropomórficos así como información relativa al vehículo, o a través de todo el proceso - J -de capturar imágenes mediante la generación de decisiones de despliegue . Compendio de la Invención Esta invención se refiere a un sistema y un método de determinar qué pixeles en la imagen segmentada del ocupante representan la imagen del torso superior del ocupante. Las características del torso superior del ocupante pueden ser usadas en muchas maneras diferentes mediante aplicaciones relacionadas con el despliegue de bolsas de aire (v.gr., aplicaciones relacionadas con bolsas de aire) . La captura de las características del torso superior puede ser facilitada aislando la imagen del torso superior de un ocupante a partir de una imagen del ocupante que incluye al torso inferior. El sistema puede usar datos antropomórficos, datos específicos al vehículo, cálculos previos de punto medio, y otros medios para crear estimados iniciales para los puntos medios del torso superior y el torso inferior. Puede entonces usarse un módulo k-métrico para actualizar esos estimados implementando una heurística que compara la distancia en pixeles de diversos pixeles a los puntos medios del torso superior y el torso inferior . Puede entonces usarse un estimador de parámetros para refinar adicionalmente los puntos medios actualizados para el torso superior y el torso inferior. En una forma de realización preferida, el estimador de parámetros procesa iterativamente usando una o mas diferentes heurísticas matemáticas que incorporan probabilidades en el análisis. Los puntos medios finales para una imagen segmentada particular pueden ser usados para calcular una distancia de Mahalanobis entre un pixel particular y los puntos medios para los torsos superior e inferior. Si la distancia de Mahalanobis del torso superior es menor que la distancia de Mahalanobis del torso inferior para un pixel particular, entonces ese pixel particular puede ser identificado como un pixel de torso superior . Diversos aspectos de la invención serán evidentes a los técnicos en la materia a partir de la siguiente descripción detallada de la forma de realización preferida, cuando se lee a la luz de los dibujos acompañantes. Breve Descripción de los Dibujos La figura 1 muestra un e emplo de una vista parcial del ambiente circundante para una forma de realización potencial del sistema . La figura 2 muestra un ejemplo de un flujo de proceso de alto nivel de un sistema de rastreo y despliegue que puede incorporar la funcionalidad de un sistema de etiquetado de ocupante . La figura 3 muestra un diagrama de flujo de proceso que ilustra un ejemplo de cómo puede capturarse una imagen de torso superior a partir de una imagen segmentada de un ocupante.
La figura 4 es un diagrama detallado de flujo de proceso que ilustra un ejemplo de una heurística de etiquetado de ocupante . La figura 5 es un diagrama que ilustra un ejemplo de una imagen segmentada que incluye un torso superior y un torso inferior . La figura 6 es un diagrama que ilustra un ejemplo de una imagen de torso superior que ha sido aislada de la imagen del torso inferior de una imagen de ocupante segmentada. La figura 7 es un diagrama que ilustra un ejemplo de una imagen del torso inferior que ha sido removida de la imagen segmentada del ocupante a fin de facilitar la identificación de una imagen de torso superior. Descripción Detallada de una Forma de Realización Preferida A. Vista Parcial del Ambiente Circundante Haciendo ahora referencia a los dibujos, se ilustra en la figura 1 una vista parcial del ambiente circundante para potencialmente muchas formas de realización diferentes de un sistema de segmentación de imágenes 16. Si está presente un ocupante 18, el ocupante 18 puede sentarse en un asiento 20. En una forma de realización preferida, una cámara o cualquier otro sensor capaz de capturar imágenes (colectivamente, la "cámara") puede colocarse en un forro de techo 24, sobre el ocupante 18 y mas cerca a un parabrisas delantero 26 que al ocupante 18. La cámara 22 puede ser una cámara de video estándar, pero para fines de detección de impactos, puede preferirse una cámara de alta velocidad 22 capaz de capturar entre 250 y 1,000 cuadros por segundo. La cámara 22 debe de preferencia colocarse a un ángulo ligeramente hacia abajo hacia el ocupante 18 a fin de capturar cambios en el ángulo del torso superior del ocupante 18 que son resultado de movimiento hacia adelante o atrás en el asiento 20. Hay muchos lugares potenciales para una cámara 22 que pueden incorporarse en el sistema 16. De manera similar, un computador 30 puede colocarse virtualmente en cualquier lugar en un vehículo. En una forma de realización preferida, el computador 30 está ubicado cerca de la cámara 22 para evitar enviar imágenes de la cámara a través de cables largos. Un controlador de bolsas de aire 32 es mostrado en un panel de instrumentos 34, aunque el controlador de bolsas de aire puede estar ubicado virtualmente en cualquier lugar en el vehículo. Un sistema' de despliegue de bolsas de aire 36 es mostrado en el panel de instrumentos 34 en frente del ocupante 18 y el asiento 20, aunque el sistema 16 puede funcionar con el sistema de despliegue de bolsas de aire 36 en lugares alternativos. II. Flujo de Proceso de Alto Nivel para Despliegue de Bolsas de Aire La figura 2 divulga un diagrama de flujo de proceso de alto nivel relativo al uso del sistema 16 en el contexto del procesamiento global relacionado con bolsas de aire. Una imagen de video entrante (¾imagen ambiental") 38 de un área de asiento 21 incluye tanto al ocupante 18 como imágenes del área de asiento 21 que rodea al ocupante 18. La imagen de video entrante 38 es capturada por la cámara 22 o cualquier otro sensor capaz de capturar rápidamente una serie de imágenes. En la figura, el área de asiento 21 incluye a todo el ocupante 18, aunque bajo ciertas circunstancias y formas de realización, solamente una porción de la imagen del ocupante 18 será capturada, particularmente si la cámara 22 está colocada en un lugar donde pueden no observarse las extremidades inferiores. La imagen ambiental 38 es enviada al computador 30. Muchas funciones en el proceso de despliegue de bolsas de aire pueden ser llevadas a cabo en uno o mas computadores 30. El computador 30 puede ser usado para aislar una imagen segmentada del ocupante 18 de la imagen ambiental 38 del área de asiento que incluye tanto al ocupante 18 como al área que circunda al ocupante 18. El proceso de identificar los pixeles entro de la imagen segmentada que representan el torso superior del ocupante 18 puede alojarse en el computador 30. El proceso de extraer características de ocupante del torso superior puede llevarse a cabo dentro del computador. Pueden también usarse uno o mas computadores diferentes para: rastrear y predecir características del ocupante; determinar si ha ocurrido un incidente que requiere el despliegue de una bolsa de aire; determinar si el ocupante está demasiado cerca del sistema de despliegue de bolsas de aire para que sea deseable un despliegue (por ejemplo, si la cabeza o el torso superior del ocupante estarían dentro de una zona de riesgo predeterminada (ARZ) en el momento del despliegue) ; calcular la intensidad deseada de la bolsa de aire que se despliega; y cualquier otro proceso o análisis relativo al despliegue de una bolsa de aire. El computador 30 puede ser cualquier dispositivo capaz de correr un programa de computador o alguna otra forma de lógica estructurada. Dependiendo de los resultados del procesamiento llevado a cabo por el computador 30, pueden enviarse las instrucciones apropiadas al controlador de bolsa de aire 32 para implementación por medio del sistema de despliegue de bolsas de aire 36. C. Flujo de Proceso Detallado de Bolsa de Aire La figura 3 muestra un flujo de proceso que ilustra un ejemplo de un flujo de proceso a partir de capturar una imagen ambiental 38 a través del análisis de despliegue de bolsas de aire llevado a cabo por el controlador de bolsas de aire 32. Cada imagen ambiental 38 capturada por la cámara 22 puede ser procesada por un segmentador de imágenes 40. El segmentador de imágenes aisla los pixeles en la imagen ambiental 38 que representan al ocupante 18 de modo que una imagen segmentada 42 que representa solamente al ocupante 18 puede ser creada y pasada para procesamiento subsecuente. La imagen segmentada 42 es una entrada para un clasificador de tipo de ocupante ("clasificador de ocupante") 44. El clasificador de ocupante 44 puede ser configurado para clasificar la imagen segmentada 42 del ocupante 18 en uno de varios tipos de clasificación de ocupante pre-definidos . En una forma de realización preferida, el sistema 16 puede distinguir entre los siguientes tipos de clasificación de ocupante: adulto, niño, vacio, asiento para infante que mira hacia atrás, asiento para infante que mira hacia adelante, y objeto misceláneo. Los clasificadores de ocupante 44 pueden usar un árbol jerárquico de características relevantes para identificar la clasificación correcta de tipo de ocupante 46 del ocupante. En una forma de realización preferida, el sistema de despliegue de bolsas de aire 36 impide el despliegue de la bolsa de aire si el ocupante 18 es clasificado como perteneciente a un cierto tipo de clasificación 46. En el ejemplo de la figura 3, la bolsa de aire puede ser desplegada solamente si el ocupante 18 es clasificado como un adulto. Formas de realización alternativas pueden incorporar una amplia variedad de diferentes reglas de despliegue para diversos tipos de clasificación 46. Regresando al ejemplo de la figura 3, si el ocupante 18 no es clasificado como un adulto en 50, el proceso puede terminar respecto de esa imagen ambiental 38 particular. La captura de la siguiente imagen ambiental 38 puede re-iniciar el proceso desde el comienzo . Si el tipo de clasificación de ocupante 46 en 50 es un tipo para el cual puede necesitar desplegar una bolsa de aire, un módulo de etiquetado de ocupante 52 puede tomar tanto la imagen segmentada 42 como la clasificación de tipo de ocupante 46 como entradas. En formas de realización alternativas, el clasificador de ocupante 44 está ausente, y el módulo de etiquetado de ocupante 52 no tiene el beneficio de un tipo de clasificación de ocupante 46. El módulo de etiquetado de ocupante 52 . genera una imagen de cabeza y torso 54, que puede también ser referida como la imagen de torso superior 54. En una forma de realización preferida, el torso superior 54 corre de las cadenas hacia arriba, a través de e incluyendo la cabeza del ocupante 18. En consecuencia, el torso inferior corre hacia abajo desde las caderas del ocupante 18. En formas de realización alternativas, los torsos superior e inferior pueden ser divididos de manera diferente. En formas de realización alternativas, la imagen segmentada 42 del ocupante 18 puede ser dividida en tres o mas secciones . En una forma de realización preferida, el torso superior 54 es entonces enviado al rastreador de ocupante 56. El rastreador de ocupante 56 captura características de ocupante relevantes a partir de la información pasada del módulo de etiquetado de ocupante 52. Las características usadas por el rastreador de ocupante 56 pueden incluir tanto características medidas como características derivadas de las características medidas (características derivadas) . Las características relevantes del ocupante 18 pueden incluir posición, velocidad, aceleración, ángulos de inclinación, anchura, altura, la ubicación de un centroide, y cualesquiera otras características potencialmente relevantes. En una forma de realización preferida, el rastreador de ocupante 56 es un rastreador y predictor de ocupante, utilizando modelos de formas y movimientos múltiples e integrando filtros de Kalman múltiples en un análisis ponderado en probabilidades para hacer predicciones de características futuras del ocupante 18. D. Heurística de Etiquetado de Ocupante La figura 4 es un flujo de proceso detallado de un ejemplo de la heurística de etiquetado de ocupante. En una forma de realización preferida, las entradas a la heurística de etiquetado de ocupante son la imagen segmentada 42 y una o mas suposiciones iniciales acerca de la localización del torso superior 54 (v.gr., "cabeza y torso") . Las suposiciones iniciales pueden ser información acerca del torso superior 54 que se deriva de: datos antropomórficos / datos específicos al vehículo, tales como las características relativas al asiento, el sistema 16 asumiendo que el ocupante 18 está sentado; salida pasada de la heurística de etiquetado de ocupante (tan reciente como la última medición de sensor) . Puede incorporarse en el sistema 16 una amplia variedad de heurísticas de etiquetado de ocupante diferentes. En una forma de realización preferida, la heurística de etiquetado de ocupante usa estimados relativos a los puntos medios de torso inferior (v.gr., las piernas) y el torso superior (v.gr., el ocupante 18 de la cintura hacia arriba, incluyendo la cabeza) . Las suposiciones iniciales antes descritas pueden relacionarse con las ubicaciones de los puntos medios. Los pixeles son los bloques de construcción fundamentales de las imágenes visuales, incluyendo la imagen ambiental 38, la imagen segmentada 42, y la imagen del torso superior. Una amplia variedad de operaciones matemáticas puede llevarse a cabo respecto de la relación de un pixel particular con el punto medio estimado del torso inferior. La distancia al punto medio es una relación particularmente útil, como lo es la multitud de derivaciones potenciales de distancia. El sistema 16 puede incorporar una amplia variedad de heurísticas de etiquetado de ocupante que incorporan la relación de distancia con el punto medio. El sistema 16 puede incorporar una amplia variedad de heurísticas de etiquetado de ocupante que no tienen nada que ver con la distancia al punto medio. El sistema 16 puede incorporar una amplia variedad de heurísticas de etiquetado de ocupante que no utilizan puntos medios estimados. De manera similar, una amplia variedad de variaciones de heurística puede incorporar dividir la imagen segmentada 42 en mas de dos partes; usar una amplia variedad de suposiciones iniciales diferentes; incorporar otros datos derivados tales como tipos de clasificación de ocupante 46; y virtualmente cualquier otra característica potencialmente relevante. 1. El módulo k-métrico y la heurística k-métrica En el ejemplo ilustrado en la figura 4, la imagen segmentada 42 es recibida por un módulo de k-medios 60 capaz de llevar a cabo una o mas heurísticas k-métricas diferentes. En una forma de realización preferida, las suposiciones iniciales (como se discutió antes) son también incorporadas en el procesamiento del módulo de k-medios 60. El módulo de k-medios 60 es un sub-conjunto de módulos k-métricos 60 potenciales que puede incorporarse en el procesamiento por la heurística de etiquetado de ocupante. Un módulo de k-medios 60 lleva a cabo una heurística de k-medios que utiliza los puntos medios estimados de los torsos superior e inferior estimados . Un módulo k-métrico puede usar una amplia variedad de diferentes puntos de referencia y cálculos matemáticos. La figura 5 es un ejemplo de la imagen segmentada 42 que puede ser recibida por el módulo k-métrico 60. En una forma de realización preferida, la imagen segmentada 42 es una imagen binaria. En algunas formas de realización, todos los pixeles de ocupante son un valor binario, todos los pixeles no de ocupante siendo un valor binario diferente. En formas de realización alternativas, los pixeles de frontera que dividen la imagen segmentada 42 de la imagen ambiental 38 son un valor de pixel y todos los demás pixeles tienen un valor binario diferente. Regresando a la figura 4, cada pixel en la imagen segmentada 42 del ocupante 18 puede ser convertida en un vector de coordenadas de puntos. Cada lugar de hilera-columna puede ser convertido en un par de coordenadas (x,y) . En una forma de realización de medios k del módulo k-métrico 60, el módulo k-métrico 60 clasifica cada punto (v.gr., pixel) en la imagen segmentada 42 como si estuviera en imagen_ca-beza_torso (v.gr., imagen de torso superior) o imagenjpierna (v.gr., imagen de torso inferior) de acuerdo con si el punto está mas cerca de cabeza__torso_media o pierna_media, los puntos medios respectivos de imagen_cabeza_torso e imagen_pierna . Como se discutió antes, las suposiciones iniciales para cabeza_torso_me-dia y pierna_media pueden usarse para iniciar k-medios. En procesamiento subsecuente, la siguiente iteración de la heurística de k-medios puede calcular valores para cabeza__torso_media y pierna_media por las fórmulas siguientes o similares: Ecuación 1 : cabeza_torso_media = suma (imagen_cabeza_torso) /# de puntos en imagen_cabeza_torso . Ecuación 2 : pierna_media = suma (imagenjpierna) /# de puntos en imagenjpierna La variable "cabeza_torso_media" es la estimación previa del punto medio del torso superior. En la primera iteración, tales datos pueden ser resultado de una suposición inicial. La variable "pierna_media" es la estimación previa del punto medio del torso inferior, y en la primera iteración, tales datos pueden ser resultado de una suposición inicial. En una forma de realización preferida, "suma (imagen cabeza torso)" es la suma de todas las distancias entre los pixeles en la imagen de torso superior y el punto medio estimado de la imagen de torso superior. En formas de realización alternativas, pueden usarse métricas alternativas. De manera similar, en una forma de realización preferida, "suma (pierna_imagen) " es la suma de todas las distancias entre los pixeles en la imagen del torso inferior y el punto medio estimado de la imagen del torso inferior. En formas de realización alternativas, pueden usarse métricas alternativas. El "# de puntos en imagen_cabeza_torso" es el número de pixeles en la imagen preliminar del torso superior. "# de puntos en pierna_imagen" es el número de pixeles en la imagen preliminar del torso inferior. Formas de realización alternativas pueden implementar un amplio rango de diferentes ecuaciones. 2. El módulo estimador de parámetros y heurística La media inicial de pierna (v.gr., media de torso inferior) 60, la media inicial cabeza_torso (v.gr., media del torso superior) 62, y la imagen segmentada 42 pueden entonces enviarse a un estimador de parámetros 66. En una forma de realización preferida, el estimador de parámetros 66 es un estimador de parámetros iterativo. El estimador de parámetros iterativo puede llevar a cabo las siguientes ecuaciones en una manera iterativa: Ecuación 3 : representa la probabilidad de que un pixel particular (Xk) esté en una clase particular (<¾) tal como una clase de torso superior o una clase de torso inferior, dadas las estadísticas T. Para cada clase i, µ representa el valor medio (tal como cabeza_ torso_media y pierna_media o torso_inferior_media) . El valor inicial de ?± representa la covariancia para clase i particular. La covariancia determina aproximadamente una elipse de límite del torso superior del ocupante, una forma que puede ser determinada usando datos antropomórficos . La ecuación 3 es primero resuelta usando suposiciones iniciales para T, donde ? = µ, ?. El valor inicial de µ viene de la salida de la heurística de k-medios antes discutida. La ecuación 4, la ecuación 5 y la ecuación 6 son entradas iterativas a la ecuación 3 después de que la ecuación 3 es primero resuelta usando las suposiciones iniciales. Ecuación 4 : La variable n representa el número de pixeles en la imagen segmentada 42. Ecuación 5 : Ecuación 6: En estas ecuaciones cabeza__torso_media (v.gr., media del torso superior o punto medio) y pierna_media (v.gr., media del torso inferior o punto medio) son representadas por la letra griega u¿ y las covariancias son representadas por la letra griega ?¿. ?± es la clase de cada coordenada xk en la imagen segmentada. 1 = 1, 2, y c = 2 para un problema de dos clases (las dos clases son cabeza-torso y piernas) . En formas de realización alternativas, c puede ser mayor de 2. representada la coordenada xk estando en la clase de pierna y ?2 representa xk estando en la clase de cabeza-torso.
De esta manera, la expresión (un ejemplo de un tipo de "heurística de factibilidad condicional") es la factibilidad condicional de que xk esté en la clase ?t dadas las estadísticas T. La ecuación 3 es resuelta primero usando suposiciones iniciales para T donde ? = µ, ? . La µ inicial viene de la salida de los "medios k". Se usa información antropomórfica pues el torso superior (incluyendo la cabeza) de un ser humano adulto es habitualmente de manera aproximada 2/3 de la masa global del adulto. De modo que la suposición inicial para las probabilidades a priori puede ser determinada con base en ello. Las covariancias iniciales son suposiciones educadas (v.gr., asunciones), basadas en el tamaño de la imagen segmentada y la información antropomórfica equivalente relativa a la forma general del cuerpo superior. La covariancia determina aproximadamente una elipse de límite de la cabeza y el torso del ocupante (v.gr., torso superior) y se conoce a partir de los datos antropomórficos generalmente cuál es esta forma. Como se discutió antes, hay una amplia variedad de diferentes heurísticas y ecuaciones que puede incorporarse en el estimador de parámetros 66. Las ecuaciones 3, 4, 5 y 6 pueden llevarse a cabo en una manera iterativa. Las ecuaciones pueden ser repetidas un número fijo de veces, ese número fijo siendo establecido con anticipación a la configuración del sistema 16. El número de iteraciones puede también ser determinado comparando el cambio en los valores medios con un valor de umbral de cambio significativo. El sistema 16 puede ser configurado para repetir la heurística de estimador de parámetros para una imagen segmentada 42 particular hasta que el cambio en los valores medios es menos que el valor de umbral de cambio significativo. Otras formas de realización pueden incorporar ambos enfoques, usando un valor de umbral de cambio significativo/ pero estableciendo un limite finito al número de iteraciones potenciales. La figura 6 ilustra un ejemplo de una salida de parámetros finales de cabeza_torso 70 de la heurística de estimador de parámetros. La figura 7 ilustra un ejemplo de una salida de parámetros finales de pierna 68 de la heurística de estimador de parámetros . 3. Módulo de Clasificación de Pixeles y Heurística de Clasificación de .Pixeles Regresando a la figura 4, las entradas a un módulo de clasificación de pixeles 72 son de preferencia el parámetro final cabeza_torso 70 y el parámetro final de pierna 68 de la heurística de estimador de parámetros . Las entradas deben también incluir la imagen segmentada 42 ya procesada por el módulo k-métrico 60 y el estimador de parámetros 66. El módulo de clasificación de pixeles 72 puede llevar a cabo una heurística de características de pixeles que incluye una heurística de distancia. La heurística de distancia clasifica un pixel con base en distancias desde un pixel particular a puntos de referencia (tales como puntos medios) en las diversas secciones de la imagen segmentada 42 (tales como torso superior y torso inferior) . Si la distancia al torso superior es menor para un pixel particular, entonces el pixel es clasificado como un pixel de torso superior. De manera similar, si la distancia al torso inferior es menor para un pixel particular, entonces el pixel es clasificado como un pixel de torso inferior. En el caso de un empate, el sistema 16 puede ser configurado para clasificar el pixel ya sea como un pixel de torso superior o un pixel de torso inferior. Una forma de realización preferida del sistema 16 lleva a cabo una heurística de Mahalanobis. La heurística de Mahalano-bis calcula la distancia "de Mahalanobis" de cada punto en imagen_seg a cabeza_torso_media (v.gr., punto medio del torso superior) y pierna_media (v.gr., punto medio del torso inferior) . Si la distancia de Mahalanobis de un punto (v.gr., un pixel) es menor a cabeza__torso_media (punto medio del torso superior) , entonces ese punto es clasificado como imagen_cabeza_torso (pixel de torso superior) , de otra manera el punto puede ser clasificado como imagenjpierna (pixel de torso inferior) . La distancia de Mahalanobis entre dos puntos es definida en la ecuación 7 : En la ecuación anterior, xk son los puntos en imagen_seg y µ1 y ?x son salidas del estimador de parámetros 66. El clasificador de pixeles puede de esta manera establecer cada pixel en la imagen segmentada de acuerdo con una clasificación final de la heurística de clasificación. La imagen final 54 de cabeza_torso (v.gr., torso superior) puede entonces enviarse al módulo rastreador de ocupante 56 antes descrito de modo que el sistema de despliegue de bolsas de aire 36 pueda tomar la decisión de despliegue apropiada. De acuerdo con las disposiciones de las leyes de patentes, los principios y modos de operación de esta invención han sido explicados e ilustrados en múltiples formas de realización preferidas y alternativas. Sin embargo, debe entenderse que esta invención puede ser puesta en práctica de manera distinta a la explicada e ilustrada específicamente sin apartarse de su espíritu o ámbito.

Claims (25)

  1. REIVINDICACIONES 1. Un sistema de etiquetado de ocupante para identificar el torso superior del ocupante, que comprende: un módulo k-métrico, que incluye una métrica de torso superior y una métrica de torso inferior, donde dicho módulo k-métrico provee generar dicha métrica de torso superior y dicha métrica de torso inferior; y un estimador de parámetros, incluyendo un parámetro de torso superior y un parámetro de torso inferior, donde dicho estimador de parámetros provee generar dicho parámetro de torso superior y dicho parámetro de torso inferior a partir de dicha métrica de torso superior y dicha métrica de torso inferior.
  2. 2. El sistema de etiquetado de ocupante de la reivindicación 1, donde dicho módulo de k-métrica es un módulo de k-medios, donde dicha métrica de torso superior es una media de torso superior, y donde dicha métrica de torso inferior es una media de torso inferior.
  3. 3. El sistema de etiquetado de ocupante de la reivindicación 1, comprendiendo además una imagen segmentada, donde dicho módulo de k-métrica provee generar dicha métrica de torso superior y dicha métrica de torso inferior a partir de dicha imagen segmentada.
  4. 4. El sistema de etiquetado de ocupante de la reivindicación 1, comprendiendo además una suposición inicial, donde dicho módulo de k-métrica provee generar dicha métrica de torso superior y dicha métrica de torso inferior con dicha suposición inicial .
  5. 5. El sistema de etiquetado de ocupante de la reivindicación 4, donde dicha suposición inicial está basada en una ubicación de un asiento.
  6. 6. El sistema de etiquetado de ocupante de la reivindicación 4, donde dicha suposición inicial está basada en una característica antropomórfica .
  7. 7. El sistema de etiquetado de ocupante de la reivindicación 1, donde dicho módulo de k-métrica incluye además una clasificación de ocupante, y donde dicha k-métrica genera selectivamente dicha métrica de torso superior y dicha métrica de torso inferior con dicha clasificación de ocupante.
  8. 8. El sistema de etiquetado de ocupante de la reivindicación 1, dicho estimador de parámetros incluyendo además una elipse de límite.
  9. 9. El sistema de etiquetado de ocupante de la reivindicación 1, dicho estimador de parámetros incluyendo además una distancia de Mahalanobis.
  10. 10. El sistema de etiquetado de ocupante de la reivindicación 1, donde dicho estimador de parámetros es un estimador de parámetros iterativo.
  11. 11. El sistema de etiquetado de ocupante de la reivindicación 10, donde dicho estimador de parámetros iterativo lleva a cabo un número predeterminado de iteraciones.
  12. 12. El sistema de etiquetado de ocupante de la reivindicación 10, dicho estimador de parámetros iterativo incluyendo un umbral de cambio significativo predeterminado y un cambio en valores de métrica, donde dicho estimador de parámetros iterativo cesa llevar a cabo iteraciones adicionales cuando dicho cambio en valores de métrica es excedido por dicho umbral de cambio significativo predeterminado.
  13. 13. El sistema de etiquetado de ocupante de la reivindicación 1, comprendiendo además un clasificador de pixeles y una imagen de torso superior, donde dicho clasificador de pixeles genera dicha imagen de torso superior a partir de dicho parámetro de torso superior y dicho parámetro de torso inferior.
  14. 14. Un sistema de etiquetado de ocupante para identificar el torso superior del ocupante, que comprende: un módulo de k-medios, incluyendo una imagen segmentada, una suposición inicial, una media de torso superior, y una media de torso inferior, donde dicho módulos de k-medios provee generar dicha media de torso superior y dicha media de torso inferior con dicha imagen segmentada y dicha suposición inicial; un estimador de parámetros iterativo, incluyendo un parámetro de torso superior, un parámetro de torso inferior, y una distancia de Mahalanobis, donde dicho estimador de parámetros iterativo provee generar dicho parámetro de torso superior y dicho parámetro de torso inferior con dicha distancia de Mahalanobis, dicha media de torso superior y dicha media de torso inferior; y un clasificador de pixeles, incluyendo una imagen de torso superior, donde dicho clasificador de pixeles genera dicha imagen de torso superior a partir de dicho parámetro de torso superior y dicho parámetro de torso inferior.
  15. 15. El sistema de etiquetado de ocupante de la reivindicación 14, comprendiendo además un número de iteraciones, donde dicho estimador de parámetros iterativo provee generar de manera iterativa de acuerdo con dicho número de iteraciones dicho parámetro de torso superior y dicho parámetro de torso inferior.
  16. 16. El sistema de etiquetado de ocupante de la reivindicación 15, donde dicho número de iteraciones es predeterminado y fijo.
  17. 17. El sistema de etiquetado de ocupante de la reivindicación 15, comprendiendo además un umbral de cambio y un valor medio, donde dicho número de iteraciones es determinado comparando dicho umbral de cambio con dicho valor medio.
  18. 18. Un sistema de rastreo de ocupante y despliegue de bolsas de aire, que comprende: un segmentador de imágenes, que incluye una imagen ambiental y una imagen segmentada, donde dicho segmentador de imágenes genera dicha imagen segmentada a partir de dicha imagen ambiental ; un clasificador de imágenes, que incluye una clasificación de tipo de ocupante, donde dicho clasificador de imágenes genera dicha clasificación de tipo de ocupante a partir de dicha imagen segmentada; y un etiquetador de ocupante, que incluye una imagen de torso superior y una heurística de etiquetado de ocupante, donde dicho etiquetador de ocupante genera dicha imagen de torso superior a partir de dicha imagen segmentada, dicha heurística de etiquetado de ocupante, y dicha clasificación de tipo de ocupante .
  19. 19. El sistema de rastreo de ocupante y despliegue de bolsas de aire de la reivindicación 18, comprendiendo además un sub-sistema de rastreo, donde dicho sub-sistema de rastreo incluye una característica de ocupante, y donde dicho sub-sistema de rastreo genera dicha característica de ocupante a partir de dicha imagen de torso superior .
  20. 20. El sistema de rastreo de ocupante y despliegue de bolsas de aire de la reivindicación 19, donde dicho sub-sistema de rastreo incluye además una decisión de despliegue, y donde dicho sub-sistema de rastreo genera dicha decisión de despliegue a partir de dicha característica de ocupante.
  21. 21. Un método para identificar el torso superior de un ocupante a partir de una imagen segmentada de pixeles de ocupante, que comprende: determinar la distancia de un pixel a un punto medio estimado en el torso superior; actualizar el punto medio del torso superior; e identificar selectivamente un pixel de torso superior con el punto medio estimado actualizado.
  22. 22. El método de la reivindicación 21, dicha identificación selectiva de un pixel de torso superior incluyendo calcular una distancia de Mahalanobis de torso superior entre el pixel de torso superior y un punto medio de torso superior.
  23. 23. El método de la reivindicación 22, comprendiendo además calcular una distancia de Mahalanobis de torso inferior entre un pixel de torso inferior y un punto medio de torso inferior .
  24. 24. El método de la reivindicación 23, comprendiendo además comparar dicha distancia de Mahalanobis de torso superior con dicha distancia de Mahalanobis de torso inferior.
  25. 25. El método de la reivindicación 21, donde dicha actualización del punto medio estimado incluye hacer referencia a una característica antropomórfica.
MXPA03009269A 2002-10-11 2003-10-10 Etiquetado de ocupante para aplicaciones relacionadas con bolsas de aire. MXPA03009269A (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/269,308 US6853898B2 (en) 2001-05-30 2002-10-11 Occupant labeling for airbag-related applications

Publications (1)

Publication Number Publication Date
MXPA03009269A true MXPA03009269A (es) 2005-07-01

Family

ID=32030381

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA03009269A MXPA03009269A (es) 2002-10-11 2003-10-10 Etiquetado de ocupante para aplicaciones relacionadas con bolsas de aire.

Country Status (7)

Country Link
US (1) US6853898B2 (es)
EP (1) EP1407941A2 (es)
JP (1) JP2004131078A (es)
KR (1) KR20040033255A (es)
AU (1) AU2003248426A1 (es)
BR (1) BR0303992A (es)
MX (1) MXPA03009269A (es)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7769513B2 (en) * 2002-09-03 2010-08-03 Automotive Technologies International, Inc. Image processing for vehicular applications applying edge detection technique
US7197180B2 (en) * 2001-05-30 2007-03-27 Eaton Corporation System or method for selecting classifier attribute types
US7116800B2 (en) * 2001-05-30 2006-10-03 Eaton Corporation Image segmentation system and method
US20030123704A1 (en) * 2001-05-30 2003-07-03 Eaton Corporation Motion-based image segmentor for occupant tracking
US20050129274A1 (en) * 2001-05-30 2005-06-16 Farmer Michael E. Motion-based segmentor detecting vehicle occupants using optical flow method to remove effects of illumination
US6925193B2 (en) * 2001-07-10 2005-08-02 Eaton Corporation Image processing system for dynamic suppression of airbags using multiple model likelihoods to infer three dimensional information
US6856694B2 (en) * 2001-07-10 2005-02-15 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
US20080131004A1 (en) * 2003-07-14 2008-06-05 Farmer Michael E System or method for segmenting images
US20050271280A1 (en) * 2003-07-23 2005-12-08 Farmer Michael E System or method for classifying images
US7181083B2 (en) 2003-06-09 2007-02-20 Eaton Corporation System and method for configuring an imaging tool
US7327497B2 (en) * 2002-05-14 2008-02-05 Canon Kabushiki Kaisha Image reading apparatus, control method therefor, and program
US7440885B2 (en) * 2002-06-03 2008-10-21 Broadcom Corporation Method and system for deterministic control of an emulation
US7676062B2 (en) * 2002-09-03 2010-03-09 Automotive Technologies International Inc. Image processing for vehicular applications applying image comparisons
DE10246055A1 (de) * 2002-10-02 2004-04-15 Robert Bosch Gmbh Vorrichtung zum Schutz von einem Fahrzeuginsassen
US6925403B2 (en) * 2003-09-15 2005-08-02 Eaton Corporation Method and system for calibrating a sensor
US20050065757A1 (en) * 2003-09-19 2005-03-24 White Samer R. System and method for estimating displacement of a seat-belted occupant
US6944527B2 (en) * 2003-11-07 2005-09-13 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
US20050177290A1 (en) * 2004-02-11 2005-08-11 Farmer Michael E. System or method for classifying target information captured by a sensor
US20050179239A1 (en) * 2004-02-13 2005-08-18 Farmer Michael E. Imaging sensor placement in an airbag deployment system
US20060056657A1 (en) * 2004-02-13 2006-03-16 Joel Hooper Single image sensor positioning method and apparatus in a multiple function vehicle protection control system
US20060030988A1 (en) * 2004-06-18 2006-02-09 Farmer Michael E Vehicle occupant classification method and apparatus for use in a vision-based sensing system
US20060050953A1 (en) * 2004-06-18 2006-03-09 Farmer Michael E Pattern recognition method and apparatus for feature selection and object classification
US7610127B2 (en) * 2006-03-08 2009-10-27 Delphi Technologies, Inc. Vehicle stability monitoring system and method and article of manufacture for determining vehicle stability
US20080059027A1 (en) * 2006-08-31 2008-03-06 Farmer Michael E Methods and apparatus for classification of occupancy using wavelet transforms
DE102013021812A1 (de) * 2013-12-20 2015-06-25 Audi Ag Verfahren und System zum Betreiben eines Kraftwagens
US9378421B2 (en) * 2014-09-29 2016-06-28 Xerox Corporation System and method for seat occupancy detection from ceiling mounted camera using robust adaptive threshold criteria
US10272872B2 (en) * 2016-11-30 2019-04-30 Ford Global Technologies, Llc Belt assembly allowing payout measurement
JP2019069720A (ja) * 2017-10-10 2019-05-09 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 鞍乗り型車両用情報処理装置、及び、鞍乗り型車両用情報処理方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4179696A (en) * 1977-05-24 1979-12-18 Westinghouse Electric Corp. Kalman estimator tracking system
US6324453B1 (en) * 1998-12-31 2001-11-27 Automotive Technologies International, Inc. Methods for determining the identification and position of and monitoring objects in a vehicle
JPS60152904A (ja) * 1984-01-20 1985-08-12 Nippon Denso Co Ltd 車両運転者位置認識装置
DE3803426A1 (de) * 1988-02-05 1989-08-17 Audi Ag Verfahren zur wirksamschaltung eines sicherheitssystems
US5074583A (en) * 1988-07-29 1991-12-24 Mazda Motor Corporation Air bag system for automobile
WO1990011207A1 (de) * 1989-03-20 1990-10-04 Siemens Aktiengesellschaft Steuergerät für ein insassen-rückhaltesystem und/oder -schutzsystem für fahrzeuge
JP2605922B2 (ja) * 1990-04-18 1997-04-30 日産自動車株式会社 車両用安全装置
JP2990381B2 (ja) * 1991-01-29 1999-12-13 本田技研工業株式会社 衝突判断回路
US5051751A (en) * 1991-02-12 1991-09-24 The United States Of America As Represented By The Secretary Of The Navy Method of Kalman filtering for estimating the position and velocity of a tracked object
JPH06166905A (ja) 1992-06-03 1994-06-14 Sakae Furukawa ズボン等の衣類の折り目加工材と折り目加工方法
JPH06166906A (ja) 1992-06-19 1994-06-14 Ryoju Shoji Kk ボディ−連結型ヘルメット
US5446661A (en) * 1993-04-15 1995-08-29 Automotive Systems Laboratory, Inc. Adjustable crash discrimination system with occupant position detection
US5366241A (en) * 1993-09-30 1994-11-22 Kithil Philip W Automobile air bag system
US5413378A (en) * 1993-12-02 1995-05-09 Trw Vehicle Safety Systems Inc. Method and apparatus for controlling an actuatable restraining device in response to discrete control zones
US5482314A (en) * 1994-04-12 1996-01-09 Aerojet General Corporation Automotive occupant sensor system and method of operation by sensor fusion
US5528698A (en) * 1995-03-27 1996-06-18 Rockwell International Corporation Automotive occupant sensing device
US5983147A (en) * 1997-02-06 1999-11-09 Sandia Corporation Video occupant detection and classification
US6116640A (en) * 1997-04-01 2000-09-12 Fuji Electric Co., Ltd. Apparatus for detecting occupant's posture
US6005958A (en) * 1997-04-23 1999-12-21 Automotive Systems Laboratory, Inc. Occupant type and position detection system
US6018693A (en) * 1997-09-16 2000-01-25 Trw Inc. Occupant restraint system and control method with variable occupant position boundary
US6026340A (en) * 1998-09-30 2000-02-15 The Robert Bosch Corporation Automotive occupant sensor system and method of operation by sensor fusion
US6203059B1 (en) * 1999-01-29 2001-03-20 Breed Automotive Technologies, Inc. Seat belt usage indicating system
US6801662B1 (en) 2000-10-10 2004-10-05 Hrl Laboratories, Llc Sensor fusion architecture for vision-based occupant detection
US6925193B2 (en) 2001-07-10 2005-08-02 Eaton Corporation Image processing system for dynamic suppression of airbags using multiple model likelihoods to infer three dimensional information
US6577936B2 (en) 2001-07-10 2003-06-10 Eaton Corporation Image processing system for estimating the energy transfer of an occupant into an airbag
US7116800B2 (en) 2001-05-30 2006-10-03 Eaton Corporation Image segmentation system and method
US6459974B1 (en) 2001-05-30 2002-10-01 Eaton Corporation Rules-based occupant classification system for airbag deployment
US20030123704A1 (en) 2001-05-30 2003-07-03 Eaton Corporation Motion-based image segmentor for occupant tracking
US7197180B2 (en) 2001-05-30 2007-03-27 Eaton Corporation System or method for selecting classifier attribute types
US20030133595A1 (en) 2001-05-30 2003-07-17 Eaton Corporation Motion based segmentor for occupant tracking using a hausdorf distance heuristic
US6662093B2 (en) 2001-05-30 2003-12-09 Eaton Corporation Image processing system for detecting when an airbag should be deployed

Also Published As

Publication number Publication date
KR20040033255A (ko) 2004-04-21
AU2003248426A1 (en) 2004-04-29
US6853898B2 (en) 2005-02-08
US20030135346A1 (en) 2003-07-17
EP1407941A2 (en) 2004-04-14
JP2004131078A (ja) 2004-04-30
BR0303992A (pt) 2004-09-08

Similar Documents

Publication Publication Date Title
MXPA03009269A (es) Etiquetado de ocupante para aplicaciones relacionadas con bolsas de aire.
EP1407940A2 (en) Motion-based segmentor for occupant tracking
US10192126B2 (en) Behavior recognition apparatus, learning apparatus, and method
US6662093B2 (en) Image processing system for detecting when an airbag should be deployed
EP1411474A2 (en) Motion-based segmentation for occupant tracking using a hausdorff distance heuristic
US6925193B2 (en) Image processing system for dynamic suppression of airbags using multiple model likelihoods to infer three dimensional information
CN113147664B (zh) 检测车辆中是否使用了安全带的方法和系统
Gandhi et al. Pedestrian collision avoidance systems: A survey of computer vision based recent studies
EP1786654B1 (en) Device for the detection of an object on a vehicle seat
US20050196015A1 (en) Method and apparatus for tracking head candidate locations in an actuatable occupant restraining system
US20050271280A1 (en) System or method for classifying images
US11804048B2 (en) Recognizing the movement intention of a pedestrian from camera images
US20040240706A1 (en) Method and apparatus for determining an occupant&#39; s head location in an actuatable occupant restraining system
JP2012069121A (ja) 道路使用弱者保護システム
JP2005311691A (ja) 物体検出装置及び方法
US20030079929A1 (en) Apparatus for detecting head of occupant in vehicle
Levi et al. Tracking and motion cues for rear-view pedestrian detection
Farmer et al. Smart automotive airbags: Occupant classification and tracking
US20060030988A1 (en) Vehicle occupant classification method and apparatus for use in a vision-based sensing system
JP5829155B2 (ja) 歩行者検出装置及びプログラム
CN114758326A (zh) 一种交通岗位工作行为状态实时检测系统
US20050281461A1 (en) Motion-based image segmentor
CN114360056B (zh) 开门预警方法、装置、设备及存储介质
Devarakota et al. Classification of vehicle occupants using 3D image sequences