JP2004131078A - 乗員の上部胴体を識別するための乗員ラベリングシステム、その方法、並びにそれらを使用した乗員追跡およびエアバッグ展開システム - Google Patents

乗員の上部胴体を識別するための乗員ラベリングシステム、その方法、並びにそれらを使用した乗員追跡およびエアバッグ展開システム Download PDF

Info

Publication number
JP2004131078A
JP2004131078A JP2003352239A JP2003352239A JP2004131078A JP 2004131078 A JP2004131078 A JP 2004131078A JP 2003352239 A JP2003352239 A JP 2003352239A JP 2003352239 A JP2003352239 A JP 2003352239A JP 2004131078 A JP2004131078 A JP 2004131078A
Authority
JP
Japan
Prior art keywords
occupant
torso
image
upper torso
metric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003352239A
Other languages
English (en)
Inventor
Michael E Farmer
マイケル イー. ファーマー
James M Slicker
ジェームス エム. スリッカー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eaton Corp
Original Assignee
Eaton Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eaton Corp filed Critical Eaton Corp
Publication of JP2004131078A publication Critical patent/JP2004131078A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01542Passenger detection systems detecting passenger motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/02Occupant safety arrangements or fittings, e.g. crash pads
    • B60R21/16Inflatable occupant restraints or confinements designed to inflate upon impact or impending impact, e.g. air bags
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01556Child-seat detection systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01558Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use monitoring crash strength
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/24765Rule-based classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/003Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks characterised by occupant or pedestian
    • B60R2021/0039Body parts of the occupant or pedestrian affected by the accident
    • B60R2021/0044Chest
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R2021/01315Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over monitoring occupant displacement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Air Bags (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】乗員のセグメント化イメージ中の各ピクセルを、上部胴体イメージまたは下部胴体イメージとして識別する乗員ラベリングシステムおよびその識別方法を提供すること。
【解決手段】k−平均モジュール60において、ピクセルと上部胴体の推定中点との間の距離と、そのピクセルと下部胴体の推定中点との間の距離とを比較することによって、ピクセルの初期的な分類を実施する。続いて、パラメーター推定モジュール66で条件付尤度法を実施することによって、上部胴体および下部胴体の平均点(中点)を更新し、次に、ピクセル分類モジュール72において、各胴体部のマハラノビス距離を比較することによって、上部胴体または下部胴体のいずれのピクセルであるかを分類する。エアバッグに適用されるシステムにおいて、この上部胴体イメージを使用して、システムに適切な乗員特性を生成することができる。
【選択図】 図4


Description

 本発明は、一般に、エアバッグの展開に関連するシステムまたは方法に関する。特に、本発明は、乗員の上部胴体に関する特性をエアバッグの展開に関する判断のための基礎として役立てることができるように、乗員の上部胴体を識別することに関する。
 従来の衝突検知システムは、加速度計または荷重検知を主機能とするセンサを使用して、エアバッグの展開を開始すべき車両の衝突が発生したか否かを判別している。そのようなシステムでは、たとえば車両が氷結路面上を滑走して縁石に乗り上げるといった悪路条件や、駐車場に進入する際に誤って車止めに衝突するといった小さな衝撃により、誤警報が発生することがある。乗員のイメージ(画像)は、急な水平移動または荷重によって発生するエラーに対する感度を低く抑えることができるため、エアバッグ展開システムは、乗員のイメージから導出されるその乗員の特性に基づくことが望ましい。
 エアバッグ展開システムは、実時間環境においてその機能を発揮しなければならない。また、標準的なビデオカメラですら、1秒間に100フレームのイメージを取込むことができる。したがって、センサの読取りすなわちイメージの取込みから展開の判断までの処理を、迅速かつ信頼性の高い方法で実施する必要がある。エアバッグに関するイメージ処理は、乗員の上部胴体に集中することが望ましい。エアバッグが展開される大抵の状況において、最大の移動部分は、乗員の上部胴体である。乗員がシートベルトに拘束されていない状況でも、上部胴体が腰を軸として前方に回転する際に、頭部が急速に前方に移動するため、上部胴体の動きが優勢となる。
 時間的な制約の下で、信頼性の高い処理を容易にするために、エアバッグ展開システムはロバスト(robust)である必要がある。ノイズを低減する処理を容易にするために、乗員の上部胴体イメージを識別する処理には、反復処理(iterative processing)および確率的重み付けを使用した解析法(probability-weighted analysis)を組込むことが望ましい。また、上部胴体のイメージを識別する処理の様々な時点またはイメージの取込みから展開の判断までの処理の全体に渡って使用される特定の仮定には、人体ダミーのデータ(anthropomorphic data)および車両に関する情報を組込むことも望ましい。
 本発明は、セグメント化イメージにおいて、どのピクセルが乗員の上部胴体を表すのかを判別するための乗員ラベリングシステム、その方法、並びにそれらを使用した乗員追跡およびエアバッグ展開システムを提供することを目的とする。
 上記目的を達成するために、本発明に係る乗員の上部胴体を識別するための乗員ラベリングシステムは、上部胴体メトリックおよび下部胴体メトリックを含むk−メトリックモジュールと、上部胴体パラメータおよび下部胴体パラメータを含むパラメータ推定モジュールとを含み、前記k−メトリックモジュールは、前記上部胴体メトリックおよび前記下部胴体メトリックを生成し、前記パラメータ推定モジュールは、前記上部胴体メトリックおよび前記下部胴体メトリックから前記上部胴体パラメータおよび前記下部胴体パラメータを生成することを特徴とする。
 本発明の別の態様では、本発明に係る乗員の上部胴体を識別するための乗員ラベリングシステムは、セグメント化イメージ、初期推定、上部胴体の平均、および下部胴体の平均を含むk−平均モジュールと、上部胴体パラメータ、下部胴体パラメータ、およびマハラノビス距離を含む反復型パラメータ推定器と、上部胴体イメージを含むピクセル分類モジュールとを含み、前記k−平均モジュールは、前記セグメント化イメージと前記初期推定とを使用して前記上部胴体の平均および前記下部胴体の平均を生成し、前記反復型パラメータ推定器は、前記マハラノビス距離と前記上部胴体の平均および前記下部胴体の平均とを使用して、前記上部胴体パラメータおよび前記下部胴体パラメータを生成し、前記ピクセル分類モジュールは、前記上部胴体パラメータおよび前記下部胴体パラメータから前記上部胴体イメージを生成することを特徴とする。
 本発明のさらに別の態様では、本発明に係る乗員追跡およびエアバッグ展開システムは、周囲イメージおよびセグメント化イメージを含むイメージセグメント化モジュールと、乗員類型を含むイメージ分類モジュールと、上部胴体イメージおよび乗員ラベリング手法を含む乗員ラベリング手法とを含み、前記イメージセグメント化モジュールは、前記周囲イメージから前記セグメント化イメージを生成し、前記イメージ分類モジュールは、前記セグメント化イメージから前記乗員類型を生成し、前記乗員ラベリングモジュールは、前記セグメント化イメージ、前記乗員ラベリング手法、および前記乗員類型から前記上部胴体イメージを生成することを特徴とする。
 本発明のさらに別の態様では、本発明に係る乗員ピクセルのセグメント化イメージから乗員の上部胴体を識別する方法は、各ピクセルから前記上部胴体の推定中点への距離を決定するステップと、前記上部胴体の推定中点を更新するステップと、該更新された推定中点を使用して、上部胴体ピクセルを選択して識別するステップとを含むことを特徴とする。
 エアバッグ展開に適用されるシステムは、乗員の上部胴体の特性を様々な方法で使用することができる。上部胴体の特性の抽出は、下部胴体を含む乗員のイメージから上部胴体イメージを分離することによって、容易化することができる。
 この本発明に係る乗員ラベリングシステムでは、上部胴体の中点および下部胴体の中点の初期推定を作成するために、人体ダミーのデータ、車両固有のデータ、直前の中点の計算値、および他の手段を使用することができる。続いて、k−メトリック(k−metric)モジュールを使用して、様々なピクセルから上部胴体および下部胴体の中点へのピクセル単位での距離を比較する発見的手法を実行することによって、それらの推定値を更新することができる。
 続いて、パラメータ推定モジュールを使用して、上部胴体および下部胴体の更新された中点の精度をさらに高めることができる。好適な実施形態では、パラメータ推定モジュールは、解析に確率を組込んだ1つまたは複数の数学的手法を使用して、反復的に処理を実行する。
 特定のセグメント化イメージの最終的な中点を使用して、特定のピクセルと上部胴体の中点および下部胴体の中点との間のマハラノビス(Mahalanobis)距離を計算することができる。特定のピクセルに対して、その上部胴体マハラノビス距離が下部胴体マハラノビス距離よりも小さい場合、そのピクセルは上部胴体ピクセルであると識別することができる。
 本発明の様々な態様は、添付した図面を参照し、好適な実施形態についての以下の詳細な説明を読むことによって、当業者にとって明らかになるであろう。
 A. 周囲環境の部分図
 図1は、本発明の可能な一実施形態である乗員ラベリングシステム16の周囲環境を示す部分図である。乗員18が存在する場合、この乗員18はシート20に着席する。好適な実施形態では、一連のイメージを素早く取込むことができるカメラまたは他の撮像センサ(カメラと総称する)が、ルーフライナー24に取付けられており、その位置は、乗員18の上方であってかつ乗員18よりも風防ガラス26に近接した位置である。カメラ22は、標準的なビデオカメラとすることができるが、衝突検知のためには、毎秒250〜1000フレームのイメージ取込みが可能な高速度カメラ22が好ましい。カメラ22は、好ましくは乗員18に向けて僅かに下方に傾斜した角度で配置され、シート20の前後移動による乗員18の上部胴体の位置および角度の変化を捉えるものである。カメラ22をこのシステム16に組込むことが可能な場所は、他にも多数存在する。同様に、コンピュータ30は、車両のほぼ任意の位置に配置することができる。好適な実施形態では、コンピュータ30は、カメラのイメージの伝送路が長くなることを回避するために、カメラ22の近くに配置される。図1において、計器パネル34中には、エアバッグコントローラ32が示されているが、このエアバッグコントローラは車両中の任意の場所に配置することができる。また、エアバッグ展開システム36は、計器パネル34中の乗員18およびシート20の前面に示されているが、このシステム16は、エアバッグ展開システム36を他の場所に配置してもその機能を発揮するものである。
 B. エアバッグ処理の高レベル処理の流れ
 図2は、エアバッグに関する処理全体の中で、システム16の使用に関する高レベル処理の流れを示す図である。シート領域21の入力ビデオイメージ(“周囲イメージ”)38は、乗員18および乗員18を囲むシート領域21の両方のイメージを含み、カメラ22または一連のイメージを素早く取込むことができる他の任意のセンサによって取込まれる。図2において、シート領域21は、乗員18全体を含んでいるが、特に、カメラ22が下肢の見えない場所に配置されている場合、乗員18のイメージの一部のみが取込まれる状況または実施形態も存在する。この周囲イメージ38は、コンピュータ30に送信される。
 エアバッグ展開の処理における多くの機能は、1つまたは複数のコンピュータ30によって実施することができる。コンピュータ30を使用して、乗員18および乗員18を囲む領域の両方を含むシート領域の周囲イメージ38から、乗員18のセグメント化イメージを分離することができる。コンピュータ30は、乗員18の上部胴体を表すセグメント内のピクセルを識別する処理を備え、また、上部胴体から乗員の特性を抽出する処理を実施することができる。1つまたは複数の他のコンピュータを使用して、乗員の特性の追跡と予測、エアバッグの展開を要する事故が発生したか否かの判別、エアバッグ展開システムに乗員が近付き過ぎているために展開が望ましくない状況かどうか(たとえば、乗員の頭部または上部胴体が、展開時に所定の危険域(ARZ:at-risk-zone)内にないかどうか)の判別、エアバッグの望ましい展開力の計算、およびエアバッグの展開に関する他の任意の処理または解析を実行することができる。コンピュータ30は、コンピュータプログラムまたは他の形式の構造化論理を実行可能な任意の装置とすることができる。
 コンピュータ30によって実施された処理の結果に応じて、エアバッグ展開システム36の実行のための適切な指令をエアバッグコントローラ32に送信することができる。
 C. エアバッグ処理の流れの詳細
 図3は、周囲イメージ38の取込みからエアバッグコントローラ32によって実施されるエアバッグ展開解析までの処理の流れの一例を示すフローチャートである。
 カメラ22によって取込まれた各周囲イメージ38は、イメージセグメント化モジュール40によって処理することができる。イメージセグメント化モジュールは、周囲イメージ38中の乗員18を表すピクセルを分離し、それによって乗員のみを表すセグメント化イメージ42を作成して次の処理に渡すことができる。
 セグメント化イメージ42は、乗員分類モジュール44への入力となる。乗員分類モジュール44は、乗員18のセグメント化イメージ42を、いくつかの所定の乗員類型の1つに分類するように構成することができる。好ましい実施形態では、システム16は、大人、子供、無人、前向きのチャイルドシート、後ろ向きのチャイルドシート、およびその他の物体からなる乗員類型を識別可能なものである。乗員分類モジュール44は、適切な特徴の階層ツリーを使用して、乗員の正しい類型を識別することができる。
 好適な実施形態では、エアバッグ展開システム36は、乗員18が特定の類型46に属するものとして分類された場合、エアバッグの展開を防止するものである。図3に示す例では、乗員18が大人として分類された場合にのみ、エアバッグが展開され得る。別の様々な実施形態において、様々な類型46に対する多様な展開規則を組込むことも可能である。図3に示す例では、ステップ50において乗員18が大人として分類されなかった場合、この周囲イメージ38に関する処理を終了し、次の周囲イメージ38の取込みによって、再び最初からこの処理を開始することができる。
 ステップ50において、乗員類型46がエアバッグの展開が可能なタイプであった場合、乗員ラベリングモジュール52は、セグメント化イメージ42および乗員類型46の両方を入力として取得する。別の実施形態では、乗員分類モジュール44を置かず、乗員ラベリングモジュール52で乗員類型46を使用しないこともできる。
 乗員ラベリングモジュール52は、上部胴体イメージ54とも呼ばれる頭部−胴体部イメージ54を生成する。好適な実施形態では、上部胴体は、乗員18の頭部を含んで腰から上の全体に渡り、したがって、下部胴体は、乗員18の腰から下に渡るものである。別の実施形態では、上部胴体と下部胴体とを別の方法で区分化することもでき、さらに、乗員のセグメント化イメージ42を、3つまたはそれ以上の部分に区分化することもできる。
 好適な実施形態では、上部胴体イメージ54は乗員追跡モジュール56に送られる。乗員追跡モジュール56は、乗員ラベリングモジュール52から渡された情報から、乗員の適切な特性を取込むものである。乗員追跡モジュール56によって使用される特性は、測定された特性と測定された特性から導出された特性(導出特性)の両方を含むことができる。乗員18の適切な特性は、位置、速度、加速度、傾斜角度、幅、高さ、重心の位置、および可能な他の特性のうち任意の適切な特性を含むものである。好適な実施形態では、乗員追跡モジュール56は予測モジュールでもあり、複数の形態モデルおよび動作モデルを使用し、確率的重み付けを使用した解析において複数のカルマンフィルタを統合して、現時点以後の乗員18の特性を予測するものである。
 D. 乗員ラベリングの発見的手法
 図4は、乗員ラベリング手法の一例における処理の流れを示すフローチャートである。好適な実施形態では、乗員ラベリングモジュールへの入力は、セグメント化イメージ42と1つまたは複数の上部胴体イメージ54(たとえば、頭部−胴体部イメージ)の初期推定である。この初期推定は、人体ダミーのデータ、乗員18が着席していると仮定した場合のシステム16におけるシートに関する特性といった車両固有のデータ、およびこの乗員ラベリングモジュールの過去(直前のセンサ測定時)の出力から導出された上部胴体イメージ54についての情報とすることができる。
 このシステム16には、多様な乗員ラベリング手法を組込むことができる。好適な実施形態では、乗員ラベリング手法は、下部胴体(たとえば、脚部)の中点と上部胴体(たとえば、乗員18の頭部を含む腰から上の部分)の中点に関する推定を使用するものである。上述した初期推定は、これらの中点の位置に関するものとすることができる。ピクセルは、周囲イメージ38、セグメント化イメージ42、および上部胴体イメージを含むイメージの基本的な構成要素である。特定のピクセルと上部胴体の推定中点との関係、および同じ特定のピクセルと下部胴体の推定中点との関係に関して、多様な数学的演算を実行することができる。中点との距離は特に有用な関係であり、距離から導出される多数の可能な関係も同様である。システム16には、中点との距離という関係が組込まれた多様な乗員ラベリング手法を組込むことも、中点との距離とは関係のない多様な乗員ラベリング手法を組込むこともできる。さらに、システム16には、推定中点を使用しない多様な乗員ラベリング手法を組込むことができる。同様に、多様な乗員ラベリング手法において、セグメント化イメージ42を2つ以上の部分に区分化すること、多様な初期推定を使用すること、乗員類型46のような他の導出データを組込むこと、および任意の他の適切な特性を組込むことができる。
 1. k−メトリックモジュールおよびk−メトリック法
 図4に示す例において、セグメント化イメージは、1つまたは複数の異なるk−メトリック法を実行可能なk−平均(k−means)モジュール60に送られる。好適な実施形態では、上述した初期推定も、k−平均モジュール60の処理に組込まれるものである。k−平均モジュール60は、乗員ラベリング手法による処理に組込み可能なk−メトリックモジュール60の一実施形態である。k−平均モジュール60は、上部胴体の推定中点および下部胴体の推定中点を使用してk―平均法を実行するものであるが、k−メトリックモジュールにおいて、別の多様な参照点および数学的演算を使用することもできる。
 図5は、k−メトリックモジュール60が受取ることができるセグメント化イメージ42の例を示す図である。好適な実施形態では、セグメント化イメージ42は二値イメージである。一実施形態では、乗員部分のすべてのピクセルが1つの二進値であって、乗員部分以外のピクセルが別の二進値であり、別の実施形態では、セグメント化イメージ42を周囲イメージ38から区分する境界ピクセルが1つの二進値であって、他のすべてのピクセルが別の二進値である。
 図4において、乗員18のセグメント化イメージ42中の各ピクセルを座標ベクトルに、すなわちそれぞれの行および列における位置を(x,y)座標に変換することができる。
 k−メトリックモジュール60のk−平均による実施形態では、k−メトリックモジュール60は、セグメント化イメージ中の各点(ピクセル)を、その点が頭部−胴体部の平均に近いかまたは脚部の平均に近いかに従って、それぞれ頭部−胴体部(上部胴体)イメージ中の点かまたは脚部(下部胴体)イメージ中の点かを分類する。ここで、頭部−胴体部の平均および脚部の平均は、それぞれ頭部−胴体部イメージおよび脚部イメージの中点である。上述したように、頭部−胴体部の平均および脚部の平均の初期推定を使用して、k−平均を開始することができる。続いて、次の2つの式または同様の式を使用し、k−平均法における次回の反復計算によって、頭部−胴体部の平均および脚部の平均の値を計算することができる。

[式1]

 (頭部−胴体部の平均)=Σ(頭部−胴体部イメージ)/(頭部−胴体部イメージ中の点の数)

[式2]

 (脚部の平均)=Σ(脚部イメージ)/(脚部イメージ中の点の数)
 ここで、“頭部−胴体部の平均”は、上部胴体の直前の推定中点である。初回の計算では、このデータは初期推定の結果として得られるものである。“脚部の平均”は、下部胴体の直前の推定中点であり、初回の計算では、このデータは初期推定の結果として得られるものである。好適な実施形態では、“Σ(頭部−胴体部イメージ)”は、上部胴体イメージ中の各ピクセルと上部胴体イメージの推定中点との距離の総和である。別の実施形態では、異なるメトリックを使用することができる。同様に、好適な実施形態では、“Σ(脚部イメージ)”は、下部胴体イメージ中の各ピクセルと下部胴体イメージの推定中点との距離の総和であり、別の実施形態では、異なるメトリックを使用することができる。“頭部−胴体部イメージ中の点の数”は、事前の上部胴体イメージ中のピクセル数であり、“脚部イメージ中の点の数”は、事前の下部胴体イメージ中のピクセル数である。別の様々な実施形態では、上式とは異なる多様な式による計算を実行することができる。
 2. パラメータ推定モジュールおよびパラメータ推定法
 続いて、脚部(下部胴体)の初期平均62、頭部−胴体部(上部胴体)の初期平均64、およびセグメント化イメージ42を、パラメータ推定モジュール66に送ることができる。好適な実施形態では、パラメータ推定モジュール66は、反復型パラメータ推定器である。このパラメータ推定器は、次の4つの式を反復して計算することができる。

[式3]
Figure 2004131078
 ここで、
Figure 2004131078
は、与えられた統計量θの下で、特定のピクセル(xk)が、上部胴体クラスまたは下部胴体クラスのような特定のクラス(ωi)中に存在する確率である。各クラスiについて、μは、頭部−胴体部の平均および脚部(下部胴体)の平均のような平均値を表す。Σiの初期値は、それぞれの特定のクラスiにおける共分散を表す。この共分散は、乗員の上部胴体の境界長円の概略を定めるものであり、境界の形状は、人体ダミーのデータを使用して決定することができる。式3は、まず、θに対する初期推定(μ,Σ)を使用して計算される。μの初期値は上述したk−平均モジュールの出力として得られるものである。式3が最初に初期推定を使用して計算された後、式3の反復計算に対する入力は、次の式4、式5、および式6によって表される。

[式4]
Figure 2004131078
 ここで、変数nは、セグメント化イメージ42中のピクセル数を表す。

[式5]
Figure 2004131078
[式6]
Figure 2004131078
 これらの式で、頭部−胴体部の平均(上部胴体の平均すなわち中点)および脚部の平均(下部胴体の平均すなわち中点)は、ギリシャ文字のμiで表され、共分散はギリシャ文字のΣiで表される。ωiはセグメント化イメージ中の各座標xkのクラスである。2クラス問題(2つのクラスは、頭部−胴体部クラスと脚部クラス)の場合は、i=1,2、およびc=2である。別の実施形態では、cを2よりも大きくすることができる。ω1は、座標xkが脚部クラス中にあることを表し、ω2は、座標xkが頭部−胴体部クラス中にあることを表す。
 したがって、
Figure 2004131078
は、与えられた統計量θの下で、xkがクラスωi中にあることを表す条件付尤度である(一種の条件付尤度法(conditional likelihood heuristic)の一例)。式3は、まず、θに対する初期推定(μ,Σ)を使用して計算される。初期平均μは、k−平均モジュールの出力として得られる。大人の上部胴体(頭部を含む)は、通常は人体全体のおよそ2/3であるため、人体ダミーのデータが使用され、これに基づいて、事前確率に対する初期推定を決定することができる。初期共分散は、セグメント化イメージのサイズおよび上部胴体の一般的な形状についての相当する人体ダミーのデータに基づいた仮定(推定)である。この共分散によって、乗員の頭部−胴体部(上部胴体)の境界長円の概略が定められ、境界の一般的な形状は、人体ダミーのデータから知ることができる。上述したように、パラメータ推定モジュール66には、多様な方法および式を組込むことができる。
 式3、式4、式5、および式6は、反復法によって実行される。これらの式は、システム16の構成時に予め設定された所定の回数だけ繰返して計算される。反復の回数は、平均値の変動を有意な変動の閾値と比較することによって決定することもでき、特定のセグメント化イメージ42の平均値の変動が有意な変動の閾値よりも小さくなるまでパラメータ推定を繰返すように、システム16を構成することができる。他の実施形態では、これらの両方の方法を組込み、有意な変動の閾値を使用すると共に可能な反復回数の最終的な限界を設定してもよい。図6は、パラメータ推定モジュールから出力された最終的な頭部−胴体部パラメータ70の一例である。図7は、パラメータ推定モジュールから出力された最終的な脚部パラメータ68の一例である。
 3. ピクセル分類モジュールとピクセル分類法
 図4を参照すると、ピクセル分類モジュール72に対する入力は、好ましくは、パラメータ推定モジュールからの最終的な頭部−胴体部パラメータ70と最終的な脚部パラメータ68である。この入力には、k−平均モジュール60とパラメータ推定モジュール66によってすでに処理されたセグメント化イメージ42も含まれている必要がある。
 ピクセル分類モジュール72では、距離法(distance heuristics)を含むピクセル特性法(pixel characteristic heuristic)を実施することができる。距離法は、特定のピクセルから、セグメント化イメージ42中の様々な部分(たとえば、上部胴体および下部胴体)の参照点(たとえば、中点)への距離に基づいて、ピクセルを分類するものである。特定のピクセルについて、上部胴体への距離が短い場合、そのピクセルは上部胴体ピクセルとして分類される。同様に、特定のピクセルについて、下部胴体への距離が短い場合、そのピクセルは下部胴体ピクセルとして分類される。距離が等しい場合には、そのピクセルを上部胴体ピクセルに分類するようにシステム16を構成することも、または下部胴体ピクセルに分類するようにシステム16を構成することもできる。
 システム16の好適な実施形態では、マハラノビス法が実施される。マハラノビス法では、セグメント化イメージ中の各点から頭部−胴体部の平均(上部胴体の中点)および脚部の平均(下部胴体の中点)への“マハラノビス距離”が計算される。点(ピクセル)のマハラノビス距離が、頭部−胴体部の平均(上部胴体の中点)に近接している場合、その点は頭部−胴体部イメージ(上部胴体ピクセル)として分類され、そうでない場合には脚部イメージ(下部胴体ピクセル)として分類される。二点間のマハラノビス距離は、次式により定義される。

[式7]
Figure 2004131078
 上式において、xkはセグメント化イメージ中の点、μiおよびΣiは、パラメータ推定モジュール66の出力である。
 このようにして、ピクセル分類モジュールは、この分類法による最終的な分類に従って、セグメント化イメージ中の各ピクセルを設定することができる。続いて、最終的な頭部−胴体部(上部胴体)イメージ54は、上述した乗員追跡モジュール56に送られ、それによってエアバッグ展開システム36は適切な展開判断を下すことができる。
 以上、多数の好適な実施形態において、本発明の動作の原理および態様を説明および例示してきたが、本発明は、その思想または範囲から逸脱することなく、説明および例示された特定の態様以外の態様で実施可能であることを理解されたい。
本発明に係るシステムの可能な一実施形態における周囲環境の一例を示す部分図である。 乗員ラベリングシステムと共に動作可能な追跡システムおよび展開システムの高レベル処理の一例を示す図である。 乗員のセグメント化イメージから上部胴体イメージを取込む処理の一例を示すフローチャートである。 乗員ラベリング法の一例の詳細を示すフローチャートである。 上部胴体および下部胴体を含むセグメント化イメージの一例を示す図である。 乗員のセグメント化イメージの下部胴体イメージから分離された上部胴体イメージの一例を示す図である。 上部胴体イメージの識別を容易にするために、乗員のセグメント化イメージから削除された下部胴体イメージの一例を示す図である。
符号の説明
 16  乗員ラベリングシステム
 18  乗員
 20  シート
 22  カメラ
 21  シート領域
 24  ルーフライナー
 26  風防ガラス
 30  コンピュータ
 32  エアバッグコントローラ
 34  計器パネル
 36  エアバッグ展開システム
 38  周囲イメージ
 40  イメージセグメント化モジュール
 42  セグメント化イメージ
 44  乗員分類モジュール
 52  乗員ラベリングモジュール
 54  頭部−胴体部イメージ
 56  乗員追跡モジュール
 60  k−平均モジュール
 66  パラメータ推定モジュール
 68  最終的な脚部パラメータ
 70  最終的な頭部−胴体部パラメータ
 72  ピクセル分類モジュール

Claims (25)

  1.  乗員の上部胴体を識別するための乗員ラベリングシステムであって、
     上部胴体メトリックおよび下部胴体メトリックを含むk−メトリックモジュールと、
     上部胴体パラメータおよび下部胴体パラメータを含むパラメータ推定モジュールとを含み、
     前記k−メトリックモジュールは、前記上部胴体メトリックおよび前記下部胴体メトリックを生成し、
     前記パラメータ推定モジュールは、前記上部胴体メトリックおよび前記下部胴体メトリックから前記上部胴体パラメータおよび前記下部胴体パラメータを生成することを特徴とする乗員ラベリングシステム。
  2.  前記k−メトリックモジュールはk−平均モジュールであり、前記上部胴体メトリックは上部胴体の平均であり、前記下部胴体メトリックは下部胴体の平均であることを特徴とする請求項1に記載の乗員ラベリングシステム。
  3.  さらに、セグメント化イメージを含み、
     前記k−メトリックモジュールは、前記セグメント化イメージから前記上部胴体メトリックと前記下部胴体メトリックとを生成することを特徴とする請求項1に記載の乗員ラベリングシステム。
  4.  さらに、初期推定を含み、
     前記k−メトリックモジュールは、前記初期推定を使用して前記上部胴体メトリックと前記下部胴体メトリックとを生成することを特徴とする請求項1に記載の乗員ラベリングシステム。
  5.  前記初期推定は、シートの位置に基づいていることを特徴とする請求項4に記載の乗員ラベリングシステム。
  6.  前記初期推定は、人体ダミーの特性に基づいていることを特徴とする請求項4に記載の乗員ラベリングシステム。
  7.  前記k−メトリックモジュールは、さらに乗員の区分化を含み、該乗員の区分化により前記上部胴体メトリックと前記下部胴体メトリックとをそれぞれに生成することを特徴とする請求項1に記載の乗員ラベリングシステム。
  8.  前記パラメータ推定モジュールは、さらに境界長円を含むことを特徴とする請求項1に記載の乗員ラベリングシステム。
  9.  前記パラメータ推定モジュールは、さらにマハラノビス距離を含むことを特徴とする請求項1に記載の乗員ラベリングシステム。
  10.  前記パラメータ推定モジュールは、反復型パラメータ推定器であることを特徴とする請求項1に記載の乗員ラベリングシステム。
  11.  前記反復型パラメータ推定器は、予め定められた回数だけ反復的に実行されることを特徴とする請求項10に記載の乗員ラベリングシステム。
  12.  前記反復型パラメータ推定器は、予め定められた有意な変動の閾値とメトリック値の変動とを含み、前記メトリック値の変動が前記有意な変動の閾値を超えた場合、さらなる反復実行を停止することを特徴とする請求項10に記載の乗員ラベリングシステム。
  13.  さらに、ピクセル分類モジュールと上部胴体イメージとを含み、
     前記ピクセル分類モジュールは、前記上部胴体パラメータおよび前記下部胴体パラメータから前記上部胴体イメージを生成することを特徴とする請求項1に記載の乗員ラベリングシステム。
  14.  乗員の上部胴体を識別するための乗員ラベリングシステムであって、
     セグメント化イメージ、初期推定、上部胴体の平均、および下部胴体の平均を含むk−平均モジュールと、
     上部胴体パラメータ、下部胴体パラメータ、およびマハラノビス距離を含む反復型パラメータ推定器と、
     上部胴体イメージを含むピクセル分類モジュールとを含み、
     前記k−平均モジュールは、前記セグメント化イメージと前記初期推定とを使用して前記上部胴体の平均および前記下部胴体の平均を生成し、
     前記反復型パラメータ推定器は、前記マハラノビス距離と前記上部胴体の平均および前記下部胴体の平均とを使用して、前記上部胴体パラメータおよび前記下部胴体パラメータを生成し、
     前記ピクセル分類モジュールは、前記上部胴体パラメータおよび前記下部胴体パラメータから前記上部胴体イメージを生成することを特徴とする乗員ラベリングシステム。
  15.  さらに、反復回数を含み、
     前記反復型パラメータ推定器は、前記上部胴体パラメータおよび前記下部胴体パラメータを、前記反復回数に応じて繰返し生成することを特徴とする請求項14に記載の乗員ラベリングシステム。
  16.  前記反復回数は、予め定められかつ固定されていることを特徴とする請求項15に記載の乗員ラベリングシステム。
  17.  さらに、変動の閾値と平均値とを含み、
     前記反復回数は、前記変動の閾値と前記平均値とを比較することによって決定されることを特徴とする請求項15に記載の乗員ラベリングシステム。
  18.  周囲イメージおよびセグメント化イメージを含むイメージセグメント化モジュールと、
     乗員類型を含むイメージ分類モジュールと、
     上部胴体イメージおよび乗員ラベリング手法を含む乗員ラベリング手法とを含み、
     前記イメージセグメント化モジュールは、前記周囲イメージから前記セグメント化イメージを生成し、
     前記イメージ分類モジュールは、前記セグメント化イメージから前記乗員類型を生成し、
     前記乗員ラベリングモジュールは、前記セグメント化イメージ、前記乗員ラベリング手法、および前記乗員類型から前記上部胴体イメージを生成することを特徴とする乗員追跡およびエアバッグ展開システム。
  19.  さらに、追跡サブシステムを含み、
     前記追跡サブシステムは、乗員特性を含み、前記上部胴体イメージから前記乗員特性を生成することを特徴とする請求項18に記載の乗員追跡およびエアバッグ展開システム。
  20.  前記追跡サブシステムは、さらに展開判断を含み、前記乗員特性から前記展開判断を生成することを特徴とする請求項19に記載の乗員追跡およびエアバッグ展開システム。
  21.  乗員ピクセルのセグメント化イメージから乗員の上部胴体を識別する方法であって、
     各ピクセルから前記上部胴体の推定中点への距離を決定するステップと、
     前記上部胴体の推定中点を更新するステップと、
     該更新された推定中点を使用して、上部胴体ピクセルを選択して識別するステップとを含むことを特徴とする方法。
  22.  前記上部胴体ピクセルを選択して識別するステップは、前記上部胴体ピクセルと上部胴体の中点との間の上部胴体マハラノビス距離を計算することを含んでいる請求項21に記載の方法。
  23.  さらに、下部胴体ピクセルと下部胴体の中点との間の下部胴体マハラノビス距離を計算することを含んでいる請求項22に記載の方法。
  24.  さらに、前記上部胴体マハラノビス距離と下部胴体マハラノビス距離とを比較することを含んでいる請求項23に記載の方法。
  25.  前記推定中点を更新するステップは、人体ダミーの特性を参照することを含んでいる請求項21に記載の方法。


JP2003352239A 2002-10-11 2003-10-10 乗員の上部胴体を識別するための乗員ラベリングシステム、その方法、並びにそれらを使用した乗員追跡およびエアバッグ展開システム Pending JP2004131078A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/269,308 US6853898B2 (en) 2001-05-30 2002-10-11 Occupant labeling for airbag-related applications

Publications (1)

Publication Number Publication Date
JP2004131078A true JP2004131078A (ja) 2004-04-30

Family

ID=32030381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003352239A Pending JP2004131078A (ja) 2002-10-11 2003-10-10 乗員の上部胴体を識別するための乗員ラベリングシステム、その方法、並びにそれらを使用した乗員追跡およびエアバッグ展開システム

Country Status (7)

Country Link
US (1) US6853898B2 (ja)
EP (1) EP1407941A2 (ja)
JP (1) JP2004131078A (ja)
KR (1) KR20040033255A (ja)
AU (1) AU2003248426A1 (ja)
BR (1) BR0303992A (ja)
MX (1) MXPA03009269A (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7769513B2 (en) * 2002-09-03 2010-08-03 Automotive Technologies International, Inc. Image processing for vehicular applications applying edge detection technique
US20030123704A1 (en) * 2001-05-30 2003-07-03 Eaton Corporation Motion-based image segmentor for occupant tracking
US6925193B2 (en) * 2001-07-10 2005-08-02 Eaton Corporation Image processing system for dynamic suppression of airbags using multiple model likelihoods to infer three dimensional information
US7197180B2 (en) * 2001-05-30 2007-03-27 Eaton Corporation System or method for selecting classifier attribute types
US20050129274A1 (en) * 2001-05-30 2005-06-16 Farmer Michael E. Motion-based segmentor detecting vehicle occupants using optical flow method to remove effects of illumination
US7116800B2 (en) * 2001-05-30 2006-10-03 Eaton Corporation Image segmentation system and method
US20050271280A1 (en) * 2003-07-23 2005-12-08 Farmer Michael E System or method for classifying images
US6856694B2 (en) * 2001-07-10 2005-02-15 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
US20080131004A1 (en) * 2003-07-14 2008-06-05 Farmer Michael E System or method for segmenting images
US7181083B2 (en) 2003-06-09 2007-02-20 Eaton Corporation System and method for configuring an imaging tool
US7327497B2 (en) * 2002-05-14 2008-02-05 Canon Kabushiki Kaisha Image reading apparatus, control method therefor, and program
US7440885B2 (en) * 2002-06-03 2008-10-21 Broadcom Corporation Method and system for deterministic control of an emulation
US7676062B2 (en) * 2002-09-03 2010-03-09 Automotive Technologies International Inc. Image processing for vehicular applications applying image comparisons
DE10246055A1 (de) * 2002-10-02 2004-04-15 Robert Bosch Gmbh Vorrichtung zum Schutz von einem Fahrzeuginsassen
US6925403B2 (en) * 2003-09-15 2005-08-02 Eaton Corporation Method and system for calibrating a sensor
US20050065757A1 (en) * 2003-09-19 2005-03-24 White Samer R. System and method for estimating displacement of a seat-belted occupant
US6944527B2 (en) * 2003-11-07 2005-09-13 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
US20050177290A1 (en) * 2004-02-11 2005-08-11 Farmer Michael E. System or method for classifying target information captured by a sensor
US20060056657A1 (en) * 2004-02-13 2006-03-16 Joel Hooper Single image sensor positioning method and apparatus in a multiple function vehicle protection control system
US20050179239A1 (en) * 2004-02-13 2005-08-18 Farmer Michael E. Imaging sensor placement in an airbag deployment system
US20060050953A1 (en) * 2004-06-18 2006-03-09 Farmer Michael E Pattern recognition method and apparatus for feature selection and object classification
US20060030988A1 (en) * 2004-06-18 2006-02-09 Farmer Michael E Vehicle occupant classification method and apparatus for use in a vision-based sensing system
US7610127B2 (en) * 2006-03-08 2009-10-27 Delphi Technologies, Inc. Vehicle stability monitoring system and method and article of manufacture for determining vehicle stability
US20080059027A1 (en) * 2006-08-31 2008-03-06 Farmer Michael E Methods and apparatus for classification of occupancy using wavelet transforms
DE102013021812A1 (de) 2013-12-20 2015-06-25 Audi Ag Verfahren und System zum Betreiben eines Kraftwagens
US9384396B2 (en) * 2014-09-29 2016-07-05 Xerox Corporation System and method for detecting settle down time using computer vision techniques
US10272872B2 (en) * 2016-11-30 2019-04-30 Ford Global Technologies, Llc Belt assembly allowing payout measurement
JP2019069720A (ja) * 2017-10-10 2019-05-09 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 鞍乗り型車両用情報処理装置、及び、鞍乗り型車両用情報処理方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4179696A (en) 1977-05-24 1979-12-18 Westinghouse Electric Corp. Kalman estimator tracking system
US6324453B1 (en) * 1998-12-31 2001-11-27 Automotive Technologies International, Inc. Methods for determining the identification and position of and monitoring objects in a vehicle
JPS60152904A (ja) 1984-01-20 1985-08-12 Nippon Denso Co Ltd 車両運転者位置認識装置
DE3803426A1 (de) 1988-02-05 1989-08-17 Audi Ag Verfahren zur wirksamschaltung eines sicherheitssystems
EP0357225B1 (en) 1988-07-29 1993-12-15 Mazda Motor Corporation Air bag system for automobile
WO1990011207A1 (de) 1989-03-20 1990-10-04 Siemens Aktiengesellschaft Steuergerät für ein insassen-rückhaltesystem und/oder -schutzsystem für fahrzeuge
JP2605922B2 (ja) 1990-04-18 1997-04-30 日産自動車株式会社 車両用安全装置
JP2990381B2 (ja) 1991-01-29 1999-12-13 本田技研工業株式会社 衝突判断回路
US5051751A (en) 1991-02-12 1991-09-24 The United States Of America As Represented By The Secretary Of The Navy Method of Kalman filtering for estimating the position and velocity of a tracked object
JPH06166905A (ja) 1992-06-03 1994-06-14 Sakae Furukawa ズボン等の衣類の折り目加工材と折り目加工方法
JPH06166906A (ja) 1992-06-19 1994-06-14 Ryoju Shoji Kk ボディ−連結型ヘルメット
US5446661A (en) 1993-04-15 1995-08-29 Automotive Systems Laboratory, Inc. Adjustable crash discrimination system with occupant position detection
US5366241A (en) 1993-09-30 1994-11-22 Kithil Philip W Automobile air bag system
US5413378A (en) 1993-12-02 1995-05-09 Trw Vehicle Safety Systems Inc. Method and apparatus for controlling an actuatable restraining device in response to discrete control zones
US5482314A (en) 1994-04-12 1996-01-09 Aerojet General Corporation Automotive occupant sensor system and method of operation by sensor fusion
US5528698A (en) 1995-03-27 1996-06-18 Rockwell International Corporation Automotive occupant sensing device
US5983147A (en) * 1997-02-06 1999-11-09 Sandia Corporation Video occupant detection and classification
US6116640A (en) 1997-04-01 2000-09-12 Fuji Electric Co., Ltd. Apparatus for detecting occupant's posture
US6005958A (en) 1997-04-23 1999-12-21 Automotive Systems Laboratory, Inc. Occupant type and position detection system
US6018693A (en) 1997-09-16 2000-01-25 Trw Inc. Occupant restraint system and control method with variable occupant position boundary
US6026340A (en) 1998-09-30 2000-02-15 The Robert Bosch Corporation Automotive occupant sensor system and method of operation by sensor fusion
US6203059B1 (en) * 1999-01-29 2001-03-20 Breed Automotive Technologies, Inc. Seat belt usage indicating system
US6801662B1 (en) 2000-10-10 2004-10-05 Hrl Laboratories, Llc Sensor fusion architecture for vision-based occupant detection
US6662093B2 (en) 2001-05-30 2003-12-09 Eaton Corporation Image processing system for detecting when an airbag should be deployed
US6459974B1 (en) 2001-05-30 2002-10-01 Eaton Corporation Rules-based occupant classification system for airbag deployment
US20030123704A1 (en) 2001-05-30 2003-07-03 Eaton Corporation Motion-based image segmentor for occupant tracking
US7116800B2 (en) 2001-05-30 2006-10-03 Eaton Corporation Image segmentation system and method
US6925193B2 (en) 2001-07-10 2005-08-02 Eaton Corporation Image processing system for dynamic suppression of airbags using multiple model likelihoods to infer three dimensional information
US7197180B2 (en) 2001-05-30 2007-03-27 Eaton Corporation System or method for selecting classifier attribute types
US6577936B2 (en) 2001-07-10 2003-06-10 Eaton Corporation Image processing system for estimating the energy transfer of an occupant into an airbag
US20030133595A1 (en) 2001-05-30 2003-07-17 Eaton Corporation Motion based segmentor for occupant tracking using a hausdorf distance heuristic

Also Published As

Publication number Publication date
AU2003248426A1 (en) 2004-04-29
EP1407941A2 (en) 2004-04-14
US20030135346A1 (en) 2003-07-17
MXPA03009269A (es) 2005-07-01
BR0303992A (pt) 2004-09-08
US6853898B2 (en) 2005-02-08
KR20040033255A (ko) 2004-04-21

Similar Documents

Publication Publication Date Title
JP2004131078A (ja) 乗員の上部胴体を識別するための乗員ラベリングシステム、その方法、並びにそれらを使用した乗員追跡およびエアバッグ展開システム
US6925193B2 (en) Image processing system for dynamic suppression of airbags using multiple model likelihoods to infer three dimensional information
US10192126B2 (en) Behavior recognition apparatus, learning apparatus, and method
US11597347B2 (en) Methods and systems for detecting whether a seat belt is used in a vehicle
US6662093B2 (en) Image processing system for detecting when an airbag should be deployed
US20030123704A1 (en) Motion-based image segmentor for occupant tracking
US20050271280A1 (en) System or method for classifying images
US20030133595A1 (en) Motion based segmentor for occupant tracking using a hausdorf distance heuristic
US20050058322A1 (en) System or method for identifying a region-of-interest in an image
JP2003212081A (ja) イメージ処理システム及びそのための方法
EP1716540A1 (en) System and method for detecting a passing vehicle from dynamic background using robust information fusion
JP2021528757A (ja) 機械学習モデルの出力から推論されるインスタンスセグメンテーション
CN110472470A (zh) 用于确定车辆的周围环境状态的方法和系统
US20050129274A1 (en) Motion-based segmentor detecting vehicle occupants using optical flow method to remove effects of illumination
US20060030988A1 (en) Vehicle occupant classification method and apparatus for use in a vision-based sensing system
Farmer et al. Smart automotive airbags: Occupant classification and tracking
US20060052923A1 (en) Classification system and method using relative orientations of a vehicle occupant
KR20230135222A (ko) 차량 승객 거동 추정 장치 및 방법
CN115131752A (zh) 学习方法、学习装置以及程序记录介质
US20230177716A1 (en) Information processing device, non-transitory computer-readable storage medium, and information processing method
US20050281461A1 (en) Motion-based image segmentor
JP2022121377A (ja) 外界認識装置
CN1497491A (zh) 用于有关气囊应用的乘员标志
Devarakota et al. Classification of vehicle occupants using 3D image sequences
IEE CLASSIFICATION OF VEHICLE OCCUPANTS USING 3D IMAGE SEQUENCES