JP2004133945A - 区分化イメージを分離する方法及びそのための区分化システム - Google Patents

区分化イメージを分離する方法及びそのための区分化システム Download PDF

Info

Publication number
JP2004133945A
JP2004133945A JP2003351151A JP2003351151A JP2004133945A JP 2004133945 A JP2004133945 A JP 2004133945A JP 2003351151 A JP2003351151 A JP 2003351151A JP 2003351151 A JP2003351151 A JP 2003351151A JP 2004133945 A JP2004133945 A JP 2004133945A
Authority
JP
Japan
Prior art keywords
image
template
current
segmented
surrounding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003351151A
Other languages
English (en)
Inventor
Michael Edward Farmer
マイケル エドワード ファーマー
Xunchang Chen
チュンチャン チェン
Li Wen
リー ヴェン
Chuan Zhou
チュアン ゾー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eaton Corp
Original Assignee
Eaton Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eaton Corp filed Critical Eaton Corp
Publication of JP2004133945A publication Critical patent/JP2004133945A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01542Passenger detection systems detecting passenger motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/0154Passenger detection systems using field detection presence sensors in combination with seat heating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01556Child-seat detection systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01558Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use monitoring crash strength
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/24765Rule-based classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/003Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks characterised by occupant or pedestian
    • B60R2021/0039Body parts of the occupant or pedestrian affected by the accident
    • B60R2021/0044Chest
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R2021/01315Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over monitoring occupant displacement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Air Bags (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】センサにより捕えた現在の周囲イメージから現在の区分化イメージを分離すること。
【解決手段】本発明の区分化システムは、周囲イメージ38内において、乗客の区分化イメージ31を識別するために、現在の周囲イメージを前の周囲イメージと比較し、現在の区分化イメージの境界を現在の周囲イメージと前の周囲イメージとの間の差により識別し、そして、ハウスドルフ ディスタンス ヒューリスティック手法を用いて、テンプレートを前記識別された境界に合致させる。過去のセンサ測定値からの区分化イメージ31は、最新で捕えた周囲イメージ内の注目領域を決定するために役立つ。処理時間を短くするために、システムは、区分化イメージの底部が動かないものと仮定する。センサによって捕捉された種々の周囲イメージ間の差は、乗客による動き、即ち区分化イメージの境界を識別するのに用いられる。テンプレートイメージは、将来の周囲イメージのために変更可能であり、所定角度範囲に対して区分化イメージの境界に適合し、その有効性が評価される。
【選択図】図3

Description

 本発明は、一般的に、動作中の人または物体を含み、これらを取巻く領域の周囲イメージから、動いている人または物体のセグメント化されたイメージ(画像)を分離するために使用されるシステム及びその技術に関する。特に、本発明は、エアバッグの適切な展開決定を行うことができるように、乗客を含む領域の周囲イメージから乗客の区分化イメージを分離することに関する。
 目標物とされる人または物体の「区分化イメージ」(segmented image)を周囲イメージから分離することが望ましい状況は多くあり、この区分化イメージには、目標物とされる人または物体を取り巻くイメージを含んでいる。エアバッグ展開装置は、このような技術の1つの応用である。エアバッグ展開装置は、乗客のイメージから得ることができる乗客の特性に対する1つまたは他の方法に関係する、種々の展開決定を行う。乗客のタイプ、エアバッグに対する乗客の接近度、乗客の速度及び加速度、乗客の重量、エアバッグと乗客との間の衝撃を吸収するのに必要なエアバッグの展開エネルギー量、および他の乗客特性は、エアバッグ展開の意思決定の中に組み入れることができる。
 イメージ区分化技術に関する現在の技術には、多くの障害がある。ブレーキ動作時または衝突時において車両内の乗客の区分化イメージを識別する場合、従来のイメージ区分化技術は、高速度で動く目標環境には適さない状況にある。従来のイメージ区分化技術は、乗客とその周囲環境との間の境界の識別化を助けるために、乗客の動きを用いていない。イメージの区分化を補助するために乗客の動きの代わりに、従来システムでは、一般的に、低速度の動作又は静的環境に適した最善の技術を利用しており、区分化処理を助ける動きに関する特性を用いないで乗客の動きを克服しようとする。
 この動きに対する挑戦は、タイムリーなチャレンジに関係している。一般的に、標準のビデオカメラは、1秒間ごとに約40フレームのイメージを捕える。多くのエアバッグ展開装置では、標準ビデオカメラよりも速く読み取るセンサを包含している。エアバッグ展開装置は、展開の決定に対する信頼性のある情報をリアルタイムで必要とする。イメージまたは他のセンサデータを迅速に捕えることは、次のフレーム又はセンサの測定値が捕捉される前に、乗客の区分化イメージを識別することができない場合、エアバッグ展開装置の手助けにはならない。エアバッグ展開装置は、最もゆっくりした必要な処理ステップをできるだけ迅速に行うことができのみである。それゆえ、区分化処理を助けるために乗客の動きを用いるイメージ区分化技術は、そのジョッブをより迅速に実行しなければ、乗客とその周囲環境の間の識別要素となる動きを利用することができない。
 一般的に、従来の装置は、区分化処理の中に特定の状況環境に関するインテリジェンス情報を包含させることができない。そして、このような装置では、周囲イメージの特定領域に焦点をあわせることができない。エアバッグ展開処理操作のために特に設計された区分化処理は、一般的な目的のイメージ区分化処理では与えられない前後関係に依存したインテリジェンス情報を包含させることができる。例えば、システムは、次に続く予想された動きを有する過去の予測を含み、最新の区分化イメージ情報を用いて、周囲イメージ内の重要な領域に焦点を合わせることが望ましい。センサ測定値を迅速に捕える際に、センサ測定値間での乗客位置の動きに限界がある。このような限界は、センサ測定値間の時間周期等のファクタに密接に関係する。
 従来の区分化技術は、車両内の乗客の動きに有効な仮定を包含させることができない。シート領域内において乗客が最小の動きの中で腰回りを回転させる状況を考慮に入れて、車両の区分化処理を実行することが望ましい。このようなインテリジェンス情報は、周囲イメージの最も重要な領域に焦点を合わせるためのシステムが可能になり、貴重な処理時間を節約する。
 さらに、現在の区分化システムにおける処理時間要求が増大すると、過去のデータを現在の決定に組み入れることになり、システムの失敗をもたらすことになる。カルマン(Kalman)フィルタ等の技術を用いて乗客特性を追跡しかつ予測することは望ましいことである。また、各センサ測定値を調整することができる周囲イメージにテンプレートを適用することが望ましい。再使用可能で修正可能なテンプレートを用いて、過去のデータを現在の決定に包含させることは有効な方法であり、スクラッチ(scratch)から区分化イメージを再度作り出す必要性を軽減する。
 本発明は、「周囲イメージ」から、乗客又は他の「注目目標物」の区分化イメージを形成するのに用いられる区分化イメージを分離する方法及びそのための区分化を提供することを目的としている。この周囲イメージは、目標物、及び目標物を取巻く車両内の環境を含んでいる。本システムは、最新の周囲イメージ(現在の周囲イメージ)と、前の周囲イメージ(先行周囲イメージ)とを比較することによって区分化イメージの大まかな境界を識別することを目的とし、また、先行周囲イメージから導かれた区分化イメージの調整可能なテンプレートは、境界の識別、更に境界を改善させるために利用する。
 上記目的を達成するための本発明は、センサにより捕えた現在の周囲イメージから現在の区分化イメージを分離するための方法であって、現在の周囲イメージを前の周囲イメージと比較し、前記現在の区分化イメージの境界を現在の周囲イメージと前の周囲イメージとの間の差により識別し、そして、ハウスドルフ ディスタンス ヒューリスティック手法を用いて、テンプレートを前記識別された境界に合致させる、各ステップを含むことを特徴としている。
 また、他の構成によれば、本発明は、現在の周囲イメージから現在の区分化イメージを分離するための方法であって、現在の周囲イメージ内の注目領域を前の周囲イメージから識別し、前記現在の周囲イメージ内の注目領域を、前の周囲イメージ内の対応する領域と比較することによって決められたイメージ差にローパスフィルタを適用し、イメージ振幅を急速に変化させて、現在の周囲イメージ内のある領域を見出すためのイメージ勾配計算を実行し、前記イメージ差分を所定の累積分布関数を用いて閾値化させ、イメージ勾配計算の結果をクリーニングし、ハウスドルフ ディスタンス ヒューリスティック手法を用いて、このクリーン化された結果にテンプレートイメージを合致させ、更に、前記テンプレートイメージに1つの長円を適合させる、各ステップを含むことを特徴としている。
 さらに、本発明の区分化システムは、周囲イメージから区分化イメージを分離するために、区分化イメージと注目領域を含む周囲イメージと、勾配イメージを含み、前記注目領域内に前記勾配イメージを生成する勾配イメージモジュールと、テンプレート、テンプレートマッチ、及びハウスドルフ ディスタンス ヒューリスティック手法を含み、前記テンプレート、前記勾配イメージ、及びハウスドルフ ディスタンス ヒューリスティック手法からテンプレートマッチを生成するテンプレートモジュールと、を備えることを特徴としている。
 また、他の構成によれば、本発明は、現在の周囲イメージ内の注目領域を決定するステップを含み、このステップは、前の区分化イメージから現在の区分化イメージの位置を予測するステップを含んでいる。また、さらに、注目領域内に存在しない現在の周囲イメージの一部分を無視するステップを含んでいる。また、他の構成によれば、前の区分化イメージ内の底部領域(下側部分)は、現在の周囲イメージにおいて無視される。現在の周囲イメージ内の複数のピクセルは、前の周囲イメージ内の対応する複数のピクセルと比較される。現在の周囲イメージ内の前記複数のピクセルにおける各ピクセルは、前の周囲イメージ内の対応する前記複数のピクセルと比較される。
 さらに、前記識別された境界にローパスフィルタを適用するステップを含んでいる。また、現在の周囲イメージと前の周囲イメージとの間に変化領域を配置するためにイメージ勾配のヒューリスティック手法を実行するステップを含む。さらに、前記識別された境界を閾値化するステップを含む。さらに、現在の区分化イメージとして、前の区分化イメージを選択するステップを含む。さらに、クリーン勾配イメージのヒューリスティック手法を実行するステップを含む。テンプレートを合致させるステップは、前記テンプレートを所定の角度範囲で回転させることを含んでいる。さらに、クリーン勾配イメージ及び回転したテンプレートの縦横ピクセル積を計算するステップを含む。縦横ピクセル積は、前記角度範囲内の複数の所定角度に対して計算される。
 また、他の構成によれば、本発明のテンプレートを修正するステップは、三次スプライン適合(cubic spline fit)を設定するステップを含み、。制御点の新しい組を設定する。さらに、長円をテンプレートに適合させるステップを含む。このステップは、直接最小二乗法を適用するヒューリステック手法を実行するステップを含んでいる。
 本発明の好ましい実施形態では、長円を適合させるために、前の長円の下側部分を複写するステップを含んでいる。テンプレートモジュールは、座席位置に留まる前記区分化イメージを仮定し、テンプレートを回転させる。更に、複数の所定角度を含む角度範囲を有しており、テンプレートモジュールは、複数の所定角度の各々に対してテンプレートを回転させる。
 さらに、本発明の区分化システムは、プロダクトイメージ、二進化イメージ、及び非二進化イメージをさらに含み、前記テンプレートは、二進化イメージであり、前記勾配イメージは、非二進化イメージであり、前記プロダクトイメージは、前記テンプレートに前記勾配イメージを乗算することによって生成される。さらに、本発明のシステムは、平均エッジエネルギー及びバリディティフラッグを含み、テンプレートモジュールは、平均エッジエネルギーを用いて、バリディティフラッグを設定することを特徴とする。
 また、本発明の好ましい実施形態では、周囲イメージの一部分だけが、処理動作を受ける。注目領域は、先行区分化イメージに関係する情報を用いることによって現在の周囲イメージ内で識別することができる。好ましい実施形態では、シートに接近している周囲イメージの領域を処理する必要を取り除いて、車両の乗客は、座ったままであると仮定される。その結果、区分化イメージのベース部分は固定され、システムは周囲イメージの部分を無視することができる。
 本システムの多くの実施形態では、特定の周囲イメージが使用に対して信頼性があるかを決定するために、イメージ閾値のヒューリスティック手法を適用する。動きが多い場合、周囲イメージは信頼性がない。動きがあまりに少ないと、周囲イメージを必要としなくなる。広範囲の異なる技術は、テンプレートを適合させかつ修正するために使用することができる。いくつかの実施形態では、テンプレートは、ある角度範囲内で予め規定された一連の角度によって回転する。各角度では、特定の「適合(fit)」が、広いレンジで種々のヒューリスティック手法を用いて評価することができる。
 本発明における種々の構成上の特徴は、好ましい実施形態の詳細な記述及び図面を参照することにより、当業者には明らかになるであろう。
 本システムは、最新の周囲イメージ(現在の周囲イメージ)と、前の周囲イメージ(先行周囲イメージ)とを比較することによって区分化イメージの大まかな境界を識別することができる。
 本発明の区分化システムは、乗客のイメージを含む領域の全体のイメージ(周囲イメージ)内において、乗客の区分化イメージを識別でき、過去のセンサ測定値からの区分化イメージは、最新で捕えた周囲イメージ内の注目領域を決定するために役立つ。処理時間を短くするために、システムは、区分化イメージの底部は動かないものと仮定され、センサによって捕捉された種々の周囲イメージ間の差は、乗客による動き、即ち区分化イメージの境界を識別するのに用いることができる。
 先行周囲イメージから導かれた区分化イメージの調整可能なテンプレートは、境界の識別、更に境界を改善させるために利用できる。テンプレートイメージは、所定角度範囲に対して区分化イメージの境界に適合し、その有効性が評価される。また、テンプレートイメージは、将来の周囲イメージのために変更することができる。
 本発明は、目標物及びこの目標物を取巻く領域を含む「周囲イメージ」から、乗客または他の「目標」対象物(集合的な乗客)の区分化イメージを捕えることができるイメージ区分化システムである。
I. 周囲環境の部分図
 図1は、本発明に係る一実施形態におけるイメージ区分化システム16を有するいくつかの異なる実施形態に用いられる周囲環境の部分図である。乗客18がいる場合、この乗客18はシート20に座っている。好ましい実施形態では、カメラまたは他のセンサ22(集合的にカメラ22)が、イメージを迅速に捕らえることができるように乗客の上方のルーフライナー24に取り付けられている。その場所は、乗客18よりも前方の風防ガラス26の近くにある。このカメラ22は、乗客18に向けて僅かに下方に傾斜した角度で配置され、シート20の前後移動により生じる乗客18の上部胴体の角度変化を捉えるようになっている。カメラ22は、従来技術でよく知られるように多くの位置に取り付け可能である。さらに、イメージ区分化システム16において、標準ビデオカメラを含む異なるカメラ22が広範囲に使用され、このカメラは、一般的に1秒あたり約40コマのイメージを捕えることができる。このシステムには、高速及び低速の両方のカメラを使用することができる。
 ある実施形態において、カメラ22は、暗い場所において、一定の照明を与えるために、直流で動作する赤外線光源を備えることができる。このシステム16は、夜の時間、霧、激しい雨、かなりの曇天、太陽のかげり等の暗い条件、及び一般的に昼間の状態よりも暗い環境下にも使用できるように設計されている。
 このシステム16は、より明るい光の状態においても使用することができる。赤外線の光を用いれば、乗客18からの光源の使用を隠すことができる。別の実施形態では、カメラから離れた光源、赤外線以外の光を発生する光源、及び交流を用いて周期的な方法で放射される光等の1つまたはそれ以上の光を利用することができる。システム16は、広範囲の他のライティング及びカメラ形態を含むことができる。さらに、このシステム16では、異なるヒューリスティック手法及び閾値をライティングの状態により適用することができる。こうして、システム16は、乗客18の現在の環境に関する「インテリジェンス」を備えることができる。
 コンピュータ、コンピュータネットワーク、又は他の計算装置または形態では、イメージ区分化ロジックを包含しており、ヒューリスティック手法を実行することができ、また、コンピュータプログラム(集合的にコンピュータシステム30)を実行することができる。このコンピュータシステム30は、以下で説明する区分化処理を実行できるどのような種類のコンピュータ又は装置であってもよい。
 コンピュータシステム30は、車両のどのような位置にも取り付けることができる。好ましい実施形態では、コンピュータシステム30は、カメライメージを長い配線を介して送ることを避けるために、カメラ22の近くに配置される。エアバッグコントローラ32は、計器パネル34内に設けられる。しかし、システム16は、エアバッグコントローラ32が異なる環境に配置されたとしても、十分に機能する。
 同様に、システム16は別の位置に配置できるが、エアバッグ展開システム36は、乗客18およびシート20の前側の計器パネル34内に配置されることが望ましい。ある実施形態では、エアバッグコントローラ32は、コンピュータシステム30と同一の装置となる。システム16は、車両及びエアバッグ展開システム36の設計上の変化に対応して柔軟に実現することができる。
II. エアバッグ展開のための高レベル処理の流れ
 図2は、エアバッグ展開プロセスを含むイメージ区分化システム16の一例を説明する高レベルのフローチャートを示している。シート領域21の周囲イメージ38は、乗客18及びシート領域21の両方を含み、カメラ22によって捕らえることができる。図2では、シート領域21は、乗客全体を含んでいる。しかし、ある状況下または実施形態において、特に、カメラ22が下側の手足を見ることができない位置に配置されている場合、乗客18のイメージの一部だけが捕えられる。
 この周囲イメージ38は、コンピュータ30に送られる。コンピュータ30は、周囲イメージ38から乗客18の区分化イメージ31を分離することができる。コンピュータ30がイメージ区分化を実行するプロセスは、以下に記載されている。この区分化イメージ31は、適当なエアバッグ展開の決定を決めるために分析される。このプロセスもまた以下で説明される。例えば、乗客18が、エアバッグ展開時に展開するエアバッグ36にあまりに近づきすぎているかどうかを決定するために、区分化イメージ31を使用することができる。区分化イメージ31の分析及び特性が、エアバッグコントローラ32に送られ、エアバッグ展開装置36が乗客18に関係して得られる情報を用いて適切なエアバッグ展開の決定を行うことができる。
 図3は、エアバッグコントローラ32に適切な乗客データを送ることにより、周囲イメージ38を捕える時点からのプロセスの例を詳細に示している。このプロセスは、乗客が車両内にいる限り連続して繰り返される。好ましい実施形態では、過去のデータは、現在のデータの分析に組み入れられ、そして、プロセスの流れは、図の底部にあるエアバッグコントローラから図の上部に戻るようになっている。
 新しい周囲イメージ38は、カメラ22または他のセンサによって繰り返し捕捉される。最近捕えた周囲イメージは、現在の周囲イメージとすることができる。古い周囲イメージは、前の周囲イメージ38または過去の周囲イメージとすることができる。前の周囲イメージは、現在の周囲イメージが捕捉される前に、約1/40(秒)より少ない時間で捕捉される。カメラ22が周囲イメージ38を捕えた後、周囲イメージは、イメージ区分化サブシステム40(イメージ区分化プロセス)の過程において処理される。イメージ区分化の処理は、以下で詳細に説明される。図に示すように、区分化処理は、エアバッグコントローラ32から得られる、またはコンピュータシステム30に記憶された乗客18の特性に関係する過去のデータを含ませることができる。
 しかし、イメージ区分化プロセス40は、このような情報を入力として必要としないで機能する。好ましい実施形態では、過去の乗客特性及びデータは、イメージ区分化プロセス40によって利用でき、システム16が周囲イメージ38内の重要な部分に焦点を合わせ、あるいは区分化プロセス40に上方および状況内容を包含させることができる。
 区分化イメージ31は、イメージ区分化プロセス40の結果として生じる。異なる実施形態では、この区分化イメージ31は、広範囲の差分イメージ及びイメージ特性の形で位置的に受け取ることができる。しかし、位置的な乗客特性の領域内での多くの乗客特性は、エアバッグ展開決定の中に組み入れられない。エアバッグ展開のための重要な特性は、位置特性と動き特性に一般的に関係する。それゆえ、区分化イメージ31の全体が後に続く処理動作を受ける必要はない。
 好ましい実施形態では、長円適合サブシステム44は、区分化イメージ31の周囲を1つの長円に適合させるのに用いられ、その結果、システム16は、区分化イメージ31を、外部特性を含まない対象物として、1つの長円上で連続的に処理することができる。別の実施形態では、複数の点による外形状または形態は、システム16によって乗客18を表すための代わりとして用いることができる。
 追跡サブシステム46は、位置、速度、加速度、及び他の特性等の乗客特性を追跡するために使用することができる。ある実施形態では、この追跡サブシステム46は、先行推定(extrapolate forward)のために乗客特性を用いることができ、センサ測定の間に、これらの特性の予測値を生成する。好ましい実施形態では、追跡及び予測サブシステム46は、1つまたは複数のカルマンフィルタを用い、確率−重み付け方法により過去のセンサ測定値を最近のセンサ測定値に組み込むことができる。カルマンフィルタは、以下で説明する。
 この追跡及び予測サブシステム46は、広範囲の異なるサブシステムを組み込むことができ、サブシステムは、乗客特性の異なるサブセットに焦点を合わせる。例えば、追跡及び予測サブシステム46は、形状特性を追跡しかつ予測するための形状追跡器/予測器モジュール48と、動き特性を追跡しかつ予測するための動き追跡器/予測器モジュール50を含むことができる。これらのモジュールによって実行されるプロセスは、以下で詳細に説明される。
 追跡サブシステム40による情報がエアバッグコントローラ32に送られ、エアバッグ展開サブシステム36により適当な動作が実行される。ある環境では、エアバッグ展開危険ゾーン内に乗客が現在または将来において存在するかによってエアバッグの展開を遅らせる。また、ある実施形態において、エアバッグ展開は、乗客18に吸収されるのに必要なエアバッグの運動エネルギー量に相当する種々の強さで起こるように構成することができる。この追跡サブシステム40は、衝突が起こるか否か、及びこのような衝突によりエアバッグを展開させるかどうかを決定するために用いることができる。
III. イメージ区分化ヒューリステック手法
 図4は、システム16によって実行できるイメージ区分化ヒューリスティックの例を説明するフローチャート図である。システム16は、柔軟性を有し、かつ図面に示すプロセスに対して広範囲で異なる変化を組み入れることができる。ある実施形態では、他の処理ステップを追加しながら、僅かな処理ステップを適用できる。好ましい実施形態において、カメラ22によって捕えられた周囲イメージ38の各々は、図面で示されたプロセス等の区分化処理を受けることになる。
 A.注目領域及び注目領域モジュール
 周囲イメージ38内の注目領域は、ステップ52で決定される。このプロセスは、システム16の全ての実施形態において実行する必要はない。しかし、システム16のエアバッグ展開決定及び他の利用に関して共通である時間及びリソースの制限条件に照らして、周囲イメージ38のある領域に焦点を合わせることは好ましいことである。
 注目領域の決定は、区分化サブシステム40内の注目領域モジュールによって実行される。好ましい実施形態では、乗客の直前の位置(例えば、先行周囲イメージ36内の先行区分化イメージ31の最近位置または先行周囲イメージ38内の区分化イメージ31の最近の予測位置)が、現在の周囲イメージ38内の最近(現在)の区分化イメージ31の最もありそうな位置を決定するのに用いられる。追跡サブシステム46が将来を予測する能力を有し、この将来の予測は、注目領域モジュールを起動するのに必要な情報を与えることができる。位置データと動きデータの両方は、好ましくは、注目領域分析に組み入れることができる。乗客のタイプ(例えば、成人、子供、チャイルドシート等)の乗客特性及び他の関連する位置的な乗客特性もまた、この分析に組み入れることができる。
 好ましい実施形態では、追跡サブシステム46は、最後に計算された区分化イメージ31(一般的に1つの長円で表される)の位置及び形状を受け取り、そして、このイメージを、状態転移マトリックスを与える現在のイメージフレームに投影する。このプロセスは、以下で論じられる。現在の長円パラメータは、状態転移マトリックスによって乗算され、現在の時間において予測される新しい値を出力する。
 好ましい実施形態において、注目領域は、長円適合サブシステム44によって発生する長円の長軸に沿って指向する矩形として定義される。別の実施形態では、異なる形状又は一連の形状が、システム16によって用いられる。好ましい実施形態では、矩形の高さは、好ましくは、長円の頂部上方の予め決められたピクセル数であり、矩形の下側エッジは、長円の中心または重心の下側の「N」ピクセルであると定義される。これは、イメージの底部近くのピクセルを無視する。乗客18は、座席内に固定される腰の回りに回転するので、最小の動きとなることから、イメージの底部近くのピクセルは無視する。
 この仮定は、乗客18がシートベルトを用いる時に、特に当てはまるが、この仮定は、シートベルトが使用されていない状況でもなお有効である。別の実施形態では、上述した注目領域よりも異なるより大きいまたは小さい注目領域を包含することができる。比較的小さい注目領域に焦点を合わせることにより、処理時間が短縮される。更に、手を振った物を車両の窓まで運ぶ等の無縁な動きは、適当に無視することができる。好ましい実施形態では、周囲イメージに関連して更に処理するための注目領域のみが、周囲イメージ内の注目領域を意味するものと理解される。別の実施形態では、次に続く処理は、注目領域に制限されない。注目領域がステップ52で決定された後、システム16の処理は、平行して、同時に実行される。他の実施形態では、これらのつながりは、2つの処理を同時に実行することなく、単一のものとして組合せることができる。
 B.差分イメージ(Difference Images)とイメージ差分モジュール
 イメージ差分モジュール53は、上述した注目領域上のイメージ差分ヒューリスティック手法を実行するのに用いることができる。このイメージ差分モジュール53は、「差分」イメージを生成し、このイメージは、現在(例えば、最新で捕捉された)の周囲イメージ38と前の周囲イメージ38との間の差分を表す。差分の絶対値は、システム16に用いられ、現在の周囲イメージ38における差分値を有するピクセルを識別する。従って、ピクセルは、動いているイメージの対象物すなわち乗客の境界を表す。車両の内装等の静止した対象物は、前のイメージから現在のイメージにおいて変化しないので、最小の絶対値となり、除去される。このイメージ差分モジュール53は、動いている対象物の境界部分を示す差分イメージを効果的に発生させることから、差分イメージは、最も大きく知覚された動きを有する対象物の輪郭を表す。
 C.ローパスモジュール
 好ましい実施形態において、ローパスフィルタは、上述した差分イメージに適用される。このローパスフィルタは、高周波ノイズを減少させるのに役立ち、またわずかな差分イメージをぼやかし、差分イメージの輪郭の幅を広げるのに役立つ。これは、以下で説明するように、連続処理操作におけるマスクとして順次用いるために重要なものとなる。図面において、ローパスフィルタ及びその機能は、イメージ差分モジュール53内に組み入れられる。
 D.将来の差分イメージのための周囲イメージの保存
 現在の周囲イメージ38は、ステップ54で保存される。その結果、この周囲イメージは、システム16によって処理される次の周囲イメージ38に対する前の周囲イメージ38として役立つ。別の実施形態では、前の周囲イメージ38の重み付けされた組合せが、差分イメージを発生するために作り出されかつ保存される。
 E.クリエイト勾配イメージモジュール(Create Gradient Image Module)
 好ましい実施形態では、勾配イメージモジュール56は、クリエイト勾配イメージを形成するヒューリスティック手法を実行して注目領域の勾配イメージを作り出すために、注目モジュール52の領域により識別される注目領域を用いる。この勾配イメージのヒューリスティック手法は、イメージ振幅、例えば、動いている区分化イメージ31の一部分を急速に変える領域を有する目標物イメージの領域を見出す。好ましい方法は、現在の周囲イメージ38、または、好ましくは、現在の周囲イメージ38の注目領域におけるX方向及びY方向の勾配(偏差)を計算することである。
 Y方向の計算式は、
   イメージ(i,j)−イメージ(i,j-N) 
である。ここで、「i」は、ピクセルに対するX座標を表す。「j」は、ピクセルに対するY座標を表す。「N」は、イメージ振幅における変化を表す。
 X方向の計算式は、
   イメージ(i,j)−イメージ(i-N,j) 
である。勾配イメージにおいて識別される境界は、テンプレート更新操作等の次に続く処理のために用いられる。
    [方程式1]
   勾配イメージ(Y方向)=イメージ(i,j)−イメージ(i,j-N) 
    [方程式2]
   勾配イメージ(X方向)=イメージ(i,j)−イメージ(i-N,j) 
 F.イメージ差分閾値モジュール(Image Difference Threshold Module)
 イメージ差分閾値モジュール58(即ち、単純に閾値モジュールという。)は、閾値ヒューリスティック手法を実行し、ステップ53で作られた「差分イメージ」上で閾値ヒューリスティック手法を実行するために用いることができる。このステップ58にある閾値ヒューリスティック手法は、現在の周囲イメージ38、即ち、好ましくは、現在の周囲イメージ38における注目領域がシステム16によって順次処理されるべきかどうかを決定するのに用いられる。このステップ58での閾値ヒューリスティック手法は、勾配イメージ用のマスクとして順次用いることができ、その結果、ドアトリムのエッジ、及び他の動かない内部要素等の一定なエッジを取り除く。
 1.イメージの閾値化
 閾値差分イメージの形成は、「差分」イメージにおける明るさの差分の大きさを閾値にあわせることができ、この閾値は、予め決められた又は好ましくは処理される周囲イメージ38からの明るさのデータから生成される。周囲イメージ38自体の特性を用いる差分イメージを閾値化するために、ピクセルの明るさの値のヒストグラムが最初に作り出される。
 (a) ヒストグラム
 好ましい実施形態において、閾値は、異なる値のヒストグラムを作り出すことによって計算される。図5は、このようなヒストグラムの一形式の例である。
 カメラ22によって捕らえたどのイメージも、1つまたはそれ以上のピクセル78に分割することができる。一般的な問題として、周囲イメージ38におけるピクセル40の数が多くなればなるほど、イメージ38の解像力はその分よくなる。
 好ましい実施形態では、周囲イメージ38の幅は、横方向に少なくとも概略400ピクセルであり、この周囲イメージ38は、少なくとも高さ方向に概略300ピクセルである。このピクセルの数があまりに少ないと、区分化イメージ31を周囲イメージ38から分離することができない。しかし、ピクセル78の数は、カメラの形式およびモデル次第であり、カメラ22は、一般的に、ピクセルの数が増加するに従ってより高価になる。標準的なビデオカメラは、概略、横方向に400、縦方向に300のピクセルのイメージを捕えることができる。このような実施形態では、かなり詳細な周囲イメージ38を捕えるとともに、比較的安価な標準のカスタマイズされないカメラ22を用いることができる。この結果、好ましい実施形態では、注目領域が僅かにすくないピクセル78を含んでいるが、全体で概略120,000(400×300)ピクセル78を使用することができる。
 各ピクセル78は、システム16によって用いられる1つまたは複数の異なるピクセル特性または属性(集合的に「特性」76という。)を有し、周囲イメージ38から区分化イメージ31を分離する。ピクセル78は、1つまたは複数のピクセル値によって表現される各特性を有する1つ以上のピクセル特性76を有することができる。ピクセル特性76の一例は、明るさ測定(明度)である。好ましい実施形態では、「差分」イメージにおけるピクセル特性76は、現在の周囲イメージ38と前の周囲イメージ38との間の明るさの値における差分を表す。明るさのピクセル特性76は、測定され、保存され、そして、特定のピクセルに関係するピクセル値76として処理される。
 好ましい実施形態では、明るさは、0と255の間の数値的なピクセル値によって表すことができる。このようなスケールでは、0の明るさは、最も暗い明度(黒)を示し、255の明るさは、最も明るい明度(白)を示す。別のピクセル特性は、色、熱、2つ以上の特性の重み付け組合せ、または周囲イメージ38から区分化イメージ31を区別するために用いられる位置的な特性を含むことができる。別の実施形態として、ピクセルを区別するために他の特性を用い、このピクセル特性のヒストグラムを形成することができる。
 図面に示すヒストグラム74は、個別または組合せの特定のピクセル特性76(集合的な「特性」)を備えるピクセル78の数を記録する。このヒストグラム74は、ピクセル特性に対する特定のピクセル値を有するピクセル78の総数を記録する。その結果、図の右端位置のY値は、255(明度における最も大きな差分がある値)の明るさを有するピクセル数を示し、図の左端位置のY値は、0(明度の差分がない値)の明るさを有するピクセル数を示す。
 (b) 累積分布関数
 図5のヒストグラムは、図6に示すような累積分布関数を形成するために用いることができる。累積分布曲線80は、システム16がピクセルの明るさ(または他の特性)における変化が、真に区分化イメージ31と周囲イメージ38の間の境界を示すかどうかの判定するために、「信頼度ファクタ」指示器を包含することができる。
 累積分布曲線80は、ピクセル78の上部N%を選択するための能力を有する。縦軸は、累積確率82を表し、これは、システムが間違えずにどのピクセル78が乗客18の境界ピクセル78を表すものであるかを正しく識別したかを示す確率である。この累積確率82は、1−Nの値であり、ここで、Nは、動きピクセル78の上部N%を選択するのに用いられる値である。例えば、上部N%のピクセル78を選択すると、0.9の確率を生じ、この0.9の確率は、周囲ピクセルが間違いなくセグメント化ピクセルとして識別される確率を表す。
 絶対的な確かさ(1.0となる確率)は、全ての120,000ピクセルが周囲ピクセル78であると仮定することによって、例えば、乗客18の区分化イメージ31を表すピクセルが全くないことを確かめることによってのみ達成できることである。このような絶対的確かさは、システム16に有効ではなく、また乗客18の形状を作り出すためのシステムの開始点を与えるものでもない。逆に、0値すなわち限りなく0に近い、つまり、正確さの基準が低い場合、境界ピクセル78のカテゴリーから十分なピクセル78を排除することができない。好ましい実施形態において、0.85の確率を望む場合、上部15%のピクセルが求められる。ある別の実施形態では、異なる光状態がイメージ領域によって差分ピクセル78をグループ化するのに有効である。差分イメージ領域は、差分N値を有する。
 マルチイメージ閾値環境において、0.90、0.80、又は0.70の確率は、一般的に、正確度の高い確率を示すので好ましい。また同時に、実質的にピクセル78のベースを与える。好ましい実施形態では、マルチイメージ閾値システム16は、イメージ閾値すると同じ数の多くの累積分布関数80を有している。
 本システム16は、多くの異なる方法で組み合わせることができる多数の差分イメージ及び多数のイメージ閾値を含むことができる。例えば、閾値0.90、0.70、0.50の確率は、多様性のある異なるヒューリスティック手法を用いて組み合わせる3つの閾値の差分イメージを作り出すのに用いることができる。
 (c) 差分イメージの閾値
 図7は、単一のイメージ閾値の実施例を示すブロック図である。イメージ閾値84は、システム16が特定のピクセル78のピクセル値を図6における所望の累積確率82によって決定される閾値と比較することによって境界ピクセルの上部N%を選択することができるようにする。好ましい実施形態では、差分イメージの閾値は、二進化イメージとなる。閾値よりも等しいかまたは大きい、ピクセル対ピクセル値が、1として設定される。他のピクセル値は全て0に設定される。好ましい実施形態では、このプロセスは、二進化イメージとして、各ピクセルが1かまたは0の値を有するようになる。
 2.差分イメージは、次に続く処理操作にとって価値があるか
 図4において、閾値化された差分イメージは、差分イメージであるか否かを決定するのに用いられる。そして、周囲イメージ38から差分イメージが導き出され、この周囲イメージは、次に続く処理操作に役立ち、かつシステム16によって信頼性を有する。差分イメージにおける動きが大きすぎる場合、次に続く処理操作に公正に用いるための信頼性が不十分となる。動きが大きすぎることは、乗客18が座席中に着ているセーターを首から脱いだとき等のランダム状況において発生するものである。このような状況では、多くの動きが生じ、システムは、エアバッグコントローラ32に送るための1つの長円を用いて表現できなくなる。動きがあまりに大きすぎると、ステップ62において、システムは、追跡及び予測サブシステム46が乗客18の現在の特性に関して発生する最新の予測に頼るか、または以下で記載するように最新の予測の前に推論するかのいずれを行う。
 動きがあまり小さすぎると、最後の周囲イメージ38から変更した材料がないので、システムは、ステップ60で前の処理ループによって生じた前の長円を頼ることができる。動きがあまりに小さいかあるいは大きい時の問題を解決することは、システム16の正確度を改善できる。動きがあまりに大きいか小さいかどうかの判定は、システム16内に包含され、このシステムがイメージ閾値を、動きが大きすぎるかまたは小さすぎるかを表す事前に決められたイメージ閾値と比較する。
 G.クリーン勾配イメージモジュール(Clean Gradient Image Module)
 クリーン勾配メージモジュール(単純クリーンイメージモジュール)64は、クリエイト勾配イメージモジュール56によって導かれた勾配イメージを「クリーン」にするために用いることができる。クリエイト勾配イメージモジュール56を通過した、この勾配イメージ(好ましくは、初期の注目領域に限定される)は、車両内部からドアトリム等のエッジ部分を含んでいる。これらのエッジは、乗客18の一部を構成しないので、関係しない。閾値差分イメージは、イメージ内の必要としない一定要素を取り除くためのマスクとして用いることができ、さらに、区分化イメージ31のエッジでかつエッジの動きを示すピクセルのみを保存する。これは、システム16が背景ピクセルから動きピクセルを区別するのに役立ち、以下で示すテンプレートマッチング及びテンプレート更新プロセス等の次に続くヒューリステック手法の正確度を増加させる。
 H.テンプレートマッチングモジュール(Template Matching Module)
 テンプレートマッチングモジュール66は、システム16によって起動する。このテンプレートマッチングモジュール66は、テンプレートフィティング又はテンプレートマッチングヒューリスティックを実行する。以下の好ましい実施形態において記載するように、テンプレートイメージは、前の区分化イメージである。別の実施形態では、テンプレートイメージは、事前に決められるが、以下で示すように、好ましくは、調整を受けることになる。異なるテンプレートマッチングヒューリスティックの多様性は、テンプレートマッチングモジュール66によって実行することができる。このようヒューリスティックの1つは、ハウスドルフ ディスタンス ヒューリスティック(Hausforf Distance heuristic)である。ハウスドルフ ディスタンス ヒューリスティックの一例は、方程式3で与えられる。
Figure 2004133945




 変数「m」は、テンプレートイメージの点であり、変数「I]は、差分イメージにおける点である。このディスタンスは、一方のイメージから他方のイメージへの最も近い非ゼロピクセルに対する距離(ピクセルにおける)である。ハウスドルフ ディスタンス ヒューリスティックの差分変数は、システム16によって用いることができる。
 テンプレートイメージは、ある角度範囲で回転することができ、センサ測定の間の時間の中で乗客18を回転させることができる。これは、ビデオカメラの複数フレーム間の時間で、車両が高速度のブレーキ状態にありかつ乗客がシートベルトのヒップハーネス部分の回りで回転した場合の最悪な状況において、一般的に±6度である。
 回転した各角度に対して、ハウスドルフ ディスタンス ヒューリスティックは、差分イメージと回転したテンプレートイメージとの間の「距離」の計算を実行することができる。テンプレートイメージと差分イメージは、好ましくは、両方とも二進化イメージである。最も低いハウスドルフ ディスタンスを有するテンプレート位置は、差分イメージに最も良く整合するテンプレートの回転角度になっている。
 最小のハウスドルフ ディスタンスは、明らかに明瞭となっていない場合、初期に捕捉された周囲イメージ38に対していくらかずれている。例えば、乗客18は、一時的に、カメラ22をかれらの頭で遮ることがある。最も低いハウスドルフ ディスタンスと第2のハウスドルフ ディスタンスとの間の差は、システム16内の包含される所定の閾値と比較するとき、あまりに小さすぎる場合、そのとき、システム16は、現在の周囲イメージ38を無視し、その代わりに、追跡及び予測サブシステム46を用いて区分化イメージ31の将来の予測を推定する。
 I.更新テンプレートモジュール
 適合したテンプレートは、適当な区分化イメージ31が発生し得ることを示す場合、システム16は、更新テンプレートモジュール68を起動して、テンプレートイメージを将来の使用のために高めることができる。テンプレートイメージは、最初、テンプレートを角度的に動かして得られるテンプレートシルエットによって形成される。この設定点は、新しい勾配イメージ内でサーチされる。テンプレートは、新しい勾配イメージにおける角度に最も合致するように回転させられる。制御点の各々に対して、シルエットの正接点に垂直なラインが形成される。
 更新テンプレートのヒューリスティック手法は、垂直ラインに沿う位置を増分させ、最も合致する勾配イメージのラインセグメントを見つける。ある実施形態では、この新しい位置の設定は、コンピュータ30に一連のデータ点として記憶され、将来、1つのテンプレートイメージとして用いることができる。他の実施形態では、三次スプライン適合(cubic spline fit)が、一連のデータ点から形成され、そして、シルエットに沿う新しい設定制御点が、テンプレートの回りの等しい間隔を置いた角度で形成される。このスプライン線は、新しいシルエットとして役立つ。
 図8aは、テンプレートイメージ31、即ち、前の区分化イメージ31の一例を図示したものである。図8bは、テンプレートイメージが回転させられる角度86の範囲を示す一例である。図8cは、1つのイメージに適用される角度範囲の一例であり、図8dは、システム16によって生成される長円88の一例である。図8eは、乗客18の更新テンプレート全体に適合する長円の一例であり、図8fは、イメージテンプレートとして将来用いるために生じるであろう新しいシルエットの一例である。
 J.長円適合モジュール(Ellipse Fitting Module)
 最も適合したテンプレートが決定されかつ変更されると、システム16は、対応する長円パラメータを抽出して、これらのパラメータが追跡及び予測サブシステム46に供給される。
 長円適合モジュール70は、最適にマッチングしかつ更新されたテンプレートに1つの長円88を適合させるために用いられる。このモジュールの機能は、長円適合サブシステム44内のイメージ区分化サブシステム40から分離して実行することができる。いずれの場合においても、システム16は、多様な異なる長円適合ヒューリスティック手法を含んでいる。長円適合ヒューリスティックは、直接最小二乗法によるヒューリスティック手法である。
 この直接最小二乗法によるヒューリスティック手法は、最小二乗適合のために用いることができる1つの座標サンプル値(x、y)として、テンプレート上の非ゼロの各ピクセルを取り扱う。好ましい実施形態では、長円の下側部分は動かないと仮定する。そして、この下側部分は、上述したように識別された注目領域の部分ではない。最新の長円の下側部分を用いることにより、システム16は、長円がシート上の長円の最も下側部分に正しく指向できるようにする。乗客の動きについての仮定が正確でなければ、その結果の垂直動きは、非常に大きい動きをもたらし、そして、システム16は、イメージを捨てる。さらに、上述したように、ステップ62において、最終予測の推定にたよることになる。下側部分が注目領域の部分ではないことを考慮に入れて長円を完成させるために、最終の長円の下側部分を用いることができる。シート上の長円の最も下側部分を用いて長円の正しい位置決めを容易にする。システム16は、システム16の初期回転による初期長円に基づいて、多数の異なるサンプル長円を利用することができる。
IV. 長円および乗客特性
 システム16のエアバッグ展開装置において、システム16は、関連した乗客特性を監視するために、好ましくは乗客を表すための長円88を用いる。別の実施形態では、他の形状が、乗客18の区分化イメージ31を表すのに用いられる。好ましい実施形態では、長円適合サブシステム44によって実行される長円適合ルーチンを示す。好ましい実施形態では、長円適合サブシステムは、コンピュータ30内のソフトウエアであるが、別の実施形態では、長円適合サブシステムは、異なるコンピュータまたは装置内に内蔵することもできる。
 好ましい実施形態では、乗客特性を追跡しかつ予測するために用いられる長円88は、乗客18の腰から頭まで伸びている。図9は、エアバッグ展開装置36に関する乗客18の区分化イメージ31のいくつかの特性を表すために、長円から導くことができる多数の変数を示している。長円88の重心94は、乗客18の特性を追跡するためにシステム16によって識別することができる。長円の重心94を識別する方法については従来技術より知られている。別の実施形態では、エアバッグ展開装置36または他の処理動作に関連する乗客18の特性を追跡するために、長円88上の他の点を用いることができる。乗客特性の多様性は、長円88から導き出せる。
 動き特性は、重心94のX軸(「距離」)98と前方傾斜角度(「θ」)100を含んでいる。形状測定は、重心94のY軸(「高さ」)96、長円の長軸の長さ(「主軸長」)90、および長円の短軸長さ(「短軸長」)92を含んでいる。
 別の実施形態は、広範囲の異なる乗客特性または長円の属性を利用する。情報の変化率及び速度(一次導関数)及び加速度(二次導関数)等の他の数学的導関数は、好ましくは、全ての形状および動き測定のために捕捉される。その結果、本発明の好ましい実施形態では、9つの形状特性(高さ、高さ’、高さ”、長軸の長さ、長軸の長さ’、長軸の長さ”、短軸の長さ、短軸の長さ’、短軸の長さ”)と6つの動き特性(距離、距離’、距離”、θ、θ’、θ”)がある。側方傾斜角度Φは、イメージ平面に垂直であるので示されない。また、この側方傾斜角度Φは、以下で詳述するように導かれかつ測定されない。動き及び形状の各特性は、乗客18の体重、究極的には、質量を計算するのに使用される。その結果、乗客18の運動エネルギーが決定される。別の実施形態では、乗客特性の数が大きい場合と小さい場合を受け入れる。
 図10は、側方傾斜角度(Φ)102を示している。本発明の好ましい実施形態では、3つだけの形状状態、運転者が向かって左側に傾斜(左側)106、真直ぐ座っている(中央)104、および運転者から離れるように右側に傾斜(右側)108の各状態があり、側方傾斜角度−Φ、0、Φで表す。好ましい実施形態において、Φは、使用される車両の特性に従って、15°と40°の間の値に設定される。別の実施形態では、異なる数の形状状態及び側方傾斜角度102の異なる範囲を組み入れることもできる。
V.マルコフの確率チェイン
 システム16は、多重カルマンフィルタの多重モデルの確率重み付けした実行を行うものである。好ましい実施形態では、異なるカルマンフィルタは、形状特性に適合するカルマンフィルタよりも、動き特性に適合するカルマンフィルタとなる。さらに、好ましくは、各形状状態に対する個別のカルマンフィルタを有する。同様に、個別の各動き特性は、システム16によって支持される各動きモードに対する個別のカルマンフィルタを有することが望ましい。1つの状態から別の状態への移動、及び1つのモードから別のモードへの移動に関連した既定の確率がある。これらの確率は、マルコフチェインを用いて説明することができる。
 システム16は、柔軟性があり、かつ広範囲の異なるモードおよび状態に対して広範囲の異なる確率をサポートすることができる。システム16のユーザーは、マルコフチェインに表現された変数の中に自由にかれらの確率を設定することができる。これらは以下で詳細に説明される。これは、異なる実施形態及び異なる作動環境において、このシステム16の柔軟性を最大にする。
 図11は、本発明の好ましい実施形態において使用した3つの形状状態を示している。この実施形態では、乗客18は、ドライバーに向けて傾斜する(左側)106、真直ぐ座る(中央)104、およびドライバーから離れる方向に傾斜する(右側)108のいずれかである。乗客18の確率は、特定の状態にあり、この特定状態での終端は、次に続く形状状態に向けて示す矢印を用いて特定形状状態から発生するラインによって識別することができる。たとえば、中央状態に留まっている中央状態にいる乗客の確率PC-Cは、矢印110で表される。中央位置から左側に動く確率PC-Lは、矢印114で表される。また、中央位置から右側に動く確率PC-Rは、矢印112で表される。全体の確率は、中央104の初期状態から1になるまで付加しなければならない。
    [方程式4]
 PC-C+PC-L+PC-R=1.0
 同様に、ある特定状態から発生する全ての確率は、また、1.0まで付加されなければならない。
 矢印118は、左側に傾斜する乗客18が次の時間間隔まで中央位置に座っている確率PL-Cを表す。同様に、矢印120は、左側に傾斜する乗客18が次の時間間隔まで右側傾斜にいる確率PL-Rを表す。また、矢印116は、左側に傾斜する乗客18が次の時間間隔まで左側傾斜にいる確率PL-Lを表す。左側の初期傾斜の状態から生じる全ての可能な確率の合計は1に等しい。
    [方程式5] 
L-C+PL-L+PL-R=1.0
 最後に、矢印122は、右側傾斜の乗客が右側傾斜に留まる確率PR-Rを表す。矢印124は、右側傾斜の乗客が中央状態位置に入る確率PR-Cを表す。矢印126は、乗客が左側に向かって傾斜する確率PR-Lを表す。右側の初期傾斜の状態から生じる全ての可能な確率の合計は、1に等しい。
    [方程式6]
 PR-C+PR-L+PR-R=1.0
 実際には、一般的なビデオカメラ22は、毎秒40〜100フレームの間で捕捉する(このましい高速度ビデオカメラ22では、毎秒250〜1000フレームの間で捕捉する)。それゆえ、最初に中央位置の状態に転位することなしに、左側106に傾斜する乗客が、右側108に傾斜する乗客となることは本質的に不可能であり、また、右側108に傾斜する乗客が、左側106に傾斜する乗客となることも本質的に不可能である。さらに、左側106に傾斜する乗客が、右側108に傾斜する乗客になる前に、先ず中央位置104の状態に入るであろうし、同様に、左側106に傾斜する乗客が右側108に傾斜する乗客となる前に中央位置104の乗客となることは更に現実的である。それゆえ、好ましい実施形態では、傾斜位置120の確率PL-Rは、ゼロに等しくはないがそれに近い低い確率に設定され、また、傾斜位置126の確率PR-Lもまたゼロに等しくはないがそれに近い低い確率に設定されるべきである。
 図12は、動きモードに関する確率を表す同様のマルコフチェインを示す。システム16の好ましい実施形態では、4つの動きモード、即ち、人が眠っているような静寂モードにある乗客18を表す静止モード130、自動車または他の車両内に一般的な乗客として行動し、もちろん極端でない通常の動きをする乗客18を表す人間モード132、衝突または衝突前ののブレーキ操作(ブレーキング)のモードにある車両の乗客18を表す衝突モード134を用いる。
 乗客が特定モードの状態にある確率、及び次のインクリメント動作の特定モードにおいて終了する確率は、新しい状態を示す矢印を用いて現在の状態において生じるラインによって識別される。たとえば、静止状態の乗客が静止モードに留まる確率PS-Sは、矢印136によって表される。静止モードから人間モードに移動する確率PS-Hは、矢印138で表される。また静止モードから衝突モードへ移動する確率PS-Cは、矢印140である。初期の静止モード130から生じる全体の確率は、1まで付加されなければならない。その結果、形状状態に対する3つの確率方程式は、次の通りである。
    [方程式7]
 PS-S+PS-H+PS-C=1.0
 同様に、人間モードから人間モードへの確率PH-Hは、参照番号142で示され、人間モードから静止モードへの確率PH-Sは、参照番号144で示され、人間モードから衝突モードへの確率PH-Cは、参照番号146で示され、静止モード132の初期状態から生じる全体の確率は、1まで付加されなければならない。
    [方程式8]
 PH-H+PH-C+PH-S=1.0
 衝突モードから衝突モードへの確率PC-Cは、参照番号148で示され、衝突モードから静止モードへの確率PC-Sは、参照番号150で示され、衝突モードから人間モードへの確率PC-Hは、参照番号152で示される。衝突モード148の初期状態から生じる全体の確率は、1まで付加されなければならない。
    [方程式9]
 PC-C+PC-S+PC-H=1.0
 実際問題として、乗客18が衝突状態134に入ったときにその状態のままでいることは、ほとんどありえない(不可能な)ことである。多くの筋書きの下で、衝突134は、乗客18の過失によるものである。それゆえ、好ましい実施形態では、確率PC-H、PC-B、及びPC-Sは、ほどんどゼロに設定される。本システム16では、衝突状態134を残す機会がありえることが望ましく、またシステム16がノイズ状態、或いは他の通常でない現象に瞬間的になる場合に、衝突状態134になっていることが望ましい。別の実施形態では、ある確率を特定の値、0〜1の間に設定することができ、また異なる数のモードを用いることもできる。システム16は、好ましくは、システム16の特定の実施形態及び環境をカスタマイズされる広範囲の確率を組み入れることができる。
 種々の形状状態及び動きモードに関連した遷移確率は、特性と状態の各組み合わせに対するカルマンフィルタ方程式を生成するために用いられる。これらのフィルタの結果は、各カルマンフィルタに対して適切な重み付けを与える種々の確率を用いて、1つの結果に集合させることができる。全ての確率は、システム16の使用者によって予め規定される。
 マルコフチェインの確率は、各特性及び各状態と各モードに対して種々のカルマンフィルタを重み付けするための手段を与える。追跡/予測サブシステム46は、2つのサブシステム、形状追跡器/予測器48と、動き追跡器/予測器50の2つの形式内にマルコフチェインの確率を組み入れる。
VI.形状追跡器/予測器
 図13は、形状追跡器/予測器48のための詳細なフローチャート図を示す。本発明の好ましい実施形態では、形状追跡器/予測器48は、長円88の長軸(長軸)90、長円88の短軸(短軸)92、及び重心94のy座標(高さ)96を追跡しかつ予測する。各特性は、特定の特性に対する、位置を表すベクトル、速度、および加速度の情報を有する。長軸のベクトルは、[長軸の長さ、長軸の長さ’、長軸の長さ”]であり、「長軸の長さ’」は、長軸又は速度における変化率を表す。「長軸の長さ”」は、長軸の速度又は加速度における変化率を表す。従って、短軸のベクトルは、[短軸の長さ、短軸の長さ’、短軸の長さ”]であり、高さのベクトルは、[高さ、高さ’、高さ”]である。他の形状ベクトルも、同様に、位置、速度(変化率)、及び加速度(二次導関数)の成分を有するであろう。
 形状追跡器/予測器48は、ステップ126において形状予測の更新、ステップ200において共分散/ゲインマトリックスの更新、ステップ204において形状推定値の更新、ステップ206において組合せた形状推定値の出力がそれぞれ実行される。これらのプロセスは以下で説明する。ステップ200からステップ206までのループは、システム16が作動中は永久である。上記プロセスを通過する初期のループの間、ステップ200において形状予測を更新せず、またステップ202において共分散/ゲインマトリックスを更新しない。その結果、最初のループは、ステップ204にスキップされる。次のループにおいて、形状追跡及び形状予測のプロセスにおける最初のステップは、ステップ200における形状予測の更新である。形状追跡器/予測器48は、また、乗客18が左側傾斜、右側傾斜、又は中央位置に座っているかどうかを推論する。この情報は、以下に詳細に説明するように、乗客が危険ゾーンにあるか否かを決定するのに使用することができる。
 A.形状予測の更新
 更新形状予測の工程は、ステップ200で実行される。この工程は、最新の形状推定を行うもので、遷移マトリックスを用いて、その形状推定における未来の予測を推論する。
    [方程式9]
 更新ベクトル予測値=遷移マトリックス×最新のベクトル推定値
 遷移マトリックスは、ニュートン力学を最新のベクトル推定値に適用して、過去の位置、速度、及び加速度に基づいて、乗客18がいると思われる先の予測値を推定する。最新のベクトル推定値は、以下で説明するようにステップ204で与えられる。
 次の方程式は、全ての形状変数及び全ての形状状態に対して適用される。ここで、xは、形状変数であり、Δtは、時間に対する変化、即ち、速度を表し、
(1/2)Δt2は、加速度を表す。
Figure 2004133945




 本発明の好ましい実施形態において、ステップ200において、9つの更新ベクトル予測値があり、それは、好ましい実施形態において、3つの形状状態と3つの非誘導式の形状変数があり、3×3=9となるからである。更新形状ベクトル予測値は次の通りである。
中央状態のための更新された長軸長さ
右側状態のための更新された長軸長さ
左側状態のための更新された長軸長さ
中央状態のための更新された短軸長さ
右側状態のための更新された短軸長さ
左側状態のための更新された短軸長さ
中央状態のための更新された高さ
右側状態のための更新された高さ
左側状態のための更新された高さ
 B.更新の共分散(Update Covariance)及びゲインマトリックス
 形状予測値が、ステップ200において、全ての変数及び全ての状態に対して更新された後、ステップ202において、形状予測値の共分散マトリックス、形状ゲインマトリックス、および形状推定共分散マトリックスが更新される。形状予測値の共分散は、予測工程における誤差の原因となる。上述のゲインは、最新の測定値がその測定セグメンテーション処理における誤差を受け入れかつこの誤差を説明する重み付けを表す。形状推定値共分散は、推定処理における誤差を表す。
 予測値共分散は、先ず最初に更新される。各形状予測共分散マトリックスを更新するのに用いる方程式は、次の通りである。
    [方程式12]
形状予測値共分散マトリックス=[状態遷移マトリックス×旧推定値共分散マトリックス×転置(状態遷移マトリックス)]+システムノイズ
 状態遷移マトリックスは、形状予測値を更新するために上記において用いられニュートン力学で表現されたマトリックスである。旧推定値共分散マトリックスは、ステップ204において以前のループから生成される。ステップ200から206の第1ループ上では、ステップ202はスキップされる。マトリックスの転置を得ることは、単純にマトリックスの行と列を入れ替えることであり、従来から知られている。それゆえ、状態遷移マトリックスの転置は、列と行を入れ替えた状態遷移マトリックスである。システムノイズは、システム内にノイズの概念を含ませるのに使用される定数マトリックスである。システムノイズマトリックスに用いられる定数は、本発明の使用者によって設定されるが、ノイズ定数を選択する実行は、従来から知られている。
 更新すべき次のマトリックスは、ゲインマトリックスである。上述したように、ゲインは、新しい測定値が与えられた時の重み付けの信頼度を表す。1つのゲインは、過去の推定値を無視できる最も正確な測定値を示す。ゼロのゲインは、最も正確度のない測定値を示し、最新の測定値が無視され、かつ本発明の使用者が過去の推定値にのみ頼っていることである。ゲインによって得られる役割は、
    [方程式13]
 X(新予測値)=X(旧予測値)+ゲイン[-X(旧予測値)+X(測定値)]
のカルマンフィルタの基本式において明らかにされる。
 ゲインは単純な数ではなく、ある1つのゲインは、形状変数と形状状態の組み合わせに対して存在する。ゲインを更新するための一般式は、方程式13である。
    [方程式14]
ゲイン=形状予測値共分散マトリックス×転置(測定値マトリックス)×inv(残余共分散)
 形状共分散マトリックスは、上式から計算される。測定値マトリックスは、ゲインを決定するための速度および加速度の成分を無視して、形状ベクトルの位置成分を分離しかつ取り出す方法である。測定値マトリックスの転置は、単純に[1 0 0]である。形状変数の位置成分を分離する理由は、速度と加速度が実際に抽出される成分であり、位置成分のみがスナップショットで測定できるからである。ゲインは実際の測定値に寄与する重み付けに関係している。
 カルマンフィルタの一般式 X(新予測値)=X(旧予測値)+ゲイン[-X(旧予測値)+X(測定値)]において、残余値は、旧推定値と新測定値との差を表す。残余値共分散マトリックスの逆行列は、ゲインマトリックスを更新するのに使用される。逆行列を得る方法は、従来公知であり、単純な線形代数学の処理である。残余値共分散マトリックスの式は、方程式14である。
    [方程式15]
 残余値共分散=[測定値マトリックス×予測値共分散×転置(測定値マトリックス)]+測定値ノイズ
 測定値マトリックスは、速度と加速度の成分から形状ベクトルの位置成分を分離するのに用いる。予測値共分散は上式から計算される。測定値マトリックスの転置行列は、行と列を入れ替えて1つの列マトリックスを同一値の1つの行マトリックス[1 0 0]に置き換えることである。測定値ノイズは、センサ22とセグメンテーション処理40に関連した誤差を含む定数である。
 更新すべき最後のマトリックスは、推定値誤差を表す形状推定値共分散マトリックスである。推定値は、現在の測定値と過去の予測値に基づいているので、推定値誤差は、一般的に、予測値誤差よりも小さい。形状推定値共分散マトリックスを更新するための式は、方程式15である。
    [方程式16]
 形状推定値共分散マトリックス=(識別マトリックス−ゲインマトリックス×測定値マトリックス)×形状予測器の共分散マトリックス
 識別マトリックスは、従来公知であり、頂部左側から底部右側への進む対角線上の数値が1で、他の行列位置の値が0からなる。ゲインマトリックスは、上式から計算される。測定値マトリックスもまた上述されており、速度と加速度の成分から形状ベクトルの位置成分を分離するのに使用される。予測器の共分散マトリックスも上式で計算される。
 C.更新形状推定値
 更新形状推定値の処理は、ステップ204で実行される。この処理の第1工程は、残余値を計算することである。
    [方程式17]
 残余値=測定値−(測定値マトリックス×予測値共分散)
この形状状態はそれぞれ更新される。
    [方程式18]
 更新された形状ベクトル推定値=形状ベクトル推定値+(ゲイン×残余値)
 個々の式に挿入してみると、その結果は次の通りである。

C (tにおける長軸の長さ)=XC (tにおける長軸の長さ)
         +ゲイン[‐XC (t-1における長軸の長さ)+XC (測定された長軸の長さ)]
L (tにおける長軸の長さ)=XL (tにおける長軸の長さ)
         +ゲイン[‐XL (t-1における長軸の長さ)+XL (測定された長軸の長さ)]
R (tにおける長軸の長さ)=XR (tにおける長軸の長さ)
         +ゲイン[‐XR (t-1における長軸の長さ)+XC (測定された長軸の長さ)]
C (tにおける短軸の長さ)=XC (tにおける短軸の長さ)
         +ゲイン[‐XC (t-1における短軸の長さ)+XC (測定された短軸の長さ)]
L (tにおける短軸の長さ)=XL (tにおける短軸の長さ)
         +ゲイン[‐XL (t-1における短軸の長さ)+XL (測定された短軸の長さ)]
R (tにおける短軸の長さ)=XR (tにおける短軸の長さ)
         +ゲイン[‐XR (t-1における短軸の長さ)+XR (測定sれた短軸の長さ)]
C (tにおける高さ)=XC (tにおける高さ)+ゲイン[‐XC (t-1における高さ)+XC (測定された高さ)]
L (tにおける高さ)=XL (tにおける高さ)+ゲイン[‐XL (t-1における高さ)+XL (測定された高さ)]
R (tにおける高さ)=XR (tにおける高さ)+ゲイン[‐XR (t-1における高さ)+XR (測定された高さ)]
 好ましい実施形態では、Cは、中央位置の状態を表し、Lは、ドライバーに向けて左側に傾斜する状態を表し、Rは、ドライバーから離れて右側に傾斜する状態を表す。文字tは、時間におけるインクリメントを表し、t+1は、時間tのすぐ後の時間におけるインクリメントを表し、t‐1は、時間tにすぐ前の時間におけるインクリメントを表す。
 D.組み合わせた形状推定値の生成
 ステップ200とステップ208の間の繰返しループにおける最後のステップは、組み合わせた形状推定値を生成するステップ208である。この処理の第1部分は、各形状ベクトル推定値にある確率を割り当てることである。残余値共分散は、上述した同一の公式を用いて再計算される。
    [方程式19]
 共分散残余値マトリックス=[測定値マトリックス×予測値共分散マトリックス×転置(測定値マトリックス)]+測定値ノイズ
 次に、各形状ベクトルに対する実際の確度が計算される。システム16は、種々の状態に対する予測値と、形状変数に対する実際の現在値を推定する最新の最上推定値とを比較して乗客の状態を決定する。
Figure 2004133945




 本システム16の好ましい実施形態にはオフセットがない。その理由は、オフセットは、互いに取り消され、システム16によって実行される処理がゼロ平均ガウス信号(zero-mean Gaussian signals)であると考えられるからである。σは平方偏差(variance)を表し、人間の開発者によって本発明の実行段階で定められる。これは、データを調べることによってσに対して有益な値を割り当てる方法は、従来公知である。
 最も高い確度を有する状態は、側方傾斜角度Φを決定する。乗客18が中央位置の状態にある場合、側方傾斜角度は0°である。乗客18は、左側に傾斜している場合、側方傾斜角度は−Φである。乗客18が右側に傾斜している場合、側方傾斜角度は、Φである。本発明の好ましい実施形態では、Φと−Φは、システム16に用いる車両の形式及びモデルに基づいて規定されている。
 次に、状態確率は、上記のように生成した確度および上述の予め規定されたマルコフモードの確率から更新される。
    [方程式21]
C=PC-C+PR-C+PL-C
    [方程式22]
 PR=PR-R+PC-R+PL-R
    [方程式23]
 PL=PL-L+PC-L+PR-L
 更新されたモード確率に対する方程式は、次の通りであり、ここでμは上記で計算された特定モードの確度を表す。
    [方程式24]
左側状態モードの確率=1/[μL*(PL-L+PC-L+PR-L)+μR*(PR-R+PC-R+PL-C)+μC*(PC-C+PR-C+PL-C)]*μL*(PL-L+PC-L+PR -L
    [方程式25]
右側状態モードの確率=1/[μL*(PL-L+PC-L+PR-L)+μR*(PR-R+PC-R+PL-R)+μC*(PC-C+PR-C+PL-C)]*μR*(PR-R+PC-R+PL-R
    [方程式26]
中央状態モードの確率=1/[μL*(PL-L+PC-L+PR-L)+μR*(PR-R+PC-R+PL-R)+μC*(PC-C+PR-C+PL-C)]*μR*(PC-C+PL-C+PL-C
 組み合わされた形状推定値は、種々の形状ベクトル推定値と関連して上記確率のそれぞれを用いて最終的に計算される。上述したように、PL-RとPR-Lとは、好ましい実施形態ではゼロに設定される。
    [方程式27]
 X=左側状態の確率*X左側+右側状態の確率*X右側+中央状態の確率*X中央
Xは、測定値の導関数である速度、加速度を含む任意の形状変数である。
 ステップ200からステップ208へのループは、車両が作動中かまたは乗客18がシート20上にいる間、連続して繰返される。ステップ200での処理は、前にステップ206で発生した1つの推定値が必要とし、ステップ202での処理は更新するために共分散/ゲインマトリックスの存在が必要である。そして、ステップ200及び202は、最初、ステップ200〜208の繰返しループを実行しない。
VII.動き追跡器/予測器
図14の動き追跡器/予測器50は、図13の形状追跡器/予測器48と多くの点で同様に機能する。この動き追跡器/予測器50は、形状追跡器とは異なる特性及びベクトルを追跡する。本発明の好ましい実施形態では、重心94のX座標98と前方傾斜角度100(θ)、及び対応する速度と加速度(集合的に「動き変数」または「動き特性」)が追跡されかつ予測される。重心94のX座標98は、乗客18と、計器盤34、エアバッグ展開装置36等の自動車内の位置との間の距離、または自動車内の他の位置を決定するのに使用される。好ましい実施形態では、計器盤34は、エアバッグがこの計器盤から展開される場所として用いられる。
 x座標ベクトルは、位置成分(x)、速度成分(x’)、及び加速度成分(x”)を含む。θベクトルもまた、同様に、位置成分(θ)、速度成分(θ’)、及び加速度成分(θ”)を含む。他のいずれの動きベクトルも同様に、位置、速度、及び加速度の成分を有するであろう。
 この動き追跡器/予測器サブシステム50は、ステップ208において動き予測の更新し、ステップ210において共分散/ゲインマトリックスの更新し、ステップ212において動き推定値の更新し、さらにステップ214において組合せ動き推定値の出力する動作を実行する。ステップ208〜214のループは、ステップ200〜206と多くの点で類似する。動き追跡器/予測器50は、最初のループでは、ステップ208、210において、それぞれの更新が行われない。そして、初期ループは、ステップ212で開始される。
 本発明の構成に従って、本発明の原理及び動作モードを好ましい実施形態において説明しかつ図示してきた。しかしながら、本発明は、その技術的思想または特許請求の範囲から逸脱しないで、特定して説明されかつ図示される他の構成も実施可能であことは理解されよう。
図1は、本発明に係るイメージ区分化システムのための周囲環境の部分図である。 図2は、イメージ区分化システムの高レベル処理の流れを示す図である。 図3は、エアバッグ展開装置内に組み込まれるイメージ区分化プロセスの一例を示すフローチャート図である。 図4は、イメージ区分化プロセスの一例を示すフローチャート図である。 図5は、イメージ区分化システムによって用いられるピクセル特性のヒストグラムを示す図である。 図6は、イメージ区分化システムによって用いられる累積分布関数のグラブを示す図である。 図7は、イメージ区分化システムに組み込まれるイメージ閾値ヒューリスティック手法の一例を示すブロック図である。 図8aは、テンプレート処理を受ける区分化イメージの一例を示す図であり、図8bは、テンプレート処理の一例を示す図であり、図8cは、テンプレート処理を受ける区分化イメージを示す図であり、図8dは、区分化イメージに適合する長円の一例を示す図であり、図8eは、テンプレート処理後の区分化イメージに適合した長円の一例を示す図であり、図8fは、将来のテンプレート処理のために生成される新しいシルエットの一例を示す図である。 図9は、乗客を表す上部長円及びこの上部長円の位置的に重要な特性のいくつかを示す図である。 図10は、左側、右側、中央の各状態における上部長円を示す図である。3つの状態モードに関する乗客の動き特性を測定および予測するためのフローチャート図である。 図11は、左側、右側、中央の各状態の3つの状態モード、及び種々の状態モード間の転移に関連する種々の確率を示すマルコフチェインの図である。 図12は、人間、静止、衝突時の3つの状態モード、及び種々の状態モード間の転移に関連する種々の確率を示すマルコフチェインの図である。 図13は、形状追跡器/予測器によって実行される処理操作の一例を示すフローチャート図である。 図14は、動き追跡器/予測器によって実行される処理操作の一例を示すフローチャート図である。
符号の説明
 16  イメージ区分化システム
 18  乗客
 20  シート
 21  シート領域
 22  カメラ
 30  コンピュータシステム
 31  区分化イメージ
 32  エアバッグコントローラ
 36  エアバッグ展開装置
 38  周囲イメージ
 40  イメージ区分化サブシステム
 44  長円適合サブシステム
 46  追跡/予測サブシステム
 48  形状追跡器/予測器
 50  動き追跡器/予測器
 53  イメージ差分モジュール
 56  クリエイト勾配イメージモジュール
 64  クリーン勾配イメージモジュール
 66  テンプレートマッチングモジュール
 70  長円適合モジュール
 78  ピクセル
 84  イメージ閾値

Claims (31)

  1.  センサにより捕えた現在の周囲イメージから現在の区分化イメージを分離するための方法であって、
     現在の周囲イメージを前の周囲イメージと比較し、
     前記現在の区分化イメージの境界を現在の周囲イメージと前の周囲イメージとの間の差により識別し、そして、
     ハウスドルフ ディスタンス ヒューリスティック手法を用いて、テンプレートを前記識別された境界に合致させる、各ステップを含むことを特徴とする方法。
  2.  前の周囲イメージは、現在の周囲イメージが捕捉される前に、約1/40(秒)より少ない時間で捕捉されることを特徴とする請求項1記載の方法。
  3.  さらに、現在の周囲イメージ内の注目領域を決定するステップを含むことを特徴とする請求項1記載の方法。
  4.  さらに、注目領域内に存在しない現在の周囲イメージの一部分を無視するステップを含むことを特徴とする請求項3記載の方法。
  5.  前記周囲イメージ内の注目領域を決定するステップは、前の区分化イメージから現在の区分化イメージの位置を予測するステップを含んでいることを特徴とする請求項3記載の方法。
  6.  カルマンフィルタは、前の区分化イメージから現在の区分化イメージの位置を予測するのに用いられることを特徴とする請求項5記載の方法。
  7.  注目領域は、現在の周囲イメージ内において、矩形状であることを特徴とする請求項3記載の方法。
  8.  前の区分化イメージ内の底部領域は、現在の周囲イメージにおいて無視されることを特徴とする請求項3記載の方法。
  9.  現在の周囲イメージ内の複数のピクセルは、前の周囲イメージ内の対応する複数のピクセルと比較されることを特徴とする請求項1記載の方法。
  10.  現在の周囲イメージ内の前記複数のピクセルにおける各ピクセルは、前の周囲イメージ内の対応する前記複数のピクセルと比較されることを特徴とする請求項9記載の方法。
  11.  さらに、前記識別された境界にローパスフィルタを適用するステップを含むことを特徴とする請求項1記載の方法。
  12.   さらに、現在の周囲イメージと前の周囲イメージとの間に変化領域を配置するためにイメージ勾配のヒューリスティック手法を実行するステップを含むことを特徴とする請求項1記載の方法。
  13.  さらに、前記識別された境界を閾値化するステップを含むことを特徴とする請求項1記載の方法。
  14.  さらに、現在の区分化イメージとして、前の区分化イメージを選択するステップを含むことを特徴とする請求項1記載の方法。
  15.  さらに、クリーン勾配イメージのヒューリスティック手法を実行するステップを含むことを特徴とする請求項1記載の方法。
  16.  テンプレートを合致させるステップは、前記テンプレートを所定の角度範囲で回転させることを含んでいることを特徴とする請求項1記載の方法。
  17.  前記所定の角度範囲は、約−6度〜+6度の範囲であることを特徴とする請求項16記載の方法。
  18.  前記角度範囲内の角度は、予め決められていることを特徴とする請求項16記載の方法。
  19.  テンプレートは、二進化イメージであることを特徴とする請求項1記載の方法。
  20.  さらに、テンプレートを修正するステップを含むことを特徴とする請求項1記載の方法。
  21.  テンプレートを修正するステップは、三次スプライン適合(cubic spline fit)を設定するステップを含むことを特徴とする請求項20記載の方法。
  22.  テンプレートを修正するステップは、制御ポイントの新しい組を設定することを含んでいる請求項21記載の方法。
  23.  さらに、長円をテンプレートに適合させるステップを含むことを特徴とする請求項1記載の方法。
  24.  長円をテンプレートに適合させるステップは、直接最小二乗法を適用するヒューリステック手法を実行するステップを含むことを特徴とする請求項23記載の方法。
  25.  長円を適合させることは、前の長円の下側部分を複写することを含んでいる請求項24記載の方法。
  26.   現在の周囲イメージから現在の区分化イメージを分離するための方法であって、
     現在の周囲イメージ内の注目領域を前の周囲イメージから識別し、
     前記現在の周囲イメージ内の注目領域を、前の周囲イメージ内の対応する領域と比較することによって決められたイメージ差にローパスフィルタを適用し、
     イメージ振幅を急速に変化させて、現在の周囲イメージ内のある領域を見出すためのイメージ勾配計算を実行し、
     前記イメージ差分を所定の累積分布関数を用いて閾値化させ、
     イメージ勾配計算の結果をクリーニングし、
     ハウスドルフ ディスタンス ヒューリスティック手法を用いて、このクリーン化された結果にテンプレートイメージを合致させ、さらに
     前記テンプレートイメージに1つの長円を適合させる、各ステップを含むことを特徴とする方法。
  27.  周囲イメージから区分化イメージを分離するための区分化システムであって、
     区分化イメージと注目領域を含む周囲イメージと、
     勾配イメージを含み、前記注目領域内に前記勾配イメージを生成する勾配イメージモジュールと、
     テンプレート、テンプレートマッチ、及びハウスドルフ ディスタンス ヒューリスティック手法を含み、前記テンプレート、前記勾配イメージ、及びハウスドルフ ディスタンス ヒューリスティック手法からテンプレートマッチを生成するテンプレートモジュールと、
    を備えることを特徴とする区分化システム。
  28.  前記テンプレートモジュールは、座席位置に留まる前記区分化イメージを仮定することを特徴とする請求項27記載のシステム。
  29.  前記テンプレートモジュールは、前記テンプレートを回転させることを特徴とする請求項27記載のシステム。
  30.  更に、複数の所定角度を含む角度範囲を有しており、前記テンプレートモジュールは、前記複数の所定角度の各々に対して前記テンプレートを回転させることを特徴とする請求項29記載のシステム。
  31.  プロダクトイメージ、二進化イメージ、及び非二進化イメージをさらに含み、前記テンプレートは、二進化イメージであり、前記勾配イメージは、非二進化イメージであり、前記プロダクトイメージは、前記テンプレートに勾配イメージを乗算することによって生成されることを特徴とする請求項29記載のシステム。

JP2003351151A 2002-10-11 2003-10-09 区分化イメージを分離する方法及びそのための区分化システム Pending JP2004133945A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/269,357 US20030133595A1 (en) 2001-05-30 2002-10-11 Motion based segmentor for occupant tracking using a hausdorf distance heuristic

Publications (1)

Publication Number Publication Date
JP2004133945A true JP2004133945A (ja) 2004-04-30

Family

ID=32042885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003351151A Pending JP2004133945A (ja) 2002-10-11 2003-10-09 区分化イメージを分離する方法及びそのための区分化システム

Country Status (7)

Country Link
US (1) US20030133595A1 (ja)
EP (1) EP1411474A2 (ja)
JP (1) JP2004133945A (ja)
KR (1) KR20040033272A (ja)
AU (1) AU2003246335A1 (ja)
BR (1) BR0303975A (ja)
MX (1) MXPA03009268A (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7769513B2 (en) * 2002-09-03 2010-08-03 Automotive Technologies International, Inc. Image processing for vehicular applications applying edge detection technique
US7109957B2 (en) * 1999-01-22 2006-09-19 Au Optronics Corp. Digital display driving circuit for light emitting diode display
US20050129274A1 (en) * 2001-05-30 2005-06-16 Farmer Michael E. Motion-based segmentor detecting vehicle occupants using optical flow method to remove effects of illumination
US6925193B2 (en) * 2001-07-10 2005-08-02 Eaton Corporation Image processing system for dynamic suppression of airbags using multiple model likelihoods to infer three dimensional information
US6853898B2 (en) 2001-05-30 2005-02-08 Eaton Corporation Occupant labeling for airbag-related applications
US7116800B2 (en) * 2001-05-30 2006-10-03 Eaton Corporation Image segmentation system and method
US20030123704A1 (en) * 2001-05-30 2003-07-03 Eaton Corporation Motion-based image segmentor for occupant tracking
US7197180B2 (en) 2001-05-30 2007-03-27 Eaton Corporation System or method for selecting classifier attribute types
US7181083B2 (en) 2003-06-09 2007-02-20 Eaton Corporation System and method for configuring an imaging tool
US20080131004A1 (en) * 2003-07-14 2008-06-05 Farmer Michael E System or method for segmenting images
US20050271280A1 (en) * 2003-07-23 2005-12-08 Farmer Michael E System or method for classifying images
US6856694B2 (en) * 2001-07-10 2005-02-15 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
US20050058322A1 (en) * 2003-09-16 2005-03-17 Farmer Michael E. System or method for identifying a region-of-interest in an image
US7327497B2 (en) * 2002-05-14 2008-02-05 Canon Kabushiki Kaisha Image reading apparatus, control method therefor, and program
US7440885B2 (en) * 2002-06-03 2008-10-21 Broadcom Corporation Method and system for deterministic control of an emulation
US7676062B2 (en) * 2002-09-03 2010-03-09 Automotive Technologies International Inc. Image processing for vehicular applications applying image comparisons
US6925403B2 (en) * 2003-09-15 2005-08-02 Eaton Corporation Method and system for calibrating a sensor
US20050065757A1 (en) * 2003-09-19 2005-03-24 White Samer R. System and method for estimating displacement of a seat-belted occupant
US6944527B2 (en) * 2003-11-07 2005-09-13 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
US7492375B2 (en) * 2003-11-14 2009-02-17 Microsoft Corporation High dynamic range image viewing on low dynamic range displays
US20050177290A1 (en) * 2004-02-11 2005-08-11 Farmer Michael E. System or method for classifying target information captured by a sensor
US20050179239A1 (en) * 2004-02-13 2005-08-18 Farmer Michael E. Imaging sensor placement in an airbag deployment system
US20060056657A1 (en) * 2004-02-13 2006-03-16 Joel Hooper Single image sensor positioning method and apparatus in a multiple function vehicle protection control system
JP2006176075A (ja) * 2004-12-24 2006-07-06 Tkj Kk 検知システム、乗員保護装置、車両、検知方法
ITGE20050008A1 (it) 2005-02-08 2006-08-09 Scienza Ind Tecnologia S R L Metodo e apparato per il monitoraggio dei movimenti del corpo umano in ambito sportivo e medico.
EP2131589B1 (en) * 2007-03-28 2018-10-24 Fujitsu Limited Image processing device, image processing method, and image processing program
EP2382532B1 (en) 2009-01-24 2020-10-21 Hewlett-Packard Development Company, L.P. System and method for enhancing security printing
WO2012170898A2 (en) * 2011-06-09 2012-12-13 Utah State University Research Foundation Systems and methods for sensing occupancy
US10372977B2 (en) 2015-07-09 2019-08-06 Analog Devices Gloval Unlimited Company Video processing for human occupancy detection
CN111385537B (zh) * 2020-03-17 2021-03-26 杭州鸿泉物联网技术股份有限公司 渣土车顶盖密闭识别的方法、装置、系统和电子设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US31345A (en) * 1861-02-05 Improvement in rakes for harvesters
US198998A (en) * 1878-01-08 Improvement in salt and spice bottles
US135346A (en) * 1873-01-28 Iivjprovement in door-checks
US234519A (en) * 1880-11-16 Harness
US123704A (en) * 1872-02-13 Improvement in cotton-harvesters
US16845A (en) * 1857-03-17 Calvin kline
US6442465B2 (en) * 1992-05-05 2002-08-27 Automotive Technologies International, Inc. Vehicular component control systems and methods
WO1994010935A1 (en) * 1992-11-09 1994-05-26 Ormco Corporation Custom orthodontic appliance forming method and apparatus
WO1998024243A1 (en) * 1996-11-27 1998-06-04 Princeton Video Image, Inc. Motion tracking using image-texture templates
US6005958A (en) * 1997-04-23 1999-12-21 Automotive Systems Laboratory, Inc. Occupant type and position detection system
US6766036B1 (en) * 1999-07-08 2004-07-20 Timothy R. Pryor Camera based man machine interfaces
US6795567B1 (en) * 1999-09-16 2004-09-21 Hewlett-Packard Development Company, L.P. Method for efficiently tracking object models in video sequences via dynamic ordering of features
US6801662B1 (en) * 2000-10-10 2004-10-05 Hrl Laboratories, Llc Sensor fusion architecture for vision-based occupant detection
US6662093B2 (en) * 2001-05-30 2003-12-09 Eaton Corporation Image processing system for detecting when an airbag should be deployed
US6459974B1 (en) * 2001-05-30 2002-10-01 Eaton Corporation Rules-based occupant classification system for airbag deployment
US6577936B2 (en) * 2001-07-10 2003-06-10 Eaton Corporation Image processing system for estimating the energy transfer of an occupant into an airbag

Also Published As

Publication number Publication date
US20030133595A1 (en) 2003-07-17
AU2003246335A1 (en) 2004-04-29
MXPA03009268A (es) 2004-07-16
BR0303975A (pt) 2004-09-08
EP1411474A2 (en) 2004-04-21
KR20040033272A (ko) 2004-04-21

Similar Documents

Publication Publication Date Title
JP2004133944A (ja) 区分化イメージを分離する方法及びそのための区分化システム
JP2004133945A (ja) 区分化イメージを分離する方法及びそのための区分化システム
CN108052097B (zh) 用于训练异构感测系统的方法和异构感测系统
JP5251800B2 (ja) 対象物追跡装置及びプログラム
US7050606B2 (en) Tracking and gesture recognition system particularly suited to vehicular control applications
JP5124592B2 (ja) 車両を検出および追跡するためのシステムおよび方法
JP4355341B2 (ja) 深度データを用いたビジュアルトラッキング
US6925193B2 (en) Image processing system for dynamic suppression of airbags using multiple model likelihoods to infer three dimensional information
US6853898B2 (en) Occupant labeling for airbag-related applications
JP2015035704A (ja) 検出装置、検出方法および検出プログラム
US20050058322A1 (en) System or method for identifying a region-of-interest in an image
JP5593217B2 (ja) 車両用外界認識装置およびそれを用いた車両システム
US20050129274A1 (en) Motion-based segmentor detecting vehicle occupants using optical flow method to remove effects of illumination
JPWO2019186864A1 (ja) 車両照明制御装置、車両照明制御方法及び車両照明制御プログラム
JP2003230134A (ja) ナイトビジョンシステム
JP2021163432A (ja) 信号灯状態識別装置、信号灯状態識別方法及び信号灯状態識別用コンピュータプログラムならびに制御装置
JP2020201746A (ja) 距離推定装置、距離推定方法及び距離推定用コンピュータプログラム
JPWO2019186863A1 (ja) 車両照明制御装置、車両照明制御方法及び車両照明制御プログラム
JP4847303B2 (ja) 障害物検出方法、障害物検出プログラムおよび障害物検出装置
JP2003237509A (ja) 車両用外界認識装置
US20050281461A1 (en) Motion-based image segmentor
JP3906845B2 (ja) 乗員検出装置および方法
JP2022121377A (ja) 外界認識装置
JP2023053681A (ja) 距離推定装置
JP2022168654A (ja) 人検出装置、人検出方法及び人検出用コンピュータプログラム