JP2012069121A - 道路使用弱者保護システム - Google Patents

道路使用弱者保護システム Download PDF

Info

Publication number
JP2012069121A
JP2012069121A JP2011221172A JP2011221172A JP2012069121A JP 2012069121 A JP2012069121 A JP 2012069121A JP 2011221172 A JP2011221172 A JP 2011221172A JP 2011221172 A JP2011221172 A JP 2011221172A JP 2012069121 A JP2012069121 A JP 2012069121A
Authority
JP
Japan
Prior art keywords
distance
image
vru
vehicle
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011221172A
Other languages
English (en)
Other versions
JP2012069121A5 (ja
JP5591779B2 (ja
Inventor
G Shampoo Gregory
ジー. シャンプ,グレゴリー
A Davis Owen
エー. デービス,オーウェン
C Demuro James
シー. デムロ,ジェイムズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Automotive Systems Laboratory Inc
Original Assignee
Automotive Systems Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Automotive Systems Laboratory Inc filed Critical Automotive Systems Laboratory Inc
Publication of JP2012069121A publication Critical patent/JP2012069121A/ja
Publication of JP2012069121A5 publication Critical patent/JP2012069121A5/ja
Application granted granted Critical
Publication of JP5591779B2 publication Critical patent/JP5591779B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/34Protecting non-occupants of a vehicle, e.g. pedestrians

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】車両と道路使用弱者との衝突を回避する道路使用弱者保護システムを提供する。
【解決手段】視覚的場面の距離マップがステレオビジョンおよび協働する画像処理システムにより生成され、関心領域外および衝突が不可能の対象物がフィルターにより取り除かれ、また道路表面も取り除かれる。距離ビンにクラスター分けされた対象物がセグメンテーションにより分離される。主要コンポーネント解析によってコンポジット距離マップが生成され、連結コンポーネント篩い分けフィルタにより処理される。対象物は一つ又は複数のハーモニックプロファイルおよびほかの特性を用いて、インクルーシブ、エクスクルーシブ及びハーモニックネットワークの組み合わせで種類分けの基準を生成し、認識プロセッサを用いて判別される。
【選択図】図1

Description

関連出願の参照
本出願は、本願に参照して繰り入れられた2004年7月26日に出願された米国仮出願No.60/591564号の利益を主張するものである。
態様の説明
図1および図2によれば、車両12との衝突から道路使用弱者(vulnerable road user)(以下「VRU」という)を保護するための道路使用弱者保護装置10が車両12に組み込まれている。VRUの例としては歩行者14.1および自転車乗り14.2が含まれる。たとえば、欧州連合(EU)においては、毎年7000人の歩行者14.1および2000人の自転車乗りが死亡しており、数十万人が負傷している。合衆国における対応する値(1998年において)は、5220人の歩行者の死者(すべての交通事故死者の13%に相当する)および6900人の負傷者VRU14が発生した。この全交通事故死者に対する歩行者14.1の死者の割合は、国によって大きく異なっており、合衆国において13%であるが連合王国および日本においては28%と最も高い。従って、これらの死亡および負傷を減少させ、伴って発生する社会的コストも減少させるための道路使用弱者保護システム10への需要が存在している。
道路使用弱者保護システム10には、メモリ20を含むか結合するかしており、例えば車両のバッテリー22.1のような動力源22により電源供給されるプロセッサ18と動作可能に結合したステレオビジョンシステム16が組み込まれている。ステレオビジョンシステム16の視界内に見えている場面24からの情報に応答して、プロセッサ18は一つまたは複数の協働する運転者警報デバイス28、VRU警報デバイス30、またはVRU保護デバイス32に対して、一つまたはそれ以上の次の方法で、一人または複数のVRU14の車両12との可能性のある衝突から保護するために、信号を発生する:
1)運転者34が衝突を避けるための回避動作をすることができるようにするために、運転者33に対し、音響的または視覚的警報シグナルにより音響的警報デバイス28.1または視覚的ディスプレイまたはランプ28.2によって十分なリードタイムを以って警報すること;
2)VRU14が停止するか回避動作をすることができるように、例えば車両の警音器30.1の吹鳴または前照灯30.2の点滅、という可聴的または可視的な警報信号によってVRUに警報を与えること;
3)もしVRUとの衝突が現実的になったならば、自動的にブレーキが掛かるように、ブレーキ制御装置34に送る信号26.1を発生させること;
4)もし衝突が不可避となったならば、衝突に先立って例えば外部エアバッグ32.1やエンジンフードアクチュエータ32.2のようなVRU保護デバイスを一つまたは複数動作させること。
例えばエンジンフードアクチュエータ32.2は、エンジンフード35がVRUの衝突エネルギーを吸収するための距離を増加させるために、比較的抵抗しないフード35と連係動作をする。一態様においては、エンジンフードアクチュエータ32.2は花火装置型のアクチュエータを含み、他の態様においてはエンジンフードアクチュエータ32.2は液圧または電気アクチュエータを含み、後者は前者よりも相対的に動作するためにより長い時間がかかる――したがって相対的により早期の動作開始必要性の検出が必要である――が、有利なことに可逆的アクチュエータである。
道路使用弱者保護システム10のブロックダイヤグラムが図3に示され、それに用いる道路弱者保護プロセス400が図4に示されている。図3および図4に示された道路使用弱者保護システム10の要素と道路使用弱者保護システムにおける動作が、ここに、図3および4ならびに他の図面を参照しつつ、要素ごとに、またステップごとに記載される。
道路使用弱者保護システム10はVRU14を同定するために三次元物体認識を使用する。三次元物体認識の一つのアプローチは単眼鏡の画像強度分析をおこなうことである。一つの対象物の位置と方向は2次元的様相(画像から抽出した)と対象のモデルとのマッチングをとることによって推定される。しかしながら、対象物および/または状景が複雑であると、複合的な問題点が発生する。三次元物体認識のもう一つのアプローチは別々に検出した距離情報(range information)を対象物の三次元的様相の判定に用いることであるが、直接的な距離情報を得るためにはレーザー測距儀のような特別な装置が必要である。三次元物体認識への更にもう一つのアプローチは、ステレオビジョンシステム16から得られるステレオ強度画像から直接得られる3次元情報を再構築することである。撮影機とコンピュータは価格/性能閾値を越えたので、高価でないステレオ型の複数ベースライン視野システムが商業的に実現可能なものとなっており、コンピュータ視野画像応用機器のデフォルトの基礎設備となる潜在能力を有している。
図3、4および5aを参照すると、一態様においてステレオビジョンシステム16は、ステップ(402)において、第1視点34.1および第2視点34.2を隔てるベースラインb距離だけ隔たった第一404および第二406ステレオイメージコンポーネントを取得する、少なくとも一つのステレオビジョンカメラ302を備えている。例えば、図2、5および6に示すように、第一302.1および第二302.2ステレオビジョンカメラが第一36.1および第二36.2レンズを有しており、それぞれ焦点距離fであって、第一36.1および第二36.2レンズの光軸間距離がベースラインbだけ隔たっている。それぞれのステレオビジョンカメラ302はピンホールカメラと想定され、第一404および第二406ステレオイメージコンポーネントは、同一平面上にある第一36.1および第二36.2レンズの焦点面40.1および40.2において電子的に記録される。第一302.1および第二302.2ステレオビジョンカメラには、例えば広域ダイナミックレンジを有する、焦点面CCD(charge coupled device)アレイ、付随する電子メモリおよび信号処理回路を備えた電子カメラが含まれる。
対象物42が第一36.1および第二36.2レンズから距離rだけ隔たって置かれた場合、第一404および第二406ステレオイメージコンポーネントは、対応する第一34.1および第二34.2視点から撮像される。対象物42の特定の場所Pに対して、第一44.1および第二44.2のPの像が、対応する第一404および第二406ステレオイメージコンポーネント画像における第一46.1および第二46.2中心線から、第一ステレオイメージコンポーネント404(例えば左イメージ)については第一オフセットdlだけ、第二ステレオイメージコンポーネント406(例えば右イメージ)については第二オフセットdrだけ隔たったところに、ここにおいて第一dlおよび第二drオフセットはベースラインbおよび点Pが結像する面上であって、第一46.1および第二46.2センターラインから反対方向に、オフセットして結像する。第一オフセットdlと第二オフセットdrとの差はディスパリティ(disparity)dと称され、対象物42の距離rと次の方程式に従って直接関係する:
r=b・f/d, ここで、 d=dl−dr
図5(b)を参照すると、対象物42の高さHは、ピンホールカメラ38およびその結像幾何の仮定に基づき、対象物像48の高さhから求めることができる。
図2および6を参照すると、一態様においては、第一302.1および第二302.2ステレオビジョンカメラは、車両12のウインドウシールド54を通して視界内に見えている場面24を見ることができるように、乗員室50の中、例えば後方視界ミラーの前に、実質的に水平なベースラインbに沿って位置する。もう一つの態様においては第一302.1’および第二302.2’のステレオビジョンカメラは車両の先端56に実質的に水平なベースラインbに沿って、例えば左58.1および右58.2ヘッドライトレンズの中またはその近傍にそれぞれ位置する。
図7を参照すると、更にもう一つの態様においては、ステレオビジョンシステム16’は、互いに垂直方向に二つに分けられ、単一のカメラ60の視界の上部に対応して第一のステレオアパーチャ66.1から視界を見て、単一のカメラ60の視界の下部に対応して第二のステレオアパーチャ66.2から視界を見るようにしてあり、第一および第二ステレオアパーチャは、ベースライン距離bだけ隔たった第一視点64.1および第二視点64.2を与えるための、たとえば第一表面鏡のような複数の鏡62.1、62.2、62.3、62.4と協働する単一のカメラ60を備えている。単一のカメラ60の検出器68が正方形であれば、それぞれの対応する視界は、水平対垂直のアスペクト比が約2対1となり、このことは必要な視界が垂直方向よりも水平方向にずっと大きい道路使用弱者保護システム10にとって有利なことである。図7の態様では、単一カメラ60の視界は互いに実質的に直角をなし、ベースラインbに対しては45度をなす第一の鏡62.1および第3の鏡62.3によって上部視界と下部視界にそれぞれ分けられている。第一の鏡62.1は第三の鏡62.3の上に位置しており、相対的により大きい一番左の鏡62.2と協働して、単一のカメラ60の上部視界が第一の視点64.1(即ち左視点)からの第一ステレオイメージコンポーネント404を与えるようにされる。第三の鏡62.3は相対的により大きい一番右の第四の鏡62.4と協働して単一のカメラ60の下部視界が第二の視点64.2(即ち右視点)からの第二ステレオイメージコンポーネント406を与えるようにされる。
図3によれば、自動利得制御(AGC)回路304が、例えば、ステレオビジョンカメラ302の視界中の太陽の故の比較的高い光レベルから、月のない夜の田舎道をドライブしているときの比較的低い光レベルまでであり、もっとも重要な悪影響としては、ステレオビジョンカメラが直接太陽を見た場合や、非常に明るい日に発生する、相当な数のカメラのピクセルが飽和してしまうという、予想されるシナリオのすべての範囲において、それぞれのステレオビジョンカメラからの出力レベルを比較的一定の値に保つために設けられる。
図4および図8によれば、ステレオビジョンカメラ302の利得は、AGCプロセスのステップ(408)において、イメージ904の部分集合902の強度、例えばイメージ904の中央近くの3〜4個のピクセル列の強度、をモニタし、それに応答して全体のイメージ904の強度を制御するようにされる。例えば、一態様では、全体のイメージ904の強度はイメージ904の中心近傍のピクセル列部分集合902’の増幅率に応答して制御される。このアプローチは1)AGCプロセス(408)中の計算負荷を減らす、2)VRUが位置する可能性が最も確からしいイメージ904の中心部分の強度を最適化する、3)太陽は典型的にはイメージ904の上半分に含まれるであろうから、ステレオビジョンカメラ302の視界中の太陽の影響を減少させる、という点で有利である。第一ステレオイメージコンポーネント404または第二ステレオイメージコンポーネント406のどちらの特定のピクセルの信号レベルも、対応する第一ステレオビジョンカメラ302.1または第二ステレオビジョンカメラ302.2の露出時間および、対応する第一ステレオビジョンカメラ302.1または第二ステレオビジョンカメラ302.2の検出素子からの信号が増幅されて対応する第一ステレオイメージコンポーネント404または第二ステレオイメージコンポーネント406のピクセルの値を発生させるその増幅率に依存している。一態様においては、平均ピクセル振幅は、第一ステレオイメージコンポーネント404と第二ステレオイメージコンポーネント406のそれぞれのピクセル列の部分集合902’について算出される。この平均ピクセル振幅があらかじめ定めた最大平均振幅閾値よりも大きい場合、またはあらかじめ定めた最小ピクセル振幅よりも小さい場合は、平均ピクセル振幅が対応する最低および最高閾値の範囲内に収まる様にされ、第一302.1または第二302.2ステレオビジョンカメラのサチュレションが避けられるようにするために、露光時間または対応する第一ステレオビジョンカメラ302.1または第二ステレオビジョンカメラ302.2の対応する利得が調節される。
図3、4および9を参照すると、ステップ(410)のステレオイメージ処理プロセスにおいて、ステレオビジョンプロセッサ306は、第一視点34.1および第二視点34.2のそれぞれのためのステレオビジョンカメラ302からのそれぞれのグレイスケール画像から、見えている場面24の距離マップイメージ412(距離イメージまたは不一致イメージ(disparity image)とも称される)を生成する。距離マップイメージ412はそれぞれのピクセルに、ステレオビジョンシステム16から対象物までの距離rを与える。その代わりに、またはそれに加えて、距離マップイメージ412は車両12に固定した対応する参照座標系による対象物の相対座標、例えばダウン距離(Z)、横距離(X)および高さ(Y)という対応する成分によるベクトルを与えても良い。
もう一つの態様においては、ステレオイメージ処理プロセス410は、ステレオビジョンシステム16からの距離rに加えてステレオヒ゛ションシステム16に対する相対的な迎え角と方位角とをも与えるようにすることができる。例えば、ステレオビジョンプロセッサ306は、ここにおいて引用して取り込まれる、米国特許第6,456,737号に開示されているシステムおよび方法に従って動作しても良い。
ステレオイメージングが、左と右の画像の組、即ち第一ステレオイメージコンポーネント404と第二ステレオイメージコンポーネント406の不一致dおよび比較的簡単な三角法計算を利用して、対象物の実空間における位置を再現することによって、単眼鏡視野システムにおける多数の制限を克服することができる。
図9によれば、ステレオビジョンプロセッサ306の対応領域相関アルゴリズムにおいては、対応する領域の不一致dおよび対応する距離rを検出するために、第一ステレオイメージ404と第二ステレオイメージ406が突き合わされる。マッチする領域を探す作業量は、対応する第一ステレオビジョンカメラ302.1と第二ステレオビジョンカメラ302.2の対応する走査線に沿って対応する水平線(epipolar lines)を位置させるように入力イメージ(I)を修正することによって減少される。このことは、第一ステレオビジョンカメラ302.1と第二ステレオビジョンカメラ302.2をキャリブレートし、対応する入力イメージ(I)を歪めてレンズによる変形と、第一ステレオビジョンカメラ302.1と第二ステレオビジョンカメラ302.2の間の配列オフセットを取り除くことによってなされる。ある修正されたイメージ(C)に対して、マッチする領域の検索の数は、関心のある領域までの最小および最大の距離rによって最大数が規定される特定のオフセット(D)の数までに限る事が可能である。複数プロセッサや分担した計算を実施することによって、アルゴリズムの作動はスループットを向上させるためにパイプライン方式で実行可能である。最大の計算コストは、ピクセル数に不一致の数の積に比例するものであって、相関計算と最小値発見の実行において存在する。アルゴリズムは、領域の相関を取る際に使用するウインドウのサイズが演算コストに大きくは影響しない、演算対象領域の冗長性を利用したスライディング総和法(sliding sum method)を使用することができる。結果として得られる不一致マップ(M)は、さらに道路表面からの信号等の余分な対象を道路表面フィルタ(F)を用いて取り除くことによって、単純化することができる。
ステレオイメージ処理プロセス(410)の距離分解能(Δr)は、次の式で表される、距離rの関数である。
Δr=(r/(bf))Δd
距離分解能(Δr)は、或るステレオ配置における、認識可能な最小の距離rの変化量のことであり、不一致における最小の変化Δd(即ち不一致分解能Δd)に対応するものである。距離分解能(Δr)は、距離の二乗に比例して増加しベースラインb、および焦点距離fに逆比例するので、ベースラインb距離と焦点距離fを増加させること、および不一致分解能Δdの改善(減少)を意味するピクセルサイズを減少させることによって、改善(減少)する。
図10aおよび図10bを参照して、ステレオビジョンシステム16の、距離rと視界の範囲の要請から境界パラメータを決めるために、単純なVRU14と車両12との間の力学プログラムがMATLAB(数値解析ソフトの名称)において適用された。遭遇配置(encounter geometry)の最悪のケースのシナリオが、必要なパラメータを決定する境界条件として選ばれた。このシナリオは、VRUが時速5マイルの一定速度で、車両12の速度ベクトルに直行する方向に車両の右方からバンパーの一番近い側の角に向かって歩行中/ジョギング中のもの(すべての車両12/歩行者14.1遭遇の90%以上に相当する)であって、衝撃点がエンジンフード35の右前となる位置で終了するものである(悪いシナリオは、車両12の左からものdのであって衝撃点がエンジンフード35の左側となる位置で終了するものも可能である)。これらのパラメータは時間の関数としての最大距離および最大の角度を与えるものである。
これらのパラメータの時間変化の中には、バンパーに仕組まれた外部エアバッグ32.1の起動がなされる点が含まれる。これらについての予備的な結果の調査は、提案されたシステムがVRUを検出し認識することのできる最大距離が12フィートであったとすると、外部エアバッグ32.1または他のVRU保護装置32を作動させるに十分な時間が存在するための車両12の速度は時速40マイルを十分超える速度であることを示した。図10aおよび図10bは、パラメーターの解析についての図式的なまとめを示しており、車両のバンパー位置から、検出して意思決定するためのわずかな時間が存在する短距離の遭遇の境界位置を示している。
図10aを参照すると、VRU保護デバイス32は概して作動に時間を要するので、そのための作動決定は衝突の発生する時点より十分前になされる必要性があり、それ故にVRU保護装置32が衝突に先立って作動することができるように、与えられた車両速度に対して、VRU14からの距離rが十分であるために必要な、作動決定地点がわかる。異なる動作時間を有する異なる種類のVRU保護デバイス32の場合は、有効に動作が開始されるべき距離も異なる。典型的な神経−筋肉反応は0.75〜1.5秒であるから、上記の条件であれば、衝突という遭遇の仕方が実現するのは実質的に確実であるといえるから、一つまたは複数のVRU保護デバイス32の自動起動が必要となる。
図10bを参照すると、角度の要求条件が、最悪ケースの遭遇の配置をカバーするに十分なカメラの視界領域を規定している。比較的広い角度要求条件は、ステレオシステムによって補償することができないかもしれない光学的歪をもたらし、視界領域が水平方向に比較的広範囲となるので、或る大きさと距離の対象物が、より少ないピクセルにしか亘らないものとなってしまう。一般的に、車両12の速度が速ければ速いほど、それだけいっそう対応する角度要求条件は狭いものとなる。
対象物は、反射率に依存して環境光の一部を反射するので、可視光/近赤外光撮像装置は見えている場面24のグレイスケール画像を供給できる。あいにく、グレイスケール画像の生データは処理するのが困難であり、リアルタイム認識/除外システムに利用するのは挑戦的事項である。一方、画像強度ヒストグラムデータは、十分に高度の情報内容を含み画像処理能力の要求は比較的低いものである。画像強度ヒストグラムデータは、それぞれの強度レベルを有するピクセルの数がどれだけあるかを表す指標である。
しかしながら、対象物の実際の大きさと距離の指標も必要なのであるから、強度分布のみでは、VRU14と外の対象物とを適切に区別するためには十分でない。ステレオビジョンカメラ302は本来的に角度センサーであって、それぞれのピクセルがそのときの角度的視界(IFOV=angular field of view)を表している。対象物の表面質感の分布は距離rの変化に対しては不変であるが、距離rが減少してくるとそのサイズは大きくなる。ヒストグラム空間においては、ピクセルの数は対象物の大きさに依存する。したがって、もし通常の強度分布の十分なピクセル数があれば、そしてもしステレオビジョンシステム16からの角度情報が、対象物がある一つの角度範囲ゲートの中にあることを示していれば、潜在的VRU14は衝突範囲内において検出されるであろう。
図11を参照すると、320x240ピクセルで視野角が40度x30度であって、乗員室50内に位置するステレオビジョンカメラ302による、ある特定の対象物、即ち6フィートの身長の歩行者14.1または3フィートの身長の歩行者14.1によって占められるピクセルのパーセンテージが、ステレオビジョンシステム16から歩行者14.1までの距離rの関数としてプロットされている。車両のバンパー68はステレオビジョンカメラ302の前方約5フィートに存在し、検出の確率が最も高く誤警報の確率が最も低い領域は、距離rが、ビジョンカメラ302から約20フィートである。比較的近い距離に対象物がステレオビジョンシステム16によって検出された場合に、人間および他の対象物がカメラの画像中に存在しているならば、最大の数のピクセルが表すものは環境または他の対象物であって、人間を表すピクセルの強度分布とは異なった分布を有するであろう。ステレオビジョンシステム16はそれぞれのピクセルについての距離データを提供し、興味のある領域以外のいかなる物体――背景自身も含むが――をも簡単に、排除および認識処理から除くことができる。
図3および4を参照すると、ステップ(414)の距離フィルタリングプロセスに従って、距離フィルタ308はステレオビジョンプロセッサ306から生成された距離マップ画像412を受け、与えられた最大距離以上に離れた対象物、および与えられた最小距離よりも近い対象物を除外することによってバックグラウンドのクラッターを取り除き、それによりこのあとの対象物認識のためのプロセスを単純化することのできる、距離フィルタードイメージ416を生成する。図12bは、距離フィルタリングプロセス(414)により図12aに示されるグレイスケール画像から生成された距離フィルタードイメージ416の一例を示しており、ここにおいて距離フィルタ308は見えている画面24から遠距離対象物を除外している。例えば一態様においては、距離フィルタの最小および最大距離を、それぞれ6フィートおよび36フィートに設定している。
ステップ(418)の道路表面フィルタリングプロセスに従って、道路表面フィルタ310は距離フィルタードイメージ416を処理して、そのようにしなかったならば車両12の経路上の「真の」対象物をセグメント化する作業を複雑化してしまう、多くの場合に距離データとして生成されてしまうだけの画像強度変化を生じさせる道路表面の不完全性、描かれたライン、縁石等が取り除かれたものとする。道路表面フィルタ310はこれらの「余分な」対象物を距離フィルタードイメージ416から取り除き、その後のイメージ処理のための道路表面フィルタードイメージ420を生成する。図12cは、図12aに示された見えている場面24の、図12bに示された距離フィルタードイメージ416から、道路表面フィルタリングプロセス(418)によって生成された道路表面フィルタードイメージ420の一例であり、道路表面フィルタ310は、距離フィルタードイメージ416に残っていた、最も目立った画像であった道路表面70の画像を十分に取り除いている。
想定している、地球を平面とみなす配置においては、カメラに対しての対象物の高さは直ちに三次元空間データからステレオ計算で計算することができ、基地のカメラの配置(高さおよび迎角)と比較することができる。計測された道路からのカメラの高さから、例えば6インチの調節可能パラメータ分を減算した高さよりも低い位置にあるいかなるピクセルも、取り除いてよい。しかしながら、このやり方はいくつかの制御不可能で測定不可能な要素:迎角および地面からのカメラの高さは、激しいブレーキング/加速および/またはバンピーな道路表面、に対して敏感であり、それに加えて水平な道路表面という仮定は明らかに上り坂/下り坂および/またはバンクのついたカーブにおいては正しくない。これらの要素は、とりわけ遠距離から観察する道路表面については、成功裏にこのアプローチを実行することを困難にし、リアルタイムで車両12の態勢を確定するための追加的なセンサーおよび/またはプロセッシングを必要とするかもしれない。
もう一つの様相に従えば、道路表面フィルタ310は車両12のリアルタイムな態勢の測定を必要としないで画像中の道路表面に対応するピクセルを決定し取り除く。図13を参照すると、図解する目的で、道路上に何も無い(即ち、点線で描いたような建物は無い状態)平らな道路を車両12が走行していくという理想的な条件において、道路表面からの反射についてのダウンレンジビン(down range bin)、即ちZ座標は、それぞれの焦点面列(FPA=focal plane array)内のそれぞれの個別のピクセルについて、カメラの高さ、仰角およびピクセルの視野(FOV)――これは誤差が無いかほとんど無いものが得られるものである――が与えられれば直ちに計算することができる。
この理想的ケースにおいて、一つの焦点面列(FPA)におけるそれぞれのピクセルのそれぞれのレンジビン(range bin)は唯一つの反射を有している。有限の垂直高さを有する対象物がカメラの視野(FOV)に入ると、その対象物の遠近方向および横方向の距離に対応するレンジビンは一つ以上の反射を有することになるであろう:実際の数は対象物の高さおよびカメラからの距離に依存するものである。更に、道路がバンクを有したり、および/または傾いていたり(現実の世界における制限の範囲内で)すれば、道路からのダウンレンジビンに含まれる反射の数は一つのままであり、カメラの仰角と高さの推定における誤差は、最悪の場合(即ちプラスマイナス5度、およびプラスマイナス1フィート)にはビンのカウント値が1からゼロまたは2に変わってしまうかもしれない。
従って、距離マップから道路表面からの反射を除外するために、2以下のカウントしかないビンに寄与するピクセルは、取り除くことができる。この技法は、垂直方向の広がりが例えば6インチ以下の対象物を、この垂直高さをカバーするであろうピクセルの数をその対象物の距離の関数として計算し、境界値ビンカウントをそれにしたがって調節することによって取り除くことに、直ちに拡張することができる。
図14を参照すると、この道路フィルタリングプロセス1400は、ステップ(1402)でステレオビジョンシステムからステレオイメージデータ、より詳しく言えば、図15に示すように、少なくとも画像のそれぞれのピクセルのダウンレンジ推定値(Z)、を得ることによって開始する。ステレオイメージデータ即ち解析されるべきそれぞれのピクセルに対応するダウンレンジ(Z)、クロスレンジ(X)および高さ(Y)は、それぞれ、特定の道路使用弱者保護システム10についてあらかじめ定められる数字であるといえる、カメラ高さおよび仰角に依存するものである。ステップ(1402)においては、一つのビンカウントアレイは値ゼロに初期化される。図16を参照して、それぞれのゼロでないダウンレンジ推計値を有するピクセルについて、オプションのステップ(1406)および(1408)において、対応する処理要求を低下させておくために、最初にクロスレンジ(衝突不可避領域より外側の対象物)および高さ(あらかじめ定めた値を超える高さの対象物)に関してフィルタされる。ステップ(1401)から(1408)までの間に、それぞれの列のそれぞれのピクセルそして次に像についての列について、ビンカウント距離ヒストグラム列の対応するレンジビンが増加させられ、ここにおいてレンジビンはそのピクセルに伴うダウンレンジの推定値に相当する。この目的のためには、非線形のレンジビンをダウンレンジとクロスレンジの両方の測定のために使用するのとは異なり、ダウンレンジの推定値のみで十分である。このことは、精力的にテストを行い、それぞれの列のFPAをソートして比較した結果、クロスレンジの非線形性はほとんど改善とならないことが判明したことに基づいている。
更に図17を参照して、ビンカウント距離ヒストグラム列においてすべてのピクセルが扱われた後に、ステップ(1420)から(1430)までの間で、それぞれの列のそれぞれのピクセルについて、そして次に画像のそれぞれの列について扱われ、もしあるピクセルについて対応するビンカウント距離ヒストグラムの要素が閾値すなわちThreshold(Z)に等しいかそれ以下である場合は、後者は距離に依存するので、そのピクセルについての対応する値――あらかじめ定めた閾値よりも低い高さ、例えば道路表面、についての値――はゼロにセットされる。
図18a−cは道路の表面、ステレオ計算機(stereo engine)により生成されたそのダウンレンジマップおよび対応するステップ(1424)および(1426)の逆操作によって修正され、道路のみを含んだ画像を示す。従って、もし図18cにおいて残っているピクセルに対応するすべてのステレオ三次元空間データが除去されれば、距離マップは道路表面よりも上方に存在する三次元要素のみを含むこととなる。
図19a−cによれば、道路フィルタリングプロセス1400が駐車中の車両12について行われるところを示すものであり、元となる距離マップは図19bに示され、修正結果の距離マップが図19cに示されている。
衝突不可避領域は、車両12の経路空間が直接的に定義され、そこにおいては対象物に占有されると仮に最大の制動および操向操作が実行されても衝突が発生する。衝突可能領域は、仮に車両12の運動が変化することなく続いた場合に、対象物が想定された最大速度で車両12の経路に向かって移動すれば衝突が発生するような領域として定義される。衝突不可避領域は、衝突可能領域の部分集合である。
ステップ(422)の衝突実現性フィルタリングプロセスに従えば、衝突実現性フィルタ312は、道路表面フィルタードイメージ420から、車両12と潜在的VRU14についての力学的および運動学的仮定の下で車両12との衝突が実現性無しであろうとされる対象物を、実質的に取り除く。衝突実現性フィルタ312は、車両12との衝突が実現可能である対象物のみを含む単純化拒理マップイメージ424を生成する。
衝突実現性フィルタ310の一つの特徴に従えば、トラッキングされる対象物はそれらの速度に応じて除外される。衝突可能領域の形状は、車両12の速度に依存するものであり、一態様においては衝突可能領域の外にある対象物はトラッキングされない。もう一つの態様においては、道路表面フィルタ310がカーブの位置の検出もおこない、そのカーブの領域外の対象物もトラッキングされない。歩行者14.1および自転車乗り14.2は典型的には最大速度としてそれぞれ時速7マイルおよび14マイルを有し、車両12はそれらよりずっと高速であろう。衝突実現性フィルタ310は、道路表面フィルタードイメージ420から、VRU14の最高速度即ち時速14マイル以上の速度を有するいかなるトラッキングされた対象物――その対象物は必ずVRU14以外のものである――をも取り除き、後に続くVRU検出における移動対象物の数を大幅に減少させる。
衝突実現性フィルタ310のもう一つの特徴に従えば、潜在的VRU14ターゲットは、ある速度と転回率を有する車両12との衝突に至るかもしれない方向に移動中のそれらVRU14が、ある速度――VRUの想定される最大速度までの――でも、車両12との衝突が予想されないならば、取り除かれる。図20を参照して、道路使用弱者保護システム10の検知領域72は、例えば一態様においては水平に40度の視野を有するという、ステレオビジョンシステム16の配置によって定まる。一態様においては、道路使用弱者保護システム10はVRUを車両12の前方36フィートまで検知し、VRU14のためにVRU保護装置32を車両12の前方10フィートまでの動作領域74において作動させるが、この距離は車両12の速度に応答するようにすることが可能である。一般的に、動作領域の最大距離は特定の運転者警告装置28、VRU警告装置30およびVRU保護装置32に依存するものであり、対応する動作距離または時間はOEMによって、または政府機関によって特定されるであろう。
図21−23を参照して、検出領域72の中には実現不能領域76が存在し、その中ではVRU14は車両12と衝突するであろうことはできない。実現不能領域76の形と大きさは車両12の速度と旋回率とに依存する。図21は直線状を移動する車両12を表しており、対応する実現不能領域76は楔形で左右対称の実現不能領域76.1と76.2が検出領域72の左右の縁部に存在しているものである。検出領域72の実現不能領域76にはさまれた部分は関心領域78と呼ばれ、その中においてはVRU14が区別される必要がある。図22aと図22bを参照すると、車両の速度の増加に対して関心領域78.1の幅は減少し、実現不能領域76.1と76.2の幅は増加する。図23を参照して、旋回中の車両12に対して、対応する不可能領域76.3および76.4および対応する関心領域78.2の形状は車両12の予測される経路に従って決定される。
ステップ(426)の対象物距離セグメンテーションプロセスに従って、対象物距離セグメンテーションプロセッサ314が、単純化距離マップイメージ424からの差分距離上方に応答して隣り合う対象物(静止していても運動中でも)を互いに分離し孤立させる。
図24−26を参照すると、歩行中の歩行者14.1が静止している車両12からの距離を増加しつつあるところが撮像される。各図において、グレイスケールの最初の画像44.1(ステレオペアのうちの左画像)が上左に、対応する単純化距離マップイメージ424が上右に、対応する距離マップヒストグラム80が下半分に表示されている。距離マップヒストグラム80のx軸は距離rをフィートで表したものであり、距離マップヒストグラム80のy軸は、単純化距離マップイメージにおける特定の距離rにおけるピクセルの数である。レンジマップヒストグラム80は、単純化距離マップイメージ424における全てのピクセルについて、それぞれのレンジビンにおけるイメージピクセルの数を総和することによって作られている。一態様においては、全体の距離で65.5m(215フィート)分を提供するために、2の16乗のレンジビンが存在し、それぞれは1mmずつ離れているが、最大の実際的な距離(例えば一態様では150フィート)は、第一ステレオビジョンカメラ302.1および第二ステレオビジョンカメラ302.2の視野に依存し、それはイメージ空間における1ピクセル分の幅に相当する実空間における距離を決定する。
図24はVRU14が車両12にもたれかかっているところを示し、ここにおいて2つの対象物の間には実質的に距離の差は無いのでVRU14と車両12は同一のレンジビンを占めている。図25は、VRU14が車両12から約6フィート離れて、衝突までの距離が約26フィートであるものを示している。図26は、VRU14が車両12から約8フィート離れて、衝突までの距離が約24フィートであるものを示している。両者の距離と衝突までの距離とは、レンジビンにおける中央値に対して測定されている。
単純化距離マップイメージ424および対応する距離マップヒストグラム80は、リアルタイムでアップデートされる(例えば毎秒30フレーム)。距離マップヒストグラム80のみを使用して、予備的脅威調査が、場面中に存在する各対象物について、衝突までの距離、対象物の密度(ピクセル数)および距離範囲(最大距離のビンの距離と最小距離のビンの距離との差)に基づいて計算される。対象物の密度および距離範囲は、パターンに基づいた認識手法の必要なしに対象物の種類を判定する助けとなりうる。例えば、距離範囲が約4フィート以上であると、VRU14であると判定する可能性を低めるであろう。
距離の差分に基づいてそれぞれの対象物を分離し孤立化すること(「セグメンテーション」)は、距離マップイメージの情報の質に従って、フレームごとに実行してもよいし、いくつかの逐次的画像フレームから導出してもよい。暗い状態や夜間という条件は、通常対象物の境界線において発生する、第一画像44.1と第二画像44.2(左右ステレオ画像ペア)とのグレイスケールの相違が無いことによる距離情報の喪失をもたらすことがある。
例えば、図27a−cは、夜間に、時速約7マイルでVRU14に対してカメラが近づいていきながら撮影した、グレイスケール第一イメージ44.1の連続する3フレームを示し、左から右へ時間が経過している。図28a−cは、対応する3枚の単純化距離マップイメージ424を示す。それぞれの複数の(例えば3枚)連続する単純化距離マップイメージ424の組が、コンポジット距離マップイメージ(composite range map image)82を生成するために、主要コンポーネントアルゴリズムを用いて変換され、これによって複数の連続する単純化距離マップイメージ424における一意的差分が取り込まれ、また、例えば照明不足により失われたであろう対象物の像の領域が埋め合わされる。例えば図29は、図28a−cに示された連続する単純化距離マップイメージ424に対応する、コンポジット距離マップイメージ82を示す。複数の単純化距離マップイメージ424が変換された後に、次の連続する複数の単純化距離マップイメージ424が、主要コンポーネントアルゴリズムを用いて変換される。
主要コンポーネントアルゴリズムは、一般に次のように動作するが、より詳細な説明は「Statistical Methods for Medical Investigations」 Brian S. Everitt、ISBN0−340−61431−5に記載されており、ここに引用して組み込まれる。
L枚の連続した単純化距離マップイメージ424即ち単純化距離マップイメージアレイR 1R 2、・・・R 、それぞれの単純化距離マップイメージアレイR iは、M行N列の距離ピクセルアレイを含み、それぞれの単純化距離マップイメージアレイR 1R 2、・・・R は、最初に対応するそれぞれの単純化距離マップイメージベクトルr r 、・・・ に変換され、ここにおいてそれぞれの単純化距離マップイメージベクトルr r 、・・・ は、順次対応する単純化距離マップイメージアレイR iの連続する行を結合して形成される。例えば、一態様ではL=3、M=228、N=308であり、それぞれの単純化距離マップイメージベクトル の長さ(length)は、228x308=70224である。単純化距離マップイメージベクトル の転置列ベクトルが集められて、アレイ=[ 、・・・ ]とされ、アレイAの対応するLxLのクロス相関マトリクスCが計算され、行列式 |C−λ・I|を解くことによって固有値λ、λ、・・・λが決定され、ここにおいてIは固有マトリクスであり、|・・・|は行列式である。与えられた固有値λ、λ、・・・λに対して対応する固有ベクトルがν ν 、・・・ν であるCは、方程式Cν =λを満たすものとして定められる。対応するLの主コンポーネントイメージ −1、ここにおいて=[ν ν 、・・・ν ]、の式から見出される。の第一カラムベクトル はMxNに逆変換され、関連する主コンポーネントイメージベクトル の最大の変化量を表すコンポジット距離マップイメージ82を作る。
個々の単純化距離マップイメージ424またはコンポジット距離マップイメージ82のいずれかの距離マップヒストグラム80を計算するに先立って、密度が、例えば85以下のピクセルのクラスターは連結コンポーネント篩い分けフィルタを用いて取り除かれ、続いてオリジナルの16ビット距離スケールから10ビット距離スケールへの圧縮をするために、距離変換が単純化距離マップイメージ424またはコンポジット距離マップイメージ82に対して行われ、これは距離マップヒストグラムを計算する際に、空のまたは低密度のレンジビンが埋められる効果を有している。
連結コンポーネント篩い分けフィルタは、特定の領域よりも小さい、即ち連結したピクセル数が特定の数より小さい領域を取り除く。これらの比較的小さい領域のクラスターは、距離マップ中においては、生成物(ジャンク)とみなすことができる。連結コンポーネントアルゴリズムは、それぞれのピクセルが直近の8個のピクセル――垂直、水平および斜め――と結合しているかどうかを決定し、結合ピクセルのグループを特定し、その後、それぞれの連結領域が特定の領域定数によって検査される。領域の制限条件より小さい連結領域は結果出力バッファ内において、ゼロにセットされる。図30は15列10行の距離マップイメージの例を示しておりピクセルのクラスターが4個の別々の距離に存在する:それらは7フィート、10フィート、19フィートおよび22フィートで、図30bは図30aの距離マップイメージに対し連結コンポーネント篩い分けフィルタを作用させた結果を示しており、連結コンポーネント篩い分けフィルタの領域の制限条件は5ピクセルである。4つの連結領域(1から4と番号を振ってある)と背景領域(0と番号を振ってある)とがあり、領域の制限条件として5ピクセルを設定すると、5ピクセルより少ない連結領域であるものに対応する距離データ――即ち図30bにおいては領域2および3である――は除外される、即ちゼロにセットされる。連結領域のピクセル数が、領域の制限条件以上であるものに対応する距離データ――即ち図30bにおいては領域1および4である――が、連結領域篩い分けフィルタを通過する。
図31は距離変換前の最新の単純化距離マップイメージ424(即ち図29の右イメージ)の距離マップヒストグラム80を示し、図32は対応する距離変換後の同じ距離マップイメージ424のレンジマップヒストグラム80’である。距離変換は、実空間での距離を必ず保存する。これをフィートで示すとx軸上でゼロから36までである。
対象距離セメンテーションプロセス(426)は2つの対象間の特性に依存している:1)対象物の距離は単純化距離マップイメージ424において高度に相関がある;2)対象物の一はグレイスケール初期イメージ44.1(即ちグレイスケールステレオイメージ対のうちの左イメージ)において高度に相関がある。
対象物は、距離マップヒストグラム80、80’を調べることによって異なる距離に分離できるであろう。図33には、ステレオビジョンカメラ302の視野内における、VRU14の右方の背景部にあるゴミ箱と平行に分離した2つのVRU14の、グレイスケール初期イメージ44.1、対応する単純化距離マップイメージ424および対応する距離マップヒストグラム80’が示されている。距離マップヒストグラム80’を調べると、2つのVRU14は約18フィートである最初のレンジビンから約21フィートの最後のレンジビンまでを有するとわかる。ゴミ箱は約24フィートである最初のレンジビンから約27フィートである最後のレンジビンまでを有する。図34は、纏めおよび境界の明瞭化のためのいくつかの追加的な形態学的なフィルタリングのステップを経て図33から得られた、バイナリセグメンテーションイメージ84における境界に囲まれた(閉じた)領域内の「穴」は埋められ、小さな突起を取り去るためにバイナリセグメンテーションイメージ84から一つまたは複数の外側のピクセルを取り去るエロージョンフィルタ(erosion filter)によって境界がスムージングされた、最近接対象物即ち2つのVRUの、バイナリーセグメンテーションイメージ84を示している。バイナリセグメンテーションイメージ84は、グレイスケール初期イメージ44.1および単純化距離マップイメージ424におけるにおける対応する場所が非ゼロの値(通常は+1である)であるということが、その場所が適切なものであるということを示す、単なるバイナリの参照テーブルである。
ステレオビジョンカメラ302の視野内で横に並んで、距離のずれが無視できるような、分離した対象物は、「逆インデックス」法を用いて個別分離可能であり、その際は、距離マップヒストグラム80’のそれぞれのビンに寄与を与えている、元となる単純化距離マップイメージ424における場所のリストが入っている記憶アレイが作られる。このリストは、一般にリバースインデクス(またはバックワードインデクス)リストと呼ばれるものであり、どの距離マップの要素がヒストグラムにおけるレンジビンに集積されているのかを、効果的に決定する。
ステレオビジョンカメラ302の視界内で横に並んで、距離のずれが無視できるような、結合した対象物――即ち図33に示されるような――は、繰り返し法を用いて個別分離可能である。パターン認識の学習によって得た知識によれば、図34に示すバイナリセグメンテーションイメージ84の図形的特徴は、VRU14の種類に属するものの限界より大きいが、自転車乗り14.2または車両12の種類に確実に属するともいえない。学習の知識によれば、成人の歩行者の最適合矩形のアスペクト比(縦辺を横辺で除した商)は、11対5であるから、セグメントは分割して再分類することが可能であり、例えば、図35a−cは、11対5の比率を有する3種の異なる部分分割イメージ86と、結果として得られた最適合矩形88を図解している。
これは「領域拡大法」とも称され、その場合、最適合矩形の縦辺がQ個に、例えばQ個の等しい長さに分割され、最適合矩形の特定の角にセグメントの角を合わせ、一番小さい分割部分から逐次Q個の分割をより大きいものへと増加させて、最適合矩形に重ねて比較し、セグメントの部分イメージ86が分離して種類分けされる。いずれかの結果としての部分イメージがVRU14と種類分けされれば、その部分イメージ86が道路使用弱者保護システム400のその後のステップにおいて対象となる。最適合矩形内の残りの部分も、部分イメージ86の処理結果に依存して、更に部分イメージ86を取り出した後に、対象とされるかもしれない。
例えば、図35a−cにおいては、全体の最適合矩形88は部分矩形90によって分割され、11対5の比率(縦対横)を保って大きくされる。11対5の比は歩行者について有効であると判明したが、他の比がその後の学習の結果他の重要な対象物について有効であると判明するであろう。図35a−cに示す態様においては、Qの値は4であり、図35a−cが示す部分矩形90は、最適合矩形88の半分、4分の3および全部の高さを有しており、部分矩形90は右下の角を最適合矩形88のそれに合わせている。もう一つの態様においては、合わせる場所は左下の角であり、それは車両12に最も近い対象物についてより速い判別が行われるから、一般に車両12の右側に位置する対象物について有利である。例えば、仮に合わせる位置が、図35a−cに示される例の場合に左下であると、多分子供のVRU14が最初に図35aに示される部分図形86から判別されたであろう。
対象距離セグメンテーションプロセス(426)は一組の対象物428即ちバイナリセグメンテーションイメージ84または部分イメージ86を、単純化距離マップイメージ424またはコンポジット距離マップイメージ82から抽出する。図3および4を参照して、ステップ(430)においては、最も近い対象物428が選択され、ステップ(432)においては、ハーモニックプロファイル抽出器(harmonic profile extractor)316が、対象物の形を二値化重心(binary center−of−mass)からの距離と角度の関数としてパラメータ化するために、距離に依存しないハーモニック形状デスクリプタ(harmonic shape descriptor)が用いられる。ハーモニック形状デスクリプタはそれぞれの対象物の種類ごとの細かい構造を内包するものであり、例えば:自転車のタイヤや歩行者14.1の頭や足といった構造である。ハーモニックは、従来の図形的なデスクリプタ(最適合楕円、最適合矩形)よりもより強力なものである。太陽光、影または部分閉塞に起因する中小規模の誤りは、ハーモニックプロファイルを局地的に歪ませる。これらの誤りは中央移動平均フィルタを用いて除去または減少される。対象物428のハーモニックプロファイルは、対象物の二値化重心(図36における「+」の記号)から、外側に向かって最後のアクティブなピクセルに至るまで、メモリー中を順次検索していくことによって決定される。検索は時計回りに行われ、対応する最適合矩形の境界線までに制限される。このハーモニックプロファイル抽出プロセス(432)は、図36に示されており、ハーモニックプロファイルは自転車乗り14.2対象物428について、36本の等角度に間隔をあけた「スポーク」によって決定されている。
図37a−eは、5個の異なった対象物についてのグレイスケール画像と対応するハーモニックプロファイルを示しており、左から右に次のとおりであり、これらが生成される元になったそれぞれのグレイスケール画像がハーモニックプロファイル92の上に示されている:自転車乗り14.2(図37a)、ゴミ箱(図37b)、犬(図37c)、車両12(図37d)および歩行者14.1(図37e)である。図37fは図37a−eからのハーモニックプロファイル92の相互の相関についての、相互相関マトリクスを示し、これらからハーモニックプロファイル92が、種類の間の独自性を表すことがわかり、それによって自転車乗り14.2、歩行者14.1および車両12の認識と区別ができることがわかる。
ハーモニックプロファイルの距離非依存性は図38a−iに示されている。図38aおよび38eは、比較的近い位置に居る自転車乗り14.2の、グレイスケール画像と対応するハーモニックプロファイルである。図38bおよび図38fは、比較的遠いところに居る、自転車乗り14.2の、グレイスケール画像と対応するハーモニックプロファイルである。図38cおよび38gは、比較的近い位置に居る歩行者14.1の、グレイスケール画像と対応するハーモニックプロファイルである。図38dおよび図38hは、比較的遠いところに居る、歩行者14.1の、グレイスケール画像と対応するハーモニックプロファイルである。図38iは図37d−hのハーモニックプロファイルについての相互相関マトリクスであり、これらは同じ対象物のハーモニックプロファイル92が、距離によらず比較的強い相関があることを示し、異なった対象対象物については比較的弱い相関があることを示している。
ハーモニックプロファイルモデル94は判別すべきいろいろな種類のVRU14について、記憶されている。例えば、一態様においては、次の3種類のVRU14が判別される:自転車乗り14.2、静止している歩行者または中位の歩幅で歩行中の歩行者14.1’および最大歩幅で歩行中の歩行者14.1’’。VRUのそれぞれの種類について、そして距離rを1フィートずつ増加して7フィートから31フィートまでのハーモニックプロファイル92が、中位の歩幅の歩行者14.1’についておよび最大歩幅の歩行者14.1’’について、それぞれ図39および図40に白色で示されるように、例えば2度の間隔で、約300の異なった条件について収集された。自転車乗り14.2および静止しているまたは中位の歩幅のハーモニックプロファイル92が、図39の例では、黒で示されるフィルタードハーモニックプロファイル96を生成するために、19エレメントのセントラルムービングアベレッジフィルタによってフィルタされる。図40の例では黒で示される、対応するフィルタードハーモニックプロファイル96を生成するために、最大歩幅で歩行中の歩行者14.1’’のハーモニックプロファイル92は7エレメントのセントラルムービングアベレッジフィルタによってフィルタされる。更にその上、フィルタードハーモニックプロファイル96の「尻尾」は、338度から22度までの間即ち図40に表示された矢印の外側で、「切り落とされる」。最大歩幅で歩行中の歩行者の脚の特徴による40度から140度の間にある2つの山を過度にフィルタしないようにするために、最大歩幅で歩行中の歩行者14.1のハーモニックプロファイル92をフィルタするのには7エレメントのムービングアベレッジフィルタが使用される。結果としてのハーモニックプロファイルモデル94は、対応するハーモニックプロファイル96を例えばフィルタードハーモニックプロファイル96のそれぞれの角度位置における中央値、即ち図39および図40において太線で示される曲線を当てはめることによって得られる。
ハーモニックプロファイル92、94、96は、対象物の形を、半径方向距離を角度の関数として表すことによってパラメータ化し、各対象物の種類についての比較的細かい構造を、比較的少ないデータポイント数で表すことを提供する。太陽光、影または閉塞――例えば道路表面フィルタ310による――により引き起こされる、セグメンテーションにおける比較的小さな誤りは、ハーモニックプロファイルを局所的に歪ませるかもしれないものであるが、セントラル移動平均フィルタを使用することによって除去または減少させられるであろう。
図41aおよび41b、42aおよび42b、43aおよび43bを参照すると、ハーモニックプロファイルモデル94は元のトレーニングイメージとその鏡像イメージについてそれぞれ定められ、例が自転車乗り14.2、静止している歩行者または中位の歩幅で歩行中数rの歩行者14,1’および最大歩幅で歩行中の歩行者14.1’’に示される。
図44は、最大歩幅で歩行中の歩行者14.1’’の、距離が7フィートから32フィートまでの1フィード毎のハーモニックプロファイルモデル94である。
セントラルムービングアベレージフィルタ長さは、例えば19エレメントや7エレメントであるが、同一種類対象物内でのハーモニックプロファイルモデル94――すなわち、VRU14の一つの種類についての異なった距離rにおけるハーモニックプロファイルモデル――の相互相関が相対的に高く、例えば0.9以上になるように、調整される。
二値化セグメンテーションイメージ84またはサブセクションイメージ86のハーモニックプロファイル92が、19エレメントのセントラルアベレージフィルタでフィルタされ、自転車乗り14.2、および静止しているまたは中位の歩幅で歩行中の歩行者14.1’についての記憶してあるハーモニックプロファイルモデルとの相関がとられ、また、ハーモニックプロファイル92は7エレメントのセントラルアベレージフィルタでフィルタされ、最大歩幅で歩行中の歩行者14.2’’についての記憶してあるハーモニックプロファイルモデルとの相関が取られる。対応する記憶についての最大の相関値が、ハーモニックプロファイル92がどの特定のハーモニックプロファイルモデル94とマッチするのか、および対象物の種類と距離rがいかなるものであるのかを知るために用いられる。
ステップ(430)に従って、ステップ(432)の前に、判定された対象物428について数学的および形状的デスクリプタが計算される。これらのデスクリプタはその対象物428を簡潔に表すものであり、多くのサイズのVRUおよび自転車乗り14.2の種類を決定するのに適用されるものである。最良のデスクリプタは、同一の種類はひとまとめにし、異なった種類の間は区別し、画像平面上での位置や回転や大きさには影響を受けない。そのような2種類のデスクリプタとして、最適合矩形のアスペクト比と、最適合楕円の角度方向とが、約700の自転車乗り14.2、静止している歩行者14.1および歩行中の歩行者14.1について、図45aおよび図45bにそれぞれプロットして示されている。それぞれの中央値が、それぞれの種類について示されている。最適合矩形および最適合楕円は、矩形および楕円をそれぞれ二値化セグメンテーションイメージ84または対象距離セグメンテーションプロセッサ314によって決定されたサブセクションイメージ86と重ね合わせ(fit)て決められる。
一般的に、結合した対象物の形状ディスクリプタは、結合が解かれたそれぞれの対象物のそれとは大変異なるものである。図46bは、図46aに示される場面についての、最適合矩形および最適合楕円――それぞれ値1.480および1.262を有する――を示している。図47は、同じデスクリプタ――それぞれ値2.425および1.633を有する――を分離後の最大の対象物について計算したものを示している。最大の分離した対象物は、学習した値の組のうち歩行者の種類(「Ped1」)に密接にマッチしており、このことは、最適合矩形および最適合楕円デスクリプタの、VRU識別における有効性を確認するものである。
図3および4を参照して、ステップ(438)においては、フィーチャーベクトルプロセッサ320が、12要素のフィーチャーベクトル440の各要素の値を次のように定める:
1.セグメント化領域の大きさ
2.カメラ焦点面アレイのセグメント化領域の二値化重心を含む行
3.カメラ焦点面アレイのセグメント化領域の二値化重心を含む列
4.対象物の垂直方向の量
5.対象物の水平方向の量
6.最適合矩形のアスペクト比
7.最適合矩形の充填率(即ち、セグメントが存在している部分の割合)
8.最適合楕円の主軸の垂直線に対する角度
9.最適合楕円の主軸と副軸の比
10.19エレメントのセントラルムービングアベレージフィルタを記憶したハーモニックプロファイルについて実行した結果の最高相関
11.7エレメントのセントラルムービングアベレージフィルタを記憶したハーモニックプロファイルについて実行した結果の最高相関
12.最適合矩形の下半分における最大水平部分の量
図3および4を参照して、ステップ(442)においては、フィーチャーベクトルが対象物認識プロセッサ322に入力され、その出力は対象物428がVRU14である確率P444である。図48および49を参照して、一態様においては、対象物認識プロセッサ322は一つのインクルーシブニューラルネットワーク98と、それぞれの対象物の種類について一つずつである複数のエクスクルーシブニューラルネットワーク100および対応する規則ベースの決定プロセス(rule−based decision process)を含んでおり、これらはプライマリーな種類についての何千もの写真についての学習を通じて習得したナレッジベースを用いて学習が行われるものである。パターンマッチングが成功するのは、未修得の対象物のフィーチャーが習得済みの対象物と強く一致する場合である。
図48を参照して、インクルーシブニューラルネットワーク98は、VRU14および車両12を認識するために使用され、他の種類の対象物から一意的に異なるパターンを発見するとともに、同じ種類のもののなかでの他の対象物と区別できるパターンを発見する。このネットワークは、すべての種類についての性質を考慮するように訓練される。インクルーシブニューラルネットワーク98は、学習をしているそれぞれの種類――およびどれにも属さない種類――に対応する出力を発生する。例えば、3つの種類を有する態様は次の様である:自転車乗り14.2、静止している歩行者または中位の歩幅で歩行中の歩行者14.1’および最大歩幅で歩行中または走行中の歩行者14.1’’であり、インクルーシブニューラルネットワーク98は4つの出力Y1,Y2,Y3およびY4を有し、これらはインクルーシブニューラルネットワーク98に入力された特定のフィーチャーベクトル440に対応する対象物が、それぞれの種類である確率を示すものである。
図49を参照して、エクスクルーシブニューラルネットワーク100は学習セットの中の3種の特定の種類のVRUについて認識するために用いられる:自転車乗り14.2、静止または中位の歩幅で歩行中の歩行者14.1’および最大歩幅で歩行中または走行中の歩行者14.1’’である。エクスクルーシブネットワークは自己相似的(self−similar)であり、特定の種類についてのフィーチャーベクトル440を、特定の種類の多くのベクトル中から認識できるものであり、他の種類のものがいかなるものであるのかは問わない。エクスクルーシブニューラルネットワーク100はVRU14のそれぞれの種類について一つ設けられ、それぞれのエクスクルーシブニューラルネットワーク100は、2個の出力y1およびy2を有しており、それぞれフィーチャーベクトル440を伴う対象物が、そのエクスクルーシブニューラルネットワーク100が基礎をおく種類のものであることの確からしさ、およびそうでないことの確からしさ、の指標を与えるものである。
図48および49に示されるインクルーシブ98、およびエクスクルーシブ100ニューラルネットワークにおいては、値Xは入力フィーチャー、即ちフィーチャーベクトル440の要素(上記リスト中の要素10および要素11は除く)を表し;
最初の列のニューロンは出力hを有する隠れたレイヤー(hidden layer)と呼ばれ;
第二の列のニューロンは出力zを有する第二の隠れたレイヤーと呼ばれ、
最後の列のニューロンは出力yを有する出力レイヤーと呼ばれる。
u、vおよびwはそれぞれのノードの入力の重み付け値を表す。ニューラルネットワークの訓練の目的は、計算をしたフィーチャーが正しい出力値を示すようなこれらの重み付け値はいくつであるかを決定することである。インクルーシブ98およびエクスクルーシブ100ニューラルネットワークは、望ましい出力結果が特定されている多くの入力データを集め、このデータを対応するインクルーシブ98およびエクスクルーシブ100ニューラルネットワークにランさせ訓練される。新しい入力が適用されるたびに、全てのデータのセットに対しても非常に小さな誤差しか生じなくなるまで、重み付け値は修正される。
インクルーシブニューラルネットワーク98およびエクスクルーシブニューラルネットワーク100の訓練の操作は次のようにまとめられる:
出力レイヤーに与えられる重み
Figure 2012069121
第二の隠れたレイヤーに与えられる重み
Figure 2012069121
第一の隠れたレイヤーに与えられる重み
Figure 2012069121
ρはトレーニングレートと呼ばれ、誤差関数が極小になるまでにどれだけ多くのステップが取られたかを表す。
αはモメンタムと呼ばれ、訓練の収束速度を増すための、前回の重みの変化に乗算されるものである。
衝突可能空間(Collision Possible Space)に入ってくる対象物428の種類分けは、数学的、幾何学的およびハーモニック形状デスクリプタを用いる訓練可能なパターン認識システムを用いて行われる。このシステムに対しては、あらかじめ定めた種類の多数のサンプルに接することで習得したナレッジベースを用いて、可能性のある種類の選別をするように教育される。訓練セットは何千ものそれぞれの基本的種類についての画像が含まれている。成功裏のパターンマッチングは、訓練していない対象物についてのデスクリプタが、訓練済みの対象物のデスクリプタと良い一致をするときに生じる。そのアルゴリズムは、既存の種類についての特性とはっきり異なる特性を有するならば他の種類についての認識にも拡張可能である。規則ベースのシステムを、このパターン認識システムを補うために追加してもよく、そこにおいて規則は例外なしに、或る種類の中での全ての変形についても適用可能なように設計される。規則は、特定の種類を除外する、または含む、という形で設定されてもよい。
一態様においては、ひとつの対象物はつぎのように種類判別される:
もしインクルーシブニューラルネットワーク98の出力が、車両という種類について0.80以上であれば、その対象物は車両12と種類分けされ;
そうでなければ、
もしインクルーシブニューラルネットワーク98の出力が、VRUという種類について0.9以上であれば、その対象物はVRU14と種類分けされ;
そうでなければ、
もしインクルーシブニューラルネットワーク98の出力が、VRUという種類であって、同じ種類のVRU14について、エクスクルーシブニューラルネットワーク100の出力と、ハーモニックプロファイルモデル94との相関が共に0.8以上であるならば、その対象物をVRU14と種類分けされ;
そうでなければ、
もしエクスクルーシブニューラルネットワーク100の出力またはハーモニックプロファイルモデル94との相関のどちらかが0.95以上であるならば、対象物をVRU14と種類分けされ;
そうでなければ、
対象物を種類分けしない。
規則ベースは、全ての種類について当てはまる観測結果についてのものである。もしこの規則に合致しないのであれば、問題となっているその対象物は、その種類のものではない。例えば、Xフィート離れた位置にいる歩行者の垂直の大きさ(最適合矩形の縦)はYピクセルより大きいことはあり得ない。Xフィートの距離にある(未だ種類分けされていない)対象物がY+k(k>0)の縦方向大きさであるならば、その対象物は歩行者の種類に属するものではない。「誤警報」(保護デバイスの誤った作動)を排除するための規則ベースは、VRUの異なった複数の種類について開発される。
例えば図50、51および52を参照すると、縦の大きさ、水平の大きさおよび最適合矩形88の下方境界フィーチャーが訓練セットに含まれる全てのVRU14の種類についてそれぞれモデル化される。最適合矩形88の縦の大きさのモデルは、訓練セットに含まれる全てのVRU14の上限と下限を表すものである。最適合矩形88の水平の大きさのモデルは、訓練セットに含まれる全てのVRU14の下限を表すものである。最適合矩形88の下方境界のモデルは、訓練セットに含まれる全てのVRU14の上限と下限を表すものである。
これらのモデルは、VRU14の誤った肯定的検出、例えばごみ缶、街路灯支柱、覆いかかる木の枝などにあたるもの、を排除するためのものである。この反「誤警報」は、検出された危険が、訓練したVRU14パラメーターの範囲外である時に発動される。例えば、或るケースでは、約39フィートのところにあると検出された街路灯ポールは当初は静止している歩行者と種類分けされるが、最適合矩形の縦の大きさは132ピクセルであり、この距離における最大モデル値が69ピクセルであるので、VRU14であるとの種類分けは排除される。それぞれのモデルについて、最適合矩形88のある特性がモデルの閾値を越えると、VRUであるとの種類分けは排除される。
もし、ステップ(446)において、確率P444が対応するVRU識別閾値P*324よりの大きくない場合には、ステップ(448)において、対象距離セグメンテーションプロセッサ314により識別されたもののうち、次に近い対象物428が選択され、ステップ(432)によるプロセスが再び行われる。
そうでない場合は、ステップ(450)において、対象物トラッカ326が対象物認識プロセッサ322によってVRUであると識別された対象物428をトラッキングする。ひとたびVRUが識別されると、そのVRUに対応するひとつのトラックファイルが対象物トラッカによって作られる。そのトラックファイルの出力には、集積認識確実度(accumulated confidence of recognition)、VRU14の重心の距離および横方向位置の履歴、発火までの推定時間(time−to−fire)および衝撃までの推定時間が含まれる。対象物トラッカ326は、衝突可能領域にいまだ進入していないが既に潜在的脅威であると種類分けされている、ステレオビジョンカメラ302の視界内に存在する全ての対象物428についての情報を維持管理(メンテナンス)する。トラッキングされる対象物428についての、直近10秒間の一意的につけられたトラッキングID、種類分けコード、衝突までの距離、重心および縦方向の大きさがリニアバッファの中に維持管理される。P次の自動減算モデル(Pth order autoregressive model)が、この情報を対象物428の将来の位置を予測するために使用する。トラックファイルはまた、例えば歩行者14.1が屈んだり転倒したりするような、対象物の一時的な動作をトラッキングすることによって、限定的な「状況の認識」能力を提供する。
トラックファイルは、リニアバッファの中に、最も最近識別された対象物の情報(特性および種類分け)を維持管理する。対象物は、衝撃までの距離に基づいて昇順でソートされる。このことは、最も重要な脅威(自身の車両に対して最も近い)について活発に維持管理されることを保障する。新しく種類分けされた対象物は既にトラックファイルに存在するものとの相関がとられる。そしてトラックファイルレコードはしかるべくアップデートされる。トラックファイルの中の情報は、限られた状況認識を与えるものである。例えば、或る特定のVRU14が、衝突までの距離に殆ど変化がなく、フレームが変わっても維持されることは、図53に示されるように、自身の車両がこのVRU14を追尾している状態にあるということを意味している。
ステップ(452)において、発火までの時間プロセッサ328が、車両12はVRU14と衝突するかどうか、そしてもしそうなら衝突が発生するであろう時までに残された時間を推定する。もしステップ(454)において衝突が予想され、残り時間が十分ある(即ち、発火までの時間(TTF)は対応する発火までの時間閾値(TTF)よりも短い)ならば、ステップ(456)において、運転者警告装置28またはVRU警告装置30が運転者33および/またはVRU14に警告を与えるために起動され、ブレーキ制御システム34に対し車両ブレーキシステム102を動作させるために信号が与えられ、または、VRU14の性質に応じて、衝突により発生するVRUの負傷を緩和するために、一つまたは複数の外部エアバッグ32.1やボンネットアクチュエータ32.2等のVRU保護装置32が作動される。
たとえば、推定された発火までの時間(TTF)が道路使用弱者保護システム10のサイクルタイムより短い(即ち30ミリ秒以下)時には、VRU14を保護するために外部エアバッグ32.1を膨張させるに必要な適時に、信号26が発生される。道路使用弱者保護システム10は、歩行者14.1および他のVRU14を衝撃に先立って検出し識別し、また、一態様においては、VRU14との衝突がありうるときに運転者33および/またはVRU14に対し警告を行い、VRU14との衝突が多分起きるときにブレーキ作動を開始させ、そしてVRU14との衝突が確実なときに外部エアバッグ32.1またはボンネットアクチュエータ32.2の動作させる信号を起動させる。もし、ステップ(454)の後に、衝突が予想されないとき、または運転者警告装置28、VRU警告装置30、ブレーキ制御装置34、VRU保護装置32の次の作動までの時間または次のステップ(456)のための時間としては不十分なときには、プロセスはステップ(458)で次の画像フレームに進んで、ステップ(402)からプロセスを再開する。
IBMT30(1.8GHzのP4と512MBのRAM)によるタイミングテストでは、郎路使用弱者保護システム10は、画像サイズが308x228ピクセルのもので、毎秒39から44回の知るインクルーシブニューラルネットワーク識別ができることがわかった。
上記したそれぞれ独立のニューラルネットワーク:インクルーシブ、エクスクルーシブおよびハーモニックは、上記した道路使用弱者(VRU)の認識において一意的に認識判定に寄与するという基本的な強力さを有している一方、これらのネットワークの出力の普通の解釈は時に主観的で不正確なものとなる。しかしながら、これに変わる態様――それは4クラス統合ネットワーク(4−class consolidated network)(4ccネットワーク(4cc network))と呼ぶことができる――によれば、インクルーシブ、エクスクルーシブおよびハーモニックネットワークの出力は、3種類のVRU:自転車乗り、静止した歩行者および歩いている/走っている歩行者、のそれぞれについての、単一の、あいまいさのない種類分けの統計値を与えるために統合される。
4ccネットワークは、元となる複数のニューラルネットワークを統合するための訓練した一つのニューラルネットワークを使用する。学習プロセスは、インクルーシブ、エクススルーシブおよびハーモニックの各ネットワークが3種類のVRUそれぞれに対して寄与する率の重み付けの最適値を決定するために用いられる。そのプロセスは、学習用セット(種類分けが既にされている、22000枚の画像)を多数のレベルのサポート(support)――この用語は、関係ない種類同士の分離および関係のある種類同士のグループ化の定量的指標を意味する用語として使用される――において、繰り返し行うことが要求される。この決定された重み付けは、ネットワークの出力を信頼性高く、正しい割合で統合し、図54の3階層プロセスに導く。階層は、種類間サポートおよび種類内サポートの増加する指標を表している。
4ccネットワークの階層1は、種類分け統計の10要素ベクトルを、4要素のフィーチャーベクトル入力に再構成(reorder)し、小型車、自転車乗り、静止した歩行者および歩行中の歩行者についての単一の種類分け統計を返す。4ccネットワークの階層2は、静止した歩行者と歩行中の歩行者を単一の歩行者種類分け統計に統合する。4ccネットワークの階層3は自転車乗りと歩行者とを単一のVRU種類分け統計に統合する。この階層はオプションである。
4ccネットワークにより返された5要素ベクトルが、元となる10要素ベクトルと共に図55に示される。
統合種類ベクトルおよび分離種類ベクトルの両者におけるデテクションフラグ(detection flag)NetStat[1]は、種類分けができなかった検出についてフィードバックを与えるためのものである。検出した対象物が自己の車両から約48フィート以内の距離にあり、いずれの学習した種類分けにも類似していない場合には、デテクションフラグは値1.0とされる。検出した対象物が自己の車両から約48フィート以内の距離にあり、学習したVRUの種類分けとのみ類似していない場合、デテクションフラグは、VRU誤警報コンフィデンスの値とされる。これは先ほどは反「誤警報」と称していたものである。これらのどちらの場合も、結合した領域に基づく潜在的脅威を呈している未認識の対象物の存在を表示している。検出された対象物が、自身の車両から約48フィートよりも遠いところにある場合、デテクションフラグは値1.0とされる。拡大距離対象物は形状特性が不十分にしか存在しないので種類分けされない。
統合種類分け統計の小型車(Cvehi)は、小型車(ホンダアコードおよびボルボS40)の後方で軸から外れた位置からの画像で学習がなされる。統合種類分け統計の自転車乗り(VruB)は視野(FOV)の横を通る自転車乗りで学習がなされる。統合種類分け統計の歩行者(VruP)は、静止したおよび歩行中の歩行者が、小さな物体を運んでいるところによって学習がなされる。この種類については、接近してくる自転車乗りおよび離れ去る自転車乗りを含むように学習がなされる。
図56に描かれた場面は、馴染みのグループ5のテストシークエンスを示し、ここにおいて、上のログは分離の種類分け統計であり、下のログは統合化種類分け統計である。
図57を参照すると、4ccネットワーク種類分けコンフィデンスの値が10%の幅でプロットされている。5688枚の自転車乗りの種類の学習画像に対して、5514(97%)が、0.90以上のコンフィデンス値を示している。10316枚の静止した歩行者の種類の学習画像について、9611(93%)が、0.90以上のコンフィデンス値を示している。2738枚の歩行中の歩行者の種類の学習画像について、2715(99%)が0.90以上のコンフィデンス値をしめしている。
4ccネットワークのテストにおいては、22000枚の学習画像に対して、高いパーセンテージの高いコンフィデンス値を示すそれぞれのVRU種類についての検出を示した。
図57の自転車乗りの濃度プロットのCvehiの列から判るように、5688枚の自転車乗りの種類の学習画像に対して、9(0.15%)の小型車と誤った種類分けがなされた。数字としては大きなものではないが、この種類のエラーは保護装置の不作動という最も酷い結果を潜在的に含むものである。しかしながら、図57に見られるこの高いコンフィデンス値を示した9個の自転車乗り種類分けエラーのそれぞれは、距離マップにおける異常に起因している。それぞれの場合で、頭部または上半身が、自転車乗りの下の部分から分離されているか失われているものであった。セグメンテーションアルゴリズムは分離した部分を検出していたが、それは寸法不足か別体の対象物と分類されたかのいずれかにより、捨てられていた。図58にこの9個のケースのうちの一つの例を示すが、分離した頭部がセグメンテーションの境界線を変化させ、そして種類分けプロセスの質を落としたものである。また、タイヤの間の空間が充填され、ハーモニックネットワークで必要とされる2個の山がなくされているのも見ることができる。
図59を参照すると、群集2の20フレームの連続場面を使用した時間テストは、毎秒139回の種類分けを実行し、64ビットモードでHPxw4100(P4、2.8GHz、1GBRAM)を用いてテストした際に、先の態様の毎秒124と比較して12%の改善を示したことになる。
特定の態様が詳細に説明されたが、この分野の通常の知識を有する者にとっては、これら詳細からの多数の変形または代替物がこの開示全体の教示に照らして開発可能であろう。したがって、開示された特定の態様は、説明の目的のみであって、発明の範囲を限定するものではなく、発明の範囲は付随する請求項およびその全ての均等物の完全な範囲について与えられるべきものである。
複数の道路使用弱者(VRU)に直面した車両の立面図およびその車両に道路使用弱者を保護するシステムを適用した状態のブロックダイヤグラムである。 車両の平面図およびその道路使用弱者保護システムのブロックダイヤグラムである。 道路使用弱者保護システムのブロックダイヤグラムである。 道路使用弱者保護システムのプロセスのフローチャートである。 ステレオビジョンシステムの配置の図解を示す図である。 ピンホールカメラの画像形成配置の図解を示す図である。
車両の正面図および道路使用弱者保護システムにおけるステレオビジョンシステムのステレオビジョンカメラのいくつかの態様を示す図である。 単独カメラによるステレオビジョンシステムを示す図である。 自動利得調整プロセスの要素の図解である。 相関ダイヤグラムのブロックダイヤグラムである。 最悪シナリオの場合の、複数の車両速度についての衝突までの時間の関数としての対象までの距離のプロットを示す図である。 最悪シナリオの場合の、複数の車両速度についての衝突までの時間の関数としての対象までの角度のプロットを示す図である。
2種の歩行者身長についての、使用する視界センサからの拒理の関数としての焦点面面積占有割合のプロットを示す図である。 道路表面を含んだ場面のオリジナルグレイスケール画像を示す図である。 遠方対象物を距離フィルターによって取り除いた、図12aに示された画像に対応する距離マップを示す図である。 道路表面を道路表面フィルターによって取り除いた、図12bに示された画像に対応する距離マップを示す図である。 車両と3種の異なった相関ダウンレンジビンに対応した3種の視界を示す図である。 道路表面フィルタプロセスのフローチャートである。 図14に示される道路表面フィルタプロセスに用いられる、ステレオ画像に伴うダウンレンジデータアレイを示す図である。 図14に示される道路表面フィルタプロセスに用いられる、距離マップアレイを示す図である。
図14に示される道路表面フィルタプロセスにより操作されるピクセル値のアレイを示す図である。 ステレオビジョンシステムの左カメラから見た道路場面のグレイスケール画像を示す図である。 図14aの画像についての、ステレオ装置により生成された距離マップを示す図である。 図14bの画像を、実質的に相関道路表面のみを表示するように処理した画像を示す図である。 ステレオビジョンシステムの左カメラからの、駐車中の車両のグレイスケールイメージを示す図である。 図15aに示される場面のステレオ処理装置により生成された距離マップを示す図である。 図15bに示される画像を、実質的に画像中の駐車中車両のみを表示するように処理した画像を示す図である。 道路使用弱者保護システムの配置を示す図である。
直線上を走行する車両の衝突不可避領域と衝突可能領域の図である。 第一速度で走行する車両のVRU危険領域の例を示す図である。 第二速度で走行する車両のVRU危険領域の例を示す図である。 旋回中車両の衝突不可避領域と衝突可能領域の図である。 停止中の車両近傍にいる道路使用弱者についての対象距離セグメンテーションプロセスの結果の図である。 停止中の車両から約6フィート離れた道路使用弱者についての対象距離セグメンテーションプロセスの結果の図である。 停止中の車両から約8フィート離れた道路使用弱者についての対象距離セグメンテーションプロセスの結果の図である。
夜間イメージシークエンスにおける3枚の逐次的グレイスケール画像フレームを示す図である。 図27a−cのグレイスケール画像に対応する3枚の逐次的距離マップ画像を示す図である。 合成距離マップ画像を示す図である。 連結コンポーネント篩い分けフィルタの動作を示す図である。 図29における右端部に対応する16ビット距離マップヒストグラムである。 図24の16ビットヒストグラムを変換して生成した10ビット距離マップヒストグラムである。 視界中で横並びに離隔した2者の道路使用弱者の図である。 図23に示す距離マップ画像のヒストグラムサーチの結果得られるセグメンテーション画像である。 図34に示すセグメンテーション画像の3つの異なったサブセクションの図である。
自転車乗りのセグメント化画像にハーモニックプロファイルエクストラクションプロセスを施す様子を示す図である。 自転車乗りが対象である場合のグレイスケール画像と対応するハーモニックプロファイルを示す図である。 ごみすて缶が対象である場合のグレイスケール画像と対応するハーモニックプロファイルを示す図である。 犬が対象である場合のグレイスケール画像と対応するハーモニックプロファイルを示す図である。 車両が対象である場合のグレイスケール画像と対応するハーモニックプロファイルを示す図である。 歩行者が対象である場合のグレイスケール画像と対応するハーモニックプロファイルを示す図である。 図30a〜eのハーモニックプロファイルのクロスコリレーションから生成されたクロスコリレーションマトリクスを示す図である。
ハーモニックプロファイルの距離不変性を示す図である。 ハーモニックプロファイルの距離不変性を示す図である。 ハーモニックプロファイルの距離不変性を示す図である。 ハーモニックプロファイルの距離不変性を示す図である。 ハーモニックプロファイルの距離不変性を示す図である。 ハーモニックプロファイルの距離不変性を示す図である。 ハーモニックプロファイルの距離不変性を示す図である。 ハーモニックプロファイルの距離不変性を示す図である。 ハーモニックプロファイルの距離不変性を示す図である。
フィルターをかけない状態のハーモニックプロファイルを含む、中ぐらいの歩幅で歩行中の15フィート離れた多数の歩行者のハーモニックプロファイルのコンポジット、19エレメントの中央移動平均フィルタから得られたフィルタ後の対応するプロファイルおよび15フィートの距離からの歩行中の歩行者の組についての最適合ハーモニックプロファイルを示す図である。 フィルターをかけない状態のハーモニックプロファイルを含む、最大歩幅で歩行中の15フィート離れた多数の歩行者のハーモニックプロファイルのコンポジット、7エレメントの中央移動平均フィルタから得られたフィルタ後のプロファイルおよび対応する最適合ハーモニックプロファイルを示す図である。 二値化イメージ、対応するハーモニックプロファイルおよび自転車乗りおよびその鏡像のそれぞれに対応する二値化画像の対応するハーモニックプロファイルモデルを示す図である。 二値化イメージ、対応するハーモニックプロファイルおよび歩行者およびその鏡像のそれぞれに対応する二値化画像の対応するハーモニックプロファイルモデルを示す図である。
二値化イメージ、対応するハーモニックプロファイルおよび最大歩幅で歩行中の歩行者の二値化画像およびその鏡像のそれぞれに対応するハーモニックプロファイルモデルを示す図である。 最大歩幅で歩行中の歩行者のクラスについての、7フィートから32フィートまでの距離で、7エレメント中央移動平均フィルタによってフィルタされたデータから生成された最適合プロファイルの例である。 自転車乗り、立ち止まっている歩行者および歩行中の歩行者を表す、最適合矩形デスクリプタが散らばって表示されている様子を示す図である。 自転車乗り、立ち止まっている歩行者および歩行中の歩行者を表す、最適合楕円形デスクリプタが角度座標上に散らばって表示されている様子を示す図である。 グレイスケールイメージである。 図39aに表された画像から生成された結合した対象のセグメンテーションイメージについての最適合矩形デスクリプタおよび最適合楕円形デスクリプタを示す図である。
図46aに対応するグレイスケールイメージを表す図である。 図47aに表された画像から生成されたセグメンテーションイメージにおける最大の対象ついての最適合矩形デスクリプタおよび最適合楕円形デスクリプタを示す図である。 インクルーシブニューラルネットワークの態様である。 エクスクルーシブニューラルネットワークの態様である。 VRUの誤検出を緩和するための垂直分量モデルである。 VRUの誤検出を緩和するための水平分量モデルである。 VRUの誤検出を緩和するための垂直位置モデルである。 自転車乗りVRUに追随する車両からみた場面の図である。 4段階統合ネットワークのフローチャートである。
4段階統合ネットワークにおける、結合段階統計および分離段階統計である。 実際に見える場面、アソシエイテッド距離マップおよび特定のテストシークエンスにおけるアソシエイテッド分類統計を示す図である。 3区分の対象物の2万2千の訓練画像についての、4ccネットワーク分類密度から得られた分類密度を表す図である。 画像中での上半身分離により発生した9種の自転車乗りについての誤分類を示す図である。 第2バージョンのタイムテストを示す図である。

Claims (1)

  1. 道路使用弱者を識別する方法であって、
    a.画像から対象物の輪郭を抽出すること、
    b.その輪郭の重心を求めること、
    c.前記重心を通る線の相対角度として複数の角度位置における該重心から輪郭までの複数の距離を含む測定ベクトルを決定し、
    d.前記測定ベクトルを、少なくとも一つの参照対象物を表す少なくとも一つの記憶したベクトルと比較し、
    e.前記測定ベクトルと前記少なくとも一つの記憶したベクトルとを比較することに応答して、前記対象物が前記参照対象物に一致するかどうかを決定する、
    ことを含む方法。
JP2011221172A 2004-07-26 2011-10-05 道路使用弱者保護システム Expired - Fee Related JP5591779B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US59156404P 2004-07-26 2004-07-26
US60/591,564 2004-07-26

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007523736A Division JP5405741B2 (ja) 2004-07-26 2005-07-26 道路使用弱者保護システム

Publications (3)

Publication Number Publication Date
JP2012069121A true JP2012069121A (ja) 2012-04-05
JP2012069121A5 JP2012069121A5 (ja) 2013-02-21
JP5591779B2 JP5591779B2 (ja) 2014-09-17

Family

ID=35787778

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2007523736A Expired - Fee Related JP5405741B2 (ja) 2004-07-26 2005-07-26 道路使用弱者保護システム
JP2011221173A Expired - Fee Related JP5425853B2 (ja) 2004-07-26 2011-10-05 道路使用弱者保護システム
JP2011221172A Expired - Fee Related JP5591779B2 (ja) 2004-07-26 2011-10-05 道路使用弱者保護システム
JP2012282130A Expired - Fee Related JP5670413B2 (ja) 2004-07-26 2012-12-26 道路使用弱者保護システム
JP2014170473A Pending JP2015046162A (ja) 2004-07-26 2014-08-25 道路使用弱者保護システム

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2007523736A Expired - Fee Related JP5405741B2 (ja) 2004-07-26 2005-07-26 道路使用弱者保護システム
JP2011221173A Expired - Fee Related JP5425853B2 (ja) 2004-07-26 2011-10-05 道路使用弱者保護システム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2012282130A Expired - Fee Related JP5670413B2 (ja) 2004-07-26 2012-12-26 道路使用弱者保護システム
JP2014170473A Pending JP2015046162A (ja) 2004-07-26 2014-08-25 道路使用弱者保護システム

Country Status (4)

Country Link
US (4) US8594370B2 (ja)
EP (3) EP1779295A4 (ja)
JP (5) JP5405741B2 (ja)
WO (1) WO2006014974A2 (ja)

Families Citing this family (155)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10336638A1 (de) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
EP1779295A4 (en) 2004-07-26 2012-07-04 Automotive Systems Lab SYSTEM FOR PROTECTING USERS OF THE ROAD IN A DANGER SITUATION
ATE475152T1 (de) * 2004-08-30 2010-08-15 Commw Scient Ind Res Org Verfahren zur automatischen 3d-bildgebung
US7567704B2 (en) * 2005-11-30 2009-07-28 Honeywell International Inc. Method and apparatus for identifying physical features in video
US8164628B2 (en) * 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
EP1971820B1 (de) * 2006-01-08 2012-10-17 Hermann Tropf Erstellung eines abstandsbildes
WO2007102367A1 (ja) 2006-02-28 2007-09-13 Toyota Jidosha Kabushiki Kaisha 物体進路予測方法、装置、プログラム、および自動運転システム
JP4970861B2 (ja) * 2006-07-07 2012-07-11 本田技研工業株式会社 車両周辺監視システム、車両、車両周辺監視プログラム、および車両周辺監視システムの構築システム
JP4315991B2 (ja) * 2007-04-20 2009-08-19 本田技研工業株式会社 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム
JP2008271308A (ja) * 2007-04-23 2008-11-06 Sanyo Electric Co Ltd 画像処理装置及び方法並びに車両
CA2692277A1 (en) * 2007-07-03 2009-01-08 J. Edward Ramsey Trailer hitch alignment device and method
DE102008020087B4 (de) * 2008-04-22 2019-10-10 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Pyrotechnischer Aktuator mit Filter
US8311360B2 (en) * 2008-11-13 2012-11-13 Seiko Epson Corporation Shadow remover
CN101907700B (zh) * 2009-06-08 2013-02-13 英华达股份有限公司 一种辅助导航的转向判断方法
JP5404263B2 (ja) 2009-09-07 2014-01-29 パナソニック株式会社 視差算出方法、および視差算出装置
KR20110064480A (ko) * 2009-12-08 2011-06-15 삼성테크윈 주식회사 궤적 안정화 장치 및 방법, 그리고, 영상 감시 시스템
JP5325765B2 (ja) * 2009-12-28 2013-10-23 日立オートモティブシステムズ株式会社 路肩検出装置及び路肩検出装置を用いた車両
JP5297403B2 (ja) * 2010-02-26 2013-09-25 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、プログラムおよび記憶媒体
US8320627B2 (en) 2010-06-17 2012-11-27 Caterpillar Inc. Machine control system utilizing stereo disparity density
JP5870273B2 (ja) * 2010-08-03 2016-02-24 パナソニックIpマネジメント株式会社 物体検出装置、物体検出方法及びプログラム
WO2012029382A1 (ja) * 2010-08-31 2012-03-08 本田技研工業株式会社 車両周辺監視装置
US9058247B2 (en) * 2010-09-08 2015-06-16 Toyota Jidosha Kabushiki Kaisha Risk potential calculation apparatus
US9959595B2 (en) * 2010-09-21 2018-05-01 Mobileye Vision Technologies Ltd. Dense structure from motion
US9280711B2 (en) 2010-09-21 2016-03-08 Mobileye Vision Technologies Ltd. Barrier and guardrail detection using a single camera
TWI452540B (zh) * 2010-12-09 2014-09-11 Ind Tech Res Inst 影像式之交通參數偵測系統與方法及電腦程式產品
US9070208B2 (en) 2011-05-27 2015-06-30 Lucasfilm Entertainment Company Ltd. Accelerated subsurface scattering determination for rendering 3D objects
US9280848B1 (en) * 2011-10-24 2016-03-08 Disney Enterprises Inc. Rendering images with volumetric shadows using rectified height maps for independence in processing camera rays
KR20120140486A (ko) * 2011-06-21 2012-12-31 삼성전자주식회사 휴대용 단말기에서 보행 안내 서비스를 제공하기 위한 장치 및 방법
CN103649994B (zh) 2011-07-05 2016-11-16 欧姆龙株式会社 用于投影体监测的方法和装置
EP2754125B1 (en) 2011-10-14 2017-01-18 Omron Corporation A method and apparatus for projective volume monitoring
CN103123722B (zh) * 2011-11-18 2016-04-27 株式会社理光 道路对象检测方法和系统
DE102011120500B4 (de) * 2011-12-07 2014-08-21 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
CN103164851B (zh) * 2011-12-09 2016-04-20 株式会社理光 道路分割物检测方法和装置
WO2013106418A1 (en) * 2012-01-09 2013-07-18 Tk Holdings, Inc. Stereo-vision object detection system and method
US8989481B2 (en) * 2012-02-13 2015-03-24 Himax Technologies Limited Stereo matching device and method for determining concave block and convex block
JP2013196454A (ja) * 2012-03-21 2013-09-30 Honda Elesys Co Ltd 画像処理装置、画像処理方法および画像処理プログラム
US8824733B2 (en) * 2012-03-26 2014-09-02 Tk Holdings Inc. Range-cued object segmentation system and method
US8768007B2 (en) 2012-03-26 2014-07-01 Tk Holdings Inc. Method of filtering an image
JP5648655B2 (ja) * 2012-04-27 2015-01-07 株式会社デンソー 対象物識別装置
US9818025B2 (en) * 2012-06-14 2017-11-14 Toyota Jidosha Kabushiki Kaisha Discrimination container generation device and pattern detection device
JP5592441B2 (ja) * 2012-06-26 2014-09-17 本田技研工業株式会社 配光制御装置
US9336302B1 (en) 2012-07-20 2016-05-10 Zuci Realty Llc Insight and algorithmic clustering for automated synthesis
KR20140019501A (ko) * 2012-08-06 2014-02-17 현대자동차주식회사 장애물 인식을 위한 분류기의 생성방법
JP5983749B2 (ja) * 2012-08-30 2016-09-06 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2014047465A2 (en) * 2012-09-21 2014-03-27 The Schepens Eye Research Institute, Inc. Collision prediction
US9349058B2 (en) 2012-10-31 2016-05-24 Tk Holdings, Inc. Vehicular path sensing system and method
JP5987660B2 (ja) * 2012-11-30 2016-09-07 富士通株式会社 画像処理装置、画像処理方法及びプログラム
KR101428260B1 (ko) 2012-12-10 2014-08-07 현대자동차주식회사 외장에어백 전개방법
US20140218482A1 (en) * 2013-02-05 2014-08-07 John H. Prince Positive Train Control Using Autonomous Systems
WO2014152470A2 (en) 2013-03-15 2014-09-25 Tk Holdings, Inc. Path sensing using structured lighting
US9654704B2 (en) 2013-03-15 2017-05-16 Infrared Integrated Systems, Ltd. Apparatus and method for multispectral imaging with three dimensional overlaying
KR101452628B1 (ko) 2013-04-16 2014-10-23 한양대학교 산학협력단 스테레오 비전 기반 보행자 보호 시스템을 위한 위험지역 검출 방법 및 장치
TW201441079A (zh) * 2013-04-24 2014-11-01 Hon Hai Prec Ind Co Ltd 車輛輔助系統及車輛輔助方法
KR102021152B1 (ko) * 2013-05-07 2019-09-11 현대모비스 주식회사 원적외선 카메라 기반 야간 보행자 인식 방법
US8825260B1 (en) * 2013-07-23 2014-09-02 Google Inc. Object and ground segmentation from a sparse one-dimensional range data
JP6429368B2 (ja) 2013-08-02 2018-11-28 本田技研工業株式会社 歩車間通信システムおよび方法
US9505412B2 (en) 2013-08-02 2016-11-29 Honda Motor Co., Ltd. System and method for detection and utilization of driver distraction level
US9786178B1 (en) 2013-08-02 2017-10-10 Honda Motor Co., Ltd. Vehicle pedestrian safety system and methods of use and manufacture thereof
US9087263B2 (en) * 2013-12-09 2015-07-21 National Chung Shan Institute Of Science And Technology Vision based pedestrian and cyclist detection method
US9361575B2 (en) * 2013-12-11 2016-06-07 Volvo Car Corporation Method of programming a neural network computer
JP6547292B2 (ja) * 2014-02-05 2019-07-24 株式会社リコー 画像処理装置、機器制御システム、および画像処理プログラム
US10713503B2 (en) * 2017-01-31 2020-07-14 General Electric Company Visual object detection system
JP6340850B2 (ja) * 2014-03-18 2018-06-13 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP5989701B2 (ja) * 2014-03-24 2016-09-07 トヨタ自動車株式会社 境界検出装置および境界検出方法
JP6264173B2 (ja) 2014-04-18 2018-01-24 富士通株式会社 撮像方向の正常性判定方法、撮像装置取り付け状態評価プログラムおよび撮像装置取り付け状態評価装置
JP6299371B2 (ja) * 2014-04-18 2018-03-28 富士通株式会社 撮像方向の傾き検出方法、撮像方向の傾き検出プログラムおよび撮像方向の傾き検出装置
JP6299373B2 (ja) 2014-04-18 2018-03-28 富士通株式会社 撮像方向の正常性の判定方法、撮像方向の正常性の判定プログラムおよび撮像方向の正常性の判定装置
TW201541423A (zh) * 2014-04-25 2015-11-01 Autoequips Tech Co Ltd 障礙物警示系統
US9558268B2 (en) * 2014-08-20 2017-01-31 Mitsubishi Electric Research Laboratories, Inc. Method for semantically labeling an image of a scene using recursive context propagation
US9925980B2 (en) * 2014-09-17 2018-03-27 Magna Electronics Inc. Vehicle collision avoidance system with enhanced pedestrian avoidance
US9150175B1 (en) 2014-09-18 2015-10-06 Ford Global Technologies, Llc Vehicle front end airbag assembly and system
JP5959073B2 (ja) * 2014-09-30 2016-08-02 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 検出装置、検出方法、及び、プログラム
JP6316976B2 (ja) * 2014-09-30 2018-04-25 日立オートモティブシステムズ株式会社 車載画像認識装置
DE102014017910B4 (de) * 2014-12-04 2023-02-16 Audi Ag Verfahren zur Auswertung von Umfelddaten eines Kraftfahrzeugs und Kraftfahrzeug
US9718405B1 (en) * 2015-03-23 2017-08-01 Rosco, Inc. Collision avoidance and/or pedestrian detection system
JP6350374B2 (ja) * 2015-04-17 2018-07-04 トヨタ自動車株式会社 路面検出装置
GB2538095B (en) * 2015-05-07 2019-07-03 Thales Holdings Uk Plc Recognition of Objects from Shadow and Layover Effects in Synthetic Aperture Radar Images
US9616773B2 (en) 2015-05-11 2017-04-11 Uber Technologies, Inc. Detecting objects within a vehicle in connection with a service
SE539221C2 (en) * 2015-06-04 2017-05-23 Scania Cv Ab Method and control unit for avoiding an accident at a crosswalk
SE539097C2 (en) * 2015-08-20 2017-04-11 Scania Cv Ab Method, control unit and system for avoiding collision with vulnerable road users
US9898668B2 (en) 2015-08-27 2018-02-20 Qualcomm Incorporated System and method of object detection
US9817397B1 (en) * 2015-09-04 2017-11-14 Waymo Llc Active safety mechanisms for an autonomous vehicle
US9849852B1 (en) 2015-09-04 2017-12-26 Waymo Llc Intelligent deployment of safety mechanisms for autonomous vehicles
US9802568B1 (en) 2015-09-04 2017-10-31 Waymo Llc Interlocking vehicle airbags
US10140870B1 (en) 2015-09-30 2018-11-27 Waymo Llc Occupant facing vehicle display
US10144419B2 (en) 2015-11-23 2018-12-04 Magna Electronics Inc. Vehicle dynamic control system for emergency handling
US10119827B2 (en) 2015-12-10 2018-11-06 Uber Technologies, Inc. Planning trips on a road network using traction information for the road network
US10018472B2 (en) 2015-12-10 2018-07-10 Uber Technologies, Inc. System and method to determine traction of discrete locations of a road segment
US10712160B2 (en) 2015-12-10 2020-07-14 Uatc, Llc Vehicle traction map for autonomous vehicles
US9841763B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US9840256B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
CN105740802A (zh) * 2016-01-28 2016-07-06 北京中科慧眼科技有限公司 基于视差图的障碍物检测方法和装置及汽车驾驶辅助系统
JP6705496B2 (ja) * 2016-02-23 2020-06-03 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、移動体、画像処理方法、及びプログラム
US9990548B2 (en) 2016-03-09 2018-06-05 Uber Technologies, Inc. Traffic signal analysis system
US10459087B2 (en) 2016-04-26 2019-10-29 Uber Technologies, Inc. Road registration differential GPS
DE102016207125A1 (de) * 2016-04-27 2017-11-02 Robert Bosch Gmbh Steuern eines Kraftfahrzeugs
US9672446B1 (en) 2016-05-06 2017-06-06 Uber Technologies, Inc. Object detection for an autonomous vehicle
US10139827B2 (en) * 2016-06-28 2018-11-27 Ford Global Technologies, Llc Detecting physical threats approaching a vehicle
US10739786B2 (en) 2016-07-01 2020-08-11 Uatc, Llc System and method for managing submaps for controlling autonomous vehicles
US9909978B2 (en) 2016-07-05 2018-03-06 Sharp Kabushiki Kaisha Maturity determination device and maturity determination method
US10304179B2 (en) 2016-07-05 2019-05-28 Sharp Kabushiki Kaisha Maturity determination device and maturity determination method
JP2018025548A (ja) 2016-08-10 2018-02-15 シャープ株式会社 青果物の収穫装置および青果物の収穫方法
CN115238018A (zh) * 2016-12-01 2022-10-25 深圳市大疆创新科技有限公司 用于管理3d飞行路径的方法和相关系统
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
KR20180070103A (ko) * 2016-12-16 2018-06-26 삼성전자주식회사 인식 방법 및 인식 장치
US10318827B2 (en) 2016-12-19 2019-06-11 Waymo Llc Object detection neural networks
DE102016225770A1 (de) * 2016-12-21 2018-06-21 Robert Bosch Gmbh Schutzsystem und Verfahren zum Einstellen mindestens einer Schwelle eines Schutzsystems für Insassen in einem Kraftfahrzeug
KR101996415B1 (ko) * 2016-12-30 2019-07-04 현대자동차주식회사 자세 정보 기반 보행자 탐지 및 보행자 충돌 방지 장치 및 방법
KR101996416B1 (ko) * 2016-12-30 2019-10-01 현대자동차주식회사 보행자 충돌 시 충격 완화 장치 및 방법
CN108268813B (zh) * 2016-12-30 2021-05-07 北京文安智能技术股份有限公司 一种车道偏离预警方法、装置及电子设备
KR101996417B1 (ko) * 2016-12-30 2019-07-04 현대자동차주식회사 자세 정보 기반 보행자 탐지 및 보행자 충돌 방지 장치 및 방법
KR101996414B1 (ko) * 2016-12-30 2019-07-04 현대자동차주식회사 보행자 시선을 고려한 충돌 방지 및 충격 완화 장치 및 방법
KR101996418B1 (ko) * 2016-12-30 2019-07-04 현대자동차주식회사 센서 융합 기반 보행자 탐지 및 보행자 충돌 방지 장치 및 방법
US10313584B2 (en) * 2017-01-04 2019-06-04 Texas Instruments Incorporated Rear-stitched view panorama for rear-view visualization
JP6882904B2 (ja) * 2017-01-30 2021-06-02 株式会社デンソーテン 画像記憶装置
WO2018151760A1 (en) 2017-02-20 2018-08-23 3M Innovative Properties Company Optical articles and systems interacting with the same
WO2018195150A1 (en) * 2017-04-18 2018-10-25 nuTonomy Inc. Automatically perceiving travel signals
US10643084B2 (en) 2017-04-18 2020-05-05 nuTonomy Inc. Automatically perceiving travel signals
US10650256B2 (en) 2017-04-18 2020-05-12 nuTonomy Inc. Automatically perceiving travel signals
US10255525B1 (en) 2017-04-25 2019-04-09 Uber Technologies, Inc. FPGA device for image classification
US10339751B2 (en) * 2017-05-22 2019-07-02 Ags Llc Automatic brightness control on a gaming machine
US10958422B2 (en) * 2017-06-01 2021-03-23 Cotiviti, Inc. Methods for disseminating reasoning supporting insights without disclosing uniquely identifiable data, and systems for the same
EP3657401B1 (en) * 2017-08-10 2023-09-13 Mitsubishi Electric Corporation Identification/classification device and identification/classification method
KR101934294B1 (ko) * 2017-09-05 2019-01-02 엘지전자 주식회사 디스플레이 장치 및 그것을 포함하는 차량
DE102017120729A1 (de) * 2017-09-08 2019-03-14 Connaught Electronics Ltd. Freiraumdetektion in einem Fahrerassistenzsystem eines Kraftfahrzeugs mit einem neuralen Netzwerk
DE102017216061A1 (de) * 2017-09-12 2019-03-14 Zf Friedrichshafen Ag Situationsabhängige Entscheidungsfindung für Fahrzeuge
EP3688662A1 (en) 2017-09-27 2020-08-05 3M Innovative Properties Company Personal protective equipment management system using optical patterns for equipment and safety monitoring
WO2019107150A1 (ja) * 2017-11-30 2019-06-06 株式会社ニコン 検出装置、処理装置、装着物、検出方法、及び検出プログラム
US11260875B2 (en) 2017-12-07 2022-03-01 Uatc, Llc Systems and methods for road surface dependent motion planning
EP3502976A1 (en) 2017-12-19 2019-06-26 Veoneer Sweden AB A state estimator
US10430672B2 (en) 2018-02-22 2019-10-01 Ford Global Technologies, Llc Hitch assist system with trailer height estimation and hitch coupler identification
CN108725440B (zh) 2018-04-20 2020-11-27 深圳市商汤科技有限公司 前向碰撞控制方法和装置、电子设备、程序和介质
US11334753B2 (en) 2018-04-30 2022-05-17 Uatc, Llc Traffic signal state classification for autonomous vehicles
US10878590B2 (en) * 2018-05-25 2020-12-29 Microsoft Technology Licensing, Llc Fusing disparity proposals in stereo matching
EP3579020B1 (de) * 2018-06-05 2021-03-31 Elmos Semiconductor SE Verfahren zur erkennung eines hindernisses mit hilfe von reflektierten ultraschallwellen
US11334960B2 (en) 2018-06-08 2022-05-17 Uatc, Llc Systems and methods for pipelined processing of sensor data using hardware
US11203318B2 (en) 2018-06-18 2021-12-21 Waymo Llc Airbag extension system
DE102018116511B3 (de) * 2018-07-09 2019-07-11 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Tiefenwahrnehmung basierend auf beidseitig angeordneten Scheinwerfern eines Fahrzeugs
CN109712388B (zh) * 2019-01-24 2021-03-30 华南理工大学 一种非机动车或行人的过街意图检测系统及方法
US10960886B2 (en) 2019-01-29 2021-03-30 Motional Ad Llc Traffic light estimation
KR102704006B1 (ko) * 2019-02-14 2024-09-05 한화에어로스페이스 주식회사 장애물 지도 생성 방법 및 그 장치
US11192558B2 (en) * 2019-06-24 2021-12-07 Here Global B.V. Method, apparatus, and system for providing road curvature data
WO2021015667A1 (en) * 2019-07-25 2021-01-28 Hitachi, Ltd. Image recognition devices and methods of image recognition
EP3806065A1 (en) 2019-10-11 2021-04-14 Aptiv Technologies Limited Method and system for determining an attribute of an object at a pre-determined time point
US11643104B2 (en) * 2019-11-11 2023-05-09 Magna Electronics Inc. Vehicular autonomous control system utilizing superposition of matching metrics during testing
EP3872710A1 (en) 2020-02-27 2021-09-01 Aptiv Technologies Limited Method and system for determining information on an expected trajectory of an object
CN113511167B (zh) * 2020-04-10 2023-01-03 采埃孚汽车科技(上海)有限公司 车辆安全系统、装置、增强车辆安全性的方法以及介质
JP7488376B2 (ja) * 2020-06-24 2024-05-21 ヒューマニシング オートノミー リミテッド マイクロモビリティユーザーのリスクを判断するための外観と動きに基づくモデル
CN112053394B (zh) * 2020-07-14 2024-06-07 北京迈格威科技有限公司 图像处理方法、装置、电子设备及存储介质
EP3943969A1 (en) 2020-07-24 2022-01-26 Aptiv Technologies Limited Methods and systems for predicting a trajectory of an object
DE102020211586A1 (de) * 2020-09-16 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Detektieren und Klassifizieren von Objekten im Straßenverkehr
US11954924B2 (en) * 2020-10-23 2024-04-09 Shoppertrak Rct Llc System and method for determining information about objects using multiple sensors
US12115916B2 (en) 2021-02-01 2024-10-15 Rosco, Inc. Downlighting signal and illumination mirror head for vehicle
CN113392909B (zh) * 2021-06-17 2022-12-27 深圳市睿联技术股份有限公司 数据处理方法、数据处理装置、终端及可读存储介质
CN118265957A (zh) * 2021-10-18 2024-06-28 移动眼视觉科技有限公司 用于车辆导航的雷达-摄像头融合

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06223191A (ja) * 1993-01-21 1994-08-12 Nippon Koei Co Ltd 影像の特徴抽出方法および識別方法

Family Cites Families (188)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6553296B2 (en) 1995-06-07 2003-04-22 Automotive Technologies International, Inc. Vehicular occupant detection arrangements
US7415126B2 (en) 1992-05-05 2008-08-19 Automotive Technologies International Inc. Occupant sensing system
US6856873B2 (en) 1995-06-07 2005-02-15 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
US5845000A (en) 1992-05-05 1998-12-01 Automotive Technologies International, Inc. Optical identification and monitoring system using pattern recognition for use with vehicles
US7164117B2 (en) 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
DE3404396A1 (de) 1984-02-08 1985-08-14 Dornier Gmbh, 7990 Friedrichshafen Vorrichtung und verfahren zur aufnahme von entfernungsbildern
US4628362A (en) 1985-05-02 1986-12-09 American Dynamics Corporation Combined video AGC and digitizing circuit
DE3636946A1 (de) 1986-10-30 1988-06-09 Jt Elektronik Gmbh Warneinrichtung beim rueckwaertsfahren von fahrzeugen
US4802230A (en) 1987-03-13 1989-01-31 Gtx Corporation Method and apparatus for generating size and orientation invariant shape features
JPS6446875A (en) 1987-08-17 1989-02-21 Toshiba Corp Object discriminating device
DE3738221A1 (de) 1987-11-11 1989-06-08 Bayerische Motoren Werke Ag Verfahren und einrichtung zum erkennen des zustandes einer strasse
US5016173A (en) 1989-04-13 1991-05-14 Vanguard Imaging Ltd. Apparatus and method for monitoring visually accessible surfaces of the body
JPH0454726A (ja) 1990-06-25 1992-02-21 Nec Corp 1/n分周器回路
US5214744A (en) * 1990-12-14 1993-05-25 Westinghouse Electric Corp. Method and apparatus for automatically identifying targets in sonar images
IL98498A (en) 1991-06-14 1994-01-25 Vardi Shlomo Electro-optical monitoring system for vehicles
US5400244A (en) 1991-06-25 1995-03-21 Kabushiki Kaisha Toshiba Running control system for mobile robot provided with multiple sensor information integration system
US5455685A (en) 1991-09-04 1995-10-03 Fuji Photo Film Co., Ltd. Video camera exposure control apparatus for controlling iris diaphragm and automatic gain control operating speed
US5619593A (en) * 1991-09-12 1997-04-08 Fuji Photo Film Co., Ltd. Method for extracting object images and method for detecting movements thereof
US5481620A (en) 1991-09-27 1996-01-02 E. I. Du Pont De Nemours And Company Adaptive vision system
JP3167752B2 (ja) 1991-10-22 2001-05-21 富士重工業株式会社 車輌用距離検出装置
JP3083918B2 (ja) 1992-06-26 2000-09-04 本田技研工業株式会社 画像処理装置
JPH0785280B2 (ja) 1992-08-04 1995-09-13 タカタ株式会社 神経回路網による衝突予測判定システム
GB2270436A (en) 1992-09-05 1994-03-09 Ibm Target tracking system
JP3218521B2 (ja) 1992-09-30 2001-10-15 清水建設株式会社 画像センサによる移動体検知システム
JPH06147887A (ja) * 1992-10-30 1994-05-27 Nippon Seiki Co Ltd 車両用距離検出装置
JP3364982B2 (ja) * 1993-03-29 2003-01-08 株式会社エクォス・リサーチ 障害物検知装置および曲率半径検出装置
US5487116A (en) 1993-05-25 1996-01-23 Matsushita Electric Industrial Co., Ltd. Vehicle recognition apparatus
JP2673871B2 (ja) * 1993-08-26 1997-11-05 日本アイ・ビー・エム株式会社 ニューラル・ネットワークによるパターン認識方法及び装置
JPH07134237A (ja) * 1993-11-08 1995-05-23 Canon Inc 光学機器
JPH09507930A (ja) 1993-12-08 1997-08-12 ミネソタ マイニング アンド マニュファクチャリング カンパニー 一眼ビジョンシステムに対する背景決定及び減算用の方法及び装置
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
FR2718871B1 (fr) 1994-04-19 1996-06-07 Peugeot Procédé pour la reconnaissance automatique d'un panneau de signalisation routière, et dispositif pour la mise en Óoeuvre de ce procédé.
US7630806B2 (en) 1994-05-23 2009-12-08 Automotive Technologies International, Inc. System and method for detecting and protecting pedestrians
US7783403B2 (en) 1994-05-23 2010-08-24 Automotive Technologies International, Inc. System and method for preventing vehicular accidents
US7209221B2 (en) 1994-05-23 2007-04-24 Automotive Technologies International, Inc. Method for obtaining and displaying information about objects in a vehicular blind spot
US6749218B2 (en) 1994-05-23 2004-06-15 Automotive Technologies International, Inc. Externally deployed airbag system
US5528698A (en) 1995-03-27 1996-06-18 Rockwell International Corporation Automotive occupant sensing device
DE19680415C2 (de) 1995-04-26 2003-02-06 Hitachi Ltd Bildbearbeitungsvorrichtung für Fahrzeuge
US6370475B1 (en) 1997-10-22 2002-04-09 Intelligent Technologies International Inc. Accident avoidance system
US7202776B2 (en) 1997-10-22 2007-04-10 Intelligent Technologies International, Inc. Method and system for detecting objects external to a vehicle
US6405132B1 (en) 1997-10-22 2002-06-11 Intelligent Technologies International, Inc. Accident avoidance system
US6720920B2 (en) 1997-10-22 2004-04-13 Intelligent Technologies International Inc. Method and arrangement for communicating between vehicles
US5675489A (en) 1995-07-06 1997-10-07 Carnegie Mellon University System and method for estimating lateral position
US5852672A (en) 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
US5835633A (en) * 1995-11-20 1998-11-10 International Business Machines Corporation Concurrent two-stage multi-network optical character recognition system
JP3688377B2 (ja) 1996-01-31 2005-08-24 富士通株式会社 画像特徴追跡装置及び画像特徴追跡方法
JPH09254726A (ja) * 1996-03-19 1997-09-30 Fuji Heavy Ind Ltd 車両用運転支援装置
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US5892575A (en) 1996-05-10 1999-04-06 Massachusetts Institute Of Technology Method and apparatus for imaging a scene using a light detector operating in non-linear geiger-mode
JP3866328B2 (ja) 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
JP3632315B2 (ja) * 1996-08-29 2005-03-23 富士電機デバイステクノロジー株式会社 距離検出装置
DE19636028C1 (de) 1996-09-05 1997-11-20 Daimler Benz Ag Verfahren zur Stereobild-Objektdetektion
JP3843502B2 (ja) 1996-09-30 2006-11-08 マツダ株式会社 車両用動体認識装置
JP3619628B2 (ja) 1996-12-19 2005-02-09 株式会社日立製作所 走行環境認識装置
JP4012995B2 (ja) * 1997-01-21 2007-11-28 ソニー株式会社 画像撮像装置および方法
US5983147A (en) 1997-02-06 1999-11-09 Sandia Corporation Video occupant detection and classification
US5844505A (en) 1997-04-01 1998-12-01 Sony Corporation Automobile navigation system
JP3337197B2 (ja) * 1997-04-04 2002-10-21 富士重工業株式会社 車外監視装置
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3819551B2 (ja) * 1997-08-07 2006-09-13 本田技研工業株式会社 車両用距離測定装置
JP3286219B2 (ja) 1997-09-11 2002-05-27 トヨタ自動車株式会社 座席の使用状況判定装置
US6205242B1 (en) 1997-09-29 2001-03-20 Kabushiki Kaisha Toshiba Image monitor apparatus and a method
JP3598793B2 (ja) 1998-01-21 2004-12-08 日産自動車株式会社 歩行者検出警報装置
US6031935A (en) * 1998-02-12 2000-02-29 Kimmel; Zebadiah M. Method and apparatus for segmenting images using constant-time deformable contours
US6421463B1 (en) 1998-04-01 2002-07-16 Massachusetts Institute Of Technology Trainable system to search for objects in images
JP3431498B2 (ja) 1998-06-11 2003-07-28 ダイハツ工業株式会社 歩行者検知システム
JP3450189B2 (ja) 1998-06-16 2003-09-22 ダイハツ工業株式会社 歩行者検知システム及びその制御方法
JP3716623B2 (ja) 1998-07-09 2005-11-16 日産自動車株式会社 温体検出装置
US6734904B1 (en) 1998-07-23 2004-05-11 Iteris, Inc. Imaging system and method with dynamic brightness control
US6721454B1 (en) * 1998-10-09 2004-04-13 Sharp Laboratories Of America, Inc. Method for automatic extraction of semantically significant events from video
US6266442B1 (en) 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
JP3596314B2 (ja) 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US6213401B1 (en) 1998-11-19 2001-04-10 Michael Louis Brown Speed limit detecting system
JP2000207693A (ja) * 1999-01-08 2000-07-28 Nissan Motor Co Ltd 車載用障害物検出装置
US6223125B1 (en) 1999-02-05 2001-04-24 Brett O. Hall Collision avoidance system
JP4253901B2 (ja) 1999-03-02 2009-04-15 マツダ株式会社 車両の障害物検出装置
JP2000293685A (ja) 1999-04-06 2000-10-20 Toyota Motor Corp シーン認識装置
DE19926559A1 (de) 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
JP3658519B2 (ja) 1999-06-28 2005-06-08 株式会社日立製作所 自動車の制御システムおよび自動車の制御装置
US6771834B1 (en) * 1999-07-02 2004-08-03 Intel Corporation Method for segmenting a digital image
US6307959B1 (en) 1999-07-14 2001-10-23 Sarnoff Corporation Method and apparatus for estimating scene structure and ego-motion from multiple images of a scene using correlation
IL131282A (en) 1999-08-05 2009-02-11 Orbotech Ltd Apparatus and methods for inspection of objects
JP3674400B2 (ja) 1999-08-06 2005-07-20 日産自動車株式会社 周囲環境認識装置
US6429789B1 (en) 1999-08-09 2002-08-06 Ford Global Technologies, Inc. Vehicle information acquisition and display assembly
JP3344627B2 (ja) * 1999-08-30 2002-11-11 富士重工業株式会社 ステレオ式車外監視装置
EP1083076A3 (en) 1999-09-07 2005-01-12 Mazda Motor Corporation Display apparatus for vehicle
US6963661B1 (en) 1999-09-09 2005-11-08 Kabushiki Kaisha Toshiba Obstacle detection system and method therefor
JP2001084377A (ja) 1999-09-14 2001-03-30 Mitsubishi Electric Corp 画像処理装置
US6150932A (en) 1999-10-04 2000-11-21 General Motors Corporation Vehicle operator alert process
KR100522218B1 (ko) 1999-10-12 2005-10-14 마츠시타 덴끼 산교 가부시키가이샤 감시 시스템, 카메라 조정방법 및 차량감시 시스템
DE19949409A1 (de) 1999-10-13 2001-04-19 Bosch Gmbh Robert Verfahren und Vorrichtung zur Objektdetektierung
JP4115638B2 (ja) 1999-10-19 2008-07-09 本田技研工業株式会社 物体認識装置
JP3174832B2 (ja) 1999-10-27 2001-06-11 建設省土木研究所長 横断歩行者衝突防止システム
JP4205825B2 (ja) 1999-11-04 2009-01-07 本田技研工業株式会社 対象物認識装置
JP2001134772A (ja) 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
JP2001134892A (ja) 1999-11-05 2001-05-18 Toshiba Corp 交差点右折車両監視制御システム
DE19954536B4 (de) 1999-11-12 2010-09-23 Robert Bosch Gmbh Verfahren zur Auswertung von Objekten im Kursverlauf eines Fahrzeuges
JP4162817B2 (ja) * 1999-11-22 2008-10-08 本田技研工業株式会社 距離検出装置
US6917693B1 (en) 1999-12-20 2005-07-12 Ford Global Technologies, Llc Vehicle data acquisition and display assembly
JP3666332B2 (ja) 2000-01-07 2005-06-29 日産自動車株式会社 歩行者検知装置
JP2001204013A (ja) 2000-01-21 2001-07-27 Nippon Seiki Co Ltd 物体検出装置
US6801244B2 (en) 2000-02-29 2004-10-05 Kabushiki Kaisha Toshiba Obstacle detection apparatus and method
JP3908437B2 (ja) 2000-04-14 2007-04-25 アルパイン株式会社 ナビゲーションシステム
US7236623B2 (en) * 2000-04-24 2007-06-26 International Remote Imaging Systems, Inc. Analyte recognition for urinalysis diagnostic system
US6671615B1 (en) 2000-05-02 2003-12-30 Navigation Technologies Corp. Navigation system with sign assistance
US7852462B2 (en) 2000-05-08 2010-12-14 Automotive Technologies International, Inc. Vehicular component control methods based on blind spot monitoring
DE10025678B4 (de) 2000-05-24 2006-10-19 Daimlerchrysler Ag Kamerabasiertes Precrash-Erkennungssystem
JP3859429B2 (ja) 2000-05-30 2006-12-20 本田技研工業株式会社 移動対象物検出装置
JP3729025B2 (ja) 2000-06-09 2005-12-21 日産自動車株式会社 歩行者検知装置
WO2001096147A2 (en) 2000-06-15 2001-12-20 Automotive Systems Laboratory, Inc. Occupant sensor
JP3883033B2 (ja) * 2000-08-03 2007-02-21 マツダ株式会社 車両用表示装置
US6891960B2 (en) 2000-08-12 2005-05-10 Facet Technology System for road sign sheeting classification
KR100803414B1 (ko) 2000-08-16 2008-02-13 레이던 컴퍼니 근거리 물체 감지 시스템
US6823084B2 (en) 2000-09-22 2004-11-23 Sri International Method and apparatus for portably recognizing text in an image sequence of scene imagery
US6801662B1 (en) 2000-10-10 2004-10-05 Hrl Laboratories, Llc Sensor fusion architecture for vision-based occupant detection
EP1202214A3 (en) 2000-10-31 2005-02-23 Matsushita Electric Industrial Co., Ltd. Method and apparatus for object recognition
US6819779B1 (en) 2000-11-22 2004-11-16 Cognex Corporation Lane detection system and apparatus
DE10114932B4 (de) 2001-03-26 2005-09-15 Daimlerchrysler Ag Dreidimensionale Umfelderfassung
JP4615139B2 (ja) 2001-03-30 2011-01-19 本田技研工業株式会社 車両の周辺監視装置
US6968073B1 (en) 2001-04-24 2005-11-22 Automotive Systems Laboratory, Inc. Occupant detection system
US6947575B2 (en) 2001-05-24 2005-09-20 Trw Inc. Apparatus and method for determining vehicle occupant characteristic utilizing imaging with provided light
GB0115433D0 (en) 2001-06-23 2001-08-15 Lucas Industries Ltd An object location system for a road vehicle
US6615137B2 (en) 2001-06-26 2003-09-02 Medius, Inc. Method and apparatus for transferring information between vehicles
US6937747B2 (en) 2001-09-24 2005-08-30 Hewlett Packard Development Company, L.P. System and method for capturing non-audible information for processing
US7068844B1 (en) 2001-11-15 2006-06-27 The University Of Connecticut Method and system for image processing for automatic road sign recognition
JP4032727B2 (ja) * 2001-12-12 2008-01-16 アイシン精機株式会社 車線境界検出装置
US6687577B2 (en) 2001-12-19 2004-02-03 Ford Global Technologies, Llc Simple classification scheme for vehicle/pole/pedestrian detection
DE10301468B4 (de) 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
JP4060159B2 (ja) 2002-01-18 2008-03-12 本田技研工業株式会社 車両周辺監視装置
US7009500B2 (en) 2002-02-13 2006-03-07 Ford Global Technologies, Llc Method for operating a pre-crash sensing system in a vehicle having a countermeasure system using stereo cameras
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US20030169906A1 (en) 2002-02-26 2003-09-11 Gokturk Salih Burak Method and apparatus for recognizing objects
US7016529B2 (en) * 2002-03-15 2006-03-21 Microsoft Corporation System and method facilitating pattern recognition
JP2003281503A (ja) 2002-03-20 2003-10-03 Fuji Heavy Ind Ltd 立体物の画像認識装置
US6862537B2 (en) 2002-03-21 2005-03-01 Ford Global Technologies Llc Sensor fusion system architecture
US7203356B2 (en) 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US7715591B2 (en) 2002-04-24 2010-05-11 Hrl Laboratories, Llc High-performance sensor fusion architecture
US6946978B2 (en) 2002-04-25 2005-09-20 Donnelly Corporation Imaging system for vehicle
US20030202683A1 (en) 2002-04-30 2003-10-30 Yue Ma Vehicle navigation system that automatically translates roadside signs and objects
AU2003295318A1 (en) 2002-06-14 2004-04-19 Honda Giken Kogyo Kabushiki Kaisha Pedestrian detection and tracking with night vision
JP4188632B2 (ja) 2002-07-16 2008-11-26 独立行政法人科学技術振興機構 距離画像の統合方法及び距離画像統合装置
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
JP3975866B2 (ja) 2002-08-30 2007-09-12 豊田合成株式会社 歩行者保護用エアバッグ装置
US7400744B2 (en) 2002-09-05 2008-07-15 Cognex Technology And Investment Corporation Stereo door sensor
US7397929B2 (en) 2002-09-05 2008-07-08 Cognex Technology And Investment Corporation Method and apparatus for monitoring a passageway using 3D images
US7912246B1 (en) * 2002-10-28 2011-03-22 Videomining Corporation Method and system for determining the age category of people based on facial images
US20040086153A1 (en) 2002-10-30 2004-05-06 Yichang Tsai Methods and systems for recognizing road signs in a digital image
DE10258287A1 (de) 2002-12-13 2004-06-24 Robert Bosch Gmbh Verfahren und Einrichtung zur Objektdetekrierung
DE10260855A1 (de) 2002-12-23 2004-07-08 Robert Bosch Gmbh Verfahren zur Erkennung von Objektkonstellationen anhand von Abstandssignalen
JP3987048B2 (ja) 2003-03-20 2007-10-03 本田技研工業株式会社 車両周辺監視装置
DE10321228B4 (de) 2003-04-22 2007-01-11 Valeo Schalter Und Sensoren Gmbh Optisches Erfassungssystem für Fahrzeuge
DE10325762A1 (de) 2003-06-05 2004-12-23 Daimlerchrysler Ag Bildverarbeitungssystem für ein Fahrzeug
US6956469B2 (en) 2003-06-13 2005-10-18 Sarnoff Corporation Method and apparatus for pedestrian detection
US7068815B2 (en) 2003-06-13 2006-06-27 Sarnoff Corporation Method and apparatus for ground detection and removal in vision systems
US7263209B2 (en) 2003-06-13 2007-08-28 Sarnoff Corporation Vehicular vision system
US7660436B2 (en) 2003-06-13 2010-02-09 Sarnoff Corporation Stereo-vision based imminent collision detection
US7259778B2 (en) 2003-07-01 2007-08-21 L-3 Communications Corporation Method and apparatus for placing sensors using 3D models
US7321669B2 (en) 2003-07-10 2008-01-22 Sarnoff Corporation Method and apparatus for refining target position and size estimates using image and depth data
US20050015201A1 (en) 2003-07-16 2005-01-20 Sarnoff Corporation Method and apparatus for detecting obstacles
US7403659B2 (en) * 2003-08-28 2008-07-22 Sarnoff Corporation Method and apparatus for differentiating pedestrians, vehicles, and other objects
JP3987013B2 (ja) 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
WO2005032887A2 (en) 2003-10-03 2005-04-14 Automotive Systems Laboratory, Inc. Occupant detection system
WO2005036371A2 (en) 2003-10-09 2005-04-21 Honda Motor Co., Ltd. Moving object detection using low illumination depth capable computer vision
US7057532B2 (en) 2003-10-15 2006-06-06 Yossef Shiri Road safety warning system and method
WO2005060640A2 (en) 2003-12-15 2005-07-07 Sarnoff Corporation Method and apparatus for object tracking prior to imminent collision detection
JP4161910B2 (ja) 2004-01-28 2008-10-08 株式会社デンソー 距離画像データ生成装置及び生成方法,プログラム
US20050175235A1 (en) 2004-02-05 2005-08-11 Trw Automotive U.S. Llc Method and apparatus for selectively extracting training data for a pattern recognition classifier using grid generation
US20050175243A1 (en) 2004-02-05 2005-08-11 Trw Automotive U.S. Llc Method and apparatus for classifying image data using classifier grid models
US7471832B2 (en) 2004-02-24 2008-12-30 Trw Automotive U.S. Llc Method and apparatus for arbitrating outputs from multiple pattern recognition classifiers
US7636479B2 (en) 2004-02-24 2009-12-22 Trw Automotive U.S. Llc Method and apparatus for controlling classification and classification switching in a vision system
US20050201591A1 (en) * 2004-03-10 2005-09-15 Kiselewich Stephen J. Method and apparatus for recognizing the position of an occupant in a vehicle
JP4396376B2 (ja) 2004-04-22 2010-01-13 日本電気株式会社 図形読み取り方法及びその装置並びに主要色抽出方法及びその装置
EP1779295A4 (en) 2004-07-26 2012-07-04 Automotive Systems Lab SYSTEM FOR PROTECTING USERS OF THE ROAD IN A DANGER SITUATION
JP3937414B2 (ja) 2004-08-11 2007-06-27 本田技研工業株式会社 平面検出装置及び検出方法
US7337650B1 (en) 2004-11-09 2008-03-04 Medius Inc. System and method for aligning sensors on a vehicle
US7493202B2 (en) 2004-11-12 2009-02-17 Takata Corporation Vehicle safety control system by image processing
JP4426436B2 (ja) * 2004-12-27 2010-03-03 株式会社日立製作所 車両検知装置
US20060153459A1 (en) * 2005-01-10 2006-07-13 Yan Zhang Object classification method for a collision warning system
US7599894B2 (en) * 2005-03-04 2009-10-06 Hrl Laboratories, Llc Object recognition using a cognitive swarm vision framework with attention mechanisms
JP2006264416A (ja) 2005-03-22 2006-10-05 Takata Corp 対象物検知システム、保護システム、車両
US7505841B2 (en) 2005-09-02 2009-03-17 Delphi Technologies, Inc. Vision-based occupant classification method and system for controlling airbag deployment in a vehicle restraint system
US20070058836A1 (en) * 2005-09-15 2007-03-15 Honeywell International Inc. Object classification in video data
US20070127824A1 (en) * 2005-12-07 2007-06-07 Trw Automotive U.S. Llc Method and apparatus for classifying a vehicle occupant via a non-parametric learning algorithm
US20070131851A1 (en) 2005-12-14 2007-06-14 Nevine Holtz Polarimetric detection of road signs
US7853072B2 (en) * 2006-07-20 2010-12-14 Sarnoff Corporation System and method for detecting still objects in images
CN101187985B (zh) * 2006-11-17 2012-02-01 东软集团股份有限公司 确定对象分类器分类边界的方法及装置
EP2065842B1 (en) * 2007-11-28 2012-11-14 Honda Research Institute Europe GmbH Adaptive driver assistance system with robust estimation of object properties
US8345921B1 (en) * 2009-03-10 2013-01-01 Google Inc. Object detection with false positive filtering

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06223191A (ja) * 1993-01-21 1994-08-12 Nippon Koei Co Ltd 影像の特徴抽出方法および識別方法

Also Published As

Publication number Publication date
US20140044310A1 (en) 2014-02-13
WO2006014974A2 (en) 2006-02-09
US20090010495A1 (en) 2009-01-08
US20140037145A1 (en) 2014-02-06
JP5591779B2 (ja) 2014-09-17
US9330321B2 (en) 2016-05-03
JP2013116736A (ja) 2013-06-13
JP2012109945A (ja) 2012-06-07
EP1779295A4 (en) 2012-07-04
WO2006014974A3 (en) 2006-05-04
US20120045119A1 (en) 2012-02-23
JP2015046162A (ja) 2015-03-12
JP2008507454A (ja) 2008-03-13
EP1779295A2 (en) 2007-05-02
EP2784722A1 (en) 2014-10-01
US8509523B2 (en) 2013-08-13
US8594370B2 (en) 2013-11-26
EP2765533A1 (en) 2014-08-13
JP5670413B2 (ja) 2015-02-18
JP5425853B2 (ja) 2014-02-26
JP5405741B2 (ja) 2014-02-05

Similar Documents

Publication Publication Date Title
JP5670413B2 (ja) 道路使用弱者保護システム
Silva et al. Automatic detection of motorcyclists without helmet
Gandhi et al. Pedestrian collision avoidance systems: A survey of computer vision based recent studies
JP5297078B2 (ja) 車両の死角における移動物体を検知するための方法、および死角検知装置
US7263209B2 (en) Vehicular vision system
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
CN102194239B (zh) 用于处理图像数据的方法和系统
US20130177237A1 (en) Stereo-vision object detection system and method
Kim et al. Robust detection of non-motorized road users using deep learning on optical and LIDAR data
WO2004086301A2 (en) System and method for vehicle detection and tracking
EP1641653A2 (en) Method and apparatus for pedestrian detection
WO2018109499A1 (en) A method of tracking objects in a scene
Chang et al. Stereo-based object detection, classi? cation, and quantitative evaluation with automotive applications
Álvarez et al. Perception advances in outdoor vehicle detection for automatic cruise control
Burlacu et al. Stereo vision based environment analysis and perception for autonomous driving applications
KR102039814B1 (ko) 측후방 차량 검출 방법 및 그 장치
Kataoka et al. Symmetrical Judgment and Improvement of CoHOG Feature Descriptor for Pedestrian Detection.
Rogers et al. Bicycle counter
Banik Vision and Radar Fusion for Identification of Vehicles in Traffic
Llorca et al. Stereo Vision Based Pedestrian Detection System For Assisted Driving

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130813

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130816

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130917

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131015

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140219

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140224

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140319

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140730

R150 Certificate of patent or registration of utility model

Ref document number: 5591779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S343 Written request for registration of root pledge or change of root pledge

Free format text: JAPANESE INTERMEDIATE CODE: R316354

SZ02 Written request for trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R316Z02

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R316531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R316533

S803 Written request for registration of cancellation of provisional registration

Free format text: JAPANESE INTERMEDIATE CODE: R316803

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03

S343 Written request for registration of root pledge or change of root pledge

Free format text: JAPANESE INTERMEDIATE CODE: R316354

SZ02 Written request for trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R316Z02

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees
R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350