JP2015520433A - レンジ・キュー式物体セグメンテーションシステムおよび方法 - Google Patents

レンジ・キュー式物体セグメンテーションシステムおよび方法 Download PDF

Info

Publication number
JP2015520433A
JP2015520433A JP2015503421A JP2015503421A JP2015520433A JP 2015520433 A JP2015520433 A JP 2015520433A JP 2015503421 A JP2015503421 A JP 2015503421A JP 2015503421 A JP2015503421 A JP 2015503421A JP 2015520433 A JP2015520433 A JP 2015520433A
Authority
JP
Japan
Prior art keywords
image
range
visual scene
pixel
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015503421A
Other languages
English (en)
Other versions
JP6272822B2 (ja
JP2015520433A5 (ja
Inventor
ゲルハルト シャンプ,グレゴリー
ゲルハルト シャンプ,グレゴリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TK Holdings Inc
Original Assignee
TK Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/429,803 external-priority patent/US8768007B2/en
Application filed by TK Holdings Inc filed Critical TK Holdings Inc
Publication of JP2015520433A publication Critical patent/JP2015520433A/ja
Publication of JP2015520433A5 publication Critical patent/JP2015520433A5/ja
Application granted granted Critical
Publication of JP6272822B2 publication Critical patent/JP6272822B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

レンジマップ画像(80)内の物体(50)が、別個のレンジングシステム(162)から、またはステレオ視システム(16、16’)からのレンジマップ画像(80)のトップダウン変換から特定されたレンジに応じて、関心領域(114)にクラスタリングされる。各関心領域(114)の相対的中心位置(116)が、モノ画像ジオメトリに変換され、関連するモノ画像(40.1、40.2)の対応する部分が、相対的中心位置(116)から複数の半径方向探索経路(126)に沿って、半径方向外側に探索され、これらの探索経路に沿って、半径方向探索経路(126)に沿った関連する物体(50)のエッジ(124)を発見するために、エッジ保存平滑化フィルタ(132、132’)を使用して、関連する画像ピクセル(100)が、フィルタリングされる。半径方向探索経路(126)のそれぞれに対するエッジ位置(124)が、物体(50)の区別を行う、エッジプロフィールベクトル(124’’、124’’’)に結合される。

Description

技術分野
背景技術
図1は、複数の交通弱者(VRU:vulnerable road user)と遭遇する車両の左側面図、および関連するレンジ・キュー式(range-cued)物体検出システムのブロック図を示す。 図2は、車両の上面図、およびそのレンジ・キュー式物体検出システムのブロック図を示す。 図3aは、図3bおよび3cに対応して、複数の比較的ニアレンジ(near range)の物体を見る、車両に組み込まれたレンジ・キュー式物体検出システムの上面図を示す。 図3bは、図3aおよび3cに対応して、複数の比較的ニアレンジの物体を見る、車両に組み込まれたレンジ・キュー式物体検出システムの右側面図を示す。 図3cは、図3aおよび3cと対応して、車両に組み込まれたレンジ・キュー式物体検出システムのステレオカメラの正面図を示す。 図4aは、ステレオ視システムのジオメトリを示す図である。 図4bは、ピンホールカメラの撮像形成ジオメトリを示す図である。 図5は、車両と、関連するレンジ・キュー式物体検出システムのステレオ視システムのさまざまなステレオ視カメラ態様を示す正面図である。
図6は、単一カメラステレオ視システムを示す図である。 図7は、エリア相関式(area-correlation-based)ステレオ視処理アルゴリズムを示すブロック図である。 図8は、ステレオ視システムからの、対応する複数の異なるレンジにおける、歩行者の複数のレンジマップ画像を、それらのレンジの1つにおける歩行者の単一カメラハーフトーンモノ画像と一緒に示す図である。 図9は、複数の車両物体を含むシーンのハーフトーン画像を示す図である。 図10は、図9に示されたシーンの、ステレオ視システムによって生成されたレンジマップ画像を示す図である。
図11は、図1、図2および図3a〜3cに示されたレンジ・キュー式物体検出システムを示すブロック図である。 図12は、図11に示されたレンジ・キュー式物体検出システムによって行われるレンジ・キュー式物体検出プロセスを示すフローチャートである。 図13は、複数の物体を含むシーンのハーフトーン画像を示す図であって、その上に、関連するレンジマップ画像の対応する有効レンジ測定値の位置に対応する複数のレンジビン(range bin)が重ね合わされている。 図14aは、図13に示された複数の物体と関連する関心領域に対する有効レンジ測定値の位置に対応するレンジビンのトップダウン図であって、その上に、関連するクラスタリングプロセスの第1の実施態様による、関連する2次元名目クラスタリングビン(nominal clustering bin)の所定の位置が重ね合わされている。 図14bは、図14aに示されたレンジビンに対するクロスレンジ位置に対する有効レンジ値の第1のヒストグラムを示す図であって、その上に、関連するクラスタリングプロセスの第1の実施態様による、関連する1次元名目クロスレンジクラスタリングビンの所定の位置、および関連するクラスタリングプロセスの第2の実施態様による、図14eに対応する1次元名目クロスレンジクラスタリングビンの位置が重ね合わされている。 図14cは、図14aに示されたレンジビンに対するダウンレンジ位置に対する有効レンジ値の第2のヒストグラムを示す図であって、その上に、関連するクラスタリングプロセスの第1の実施態様による関連する1次元名目ダウンレンジクラスタリングビンの所定の位置、および関連するクラスタリングプロセスの第2の実施態様による、図14fに対応する1次元ダウンレンジクラスタリングビンの位置が重ね合わされている。 図14dは、関連するクラスタリングプロセスの第2の実施態様よる、図14aのレンジビンのトップダウン図の上に重ね合わされた、複数の所定の2次元クラスタリングビンを示す図である。 図14eは、関連するクラスタリングプロセスの第2の態様による、図14bからのクロスレンジヒストグラムの上に重ね合わされている、図14dに関連する、複数の1次元クロスレンジクラスタ境界を示す図である。 図14fは、関連するクラスタリングプロセスの第2の態様による、図14cのダウンレンジヒストグラムの上に重ね合わされている、図14dに関連する、複数の1次元ダウンレンジクラスタ境界を示す図である。 図15は、クラスタリングプロセスを示すフローチャートである。 図16は、図14aに示された関心領域(ROI)のそれぞれに関連する、対応するベストフィット楕円を示す図である。
図17aは、図14a、14dおよび16に示された関心領域(ROI)のそれぞれに関連する、対応するベストフィット長方形を示す図である。 図17bは、関心領域(ROI)のうちの1つに対して、図16に示されたベストフィット楕円と、図17aに示されたベストフィット長方形の対応関係を示す図である。 図18は、図13のシーンのハーフトーン画像を示す図であって、その上に、関連する複数のレンジビンのクラスタのそれぞれと関連する、図心(centroid)の位置が重ね合わされている。 図19aは、図14bに示された第1のヒストグラムのコピーである。 図19bは、図21に示された第1のインパルス応答シリーズを使用して、図14bおよび19aの第1のヒストグラムをフィルタリングすることによって生成された、第1のフィルタリングされたヒストグラムを示す図である。 図20aは、図14cに示された第2のヒストグラムのコピーである。 図20bは、図21に示された第2のインパルス応答シリーズを使用して、図14cおよび20aの第2のヒストグラムをフィルタリングすることによって生成された、第2のフィルタリングされたヒストグラムを示す図である。 図21は、図19aおよび20aの第1および第2のヒストグラムをフィルタリングして、それぞれ図19bおよび20bに示された、対応する第1および第2のフィルタリングされたヒストグラムを生成するために使用される、第1および第2のインパルス応答シリーズを示す図である。 図22は、関連するクラスタリングプロセスの第3の実施態様による、図19bの第1のフィルタリングされたヒストグラムの1次空間導関数を示す図であって、その上に、それから求められた複数のクロスレンジクラスタ境界が重ね合わされている。
図23は、関連するクラスタリングプロセスの第3の実施態様による、図20bの第2のフィルタリングされたヒストグラムの2次空間導関数を示す図であって、その上に、そこから求められた複数のダウンレンジクラスタ境界が重ね合わされている。 図24aは、車両物体のハーフトーン画像を示す図であって、その上に、30本の関連する等間隔の半径方向探索経路、および関連する車両物体のエッジ位置が重ね合わされている。 図24bは、図24aからのエッジ位置のプロフィールを示す図である。 図25aは、車両物体のハーフトーン画像を示す図であって、その上に、45本の関連する等間隔の半径方向探索経路、および関連する車両物体のエッジ位置が重ね合わされている。 図25bは、図25aからのエッジ位置のプロフィールを示す図である。 図26は、画像内の物体のエッジを発見するための物体検出プロセスを示すフローチャートである。 図27は、図26に示されたプロセスに関連する図心を中心とした局所座標系内のいくつかの画像画素を示す図である。 図28は、最大均質近隣(Maximum Homogeneity Neighbor)フィルタリングプロセスのフローチャートを示す図である。 図29a〜29hは、関連する最大均質近隣フィルタによって使用される、複数の異なる均質領域を示す図である。 図29iは、図29a〜29hに示された均質領域に対するピクセル位置を識別するための凡例を示している。 図29jは、図29a〜29hに示された均質領域のピクセル種類を識別するための凡例を示している。; 図30は車両のハーフトーン画像を示す図であって、その上に、図31に拡大して詳細に示されている画像の一部分のプロフィールが重ね合わされている。
図31は、図32の画像を形成するために最大均質近隣フィルタによって変換される、図30のハーフトーン画像の一部分を示す図である。 図32は、最大均質近隣フィルタを使用して、図31の画像の変換から生じたハーフトーン画像を示す図である。 図33a〜33ssは、図25に示された半径方向探索経路に関連する45本の極性ベクトルの振幅のプロットを示す図である。 図34は関連する関心領域内で検出された車両物体の画像を示す図であって、その上に、複数の45本の関連する半径方向探索経路が重ね合わされている。 図35aは、車両物体の関連するエッジ点の検出に関連する第1と第3の象限の境界と一緒に、図34からの車両物体の画像を示す図である。 図35bは、車両物体の関連するエッジ点の検出に関連する第2象限の境界と一緒に、図34からの車両物体の画像を示す図である。 図35cは、車両物体の関連するエッジ点の検出に関連する第4象限の境界と一緒に、図34からの車両物体の画像を示す図である。 図36a〜lは、図34および35a〜cからの選択された半径方向探索経路に対する極性ベクトルの振幅のプロットを示す図である。 図37は、樹木によって部分的に陰になっている車両物体を示す図である。 図38a〜bは、図37からの選択された半径方向探索経路のための極性ベクトルの振幅のプロットを示す図である。 図39は、図34に示された半径方向探索経路の1つに関連する極性ベクトルの振幅のプロットを示す図であって、これから、振幅の実質的な変化に対応して、関連するエッジ点が識別される。 図40は、図39に示されている極性ベクトルの空間導関数、対応するそのフィルタリングされたバージョン、および関連する比較的低変動のその遠位部を示す図である。
図41aは、視覚的なシーンのレンジマップのハーフトーン画像、およびその中の物体のエッジプロフィールを示す図であって、エッジプロフィールは、レンジマップ画像からの情報にだけ基づいている。 図41bは、視覚シーンのハーフトーン画像、レンジマップ画像からの情報だけに基づく、その中の物体の第1のエッジプロフィール、および視覚シーンのモノ画像の半径方向の探索に基づく、その中の物体の第2のエッジプロフィールを示す図である。 図41cは、図41aおよび41bに示されているように、第1のエッジプロフィールだけを示す図である。 図41dは、図41bに示されているように、第2のエッジプロフィールだけを示す図である。 図42は、複数の車両物体を含むシーンのハーフトーン画像を示す図である。 図43は、図42に示されているシーンの、ステレオ視システムによって生成されたレンジマップ画像を示す図である。 図44は、図42に示された車両物体の1つのハーフトーン画像を示す図であって、その上に、関連する15の等間隔の図心を中心とする半径方向探索経路と、関連するエッジ位置とが重ね合わせられている。 図45は、図44からのエッジ位置のプロフィールを示す図である。 図46は、レンジ・キュー式物体検出システムの第2の観点を示す図である。
実施態様の説明
図1、2および3a〜3cを参照すると、例えば、その両方の全文を参照により本明細書に組み入れてある、「Vulnerable Road User Protection System」という題名の2008年9月29日に出願された米国特許出願番号第11/658758号、および「Method of Identifying an Object in a Visual Scene」という題名の2011年11月16日に出願された米国特許出願番号第13/286656号の教示によれば、交通弱者14(以下、「VRU14」)を検出して、車両12との衝突からの保護を行うように、車両12の前方の領域13を眺望して、その中の物体を検知するように、レンジ・キュー式物体検出システム10が車両12に組み込まれている。VRU14の例としては、歩行者14.1および自転車乗員14.2が挙げられる。
レンジ・キュー式物体検出システム10は、メモリ20を組み入れるか、またはそれに動作可能に結合されているプロセッサ18に動作可能に結合された、ステレオ視システム16が組み込まれているとともに、電源22、例えば車両バッテリ22.1によって電力供給されている。ステレオ視システム16の視野内のシーン24からの情報に応答して、プロセッサ18は、以下の方法:1)ドライバ33が衝突を避けるために回避行動を取ることができるように、十分なリードタイムをで、聴覚警報装置28.1または視覚ディスプレイまたはランプ28.2からの聴覚または視覚警報信号によってドライバ33に注意喚起すること;2)VRU14が停止するか、または回避行動を取ることができるように、例えば車両クラクション30.1を鳴らしたり、ヘッドライト30.2を点滅させたりすることによって、聴覚または視覚警報信号によってVRU14に注意喚起すること;3)VRU14との衝突の可能性が高くなった場合、車両12に自動的にブレーキをかけるように、ブレーキ制御システム34への信号26.1を発生させること;または4)衝突が避けられなくなった場合には、衝突に先立って、1つまたは複数のVRU保護装置32、例えば、外部エアバッグ32.1またはフードアクチュエータ32.2を展開させること、のうちの1つまたは2つ以上によって、車両12との衝突の可能性から1人または2人以上のVRU14の保護を行うように、1つまたは2つ以上の信号26を、1つまたは2つ以上の関連するドライバ警報装置28、VRU警報装置30、またはVRU保護装置32に対して発生させる。
例えば、一実施態様においては、衝突するVRU14からのエネルギーをフード36によって吸収できる距離を増大させるように、フードアクチュエータ(hood actuator)32.2、例えば、火薬式(pyrotechnic)、油圧式、または電気式のアクチュエータのいずれかが、相対的に適合されたフード36と協働する。
図4aを参照すると、一実施態様において、ステレオ視システム16には、第1および第2のステレオ画像成分40.1および40.2の取得を行う、少なくとも1つのステレオ視カメラ38が組み入まれており、ステレオ画像成分のそれぞれは、関連する第1および第2の視点42.1および42.2を隔てるベースラインb距離だけ、互いに変位させられている。例えば、図2、3c、4aおよび5に示されているように、それぞれ焦点長fを有する、関連する第1および第2のレンズ44.1および44.2を備える、第1および第2のステレオ視カメラ38.1および38.2が、互いに変位させられて、第1および第2のレンズ44.1および44.2の光軸がベースラインbだけ離隔されるようにされている。各ステレオ視カメラ38は、ピンホールカメラ46としてモデル化することが可能であり、第1および第2のステレオ画像要素40.1および40.2は、第1および第2のレンズ44.1および44.2の対応する共平面焦点面(coplanar focal plane)48.1および48.2において電子的に記録される。
例えば、第1および第2のステレオ視カメラ38.1および38.2は、焦点面CCD(電荷結合素子)アレイまたはCMOS(相補型金属酸化膜半導体)アレイ、および関連する電子メモリならびに信号処理回路を組み入れた、広ダイナミックレンジ電子カメラを備えてもよい。第1および第2のレンズ44.1および44.2からレンジrの距離に位置する所与の物体50に対して、関連する第1および第2のステレオ画像成分40.1および40.2が、関連する異なる第1および第2の視点42.1および42.2から採取される。
物体50の所与の点Pに対して、その点Pの第1および第2の画像52.1および52.2は、関連する第1および第2のステレオ画像成分40.1および40.2の第1および第2の画像中心線54.1および54.2から、第1のステレオ画像成分40.1(例えば、左画像)に対して第1のオフセットdlだけ、および第2のステレオ画像成分40.2(例えば、右画像)に対して第2のオフセットdrだけオフセットされており、第1および第2のオフセットdlおよびdrは、ベースラインbおよび点Pを含む面内にあり、第1および第2の画像中心線54.1および54.2に対して反対の方向にある。第1および第2のオフセットdlおよびdrの差は、視差(disparity)と呼ばれており、以下の式によって物体50のレンジrと直接的に関係づけられる。
r=b・f/d、但しd=dl−dr (1)
図4bを参照すると、物体50の高さHは、ピンホールカメラ46の仮定と、関連する画像形成ジオメトリとに基づいて、物体画像56の高さHから導くことができる。
図2および5を参照すると、一実施態様においては、第1および第のステレオ視カメラ38.1および38.2は、車両12のフロントガラス66を通して、視覚的なシーン24が見えるように、車両12の乗員車室58内、例えば、リアビューミラー60の前に、実質的に水平なベースラインbに沿って位置している。別の実施態様では、第1および第2のステレオ視カメラ38.1’および38.2’は、実質的に水平のベースラインbに沿って、車両12のフロント62に、例えば、それぞれ、左および右のヘッドライトレンズ64.1および64.2の内部またはその近傍に位置している。
図を6参照すると、さらに別の実施態様においては、ステレオ視システム16’には、複数の平面ミラー70.1、70.2、70.3、70.4、例えば、互いに垂直方向に分割された第1および第2の視点72.1および72.2を提供するように適合された、第1の平面ミラー群と協働する単一のカメラ68が組み入れられており、単一カメラ68の視野の関連する上方部分は、第1のステレオ開口74.1から外を臨み、単一カメラ68の関連する視野の下方部分は、第2のステレオ開口74.2から外を臨み、ここで第1および第2のステレオ開口74.1および74.2は、ベースラインb距離だけ離隔されている。単一カメラ68の検出器76が正方形である場合には、それぞれの対応する視野は、垂直方向よりも水平方向がずっと大きい視野を提供するように、約2:1の水平対垂直アスペクト比を有することになる。図6に示されている実施態様においては、単一カメラ68の視野は、第1のミラー70.1および第3のミラー70.3によって、実質的に互いに垂直であるとともに、ベースラインbに対して45度の角度である、上方視野と下方視野にそれぞれ分割されている。
第1のミラー70.1は、第3のミラー70.3の上方に位置し、相対的により大きい左端の第2のミラー70.2と協働して、それによって単一カメラ68の上方視野が、第1の視点72.1(すなわち、左視点)からの第1のステレオ画像成分40.1をもたらす。第3のミラー70.3は、相対的により大きい右端の第4のミラー70.4と協働し、それによって単一のカメラ68の下方視野が、第2の視点72.2(すなわち右視点)からの第2のステレオ画像成分40.2をもたらす。
図7を参照すると、ステレオ視プロセッサ78は、第1および第2の視点42.1および42.2のそれぞれに対する、ステレオ視カメラ38、38.1、38.2からの個別のグレースケール画像からの、視覚シーン24のレンジマップ画像80(レンジ画像または視差画像とも呼ばれる)の生成を行う。レンジマップ画像80は、各レンジピクセル81に対して、ステレオ視システム16から物体までのレンジrを与える。代替的または追加的に、レンジマップ画像80は、関連する成分、例えば、車両12に固定された関連する基準座標系に対する、物体のダウンレンジ(Z)、クロスレンジ(X)、および物体の高さ(Y)、のベクトルを与えてもよい。
別の実施態様において、ステレオ視システム16から物体までのレンジrに加えて、ステレオ視プロセッサ78は、ステレオ視システム16に対する物体の方位角(azimuth angle)および仰角(elevation angle)を提供するように適合されてもよい。例えば、ステレオ視プロセッサ78は、参照により本明細書に組み入れられている、米国特許第6456737号に開示されたシステムおよび方法にしたがって動作してもよい。ステレオイメージングは、単眼視システムに関連する多くの制約を、左右の画像対、すなわち第1および第2のステレオ画像成分40.1および40.2の間の視差dと、比較的簡単な三角法計算によって、物体の実世界位置を回復することによって克服する。
ステレオ視プロセッサ78の関連するエリア相関アルゴリズム(area correlation algorithm)は、対応するエリア間の視差d、および対応するそのレンジrを特定するように、第1と第2のステレオ画像成分40.1および40.2の対応するエリアのマッチングを行う。関連するマッチングエリアの探索の範囲は、関連するエピポーラ(epipolar)線が、関連する第1および第2のステレオ視カメラ38.1および38.2の関連する走査線に沿って延びるように、入力画像(I)を修正することによって低減することが可能である。このことは、第1および第2のステレオ視カメラ38.1および38.2を較正するとともに、関連する入力画像(I)のワーピング(warping)を行い、第1および第2のステレオ視カメラ38.1および38.2の間のレンズ歪みと位置ずれ(alignment offsets)を除去することによって、行うことができる。
所与の修正画像(C)に対して、マッチングの探索を、ベースライン方向に沿った特定の最大オフセット数(D)に限定することが可能であり、この場合に、最大数は、関心のある最小および最大のレンジrによって与えられる。多重プロセッサまたは分散コンピューティングによる実装に対しては、アルゴリズム演算は、スループットを増大させるためにパイプライン方式で実行することができる。最大計算コストは、相関演算および最小発見演算にかかり、これらは、ピクセル数に視差数(number of disparities)を乗じた数に比例する。このアルゴリズムは、エリア相関に使用されるウィンドウサイズが、関連する計算コストに実質的に影響を与えないように、面積和(area sums)の計算における冗長性を利用するためにスライディングサム(sliding sum)法を使用することができる。結果として得られる視差マップ(M)は、道路表面フィルタ(F)を使用して道路表面反射物などの無関係の物体を除去することによって、複雑さをさらに低減することができる。
関連するレンジ分解能(Δr)は、以下の式による、レンジrの関数である。
レンジ分解能(Δr)は、所与のステレオジオメトリに対して認識可能なレンジrにおける最小変化であり、視差における変化Δd(すなわち、視差分解能Δd)に対応する。レンジ分解能(Δr)は、レンジrの2乗とともに増加し、ベースラインbおよび焦点長fと逆比例関係にあり、その結果として、レンジ分解能(Δr)は、ベースラインbおよび焦点長f距離の増加とともに、および視差分解能Δdの向上(減少)をもたらすピクセルサイズの減少とともに、向上(減少)する。
代替的に、CENSUSアルゴリズムを使用して、関連する第1および第2のステレオ画像成分40.1および40.2から、例えば、所与の視差dだけ離隔された対応するピクセルに対する、ランク順位づけされた差分マトリックス(rank-ordered difference matrices)を比較することによって、レンジマップ画像80を求めてもよく、各差分マトリックスは、第1および第2のステレオ画像成分40.1および40.2のそれぞれの所与のピクセルに対して計算され、各差分マトリックスの各要素は、所与のピクセルの値と、対応する周辺ピクセルの対応する値との差分に応じて変わる。
図3aを参照すると、物体50のステレオイメージング、すなわち対応する関連の第1および第2のステレオ画像成分40.1および40.2からレンジマップ画像80を生成することは、関連するステレオ視システム16および16’の第1の視点42.1、72.1、および第2の視点42.2、72.2とそれぞれ関連する、それぞれの第1および第2の視野84.1および84.2のオーバラップの領域82内に位置する、物体50に対して理論的に可能である。一般的に、物体50までのレンジrが減少すると、結果として得られる関連する視差dは減少し、それによってその物体50までのレンジrを分解する困難さが増大する。物体50上の特定の点Pが分解できない場合には、関連するレンジマップ画像80の対応するレンジピクセル81はブランクまたは0である。オンターゲットレンジフィル(OTRF:On-target range fill)は、関連する物体50によって囲まれた、ノンブランクレンジピクセル81の数と、レンジピクセル81の合計数との比であり、レンジピクセル81の合計数は、物体50の投影表面積の尺度となる。したがって、所与の物体50に対して、関連するオンターゲットレンジフィル(OTRF)は、一般的に、レンジrが減少するとともに減少する。
したがって、ステレオ視プロセッサ78のレンジマップ画像80だけに基づくニアレンジ検出・追跡性能は、シーン照明が最適以下である場合、および物体50に特異な構造またはテキスチャがないときには、損なわれる可能性があり、その理由は、関連するステレオマッチングレンジフィルおよび分布が、比較的正確な物体境界検出を確実にするための許容限より低いためである。例えば、オンターゲットレンジフィル(OTRF)が約50パーセントよりも大きい場合には、レンジマップ画像80は、検出・追跡動作のために一般的に単独で使用することができる。
状況によっては、比較的良性のシーン照明と比較的良好と思われる物体のテキスチャについても、オンターゲットレンジフィル(OTRF)が50%未満に低下する可能性があることが観察されている。例えば、図8を参照すると、図8の上から下に、35メートルから4メートルの範囲の対応する複数の異なるレンジrにおいて、接近する歩行者の複数のレンジマップ画像80の複数の部分が示されており、この場合に、35メートルにおいて(上端シルエット)、オンターゲットレンジフィル(OTRF)は96パーセントであり;16メートルにおいて(中央シルエット)、オンターゲットレンジフィル(OTRF)は83パーセントであり;15メートルにおいて、オンターゲットレンジフィル(OTRF)は50パーセント未満に低下し;歩行者がステレオ視システム16に接近し続けるにつれて漸進的に低下し続けて、最終的に4メートルにおいて、オンターゲットレンジフィル(OTRF)は、わずかに11パーセントとなる。
図9を参照すると、レンジ・キュー式物体検出システム10のステレオ視システム16から、11メートル、12メートル、および22メートルのレンジにおける、3つの比較的ニアレンジの車両物体50.1’、50.2’、50.3’が示されており、この場合に、第1のニアレンジ車両物体50.1’は、ステレオ視システム16に対して斜めに向いており、第2のニアレンジ車両物体50.2’はステレオ視システム16と反対方向に向いており、第3のニアレンジ車両物体50.3’はステレオ視システム16に対して横断方向に向いている。図10を参照すると、関連するステレオ視プロセッサ78によって生成された、関連するレンジマップ画像80からの、ニアレンジの車両物体50.1’、50.2’、50.3’の対応するオンターゲットレンジフィル(OTRF)は、それぞれ、12パーセント、8パーセント、および37パーセントであり、これは、一般的には、レンジマップ画像80における情報だけからの頑強な物体検出および区別には不十分である。一般的には、約25メートル未満のレンジにおける、ニアレンジ車両物体50’は、レンジマップ画像80における情報だけから検出し追跡するのは困難である可能性がある。
図11を参照すると、レンジ・キュー式物体検出システム10は、そうでなければレンジマップ画像80だけから物体50の検出を行うほどには、オンターゲットレンジフィル(OTRF)が十分に大きくない、比較的に近傍のレンジrにおける1つまたは2つ以上の比較的ニアレンジの物体50’の検出を行うように、第1および第2のステレオ画像成分40.1および40.2の一方と協働して、レンジマップ画像80の処理を行う。より具体的には、レンジ・キュー式物体検出システム10は、関連する物体検出システム88と協働する、例えば、画像プロセッサ86に実装された、追加の画像処理機能が組み込まれており、この追加の画像処理機能は、第1または第2のステレオ画像成分40.1または40.2から、関連する物体区別システム92による、ニアレンジ物体(複数を含む)50’のその後の区別に好適な、ニアレンジ物体50’、または複数のニアレンジ物体50’画像の生成を行い、この場合に、第1または第2のステレオ画像成分40.1または40.2の部分は、以下でより詳細に説明するように、図12に示されている関連するレンジ・キュー式物体検出プロセス1200によって、レンジマップ画像80に応じて選択される。
より具体的には、図12および図13を参照すると、ステップ(1202)において、上述のような方法論によって、最初に、第1または第2のステレオ画像成分40.1または40.2に応じて、ステレオ視プロセッサ78によって、レンジマップ画像80が生成される。例えば、一実施態様において、ステレオ視プロセッサ78は、フィールドプログラマブルゲートアレイ(FPGA)を用いて実装される。例えば、図13のハーフトーン画像は、ステレオ視システム16からのレンジrの増加順に、以下のような6つの主要物体50を含み、それは、第1、第2および第3の車両50.1、50.2および50.3、道路標識50.4、第4の車両50.5、および樹木50.6である。図13には、それぞれが、図13のハーフトーン画像がそれから導出された元画像におけるレンジrによって色分けされている、複数の対応するレンジビン94が重ね合わされており、この場合に、各レンジビン94は、レンジビン94内のレンジピクセル81のそれぞれの対応する行に対して、少なくとも1つの有効なレンジ値96が存在することを示しており、各レンジビン94の幅は、一定数のレンジピクセル81、例えば10個のレンジピクセル81であり、各レンジビン94の高さは、所与の対応するレンジr値に対する有効レンジ値96を有する、レンジピクセル81の行の連続性(contiguity)を示している。
再び図11を参照すると、次いで、レンジマップ画像80、および第1または第2のステレオ画像成分40.1または40.2の一方が、画像プロセッサ86によって処理され、この画像処理プロセッサ86は、例えば、デジタル信号プロセッサ(DSP)を使用して実装してもよい。
図14aを参照すると、ステップ(1204)において、各有効レンジ測定値の空間座標が、ステレオ視システム16の自然3次元座標から、「トップダウン」座標系の、対応する2次元座標に変換される。各ステレオ視カメラ38は、本質的に光強度の角度センサであり、各画素は、所与の仰角φと方位角αにおける、瞬時視野角を表わす。同様に、関連するステレオ視システム16は、本質的に、対応するレンジrの角度センサである。関連するレンジ値のレンジrは、ステレオ視システム16から対応する平面97までの距離に対応し、平面97は、ステレオ視システム16の軸方向中心線98に垂直であるとともに、軸方向中心線98は、ベースラインbに対してその中央点を通ってそれに垂直であるとともに、第1および第2のステレオ視カメラ38.1および38.2の光軸に平行である。
したがって、一実施態様においては、例えば、地面99の上方の所与の高さhに位置するステレオ視カメラ38の所与の焦点距離fに対して、関連する仰角φと組み合わされた、関連するレンジピクセル81、または第1および第2のステレオ画像成分40.1および40.2の一方の対応する画像ピクセル100の列XCOLおよび行YROWが、例えば、ステレオ視システム16のベースラインb、車両12のバンパー106、またはその他の縦方向基準において、車両12の軸方向中心線100、ステレオ視システム16の軸方向中心線98、関連するカメラの関連する装着場所、またはその他の横方向基準に沿って、原点104に対するダウンレンジ距離DRおよびクロスレンジ距離CRのトップダウン空間102における対応する2次元座標に、以下の関係に従って変換される:
および
但し、クロスレンジ距離CRは、車両12の軸方向中心線100、ステレオ視システム16の軸方向中心線98、関連するカメラの関連する装着場所、または車両12の軸方向中心線100、ステレオ視システム16の軸方向中心線98、に対して横断する方向にある、その他の横方向基準に対する双方向測定値であり、ダウンレンジ距離DRは、ステレオ視システム16のベースラインb、車両12のバンパー106、またはその他の縦方向基準から、車両12の前方およびそれから離れる方向への距離の測定値である。
再び図12も参照すると、ステップ(1206)において、有効なレンジ値96を有する各レンジピクセル81は、例えば、図15に示されているような関連するクラスタリングプロセス1500を使用して、トップダウン空間102における対応する2次元レンジビン108に割り当てられる。例えば、図14aは、図13に示されているシーンの部分の、車両12のバンパー106から50メートル延びる、ダウンレンジ距離DR領域、および車両12の軸方向中心線110の両側(左および右)に20メートル延びるクロスレンジ距離CR領域を示している。例えば、図14aに示されているレンジビン108は、ダウンレンジ距離DRおよびクロスレンジ距離CRのそれぞれにおいて、それぞれ1/2メートル×1/2メートルの大きさの矩形である。レンジビン108の特定の大きさは限定されるものではなく、可変とするか、またはその他の寸法、例えば、0.25メートル、1メートル、その他とすることもできるとともに、レンジビン108は必ずしも正方形である必要はない。
個々のレンジピクセル81を対応するレンジビン108と関連付けるプロセス中に、対応するレンジビン108へのリンクを、各レンジピクセル81に関連付けて、かつ/または各レンジビン108を、それと関連付けられた対応するレンジピクセル81に関連付ける、一連のリンクリストを構築してもよい。その後に、関連するクラスタリングプロセス1500のその後の動作は、それと関連する個々のレンジピクセル81に対してではなく、レンジビン108それ自体に対して行ってもよく、各レンジビン108は、トップダウン空間102における座標(CR,DR)を割り当てられ、それと関連するレンジピクセル81の対応する数Nと関連付けられる。例えば、対応する座標値CR、DRは、レンジビン108の中心の位置とするか、または関連するレンジピクセル81の対応する座標の関数として、またはそれに応じて、例えば、クロスレンジ距離CRおよびダウンレンジ距離DRにおける対応する平均位置、または対応するその中央位置のいずれかとして、与えることもできる。
図14bおよび15も参照すると、関連するクラスタリングプロセス1500のステップ(1502)において、第1のヒストグラム112.1が、クロスレンジ距離CRだけに対しての、あるカウントの上記のレンジビン108を含むか、またはそれと等価に、有効なレンジ値96を有するレンジピクセル81に対して、クロスレンジ距離CRに対する1次元クロスレンジビン108’についての、あるカウントのレンジピクセル81を含んで、生成され、この場合に、各1次元クロスレンジビン108’のクロスレンジ距離CRは、対応する2次元レンジビン108の対応するクロスレンジ距離CRと同じである。同様に、図14cをさらに参照すると、やはり、関連するクラスタリングプロセス1500のステップ(1502)において、第2のヒストグラム112.2が、ダウンレンジ距離DRだけに対しての、あるカウントの上記のレンジビン108を含むか、またはそれと等価に、有効なレンジ値96を有するレンジピクセル81に対して、ダウンレンジ距離DRに対する1次元ダウンレンジビン108’’についての、あるカウントのレンジピクセル81を含んで、生成され、この場合に、各1次元ダウンレンジビン108’’のダウンレンジ距離DRは、対応する2次元レンジビン108の対応するダウンレンジ距離DRと同じである。
関連するクラスタリングプロセス1500の第1の実施態様は、事前定義された2次元名目クラスタリングビン113に対するレンジビン108のクラスタリングを行い、それぞれの境界は、対応する関連の1次元名目クロスレンジクラスタリングビン113’と、対応する関連の1次元名目ダウンレンジクラスタリングビン113’’との交差によって定義される。より具体的には、事前定義された2次元名目クラスタリングビン113は、それぞれ、カーテシアントップダウン空間102と位置合わせされて、クロスレンジ距離CRの一定幅、例えば、一実施態様においては、3メートルを有すると仮定され、ダウンレンジ距離DRの固定長は、例えば、一実施態様においては、6メートルであり、これは、1次元名目クロスレンジクラスタリングビン113’の対応する関連の組によって与えられ、例えば、その各要素は3メートルの幅であるとともに、1次元名目ダウンレンジクラスタリングビン113’’の対応する関連の組によって与えられ、例えば、その各要素は6メートルの幅であり、1次元名目クロスレンジクラスタリングビン113’同士は互いに当接し、1次元名目ダウンレンジクラスタリングビン113’’は、個別に、互いに当接し、1次元名目クロスレンジクラスタリングビン113’および1次元名目ダウンレンジクラスタリングビン113’’は、互いに相対的に直交している。
一組の実施態様において、1次元名目クロスレンジクラスタリングビン113’の組は、車両12の軸方向中心線110を中心としており、1次元名目ダウンレンジクラスタリングビン113’’の最近接エッジ113’’は、ステレオ視システム16に可視である道路99’上の最近接点の近く、またはそこに位置している。例えば、3メートル×6メートルの2次元名目クラスタリングビン113、および車両12の軸方向中心線110の左右に20メートル、ステレオ視システム16の原点104から50メートル延びるトップダウン空間102に対しては、一実施態様において、約14個の1次元名目クロスレンジクラスタリングビン113’、すなわち((+20)メートル右境界−(−20)メートル左境界)/1次元名目クロスレンジクラスタリングビン113’の3メートルのクロスレンジ距離CR)があるとともに、最近接1次元名目ダウンレンジクラスタリングビン13’’が、それぞれ原点104の5メートルダウンレンジに位置するとして、約8個の1次元名目ダウンレンジクラスタリングビン113’’、すなわち(50メートル終点−5メートル始点)/1次元名目ダウンレンジクラスタリングビン113’’の6メートルダウンレンジ距離DR長さ)、がある。奇数の1次元名目クロスレンジクラスタリングビン113’が使用される場合には、車両12の軸方向中心線110を中心とする、中心次元名目クロスレンジクラスタイングビン113’.0が存在する。
2次元名目クラスタリングビン113は、2次元レンジビン108と、対応するコヒーレント関心領域(ROI)114との初期関連付けを行い、最近接の2次元名目クラスタリングビン113.0から始まり、次いで、クロスレンジにおいて車両12の軸方向中心線110から横方向に離れるとともに、ダウンレンジにおいて車両から縦方向に離れて連続する。より具体的には、図15に示されている関連するクラスタリングプロセス1500に続いて、ステップ(1504)において、中心1次元名目クロスレンジクラスタリングビン113.0’が選択され、ステップ(1506)において、最近接1次元名目ダウンレンジクラスタリングビン113.0’’が選択される。次いで、ステップ(1508)において、第1の関心領域(ROI)114がポインティングされるともに、関連する2次元レンジビン108へのポインタに対して、例えば、ヌル値で初期化される。
次いで、ステップ(1510)は、選択された1次元名目クロスレンジクラスタリングビン113’と1次元名目ダウンレンジクラスタリングビン113’’に対応する、2次元名目クラスタリングビン113の識別を行う。例えば、図14aに示されているように、ステップ(1504)および(1506)に続いて、ステップ(1510)において識別された第1の2次元名目クラスタリングビン113は、車両12の軸方向中心線110に沿ってそれに最近接する2次元名目クラスタリングビン113.0である。ステップ(1510)において識別された各2次元名目クラスタリングビン113に対して、関連するリンクリストが、その境界の内部に位置し、したがってそれと関連している、関連する2次元レンジビン108のそれぞれの識別を行う。例えば、リンクリストは、関連する2次元レンジビン108のそれぞれをポーリング(polling)して、その中に関連する2次元レンジビン108が位置する、対応する2次元名目クラスタリングビン113の対応するインデクス座標(indexing coordinate)を発見して、次いで、その2次元レンジビン108へのポインタを2次元名目クラスタリングビン113に関連するリンクリストに追加することによって構築してもよい。
ステップ(15 12)において、識別された2次元名目クラスタリングビン113が、関連する2次元レンジビン108によって説明される、十分な数のレンジピクセル81が十分多く存在している場合には、次いで、ステップ(1514)において、識別された2次元名目クラスタリングビン113の境界内に位置する、2次元レンジビン108は、例えば、関連する2次元レンジビン108を位置同定する上記のリンクリストを使用して、現在ポインティングされている関心領域(ROI)114と関連付けられる。次いで、ステップ(1516)において、現在ポインティングされている関心領域(ROI)114と関連付けられた、それらの2次元レンジビン108は、その他の関心領域(ROI)114とのその後の関連付けに考慮されないように、関連する第1および第2のヒストグラム112.1および112.2からマスキングするか、または除去される。
次いで、ステップ(1518)において、対応するi番目の関心領域(ROI)114の図心116のトップダウン空間102におけるクロスレンジ
座標およびダウンレンジ
座標が、次いで、それと関連する対応するN個の2次元レンジビン108の座標から次のように求められる。
および
代替的に、対応するi番目の関心領域(ROI)114の図心116は、各レンジビン108と関連する、数nのレンジピクセル81に応じて加重されている、加重座標値を用いて、例えば、以下のように計算することもできる。
および
次いで、ステップ(1520)において、次の関心領域(ROI)114がポインティングされて、例えば、関連する2次元レンジビン108へのポインタに対して、ヌル値で初期化される。
次いで、ステップ(1520)から、または現行の2次元名目クラスタリングビン113に、対応する2次元レンジビン108が十分多く存在しない場合には、次いで、ステップ(1522)において、すべての2次元名目クラスタリングビン113が処理されていない場合には、次いで、ステップ(1524)において、1次元名目クロスレンジクラスタリングビン113’と1次元名目ダウンレンジクラスタリングビン113’’の次最近接組合せが選択され、プロセスはステップ(1510)を繰り返す。
そうではなく、ステップ(1522)から、すべての2次元名目クラスタリングビン113が処理されている場合には、次いで、ステップ(1526)において、対応する2次元名目クラスタリングビン113に割り当てられていない、2次元レンジビン108が残留している場合には、次いで、ステップ(1528)において、それぞれの残留する2次元レンジビン108は―例えば、車両12に対して、最近接から最遠隔の残留2次元レンジビン108へと進み―それに最近接の関心領域(ROI)114と関連付けられる。例えば、一組の実施態様において、関心領域(ROI)114の対応する図心116の位置は、それぞれの新規の2次元レンジビン108が関連付けられるときに、更新される。次いで、ステップ(1528)に続いて、またはステップ(1526)から、対応する2次元名目クラスタリングビン113に割り当てられていない2次元レンジビン108が残留していない場合には、ステップ(1530)において、結果として得られる識別された関心領域(ROI)114が戻されて、それらの関心領域(ROI)114のそれぞれは、それと関連する2次元レンジビン108の識別を含む。
ステップ(1512)を再び参照すると、様々な試験を使用して、特定の2次元名目クラスタリングビン113に2次元レジンビン108が十分な数だけあるかどうかを判定することもできる。例えば、このことは、閾を超えている関連する2次元レンジビン108における関連するレンジピクセル81の合計数に依存するか、または第1および第2のヒストグラム112.1および112.2のピーク値の絶対値が、特定の2次元名目クラスタリングビン113に対応する、関連の1次元名目クロスレンジクラスタリングビン113’および1次元名目ダウンレンジクラスタリングビン113’’に対する対応する閾を、それぞれ超えるかどうかに依存する可能性がある。
さらに、ステップ(1524)を再び参照すると、1次元名目クロスレンジクラスタリングビン113’と1次元名目ダウンレンジクラスタリングビン113’’の次最近接組合せの選択は、様々な方法で実装することもできる。例えば、一実施態様においては、2次元名目クラスタリングビン113が、車両12からのダウンレンジ距離DRの増加順に走査されるとともに、各ダウンレンジ距離DRに対して、車両12の軸方向中心線110からのクロスレンジ距離DRの増加順に走査される。別の実施態様においては、2次元名目クラスタリングビン113の走査は、車両12の速度だけ、または速度と進行方向の組合せのいずれかが与えられたときに車両12との衝突の可能性がある、2次元名目クラスタリングビン113だけに限定される。別の実施態様においては、これらの衝突の可能性のある2次元名目クラスタリングビン113は、残りの2次元名目クラスタリングビン113よりも、高い頻度、またはより高い優先度で、走査される。例えば、残りの2次元名目クラスタリングビン113は、車両12に対する脅威がむしろ予期されない期間中に、走査してもよい。
また図14d〜14fを参照するとともに、図14bおよび14cを再び参照すると、クラスタリングプロセス1500の第2の実施態様によれば、所定の1次元名目クロスレンジクラスタリングビン113’および1次元名目ダウンレンジクラスタリングビン113’’を使用することの代替案として、1次元名目クロスレンジクラスタリングビン113’および1次元名目ダウンレンジクラスタリングビン113’’の選択と位置特定を、代わりに、例えば、その中の対応する局在ピーク118を中心とする、対応する関連の第1および第2のヒストグラム112.1および112.2に応じて行ってもよい。例えば、局在ピーク118は、最初に、それに対するピークの値が対応する閾を超えている、上記の所定の1次元名目クロスレンジクラスタリングビン113’および1次元名目ダウンレンジクラスタリングビン113’’のそれぞれの境界内のピークヒストグラムを位置特定し、次いで、結果として得られる局在ピーク118の組を切り捨てて、近隣の局在ピーク118のクラスタリングビン長の半分以内の、例えば、上記の3メートル×6メートルの2次元名目クラスタリングビン113に対して、クロスレンジ距離CRにおいて1.5メートル未満、またはダウンレンジ距離DRにおいて3メートル未満の、サブピークを除去することによって求めることができる。
次いで、図14d〜14fを参照すると、関連するクラスタリングプロセス1500において使用される、対応する1次元名目クロスレンジクラスタリングビン113’および1次元名目ダウンレンジクラスタリングビン113’’は、対応する局在ピーク118のそれぞれを中心としている。例えば、図14d〜14fは、5つの1次元名目クロスレンジクラスタリングビン113’と、4つの1次元名目ダウンレンジクラスタリングビン113’’を示している。別の方法では、クラスタリングプロセス1500は、それぞれ対応する局在ピーク118と位置合わせされている、例えば、それを中心とする、1次元名目クロスレンジクラスタリングビン113’と1次元名目ダウンレンジクラスタリングビン113’’について、上述したように進行する。したがって、上記の第1の実施態様と比較して、クラスタリングプロセス1500の第2の実施態様は、処理する必要のある、2次元名目クラスタリングビン113の数を低減する可能性がある。
例えば、図14dにおいて、それぞれ1、2および3で識別されている車両物体50.1、50.2および50.3は、それぞれ、関連する3メートル幅×6メートル奥行の2次元名目クラスタリングビン113内に収納されている。しかしながら、5で識別されている、相対的に遠隔の車両物体50.5は、背景において重複する車両物体50からの背景ノイズが含まれることによって、3メートル幅×6メートル奥行の2次元名目クラスタリングビン113よりもわずかに幅が広い。この場合に、関連する第1および第2のステレオ画像成分40.1および40.2からレンジマップ画像80を生成するためのステレオ視プロセッサ78のステレオマッチングプロセスは、前景および背景の車両50のレンジの平均であるレンジ値を与え、このレンジ測定を対応する関心領域(ROI)114に含めることにより、その幅を3メートルから4メートルに伸長させる。
図14aおよび14dに示されている1/2メートル×1/2メートルレンジビン108は、関連する1/2メートル分解能を有する関連するトップダウン変換を示しているが、トップダウン変換の分解能は異なってもよいこと、例えば、より粗く、またはより細かく、例えば1メートルまたは0.25メートルとしてもよいことを理解すべきである。例えば、相対的に小さいレンジビン108は、対応する相対的により細い分解能をもたらし、この細かい分解能は、対応する関心領域(ROI)114と関連する、物体50の境界の幅および奥行のより正確な特定を行うように、近隣の2次元名目クラスタリングビン113の場所を占めて、そのあと、後続の処理の間により容易に除去される背景クラッタ測定値をもたらす。
番号4および6で識別されている、道路標識50.4および樹木50.6の物体50に関連する2次元名目クラスタリングビン113は、関連する中央分離帯(central median)の部分、および相対的に大きい、別の樹木の部分を含む。一組の実施態様においては、関連する運動追跡および脅威予測のプロセスに応じて、これらの2次元名目クラスタリングビン113は、それらが車両物体50’としては大きすぎるとともに、それらが地面99に対して静止していることから、無視してもよいことがある。
別の例として、別の組の実施態様において、関連する2次元名目クラスタリングビン113の1つまたは2つ以上が、状況認識またはシーン解釈、例えば、イメージ法(imagery)から、またはオンボードナビゲーションおよびマップデータベースシステム、例えばGPSナビゲーションシステムと、クラスタリングプロセス1500を車両12の環境に適合させる、関連する安全ディジタルマップ(SDM)との融合により導出される情報に応じて特定される。例えば、時速50マイルを超える速度でハイウェイをドライブ中には、車両だけに遭遇することが期待され、その場合には、2次元名目クラスタリングビン113の大きさを、例えば、相対的に大きな車両12、例えば、セミトラクタトレーラ車両12のクラスタリングを行うように、4メートルのクロスレンジ距離CR×10メートルのダウンレンジ距離DRに増大させてもよい。図14aおよび14dにおいて、各関心領域(ROI)114は、相対的に大きな太字フォントの、対応するインデックス値番号によって識別されており、これは図18に示されている、対応する関連の図心116に対応する。
クラスタリングプロセス1500はまた、2次元名目クラスタリングビン113の名目限定サイズよりも大きい、相対的に大きな物体50を収容するために状況認識を組み入れてもよい。例えば、専用ハイウェイ上では、GPSナビゲーションシステムと関連するマップデータベースとの融合によって特定できるように、レンジ・キュー式物体検出システム10は、道路内に存在することが知られている車両物体50’だけを含めるように、関連するクラスタリングの範囲を限定してもよい。この場合に、車両物体50’は、3メートル幅(すなわち、クロスレンジ距離CR)×6メートル奥行(すなわち、ダウンレンジ距離DR)の2次元名目クラスタリングビン113に入る。車両物体50’が6メートル(例えば、18輪セミトラクタトレーラ)より長い(すなわち、奥行が大きい)場合には、クラスタリングプロセス1500は、車両物体50’を、運動追跡の間にコヒーレント運動特性に基づいて後で一体に連結される、複数のセクションに分割してもよい
図12に戻ると、ステップ(1208)において、次いで、各関心領域(ROI)114の各図心116のクロスレンジ座標
およびダウンレンジ座標
が、各関心領域(ROI)114に対するトップダウン空間102において、N個の関連する有効なレンジ値96を収納するi番目の関心領域(ROI)114に対して、上記の式(5.1または5.2)および(6.1または6.2)で与えられているようにして、求められる。例えば、ステップ(1528)において、関連する図心(複数可)116の座標が更新される場合には、ステップ(1208)において、再計算されるのではなく、図心(複数可)116に対して先に求められた座標を使用してもよい。
一組の実施態様によれば、結果として得られる関心領域(ROI)114は、その初期分類を行うように、関心領域(ROI)114と関連する対応する物体50の関連する瞬時軌跡またはヘディング角(heading angle)の尺度を提供することのできる、対応する楕円または多角形境界でさらに特徴がある。
例えば、図16を参照すると、各関心領域(ROI)114に対して、関連するベストフィット楕円119は、以下の手順を使用することによって求められ、この場合に、関連するその方位は、垂直(Y軸)に対するその関連する長軸119.2の反時計回り回転角119.1として定義され、関連する回転角119.1は、それぞれの対応する関心領域(ROI)114に対して、図16上に示されている:
1.各関心領域(ROI)114に対して、以下の2×2マトリックスCが、関連する有効なレンジ値96から計算され;
但し、
および
2.固有値{λ,λ}およびマトリックスCの対応する固有値{ξ,ξ}が線形代数の原理を用いて求められ;
3.ベストフィット楕円119の長軸の回転角119.1は{ξ,ξ}から以下のように与えられ;
および
4.ベストフィット楕円119の長軸119.2および短軸119.3の対応する長さは、関連する固有値{λ,λ}からそれぞれ以下のように与えられる:
および
図17aおよび17bを参照すると、各関心領域(ROI)114に対して、対応するベストフィット多角形境界、例えば、ベストフィット長方形120が、対応する関連のベストフィット楕円119の長軸119.2および短軸119.3の対応する長さLMajor、LMinorから次に求められ、ここでベストフィット長方形120の長さLは、ベストフィット楕円119の長軸119.2の長さLMajorに等しく、ベストフィット長方形120の幅Wは、ベストフィット楕円119の短軸119.3の長さLMinorに等しく、その結果として、ベストフィット楕円119は、ベストフィット長方形120内に囲まれて、両者は共通の中心、および共通の長軸119.2および短軸119.3の組を共有している。
多角形境界は、関心領域114に関連する物体50の、瞬時軌跡、またはヘディング角の尺度として使用されて、関心領域114の初期分類を行う、例えば、そのレンジビン108が、その大きさは国または地域によって指定してもよい、約6メートルの長さLと約3メートルの幅Wを有する、一般化された長方形車両モデルに一致するかどうかの分類を行う。
次いで、ステップ(1210)において、関心領域(ROI)114は、車両12との相互作用の可能性の増加順に、例えば、関連する追跡情報および車両12のダイナミックスを説明する可能性のある、衝突可能性のある関心領域(ROI)114に対して、例えば、車両12からの関心領域(ROI)114の関連する図心116のトップダウン空間102における距離の増加順に、その後の解析を行うように優先順位付けされる。
次いで、ステップ(1212)から始まり、ステップ(1228)に続いて、関心領域(ROI)114は、各関心領域(ROI)114に対して以下のように、ステップ(1210)において求められた優先順位に対して、優先順位の増大順に、それぞれ解析される。
ステップ(1214)において、図18も参照すると、解析されているi番目の関心領域(RO)114の図心116の座標
が、トップダウン空間102から、第1および第2のステレオ画像成分40.1および40.2の一方の座標
に、すなわちモノ画像ジオメトリに、以下のように変換される:
および
図18は、合計で6つの関心領域(ROI)114に対して、図13に示されている物体50に対応して、図14aおよび14dにおいて識別された関心領域(ROI)114のそれぞれの図心116を識別している。
図19aから23を参照すると、クラスタリングプロセス1500の第3の実施態様によれば、名目寸法の(nominally-sized)クラスタリングビン(113’、113’’、113)の代わりに、関連する1次元クロスレンジクラスタリングビン121’および1次元ダウンレンジクラスタリングビン121’’の大きさおよび位置が、対応する第1および第2のヒストグラム112.1および112.2から直接的に求められる。これらの1次元クロスレンジクラスタリングビン121’および1次元ダウンレジンクラスタリングビン121’’は次いで、クラスタリングプロセス1500において、対応する2次元クラスタリングビンを特定するのに使用され、次いで、これらの2次元クラスタリングビンは、2次元名目クラスタリングビン113が、クラスタリングプロセス1500の上記の第2の実施態様において使用されたのと類似の方法で使用される。
より具体的には、図19aおよび19bを参照すると、図19aに示されている、クロスレンジにおける第1のヒストグラム112.1は、例えば、図19bに示されるような空間的にフィルタリングされた第1のヒストグラム112.1’を生成するように、例えば、その全体的詳細はさらに詳細に以下に記述される、1/2メートル分解能で3メートルのクラスタリングビン長に対して、長さ6のSavitzky−Golay平滑フィルタを使用して、フィルタリングされる。同様に、図20aおよび20bを参照すると、図20aに示されている、ダウンレンジにおける第2のヒストグラム112.2は、例えば、図20bに示されるような空間的にフィルタリングされた第1のヒストグラム112.2’を生成するように、例えば、1/2メートル分解能で6メートルのクラスタリングビン長に対して、長さ12のSavitzky−Golay平滑フィルタを使用して、フィルタリングされる。1次元クロスレンジクラスタリングビン121’は、典型的な方位と正常な比率を有する車両を収納するように、1次元ダウンレンジクラスタリングビン121’’よりも短いと仮定され、そのために、隣接する1次元クラスタリングビン121’、122’’の結合を回避するように、クロスレジにおけるフィルタリング用の基礎となるフィルタカーネル122.1は、ダウンレンジにおけるフィルタリング用の基礎となるフィルタカーネル122.2よりも短い。
例えば、図21に示されているクロスレンジおよびダウンレンジのSavitzky−Golay平滑フィルタのそれぞれのインパルス応答122.1、122.2は、以下の対応する値を有する:
122.1: {-0.053571, 0.267856, 0.814286, 0.535715, -0.267858, 0.053572} (12)
122.2: {0.018589, -0.09295, 0.00845, 0.188714, 0.349262, 0.427,
0.394328, 0.25913, 0.064783, -0.10985, -0.15041, 0.092948} (13)
一般的に、車両間の実世界の離隔距離と一致する、隣接するクラスタリング区間の間にゼロ密度ヒストグラムビン108’、108’’を維持するように、隣接するクラスタリング間隔が結合するのを防止するのにロールオフ(roll-off)が十分であれば、空間的にフィルタリングされた第1および第2のヒストグラム112.1’および122.2’を生成するために、縁端において制御されたロールオフを有する、その他のタイプのローパス空間フィルタも代替的に使用してもよい。
図22および23を参照すると、結果として得られる空間的にフィルタリングされた第1および第2のヒストグラム112.1’および112.2’は、局所的な単峰性(uni-modal)分布をもたらし、この単峰性分布は、例えば、クロスレンジおよびダウンレンジに対して、対応する第1および第2の空間微分空間フィルタリングヒストグラム112.1’’および112.2’’を生成するように、空間的にフィルタリングされた第1および第2のヒストグラム112.1’および112.2’のそれぞれを空間的に微分し、次いで、関連する空間導関数の関連するゼロ交差の位置から、関連する単峰性分布の縁端を位置同定することによって、対応する1次元クロスレンジクラスタリングビン121’および1次元ダウンレンジクラスタリングビン121’’の境界を特定するのに使用することができる。
より具体的には、空間的にフィルタリングされた第1および第2のヒストグラム112.1’および112.2’のいずれかのk番目の要素を、H(k)で表わすと、例えば、空間的にフィルタリングされた第1および第2のヒストグラム112.1’および112.2’の空間導関数は、例えば、中心差分方程式を用いて、以下で与えられる:
代替的に、空間1次導関数は、以下にさらに詳細に記述するように、Savitzky−Golay平滑フィルタを使用して直接的に取得してもよい。
ゼロ密度ヒストグラムビンで画定されたH(k)の単峰性分布に対して、その前縁端および後縁端において、1次空間導関数はゼロとなり、2次空間導関数は正であり、これは、例えば、k番目の要素によって与えられ、それに対して:
H’(k)≦0、およびH’(k+1)>0 (15)
単峰性分布のピークは、k番目要素における縁端位置の間に位置し、それに対して:
H’(k)≧0、およびH’(k+1)<0 (16)
したがって、1次元クロスレンジクラスタリングビン121’および1次元ダウンレンジクラスタリングビン121’’の境界は、式(15)を満足するゼロ交差H’(k)の対によって識別され、その間には、式(16)を満足するゼロ交差が位置する。1次元クロスレンジクラスタリングビン121’および1次元ダウンレンジクラスタリングビン121’’の位置が与えられると、次いで、クラスタリングプロセス1500は、上述のように進行して、2次元レンジビン108を、その組合せのそれぞれの組に対して、上記の1次元クロスレンジクラスタリングビン121’および1次元ダウンレンジクラスタリングビン121’’から識別される、対応する2次元クラスタリングビンと関連付ける。
次いで、各図心116は、それと関連する物体50の対応するエッジプロフィール124’を探索するために、ステップ(1216)から(1224)によって提供されるプロセスにおいて、半径方向探索シード123として使用され、この場合に、第1または第2のステレオ画像成分40.1または40.2は、それぞれが半径方向探索シード123から始まり、画像ピクセルデータ100の関連する極性ベクトル126’を提供する、複数の半径方向探索経路126のそれぞれに沿って探索され、関連する半径方向探索経路126に沿った物体50の対応するエッジ点124を発見し、この場合の、エッジプロフィール124’は、周囲の背景クラッタ128から前景物体50を分離するように、複数の関連する半径方向探索経路126からの個々のエッジ点124を接続する。
より具体的には、ステップ(1216)において、半径方向探索の限界が、例えば、半径方法探索シード123を中心とする探索領域の幅と高さに対して最初に設定される。例えば、一組の実施態様において、各半径方向探索経路126に沿った、最大半径方向探索距離は、関連する物体50の図心116までのダウンレンジ距離DRに応じて変わる。例えば、一実施態様においては、25メートルにおいて、最大の道路物体50、すなわち横向き車両12、は360列と300行に広がり、これが次いで、関連する長方形境界の対角線距離の半分(すなわち、
)で与えられる、対応する半径方向探索長を235個の画像ピクセル100に限定する。
別の実施態様においては、半径方向探索経路126の限界を画定する探索領域は、幅が3メートル、高さが3メートルであるモデル車両12を収容するように寸法決めされている。別の組の実施態様においては、最大半径方向探索距離は、関連する極探索方向(polar search direction)θによって定義される、関連する探索方向に応じて変わり、例えば、その結果として関連する探索領域は、図心116における特定の物理的大きさを表す、第1または第2のステレオ画像成分40.1または40.2における、境界を画定する長方形内部にある。代替的に、最大半径方向探索距離は、関連する探索方向と、例えば、時間の経過による物体50の追跡から得られてもよい物体50のタイプの事前知識の両方に応じて変わってもよい。
次いで、図24a、25aおよび27を参照すると、ステップ(1218)において、複数の異なる極探索方向θのそれぞれに対して、ステップ(1220)において、その関連する極探索方向θにおいて関連する半径方向探索経路126に沿って物体50のエッジ点124の半径130を特定するように、半径方向探索シード123から始まり、半径方向探索経路126に沿ってそこから半径方向外側に探索され、ここで、例えば、一組の実施態様においては、複数の半径方向探索経路126は、極探索方向θにおいて均一に間隔を空けられている。例えば、図24aは30個の均一に間隔を空けられた半径方向探索経路126を示し、図25aは、45個の均一に間隔を空けられた半径方向探索経路126を示している。図24aおよび25aの両方において、最大半径方向探索距離は、その高さよりも幅の広い車両12を収容するために、関連する探索領域に応じて、探索方向とともに変化する。
ステップ(1222)において、半径方向探索経路126に沿った探索中に、前景物体50の周囲の背景クラッタ128からの分離を行い、それによって半径方向探索経路126に沿った関連するエッジ点124を位置同定するように、それに沿った第1または第2のステレオ画像成分40.1または40.2の関連する画像ピクセル100が、エッジ保存平滑(EPS)フィルタ132’でフィルタリングされる。例えば、一組の実施態様において、エッジ保護平滑化(EPS)フィルタ132’は、物体50の境界と関連するエッジ点124を保存しながら、物体内変動の除去を行う、さらに詳細に以下に記述される、最大均質近隣(MHN)フィルタ132を含む。
次いで、ステップ(1224)から、レンジ・キュー式物体検出プロセス1200のステップ(1218)が、すべての極探索方向θが探索されて、結果として処理されている関心領域(ROI)114に関連する物体50の図心115からエッジ点124までの半径方向距離の、エッジプロフィールベクトル124’’が得られるまで、それぞれの別の極探索方向θに対して繰り返される。物体50のエッジプロフィール124’は、物体50のシルエットを近似するように、関連するエッジプロフィールベクトル124’’に格納されている、それぞれの関連する半径方向探索経路126からの隣接するエッジ点124を接続することによって形成され、その近似は、それぞれ30個と45個の半径方向探索経路126に対して、図24bと25bの比較によって示されるように、半径方向探索経路126の数の増加、および関連するエッジプロフィールベクトル124’’の対応する要素の数とともに向上する。
ステップ(1218)、(1220)および(1224)に関連する半径方向探索は、標準的な極探索方向θに限定されるものではなく、代替的に、図心116における、または以下でさらに詳細に記述するように、関連する相対的中心位置116における、関連する半径方向探索シード123に対して、全体的に外側向き方向とすることもできることを理解すべきである。例えば、この探索は、対応するエッジ点124が発見されるまで、または所定の反復数の後に探索が終了するまで、相対的中心位置116から外側にランダムに進行させることもできる。例えば、関連する探索経路に沿った、連続する画像ピクセル100を、1つまたは2つ以上の画像ピクセル100だけ、行を増分または減分させることによって、あるいは1つまたは2つ以上の画像ピクセル100だけ列を増分または減分させることによるか、あるいはその両方によって、発見することも可能であり、その場合に、行と列は互いに独立に変更または維持される。
ステップ(1226)において、一組の実施態様においては、エッジプロフィールベクトル124’’の各要素が、関連するモノ画像ジオメトリにおける、関連するi番目の物体50を検出するように、図心中心極座標から、第1または第2のステレオ画像成分40.1または40.2の一方の画像座標(XCOL(i,m),YROW(i,m))、すなわちモノ画像ジオメトリに、以下のように、変換される:
および
または、M個の等角度に間隔を空けられた極性ベクトル126’に対して、以下のとおりであり、
および
但し、mは0からMの範囲の探索インデックスであり、R(i,m)は、対応する図心116
から物体50の対応するエッジ点124への半径130によって与えられる、i番目の物体50に対する、エッジプロフィールベクトル124’’のm番目の要素である。例えば、一組の実施態様においては、変換された画像座標(XCOL(i,m),YROW(i,m))は、関連する変換されたエッジプロフィールベクトル124’’’に格納されている。
ステップ(1228)において、プロセスは、すべての関心領域(ROI)114が処理されてしまうまで、次の関心領域(ROI)114に対して、ステップ(1212)から(1226)を続ける。
次いで、またはステップ(1226)から、各物体50が処理されたあと、またはそのときに各物体50に対して、変換されたエッジプロフィールベクトル124’’’、またはエッジプロフィールベクトル124’’’および関連する図心116
、または対応する関連の検出物体134を表わす、関連するその要素が、ステップ(1230)において、例えば、参照により本明細書に組み入れられている、2008年9月29日付け出願の、「Vulnerable Road User Protection System」という題名の米国特許出願第11/658758号、または2011年11月16日付け出願の「Method of Identifying an Object in a Visual Scene」という題名の米国特許出願第13/286656号の教示によって、それによる分類のために、例えば、関連する物体区別システム92へと出力される。
例えば、図26を参照すると、モノ画像ベース物体検出プロセス2600が示されており、このプロセスは、上記のレンジ・キュー式物体検出プロセス1200のステップ(1212)、(1214)〜(1224)および(1228)の一実施態様を実証するとともに、対応するその図心116のその中での位置が与えられると、第1または第2のステレオ画像成分40.1または40.2の一方の中で関連する関心領域(ROI)114内の物体50、134の検出を行う。より具体的には、ステップ(2602)において、例えば、上記のステップ(1210)からの優先順位によって、第1の関心領域(ROI)114が選択される。次いで、ステップ(2604)において、選択された関心領域(ROI)114の図心116
が、例えば、上記ステップ(1214)から与えられるような、関連する第1または第2のステレオ画像成分40.1または40.2の画像座標系に対して識別される。
次いで、図27を参照すると、ステップ(2606)において、関連する探索限界が、例えば、上記のステップ(1216)から与えられるように、例えば、関連する境界画定探索長方形136の対向する隅の座標
を求めるように、特定される。次いで、ステップ(1218)に対応する、ステップ(2608)において、第1の極探索方向θは、例えば、0度に選択され、ステップ(1220)に対応する、ステップ(2610)において、第1の画像ピクセル100が選択されてフィルタリングされ、関連する半径方向探索経路126、すなわち、例えば図心116
において、P(XCOL,YROW)に沿って探索される。
次いで、ステップ(1222)に対応するステップ(2612)において、選択された画像ピクセル100P(XCOL,YROW)が、最大均質近隣(MHN)フィルタ132を使用して、例えば、図28に示されている、関連する最大均質近隣(MHN)フィルタリングプロセス2800によって、フィルタリングされる。
より具体的には、図28を参照すると、ステップ(2802)において、最大均質近隣(MHN)フィルタリングプロセス2100は、フィルタリングしようとする、本明細書では座標
によって指定される、画像ピクセル100P(XCOL,YROW)の位置を受け取る。次いで、ステップ(2804)において、均質領域カウンタkが、例えば、1の値に初期化される。
ステップ(2806)において、画像ピクセル100
は、それぞれが、フィルタリングされている画像ピクセル100
の位置に対して、特定の所定の位置に複数の近隣画像ピクセル100の特定のサブセットを含む、複数の異なる均質領域138を用いてフィルタリングされ、この場合に、各均質領域138は、画像ピクセル100
のまわりに位置し、例えば、それによって一実施態様では、フィルタリングされている画像ピクセル100
は各均質領域138の中心140に位置しており、複数の近隣画像ピクセル100の特定のサブセットは、概して、その中心140に対して、それぞれの均質領域138内で半径方向の外向き方向にある。例えば、一実施態様において、各均質領域138は、フィルタリングされている画像ピクセル100
を中心とする、画像ピクセル100の5×5配列に広がる。
例えば、図29iを参照すると、特定の均質領域138を説明する目的で、例えば、その内部の各位置は、対応する均質領域138の中心140に対する、その位置を指す、相対座標(i,j)によって識別される。各均質領域138は、複数のNアクティブ要素142を含み、それらに対して、フィルタリングされている対応する画像ピクセル100の値が加算されて、その特定の均質領域138に対して、関連のフィルタリングプロセス中に、関連する中間加算結果を生成する
したがって、所与の均質領域138kに対して、F(i,j)で識別される、関連する均質領域138が、関連するアクティブ要素142にそれぞれに対して、1の値、その他の場所では0の値を有する場合には、かつフィルタリングされている画像ピクセル100の位置に相対的な位置における画像ピクセル100の対応する値が、P(i,j)によって与えられ、ここでP(0,0)がフィルタリングされている画像ピクセル100に対応する場合には、列IMINからIMAXおよび行JMINからJMAXに広がる均質領域138に対して、対応する関連の偏差Dは次式で与えられ:
この式は次のように簡略化することができ、
ここで、Pは、フィルタリングされている画像ピクセル100の値であり、Pは、合計N個のアクティブ要素142がそれに対して存在する、関連する均質領域138のn番目のアクティブ要素142に対応する、近隣画像ピクセル100の値である。
代替的に、ステップ(2806)に対して図28に示されているように、偏差Dは、関連する画像ピクセル100の絶対座標に対して、次のように表わすことができる:
ここで、
および
は、k番目の均質領域138のn番目のアクティブ要素142の相対的位置、すなわちアクティブ要素142F(i,j)のそれぞれの座標(i,j)であり、その結果として、図29iの図解より、
および
である。
例えば、図29aは、名目上、X軸144から135度の上左方向において選択された画像ピクセル100に作用するように、位置(−2,2)、(−1,0)、(−1,1)および(0,1)にアクティブ要素142を有する第1の均質領域138を示し;図29bは、名目上、X軸144から90度の上方向において選択された画像ピクセル100に作用するように、位置(0,2)、(−1,0)、(0,1)および(1,0)にアクティブ要素142を有する第2の均質領域138を示し;図29cは、名目上、X軸144から45度の上右方向において選択された画像ピクセル100に作用するように、位置(2,2)、(0,1)、(1,1)および(1,0)にアクティブ要素142を有する第3の均質領域138を示し;図29dは、名目上、X軸144から−135度の下左方向において選択された画像ピクセル100に作用するように、位置(−2,−2)、(−1,0)、(−1,−1)および(0,−1)にアクティブ要素142を有する第4の均質領域138を示し;
図29eは、名目上、X軸144から−90度の下方向において選択された画像ピクセル100に作用するように、位置(0,−2)、(−1,0)、(0,−1)および(1,0)にアクティブ要素142を有する第5の均質領域138を示し;図29fは、名目上、X軸144から−45度の下右方向において選択された画像ピクセル100に作用するように、位置(2,−2)、(0,−1)、(1,−1)および(1,0)にアクティブ要素142を有する第6の均質領域138を示し;図29gは、名目上、X軸144から180度の左方向において選択された画像ピクセル100に作用するように、位置(−2,0)、(0,−1)、(−1,0)および(0,1)にアクティブ要素142を有する第7の均質領域138を示し;図29hは、名目上、X軸144から0度の右方向において選択された画像ピクセル100に作用するように、位置(2,0)、(0,1)、(1,0)および(0,−1)にアクティブ要素142を有する第8の均質領域138を示し、ここで各均質領域138に関連する特定の画像ピクセル100は、図29jの凡例で識別される。
ステップ(2806)における偏差Dの計算に続いて、ステップ(2808)において、関連する均質領域カウンタkが1の値を有する、最大均質近隣(MHN)フィルタリングプロセス2800の第1のループの間に、またはその後にステップ(2810)から、k番目の均質領域138に対する偏差Dの値が、先に記憶された最小偏差値DMIN未満である場合には、ステップ(2812)において、最小偏差値DMINが偏差Dの現在計算値に等しく設定され、関連する最小偏差インデックスkMINは、均質領域カウンタkの現在値に等しく設定される。次いで、ステップ(2814)において、均質領域カウンタkの現在値が、均質領域138の第NRegions未満である場合には、均質領域カウンタkはステップ(2816)において増分され、最大均質近隣(MHN)フィルタリングプロセス2800は、次の均質領域138に対してステップ(2806)〜(2814)を続ける。
そうではなく、ステップ(2814)から、偏差Dが計算されて、NRegions個の均質領域138のそれぞれに対して処理された後に、ステップ(2818)において、一実施態様では、フィルタリングされている画像ピクセル100
が、最小偏差
を有する均質領域138の近隣画像ピクセル100の平均値で置き換えられる。アクティブ要素142の数Nが、2のべき乗に等しい場合には、ステップ(2818)におけるNによる除算は、比較的に高速のNビットの2値右シフトによって実装することができる。
代替的に、ステップ(2818)の別の実施態様においては、フィルタリングされている画像ピクセル100
は、最小偏差
を有する均質領域138の近隣画像ピクセル100の値の中央値で置き換えられ、平均値は一般的に中央値よりもより迅速に演算することができるが、この中央値は対応する平均値と比較してより頑強である。
一実施態様において、最大均質近隣(MHN)フィルタリングプロセス2800は、フィルタリングされている画像ピクセル100
に対して、上左方向、上方向、上右方向、下左方向、下方向、および下右方向の選択された画像ピクセル100に作用するように、図29a〜29fに示されているNRegions=6の均質領域138を、アクティブ要素142とまとめて使用し、この場合に、左方向および右方向と比較して、上方向および下方向は、最大均質近隣(MHN)フィルタリングプロセス2800のいくつかの実施態様において、図29gおよび29hに示されている均質領域138の必要性を排除するように、実世界物体50間での明確な特異性が得られることが観察されている。
一般的に、最大均質近隣(MHN)フィルタ132は、ローパスフィルタと同様に動作する。例えば、最大均質近隣(MHN)フィルタ132の動作は図30〜32に示されており、図30は、画像146を示しており、これに対して、図30に対して2倍の倍率で、図31に示されている、その画像の一部分146.1が、図32に示されている、対応するフィルタリングされた画像部分146.1’を生成するように、NRegions=6の均質領域138を用いて、ピクセル毎に、上記の最大均質近隣(MHN)フィルタリングプロセス2800でフィルタリングされ、これらの内の後者は、元の画像部分146.1と比較して、局所輝度において実質的に低い変分を示すが、鮮明なエッジが保存されている。
それぞれ図28および26に戻ると、最大均質近隣(MHN)フィルタリングプロセス2800のステップ(2820)において、フィルタリングされた画像ピクセル100
は、モノ画像ベース物体検出プロセス2600のステップ(2612)に戻され、その後に、ステップ(2614)において、所与の極性ベクトル126’と関連する、このフィルタリングされた画像ピクセル100
が、同じ極性ベクトル126’の先に戻された値の観点で解析されて、現行のフィルタリングされた画像ピクセル100
が、関連する物体50のエッジ点124であるかどうかが判定される。所与の極性ベクトル126’に沿ったエッジ点124を発見する基準は、主として、前景領域と背景領域の間の微分輝度に基づいている。最大均質近隣(MHN)フィルタリングプロセス2800は、以下により詳細に説明するように、物体50の実際の境界と関連する、各半径方向探索経路126に沿って、対応するエッジ点124をより正確に特定するように、内部エッジの抑制を行う。
ステップ(2614)から、エッジ点124が発見されない場合には、一実施態様によれば、半径方向探索経路126に沿ってフィルタリングしようとする、次の画像ピクセル100が、ステップ(2616)〜(2626)によって、以下のように位置特定される:
図27を再び参照すると、ステップ(2616)において、(画像ピクセル100の行がそれに平行である)X軸144から測定される、極探索方向θの角度の絶対値が、π/4から3π/4ラジアンの間でない場合には、その結果として、関連する半径方向探索経路126は、境界画定探索長方形136内部の画像空間136’の第1の部分146に位置する場合には、半径方向探索経路126沿った次の画像ピクセル100が、関連する図心116からさらに遠い、半径方向探索経路126に沿って次の列XCOL(i+1)へ、および半径方向探索経路126に沿って対応する行YROW(i+1)へと進められる。
より具体的には、ステップ(2618)において、次の列XCOL(i+1)は、現在列XCOL(i)に(θ+π/2)の符号を加えることによって与えられ、ステップ(2620)において、次のYROW(i+1)は次式で与えられる:
この式は、整数値結果を得るために、有効に丸めて次式を得ることができる:
そうではなく、ステップ(2616)において、極探索方向θの角度の絶対値がπ/4と3π/4の間であり、その結果として、関連する半径方向探索経路126が、境界画定探索長方形136内の画像空間136’の第2の部分148内に位置する場合には、半径方向探索経路126に沿った次の画像ピクセル100が、関連する図心116からさらに遠い、半径方向探索経路126に沿って次の行YROW(i+1)へ、および半径方向探索経路126に沿った対応する列XCOL(i+1)へと進められる。より具体的には、ステップ(2622)において、次の行YROW(i+1)は、θの符号を現在行YROW(i)に加えることによって与えられ、ステップ(2624)において、次の列XCOL(i+1)は次式で与えられる:
この式は、整数値結果をえるために、有効に丸めて次式を得ることができる:
次いで、ステップ(2626)において、次の画像ピクセル100の位置(XCOL(i+1),YROW(i+1))が境界画定探索長方形136の外側でない場合には、モノ画像ベース物体検出プロセス2600は、次の画像ピクセル100について、ステップ(2612)〜(2626)を続ける。したがって、半径方向探索経路126に沿ったエッジ点124が、境界画定探索長方形136内に発見されない場合には、その特定の半径方向探索経路126は廃棄されて、例えば、関連するヌル値を用いて、関連するエッジ点124が欠落または未確定として指示される。
そうでなければ、ステップ(2628)において、すべての極探索方向θが探索されなかった場合には、ステップ(2630)において、極探索方向θが、次の半径方向探索経路126に増分され、モノ画像ベース物体検出プロセス2600は、次の極探索方向θについて、ステップ(2610)〜(2626)を続ける。そうではなく、ステップ(2632)において、すべての関心領域(ROI)114が処理されていない場合には、ステップ(2634)において、次の関心領域(ROI)114が選択されて、モノ画像ベース物体検出プロセス2600は、次の関心領域(ROI)114についてステップ(2604)〜(2626)を続ける。そうではなく、ステップ(2632)から、すべての関心領域(ROI)114が処理されているか、または代替的に、ステップ(2628)から、各関心領域(ROI)114が処理されているので、ステップ(2636)において、関連するエッジプロフィールベクトル124’’またはエッジプロフィールベクトル(複数)124’’が、関連する物体区別システム92によってその区別を行うように、検出物体(複数可)134として戻される。
例えば、図33a〜33ssは、それぞれが対応する半径方向探索経路126に沿った画像ピクセル100の値を含む、図25aに示されている物体50に対する複数の45本の極性ベクトル126’を示しており、これらは、図25bに示されている関連するエッジプロフィール124’を検出するのに使用され、その後者は、関連する検出物体134の表現を提供する、関連するエッジプロフィールベクトル124’’/変換エッジプロフィールベクトル124’’’として格納されている。
図34を参照すると、0から44の番号で識別された、45の関連する半径方向探索経路126に対するエッジ点124が、関連する車両物体50’に対して示されており、各半径方向探索経路126は図心116から始まり、図34において白色点で識別された各エッジ点124は、それから距離Rにある。図35a〜cを参照すると、各関心領域(ROI)114は、4つの象限150.1、150.2、150.3および150.4に分割され、特定のエッジ点124を検出するための条件は、エッジ点124がその中に位置している、対応する象限150.1、150.2、150.3および150.4に依存する。
図35aを参照すると、315度から45度まで、および135度から225度までそれぞれ広がる、第1象限150.1および第3象限150.3に対して、これらの象限内では、対象車両物体50’は、関連する画像90内で、典型的には、背景領域または隣接する物体に移行し、エッジ点124に関連する移行は、典型的には、関連する画像ピクセル100の振幅における相対的に大きいシフトが特徴である。関係する図心116に相対的に近い、相対的に小さい振幅のシフトは、典型的には、対象車両物体50’内の内部構造(複数可)に対応し、その内部構造(複数可)は、最大均質近隣(MHN)フィルタ132によって実質的に消去または減衰させられる。例えば、図36a〜cおよび図36g〜iは、関連する極性ベクトル126’、および図34において、それぞれ0度、8度、16度、176度、184度および192度の角度における、それぞれ0、1、2、22、23および24として識別されている、関連するエッジ点124の位置を示している。
図35bを参照すると、45度から135度まで広がる、第2象限150.2に対して、その中では対象車両物体50’が関連する画像90内の背景領域に典型的には移行し、エッジ点124に関連する移行は、典型的には、関連する画像ピクセル100の振幅におけるシフトと、その関連する背景領域内のその振幅における連続した比較的低い変動とが特徴である。例えば、図36d〜fは、関連する極性ベクトル126’、および図34において、それぞれ88度、96度および104度の角度における、それぞれ11、12および13で識別されている、半径方向探索経路126に対する、関連するエッジ点124の位置を示す。
図35cを参照すると、その中では対象車両物体50’が、典型的には関連する画像90内の地面99または道路99’に移行する、225度から315度まで広がる、第4象限150.4に対しては、エッジ点124に関連する移行は、典型的には、関連する画像ピクセル100の振幅におけるシフトと、地面99または道路99’に対応して、その振幅において継続する比較的に低い変動とを特徴とする。例えば、図36j〜lは、図34において、それぞれ256度、264度および272度の角度において、それぞれ32、33および34で識別されている、半径方向探索経路126に対する、関連する極性ベクトル126’、および関連するエッジ点124の位置を示している。
図37を参照すると、車両物体50’が垂れかかる樹木の影の中にあることにより生じる、それに沿った関連する車両物体50’の境界の対応する位置における曖昧さが理由で、それぞれ344度、352度および0度の角において、その中でそれぞれ43、44および0で識別されている、半径方向探索経路126に沿った探索は、関連するエッジ点124を発見することなく、関連する境界画定探索長方形136の関連する境界において、それぞれ終了しており、その結果として、関連する画像ピクセル100の振幅における関連する変分が、関連するエッジ点124の検出を行うには緩慢すぎる。この状況において、環境照明条件が原因で生じる情報の喪失は、一時的、例えば、数フレームだけ続く。図38aおよび38bは、図30において、それぞれ184度および344度の角度において、それぞれ23および43で識別されている半径方向探索経路126に対する、関連する極性ベクトル126’を示しており、この場合に、図38aに示されている半径方向探索経路126に対して、対応する関連の半径方向探索は、対応するエッジ点124において正常に終了したのに対して、図38bに示されている半径方向探索経路126に対しては、対応する関連の半径方向探索は、対応するエッジ点124を発見できなかった。
より具体的には、図39および40を参照すると、エッジ点124を検出するプロセスが、図34において1で識別されている半径方向探索経路126に対する極性ベクトル126’について示されており、この場合に、図36bに対応する、図39は、関連する極性ベクトル126’を示し、図40は、以下にさらに詳細に記述する、フィルタリング前および後の、空間導関数のプロットを示している。一般に、所与の極性ベクトル126’に沿ったエッジ点124の位置は、すべての場合に、半径方向探索経路126に沿った半径方向距離についての、その振幅における比較的大きな変化によって識別され、場合によっては、振幅における比較的大きい変化の位置から半径方向にさらに離れた、極性ベクトル126’の相対的遠位部分内での、比較的低い変動が続いて確認される。
一実施態様によれば、例えば、Sで識別されて、複数の要素Sを含む所与の極性ベクトル126’に対して、Sに沿った比較的大きい振幅シフト152が、最初にそれの空間1次導関数154、すなわちS’、例えば以下の式:
によって与えられる、中心1次導関数を計算することによって位置特定される。
次いで、この空間1次導関数154、S’、は、対応するフィルタリングされた空間1次導関数156、すなわち、
が生成されるように、ローパス、ゼロ位相シフトフィルタ、例えばSavitzky−Golay平滑化フィルタを用いて、例えば、参照により本明細書に組み込まれている、William H. PRESS、Brian P. FLANNERY、Saul A. TEUKOLSKYおよび William T. VETTERLING、「NUMERICAL RECIPES IN C: THE ART OF SCIENTIFIC COMPUTING」、(ISBN 0-521-43108-5), Cambridge University Press, 1988-1992, pp. 650-655に記載されている方法によって、フィルタリングされる。
より具体的には、
但し、nおよびnは、フィルタリングされた値
を計算するのに使用される、フィルタリングされた値
の位置特定の前および後の
の要素数であり、関連する係数cは次式で与えられ:
ここで、Mはフィルタの所望の次数、すなわち、データを近似する関連する基礎となる多項式の次数であり、その最高保存次数を表わすとともに、その他は以下のとおりである。
例えば、一実施態様において、フィルタ次数Mは4に等しく設定され、関連する移動ウィンドウの対称幅は6、すなわちn=6およびn=6であり、結果として、式(24)から以下の関連するフィルタ係数が得られる:
c = {0.04525, -0.08145, -0.05553, 0.04525, 0.16043, 0.24681,
0.27849, 0.24681, 0.16043, 0.04525, -0.05553, -0.08145, 0.04525} (26)
次いで、特定の半径方向探索経路126に沿った、相対的に大きい振幅シフト152の位置が、図心116への最近接位置k(すなわち、kの最小値)として識別され、これに対して、フィルタリングされた空間1次導関数156、
の絶対値、すなわち
が閾値、例えば、閾値10を超える:
この位置は、フィルタリングされた空間1次導関数156、
を半径方向外側に、例えば、k=0から始まり、kの値を増大させて探索して、式(27)を満足する第1の位置kを発見することによって求められる。一般に、対応するエッジ点124よりも図心116に相対的に近接する、振幅における相対的に小さい変化は、関連する物体50の対応する画像構造と関連している。次いで、結果として得られるエッジインデックスkEdgeが保存されて、対応するエッジ点124を識別するのに使用され、例えば、関連するエッジプロフィールベクトル124’’に保存されるか、またはそれから、関連の対応する半径方向距離Rを特定して、関連するエッジプロフィールベクトル124’’に保存することができる。次いで、このプロセスが、関連するエッジプロフィールベクトル124’’を定義するように、各半径方向探索経路126に関連する、各極性ベクトル126’、Sに対して繰り返される。
代替的に、式(22)におけるように1次空間導関数を明示的に計算し、次いでこれを上記のSavitzky−Golay平滑化フィルタの上記の平滑化変形形態でフィルタリングするのではなく、Savitzky−Golay平滑化フィルタを、代替的に例えば、インパルス応答列を有する半径方向プロフィールのコンボルーションをもたらすように、「NUMERICAL RECIPES IN C: THE ART OF SCIENTIFIC COMPUTING」から組み込まれている主題において与えられるアルゴリズムにおいて、ld=1のパラメータ値を用いて、極性ベクトル126’、Sのデータから直接的に平滑化された1次空間導関数を生成するように構成してもよい。しかしながら、例えば、式(22)を使用する、空間1次導関数154、S’は、関連する方法、例えば、式(22)におけるような中心差分、左差分、右差分、2次中心差分、またはその他の方法の選択を与える。さらに、代替的に、Savitzky−Golay平滑化フィルタの代わりに、その他の種類のローパスフィルタも使用することもできる。
上述のように、第2象限150.2および第4象限150.4について、関連するエッジ点124の識別は、関連するエッジ点124の位置を超えて物体50に当接する関連する背景領域および地面99領域において、例えば、以下の方法によって、極性ベクトル126’、Sの振幅における相対的に低い変動を検出することにも依存する:
予期されるエッジ点124を発見すると、フィルタリングされた空間1次導関数156、
が、次式
で与えられる、対応するゼロ交差インデックスkZeroを有する、ゼロ交差158の最初の発生位置を特定するために、さらに半径方向外側について、すなわちエッジインデックスkEdgeよりも大きいkの増大する値について、例えば、kEdge+1から開始して、探索される。
次いで、ゼロ交差インデックスkZeroと等しいインデックスkで開始して、対応する加重前方移動平均Vが次式によって計算される:
ここで、関連する加重ベクトルwgtは、次式で与えられる:
wgt={0.35,0.25,0.20,0.10,0.10} (30)
加重前方移動平均Vの値が閾値よりも小さい場合、例えば、V<5の場合には、インデックスkは増分されて、この試験が繰り返され、加重前方移動平均Vの値が閾値未満である限り、極性ベクトル126’、Sの残りの相対的遠位部分160に対して、プロセスは繰り返される。インデックスkの任意の値に対して、加重前方移動平均Vの値が、閾以上であれば、探索は終了されて、関連する半径方向探索経路126の対応するエッジ点124は、不確定としてマーキングされる。そうではなく、半径方向探索経路126に沿った極性ベクトル126’、Sの残りの点に対して、加重前方移動平均Vのすべての値が閾未満である場合には、結果として得られるエッジ点124は、先に求められた対応するエッジインデックスkEdgeから与えられる。
図41aから図41dを参照すると、レンジ・キュー式物体検出プロセス1200は、関連するレンジマップ画像80だけからの情報の使用に限定された検出と比較して、物体のエッジプロフィール124’のより頑強で正確な検出をもたらす。例えば、図41aから41cは、例えば、それぞれの全文を参照により本明細書に組み入れてある、2004年7月26日付出願の米国特許仮出願第60/591564号の利益を主張する、2005年7月26日付出願の国際出願第PCT/US05/26518号に基づいて、2007年1月26日付出願の米国特許出願第11/658758号に開示されているプロセスによって、レンジマップ画像80だけから特定された車両物体50’の第1のエッジプロフィール124’を示す。比較として、図41bおよび41dは、上述のレンジ・キュー式物体検出プロセス1200を使用して求められた、車両物体50’の対応する第2のエッジプロフィール124’を示しており、図41bにおける第1および第2のエッジプロフィール124’および124’の比較により、後者は前者よりも車両物体50’に対して実質的により良好な忠実性を示していることがわかる。次に、この改善された忠実性は、下に存在する車両物体50’のより正確な区別をもたらす。
図42〜45を参照すると、レンジ・キュー式物体検出プロセス1200が、図43に示されているレンジマップ画像80を生成するように、図42に示される視覚シーン24に応用されており、このレンジマップ画像80から、ニアレンジ車両物体50’と関連する関心領域(ROI)114が、図42からの視覚シーン24の対応部分の上に重畳されて、図44に示されている、15本の半径方向探索経路126を使用して処理され、これから、図45に示されている対応するエッジプロフィール124’が検出されて、関連する検出物体134の区別または分類を行うように、関連する変換エッジプロフィールベクトル124’’’―または対応するエッジプロフィールベクトル124’’および関連する図心116位置―の形態で、物体区別システム92へと提供される。
第1の観点によれば、レンジ・キュー式物体検出システム10、10’は、両方のステレオ視カメラ38からの情報を使用して、関連するレンジマップ画像80を生成すること、および関連するステレオ視カメラ38の1つからの関連する第1または第2のステレオ視成分40.1または40.2を使用して物体を区別することの両方に、関連するステレオ視システム16、16’だけを使用する。
図46を参照すると、第2の観点によれば、レンジ・キュー式物体検出システム10、10’’は、レンジ・キュー式物体検出システム10、10’の第1の観点について上述したのと実質的に同じ機能を提供するように、ステレオ視システム16、16’または別個のカメラ164のいずれかと協働する、別個のレンジングシステム162を組み入れている。一組の実施態様においては、レンジングシステム162は、関連するレンジマップ画像80の特定を行う。次いで、レンジマップ画像80が、ステレオ視システム16、16’または別個のカメラ164のいずれかによって撮像される関連する視覚シーン24内の任意の物体50を検出して区別するように、第1のステレオ視カメラ38.1、38.1’または第2のステレオ視カメラ38.2、38.2’の一方の第1または第2のステレオ画像成分40.1または40.2のいずれかから、または、レンジ・キュー式物体検出システム10、10’の第1の観点について上述したような別個のカメラ164からのモノ画像166からの、関連するモノ画像166と協働して処理される。
別の組の実施態様においては、ステレオ視システム16、16’によって撮像される、関連する視覚シーン24内の任意の物体50を検出して区別するように、レンジ・キュー式物体検出システム10、10’の第1の観点について上述したように、第1のステレオ視カメラ38.1、38.1’または第2のステレオ視カメラ38.2、38.2’の一方の第1または第2のステレオ画像成分40.1または40.2と一緒に使用される、より頑強で正確な複合レンジマップ画像80が得られるように、ステレオ視システム16,16’からのレンジマップ画像80’が、センサフュージョンのプロセスを使用するレンジングシステム162から別個に生成されたレンジマップ画像80’’―または対応するレンジング情報―と組み合わされる。
例えば、一組の実施態様において、レンジングシステム162は、その視野84.3内の物体50のダウンレンジおよびクロスレンジの測定値の組合せをもたらす、レーダーまたはライダー(lidar)のいずれかを含む。一組の実施態様において、ホスト車両12および物体50が、地面99に対して、互いに整列されているときには、平面レーダーまたは平面ライダーのいずれかで十分である。ホスト車両12と同一面にない物体50は、仰角φの対応する範囲内で物体50の検出を行うように、約4度の垂直分散を有する平面レーダーのいくつかの実施態様によって、少なくともある程度まで収容することができる。いくつかの平面ライダーシステムは、垂直分散が実質的にわずかであるか、皆無である。平面レーダーまたは平面ライダーを使用するときに、より大きい仰角φの範囲を、個々の平面レーダーまたは平面ライダーを垂直に積み重ねるか、または関連する電磁エネルギーのビームの走査を行うかのいずれかによって、達成することができる。
セグメント化されたレンジマップ画像80、80’’から求められた、図心116位置を、第1のステレオ視カメラ38.1、38.1’、または第2のステレオ視カメラ38.2、38.2’の一方の第1または第2のステレオ画像成分40.1または40.2のいずれか、または別個のカメラ164からのモノ画像166における対応する位置へ変換するように、レンジングシステム162からのレンジマップ画像80、80’’は、第1のステレオ視カメラ38.1、38.1’、または第2のステレオ視カメラ38.2、38.2’の一方の第1または第2のステレオ画像成分40.1または40.2のいずれか、または別個のカメラ164からのモノ画像166と相互位置合わせされている(co-registered)。
本明細書において使用されるときには、図心116という用語は、全体を通して、関連する関心領域114の関連する2次元レンジビン108の集合に対する相対的中心位置116として解釈することを意図しており、相対的中心位置116は、相対的中心位置116に対して生成された関連するエッジプロフィールベクトル124’’から、関連する物体50の区別を行うのに十分である。例えば、式(5.1)および(6.1)または(5.2)および(6.2)によって計算される、標準的図心116に加えて、代替的に、相対的中心位置116は、関連する2次元レンジビン108の関連するクロスレンジ距離CRおよびダウンレンジ距離DRの対応する中央値、または関連する2次元レンジビン108の関連する最大および最小のクロスレンジ距離CRおよびダウンレンジ距離DRの平均値、または関連する2次元レンジビン108に応じて変わるか、関連する2次元名目クラスタリングビン113に応じて変わるか、または対応する1次元クロスレンジクラスタリングビン121’および1次元ダウンレンジクラスタリングビン121’’から識別される2次元名目クラスタリングビンに応じて変わる、その他の尺度、によって与えることもできる。より一般的には、相対的中心位置116という用語は、本明細書においては、関連する物体50、50’の境界内に位置する、オンターゲットシード点を意味することを意図している。
さらに、相対的中心位置116は、関連するレンジ・キュー式物体検出プロセス1200の段階に対して異なってもよい。例えば、ステップ(1518)において計算されて、関連する2次元レンジビン108をトップダウン空間102にクラスタリングする目的で、関連するクラスタリングプロセス1500のステップ(1528)において使用され、場合よっては更新される、相対的中心位置116は、ステップ(1208)またはステップ(1214)におけるか、またはその両方において、異なる計量基準(metric)を用いて再計算することも可能であり、その後者からの値は、レンジ・キュー式物体検出プロセス1200のステップ(1220)において使用される。例えば、ステップ(1518)、(1528)および(1208)から、相対的中心位置116が、標準的な図心116ではない場合には、対応する標準的図心116を、対応する関連のレンジビン108から画像空間136’に対して、ステップ(1214)において計算することも可能である。
したがって、レンジ・キュー式物体検出システム10は、関連するレンジマップ画像80からだけでは検出可能ではない場合がある物体50の検出を行う。レンジ・キュー式物体検出システム10を、関連するニアレンジ車両物体50’を検出するための、車両12の環境において示してきたにもかかわらず、レンジ・キュー式物体検出システム10は、一般的に、このような環境、またはいかなる特定の用途にも限定されることはなく、そうではなく、関連するレンジマップ画像80だけにおいては分解不能である場合があるが、それに対して、第1または第2のステレオ視カメラ38.1、38.1’または38.2、38.2’の一方の第1または第2のステレオ画像成分40.1または40.2から、または別個のカメラ164からのモノ画像166から、関連するエッジプロフィール124’の検出を行うように、十分な輝度変分がある、物体50、50’の検出を容易化するように、相互位置合わせされたモノイメージングシステム、例えば、ステレオ視カメラ38の一方または別個のカメラ164、と組み合わせたレンジジングシステム152またはステレオ視システム16の任意の組合せと協働して使用することもできることを理解すべきである。
ステレオ視システム16が組み入れられたレンジ・キュー式物体検出システム10に対して、ステレオ視プロセッサ78、画像プロセッサ86、物体検出システム88および物体区別システム92が別個の処理ブロックとして説明してきたのにもかかわらず、これらのブロックの任意の2つ以上は、共通プロセッサで実装してもよいこと、およびプロセッサの具体的な種類は非限定であることを理解すべきである。さらに、レンジ・キュー式物体検出システム10は、レンジマップ画像80が、関連する第1または第2のステレオ画像成分40.1または40.2からそれによって生成されるプロセスに関して、非限定であることを理解すべきである。
レンジマップ画像80および関連するその処理は、ダウンレジン距離DRおよびクロスレンジ距離CR以外の座標についても可能であることを理解すべきである。より一般的には、レンジマップ画像80および関連するその処理は、第1および第2の座標についてのものとすることが可能であり、第1の座標は、視覚シーンのダウンレンジ座標に対応するか、またはそれと関係しており、第2の座標は、視覚シーンのクロスレンジ座標に対応するか、またはそれと関係している。例えば、代替的な組の実施態様において、第1の座標は、レンジまたは関連する飛行時間(time-of-flight)とすることも可能であり、第2の座標は、例えば、レーダーまたはライダーレンジングシステム162から得られるような、対応する方位角とすることもできる。関連するクラスタリングプロセス1500は、第1および第2の座標の対応する空間に対して実行するか、または第1および第2の座標をダウンレンジ距離DRおよびクロスレンジ距離CRの空間に変換することによって、またはその後に実行することもできる。代替的に、ダウンレンジおよびクロスレンジの空間から、またはそれに変換可能な、その他の座標系を使用してもよい。
本明細書において示される画像90、および図27に示されている関連するピクセル空間は、関連する視覚シーン24を表わすように、ステレオ視カメラ38の対応する焦点面48.1,48.2のそれに対して、反転されていることを理解すべきである。したがって、ピクセル空間における運動の実際の方向は、対応する視覚シーン24の空間における方向と反対となる。例えば、実際の焦点面画像(複数可)と関連する、画像ピクセル100またはレンジピクセル81のいずれかの行および列の両方を減分させることは、対応する視覚シーン24において+45度の方向における運動に対応し;実際の焦点面画像(複数可)と関連する、画像ピクセル100またはレンジピクセル81のいずれかの行および列の両方を増分させることは、対応する視覚シーン24において−135度の方向における運動に対応し;実際の焦点面画像(複数可)と関連する、画像ピクセル100またはレンジピクセル81のいずれかの行を増分させるとともに、列を減分させることは、対応する視覚シーン24において−45度の方向における運動に対応し;実際の焦点面画像(複数可)と関連する、画像ピクセル100またはレンジピクセル81のいずれかの、行を減分させるとともに列を増分させることは、対応する視覚シーン24において+135度の方向における運動に対応する。
特定の実施態様を前記の詳細な説明において詳細に記述し、添付の図面において図示したが、当業者は、本開示の全体的教示に照らせば、それらの詳細に対する様々な修正形態および代替形態を展開することができることを理解するであろう。本明細書において、「または(or)」という語への言及は、「包含的or」、または「論理的OR」と呼ばれるものを意味することを意図しており、論理ステートメントとして使用される場合には、「AまたはB」の表現は、AまたはBのいずれかが真であるか、またはAおよびBの両方が真であれば、真であり、要素のリストとして使用される場合には、「A、BまたはC」という表現は、その表現の中に記載された要素のすべての組合せ、例えば、A、B、C、(A、B)、(A、C)、(B、C)、および(A、B、C)からなる群から選択される要素のいずれか、および追加の要素が列挙される場合にはその他、を包含することを意図していると理解すべきである。
さらに、不定冠詞「a」または「an」、および対応する関連の定冠詞「the」または「said」は、そうではないことが言明もしくは示唆されるか、または物理的に不可能でない限り、それぞれ、1つまたは2つ以上を意味することを意図していると理解すべきである。さらに、「AおよびBの少なくとも一方、その他」、「AまたはBの少なくとも一方、その他」、「AおよびB、その他から選択された」、または「AまたはB、その他から選択された」は、それぞれ、記載されたいずれかの要素を個別に、または2つ以上の要素の任意の組合せ、例えば、「A」、「B」、および「AとBを合わせて(A AND B together)」、その他からなる群からの要素のいずれかを意味することを意図していると理解すべきである。さらに、「AおよびBの一方、その他」および「AまたはBの一方、その他」という表現は、記載された要素のいずれかを個別かつ単独に、例えば、A単独またはB単独のいずれか、その他を意味するが、「AとBを合わせて(A AND B together)」を意味しないことを意図していると理解すべきである。さらに、そうではないことが指示されない限り、または物理的に不可能でない限り、上記の実施態様および観点は、互いに組み合わせて用いることができるとともに、互いに排他的ではない。したがって、開示された特定の配設は、実証目的だけであることを意味しており、本発明の範囲を限定するものではなく、本発明の範囲には、添付の特許請求の範囲、およびそのあらゆる均等物の全幅が与えられるべきである。

Claims (59)

  1. 視覚シーンの画像を処理する方法であって、
    a.視覚シーンのレンジマップ画像を受け取るか、または特定すること、但し、前記レンジマップ画像は、第1の複数の点を含み、該第1の複数の点の内の各点は、前記視覚シーン内の対応する物理的要素の対応する部分の第1の座標と第2の座標を含み、前記第1の座標は、前記視覚シーンのダウンレンジ座標に対応するか、または関係しており、前記第2の座標は、前記視覚シーンのクロスレンジ座標に対応するか、または関係している;
    b.前記視覚シーン内で少なくとも1つの関心領域を特定すること、但し、該少なくとも1つの関心領域は、対応する距離閾に応じた第1および第2の座標の空間における距離に対してクラスタリングされた、第2の複数の前記点を含み、前記第2の複数は、数において前記第1の複数以下であり、前記第1および第2の座標の空間は、ダウンレンジ座標およびクロスレンジ座標に対応するか、または関係している、
    c.前記少なくとも1つの関心領域の前記第2の複数の前記点の対応する相対的中心位置を特定すること、但し、前記相対的中心位置は、対応する第1の座標と対応する第2の座標を含み、前記対応する第1の座標は、前記視覚シーンの対応するダウンレンジ座標に対応するか、または関係しており、前記対応する第2の座標は、前記視覚シーンの対応するクロスレンジ座標に対応するか、または関係している、
    d.前記視覚シーンの画像を受け取ること、但し、前記画像は、列と行の配列として画像空間内に構成された第1の複数のピクセルを含み、該列と行の配列の各列は対応するX画像座標によって識別され、前記列と行の配列の各行は対応するY画像座標によって識別される、
    e.対応する前記X画像座標およびY画像座標に対する前記相対的中心位置の位置を特定すること、および
    f.対応する前記少なくとも1つの関心領域に関連する物体に対応する前記画像の部分の複数のエッジ点の位置を特定すること、但し、前記複数のエッジ点の各エッジ点は、前記相対的中心位置から対応する外向き方向に沿って延びる半径方向探索経路に沿った、前記物体の外部境界に対応しており、前記外部境界は、前記相対的中心位置に対して遠位であり、前記複数のエッジ点のそれぞれの前記エッジ点は、前記画像空間内の対応する座標を含むとともに、前記複数のエッジ点は、前記物体の区別を行う、
    を含む、前記方法。
  2. レンジマップ画像を受け取るか、または特定する動作が、
    g.前記視覚シーンの第1および第2のステレオ画像成分を受け取ること、および
    h.前記第1および第2のステレオ画像成分から前記レンジマップ画像を特定すること
    を含む、請求項1に記載の視覚シーンの画像を処理する方法。
  3. レンジマップ画像を、対応する第1および第2の座標を含むトップダウン座標系に変換することをさらに含み、前記対応する第1の座標は、視覚シーンの対応するダウンレンジ座標に対応するか、または関係しており、前記対応する第2の座標は、前記視覚シーンの対応するクロスレンジ座標に対応するか、または関係している、請求項2に記載の視覚シーンの画像を処理する方法。
  4. レンジマップ画像を受け取るか、または特定する動作が、複数のレンジ測定値を、方位角またはクロスレンジ距離のいずれかの関数として受け取るか、または特定することを含む、請求項1に記載の視覚シーンの画像を処理する方法。
  5. 複数のレンジ測定値が、後方散乱電磁放射に応じて生成されるとともに、複数の異なる方位角に対して生成される、請求項4に記載の視覚シーンの画像を処理する方法。
  6. 後方散乱電磁放射がそれに応じて生成される電磁放射のビームを走査することに応じて、複数のレンジ測定値が生成される、請求項5に記載の視覚シーンの画像を処理する方法。
  7. 複数のレンジビンに対して、レンジマップ画像の第1の複数の点の内の点をビニングすることによって、ビニングされたレンジマップ画像データを生成することをさらに含み、前記複数のレンジビンの各レンジビンが、視覚シーンのダウンレンジ距離とクロスレンジ距離の両方に対してビニングされる、請求項1に記載の視覚シーンの画像を処理する方法。
  8. 視覚シーン内で少なくとも1つの関心領域を特定する動作が、ダウンレンジ距離およびクロスレンジ距離の座標に対する距離について、ビニングされたレンジ画像データをクラスタリングすることを含む、請求項7に記載の視覚シーンの画像を処理する方法。
  9. クロスレンジ距離の対応する複数のレンジに対して、複数の第1のヒストグラムビンに対する第1の複数の点の内の第1のカウントの点を含む、第1のヒストグラムを生成すること、および
    ダウンレンジ距離の対応する複数のレンジに対して、複数の第2のヒストグラムビンに対する第1の複数の点の内の第2のカウントの点を含む、第2のヒストグラムを生成することをさらに含む、請求項7に記載の視覚シーンの画像を処理する方法。
  10. 第1および第2のヒストグラムが、複数のレンジビンから生成され、前記複数のレンジビンの各レンジビンが、該レンジビンに関連する第1の複数の点の内のあるカウントの点を含む、請求項9に記載の視覚シーンの画像を処理する方法。
  11. 第2の複数の点が、少なくとも1つの2次元クラスタリングビンに対してクラスタリングされている、請求項10に記載の視覚シーンの画像を処理する方法。
  12. 少なくとも1つの2次元クラスタリングビンが、少なくとも1つの所定の2次元名目クラスタリングビンを含み、該少なくとも1つの所定の2次元名目クラスタリングビンは、1次元名目クロスレンジクラスタリングビンまたは1次元名目ダウンレンジクラスタリングビンの少なくとも一方に応じて配置される、請求項11に記載の視覚シーンの画像を処理する方法。
  13. 少なくとも1つの2次元クラスタリングビンが、第1のヒストグラムの局在ピークまたは第2のヒストグラムの局在ピークの少なくとも一方に応じて配置される、請求項11に記載の視覚シーンの画像を処理する方法。
  14. 少なくとも1つの2次元クラスタリングビンが、第1のヒストグラムの局在ピークまたは第2のヒストグラムの局在ピークの少なくとも一方を、実質的に中心としている、請求項13に記載の視覚シーンの画像を処理する方法。
  15. 少なくとも1つの2次元クラスタリングビンが、第1のヒストグラムの空間フィルタリングの空間1次導関数または第2のヒストグラムの空間フィルタリングの空間1次導関数の少なくとも一方に応じて配置される、請求項11に記載の視覚シーンの画像を処理する方法。
  16. 第2の複数の点の内の少なくとも1つの点が、少なくとも1つの2次元クラスタリングビンの、先にクラスタリングされた第2の複数の点の相対的中心位置までの距離に対してクラスタリングされる、請求項11に記載の視覚シーンの画像を処理する方法。
  17. 第2の複数の点がクラスタリングされる順序が、ダウンレンジ距離またはクロスレンジ距離の少なくとも一方に応じて決まる、請求項9に記載の視覚シーンの画像を処理する方法。
  18. 第2の複数の点がクラスタリングされる順序が、前記第2の複数の点に関連する物体との衝突の可能性に応じて決まる、請求項9に記載の視覚シーンの画像を処理する方法。
  19. 第1および第2のヒストグラムが、少なくとも1つの関心領域を特定するようにクラスタリングされる1つまたは2つ以上の追加の点を選択する前に、クラスタリングされている少なくとも1つの点を除去するように修正される、請求項9に記載の視覚シーンの画像を処理する方法。
  20. 第1および第2の座標の空間における距離に対してクラスタリングされる点を、前記第1および第2の座標の前記空間における領域に限定することをさらに含む、請求項1に記載の視覚シーンの画像を処理する方法。
  21. 領域のクロスレンジサイズまたは前記領域のダウンレンジサイズの少なくとも一方が事前設定されている、請求項20に記載の視覚シーンの画像を処理する方法。
  22. 領域のクロスレンジサイズまたは前記領域のダウンレンジサイズの少なくとも一方が、関連するダウンレンジ距離に応じて決まる、請求項20に記載の視覚シーンの画像を処理する方法。
  23. 領域のクロスレンジサイズまたは前記領域のダウンレンジサイズの少なくとも一方が、現時点または先行時点のいずれかにおける、関連する状況認識に応じて決まる、請求項20に記載の視覚シーンの画像を処理する方法。
  24. 少なくとも1つの関心領域に対して、第1および第2の座標の空間における距離に対して、クラスタリングされた第2の複数の点の、対応する少なくとも1つの群に対応する楕円プロフィールを求めることをさらに含む、請求項1に記載の視覚シーンの画像を処理する方法。
  25. 少なくとも1つの関心領域に対して、楕円プロフィールの長軸または短軸のいずれかの方位に応じて、前記少なくとも1つの関心領域に関連する物体の方位を特定することをさらに含む、請求項24に記載の視覚シーンの画像を処理する方法。
  26. 長軸の長さまたは短軸の長さのいずれかと、対応する閾との少なくとも1回の比較に応じて、少なくとも1つの関心領域に関連する物体を分類することをさらに含む、請求項25に記載の視覚シーンの画像を処理する方法。
  27. 画像空間における座標が、行と列のピクセル座標、または相対的中心位置に対して対応する極角と半径のいずれかを含む、請求項1に記載の視覚シーンの画像を処理する方法。
  28. 複数のエッジ点の位置を特定する動作が、相対的中心位置からの対応する複数の半径方向距離を特定するように、前記複数のエッジ点のそれぞれに対する相対的中心位置からの半径方向距離を特定することを含む、請求項1に記載の視覚シーンの画像を処理する方法。
  29. 相対的中心位置からの複数の半径方向距離を、画像空間における対応する複数の組の座標に変換することをさらに含む、請求項28に記載の視覚シーンの画像を処理する方法。
  30. 複数のエッジ点の位置を特定する動作が、画像空間内の領域に限定される、請求項1に記載の視覚シーンの画像を処理する方法。
  31. 画像空間内の領域の幅、前記画像空間内の前記領域の高さ、または前記画像空間内の前記領域の相対的中心位置からの最大半径方向距離の内の少なくとも1つが事前設定される、請求項30に記載の視覚シーンの画像を処理する方法。
  32. 画像空間内の領域の幅、前記画像空間内の前記領域の高さ、または前記画像空間内の前記領域の相対的中心位置からの最大半径方向距離の内の少なくとも1つが、前記相対的中心位置のダウンレンジ距離に応じて決まる、請求項30に記載の視覚シーンの画像を処理する方法。
  33. 画像空間内の領域の相対的中心位置からの最大半径方向距離が、外向き方向に応じて決まる、請求項30に記載の視覚シーンの画像を処理する方法。
  34. 画像空間内の領域の幅、前記画像空間内の前記領域の高さ、または前記画像空間内の前記領域の相対的中心位置からの最大半径方向距離の内の少なくとも1つが、現時点または先行時点のいずれかにおける、関連する状況認識に応じて決まる、請求項30に記載の視覚シーンの画像を処理する方法。
  35. 複数のエッジ点の位置を特定する動作が、
    a.複数の極探索方向の内の極探索方向、または対応する複数の半径方向探索経路の内の対応する半径方向探索経路を選択するか、または特定すること、
    b.前記対応する前記半径方向探索経路に沿って画像ピクセルを選択すること、但し、前記画像ピクセルを選択する動作は、処理しようとする選択画像ピクセルを提供する、
    c.前記選択された画像ピクセルが、前記半径方向探索経路に沿ったエッジ点を構成するか、どうかを判定すること、
    d.前記選択された画像ピクセルが、前記半径方向探索経路に沿った前記エッジ点を構成しない場合には、前記半径方向探索経路に沿った次の画像ピクセルを選択すること、但し、前記次の画像ピクセルは、前記半径方向探索経路に沿った、またはその近傍の前記選択された画像ピクセルの半径方向外側にある、および
    e.前記次の画像ピクセルで置換された前記選択された画像ピクセルに対してステップcおよびdを繰り返すこと
    を含む、請求項1に記載の視覚シーンの画像を処理する方法。
  36. 選択された画像ピクセルは、複数の選択された画像ピクセルの1つであり、複数のエッジ点の場所を特定する動作は、複数の前記選択された画像ピクセルの処理を行い、第1の前記選択された画像ピクセルは、相対的中心位置における、またはその最近傍の画像ピクセルを含む、請求項35に記載の視覚シーンの画像を処理する方法。
  37. 次の画像ピクセルは、選択された画像ピクセルに対して相対的中心位置から徐々に遠くなる、行または列の一方において選択され、前記次の画像ピクセルの前記行または列の他方は、対応する極探索方向に応じて半径方向探索経路に最も近接して追従するように選択される、請求項35に記載の視覚シーンの画像を処理する方法。
  38. 選択された画像ピクセルが、半径方向探索経路に沿ったエッジ点を構成するかどうかを判定する動作に先立って、エッジ保存平滑化フィルタで、前記選択された画像ピクセルをフィルタリングすることをさらに含む、請求項35に記載の視覚シーンの画像を処理する方法。
  39. エッジ保存平滑化フィルタは、関連する複数の均質領域を使用する、最大均質近隣フィルタを含み、前記関連する複数の均質領域のそれぞれの別の均質領域は、対応する別の極探索方向を中心とする対応する別の組の関連するアクティブピクセルを組み入れる、請求項38に記載の視覚シーンの画像を処理する方法。
  40. 対応する半径方向探索経路に沿った画像ピクセルが、複数の画像ピクセルの1つであって、
    a.対応する複数の空間導関数値を生成するように、半径方向探索経路に沿ったインデックスまたは距離について、前記複数の画像ピクセルを微分すること、および
    b.複数の空間導関数値の少なくとも1つの空間導関数値の絶対値の量に応じて、前記複数の画像ピクセル1つの画像ピクセルに対応するエッジ点の位置を特定すること
    をさらに含む、請求項35に記載の視覚シーンの画像を処理する方法。
  41. 複数の画像ピクセルを微分する動作は、実質的にゼロ位相シフト空間導関数を特定することを含む、請求項40に記載の視覚シーンの画像を処理する方法。
  42. 対応する複数の空間的にフィルタリングされた空間導関数値を生成するように、前記エッジ点の場所を特定する動作の前に、複数の空間導関数値を空間的にフィルタリングすることをさらに含み、
    前記複数の画像ピクセルの1つの画像ピクセルに対応するエッジ点の位置を特定する動作が、前記複数の空間的にフィルタリングされた空間導関数値の内の少なくとも1つの空間的にフィルタリングされた空間導関数値の絶対値の量に応じて決まる、請求項40に記載の視覚シーンの画像を処理する方法。
  43. 複数の空間導関数値を空間的にフィルタリングする動作が、Savitzky−Golayフィルタ法に従う、請求項42に記載の視覚シーンの画像を処理する方法。
  44. 複数の画像ピクセルを微分する動作が、Savitzky−Golayフィルタ法によって本質的に達成される、請求項43に記載の視覚シーンの画像を処理する方法。
  45. a.複数の空間的にフィルタリングされた導関数値のゼロ交差の相対的遠位位置を特定すること、但し、前記相対的遠位位置はエッジ点に対して相対的に遠位である、
    b.前記ゼロ交差の前記相対的遠位位置に対して相対的に遠位である、前記複数の前記空間的にフィルタリングされた空間導関数値のそれぞれが、閾よりも小さい変動の尺度を示すかどうかを判定すること、および
    c.前記ゼロ交差の前記相対的遠位位置に対して相対的に遠である、前記複数の前記空間的にフィルタリングされた空間導関数値の少なくとも1つが、分散の尺度が閾以上であることを示す場合には、エッジ点が不確定であることを指示すること
    をさらに含む、請求項42に記載の視覚シーンの画像を処理する方法。
  46. 変動の尺度が、複数の空間的にフィルタリングされた空間導関数値のサブセットの加重和に応じて決まる、請求項45に記載の視覚シーンの画像を処理する方法。
  47. 相対的中心位置が図心を含む、請求項1に記載の視覚シーンの画像を処理する方法。
  48. 物体検出システムであって、
    a.視覚シーンのレンジマップ画像の生成を行う、レンジングシステムであって、前記レンジマップ画像は、第1の複数の点を含み、該第1の複数の点の各点は、前記視覚シーン内の対応する物理要素の対応する部分の第1の座標と第2の座標を含み、前記第1の座標は、前記視覚シーンのダウンレンジ座標に対応するか、またはそれと関係しており、前記第2の座標は、前記視覚シーンのクロスレンジ座標に対応するか、またはそれと関係している、前記レンジングシステム、
    b.前記視覚シーンの画像の生成を行う、イメージングシステム、および
    c.少なくとも1つのプロセッサであって、
    i.トップダウン座標系に対する前記レンジマップ画像内の少なくとも1つの関心領域を特定すること、
    ii.前記トップダウン座標系に対する前記少なくとも1つの関心領域の、対応する相対的中心位置を特定すること、
    iii.前記画像内の前記相対的中心位置の対応する位置を特定すること、および
    iv.前記画像の前記部分内の物体のエッジ境界を位置特定するように、前記相対的中心位置から延びる複数の半径方向探索経路に沿って、前記相対的中心位置を包囲する前記画像の部分を半径方向に探索すること
    を行う、前記少なくとも1つのプロセッサを含み、前記複数の半径方向探索経路のそれぞれの別の半径方向探索経路が、対応する別の外向き方向にある、前記物体検出システム。
  49. レンジングシステムが、
    a.ステレオ視システムの第1および第2のカメラ、および
    b.前記ステレオ視システムの第1および第2のカメラによってそれぞれ生成された、関連する第1および第2の画像信号から、前記レンジマップ画像を生成するプロセッサ
    を含む、請求項48に記載の物体検出システム。
  50. レンジングシステムが、生成された電磁エネルギーのビームに直接応答してレンジを測定する、システムを含む、請求項48に記載の物体検出システム。
  51. レンジングシステムは、レーダーシステムまたはライダーシステムのいずれかを含む、請求項48に記載の物体検出システム。
  52. イメージングシステムが、ステレオ視システムの第1または第2のカメラの一方を含む、請求項48に記載の物体検出システム。
  53. 相対的中心位置が図心を含む、請求項48に記載の物体検出システム。
  54. 画像をフィルタリングする方法であって、
    a.相対的ピクセル空間において複数の均質領域を識別すること、但し、前記複数の均質領域の各均質領域は、対応する複数の位置に位置する複数のアクティブな相対ピクセルを含み、前記対応する複数の位置は、前記複数の均質領域のすべての複合体を画定する境界内の相対的中心ピクセルと関係して配置され、前記複数のアクティブな相対的ピクセルの前記複数の位置は、対応する極方向において相対的中心軸位置から前記境界まで外方向に延びる、対応する半径方向延長軸に対して対称であり、前記複数のアクティブな相対的ピクセルの前記複数の位置は、前記半径方向延長軸が交差する、そのすべてのアクティブな相対的ピクセルを含み、前記複数の均質領域のそれぞれの別の均質領域は、前記境界の方位に対して別の前記極方向に延びる、別の前記半径方向延長軸に対応する、
    b.フィルタリングしようとする画像のピクセルを受け取ること、
    c.前記複数の均質領域のそれぞれに対して、
    i.前記複数の均質領域の1つを選択すること、
    ii.前記複数の均質領域の前記1つに関連する偏差を計算すること、但し前記偏差は、前記画像の対応する複数の近隣ピクセルに対応する、前記複数の均質領域の前記1つの前記複数のアクティブな相対的ピクセルのそれぞれに対して、複数の関連する差分値の和によって与えられ、前記複数の関連する差分値のそれぞれの関連する差分値は、フィルタリングしようとする前記ピクセルの値と、前記均質領域の選択されたアクティブな相対的ピクセルの対応する相対的位置に対応する、相対的位置における前記画像の近隣ピクセルの値、との差分の絶対値によって与えられ、ここで、前記画像のそれぞれの前記近隣ピクセルは、前記画像の前記複数の近隣ピクセルの1つである、
    d.対応する前記偏差がそれに対して最小である、前記複数の均質領域の少なくとも1つの前記均質領域を発見すること、
    e.フィルタリングしようとする前記画像の前記ピクセルのフィルタリングされたピクセル値を生成すること、但し、前記フィルタリングされたピクセル値は、前記フィルタリングしようとする画像の前記複数の近隣ピクセルのそれぞれの値に応じて決まるとともに、前記複数の近隣ピクセルのそれぞれの前記近隣ピクセルは、前記対応する前記偏差がそれに対して最小である、前記少なくとも1つの前記均質領域の異なる前記選択されたアクティブな相対的ピクセルに対応する、
    を含む、前記方法。
  55. それぞれの極方向は、相対的ピクセル空間のX軸から測定したときの、45度、90度、135度、215度、270度および315度の角度からなる群から選択され、前記相対的ピクセル空間の行寸法は、前記X軸と整列されている、請求項54に記載の画像をフィルタリングする方法。
  56. 複数のアクティブな相対的ピクセルは、3つの相対的近位ピクセルと1つの相対的遠位ピクセルとを含み、
    前記3つの相対的近位ピクセルのそれぞれは、前記相対的中心ピクセルに対して横方向に隣接するか、または対角方向に隣接しており、前記1つの相対的遠位ピクセルは、半径方向延長軸に沿って、前記3つの相対的近位ピクセルの1つに対して横方向に隣接するか、または対角方向に隣接し、かつそれに対して相対的に遠位である、請求項54に記載の画像をフィルタリングする方法。
  57. フィルタリングされたピクセル値が、複数の近隣ピクセルの値の平均から生成される、請求項54に記載の画像をフィルタリングする方法。
  58. 複数の近隣ピクセルのカウントが、2のべき乗に等しく、前記複数の近隣ピクセルの値の平均が、前記複数の近隣ピクセルの値の和を、前記2のべき乗に対応する量だけ、2値右シフトすることによって求められる、請求項57に記載の画像をフィルタリングする方法。
  59. フィルタリングされたピクセル値が、複数の近隣ピクセルの値の中央値として生成される、請求項54に記載の画像をフィルタリングする方法。
JP2015503421A 2012-03-26 2013-03-22 レンジ・キュー式物体セグメンテーションシステムおよび方法 Expired - Fee Related JP6272822B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US13/429,803 US8768007B2 (en) 2012-03-26 2012-03-26 Method of filtering an image
US13/429,803 2012-03-26
US13/465,059 US8824733B2 (en) 2012-03-26 2012-05-07 Range-cued object segmentation system and method
US13/465,059 2012-05-07
PCT/US2013/033539 WO2013148519A2 (en) 2012-03-26 2013-03-22 Range-cued object segmentation system and method

Publications (3)

Publication Number Publication Date
JP2015520433A true JP2015520433A (ja) 2015-07-16
JP2015520433A5 JP2015520433A5 (ja) 2016-05-12
JP6272822B2 JP6272822B2 (ja) 2018-01-31

Family

ID=48087739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015503421A Expired - Fee Related JP6272822B2 (ja) 2012-03-26 2013-03-22 レンジ・キュー式物体セグメンテーションシステムおよび方法

Country Status (5)

Country Link
US (1) US8824733B2 (ja)
EP (1) EP2831840B1 (ja)
JP (1) JP6272822B2 (ja)
CN (1) CN104541302B (ja)
WO (1) WO2013148519A2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018101247A1 (ja) * 2016-11-29 2018-06-07 マクセル株式会社 画像認識撮像装置
JP2018526641A (ja) * 2015-08-24 2018-09-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated レーザ深度マップサンプリングのためのシステム及び方法
JP2018156408A (ja) * 2017-03-17 2018-10-04 マクセル株式会社 画像認識撮像装置
JPWO2017130639A1 (ja) * 2016-01-28 2018-11-08 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2020135617A (ja) * 2019-02-22 2020-08-31 株式会社豊田自動織機 物体検出装置
JP2020135616A (ja) * 2019-02-22 2020-08-31 株式会社豊田自動織機 物体検出装置
WO2021256276A1 (ja) * 2020-06-16 2021-12-23 ソニーセミコンダクタソリューションズ株式会社 測距装置および測距システム
JP2022089728A (ja) * 2020-12-04 2022-06-16 三菱電機株式会社 動的マッピングのためのセンサ融合
WO2024042607A1 (ja) * 2022-08-23 2024-02-29 日立Astemo株式会社 外界認識装置及び外界認識方法

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5706874B2 (ja) * 2010-03-03 2015-04-22 本田技研工業株式会社 車両の周辺監視装置
US10395125B2 (en) * 2016-10-06 2019-08-27 Smr Patents S.A.R.L. Object detection and classification with fourier fans
US11256931B2 (en) * 2010-04-19 2022-02-22 SMR Patent S.à.r.l Rearview device simulation
US10800329B2 (en) * 2010-04-19 2020-10-13 SMR Patents S.à.r.l. Rear view mirror simulation
US10703299B2 (en) * 2010-04-19 2020-07-07 SMR Patents S.à.r.l. Rear view mirror simulation
US8681036B2 (en) * 2010-08-26 2014-03-25 Lawrence Livermore National Security, Llc Distributed road assessment system
US12124271B2 (en) * 2011-07-06 2024-10-22 Peloton Technology, Inc. Gap measurement for vehicle convoying
JP2013196454A (ja) * 2012-03-21 2013-09-30 Honda Elesys Co Ltd 画像処理装置、画像処理方法および画像処理プログラム
US8768007B2 (en) 2012-03-26 2014-07-01 Tk Holdings Inc. Method of filtering an image
WO2014047465A2 (en) 2012-09-21 2014-03-27 The Schepens Eye Research Institute, Inc. Collision prediction
KR101428237B1 (ko) * 2012-12-04 2014-08-08 현대자동차주식회사 외장에어백 전개방법
US20140218482A1 (en) * 2013-02-05 2014-08-07 John H. Prince Positive Train Control Using Autonomous Systems
US9652860B1 (en) * 2013-03-15 2017-05-16 Puretech Systems, Inc. System and method for autonomous PTZ tracking of aerial targets
US10318823B2 (en) * 2013-10-14 2019-06-11 Mobileye Vision Technologies Ltd. Forward-facing multi-imaging system for navigating a vehicle
US9087263B2 (en) * 2013-12-09 2015-07-21 National Chung Shan Institute Of Science And Technology Vision based pedestrian and cyclist detection method
DE102014003221A1 (de) * 2014-03-05 2015-09-10 Audi Ag Verfahren zur maßstabskorrekten Skalierung einer Aufnahme eines Kamerasensors
JP6340850B2 (ja) * 2014-03-18 2018-06-13 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
CN106463061B (zh) * 2014-05-27 2019-10-18 本田技研工业株式会社 碰撞可能性判定装置
EP3048557B1 (de) * 2015-01-20 2019-09-25 Aptiv Technologies Limited Verfahren zum Ermitteln einer Lage eines Fahrzeugmerkmals
JP6122516B2 (ja) * 2015-01-28 2017-04-26 財團法人工業技術研究院Industrial Technology Research Institute エンコーディング方法及びエンコーダ
EP3109824B1 (en) * 2015-06-24 2019-03-20 RaySearch Laboratories AB System and method for handling image data
US10628983B2 (en) 2015-12-18 2020-04-21 Digital Domain 3.0, Inc. Systems and methods for multi-sensor image capture
EP3422289A4 (en) * 2016-02-23 2019-02-27 Ricoh Company, Ltd. IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE ENTITY DEVICE CONTROL SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
US10163219B2 (en) * 2016-06-24 2018-12-25 Fca Us Llc Machine vision cargo monitoring in a vehicle
US10016896B2 (en) * 2016-06-30 2018-07-10 Brain Corporation Systems and methods for robotic behavior around moving bodies
US10816658B2 (en) * 2016-09-07 2020-10-27 OmniPreSense Corporation Radar enabled weapon detection system
US10488497B2 (en) * 2016-11-08 2019-11-26 Aptiv Technologies Limited Scanning lidar for an automated vehicle
JP6564355B2 (ja) * 2016-11-17 2019-08-21 株式会社デンソー 衝突判定装置、及び衝突判定方法
US10220850B2 (en) * 2017-01-30 2019-03-05 GM Global Technology Operations LLC Vehicle propulsion systems and methods
US20230107110A1 (en) * 2017-04-10 2023-04-06 Eys3D Microelectronics, Co. Depth processing system and operational method thereof
US11203295B2 (en) * 2017-04-14 2021-12-21 Panasonic Automotive Svstems Company of America, Division of Panasonic Corporation of North America Rearview head up display
US10094916B1 (en) 2017-06-09 2018-10-09 Waymo Llc LIDAR optics alignment systems and methods
US10460512B2 (en) * 2017-11-07 2019-10-29 Microsoft Technology Licensing, Llc 3D skeletonization using truncated epipolar lines
US10955540B2 (en) 2017-12-01 2021-03-23 Aptiv Technologies Limited Detection system
JP7047849B2 (ja) * 2017-12-14 2022-04-05 日本電気株式会社 識別装置、識別方法、および識別プログラム
CN108287336B (zh) * 2018-01-26 2020-05-19 华中科技大学 一种面阵盖革apd激光雷达距离像强度像生成系统
DE102018115146A1 (de) * 2018-06-24 2019-12-24 Industry365 Ug (Haftungsbeschränkt) Verfahren zur Herstellung für das menschliche Auge nicht sichtbarer und nicht kopierbarer Sicherheitselemente in einer Abbildung sowie Verfahren zum Authentizitätsnachweis von Produkten auf Basis des Abgleichs von ungleichen Informationen sowie gedruckte Abbildung
US10838054B2 (en) 2018-10-08 2020-11-17 Aptiv Technologies Limited Detection system and method
CN111383231B (zh) * 2018-12-28 2023-10-27 成都皓图智能科技有限责任公司 一种基于3d图像的图像分割方法、装置及系统
US11092668B2 (en) * 2019-02-07 2021-08-17 Aptiv Technologies Limited Trailer detection system and method
US11454705B2 (en) * 2019-02-22 2022-09-27 Veoneer Us, Llc Tracking system and method for characterizing target height using percentage of range bins
US11555915B2 (en) * 2019-03-01 2023-01-17 Samsung Electronics Co., Ltd. Determining relevant signals using multi-dimensional radar signals
CN110031821B (zh) * 2019-03-25 2020-11-17 白犀牛智达(北京)科技有限公司 一种车载避障激光雷达波形提取方法、激光雷达及介质
JP7206172B2 (ja) * 2019-09-19 2023-01-17 京セラ株式会社 物体検出装置、物体検出システム、移動体及び物体検出方法
US11408995B2 (en) 2020-02-24 2022-08-09 Aptiv Technologies Limited Lateral-bin monitoring for radar target detection
US11668799B2 (en) * 2020-03-20 2023-06-06 Aptiv Technologies Limited Histogram based L-shape detection of target objects
CN115135964A (zh) * 2020-06-02 2022-09-30 华为技术有限公司 用于检测道路上的减速带和坑洞的装置、系统和方法
EP3961255A1 (en) * 2020-08-28 2022-03-02 Aptiv Technologies Limited Driver assistance system for a vehicle, vehicle and a driver assistance method implementable by the system
US11373511B2 (en) 2020-09-14 2022-06-28 PureTech Systems Inc. Alarm processing and classification system and method
CN113269835A (zh) * 2021-07-19 2021-08-17 季华实验室 基于轮廓特征的工业零件位姿识别方法、装置和电子设备
US20230053243A1 (en) * 2021-08-11 2023-02-16 Baidu Usa Llc Hybrid Performance Critic for Planning Module's Parameter Tuning in Autonomous Driving Vehicles
CN115457004B (zh) * 2022-09-22 2023-05-26 山东华太新能源电池有限公司 基于计算机视觉的锌膏的智能检测方法
CN115909302B (zh) * 2023-03-09 2023-06-16 菏泽学院 一种用于药物崩解性能识别的数据处理方法
CN116012453B (zh) * 2023-03-28 2023-06-09 常州星宇车灯股份有限公司 车辆智能驾驶的单目测距方法、装置、设备、介质及车辆

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10285582A (ja) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd 車外監視装置
JPH11345336A (ja) * 1998-06-03 1999-12-14 Nissan Motor Co Ltd 障害物検出装置
JP2000155839A (ja) * 1998-11-18 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> 標識領域画像抽出方法、装置、標識領域画像抽出プログラムを記録した記録媒体
JP2000259997A (ja) * 1999-03-05 2000-09-22 Nissan Motor Co Ltd 先行車の高さおよび車間距離計測装置
JP2001004368A (ja) * 1999-06-16 2001-01-12 Honda Motor Co Ltd 物体認識装置
US20050084156A1 (en) * 2003-08-28 2005-04-21 Das Aveek K. Method and apparatus for differentiating pedestrians, vehicles, and other objects
JP2008045974A (ja) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd 物体検出装置
JP2008507454A (ja) * 2004-07-26 2008-03-13 オートモーティブ システムズ ラボラトリー インコーポレーテッド 道路使用弱者保護システム
JP2008064628A (ja) * 2006-09-07 2008-03-21 Fuji Heavy Ind Ltd 物体検出装置および物体検出方法

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4802230A (en) 1987-03-13 1989-01-31 Gtx Corporation Method and apparatus for generating size and orientation invariant shape features
US5400244A (en) 1991-06-25 1995-03-21 Kabushiki Kaisha Toshiba Running control system for mobile robot provided with multiple sensor information integration system
US5481620A (en) 1991-09-27 1996-01-02 E. I. Du Pont De Nemours And Company Adaptive vision system
JP3167752B2 (ja) 1991-10-22 2001-05-21 富士重工業株式会社 車輌用距離検出装置
JP3083918B2 (ja) 1992-06-26 2000-09-04 本田技研工業株式会社 画像処理装置
US5487116A (en) 1993-05-25 1996-01-23 Matsushita Electric Industrial Co., Ltd. Vehicle recognition apparatus
JP3522317B2 (ja) 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
DE19680415C2 (de) 1995-04-26 2003-02-06 Hitachi Ltd Bildbearbeitungsvorrichtung für Fahrzeuge
JPH09254726A (ja) 1996-03-19 1997-09-30 Fuji Heavy Ind Ltd 車両用運転支援装置
JP3866328B2 (ja) 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
DE19636028C1 (de) 1996-09-05 1997-11-20 Daimler Benz Ag Verfahren zur Stereobild-Objektdetektion
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
US7796081B2 (en) 1997-10-22 2010-09-14 Intelligent Technologies International, Inc. Combined imaging and distance monitoring for vehicular applications
US6031935A (en) 1998-02-12 2000-02-29 Kimmel; Zebadiah M. Method and apparatus for segmenting images using constant-time deformable contours
JP3450189B2 (ja) 1998-06-16 2003-09-22 ダイハツ工業株式会社 歩行者検知システム及びその制御方法
JP3596314B2 (ja) 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
JP2000207693A (ja) 1999-01-08 2000-07-28 Nissan Motor Co Ltd 車載用障害物検出装置
DE19926559A1 (de) 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
US6771834B1 (en) 1999-07-02 2004-08-03 Intel Corporation Method for segmenting a digital image
JP3674400B2 (ja) 1999-08-06 2005-07-20 日産自動車株式会社 周囲環境認識装置
US6963661B1 (en) 1999-09-09 2005-11-08 Kabushiki Kaisha Toshiba Obstacle detection system and method therefor
CN1561093A (zh) 1999-10-12 2005-01-05 ���µ�����ҵ��ʽ���� 摄像机调整方法以及车辆监视系统
JP4205825B2 (ja) 1999-11-04 2009-01-07 本田技研工業株式会社 対象物認識装置
US6801244B2 (en) 2000-02-29 2004-10-05 Kabushiki Kaisha Toshiba Obstacle detection apparatus and method
US6961443B2 (en) 2000-06-15 2005-11-01 Automotive Systems Laboratory, Inc. Occupant sensor
DE10301468B4 (de) 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
US7340077B2 (en) 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
WO2003073359A2 (en) 2002-02-26 2003-09-04 Canesta, Inc. Method and apparatus for recognizing objects
JP2003281503A (ja) 2002-03-20 2003-10-03 Fuji Heavy Ind Ltd 立体物の画像認識装置
US7203356B2 (en) 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US7715591B2 (en) 2002-04-24 2010-05-11 Hrl Laboratories, Llc High-performance sensor fusion architecture
JP3895238B2 (ja) 2002-08-28 2007-03-22 株式会社東芝 障害物検出装置及びその方法
US7400744B2 (en) 2002-09-05 2008-07-15 Cognex Technology And Investment Corporation Stereo door sensor
US7397929B2 (en) 2002-09-05 2008-07-08 Cognex Technology And Investment Corporation Method and apparatus for monitoring a passageway using 3D images
US7263209B2 (en) 2003-06-13 2007-08-28 Sarnoff Corporation Vehicular vision system
US6956469B2 (en) 2003-06-13 2005-10-18 Sarnoff Corporation Method and apparatus for pedestrian detection
US7321669B2 (en) 2003-07-10 2008-01-22 Sarnoff Corporation Method and apparatus for refining target position and size estimates using image and depth data
JP3937414B2 (ja) 2004-08-11 2007-06-27 本田技研工業株式会社 平面検出装置及び検出方法
US7493202B2 (en) 2004-11-12 2009-02-17 Takata Corporation Vehicle safety control system by image processing
US7505841B2 (en) 2005-09-02 2009-03-17 Delphi Technologies, Inc. Vision-based occupant classification method and system for controlling airbag deployment in a vehicle restraint system
KR100727033B1 (ko) 2005-12-07 2007-06-12 한국전자통신연구원 네트워크 기반 지능형 서비스 로봇의 비전 처리 장치 및방법과 이를 이용한 시스템
WO2008013568A2 (en) 2005-12-30 2008-01-31 Irobot Corporation Autonomous mobile robot
JP4797794B2 (ja) 2006-05-24 2011-10-19 日産自動車株式会社 歩行者検出装置および歩行者検出方法
JP5061767B2 (ja) 2006-08-10 2012-10-31 日産自動車株式会社 画像処理装置および画像処理方法
CN101627280B (zh) 2006-11-21 2013-09-25 曼蒂斯影像有限公司 三维几何建模和三维视频内容创建
US7856130B2 (en) 2007-03-28 2010-12-21 Eigen, Inc. Object recognition system for medical imaging
JP5092613B2 (ja) 2007-08-06 2012-12-05 日産自動車株式会社 距離計測方法および装置、ならびに距離計測装置を備えた車両
EP2065678B1 (en) 2007-11-30 2016-02-10 Nissan Motor Co., Ltd. Distance measurement system and distance measurement method
US9007395B2 (en) * 2008-12-01 2015-04-14 Marvell World Trade Ltd. Bit resolution enhancement
US8774512B2 (en) 2009-02-11 2014-07-08 Thomson Licensing Filling holes in depth maps
DE102009009047A1 (de) 2009-02-16 2010-08-19 Daimler Ag Verfahren zur Objektdetektion
US20110026770A1 (en) 2009-07-31 2011-02-03 Jonathan David Brookshire Person Following Using Histograms of Oriented Gradients
CN102313547B (zh) * 2011-05-26 2013-02-13 东南大学 基于手绘轮廓语义地图的移动机器人视觉导航方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10285582A (ja) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd 車外監視装置
JPH11345336A (ja) * 1998-06-03 1999-12-14 Nissan Motor Co Ltd 障害物検出装置
JP2000155839A (ja) * 1998-11-18 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> 標識領域画像抽出方法、装置、標識領域画像抽出プログラムを記録した記録媒体
JP2000259997A (ja) * 1999-03-05 2000-09-22 Nissan Motor Co Ltd 先行車の高さおよび車間距離計測装置
JP2001004368A (ja) * 1999-06-16 2001-01-12 Honda Motor Co Ltd 物体認識装置
US20050084156A1 (en) * 2003-08-28 2005-04-21 Das Aveek K. Method and apparatus for differentiating pedestrians, vehicles, and other objects
JP2008507454A (ja) * 2004-07-26 2008-03-13 オートモーティブ システムズ ラボラトリー インコーポレーテッド 道路使用弱者保護システム
JP2008045974A (ja) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd 物体検出装置
JP2008064628A (ja) * 2006-09-07 2008-03-21 Fuji Heavy Ind Ltd 物体検出装置および物体検出方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
串間 和彦、外4名: ""オブジェクトに基づく高速画像検索システム:ExSight"", 情報処理学会論文誌, vol. 40, no. 2, JPN6017000909, 15 February 1999 (1999-02-15), JP, pages 732 - 741, ISSN: 0003480029 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11042723B2 (en) 2015-08-24 2021-06-22 Qualcomm Incorporated Systems and methods for depth map sampling
JP2018526641A (ja) * 2015-08-24 2018-09-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated レーザ深度マップサンプリングのためのシステム及び方法
US11915502B2 (en) 2015-08-24 2024-02-27 Qualcomm Incorporated Systems and methods for depth map sampling
JPWO2017130639A1 (ja) * 2016-01-28 2018-11-08 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
WO2018101247A1 (ja) * 2016-11-29 2018-06-07 マクセル株式会社 画像認識撮像装置
JP2018156408A (ja) * 2017-03-17 2018-10-04 マクセル株式会社 画像認識撮像装置
JP2020135617A (ja) * 2019-02-22 2020-08-31 株式会社豊田自動織機 物体検出装置
JP2020135616A (ja) * 2019-02-22 2020-08-31 株式会社豊田自動織機 物体検出装置
JP7081526B2 (ja) 2019-02-22 2022-06-07 株式会社豊田自動織機 物体検出装置
JP7180445B2 (ja) 2019-02-22 2022-11-30 株式会社豊田自動織機 物体検出装置
WO2021256276A1 (ja) * 2020-06-16 2021-12-23 ソニーセミコンダクタソリューションズ株式会社 測距装置および測距システム
JP2022089728A (ja) * 2020-12-04 2022-06-16 三菱電機株式会社 動的マッピングのためのセンサ融合
JP7254057B2 (ja) 2020-12-04 2023-04-07 三菱電機株式会社 動的マッピングのためのセンサ融合
WO2024042607A1 (ja) * 2022-08-23 2024-02-29 日立Astemo株式会社 外界認識装置及び外界認識方法

Also Published As

Publication number Publication date
CN104541302A (zh) 2015-04-22
EP2831840B1 (en) 2019-01-16
EP2831840A2 (en) 2015-02-04
US20130251194A1 (en) 2013-09-26
WO2013148519A2 (en) 2013-10-03
JP6272822B2 (ja) 2018-01-31
WO2013148519A3 (en) 2013-12-12
CN104541302B (zh) 2017-11-24
US8824733B2 (en) 2014-09-02

Similar Documents

Publication Publication Date Title
JP6272822B2 (ja) レンジ・キュー式物体セグメンテーションシステムおよび方法
US8768007B2 (en) Method of filtering an image
CN107272021B (zh) 使用雷达和视觉定义的图像检测区域的对象检测
CN111712731A (zh) 目标检测方法、系统及可移动平台
JP6702340B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
US20130177237A1 (en) Stereo-vision object detection system and method
US7103213B2 (en) Method and apparatus for classifying an object
Nedevschi et al. High accuracy stereovision approach for obstacle detection on non-planar roads
US8406472B2 (en) Method and system for processing image data
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
JP2015520433A5 (ja)
EP3392830B1 (en) Image processing device, object recognition device, apparatus control system, image processing method and program
US10546383B2 (en) Image processing device, object recognizing device, device control system, image processing method, and computer-readable medium
Antony et al. Vision based vehicle detection: A literature review
Li et al. Automatic parking slot detection based on around view monitor (AVM) systems
Bansal et al. Radsegnet: A reliable approach to radar camera fusion
CN112990049A (zh) 用于车辆自动驾驶的aeb紧急制动方法、装置
Raguraman et al. Intelligent drivable area detection system using camera and LiDAR sensor for autonomous vehicle
Nedevschi et al. Driving environment perception using stereovision
Gao et al. Obstacle detection with 3D camera using UV-Disparity
Giosan et al. Superpixel-based obstacle segmentation from dense stereo urban traffic scenarios using intensity, depth and optical flow information
Ma et al. A real time object detection approach applied to reliable pedestrian detection
Kwak et al. Boundary detection based on supervised learning
Lee et al. Improved vehicle detection algorithm in heavy traffic for intelligent vehicle
Nedevschi et al. Stereovision-based sensor for intersection assistance

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170119

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170630

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180104

R150 Certificate of patent or registration of utility model

Ref document number: 6272822

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S343 Written request for registration of root pledge or change of root pledge

Free format text: JAPANESE INTERMEDIATE CODE: R316354

SZ02 Written request for trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R316Z02

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees