JP2015520433A - レンジ・キュー式物体セグメンテーションシステムおよび方法 - Google Patents
レンジ・キュー式物体セグメンテーションシステムおよび方法 Download PDFInfo
- Publication number
- JP2015520433A JP2015520433A JP2015503421A JP2015503421A JP2015520433A JP 2015520433 A JP2015520433 A JP 2015520433A JP 2015503421 A JP2015503421 A JP 2015503421A JP 2015503421 A JP2015503421 A JP 2015503421A JP 2015520433 A JP2015520433 A JP 2015520433A
- Authority
- JP
- Japan
- Prior art keywords
- image
- range
- visual scene
- pixel
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 141
- 230000011218 segmentation Effects 0.000 title 1
- 238000009499 grossing Methods 0.000 claims abstract description 14
- 230000000007 visual effect Effects 0.000 claims description 89
- 230000008569 process Effects 0.000 claims description 72
- 238000001514 detection method Methods 0.000 claims description 62
- 238000012545 processing Methods 0.000 claims description 52
- 238000001914 filtration Methods 0.000 claims description 29
- 230000004044 response Effects 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 7
- 230000004807 localization Effects 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 5
- 230000000670 limiting effect Effects 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims description 2
- 230000010363 phase shift Effects 0.000 claims description 2
- 230000005670 electromagnetic radiation Effects 0.000 claims 3
- 230000001419 dependent effect Effects 0.000 claims 1
- 239000013598 vector Substances 0.000 abstract description 46
- 230000009466 transformation Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 23
- 230000007423 decrease Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001648319 Toronia toru Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 229910052738 indium Inorganic materials 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000001012 protector Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Radar Systems Or Details Thereof (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
図1、2および3a〜3cを参照すると、例えば、その両方の全文を参照により本明細書に組み入れてある、「Vulnerable Road User Protection System」という題名の2008年9月29日に出願された米国特許出願番号第11/658758号、および「Method of Identifying an Object in a Visual Scene」という題名の2011年11月16日に出願された米国特許出願番号第13/286656号の教示によれば、交通弱者14(以下、「VRU14」)を検出して、車両12との衝突からの保護を行うように、車両12の前方の領域13を眺望して、その中の物体を検知するように、レンジ・キュー式物体検出システム10が車両12に組み込まれている。VRU14の例としては、歩行者14.1および自転車乗員14.2が挙げられる。
r=b・f/d、但しd=dl−dr (1)
図2および5を参照すると、一実施態様においては、第1および第のステレオ視カメラ38.1および38.2は、車両12のフロントガラス66を通して、視覚的なシーン24が見えるように、車両12の乗員車室58内、例えば、リアビューミラー60の前に、実質的に水平なベースラインbに沿って位置している。別の実施態様では、第1および第2のステレオ視カメラ38.1’および38.2’は、実質的に水平のベースラインbに沿って、車両12のフロント62に、例えば、それぞれ、左および右のヘッドライトレンズ64.1および64.2の内部またはその近傍に位置している。
図14aを参照すると、ステップ(1204)において、各有効レンジ測定値の空間座標が、ステレオ視システム16の自然3次元座標から、「トップダウン」座標系の、対応する2次元座標に変換される。各ステレオ視カメラ38は、本質的に光強度の角度センサであり、各画素は、所与の仰角φと方位角αにおける、瞬時視野角を表わす。同様に、関連するステレオ視システム16は、本質的に、対応するレンジrの角度センサである。関連するレンジ値のレンジrは、ステレオ視システム16から対応する平面97までの距離に対応し、平面97は、ステレオ視システム16の軸方向中心線98に垂直であるとともに、軸方向中心線98は、ベースラインbに対してその中央点を通ってそれに垂直であるとともに、第1および第2のステレオ視カメラ38.1および38.2の光軸に平行である。
一組の実施態様によれば、結果として得られる関心領域(ROI)114は、その初期分類を行うように、関心領域(ROI)114と関連する対応する物体50の関連する瞬時軌跡またはヘディング角(heading angle)の尺度を提供することのできる、対応する楕円または多角形境界でさらに特徴がある。
1.各関心領域(ROI)114に対して、以下の2×2マトリックスCが、関連する有効なレンジ値96から計算され;
3.ベストフィット楕円119の長軸の回転角119.1は{ξ1,ξ2}から以下のように与えられ;
4.ベストフィット楕円119の長軸119.2および短軸119.3の対応する長さは、関連する固有値{λ1,λ2}からそれぞれ以下のように与えられる:
ステップ(1214)において、図18も参照すると、解析されているi番目の関心領域(RO)114の図心116の座標
図19aから23を参照すると、クラスタリングプロセス1500の第3の実施態様によれば、名目寸法の(nominally-sized)クラスタリングビン(113’、113’’、113)の代わりに、関連する1次元クロスレンジクラスタリングビン121’および1次元ダウンレンジクラスタリングビン121’’の大きさおよび位置が、対応する第1および第2のヒストグラム112.1および112.2から直接的に求められる。これらの1次元クロスレンジクラスタリングビン121’および1次元ダウンレジンクラスタリングビン121’’は次いで、クラスタリングプロセス1500において、対応する2次元クラスタリングビンを特定するのに使用され、次いで、これらの2次元クラスタリングビンは、2次元名目クラスタリングビン113が、クラスタリングプロセス1500の上記の第2の実施態様において使用されたのと類似の方法で使用される。
122.1: {-0.053571, 0.267856, 0.814286, 0.535715, -0.267858, 0.053572} (12)
122.2: {0.018589, -0.09295, 0.00845, 0.188714, 0.349262, 0.427,
0.394328, 0.25913, 0.064783, -0.10985, -0.15041, 0.092948} (13)
一般的に、車両間の実世界の離隔距離と一致する、隣接するクラスタリング区間の間にゼロ密度ヒストグラムビン108’、108’’を維持するように、隣接するクラスタリング間隔が結合するのを防止するのにロールオフ(roll-off)が十分であれば、空間的にフィルタリングされた第1および第2のヒストグラム112.1’および122.2’を生成するために、縁端において制御されたロールオフを有する、その他のタイプのローパス空間フィルタも代替的に使用してもよい。
ゼロ密度ヒストグラムビンで画定されたH(k)の単峰性分布に対して、その前縁端および後縁端において、1次空間導関数はゼロとなり、2次空間導関数は正であり、これは、例えば、k番目の要素によって与えられ、それに対して:
H’(k)≦0、およびH’(k+1)>0 (15)
H’(k)≧0、およびH’(k+1)<0 (16)
次いで、またはステップ(1226)から、各物体50が処理されたあと、またはそのときに各物体50に対して、変換されたエッジプロフィールベクトル124’’’、またはエッジプロフィールベクトル124’’’および関連する図心116
図27を再び参照すると、ステップ(2616)において、(画像ピクセル100の行がそれに平行である)X軸144から測定される、極探索方向θの角度の絶対値が、π/4から3π/4ラジアンの間でない場合には、その結果として、関連する半径方向探索経路126は、境界画定探索長方形136内部の画像空間136’の第1の部分146に位置する場合には、半径方向探索経路126沿った次の画像ピクセル100が、関連する図心116からさらに遠い、半径方向探索経路126に沿って次の列XCOL(i+1)へ、および半径方向探索経路126に沿って対応する行YROW(i+1)へと進められる。
図34を参照すると、0から44の番号で識別された、45の関連する半径方向探索経路126に対するエッジ点124が、関連する車両物体50’に対して示されており、各半径方向探索経路126は図心116から始まり、図34において白色点で識別された各エッジ点124は、それから距離Riにある。図35a〜cを参照すると、各関心領域(ROI)114は、4つの象限150.1、150.2、150.3および150.4に分割され、特定のエッジ点124を検出するための条件は、エッジ点124がその中に位置している、対応する象限150.1、150.2、150.3および150.4に依存する。
c = {0.04525, -0.08145, -0.05553, 0.04525, 0.16043, 0.24681,
0.27849, 0.24681, 0.16043, 0.04525, -0.05553, -0.08145, 0.04525} (26)
予期されるエッジ点124を発見すると、フィルタリングされた空間1次導関数156、
wgt={0.35,0.25,0.20,0.10,0.10} (30)
図46を参照すると、第2の観点によれば、レンジ・キュー式物体検出システム10、10’’は、レンジ・キュー式物体検出システム10、10’の第1の観点について上述したのと実質的に同じ機能を提供するように、ステレオ視システム16、16’または別個のカメラ164のいずれかと協働する、別個のレンジングシステム162を組み入れている。一組の実施態様においては、レンジングシステム162は、関連するレンジマップ画像80の特定を行う。次いで、レンジマップ画像80が、ステレオ視システム16、16’または別個のカメラ164のいずれかによって撮像される関連する視覚シーン24内の任意の物体50を検出して区別するように、第1のステレオ視カメラ38.1、38.1’または第2のステレオ視カメラ38.2、38.2’の一方の第1または第2のステレオ画像成分40.1または40.2のいずれかから、または、レンジ・キュー式物体検出システム10、10’の第1の観点について上述したような別個のカメラ164からのモノ画像166からの、関連するモノ画像166と協働して処理される。
Claims (59)
- 視覚シーンの画像を処理する方法であって、
a.視覚シーンのレンジマップ画像を受け取るか、または特定すること、但し、前記レンジマップ画像は、第1の複数の点を含み、該第1の複数の点の内の各点は、前記視覚シーン内の対応する物理的要素の対応する部分の第1の座標と第2の座標を含み、前記第1の座標は、前記視覚シーンのダウンレンジ座標に対応するか、または関係しており、前記第2の座標は、前記視覚シーンのクロスレンジ座標に対応するか、または関係している;
b.前記視覚シーン内で少なくとも1つの関心領域を特定すること、但し、該少なくとも1つの関心領域は、対応する距離閾に応じた第1および第2の座標の空間における距離に対してクラスタリングされた、第2の複数の前記点を含み、前記第2の複数は、数において前記第1の複数以下であり、前記第1および第2の座標の空間は、ダウンレンジ座標およびクロスレンジ座標に対応するか、または関係している、
c.前記少なくとも1つの関心領域の前記第2の複数の前記点の対応する相対的中心位置を特定すること、但し、前記相対的中心位置は、対応する第1の座標と対応する第2の座標を含み、前記対応する第1の座標は、前記視覚シーンの対応するダウンレンジ座標に対応するか、または関係しており、前記対応する第2の座標は、前記視覚シーンの対応するクロスレンジ座標に対応するか、または関係している、
d.前記視覚シーンの画像を受け取ること、但し、前記画像は、列と行の配列として画像空間内に構成された第1の複数のピクセルを含み、該列と行の配列の各列は対応するX画像座標によって識別され、前記列と行の配列の各行は対応するY画像座標によって識別される、
e.対応する前記X画像座標およびY画像座標に対する前記相対的中心位置の位置を特定すること、および
f.対応する前記少なくとも1つの関心領域に関連する物体に対応する前記画像の部分の複数のエッジ点の位置を特定すること、但し、前記複数のエッジ点の各エッジ点は、前記相対的中心位置から対応する外向き方向に沿って延びる半径方向探索経路に沿った、前記物体の外部境界に対応しており、前記外部境界は、前記相対的中心位置に対して遠位であり、前記複数のエッジ点のそれぞれの前記エッジ点は、前記画像空間内の対応する座標を含むとともに、前記複数のエッジ点は、前記物体の区別を行う、
を含む、前記方法。 - レンジマップ画像を受け取るか、または特定する動作が、
g.前記視覚シーンの第1および第2のステレオ画像成分を受け取ること、および
h.前記第1および第2のステレオ画像成分から前記レンジマップ画像を特定すること
を含む、請求項1に記載の視覚シーンの画像を処理する方法。 - レンジマップ画像を、対応する第1および第2の座標を含むトップダウン座標系に変換することをさらに含み、前記対応する第1の座標は、視覚シーンの対応するダウンレンジ座標に対応するか、または関係しており、前記対応する第2の座標は、前記視覚シーンの対応するクロスレンジ座標に対応するか、または関係している、請求項2に記載の視覚シーンの画像を処理する方法。
- レンジマップ画像を受け取るか、または特定する動作が、複数のレンジ測定値を、方位角またはクロスレンジ距離のいずれかの関数として受け取るか、または特定することを含む、請求項1に記載の視覚シーンの画像を処理する方法。
- 複数のレンジ測定値が、後方散乱電磁放射に応じて生成されるとともに、複数の異なる方位角に対して生成される、請求項4に記載の視覚シーンの画像を処理する方法。
- 後方散乱電磁放射がそれに応じて生成される電磁放射のビームを走査することに応じて、複数のレンジ測定値が生成される、請求項5に記載の視覚シーンの画像を処理する方法。
- 複数のレンジビンに対して、レンジマップ画像の第1の複数の点の内の点をビニングすることによって、ビニングされたレンジマップ画像データを生成することをさらに含み、前記複数のレンジビンの各レンジビンが、視覚シーンのダウンレンジ距離とクロスレンジ距離の両方に対してビニングされる、請求項1に記載の視覚シーンの画像を処理する方法。
- 視覚シーン内で少なくとも1つの関心領域を特定する動作が、ダウンレンジ距離およびクロスレンジ距離の座標に対する距離について、ビニングされたレンジ画像データをクラスタリングすることを含む、請求項7に記載の視覚シーンの画像を処理する方法。
- クロスレンジ距離の対応する複数のレンジに対して、複数の第1のヒストグラムビンに対する第1の複数の点の内の第1のカウントの点を含む、第1のヒストグラムを生成すること、および
ダウンレンジ距離の対応する複数のレンジに対して、複数の第2のヒストグラムビンに対する第1の複数の点の内の第2のカウントの点を含む、第2のヒストグラムを生成することをさらに含む、請求項7に記載の視覚シーンの画像を処理する方法。 - 第1および第2のヒストグラムが、複数のレンジビンから生成され、前記複数のレンジビンの各レンジビンが、該レンジビンに関連する第1の複数の点の内のあるカウントの点を含む、請求項9に記載の視覚シーンの画像を処理する方法。
- 第2の複数の点が、少なくとも1つの2次元クラスタリングビンに対してクラスタリングされている、請求項10に記載の視覚シーンの画像を処理する方法。
- 少なくとも1つの2次元クラスタリングビンが、少なくとも1つの所定の2次元名目クラスタリングビンを含み、該少なくとも1つの所定の2次元名目クラスタリングビンは、1次元名目クロスレンジクラスタリングビンまたは1次元名目ダウンレンジクラスタリングビンの少なくとも一方に応じて配置される、請求項11に記載の視覚シーンの画像を処理する方法。
- 少なくとも1つの2次元クラスタリングビンが、第1のヒストグラムの局在ピークまたは第2のヒストグラムの局在ピークの少なくとも一方に応じて配置される、請求項11に記載の視覚シーンの画像を処理する方法。
- 少なくとも1つの2次元クラスタリングビンが、第1のヒストグラムの局在ピークまたは第2のヒストグラムの局在ピークの少なくとも一方を、実質的に中心としている、請求項13に記載の視覚シーンの画像を処理する方法。
- 少なくとも1つの2次元クラスタリングビンが、第1のヒストグラムの空間フィルタリングの空間1次導関数または第2のヒストグラムの空間フィルタリングの空間1次導関数の少なくとも一方に応じて配置される、請求項11に記載の視覚シーンの画像を処理する方法。
- 第2の複数の点の内の少なくとも1つの点が、少なくとも1つの2次元クラスタリングビンの、先にクラスタリングされた第2の複数の点の相対的中心位置までの距離に対してクラスタリングされる、請求項11に記載の視覚シーンの画像を処理する方法。
- 第2の複数の点がクラスタリングされる順序が、ダウンレンジ距離またはクロスレンジ距離の少なくとも一方に応じて決まる、請求項9に記載の視覚シーンの画像を処理する方法。
- 第2の複数の点がクラスタリングされる順序が、前記第2の複数の点に関連する物体との衝突の可能性に応じて決まる、請求項9に記載の視覚シーンの画像を処理する方法。
- 第1および第2のヒストグラムが、少なくとも1つの関心領域を特定するようにクラスタリングされる1つまたは2つ以上の追加の点を選択する前に、クラスタリングされている少なくとも1つの点を除去するように修正される、請求項9に記載の視覚シーンの画像を処理する方法。
- 第1および第2の座標の空間における距離に対してクラスタリングされる点を、前記第1および第2の座標の前記空間における領域に限定することをさらに含む、請求項1に記載の視覚シーンの画像を処理する方法。
- 領域のクロスレンジサイズまたは前記領域のダウンレンジサイズの少なくとも一方が事前設定されている、請求項20に記載の視覚シーンの画像を処理する方法。
- 領域のクロスレンジサイズまたは前記領域のダウンレンジサイズの少なくとも一方が、関連するダウンレンジ距離に応じて決まる、請求項20に記載の視覚シーンの画像を処理する方法。
- 領域のクロスレンジサイズまたは前記領域のダウンレンジサイズの少なくとも一方が、現時点または先行時点のいずれかにおける、関連する状況認識に応じて決まる、請求項20に記載の視覚シーンの画像を処理する方法。
- 少なくとも1つの関心領域に対して、第1および第2の座標の空間における距離に対して、クラスタリングされた第2の複数の点の、対応する少なくとも1つの群に対応する楕円プロフィールを求めることをさらに含む、請求項1に記載の視覚シーンの画像を処理する方法。
- 少なくとも1つの関心領域に対して、楕円プロフィールの長軸または短軸のいずれかの方位に応じて、前記少なくとも1つの関心領域に関連する物体の方位を特定することをさらに含む、請求項24に記載の視覚シーンの画像を処理する方法。
- 長軸の長さまたは短軸の長さのいずれかと、対応する閾との少なくとも1回の比較に応じて、少なくとも1つの関心領域に関連する物体を分類することをさらに含む、請求項25に記載の視覚シーンの画像を処理する方法。
- 画像空間における座標が、行と列のピクセル座標、または相対的中心位置に対して対応する極角と半径のいずれかを含む、請求項1に記載の視覚シーンの画像を処理する方法。
- 複数のエッジ点の位置を特定する動作が、相対的中心位置からの対応する複数の半径方向距離を特定するように、前記複数のエッジ点のそれぞれに対する相対的中心位置からの半径方向距離を特定することを含む、請求項1に記載の視覚シーンの画像を処理する方法。
- 相対的中心位置からの複数の半径方向距離を、画像空間における対応する複数の組の座標に変換することをさらに含む、請求項28に記載の視覚シーンの画像を処理する方法。
- 複数のエッジ点の位置を特定する動作が、画像空間内の領域に限定される、請求項1に記載の視覚シーンの画像を処理する方法。
- 画像空間内の領域の幅、前記画像空間内の前記領域の高さ、または前記画像空間内の前記領域の相対的中心位置からの最大半径方向距離の内の少なくとも1つが事前設定される、請求項30に記載の視覚シーンの画像を処理する方法。
- 画像空間内の領域の幅、前記画像空間内の前記領域の高さ、または前記画像空間内の前記領域の相対的中心位置からの最大半径方向距離の内の少なくとも1つが、前記相対的中心位置のダウンレンジ距離に応じて決まる、請求項30に記載の視覚シーンの画像を処理する方法。
- 画像空間内の領域の相対的中心位置からの最大半径方向距離が、外向き方向に応じて決まる、請求項30に記載の視覚シーンの画像を処理する方法。
- 画像空間内の領域の幅、前記画像空間内の前記領域の高さ、または前記画像空間内の前記領域の相対的中心位置からの最大半径方向距離の内の少なくとも1つが、現時点または先行時点のいずれかにおける、関連する状況認識に応じて決まる、請求項30に記載の視覚シーンの画像を処理する方法。
- 複数のエッジ点の位置を特定する動作が、
a.複数の極探索方向の内の極探索方向、または対応する複数の半径方向探索経路の内の対応する半径方向探索経路を選択するか、または特定すること、
b.前記対応する前記半径方向探索経路に沿って画像ピクセルを選択すること、但し、前記画像ピクセルを選択する動作は、処理しようとする選択画像ピクセルを提供する、
c.前記選択された画像ピクセルが、前記半径方向探索経路に沿ったエッジ点を構成するか、どうかを判定すること、
d.前記選択された画像ピクセルが、前記半径方向探索経路に沿った前記エッジ点を構成しない場合には、前記半径方向探索経路に沿った次の画像ピクセルを選択すること、但し、前記次の画像ピクセルは、前記半径方向探索経路に沿った、またはその近傍の前記選択された画像ピクセルの半径方向外側にある、および
e.前記次の画像ピクセルで置換された前記選択された画像ピクセルに対してステップcおよびdを繰り返すこと
を含む、請求項1に記載の視覚シーンの画像を処理する方法。 - 選択された画像ピクセルは、複数の選択された画像ピクセルの1つであり、複数のエッジ点の場所を特定する動作は、複数の前記選択された画像ピクセルの処理を行い、第1の前記選択された画像ピクセルは、相対的中心位置における、またはその最近傍の画像ピクセルを含む、請求項35に記載の視覚シーンの画像を処理する方法。
- 次の画像ピクセルは、選択された画像ピクセルに対して相対的中心位置から徐々に遠くなる、行または列の一方において選択され、前記次の画像ピクセルの前記行または列の他方は、対応する極探索方向に応じて半径方向探索経路に最も近接して追従するように選択される、請求項35に記載の視覚シーンの画像を処理する方法。
- 選択された画像ピクセルが、半径方向探索経路に沿ったエッジ点を構成するかどうかを判定する動作に先立って、エッジ保存平滑化フィルタで、前記選択された画像ピクセルをフィルタリングすることをさらに含む、請求項35に記載の視覚シーンの画像を処理する方法。
- エッジ保存平滑化フィルタは、関連する複数の均質領域を使用する、最大均質近隣フィルタを含み、前記関連する複数の均質領域のそれぞれの別の均質領域は、対応する別の極探索方向を中心とする対応する別の組の関連するアクティブピクセルを組み入れる、請求項38に記載の視覚シーンの画像を処理する方法。
- 対応する半径方向探索経路に沿った画像ピクセルが、複数の画像ピクセルの1つであって、
a.対応する複数の空間導関数値を生成するように、半径方向探索経路に沿ったインデックスまたは距離について、前記複数の画像ピクセルを微分すること、および
b.複数の空間導関数値の少なくとも1つの空間導関数値の絶対値の量に応じて、前記複数の画像ピクセル1つの画像ピクセルに対応するエッジ点の位置を特定すること
をさらに含む、請求項35に記載の視覚シーンの画像を処理する方法。 - 複数の画像ピクセルを微分する動作は、実質的にゼロ位相シフト空間導関数を特定することを含む、請求項40に記載の視覚シーンの画像を処理する方法。
- 対応する複数の空間的にフィルタリングされた空間導関数値を生成するように、前記エッジ点の場所を特定する動作の前に、複数の空間導関数値を空間的にフィルタリングすることをさらに含み、
前記複数の画像ピクセルの1つの画像ピクセルに対応するエッジ点の位置を特定する動作が、前記複数の空間的にフィルタリングされた空間導関数値の内の少なくとも1つの空間的にフィルタリングされた空間導関数値の絶対値の量に応じて決まる、請求項40に記載の視覚シーンの画像を処理する方法。 - 複数の空間導関数値を空間的にフィルタリングする動作が、Savitzky−Golayフィルタ法に従う、請求項42に記載の視覚シーンの画像を処理する方法。
- 複数の画像ピクセルを微分する動作が、Savitzky−Golayフィルタ法によって本質的に達成される、請求項43に記載の視覚シーンの画像を処理する方法。
- a.複数の空間的にフィルタリングされた導関数値のゼロ交差の相対的遠位位置を特定すること、但し、前記相対的遠位位置はエッジ点に対して相対的に遠位である、
b.前記ゼロ交差の前記相対的遠位位置に対して相対的に遠位である、前記複数の前記空間的にフィルタリングされた空間導関数値のそれぞれが、閾よりも小さい変動の尺度を示すかどうかを判定すること、および
c.前記ゼロ交差の前記相対的遠位位置に対して相対的に遠である、前記複数の前記空間的にフィルタリングされた空間導関数値の少なくとも1つが、分散の尺度が閾以上であることを示す場合には、エッジ点が不確定であることを指示すること
をさらに含む、請求項42に記載の視覚シーンの画像を処理する方法。 - 変動の尺度が、複数の空間的にフィルタリングされた空間導関数値のサブセットの加重和に応じて決まる、請求項45に記載の視覚シーンの画像を処理する方法。
- 相対的中心位置が図心を含む、請求項1に記載の視覚シーンの画像を処理する方法。
- 物体検出システムであって、
a.視覚シーンのレンジマップ画像の生成を行う、レンジングシステムであって、前記レンジマップ画像は、第1の複数の点を含み、該第1の複数の点の各点は、前記視覚シーン内の対応する物理要素の対応する部分の第1の座標と第2の座標を含み、前記第1の座標は、前記視覚シーンのダウンレンジ座標に対応するか、またはそれと関係しており、前記第2の座標は、前記視覚シーンのクロスレンジ座標に対応するか、またはそれと関係している、前記レンジングシステム、
b.前記視覚シーンの画像の生成を行う、イメージングシステム、および
c.少なくとも1つのプロセッサであって、
i.トップダウン座標系に対する前記レンジマップ画像内の少なくとも1つの関心領域を特定すること、
ii.前記トップダウン座標系に対する前記少なくとも1つの関心領域の、対応する相対的中心位置を特定すること、
iii.前記画像内の前記相対的中心位置の対応する位置を特定すること、および
iv.前記画像の前記部分内の物体のエッジ境界を位置特定するように、前記相対的中心位置から延びる複数の半径方向探索経路に沿って、前記相対的中心位置を包囲する前記画像の部分を半径方向に探索すること
を行う、前記少なくとも1つのプロセッサを含み、前記複数の半径方向探索経路のそれぞれの別の半径方向探索経路が、対応する別の外向き方向にある、前記物体検出システム。 - レンジングシステムが、
a.ステレオ視システムの第1および第2のカメラ、および
b.前記ステレオ視システムの第1および第2のカメラによってそれぞれ生成された、関連する第1および第2の画像信号から、前記レンジマップ画像を生成するプロセッサ
を含む、請求項48に記載の物体検出システム。 - レンジングシステムが、生成された電磁エネルギーのビームに直接応答してレンジを測定する、システムを含む、請求項48に記載の物体検出システム。
- レンジングシステムは、レーダーシステムまたはライダーシステムのいずれかを含む、請求項48に記載の物体検出システム。
- イメージングシステムが、ステレオ視システムの第1または第2のカメラの一方を含む、請求項48に記載の物体検出システム。
- 相対的中心位置が図心を含む、請求項48に記載の物体検出システム。
- 画像をフィルタリングする方法であって、
a.相対的ピクセル空間において複数の均質領域を識別すること、但し、前記複数の均質領域の各均質領域は、対応する複数の位置に位置する複数のアクティブな相対ピクセルを含み、前記対応する複数の位置は、前記複数の均質領域のすべての複合体を画定する境界内の相対的中心ピクセルと関係して配置され、前記複数のアクティブな相対的ピクセルの前記複数の位置は、対応する極方向において相対的中心軸位置から前記境界まで外方向に延びる、対応する半径方向延長軸に対して対称であり、前記複数のアクティブな相対的ピクセルの前記複数の位置は、前記半径方向延長軸が交差する、そのすべてのアクティブな相対的ピクセルを含み、前記複数の均質領域のそれぞれの別の均質領域は、前記境界の方位に対して別の前記極方向に延びる、別の前記半径方向延長軸に対応する、
b.フィルタリングしようとする画像のピクセルを受け取ること、
c.前記複数の均質領域のそれぞれに対して、
i.前記複数の均質領域の1つを選択すること、
ii.前記複数の均質領域の前記1つに関連する偏差を計算すること、但し前記偏差は、前記画像の対応する複数の近隣ピクセルに対応する、前記複数の均質領域の前記1つの前記複数のアクティブな相対的ピクセルのそれぞれに対して、複数の関連する差分値の和によって与えられ、前記複数の関連する差分値のそれぞれの関連する差分値は、フィルタリングしようとする前記ピクセルの値と、前記均質領域の選択されたアクティブな相対的ピクセルの対応する相対的位置に対応する、相対的位置における前記画像の近隣ピクセルの値、との差分の絶対値によって与えられ、ここで、前記画像のそれぞれの前記近隣ピクセルは、前記画像の前記複数の近隣ピクセルの1つである、
d.対応する前記偏差がそれに対して最小である、前記複数の均質領域の少なくとも1つの前記均質領域を発見すること、
e.フィルタリングしようとする前記画像の前記ピクセルのフィルタリングされたピクセル値を生成すること、但し、前記フィルタリングされたピクセル値は、前記フィルタリングしようとする画像の前記複数の近隣ピクセルのそれぞれの値に応じて決まるとともに、前記複数の近隣ピクセルのそれぞれの前記近隣ピクセルは、前記対応する前記偏差がそれに対して最小である、前記少なくとも1つの前記均質領域の異なる前記選択されたアクティブな相対的ピクセルに対応する、
を含む、前記方法。 - それぞれの極方向は、相対的ピクセル空間のX軸から測定したときの、45度、90度、135度、215度、270度および315度の角度からなる群から選択され、前記相対的ピクセル空間の行寸法は、前記X軸と整列されている、請求項54に記載の画像をフィルタリングする方法。
- 複数のアクティブな相対的ピクセルは、3つの相対的近位ピクセルと1つの相対的遠位ピクセルとを含み、
前記3つの相対的近位ピクセルのそれぞれは、前記相対的中心ピクセルに対して横方向に隣接するか、または対角方向に隣接しており、前記1つの相対的遠位ピクセルは、半径方向延長軸に沿って、前記3つの相対的近位ピクセルの1つに対して横方向に隣接するか、または対角方向に隣接し、かつそれに対して相対的に遠位である、請求項54に記載の画像をフィルタリングする方法。 - フィルタリングされたピクセル値が、複数の近隣ピクセルの値の平均から生成される、請求項54に記載の画像をフィルタリングする方法。
- 複数の近隣ピクセルのカウントが、2のべき乗に等しく、前記複数の近隣ピクセルの値の平均が、前記複数の近隣ピクセルの値の和を、前記2のべき乗に対応する量だけ、2値右シフトすることによって求められる、請求項57に記載の画像をフィルタリングする方法。
- フィルタリングされたピクセル値が、複数の近隣ピクセルの値の中央値として生成される、請求項54に記載の画像をフィルタリングする方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/429,803 US8768007B2 (en) | 2012-03-26 | 2012-03-26 | Method of filtering an image |
US13/429,803 | 2012-03-26 | ||
US13/465,059 US8824733B2 (en) | 2012-03-26 | 2012-05-07 | Range-cued object segmentation system and method |
US13/465,059 | 2012-05-07 | ||
PCT/US2013/033539 WO2013148519A2 (en) | 2012-03-26 | 2013-03-22 | Range-cued object segmentation system and method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015520433A true JP2015520433A (ja) | 2015-07-16 |
JP2015520433A5 JP2015520433A5 (ja) | 2016-05-12 |
JP6272822B2 JP6272822B2 (ja) | 2018-01-31 |
Family
ID=48087739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015503421A Expired - Fee Related JP6272822B2 (ja) | 2012-03-26 | 2013-03-22 | レンジ・キュー式物体セグメンテーションシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8824733B2 (ja) |
EP (1) | EP2831840B1 (ja) |
JP (1) | JP6272822B2 (ja) |
CN (1) | CN104541302B (ja) |
WO (1) | WO2013148519A2 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018101247A1 (ja) * | 2016-11-29 | 2018-06-07 | マクセル株式会社 | 画像認識撮像装置 |
JP2018526641A (ja) * | 2015-08-24 | 2018-09-13 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | レーザ深度マップサンプリングのためのシステム及び方法 |
JP2018156408A (ja) * | 2017-03-17 | 2018-10-04 | マクセル株式会社 | 画像認識撮像装置 |
JPWO2017130639A1 (ja) * | 2016-01-28 | 2018-11-08 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
JP2020135617A (ja) * | 2019-02-22 | 2020-08-31 | 株式会社豊田自動織機 | 物体検出装置 |
JP2020135616A (ja) * | 2019-02-22 | 2020-08-31 | 株式会社豊田自動織機 | 物体検出装置 |
WO2021256276A1 (ja) * | 2020-06-16 | 2021-12-23 | ソニーセミコンダクタソリューションズ株式会社 | 測距装置および測距システム |
JP2022089728A (ja) * | 2020-12-04 | 2022-06-16 | 三菱電機株式会社 | 動的マッピングのためのセンサ融合 |
WO2024042607A1 (ja) * | 2022-08-23 | 2024-02-29 | 日立Astemo株式会社 | 外界認識装置及び外界認識方法 |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5706874B2 (ja) * | 2010-03-03 | 2015-04-22 | 本田技研工業株式会社 | 車両の周辺監視装置 |
US10395125B2 (en) * | 2016-10-06 | 2019-08-27 | Smr Patents S.A.R.L. | Object detection and classification with fourier fans |
US11256931B2 (en) * | 2010-04-19 | 2022-02-22 | SMR Patent S.à.r.l | Rearview device simulation |
US10800329B2 (en) * | 2010-04-19 | 2020-10-13 | SMR Patents S.à.r.l. | Rear view mirror simulation |
US10703299B2 (en) * | 2010-04-19 | 2020-07-07 | SMR Patents S.à.r.l. | Rear view mirror simulation |
US8681036B2 (en) * | 2010-08-26 | 2014-03-25 | Lawrence Livermore National Security, Llc | Distributed road assessment system |
US12124271B2 (en) * | 2011-07-06 | 2024-10-22 | Peloton Technology, Inc. | Gap measurement for vehicle convoying |
JP2013196454A (ja) * | 2012-03-21 | 2013-09-30 | Honda Elesys Co Ltd | 画像処理装置、画像処理方法および画像処理プログラム |
US8768007B2 (en) | 2012-03-26 | 2014-07-01 | Tk Holdings Inc. | Method of filtering an image |
WO2014047465A2 (en) | 2012-09-21 | 2014-03-27 | The Schepens Eye Research Institute, Inc. | Collision prediction |
KR101428237B1 (ko) * | 2012-12-04 | 2014-08-08 | 현대자동차주식회사 | 외장에어백 전개방법 |
US20140218482A1 (en) * | 2013-02-05 | 2014-08-07 | John H. Prince | Positive Train Control Using Autonomous Systems |
US9652860B1 (en) * | 2013-03-15 | 2017-05-16 | Puretech Systems, Inc. | System and method for autonomous PTZ tracking of aerial targets |
US10318823B2 (en) * | 2013-10-14 | 2019-06-11 | Mobileye Vision Technologies Ltd. | Forward-facing multi-imaging system for navigating a vehicle |
US9087263B2 (en) * | 2013-12-09 | 2015-07-21 | National Chung Shan Institute Of Science And Technology | Vision based pedestrian and cyclist detection method |
DE102014003221A1 (de) * | 2014-03-05 | 2015-09-10 | Audi Ag | Verfahren zur maßstabskorrekten Skalierung einer Aufnahme eines Kamerasensors |
JP6340850B2 (ja) * | 2014-03-18 | 2018-06-13 | 株式会社リコー | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
CN106463061B (zh) * | 2014-05-27 | 2019-10-18 | 本田技研工业株式会社 | 碰撞可能性判定装置 |
EP3048557B1 (de) * | 2015-01-20 | 2019-09-25 | Aptiv Technologies Limited | Verfahren zum Ermitteln einer Lage eines Fahrzeugmerkmals |
JP6122516B2 (ja) * | 2015-01-28 | 2017-04-26 | 財團法人工業技術研究院Industrial Technology Research Institute | エンコーディング方法及びエンコーダ |
EP3109824B1 (en) * | 2015-06-24 | 2019-03-20 | RaySearch Laboratories AB | System and method for handling image data |
US10628983B2 (en) | 2015-12-18 | 2020-04-21 | Digital Domain 3.0, Inc. | Systems and methods for multi-sensor image capture |
EP3422289A4 (en) * | 2016-02-23 | 2019-02-27 | Ricoh Company, Ltd. | IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE ENTITY DEVICE CONTROL SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM |
US10163219B2 (en) * | 2016-06-24 | 2018-12-25 | Fca Us Llc | Machine vision cargo monitoring in a vehicle |
US10016896B2 (en) * | 2016-06-30 | 2018-07-10 | Brain Corporation | Systems and methods for robotic behavior around moving bodies |
US10816658B2 (en) * | 2016-09-07 | 2020-10-27 | OmniPreSense Corporation | Radar enabled weapon detection system |
US10488497B2 (en) * | 2016-11-08 | 2019-11-26 | Aptiv Technologies Limited | Scanning lidar for an automated vehicle |
JP6564355B2 (ja) * | 2016-11-17 | 2019-08-21 | 株式会社デンソー | 衝突判定装置、及び衝突判定方法 |
US10220850B2 (en) * | 2017-01-30 | 2019-03-05 | GM Global Technology Operations LLC | Vehicle propulsion systems and methods |
US20230107110A1 (en) * | 2017-04-10 | 2023-04-06 | Eys3D Microelectronics, Co. | Depth processing system and operational method thereof |
US11203295B2 (en) * | 2017-04-14 | 2021-12-21 | Panasonic Automotive Svstems Company of America, Division of Panasonic Corporation of North America | Rearview head up display |
US10094916B1 (en) | 2017-06-09 | 2018-10-09 | Waymo Llc | LIDAR optics alignment systems and methods |
US10460512B2 (en) * | 2017-11-07 | 2019-10-29 | Microsoft Technology Licensing, Llc | 3D skeletonization using truncated epipolar lines |
US10955540B2 (en) | 2017-12-01 | 2021-03-23 | Aptiv Technologies Limited | Detection system |
JP7047849B2 (ja) * | 2017-12-14 | 2022-04-05 | 日本電気株式会社 | 識別装置、識別方法、および識別プログラム |
CN108287336B (zh) * | 2018-01-26 | 2020-05-19 | 华中科技大学 | 一种面阵盖革apd激光雷达距离像强度像生成系统 |
DE102018115146A1 (de) * | 2018-06-24 | 2019-12-24 | Industry365 Ug (Haftungsbeschränkt) | Verfahren zur Herstellung für das menschliche Auge nicht sichtbarer und nicht kopierbarer Sicherheitselemente in einer Abbildung sowie Verfahren zum Authentizitätsnachweis von Produkten auf Basis des Abgleichs von ungleichen Informationen sowie gedruckte Abbildung |
US10838054B2 (en) | 2018-10-08 | 2020-11-17 | Aptiv Technologies Limited | Detection system and method |
CN111383231B (zh) * | 2018-12-28 | 2023-10-27 | 成都皓图智能科技有限责任公司 | 一种基于3d图像的图像分割方法、装置及系统 |
US11092668B2 (en) * | 2019-02-07 | 2021-08-17 | Aptiv Technologies Limited | Trailer detection system and method |
US11454705B2 (en) * | 2019-02-22 | 2022-09-27 | Veoneer Us, Llc | Tracking system and method for characterizing target height using percentage of range bins |
US11555915B2 (en) * | 2019-03-01 | 2023-01-17 | Samsung Electronics Co., Ltd. | Determining relevant signals using multi-dimensional radar signals |
CN110031821B (zh) * | 2019-03-25 | 2020-11-17 | 白犀牛智达(北京)科技有限公司 | 一种车载避障激光雷达波形提取方法、激光雷达及介质 |
JP7206172B2 (ja) * | 2019-09-19 | 2023-01-17 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
US11408995B2 (en) | 2020-02-24 | 2022-08-09 | Aptiv Technologies Limited | Lateral-bin monitoring for radar target detection |
US11668799B2 (en) * | 2020-03-20 | 2023-06-06 | Aptiv Technologies Limited | Histogram based L-shape detection of target objects |
CN115135964A (zh) * | 2020-06-02 | 2022-09-30 | 华为技术有限公司 | 用于检测道路上的减速带和坑洞的装置、系统和方法 |
EP3961255A1 (en) * | 2020-08-28 | 2022-03-02 | Aptiv Technologies Limited | Driver assistance system for a vehicle, vehicle and a driver assistance method implementable by the system |
US11373511B2 (en) | 2020-09-14 | 2022-06-28 | PureTech Systems Inc. | Alarm processing and classification system and method |
CN113269835A (zh) * | 2021-07-19 | 2021-08-17 | 季华实验室 | 基于轮廓特征的工业零件位姿识别方法、装置和电子设备 |
US20230053243A1 (en) * | 2021-08-11 | 2023-02-16 | Baidu Usa Llc | Hybrid Performance Critic for Planning Module's Parameter Tuning in Autonomous Driving Vehicles |
CN115457004B (zh) * | 2022-09-22 | 2023-05-26 | 山东华太新能源电池有限公司 | 基于计算机视觉的锌膏的智能检测方法 |
CN115909302B (zh) * | 2023-03-09 | 2023-06-16 | 菏泽学院 | 一种用于药物崩解性能识别的数据处理方法 |
CN116012453B (zh) * | 2023-03-28 | 2023-06-09 | 常州星宇车灯股份有限公司 | 车辆智能驾驶的单目测距方法、装置、设备、介质及车辆 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10285582A (ja) * | 1997-04-04 | 1998-10-23 | Fuji Heavy Ind Ltd | 車外監視装置 |
JPH11345336A (ja) * | 1998-06-03 | 1999-12-14 | Nissan Motor Co Ltd | 障害物検出装置 |
JP2000155839A (ja) * | 1998-11-18 | 2000-06-06 | Nippon Telegr & Teleph Corp <Ntt> | 標識領域画像抽出方法、装置、標識領域画像抽出プログラムを記録した記録媒体 |
JP2000259997A (ja) * | 1999-03-05 | 2000-09-22 | Nissan Motor Co Ltd | 先行車の高さおよび車間距離計測装置 |
JP2001004368A (ja) * | 1999-06-16 | 2001-01-12 | Honda Motor Co Ltd | 物体認識装置 |
US20050084156A1 (en) * | 2003-08-28 | 2005-04-21 | Das Aveek K. | Method and apparatus for differentiating pedestrians, vehicles, and other objects |
JP2008045974A (ja) * | 2006-08-14 | 2008-02-28 | Fuji Heavy Ind Ltd | 物体検出装置 |
JP2008507454A (ja) * | 2004-07-26 | 2008-03-13 | オートモーティブ システムズ ラボラトリー インコーポレーテッド | 道路使用弱者保護システム |
JP2008064628A (ja) * | 2006-09-07 | 2008-03-21 | Fuji Heavy Ind Ltd | 物体検出装置および物体検出方法 |
Family Cites Families (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4802230A (en) | 1987-03-13 | 1989-01-31 | Gtx Corporation | Method and apparatus for generating size and orientation invariant shape features |
US5400244A (en) | 1991-06-25 | 1995-03-21 | Kabushiki Kaisha Toshiba | Running control system for mobile robot provided with multiple sensor information integration system |
US5481620A (en) | 1991-09-27 | 1996-01-02 | E. I. Du Pont De Nemours And Company | Adaptive vision system |
JP3167752B2 (ja) | 1991-10-22 | 2001-05-21 | 富士重工業株式会社 | 車輌用距離検出装置 |
JP3083918B2 (ja) | 1992-06-26 | 2000-09-04 | 本田技研工業株式会社 | 画像処理装置 |
US5487116A (en) | 1993-05-25 | 1996-01-23 | Matsushita Electric Industrial Co., Ltd. | Vehicle recognition apparatus |
JP3522317B2 (ja) | 1993-12-27 | 2004-04-26 | 富士重工業株式会社 | 車輌用走行案内装置 |
DE19680415C2 (de) | 1995-04-26 | 2003-02-06 | Hitachi Ltd | Bildbearbeitungsvorrichtung für Fahrzeuge |
JPH09254726A (ja) | 1996-03-19 | 1997-09-30 | Fuji Heavy Ind Ltd | 車両用運転支援装置 |
JP3866328B2 (ja) | 1996-06-06 | 2007-01-10 | 富士重工業株式会社 | 車両周辺立体物認識装置 |
DE19636028C1 (de) | 1996-09-05 | 1997-11-20 | Daimler Benz Ag | Verfahren zur Stereobild-Objektdetektion |
US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
US7796081B2 (en) | 1997-10-22 | 2010-09-14 | Intelligent Technologies International, Inc. | Combined imaging and distance monitoring for vehicular applications |
US6031935A (en) | 1998-02-12 | 2000-02-29 | Kimmel; Zebadiah M. | Method and apparatus for segmenting images using constant-time deformable contours |
JP3450189B2 (ja) | 1998-06-16 | 2003-09-22 | ダイハツ工業株式会社 | 歩行者検知システム及びその制御方法 |
JP3596314B2 (ja) | 1998-11-02 | 2004-12-02 | 日産自動車株式会社 | 物体端の位置計測装置および移動体の通行判断装置 |
JP2000207693A (ja) | 1999-01-08 | 2000-07-28 | Nissan Motor Co Ltd | 車載用障害物検出装置 |
DE19926559A1 (de) | 1999-06-11 | 2000-12-21 | Daimler Chrysler Ag | Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung |
US6771834B1 (en) | 1999-07-02 | 2004-08-03 | Intel Corporation | Method for segmenting a digital image |
JP3674400B2 (ja) | 1999-08-06 | 2005-07-20 | 日産自動車株式会社 | 周囲環境認識装置 |
US6963661B1 (en) | 1999-09-09 | 2005-11-08 | Kabushiki Kaisha Toshiba | Obstacle detection system and method therefor |
CN1561093A (zh) | 1999-10-12 | 2005-01-05 | ���µ�����ҵ��ʽ���� | 摄像机调整方法以及车辆监视系统 |
JP4205825B2 (ja) | 1999-11-04 | 2009-01-07 | 本田技研工業株式会社 | 対象物認識装置 |
US6801244B2 (en) | 2000-02-29 | 2004-10-05 | Kabushiki Kaisha Toshiba | Obstacle detection apparatus and method |
US6961443B2 (en) | 2000-06-15 | 2005-11-01 | Automotive Systems Laboratory, Inc. | Occupant sensor |
DE10301468B4 (de) | 2002-01-18 | 2010-08-05 | Honda Giken Kogyo K.K. | Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs |
US7340077B2 (en) | 2002-02-15 | 2008-03-04 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
WO2003073359A2 (en) | 2002-02-26 | 2003-09-04 | Canesta, Inc. | Method and apparatus for recognizing objects |
JP2003281503A (ja) | 2002-03-20 | 2003-10-03 | Fuji Heavy Ind Ltd | 立体物の画像認識装置 |
US7203356B2 (en) | 2002-04-11 | 2007-04-10 | Canesta, Inc. | Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications |
US7715591B2 (en) | 2002-04-24 | 2010-05-11 | Hrl Laboratories, Llc | High-performance sensor fusion architecture |
JP3895238B2 (ja) | 2002-08-28 | 2007-03-22 | 株式会社東芝 | 障害物検出装置及びその方法 |
US7400744B2 (en) | 2002-09-05 | 2008-07-15 | Cognex Technology And Investment Corporation | Stereo door sensor |
US7397929B2 (en) | 2002-09-05 | 2008-07-08 | Cognex Technology And Investment Corporation | Method and apparatus for monitoring a passageway using 3D images |
US7263209B2 (en) | 2003-06-13 | 2007-08-28 | Sarnoff Corporation | Vehicular vision system |
US6956469B2 (en) | 2003-06-13 | 2005-10-18 | Sarnoff Corporation | Method and apparatus for pedestrian detection |
US7321669B2 (en) | 2003-07-10 | 2008-01-22 | Sarnoff Corporation | Method and apparatus for refining target position and size estimates using image and depth data |
JP3937414B2 (ja) | 2004-08-11 | 2007-06-27 | 本田技研工業株式会社 | 平面検出装置及び検出方法 |
US7493202B2 (en) | 2004-11-12 | 2009-02-17 | Takata Corporation | Vehicle safety control system by image processing |
US7505841B2 (en) | 2005-09-02 | 2009-03-17 | Delphi Technologies, Inc. | Vision-based occupant classification method and system for controlling airbag deployment in a vehicle restraint system |
KR100727033B1 (ko) | 2005-12-07 | 2007-06-12 | 한국전자통신연구원 | 네트워크 기반 지능형 서비스 로봇의 비전 처리 장치 및방법과 이를 이용한 시스템 |
WO2008013568A2 (en) | 2005-12-30 | 2008-01-31 | Irobot Corporation | Autonomous mobile robot |
JP4797794B2 (ja) | 2006-05-24 | 2011-10-19 | 日産自動車株式会社 | 歩行者検出装置および歩行者検出方法 |
JP5061767B2 (ja) | 2006-08-10 | 2012-10-31 | 日産自動車株式会社 | 画像処理装置および画像処理方法 |
CN101627280B (zh) | 2006-11-21 | 2013-09-25 | 曼蒂斯影像有限公司 | 三维几何建模和三维视频内容创建 |
US7856130B2 (en) | 2007-03-28 | 2010-12-21 | Eigen, Inc. | Object recognition system for medical imaging |
JP5092613B2 (ja) | 2007-08-06 | 2012-12-05 | 日産自動車株式会社 | 距離計測方法および装置、ならびに距離計測装置を備えた車両 |
EP2065678B1 (en) | 2007-11-30 | 2016-02-10 | Nissan Motor Co., Ltd. | Distance measurement system and distance measurement method |
US9007395B2 (en) * | 2008-12-01 | 2015-04-14 | Marvell World Trade Ltd. | Bit resolution enhancement |
US8774512B2 (en) | 2009-02-11 | 2014-07-08 | Thomson Licensing | Filling holes in depth maps |
DE102009009047A1 (de) | 2009-02-16 | 2010-08-19 | Daimler Ag | Verfahren zur Objektdetektion |
US20110026770A1 (en) | 2009-07-31 | 2011-02-03 | Jonathan David Brookshire | Person Following Using Histograms of Oriented Gradients |
CN102313547B (zh) * | 2011-05-26 | 2013-02-13 | 东南大学 | 基于手绘轮廓语义地图的移动机器人视觉导航方法 |
-
2012
- 2012-05-07 US US13/465,059 patent/US8824733B2/en not_active Expired - Fee Related
-
2013
- 2013-03-22 JP JP2015503421A patent/JP6272822B2/ja not_active Expired - Fee Related
- 2013-03-22 CN CN201380026198.4A patent/CN104541302B/zh not_active Expired - Fee Related
- 2013-03-22 WO PCT/US2013/033539 patent/WO2013148519A2/en active Application Filing
- 2013-03-22 EP EP13715843.2A patent/EP2831840B1/en not_active Not-in-force
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10285582A (ja) * | 1997-04-04 | 1998-10-23 | Fuji Heavy Ind Ltd | 車外監視装置 |
JPH11345336A (ja) * | 1998-06-03 | 1999-12-14 | Nissan Motor Co Ltd | 障害物検出装置 |
JP2000155839A (ja) * | 1998-11-18 | 2000-06-06 | Nippon Telegr & Teleph Corp <Ntt> | 標識領域画像抽出方法、装置、標識領域画像抽出プログラムを記録した記録媒体 |
JP2000259997A (ja) * | 1999-03-05 | 2000-09-22 | Nissan Motor Co Ltd | 先行車の高さおよび車間距離計測装置 |
JP2001004368A (ja) * | 1999-06-16 | 2001-01-12 | Honda Motor Co Ltd | 物体認識装置 |
US20050084156A1 (en) * | 2003-08-28 | 2005-04-21 | Das Aveek K. | Method and apparatus for differentiating pedestrians, vehicles, and other objects |
JP2008507454A (ja) * | 2004-07-26 | 2008-03-13 | オートモーティブ システムズ ラボラトリー インコーポレーテッド | 道路使用弱者保護システム |
JP2008045974A (ja) * | 2006-08-14 | 2008-02-28 | Fuji Heavy Ind Ltd | 物体検出装置 |
JP2008064628A (ja) * | 2006-09-07 | 2008-03-21 | Fuji Heavy Ind Ltd | 物体検出装置および物体検出方法 |
Non-Patent Citations (1)
Title |
---|
串間 和彦、外4名: ""オブジェクトに基づく高速画像検索システム:ExSight"", 情報処理学会論文誌, vol. 40, no. 2, JPN6017000909, 15 February 1999 (1999-02-15), JP, pages 732 - 741, ISSN: 0003480029 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11042723B2 (en) | 2015-08-24 | 2021-06-22 | Qualcomm Incorporated | Systems and methods for depth map sampling |
JP2018526641A (ja) * | 2015-08-24 | 2018-09-13 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | レーザ深度マップサンプリングのためのシステム及び方法 |
US11915502B2 (en) | 2015-08-24 | 2024-02-27 | Qualcomm Incorporated | Systems and methods for depth map sampling |
JPWO2017130639A1 (ja) * | 2016-01-28 | 2018-11-08 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
WO2018101247A1 (ja) * | 2016-11-29 | 2018-06-07 | マクセル株式会社 | 画像認識撮像装置 |
JP2018156408A (ja) * | 2017-03-17 | 2018-10-04 | マクセル株式会社 | 画像認識撮像装置 |
JP2020135617A (ja) * | 2019-02-22 | 2020-08-31 | 株式会社豊田自動織機 | 物体検出装置 |
JP2020135616A (ja) * | 2019-02-22 | 2020-08-31 | 株式会社豊田自動織機 | 物体検出装置 |
JP7081526B2 (ja) | 2019-02-22 | 2022-06-07 | 株式会社豊田自動織機 | 物体検出装置 |
JP7180445B2 (ja) | 2019-02-22 | 2022-11-30 | 株式会社豊田自動織機 | 物体検出装置 |
WO2021256276A1 (ja) * | 2020-06-16 | 2021-12-23 | ソニーセミコンダクタソリューションズ株式会社 | 測距装置および測距システム |
JP2022089728A (ja) * | 2020-12-04 | 2022-06-16 | 三菱電機株式会社 | 動的マッピングのためのセンサ融合 |
JP7254057B2 (ja) | 2020-12-04 | 2023-04-07 | 三菱電機株式会社 | 動的マッピングのためのセンサ融合 |
WO2024042607A1 (ja) * | 2022-08-23 | 2024-02-29 | 日立Astemo株式会社 | 外界認識装置及び外界認識方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104541302A (zh) | 2015-04-22 |
EP2831840B1 (en) | 2019-01-16 |
EP2831840A2 (en) | 2015-02-04 |
US20130251194A1 (en) | 2013-09-26 |
WO2013148519A2 (en) | 2013-10-03 |
JP6272822B2 (ja) | 2018-01-31 |
WO2013148519A3 (en) | 2013-12-12 |
CN104541302B (zh) | 2017-11-24 |
US8824733B2 (en) | 2014-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6272822B2 (ja) | レンジ・キュー式物体セグメンテーションシステムおよび方法 | |
US8768007B2 (en) | Method of filtering an image | |
CN107272021B (zh) | 使用雷达和视觉定义的图像检测区域的对象检测 | |
CN111712731A (zh) | 目标检测方法、系统及可移动平台 | |
JP6702340B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
US20130177237A1 (en) | Stereo-vision object detection system and method | |
US7103213B2 (en) | Method and apparatus for classifying an object | |
Nedevschi et al. | High accuracy stereovision approach for obstacle detection on non-planar roads | |
US8406472B2 (en) | Method and system for processing image data | |
US20050232463A1 (en) | Method and apparatus for detecting a presence prior to collision | |
JP2015520433A5 (ja) | ||
EP3392830B1 (en) | Image processing device, object recognition device, apparatus control system, image processing method and program | |
US10546383B2 (en) | Image processing device, object recognizing device, device control system, image processing method, and computer-readable medium | |
Antony et al. | Vision based vehicle detection: A literature review | |
Li et al. | Automatic parking slot detection based on around view monitor (AVM) systems | |
Bansal et al. | Radsegnet: A reliable approach to radar camera fusion | |
CN112990049A (zh) | 用于车辆自动驾驶的aeb紧急制动方法、装置 | |
Raguraman et al. | Intelligent drivable area detection system using camera and LiDAR sensor for autonomous vehicle | |
Nedevschi et al. | Driving environment perception using stereovision | |
Gao et al. | Obstacle detection with 3D camera using UV-Disparity | |
Giosan et al. | Superpixel-based obstacle segmentation from dense stereo urban traffic scenarios using intensity, depth and optical flow information | |
Ma et al. | A real time object detection approach applied to reliable pedestrian detection | |
Kwak et al. | Boundary detection based on supervised learning | |
Lee et al. | Improved vehicle detection algorithm in heavy traffic for intelligent vehicle | |
Nedevschi et al. | Stereovision-based sensor for intersection assistance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160317 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170119 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170630 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6272822 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S343 | Written request for registration of root pledge or change of root pledge |
Free format text: JAPANESE INTERMEDIATE CODE: R316354 |
|
SZ02 | Written request for trust registration |
Free format text: JAPANESE INTERMEDIATE CODE: R316Z02 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |