JP2011014148A - 自動車用の障害物検知方法 - Google Patents
自動車用の障害物検知方法 Download PDFInfo
- Publication number
- JP2011014148A JP2011014148A JP2010154353A JP2010154353A JP2011014148A JP 2011014148 A JP2011014148 A JP 2011014148A JP 2010154353 A JP2010154353 A JP 2010154353A JP 2010154353 A JP2010154353 A JP 2010154353A JP 2011014148 A JP2011014148 A JP 2011014148A
- Authority
- JP
- Japan
- Prior art keywords
- image
- detection
- obstacle
- roi2
- roi1
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 223
- 238000000034 method Methods 0.000 claims abstract description 54
- 239000013598 vector Substances 0.000 claims description 28
- 238000009826 distribution Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 230000010365 information processing Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 24
- 230000008569 process Effects 0.000 description 20
- 239000010985 leather Substances 0.000 description 18
- 238000010586 diagram Methods 0.000 description 15
- 238000007689 inspection Methods 0.000 description 6
- 102100035475 Blood vessel epicardial substance Human genes 0.000 description 4
- 101001094636 Homo sapiens Blood vessel epicardial substance Proteins 0.000 description 4
- 101000608194 Homo sapiens Pyrin domain-containing protein 1 Proteins 0.000 description 4
- 101000595404 Homo sapiens Ribonucleases P/MRP protein subunit POP1 Proteins 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 101150020450 lsr2 gene Proteins 0.000 description 4
- 230000002068 genetic effect Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- NIOPZPCMRQGZCE-WEVVVXLNSA-N 2,4-dinitro-6-(octan-2-yl)phenyl (E)-but-2-enoate Chemical compound CCCCCCC(C)C1=CC([N+]([O-])=O)=CC([N+]([O-])=O)=C1OC(=O)\C=C\C NIOPZPCMRQGZCE-WEVVVXLNSA-N 0.000 description 1
- 229930091051 Arenine Natural products 0.000 description 1
- 238000006563 Carroll rearrangement reaction Methods 0.000 description 1
- 101000942586 Homo sapiens CCR4-NOT transcription complex subunit 8 Proteins 0.000 description 1
- 101001094629 Homo sapiens Popeye domain-containing protein 2 Proteins 0.000 description 1
- 101000608230 Homo sapiens Pyrin domain-containing protein 2 Proteins 0.000 description 1
- 102100035482 Popeye domain-containing protein 2 Human genes 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 101150053100 cls1 gene Proteins 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004870 electrical engineering Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/862—Combination of radar systems with sonar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9317—Driving backwards
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93272—Sensor installation details in the back of the vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【解決手段】方法は、環境の取得画像における形状認識により障害物の第1の検知を実施することによって、少なくとも1つの第1の対象領域を決定することと、前記環境の取得画像のシーケンスでの車両に対する動き検知により障害物の第2の検知を行うことによって、少なくとも1つの第2の対象領域を決定することと、それぞれ、所定の特徴に対して第1の対象領域および第2の対象領域に付与される第1の信頼性指数および第2の信頼性指数によって、検知された障害物を分類することと、前記信頼性指数に対して、また、前記対象領域に対して、検知された障害物での分類を確定し、その結果、確定された有効領域を得ることとの、各ステップを備える。
【選択図】図1
Description
本発明は、また、この方法を利用する装置に関する。
本発明は、自動車の領域に特に用いられる。
カメラにより歩行者を検知することと、
検知された車両を危険性のカテゴリーに従って、移動速度と、考慮された車両の軸に対する位置とに応じて分類することと、
歩行者の存在を運転者に知らせるためのアラーム信号を送信することと、
の各ステップを含む。
この従来技術の欠点は、歩行者の検知および分類に適用しにくいことにある。
前記環境の取得画像における形状認識により障害物の第1の検知を実施することによって、少なくとも1つの第1の対象領域を決定することと、
前記環境の取得画像のシーケンスでの車両に対する動き検知により障害物の第2の検知を行うことによって、少なくとも1つの第2の対象領域を決定することと、
それぞれ、所定の特徴に対して第1の対象領域および第2の対象領域に付与される第1の信頼性指数および第2の信頼性指数によって、検知された障害物を分類することと、
前記信頼性指数に対して、また、前記対象領域に対して、検知された障害物での分類を確定し、その結果、確定された有効領域を得ることとの、
各ステップを備えることを特徴とする。
第1の閾値よりも小さい検知範囲で1つまたは複数のセンサによる障害物の第3の検知を行って、所定の位置を得ることと、
所定の位置を基準目印に投影することと、
確定された有効領域を前記基準目印に投影することと、
得られた2つの投影を対応させて、この対応に応じて、分類された障害物に所定の位置を割り当てることと、
の各追加ステップを備える。
取得画像の再帰的なサブサンプリングによる画像ピラミッドを構成することと、
各々のサブサンプリング画像に対して、
所定の障害物を示すラベルにより前記画像を走査することと、
前記画像におけるラベルの連続する各位置で、分類子の集合により内容を分析することとの、
各サブステップを備え、前記分類子が、事前学習段階のときに決定されている。
画像シーケンスの各画像に対して再計算された背景画像を構成することと、
画像シーケンスの現行画像から背景画像を減算し(soustraire)、結果として生じた1つの画像を得ることと、
閾値に応じて、結果として生じた画像で判別される動きを弁別することと、
弁別によって第2の対象領域を抽出することと、
の各サブステップを備える。
これによって、背景に属さない、動いている障害物を得られる。
動きを検知する第2の検知が、
取得画像の対象点を決定することと、
次の画像で上記対象点に従って、それらの移動を決定することと、
第2の対象領域で同様の移動を有する前記対象点を集めることと、
自動車の移動を決定することと、
自動車の移動の結果ではない画像で移動を有する第2の対象領域を確定することとの、
各サブステップを含む。
対象領域から特徴ベクトルを生成することと、
学習ステップのときに予め決められた決定境界との比較により前記特徴ベクトルを分類することと、
前記決定境界に対して特徴ベクトルの距離に応じて決定される組み合わせ信頼性指数を決定することと、
の各サブステップを備える。
分類された各々の対象領域が確率分布により示される画像に対応する確率マップを構成することと、
少なくとも1つの局部的な最大値を得るように、確率マップに集められた前記確率分布を累積することと、
確率マップの局部的な最大値の各々に最も近い対象領域を確定することと、
の各サブステップを備える。
前記環境の取得画像における形状認識により障害物の第1の検知を行うことによって、少なくとも1つの第1の対象領域を決定し、
前記環境の取得画像のシーケンスでの車両に対する動き検知により障害物の第2の検知を行うことによって、少なくとも1つの第2の対象領域を決定し、
それぞれ、所定の特徴に対して第1の対象領域および第2の対象領域に付与される第1の信頼性指数および第2の信頼性指数によって、検知された障害物を分類し、
前記信頼性指数に対して、また、前記対象領域に対して、検知された障害物での分類を確定し、その結果、確定された有効領域を得ることが可能であることを特徴とする。
所定の位置で、結果として生じた第1の閾値より小さい検知範囲で1つまたは複数のセンサにより障害物の第3の検知を実施し、
この所定の位置を基準目印に投影し、
確定された対象領域を前記基準目印に投影し、
得られた2つの投影を対応させて、この対応に応じて、分類された障害物に所定の位置を割り当てることができる。
この実施モードに従い、検出プロセスは、図1に示す下記のステップで構成する:
- 環境Eで得た画像Iの中で形状認識により障害物Oの1番目の検出をして、最低でも、1番目の対象地域ROI1を規定する(ステップ 検出_形状(ROI1, I )。
- 上述の環境Eで獲得したIの画像シーケンスSQに対する自動車Vに対する動作検出により、障害物Oの2番目の検出を行って、最低でも、ROI2の対象地域を検出する(ステップ検出_動作(RO12 SQ)。
- 一定の特性Cに対して1番目のROI1と2番目のROI2で使用した信頼の指数である1番目のIC1と2番目のIC2で検出した障害物Oを分類し(ステップ 分類(IC1, IC2, C)、
- 信頼指標IC1とIC2と対象地域ROI1とROI2に対して検出した物体Oに対する分類の有効性を確認する (ステップ 有効性_分類(IC1, IC2, ROI1, ROI2))。
1) 下記を使用する学習初期ステップ :
- 規定サイズSzの参考レッテルVIGNを使った形状認識。本件の例の場合、歩行者である障害物Oを表すレッテルシリーズVIGNを基礎とする。同様に、非限定の例では、VIGNレッテルは、48*24 ピクセル PxのサイズSzである。レッテルシリーズには、歩行者のいるポジと呼ばれるレッテル全体と、歩行者のいないネガと呼ばれるレッテル全体がある、
- (英語で・・強い分類・と呼ぶ)強力な分類全体CLs全体を得ることができる遺伝アルゴリズム(英語で・遺伝アルゴリズム・)。この強力な分類CLsには、複数の弱い分類CLw(英語で・弱い分類・)を含む。弱い分類CLwと強力な分類CLsの獲得は、参考レッテルVIGNEシリーズのピクセル毎の比較を基礎とする。
弱い分類 CLwは、同じレッテル内の1つのピクセルと他のピクセルの比較をする単一テストで構成している。これにも同じく重量を組み合わせている。
a) 獲得した画像の反復可能なサンプリングのもと、画像・・・のピラミッドを作る。
- 獲得した画像Iについて、SR1に適用した縮小縮尺は、1sr1でサブサンプリングした1番目の画像の結果で、1.2となる、
- lsr1でサブサンプリングした画像について、SR2に使用した縮小縮尺は、1sr2でサブサンプリングした2番目の画像の結果、2となる、
- lsr2でサブサンプリングした画像について、SR3に使用した結果、縮小縮尺は、1sr3でサブサンプリングした3番目の画像の結果、2.3となる、
- lsr3でサブサンプリングした画像について、SR4に使用した結果、縮小縮尺は、1sr4でサブサンプリングした2番目の画像の結果、3となる、
- lsr4でサブサンプリングした画像について、SR5に使用した結果、縮小縮尺は、1sr5でサブサンプリングした5番目の画像の結果、4となる、
- lsr5でサブサンプリングした画像について、SR6に使用した結果、縮小縮尺は、1sr6でサブサンプリングした6番目の画像の結果、5となる。
b) サブサンプリングした各画像lsrについて・
- 一定の障害物O、ここでは歩行者である代表的レッテルVIGNの付いたこの画像を走査する。レッテルVIGNには、歩行者の代表的Szの一定の大きさがある。非限定の例では、走査は、左から右へ上から下へ行う。
- 上述の画像lsrの中のレッテルVIGNの連続した位置で、ClsとClwの分類全体を使って画像の中身を分析する。この場合、2つの分類は、上述に記載したように、学習段階で決定する。
i) 通常のポジションPOSに、レッテルVIGNの上の1番目の強力な分類CLs0の弱い分類CLwを組み合わせる。
組み合わせた単一テストの有効性が確認済み、すなわちポジの弱い分類CLwの重量を加算する。
この加算分と強力な分類CLs0の重量と比較する。
ii) 結果がネガな場合(加算分が強力な分類CLs0の重量より小さい)、レッテルVIGNのポジションPOSを拒否する(ステップ拒否_ポジション)。これは、通常のポジションでのレッテルVIGNにはここでは歩行者である障害物Oが全くないことを意味する。レッテルの次のポジションPOSに移る。
iii) 結果がポジの場合(すなわち、加算分が強力な分類CLs0の重量より大きい)、次の強力な分類CLs1を適用し、ステップiを再び繰り返す。結果がポジである限り、次の強力な分類CLsnへ移る。
全ての強力な分類CLsがプラスの結果になった場合、通常のポジションでのレッテルVIGNに、ここでは歩行者である障害物Oがあることを意味する。この場合、レッテルVIGNのポジションPOSを記憶し(表示したステップ メモリー_ポジション)、次のレッテルVIGNに移る。
- 障害物Oは、レッテルVIGNより大きい。
- 障害物Oは、空を表す部分のゾーンの外の画像の一部の中にあることはない。
同様に、非限定の実施モードでは、走査ゾーンZbには下記が含まれる・
- レッテルVIGNを使って画像の中にいかなる障害物も検出できない境を決める上のラインHと、
- レッテルVIGNを使って画像の中にいかなる障害物も検出できない境を決める下のラインL。
図9から図14に見えるように、走査ゾーンZb1、 Zb2、 Zb3、 Zb4、 Zb5、 Z6 (2本の点線の水平線で表している)を Isr1、 Isr2、 Isr3、 Isr4、 lsr5、 Isr6のサブサンプリング画像に対して決定した。
- サブサンプリングの画像lsr1について、走査ゾーンZb1の下のラインは、10メートルの距離Dに配置した。
- サブサンプリングの画像lsr2について、走査ゾーンZb2の下のラインは、6メートルの距離Dに配置した。
- サブサンプリングの画像lsr3について、走査ゾーンZb3の下のラインは、3.5メートルの距離Dに配置した。
- サブサンプリングの画像lsr4について、走査ゾーンZb4の下のラインは、2メートルの距離Dに配置した。
- サブサンプリングの画像lsr5について、走査ゾーンZb5の下のラインは、1メートルの距離Dに配置した。
- サブサンプリングの画像lsr6について、走査ゾーンZb6の下のラインは、画像lsr6の下の境界に配置した。
非限定の1番目の実施モードでは、2番目の検出(図2に表すステップ検出_動作1 (Iref, Ires, Smax, H) )は、下記のサブステップを含む。
a) 画像シーケンスSQの画像lについて再計算した背景画像lrefを作る。
Iref =α*Ic+(1-α)*Iref.
この式で、 αは学習のパーセンテージである。
非限定の例において、 SYMBOL 97 \f "Symbol" \s 12 = 0.05
この学習パーセンテージは、新しいlc画像の5%と前のlrefのパーセンテージの95%を保存していることを意味している。
別の言い方で言えば、背景は、画像の物体(障害物を含む)に従い、変化する。
b) 合力画像であるlresの結果である画像シーケンスSQの中の通常画像から背景画像lrefを外す。
このようにして、 Ires =絶対値 (Ic-Iref)になる。
このステップを画像シーケンスの獲得したIの画像全体に実施する。
c) 限界値Smaxに従い、合力画像lresの中の一定の動作を分離する。
非限定の実施バリエーションについて、上述の限界値Smaxと共に、合力画像の各ピクセルの強度を比較するが、これは、合力画像lresの中に動作があることを意味する。
d) 分離から、2番目の対象地域ROI2を引き離す。
このために、非限定実施バリエーションの場合、下記のやり方で、合力画像を二進法にする・
騒音BRの代表的最大強度限界値Sbrと、合力画像のピクセルPx全てを比較する。
- ピクセルPxの値が、強度限界値Sbrより小さい場合、非限定の例については、この値をゼロ(黒)の位置にする。
- 大きい場合、非限定の例について、この値を255(白)の位置にする。
- 各合力画像lresから、灰色レベルの強度最大値を分離する。
- この最大値のパーセンテージと同じ強度限界値Sbrを設定するが、この場合、パーセンテージは騒音BRを表す。
a) 互いに一致している各合力画像の対象地域ROI2を一つに集める。互いに交り合う対象地域ROI2は、同じ障害物Oを代表している。
b) 獲得したこれらの2番目の対象地域ROI2の周辺の長方形を規定するが、これらの長方形がこの場合2番目の対象地域ROI2を定義する。
非限定の実施モードの場合、長方形を規定するには、対象地域ROI2の最小先端と最大先端を採用する。
図3(ステップ 検出_動作2(Vmi, Vmv ))で表した非限定の実施モードの場合、動作による2番目の検出は下記のサブステップが含まれる。
A) 獲得した画像Iに対する対象点Ptlを規定する、
B) これらの対象点を次の画像l+1に対し追い、これらの移動を決定する、
C) 類似した移動Vmiを持つ上述の対象点Ptlの2番目の対象地域ROI2を1つに集める、
D) 自動車Vの移動Vmvを規定し、
E) 自動車Vmvの移動の結果ではない画像Iの中で、動作Vmiのある2番目の対象地域ROI2を分離する。
A) 対象点Ptlを規定する。
このため、非限定の実施モードで、<ハリス・コーナー>と呼ばれ専門家の間で良く知られている方法を使用する。対象点Ptlのポジションxとyを得る。
B) 対象点 Ptlを追う。
次の画像l+1の画像lの対象点Ptlの追跡から、画像lと次の画像l+1のこれらの対象点Ptlの移動ベクターVmiを取り除く。
C) 2番目の対象地域Rol2の再結集。
同様に、つぎのような同じ移動ベクターVmiを持つ対象点Ptlを1つに集める:
- 同じ方向に移動する、
- 同等の規格を持つ(ピクセルPxの数と同じ移動)。
この再結集から、2番目の対象地域ROI2を決定する。このため、1つに集める移動ベクターの先端点を採用する。
- 移動を観察した歩行者である障害物 O1、
- 移動を観察した歩行者である障害物 O2
D) 自動車Vの移動 Vmvを決定する。
自動車Vの移動を決定するには、この自動車Vが与える路程値(車輪速度、横揺れ速度)を使用する。
Ωx:自動車縦揺れ角度
Ωy:自動車横揺れ角度
Ωz:自動車偏揺れ角度
F:カメラCAMの焦点
Ty:画像lと次の画像l+1の間の自動車の垂直移動
Tz:画像lと次の画像l+1の間の自動車の縦移動
Tx:画像lと次の画像l+1の間の自動車の横移動
Xn,Yn:カメラCAMの目印
Zn:カメラに対する障害物Oの距離
xn+1-xn:画像lと次の画像l+1の間の障害物O自動車の画像の横座標のポジションの差
yn+1-yn:画像lと次の画像l+1の間の対象物Oの画像に対する縦座標のポジションの差
また、非限定実施モードでは、ハンドルの角度に対する自動車の移動のみを考慮する。
E)2番目の対象地域ROI2を分離する。
このために、この時、計算した2つの移動VmiとVmpを比較する。
Vmi=Vmpの場合、動かない移動ベクターVmiを組み合わせた2番目の対象地域ROI2は自動車Vについて移動しないと結論する。この場合、障害物Oを表す2番目の対象地域ROI2を考慮しない。
Vmi≠・・・の場合、 番目の対象地域ROI2は移動し、自動車Vについて移動すると結論する。この場合、障害物Oを表す2番目の対象地域ROI2を考慮する。
障害物O2に対応する対象地域ROI22は採用しなかった。事実、障害物O2は、自動車に対して動かない歩行者である。観察した歩行者の移動は、自動車の移動が原因ではなかった。
非限定の実施バリエーションの場合、IC2=絶対値 ((Vmi-Vmp)/ Vmp)である。
2番目の対象地域は、図4で示したように、上述に記載した1番目と2番目の実施モードに従う動作検出による障害物の2番目の検出を行って規定する。
同様に、図26で2D(DI1とDI2)での図式方法で表したように、2つのタイプの集団(歩行者を含む集団と歩行者なしの集団)に分けた参考棒グラフMを得る。ここでは9つの寸法の・棒グラフ・ベクターであり、もっと適切な表示とは、9つの寸法を使ったものであることを特記する。簡単に表したかったので、ここでは2つの寸法だけを表している。
a) (1番目の実施モード 検出_動作1に従い形状認識と動作検出によりそれぞれ)事前ステップで決めた対象地域ROI1とROI2から、特性ベクター(C)を作る(図5に表示したサブステップ 作成_棒グラフ(ROI1とROI2)。
非限定の実施モードの場合、特性ベクターCは、対象地域ROI1とROI2の方向づけた勾配の棒状グラフである。非限定の例の場合、9つの方向を使用する。このように9つの値のある、・棒状グラフ・を得る。
b) この特性ベクターCを、学習ステップ時に事前に決めた決定境界DGと比較して分類する(上述に書いたように)(図5で表示したサブステップ 比較(HIST,DG))。
c) この決定境界DGに対する特性ベクターの距離の関数ICに組み合わした信頼指数を決定する(図5で表したサブステップ 検出(IC1, IC2) )。
a) 分類した各対象地域ROI1とROI2が、確立分配(図6に従うサブステップ 作成_P_地図(IC1, IC2, Dim) )で表される画像Iに一致する確立地図P_MAPを作る。
このため、加算したガウス関数全体を基礎とした確立地図P_MAP を作る。この場合、ガウス関数は下記から作る:
- ガウス関数Gの最大値を表す指数である信頼指数 IC1 と IC2、
- ガウス関数Gの割り当てを表す寸法である、1番目と2番目の対象地域ROI1とROI2の寸法。採用する寸法は高さと幅である。
ガウス関数Gは、鐘の形の対称的曲線のグラフで表す。
- a = 信頼指数IC1とIC2で表す鐘の高さと
- c = 対象地域ROI1とROI2のサイズ(幅)で表す鐘の幅、
- b =曲線頂上のポジション
b) 図6で示したように、少なくとも部分最大値を得るような方法で、確立地図内で、互いに交わった確立分配を加算する(サブステップ ADD_G(P_MAP, ICF)。
同様に、結果の信頼指数の多数性の結果として部分最大多数性を得る。部分最大値により、歩行者の可能性が最も大きい障害物Oの位置を得ることができる。
c) 確立地図P_MAPの各部分最大値に最も近い対象地域ROI1とROI2の有効性を確認する(図6に示したサブステップ 有効性_分類(ROI1, ROI2, ICF)。
d) 図6に示す検出限界値SG(サブステップ 比較(G,SG)に対して合致するガウス関数の部分最大値を比較する。
各部分最大値がこの限界値より小さい場合、結果信頼性指数ICFはゼロである。同様に、歩行者は一切検出されないが、ガウス関数は騒音あるいは誤りの検出に相当すると評価する。この場合、加算に使用した対象地域ROIを一切とっておかない。
2番目の実施モードに従い、1番目のモードで記載したステップ以外に、検出プロセスは、これ以外に、図31で示したように他の追加ステップがある:
7) 決定したポジションPOSでの1番目の結果限界値S1より小さい検出範囲で、センサー(1台または複数)を使い、3番目の障害物検出を実施する(ステップ 検出_センサ(POS, S1))。
8) 参考目印COORefについて、規定したポジションPOSを投影する(ステップ 投影_P1(POS, COORef))。
9) 上述の参考目印COORef について、有効性確認済みの対象地域ROIを投影し(ステップ 投影_P2(ROI1,ROI2)、
10) こうして得た2つの投影PJ1とPJ2を一致させ、一致の状態と有効性確認に従い、分類済み障害物Oに対して、規定ポジションPOSを割り当てる(ステップ 相関関係(PJ1, PJ2)。
ステップの詳細を下記に記載する。
図32で示した1番目の非限定実施モードの場合、3番目の検出は、超音波センサULSを使って実施する(ステップ 検出_センサ1(POS, S1))。1番目の限界値 S1は、超音波センサULSの最大検出範囲を表している。非限定の例の場合、1番目の限界値 S1は、この時4メートルである。超音波センサによる検出は、専門家の間ではよく知られているので、ここでは記載しない。図42の非限定の図式例で示すように、結果規定ポジションPOSには、障害物Oと自動車Vの超音波センサの間の距離Dulsと検出ゾーンZd(長方形の形をしている)がある。
図33で示した2番目の非限定実施モードの場合、3番目の検出は、レザーセンサーRADを使って実施する (ステップ 検出_センサT2(POS, S1))。 1番目の限界値 S1は、レザーセンサーRADの最大検出範囲を表す。非限定の例の場合、1番目の限界値S1は、この時60メートルである。レザーセンサーによる検出は、専門家の間ではよく知られているので、ここでは記載しない。ここでは、図42の非限定の図式による例が示すように、結果の規定ポジションPOSは、障害物Oと自動車Vのレザーセンサーの間の距離Dradと、障害物とレザーセンサーの軸AXradの間の角度βがあることの記載に限定する。
図34で示す3番目の非限定の実施モードの場合、3番目の検出は、超音波センサとレザーセンサーRADを使って実施する。この場合、3番目の検出は、超音波センサULSとレザーセンサーRADによる同じ障害物に対する検出を再結集するステップが含まれる (図34で示したサブステップ・グループ)。
反対の場合 (Diff1 > S4)、検出は同じ障害物Oを対象としていないと考え、他の検出とそれらを1つにまとめられない限り、これらの検出をとっておく。
2つのULSとRADセンサによる検出により、図37で示すように、ロスゾーンZmをカバーすることができる。
非限定の例の場合、画像目印XIと YIでポジションPOSの計画を実施するには、画像の 目印のポジションと自動車目印XvとYvのポジションの間の一致を知るだけでよいことを特記する。
-3.353858 3.332719 1029.732666
-0.077005 1.159693 467.425964
-0.000233 0.009181 1.000000
式 [XI,YI ] = f(Xv,Yv)
xi' = Xv*50
yi' = Yv*50 -200
w =1/ (xi'*MP(3,1) + yi'*MP(3,2) + MP(3,3))
xi = (xi'*MP(1,1) +yi'*MP(1,2)+ MP(1,3)) * w)
yi = (xi'*MP(2,1) +yi'*MP(2,2)+ MP(2,3)) * w)
- 2つの投影PJ1とPJ2の間の覆い表面Sr
- 2つの投影PJ1とPJ2のサイズの間の高さの割合Rtと
- 2つの投影PJ1とPJ2の間の距離の差 Diff2
- カバー表面Srは70%である。
- 比率 Rtは0.5と 1.5の間にあり、
- 差 Diff2は1メートルである
一致が見られない場合には、投影はネガとする。
投影 PJ21と PJ11pは、
- 互いにまじりあう、
- カバー表面 Sr>70%、
- 比率Rtは0.5と1.5の間にある。
- 差Diff2 < 1m.
- 投影 PJ22と PJ13pは、
- 互いにまじりあう、
-カバー表面 Sr<70%、
- 比率Rtは 0.5と 1.5間にある、
- 差Diff2 > 1m.
- 投影 PJ23と PJ15pは
- 互いにまじりあう、
- カバー表面 Sr<70%、
-比率Rtは 0.5と 1.5間にある
- 差Diff2 < 1m.
図44の図式例では、
- 投影 PJ21と PJ12pは
- 互いにまじりあう、
- カバー表面 Sr>70%、
-比率Rtは 0.5と 1.5間にある
- 差Diff2 < 1m.
- 投影 PJ23と PJ16pは
- 互いにまじりあう、;
- カバー表面 Sr<70%、
-比率Rtは 0.5と 1.5間にある
- 差Diff2 > 1m.
- センサが検出した組み合わせたポジション POSと
- ステップ6で有効性を確認した対象地域ROI。
また、非限定実施モードで、組み合わせた信頼性指数を増加する。非限定の例における新しい信頼性指数は、IC=IC+(1-IC)/2である。
- 自動車の目印(組み合わせた対象地域の)の中の予想ポジションと
- 組み合わせた規定投影ゾーン PJ1p。
- 非限定の実施モードについて、下記のテストを実施する。
- 投影がセンサ投影PJ1の場合、検出した障害物Oは歩行者ではないと推論する、
- 投影が対象地域ROIの投影PJ2の場合で、
- これに組み合わせた信頼性指数ICが信頼性限界値Scより大きい場合、
- この時、障害物は歩行者であると推論する。
- そうでない場合には、検出した障害物は歩行者ではなく、信頼性指数をゼロにする。
非限定の例の場合、信頼性限界値 Sc = 0.7である。
- 上述の環境Eでの獲得した画像Iに対する自動車Vに対する形状認識により、障害物Oの1番目の検出を実施して、最低でも1番目の対象地域RO1を規定する。
- 上述の環境Eでの獲得した画像Iのシーケンスについて自動車Vに対する動作検出により、障害物の2番目の検出を実施して、最低でも2番目の対象地域ROI2を規定する。
- 一定の特性Cに対する1番目と2番目の対象地域ROI1とROI2に、1番目IC1、2番目IC2の信頼性指数を適用して、それぞれ検出した障害物Oを分類し、
- 上述の信頼性指数IC1とIC2に対して、ならびに、対象地域ROI1とROI2に対して、検出した物体Oに対する分類の有効性を確認する。
-
- 規定ポジションPOSでの1番目の結果限界値S1より小さい検出範囲に対して、センサを使って、障害物Oの3番目の検出を実施する。
- 参考目印COORef に規定したポジションPOSを投影する。
- 上述の参考目印COORef に有効性確認済みの対象地域ROI1とROI2を投影して、
- こうして得た2つの投影PJ1とPJ2を一致させ、一致状況に応じて、分類した障害物Oに対し、規定ポジションPOSを割り当てる。
-
- 形状認識の1番目の検出の際:
- 獲得した画像Iの反復性サブサンプリングにより画像ピラミッドIsrを作る。
- 各サブサンプリングした画像Isrについて・
- 対象地域 ROIを決める、
- 対象地域ROIと一緒に上述の画像IsRを走査する。
- 上述の画像Isrの対象地域ROIの引き続くポジションについて、ClsとClwの分類器全体を使って、対象地域ROIの中身を分析する。これらの分類器は、事前学習段階で規定する。
- 動作による2番目の検出の際:
- 画像シーケンスSQの各画像Iについて、再計算した背景画像Irefを作る。
-合力画像としての結果の画像シーケンスSQの通常画像から背景画像Irefを取り除く、
- 限界値Smaxに従い、合力画像の一定の運動を分離し
- 分離から、2番目の対象地域ROI2を取り除く。
- 動作による2番目の検出の際:
- 獲得した画像Iに対して対象点Ptlを規定する。
- 次の画像I+1に対しこれらの対象点PtLを追い、移動を定義する。
- 類似移動Vmiを持つ上述の対象点Ptlの2番目の対象地域ROI2を一つに集めて、
- 自動車Vの移動 Vmvを規定し、
- 自動車Vmvから起因しない画像の動作Vmiを持つ2番目の対象地域ROI2を分離する。
- 分類ステップの際 :
- 対象地域ROIから特性ベクターCを作る、
- 学習ステップで事前に決めた決定境界DGを使い比較による上述の特性ベクターCを分類し、
- 上述の決定境界に対して、特性ベクターの距離の関数である組み合わせた信頼性指数ICを決定する。
- 有効性確認ステップの際:
- 分類した対象地域ROI1とROI2が、確立分配で表される画像Iに一致する確立地図P_MAP を作成する。
- 部分最大値を得る方法で、確立地図P_MAP の中で互いにまじりあう上述の確立分配を加算し、
- 確立地図P_MAP の部分最大値に最も近い対象地域ROI1とROI2の有効性を確認する。
- 獲得した画像Iの予想変化を適用する。
- 獲得したシーケンスSQの有効性を確認した地域を追跡する。
図45の非限定の例の場合、1番目と2番目の検出機能は、カメラCAMの中に、センサによる検出機能はセンサCAPTに、他の機能は計算機ECUに配分されている。
このようなコンピュータプログラムPGは、ROMタイプの書き込み可能で消えないメモリーやEEPROMやフラッシュメモリーのような再書き込み可能で消えないメモリーに記録できる。このコンピュータプログラムPGは、工場で記入できるか、メモリーを記録したり、遠隔でダウンロードできる。指示シーケンスとは、機械の指示事項、あるいは実施の時に処理ユニットが翻訳する命令言語のシーケンスにもなりえる。
図45の非限定の例の場合、装置DISPの検査ユニットUC1、 UC2、 UC3のメモリーに記入される複数のコンピュータプログラム製品PG1、 PG2、 PG3がある。
同様に、検出プロセスは、自動車Vの前部と後部の検出に使用できる。
- 下記により、実施する処理数を減らせる:
- 特殊検出ゾーン内の対象地域の定義(水平線の下や走査ゾーンの中)、
-特殊対象点を使って自動車に対する障害物移動の作成、
-画像全体に対してではなく、形状と動作認識で検出した障害物に対してだけの(カテゴリー別分布方法別)分類ステップの適用。
- 下記の組み合わせにより、歩行者の検出の信頼性を高める:
- 歩行者全体を認識できる形状認識検出、
- 見えるのは動いている身体の一部だけの歩行者など動いている障害物を認識できる動作検出。
- カメラや超音波センサやレザーセンサーなど自動車に通常搭載されているコンポーネントを使用する。
- 形状認識と運動認識により検出した全ての障害物を分類するカテゴリー別障害物分布方法を使用して、歩行者検出をもっとしっかりとしたものにする。
- 有効性確認ステップにより、歩行者検出に関する信頼性指数をアップし、万が一の場合次の処理のための検出数量を減らす(センサによる検出を使用する場合)。
- 画像シーケンス上の障害物の検出について、1番目と2番目の検出において、ある画像が別の画像から検出されなくなった場合、この検出を確認する。
Claims (16)
- 自動車の環境(E)における障害物(O)の検知方法であって、
前記環境(E)の取得画像(I)における形状認識により障害物(O)の第1の検知を実施することによって、少なくとも1つの第1の対象領域(ROI1)を決定することと、
前記環境(E)の取得画像(I)のシーケンスでの車両(V)に対する動き検知により障害物の第2の検知を行うことによって、少なくとも1つの第2の対象領域(ROI2)を決定することと、
それぞれ、所定の特徴(C)に対して第1の対象領域(ROI1)および第2の対象領域(ROI2)に付与される第1の信頼性指数(IC1)および第2の信頼性指数(IC2)によって、検知された障害物(O)を分類することと、
前記信頼性指数(IC1、IC2)に対して、また、前記対象領域(ROI1、ROI2)に対して、検知された障害物(O)での分類を確定し、その結果、確定された有効領域(ROI1、ROI2)を得ることとの、
各ステップを備える方法。 - さらに、第1の閾値(S1)よりも小さい検知範囲で1つまたは複数のセンサ(ULS;RAD)による障害物(O)の第3の検知を行って、所定の位置(POS)を得ることと、
所定の位置(POS)を基準目印(COORef)に投影することと、
確定された有効領域(ROI1、ROI2)を前記基準目印(COORef)に投影することと、
得られた2つの投影(PJ1、PJ2)を対応させて、この対応に応じて、分類された障害物(O)に所定の位置(POS)を割り当てることと、
の各追加ステップを備える、請求項1に記載の方法。 - 基準目印が、画像目印(XI、YI)である、請求項2に記載の検知方法。
- 形状認識による第1の検知が、
取得画像(I)の再帰的なサブサンプリングによる画像ピラミッド(Isr)を構成することと、
各々のサブサンプリング画像(Isr)に対して、
所定の障害物(O)を示すラベル(VIGN)により前記画像(Isr)を走査することと、
前記画像(Isr)におけるラベル(VIGN)の連続する各位置で、分類子の集合(Cls、Clw)により内容を分析することとの、
各サブステップを備え、前記分類子が、事前学習段階のときに決定されている、先行請求項に記載の検知方法。 - 形状認識による第1の検知が、さらに、サブサンプリング画像(Isr)内で走査ゾーン(Zb)を決定する追加サブステップを備えている、先行請求項に記載の方法。
- 動きを検知する第2の検知が、
画像シーケンス(SQ)の各画像(I)に対して再計算された背景画像(Iref)を構成することと、
画像シーケンス(SQ)の現行画像(Ic)から背景画像(Iref)を減算し、結果として生じた1つの画像(Ires)を得ることと、
閾値(Smax)に応じて、結果として生じた画像(Ires)で判別される動きを弁別することと、
弁別によって第2の対象領域(ROI2)を抽出することと、
の各サブステップを備える先行請求項に記載の方法。 - 動きを検知する第2の検知が、
取得画像(I)の対象点(PtI)を決定することと、
次の画像(I+1)でこれらの対象点(PtI)に従って、移動(Vmi)を決定することと、
第2の対象領域(ROI2)で同様の移動(Vmi)を有する前記対象点(PtI)を集めることと、
自動車(V)の移動(Vmv)を決定することと、
自動車(Vmv)の移動の結果ではない画像で移動(Vmi)を有する第2の対象領域(ROI2)を確定することとの
各サブステップを含んでいる、先行請求項のいずれか一項に記載の検知方法。 - 分類ステップが、
対象領域(ROI)から特徴ベクトル(C)を生成することと、
学習ステップのときに予め決められた決定境界(DG)との比較により前記特徴ベクトル(C)を分類することと、
前記決定境界(DG)に対して特徴ベクトルの距離に応じて決定される組み合わせ信頼性指数(IC)を決定することと、
の各サブステップを備える、先行請求項のいずれか一項に記載の検知方法。 - 特徴ベクトル(C)が、1つの対象領域(ROI1、ROI2)の配向された勾配のヒストグラムである、先行請求項に記載の検知方法。
- 分類された各々の対象領域(ROI1、ROI2)が確率分布により示される画像(I)に対応する確率マップ(P_MAP)を構成することと、
少なくとも1つの局部的な最大値を得るように、確率マップ(P_MAP)に集められた前記確率分布を累積することと、
確率マップ(P_MAP)の局部的な最大値の各々に最も近い対象領域(ROI1、ROI2)を確定することと、
の各サブステップを備える、先行請求項に記載の検知方法。 - 1つまたは複数のセンサによる検知が、超音波センサ(ULS)により行われる、請求項2から10の少なくとも1つに記載の検知方法。
- 1つまたは複数のセンサによる検知が、レーダセンサ(RAD)により行われる、請求項2から11の少なくとも1つに記載の検知方法。
- さらに、取得画像(I)に投影変化を付与する追加ステップを含む、先行請求項のいずれか一項に記載の検知方法。
- さらに、取得画像のシーケンス(SQ)で分類された対象領域の追加フォローアップステップを含んでいる、先行請求項の少なくとも1つに記載の検知方法。
- 先行請求項のいずれか一項に記載の方法を実施するように構成された、自動車の環境(E)における障害物(O)の検知装置。
- 情報処理ユニットにより実行可能な1つまたは複数の命令シーケンスを含み、前記命令シーケンスの実行により、請求項1から14のいずれか一項に記載の方法を実施可能である、コンピュータプログラム製品(PG)。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0954633 | 2009-07-06 | ||
FR0954633A FR2947657B1 (fr) | 2009-07-06 | 2009-07-06 | Procede de detection d'un obstacle pour vehicule automobile |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011014148A true JP2011014148A (ja) | 2011-01-20 |
JP5837287B2 JP5837287B2 (ja) | 2015-12-24 |
Family
ID=42199638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010154353A Active JP5837287B2 (ja) | 2009-07-06 | 2010-07-06 | 自動車用の障害物検知方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8379928B2 (ja) |
EP (1) | EP2275971B1 (ja) |
JP (1) | JP5837287B2 (ja) |
FR (1) | FR2947657B1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013190949A (ja) * | 2012-03-13 | 2013-09-26 | Toyota Central R&D Labs Inc | 歩行者検出装置及びプログラム |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009157828A1 (en) * | 2008-06-25 | 2009-12-30 | Autoliv Development Ab | A method of detecting object in the vicinity of a vehicle |
FR2940465B1 (fr) * | 2008-12-18 | 2010-12-31 | Valeo Vision Sas | Procede de detection d'un objet cible pour vehicule automobile |
JP5218168B2 (ja) * | 2009-03-11 | 2013-06-26 | ソニー株式会社 | 撮像装置、動体検知方法、動体検知回路、プログラム、及び監視システム |
DE102011105356A1 (de) * | 2011-06-22 | 2012-12-27 | Audi Ag | Verfahren zur Auslösung wenigstens einer irreversiblen Rückhalteeinrichtung eines Kraftfahrzeugs |
JP5518007B2 (ja) * | 2011-07-11 | 2014-06-11 | クラリオン株式会社 | 車両用外界認識装置及びそれを用いた車両制御システム |
DE102011121332A1 (de) * | 2011-12-16 | 2013-06-20 | Testo Ag | Verfahren zur Erzeugung von SR-Bildern mit verbesserter Bildauflösung und Messvorrichtung |
KR20140019501A (ko) * | 2012-08-06 | 2014-02-17 | 현대자동차주식회사 | 장애물 인식을 위한 분류기의 생성방법 |
CN102880881A (zh) * | 2012-09-25 | 2013-01-16 | 常州大学 | 一种基于二类支持向量机和遗传算法的轿车车型识别方法 |
US9672431B2 (en) | 2012-11-09 | 2017-06-06 | Analog Devices Global | Object detection |
US9460354B2 (en) * | 2012-11-09 | 2016-10-04 | Analog Devices Global | Object detection |
US20140192210A1 (en) * | 2013-01-04 | 2014-07-10 | Qualcomm Incorporated | Mobile device based text detection and tracking |
CN103559498A (zh) * | 2013-09-24 | 2014-02-05 | 北京环境特性研究所 | 基于多特征融合的快速人车目标分类方法 |
US9201421B1 (en) * | 2013-11-27 | 2015-12-01 | Google Inc. | Assisted perception for autonomous vehicles |
JP6407626B2 (ja) * | 2014-08-26 | 2018-10-17 | 日立オートモティブシステムズ株式会社 | 物体認識装置及び車両制御システム |
DE102014114221A1 (de) * | 2014-09-30 | 2016-03-31 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Detektieren von einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug |
US9574387B2 (en) * | 2014-11-21 | 2017-02-21 | The Chamberlain Group, Inc. | Alignment of obstacle detection components |
US20160180158A1 (en) * | 2014-12-18 | 2016-06-23 | Magna Electronics Inc. | Vehicle vision system with pedestrian detection |
US10713506B2 (en) | 2014-12-18 | 2020-07-14 | Magna Electronics Inc. | Vehicle vision system with 3D registration for distance estimation |
JP6593588B2 (ja) * | 2015-02-16 | 2019-10-23 | パナソニックIpマネジメント株式会社 | 物体検出装置および物体検出方法 |
US10819943B2 (en) * | 2015-05-07 | 2020-10-27 | Magna Electronics Inc. | Vehicle vision system with incident recording function |
JP6554169B2 (ja) * | 2015-06-10 | 2019-07-31 | 株式会社日立製作所 | 物体認識装置及び物体認識システム |
JP6539228B2 (ja) * | 2015-06-16 | 2019-07-03 | 株式会社デンソー | 車両制御装置、及び車両制御方法 |
US10139827B2 (en) * | 2016-06-28 | 2018-11-27 | Ford Global Technologies, Llc | Detecting physical threats approaching a vehicle |
CN109791198B (zh) * | 2016-08-15 | 2023-08-15 | 代表亚利桑那大学的亚利桑那校董会 | 使用3d打印伦伯透镜的新颖汽车雷达 |
FR3062223B1 (fr) * | 2017-01-25 | 2019-04-19 | Valeo Schalter Und Sensoren Gmbh | Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images |
US10460053B2 (en) * | 2017-04-24 | 2019-10-29 | Toyota Research Institute, Inc. | Systems and methods for surface property identification using waveform classification |
US10803751B2 (en) * | 2017-04-26 | 2020-10-13 | Mitsubishi Electric Corporation | Processing device |
US10416681B2 (en) * | 2017-07-12 | 2019-09-17 | Mitsubishi Electric Research Laboratories, Inc. | Barcode: global binary patterns for fast visual inference |
US11093793B2 (en) | 2017-08-29 | 2021-08-17 | Vintra, Inc. | Systems and methods for a tailored neural network detector |
CN111158359B (zh) * | 2019-12-02 | 2023-08-04 | 北京京东乾石科技有限公司 | 障碍物处理方法和装置 |
US20230048222A1 (en) * | 2019-12-25 | 2023-02-16 | Kyocera Corporation | Information processing apparatus, sensing apparatus, mobile object, method for processing information, and information processing system |
CN111338341B (zh) * | 2020-02-24 | 2023-07-18 | 北京百度网讯科技有限公司 | 车辆避障方法和设备、电子设备、车辆及存储介质 |
DE102020105192B4 (de) * | 2020-02-27 | 2022-03-10 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug |
CN112699748B (zh) * | 2020-12-21 | 2022-09-27 | 南京理工大学 | 基于yolo及rgb图像的人车距离估计方法 |
CN115214637B (zh) * | 2021-04-01 | 2024-02-02 | 广州汽车集团股份有限公司 | 倒车制动辅助方法、辅助控制器、驾驶辅助系统和汽车 |
CN115661798B (zh) * | 2022-12-23 | 2023-03-21 | 小米汽车科技有限公司 | 确定目标区域的方法、装置、车辆及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165421A (ja) * | 2003-11-28 | 2005-06-23 | Denso Corp | センサフュージョンシステム及びそれを用いた車両制御装置 |
JP2006202184A (ja) * | 2005-01-24 | 2006-08-03 | Konica Minolta Holdings Inc | 検出装置、検出方法及び検出プログラム |
JP2007129560A (ja) * | 2005-11-04 | 2007-05-24 | Toyota Motor Corp | 物体検出装置 |
JP2007187618A (ja) * | 2006-01-16 | 2007-07-26 | Omron Corp | 物体識別装置 |
JP2007255979A (ja) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | 物体検出方法および物体検出装置 |
WO2008088880A1 (en) * | 2007-01-18 | 2008-07-24 | Siemens Corporate Research, Inc. | System and method for vehicle detection and tracking |
JP2008203992A (ja) * | 2007-02-16 | 2008-09-04 | Omron Corp | 検出装置および方法、並びに、プログラム |
JP2008276453A (ja) * | 2007-04-27 | 2008-11-13 | Toshiba Corp | 行動識別装置および行動識別方法 |
JP2008304344A (ja) * | 2007-06-08 | 2008-12-18 | Kumamoto Univ | 物標検出装置 |
JP2009510542A (ja) * | 2006-04-11 | 2009-03-12 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | カメラによって取得されたシーンのテスト画像内の人物を検出する方法及びシステム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8917904B2 (en) * | 2008-04-24 | 2014-12-23 | GM Global Technology Operations LLC | Vehicle clear path detection |
-
2009
- 2009-07-06 FR FR0954633A patent/FR2947657B1/fr not_active Expired - Fee Related
-
2010
- 2010-07-02 US US12/829,591 patent/US8379928B2/en active Active
- 2010-07-05 EP EP10168480.1A patent/EP2275971B1/fr active Active
- 2010-07-06 JP JP2010154353A patent/JP5837287B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165421A (ja) * | 2003-11-28 | 2005-06-23 | Denso Corp | センサフュージョンシステム及びそれを用いた車両制御装置 |
JP2006202184A (ja) * | 2005-01-24 | 2006-08-03 | Konica Minolta Holdings Inc | 検出装置、検出方法及び検出プログラム |
JP2007129560A (ja) * | 2005-11-04 | 2007-05-24 | Toyota Motor Corp | 物体検出装置 |
JP2007187618A (ja) * | 2006-01-16 | 2007-07-26 | Omron Corp | 物体識別装置 |
JP2007255979A (ja) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | 物体検出方法および物体検出装置 |
JP2009510542A (ja) * | 2006-04-11 | 2009-03-12 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | カメラによって取得されたシーンのテスト画像内の人物を検出する方法及びシステム |
WO2008088880A1 (en) * | 2007-01-18 | 2008-07-24 | Siemens Corporate Research, Inc. | System and method for vehicle detection and tracking |
JP2008203992A (ja) * | 2007-02-16 | 2008-09-04 | Omron Corp | 検出装置および方法、並びに、プログラム |
JP2008276453A (ja) * | 2007-04-27 | 2008-11-13 | Toshiba Corp | 行動識別装置および行動識別方法 |
JP2008304344A (ja) * | 2007-06-08 | 2008-12-18 | Kumamoto Univ | 物標検出装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013190949A (ja) * | 2012-03-13 | 2013-09-26 | Toyota Central R&D Labs Inc | 歩行者検出装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
FR2947657A1 (fr) | 2011-01-07 |
US8379928B2 (en) | 2013-02-19 |
JP5837287B2 (ja) | 2015-12-24 |
EP2275971A1 (fr) | 2011-01-19 |
US20110001615A1 (en) | 2011-01-06 |
FR2947657B1 (fr) | 2016-05-27 |
EP2275971B1 (fr) | 2020-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5837287B2 (ja) | 自動車用の障害物検知方法 | |
JP5835876B2 (ja) | 自動車用の障害物検知方法 | |
US11488392B2 (en) | Vehicle system and method for detecting objects and object distance | |
JP5867273B2 (ja) | 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム | |
US8605947B2 (en) | Method for detecting a clear path of travel for a vehicle enhanced by object detection | |
US8611585B2 (en) | Clear path detection using patch approach | |
US8812226B2 (en) | Multiobject fusion module for collision preparation system | |
US8232872B2 (en) | Cross traffic collision alert system | |
JP6702340B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
WO2008088880A1 (en) | System and method for vehicle detection and tracking | |
US20110228981A1 (en) | Method and system for processing image data | |
JP4755227B2 (ja) | 物体を認識するための方法 | |
CN110268417B (zh) | 在摄像机图像中识别目标的方法 | |
JP4407920B2 (ja) | 障害物認識方法及び障害物認識装置 | |
CN107389084A (zh) | 行车路径规划方法及存储介质 | |
KR20180047149A (ko) | 충돌 위험 경고 장치 및 방법 | |
JP4967758B2 (ja) | 物体移動の検出方法及び検出装置 | |
Yoneda et al. | Simultaneous state recognition for multiple traffic signals on urban road | |
JP2013069045A (ja) | 画像認識装置、画像認識方法および画像認識プログラム | |
JP7003972B2 (ja) | 距離推定装置、距離推定方法及び距離推定用コンピュータプログラム | |
JP5772321B2 (ja) | 車両検出装置、車両検出方法及びプログラム | |
JP4567072B2 (ja) | 車両周辺監視装置 | |
CN110399859A (zh) | 无人跨运车的基于多传感器融合的障碍物辨识方法和装置 | |
JP7193942B2 (ja) | 車両検知装置 | |
JPH08147447A (ja) | 車両認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140507 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140806 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140811 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140905 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140910 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20141006 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20141009 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141107 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150806 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20150818 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5837287 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |