JP2016071846A - 単眼カメラに基づく障害物検知方法及び装置 - Google Patents
単眼カメラに基づく障害物検知方法及び装置 Download PDFInfo
- Publication number
- JP2016071846A JP2016071846A JP2015092099A JP2015092099A JP2016071846A JP 2016071846 A JP2016071846 A JP 2016071846A JP 2015092099 A JP2015092099 A JP 2015092099A JP 2015092099 A JP2015092099 A JP 2015092099A JP 2016071846 A JP2016071846 A JP 2016071846A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- frame image
- target
- point set
- subset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000001514 detection method Methods 0.000 claims abstract description 57
- 238000004422 calculation algorithm Methods 0.000 claims description 34
- 230000003287 optical effect Effects 0.000 claims description 24
- 238000003384 imaging method Methods 0.000 claims description 23
- 238000006243 chemical reaction Methods 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 238000012217 deletion Methods 0.000 claims description 7
- 230000037430 deletion Effects 0.000 claims description 7
- 238000012790 confirmation Methods 0.000 claims description 5
- 238000005192 partition Methods 0.000 claims description 2
- 238000000638 solvent extraction Methods 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 42
- 238000010586 diagram Methods 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000012549 training Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2433—Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
前記単眼カメラが撮影した目標フレーム画像及びその隣接フレーム画像を取得することと、
隣接フレーム画像の最適な特徴点集合が得られるように、前記隣接フレーム画像の、予め設定された変換モデルによって算出された変換画像の上で前記隣接フレーム画像の初期特徴点集合を追跡して得られた結果に基づいて、前記隣接フレーム画像の初期特徴点集合において、不安定な特徴点を削除することと、
いくつかの目標特徴点部分集合が得られるように、隣接フレーム画像の最適な特徴点集合を前記目標フレーム画像において追跡することによって得られた目標特徴点集合に対して、部分集合の分割を行うことと、
各目標特徴点部分集合に対して、その対応する地面投影点集合内における点の目標フレームの時点と隣接フレームの時点とでの距離変化値に基づいて、当該目標特徴点部分集合が障害物に属するか否かを判断することと、
障害物に属すると判断される全ての目標特徴点部分集合の和集合を前記目標フレーム画像における障害物点集合として確定することと、を含む方法。
前記隣接フレーム画像の初期特徴点集合が得られるように、予め設定された特徴点検出アルゴリズムを使用して前記隣接フレーム画像における特徴点を検知することと、
予め設定された変換モデルによって、前記隣接フレーム画像の変換画像を計算することと、
前記初期特徴点集合にマッチングする追跡特徴点集合が得られるように、予め設定された特徴点追跡アルゴリズムを使用して、前記初期特徴点集合を前記変換画像において追跡することと、
前記初期特徴点集合と追跡特徴点集合における各特徴点の差値が予め設定された差値の閾値より大きいか否かを判断して、そうであれば、対応する初期特徴点を初期特徴点集合において削除することと、
削除後の初期特徴点集合を隣接フレーム画像の最適な特徴点集合として確定することと、を含んでもよい。
目標特徴点集合が得られるように、予め設定された特徴点追跡アルゴリズムを使用して、前記最適な特徴点集合を前記目標フレーム画像において追跡することと、
予め設定されたサブブロック長とサブブロック幅に従って、前記目標フレーム画像のうちのいずれかの隅において、第一の目標特徴点部分集合を分割することと、
前記第一の目標特徴点部分集合の対応するサブブロックを横移動ステップ及び/又は縦移動ステップに従って移動し、毎回移動した後のサブブロックの対応する画素点集合を目標特徴点部分集合として確定し、前記目標フレーム画像における画素点の全てが分割されるまでであり、なお、前記横移動ステップと縦移動ステップはそれぞれ対応するようにサブブロック長とサブブロック幅より小さいか等しいことと、
を含んでもよい。
前記目標特徴点部分集合における画素点の対応する地面投影点集合を確定することと、
いずれかの地面投影点集合に対して、目標フレームの時点と前のフレームの時点とでの各地面投影点の距離変化合計の平均値を計算することと、
前記距離変化合計の平均値が予め設定された距離変化の閾値より大きいか否かを判断し、そうであれば、当該いずれかの地面投影点集合の対応する目標特徴点部分集合における特徴点を障害物点として確定し、さもなければ、続いて次の地面投影点集合を選択して距離変化合計の平均値を計算し、前記判断ステップを繰り返し、全ての地面投影点集合の判断が完了するまでであることと、を含み、
なお、前記平均値は、距離変化合計を目標特徴点部分集合における特徴点対の数量で除算して得られた値であって、前記特徴点対は、目標特徴点部分集合におけるいずれかの二つの特徴点により構成される一つの特徴点対であってもよい。
前記単眼カメラの光心を原点として、世界座標系O_XYZを確立し、OY軸が垂直に地面に向いて、OZ軸が地面に平行し且つ前記単眼カメラの取付キャリアに平行することと、
前記単眼カメラの光心を原点として、カメラ座標系O_X’Y’Z’を確立し、OZ’軸が前記単眼カメラの光軸に重なり、OX’とOY’軸がそれぞれ結像平面のou軸とov軸に平行し、なお、カメラ座標系は、世界座標系を順次にX軸周りにα、Y軸周りにβ、Z軸周りにγ角度に回転して得られ、αと、βと、γは、前記単眼カメラが取り付けられた後に、外部パラメータのキャリブレーションアルゴリズムによって確定されることと、
カメラ座標系における座標と世界座標系における座標との間の変換関係、及びカメラ座標系における座標と結像平面における座標との間の対応関係によって、目標特徴点部分集合における画素点の対応する地面投影点集合を確定し、前記地面投影点集合が{(X,H,Z)}であって、Hが前記単眼カメラから地面までの高さであることと、を含み、
なお、カメラ座標系の座標(X’,Y’,Z’)と世界座標系の座標(X,Y,Z)との間の変換関係は
カメラ座標系における座標と結像平面における座標との間の対応関係は、
前記単眼カメラが撮影した目標フレーム画像及びその隣接フレーム画像を取得するための取得モジュールと、
隣接フレーム画像の最適な特徴点集合が得られるように、前記隣接フレーム画像の、予め設定された変換モデルによって算出された変換画像の上で前記隣接フレーム画像の初期特徴点集合を追跡して得られた結果に基づいて、前記隣接フレーム画像の初期特徴点集合において、不安定な特徴点を削除するための事前追跡モジュールと、
いくつかの目標特徴点部分集合が得られるように、隣接フレーム画像の最適な特徴点集合を前記目標フレーム画像において追跡することによって得られた目標特徴点集合に対して、部分集合の分割を行うための部分集合分割モジュールと、
各目標特徴点部分集合に対して、その対応する地面投影点集合内における点の目標フレームの時点と隣接フレームの時点とでの距離変化値に基づいて、当該目標特徴点部分集合が障害物に属するか否かを判断するための判断モジュールと、
障害物に属すると判断される全ての目標特徴点部分集合の和集合を前記目標フレーム画像における障害物点集合として確定するための確定モジュールと、
を含む。
前記隣接フレーム画像の初期特徴点集合が得られるように、予め設定された特徴点検出アルゴリズムを使用して前記隣接フレーム画像における特徴点を検知するための特徴点検知サブモジュールと、
予め設定された変換モデルによって、前記隣接フレーム画像の変換画像を計算するための計算サブモジュールと、
前記初期特徴点集合にマッチングする追跡特徴点集合が得られるように、予め設定された特徴点追跡アルゴリズムを使用して、前記初期特徴点集合を前記変換画像において追跡するための追跡サブモジュールと、
前記初期特徴点集合と追跡特徴点集合における各特徴点の差値が予め設定された差値の閾値より大きいか否かを判断するための第一の判断サブモジュールと、
前記第一の判断サブモジュールの結果がYesである場合、対応する初期特徴点を初期特徴点集合において削除するための削除サブモジュールと、
削除後の初期特徴点集合を隣接フレーム画像の最適な特徴点集合として確定するための第一の確定サブモジュールと、
を含んでもよい。
目標特徴点集合が得られるように、予め設定された特徴点追跡アルゴリズムを使用して、前記最適な特徴点集合を前記目標フレーム画像において追跡するための特徴点追跡サブモジュールと、
予め設定されたサブブロック長とサブブロック幅に従って、前記目標フレーム画像のうちのいずれかの隅において、第一の目標特徴点部分集合を分割するための第一の分割サブモジュールと、
前記第一の目標特徴点部分集合の対応するサブブロックを横移動ステップ及び/又は縦移動ステップに従って移動するための移動サブモジュールと、
前記目標フレーム画像における全ての画素点が分割されるまで、毎回移動した後のサブブロックの対応する画素点集合を目標特徴点部分集合として確定するための第二の分割サブモジュールと、を含み、
なお、前記横移動ステップと縦移動ステップはそれぞれ対応するように、サブブロック長とサブブロック幅より小さいか等しくてもよい。
前記目標特徴点部分集合における画素点の対応する地面投影点集合を確定するための第二の確定サブモジュールと、
いずれかの地面投影点集合に対して、目標フレームの時点と前のフレームの時点とでの各地面投影点の距離変化合計の平均値を計算するための距離計算サブモジュールと、
前記距離変化合計の平均値が予め設定された距離変化の閾値より大きいか否かを判断するための第二の判断サブモジュールと、
前記第二の判断サブモジュールの結果がYesである場合、当該いずれかの地面投影点集合の対応する目標特徴点部分集合における特徴点を障害物点として確定するための第三の確定サブモジュールと、
前記第二の判断サブモジュールの結果がNoである場合、続いて次の地面投影点集合を選択して前記距離計算サブモジュールをトリガーし、全ての地面投影点集合の判断が完了するまでであるトリガーサブモジュールと、を含み、
なお、前記平均値は、距離変化合計を目標特徴点部分集合における特徴点対の数量で除算して得られた値であって、前記特徴点対は、目標特徴点部分集合におけるいずれかの二つの特徴点により構成される一つの特徴点対であってもよい。
前記単眼カメラの光心を原点として、OY軸が垂直に地面に向いて、OZ軸が地面に平行し且つ前記単眼カメラの取付キャリアに平行する世界座標系O_XYZを確立するための世界座標系確立サブモジュールと、
前記単眼カメラの光心を原点として、OZ’軸が単眼カメラの光軸に重なり、OX’とOY’軸がそれぞれ結像平面のou軸とov軸に平行するカメラ座標系O_X’Y’Z’を確立するためのカメラ座標系確立サブモジュールと、なお、カメラ座標系が、世界座標系を順次にX軸周りにα、Y軸周りにβ、Z軸周りにγ角度に回転して得られ、αと、βと、γが、前記単眼カメラが取り付けられた後に、外部パラメータのキャリブレーションアルゴリズムによって確定され、
カメラ座標系における座標と世界座標系における座標との間の変換関係、及びカメラ座標系における座標と結像平面における座標との間の対応関係によって、目標特徴点部分集合における画素点の対応する地面投影点集合{(X,H,Z)}(Hが前記単眼カメラから地面までの高さである)を確定するための第四の確定サブモジュールと、を含み、
なお、カメラ座標系の座標(X’,Y’,Z’)と世界座標系の座標(X,Y,Z)との間の変換関係は
カメラ座標系における座標と結像平面における座標との間の対応関係は、
本出願の実施例において、隣接フレーム画像の変換画像を事前追跡することにより、隣接フレーム画像における誤マッチングしやすい特徴点を削除することができ、得られた最適な特徴点集合は、目標フレーム画像において追跡する時に、誤マッチングを避けることによって、障害物点の検出確度が向上する。また、本出願は、目標フレーム画像における目標特徴点部分集合に対して、その地面投影点の距離変化を判断することによって障害物点を検知することを使用して、複数の分類器をトレーニングする必要がなくなって、障害物の検知のプロセスをより容易化し、さらに、障害物検知の効率が向上する。さらに、本出願は、さらにいずれかのタイプの障害物を検知でき、そして、自車両運動パラメータ情報を利用する必要がなく、カメラのタイプによって限られない。
前記隣接フレーム画像の初期特徴点集合が得られるように、予め設定された特徴点検出アルゴリズムを使用して前記隣接フレーム画像における特徴点を検知するための特徴点サブモジュールと、予め設定された変換モデルによって、前記隣接フレーム画像の変換画像を計算するための計算サブモジュールと、前記初期特徴点集合にマッチングする追跡特徴点集合が得られるように、予め設定された特徴点追跡アルゴリズムを使用して、前記初期特徴点集合を前記変換画像において追跡するための追跡サブモジュールと、前記初期特徴点集合と追跡特徴点集合における各特徴点の差値が予め設定された差値の閾値より大きいか否かを判断するための第一の判断サブモジュールと、前記第一の判断サブモジュールの結果がYesである場合、対応する初期特徴点を初期特徴点集合において削除するための削除サブモジュールと、削除後の初期特徴点集合を隣接フレーム画像の最適な特徴点集合として確定するための第一の確定サブモジュールとを含むことができる。
予め設定された特徴点追跡アルゴリズムを使用して、目標特徴点集合が得られるように、前記最適な特徴点集合を前記目標フレーム画像において追跡するための特徴点追跡サブモジュールと、予め設定されたサブブロック長とサブブロック幅に従って、前記目標フレーム画像のうちのいずれかの隅において、第一の目標特徴点部分集合を分割するための第一の分割サブモジュールと、前記第一の目標特徴点部分集合の対応するサブブロックを横移動ステップ及び/又は縦移動ステップに従って移動するための移動サブモジュールと、前記目標フレーム画像における全ての画素点が分割されるまで、毎回移動した後のサブブロックの対応する画素点集合を目標特徴点部分集合として確定するための第二の分割サブモジュールと、を含み、なお、前記横移動ステップと縦移動ステップはそれぞれ対応するように、サブブロック長とサブブロック幅より小さいか等しい。
Claims (10)
- 単眼カメラに基づく障害物検知方法であって、
前記単眼カメラが撮影した目標フレーム画像及びその隣接フレーム画像を取得することと、
隣接フレーム画像の最適な特徴点集合が得られるように、前記隣接フレーム画像の、予め設定された変換モデルによって算出された変換画像の上で前記隣接フレーム画像の初期特徴点集合を追跡して得られた結果に基づいて、前記隣接フレーム画像の初期特徴点集合において、不安定な特徴点を削除することと、
いくつかの目標特徴点部分集合が得られるように、隣接フレーム画像の最適な特徴点集合を前記目標フレーム画像において追跡することによって得られた目標特徴点集合に対して、部分集合の分割を行うことと、
各目標特徴点部分集合に対して、その対応する地面投影点集合内における点の目標フレームの時点と隣接フレームの時点とでの距離変化値に基づいて、当該目標特徴点部分集合が障害物に属するか否かを判断することと、
障害物に属すると判断される全ての目標特徴点部分集合の和集合を前記目標フレーム画像における障害物点集合として確定することと、
を含む方法。 - 隣接フレーム画像の最適な特徴点集合が得られるように、前記隣接フレーム画像の変換画像の上で前記隣接フレーム画像の初期特徴点集合を追跡して得られた結果に基づいて、前記隣接フレーム画像の初期特徴点集合において、不安定な特徴点を削除することは、
前記隣接フレーム画像の初期特徴点集合が得られるように、予め設定された特徴点検出アルゴリズムを使用して前記隣接フレーム画像における特徴点を検知することと、
予め設定された変換モデルによって、前記隣接フレーム画像の変換画像を計算することと、
前記初期特徴点集合にマッチングする追跡特徴点集合が得られるように、予め設定された特徴点追跡アルゴリズムを使用して、前記初期特徴点集合を前記変換画像において追跡することと、
前記初期特徴点集合と追跡特徴点集合における各特徴点の差値が予め設定された差値の閾値より大きいか否かを判断して、そうであれば、対応する初期特徴点を初期特徴点集合において削除することと、
削除後の初期特徴点集合を隣接フレーム画像の最適な特徴点集合として確定することと、
を含む請求項1に記載の方法。 - 目標特徴点集合に対して、部分集合の分割を行うことは、具体的に、いくつかの目標特徴点部分集合が得られるように、予め設定された横移動ステップと縦移動ステップに従って分割を行うことであって、
目標特徴点集合が得られるように、予め設定された特徴点追跡アルゴリズムを使用して、前記最適な特徴点集合を前記目標フレーム画像において追跡することと、
予め設定されたサブブロック長とサブブロック幅に従って、前記目標フレーム画像のうちのいずれかの隅において、第一の目標特徴点部分集合を分割することと、
前記第一の目標特徴点部分集合の対応するサブブロックを横移動ステップ及び/又は縦移動ステップに従って移動し、毎回移動した後のサブブロックの対応する画素点集合を目標特徴点部分集合として確定し、前記目標フレーム画像における画素点の全てが分割されるまでであり、なお、前記横移動ステップと縦移動ステップはそれぞれ対応するようにサブブロック長とサブブロック幅より小さいか等しいことと、
を含む請求項1に記載の方法。 - 各目標特徴点部分集合の対応する地面投影点集合内における画素点の目標フレームの時点と前のフレームの時点とでの距離変化値に基づいて、前記目標フレーム画像の障害物点を確定することは、
前記目標特徴点部分集合における画素点の対応する地面投影点集合を確定することと、
いずれかの地面投影点集合に対して、目標フレームの時点と前のフレームの時点とでの各地面投影点の距離変化合計の平均値を計算することと、
前記距離変化合計の平均値が予め設定された距離変化の閾値より大きいか否かを判断し、そうであれば、当該いずれかの地面投影点集合の対応する目標特徴点部分集合における特徴点を障害物点として確定し、さもなければ、続いて次の地面投影点集合を選択して距離変化合計の平均値を計算し、前記判断ステップを繰り返し、全ての地面投影点集合の判断が完了するまでであることと、を含み、
なお、前記平均値は、距離変化合計を目標特徴点部分集合における特徴点対の数量で除算して得られた値であって、前記特徴点対は、目標特徴点部分集合におけるいずれかの二つの特徴点により構成される一つの特徴点対である請求項1に記載の方法。 - 前記単眼カメラが目標キャリアに取り付けられて、その結像平面の画素座標系がo_uvであると、前記目標特徴点部分集合における画素点の対応する地面投影点集合を確定することは、
前記単眼カメラの光心を原点として、世界座標系O_XYZを確立し、OY軸が垂直に地面に向いて、OZ軸が地面に平行し且つ前記単眼カメラの取付キャリアに平行することと、
前記単眼カメラの光心を原点として、カメラ座標系O_X’Y’Z’を確立し、OZ’軸が前記単眼カメラの光軸に重なり、OX’とOY’軸がそれぞれ結像平面のou軸とov軸に平行し、なお、カメラ座標系は、世界座標系を順次にX軸周りにα、Y軸周りにβ、Z軸周りにγ角度に回転して得られ、αと、βと、γは、前記単眼カメラが取り付けられた後に、外部パラメータのキャリブレーションアルゴリズムによって確定されることと、
カメラ座標系における座標と世界座標系における座標との間の変換関係、及びカメラ座標系における座標と結像平面における座標との間の対応関係によって、目標特徴点部分集合における画素点の対応する地面投影点集合を確定し、前記地面投影点集合が{(X,H,Z)}であって、Hが前記単眼カメラから地面までの高さであることと、を含み、
なお、カメラ座標系の座標(X’,Y’,Z’)と世界座標系の座標(X,Y,Z)との間の変換関係は
カメラ座標系における座標と結像平面における座標との間の対応関係は、
- 単眼カメラに基づく障害物検知装置であって、
前記単眼カメラが撮影した目標フレーム画像及びその隣接フレーム画像を取得するための取得モジュールと、
隣接フレーム画像の最適な特徴点集合が得られるように、前記隣接フレーム画像の、予め設定された変換モデルによって算出された変換画像の上で前記隣接フレーム画像の初期特徴点集合を追跡して得られた結果に基づいて、前記隣接フレーム画像の初期特徴点集合において、不安定な特徴点を削除するための事前追跡モジュールと、
いくつかの目標特徴点部分集合が得られるように、隣接フレーム画像の最適な特徴点集合を前記目標フレーム画像において追跡することによって得られた目標特徴点集合に対して、部分集合の分割を行うための部分集合分割モジュールと、
各目標特徴点部分集合に対して、その対応する地面投影点集合内における点の目標フレームの時点と隣接フレームの時点とでの距離変化値に基づいて、当該目標特徴点部分集合が障害物に属するか否かを判断するための判断モジュールと、
障害物に属すると判断される全ての目標特徴点部分集合の和集合を前記目標フレーム画像における障害物点集合として確定するための確定モジュールと、
を含む装置。 - 前記事前追跡モジュールは、
前記隣接フレーム画像の初期特徴点集合が得られるように、予め設定された特徴点検出アルゴリズムを使用して前記隣接フレーム画像における特徴点を検知するための特徴点検知サブモジュールと、
予め設定された変換モデルによって、前記隣接フレーム画像の変換画像を計算するための計算サブモジュールと、
前記初期特徴点集合にマッチングする追跡特徴点集合が得られるように、予め設定された特徴点追跡アルゴリズムを使用して、前記初期特徴点集合を前記変換画像において追跡するための追跡サブモジュールと、
前記初期特徴点集合と追跡特徴点集合における各特徴点の差値が予め設定された差値の閾値より大きいか否かを判断するための第一の判断サブモジュールと、
前記第一の判断サブモジュールの結果がYesである場合、対応する初期特徴点を初期特徴点集合において削除するための削除サブモジュールと、
削除後の初期特徴点集合を隣接フレーム画像の最適な特徴点集合として確定するための第一の確定サブモジュールと、
を含む請求項6に記載の装置。 - 前記部分集合分割モジュールは、
目標特徴点集合が得られるように、予め設定された特徴点追跡アルゴリズムを使用して、前記最適な特徴点集合を前記目標フレーム画像において追跡するための特徴点追跡サブモジュールと、
予め設定されたサブブロック長とサブブロック幅に従って、前記目標フレーム画像のうちのいずれかの隅において、第一の目標特徴点部分集合を分割するための第一の分割サブモジュールと、
前記第一の目標特徴点部分集合の対応するサブブロックを横移動ステップ及び/又は縦移動ステップに従って移動するための移動サブモジュールと、
前記目標フレーム画像における全ての画素点が分割されるまで、毎回移動した後のサブブロックの対応する画素点集合を目標特徴点部分集合として確定するための第二の分割サブモジュールと、を含み、
なお、前記横移動ステップと縦移動ステップはそれぞれ対応するように、サブブロック長とサブブロック幅より小さいか等しい請求項6に記載の装置。 - 前記判断モジュールは、
前記目標特徴点部分集合における画素点の対応する地面投影点集合を確定するための第二の確定サブモジュールと、
いずれかの地面投影点集合に対して、目標フレームの時点と前のフレームの時点とでの各地面投影点の距離変化合計の平均値を計算するための距離計算サブモジュールと、
前記距離変化合計の平均値が予め設定された距離変化の閾値より大きいか否かを判断するための第二の判断サブモジュールと、
前記第二の判断サブモジュールの結果がYesである場合、当該いずれかの地面投影点集合の対応する目標特徴点部分集合における特徴点を障害物点として確定するための第三の確定サブモジュールと、
前記第二の判断サブモジュールの結果がNoである場合、続いて次の地面投影点集合を選択して前記距離計算サブモジュールをトリガーし、全ての地面投影点集合の判断が完了するまでであるトリガーサブモジュールと、を含み、
なお、前記平均値は、距離変化合計を目標特徴点部分集合における特徴点対の数量で除算して得られた値であって、前記特徴点対は、目標特徴点部分集合におけるいずれかの二つの特徴点により構成される一つの特徴点対である請求項8に記載の装置。 - 前記第二の確定サブモジュールは、
前記単眼カメラの光心を原点として、OY軸が垂直に地面に向いて、OZ軸が地面に平行し且つ前記単眼カメラの取付キャリアに平行する世界座標系O_XYZを確立するための世界座標系確立サブモジュールと、
前記単眼カメラの光心を原点として、OZ’軸が単眼カメラの光軸に重なり、OX’とOY’軸がそれぞれ結像平面のou軸とov軸に平行するカメラ座標系O_X’Y’Z’を確立するためのカメラ座標系確立サブモジュールと、なお、カメラ座標系が、世界座標系を順次にX軸周りにα、Y軸周りにβ、Z軸周りにγ角度に回転して得られ、αと、βと、γが、前記単眼カメラが取り付けられた後に、外部パラメータのキャリブレーションアルゴリズムによって確定され、
カメラ座標系における座標と世界座標系における座標との間の変換関係、及びカメラ座標系における座標と結像平面における座標との間の対応関係によって、目標特徴点部分集合における画素点の対応する地面投影点集合{(X,H,Z)}(Hが前記単眼カメラから地面までの高さである)を確定するための第四の確定サブモジュールと、を含み、
なお、カメラ座標系の座標(X’,Y’,Z’)と世界座標系の座標(X,Y,Z)との間の変換関係は
カメラ座標系における座標と結像平面における座標との間の対応関係は、
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410512682.4 | 2014-09-26 | ||
CN201410512682.4A CN104299244B (zh) | 2014-09-26 | 2014-09-26 | 基于单目相机的障碍物检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016071846A true JP2016071846A (ja) | 2016-05-09 |
JP6031554B2 JP6031554B2 (ja) | 2016-11-24 |
Family
ID=52318966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015092099A Active JP6031554B2 (ja) | 2014-09-26 | 2015-04-28 | 単眼カメラに基づく障害物検知方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9521317B2 (ja) |
JP (1) | JP6031554B2 (ja) |
CN (1) | CN104299244B (ja) |
DE (1) | DE102015207676B4 (ja) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017045116A1 (en) | 2015-09-15 | 2017-03-23 | SZ DJI Technology Co., Ltd. | System and method for supporting smooth target following |
EP3368957B1 (en) | 2015-10-30 | 2022-02-09 | SZ DJI Technology Co., Ltd. | Systems and methods for uav path planning and control |
CN106326866B (zh) * | 2016-08-25 | 2020-01-17 | 北京奇虎科技有限公司 | 车辆碰撞的预警方法及装置 |
CN106777269A (zh) * | 2016-12-28 | 2017-05-31 | 深圳市佳都实业发展有限公司 | 用于构建动态地图的机器人及机器人构建动态地图的方法 |
CN108510590A (zh) * | 2017-02-24 | 2018-09-07 | 北京图森未来科技有限公司 | 一种生成三维边界框的方法及装置 |
JP6894725B2 (ja) * | 2017-03-09 | 2021-06-30 | キヤノン株式会社 | 画像処理装置及びその制御方法、プログラム、記憶媒体 |
JP6976733B2 (ja) * | 2017-06-14 | 2021-12-08 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
CN107301646B (zh) * | 2017-06-27 | 2019-09-17 | 深圳市云洲创新科技有限公司 | 基于单目视觉的无人船智能避障方法和装置 |
CN109591698A (zh) * | 2017-09-30 | 2019-04-09 | 上海欧菲智能车联科技有限公司 | 盲区检测系统、盲区检测方法和车辆 |
US10671862B2 (en) | 2018-01-30 | 2020-06-02 | Wipro Limited | Method and system for detecting obstacles by autonomous vehicles in real-time |
CN110197104B (zh) * | 2018-02-27 | 2022-03-29 | 杭州海康威视数字技术股份有限公司 | 基于车辆的测距方法及装置 |
CN108427940B (zh) * | 2018-04-04 | 2023-11-17 | 徐育 | 基于深度相机的饮水机出水智能控制装置及其控制方法 |
US10884422B2 (en) * | 2018-04-16 | 2021-01-05 | Baidu Usa Llc | Method for generating trajectories for autonomous driving vehicles (ADVS) |
TWI721324B (zh) | 2018-10-10 | 2021-03-11 | 鴻海精密工業股份有限公司 | 電子裝置及立體物體的判斷方法 |
CN111047639B (zh) * | 2018-10-12 | 2023-08-18 | 深圳富联富桂精密工业有限公司 | 单目测距装置 |
CN111326023B (zh) * | 2018-12-13 | 2022-03-29 | 丰翼科技(深圳)有限公司 | 一种无人机航线预警方法、装置、设备及存储介质 |
CN111358361B (zh) * | 2018-12-26 | 2021-08-24 | 珠海市一微半导体有限公司 | 扫地机器人避线的控制方法、控制装置和计算机存储介质 |
CN109657638B (zh) * | 2018-12-28 | 2021-04-27 | 百度在线网络技术(北京)有限公司 | 障碍物定位方法、装置和终端 |
CN111401114B (zh) * | 2019-02-12 | 2023-09-19 | 深圳市艾为智能有限公司 | 一种基于受限光流场横穿物体检测装置的横穿物体检测方法 |
CN110136047B (zh) * | 2019-05-22 | 2022-12-27 | 长沙莫之比智能科技有限公司 | 一种车载单目图像中静止目标三维信息获取方法 |
US11556000B1 (en) | 2019-08-22 | 2023-01-17 | Red Creamery Llc | Distally-actuated scanning mirror |
CN110634136B (zh) * | 2019-09-17 | 2022-09-13 | 北京华捷艾米科技有限公司 | 一种管道壁破损检测方法、装置及系统 |
CN110530273B (zh) * | 2019-09-23 | 2024-04-02 | 易思维(杭州)科技股份有限公司 | 基于结构光测量的涂胶信息检测方法 |
CN111027381A (zh) * | 2019-11-06 | 2020-04-17 | 杭州飞步科技有限公司 | 利用单目相机识别障碍物的方法、装置、设备及存储介质 |
CN111127562B (zh) * | 2019-12-11 | 2023-03-28 | 长安大学 | 一种单目面阵相机的标定方法及自动标定系统 |
CN111046809B (zh) * | 2019-12-16 | 2023-09-12 | 昆山微电子技术研究院 | 一种障碍物检测方法、装置、设备及计算机可读存储介质 |
CN111368883B (zh) * | 2020-02-21 | 2024-01-19 | 浙江大华技术股份有限公司 | 基于单目摄像头的避障方法、计算装置及存储装置 |
CN111311656B (zh) * | 2020-02-21 | 2023-06-27 | 辽宁石油化工大学 | 一种适用于车载鱼眼相机的运动目标检测方法和装置 |
CN113554703B (zh) * | 2020-04-23 | 2024-03-01 | 北京京东乾石科技有限公司 | 机器人定位方法、装置、系统和计算机可读存储介质 |
CN112114664A (zh) * | 2020-08-21 | 2020-12-22 | 青岛小鸟看看科技有限公司 | 一种基于虚拟现实的安全提醒方法、装置和头戴式一体机 |
CN114255405A (zh) * | 2020-09-25 | 2022-03-29 | 山东信通电子股份有限公司 | 一种隐患目标识别方法与装置 |
CN112560769B (zh) * | 2020-12-25 | 2023-08-29 | 阿波罗智联(北京)科技有限公司 | 用于检测障碍物的方法、电子设备、路侧设备和云控平台 |
CN112711263A (zh) * | 2021-01-19 | 2021-04-27 | 未来机器人(深圳)有限公司 | 仓储自动导引车避障方法、装置、计算机设备和存储介质 |
CN112767373B (zh) * | 2021-01-27 | 2022-09-02 | 大连理工大学 | 一种基于单目相机的机器人室内复杂场景避障方法 |
CN112507992B (zh) * | 2021-02-04 | 2021-05-07 | 腾讯科技(深圳)有限公司 | 道路图像之间的拍摄距离确定方法、装置、设备及介质 |
CN113391642B (zh) * | 2021-05-28 | 2022-06-03 | 西南交通大学 | 一种基于单目视觉的无人机自主避障方法及系统 |
CN113192130B (zh) * | 2021-05-31 | 2022-12-06 | 网易(杭州)网络有限公司 | 一种间距检测的方法和装置 |
CN113819890B (zh) * | 2021-06-04 | 2023-04-14 | 腾讯科技(深圳)有限公司 | 测距方法、装置、电子设备及存储介质 |
CN113313052B (zh) * | 2021-06-15 | 2024-05-03 | 杭州萤石软件有限公司 | 悬崖区域检测及移动机器人控制方法、装置及移动机器人 |
CN113268066B (zh) * | 2021-07-19 | 2021-11-12 | 福勤智能科技(昆山)有限公司 | 一种检测目标物的方法、装置、计算机设备及存储介质 |
CN113553958B (zh) * | 2021-07-27 | 2023-10-27 | 浙江大学 | 一种高速公路绿化带检测方法和装置 |
CN115578463B (zh) * | 2022-11-24 | 2023-04-07 | 苏州魔视智能科技有限公司 | 一种单目图像物体识别方法、装置及电子设备 |
CN116147567B (zh) * | 2023-04-20 | 2023-07-21 | 高唐县空间勘察规划有限公司 | 基于多元数据融合的国土测绘方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009129001A (ja) * | 2007-11-20 | 2009-06-11 | Sanyo Electric Co Ltd | 運転支援システム、車両、立体物領域推定方法 |
US20100121577A1 (en) * | 2008-04-24 | 2010-05-13 | Gm Global Technology Operations, Inc. | Three-dimensional lidar-based clear path detection |
JP2012512446A (ja) * | 2008-12-15 | 2012-05-31 | ニューソフト コーポレーション | 画像中の障害物を識別する方法および装置 |
JP2014029604A (ja) * | 2012-07-31 | 2014-02-13 | Denso It Laboratory Inc | 移動体認識システム、移動体認識プログラム、及び移動体認識方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0115433D0 (en) * | 2001-06-23 | 2001-08-15 | Lucas Industries Ltd | An object location system for a road vehicle |
US7248718B2 (en) * | 2004-02-19 | 2007-07-24 | Siemens Corporate Research, Inc. | System and method for detecting a passing vehicle from dynamic background using robust information fusion |
KR100630088B1 (ko) * | 2004-12-28 | 2006-09-27 | 삼성전자주식회사 | 옵티컬 플로우를 이용한 차량 감시 장치 및 방법 |
JP2007235642A (ja) * | 2006-03-02 | 2007-09-13 | Hitachi Ltd | 障害物検知システム |
CN101458814B (zh) * | 2007-12-13 | 2012-02-01 | 东软集团股份有限公司 | 一种用于从图像中分割对象感兴趣区域的方法和装置 |
US8751154B2 (en) | 2008-04-24 | 2014-06-10 | GM Global Technology Operations LLC | Enhanced clear path detection in the presence of traffic infrastructure indicator |
CN101408978B (zh) * | 2008-11-27 | 2010-12-01 | 东软集团股份有限公司 | 一种基于单目视觉的障碍物检测方法及装置 |
CN101436300B (zh) * | 2008-12-10 | 2012-10-31 | 东软集团股份有限公司 | 障碍物分割方法及装置 |
EP2541498B1 (en) * | 2011-06-30 | 2017-09-06 | Harman Becker Automotive Systems GmbH | Method of determining extrinsic parameters of a vehicle vision system and vehicle vision system |
RU2544775C1 (ru) * | 2011-09-12 | 2015-03-20 | Ниссан Мотор Ко., Лтд. | Устройство обнаружения трехмерных объектов |
US8903127B2 (en) * | 2011-09-16 | 2014-12-02 | Harman International (China) Holdings Co., Ltd. | Egomotion estimation system and method |
US8848978B2 (en) * | 2011-09-16 | 2014-09-30 | Harman International (China) Holdings Co., Ltd. | Fast obstacle detection |
CN102508246B (zh) * | 2011-10-13 | 2013-04-17 | 吉林大学 | 车辆前方障碍物检测跟踪方法 |
CN104509090B (zh) * | 2012-07-27 | 2016-08-24 | 歌乐牌株式会社 | 车载用图像识别装置 |
US8831290B2 (en) * | 2012-08-01 | 2014-09-09 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection |
US9969337B2 (en) * | 2014-09-03 | 2018-05-15 | Sharp Laboratories Of America, Inc. | Methods and systems for mobile-agent navigation |
-
2014
- 2014-09-26 CN CN201410512682.4A patent/CN104299244B/zh active Active
-
2015
- 2015-03-31 US US14/673,876 patent/US9521317B2/en active Active
- 2015-04-27 DE DE102015207676.8A patent/DE102015207676B4/de active Active
- 2015-04-28 JP JP2015092099A patent/JP6031554B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009129001A (ja) * | 2007-11-20 | 2009-06-11 | Sanyo Electric Co Ltd | 運転支援システム、車両、立体物領域推定方法 |
US20100121577A1 (en) * | 2008-04-24 | 2010-05-13 | Gm Global Technology Operations, Inc. | Three-dimensional lidar-based clear path detection |
JP2012512446A (ja) * | 2008-12-15 | 2012-05-31 | ニューソフト コーポレーション | 画像中の障害物を識別する方法および装置 |
JP2014029604A (ja) * | 2012-07-31 | 2014-02-13 | Denso It Laboratory Inc | 移動体認識システム、移動体認識プログラム、及び移動体認識方法 |
Non-Patent Citations (2)
Title |
---|
JPN6016024571; 佐伯晋, 外2名: '"数値地図情報に含まれない障害物を考慮した視覚障害者自立歩行支援システム"' ロボティクス・メカトロニクス講演会 '11 講演論文集 , 20110526, p.2125-2128, 一般社団法人日本機械学会 * |
JPN6016024572; 山口晃一郎, 外2名: '"車載単眼カメラによる車両前方の障害物検出"' 情報処理学会研究報告 第2005巻, 第112号, 20051118, p.69-76, 社団法人情報処理学会 * |
Also Published As
Publication number | Publication date |
---|---|
US20160093052A1 (en) | 2016-03-31 |
US9521317B2 (en) | 2016-12-13 |
JP6031554B2 (ja) | 2016-11-24 |
CN104299244A (zh) | 2015-01-21 |
CN104299244B (zh) | 2017-07-25 |
DE102015207676B4 (de) | 2024-07-18 |
DE102015207676A1 (de) | 2016-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6031554B2 (ja) | 単眼カメラに基づく障害物検知方法及び装置 | |
US20200334905A1 (en) | Systems and Methods for 3D Facial Modeling | |
JP7173772B2 (ja) | 深度値推定を用いた映像処理方法及び装置 | |
CN109993793B (zh) | 视觉定位方法及装置 | |
CN110176032B (zh) | 一种三维重建方法及装置 | |
CN105335955A (zh) | 对象检测方法和对象检测装置 | |
WO2023016271A1 (zh) | 位姿确定方法、电子设备及可读存储介质 | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
CN111753739B (zh) | 物体检测方法、装置、设备以及存储介质 | |
EP3293700A1 (en) | 3d reconstruction for vehicle | |
CN112102342B (zh) | 平面轮廓识别方法、装置、计算机设备和存储介质 | |
JP2014164601A (ja) | 車両諸元計測処理装置、車両諸元計測方法及びプログラム | |
CN111127522A (zh) | 基于单目相机的深度光流预测方法、装置、设备及介质 | |
CN112150518B (zh) | 一种基于注意力机制的图像立体匹配方法及双目设备 | |
CN107590444A (zh) | 静态障碍物的检测方法、装置及存储介质 | |
WO2023016182A1 (zh) | 位姿确定方法、装置、电子设备和可读存储介质 | |
Burlacu et al. | Obstacle detection in stereo sequences using multiple representations of the disparity map | |
WO2023284358A1 (zh) | 相机标定方法、装置、电子设备及存储介质 | |
Lu et al. | Stereo disparity optimization with depth change constraint based on a continuous video | |
Hoa et al. | Efficient determination of disparity map from stereo images with modified sum of absolute differences (SAD) algorithm | |
CN105138979A (zh) | 基于立体视觉的运动人体头部检测方法 | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
CN115222815A (zh) | 障碍物距离检测方法、装置、计算机设备和存储介质 | |
US11417063B2 (en) | Determining a three-dimensional representation of a scene | |
Kurka et al. | Automatic estimation of camera parameters from a solid calibration box |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160907 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161024 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6031554 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |