JP2020126610A - セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置 - Google Patents
セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置 Download PDFInfo
- Publication number
- JP2020126610A JP2020126610A JP2020004556A JP2020004556A JP2020126610A JP 2020126610 A JP2020126610 A JP 2020126610A JP 2020004556 A JP2020004556 A JP 2020004556A JP 2020004556 A JP2020004556 A JP 2020004556A JP 2020126610 A JP2020126610 A JP 2020126610A
- Authority
- JP
- Japan
- Prior art keywords
- lane
- post
- clustering
- processing module
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012805 post-processing Methods 0.000 title claims abstract description 103
- 230000011218 segmentation Effects 0.000 title claims abstract description 83
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000013527 convolutional neural network Methods 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000015654 memory Effects 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明により前記車線を検出して、自律走行車のための走行経路を最適化することができる。
Claims (28)
- セグメンテーションスコアマップ及びクラスタリングマップを利用して一つ以上の車線を検出するポストプロセッシング(post−processing)方法において、
(a)CNN(Convolutional neural network)が入力イメージを利用して前記セグメンテーションスコアマップ及び前記クラスタリングマップを生成すると、コンピューティング装置がこれを取得する段階;
(b)前記コンピューティング装置が、前記CNNの後部においてデータプロセッシングを遂行するポストプロセッシングモジュールをもって(i)前記セグメンテーションスコアマップを参照して、前記入力イメージ上の前記車線を構成するピクセルを含む単位領域である車線要素を検出するようにし、(ii)前記車線要素と、前記セグメンテーションスコアマップと、前記クラスタリングマップとを参照してシード(seed)情報を生成するようにする段階;
(c)前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記シード情報を参照して前記車線それぞれに対応する一つ以上のベースモデルを生成させ、これを参照して一つ以上の車線アンカー(anchor)を生成するようにする段階;
(d)前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記車線アンカーを参照して、前記車線要素の少なくとも一つの集合を含む一つ以上の車線ブロブ(Blob)を生成させる段階;及び
(e)前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、(i)前記車線ブロブを参照して前記入力イメージ内の一つ以上の車線候補群を検出するようにし、(ii)前記車線候補群に少なくとも一つのラインフィッティング(line−fitting)演算を適用して少なくとも一つの車線モデルを生成させることにより前記車線を検出する段階;
を含むことを特徴とする方法。 - 前記(a)段階以前に、
前記CNNは、前記入力イメージに少なくとも一つのコンボリューション演算及び少なくとも一つのデコンボレーション演算を適用することにより、前記セグメンテーションスコアマップを生成し、(i)前記入力イメージに含まれた前記車線それぞれのピクセルに対応する、前記セグメンテーションスコアマップに含まれたそれぞれの値の異なるクラス間の差異それぞれは増加し、(ii)前記入力イメージに含まれた前記それぞれの車線のピクセルに対応する、前記セグメンテーションスコアマップに含まれた前記それぞれの値の同一クラス内部の分散それぞれは減少するように、ニューラルネットワーク演算を前記セグメンテーションスコアマップに適用することを特徴とする請求項1に記載の方法。 - 前記(b)段階で、
前記ポストプロセッシングモジュールは、(i)前記入力イメージ上の前記車線要素の位置に対応する中心座標、(ii)前記車線要素の幅、(iii)前記車線要素内に含まれたピクセルに対応する、前記セグメンテーションスコアマップ上の代表値、及び(iv)前記クラスタリングマップを利用して、前記車線要素が含まれた少なくとも一つの車線を示すクラスタリングID値の中の少なくとも一つを含む前記シード情報を生成することを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記ポストプロセッシングモジュールが、前記ベースモデルのうち、最も直線型に近い所定の公式によって表現される特定ベースモデルを、前記車線アンカーの一つとして決定し、前記所定の公式は、前記車線要素の前記中心座標を参照して導き出されることを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記ポストプロセッシングモジュールが、特定ベースモデルを前記車線アンカーの一つとして決定し、前記特定ベースモデルは、前記ベースモデルのうち、(i)前記セグメンテーションスコアマップ上の代表値が予め設定された閾値以上であり(ii)前記クラスタリングマップを利用して取得されたクラスタリングID値が類似した、特定車線要素を参照して選択されることを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記ポストプロセッシングモジュールが、特定ベースモデルを前記車線アンカーの一つとして決定し、前記特定ベースモデルは、前記ベースモデルのうち、前記シード情報に含まれたクラスタリングID値の最も小さい分散値を有する特定車線要素を参照して選択されることを特徴とする請求項1に記載の方法。 - 前記(d)段階において、
前記ポストプロセッシングモジュールが、各前記車線アンカーに隣接したそれぞれの特定車線要素をトレーシング(tracing)及びグループピング(grouping)することにより、前記車線ブロブを生成することを特徴とする請求項1に記載の方法。 - 前記ポストプロセッシングモジュールが、前記シード情報に含まれた、それぞれの前記車線アンカーに対応する、それぞれのクラスタリングID値と、それぞれの代表値と、それぞれの幅とを参照して、それぞれの前記車線アンカーに隣接したそれぞれの前記特定車線要素をトレーシング及びグループピングすることにより、それぞれの前記車線ブロブを生成することを特徴とする請求項7に記載の方法。
- 前記ポストプロセッシングモジュールが、各前記車線アンカーごとに、各前記車線アンカーに沿って両方向に前記特定車線要素をトレーシング及びグループピングすることにより、前記車線ブロブを生成することを特徴とする請求項8に記載の方法。
- 前記(e)段階で、
前記ポストプロセッシングモジュールが、(i)前記車線ブロブに隣接した前記ピクセルのうち、前記車線要素に含まれていない特定ピクセルを探し出して追加して前記車線ブロブを拡張し、(ii)前記拡張された車線ブロブを統合することにより、前記車線候補群を検出することを特徴とする請求項1に記載の方法。 - 前記(e)段階で、
前記ポストプロセッシングモジュールが、前記車線ブロブ間の方向性が互いに一致し、前記クラスタリングID値が予め設定された範囲内に含まれている前記車線ブロブを統合することにより、前記車線候補群を検出することを特徴とする請求項1に記載の方法。 - 前記(e)段階で、
それぞれの前記車線ブロブの方向性と、車線であると誤認されたそれぞれのグループの方向性との差異それぞれは予め設定された閾値以下であるが、それぞれの前記車線ブロブの各クラスタリングID値と、前記誤認されたそれぞれのグループの各クラスタリングID値とが予め設定された範囲内に含まれていない場合、前記ポストプロセッシングモジュールは、前記車線ブロブ及び前記誤認されたグループのうち、前記セグメンテーションスコアマップ上の値の平均がより低い一部を除去することを特徴とする請求項1に記載の方法。 - 前記(e)段階で、
前記ラインフィッティング演算は、それぞれの前記車線内に含まれる前記車線の中心座標間の関係を利用する多項式フィッティング(polynomial fitting)により多項式(polynomial)モデルを出力する演算であることを特徴とする請求項1に記載の方法。 - 前記(e)段階で、
前記ラインフィッティング演算は、前記車線アンカーの中の、前記トレーシングを遂行する間にエラーの少ない特定車線アンカーの中心位置をスプライン(spline)のキーポイントに選択することにより、スプラインモデルを出力する演算であることを特徴とする請求項1に記載の方法。 - セグメンテーションスコアマップ及びクラスタリングマップを利用して一つ以上の車線を検出するためのコンピューティング装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
(I)CNN(Convolutional neural network)が前記入力イメージを利用して前記セグメンテーションスコアマップ及び前記クラスタリングマップを生成すると、前記CNNの後部においてデータプロセッシングを遂行するポストプロセッシングモジュールをもって、(i)前記セグメンテーションスコアマップを参照して、前記入力イメージ上の前記車線を構成するピクセルを含む単位領域である車線要素を検出するようにし、(ii)前記車線要素と、前記セグメンテーションスコアマップと、前記クラスタリングマップとを参照してシード(seed)情報を生成するようにするプロセス、(II)前記ポストプロセッシングモジュールをもって、前記シード情報を参照して前記車線それぞれに対応する一つ以上のベースモデルを生成させ、これを参照して一つ以上の車線アンカー(anchor)を生成するようにするプロセス、(III)前記ポストプロセッシングモジュールをもって、前記車線アンカーを参照して、前記車線要素の少なくとも一つの集合を含む一つ以上の車線ブロブ(Blob)を生成させるプロセス、及び(IV)前記ポストプロセッシングモジュールをもって、(i)前記車線ブロブを参照して前記入力イメージ内の一つ以上の車線候補群を検出するようにし、(ii)前記車線候補群に少なくとも一つのラインフィッティング(line−fitting)演算を適用して少なくとも一つの車線モデルを生成させることにより前記車線を検出するプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とするコンピューティング装置。 - 前記セグメンテーションスコアマップ及び前記クラスタリングマップが取得される前に、前記CNNは、前記入力イメージに少なくとも一つのコンボリューション演算及び少なくとも一つのデコンボレーション演算を適用することにより、前記セグメンテーションスコアマップを生成し、(i)前記入力イメージに含まれた前記車線それぞれのピクセルに対応する、前記セグメンテーションスコアマップに含まれたそれぞれの値の異なるクラス間の差異それぞれは増加し、(ii)前記入力イメージに含まれた前記それぞれの車線のピクセルに対応する、前記セグメンテーションスコアマップに含まれた前記それぞれの値の同一クラス内部の分散それぞれは減少するように、ニューラルネットワーク演算を前記セグメンテーションスコアマップに適用することを特徴とする請求項15に記載のコンピューティング装置。
- 前記(I)プロセスで、
前記ポストプロセッシングモジュールは、(i)前記入力イメージ上の前記車線要素の位置に対応する中心座標、(ii)前記車線要素の幅、(iii)前記車線要素内に含まれたピクセルに対応する、前記セグメンテーションスコアマップ上の代表値、及び(iv)前記クラスタリングマップを利用して、前記車線要素が含まれた少なくとも一つの車線を示すクラスタリングID値の中の少なくとも一つを含む前記シード情報を生成することを特徴とする請求項15に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記ポストプロセッシングモジュールが、前記ベースモデルのうち、最も直線型に近い所定の公式によって表現される特定ベースモデルを、前記車線アンカーの一つとして決定し、前記所定の公式は、前記車線要素の前記中心座標を参照して導き出されることを特徴とする請求項15に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記ポストプロセッシングモジュールが、特定ベースモデルを前記車線アンカーの一つとして決定し、前記特定ベースモデルは、前記ベースモデルのうち、(i)前記セグメンテーションスコアマップ上の代表値が予め設定された閾値以上であり(ii)前記クラスタリングマップを利用して取得されたクラスタリングID値が類似した、特定車線要素を参照して選択されることを特徴とする請求項15に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記ポストプロセッシングモジュールが、特定ベースモデルを前記車線アンカーの一つとして決定し、前記特定ベースモデルは、前記ベースモデルのうち、前記シード情報に含まれたクラスタリングID値の最も小さい分散値を有する特定車線要素を参照して選択されることを特徴とする請求項15に記載のコンピューティング装置。 - 前記(III)プロセスで、
前記ポストプロセッシングモジュールが、各前記車線アンカーに隣接したそれぞれの特定車線要素をトレーシング(tracing)及びグループピング(grouping)することにより、前記車線ブロブを生成することを特徴とする請求項15に記載のコンピューティング装置。 - 前記ポストプロセッシングモジュールが、前記シード情報に含まれた、それぞれの前記車線アンカーに対応する、それぞれのクラスタリングID値と、それぞれの代表値と、それぞれの幅とを参照して、それぞれの前記車線アンカーに隣接したそれぞれの前記特定車線要素をトレーシング及びグループピングすることにより、それぞれの前記車線ブロブを生成することを特徴とする請求項21に記載のコンピューティング装置。
- 前記ポストプロセッシングモジュールが、各前記車線アンカーごとに、各前記車線アンカーに沿って両方向に前記特定車線要素をトレーシング及びグループピングすることにより、前記車線ブロブを生成することを特徴とする請求項22に記載のコンピューティング装置。
- 前記(IV)プロセスで、
前記ポストプロセッシングモジュールが、(i)前記車線ブロブに隣接した前記ピクセルのうち、前記車線要素に含まれていない特定ピクセルを探し出して追加して前記車線ブロブを拡張し、(ii)前記拡張された車線ブロブを統合することにより、前記車線候補群を検出することを特徴とする請求項15に記載のコンピューティング装置。 - 前記(IV)プロセスで、
前記ポストプロセッシングモジュールが、前記車線ブロブ間の方向性が互いに一致し、前記クラスタリングID値が予め設定された範囲内に含まれている前記車線ブロブを統合することにより、前記車線候補群を検出することを特徴とする請求項15に記載のコンピューティング装置。 - 前記(IV)プロセスで、
それぞれの前記車線ブロブの方向性と、車線であると誤認されたそれぞれのグループの方向性との差異それぞれは予め設定された閾値以下であるが、それぞれの前記車線ブロブの各クラスタリングID値と、前記誤認されたそれぞれのグループの各クラスタリングID値とが予め設定された範囲内に含まれていない場合、前記ポストプロセッシングモジュールは、前記車線ブロブ及び前記誤認されたグループのうち、前記セグメンテーションスコアマップ上の値の平均がより低い一部を除去することを特徴とする請求項15に記載のコンピューティング装置。 - 前記(IV)プロセスで、
前記ラインフィッティング演算は、それぞれの前記車線内に含まれる前記車線の中心座標間の関係を利用する多項式フィッティング(polynomial fitting)により多項式(polynomial)モデルを出力する演算であることを特徴とする請求項15に記載のコンピューティング装置。 - 前記(IV)プロセスで、
前記ラインフィッティング演算は、前記車線アンカーの中の、前記トレーシングを遂行する間にエラーの少ない特定車線アンカーの中心位置をスプライン(spline)のキーポイントに選択することにより、スプラインモデルを出力する演算であることを特徴とする請求項15に記載のコンピューティング装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/263,168 US10423840B1 (en) | 2019-01-31 | 2019-01-31 | Post-processing method and device for detecting lanes to plan the drive path of autonomous vehicle by using segmentation score map and clustering map |
US16/263,168 | 2019-01-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126610A true JP2020126610A (ja) | 2020-08-20 |
JP6935946B2 JP6935946B2 (ja) | 2021-09-15 |
Family
ID=67988499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020004556A Active JP6935946B2 (ja) | 2019-01-31 | 2020-01-15 | セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10423840B1 (ja) |
EP (1) | EP3690707B1 (ja) |
JP (1) | JP6935946B2 (ja) |
KR (1) | KR102300906B1 (ja) |
CN (1) | CN111507153B (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112154449A (zh) * | 2019-09-26 | 2020-12-29 | 深圳市大疆创新科技有限公司 | 车道线融合方法、车道线融合装置、车辆和存储介质 |
CN111753921B (zh) * | 2020-07-01 | 2022-10-18 | 广东工业大学 | 一种高光谱图像聚类方法、装置、设备及存储介质 |
CN112488009A (zh) * | 2020-12-05 | 2021-03-12 | 武汉中海庭数据技术有限公司 | 无人机数据中的车道线形点串提取方法及系统 |
CN112528859B (zh) * | 2020-12-11 | 2023-04-07 | 中国第一汽车股份有限公司 | 车道线检测方法、装置、设备及存储介质 |
WO2022126377A1 (zh) * | 2020-12-15 | 2022-06-23 | 中国科学院深圳先进技术研究院 | 检测车道线的方法、装置、终端设备及可读存储介质 |
CN112396044B (zh) * | 2021-01-21 | 2021-04-27 | 国汽智控(北京)科技有限公司 | 车道线属性信息检测模型训练、车道线属性信息检测方法 |
CN114708576B (zh) * | 2022-06-06 | 2022-10-25 | 天津所托瑞安汽车科技有限公司 | 一种车道线确定方法、装置、设备及存储介质 |
CN115147811B (zh) * | 2022-07-01 | 2023-05-30 | 小米汽车科技有限公司 | 一种车道线检测方法、装置及电子设备 |
CN116543365B (zh) * | 2023-07-06 | 2023-10-10 | 广汽埃安新能源汽车股份有限公司 | 一种车道线识别方法、装置、电子设备及存储介质 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005283197A (ja) * | 2004-03-29 | 2005-10-13 | Seiko Epson Corp | 画面のスジ欠陥検出方法及び装置 |
JP2005346300A (ja) * | 2004-06-01 | 2005-12-15 | Seiko Epson Corp | 筋状欠陥検出方法及び装置 |
CN102129690B (zh) * | 2011-03-21 | 2013-01-02 | 西安理工大学 | 一种抗环境干扰的人体运动目标的跟踪方法 |
CN102867311B (zh) * | 2011-07-07 | 2015-11-25 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
CN102542560B (zh) * | 2011-10-31 | 2013-10-30 | 华中科技大学 | 一种水稻移栽后密度自动检测的方法 |
KR101347886B1 (ko) * | 2012-02-20 | 2014-01-08 | 울산대학교 산학협력단 | 도로 영역 및 기하학적 정보를 이용한 차로 인식 방법 및 장치 |
CN102629326A (zh) * | 2012-03-19 | 2012-08-08 | 天津工业大学 | 一种基于单目视觉的车道线检测方法 |
DE102012111010A1 (de) * | 2012-11-15 | 2014-06-12 | Eads Deutschland Gmbh | Verfahren und Vorrichtung zur bildgestützten Landebahnlokalisierung |
KR102016549B1 (ko) * | 2014-01-13 | 2019-08-30 | 한화디펜스 주식회사 | 차량 및 차선 위치 검출 시스템 및 방법 |
US10410096B2 (en) * | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
CN105260699B (zh) * | 2015-09-10 | 2018-06-26 | 百度在线网络技术(北京)有限公司 | 一种车道线数据的处理方法及装置 |
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
US10037471B2 (en) * | 2016-07-05 | 2018-07-31 | Nauto Global Limited | System and method for image analysis |
US20180048894A1 (en) * | 2016-08-11 | 2018-02-15 | Qualcomm Incorporated | Methods and systems of performing lighting condition change compensation in video analytics |
US10055669B2 (en) * | 2016-08-12 | 2018-08-21 | Qualcomm Incorporated | Methods and systems of determining a minimum blob size in video analytics |
CN106407893B (zh) * | 2016-08-29 | 2019-11-22 | 东软集团股份有限公司 | 一种检测车道线的方法、装置和设备 |
US10859395B2 (en) * | 2016-12-30 | 2020-12-08 | DeepMap Inc. | Lane line creation for high definition maps for autonomous vehicles |
CN106845424B (zh) * | 2017-01-24 | 2020-05-05 | 南京大学 | 基于深度卷积网络的路面遗留物检测方法 |
US10373002B2 (en) * | 2017-03-31 | 2019-08-06 | Here Global B.V. | Method, apparatus, and system for a parametric representation of lane lines |
US10209089B2 (en) * | 2017-04-03 | 2019-02-19 | Robert Bosch Gmbh | Automated image labeling for vehicles based on maps |
US10809361B2 (en) * | 2017-05-31 | 2020-10-20 | Uatc, Llc | Hybrid-view LIDAR-based object detection |
US10474908B2 (en) * | 2017-07-06 | 2019-11-12 | GM Global Technology Operations LLC | Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation |
CN107704837A (zh) * | 2017-10-19 | 2018-02-16 | 千寻位置网络有限公司 | 道路网拓扑和几何信息的提取方法 |
CN108986127B (zh) * | 2018-06-27 | 2021-08-31 | 北京市商汤科技开发有限公司 | 图像分割神经网络的训练方法及图像分割方法、装置 |
CN109214334B (zh) * | 2018-09-03 | 2020-12-29 | 百度在线网络技术(北京)有限公司 | 车道线处理方法和装置 |
US10223614B1 (en) * | 2018-09-04 | 2019-03-05 | StradVision, Inc. | Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same |
US10229346B1 (en) * | 2018-09-04 | 2019-03-12 | StradVision, Inc. | Learning method, learning device for detecting object using edge image and testing method, testing device using the same |
-
2019
- 2019-01-31 US US16/263,168 patent/US10423840B1/en active Active
- 2019-11-15 KR KR1020190147091A patent/KR102300906B1/ko active IP Right Grant
-
2020
- 2020-01-13 EP EP20151414.8A patent/EP3690707B1/en active Active
- 2020-01-14 CN CN202010036042.6A patent/CN111507153B/zh active Active
- 2020-01-15 JP JP2020004556A patent/JP6935946B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR102300906B1 (ko) | 2021-09-13 |
EP3690707B1 (en) | 2023-10-04 |
JP6935946B2 (ja) | 2021-09-15 |
EP3690707A1 (en) | 2020-08-05 |
CN111507153B (zh) | 2023-12-15 |
KR20200095330A (ko) | 2020-08-10 |
EP3690707C0 (en) | 2023-10-04 |
CN111507153A (zh) | 2020-08-07 |
US10423840B1 (en) | 2019-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6935946B2 (ja) | セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置 | |
EP3686779B1 (en) | Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same | |
KR102373487B1 (ko) | 최근 주행 경로에 대한 궤적 기반 행동 분석을 수행하여 차량의 모드를 수동 주행 모드에서 자율 주행 모드로 변경할 지 여부를 판단하는 학습 방법 및 학습 장치 | |
KR20200027427A (ko) | 차선 후보 픽셀의 분류를 통해 차선을 검출하는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP2019517089A (ja) | 地面マーキングを認識するための画像処理方法、および地面マーキングを検出するためのシステム | |
CN110956069B (zh) | 一种行人3d位置的检测方法及装置、车载终端 | |
KR102349953B1 (ko) | 자동차의 블라인드 스팟 모니터링을 위한 학습 방법과 테스팅 방법, 및 이를 이용한 학습 장치와 테스팅 장치 | |
KR102373492B1 (ko) | 자체적으로 생성된 정보 및 다른 개체에 의해 생성된 정보를 선택적으로 사용하여 카메라의 오정렬을 보정하는 방법 및 이를 이용한 장치 | |
KR20200094075A (ko) | 다수의 차량을 통한 센서 퓨전, v2x 통신 가능한 애플리케이션을 이용한 협업 주행을 위해 주변에 위치하는 카메라 각각에 대응되는 각각의 객체 검출기에 의해 검출되는 객체 검출 정보를 통합하는 방법 및 장치 | |
KR20200027889A (ko) | CNN(Convolutional Neural Network)을 사용하여 차선을 검출하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102296496B1 (ko) | V2v 통신을 통해 획득한 정보와 카메라를 통해 획득한 정보를 융합하여 카메라의 피치 캘리브레이션을 더욱 정교하게 수행함으로써 카메라 기반 로버스트 객체 거리 예측을 제공하는 방법 및 이를 이용한 장치 | |
CN111460879B (zh) | 利用网格生成器的神经网络运算方法及使用该方法的装置 | |
KR102349906B1 (ko) | 자동차의 블라인드 스팟 모니터링을 위한 학습 방법과 테스팅 방법, 및 이를 이용한 학습 장치와 테스팅 장치 | |
CN110909588B (zh) | 基于cnn的用于车道线检测的方法和装置 | |
JP6853543B2 (ja) | 自律走行に対する論理的根拠を提示するために、管理者が物体検出器の検出プロセスを評価できるように支援する方法及び装置 | |
JP2020119552A (ja) | テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約し、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置 | |
JP6918425B2 (ja) | 撮影画像に含まれる境界線を検出するための装置、方法、及びプログラム | |
JP6856852B2 (ja) | 横フィルタマスクを利用して自律走行車の走行経路を計画するために車線要素を検出する方法及び装置 | |
CN115249407B (zh) | 指示灯状态识别方法、装置、电子设备、存储介质及产品 | |
CN114118188A (zh) | 针对待检测图像中移动对象的处理系统、方法和存储介质 | |
CN111461318B (zh) | 利用网格生成器的神经网络运算方法及使用该方法的装置 | |
CN111460878B (zh) | 利用网格生成器的神经网络运算方法及使用该方法的装置 | |
Kurdziel | A monocular color vision system for road intersection detection | |
CN116630913A (zh) | 一种基于特征融合的野外环境建图方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6935946 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |