JP2021532449A - 車線属性検出 - Google Patents
車線属性検出 Download PDFInfo
- Publication number
- JP2021532449A JP2021532449A JP2021500086A JP2021500086A JP2021532449A JP 2021532449 A JP2021532449 A JP 2021532449A JP 2021500086 A JP2021500086 A JP 2021500086A JP 2021500086 A JP2021500086 A JP 2021500086A JP 2021532449 A JP2021532449 A JP 2021532449A
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- lane
- value
- probability map
- book
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 98
- 238000000034 method Methods 0.000 claims abstract description 79
- 238000013528 artificial neural network Methods 0.000 claims description 81
- 238000012549 training Methods 0.000 claims description 51
- 230000008569 process Effects 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 20
- 230000004044 response Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 11
- 238000007781 pre-processing Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract description 25
- 230000008859 change Effects 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 239000003086 colorant Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 101150064138 MAP1 gene Proteins 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 101100400452 Caenorhabditis elegans map-2 gene Proteins 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000005206 flow analysis Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 239000004575 stone Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Geometry (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
Abstract
Description
スマートデバイスに装着された画像収集装置が収集した路面画像を取得するステップと、前記路面画像に基づいて確率マップを確定するステップと、前記確率マップに基づいて前記路面画像における車線属性を確定するステップと、を含み、前記確率マップは、色属性確率マップ、線形属性確率マップ、および、エッジ属性確率マップの中の少なくとも2種を含み、ここで、色属性確率マップは、N1個あり、線形属性確率マップは、N2個あり、エッジ属性確率マップは、N3個あり、ここで、N1、N2、および、N3は、いずれも、0より大きい整数であり、各々の色属性確率マップは、前記路面画像における各点が当該色属性確率マップに対応する色に属する確率を表し、各々の線形属性確率マップは、前記路面画像における各点が当該線形属性確率マップに対応する線形に属する確率を表し、各々のエッジ属性確率マップは、前記路面画像における各点が当該エッジ属性確率マップに対応するエッジに属する確率を表す。
スマートデバイスに装着された画像収集装置が収集した路面画像を取得するための第1取得モジュールと、前記路面画像に基づいて確率マップを確定するための第1確定モジュールと、前記確率マップに基づいて前記路面画像における車線属性を確定するための第2確定モジュールと、を備え、前記確率マップは、色属性確率マップ、線形属性確率マップ、および、エッジ属性確率マップの中の少なくとも2種を含み、ここで、色属性確率マップは、N1個あり、線形属性確率マップは、N2個あり、エッジ属性確率マップは、N3個あり、ここで、N1、N2、および、N3は、いずれも、0より大きい整数であり、各々の色属性確率マップは、前記路面画像における各点が当該色属性確率マップに対応する色に属する確率を表し、各々の線形属性確率マップは、前記路面画像における各点が当該線形属性確率マップに対応する線形に属する確率を表し、各々のエッジ属性確率マップは、前記路面画像における各点が当該エッジ属性確率マップに対応するエッジに属する確率を表す。
プログラム命令を記憶するためのメモリと、前記メモリ中のプログラム命令を呼び出して実行することによって、上記の第1の態様に記載の方法のステップを実行するためのプロセッサと、を備える。
路面画像を取得するステップと、上記の第1の態様に記載の車線属性検出方法を使用して、取得した路面画像における車線属性を検出するステップと、検出して得た車線属性に基づいて、プロンプト情報を出力するか、または、前記スマートデバイスに対して走行制御を実行するステップと、含む。
路面画像を取得するための画像収集装置と、プログラム命令を記憶するためのメモリであって、記憶されたプログラム命令が実行されると、上記の第1の態様に記載の車線属性検出方法が実現されるメモリと、前記画像収集装置が取得した路面画像に基づいて、前記メモリに記憶されたプログラム命令を実行することによって、前記路面画像における車線属性を検出し,検出して得た車線属性に基づいて、プロンプト情報を出力するか、または、スマートデバイスに対して走行制御を実行するためのプロセッサと、を備える。
Claims (32)
- 車線属性検出方法であって、
スマートデバイスに装着された画像収集装置が収集した路面画像を取得するステップと、
前記路面画像に基づいて確率マップを確定するステップと、
前記確率マップに基づいて前記路面画像における車線属性を確定するステップと、を含み、
前記確率マップは、色属性確率マップ、線形属性確率マップ、および、エッジ属性確率マップの中の少なくとも2種を含み、
前記色属性確率マップは、N1個あり、前記線形属性確率マップは、N2個あり、前記エッジ属性確率マップは、N3個あり、ここで、N1、N2、および、N3は、いずれも、0より大きい整数であり、
各々の前記色属性確率マップは、前記路面画像における各点が当該色属性確率マップに対応する色に属する確率を表し、
各々の前記線形属性確率マップは、前記路面画像における各点が当該線形属性確率マップに対応する線形に属する確率を表し、
各々の前記エッジ属性確率マップは、前記路面画像における各点が当該エッジ属性確率マップに対応するエッジに属する確率を表す
ことを特徴とする車線属性検出方法。 - 前記N1個の色属性確率マップに対応する色は、白色、黄色、および、青色の中の少なくとも1つを含む
ことを特徴とする請求項1に記載の車線属性検出方法。 - 前記N2個の線形属性確率マップに対応する線形は、破線、実線、二重破線、二重実線、破線実線二重線、実線破線二重線、三重破線、および、破実破三重線の中の少なくとも1つを含む
ことを特徴とする請求項1または2に記載の車線属性検出方法。 - 前記N3個のエッジ属性確率マップに対応するエッジは、縁石型エッジ、フェンス型エッジ、壁または画壇型エッジ、仮想エッジ、および、非エッジの中の少なくとも1つを含む
ことを特徴とする請求項1乃至3の何れか1項に記載の車線属性検出方法。 - 前記確率マップは、第1属性確率マップと第2属性確率マップとを含み、前記第1属性確率マップと前記第2属性確率マップとは、前記色属性確率マップ、前記線形属性確率マップ、および、前記エッジ属性確率マップの中の2種であり、かつ、前記第1属性確率マップと前記第2属性確率マップとは、互いに異なり、
前記確率マップに基づいて前記路面画像における前記車線属性を確定するステップは、
前記路面画像における1本の車線の位置のところの各々の点に対して、当該点のL個の前記第1属性確率マップにおける対応する位置のそれぞれの確率値を確定するステップと、
当該点に対して、確率値が最大である第1属性確率マップに対応する第1属性の値を、当該点の第1属性の値とするステップと、
前記路面画像における当該本の車線の位置のところの各点の第1属性の値に基づいて、当該本の車線の第1属性の値を確定するステップと、
前記路面画像における当該本の車線の位置のところの各々の点に対して、当該点のS個の前記第2属性確率マップにおける対応する位置のそれぞれの確率値を確定するステップと、
当該点に対して、確率値が最大である第2属性確率マップに対応する第2属性の値を、当該点の第2属性の値とするステップと、
前記路面画像における当該本の車線の位置のところの各点の第2属性の値に基づいて、当該本の車線の第2属性の値を確定するステップと、
当該本の車線の前記第1属性の値と当該本の車線の前記第2属性の値とを組み合わせるステップと、
組み合わせた後の属性の値を当該本の車線の属性の値とするステップと、を含み、
ここで、前記第1属性確率マップが前記色属性確率マップである場合、LはN1に等しく、前記第1属性は色属性であり、
前記第1属性確率マップが前記線形属性確率マップである場合、LはN2に等しく、前記第1属性は線形属性であり、
前記第1属性確率マップが前記エッジ属性確率マップである場合、LはN3に等しく、第1属性はエッジ属性であり、
前記第2属性確率マップが前記色属性確率マップである場合、SはN1に等しく、前記第2属性は前記色属性であり、
前記第2属性確率マップが前記線形属性確率マップである場合、SはN2に等しく、前記第2属性は前記線形属性であり、
前記第2属性確率マップが前記エッジ属性確率マップである場合、SはN3に等しく、前記第2属性は前記エッジ属性である
ことを特徴とする請求項1乃至4の何れか1項に記載の車線属性検出方法。 - 前記路面画像における当該本の車線の位置のところの各点の前記第1属性に基づいて、当該本の車線の前記第1属性の値を確定するステップは、
当該本の車線の位置のところの各点の前記第1属性の値が互いに異なることに応答して、当該本の車線の位置のところの各々の点の中の、第1属性の値が同一である点の数が最多である点の前記第1属性の値を、当該本の車線の前記第1属性の値とするステップを含む
ことを特徴とする請求項5に記載の車線属性検出方法。 - 前記路面画像における当該本の車線の位置のところの各点の前記第1属性に基づいて、当該本の車線の前記第1属性の値を確定するステップは、
当該本の車線の位置のところの各点の前記第1属性の値が同一であることに応答して、当該本の車線の位置のところの点の前記第1属性の値を当該本の車線の前記第1属性の値とするステップを含む
ことを特徴とする請求項5または6に記載の車線属性検出方法。 - 前記路面画像における当該本の車線の位置のところの各点の前記第2属性の値に基づいて、当該本の車線の前記第2属性の値を確定するステップは、
当該本の車線の位置のところの各点の前記第2属性の値が互いに異なることに応答して、当該本の車線の位置のところの各々の点の中の、第2属性の値が同一である点の数が最多である点の前記第2属性の値を、当該本の車線の前記第2属性の値とするステップを含む
ことを特徴とする請求項5乃至7の何れか1項に記載の車線属性検出方法。 - 前記路面画像における当該本の車線の位置のところの各点の前記第2属性の値に基づいて、当該本の車線の前記第2属性の値を確定するステップは、
当該本の車線の位置のところの各点の前記第2属性の値が同一であることに応答して、当該本の車線の位置のところの点の前記第2属性の値を当該本の車線の前記第2属性の値とするステップを含む
ことを特徴とする請求項5乃至8の何れか1項に記載の車線属性検出方法。 - 前記確率マップは、第3属性確率マップをさらに含み、前記第3属性確率マップは、前記色属性確率マップ、前記線形属性確率マップ、および、前記エッジ属性確率マップの中の1種であり、かつ、前記第3属性確率マップ、前記第2属性確率マップ、および、前記第1属性確率マップは、その属性がいずれも互いに異なる確率マップであり、
当該本の車線の前記第1属性の値と当該本の車線の前記第2属性の値とを組み合わせるステップの前に、前記車線属性検出方法は、
前記路面画像における当該本の車線の位置のところの各々の点に対して、当該点のU個の前記第3属性確率マップにおける対応する位置のそれぞれの確率値を確定するステップと、
当該点に対して、確率値が最大である第3属性確率マップに対応する第3属性の値を、当該点の第3属性の値とするステップと、
前記路面画像における当該本の車線の位置のところの各点の第3属性の値に基づいて、当該本の車線の第3属性の値を確定するステップと、をさらに含み、
ここで、前記第3属性確率マップが前記色属性確率マップである場合、UはN1に等しく、前記第3属性は前記色属性であり、
前記第3属性確率マップが前記線形属性確率マップである場合、UはN2に等しく、前記第3属性は前記線形属性であり、
前記第3属性確率マップが前記エッジ属性確率マップである場合、UはN3に等しく、前記第3属性は前記エッジ属性であり、
当該本の車線の前記第1属性の値と当該本の車線の前記第2属性の値とを組み合わせるステップは、
当該本の車線の前記第1属性の値、当該本の車線の前記第2属性の値、および、当該本の車線の前記第3属性の値を組み合わせるステップを含む
ことを特徴とする請求項5乃至9の何れか1項に記載の車線属性検出方法。 - 前記路面画像における当該本の車線の位置のところの各点の前記第3属性の値に基づいて、当該本の車線の前記第3属性の値を確定するステップは、
当該本の車線の位置のところの各点の前記第3属性の値が互いに異なることに応答して、当該本の車線の位置のところの各々の点の中の、第3属性の値が同一である点の数が最多である点の前記第3属性の値を、当該本の車線の前記第3属性の値とするステップを含む
ことを特徴とする請求項10に記載の車線属性検出方法。 - 前記路面画像における当該本の車線の位置のところの各点の前記第3属性の値に基づいて、当該本の車線の前記第3属性の値を確定するステップは、
当該本の車線の位置のところの各点の前記第3属性の値が同一であることに応答して、当該本の車線の位置のところの点の前記第3属性の値を当該本の車線の前記第3属性の値とするステップを含む
ことを特徴とする請求項10または11に記載の車線属性検出方法。 - 前記路面画像に基づいて前記確率マップを確定するステップは、
前記路面画像をニューラルネットワークに入力し、ニューラルネットワークが前記確率マップを出力するステップを含み、
ここで、前記ニューラルネットワークは、色種類、線形種類、および、エッジの種類のラベル情報を含む路面トレーニング画像セットを使用して監督トレーニングして得られたものである
ことを特徴とする請求項1乃至12の何れか1項に記載の車線属性検出方法。 - 前記路面画像を前記ニューラルネットワークに入力する前に、前記車線属性検出方法は、
前記路面画像に対して歪み除去処理を実行するステップをさらに含む
ことを特徴とする請求項13に記載の車線属性検出方法。 - 車線属性検出装置であって、
スマートデバイスに装着された画像収集装置が収集した路面画像を取得するための第1取得モジュールと、
前記路面画像に基づいて確率マップを確定するための第1確定モジュールと、
前記確率マップに基づいて前記路面画像における車線属性を確定するための第2確定モジュールと、を備え、
前記確率マップは、色属性確率マップ、線形属性確率マップ、および、エッジ属性確率マップの中の少なくとも2種を含み、
前記色属性確率マップは、N1個あり、前記線形属性確率マップは、N2個あり、前記エッジ属性確率マップは、N3個あり、ここで、N1、N2、および、N3は、いずれも、0より大きい整数であり、
各々の前記色属性確率マップは、前記路面画像における各点が当該色属性確率マップに対応する色に属する確率を表し、
各々の前記線形属性確率マップは、前記路面画像における各点が当該線形属性確率マップに対応する線形に属する確率を表し、
各々の前記エッジ属性確率マップは、前記路面画像における各点が当該エッジ属性確率マップに対応するエッジに属する確率を表す
ことを特徴とする車線属性検出装置。 - 前記N1個の色属性確率マップに対応する色は、白色、黄色、および、青色の中の少なくとも1つを含む
ことを特徴とする請求項15に記載の車線属性検出装置。 - 前記N2個の線形属性確率マップに対応する線形は、破線、実線、二重破線、二重実線、破線実線二重線、実線破線二重線、三重破線、および、破実破三重線の中の少なくとも1つを含む
ことを特徴とする請求項15または16に記載の車線属性検出装置。 - 前記N3個のエッジ属性確率マップに対応するエッジは、縁石型エッジ、フェンス型エッジ、壁または画壇型エッジ、仮想エッジ、および、非エッジの中の少なくとも1つを含む
ことを特徴とする請求項15乃至17の何れか1項に記載の車線属性検出装置。 - 前記確率マップは、第1属性確率マップと第2属性確率マップとを含み、前記第1属性確率マップと前記第2属性確率マップとは、前記色属性確率マップ、前記線形属性確率マップ、および、前記エッジ属性確率マップの中の2種であり、かつ、前記第1属性確率マップと前記第2属性確率マップとは、互いに異なり、
前記第2確定モジュールは、具体的に、
前記路面画像における1本の車線の位置のところの各々の点に対して、当該点のL個の前記第1属性確率マップにおける対応する位置のそれぞれの確率値を確定し、
当該点に対して、確率値が最大である第1属性確率マップに対応する第1属性の値を、当該点の第1属性の値とし、
前記路面画像における当該本の車線の位置のところの各点の第1属性の値に基づいて、当該本の車線の第1属性の値を確定し、
前記路面画像における当該本の車線の位置のところの各々の点に対して、当該点のS個の前記第2属性確率マップにおける対応する位置のそれぞれの確率値を確定し、
当該点に対して、確率値が最大である第2属性確率マップに対応する第2属性の値を、当該点の第2属性の値とし、
前記路面画像における当該本の車線の位置のところの各点の第2属性の値に基づいて、当該本の車線の第2属性の値を確定し、
当該本の車線の前記第1属性の値と当該本の車線の前記第2属性の値とを組み合わせ、
組み合わせた後の属性の値を当該本の車線の属性の値とし、
ここで、前記第1属性確率マップが前記色属性確率マップである場合、LはN1に等しく、前記第1属性は色属性であり、
前記第1属性確率マップが前記線形属性確率マップである場合、LはN2に等しく、前記第1属性は線形属性であり、
前記第1属性確率マップが前記エッジ属性確率マップである場合、LはN3に等しく、第1属性はエッジ属性であり、
前記第2属性確率マップが前記色属性確率マップである場合、SはN1に等しく、前記第2属性は前記色属性であり、
前記第2属性確率マップが前記線形属性確率マップである場合、SはN2に等しく、前記第2属性は前記線形属性であり、
前記第2属性確率マップが前記エッジ属性確率マップである場合、SはN3に等しく、前記第2属性は前記エッジ属性である
ことを特徴とする請求項15乃至18の何れか1項に記載の車線属性検出装置。 - 前記第2確定モジュールが、前記路面画像における当該本の車線の位置のところの各点の前記第1属性に基づいて、当該本の車線の前記第1属性の値を確定することは、
当該本の車線の位置のところの各点の前記第1属性の値が互いに異なることに応答して、当該本の車線の位置のところの、第1属性の値が同一である点の数が最多である点の前記第1属性の値を、当該本の車線の前記第1属性の値とすることを含む
ことを特徴とする請求項19に記載の車線属性検出装置。 - 前記第2確定モジュールが、前記路面画像における当該本の車線の位置のところの各点の前記第1属性に基づいて、当該本の車線の前記第1属性の値を確定することは、
当該本の車線の位置のところの各点の前記第1属性の値が同一であることに応答して、当該本の車線の位置のところの点の前記第1属性の値を当該本の車線の前記第1属性の値とすることを含む
ことを特徴とする請求項19または20に記載の車線属性検出装置。 - 前記第2確定モジュールが、前記路面画像における当該本の車線の位置のところの各点の前記第2属性の値に基づいて、当該本の車線の前記第2属性の値を確定することは、
当該本の車線の位置のところの各点の前記第2属性の値が互いに異なることに応答して、当該本の車線の位置のところの、第2属性の値が同一である点の数が最多である点の前記第2属性の値を、当該本の車線の前記第2属性の値とすることを含む
ことを特徴とする請求項19乃至21の何れか1項に記載の車線属性検出装置。 - 前記第2確定モジュールが、前記路面画像における当該本の車線の位置のところの各点の前記第2属性の値に基づいて、当該本の車線の前記第2属性の値を確定することは、
当該本の車線の位置のところの各点の前記第2属性の値が同一であることに応答して、当該本の車線の位置のところの点の前記第2属性の値を当該本の車線の前記第2属性の値とすることを含む
ことを特徴とする請求項19乃至22の何れか1項に記載の車線属性検出装置。 - 前記確率マップは、第3属性確率マップをさらに含み、前記第3属性確率マップは、前記色属性確率マップ、前記線形属性確率マップ、および、前記エッジ属性確率マップの中の1種であり、かつ、前記第3属性確率マップ、前記第2属性確率マップ、および、前記第1属性確率マップは、その属性がいずれも互いに異なる確率マップであり、
前記第2確定モジュールは、さらに、
当該本の車線の前記第1属性の値と当該本の車線の前記第2属性の値とを組み合わせる前に、前記路面画像における当該本の車線の位置のところの各々の点に対して、当該点のU個の前記第3属性確率マップにおける対応する位置のそれぞれの確率値を確定し、
当該点に対して、確率値が最大である第3属性確率マップに対応する第3属性の値を、当該点の第3属性の値とし、
前記路面画像における当該本の車線の位置のところの各点の第3属性の値に基づいて、当該本の車線の第3属性の値を確定し、
ここで、前記第3属性確率マップが前記色属性確率マップである場合、UはN1に等しく、前記第3属性は前記色属性であり、
前記第3属性確率マップが前記線形属性確率マップである場合、UはN2に等しく、前記第3属性は前記線形属性であり、
前記第3属性確率マップが前記エッジ属性確率マップである場合、UはN3に等しく、前記第3属性は前記エッジ属性であり、
前記第2確定モジュールが、当該本の車線の前記第1属性の値と当該本の車線の前記第2属性の値とを組み合わせることは、
当該本の車線の前記第1属性の値、当該本の車線の前記第2属性の値、および、当該本の車線の前記第3属性の値を組み合わせることを含む
ことを特徴とする請求項19乃至23の何れか1項に記載の車線属性検出装置。 - 前記第2確定モジュールが、前記路面画像における当該本の車線の位置のところの各点の前記第3属性の値に基づいて、当該本の車線の前記第3属性の値を確定することは、
当該本の車線の位置のところの各点の前記第3属性の値が互いに異なることに応答して、当該本の車線の位置のところの、第3属性の値が同一である点の数が最多である点の前記第3属性の値を、当該本の車線の前記第3属性の値とすることを含む
ことを特徴とする請求項24に記載の車線属性検出装置。 - 前記第2確定モジュールが、前記路面画像における1本の車線の位置のところの各点の第3属性の値に基づいて、当該本の車線の第3属性の値を確定することは、
当該本の車線の位置のところの各点の前記第3属性の値が同一であることに応答して、当該本の車線の位置のところの点の前記第3属性の値を当該本の車線の前記第3属性の値とすることを含む
ことを特徴とする請求項24または25に記載の車線属性検出装置。 - 前記第1確定モジュールは、具体的に、
前記路面画像をニューラルネットワークに入力し、ニューラルネットワークが前記確率マップを出力し、
ここで、前記ニューラルネットワークは、色種類、線形種類、および、エッジの種類のラベル情報を含む路面トレーニング画像セットを使用して監督トレーニングして得られたものである
ことを特徴とする請求項15乃至26の何れか1項に記載の車線属性検出装置。 - 前記路面画像に対して歪み除去処理を実行するための前処理モジュールをさらに備える
ことを特徴とする請求項27に記載の車線属性検出装置。 - 電子デバイスであって、
プログラム命令を記憶するためのメモリと、
前記メモリ中の前記プログラム命令を呼び出して実行することによって、請求項1乃至14の何れか1項に記載の方法のステップを実行するためのプロセッサと、を備える
ことを特徴とする電子デバイス。 - スマートデバイスに用いられるスマート運転方法であって、
路面画像を取得するステップと、
請求項1乃至14の何れか1項に記載の車線属性検出方法を使用して、取得した前記路面画像における車線属性を検出するステップと、
検出して得た前記車線属性に基づいてプロンプト情報を出力するか、または、前記スマートデバイスに対して走行制御を実行するステップと、を含む
ことを特徴とするスマート運転方法。 - スマートデバイスであって、
路面画像を取得するための画像収集装置と、
プログラム命令を記憶するためのメモリであって、記憶されたプログラム命令が実行されると、請求項1乃至14の何れか1項に記載の車線属性検出方法が実現されるメモリと、
前記画像収集装置が取得した前記路面画像に基づいて、前記メモリに記憶された前記プログラム命令を実行することによって、前記路面画像における車線属性を検出し,検出して得た車線属性に基づいて、プロンプト情報を出力するか、または、スマートデバイスに対して走行制御を実行するためのプロセッサと、を備える
ことを特徴とするスマートデバイス。 - コンピュータプログラムが記憶されている不揮発性可読記憶媒体であって、
前記コンピュータプログラムは、請求項1乃至14の何れか1項に記載の方法のステップを実行する
ことを特徴とする不揮発性可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910556260.X | 2019-06-25 | ||
CN201910556260.XA CN112131914B (zh) | 2019-06-25 | 2019-06-25 | 车道线属性检测方法、装置、电子设备及智能设备 |
PCT/CN2020/076036 WO2020258894A1 (zh) | 2019-06-25 | 2020-02-20 | 车道线属性检测 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021532449A true JP2021532449A (ja) | 2021-11-25 |
JP7119197B2 JP7119197B2 (ja) | 2022-08-16 |
Family
ID=73849445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021500086A Active JP7119197B2 (ja) | 2019-06-25 | 2020-02-20 | 車線属性検出 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210117700A1 (ja) |
JP (1) | JP7119197B2 (ja) |
KR (1) | KR20210018493A (ja) |
CN (1) | CN112131914B (ja) |
SG (1) | SG11202013052UA (ja) |
WO (1) | WO2020258894A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112396044B (zh) * | 2021-01-21 | 2021-04-27 | 国汽智控(北京)科技有限公司 | 车道线属性信息检测模型训练、车道线属性信息检测方法 |
CN112818792A (zh) * | 2021-01-25 | 2021-05-18 | 北京百度网讯科技有限公司 | 车道线检测方法、装置、电子设备及计算机存储介质 |
US11776282B2 (en) * | 2021-03-26 | 2023-10-03 | Here Global B.V. | Method, apparatus, and system for removing outliers from road lane marking data |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11211659A (ja) * | 1998-01-23 | 1999-08-06 | Nagoya Denki Kogyo Kk | 路面状態判別方法およびその装置 |
JP2001263479A (ja) * | 2000-03-17 | 2001-09-26 | Equos Research Co Ltd | 車両制御装置、車両制御方法及びそのプログラムを記録した記録媒体 |
JP2009237706A (ja) * | 2008-03-26 | 2009-10-15 | Honda Motor Co Ltd | 車両用車線認識装置、車両、及び車両用車線認識プログラム |
JP2010060371A (ja) * | 2008-09-02 | 2010-03-18 | Omron Corp | 物体検出装置 |
CN102862574A (zh) * | 2012-09-21 | 2013-01-09 | 上海永畅信息科技有限公司 | 基于智能手机实现车辆主动安全的方法 |
JP2014067136A (ja) * | 2012-09-25 | 2014-04-17 | Nissan Motor Co Ltd | 車線境界線検出装置及び車線境界線検出方法 |
JP2017533482A (ja) * | 2015-09-10 | 2017-11-09 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 車線データの処理方法、装置、記憶媒体及び機器 |
CN108052904A (zh) * | 2017-12-13 | 2018-05-18 | 辽宁工业大学 | 车道线的获取方法及装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2465094B1 (en) * | 2009-08-12 | 2016-01-06 | Koninklijke Philips N.V. | Generating object data |
KR101279712B1 (ko) * | 2011-09-09 | 2013-06-27 | 연세대학교 산학협력단 | 실시간 차선 검출 장치 및 방법과 이에 관한 기록매체 |
CN104376297B (zh) * | 2013-08-12 | 2017-06-23 | 株式会社理光 | 道路上的线型指示标志的检测方法和装置 |
KR101738034B1 (ko) * | 2015-07-09 | 2017-05-22 | 현대자동차주식회사 | 개선된 차선 인식 방법 |
CN108216229B (zh) * | 2017-09-08 | 2020-01-10 | 北京市商汤科技开发有限公司 | 交通工具、道路线检测和驾驶控制方法及装置 |
CN109670376B (zh) * | 2017-10-13 | 2021-05-25 | 神州优车股份有限公司 | 车道线识别方法及系统 |
US10628671B2 (en) * | 2017-11-01 | 2020-04-21 | Here Global B.V. | Road modeling from overhead imagery |
CN107945168B (zh) * | 2017-11-30 | 2021-12-10 | 上海联影医疗科技股份有限公司 | 一种医学图像的处理方法及医学图像处理系统 |
CN108009524B (zh) * | 2017-12-25 | 2021-07-09 | 西北工业大学 | 一种基于全卷积网络的车道线检测方法 |
CN108875603B (zh) * | 2018-05-31 | 2021-06-04 | 上海商汤智能科技有限公司 | 基于车道线的智能驾驶控制方法和装置、电子设备 |
CN109147368A (zh) * | 2018-08-22 | 2019-01-04 | 北京市商汤科技开发有限公司 | 基于车道线的智能驾驶控制方法装置与电子设备 |
CN109635816B (zh) * | 2018-10-31 | 2021-04-06 | 百度在线网络技术(北京)有限公司 | 车道线生成方法、装置、设备以及存储介质 |
CN109740469B (zh) * | 2018-12-24 | 2021-01-22 | 百度在线网络技术(北京)有限公司 | 车道线检测方法、装置、计算机设备和存储介质 |
CN109657632B (zh) * | 2018-12-25 | 2022-05-06 | 重庆邮电大学 | 一种车道线检测识别方法 |
-
2019
- 2019-06-25 CN CN201910556260.XA patent/CN112131914B/zh active Active
-
2020
- 2020-02-20 SG SG11202013052UA patent/SG11202013052UA/en unknown
- 2020-02-20 KR KR1020217000803A patent/KR20210018493A/ko not_active Application Discontinuation
- 2020-02-20 JP JP2021500086A patent/JP7119197B2/ja active Active
- 2020-02-20 WO PCT/CN2020/076036 patent/WO2020258894A1/zh active Application Filing
- 2020-12-29 US US17/137,030 patent/US20210117700A1/en not_active Abandoned
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11211659A (ja) * | 1998-01-23 | 1999-08-06 | Nagoya Denki Kogyo Kk | 路面状態判別方法およびその装置 |
JP2001263479A (ja) * | 2000-03-17 | 2001-09-26 | Equos Research Co Ltd | 車両制御装置、車両制御方法及びそのプログラムを記録した記録媒体 |
JP2009237706A (ja) * | 2008-03-26 | 2009-10-15 | Honda Motor Co Ltd | 車両用車線認識装置、車両、及び車両用車線認識プログラム |
JP2010060371A (ja) * | 2008-09-02 | 2010-03-18 | Omron Corp | 物体検出装置 |
CN102862574A (zh) * | 2012-09-21 | 2013-01-09 | 上海永畅信息科技有限公司 | 基于智能手机实现车辆主动安全的方法 |
JP2014067136A (ja) * | 2012-09-25 | 2014-04-17 | Nissan Motor Co Ltd | 車線境界線検出装置及び車線境界線検出方法 |
JP2017533482A (ja) * | 2015-09-10 | 2017-11-09 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 車線データの処理方法、装置、記憶媒体及び機器 |
CN108052904A (zh) * | 2017-12-13 | 2018-05-18 | 辽宁工业大学 | 车道线的获取方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
KR20210018493A (ko) | 2021-02-17 |
JP7119197B2 (ja) | 2022-08-16 |
SG11202013052UA (en) | 2021-01-28 |
US20210117700A1 (en) | 2021-04-22 |
CN112131914B (zh) | 2022-10-21 |
WO2020258894A1 (zh) | 2020-12-30 |
CN112131914A (zh) | 2020-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112528878B (zh) | 检测车道线的方法、装置、终端设备及可读存储介质 | |
WO2019170012A1 (zh) | 车道线数据处理方法、装置、计算机设备和存储介质 | |
CN108986465B (zh) | 一种车流量检测的方法、系统及终端设备 | |
CN112069856A (zh) | 地图生成方法、驾驶控制方法、装置、电子设备及系统 | |
JP2021532449A (ja) | 車線属性検出 | |
JP2022506920A (ja) | 区画線検出方法、装置、電子機器及び可読記憶媒体 | |
WO2022134996A1 (en) | Lane line detection method based on deep learning, and apparatus | |
CN111931683B (zh) | 图像识别方法、装置及计算机可读存储介质 | |
CN111860219B (zh) | 一种高速占道判断方法、装置及电子设备 | |
CN115457354A (zh) | 融合方法、3d目标检测方法、车载设备及存储介质 | |
Zhang et al. | Vehicle detection in UAV aerial images based on improved YOLOv3 | |
CN110909674A (zh) | 一种交通标志识别方法、装置、设备和存储介质 | |
JP2022513781A (ja) | ターゲット属性検出、ニューラルネットワークトレーニング及びインテリジェント走行方法、装置 | |
CN112749602A (zh) | 目标查询方法、装置、设备及存储介质 | |
CN114841084B (zh) | 一种基于航拍图像的人员疏散模拟方法、系统及设备 | |
CN117392348B (zh) | 一种多目标物的抖动消除方法、装置、设备及介质 | |
TWI755214B (zh) | 區分物件的方法、電腦裝置及儲存介質 | |
TWI807904B (zh) | 深度識別模型訓練方法、圖像深度識別方法及相關設備 | |
KR102234311B1 (ko) | 이미지 특징 추출 방법 및 시스템 | |
CN117152456A (zh) | 农业轨迹点识别方法、装置和系统 | |
CN117197776A (zh) | 一种车位占用识别方法、终端设备及存储介质 | |
CN118279635A (zh) | 数据扩增方法、装置、计算机设备、存储介质及程序产品 | |
CN118279846A (zh) | 车道线识别方法、装置、计算机设备和存储介质 | |
CN112270216A (zh) | 改进的Densebox目标检测方法、装置及存储介质 | |
CN118155202A (zh) | 基于LiDAR点云数据的3D目标检测模型的构建方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210104 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220708 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7119197 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |