JP6347815B2 - 車線境界を検出する方法、装置、およびデバイス - Google Patents
車線境界を検出する方法、装置、およびデバイス Download PDFInfo
- Publication number
- JP6347815B2 JP6347815B2 JP2016191013A JP2016191013A JP6347815B2 JP 6347815 B2 JP6347815 B2 JP 6347815B2 JP 2016191013 A JP2016191013 A JP 2016191013A JP 2016191013 A JP2016191013 A JP 2016191013A JP 6347815 B2 JP6347815 B2 JP 6347815B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- horizontal
- less
- lane boundary
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 59
- 238000001914 filtration Methods 0.000 claims description 39
- 238000010801 machine learning Methods 0.000 claims description 35
- 238000004891 communication Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 102100032231 Caveolae-associated protein 2 Human genes 0.000 description 1
- 101000869050 Homo sapiens Caveolae-associated protein 2 Proteins 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/804—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Mechanical Engineering (AREA)
Description
車線の現在画像を取得し、現在画像をフィルタリングすることによって現在画像中の輝度飛び点(brightness jump point)を抽出するステップと、
輝度飛び点からノイズ点をフィルタリングによって除去し、残りの輝度飛び点を縁部点として判定して縁部点のグループを形成するステップであり、第1の所定の条件を満たす2つの縁部点が同じグループであり、第1の所定の条件が、2つの点の垂直座標が隣接しており、2つの点の水平座標の間の距離差が第1の距離しきい値未満であることを含み、ノイズ点が、第1のノイズ点を含み、第1のノイズ点が、他の輝度飛び点のいずれとも第1の所定の条件を満たさず、同じグループの縁部点を結んだ線が1本の縁部線を形成するステップと、
縁部線から車線境界の縁部線を認識するステップと、
車線境界の縁部線をグループ化し、各グループの縁部線をそれぞれ1つの車線境界の縁部線として認識するステップであり、同じグループの2本の縁部線の水平座標の間の差が第2の距離しきい値未満であるステップとを含む方法が提供される。
第1の左側水平領域の平均グレーレベルと第2の左側水平領域の平均グレーレベルの間の差が平均グレーレベルの第1のしきい値未満であるという第2の所定の条件、
第1の右側水平領域の平均グレーレベルと第2の右側水平領域の平均グレーレベルの間の差が平均グレーレベルの第2のしきい値未満であるという第3の所定の条件、
第1の左側水平領域のグレーレベル分散と第2の左側水平領域のグレーレベル分散の間の差がグレーレベル分散の第1のしきい値未満であるという第4の所定の条件、
第1の右側水平領域のグレーレベル分散と第2の右側水平領域のグレーレベル分散の間の差がグレーレベル分散の第2のしきい値未満であるという第5の所定の条件のうちの少なくとも1つを満たし、
第1の左側水平領域は、第1の左側点からなる領域であり、第1の左側点の垂直座標は第2のノイズ点の垂直座標と同じであり、第1の左側点の水平座標と第2のノイズ点の水平座標の間の距離は第3の距離しきい値以下であり、第1の左側点の水平座標は第2のノイズ点の水平座標未満であり、
第1の右側水平領域は、第1の右側点からなる領域であり、第1の右側点の垂直座標は第2のノイズ点の垂直座標と同じであり、第1の右側点の水平座標と第2のノイズ点の水平座標の間の距離は第3の距離しきい値以下であり、第1の右側点の水平座標は第2のノイズ点の水平座標より大きく、
第2の左側水平領域は、第2の左側点からなる領域であり、第2の左側点の垂直座標は参照飛び点の垂直座標と同じであり、第2の左側点の水平座標と参照飛び点の水平座標の間の距離は第3の距離しきい値以下であり、第2の左側点の水平座標は参照飛び点の水平座標未満であり、
第2の右側水平領域は、第2の右側点からなる領域であり、第2の右側点の垂直座標は参照飛び点の垂直座標と同じであり、第2の右側点の水平座標と参照飛び点の水平座標の間の距離は第3の距離しきい値以下であり、第2の右側点の水平座標は参照飛び点の水平座標より大きく、
参照飛び点は輝度飛び点に属し、参照飛び点の水平座標と第2のノイズ点の水平座標の間の距離は第1の距離しきい値未満であり、参照飛び点の垂直座標と第2のノイズ点の垂直座標の間の距離は第4の距離しきい値未満であり、参照飛び点の垂直座標は第2のノイズ点の垂直座標より小さい。
第6の所定の条件は、縁部線の信頼レベルが信頼レベルしきい値より高いことであり、縁部線の信頼レベルは、縁部線が車線境界の縁部線に属する確率を表し、縁部線の信頼レベルは、縁部線の現実の長さ、現在画像中の縁部線の水平方向の2つの側のグレーレベル偏差、および縁部線の縁部点の勾配角に基づいて計算され、
第7の所定の条件は、現在画像から認識される車線標示線と縁部線の間の3次元座標系における角度が、角度しきい値未満であることである。
第8の所定の条件は、車線境界が3本の縁部線を含み、あらゆる2本の隣接する縁部線の間の水平距離が第5の距離しきい値未満であり、車線境界の左端の縁部線と右端の縁部線の間の水平距離が第6の距離しきい値未満であることであり、
第9の所定の条件は、車線境界が2本の縁部線を含み、車線境界の2本の縁部線の水平座標の間の距離が第7の距離しきい値未満であり、車線境界の左側領域のグレーレベル分散がグレーレベル分散の第3のしきい値未満であり、車線境界の右側領域のグレーレベル分散がグレーレベル分散の第4のしきい値より大きいことであり、
第10の所定の条件は、車線境界が2本の縁部線を含み、車線境界の2本の縁部線の水平座標の間の距離が第7の距離しきい値未満であり、車線境界の左側領域のグレーレベル分散がグレーレベル分散の第3のしきい値より大きく、車線境界の右側領域のグレーレベル分散がグレーレベル分散の第4のしきい値未満であることであり、
車線境界の左側領域は、第3の左側点からなる領域であり、第3の左側点の垂直座標は、車線境界の左側縁部線の垂直座標の範囲内であり、第3の左側点の水平座標と車線境界の左側縁部線の水平座標の間の距離は第3の距離しきい値以下であり、第3の左側点の水平座標は、車線境界の左側縁部線の水平座標未満であり、
車線境界の右側領域は、第3の右側点からなる領域であり、第3の右側点の垂直座標は、車線境界の右側縁部線の垂直座標の範囲内であり、第3の右側点の水平座標と車線境界の右側縁部線の水平座標の間の距離は第3の距離しきい値以下であり、第3の右側点の水平座標は、車線境界の右側縁部線の水平座標より大きい。
現在画像中の各車線境界をそれぞれ認識目標として判定し、現在画像中の認識目標の位置に基づいて現在画像から認識目標を含む少なくとも1つの認識領域を選択するステップと、
機械学習モデルに基づいて各認識領域を認識して、各認識領域がガードレールを含む領域であるかどうかを判定するステップと、
認識目標を含む認識領域の数に対するガードレールを含む領域の数の比率が比率しきい値を超える場合に、認識目標をガードレールとして判定するステップとを含む。
車線の現在画像を取得するように構成された取得ユニットと、
現在画像をフィルタリングすることによって現在画像中の輝度飛び点を抽出するように構成された抽出ユニットと、
輝度飛び点からノイズ点をフィルタリングによって除去し、残りの輝度飛び点を縁部点として判定して縁部点のグループを形成するように構成されたグループ化ユニットであり、第1の所定の条件を満たす2つの縁部点が同じグループであり、第1の所定の条件が、2つの点の垂直座標が隣接しており、2つの点の水平座標の間の距離差が第1の距離しきい値未満であることを含み、ノイズ点が、第1のノイズ点を含み、第1のノイズ点が、他の輝度飛び点のいずれとも第1の所定の条件を満たさず、同じグループの縁部点を結んだ線が1本の縁部線を形成するグループ化ユニットと、
縁部線から車線境界の縁部線を認識するように構成された第1の認識ユニットと、
車線境界の縁部線をグループ化し、各グループの縁部線を1つの車線境界の縁部線として認識するように構成された第2の認識ユニットであり、同じグループの2本の縁部線の水平座標の間の差が第2の距離しきい値未満である第2の認識ユニットとを含む装置が提供される。
バスシステムが、デバイスの様々なハードウェア構成要素を互いに結合するように構成され、
通信インタフェースが、デバイスと他のデバイスのうちの少なくとも1つとの間の通信接続を実現するように構成され、
メモリが、プログラム命令およびデータを記憶するように構成され、
プロセッサが、メモリに記憶されたプログラム命令およびデータを読み取って、
車線の現在画像を取得し、現在画像をフィルタリングすることによって現在画像中の輝度飛び点を抽出する動作と、
輝度飛び点からノイズ点をフィルタリングによって除去し、残りの輝度飛び点を縁部点として判定して縁部点のグループを形成する動作であり、第1の所定の条件を満たす2つの縁部点が同じグループであり、第1の所定の条件が、2つの点の垂直座標が隣接しており、2つの点の水平座標の間の距離差が第1の距離しきい値未満であることを含み、ノイズ点が、第1のノイズ点を含み、第1のノイズ点が、他の輝度飛び点のいずれとも第1の所定の条件を満たさず、同じグループの縁部点を結んだ線が1本の縁部線を形成する動作と、
縁部線から車線境界の縁部線を認識する動作と、
車線境界の縁部線をグループ化し、各グループの縁部線をそれぞれ1つの車線境界の縁部線として認識する動作であり、同じグループの2本の縁部線の水平座標の間の差が第2の距離しきい値未満である動作とを実行するように構成されるデバイスが提供される。
数式1:abs(A-B)≦DisDiffThresh
数式2:abs(C-D)≦GradAngleThresh
数式3:abs(AverRL-AverPL)≦AverThresh1
数式4:abs(AverRR-AverPR)≦AverThresh2
数式5:abs(SDRL-SDPL)≦SDThresh1
数式6:abs(SDRR-SDPR)≦SDThresh2
数式7:Aver=(P1+P2+…+Pn)/n
数式8:
数式7:C=K1×LengthC+K2×GrayContrastC+K3×GradientC
数式8:LengthC=Rlength÷LengthThresh×1000
数式9:GrayContrastC=[abs(lineAverL-lineAverR)]÷GrayContrastThresh×1000
数式10:GradientC=GradPointNum÷SumPointNum×1000
数式11:Index=i×(SumPointNum÷n), i=0, 1, …, n-1
数式12:recty=BaselinePoint(Index)y-Height×3÷4
数式13:rectx=(recty-BaselinefB)÷BaselinefK
数式14:rectwidth=Width,rectheight=Height
車線の現在画像を取得するように構成された取得ユニット1201と、
現在画像をフィルタリングすることによって現在画像中の輝度飛び点を抽出するように構成された抽出ユニット1202と、
これらの輝度飛び点からノイズ点をフィルタリングによって除去し、残りの輝度飛び点を縁部点として判定してこれらの縁部点のグループを形成するように構成されたグループ化ユニット1203であり、第1の所定の条件を満たす2つの縁部点が同じグループであり、第1の所定の条件が、2つの点の垂直座標が隣接しており、この2つの点の水平座標の間の距離差が第1の距離しきい値未満であることを含み、上記のノイズ点が、第1のノイズ点を含み、第1のノイズ点が、他の輝度飛び点のいずれとも第1の所定の条件を満たさず、同じグループの縁部点を結んだ線が1本の縁部線を形成するグループ化ユニット1203と、
縁部線から車線境界の縁部線を認識するように構成された第1の認識ユニット1204と、
車線境界の縁部線をグループ化し、各グループの縁部線を1つの車線境界の縁部線として認識するように構成された第2の認識ユニット1205であり、同じグループの2本の縁部線の水平座標の間の差が第2の距離しきい値未満である第2の認識ユニット1205とを含むことができる。
第1の左側水平領域の平均グレーレベルと第2の左側水平領域の平均グレーレベルの間の差が平均グレーレベルの第1のしきい値未満であるという第2の所定の条件、
第1の右側水平領域の平均グレーレベルと第2の右側水平領域の平均グレーレベルの間の差が平均グレーレベルの第2のしきい値未満であるという第3の所定の条件、
第1の左側水平領域のグレーレベル分散と第2の左側水平領域のグレーレベル分散の間の差がグレーレベル分散の第1のしきい値未満であるという第4の所定の条件、
第1の右側水平領域のグレーレベル分散と第2の右側水平領域のグレーレベル分散の間の差がグレーレベル分散の第2のしきい値未満であるという第5の所定の条件のうちの少なくとも1つを満たし、
第1の左側水平領域は、第1の左側点からなる領域であり、第1の左側点の垂直座標は第2のノイズ点の垂直座標と同じであり、第1の左側点の水平座標と第2のノイズ点の水平座標の間の距離は第3の距離しきい値以下であり、第1の左側点の水平座標は第2のノイズ点の水平座標未満であり、
第1の右側水平領域は、第1の右側点からなる領域であり、第1の右側点の垂直座標は第2のノイズ点の垂直座標と同じであり、第1の右側点の水平座標と第2のノイズ点の水平座標の間の距離は第3の距離しきい値以下であり、第1の右側点の水平座標は第2のノイズ点の水平座標より大きく、
第2の左側水平領域は、第2の左側点からなる領域であり、第2の左側点の垂直座標は参照飛び点の垂直座標と同じであり、第2の左側点の水平座標と参照飛び点の水平座標の間の距離は第3の距離しきい値以下であり、第2の左側点の水平座標は参照飛び点の水平座標未満であり、
第2の右側水平領域は、第2の右側点からなる領域であり、第2の右側点の垂直座標は参照飛び点の垂直座標と同じであり、第2の右側点の水平座標と参照飛び点の水平座標の間の距離は第3の距離しきい値以下であり、第2の右側点の水平座標は参照飛び点の水平座標より大きく、
参照飛び点は輝度飛び点に属し、参照飛び点の水平座標と第2のノイズ点の水平座標の間の距離は第1の距離しきい値未満であり、参照飛び点の垂直座標と第2のノイズ点の垂直座標の間の距離は第4の距離しきい値未満であり、参照飛び点の垂直座標は第2のノイズ点の垂直座標より小さい。
第6の所定の条件は、縁部線の信頼レベルが信頼レベルしきい値より高いことであり、縁部線の信頼レベルは、その縁部線が車線境界の縁部線に属する確率を表し、縁部線の信頼レベルは、縁部線の現実の長さ、現在画像中の縁部線の水平方向の2つの側のグレーレベル偏差、および縁部線の縁部点の勾配角に基づいて計算され、
第7の所定の条件は、現在画像から認識される車線標示線と縁部線の間の3次元座標系における角度が、角度しきい値未満であることである。
第8の所定の条件は、車線境界が3本の縁部線を含み、あらゆる2本の隣接する縁部線の間の水平距離が第5の距離しきい値未満であり、車線境界の左端の縁部線と右端の縁部線の間の水平距離が第6の距離しきい値未満であることであり、
第9の所定の条件は、車線境界が2本の縁部線を含み、車線境界のこの2本の縁部線の水平座標の間の距離が第7の距離しきい値未満であり、車線境界の左側領域のグレーレベル分散がグレーレベル分散の第3のしきい値未満であり、車線境界の右側領域のグレーレベル分散がグレーレベル分散の第4のしきい値より大きいことであり、
第10の所定の条件は、車線境界が2本の縁部線を含み、車線境界のこの2本の縁部線の水平座標の間の距離が第7の距離しきい値未満であり、車線境界の左側領域のグレーレベル分散がグレーレベル分散の第3のしきい値より大きく、車線境界の右側領域のグレーレベル分散がグレーレベル分散の第4のしきい値未満であることであり、
車線境界の左側領域は、第3の左側点からなる領域であり、第3の左側点の垂直座標は、車線境界の左側縁部線の垂直座標の範囲内であり、第3の左側点の水平座標と車線境界の左側縁部線の水平座標の間の距離は第3の距離しきい値以下であり、第3の左側点の水平座標は、車線境界の左側縁部線の水平座標未満であり、
車線境界の右側領域は、第3の右側点からなる領域であり、第3の右側点の垂直座標は、車線境界の右側縁部線の垂直座標の範囲内であり、第3の右側点の水平座標と車線境界の右側縁部線の水平座標の間の距離は第3の距離しきい値以下であり、第3の右側点の水平座標は、車線境界の右側縁部線の水平座標より大きい。
現在画像中の各車線境界をそれぞれ認識目標として判定し、現在画像中の認識目標の位置に基づいて現在画像から認識目標を含む少なくとも1つの認識領域を選択するように構成された選択サブユニットと、
機械学習モデルに基づいて各認識領域を認識して、各認識領域がガードレールを含む領域であるかどうかを判定するように構成された第1の判定サブユニットと、
認識目標を含む認識領域の数に対するガードレールを含む領域の数の比率が比率しきい値を超える場合に、認識目標をガードレールとして判定するように構成された第2の判定サブユニットとを含む。
車線の現在画像を取得し、現在画像をフィルタリングすることによって現在画像中の輝度飛び点を抽出する動作と、
これらの輝度飛び点からノイズ点をフィルタリングによって除去し、残りの輝度飛び点を縁部点として判定してそれらの縁部点のグループを形成する動作であり、第1の所定の条件を満たす2つの縁部点が同じグループであり、第1の所定の条件が、2つの点の垂直座標が隣接しており、2つの点の水平座標の間の距離差が第1の距離しきい値未満であることを含み、上記のノイズ点が、第1のノイズ点を含み、第1のノイズ点が、他の輝度飛び点のいずれとも第1の所定の条件を満たさず、同じグループの縁部点を結んだ線が1本の縁部線を形成する動作と、
縁部線から車線境界の縁部線を認識する動作と、
車線境界の縁部線をグループ化し、各グループの縁部線をそれぞれ1つの車線境界の縁部線として認識する動作であり、同じグループの2本の縁部線の水平座標の間の差が第2の距離しきい値未満である動作とを実行するように構成される。
第1の左側水平領域の平均グレーレベルと第2の左側水平領域の平均グレーレベルの間の差が平均グレーレベルの第1のしきい値未満であるという第2の所定の条件、
第1の右側水平領域の平均グレーレベルと第2の右側水平領域の平均グレーレベルの間の差が平均グレーレベルの第2のしきい値未満であるという第3の所定の条件、
第1の左側水平領域のグレーレベル分散と第2の左側水平領域のグレーレベル分散の間の差がグレーレベル分散の第1のしきい値未満であるという第4の所定の条件、
第1の右側水平領域のグレーレベル分散と第2の右側水平領域のグレーレベル分散の間の差がグレーレベル分散の第2のしきい値未満であるという第5の所定の条件のうちの少なくとも1つを満たし、
第1の左側水平領域は、第1の左側点からなる領域であり、第1の左側点の垂直座標は第2のノイズ点の垂直座標と同じであり、第1の左側点の水平座標と第2のノイズ点の水平座標の間の距離は第3の距離しきい値以下であり、第1の左側点の水平座標は第2のノイズ点の水平座標未満であり、
第1の右側水平領域は、第1の右側点からなる領域であり、第1の右側点の垂直座標は第2のノイズ点の垂直座標と同じであり、第1の右側点の水平座標と第2のノイズ点の水平座標の間の距離は第3の距離しきい値以下であり、第1の右側点の水平座標は第2のノイズ点の水平座標より大きく、
第2の左側水平領域は、第2の左側点からなる領域であり、第2の左側点の垂直座標は参照飛び点の垂直座標と同じであり、第2の左側点の水平座標と参照飛び点の水平座標の間の距離は第3の距離しきい値以下であり、第2の左側点の水平座標は参照飛び点の水平座標未満であり、
第2の右側水平領域は、第2の右側点からなる領域であり、第2の右側点の垂直座標は参照飛び点の垂直座標と同じであり、第2の右側点の水平座標と参照飛び点の水平座標の間の距離は第3の距離しきい値以下であり、第2の右側点の水平座標は参照飛び点の水平座標より大きく、
参照飛び点は輝度飛び点に属し、参照飛び点の水平座標と第2のノイズ点の水平座標の間の距離は第1の距離しきい値未満であり、参照飛び点の垂直座標と第2のノイズ点の垂直座標の間の距離は第4の距離しきい値未満であり、参照飛び点の垂直座標は第2のノイズ点の垂直座標より小さい。
縁部線から、第6の所定の条件および/または第7の所定の条件を満たす縁部線を車線境界の縁部線として認識する動作を実行することができ、
第6の所定の条件は、縁部線の信頼レベルが信頼レベルしきい値より高いことであり、縁部線の信頼レベルは、その縁部線が車線境界の縁部線に属する確率を表し、縁部線の信頼レベルは、縁部線の現実の長さ、現在画像中の縁部線の水平方向の2つの側のグレーレベル偏差、および縁部線の縁部点の勾配角に基づいて計算され、
第7の所定の条件は、現在画像から認識される車線標示線と縁部線の間の3次元座標系における角度が、角度しきい値未満であることである。
第8の所定の条件を満たす車線境界、第9の所定の条件を満たす車線境界、および/または第10の所定の条件を満たす車線境界を縁石として認識する動作をさらに実行することができ、
第8の所定の条件は、車線境界が3本の縁部線を含み、あらゆる2本の隣接する縁部線の間の水平距離が第5の距離しきい値未満であり、車線境界の左端の縁部線と右端の縁部線の間の水平距離が第6の距離しきい値未満であることであり、
第9の所定の条件は、車線境界が2本の縁部線を含み、車線境界のこの2本の縁部線の水平座標の間の距離が第7の距離しきい値未満であり、車線境界の左側領域のグレーレベル分散がグレーレベル分散の第3のしきい値未満であり、車線境界の右側領域のグレーレベル分散がグレーレベル分散の第4のしきい値より大きいことであり、
第10の所定の条件は、車線境界が2本の縁部線を含み、車線境界のこの2本の縁部線の水平座標の間の距離が第7の距離しきい値未満であり、車線境界の左側領域のグレーレベル分散がグレーレベル分散の第3のしきい値より大きく、車線境界の右側領域のグレーレベル分散がグレーレベル分散の第4のしきい値未満であることであり、
車線境界の左側領域は、第3の左側点からなる領域であり、第3の左側点の垂直座標は、車線境界の左側縁部線の垂直座標の範囲内であり、第3の左側点の水平座標と車線境界の左側縁部線の水平座標の間の距離は第3の距離しきい値以下であり、第3の左側点の水平座標は、車線境界の左側縁部線の水平座標未満であり、
車線境界の右側領域は、第3の右側点からなる領域であり、第3の右側点の垂直座標は、車線境界の右側縁部線の垂直座標の範囲内であり、第3の右側点の水平座標と車線境界の右側縁部線の水平座標の間の距離は第3の距離しきい値以下であり、第3の右側点の水平座標は、車線境界の右側縁部線の水平座標より大きい。
現在画像中の各車線境界をそれぞれ認識目標として判定し、現在画像中の認識目標の位置に基づいて現在画像から認識目標を含む少なくとも1つの認識領域を選択する動作、
機械学習モデルに基づいて各認識領域を認識して、各認識領域がガードレールを含む領域であるかどうかを判定する動作と、
認識目標を含む認識領域の数に対するガードレールを含む領域の数の比率が比率しきい値を超える場合に、認識目標をガードレールとして判定する動作とを実行することができる。
102 ディスプレイデバイス
103 写真デバイス
1201 取得ユニット
1202 抽出ユニット
1203 グループ化ユニット
1204 第1の認識ユニット
1205 第2の認識ユニット
1300 デバイス
1301 プロセッサ
1302 メモリ
1303 通信インタフェース
Claims (9)
- 車線境界を検出する方法であって、
車線の現在画像を取得し、前記現在画像をフィルタリングすることによって前記現在画像中の輝度飛び点を抽出するステップと、
前記輝度飛び点からノイズ点をフィルタリングによって除去し、残りの輝度飛び点を縁部点として判定して前記縁部点のグループを形成するステップであり、第1の所定の条件を満たす2つの縁部点が同じグループであり、前記第1の所定の条件が、2つの点の垂直座標が隣接しており、前記2つの点の水平座標の間の距離差が第1の距離しきい値未満である
ことを含み、前記ノイズ点が、第1のノイズ点を含み、前記第1のノイズ点が、他の輝度飛び点のいずれとも前記第1の所定の条件を満たさず、同じグループの縁部点を結んだ線が1本の縁部線を形成するステップと、
縁部線から前記車線境界の縁部線を認識するステップと、
前記車線境界の前記縁部線をグループ化し、各グループの縁部線をそれぞれ1つの車線境界の縁部線として認識するステップであり、同じグループの2本の縁部線の水平座標の間の差が第2の距離しきい値未満であるステップとを含み、
前記第1の所定の条件が、前記2つの点の間の勾配角が勾配角のしきい値未満であることをさらに含み、かつ/または
前記ノイズ点が、第2のノイズ点をさらに含み、前記第2のノイズ点が、
第1の左側水平領域の平均グレーレベルと第2の左側水平領域の平均グレーレベルの間の差が平均グレーレベルの第1のしきい値未満であるという第2の所定の条件、
第1の右側水平領域の平均グレーレベルと第2の右側水平領域の平均グレーレベルの間の差が平均グレーレベルの第2のしきい値未満であるという第3の所定の条件、
第1の左側水平領域のグレーレベル分散と第2の左側水平領域のグレーレベル分散の間の差がグレーレベル分散の第1のしきい値未満であるという第4の所定の条件、
第1の右側水平領域のグレーレベル分散と第2の右側水平領域のグレーレベル分散の間の差がグレーレベル分散の第2のしきい値未満であるという第5の所定の条件のうちの少なくとも1つを満たし、
前記第1の左側水平領域が、第1の左側点からなる領域であり、前記第1の左側点の垂直座標が前記第2のノイズ点の垂直座標と同じであり、前記第1の左側点の水平座標と前記第2のノイズ点の水平座標の間の距離が第3の距離しきい値以下であり、前記第1の左側点の前記水平座標が前記第2のノイズ点の水平座標未満であり、
前記第1の右側水平領域が、第1の右側点からなる領域であり、前記第1の右側点の垂直座標が前記第2のノイズ点の垂直座標と同じであり、前記第1の右側点の水平座標と前記第2のノイズ点の水平座標の間の距離が前記第3の距離しきい値以下であり、前記第1の右側点の前記水平座標が前記第2のノイズ点の水平座標より大きく、
前記第2の左側水平領域が、第2の左側点からなる領域であり、前記第2の左側点の垂直座標が参照飛び点の垂直座標と同じであり、前記第2の左側点の水平座標と前記参照飛び点の水平座標の間の距離が前記第3の距離しきい値以下であり、前記第2の左側点の前記水平座標が前記参照飛び点の水平座標未満であり、
前記第2の右側水平領域が、第2の右側点からなる領域であり、前記第2の右側点の垂直座標が前記参照飛び点の垂直座標と同じであり、前記第2の右側点の水平座標と前記参照飛び点の水平座標の間の距離が前記第3の距離しきい値以下であり、前記第2の右側点の前記水平座標が前記参照飛び点の水平座標より大きく、
前記参照飛び点が前記輝度飛び点に属し、前記参照飛び点の前記水平座標と前記第2のノイズ点の前記水平座標の間の距離が前記第1の距離しきい値未満であり、前記参照飛び点の前記垂直座標と前記第2のノイズ点の前記垂直座標の間の距離が第4の距離しきい値未満であり、前記参照飛び点の前記垂直座標が前記第2のノイズ点の前記垂直座標より小さい、
車線境界を検出する方法。 - 縁部線から前記車線境界の前記縁部線を認識する前記ステップが、特に、前記縁部線から、第6の所定の条件および/または第7の所定の条件を満たす縁部線を前記車線境界の前記縁部線として認識するステップを含み、
前記第6の所定の条件が、縁部線の信頼レベルが信頼レベルしきい値より高いことであり、前記縁部線の前記信頼レベルが、前記縁部線が前記車線境界の前記縁部線に属する確率を表し、前記縁部線の前記信頼レベルが、前記縁部線の現実の長さ、前記現在画像中の前記縁部線の水平方向の2つの側のグレーレベル偏差、および前記縁部線の縁部点の勾配角に基づいて計算され、
前記第7の所定の条件が、前記現在画像から認識される車線標示線と縁部線の間の3次元座標系における角度が、角度しきい値未満であることである、請求項1に記載の方法。 - 第8の所定の条件を満たす車線境界、第9の所定の条件を満たす車線境界、および/または第10の所定の条件を満たす車線境界を縁石として認識するステップをさらに含み、
前記第8の所定の条件が、車線境界が3本の縁部線を含み、あらゆる2本の隣接する縁部線の間の水平距離が第5の距離しきい値未満であり、前記車線境界の左端の縁部線と右端の縁部線の間の水平距離が第6の距離しきい値未満であることであり、
前記第9の所定の条件が、車線境界が2本の縁部線を含み、前記車線境界の前記2本の縁部線の水平座標の間の距離が第7の距離しきい値未満であり、前記車線境界の左側領域のグレーレベル分散がグレーレベル分散の第3のしきい値未満であり、前記車線境界の右側領域のグレーレベル分散がグレーレベル分散の第4のしきい値より大きいことであり、
前記第10の所定の条件が、車線境界が2本の縁部線を含み、前記車線境界の前記2本の縁部線の水平座標の間の距離が前記第7の距離しきい値未満であり、前記車線境界の左側領域のグレーレベル分散がグレーレベル分散の前記第3のしきい値より大きく、前記車線境界の右側領域のグレーレベル分散がグレーレベル分散の前記第4のしきい値未満であることであり、
前記車線境界の前記左側領域が、第3の左側点からなる領域であり、前記第3の左側点の垂直座標が、前記車線境界の左側縁部線の垂直座標の範囲内であり、前記第3の左側点の水平座標と前記車線境界の前記左側縁部線の水平座標の間の距離が前記第3の距離しきい値以下であり、前記第3の左側点の前記水平座標が、前記車線境界の前記左側縁部線の水平座標未満であり、
前記車線境界の前記右側領域が、第3の右側点からなる領域であり、前記第3の右側点の垂直座標が、前記車線境界の右側縁部線の垂直座標の範囲内であり、前記第3の右側点の水平座標と前記車線境界の前記右側縁部線の水平座標の間の距離が前記第3の距離しきい値以下であり、前記第3の右側点の前記水平座標が、前記車線境界の前記右側縁部線の水平座標より大きい、請求項1に記載の方法。 - 訓練済みの機械学習モデルに基づいて前記現在画像中の前記車線境界を含む認識領域を認識して、ガードレールに属する車線境界を認識するステップをさらに含み、前記機械学習モデルが、ガードレールの画像、およびガードレールではない物体の画像に基づいて訓練される、請求項1または3に記載の方法。
- 訓練済みの機械学習モデルに基づいて前記現在画像中の前記車線境界を含む認識領域を認識して、ガードレールに属する車線境界を認識する前記ステップが、
前記現在画像中の各車線境界をそれぞれ認識目標として判定し、前記現在画像中の前記認識目標の位置に基づいて前記現在画像から前記認識目標を含む少なくとも1つの認識領域を選択するステップと、
前記機械学習モデルに基づいて各認識領域を認識して、前記各認識領域が前記ガードレールを含む領域であるかどうかを判定するステップと、
前記認識目標を含む前記認識領域の数に対する前記ガードレールを含む領域の数の比率が比率しきい値を超える場合に、前記認識目標を前記ガードレールとして判定するステップとを含む、請求項4に記載の方法。 - 前記車線標示線および前記ガードレールが前記現在画像中の前記車線境界から認識されている場合に、第11の所定の条件を満たす車線境界を縁石として認識するステップをさらに含み、前記第11の所定の条件が、車線境界が前記車線標示線と前記ガードレールの間に位置し、前記車線境界の2本の縁部線の水平座標の間の距離が第7の距離しきい値未満であることである、請求項4に記載の方法。
- 前記現在画像中の前記車線境界を、履歴画像中の縁石、ガードレール、および車線標示線の位置に基づいて、車線標示線、ガードレール、および/または縁石として識別するステップをさらに含む、請求項1に記載の方法。
- 車線境界を検出する装置であって、
車線の現在画像を取得するように構成された取得ユニットと、
前記現在画像をフィルタリングすることによって前記現在画像中の輝度飛び点を抽出するように構成された抽出ユニットと、
前記輝度飛び点からノイズ点をフィルタリングによって除去し、残りの輝度飛び点を縁部点として判定して前記縁部点のグループを形成するように構成されたグループ化ユニットであり、第1の所定の条件を満たす2つの縁部点が同じグループであり、前記第1の所定の条件が、2つの点の垂直座標が隣接しており、前記2つの点の水平座標の間の距離差が第1の距離しきい値未満であることを含み、前記ノイズ点が、第1のノイズ点を含み、前記第1のノイズ点が、他の輝度飛び点のいずれとも前記第1の所定の条件を満たさず、同じグループの縁部点を結んだ線が1本の縁部線を形成するグループ化ユニットと、
縁部線から前記車線境界の縁部線を認識するように構成された第1の認識ユニットと、
前記車線境界の前記縁部線をグループ化し、各グループの縁部線を1つの車線境界の縁部線として認識するように構成された第2の認識ユニットであり、同じグループの2本の縁部線の水平座標の間の差が第2の距離しきい値未満である第2の認識ユニットとを含み、
前記第1の所定の条件が、前記2つの点の間の勾配角が勾配角のしきい値未満であることをさらに含み、かつ/または
前記ノイズ点が、第2のノイズ点をさらに含み、前記第2のノイズ点が、
第1の左側水平領域の平均グレーレベルと第2の左側水平領域の平均グレーレベルの間の差が平均グレーレベルの第1のしきい値未満であるという第2の所定の条件、
第1の右側水平領域の平均グレーレベルと第2の右側水平領域の平均グレーレベルの間の差が平均グレーレベルの第2のしきい値未満であるという第3の所定の条件、
第1の左側水平領域のグレーレベル分散と第2の左側水平領域のグレーレベル分散の間の差がグレーレベル分散の第1のしきい値未満であるという第4の所定の条件、
第1の右側水平領域のグレーレベル分散と第2の右側水平領域のグレーレベル分散の間の差がグレーレベル分散の第2のしきい値未満であるという第5の所定の条件のうちの少なくとも1つを満たし、
前記第1の左側水平領域が、第1の左側点からなる領域であり、前記第1の左側点の垂直座標が前記第2のノイズ点の垂直座標と同じであり、前記第1の左側点の水平座標と前記第2のノイズ点の水平座標の間の距離が第3の距離しきい値以下であり、前記第1の左側点の前記水平座標が前記第2のノイズ点の水平座標未満であり、
前記第1の右側水平領域が、第1の右側点からなる領域であり、前記第1の右側点の垂直座標が前記第2のノイズ点の垂直座標と同じであり、前記第1の右側点の水平座標と前記第2のノイズ点の水平座標の間の距離が前記第3の距離しきい値以下であり、前記第1の右側点の前記水平座標が前記第2のノイズ点の水平座標より大きく、
前記第2の左側水平領域が、第2の左側点からなる領域であり、前記第2の左側点の垂直座標が参照飛び点の垂直座標と同じであり、前記第2の左側点の水平座標と前記参照飛び点の水平座標の間の距離が前記第3の距離しきい値以下であり、前記第2の左側点の前記水平座標が前記参照飛び点の水平座標未満であり、
前記第2の右側水平領域が、第2の右側点からなる領域であり、前記第2の右側点の垂直座標が前記参照飛び点の垂直座標と同じであり、前記第2の右側点の水平座標と前記参照飛び点の水平座標の間の距離が前記第3の距離しきい値以下であり、前記第2の右側点の前記水平座標が前記参照飛び点の水平座標より大きく、
前記参照飛び点が前記輝度飛び点に属し、前記参照飛び点の前記水平座標と前記第2のノイズ点の前記水平座標の間の距離が前記第1の距離しきい値未満であり、前記参照飛び点の前記垂直座標と前記第2のノイズ点の前記垂直座標の間の距離が第4の距離しきい値未満であり、前記参照飛び点の前記垂直座標が前記第2のノイズ点の前記垂直座標より小さい、
車線境界を検出する装置。 - プロセッサと、メモリと、通信インタフェースと、バスシステムとを含む、車線境界を検出するデバイスであって、
前記バスシステムが、前記デバイスの様々なハードウェア構成要素を互いに結合するように構成され、
前記通信インタフェースが、前記デバイスと他のデバイスのうちの少なくとも1つとの間の通信接続を実現するように構成され、
前記メモリが、プログラム命令およびデータを記憶するように構成され、
前記プロセッサが、前記メモリに記憶された前記プログラム命令および前記データを読み取って、
車線の現在画像を取得し、前記現在画像をフィルタリングすることによって前記現在画像中の輝度飛び点を抽出する動作と、
前記輝度飛び点からノイズ点をフィルタリングによって除去し、残りの輝度飛び点を縁部点として判定して前記縁部点のグループを形成する動作であり、第1の所定の条件を満たす2つの縁部点が同じグループであり、前記第1の所定の条件が、2つの点の垂直座標が隣接しており、前記2つの点の水平座標の間の距離差が第1の距離しきい値未満であることを含み、前記ノイズ点が、第1のノイズ点を含み、前記第1のノイズ点が、他の輝度飛び点のいずれとも前記第1の所定の条件を満たさず、同じグループの縁部点を結んだ線が1本の縁部線を形成する動作と、
縁部線から前記車線境界の縁部線を認識する動作と、
前記車線境界の前記縁部線をグループ化し、各グループの縁部線をそれぞれ1つの車線境界の縁部線として認識する動作であり、同じグループの2本の縁部線の水平座標の間の差が第2の距離しきい値未満である動作とを実行するように構成されており、
前記第1の所定の条件が、前記2つの点の間の勾配角が勾配角のしきい値未満であることをさらに含み、かつ/または
前記ノイズ点が、第2のノイズ点をさらに含み、前記第2のノイズ点が、
第1の左側水平領域の平均グレーレベルと第2の左側水平領域の平均グレーレベルの間の差が平均グレーレベルの第1のしきい値未満であるという第2の所定の条件、
第1の右側水平領域の平均グレーレベルと第2の右側水平領域の平均グレーレベルの間の差が平均グレーレベルの第2のしきい値未満であるという第3の所定の条件、
第1の左側水平領域のグレーレベル分散と第2の左側水平領域のグレーレベル分散の間の差がグレーレベル分散の第1のしきい値未満であるという第4の所定の条件、
第1の右側水平領域のグレーレベル分散と第2の右側水平領域のグレーレベル分散の間の差がグレーレベル分散の第2のしきい値未満であるという第5の所定の条件のうちの少なくとも1つを満たし、
前記第1の左側水平領域が、第1の左側点からなる領域であり、前記第1の左側点の垂直座標が前記第2のノイズ点の垂直座標と同じであり、前記第1の左側点の水平座標と前記第2のノイズ点の水平座標の間の距離が第3の距離しきい値以下であり、前記第1の左側点の前記水平座標が前記第2のノイズ点の水平座標未満であり、
前記第1の右側水平領域が、第1の右側点からなる領域であり、前記第1の右側点の垂直座標が前記第2のノイズ点の垂直座標と同じであり、前記第1の右側点の水平座標と前記第2のノイズ点の水平座標の間の距離が前記第3の距離しきい値以下であり、前記第1の右側点の前記水平座標が前記第2のノイズ点の水平座標より大きく、
前記第2の左側水平領域が、第2の左側点からなる領域であり、前記第2の左側点の垂直座標が参照飛び点の垂直座標と同じであり、前記第2の左側点の水平座標と前記参照飛び点の水平座標の間の距離が前記第3の距離しきい値以下であり、前記第2の左側点の前記水平座標が前記参照飛び点の水平座標未満であり、
前記第2の右側水平領域が、第2の右側点からなる領域であり、前記第2の右側点の垂直座標が前記参照飛び点の垂直座標と同じであり、前記第2の右側点の水平座標と前記参照飛び点の水平座標の間の距離が前記第3の距離しきい値以下であり、前記第2の右側点の前記水平座標が前記参照飛び点の水平座標より大きく、
前記参照飛び点が前記輝度飛び点に属し、前記参照飛び点の前記水平座標と前記第2のノイズ点の前記水平座標の間の距離が前記第1の距離しきい値未満であり、前記参照飛び点の前記垂直座標と前記第2のノイズ点の前記垂直座標の間の距離が第4の距離しきい値未満であり、前記参照飛び点の前記垂直座標が前記第2のノイズ点の前記垂直座標より小さい、
車線境界を検出するデバイス。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610594540.6 | 2016-07-26 | ||
CN201610594540.6A CN106203398B (zh) | 2016-07-26 | 2016-07-26 | 一种检测车道边界的方法、装置和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018018483A JP2018018483A (ja) | 2018-02-01 |
JP6347815B2 true JP6347815B2 (ja) | 2018-06-27 |
Family
ID=57495302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016191013A Active JP6347815B2 (ja) | 2016-07-26 | 2016-09-29 | 車線境界を検出する方法、装置、およびデバイス |
Country Status (4)
Country | Link |
---|---|
US (1) | US10133941B2 (ja) |
JP (1) | JP6347815B2 (ja) |
CN (1) | CN106203398B (ja) |
DE (1) | DE102016118502B4 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106407893B (zh) * | 2016-08-29 | 2019-11-22 | 东软集团股份有限公司 | 一种检测车道线的方法、装置和设备 |
JP6602743B2 (ja) * | 2016-12-08 | 2019-11-06 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および情報処理方法 |
JP2018203017A (ja) * | 2017-06-02 | 2018-12-27 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム |
CN107909047B (zh) * | 2017-11-28 | 2021-07-06 | 上海信耀电子有限公司 | 一种汽车及其应用的车道检测方法及系统 |
CN109389024B (zh) * | 2018-01-30 | 2020-09-04 | 长城汽车股份有限公司 | 基于影像识别路锥的方法、装置、存储介质以及车辆 |
US10551847B2 (en) * | 2018-02-06 | 2020-02-04 | Here Global B.V. | Method, apparatus, and system for machine learning of physical dividers using map data and vehicular sensor data |
EP3769507A4 (en) * | 2018-03-23 | 2022-03-30 | Netradyne, Inc. | MAPPING OF TRAFFIC BOUNDARIES |
CN108647638B (zh) | 2018-05-09 | 2021-10-12 | 东软睿驰汽车技术(上海)有限公司 | 一种车辆位置检测方法及装置 |
US10223614B1 (en) * | 2018-09-04 | 2019-03-05 | StradVision, Inc. | Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same |
CN109345547B (zh) * | 2018-10-19 | 2021-08-24 | 天津天地伟业投资管理有限公司 | 基于深度学习多任务网络的交通车道线检测方法及装置 |
DE102018126826A1 (de) * | 2018-10-26 | 2020-04-30 | Connaught Electronics Ltd. | Verfahren zum Bestimmen eines Konfidenzwerts für eine Erfassungsqualität einer Fahrbahnmarkierungsgrenze, Fahrerassistenzsystem sowie Kraftfahrzeug |
CN111247525A (zh) * | 2019-01-14 | 2020-06-05 | 深圳市大疆创新科技有限公司 | 一种车道检测方法、装置及车道检测设备、移动平台 |
WO2020246753A1 (en) * | 2019-06-03 | 2020-12-10 | Samsung Electronics Co., Ltd. | Electronic apparatus for object recognition and control method thereof |
CN111539907B (zh) * | 2019-07-25 | 2023-09-12 | 毫末智行科技有限公司 | 用于目标检测的图像处理方法及装置 |
CN111523360B (zh) * | 2019-09-09 | 2023-06-13 | 毫末智行科技有限公司 | 用于识别路面标记的方法、装置及单目摄像头 |
CN110689528B (zh) * | 2019-09-21 | 2024-06-21 | 山西金智鸿阳科技有限公司 | 一种基于自动定位的对开式刀闸开合角度检测方法 |
CN110717409B (zh) * | 2019-09-21 | 2024-06-18 | 山西金智鸿阳科技有限公司 | 一种对开式刀闸状态的实时精确检测方法 |
CN110717897B (zh) * | 2019-09-24 | 2024-08-02 | 南京鑫和汇通电子科技有限公司 | 基于快速确定中线模型的对开式刀闸开合角度检测方法 |
CN110751640B (zh) * | 2019-10-17 | 2024-07-16 | 南京鑫和汇通电子科技有限公司 | 一种基于角点配对的深度图像的四边形检测方法 |
CN110979318B (zh) * | 2019-11-20 | 2021-06-04 | 苏州智加科技有限公司 | 车道信息获取方法、装置、自动驾驶车辆及存储介质 |
CN111076734B (zh) * | 2019-12-12 | 2021-07-23 | 湖南大学 | 一种封闭区域非结构化道路高精地图构建方法 |
CN111257893B (zh) * | 2020-01-20 | 2024-05-10 | 珠海上富电技股份有限公司 | 一种停车位检测方法及自动泊车方法 |
CN111932621B (zh) * | 2020-08-07 | 2022-06-17 | 武汉中海庭数据技术有限公司 | 一种用于箭头提取置信度评估的方法及装置 |
CN114111779B (zh) * | 2020-08-26 | 2024-06-28 | 深圳市杉川机器人有限公司 | 一种建立工作区域地图的方法及自移动设备 |
CN112052778B (zh) * | 2020-09-01 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 一种交通标志识别方法以及相关装置 |
CN112164090A (zh) * | 2020-09-04 | 2021-01-01 | 杭州海康威视系统技术有限公司 | 数据处理方法、装置、电子设备及机器可读存储介质 |
US11636693B2 (en) * | 2021-01-20 | 2023-04-25 | Qualcomm Incorporated | Robust lane-boundary association for road map generation |
CN113112432A (zh) * | 2021-05-13 | 2021-07-13 | 广州道一科学技术有限公司 | 自动识别图像条带的方法 |
CN113758501B (zh) * | 2021-09-08 | 2024-06-04 | 广州小鹏自动驾驶科技有限公司 | 检测地图中的异常车道线的方法和可读存储介质 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2720625B2 (ja) * | 1991-04-09 | 1998-03-04 | 日産自動車株式会社 | 画像処理装置,画像処理方法およびレーンマーカー認識装置 |
JP4390631B2 (ja) * | 2004-06-02 | 2009-12-24 | トヨタ自動車株式会社 | 境界線検出装置 |
JP5293321B2 (ja) * | 2009-03-23 | 2013-09-18 | 株式会社豊田中央研究所 | 対象物識別装置及びプログラム |
KR101472615B1 (ko) * | 2010-12-21 | 2014-12-16 | 삼성전기주식회사 | 차선이탈 경보 시스템 및 방법 |
US9098751B2 (en) * | 2011-07-27 | 2015-08-04 | Gentex Corporation | System and method for periodic lane marker identification and tracking |
JP2013161190A (ja) * | 2012-02-02 | 2013-08-19 | Toyota Motor Corp | 物体認識装置 |
CN104517111B (zh) * | 2013-09-27 | 2018-09-07 | 比亚迪股份有限公司 | 车道线检测方法、系统、车道偏离预警方法及系统 |
JP5874756B2 (ja) * | 2014-02-07 | 2016-03-02 | トヨタ自動車株式会社 | 区画線検出システム及び区画線検出方法 |
KR101517181B1 (ko) * | 2014-02-28 | 2015-05-04 | 주식회사 코아로직 | 차선 이탈 경보 시스템 및 방법 |
JP5874770B2 (ja) * | 2014-03-12 | 2016-03-02 | トヨタ自動車株式会社 | 区画線検出システム |
JP6185418B2 (ja) * | 2014-03-27 | 2017-08-23 | トヨタ自動車株式会社 | 走路境界区画線検出装置 |
US9959624B2 (en) * | 2014-12-22 | 2018-05-01 | Volkswagen Ag | Early detection of turning condition identification using perception technology |
CN104751151B (zh) * | 2015-04-28 | 2017-12-26 | 苏州安智汽车零部件有限公司 | 一种实时多车道识别及跟踪方法 |
EP3098753A1 (en) * | 2015-05-28 | 2016-11-30 | Tata Consultancy Services Limited | Lane detection |
CN105488492B (zh) * | 2015-12-25 | 2019-09-13 | 北京大学深圳研究生院 | 一种彩色图像预处理方法、道路识别方法及相关装置 |
-
2016
- 2016-07-26 CN CN201610594540.6A patent/CN106203398B/zh active Active
- 2016-09-29 DE DE102016118502.7A patent/DE102016118502B4/de active Active
- 2016-09-29 JP JP2016191013A patent/JP6347815B2/ja active Active
- 2016-09-29 US US15/279,454 patent/US10133941B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018018483A (ja) | 2018-02-01 |
CN106203398B (zh) | 2019-08-13 |
US10133941B2 (en) | 2018-11-20 |
DE102016118502A1 (de) | 2018-02-01 |
CN106203398A (zh) | 2016-12-07 |
DE102016118502B4 (de) | 2024-04-25 |
US20180033148A1 (en) | 2018-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6347815B2 (ja) | 車線境界を検出する方法、装置、およびデバイス | |
CN106407893B (zh) | 一种检测车道线的方法、装置和设备 | |
CN110148196B (zh) | 一种图像处理方法、装置以及相关设备 | |
US8750567B2 (en) | Road structure detection and tracking | |
Wu et al. | Lane-mark extraction for automobiles under complex conditions | |
JP6107097B2 (ja) | 道路分割体検知方法及び装置 | |
JP5787024B2 (ja) | 立体物検出装置 | |
CN108629292B (zh) | 弯曲车道线检测方法、装置及终端 | |
CN107392139B (zh) | 一种基于霍夫变换的车道线检测方法及终端设备 | |
CN106326822B (zh) | 车道线检测的方法及装置 | |
CN108052904B (zh) | 车道线的获取方法及装置 | |
CN111414826B (zh) | 一种地标箭头的识别方法、设备及存储介质 | |
KR101922852B1 (ko) | 영상 기반 색상정보를 이용한 초지 경계 검출 방법 | |
CN111563463A (zh) | 路面车道线识别方法、装置、电子设备及存储介质 | |
CN110163109B (zh) | 一种车道线标注方法及装置 | |
CN101369312A (zh) | 检测图像中交叉口的方法和设备 | |
CN112115800A (zh) | 一种基于深度学习目标检测的车辆组合识别系统及方法 | |
JP2020095623A (ja) | 画像処理装置および画像処理方法 | |
CN107066985B (zh) | 一种基于快速霍夫变换的路口斑马线检测方法 | |
Lu | A lane detection, tracking and recognition system for smart vehicles | |
CN111881752A (zh) | 一种护栏检测分类方法、装置、电子设备及存储介质 | |
CN116935065A (zh) | 一种基于熔断与融合的车道线实例检测方法及系统 | |
Wennan et al. | Lane detection in some complex conditions | |
CN109670455A (zh) | 计算机视觉车道线检测系统及其检测方法 | |
CN114118188A (zh) | 针对待检测图像中移动对象的处理系统、方法和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180515 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6347815 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |