JP6802331B2 - 車線処理方法及び装置 - Google Patents
車線処理方法及び装置 Download PDFInfo
- Publication number
- JP6802331B2 JP6802331B2 JP2019128139A JP2019128139A JP6802331B2 JP 6802331 B2 JP6802331 B2 JP 6802331B2 JP 2019128139 A JP2019128139 A JP 2019128139A JP 2019128139 A JP2019128139 A JP 2019128139A JP 6802331 B2 JP6802331 B2 JP 6802331B2
- Authority
- JP
- Japan
- Prior art keywords
- lane
- point
- points
- image
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 19
- 238000000034 method Methods 0.000 claims description 38
- 239000011159 matrix material Substances 0.000 claims description 25
- 238000013136 deep learning model Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000012805 post-processing Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Algebra (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
第一画像における各車線点の間の距離を取得するステップと、
各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するステップと、
各前記車線点の方向密度に基づいて、各車線に対応するグループにおける車線点を確定するステップと、
各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るステップと、を含む。
前記第一画像をディープラーニングモデルに入力して、第二画像を得て、前記第二画像は、前記第一画像に対して、一定のスケーリング比を有し、前記第二画像には、前記ディープラーニングモデルによって、前記第一画像を識別して得られた車線点及び非車線点が含まれるステップと、
前記第二画像における各車線点の座標を、前記スケーリング比に従って、前記第一画像にマッピングし戻して、前記第一画像における各車線点の座標を得るステップと、を更に含む。
目標車線点との距離が第一閾値より小さくなるK個の車線点を選択し、Kは、1以上の正整数であるステップと、
前記目標車線点と前記K個の車線点のうちの少なくとも1つの車線点とを通過する直線を生成するステップと、
前記直線との距離が第二閾値より小さくなる関連車線点の数量を取得するステップと、
前記K個の車線点にそれぞれ対応する前記関連車線点の数量の中の最大値を前記目標車線点の方向密度として確定するステップと、を含む。
前記グループの候補車線点を確定するステップと、
前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップと、
前記候補車線点と同じグループに属する車線点があれば、前記候補車線点と同じグループに属する車線点を前記グループに追加するステップと、
前記グループに追加された車線点を新たな前記候補車線点として、前記新たな前記候補車線点と同じグループに属する車線点が探されなくなるまで、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップを実行し続けるステップと、を含み、
ここで、前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップは、前記第一画像から、前記候補車線点との距離が第三閾値より小さくなるM個の車線点を取得し、Mは、1以上の正整数であり、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定すること、を含む。
前記M個の車線点のうち、方向密度が最大となる車線点を、前記候補車線点と同じグループに属する車線点として確定し、又は
前記M個の車線点から、前記候補車線点の方向密度に対する直線に対応する関連車線点を取得して、各前記関連車線点から、方向密度が最大となる点を、前記候補車線点と同じグループに属する車線点として選択することを、含む。
前記グループから複数の車線点を選択して、選択された複数の車線点の前記第一画像での座標を用いて、多項式フィッティングを行って、前記グループに対応する車線の多項式曲線を得ることを含む。
前記車線の多項式曲線を用いて、前記車線の始点座標及び/又は終点座標を確定することを更に含む。
各前記グループにおける車線点を合併するステップを更に含む。
各前記車線点の前記第一画像での座標を用いて、2個の車線点ずつの間の距離を計算し、
2個の車線点ずつの間の距離を用いて、距離マトリックスを生成し、前記距離マトリックスの各要素が、前記第一画像における2個の車線点の間の距離を表すこと、を含む。
第一画像における各車線点の間の距離を取得するための距離取得モジュールと、
各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するための方向密度モジュールと、
各前記車線点の方向密度に基づいて、各車線に対応するグループにおける車線点を確定するためのグループ化モジュールと、
各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るための車線表現モジュールと、を備える。
前記第一画像をディープラーニングモデルに入力し識別して、第二画像を得て、前記第二画像は、前記第一画像に対して、一定のスケーリング比を有し、前記第二画像には、前記第一画像を識別して得られた車線点及び非車線点が含まれるための識別モジュールと、
前記第二画像における各車線点の座標を、前記スケーリング比に従って、前記第一画像にマッピングし戻して、前記第一画像における各車線点の座標を得るためのマッピングモジュールと、を更に備える。
目標車線点との距離が第一閾値より小さくなるK個の車線点を選択し、Kは、1以上の正整数であり、
前記目標車線点と前記K個の車線点のうちの少なくとも1つの車線点とを通過する直線を生成し、
前記直線との距離が第二閾値より小さくなる関連車線点の数量を取得し、
前記K個の車線点にそれぞれ対応する前記関連車線点の数量の中の最大値を前記目標車線点の方向密度として確定するためにさらに用いられる。
前記グループの候補車線点を確定し、
前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探し、
前記候補車線点と同じグループに属する車線点があれば、前記候補車線点と同じグループに属する車線点を前記グループに追加し、
前記グループに追加された車線点を新たな前記候補車線点として、前記新たな前記候補車線点と同じグループに属する車線点が探されなくなるまで、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップを実行し続けるためにさらに用いられ、
ここで、前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すことは、前記第一画像から、前記候補車線点との距離が第三閾値より小さくなるM個の車線点を取得し、Mは、1以上の正整数であり、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定すること、を含む。
前記グループから複数の車線点を選択して、選択された複数の車線点の前記第一画像での座標を用いて、多項式フィッティングを行って、前記グループに対応する車線の多項式曲線を得るためのフィッティングサブモジュールを備える。
前記車線の多項式曲線を用いて、前記車線の始点座標及び/又は終点座標を確定するための始終点サブモジュールを更に備える。
各前記車線点の前記第一画像での座標を用いて、2個の車線点ずつの間の距離を計算するための距離計算サブモジュールと、
2個の車線点ずつの間の距離を用いて、距離マトリックスを生成し、前記距離マトリックスの各要素が、前記第一画像における2個の車線点の間の距離を表すための距離マトリックス生成サブモジュールと、を備える。
第一画像における各車線点の間の距離を取得するステップS11と、
各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するステップS12と、
各前記車線点の方向密度に基づいて、各車線に対応するグループにおける車線点を確定するステップS13と、
各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るステップS14と、を含んでもよい。
第一画像をディープラーニングモデルに入力し識別して、第二画像を得て、前記第二画像は、前記第一画像に対して、一定のスケーリング比を有し、前記第二画像には、ディープラーニングモデルによって、前記第一画像を識別して得られた車線点及び非車線点が含まれるステップS21と、
第二画像における各車線点の座標を、前記スケーリング比に従って、第一画像にマッピングし戻して、第一画像における各車線点の座標を得るステップS22と、を更に含む。
目標車線点との距離が第一閾値より小さくなるK個の車線点を選択し、Kは、1以上の正整数であるステップS121と、
前記目標車線点と前記K個の車線点のうちの少なくとも1つの車線点とを通過する直線を生成するステップS122と、
前記直線との距離が第二閾値より小さくなる関連車線点の数量を取得するステップS123と、
前記K個の車線点にそれぞれ対応する前記関連車線点の数量の中の最大値を前記目標車線点の方向密度として確定するステップS124と、を含む。このように、該最大値に対応する直線を該目標車線点の方向とすることができる。目標車線点の方向密度を確定するこれらの点、即ち、該直線との距離が第二閾値より小さくなる点を、目標車線点の方向に関連する車線点(関連車線点と略す)として確定する。
グループにおける候補車線点を確定するステップS131と、
前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップS132と、
前記候補車線点と同じグループに属する車線点があれば、前記候補車線点と同じグループに属する車線点を前記グループに追加するステップS133と、
前記グループに追加された車線点を新たな前記候補車線点として、前記候補車線点と同じグループに属する車線点が探されなくなるまで、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップ、即ち、ステップS132を実行し続けるステップS134と、を含む。
方式一として、2つのグループの間の距離が設定された閾値より小さければ、合併を行い、ここで、例えば、2つのグループにおける各点の間の距離の最小値を、2つのグループの間の距離としてもよい。
方式二として、それぞれのグループにおける点の方向密度の情報を用いて、それぞれのグループの隣接する領域方向に向ける点の方向密度の集合を計算し、2つのグループの隣接する領域方向に向ける点の方向密度の集合の重なり度合が閾値よりも高ければ、これら2つのグループを合併する。例えば、図7を参照すると、グループAとグループBとのいずれ一方にも、方向密度に対応する直線が他方を通過する点が複数あるとすると、グループAとグループBとは、重なりを持つと見なす。重なり度合閾値が3である場合、もしグループAには、方向密度に対応する直線がグループBを通過する点が3つあり、且つグループBには、方向密度に対応する直線がグループAを通過する点が2つあるとすると、これら2つのグループの重なり度合は5となり、閾値を超えるので、これら2つのグループは、合併可能になる。
第一画像における各車線点の間の距離を取得するための距離取得モジュール71と、
各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するための方向密度モジュール72と、
各前記車線点の方向密度に基づいて、各車線に対応するグループにおける車線点を確定するためのグループ化モジュール73と、
各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るための車線表現モジュール74と、を備えてもよい。
前記第一画像をディープラーニングモデルに入力し識別して、第二画像を得て、前記第二画像は、前記第一画像に対して、一定のスケーリング比を有し、前記第二画像には、ディープラーニングモデルによって、前記第一画像を識別して得られた車線点及び非車線点が含まれるための識別モジュール81と、
前記第二画像における各車線点の座標を、前記スケーリング比に従って、前記第一画像にマッピングし戻して、前記第一画像における各車線点の座標を得るためのマッピングモジュール82と、を更に備える。
目標車線点との距離が第一閾値より小さくなるK個の車線点を選択し、Kは、1以上の正整数であり、
前記目標車線点と前記K個の車線点のうちの少なくとも1つの車線点とを通過する直線を生成し、
前記直線との距離が第二閾値より小さくなる関連車線点の数量を取得し、
前記K個の車線点にそれぞれ対応する前記関連車線点の数量のうちの最大値を前記目標車線点の方向密度として確定し、該最大値に対応する直線を該目標車線点の方向とすることができるためにさらに用いられる。
前記グループの候補車線点を確定し、
前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探し、
前記候補車線点と同じグループに属する車線点があれば、前記候補車線点と同じグループに属する車線点を前記グループに追加し、
前記グループに追加された車線点を新たな前記候補車線点として、前記候補車線点と同じグループに属する車線点が探されなくなるまで、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップを実行し続け、
その中、前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すことは、前記第一画像から、前記候補車線点との距離が第三閾値より小さくなるM個の車線点を取得し、Mは、1以上の正整数であり、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定するためにさらに用いられる。
それぞれのグループに対して、前記グループから複数の車線点を選択して、選択された複数の車線点の前記第一画像内の座標を用いて、多項式フィッティングを行って、前記グループに対応する車線の多項式曲線を得るためのフィッティングサブモジュール741を備える。
前記車線の多項式曲線を用いて、前記車線の始点座標及び/又は終点座標を確定するための始終点サブモジュール742を更に備える。
各前記グループにおける車線点を合併するための合併モジュール83を更に備える。
一実現形態において、距離取得モジュール71は、
各前記車線点の前記第一画像での座標を用いて、2個の車線点ずつの間の距離を計算するための距離計算サブモジュール711と、
2個の車線点ずつの間の距離を用いて、距離マトリックスを生成し、距離マトリックスにおける要素が、前記第一画像における2個の車線点の間の距離を表すための距離マトリックス生成サブモジュール712と、を備える。
Claims (17)
- 車線処理方法であって、
第一画像における各車線点の間の距離を取得するステップと、
各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するステップと、
各前記車線点の方向密度に基づいて、同じグループにおける車線点を確定するステップと、
各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るステップと、を含み、
前記車線点は、前記第一画像において車線として分類された画素点であり、
各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するステップは、
目標車線点との距離が第一閾値より小さくなるK個の車線点を選択し、Kは、1以上の正整数であるステップと、
前記目標車線点及び前記K個の車線点のうちの少なくとも1つの車線点を通過する直線を生成するステップと、
前記直線との距離が第二閾値より小さくなる関連車線点の数量を取得するステップと、
前記K個の車線点にそれぞれ対応する前記関連車線点の数量のうちの最大値を前記目標車線点の方向密度として確定するステップと、を含むことを特徴とする車線処理方法。 - 前記第一画像をディープラーニングモデルに入力して、第二画像を得て、前記第二画像は、前記第一画像に対して、一定のスケーリング比を有し、前記第二画像には、前記ディープラーニングモデルによって前記第一画像を識別して得られた車線点及び非車線点が含まれるステップと、
前記第二画像における各車線点の座標を、前記スケーリング比に従って、前記第一画像にマッピングし戻して、前記第一画像における各車線点の座標を得るステップと、を更に含むことを特徴とする請求項1に記載の方法。 - 各前記車線点の方向密度に基づいて、同じグループにおける車線点を確定するステップは、
前記グループの候補車線点を確定するステップと、
前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップと、
前記候補車線点と同じグループに属する車線点があれば、前記候補車線点と同じグループに属する車線点を前記グループに追加するステップと、
前記グループに追加された車線点を新たな前記候補車線点として、前記新たな前記候補車線点と同じグループに属する車線点が探されなくなるまで、前記新たな前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップを実行し続けるステップと、を含み、
ここで、前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップは、前記第一画像から、前記候補車線点との距離が第三閾値より小さくなるM個の車線点を取得し、Mは、1以上の正整数であることと、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定することと、を含むことを特徴とする請求項1に記載の方法。 - 前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定することは、
前記M個の車線点のうち、方向密度が最大となる車線点を、前記候補車線点と同じグループに属する車線点として確定し、又は
前記M個の車線点から、前記候補車線点の方向密度に対する直線に対応する関連車線点を取得し、各前記関連車線点から、方向密度が最大となる点を、前記候補車線点と同じグループに属する車線点として選択することを、含むことを特徴とする請求項3に記載の方法。 - 各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るステップは、
前記グループから複数の車線点を選択して、選択された複数の車線点の前記第一画像での座標を用いて、多項式フィッティングを行って、前記グループに対応する車線の多項式曲線を得ることを含むことを特徴とする請求項1乃至4の何れか1項に記載の方法。 - 各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るステップは、
前記車線の多項式曲線を用いて、前記車線の始点座標及び/又は終点座標を確定することを更に含むことを特徴とする請求項5に記載の方法。 - 各前記グループにおける車線点を合併するステップを更に含むことを特徴とする請求項1乃至4の何れか1項に記載の方法。
- 前記第一画像における各車線点の間の距離を取得するステップは、
各前記車線点の前記第一画像での座標を用いて、2個の車線点ずつの間の距離を計算し、
2個の車線点ずつの間の距離を用いて、距離マトリックスを生成し、前記距離マトリックスにおける各要素が、前記第一画像における2個の車線点の間の距離を表すこと、を含むことを特徴とする請求項1乃至4の何れか1項に記載の方法。 - 車線処理装置であって、
第一画像における各車線点の間の距離を取得するための距離取得モジュールと、
各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するための方向密度モジュールと、
各前記車線点の方向密度に基づいて、同じグループにおける車線点を確定するためのグループ化モジュールと、
各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るための車線表現モジュールと、を備え、
前記車線点は、前記第一画像において車線として分類された画素点であり、
前記方向密度モジュールは、
目標車線点との距離が第一閾値より小さくなるK個の車線点を選択し、Kは、1以上の正整数であり、
前記目標車線点及び前記K個の車線点のうちの少なくとも1つの車線点を通過する直線を生成し、
前記直線との距離が第二閾値より小さくなる関連車線点の数量を取得し、
前記K個の車線点にそれぞれ対応する前記関連車線点の数量のうちの最大値を前記目標車線点の方向密度として確定するためにさらに用いられることを特徴とする車線処理装置。 - 前記第一画像をディープラーニングモデルに入力し識別して、第二画像を得て、前記第二画像は、前記第一画像に対して、一定のスケーリング比を有し、前記第二画像には、前記ディープラーニングモデルによって、前記第一画像を識別して得られた車線点及び非車線点が含まれるための識別モジュールと、
前記第二画像における各車線点の座標を、前記スケーリング比に従って、前記第一画像にマッピングし戻して、前記第一画像における各車線点の座標を得るためのマッピングモジュールと、を更に備えることを特徴とする請求項9に記載の装置。 - 前記グループ化モジュールは、
前記グループの候補車線点を確定し、
前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探し、
前記候補車線点と同じグループに属する車線点があれば、前記候補車線点と同じグループに属する車線点を前記グループに追加し、
前記グループに追加された車線点を新たな前記候補車線点として、前記新たな前記候補車線点と同じグループに属する車線点が探されなくなるまで、前記新たな前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップを実行し続けるためにさらに用いられ、
ここで、前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すことは、前記第一画像から、前記候補車線点との距離が第三閾値より小さくなるM個の車線点を取得し、Mは、1以上の正整数であり、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定すること、を含むことを特徴とする請求項9に記載の装置。 - 前記車線表現モジュールは、
前記グループから複数の車線点を選択して、選択された複数の車線点の前記第一画像での座標を用いて、多項式フィッティングを行って、前記グループに対応する車線の多項式曲線を得るためのフィッティングサブモジュールを備えることを特徴とする請求項9乃至11の何れか1項に記載の装置。 - 前記車線表現モジュールは、
前記車線の多項式曲線を用いて、前記車線の始点座標及び/又は終点座標を確定するための始終点サブモジュールを更に備えることを特徴とする請求項12に記載の装置。 - 前記距離取得モジュールは、
各前記車線点の前記第一画像での座標を用いて、2個の車線点ずつの間の距離を計算するための距離計算サブモジュールと、
2個の車線点ずつの間の距離を用いて、距離マトリックスを生成し、前記距離マトリックスの各要素が、前記第一画像における2個の車線点の間の距離を表すための距離マトリックス生成サブモジュールと、を備えることを特徴とする請求項9乃至11の何れか1項に記載の装置。 - 車線処理装置であって、
1つ又は複数のプロセッサと、
1つ又は複数のプログラムを記憶するためのメモリと、を備え、
前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサにより実行されると、前記1つ又は複数のプロセッサが請求項1乃至8の何れか1項に記載の方法を実現するようにすることを特徴とする車線処理装置。 - コンピュータプログラムが記憶されるコンピュータ可読記憶媒体であって、前記プログラムがプロセッサにより実行されると、請求項1乃至8の何れか1項に記載の方法を実現することを特徴とするコンピュータ可読記憶媒体。
- コンピュータにおいて、プロセッサにより実行される場合、請求項1〜8のいずれか一項に記載の方法を実現することを特徴とするプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811025492.4 | 2018-09-04 | ||
CN201811025492.4A CN109117825B (zh) | 2018-09-04 | 2018-09-04 | 车道线处理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020038624A JP2020038624A (ja) | 2020-03-12 |
JP6802331B2 true JP6802331B2 (ja) | 2020-12-16 |
Family
ID=64860619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019128139A Active JP6802331B2 (ja) | 2018-09-04 | 2019-07-10 | 車線処理方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11113546B2 (ja) |
EP (1) | EP3620964B1 (ja) |
JP (1) | JP6802331B2 (ja) |
CN (1) | CN109117825B (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6918425B2 (ja) * | 2017-11-09 | 2021-08-11 | 株式会社Mobility Technologies | 撮影画像に含まれる境界線を検出するための装置、方法、及びプログラム |
US10311338B1 (en) * | 2018-09-15 | 2019-06-04 | StradVision, Inc. | Learning method, learning device for detecting lanes on the basis of CNN and testing method, testing device using the same |
TWI694019B (zh) * | 2019-06-05 | 2020-05-21 | 國立中正大學 | 車道線偵測與追蹤方法 |
CN110796066B (zh) * | 2019-10-26 | 2022-09-20 | 武汉中海庭数据技术有限公司 | 一种车道线组构建方法及装置 |
US11100344B2 (en) * | 2019-11-21 | 2021-08-24 | GM Global Technology Operations LLC | Image-based three-dimensional lane detection |
CN111191619B (zh) * | 2020-01-02 | 2023-09-05 | 北京百度网讯科技有限公司 | 车道线虚线段的检测方法、装置、设备和可读存储介质 |
CN114264310B (zh) * | 2020-09-14 | 2024-06-21 | 阿里巴巴集团控股有限公司 | 定位及导航方法、装置、电子设备、计算机存储介质 |
CN112183415B (zh) * | 2020-09-30 | 2024-07-16 | 上汽通用五菱汽车股份有限公司 | 车道线处理方法、车辆和可读存储介质 |
CN112381034A (zh) * | 2020-11-25 | 2021-02-19 | 上海眼控科技股份有限公司 | 一种车道线检测方法、装置、设备及存储介质 |
CN112240772B (zh) * | 2020-12-16 | 2021-09-28 | 北京赛目科技有限公司 | 一种车道线生成方法及装置 |
KR102499334B1 (ko) * | 2021-06-28 | 2023-02-14 | (주)뷰런테크놀로지 | 라이다 센서를 이용하여 차선을 검출하는 방법 및 상기 방법을 수행하는 차선 검출 장치 |
CN113239905B (zh) * | 2021-07-09 | 2021-09-21 | 新石器慧通(北京)科技有限公司 | 车道线简化方法、装置、电子设备及存储介质 |
CN113537100B (zh) * | 2021-07-22 | 2022-03-22 | 元橡科技(苏州)有限公司 | 一种车辆辅助驾驶系统、车道线时空拟合的系统和方法、fpga芯片 |
CN115631479B (zh) * | 2022-12-22 | 2023-03-14 | 北京钢铁侠科技有限公司 | 深度学习智能车车道巡线优化方法 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4638369B2 (ja) * | 2006-03-28 | 2011-02-23 | 富士重工業株式会社 | 車線位置検出装置 |
US20090232388A1 (en) | 2008-03-12 | 2009-09-17 | Harris Corporation | Registration of 3d point cloud data by creation of filtered density images |
CN103258338A (zh) | 2012-02-16 | 2013-08-21 | 克利特股份有限公司 | 利用真实数据来驱动仿真的虚拟环境的方法和系统 |
CN102663196B (zh) | 2012-04-17 | 2014-04-16 | 中南大学 | 一种基于虚拟现实的汽车起重机吊装仿真方法 |
US9082014B2 (en) * | 2013-03-14 | 2015-07-14 | The Nielsen Company (Us), Llc | Methods and apparatus to estimate demography based on aerial images |
CN104376297B (zh) * | 2013-08-12 | 2017-06-23 | 株式会社理光 | 道路上的线型指示标志的检测方法和装置 |
CN103914830B (zh) * | 2014-02-22 | 2017-02-01 | 小米科技有限责任公司 | 直线检测方法和装置 |
CN104899855A (zh) | 2014-03-06 | 2015-09-09 | 株式会社日立制作所 | 三维障碍物检测方法和装置 |
CN104933856B (zh) * | 2014-03-17 | 2017-08-25 | 径卫视觉科技(上海)有限公司 | 道路路况实时评估系统及方法 |
CN104020674B (zh) | 2014-04-21 | 2017-01-25 | 华南农业大学 | 车辆Bug避障算法的Matlab仿真可视化平台 |
CN104183014B (zh) | 2014-08-13 | 2017-01-18 | 浙江大学 | 一种面向城市增强现实的高融合度信息标注方法 |
KR101687073B1 (ko) | 2014-10-22 | 2016-12-15 | 주식회사 만도 | 터널 높이 추정 장치 및 터널 높이 추정 방법 |
CN104457569B (zh) | 2014-11-27 | 2017-06-16 | 大连理工大学 | 一种大型复合板材几何参数视觉测量方法 |
CN104766058B (zh) * | 2015-03-31 | 2018-04-27 | 百度在线网络技术(北京)有限公司 | 一种获取车道线的方法和装置 |
CN104950883A (zh) | 2015-05-14 | 2015-09-30 | 西安电子科技大学 | 一种基于距离网格地图的移动机器人路径规划方法 |
TWI630132B (zh) | 2015-06-04 | 2018-07-21 | 國立虎尾科技大學 | 3D animation car accident scene reconstruction method |
CN105046235B (zh) * | 2015-08-03 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 车道线的识别建模方法和装置、识别方法和装置 |
US20170092000A1 (en) | 2015-09-25 | 2017-03-30 | Moshe Schwimmer | Method and system for positioning a virtual object in a virtual simulation environment |
JP6464075B2 (ja) | 2015-11-11 | 2019-02-06 | 日本電信電話株式会社 | What−ifシミュレーション装置、方法、及びプログラム |
JP6852085B2 (ja) | 2015-11-30 | 2021-03-31 | ルミナー テクノロジーズ インコーポレイテッド | 分布型レーザー及び複数のセンサー・ヘッドを備える光検出及び測距システム、並びに、光検出及び測距システムのパルス・レーザー |
CN105761308B (zh) | 2016-02-29 | 2018-09-07 | 武汉大学 | 一种地面LiDAR和影像数据融合的遮挡区域建筑物立面重建方法 |
CN105844600B (zh) | 2016-04-27 | 2018-03-16 | 北京航空航天大学 | 一种空间目标三维点云光顺去噪方法 |
CN107818293A (zh) | 2016-09-14 | 2018-03-20 | 北京百度网讯科技有限公司 | 用于处理点云数据的方法和装置 |
WO2018053833A1 (zh) * | 2016-09-26 | 2018-03-29 | 深圳市锐明技术股份有限公司 | 一种成对车道线的快速检测方法和装置 |
JP6548690B2 (ja) | 2016-10-06 | 2019-07-24 | 株式会社アドバンスド・データ・コントロールズ | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 |
RO132599A2 (ro) | 2016-11-23 | 2018-05-30 | Centrul It Pentru Ştiinţă Şi Tehnologie S.R.L. | Echipament modular pentru inspecţia drumurilor rutiere, incluzând carosabilul şi zona adiacentă, destinat pentru a fi montat pe vehicule nespecializate |
CN106599832A (zh) | 2016-12-09 | 2017-04-26 | 重庆邮电大学 | 一种基于卷积神经网络的多类障碍物检测与识别方法 |
CN106919908B (zh) | 2017-02-10 | 2020-07-28 | 百度在线网络技术(北京)有限公司 | 障碍物识别方法及装置、计算机设备及可读介质 |
CN108492356A (zh) | 2017-02-13 | 2018-09-04 | 苏州宝时得电动工具有限公司 | 增强现实系统及其控制方法 |
CN107103627B (zh) * | 2017-04-27 | 2020-12-11 | 深圳市天双科技有限公司 | 一种基于车道线的汽车全景摄像头外部参数标定方法 |
CN107657237B (zh) | 2017-09-28 | 2020-03-31 | 东南大学 | 基于深度学习的汽车碰撞检测方法及系统 |
CN107678306B (zh) | 2017-10-09 | 2021-04-16 | 驭势(上海)汽车科技有限公司 | 动态场景信息录制和仿真回放方法、装置、设备及介质 |
CN107832806A (zh) | 2017-12-06 | 2018-03-23 | 四川知创空间孵化器管理有限公司 | 一种车牌类型判别方法和系统 |
CN107993512A (zh) | 2018-01-03 | 2018-05-04 | 深圳市欣横纵技术股份有限公司 | 一种核安保Table Top Tool系统及使用方法 |
CN108256506B (zh) | 2018-02-14 | 2020-11-24 | 北京市商汤科技开发有限公司 | 一种视频中物体检测方法及装置、计算机存储介质 |
-
2018
- 2018-09-04 CN CN201811025492.4A patent/CN109117825B/zh active Active
-
2019
- 2019-07-10 JP JP2019128139A patent/JP6802331B2/ja active Active
- 2019-07-19 EP EP19187440.3A patent/EP3620964B1/en active Active
- 2019-07-24 US US16/521,028 patent/US11113546B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020038624A (ja) | 2020-03-12 |
CN109117825A (zh) | 2019-01-01 |
EP3620964B1 (en) | 2023-08-30 |
US20200074189A1 (en) | 2020-03-05 |
EP3620964A1 (en) | 2020-03-11 |
CN109117825B (zh) | 2020-01-17 |
US11113546B2 (en) | 2021-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6802331B2 (ja) | 車線処理方法及び装置 | |
JP6823692B2 (ja) | 車線処理方法、装置、及びプログラム | |
EP3506158B1 (en) | Method and apparatus for determining lane line on road | |
JP6871314B2 (ja) | 物体検出方法、装置及び記憶媒体 | |
US10984659B2 (en) | Vehicle parking availability map systems and methods | |
CN110378297B (zh) | 基于深度学习的遥感图像目标检测方法、装置、及存储介质 | |
US11043000B2 (en) | Measuring method and apparatus for damaged part of vehicle | |
CN111222395A (zh) | 目标检测方法、装置与电子设备 | |
US10984588B2 (en) | Obstacle distribution simulation method and device based on multiple models, and storage medium | |
CN112200884B (zh) | 一种车道线的生成方法及装置 | |
KR20200027889A (ko) | CNN(Convolutional Neural Network)을 사용하여 차선을 검출하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
US11341297B2 (en) | Obstacle distribution simulation method, device and terminal based on a probability graph | |
CN106796647A (zh) | 场景文本检测系统和方法 | |
JP2017010554A (ja) | 曲線検出方法と曲線検出装置 | |
JP7121454B2 (ja) | 統計に基づく障害物位置シミュレーション方法、装置及び端末 | |
CN112699711A (zh) | 车道线检测方法、装置、存储介质及电子设备 | |
EP3764335A1 (en) | Vehicle parking availability map systems and methods | |
KR20230009151A (ko) | 차량용 객체 인식 신경망의 학습을 위한 학습 데이터 구축 방법 및 그 장치 | |
CN117789160A (zh) | 一种基于聚类优化的多模态融合目标检测方法及系统 | |
CN116740145A (zh) | 一种多目标跟踪方法、装置、车辆及存储介质 | |
CN116721396A (zh) | 车道线检测方法、设备及存储介质 | |
CN116309628A (zh) | 车道线识别方法和装置、电子设备和计算机可读存储介质 | |
CN117975419B (zh) | 障碍物识别方法、装置、设备、存储介质及程序产品 | |
CN116229403A (zh) | 用于处理车道线的方法和装置 | |
CN118692057A (zh) | 车道线交叉点的检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200924 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201030 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6802331 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |