JP6802331B2 - 車線処理方法及び装置 - Google Patents

車線処理方法及び装置 Download PDF

Info

Publication number
JP6802331B2
JP6802331B2 JP2019128139A JP2019128139A JP6802331B2 JP 6802331 B2 JP6802331 B2 JP 6802331B2 JP 2019128139 A JP2019128139 A JP 2019128139A JP 2019128139 A JP2019128139 A JP 2019128139A JP 6802331 B2 JP6802331 B2 JP 6802331B2
Authority
JP
Japan
Prior art keywords
lane
point
points
image
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019128139A
Other languages
English (en)
Other versions
JP2020038624A (ja
Inventor
シエ,シュフ
ヅァイ,ユーキャン
シア,ティアン
マ,ユー
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド, バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Publication of JP2020038624A publication Critical patent/JP2020038624A/ja
Application granted granted Critical
Publication of JP6802331B2 publication Critical patent/JP6802331B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、交通技術分野に関し、特に、車線処理方法及び装置に関する。
車線は、自動運転に対して、重要な役割を果たしており、測位や決定制御等のモジュールに重要な情報を提供することができる。従来の案としては、カメラによりキャプチャーされた二次元(2D、two dimensional)画像において、画像処理方法を介して車線のエッジを検出して、クラスタリングや他の点グループ化の案を用いて、車線を取得する。
従来の画像処理やディープラーニング等の方法で車線の検出又は分割を行う案では、車線を出力するために、煩瑣な後処理案が必要で、その効果も、画像品質等の条件の影響を受けやすい。例えば、従来の後処理案として、ハフ(Hough)変換を利用して車線に対する後処理を行うことが可能であるが、このような方式では、ノイズ点の影響を受けやすくて、ロバストではない。
本発明の実施例は、先行技術における1つ又は複数の技術的課題を解決するための車線処理方法及び装置を提供する。
第一態様によれば、本発明の実施例は、車線処理方法を提供し、該方法は、
第一画像における各車線点の間の距離を取得するステップと、
各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するステップと、
各前記車線点の方向密度に基づいて、各車線に対応するグループにおける車線点を確定するステップと、
各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るステップと、を含む。
第一態様に合わせて、本発明の実施例として、第一態様の第一実現形態において、
前記第一画像をディープラーニングモデルに入力して、第二画像を得て、前記第二画像は、前記第一画像に対して、一定のスケーリング比を有し、前記第二画像には、前記ディープラーニングモデルによって、前記第一画像を識別して得られた車線点及び非車線点が含まれるステップと、
前記第二画像における各車線点の座標を、前記スケーリング比に従って、前記第一画像にマッピングし戻して、前記第一画像における各車線点の座標を得るステップと、を更に含む。
第一態様に合わせて、本発明の実施例として、第一態様の第二実現形態において、各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するステップは、
目標車線点との距離が第一閾値より小さくなるK個の車線点を選択し、Kは、1以上の正整数であるステップと、
前記目標車線点と前記K個の車線点のうちの少なくとも1つの車線点とを通過する直線を生成するステップと、
前記直線との距離が第二閾値より小さくなる関連車線点の数量を取得するステップと、
前記K個の車線点にそれぞれ対応する前記関連車線点の数量の中の最大値を前記目標車線点の方向密度として確定するステップと、を含む。
第一態様に合わせて、本発明の実施例として、第一態様の第三実現形態において、各前記車線点の方向密度に基づいて、各車線に対応するグループにおける車線点を確定するステップは、
前記グループの候補車線点を確定するステップと、
前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップと、
前記候補車線点と同じグループに属する車線点があれば、前記候補車線点と同じグループに属する車線点を前記グループに追加するステップと、
前記グループに追加された車線点を新たな前記候補車線点として、前記新たな前記候補車線点と同じグループに属する車線点が探されなくなるまで、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップを実行し続けるステップと、を含み、
ここで、前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップは、前記第一画像から、前記候補車線点との距離が第三閾値より小さくなるM個の車線点を取得し、Mは、1以上の正整数であり、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定すること、を含む。
第一態様の第三実現形態に合わせて、本発明の実施例として、第一態様の第四実現形態において、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定することは、
前記M個の車線点のうち、方向密度が最大となる車線点を、前記候補車線点と同じグループに属する車線点として確定し、又は
前記M個の車線点から、前記候補車線点の方向密度に対する直線に対応する関連車線点を取得して、各前記関連車線点から、方向密度が最大となる点を、前記候補車線点と同じグループに属する車線点として選択することを、含む。
第一態様又はその何れか1つの実現形態に合わせて、本発明の実施例として、第一態様の第五実現形態において、各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るステップは、
前記グループから複数の車線点を選択して、選択された複数の車線点の前記第一画像での座標を用いて、多項式フィッティングを行って、前記グループに対応する車線の多項式曲線を得ることを含む。
第一態様の第五実現形態に合わせて、本発明の実施例として、第一態様の第六実現形態において、各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るステップは、
前記車線の多項式曲線を用いて、前記車線の始点座標及び/又は終点座標を確定することを更に含む。
第一態様又はその何れか1つの実現形態に合わせて、本発明の実施例として、第一態様の第七実現形態において、
各前記グループにおける車線点を合併するステップを更に含む。
第一態様又はその何れか1つの実現形態に合わせて、本発明の実施例として、第一態様の第八実現形態において、第一画像における各車線点の間の距離を取得するステップは、
各前記車線点の前記第一画像での座標を用いて、2個の車線点ずつの間の距離を計算し、
2個の車線点ずつの間の距離を用いて、距離マトリックスを生成し、前記距離マトリックスの各要素が、前記第一画像における2個の車線点の間の距離を表すこと、を含む。
第二態様によれば、本発明の実施例は、車線処理装置を提供し、該装置は、
第一画像における各車線点の間の距離を取得するための距離取得モジュールと、
各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するための方向密度モジュールと、
各前記車線点の方向密度に基づいて、各車線に対応するグループにおける車線点を確定するためのグループ化モジュールと、
各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るための車線表現モジュールと、を備える。
第二態様に合わせて、本発明の実施例として、第二態様の第一実現形態において、
前記第一画像をディープラーニングモデルに入力し識別して、第二画像を得て、前記第二画像は、前記第一画像に対して、一定のスケーリング比を有し、前記第二画像には、前記第一画像を識別して得られた車線点及び非車線点が含まれるための識別モジュールと、
前記第二画像における各車線点の座標を、前記スケーリング比に従って、前記第一画像にマッピングし戻して、前記第一画像における各車線点の座標を得るためのマッピングモジュールと、を更に備える。
第二態様に合わせて、本発明の実施例として、第二態様の第二実現形態において、前記方向密度モジュールは、
目標車線点との距離が第一閾値より小さくなるK個の車線点を選択し、Kは、1以上の正整数であり、
前記目標車線点と前記K個の車線点のうちの少なくとも1つの車線点とを通過する直線を生成し、
前記直線との距離が第二閾値より小さくなる関連車線点の数量を取得し、
前記K個の車線点にそれぞれ対応する前記関連車線点の数量の中の最大値を前記目標車線点の方向密度として確定するためにさらに用いられる。
第二態様に合わせて、本発明の実施例として、第二態様の第三実現形態において、前記グループ化モジュールは、
前記グループの候補車線点を確定し、
前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探し、
前記候補車線点と同じグループに属する車線点があれば、前記候補車線点と同じグループに属する車線点を前記グループに追加し、
前記グループに追加された車線点を新たな前記候補車線点として、前記新たな前記候補車線点と同じグループに属する車線点が探されなくなるまで、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップを実行し続けるためにさらに用いられ、
ここで、前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すことは、前記第一画像から、前記候補車線点との距離が第三閾値より小さくなるM個の車線点を取得し、Mは、1以上の正整数であり、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定すること、を含む。
第二態様又はその何れか1つの実現形態に合わせて、本発明の実施例として、第二態様の第四実現形態において、前記車線表現モジュールは、
前記グループから複数の車線点を選択して、選択された複数の車線点の前記第一画像での座標を用いて、多項式フィッティングを行って、前記グループに対応する車線の多項式曲線を得るためのフィッティングサブモジュールを備える。
第二態様の第四実現形態に合わせて、本発明の実施例として、第二態様の第五実現形態において、前記車線表現モジュールは、
前記車線の多項式曲線を用いて、前記車線の始点座標及び/又は終点座標を確定するための始終点サブモジュールを更に備える。
第二態様又はその何れか1つの実現形態に合わせて、本発明の実施例として、第二態様の第六実現形態において、前記距離取得モジュールは、
各前記車線点の前記第一画像での座標を用いて、2個の車線点ずつの間の距離を計算するための距離計算サブモジュールと、
2個の車線点ずつの間の距離を用いて、距離マトリックスを生成し、前記距離マトリックスの各要素が、前記第一画像における2個の車線点の間の距離を表すための距離マトリックス生成サブモジュールと、を備える。
第三態様によれば、本発明の実施例は、車線処理装置を提供し、前記装置の機能が、ハードウェアで実現されてもよいし、ハードウェアにより該当のソフトウェアを実行することで実現されてもよい。前記ハードウェア又はソフトウェアは、上記機能に対応する1つ又は複数モジュールを含む。
1つの可能な設計において、前記装置の構造には、プロセッサ及びメモリが含まれており、前記メモリが、前記装置による上記車線処理方法の実行をサポートするプログラムを記憶するために用いられ、前記プロセッサが、前記メモリに記憶されたプログラムを実行するように配置されている。前記装置は、他の機器又は通信ネットワークと通信するための通信インターフェースを更に備えてもよい。
第四態様によれば、本発明の実施例は、車線処理装置に用いられるコンピュータソフトウェア指令を記憶するためのコンピュータ可読記憶媒体を提供しており、該指令は、上記車線処理方法を実行するためのプログラムを含む。
上記技術案のうちの1つの技術案は、各車線点の方向密度に基づいて、画像における車線点をグループ化することで、得られたグループがより正確になり、フィッティングによって得られた車線が正確であり、画像の品質に影響されず、高いロバスト性を有するという利点又は有益な効果を有する。
上記概説は明細書のためのものであって、いかなる方式で制限するためのものではない。上記説明される模式的な態様、実施形態及び特徴を除き、本発明のさらなる態様、実施形態及び特徴は、図面及び以下の詳細な説明によって明らかになる。
図面において、特に断らない限り、同一符号は同一又は類似の部材又は要素を示す。これらの図面は必ずしも縮尺に応じて作成されるものではない。なお、これらの図面は本発明に開示されているいくつかの実施形態を示しているが、本発明の範囲を限定するものではない。
本発明の実施例に係る車線処理方法のフローチャートを示す。 本発明の実施例に係る車線処理方法のフローチャートを示す。 本発明の実施例に係る車線処理方法のフローチャートを示す。 本発明の実施例に係る車線処理方法において方向密度を確定する例を示す図である。 本発明の実施例に係る車線処理方法のフローチャートを示す。 本発明の実施例に係る車線処理方法においてグループ化する例を示す図である。 本発明の実施例に係る車線処理方法においてグループを合併する例を示す図である。 本発明の実施例に係る車線処理方法において曲線を用いて始点、終点を確定する模式図を示す。 本発明の実施例に係る車線処理方法において曲線を用いて始点、終点を確定する模式図を示す。 本発明の実施例に係る車線処理装置の構造ブロック図を示す。 本発明の実施例に係る車線処理装置の構造ブロック図を示す。 本発明の実施例に係る車線処理装置の構造ブロック図を示す。
以下では、幾つかの例示的な実施例のみを簡単に説明する。当業者であれば、本発明の趣旨又は範囲を逸脱せずに、説明した実施例に様々な変更を施すことができると理解できる。従って、図面と説明は本質的に例示的であり、限定的ではないとみなされるべきである。
図1は、本発明の実施例に係る車線処理方法のフローチャートを示す。図1に示すように、該方法は、
第一画像における各車線点の間の距離を取得するステップS11と、
各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するステップS12と、
各前記車線点の方向密度に基づいて、各車線に対応するグループにおける車線点を確定するステップS13と、
各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るステップS14と、を含んでもよい。
本実施例において、第一画像における画素点を分類してもよく、車線として分類された画素点は、車線点と称されてもよい。第一画像における車線点以外の画素点は、非車線点と称されてもよい。
一実現形態において、ステップS11は、各前記車線点の前記第一画像での座標を用いて、2個の車線点ずつの間の距離を計算することと、2個の車線点ずつの間の距離を用いて、距離マトリックスを生成し、距離マトリックスにおける各要素が前記第一画像における2個の車線点の間の距離を表すことと、を含む。距離マトリックスを先に計算すれば、方向密度を計算する際、距離マトリックスにおける要素を直接に利用することができるので、計算プロセスがより簡単且つ迅速になる。
一例においては、元画像内の全ての車線点のうち、2個ずつの間の距離を計算して、距離マトリックスを構築してもよい。元画像には、N個の車線点があると仮定すると、距離マトリックスのサイズは、N*Nとなる。
例えば、距離マトリックスは、以下の通りであるとする。
Figure 0006802331
該距離マトリックスにおける要素eijは、2個の車線点iとjとの間のユークリッド距離を表すことが可能である。勿論、他の方式で、例えば、街区距離等で、距離マトリックス内の要素を計算してもよい。
一実現形態において、図2に示すように、該方法は、
第一画像をディープラーニングモデルに入力し識別して、第二画像を得て、前記第二画像は、前記第一画像に対して、一定のスケーリング比を有し、前記第二画像には、ディープラーニングモデルによって、前記第一画像を識別して得られた車線点及び非車線点が含まれるステップS21と、
第二画像における各車線点の座標を、前記スケーリング比に従って、第一画像にマッピングし戻して、第一画像における各車線点の座標を得るステップS22と、を更に含む。
本実施例は、ディープラーニングモデルの予測出力結果に対して、後処理を行うために用いられてもよい。ニューラルネットワークを用いてディープラーニングモデルを構築し、ある程度のサンプル画像を用いてトレーニングすることで、ネットワーク出力グラフにおける各画素点が車線に属する信頼度をディープラーニングモデルにより得られるようにする。また、信頼度閾値を用いて分類を行う。例えば、信頼度が閾値より大きくなる画素点が車線点となり、閾値以下の画素点が非車線点となる等。後続では、識別結果を用いて自己学習し続けていくことで、モデルを最適化してもよい。
例えば、一枚の2D画像(元画像、即ち、第一画像)、例えば、撮影された路面画像等が与えられてもよい。ディープラーニングモデルを用いて、元画像を均等な比で縮小し、縮小後の画像における画素点を分類する(0:非車線点、1:車線点)。車線として分類された画素点(車線点と略す)のそれぞれについて、その予測目標点のネットワーク出力グラフ、即ち、第二画像での位置がモデルにより与えられてもよい。その後、ネットワーク出力グラフにおける各車線点の座標を元画像にマッピングし戻す。
一実現形態において、図3に示すように、ステップS12は、
目標車線点との距離が第一閾値より小さくなるK個の車線点を選択し、Kは、1以上の正整数であるステップS121と、
前記目標車線点と前記K個の車線点のうちの少なくとも1つの車線点とを通過する直線を生成するステップS122と、
前記直線との距離が第二閾値より小さくなる関連車線点の数量を取得するステップS123と、
前記K個の車線点にそれぞれ対応する前記関連車線点の数量の中の最大値を前記目標車線点の方向密度として確定するステップS124と、を含む。このように、該最大値に対応する直線を該目標車線点の方向とすることができる。目標車線点の方向密度を確定するこれらの点、即ち、該直線との距離が第二閾値より小さくなる点を、目標車線点の方向に関連する車線点(関連車線点と略す)として確定する。
画像におけるそれぞれの車線点の方向密度を計算してもよく、方向密度は、車線点がある方向に沿って、他の車線点に近づく可能性を表すことが可能である。第一閾値、第二閾値は、第一画像のサイズや、画像における車線点の数量等のパラメータに応じて設定されてもよい。
一例において、それぞれの目標車線点Pに対して、距離マトリックスから、当該目標車線点Pとの距離が第一閾値T1より小さくなるK個の隣接点Pnb_iを選択してもよい。例えば、距離マトリックスから、点Pに対応する行における各要素を抽出する。抽出されたある要素が第一閾値T1より小さく、且つ、該要素が点Pと点P1との間の距離を表すれば、点P1は、点Pの隣接点に該当する。同じようにして、距離マトリックスから点Pに対応する行及び列の各要素を抽出することで、目標車線点Pの全ての隣接点を確定することができる。第一閾値T1のサイズが異なると、隣接点の数が異なる可能性がある。
そして、点Pとその隣接点Pnb_iとを用いて直線を確定し、他の車線点から該直線までの距離を計算する。距離が第二閾値T2より小さくなる車線点の数を統計して、その最大値を該点Pの方向密度とする。該直線は、点Pの方向を表すことができる。該直線との距離がT2より小さくなる各車線点は、該直線の関連車線点に属し、これらの関連車線点が、該直線の方向に沿って点Pに近づく。例えば、図4に示すように、それぞれの小さい円は、1つの車線点を示し、Pとの距離がT1より小さくなる3つの点は、P1、P2、P3である。その中、PとP1とにより直線L1が確定され、PとP2とにより直線L2が確定され、PとP3とにより直線L3が確定される。L1、L2、L3との距離が閾値T2より小さくなる車線点は、それぞれ、3つ、4つ、5つがある。従って、5を点Pの方向密度とすることができる。
一実現形態において、図5に示すように、ステップS13は、
グループにおける候補車線点を確定するステップS131と、
前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップS132と、
前記候補車線点と同じグループに属する車線点があれば、前記候補車線点と同じグループに属する車線点を前記グループに追加するステップS133と、
前記グループに追加された車線点を新たな前記候補車線点として、前記候補車線点と同じグループに属する車線点が探されなくなるまで、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップ、即ち、ステップS132を実行し続けるステップS134と、を含む。
一例においては、ステップS132は、前記第一画像から、前記候補車線点との距離が第三閾値より小さくなるM個の車線点を取得し、Mは、1以上の正整数であることと、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定することと、を含んでもよい。
その中、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定する方式は、複数があり得る。
例えば、前記M個の車線点のうち、方向密度が最大となる車線点を、前記候補車線点と同じグループに属する車線点として確定する。
もしくは、前記M個の車線点から、前記候補車線点の方向密度に対する直線に対応する関連車線点を取得する。各前記関連車線点は、前記直線との距離が第二閾値より小さい。各前記関連車線点から、方向密度が最大となる点を、前記候補車線点と同じグループに属する車線点として選択する。
一例においては、1つの候補車線点Pを選択して、Pとの距離が閾値T3より小さくなる範囲内で、最大の方向密度を持つ車線点Qを選択し、T3は、100個の画素であるとする。点Qを新たな候補車線点として、同様なルールで、条件を満たす点が探されなくなるまで、条件を満たす点を選択していく。今回に探された全ての点を1つのグループにする。全ての車線点が処理されるまで、該グループ化のプロセスを繰り返せば、点のグループがいくつか得られる。例えば、図6に示すように、それぞれの小さい円は、1つの車線点を示し、候補車線点Pの方向密度が5であるとする。点Pとの間の距離が閾値T3より小さくなる画素点が位置するエリアは、破線枠により示される。該エリア内の各車線点の方向密度は、図4に示す方法で計算されてもよい。該エリア内の複数の車線点の方向密度がそれぞれ2、1、3、4であるとすると、方向密度が最大となる点Q(方向密度4)を選択する。また、点Pの方向と併せて、図4の領域において、点Pの方向密度に対する直線、即ち、Pの方向、に対応する関連車線点(図6内の直線との距離が閾値T2より小さくなる各点)から、方向密度が最大となる点を選択してもよい。
一実現形態において、ステップS13の後に、該方法は、各前記グループにおける車線点を合併するステップを更に含む。そして、合併後のグループを最終的なグループ化結果とする。
本実施例において、各グループの間の空間的隣接性の原則を用いて、隣り合うグループを合併してもよい。合併方式は、複数があり、以下のように例を挙げる。
方式一として、2つのグループの間の距離が設定された閾値より小さければ、合併を行い、ここで、例えば、2つのグループにおける各点の間の距離の最小値を、2つのグループの間の距離としてもよい。
方式二として、それぞれのグループにおける点の方向密度の情報を用いて、それぞれのグループの隣接する領域方向に向ける点の方向密度の集合を計算し、2つのグループの隣接する領域方向に向ける点の方向密度の集合の重なり度合が閾値よりも高ければ、これら2つのグループを合併する。例えば、図7を参照すると、グループAとグループBとのいずれ一方にも、方向密度に対応する直線が他方を通過する点が複数あるとすると、グループAとグループBとは、重なりを持つと見なす。重なり度合閾値が3である場合、もしグループAには、方向密度に対応する直線がグループBを通過する点が3つあり、且つグループBには、方向密度に対応する直線がグループAを通過する点が2つあるとすると、これら2つのグループの重なり度合は5となり、閾値を超えるので、これら2つのグループは、合併可能になる。
一実現形態において、ステップS14は、それぞれのグループに対して、前記グループから複数の車線点を選択することと、選択された複数の車線点の前記第一画像での座標を用いて、多項式フィッティングを行って、前記グループに対応する車線の多項式曲線を得ることとを含む。
多項式フィッティングプロセスの一例では、例えば、多項式y=ax3+bx2+cx+dが与えられる。それぞれのグループに対して、該グループにおける複数(例えば、4つ又はそれ以上)の車線点の元画像での座標(x、y)を該多項式に代入してもよい。そして、最小二乗法によって、該多項式を解いて、該多項式における各係数a、b、c、dの値を得る。
ただし、与えられる多項式は、一例に過ぎず、制限的なものではなく、必要に応じて、他の形式の多項式を採用してもよい。
一実現形態において、ステップS14は、前記車線の多項式曲線を用いて、前記車線の始点座標及び/又は終点座標を確定することを更に含む。
あるグループに対応する車線の多項式曲線がフィッティングによって得られたと、該曲線に基づいて車線の始点や終点等の情報を確定することができる。具体的に、該グループにおける各車線点の座標、及び、該グループに対応する車線の曲線を併せて、これらの点のy(及び/又はx)の最小値及び最大値等によって、始点及び終点情報を確定することができる。
例えば、図8aに示すように、あるグループのフィッティングにより曲線L1を得て、該グループ内のy(及び/又はx)の最小値によって、L1の始点座標Aを確定し、該グループ内のy(及び/又はx)の最大値によって、L1の終点座標Bを確定する。あるグループのフィッティングにより曲線L2を得て、該グループ内のxの最小値(yの最大値)によって、曲線L2の始点座標Dを確定し、該グループ内のxの最大値(yの最小値)によって、曲線L2の終点座標Cを確定する。
もしくは、図8bに示すように、あるグループのフィッティングにより曲線L3を得て、該グループ内のyの最小値によって、L3の始点座標Eを確定し、該グループ内のyの最大値によって、L3の終点座標Fを確定する。
本発明の実施例は、各車線点の方向密度に基づいて、画像における車線点をグループ化することで、得られたグループがより正確になるため、フィッティングによって得られた車線が正確であり、画像の品質に影響されず、高いロバスト性を有する。
図9は、本発明の実施例に係る車線処理装置の構造ブロック図を示す。図9に示すように、該装置は、
第一画像における各車線点の間の距離を取得するための距離取得モジュール71と、
各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するための方向密度モジュール72と、
各前記車線点の方向密度に基づいて、各車線に対応するグループにおける車線点を確定するためのグループ化モジュール73と、
各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るための車線表現モジュール74と、を備えてもよい。
一実現形態において、図10に示すように、該装置は、
前記第一画像をディープラーニングモデルに入力し識別して、第二画像を得て、前記第二画像は、前記第一画像に対して、一定のスケーリング比を有し、前記第二画像には、ディープラーニングモデルによって、前記第一画像を識別して得られた車線点及び非車線点が含まれるための識別モジュール81と、
前記第二画像における各車線点の座標を、前記スケーリング比に従って、前記第一画像にマッピングし戻して、前記第一画像における各車線点の座標を得るためのマッピングモジュール82と、を更に備える。
一実現形態において、前記方向密度モジュール72は、
目標車線点との距離が第一閾値より小さくなるK個の車線点を選択し、Kは、1以上の正整数であり、
前記目標車線点と前記K個の車線点のうちの少なくとも1つの車線点とを通過する直線を生成し、
前記直線との距離が第二閾値より小さくなる関連車線点の数量を取得し、
前記K個の車線点にそれぞれ対応する前記関連車線点の数量のうちの最大値を前記目標車線点の方向密度として確定し、該最大値に対応する直線を該目標車線点の方向とすることができるためにさらに用いられる。
一実現形態において、前記グループ化モジュール73は、
前記グループの候補車線点を確定し、
前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探し、
前記候補車線点と同じグループに属する車線点があれば、前記候補車線点と同じグループに属する車線点を前記グループに追加し、
前記グループに追加された車線点を新たな前記候補車線点として、前記候補車線点と同じグループに属する車線点が探されなくなるまで、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップを実行し続け、
その中、前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すことは、前記第一画像から、前記候補車線点との距離が第三閾値より小さくなるM個の車線点を取得し、Mは、1以上の正整数であり、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定するためにさらに用いられる。
なお、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定する方式は、複数があり得る。
例えば、前記M個の車線点のうち、方向密度が最大となる車線点を、前記候補車線点と同じグループに属する車線点として確定する。
もしくは、前記M個の車線点から、前記候補車線点の方向密度に対する直線に対応する関連車線点を取得する。各前記関連車線点は、前記直線との距離が第二閾値より小さい。各前記関連車線点から、方向密度が最大となる点を、前記候補車線点と同じグループに属する車線点として選択する。
一実現形態において、前記車線表現モジュール74は、
それぞれのグループに対して、前記グループから複数の車線点を選択して、選択された複数の車線点の前記第一画像内の座標を用いて、多項式フィッティングを行って、前記グループに対応する車線の多項式曲線を得るためのフィッティングサブモジュール741を備える。
一実現形態において、前記車線表現モジュール74は、
前記車線の多項式曲線を用いて、前記車線の始点座標及び/又は終点座標を確定するための始終点サブモジュール742を更に備える。
一実現形態において、該装置は、
各前記グループにおける車線点を合併するための合併モジュール83を更に備える。
一実現形態において、距離取得モジュール71は、
各前記車線点の前記第一画像での座標を用いて、2個の車線点ずつの間の距離を計算するための距離計算サブモジュール711と、
2個の車線点ずつの間の距離を用いて、距離マトリックスを生成し、距離マトリックスにおける要素が、前記第一画像における2個の車線点の間の距離を表すための距離マトリックス生成サブモジュール712と、を備える。
本発明の実施例に係る各装置内の各モジュールの機能について、上述の方法における対応する説明を参照してもよい、ここで繰り返して説明しない。
図11は、本発明の実施例に係る車線処理装置の構成ブロック図を示す。図11に示すように、該装置は、メモリ910及びプロセッサ920を備え、メモリ910には、プロセッサ920上で実行可能なコンピュータプログラムが記憶されている。前記プロセッサ920は、前記コンピュータプログラムを実行すると、上記実施例に係る車線処理方法を実現する。前記メモリ910とプロセッサ920の数は、1つ又は複数であってもよい。
該装置/設備/端末/サーバーは、外部装置と通信し、データの交換や伝送を行うための通信インターフェース930をさらに備える。
メモリ910は、高速RAMメモリを含む可能性もあるし、不揮発性メモリ(non−volatile memory)、例えば、少なくとも1つの磁気ディスクメモリをさらに含む可能性もある。
メモリ910、プロセッサ920及び通信インターフェース930が独立して実現する場合、メモリ910、プロセッサ920及び通信インターフェース930はバスで互いに接続され、且つ相互間の通信を実現することができる。前記バスは業界標準アーキテクチャ(ISA、Industry Standard Architecture)バス、ペリフェラルコンポーネント(PCI、Peripheral Component Interconnect)バス又は拡張業界標準アーキテクチャ(EISA、Extended Industry Standard Architecture)バス等であってもよい。前記バスはアドレスバス、データバス、制御バス等に分けられてもよい。示しやすくするために、図11では、1本のみの太線で示すが、1本のみのバス又は1つのタイプのみのバスを有すると示さない。
選択的に、具体的に実現する時、メモリ910、プロセッサ920及び通信インターフェース930が1枚のチップに統合される場合、メモリ910、プロセッサ920及び通信インターフェース930は、内部インターフェースによって、相互間の通信を実現することができる。
本発明の実施例は、コンピュータプログラムが記憶されるコンピュータ可読記憶媒体を提供し、該プログラムがプロセッサにより実行されると、上記実施例におけるいずれか一項に記載の方法を実現する。
本明細書の説明において、用語「一実施例」、「いくつかの実施例」、「例」、「具体例」、又は「いくつかの例」等の説明とは、該実施例又は例を参照すると説明した具体的な特徴、構造、材料又は特性が本発明の少なくとも1つの実施例又は例に含まれることを意味する。且つ、説明される具体的な特徴、構造、材料又は特性はいずれか1つ又は複数の実施例又は例で適切な方式で結合してもよい。また、矛盾しない限り、当業者は本明細書に説明される様々な実施例又は例、及び様々な実施例又は例の特徴を結合及び組み合わせすることができる。
また、用語の「第一」、「第二」は説明のためのものに過ぎず、相対重要性を指示又は示唆し、又は指示された技術的特徴の数を暗示すると理解すべきではない。従って、「第一」、「第二」で制限された特徴は少なくとも1つの該特徴を明示的又は暗示的に含んでもよい。本発明の説明において、特に明確且つ具体的に制限しない限り、「複数」の意味は2つ又は2つ以上である。
当業者であれば、フローチャートにおける、又はここでほかの方式で説明されるいかなる過程又は方法についての説明は、確定の論理機能又は過程を実現するための1つ又は複数のステップの実行可能命令のコードを含むモジュール、セグメント又は部分を示すと理解されてもよく、且つ本発明の好適な実施形態の範囲はほかの実現を含み、指示又は検討される順序通りでなくてもよく、関わる機能に基づいて、ほぼ同時に、又は逆順序で機能を実行してもよいと理解すべきである。
フローチャートに示す、又はここでほかの方式で説明される論理及び/又はステップは、例えば、論理機能を実現するための実行可能命令の順序付けリストであると見なされてもよく、具体的にいかなるコンピュータ可読媒体に実現されてもよく、命令実行システム、装置又はデバイス(例えばコンピュータに基づくシステム、プロセッサを含むシステム又は命令実行システム、装置又はデバイスから命令を受信し且つ命令を実行するシステム)の使用に備え、又はこれらの命令実行システム、装置又はデバイスと組み合わせて使用される。本明細書については、「コンピュータ可読媒体」はプログラムを包含、記憶、通信、伝播又は伝送することにより、命令実行システム、装置又はデバイス、又はこれらの命令実行システム、装置又はデバイスと組み合わせて使用されるいかなる装置であってもよい。コンピュータ可読媒体のさらなる具体例(非網羅的リスト)は、1つ又は複数の配線を有する電気接続部(電子装置)、ポータブルコンピュータケース(磁気装置)、ランダムアクセスメモリー(RAM)、読み出し専用メモリ(ROM)、電気的消去再書込み可能な読出し専用メモリ(EPROM又はフラッシュメモリー)、光ファイバー装置、及び携帯型読み出し専用メモリー(CDROM)を含む。また、コンピュータ可読媒体は更にその上に前記プログラムを印刷できる用紙又はほかの適切な媒体であってもよい理由は、例えば用紙又はほかの媒体を光学的に走査し、次に編集、解釈し、又は必要な時にほかの適切な方式で処理して、電子方式で前記プログラムを取得し、次にそれをコンピュータメモリに記憶することができるためである。
本発明の各部分はハードウェア、ソフトウェア、ファームウェア又はそれらの組み合わせで実現されてもよいと理解すべきである。上記実施形態において、複数のステップ又は方法は、メモリに記憶される、且つ適切な命令実行システムで実行するソフトウェア又はファームウェアで実現されてもよい。例えば、ハードウェアで実現する場合は、別の実施形態と同様に、データ信号に対して論理機能を実現する論理ゲート回路を有する離散論理回路、適切な組み合わせ論理ゲート回路を有する確定用途向け集積回路、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)等の本分野での公知技術のうちのいずれか1つ又はそれらの組み合わせで実現してもよい。
当業者であれば、上記実施例方法におけるステップの全部又は一部の実現がプログラムによって関連するハードウェアを命令して完了させてもよく、前記プログラムがコンピュータ可読記憶媒体に記憶されてもよく、実行時に、該プログラムは方法実施例のステップの1つ又はそれらの組み合わせを含むと理解される。
また、本発明の各実施例における各機能ユニットが1つの処理モジュールに統合されてもよく、各ユニットが独立して物理的に存在してもよく、2つ又は2つ以上のユニットが1つのモジュールに統合されてもよい。上記統合モジュールはハードウェアのタイプで実現されてもよいし、ソフトウェア機能モジュールのタイプで実現されてもよい。前記統合モジュールはソフトウェア機能モジュールのタイプで実現され、且つ独立した製品として販売又は使用される時、1つのコンピュータ可読記憶媒体に記憶されてもよい。前記記憶媒体は読み出し専用メモリ、磁気ディスク又は光ディスク等であってもよい。
以上の説明は、本発明の具体的な実施形態に過ぎず、本発明の保護範囲を制限するためのものではなく、当業者が本発明に開示される技術的範囲内に容易に想到し得る種々の変更又は置換は、いずれも本発明の保護範囲内に含まれるべきである。従って、本発明の保護範囲は特許請求の範囲に準じるべきである。

Claims (17)

  1. 車線処理方法であって、
    第一画像における各車線点の間の距離を取得するステップと、
    各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するステップと、
    各前記車線点の方向密度に基づいて、同じグループにおける車線点を確定するステップと、
    各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るステップと、を含
    前記車線点は、前記第一画像において車線として分類された画素点であり、
    各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するステップは、
    目標車線点との距離が第一閾値より小さくなるK個の車線点を選択し、Kは、1以上の正整数であるステップと、
    前記目標車線点及び前記K個の車線点のうちの少なくとも1つの車線点を通過する直線を生成するステップと、
    前記直線との距離が第二閾値より小さくなる関連車線点の数量を取得するステップと、
    前記K個の車線点にそれぞれ対応する前記関連車線点の数量のうちの最大値を前記目標車線点の方向密度として確定するステップと、を含むことを特徴とする車線処理方法。
  2. 前記第一画像をディープラーニングモデルに入力して、第二画像を得て、前記第二画像は、前記第一画像に対して、一定のスケーリング比を有し、前記第二画像には、前記ディープラーニングモデルによって前記第一画像を識別して得られた車線点及び非車線点が含まれるステップと、
    前記第二画像における各車線点の座標を、前記スケーリング比に従って、前記第一画像にマッピングし戻して、前記第一画像における各車線点の座標を得るステップと、を更に含むことを特徴とする請求項1に記載の方法。
  3. 各前記車線点の方向密度に基づいて、同じグループにおける車線点を確定するステップは、
    前記グループの候補車線点を確定するステップと、
    前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップと、
    前記候補車線点と同じグループに属する車線点があれば、前記候補車線点と同じグループに属する車線点を前記グループに追加するステップと、
    前記グループに追加された車線点を新たな前記候補車線点として、前記新たな前記候補車線点と同じグループに属する車線点が探されなくなるまで、前記新たな前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップを実行し続けるステップと、を含み、
    ここで、前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップは、前記第一画像から、前記候補車線点との距離が第三閾値より小さくなるM個の車線点を取得し、Mは、1以上の正整数であることと、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定することと、を含むことを特徴とする請求項1に記載の方法。
  4. 前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定することは、
    前記M個の車線点のうち、方向密度が最大となる車線点を、前記候補車線点と同じグループに属する車線点として確定し、又は
    前記M個の車線点から、前記候補車線点の方向密度に対する直線に対応する関連車線点を取得し、各前記関連車線点から、方向密度が最大となる点を、前記候補車線点と同じグループに属する車線点として選択することを、含むことを特徴とする請求項に記載の方法。
  5. 各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るステップは、
    前記グループから複数の車線点を選択して、選択された複数の車線点の前記第一画像での座標を用いて、多項式フィッティングを行って、前記グループに対応する車線の多項式曲線を得ることを含むことを特徴とする請求項乃至の何れか1項に記載の方法。
  6. 各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るステップは、
    前記車線の多項式曲線を用いて、前記車線の始点座標及び/又は終点座標を確定することを更に含むことを特徴とする請求項に記載の方法。
  7. 各前記グループにおける車線点を合併するステップを更に含むことを特徴とする請求項乃至の何れか1項に記載の方法。
  8. 前記第一画像における各車線点の間の距離を取得するステップは、
    各前記車線点の前記第一画像での座標を用いて、2個の車線点ずつの間の距離を計算し、
    2個の車線点ずつの間の距離を用いて、距離マトリックスを生成し、前記距離マトリックスにおける各要素が、前記第一画像における2個の車線点の間の距離を表すこと、を含むことを特徴とする請求項乃至の何れか1項に記載の方法。
  9. 車線処理装置であって、
    第一画像における各車線点の間の距離を取得するための距離取得モジュールと、
    各前記車線点の間の距離を用いて、各前記車線点の方向密度を確定するための方向密度モジュールと、
    各前記車線点の方向密度に基づいて、同じグループにおける車線点を確定するためのグループ化モジュールと、
    各前記グループにおける車線点を用いて、各前記グループに対応する車線の表現情報を得るための車線表現モジュールと、を備え、
    前記車線点は、前記第一画像において車線として分類された画素点であり、
    前記方向密度モジュールは、
    目標車線点との距離が第一閾値より小さくなるK個の車線点を選択し、Kは、1以上の正整数であり、
    前記目標車線点及び前記K個の車線点のうちの少なくとも1つの車線点を通過する直線を生成し、
    前記直線との距離が第二閾値より小さくなる関連車線点の数量を取得し、
    前記K個の車線点にそれぞれ対応する前記関連車線点の数量のうちの最大値を前記目標車線点の方向密度として確定するためにさらに用いられることを特徴とする車線処理装置。
  10. 前記第一画像をディープラーニングモデルに入力し識別して、第二画像を得て、前記第二画像は、前記第一画像に対して、一定のスケーリング比を有し、前記第二画像には、前記ディープラーニングモデルによって、前記第一画像を識別して得られた車線点及び非車線点が含まれるための識別モジュールと、
    前記第二画像における各車線点の座標を、前記スケーリング比に従って、前記第一画像にマッピングし戻して、前記第一画像における各車線点の座標を得るためのマッピングモジュールと、を更に備えることを特徴とする請求項に記載の装置。
  11. 前記グループ化モジュールは、
    前記グループの候補車線点を確定し、
    前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探し、
    前記候補車線点と同じグループに属する車線点があれば、前記候補車線点と同じグループに属する車線点を前記グループに追加し、
    前記グループに追加された車線点を新たな前記候補車線点として、前記新たな前記候補車線点と同じグループに属する車線点が探されなくなるまで、前記新たな前記候補車線点と同じグループに属する車線点があるかどうかについて探すステップを実行し続けるためにさらに用いられ、
    ここで、前記第一画像において、各車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点があるかどうかについて探すことは、前記第一画像から、前記候補車線点との距離が第三閾値より小さくなるM個の車線点を取得し、Mは、1以上の正整数であり、前記M個の車線点の方向密度に基づいて、前記候補車線点と同じグループに属する車線点を確定すること、を含むことを特徴とする請求項に記載の装置。
  12. 前記車線表現モジュールは、
    前記グループから複数の車線点を選択して、選択された複数の車線点の前記第一画像での座標を用いて、多項式フィッティングを行って、前記グループに対応する車線の多項式曲線を得るためのフィッティングサブモジュールを備えることを特徴とする請求項乃至11の何れか1項に記載の装置。
  13. 前記車線表現モジュールは、
    前記車線の多項式曲線を用いて、前記車線の始点座標及び/又は終点座標を確定するための始終点サブモジュールを更に備えることを特徴とする請求項12に記載の装置。
  14. 前記距離取得モジュールは、
    各前記車線点の前記第一画像での座標を用いて、2個の車線点ずつの間の距離を計算するための距離計算サブモジュールと、
    2個の車線点ずつの間の距離を用いて、距離マトリックスを生成し、前記距離マトリックスの各要素が、前記第一画像における2個の車線点の間の距離を表すための距離マトリックス生成サブモジュールと、を備えることを特徴とする請求項乃至11の何れか1項に記載の装置。
  15. 車線処理装置であって、
    1つ又は複数のプロセッサと、
    1つ又は複数のプログラムを記憶するためのメモリと、を備え、
    前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサにより実行されると、前記1つ又は複数のプロセッサが請求項乃至の何れか1項に記載の方法を実現するようにすることを特徴とする車線処理装置。
  16. コンピュータプログラムが記憶されるコンピュータ可読記憶媒体であって、前記プログラムがプロセッサにより実行されると、請求項乃至の何れか1項に記載の方法を実現することを特徴とするコンピュータ可読記憶媒体。
  17. コンピュータにおいて、プロセッサにより実行される場合、請求項1〜8のいずれか一項に記載の方法を実現することを特徴とするプログラム。
JP2019128139A 2018-09-04 2019-07-10 車線処理方法及び装置 Active JP6802331B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811025492.4 2018-09-04
CN201811025492.4A CN109117825B (zh) 2018-09-04 2018-09-04 车道线处理方法和装置

Publications (2)

Publication Number Publication Date
JP2020038624A JP2020038624A (ja) 2020-03-12
JP6802331B2 true JP6802331B2 (ja) 2020-12-16

Family

ID=64860619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019128139A Active JP6802331B2 (ja) 2018-09-04 2019-07-10 車線処理方法及び装置

Country Status (4)

Country Link
US (1) US11113546B2 (ja)
EP (1) EP3620964B1 (ja)
JP (1) JP6802331B2 (ja)
CN (1) CN109117825B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6918425B2 (ja) * 2017-11-09 2021-08-11 株式会社Mobility Technologies 撮影画像に含まれる境界線を検出するための装置、方法、及びプログラム
US10311338B1 (en) * 2018-09-15 2019-06-04 StradVision, Inc. Learning method, learning device for detecting lanes on the basis of CNN and testing method, testing device using the same
TWI694019B (zh) * 2019-06-05 2020-05-21 國立中正大學 車道線偵測與追蹤方法
CN110796066B (zh) * 2019-10-26 2022-09-20 武汉中海庭数据技术有限公司 一种车道线组构建方法及装置
US11100344B2 (en) * 2019-11-21 2021-08-24 GM Global Technology Operations LLC Image-based three-dimensional lane detection
CN111191619B (zh) * 2020-01-02 2023-09-05 北京百度网讯科技有限公司 车道线虚线段的检测方法、装置、设备和可读存储介质
CN114264310B (zh) * 2020-09-14 2024-06-21 阿里巴巴集团控股有限公司 定位及导航方法、装置、电子设备、计算机存储介质
CN112183415B (zh) * 2020-09-30 2024-07-16 上汽通用五菱汽车股份有限公司 车道线处理方法、车辆和可读存储介质
CN112381034A (zh) * 2020-11-25 2021-02-19 上海眼控科技股份有限公司 一种车道线检测方法、装置、设备及存储介质
CN112240772B (zh) * 2020-12-16 2021-09-28 北京赛目科技有限公司 一种车道线生成方法及装置
KR102499334B1 (ko) * 2021-06-28 2023-02-14 (주)뷰런테크놀로지 라이다 센서를 이용하여 차선을 검출하는 방법 및 상기 방법을 수행하는 차선 검출 장치
CN113239905B (zh) * 2021-07-09 2021-09-21 新石器慧通(北京)科技有限公司 车道线简化方法、装置、电子设备及存储介质
CN113537100B (zh) * 2021-07-22 2022-03-22 元橡科技(苏州)有限公司 一种车辆辅助驾驶系统、车道线时空拟合的系统和方法、fpga芯片
CN115631479B (zh) * 2022-12-22 2023-03-14 北京钢铁侠科技有限公司 深度学习智能车车道巡线优化方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4638369B2 (ja) * 2006-03-28 2011-02-23 富士重工業株式会社 車線位置検出装置
US20090232388A1 (en) 2008-03-12 2009-09-17 Harris Corporation Registration of 3d point cloud data by creation of filtered density images
CN103258338A (zh) 2012-02-16 2013-08-21 克利特股份有限公司 利用真实数据来驱动仿真的虚拟环境的方法和系统
CN102663196B (zh) 2012-04-17 2014-04-16 中南大学 一种基于虚拟现实的汽车起重机吊装仿真方法
US9082014B2 (en) * 2013-03-14 2015-07-14 The Nielsen Company (Us), Llc Methods and apparatus to estimate demography based on aerial images
CN104376297B (zh) * 2013-08-12 2017-06-23 株式会社理光 道路上的线型指示标志的检测方法和装置
CN103914830B (zh) * 2014-02-22 2017-02-01 小米科技有限责任公司 直线检测方法和装置
CN104899855A (zh) 2014-03-06 2015-09-09 株式会社日立制作所 三维障碍物检测方法和装置
CN104933856B (zh) * 2014-03-17 2017-08-25 径卫视觉科技(上海)有限公司 道路路况实时评估系统及方法
CN104020674B (zh) 2014-04-21 2017-01-25 华南农业大学 车辆Bug避障算法的Matlab仿真可视化平台
CN104183014B (zh) 2014-08-13 2017-01-18 浙江大学 一种面向城市增强现实的高融合度信息标注方法
KR101687073B1 (ko) 2014-10-22 2016-12-15 주식회사 만도 터널 높이 추정 장치 및 터널 높이 추정 방법
CN104457569B (zh) 2014-11-27 2017-06-16 大连理工大学 一种大型复合板材几何参数视觉测量方法
CN104766058B (zh) * 2015-03-31 2018-04-27 百度在线网络技术(北京)有限公司 一种获取车道线的方法和装置
CN104950883A (zh) 2015-05-14 2015-09-30 西安电子科技大学 一种基于距离网格地图的移动机器人路径规划方法
TWI630132B (zh) 2015-06-04 2018-07-21 國立虎尾科技大學 3D animation car accident scene reconstruction method
CN105046235B (zh) * 2015-08-03 2018-09-07 百度在线网络技术(北京)有限公司 车道线的识别建模方法和装置、识别方法和装置
US20170092000A1 (en) 2015-09-25 2017-03-30 Moshe Schwimmer Method and system for positioning a virtual object in a virtual simulation environment
JP6464075B2 (ja) 2015-11-11 2019-02-06 日本電信電話株式会社 What−ifシミュレーション装置、方法、及びプログラム
EP3411660A4 (en) 2015-11-30 2019-11-27 Luminar Technologies, Inc. LIDAR SYSTEM WITH DISTRIBUTED LASER AND MULTIPLE SENSOR HEADS AND PULSED LASER FOR LIDAR SYSTEM
CN105761308B (zh) 2016-02-29 2018-09-07 武汉大学 一种地面LiDAR和影像数据融合的遮挡区域建筑物立面重建方法
CN105844600B (zh) 2016-04-27 2018-03-16 北京航空航天大学 一种空间目标三维点云光顺去噪方法
CN107818293A (zh) 2016-09-14 2018-03-20 北京百度网讯科技有限公司 用于处理点云数据的方法和装置
CN106462757B (zh) * 2016-09-26 2019-09-06 深圳市锐明技术股份有限公司 一种成对车道线的快速检测方法和装置
JP6548691B2 (ja) 2016-10-06 2019-07-24 株式会社アドバンスド・データ・コントロールズ 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
RO132599A2 (ro) 2016-11-23 2018-05-30 Centrul It Pentru Ştiinţă Şi Tehnologie S.R.L. Echipament modular pentru inspecţia drumurilor rutiere, incluzând carosabilul şi zona adiacentă, destinat pentru a fi montat pe vehicule nespecializate
CN106599832A (zh) 2016-12-09 2017-04-26 重庆邮电大学 一种基于卷积神经网络的多类障碍物检测与识别方法
CN106919908B (zh) 2017-02-10 2020-07-28 百度在线网络技术(北京)有限公司 障碍物识别方法及装置、计算机设备及可读介质
CN108492356A (zh) 2017-02-13 2018-09-04 苏州宝时得电动工具有限公司 增强现实系统及其控制方法
CN107103627B (zh) * 2017-04-27 2020-12-11 深圳市天双科技有限公司 一种基于车道线的汽车全景摄像头外部参数标定方法
CN107657237B (zh) 2017-09-28 2020-03-31 东南大学 基于深度学习的汽车碰撞检测方法及系统
CN107678306B (zh) 2017-10-09 2021-04-16 驭势(上海)汽车科技有限公司 动态场景信息录制和仿真回放方法、装置、设备及介质
CN107832806A (zh) 2017-12-06 2018-03-23 四川知创空间孵化器管理有限公司 一种车牌类型判别方法和系统
CN107993512A (zh) 2018-01-03 2018-05-04 深圳市欣横纵技术股份有限公司 一种核安保Table Top Tool系统及使用方法
CN108256506B (zh) 2018-02-14 2020-11-24 北京市商汤科技开发有限公司 一种视频中物体检测方法及装置、计算机存储介质

Also Published As

Publication number Publication date
CN109117825B (zh) 2020-01-17
EP3620964B1 (en) 2023-08-30
CN109117825A (zh) 2019-01-01
US11113546B2 (en) 2021-09-07
EP3620964A1 (en) 2020-03-11
JP2020038624A (ja) 2020-03-12
US20200074189A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
JP6802331B2 (ja) 車線処理方法及び装置
JP6823692B2 (ja) 車線処理方法、装置、及びプログラム
EP3506158B1 (en) Method and apparatus for determining lane line on road
JP6871314B2 (ja) 物体検出方法、装置及び記憶媒体
US10984659B2 (en) Vehicle parking availability map systems and methods
CN110378297B (zh) 基于深度学习的遥感图像目标检测方法、装置、及存储介质
US11043000B2 (en) Measuring method and apparatus for damaged part of vehicle
EP3624001B1 (en) Methods and systems for parking line marker detection and pairing and parking spot detection and classification
JP2018037053A (ja) 車線境界線を検出する方法、装置、およびデバイス
CN111222395A (zh) 目标检测方法、装置与电子设备
JP6202147B2 (ja) 曲線検出方法と曲線検出装置
US10984588B2 (en) Obstacle distribution simulation method and device based on multiple models, and storage medium
CN112200884B (zh) 一种车道线的生成方法及装置
KR20200027889A (ko) CNN(Convolutional Neural Network)을 사용하여 차선을 검출하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치
US11341297B2 (en) Obstacle distribution simulation method, device and terminal based on a probability graph
EP3764335A1 (en) Vehicle parking availability map systems and methods
KR20230009151A (ko) 차량용 객체 인식 신경망의 학습을 위한 학습 데이터 구축 방법 및 그 장치
CN117789160A (zh) 一种基于聚类优化的多模态融合目标检测方法及系统
CN110796129A (zh) 一种文本行区域检测方法及装置
CN116740145A (zh) 一种多目标跟踪方法、装置、车辆及存储介质
CN116721396A (zh) 车道线检测方法、设备及存储介质
CN116309628A (zh) 车道线识别方法和装置、电子设备和计算机可读存储介质
CN117975419B (zh) 障碍物识别方法、装置、设备、存储介质及程序产品
CN116229403A (zh) 用于处理车道线的方法和装置
CN117853893A (zh) 镂空物体的目标检测方法、装置及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201126

R150 Certificate of patent or registration of utility model

Ref document number: 6802331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250