JP7073247B2 - 車線境界線検出モデルを生成するための方法、車線境界線を検出するための方法、車線境界線検出モデルを生成するための装置、車線境界線を検出するための装置、機器、コンピュータ読み取り可能な記憶媒体およびコンピュータプログラム - Google Patents

車線境界線検出モデルを生成するための方法、車線境界線を検出するための方法、車線境界線検出モデルを生成するための装置、車線境界線を検出するための装置、機器、コンピュータ読み取り可能な記憶媒体およびコンピュータプログラム Download PDF

Info

Publication number
JP7073247B2
JP7073247B2 JP2018242720A JP2018242720A JP7073247B2 JP 7073247 B2 JP7073247 B2 JP 7073247B2 JP 2018242720 A JP2018242720 A JP 2018242720A JP 2018242720 A JP2018242720 A JP 2018242720A JP 7073247 B2 JP7073247 B2 JP 7073247B2
Authority
JP
Japan
Prior art keywords
image
lane boundary
generate
boundary line
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018242720A
Other languages
English (en)
Other versions
JP2019135643A (ja
Inventor
トアン、シオン
ラン、シエンポン
チョウ、ワン
イェン、ミャオ
チャン、イーフェイ
マー、チャンチエ
チン、ヨンカン
Original Assignee
アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド filed Critical アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド
Publication of JP2019135643A publication Critical patent/JP2019135643A/ja
Application granted granted Critical
Publication of JP7073247B2 publication Critical patent/JP7073247B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Traffic Control Systems (AREA)

Description

本発明の実施形態は、主に画像検出技術の分野に関するものであり、より具体的に車線境界線を検出するための方法、装置および媒体に関するものである。
現在、高精度地図と自律走行技術の研究及び開発は、ますます注目されている。従来の電子地図と比較して、高精度地図の絶対座標精度はさらに高く、これに含まれる道路情報はより豊かである。精密地図の発展は、自律走行の実現を促進し、例えば、高精度地図は自律走行の安全性と信頼性を向上させることができる。
高精度地図や自律走行において、高精度地図と道路検出の需要のために、車両は、道路中の車線境界線を検出しなければならない。例えば、車載カメラで撮像された道路情報から車線境界線上の車線境界線ポイントの正確な位置座標を抽出しなければならない。しかしながら、環境に光線の干渉が存在するので、単に従来のコンピュータビジョンアルゴリズムだけを利用して車線境界線ポイントをよく抽出できなくなる。また、単に例えば回線ニューラルネットワークのみを利用する深層学習アルゴリズムを使用して車線境界線ポイントに対する分類を行う場合、車線境界線位置の正確性を確定しにくくなる。
本発明の例示的実施形態によれば、車線境界線を検出するための方案を提供する。
本発明の第1の態様において、車線境界線検出モデルを生成するための方法を提供する。
この方法は、元画像から車線境界線を検出し、検出された車線境界線に関連する第1の画像を生成するステップと、前記元画像に基づいて生成された、マークされた車線境界線に関連する第2の画像を取得するステップと、前記第1の画像と前記第2の画像に基づいて、前記検出された車線境界線が正しいか否かを示す少なくとも一つの表記を生成するステップと、前記第1の画像と前記少なくとも一つの表記に基づいて、前記車線境界線を自動的に認識するための分類器(classifier)モデルをトレーニングするステップとを含む。
本発明の第2の態様において、車線境界線を検出するための方法を提供する。この方法は、元画像から車線境界線を検出し、検出された車線境界線に関連する第1の画像を生成するステップと、本発明の第1の態様に記載の分類器モデルに入力して、前記車線境界線を自動的に認識するステップとを含む。
本発明の第3の態様において、車線境界線検出モデルを生成するための装置を提供する。この装置は、元画像から車線境界線を検出し、検出された車線境界線に関連する第1の画像を生成するように構成された第1の画像生成モジュールと、前記元画像に基づいて生成された、マークされた車線境界線に関連する第2の画像を取得するように構成された第2の画像取得モジュールと、前記第1の画像と前記第2の画像に基づいて、前記検出された車線境界線が正しいか否かを示す少なくとも一つの表記を生成するように構成された表記生成モジュールと、前記第1の画像と前記少なくとも一つの表記に基づいて、前記車線境界線を自動的に認識するための分類器モデルをトレーニングするように構成されたモデルトレーニングモジュールとを含む。
本発明の第4の態様において、車線境界線を検出するための装置を提供する。この装置は、元画像から車線境界線を検出し、検出された車線境界線に関連する第1の画像を生成するように構成された第1の画像生成モジュールと、本発明の第1の態様に記載の分類器モデルに入力して、前記車線境界線を自動的に認識するように構成されたモデル適用モジュールとを含む。
本発明の第5の態様において、1つまたは複数のプロセッサと、1つまたは複数のプログラムを格納するための記憶装置を含む機器であって、1つまたは複数のプログラムが1つまたは複数のプロセッサによって実行される場合、1つまたは複数のプロセッサが本発明の第1の態様に記載の方法を実現する機器を提供する。
本発明の第6の態様において、1つまたは複数のプロセッサと、1つまたは複数のプログラムを格納するための記憶装置を含む機器であって、1つまたは複数のプログラムが1つまたは複数のプロセッサによって実行される場合、1つまたは複数のプロセッサが本発明の第2の態様に記載の方法を実現する機器を提供する。
本発明の第7の態様において、コンピュータプログラムが記憶されているコンピュータ読み取り可能な媒体であって、当該プログラムがプレプロセッサによって実行される場合、本発明の第1の態様に記載の方法を実現するコンピュータ読み取り可能な媒体を提供する。
本発明の第8の態様において、コンピュータプログラムが記憶されているコンピュータ読み取り可能な媒体であって、当該プログラムがプレプロセッサによって実行される場合、本発明の第2の態様に記載の方法を実現するコンピュータ読み取り可能な媒体を提供する。
発明の内容の部分で説明した内容は、本願の実施形態のポイントまたは重要な特徴を限定しようとするものではなく、本願の範囲を限定するためのものではないことを理解されたい。本願の他の特徴は、下の説明を介して容易に理解できるだろう。
以下の図面による非限定的な実施例についての詳細な説明を読み、参照することにより、本願の他の特徴、目的及び利点がより明らかになる。
図1は、本発明の複数の実施形態が実現される例示的な環境の概略図を示す。 図2Aは、本発明の一部の実施形態に係る元画像、第1の画像と第2画像の模式図を示す。 図2Bは、本発明の一部の実施形態に係る元画像、第1の画像と第2画像の模式図を示す。 図2Cは、本発明の一部の実施形態に係る元画像、第1の画像と第2画像の模式図を示す。 図3は、本発明の一部の実施形態に係る車線境界線検出モデルを生成するためのプロセスのフローチャートを示す。 図4は、本発明の一部の実施形態に係る第1の画像を生成するプロセスのフローチャートを示す。 図5は、本発明の一部の実施形態に係る少なくとも一つの表記を生成するプロセスのフローチャートを示す。 図6は、本発明の一部の実施形態に係る車線境界線を検出するためのプロセスのフローチャートを示す。 図7は、本発明の実施形態に係る車線境界線検出モデルを生成するための装置の概略のブロック図を示す。 図8は、本発明の実施形態に係る車線境界線を検出するための装置の概略のブロック図を示す。 図9は、本発明の複数の実施形態を実施可能な計算機器のブロック図を示す。 図10Aは、画像ブロックと第2の画像がマッチングされる、及びマッチングされていない概略図を示す。 図10Bは、画像ブロックと第2の画像がマッチングされる、及びマッチングされていない概略図を示す。
以下、説明の詳細を参照しながら本願の様々な実施形態及び態様を説明し、図面には、上記様々な実施形態が示される。以下の説明及び図面は、本願を例示するためのものであり、限定するものとして解釈されるべきではない。本願の様々な実施形態を全面的に理解するために、多くの特定の詳細を説明する。ところが、いくつかの場合には、本願の実施形態に対する簡単な説明を提供するために、周知又は従来技術の詳細について説明していない。
本願の実施形態を説明することにおいて、用語「含む」及び似ている用語は、開放的な「含む」に理解すべきである。つまり、「...を含むが、これらに限定されない」と理解すべきである。用語「に基づいて」は、「少なくとも部分的に...に基づいて」と理解すべきである。用語「一実施形態」または「当該実施形態」は、「少なくとも一つの実施形態」として理解すべきである。用語「第1」、「第2」などは、異なるか、同じ対象物を示す可能性もある。以下、他の明確な定義と暗黙的定義を含める可能性もある。
前述したように、従来の方法において、単に従来のコンピュータビジョンアルゴリズムを介して、または単に深層学習を通じて、道路中の車線境界線を検出する。従来のコンピュータビジョンアルゴリズムだけを利用する方案は、精度が相対的に低く、高精度地図や自律走行の要求を満足するのに十分ではない。特に環境に光線の干渉(例えば、強い日差し)が存在し、または車線境界線が相対的に複雑な場合に、道路中の車線境界線を正確に検出することができなくなる。
また、深層学習を直接に利用する方法は、普遍性が相対的に良くない。深層学習を利用する方法は、例えばエンドツーエンド畳込みニューラルネットワークに基づくため、当該方案は、トレーニングデータの多様性に依存し、モデルの複雑さが高く、演算速度が遅いなどの問題を有するので、当該方法は、すべての場合に(例えば、高性能グラフィックス処理ユニット(GPU)のサポートがない計算機器上で)道路中の車線境界線を検出することに適していない。
上述した問題点やその他の潜在的な問題点のうちの1つまたは複数の問題点を少なくとも部分的に解決するために、本発明の例示的実施形態は車線境界線を検出するための方法を提出する。当該方法において、コンピュータビジョンアルゴリズムと深層学習を相互に結合させ車線境界線を自動的に認識する。車線境界線検出モデルを生成する過程(トレーニング過程とも呼ばれる)において、検出された車線境界線に関連する画像(以下、第1の画像とも呼ばれる)とマークされた車線境界線に関連する画像(以下、第2の画像とも呼ばれる)に基づいて、検出された車線境界線が正しいか否かを確定し、検出された車線境界線が正しいか否かを示す少なくとも一つの表記を生成する。続いて、当該モデルの生成過程では、第1の画像と少なくとも一つの表記に基づいて、車線境界線を自動的に認識するための分類器モデルをトレーニングする。
車線境界線を検出するためのプロセス(適用過程とも呼ばれる)に、検出された車線境界線に関連する第1の画像を、上述したようなトレーニングされた分類器モデルに入力することで、車線境界線の自動認識を実現する。この方法により、本発明の方案は、コンピュータビジョンアルゴリズムの簡易性と深層学習の強力な汎化能力を同時に備える。これにより、簡潔かつ効果的な方法で車線境界線検出を実現することで、高精度地図と自律走行の性能を向上させることができる。
本明細書で使用されるように、用語「モデル」は、トレーニングデータから、相応する入力と出力の間の関連性を習得することにより、トレーニングが完了した後、指定された入力に対して対応する出力を生成することができる。「モデル」は、「ニューラルネットワーク」、「学習モデル」または「学習ネットワーク」と呼ばれることもできることを理解すべきである。
以下、車線境界線を例に挙げて、本発明の実施形態を説明するが、本発明の方案は、他の種類の道路情報(例えば、速度制限標識など)を検出することにも適用することができることを理解すべきである。
以下、添付された図面を参照して、本発明の実施形態を具体的に説明する。
図1は、本発明の複数の実施形態を実現可能な例示的環境100の概略図を示す。この例示的環境100において、計算機器(コンピューター)120で車線境界線検出モデル130を生成する。計算機器120は、トレーニングデータに基づいて車線境界線検出モデル130を生成することができる。
車線境界線検出モデル130を生成することができるように、相応するトレーニングデータを収集する必要がある。収集実体(エンティティ)110は、相応するトレーニングデータを収集し、収集されたトレーニングデータを計算機器120に提供することができる。例えば、収集実体110は、カメラのような収集装置を備える車両、移動型ロボットなどであってもよい。一部の実施形態において、計算機器120は、収集実体110上で実現されることができる。代替的に、計算機器120は、収集実体110と離れてもよく、有線または無線接続を介して収集し、収集実体(エンティティ)110と通信してもよい。
トレーニングデータは、元画像(オリジナル画像)を含むことができる。図2Aは、本発明の一部の実施形態に係る元画像200Aの模式図を示す。図示されたように、元画像200Aは、道路情報に関連する画像であってもよい。例えば、元画像200Aは、走行過程で収集実体110により収集された道路情報を含む画像であってもよい。代替的に、元画像200Aは、道路情報とは無関係であってもよい。
計算機器120は、元画像200Aで車線境界線を検出し、検出された車線境界線に関連する第1の画像を生成することができる。一部の実施形態において、計算機器120は、コンピュータビジョンアルゴリズムを使用して車線境界線を検出し、検出された車線境界線を元画像200A上に表示することにより、第1の画像200Bを生成することができる。
一部の実施形態において、計算機器120は、検出された車線境界線上の車線境界線ポイントにより、検出された車線境界線を表示することができる。車線境界線ポイントは、1つまたは複数のピクセルを含むことができる。例えば、計算機器120は、元画像200A上の検出された車線境界線上の車線境界線ポイントに対応するピクセルの色を変化させて、検出された車線境界線を表示することにより、第1の画像200Bを生成することができる。具体的に、計算機器120は、元画像200A上の検出された車線境界線上の車線境界線ポイントに対応するピクセルの色を、元画像200Aに出ていないか、または相対的に少ない色に変化させ、元画像200A中の他のグラフィック要素と区別することができるように、検出された車線境界線を表示することができる。
図2Bは、本発明の一部の実施形態に係る第1の画像200Bの概略図を示す。図示されたように、第1の画像200Bは、車線境界線ポイントにより、元画像200A上に検出された車線境界線を表示した画像である。
また、計算機器120は、元画像200Aに基づいて生成されたマークされた車線境界線に関連する第2の画像を取得することができる。第2の画像は、元画像200A上で車線境界線をマークして作成した画像であってもよい。一部の実施形態において、当該マーク動作はユーザによって完成することができる。代替的に、そのマーク動作は、ユーザの動作なしに、計算機器120によって自動的に完成されることができる。
図2Cは、本発明の一部の実施形態に係る第2の画像200Cの概略図を示す。図示されたように、第2の画像200Cは、元画像200Aに点線で車線境界線をマークした画像である。明快さの目的のために、図2Cは、実際の車線境界線と点線でマークされた車線境界線とが重畳されていない状態を示したが、実際の車線境界線と点線でマークされた車線境界線とが重畳することもできることを理解すべきである。一部の実施形態において、処理を簡素化させるため、第2の画像200Cは、車線境界線を明確にマークするように、車線境界線に関連する情報のみを保持することができる。これにより、検出された車線境界線が正しいか否かを確定するための基礎として利用するのにより適する。例えば、第2の画像200Cにおいて、車線境界線とその他のグラフィック要素とを区別しやすい色に設定することができる。具体的に、車線境界線を白色に設定し、その他のグラフィック要素を黒色に設定することができる。
計算機器120は、第1の画像200Bと第2の画像200Cとに基づいて、検出された車線境界線が正しいか否かを示す少なくとも一つの表記を生成することができる。一部の実施形態において、計算機器120は、第1の画像200Bと第2の画像200Cを比較して、第1の画像200Bと第2の画像200Cがマッチングされるか否かに基づいて、検出された車線境界線が正しいか否かを確定し、検出された車線境界線が正しいか否かを示す少なくとも一つの表記を生成することができる。
他のいくつかの実施形態において、計算機器120は、検出された車線境界線の位置が第2の画像200Cでマークされた車線境界線の位置と一致するか否かを確定することで、検出された車線境界線が正しいか否かを確定して、検出された車線境界線が正しいか否かを示す少なくとも一つの表記を生成することができる。例えば、計算機器120は、第1の画像200Bで検出された車線境界線上の車線境界線ポイントのピクセルの座標が第2の画像200Cのマークされた車線境界線のピクセルの座標と位置マッチングされるか否かを確定することができる。
続いて、計算機器120は、第1の画像200Bと少なくとも一つの表記に基づいて、車線境界線を自動的に認識するための分類器モデル140をトレーニングすることができる。分類器モデル140のトレーニング過程において、計算機器120は、第1の画像200Bと少なくとも一つの表記に基づいて分類器モデル140を変更することができる。これにより、トレーニングされた分類器モデル140は、第1画像200B上の検出された車線境界線が正しいか否かを正確に確定することができる。
トレーニングされた分類器モデル140を適用して車線境界線を検出する過程において、計算機器120は、検出しようとする元画像200Aで車線境界線を検出し、検出された車線境界線に関連する第1の画像200Bを生成することができる。収集実体110は、相応のトレーニングデータを収集し、収集されたトレーニングデータを計算装置120に提供することができる。収集実体110、検出しようとする元画像200A、及び第1の画像200Bを生成する方法は、上述したような収集実体110、元画像200A、及び第1の画像200Bを生成する方法と類似し、ここでこれに対する説明を省略する。
続いて、計算機器120は、第1の画像200Bをトレーニングされた分類器モデル140に入力することができる。トレーニングされた分類器モデル140は、第1の画像200B上の検出された車線境界線が正しいか否かを確定して車線境界線を自動的に認識することができる。
コンピュータビジョンアルゴリズムと深層学習を結合させたので、本発明の方法は、環境に光線の干渉(例えば、強い日差し)が存在し、または車線境界線が相対的に複雑な場合でも、道路中の車線境界線を正確に検出することができるだけでなく、強力なグラフィックス処理能力を備えていない計算機器でも道路中の車線境界線を検出することに適用ことができる。
[車線境界線検出モデル生成過程]
図3は、本発明の実施形態に係る車線境界線検出モデルを生成するためのプロセス300のフローチャートを示す。プロセス300は、計算装置120によって実現されることができる。ブロック310において、計算装置120は、元画像200Aから車線境界線を検出し、検出された車線境界線に関連する第1の画像200Bを生成する。ブロック310は、画像処理プロセスと呼ばれてもよい。以下、図4を組み合わせて、ブロック310の詳細を説明する。
ブロック320において、計算装置120は、元画像200Aに基づいて生成した、マークされた車線境界線に関連する第2の画像200Cを取得する。上述したように、第2の画像200Cは、元画像200A上で車線境界線をマークして作成した画像であってもよい。一部の実施形態において、当該マーク動作はユーザによって完了することができる。代替的に、そのマーク動作は、ユーザが関与しない状態でも自動的に完了することができる。
ブロック330において、計算装置120は、第1の画像200Bと第2の画像200Cに基づいて、検出された車線境界線が正しいか否かを示す少なくとも一つの表記を生成する。ブロック330は、表記生成プロセスと呼ばれてもよい。以下、図5を組み合わせて、ブロック330の詳細を説明する。
ブロック340において、計算装置120は、第1の画像200Bと少なくとも一つの表記に基づいて、車線境界線を自動的に認識するための分類器モデルをトレーニングする。上述したように、分類器モデル140のトレーニング過程において、計算機器120は、第1の画像200Bと、少なくとも一つの表記とに基づいて、分類器モデル140を変更することができる。これにより、トレーニングされた分類器モデル140は、第1の画像200B上の検出された車線境界線が正しいか否かを正確に確定することができる。生成された車線境界線検出モデルは、コンピュータビジョンアルゴリズムにより簡潔性とリアルタイム性を備えるだけでなく、深層学習により高精度と堅牢性を備えることができる。
[画像処理過程]
図4は、本発明の一部の実施形態に係る第1の画像200Bを生成するプロセス400のフローチャートを示す。プロセス400は、上述したプロセス300中のブロック310の一の例示的実現と見なすことができる。ブロック410において、計算装置120は、収集実体110から元画像200Aを取得する。
ブロック415において、計算装置120は、元画像200Aに対して逆透視変換を行って、逆透視変換された画像を生成する。現実の世界において、平行する線は逆透視法により画像で距離に応じて交差線に変化する。当該逆透視原理に基づいて、道路上の2本の車線境界線の間隔は、元画像200Aの末端で小さくなり、これは車線境界線を検出するのに不利になる。したがって、元画像200Aの遠近効果の影響を相殺するように、計算機器機器120は、元画像200Aに対して逆透視視変換を行って、車線境界線を検出するのに適する逆透視変換された画像を生成することができる。
ブロック420において、計算機器120は、逆透視変換された画像に対してグレースケール変換を行ってグレースケール画像を生成する。一部の実施形態において、計算機器120は、元画像200Aに対してグレースケール変換を行ってグレースケール画像を生成することができる。画像のグレースケール変換は、画像の色を除去し、単に画像の明るさだけを保留することで、画像のサイズを減少させることができる。
ブロック425において、計算機器120は、グレースケール画像に対してノイズ低減を行って、ノイズ低減された画像を生成する。一部の実施形態において、計算機器120は、元画像200Aに対してノイズ低減を行って、ノイズ低減された画像を生成することができる。画像のノイズ低減は、画像中のノイズポイントを除去することで、画像より平滑にすることができる。例えば、ノイズ低減は、ガウスフィルタリング、平均値フィルタリングなどのアルゴリズムを使用して実現されることができる。
ブロック430において、計算機器120は、ノイズ低減された画像に対して二値化を行って二値画像を生成する。一部の実施形態において、計算機器120は、元画像200Aに対して二値化を行って二値画像を生成することができる。他のいくつかのの実施形態において、計算機器120は、グレースケール画像に対して二値化を行って二値画像を生成することができる。二値化した画像中のピクセルの明るさ値を0または255に設定することにより、画像のサイズを減らし、車線境界線を検出するのにさらに適合するようにすることができる。
ブロック435において、計算機器120は、二値画像上で輪郭検出(エッジ検出とも呼ばれる)を適用して車線境界線の輪郭を生成する。一部の実施形態において、計算機器120は、元画像200A上で輪郭検出を適用して車線境界線の輪郭を生成する。画像の輪郭検出は、車線境界線の重要な構造属性情報を保持し、重要でないか、または関連がない情報を削除することで、画像のサイズを更に減少させ、車線境界線を検出するのにさらに適合するようにすることができる。
ブロック440において、計算装置120は、生成された車線境界線の輪郭に対して曲線フィッティングを行って、車線境界線を表示する曲線を生成する。車線境界線の輪郭の曲線フィッティングは、車線境界線の輪郭上のずれたポイントを削除することができる。一部の実施形態において、計算機器120は、生成された曲線に対して分割を行うことができる。例えば、計算機器120は、曲線を40個のピクセルの長さの曲線セグメントに分割することができる。一部の実施形態において、曲線セグメントは、検出された車線境界線ポイントに対応することができる。例えば、いくつかのの実施形態において、曲線セグメントは、一つの検出された車線境界線ポイントに対応することができる。他のいくつかのの実施形態において、曲線セグメントは、検出された車線境界線ポイントの集合に対応することができ、このような方法により、全体的な曲線ではなく曲線セグメントをベースに画像に対して後続の処理を行うことにより、各画像処理に必要な計算を減少させることができる。
ブロック445において、計算機器120は、曲線を元画像にマッピングさせて第1の画像を生成する。例えば、上述したように、計算機器120は、元画像200A上の検出された車線境界線上の車線境界線ポイントに対応するピクセルの色を変化させて、検出された車線境界線を表示することにより、第1の画像200Bを生成することができる。具体的に、計算機器120は、元画像200A上の検出された車線境界線上の車線境界線ポイントに対応するピクセルの色を、元画像200Aに表示されていないか、または相対的に少ない色に変化させて元画像200A中の他のグラフィック要素と区別されるように、検出された車線境界線を表示することができる。
プロセス400中の各動作を特定の順序で説明したが、各動作は、説明された順序とは異なる順序で実行されるか、並列に実行されるか、実行を省略することもできることに注意されたい。例えば、いくつかの実施形態において、計算機器120は、元画像200Aに対してグレースケール変換を行った後、生成されたグレースケールのグラフィックについて逆透視変換を行うことができる。他のいくつかのの実施形態において、計算機器120は、画像に対してノイズ低減を行わなくてもよい。
この方法により、第1の画像200Bを簡単かつ効率的に生成することができる。また、第1の画像200Bは、元画像200Aと検出された車線境界線両者の情報とを含むので、環境への光線の干渉が存在する場合、または車線境界線が相対的に複雑なので車線境界線を正確に検出することができない場合でも、元画像200Aにより検出された車線境界線を補充することで、正確性を向上させることができる。
[表記生成過程]
図5は、本発明の一部の実施形態に係る少なくとも一つの表記を生成するプロセス500のフローチャートを示す。プロセス500は、上述したプロセス300中のブロック330の一の例示的実現と見なすことができる。ブロック510において、計算装置120は、第1の画像200Bと第2の画像200Cを比較して、第1の画像200Bと第2の画像200Cがマッチングするか否かを確定する。一部の実施形態において、計算機器120は、第1の画像200Bと第2の画像200Cを比較して、第1の画像200Bと第2の画像200Cとの間の類似度を取得することができる。類似度が所定の閾値を超える場合、計算機器120は、第1の画像200Bと第2の画像200Cがマッチングされると確定することができる。
代替的に、計算機器120は、第1の画像200A上の検出された車線境界線の位置と、第2の画像200Cにマークされた車線境界線の位置とを比較して、第1の画像200Bと第2画像200Cがマッチングするか否かを確定することができる。具体的に、計算機器120は、第1の画像200Bで検出された車線境界線上の車線境界線ポイントのピクセルの座標と、第2の画像200Cにマークされた車線境界線のピクセルの座標とを比較することができる。検出された車線境界線上の車線境界線ポイントのピクセルの座標とマークされた車線境界線のピクセルの座標とが重なる(つまり、対応する座標が同じ)数が所定の閾値を超える場合には、計算機器120は、第1の画像200Bと第2の画像200Cがマッチングされると確定することができる。
他のいくつかのの実施形態において、元画像200A上で車線境界線を表示する曲線の位置と、第1の画像200Bで検出された車線境界線の位置とが対応するので、計算機器120は、元画像200A上の車線境界線を表示する曲線の位置と、第2の画像200Cにマークされた車線境界線の位置を比較することができる。
一部の実施形態において、計算機器120は、第1の画像200Bを第1セットの画像ブロックに分割することができ、ここで、各画像ブロックは、検出された車線境界線の一部分を含む。例えば、いくつかのの実施形態において、上述したように、車線境界線を表示する曲線に対して分割を行う場合に、元画像200A上の曲線セグメントの位置と第1の画像200Bで検出された車線境界線の一部の位置が対応しているので、計算機器120は、曲線セグメントに対応する検出された車線境界線の一部に基づいて、第1の画像200Bを第1セットの画像ブロックに分割することができる。上述したように、いくつかのの実施形態において、曲線セグメントは、検出された車線境界線ポイントに対応することができる。このような場合に、上述した分割方法を、計算機器120が検出された車線境界線ポイントに基づいて第1の画像200Bを第1セットの画像ブロックに分割することで理解することができる。
例えば、計算機器120は、第1の画像200Bで検出された車線境界線の一部の位置を中心に、検出された車線境界線の一部を囲む画像ブロック(部分図とも呼ばれる)を生成することができる。例えば、曲線のセグメントは、40個のピクセルの長さを備える場合に、対応する検出された車線境界線の一部分(例えば、車線境界線ポイントのセット)も40個のピクセルの長さを備え、計算機器120は、検出された車線境界線の一部を中心に、その検出された車線境界線の一部分の周囲のピクセルを選択して、例えば64X64ピクセルの画像ブロックを生成することができる。
他のいくつかのの実施形態において、計算機器120は、第2の画像200Cを第2セットの画像ブロックに分割することができ、ここで、各画像ブロックは、マークされた車線境界線の一部を含む。このような場合に、計算機器120は、第1セットの画像ブロックと第2セットの画像ブロックのうちの対応する画像ブロックを比較して、対応する画像ブロックがマッチングされるか否かを確定することができる。代替的に、計算機器120は、第1セットの画像ブロック中の各画像ブロックが含まれている検出された車線境界線の一部分の位置と、第2のセットの画像ブロックのうちの対応する画像ブロックが含まれているマークされた車線境界線の一部の位置とに対して比較を行うことができる。
例えば、計算機器120は、第1セットの画像ブロック中の各画像ブロックが含まれている検出された車道のところのピクセルの座標、と第2セットの画像ブロックのうちの対応する画像ブロックが含まれているマークされた車線境界線のピクセルの座標とに対して比較を行うことができる。各画像ブロックに対して、当該画像ブロックが含まれている検出された車線境界線ポイントのピクセルの座標と、マークされた車線境界線のピクセルの座標とが重なる(つまり、対応する座標が同じ)数が所定の閾値を超える場合に、計算機器120は、その画像ブロックと第2の画像200Cがマッチングされると確定することができる。
図10Aは、画像ブロック1000Aと第2の画像200Cがマッチングされる概略図を示す。図示されたように、画像ブロック1000Aが含まれている検出された車線境界線ポイント1010Aが、マークされた車線境界線1020A内に位置するようになるので、計算機器120は、その画像ブロックと第2の画像200Cがマッチングされると確定することができる。このような場合に、画像ブロック1000Aを分類器モデルのポジティプサンプルとすることができる。
図10Bは、画像ブロック1000Bと第2の画像200Cがマッチングされない概略図を示す。図示されたように、画像ブロック1000Bは検出された車線境界線ポイントに1010Bを含むが、画像ブロック1000Bが含まれている検出された車線境界線ポイント1010Bはマークされた車線境界線1020Bの外に位置するので、計算機器120は、その画像ブロックと第2の画像200Cがマッチングされていないと確定することができる。このような場合に、画像ブロック1000Bを分類器モデルのネガティブサンプルとすることができる。
代替的に、上述したように、元画像200A上で車線境界線を表示する曲線の位置と、第1の画像200Bで検出された車線境界線の位置が対応しているので、計算機器120は、第1セットの画像ブロックのうちの画像ブロックに対応する曲線セグメントの位置と、第2のセットの画像ブロックのうちの対応する画像ブロックが含まれているマークされた車線境界線の一部分の位置に対して比較を行うことができる。
他のいくつかのの実施形態において、計算機器120は、第2の画像200Cを分割しなく、第1セットの画像ブロックを直接に第2の画像200Cとそれぞれ比較することができる。代替的に、計算機器120は、第1セットの画像ブロック中の各画像ブロックが含まれている検出された車線境界線の一部を、直接に第2の画像200Cとそれぞれ比較を行うことができる。例えば、計算機器120は、第1セットの画像ブロック中の各画像ブロックが含まれている検出された車線境界線のポイントのピクセルの座標を、直接に第2の画像200Cとそれぞれ比較を行うことができる。代替的に、上述したように、元画像200A上で車線境界線を表示する曲線の位置と、第1の画像200Bで検出された車線境界線の位置が対応しているので、計算機器120は、第1セットの画像ブロックのうちの画像ブロックに対応する曲線セグメントの位置を、直接に第2の画像200Cとそれぞれ比較を行うことができる。
第1の画像200Bと第2の画像200Cがマッチングされることを確定した場合、ブロック520において、計算機器120は、検出された車線境界線が正確であること示す少なくとも一つの表記を生成する。例えば、その表記は、第1の画像200Bが分類モデル140のポジティプサンプルであるか、それともネガティブサンプルであるかを示すことができる。ポジティプサンプルは、第1の画像200Bが車線境界線であると検出されることを表示する。ネガティブサンプルは、第1の画像200Bが車線境界線であると検出されていないことを表示する。一部の実施形態において、第1の画像200Bを第1セットの画像ブロックに分割する場合に、計算機器120は、第1セットの画像ブロックのうちのマッチングされた画像ブロックを対象にして、当該画像ブロックに含まれている車線境界線の相応の部分が正確であることを示す表記を生成することができる。
または、ブロック530において、計算機器120は、検出された車線境界線が正確でないことを示す少なくとも一つの表記を生成する。一部の実施形態において、第1の画像200Bを第1セットの画像ブロックに分割する場合に、計算機器120は、第1セットの画像ブロックのうちのマッチングされていない画像のブロックを対象にして、その画像ブロックに含まれている車線境界線の相応の部分が正確でないと示す表記を生成することができる。この方法により、検出された車線境界線が正しいか否かを示す少なくとも一つの表記を簡単かつ効率的に生成することにより、分類器モデルをトレーニングすることを支援することができる。
[車線境界線検出過程]
先に図3~図5を組み合わせて車線境界線検出モデルを生成するためのプロセスのフローチャートを説明した。以下、図6を参考しながら車線境界線を検出するためのプロセス600のフローチャートを説明する。ブロック610において、元画像200Aで車線境界線を検出し、検出された車線境界線に関連する第1の画像200Bを生成する。ブロック610の動作は、上述したブロック310の動作と似ているので、ここでこれに対する詳細な説明を省略する。
ブロック620において、トレーニングされた分類器のモデルに第1の画像200Bを入力して、車線境界線を自動的に認識する。上述したように、トレーニングプロセスで既に第1の画像200Bと、第1の画像200B上の検出された車線境界線が正しいか否かを示す少なくとも一つの表記とを使用して、分類器モデルをトレーニングすることで、分類器モデルで第1画像200Bと、対応する表記との間の関連性を生成した。したがって、適用過程において、分類器モデルは、第1の画像200Bとその関連性に基づいて、第1の画像200Bに対応する表記を生成して、第1の画像200B上の検出された車線境界線が正しいか否かを示すことにより、車線境界線を自動的に認識することができる。この方法を使用して、コンピュータビジョンアルゴリズムと深層学習を結合させたので、簡潔かつ効果的な方法で車線境界線検出を実現することで、高精度地図と自律走行の性能を向上させることができる。
図7は、本発明の実施形態に係る車線境界線検出モデルを生成するための装置700の概略のブロック図を示す。図7に示すように、装置700は、元画像から車線境界線を検出し、検出された車線境界線に関連する第1の画像を生成するように構成された第1の画像生成モジュール710と、元画像に基づいて生成された、マークされた車線境界線に関連する第2の画像を取得するように構成された第2の画像取得モジュール720と、第1の画像と第2画像に基づいて、検出された車線境界線が正しいか否かを示す少なくとも一つの表記を生成するように構成された表記生成モジュール730と、第1の画像と少なくとも一つの表記に基づいて、車線境界線を自動的に認識するための分類器モデルをトレーニングするように構成されたモデルトレーニングモジュール740を含む。
一部の実施形態において、第1の画像生成モジュール710は、前記元画像に対して逆透視変換を行うように構成された逆透視変換モジュールと、逆透視変換された前記元画像から前記車線境界線を検出して前記第1の画像を生成するように構成された逆透視変換済み画像生成モジュールを含む。
一部の実施形態において、第1の画像生成モジュール710は、前記元画像に対してグレースケール変換を行ってグレースケールされた前記元画像を生成するように構成されたグレースケールモジュールと、グレースケール変換された前記元画像に対して二値化を行って二値画像を生成するように構成された二値化モジュールと、前記二値画像において前記車線境界線を検出して前記第1の画像を生成するように構成された二値化済み画像生成モジュールを含む。
一部の実施形態において、第1の画像生成モジュール710は、前記元画像に対してノイズ低減を行ってノイズ低減された画像を生成するように構成されたノイズ低減モジュールと、前記ノイズ低減された画像か、前記車線境界線を検出して前記第1の画像を生成するように構成されたノイズ低減済み画像生成モジュールを含む。
一部の実施形態において、第1の画像生成モジュール710は、前記元画像に輪郭検出を適用して前記車線境界線の輪郭を生成するように構成された輪郭検出モジュールと、前記輪郭に基づいて前記第1の画像を生成するように構成された輪郭検出済み画像生成モジュールを含む。
一部の実施形態において、第1の画像生成モジュール710は、前記輪郭に対して曲線フィッティングを行って、前記車線境界線を表示する曲線を生成するように構成された曲線フィッティングモジュールと、前記曲線を前記元画像にマッピングさせて前記第1の画像を生成するように構成された曲線フィッティング済み画像生成モジュールを含む。
一部の実施形態において、表記生成モジュール730は、前記第1の画像を、前記検出された車線境界線の一部を含む第1セットの画像ブロックにそれぞれ分割するように構成された第1の画像分割モジュールと、前記第2の画像を、前記マークされた車線境界線の一部を含む第2セットの画像ブロックにそれぞれ分割するように構成された第2の画像の分割モジュールと、前記第1セットの画像ブロックと前記第2セットの画像ブロックのうちの対応する画像ブロックを比較して、前記検出された車線境界線の複数の部分を対象とする複数の表記を生成するように構成されたローカル表記生成モジュールであって、各表記は、前記検出された車線境界線の相応する部分が正しいか否かを示すものである、ローカル表記生成モジュールを含む。
図8は、本発明の実施形態に係る車線境界線を検出するための装置800の概略のブロック図を示す。図8に示すように、装置800は、元画像から車線境界線を検出し、検出された車線境界線に関連する第1の画像を生成するように構成された第1の画像生成モジュール810と、第1の画像をトレーニングされた分類器のモデルに入力して、車線境界線を自動的に認識するように構成されたモデル適用モジュール820を含む。
図9は、本発明の複数の実施形態を実施することができる機器900のブロック図を示す。機器900は、図1のコンピューティング機器120を実現するのに使用することができる。図示されたように、機器900は、中央処理ユニット901(CPU)を含み、CPU901は、読み取り専用メモリ902(ROM)に記憶されたコンピュータプログラム指令、または記憶ユニット908からランダムアクセスメモリ903(RAM)にロードされたコンピュータプログラム指令に基づいて、各種の適切な動作と処理を実行することができる。RAM903には、機器900の動作に必要な各種のプログラムやデータが記憶されることができる。CPU901、ROM902とRAM903、バス904を介して互いに接続される。入力/出力(I/O)インターフェース905もバス904に接続される。
機器900中のI/Oインタフェース905に接続されている複数の部品として、キーボード、マウスなどの入力ユニット906と、様々なタイプの表示装置、スピーカーなどの出力ユニット907と、磁気ディスク、コンパクトディスクなどの記憶ユニット908と、LANカード、モデム、無線通信トランシーバなどの通信ユニット909が含まれる。通信ユニット909は、機器900がインターネットなどのコンピュータネットワークおよび/または各種の電気通信網を介して他の機器と情報/データを交換することを可能にする。
中央処理ユニット901は、前述した各方法と処理、例えば、プロセス300、400、500および/または600を実行する。例えば、いくつかのの実施形態において、プロセス300、400、500および/または600は、コンピュータソフトウェアプログラムとして実現されることができ、これはコンピュータ読み取り可能な記憶媒体(例えば、記憶ユニット908)に含まれている。一部の実施形態において、コンピュータプログラムの一部または全部は、ROM902、および/または通信ユニット909を経由して機器900上にロードおよび/またはインストールすることができる。コンピュータプログラムは、RAM903にロードされてCPU901により実行される場合、前述した、プロセス300、400、500および/または600の1つまたは複数のステップを実行することができる。選択可能に、その他の実施形態において、CPU901は、の任意の適切な方法で(例えば、ファームウェアの助けを借りて)プロセス300、400、500および/または600を実行するように構築することができる。
本明細書に説明されて複数の機能は、少なくとも部分的に1つまたは複数のハードウェアロジック部材で実行することができる。例えば、使用可能な模式的なタイプのハードウェアロジック部材は、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、オンデマンド標準製品(ASSP)、システム-オン-チップシステム(SOC)、複合プログラマブルロジック素子(CPLD)などを含むが、これに限定されない。
本発明の方法を実施するためのプログラムコードは、1つまたは複数のプログラマブル言語の任意の組み合わせを利用してプログラミングすることができる。これらのプログラムコードは、汎用コンピュータ、オンデマンドコンピュータ又はその他のプログラマブルデータ処理装置のプロセッサまたは制御装置に提供されることができ、プログラムコードがプロセッサまたは制御装置により実行される場合には、フローチャート、および/またはブロック図に規定された機能/操作が実施される。プログラムコードは、完全に機械上で実行されるか、部分的に機械上で実行されるか、独立したソフトウェアパッケージとして部分的に機械上で実行されて、部分的にリモートマシン上で実行されたり、または完全にリモートマシンまたはサービスで実行されることができる。
本発明の文脈において、コンピュータ読み取り可能な記憶媒体は、あるタイプの媒体であることができ、コマンドを実行するシステム、装置又は機器によって使用されるか、またはコマンドの実行システム、装置または機器と組み合わせて使用されるプログラムを含むまたは記憶することができる。コンピュータ読み取り可能な記憶媒体は、電子、磁気、光学、電磁、赤外線または半導体システム、装置、または機器、または前述した内容の任意の適切な組み合わせを含むことができるが、これに限定されない。コンピュータ読み取り可能な記憶媒体のより具体的な例は、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去およびプログラム可能な読み取り専用メモリ(EPROMまたはフラッシュメモリ)、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学ストレージ装置、磁気記憶装置、または前述した内容の任意の適切な組み合わせを含むことができるが、これに限定されない。
また、特定の順序を利用して、各操作説明したが、これはこのような操作が図示された特定の順序またはシーケンスで実行されることを要求したり、目的の結果を実現するために図示されたすべての操作が実行されることを要求すると理解してはならない。一定の環境において、マルチタスクと並列処理は、有利であることができる。同様に、上記説明に様々な具体的な実現の詳細が含まれているが、これらは本発明の範囲の限定と解釈してはならない。別の実施形態の文脈で説明されたいくつかの特徴は、組み合わせの方法で一つの実施形態で実現されることができる。逆に、一つの実施形態の記載で説明された各種の特徴も個別にまたは任意の適切な組み合わせの方法で複数の実施形態で実現されることもできる。
構造の特徴および/または方法のロジックの動作に固有の言語を使用して本主題を説明したが、特許請求の範囲に限定された主題は、必ずしも前述した特定の特徴または動作に限定されるべきではないことを理解すべきである。逆に、前述した特定の特徴または動作は、単に特許請求の範囲を実現する例示的形式である。

Claims (20)

  1. 計算機器が車線境界線検出モデルを生成するための方法であって、
    収集装置で撮像された画像である元画像から、コンピュータビジョンアルゴリズムの手法を使用して車線境界線を検出し、検出された車線境界線を前記元画像に表示することにより、第1の画像を生成するステップと、
    前記元画像の車線境界線とその他のグラフィック要素とが区別されるようにマークされた車線境界線のみを含む第2の画像を生成するステップと、
    前記第1の画像と前記第2の画像とがマッチングするか否かに基づいて、前記検出された車線境界線が正しいことを示す表記または正しくないことを示す表記を生成するステップと、
    前記第1の画像と前記検出された車線境界線が正しいことを示す表記または正しくないことを示す表記に基づいて、前記検出された車線境界線が正しいことを示す表記が付けられた前記第1の画像を出力することにより、前記車線境界線を自動的に認識するための分類器(classifier)モデルをトレーニングするステップとを含む車線境界線検出モデルを生成するための方法。
  2. 請求項1において、
    前記第1の画像を生成するステップは、
    前記元画像に対して逆透視変換(inverse perspective mapping)を行うステップと、
    逆透視変換された前記元画像から前記車線境界線を検出し、検出された車線境界線を前記元画像に表示することにより、前記第1の画像を生成するステップとを含む車線境界線検出モデルを生成するための方法。
  3. 請求項1において、
    前記第1の画像を生成するステップは、
    前記元画像に対してグレースケール変換を行って、グレースケール変換された前記元画像を生成するステップであって、グレースケール変換は、画像の色を除去し、単に画像の明るさだけを保留することであるステップと、
    グレースケール変換された前記元画像に対して二値化処理を行って二値画像を生成するステップと、
    前記二値画像から前記車線境界線を検出し、検出された車線境界線を前記元画像に表示することにより、前記第1の画像を生成するステップとを含む車線境界線検出モデルを生成するための方法。
  4. 請求項1において、
    前記第1の画像を生成するステップは、
    前記元画像に対してノイズ低減処理を行って、ノイズ低減処理された画像を生成するステップと、
    前記ノイズ低減処理された画像から前記車線境界線を検出し、検出された車線境界線を前記元画像に表示することにより、前記第1の画像を生成するステップとを含む車線境界線検出モデルを生成するための方法。
  5. 請求項1において、
    前記第1の画像を生成するステップは、
    前記元画像に輪郭検出を適用して前記車線境界線の輪郭を生成するステップと、
    前記輪郭に基づいて前記第1の画像を生成するステップとを含み、
    前記輪郭に基づいて前記第1の画像を生成するステップは、
    前記輪郭に対して曲線フィッティング(curve fitting)を行って、前記車線境界線を表示する曲線を生成するステップと、
    前記曲線を前記元画像にマッピングさせて前記第1の画像を生成するステップとを含む車線境界線検出モデルを生成するための方法。
  6. 請求項1において、
    前記検出された車線境界線が正しいことを示す表記または正しくないことを示す表記を生成するステップは、
    前記第1の画像を、前記検出された車線境界線の一部を含む第1セットの画像ブロックにそれぞれ分割するステップと、
    前記第2の画像を、前記マークされた車線境界線の一部を含む第2セットの画像ブロックにそれぞれ分割するステップと、
    前記第1セットの画像ブロックと前記第2セットの画像ブロックのうちの対応する画像ブロックを比較して、前記検出された車線境界線の複数の部分を対象とする複数の表記を生成するステップであって、各表記は、前記検出された車線境界線の相応する部分が正しいか否かを示すものである、ステップとを含む車線境界線検出モデルを生成するための方法。
  7. 計算機器が車線境界線を検出するための方法であって、
    収集装置で撮像された画像である元画像から、コンピュータビジョンアルゴリズムの手法を使用して車線境界線を検出し、検出された車線境界線を前記元画像に表示することにより、第1の画像を生成するステップと、
    前記第1の画像を請求項1から請求項6に記載の車線境界線検出モデルを生成するための方法によって生成された分類器モデルに入力るステップとを含む車線境界線を検出するための方法。
  8. 車線境界線検出モデルを生成するための装置であって、
    収集装置で撮像された画像である元画像から、コンピュータビジョンアルゴリズムの手法を使用して車線境界線を検出し、検出された車線境界線を前記元画像に表示することにより、第1の画像を生成するように構成された第1の画像生成モジュールと、
    前記元画像の車線境界線とその他のグラフィック要素とが区別されるようにマークされた車線境界線のみを含む第2の画像を生成するように構成された第2の画像取得モジュールと、
    前記第1の画像と前記第2の画像とがマッチングするか否かに基づいて、前記検出された車線境界線が正しいことを示す表記または正しくないことを示す表記を生成するように構成された表記生成モジュールと、
    前記第1の画像と前記検出された車線境界線が正しいことを示す表記または正しくないことを示す表記に基づいて、前記検出された車線境界線が正しいことを示す表記が付けられた前記第1の画像を出力することにより、前記車線境界線を自動的に認識するための分類器モデルをトレーニングするように構成されたモデルトレーニングモジュールとを含む車線境界線検出モデルを生成するための装置。
  9. 請求項8において、
    前記第1の画像生成モジュールは、
    前記元画像に対して逆透視変換を行うように構成された逆透視変換モジュールと、
    逆透視変換された前記元画像から前記車線境界線を検出し、検出された車線境界線を前記元画像に表示することにより、前記第1の画像を生成するように構成された逆透視変換済み画像生成モジュールとを含む車線境界線検出モデルを生成するための装置。
  10. 請求項8において、
    前記第1の画像生成モジュールは、
    前記元画像に対してグレースケール変換を行って、グレースケール変換された前記元画像を生成するように構成されたグレースケールモジュールであって、グレースケール変換は、画像の色を除去し、単に画像の明るさだけを保留することであるモジュールと、
    グレースケール変換された前記元画像に対して二値化を行って二値画像を生成するように構成された二値化モジュールと、
    前記二値画像から前記車線境界線を検出し、検出された車線境界線を前記元画像に表示することにより、前記第1の画像を生成するように構成された二値化済み画像生成モジュールとを含む車線境界線検出モデルを生成するための装置。
  11. 請求項8において、
    前記第1の画像生成モジュールは、
    前記元画像に対してノイズ低減処理を行って、ノイズ低減処理された画像を生成するように構成されたノイズ低減モジュールと、
    前記ノイズ低減処理された画像から、前記車線境界線を検出し、検出された車線境界線を前記元画像に表示することにより、前記第1の画像を生成するように構成されたノイズ低減済み画像生成モジュールとを含む車線境界線検出モデルを生成するための装置。
  12. 請求項8において、
    前記第1の画像生成モジュールは、
    前記元画像に輪郭検出を適用して前記車線境界線の輪郭を生成するように構成された輪郭検出モジュールと、
    前記輪郭に基づいて前記第1の画像を生成するように構成された輪郭検出済み画像生成モジュールと、
    前記輪郭に対して曲線フィッティングを行って、前記車線境界線を表示する曲線を生成するように構成された曲線フィッティングモジュールと、
    前記曲線を前記元画像にマッピングさせて前記第1の画像を生成するように構成された曲線フィッティング済み画像生成モジュールとを含む、
    車線境界線検出モデルを生成するための装置。
  13. 請求項8において、
    前記表記生成モジュールは、
    前記第1の画像を、前記検出された車線境界線の一部を含む第1セットの画像ブロックにそれぞれ分割するように構成された第1の画像分割モジュールと、
    前記第2の画像を、前記マークされた車線境界線の一部を含む第2セットの画像ブロックにそれぞれ分割するように構成された第2の画像の分割モジュールと、
    前記第1セットの画像ブロックと前記第2セットの画像ブロックのうちの対応する画像ブロックを比較して、前記検出された車線境界線の複数の部分を対象とする複数の表記を生成するように構成されたローカル表記生成モジュールであって、各表記は、前記検出された車線境界線の相応する部分が正しいか否かを示すものである、ローカル表記生成モジュールとを含む車線境界線検出モデルを生成するための装置。
  14. 車線境界線を検出するための装置であって、
    収集装置で撮像された画像である元画像から、コンピュータビジョンアルゴリズムの手法を使用して車線境界線を検出し、検出された車線境界線を前記元画像に表示することにより、第1の画像を生成するように構成された第1の画像生成モジュールと、
    前記第1の画像を請求項1から請求項7に記載の分類器モデルに入力るように構成されたモデル適用モジュールとを含む車線境界線を検出するための装置。
  15. 1つまたは複数のプロセッサと、
    1つまたは複数のプログラムを格納するための記憶装置とを含む機器であって、
    前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行される場合、前記1つまたは複数のプロセッサが請求項1から請求項6のうちいずれか1項の方法を実現する機器。
  16. 1つまたは複数のプロセッサと、
    1つまたは複数のプログラムを格納するための記憶装置とを含む機器であって、
    前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行される場合、前記1つまたは複数のプロセッサが請求項7の方法を実現する機器。
  17. コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行される場合、請求項1から請求項6のうち何れか1項の方法を実現するコンピュータ読み取り可能な記憶媒体。
  18. コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行される場合、請求項7の方法を実現するコンピュータ読み取り可能な記憶媒体。
  19. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサにより実行されると、請求項1から請求項6のうち何れか1項の方法を実現させるコンピュータプログラム。
  20. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサにより実行されると、請求項7の方法を実現させるコンピュータプログラム。
JP2018242720A 2017-12-29 2018-12-26 車線境界線検出モデルを生成するための方法、車線境界線を検出するための方法、車線境界線検出モデルを生成するための装置、車線境界線を検出するための装置、機器、コンピュータ読み取り可能な記憶媒体およびコンピュータプログラム Active JP7073247B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201711485383.6A CN108229386B (zh) 2017-12-29 2017-12-29 用于检测车道线的方法、装置和介质
CN201711485383.6 2017-12-29

Publications (2)

Publication Number Publication Date
JP2019135643A JP2019135643A (ja) 2019-08-15
JP7073247B2 true JP7073247B2 (ja) 2022-05-23

Family

ID=62647366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018242720A Active JP7073247B2 (ja) 2017-12-29 2018-12-26 車線境界線検出モデルを生成するための方法、車線境界線を検出するための方法、車線境界線検出モデルを生成するための装置、車線境界線を検出するための装置、機器、コンピュータ読み取り可能な記憶媒体およびコンピュータプログラム

Country Status (5)

Country Link
US (1) US10846543B2 (ja)
EP (1) EP3506156A1 (ja)
JP (1) JP7073247B2 (ja)
KR (1) KR102379287B1 (ja)
CN (1) CN108229386B (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108256446B (zh) * 2017-12-29 2020-12-11 百度在线网络技术(北京)有限公司 用于确定道路中的车道线的方法、装置和设备
CN110858405A (zh) * 2018-08-24 2020-03-03 北京市商汤科技开发有限公司 车载摄像头的姿态估计方法、装置和系统及电子设备
US10223614B1 (en) * 2018-09-04 2019-03-05 StradVision, Inc. Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same
US11068724B2 (en) * 2018-10-11 2021-07-20 Baidu Usa Llc Deep learning continuous lane lines detection system for autonomous vehicles
CN109470254B (zh) * 2018-10-31 2020-09-08 百度在线网络技术(北京)有限公司 地图车道线的生成方法、装置、系统及存储介质
WO2020139355A1 (en) * 2018-12-27 2020-07-02 Didi Research America, Llc System for automated lane marking
CN110135302B (zh) 2019-04-30 2021-08-31 百度在线网络技术(北京)有限公司 训练车道线识别模型的方法、装置、设备和存储介质
CN112215041B (zh) * 2019-07-11 2024-05-31 广州汽车集团股份有限公司 一种端到端车道线检测方法及其系统
CN110516550B (zh) * 2019-07-26 2022-07-05 电子科技大学 一种基于fpga的车道线实时检测方法
CN110796003B (zh) * 2019-09-24 2022-04-26 成都旷视金智科技有限公司 车道线检测方法、装置及电子设备
CN112785595B (zh) * 2019-11-07 2023-02-28 北京市商汤科技开发有限公司 目标属性检测、神经网络训练及智能行驶方法、装置
CN111114544A (zh) * 2019-11-25 2020-05-08 福瑞泰克智能系统有限公司 一种补偿车道线确定方法、装置、可移动设备及存储介质
CN111583341B (zh) * 2020-04-30 2023-05-23 中远海运科技股份有限公司 云台像机移位检测方法
CN111597995B (zh) * 2020-05-15 2023-04-28 汇智机器人科技(深圳)有限公司 一种车道标记线检测方法、系统、以及存储介质
US20220042258A1 (en) * 2020-08-07 2022-02-10 LimnTech LLC Machine learning based roadway striping apparatus and method
CN116670001A (zh) 2020-12-10 2023-08-29 三菱电机株式会社 驾驶辅助控制装置及驾驶辅助控制方法
US11636693B2 (en) * 2021-01-20 2023-04-25 Qualcomm Incorporated Robust lane-boundary association for road map generation
CN112733793A (zh) * 2021-01-22 2021-04-30 北京嘀嘀无限科技发展有限公司 检测公交车道的方法、装置、电子设备和存储介质
CN113192001B (zh) * 2021-03-19 2022-04-19 易思维(杭州)科技有限公司 曲线状待测物视觉检测结果的显示方法
CN116071284A (zh) * 2021-10-25 2023-05-05 北京图森智途科技有限公司 交通标志物检测方法和交通标志物检测模型的训练方法
TWI832591B (zh) * 2022-11-30 2024-02-11 鴻海精密工業股份有限公司 車道線檢測方法、電腦設備及儲存介質

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046235A (zh) 2015-08-03 2015-11-11 百度在线网络技术(北京)有限公司 车道线的识别建模方法和装置、识别方法和装置

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4414959B2 (ja) * 2005-11-16 2010-02-17 アイシン精機株式会社 駐車支援装置
US8098889B2 (en) * 2007-01-18 2012-01-17 Siemens Corporation System and method for vehicle detection and tracking
JP5014237B2 (ja) * 2008-04-23 2012-08-29 本田技研工業株式会社 レーンマーカ認識装置、車両、及びレーンマーカ認識用プログラム
US8751154B2 (en) * 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US8965700B2 (en) * 2008-10-02 2015-02-24 Certusview Technologies, Llc Methods and apparatus for generating an electronic record of environmental landmarks based on marking device actuations
KR101163446B1 (ko) * 2009-03-18 2012-07-18 기아자동차주식회사 가상 차선을 이용하는 차선 이탈 경보 방법 및 그에 따른 시스템
CN102275558B (zh) * 2010-06-12 2013-01-23 财团法人车辆研究测试中心 双视觉前车安全警示装置及其方法
US20140118552A1 (en) * 2011-06-13 2014-05-01 Taku Takahama Road shape determining device, in-vehicle image recognizing device, imaging axis adjusting device, and lane recognizing method
JPWO2013015021A1 (ja) * 2011-07-25 2015-02-23 本田技研工業株式会社 車両の運転支援装置
KR101818542B1 (ko) * 2011-07-26 2018-02-22 현대모비스 주식회사 차선 인식 신뢰도 향상 시스템 및 그 방법
US8589071B2 (en) * 2011-08-15 2013-11-19 Honeywell International Inc. Aircraft vision system including a runway position indicator
US9298991B2 (en) * 2012-01-17 2016-03-29 LimnTech LLC GPS-based machine vision roadway mark locator, inspection apparatus, and marker
US9784843B2 (en) * 2012-01-17 2017-10-10 Limn Tech LLC Enhanced roadway mark locator, inspection apparatus, and marker
US8935057B2 (en) * 2012-01-17 2015-01-13 LimnTech LLC Roadway mark data acquisition and analysis apparatus, systems, and methods
KR101333459B1 (ko) * 2012-02-21 2013-11-26 영남대학교 산학협력단 차선 인식 방법 및 장치
KR20140103441A (ko) * 2013-02-18 2014-08-27 주식회사 만도 시선 유도 반사체를 이용한 차선 인식 방법 및 시스템
CN105074793A (zh) * 2013-03-15 2015-11-18 凯利普公司 用于车辆路径规划和交通管理的车道级车辆导航
JP6142784B2 (ja) * 2013-11-27 2017-06-07 株式会社デンソー 運転支援装置
EP4254383A3 (en) * 2014-08-18 2023-12-20 Mobileye Vision Technologies Ltd. Recognition and prediction of lane constraints
CN113654561A (zh) * 2014-12-05 2021-11-16 苹果公司 自主导航系统
JP6485732B2 (ja) * 2014-12-10 2019-03-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム
CN105774901B (zh) * 2014-12-26 2019-01-29 比亚迪股份有限公司 车道保持控制系统及方法及车辆
CN104657727B (zh) * 2015-03-18 2018-01-02 厦门麦克玛视电子信息技术有限公司 一种车道线的检测方法
CN104766058B (zh) * 2015-03-31 2018-04-27 百度在线网络技术(北京)有限公司 一种获取车道线的方法和装置
EP3098753A1 (en) * 2015-05-28 2016-11-30 Tata Consultancy Services Limited Lane detection
CN105069415B (zh) * 2015-07-24 2018-09-11 深圳市佳信捷技术股份有限公司 车道线检测方法和装置
US9721472B2 (en) * 2015-09-22 2017-08-01 Ford Global Technologies, Llc Formulating lane level routing plans
CN105574527B (zh) * 2015-12-14 2019-03-29 北京工业大学 一种基于局部特征学习的快速物体检测方法
CN105631880B (zh) * 2015-12-31 2019-03-22 百度在线网络技术(北京)有限公司 车道线分割方法和装置
CN105654067A (zh) * 2016-02-02 2016-06-08 北京格灵深瞳信息技术有限公司 一种车辆检测方法及装置
CN105760835B (zh) * 2016-02-17 2018-03-06 银河水滴科技(北京)有限公司 一种基于深度学习的步态分割与步态识别一体化方法
CN105930791B (zh) * 2016-04-19 2019-07-16 重庆邮电大学 基于ds证据理论的多摄像头融合的路面交通标志识别方法
US10007854B2 (en) * 2016-07-07 2018-06-26 Ants Technology (Hk) Limited Computer vision based driver assistance devices, systems, methods and associated computer executable code
US10102435B2 (en) * 2016-08-10 2018-10-16 Omnivision Technologies, Inc. Lane departure warning system and associated methods
KR101896778B1 (ko) * 2016-10-06 2018-09-07 현대자동차주식회사 아웃사이드 미러를 이용한 차선 표시 장치 및 그 방법
EP3532801B1 (en) * 2016-10-31 2020-12-16 Mobileye Vision Technologies Ltd. Systems and methods for navigating lane merges and lane splits
CN106529493B (zh) * 2016-11-22 2019-12-20 北京联合大学 一种基于透视图的鲁棒性多车道线检测方法
CN106778551B (zh) * 2016-11-30 2020-07-31 南京理工大学 一种高速路段及城市道路车道线识别方法
CN108168566B (zh) * 2016-12-07 2020-09-04 北京三快在线科技有限公司 道路确定方法、装置及电子设备
WO2018111297A1 (en) * 2016-12-16 2018-06-21 Hitachi Automotive Systems, Ltd. Road detection using traffic sign information
JP6583252B2 (ja) * 2016-12-27 2019-10-02 トヨタ自動車株式会社 運転支援装置
CN106778668B (zh) * 2016-12-30 2019-08-09 明见(厦门)技术有限公司 一种联合ransac和cnn的鲁棒的车道线检测方法
CN106874905B (zh) * 2017-01-12 2019-06-11 中南大学 一种基于自学习色彩聚类的自然场景文本检测的方法
CN106874712B (zh) * 2017-01-13 2019-01-29 天津大学 一种基于池化时间序列特征表示的细胞分裂事件识别方法
JP6494121B2 (ja) * 2017-03-01 2019-04-03 本田技研工業株式会社 車線変更推定装置、車線変更推定方法、およびプログラム
CN107045629B (zh) * 2017-04-19 2020-06-26 南京理工大学 一种多车道线检测方法
US10210411B2 (en) * 2017-04-24 2019-02-19 Here Global B.V. Method and apparatus for establishing feature prediction accuracy
CN107392103B (zh) * 2017-06-21 2020-06-26 海信集团有限公司 路面车道线的检测方法及装置、电子设备
US10296795B2 (en) * 2017-06-26 2019-05-21 Here Global B.V. Method, apparatus, and system for estimating a quality of lane features of a roadway
TWI657950B (zh) * 2017-07-19 2019-05-01 緯創資通股份有限公司 指示物件的輔助辨識裝置與其之輔助識別及顯示方法
US11009884B2 (en) * 2017-09-29 2021-05-18 Direct Current Capital LLC Method for calculating nominal vehicle paths for lanes within a geographic region
JP7000822B2 (ja) * 2017-12-06 2022-01-19 株式会社アイシン 周辺監視装置
US10782419B2 (en) * 2017-12-07 2020-09-22 Westinghouse Air Brake Technologies Corporation Method to determine clearance of an obstacle
US10275689B1 (en) * 2017-12-21 2019-04-30 Luminar Technologies, Inc. Object identification and labeling tool for training autonomous vehicle controllers
US10997433B2 (en) * 2018-02-27 2021-05-04 Nvidia Corporation Real-time detection of lanes and boundaries by autonomous vehicles

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046235A (zh) 2015-08-03 2015-11-11 百度在线网络技术(北京)有限公司 车道线的识别建模方法和装置、识别方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Bei He 他3名,Accurate and Robust Lane Detection based on Dual-View Convolutional Neural Network,2016 IEEE Intelligent Vehicles Symposium (IV),2016年,1041-1046,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7535517

Also Published As

Publication number Publication date
US20190205664A1 (en) 2019-07-04
KR102379287B1 (ko) 2022-03-25
JP2019135643A (ja) 2019-08-15
CN108229386A (zh) 2018-06-29
CN108229386B (zh) 2021-12-14
US10846543B2 (en) 2020-11-24
KR20190088387A (ko) 2019-07-26
EP3506156A1 (en) 2019-07-03

Similar Documents

Publication Publication Date Title
JP7073247B2 (ja) 車線境界線検出モデルを生成するための方法、車線境界線を検出するための方法、車線境界線検出モデルを生成するための装置、車線境界線を検出するための装置、機器、コンピュータ読み取り可能な記憶媒体およびコンピュータプログラム
US11017244B2 (en) Obstacle type recognizing method and apparatus, device and storage medium
Keller et al. A new benchmark for stereo-based pedestrian detection
US11475681B2 (en) Image processing method, apparatus, electronic device and computer readable storage medium
US20210158699A1 (en) Method, device, readable medium and electronic device for identifying traffic light signal
WO2017041396A1 (zh) 一种车道线数据的处理方法、装置、存储介质及设备
Kanagaraj et al. Deep learning using computer vision in self driving cars for lane and traffic sign detection
US20230005278A1 (en) Lane extraction method using projection transformation of three-dimensional point cloud map
EP3620945A1 (en) Obstacle distribution simulation method, device and terminal based on multiple models
CN112418216A (zh) 一种复杂自然场景图像中的文字检测方法
CN108197567B (zh) 用于图像处理的方法、装置和计算机可读介质
CN111414826A (zh) 一种地标箭头的识别方法、设备及存储介质
Hatolkar et al. A survey on road traffic sign recognition system using convolution neural network
de Carvalho et al. Bounding box-free instance segmentation using semi-supervised iterative learning for vehicle detection
Shao et al. Semantic segmentation for free space and lane based on grid-based interest point detection
CN111210411B (zh) 图像中灭点的检测方法、检测模型训练方法和电子设备
Al Mamun et al. Efficient lane marking detection using deep learning technique with differential and cross-entropy loss.
CN113449629B (zh) 基于行车视频的车道线虚实识别装置、方法、设备及介质
CN115311634A (zh) 一种基于模板匹配的车道线跟踪方法、介质以及设备
CN114997264A (zh) 训练数据生成、模型训练及检测方法、装置及电子设备
CN114419564A (zh) 车辆位姿检测方法、装置、设备、介质及自动驾驶车辆
CN110705695B (zh) 搜索模型结构的方法、装置、设备和存储介质
Li et al. Two-stage hough transform algorithm for lane detection system based on tms320dm6437
CN114581876A (zh) 构建复杂场景下车道检测模型的方法和检测车道线方法
CN112819953A (zh) 三维重建方法、网络模型训练方法、装置及电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200805

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201105

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210803

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211129

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211129

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20220201

C12 Written invitation by the commissioner to file intermediate amendments

Free format text: JAPANESE INTERMEDIATE CODE: C12

Effective date: 20220201

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220221

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220506

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220511

R150 Certificate of patent or registration of utility model

Ref document number: 7073247

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150