JP6572345B2 - 車線検出のための方法及び装置 - Google Patents

車線検出のための方法及び装置 Download PDF

Info

Publication number
JP6572345B2
JP6572345B2 JP2018092378A JP2018092378A JP6572345B2 JP 6572345 B2 JP6572345 B2 JP 6572345B2 JP 2018092378 A JP2018092378 A JP 2018092378A JP 2018092378 A JP2018092378 A JP 2018092378A JP 6572345 B2 JP6572345 B2 JP 6572345B2
Authority
JP
Japan
Prior art keywords
neural network
pixel point
model
output
road image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018092378A
Other languages
English (en)
Other versions
JP2019102049A (ja
Inventor
歓 田
歓 田
駿 胡
駿 胡
帥 程
帥 程
威 劉
威 劉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neusoft Reach Automotive Technology Shanghai Co Ltd
Original Assignee
Neusoft Reach Automotive Technology Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neusoft Reach Automotive Technology Shanghai Co Ltd filed Critical Neusoft Reach Automotive Technology Shanghai Co Ltd
Publication of JP2019102049A publication Critical patent/JP2019102049A/ja
Application granted granted Critical
Publication of JP6572345B2 publication Critical patent/JP6572345B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、画像処理の技術分野、特に車線検出のための方法及び装置に関する。
自動車の運転の分野に知能システムが適用される中で、ますます多くの自動車が自動運転又は補助運転を可能にする知能システムを装備されている。自動運転又は補助運転を実現するために、自動車上の知能システムは通常、自動車の周囲の道路の道路画像から車線を検出する必要があり、それにより自動車の周囲の運転車線を決定して運転を誘導する。マシンラーニングモデルとして、ニューラルネットワークが車線検出技術に適用されている。しかしながら、ニューラルネットワークに基づく検出スキームにおいて、すべての車線が正確に検出できるわけではなく、また特に、不完全な車線、部分的に重なっている車線、又は極端に光量の変化する環境下の車線の場合に、車線は正確にかつ効果的に検出されることができない。
車線を検出するための方法及び装置であって、道路画像の各ピクセル点の画像特徴は画像処理において保存されることができ、それにより不完全な車線、部分的に重なっている車線、又は極端に光量の変化する環境下の車線といった車線を正確にかつ効果的に検出する、方法及び装置が提供される。
第1の様相において、本開示の実施形態により、車線を検出するための方法が提供される。方法は、
自動車の周囲の道路の現在の道路画像を取得するステップ、及び、
前記現在の道路画像をディープラーニングモデルに入力し、前記ディープラーニングモデルから出力された結果に基づいて前記現在の道路画像の車線領域を検出する、ステップを含み、
前記ディープラーニングモデルは、過去の道路画像及び前記過去の道路画像中の既知の車線領域の間の対応関係に基づいて訓練されており、
前記ディープラーニングモデルは第1のモデルユニット及び第2のモデルユニットを含み、かつ前記第1のモデルユニットの出力は前記第2のモデルユニットの入力の役割を果たし、
前記第1のモデルユニットは少なくとも1つの第1のモデルサブユニットを含み、前記第1のモデルサブユニットは畳み込みニューラルネットワーク及び第1の再帰型ニューラルネットワークを含み、前記畳み込みニューラルネットワークの出力は前記第1の再帰型ニューラルネットワークの入力の役割を果たし、並びに、
前記第2のモデルユニットは少なくとも1つの第2のモデルサブユニットを含み、前記第2のモデルサブユニットは逆畳み込みニューラルネットワーク及び第2の再帰型ニューラルネットワークを含み、前記逆畳み込みニューラルネットワークの出力は前記第2の再帰型ニューラルネットワークの入力の役割を果たす、
方法である。
いくつかの実施形態では、第1の再帰型ニューラルネットワーク及び第2の再帰型ニューラルネットワークの各々は、双方向長・短期記憶ネットワークであってよい。
いくつかの実施形態では、現在の道路画像の各ピクセル点に対して、前記ピクセル点に対する畳み込みニューラルネットワークの出力結果及び、前記ピクセル点の近傍内の複数のピクセル点に対する畳み込みニューラルネットワークの出力結果により、第1のシーケンスが形成され、第1の再帰型ニューラルネットに入力され、並びに、
現在の道路画像の各ピクセル点に対して、前記ピクセル点に対する逆畳み込みニューラルネットワークの出力結果及び、前記ピクセル点の近傍内の複数のピクセル点に対する逆畳み込みニューラルネットワークの出力結果により第2のシーケンスが形成され、第2の再帰型ニューラルネットに入力される。
いくつかの実施形態では、ディープラーニングモデルはさらに第3の再帰型ニューラルネットワークを含んでよく、
現在の道路画像及び最近様々な時刻において取得された道路画像を含む、複数の道路画像を処理することで第2のモデルユニットにより出力された結果から、第3の再帰型ニューラルネットワークに入力される第3のシーケンスが形成される。
第2の様相において、本開示の実施形態により、車線を検出するための装置が提供される。前記装置は、
自動車の周囲の道路の現在の道路画像を取得するよう設定された画像取得モジュールと、及び、
前記現在の道路画像をディープラーニングモデルに入力し、前記ディープラーニングモデルから出力された結果に基づいて、前記現在の道路画像における車線領域を検出するよう設定されたモデル処理モジュールと、を含み、
ディープラーニングモデルは、過去の道路画像及び前記過去の道路画像中の既知の車線領域の間の対応関係に基づいて訓練された、モデルであり、
ディープラーニングモデルは第1のモデルユニット及び第2のモデルユニットを含み、前記第1のモデルユニットの出力は前記第2のモデルユニットの入力の役割を果たし、
前記第1のモデルユニットは少なくとも1つの第1のモデルサブユニットを含み、前記第1のモデルサブユニットは畳み込みニューラルネットワーク及び第1の再帰型ニューラルネットワークを含み、前記畳み込みニューラルネットワークの出力は前記第1の再帰型ニューラルネットワークの入力の役割を果たし、
前記第2のモデルユニットは少なくとも1つの第2のモデルサブユニットを含み、前記第2のモデルサブユニットは逆畳み込みニューラルネットワーク及び第2の再帰型ニューラルネットワークを含み、前記逆畳み込みニューラルネットワークの出力は前記第2の再帰型ニューラルネットワークの入力の役割を果たす、
装置である。
いくつかの実施形態では、第1の再帰型ニューラルネットワーク及び第2の再帰型ニューラルネットワークの各々は、双方向長・短期記憶ネットワークであってよい。
いくつかの実施形態では、現在の道路画像の各ピクセル点に対して、そのピクセル点に対する畳み込みニューラルネットワークの出力結果及び、そのピクセル点に近接するピクセル点に対する畳み込みニューラルネットワークの出力結果により第1のシーケンスが形成され、第1の再帰型ニューラルネットに入力され、並びに、
現在の道路画像の各ピクセル点に対して、そのピクセル点に対する逆畳み込みニューラルネットワークの出力結果及び、そのピクセル点に近接するピクセル点に対する逆畳み込みニューラルネットワークの出力結果により第2のシーケンスが形成され、第2の再帰型ニューラルネットに入力される。
いくつかの実施形態では、ディープラーニングモデルがさらに第3の再帰型ニューラルネットワークを含んでよく、
現在の道路画像及び最近様々な時刻において取得された道路画像を含む、複数の道路画像を処理することで第2のモデルユニットにより出力された結果から第3のシーケンスが形成され、第3の再帰型ニューラルネットワークに入力される。
第3の様相において、本開示の実施形態により、車線を検出するためのデバイスが提供される。デバイスは、
プロセッサと、及び、
メモリと、を含み、
前記メモリはプログラムコードを保持して前記プログラムコードを前記プロセッサに送信するよう設定され、
前記プロセッサは前記プログラムコード内の命令に反応して、前記第1の様相による、車線を検出するための方法を実行するよう設定される。
第4の様相において、本開示の実施形態による記憶媒体が提供される。前記記憶媒体は、第1の様相による車線を検出するための方法を実行するためのプログラムコードを保持するよう設定される。
本開示の実施形態によると、自動車の周囲の道路の道路画像中の車線が、ディープラーニングモデルにより検出される。畳み込みニューラルネットワーク(NCC)に加え、ディープラーニングモデルには再帰型ニューラルネットワーク(RNN)も使用される。従って、再帰型ニューラルネットワークによる道路画像処理において、入力画像中の各ピクセル点に対して画像特徴に基づいた知覚結果が出力され、それにより道路画像中の各ピクセル点の画像特徴が保存され得、かつ道路画像中の車線の空間特徴が抽出され得て、それゆえ不完全な車線、部分的に塞がれた車線、又は極端に光量が変化する環境下の車線の場合であっても、車線が正確にかつ効果的に検出され得る。
本開示の実施形態又は従来技術における技術的解決をより明瞭に示すために、実施形態又は従来技術の説明において用いられる図面は以下で簡単に説明される。以下の説明における図面は本開示のいくつかの実施形態のみを示すものであり、これらの図面から他の図面が当業者により創作的努力なく獲得され得ることは明らかである。
図1は、本開示の実施形態に係る、ある適用事例に関係するシステムのフレームワークの模式図である。 図2は、本開示の実施形態に係る、車線を検出するための方法の模式的なフローチャートである。 図3aは、本開示の実施形態に係る、ディープラーニングモデルの構造の模式図である。 図3bは、本開示の実施形態に係る、ディープラーニングモデルの別の構造の模式図である。 図4は、本開示の実施形態に係る、畳み込みニューラルネットワークの出力結果に対して実行される特徴変換を示す模式図である。 図5は、本開示の実施形態に係る、ピクセル点Aに対して形成する第1のシーケンスの模式図である。 図6は、本開示の実施形態に係る、ディープラーニングモデルの別の構造の模式図である。 図7は、本開示の実施形態に係る、第3の再帰型ニューラルネットワークに対する特徴変換を示す模式図である。 図8は、本開示の実施形態に係る、車線を検出するための装置の構造の模式図である。 図9は、本開示の実施形態に係る、車線を検出するためのデバイスの構造の模式図である。
本開示の解決手段を当業者によりよく理解されるようにするため、本開示の実施形態における技術的解決は、本開示の実施形態における図面と組み合わせて以下で明瞭に説明される。以下で説明される実施形態は本開示のいくつかの実施形態に過ぎず、すべての実施形態ではないことは明らかである。本開示の実施形態に基づいて当業者が創作的努力なく獲得した他のすべての実施形態は、本開示の保護の範囲に含まれる。
道路画像は道路画像処理方法の中で、畳み込みニューラルネットワークにより処理される。しかしながら、畳み込みニューラルネットワークにより道路画像が処理された後、道路画像のピクセルサイズは減縮され、それゆえ画像特徴の一部が失われる。具体的には、畳み込みニューラルネットワークによる道路画像処理において、畳み込みニューラルネットワークは、入力画像中の複数のピクセル点を含む画像領域に対する1つの画像特徴結果を出力することで、その画像領域の画像特徴を特徴付ける。たとえば、畳み込みニューラルネットワークへ入力される画像中の9ピクセル点を含む画像領域に対して、畳み込みニューラルネットワークは、その画像領域を処理した後、その画像領域の画像特徴を表現するために1つの点の画像特徴のみを出力する。こうすると、もし入力画像が本来9×n個のピクセル点の画像特徴を持っているならば、処理の後に畳み込みニューラルネットワークにより出力された画像はn点の画像特徴しか持たず、つまり、入力画像のピクセルサイズが9分の1に減縮されている。従って、畳み込みニューラルネットワークによる道路画像処理において、あらゆるピクセル点に対する画像特徴が出力されることはあり得ない。この場合、いくつかの画像情報が道路画像処理の間に失われ、結果として畳み込みニューラルネットワークによる道路画像から識別された車線情報は不正確なものとなる。再帰型ニューラルネットワークは道路画像の処理において、各ピクセル点に対する画像特徴結果を出力することができる。この場合、処理の後に再帰型ニューラルネットワークにより出力される画像のピクセルサイズは入力画像のものと比べて変化しないままであり、これにより画像情報の損失を避け、畳み込みニューラルネットワークの欠点を補う。
上記の観点において、本開示の実施形態によるディープラーニングモデルによって、自動車の周囲の道路の道路画像中の車線が検出される。畳み込みニューラルネットワークに加え、ディープラーニングモデル内では再帰型ニューラルネットワークも使用されている。従って、再帰型ニューラルネットワークによる道路画像処理において、画像特徴に基づいた知覚結果は入力画像中の各ピクセル点に対して出力され、これにより道路画像中の各ピクセル点の画像特徴が保存され得、かつ道路画像中の車線の空間特徴が抽出され得て、それゆえ不完全な車線、部分的に塞がれた車線、又は極端に光量が変化する環境下の車線の場合であっても、車線が正確にかつ効果的に検出され得る。
本開示の実施形態に係る事例は、図1に示したようなシステムであり得る。システムはたとえば、運転アシストシステムであってよい。具体的には、システムはたとえば、車線の自動検出システムであってよい。システムは処理デバイス101、ディスプレイデバイス102及び撮影デバイス103を含む。このシステムにおいて、撮影デバイス103は撮影して車線の現在の道路画像を取得し、及び現在の道路画像を処理デバイス101に送信してよい。処理デバイス101は現在の道路画像をディープラーニングモデルに入力し、ディープラーニングモデルから出力された結果に基づいて現在の道路画像中の車線領域を決定してよい。処理デバイス101はその後、現在の道路画像上の決定された車線領域を識別して、現在の道路画像を識別された車線領域とともに、表示のためのディスプレイデバイス102に送信してもよい。
適用事例はただ本開示の理解を容易にするために示されたものであり、本開示の実施形態における適用事例がそれに限定されることはないことは注意されるべきである。本開示の実施形態は、どのような適用可能な事例にも適用され得る。
図2を参照して、図2は本開示の実施形態に係る、車線を検出するための方法の模式的なフローチャートである。実施形態に係る車線を検出するための方法は、以下のS201〜S202を含む。
S201では、自動車の周囲の道路の現在の道路画像が取得される。
この実施形態において、自動車の周囲の現在の道路は自動車上の前方に向けたカメラによりキャプチャされてよく、カメラによりキャプチャされた画像は、自動車の周囲の道路の現在の道路画像として取得され及び使用されてよい。
通常、自動車の前方に向けたカメラのカバー範囲は大きいため、カメラによりキャプチャされた道路画像の全体が処理されるならば、処理される道路画像のデータ量は大きくなり、処理速度に影響を与える。加えて、自動車の現在の位置から遠く離れた道路画像コンテンツを処理することには何の重要性もない。この観点から、可能な実装では、自動車の周囲の道路の現在の道路画像は、以下のステップA〜Bにより取得され得る。
ステップAでは、自動車のカメラによりキャプチャされた現在の周辺画像が取得される。
ステップBでは、自動車の前方の所定の領域の画像が現在の周辺画像から切り出され、現在の道路画像として使用される。
たとえば、自動車の前方の所定の領域は、自動車のすぐ前方の長方形領域であってよく、その長方形領域の長さ及び幅は実際の状況に即して決定されてよい。たとえば、長方形領域の長さは自動車の現在の運転速度に基づいて決定され、長方形領域の幅は自動車の車体の幅に基づいて決定される。加えて、自動車の前方の所定の領域は他の形の領域でもよく、この実施形態に限定されることはない。
S202では、現在の道路画像がディープラーニングモデルへと入力され、ディープラーニングモデルから出力された結果に基づいて、現在の道路画像中の車線領域が検出される。
この実施形態におけるディープラーニングモデルは、過去の道路画像及び過去の道路画像における既知の車線領域の間の対応関係に基づいて訓練されたモデルであるということには注意すべきである。つまり、ディープラーニングモデルは大量の過去のデータに基づいて訓練されており、現在の道路画像が入力されるディープラーニングモデルが結果を出力し、現在の道路画像の車線情報がその結果に基づいて決定され得る。
ディープラーニングモデルはディープラーニングモデルに現在の道路画像が入力された後、現在の道路画像に基づいて各ピクセル点の画像特徴を抽出でき、つまり各ピクセル点に対する結果を出力することができ、各ピクセル点に対する出力結果に基づいて現在の道路画像の車線情報が決定できるということは注意されるべきである。ディープラーニングモデルから出力された各ピクセル点に対する結果が、そのピクセル点が車線領域内の点であるかどうかを示してよいということは理解しておくべきである。ピクセル点iに対する出力結果は、P(i)で表される。たとえばA≠Bとして、P(i)=Aという関係はピクセル点iが車線領域内の点であることを示し、P(i)=Bという関係は、ピクセル点iが車線領域の外側の点であることを示す。他の例として、C及びDを所定の値として、P(i)∈[C,D]という関係はiが車線領域内の点であることを示し、
Figure 0006572345
という関係は点iが車線領域の外側の点であることを示す。
この実装において、ディープラーニングモデルには畳み込みニューラルネットワーク及び再帰型ニューラルネットワークの両方が採用され、現在の道路画像の処理において画像情報が失われるのを避ける。これにより、畳み込みニューラルネットワークによる画像処理において画像情報が損失されるのに対し、再帰型ニューラルネットワークによる画像処理においては画像情報が保存される。従って、現在の道路画像の全ての画像情報がニューラルネットワークにより処理されることができ、現在の道路画像における車線の検出結果は正確なものとなる。
たとえば、図3a及び図3bを参照して、これらは本実施形態に係るディープラーニングモデルの2つの典型的な構造の模式図である。両方の構造において、ディープラーニングモデルは第1のモデルユニット300及び第2のモデルユニット400を含み、前記第1のモデルユニット300の出力は前記第2のモデルユニット400の入力の役割を果たしている。
第1のモデルユニット300に入力されるデータは自動車の現在の道路画像であってよく、第1のモデルユニット300からその道路画像を処理することで出力された結果が、第2のモデルユニット400へと入力されるということは注意されるべきである。第2のモデルユニット400は第1のモデルユニット300により出力された結果を処理した後、処理結果を出力する。処理結果はディープラーニングモデルの出力で、現在の道路画像における車線領域を決定するためのものであってよい。
第1のモデルユニット300は少なくとも1つの第1のモデルサブユニット310を含む。前記第1のモデルサブユニットは畳み込みニューラルネットワーク311及び第1の再帰型ニューラルネットワーク312を含む。前記畳み込みニューラルネットワーク311の出力は、前記第1の再帰型ニューラルネットワーク312の入力の役割を果たす。
第2のモデルユニット400は少なくとも1つの第2のモデルサブユニット410を含む。前記第2のモデルサブユニットは逆畳み込みニューラルネットワーク411及び第2の再帰型ニューラルネットワーク412を持つ。前記逆畳み込みニューラルネットワーク411の出力は、前記第2の再帰型ニューラルネットワーク412の入力の役割を果たす。
この実施形態では、自動車の現在の道路画像は畳み込みニューラルネットワーク及び第1の再帰型ニューラルネットワークの組み合わせを備える第1のモデルユニット300によって処理され、第1のモデルユニット300の出力はさらに、逆畳み込みニューラルネットワーク及び第2の再帰型ニューラルネットワークの組み合わせを備える第2のモデルユニット400によって処理される。
第1のモデルユニット300は畳み込みニューラルネットワーク311及び第1の再帰型ニューラルネットワーク312からなる少なくとも1つのグループを含み、すなわち、少なくとも1つの第1のモデルサブユニット310を含むことは理解されるべきである。これはつまり、第1のモデルユニット300は図3aに示したように、ただ1つの第1のモデルサブユニット310を含んでもよいということである。代替的に、第1のモデルユニット300は図3bに示されたように、複数の第1のモデルサブユニット310を含んでもよい。
この実施形態では、ディープラーニングモデルに現在の道路画像が入力された後、現在の道路画像中の各ピクセル点が車線領域内に位置しているかどうかを示す結果が、ディープラーニングモデルにより出力される必要がある。従って、画像がディープラーニングモデルにより処理された後、処理された画像のピクセルサイズは変化しない必要がある。従って、畳み込みニューラルネットワーク311及び逆畳み込みニューラルネットワーク411の両方がディープラーニングモデルに採用される。画像はまず畳み込みニューラルネットワーク311により処理され、処理画像のピクセルサイズが減縮される。その後画像は逆畳み込みニューラルネットワーク411により処理され、処理画像のピクセルサイズは拡張される。こうすることで、ディープラーニングモデルにより処理された後の画像及び元来ディープラーニングモデルに入力された画像は同じピクセルサイズを持ち、現在の道路画像のあるピクセル点が車線領域に位置しているかどうかを示す結果が、現在の道路画像の各ピクセル点に対して取得され得る。
第1のモデルユニット300における第1の再帰型ニューラルネットワーク312及び、第2のモデルユニット400における第2の再帰型ニューラルネットワーク412の各々は、どのような再帰型ニューラルネットワークでもよいということは注意されるべきである。第1の再帰型ニューラルネットワーク312及び第2の再帰型ニューラルネットワークの間の差異は、第1の再帰型ニューラルネットワーク312の入力が畳み込みニューラルネットワーク311の出力であり、第2の再帰型ニューラルネットワーク412の入力は逆畳み込みニューラルネットワーク411の出力であるという点である。例として、第1の再帰型ニューラルネットワーク312及び第2の再帰型ニューラルネットワーク412の各々は、双方向長・短期メモリ(LSTM)ネットワークであってよい。双方向LSTMネットワークにより、道路画像における各ピクセル点の空間特徴が十分に保存され、検出された車線領域は正確なものとなる。
第1のモデルユニット300の構造及び処理の手順は、第2のモデルユニット400のそれらと類似のものだということは理解されるべきである。差異は、第1のモデルユニット300における畳み込みニューラルネットワーク311が、第2のモデルユニット400では逆畳み込みニューラルネットワーク411で置き換えられているという点である。以下では例として、第1のモデルユニット300の構造及び処理の手順を説明している。
第1のモデルユニット300では、第1のモデルユニット300の入力画像が畳み込みニューラルネットワーク311に入力され、畳み込みニューラルネットワーク311により処理されて、第1の出力結果が獲得される。畳み込みニューラルネットワーク311の前記第1の出力結果はさらに再帰型ニューラルネットワーク312によって処理され、第2の出力結果が獲得される。
再帰型ニューラルネットワークの入力変数は通常少なくとも1つの要素を含むシーケンスであるということは注意されるべきである。この観点では、図4に示すように、第1のモデルユニット300内の畳み込みニューラルネットワーク311及び第1の再帰型ニューラルネットワーク312の間に、特徴変換処理が採用されてよい。特徴変換処理においてシーケンスは、畳み込みニューラルネットワーク311の各ピクセル点に対する出力結果からある規則に従って形成されてよく、その後前記シーケンスが第1の再帰型ニューラルネットワーク312に入力される。前記シーケンスは複数の点に対する畳み込みニューラルネットワーク311の出力結果を含んでもよい。
例として、特徴変換処理は以下のようであり得る。第1のモデルサブユニット310において各ピクセル点に対して、前記ピクセル点に対する畳み込みニューラルネットワーク311の出力結果及び前記ピクセル点の近傍内の複数のピクセル点に対する畳み込みニューラルネットワーク311の出力結果により第1のシーケンスが形成され、第1の再帰型ニューラルネットワーク312に入力される。たとえば、各ピクセル点の近傍に8つのピクセル点が存在する場合、各ピクセル点に対して、前記ピクセル点に対する畳み込みニューラルネットワーク311の出力結果及び前記ピクセル点の近傍内の8つのピクセル点に対する畳み込みニューラルネットワーク311の出力結果により第1のシーケンスが形成される。例として、ピクセル点b,c,d,e,f,g,h,iがすべてピクセル点aの近傍内のピクセル点であるとして、ピクセル点a,b,c,d,e,f,g,h,iに対する畳み込みニューラルネットワーク311の出力結果が取得される場合、第1のシーケンスX=[A,B,C,D,E,F,G,H,I]はピクセル点a,b,c,d,e,f,g,h,iに対する畳み込みニューラルネットワーク311の出力結果により形成されてよい。第1のシーケンスは第1の再帰型ニューラルネットワーク312の入力の役割を果たしてよい。第1のシーケンスにおいて、Aはピクセル点aに対する畳み込みニューラルネットワーク311の出力結果を表し、Bはピクセル点bに対する畳み込みニューラルネットワーク311の出力結果を表し、Cはピクセル点cに対する畳み込みニューラルネットワーク311の出力結果を表し、Dはピクセル点dに対する畳み込みニューラルネットワーク311の出力結果を表し、Eはピクセル点eに対する畳み込みニューラルネットワーク311の出力結果を表し、Fはピクセル点fに対する畳み込みニューラルネットワーク311の出力結果を表し、Gはピクセル点gに対する畳み込みニューラルネットワーク311の出力結果を表し、Hはピクセル点hに対する畳み込みニューラルネットワーク311の出力結果を表し、かつIはピクセル点iに対する畳み込みニューラルネットワーク311の出力結果を表す。
各第1のシーケンス内のピクセル点に対する出力結果が、一定の規則に従ってランクづけされ、各ピクセル点の空間特徴を効果的に保存してもよいということは注意されるべきである。前記一定の規則は、ピクセル点に対する出力結果のランク及びそれらピクセル点の位置の間の一定の対応関係を示す。従って、画像中の、出力結果に対応するピクセル点の位置は第1のシーケンスにおける出力結果のランクに基づいて決定され得、それにより各ピクセル点の空間特徴を復元し、それゆえ現在の道路画像の空間特徴が表現され得る。
たとえば、異なる2つの第1のシーケンスM及びNがあるとする。第1のシーケンスMは画像領域1中のピクセル点に対する出力結果、つまり、点a1に対する出力結果A1、点b1に対する出力結果B1、点c1に対する出力結果C1及び点d1に対する出力結果D1、を含む。第1のシーケンスNは画像領域2内のピクセル点に対する出力結果、つまり、点a2に対する出力結果A2、点b2に対する出力結果B2、点c2に対する出力結果C2及び点d2に対する出力結果D2を含む。画像領域1において、ピクセル点a1は左上の角に位置し、ピクセル点b1は右上の角に位置し、ピクセル点c1は左下の角に位置し、ピクセル点d1は右下の角に位置している。画像領域2において、ピクセル点a2は左上の角に位置し、ピクセル点b2は右上の角に位置し、ピクセル点c2は左下の角に位置し、ピクセル点d2は右下の角に位置している。第1のシーケンスMにおけるピクセル点に対する出力結果は、A1→B1→C1→D1の順でランク付けされており、これはつまり第1のシーケンスMが[A1,B1,C1,D1]であるということである。第1のシーケンスNにおけるピクセル点に対する出力結果は、A2→B2→C2→D2の順でランク付けされており、これはつまり第1のシーケンスNが[A2,B2,C2,D2]であるということである。この場合、第1のシーケンスMにおけるピクセル点に対する出力結果のランクに対応するピクセル点の中の位置の対応関係は第1のシーケンスNと同じであり、その位置対応関係は一定、すなわち、画像領域の左上の角→画像領域の右上の角→画像領域の左下の角→画像領域の右下の角というものである。
例として、9つのピクセル点に対する出力結果により形成されたピクセル点Aに対する第1のシーケンスについて、ピクセル点Aに対する第1のシーケンスにおける出力結果のランクは:ピクセル点Aの近傍内の左上の角に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の左側の中央に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の左下の角に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の下側の中央に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の右下の角に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の右側の中央に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の右上の角に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の上側の中央に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、並びに、ピクセル点Aに対する畳み込みニューラルネットワークの出力結果、というようというように定められてよい。
たとえば、図5にはピクセル点A及びピクセル点Aの近傍内のピクセル点A1〜A8に対する第1のシーケンスを形成する手順の例が示されている。その第1のシーケンスにおいて、ピクセル点の出力結果のランクは、A1→A2→A3→A4→A5→A6→A7→A8→Aであり、これはつまり、第1のシーケンスは[A1,A2,A3,A4,A5,A6,A7,A8,A]であってよいということである。
第1のモデルユニット300と同様、第2のモデルユニット400における逆畳み込みニューラルネットワーク411及び第2の再帰型ニューラルネットワーク412の間にも、特徴変換処理が採用され得るということは理解されるべきである。たとえば、特徴変換処理は以下のようであってよい。各ピクセル点に対して、前記ピクセル点に対する逆畳み込みニューラルネットワーク411の出力結果及び、前記ピクセル点の近傍内のピクセル点に対する逆畳み込みニューラルネットワーク411の出力結果により第2のシーケンスが形成され、第2の再帰型ニューラルネットワーク412に入力される。
第2のシーケンス内のピクセル点に対する出力結果も第1のシーケンスと同様、効果的に各ピクセル点の空間特徴を保存するために、一定の規則に従ってランク付けされてよいということは注意されるべきである。例として、9つのピクセル点に対する出力結果から形成されたピクセル点Aに対する第2のシーケンスについて、ピクセル点Aに対する第2のシーケンスにおける出力結果のランクは:ピクセル点Aの近傍内の左上の角に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の左側の中央に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の左下の角に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の下側の中央に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の右下の角に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の右側の中央に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の右上の角に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の上側の中央に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、そして、ピクセル点Aに対する逆畳み込みニューラルネットワークの出力結果、というように定められてよい。
実施形態に係るディープラーニングモデルから出力される結果をより正確なものとするため、現在の道路画像中の車線領域は、現在の道路画像を処理することで得られたディープラーニングモデルの処理結果に基づいて、現在の道路画像が収集された時刻よりも前のある期間の間に収集された道路画像を処理することで得られたディープラーニングモデルの処理結果と組み合わせて決定され得る。これにより車線領域はある期間の間の複数の時刻で収集された複数の道路画像に基づいて検出され得、単一の道路画像に基づいて車線領域を検出しているために起こり得る誤りを避け、より正確に車線領域を検出できる。
図6に示したように、複数の時刻に獲得された道路画像との組み合わせで車線領域を検出するために、ディープラーニングモデルはさらに、第3の再帰型ニューラルネットワークを含む第3のモデルユニット500を含んでもよい。現在の道路画像及び直近の様々な時刻に取得された複数の道路画像に対して、第2のモデルユニット400が現在の道路画像及び直近の様々な時刻に取得された複数の道路画像を処理することで出力される結果により第3のシーケンスが形成され、第3の再帰型ニューラルネットワークに入力される。第3の再帰型ニューラルネットワークは第1の再帰型ニューラルネットワーク312や第2の再帰型ニューラルネットワーク412と同様、双方向LSTMネットワークであってよい。
第1の再帰型ニューラルネットワーク312及び第2の再帰型ニューラルネットワーク412と同様、第3の再帰型ニューラルネットワークの入力変数も、少なくとも1つの要素を含むシーケンスであってよいということは理解されるべきである。この観点から、図7で示したように、ディープラーニングモデルの中の第3のモデルユニット500に特徴変換処理が採用されてよい。特徴変換処理では、様々な時刻に収集された複数の道路画像中のある同じピクセル点に対する第2のモデルユニット400の出力結果によりシーケンスが形成され、シーケンスはその後第3の再帰型ニューラルネットワーク(たとえば、双方向LSTMネットワーク)に入力される。現在の道路画像における車線領域は、第3の再帰型ニューラルネットワークの出力結果に基づいて決定される。
ある実装において、ディープラーニングモデルは以下のような表現で表される:
Figure 0006572345
Figure 0006572345
ここでPはディープラーニングモデルの時刻tに取得された道路画像に対する出力結果を、iはピクセル点を、tおよびkは各々時刻を示す。P(i)は、時刻t=1〜nにそれぞれ対応するMi t=kを処理することで第3の再帰型ニューラルネットワークにより出力される結果を示す。P(i)が時刻nにおいて取得された道路画像中のピクセル点iを処理することでディープラーニングモデルにより出力された結果であり、その結果は道路画像中のピクセル点iが車線領域内に位置しているかどうかを示していることが見て取れる。加えて、M は時刻t(t=1,2,3,…n)において取得された道路画像中のピクセル点iに対する第2のモデルユニットの出力結果を示し、すなわち、M が時刻tにおいて取得された道路画像中のピクセル点iの画像特徴であり、当該画像特徴は第1のモデルユニット及び第2のモデルユニットによって抽出されたものである。Iは入力された現在の道路画像を示す。
Fは変数関数である。たとえば、FBiLSTMは双方向LSTMを示し、FCNNは畳み込みニューラルネットワークを示す。
本開示の実施形態に係る車線を検出するための方法では、自動車の周囲の道路の道路画像における車線はディープラーニングモデルにより検出される。ディープラーニングモデルでは畳み込みニューラルネットワークに加えて再帰型ニューラルネットワークも使用される。従って、再帰型ニューラルネットワークによる道路画像処理において、入力画像中の各ピクセル点に対して画像特徴結果が出力され、それにより道路画像中の各ピクセル点の画像特徴が保存されて道路画像中の車線の空間特徴が抽出され、それゆえ不完全な車線、部分的に塞がれた車線、又は極端に光量が変化する環境下の車線の場合であっても、車線が正確にかつ効果的に検出できる。
図8を参照して、図8は本開示の実施形態に係る車線を検出するための装置の構造の模式図である。たとえば装置は、画像取得モジュール810及びモデル処理モジュール820を含んでよい。
画像取得モジュール810は自動車の周囲の道路の現在の道路画像を取得するよう設定される。
モデル処理モジュール820は、現在の道路画像をディープラーニングモデルに入力して、ディープラーニングモデルから出力された結果に基づいて現在の道路画像中の車線領域を検出するよう設定されている。
ディープラーニングモデルは、過去の道路画像及び過去の道路画像中の既知の車線領域の間の対応関係に基づいて訓練されたモデルである。
ディープラーニングモデルは第1のモデルユニット及び第2のモデルユニットを含み、前記第1のモデルユニットの出力は前記第2のモデルユニットの入力の役割を果たす。
前記第1のモデルユニットは少なくとも1つの第1のモデルサブユニットを含み、前記第1のモデルサブユニットは畳み込みニューラルネットワーク及び第1の再帰型ニューラルネットワークを含む。また、前記畳み込みニューラルネットワークの出力は前記第1の再帰型ニューラルネットワークの出力の役割を果たす。
第2のモデルユニットは少なくとも1つの第2のモデルサブユニットを含み、前記第2のモデルサブユニットは逆畳み込みニューラルネットワーク及び第2の再帰型ニューラルネットワークを含み、前記逆畳み込みニューラルネットワークの出力は前記第2の再帰型ニューラルネットワークの入力の役割を果たす。
いくつかの実施形態では、前記第1の再帰型ニューラルネットワーク及び前記第2の再帰型ニューラルネットワークの各々は双方向長・短期記憶ネットワークである。
いくつかの実施形態では、前記第1のモデルサブユニットにおいて、現在の道路画像中の各ピクセル点に対して、そのピクセル点に対する畳み込みニューラルネットワークの出力結果及びそのピクセル点の近傍内のピクセル点に対する畳み込みニューラルネットワークの出力結果により第一のシーケンスが形成され、前記第1の再帰型ニューラルネットワークに入力される。
第2のモデルサブユニットにおいては、現在の道路画像中の各ピクセル点に対して、そのピクセル点に対する逆畳み込みニューラルネットワークの出力結果及びそのピクセル点の近傍内のピクセル点に対する逆畳み込みニューラルネットワークの出力結果により第2のシーケンスが形成され、第2の再帰型ニューラルネットワークに入力される。
いくつかの実施形態では、ピクセル点Aに対する第1のシーケンスにおける出力結果のランクは:ピクセル点Aの近傍内の左上の角に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の左側の中央に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の左下の角に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の下側の中央に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の右下の角に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の右側の中央に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の右上の角に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の上側の中央に位置するピクセル点に対する畳み込みニューラルネットワークの出力結果、並びにピクセル点Aに対する畳み込みニューラルネットワークの出力結果、というようであってよい。
ピクセル点Aに対する第2のシーケンスにおける出力結果のランクは:ピクセル点Aの近傍内の左上の角に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の左側の中央に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の左下の角に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の下側の中央に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の右下の角に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の右側の中央に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の右上の角に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、ピクセル点Aの近傍内の上側の中央に位置するピクセル点に対する逆畳み込みニューラルネットワークの出力結果、並びにピクセル点Aに対する逆畳み込みニューラルネットワークの出力結果、というようであってよい。
いくつかの実施形態では、ディープラーニングモデルはさらに第3の再帰型ニューラルネットワークを含んでもよい。
第3の再帰型ニューラルネットワークに入力する第3のシーケンスは、複数の道路画像を処理することで第2のモデルユニットにより出力された結果により形成されている。複数の画像は、現在の道路画像及び最近様々な時刻に取得された道路画像を含む。
いくつかの実施形態では、画像取得モジュール810は取得サブモジュール及び切り出しサブモジュールを含んでよい。
前記取得サブモジュールは、自動車上のカメラによりキャプチャされた現在の周辺画像を取得するよう設定されている。
前記切り出しサブモジュールは、現在の周辺画像から自動車の前方の所定の領域の画像を切り出して、現在の道路画像とするよう設定されている。
実施形態に係る車線を検出するための装置によると、自動車の周囲の道路の道路画像中の車線がディープラーニングモデルにより検出される。ディープラーニングモデルでは畳み込みニューラルネットワークに加えて再帰型ニューラルネットワークも使用される。従って、再帰型ニューラルネットワークによる道路画像処理において、入力画像中の各ピクセル点に対して画像特徴結果が出力され、それにより道路画像中の各ピクセル点の画像特徴が保存されて道路画像中の車線の空間特徴が抽出され、それゆえ不完全な車線、部分的に塞がれた車線、又は極端に光量が変化する環境下の車線の場合であっても、車線が正確にかつ効果的に検出できる。
図9を参照して、図9は本開示の実施形態に係る車線を検出するためのデバイスの構造の模式図である。デバイスはプロセッサ910及びメモリ920を含む。
メモリ920はプログラムコードを格納し、通信バス930を通じてプロセッサ910にプログラムコードを送信するよう設定されている。
プロセッサ910はプログラムコード内の命令に反応して、本開示の上記実施形態のいずれか1つに係る車線を検出するための方法を実行するよう設定されている。
加えて、本開示の実施形態に係る記憶媒体が更に提供される。記憶媒体は、本開示の上記実施形態のいずれか1つに係る車線を検出するための方法を実行するためのプログラムコードを格納するよう設定されている。
「第1の」「第2の」といった関係的用語は本明細書では、あるエンティティ又は動作を他と区別するためにのみ使用され、それらエンティティ又は動作の間に実際の関係又は順序が存在することを要求又は示唆するものではないことは注意されるべきである。さらに、「含む」「包含する」又は他のいずれの変形も、非排他的であることを意図している。従って、複数の要素を含む処理、方法、物体又はデバイスは、その要素だけでなく列挙されていない他の要素をも含み、又は、その処理、方法、物体又はデバイスに固有の要素をも含む。明示的に限定されない限り、「1つの〜を含む」という記述はその処理、方法、物体又はデバイスに他の類似の要素が存在する場合を除外するものではない。
デバイスの実施形態について、デバイスの実施形態は方法の実施形態に実質的に対応しており、方法の実施形態の関係する説明を参照することができる。上述のシステムの実施形態は模式的なものに過ぎず、個別のコンポーネントとして図示されたモジュールが物理的に隔てられていてもいなくてもよく、かつ、モジュールとして表示されたコンポーネントが物理的なモジュールであってもそうでなくともよく、つまり、複数のコンポーネントが同一の場所に位置していても、複数のネットワークユニットに分散されていてもよい。実施形態の解決策の目的は必要に応じて、モジュールの一部又は全部を選択することで達成され得る。当業者は創作的努力を伴わず、本開示を理解し実施し得る。
前述では本開示の特定の実施形態のみを示す。当業者は本開示の範囲を逸脱することなくいくつかの改善及び変更を行うことができ、その改善及び変更は本開示の保護範囲に含まれると考えられるべきことは注意されるべきである。

Claims (10)

  1. 車線を検出するための方法であって、
    自動車の周囲の道路の現在の道路画像を取得するステップと、及び、
    前記現在の道路画像をディープラーニングモデルに入力し、前記ディープラーニングモデルから出力された結果に基づいて前記現在の道路画像中の車線領域を検出するステップと、を含み、
    前記ディープラーニングモデルは過去の道路画像及び前記過去の道路画像中の既知の車線領域の間の関係に基づいて訓練されたモデルであり、
    前記ディープラーニングモデルは第1のモデルユニット及び第2のモデルユニットを含み、かつ前記第1のモデルユニットの出力は前記第2のモデルユニットの入力の役割を果たし、
    前記第1のモデルユニットは少なくとも1つの第1のモデルサブユニットを含み、前記第1のモデルサブユニットは畳み込みニューラルネットワーク及び第1の再帰型ニューラルネットワークを含み、前記畳み込みニューラルネットワークの出力は前記第1の再帰型ニューラルネットワークの入力の役割を果たし、並びに、
    前記第2のモデルユニットは少なくとも1つの第2のモデルサブユニットを含み、前記第2のモデルサブユニットは逆畳み込みニューラルネットワーク及び第2の再帰型ニューラルネットワークを含み、前記逆畳み込みニューラルネットワークの出力は前記第2の再帰型ニューラルネットワークの入力の役割を果たす、
    車線を検出するための方法。
  2. 請求項1に記載の方法であって、
    第1の再帰型ニューラルネットワーク及び第2の再帰型ニューラルネットワークの各々が双方向長・短期記憶ネットワークである、
    車線を検出するための方法。
  3. 請求項1に記載の方法であって、
    現在の道路画像中の各ピクセル点に対して、前記ピクセル点に対する畳み込みニューラルネットワークの出力結果及び前記ピクセル点の近傍内の複数のピクセル点に対する畳み込みニューラルネットワークの出力結果により第1のシーケンスが形成され、第1の再帰型ニューラルネットワークに入力され、並びに、
    現在の道路画像中の各ピクセル点に対して、前記ピクセル点に対する逆畳み込みニューラルネットワークの出力結果及び前記ピクセル点の近傍内の複数のピクセル点に対する逆畳み込みニューラルネットワークの出力結果により第2のシーケンスが形成され、第2の再帰型ニューラルネットワークに入力される、
    車線を検出するための方法。
  4. 請求項1に記載の方法であって、
    ディープラーニングモデルがさらに第3の再帰型ニューラルネットワークを含み、
    前記第2のモデルユニットから複数の道路画像を処理することにより出力された結果から第3のシーケンスが形成され、前記第3の再帰型ニューラルネットワークに入力され、
    前記複数の道路画像は前記現在の道路画像及び直近の様々な時刻に取得された道路画像を含む、
    車線を検出するための方法。
  5. 車線を検出するための装置であって、
    自動車の周囲の道路の現在の道路画像を取得するよう設定された画像取得モジュールと、
    前記現在の道路画像をディープラーニングモデルに入力し、前記ディープラーニングモデルから出力された結果に基づいて前記現在の道路画像中の車線領域を検出するよう設定されたモデル処理モジュールと、を含み、
    前記ディープラーニングモデルは過去の道路画像及び前記過去の道路画像中の既知の車線領域の間の関係に基づいて訓練されたモデルであり、
    前記ディープラーニングモデルは第1のモデルユニット及び第2のモデルユニットを含み、かつ前記第1のモデルユニットの出力は前記第2のモデルユニットの入力の役割を果たし、
    前記第1のモデルユニットは少なくとも1つの第1のモデルサブユニットを含み、前記第1のモデルサブユニットは畳み込みニューラルネットワーク及び第1の再帰型ニューラルネットワークを含み、前記畳み込みニューラルネットワークの出力は前記第1の再帰型ニューラルネットワークの入力の役割を果たし、並びに、
    前記第2のモデルユニットは少なくとも1つの第2のモデルサブユニットを含み、前記第2のモデルサブユニットは逆畳み込みニューラルネットワーク及び第2の再帰型ニューラルネットワークを含み、前記逆畳み込みニューラルネットワークの出力は前記第2の再帰型ニューラルネットワークの入力の役割を果たす、
    車線を検出するための装置。
  6. 請求項5に記載の装置であって、
    第1の再帰型ニューラルネットワーク及び第2の再帰型ニューラルネットワークの各々が双方向長・短期記憶ネットワークである、
    車線を検出するための装置。
  7. 請求項5に記載の装置であって、
    現在の道路画像中の各ピクセル点に対して、前記ピクセル点に対する畳み込みニューラルネットワークの出力結果及び前記ピクセル点の近傍内の複数のピクセル点に対する畳み込みニューラルネットワークの出力結果により第1のシーケンスが形成され、第1の再帰型ニューラルネットワークに入力され、並びに、
    現在の道路画像中の各ピクセル点に対して、前記ピクセル点に対する逆畳み込みニューラルネットワークの出力結果及び前記ピクセル点の近傍内の複数のピクセル点に対する逆畳み込みニューラルネットワークの出力結果により第2のシーケンスが形成され、第2の再帰型ニューラルネットワークに入力される、
    車線を検出するための装置。
  8. 請求項5に記載の装置であって、
    ディープラーニングモデルがさらに第3の再帰型ニューラルネットワークを含み、
    前記第2のモデルユニットから複数の道路画像を処理することにより出力された結果から第3のシーケンスが形成され、前記第3の再帰型ニューラルネットワークに入力され、
    前記複数の道路画像は前記現在の道路画像及び直近の様々な時刻に取得された道路画像を含む、
    車線を検出するための装置。
  9. 車線を検出するためのデバイスであって、
    プロセッサと、
    メモリと、を含み、
    メモリはプログラムコードを格納し、プログラムコードをプロセッサに送信するよう設定され、及び、
    プロセッサはプログラムコードの命令に反応して、請求項1〜4のいずれか1つに記載の車線を検出するための方法を実行するよう設定される、
    車線を検出するためのデバイス。
  10. 請求項1〜4に記載の車線を検出するための方法を実行するためのプログラムコードを格納する、
    記憶媒体。
JP2018092378A 2017-11-30 2018-05-11 車線検出のための方法及び装置 Active JP6572345B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201711237254.5A CN109858309B (zh) 2017-11-30 2017-11-30 一种识别道路线的方法和装置
CN201711237254.5 2017-11-30

Publications (2)

Publication Number Publication Date
JP2019102049A JP2019102049A (ja) 2019-06-24
JP6572345B2 true JP6572345B2 (ja) 2019-09-11

Family

ID=66547868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018092378A Active JP6572345B2 (ja) 2017-11-30 2018-05-11 車線検出のための方法及び装置

Country Status (4)

Country Link
US (1) US10748013B2 (ja)
JP (1) JP6572345B2 (ja)
CN (1) CN109858309B (ja)
DE (1) DE102018113992A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10311338B1 (en) * 2018-09-15 2019-06-04 StradVision, Inc. Learning method, learning device for detecting lanes on the basis of CNN and testing method, testing device using the same
CN111126406B (zh) * 2019-12-17 2023-04-07 北京四维图新科技股份有限公司 车辆行驶区域识别方法及装置
CN111126493B (zh) * 2019-12-25 2023-08-01 东软睿驰汽车技术(沈阳)有限公司 深度学习模型的训练方法、装置、电子设备及存储介质
JP7388971B2 (ja) * 2020-04-06 2023-11-29 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
JP7359735B2 (ja) 2020-04-06 2023-10-11 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
CN111959495B (zh) * 2020-06-29 2021-11-12 阿波罗智能技术(北京)有限公司 车辆的控制方法、装置及车辆
CN113240623B (zh) * 2021-03-18 2023-11-07 中国公路工程咨询集团有限公司 一种路面病害检测方法及装置
CN113591614B (zh) * 2021-07-14 2024-05-28 西北工业大学 一种基于紧邻空间特征学习的遥感影像道路提取方法
FR3130230B1 (fr) * 2021-12-10 2023-11-03 Renault Sas Procédé d’aide au maintien d’un véhicule sur la route lors d’un rétrécissement ou d’un élargissement de voie

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9802599B2 (en) * 2016-03-08 2017-10-31 Ford Global Technologies, Llc Vehicle lane placement
US10176388B1 (en) * 2016-11-14 2019-01-08 Zoox, Inc. Spatial and temporal information for semantic segmentation
CN106844442A (zh) * 2016-12-16 2017-06-13 广东顺德中山大学卡内基梅隆大学国际联合研究院 基于fcn特征提取的多模态循环神经网络图像描述方法
CN106980854A (zh) * 2017-03-29 2017-07-25 珠海习悦信息技术有限公司 车牌号码识别方法、装置、存储介质及处理器
CN107038478B (zh) * 2017-04-20 2023-10-27 百度在线网络技术(北京)有限公司 路况预测方法及装置、计算机设备与可读介质
CN107154150B (zh) * 2017-07-25 2019-07-02 北京航空航天大学 一种基于道路聚类和双层双向lstm的交通流量预测方法

Also Published As

Publication number Publication date
JP2019102049A (ja) 2019-06-24
CN109858309B (zh) 2021-04-20
US10748013B2 (en) 2020-08-18
CN109858309A (zh) 2019-06-07
DE102018113992A1 (de) 2019-06-06
US20190163991A1 (en) 2019-05-30

Similar Documents

Publication Publication Date Title
JP6572345B2 (ja) 車線検出のための方法及び装置
DE112015004637B4 (de) Bordkamerakalibriervorrichtung, Bildgenerator, Bordkamerakalibrierverfahren und Bilderzeugungsverfahren
JP6775263B2 (ja) 測位方法及び装置
US8995714B2 (en) Information creation device for estimating object position and information creation method and program for estimating object position
CN112668480B (zh) 头部姿态角检测方法、装置、电子设备及存储介质
CN111210477A (zh) 一种运动目标的定位方法及系统
EP3070675A1 (en) Image processor for correcting deviation of a coordinate in a photographed image at appropriate timing
CN112598922B (zh) 车位检测方法、装置、设备及存储介质
JP6377970B2 (ja) 視差画像生成装置及び視差画像生成方法
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2021033510A (ja) 運転支援装置
CN112385208B (zh) 图像识别装置以及图像识别方法
CN112487861A (zh) 车道线识别方法、装置、计算设备及计算机存储介质
US11519715B2 (en) Method, device, apparatus and storage medium for detecting a height of an obstacle
JP2015171106A (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP6327115B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
CN110880003B (zh) 一种图像匹配方法、装置、存储介质及汽车
CN112330977B (zh) 一种自动泊车的方法和装置
JP2015230515A (ja) 被写体追尾装置およびカメラ
CN111212260A (zh) 一种基于监控视频绘制车道线的方法及装置
CN109073387B (zh) 一种多地图对齐的方法、装置、终端及存储介质
JP2021132295A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6674127B2 (ja) 画像処理装置、撮影装置、プログラム、機器制御システム及び機器
JP2966683B2 (ja) 車両用障害物検出装置
CN117152707B (zh) 一种车辆偏移距离的计算方法、装置以及处理设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190809

R150 Certificate of patent or registration of utility model

Ref document number: 6572345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250