JP2020126610A - セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置 - Google Patents

セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置 Download PDF

Info

Publication number
JP2020126610A
JP2020126610A JP2020004556A JP2020004556A JP2020126610A JP 2020126610 A JP2020126610 A JP 2020126610A JP 2020004556 A JP2020004556 A JP 2020004556A JP 2020004556 A JP2020004556 A JP 2020004556A JP 2020126610 A JP2020126610 A JP 2020126610A
Authority
JP
Japan
Prior art keywords
lane
post
clustering
processing module
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020004556A
Other languages
English (en)
Other versions
JP6935946B2 (ja
Inventor
桂賢 金
Kye-Hyeon Kim
桂賢 金
鎔重 金
Yongjoong Kim
鎔重 金
寅洙 金
Insu Kim
寅洙 金
鶴京 金
Hak-Kyoung Kim
鶴京 金
雲鉉 南
Woonhyun Nam
雲鉉 南
碩▲ふん▼ 夫
Sukhoon Boo
碩▲ふん▼ 夫
明哲 成
Myungchul Sung
明哲 成
東勳 呂
Donghun Yeo
東勳 呂
宇宙 柳
Wooju Ryu
宇宙 柳
泰雄 張
Taiyu Cho
泰雄 張
景中 鄭
Kyungjoong Jeong
景中 鄭
泓模 諸
Hongmo Je
泓模 諸
浩辰 趙
Hojin Cho
浩辰 趙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020126610A publication Critical patent/JP2020126610A/ja
Application granted granted Critical
Publication of JP6935946B2 publication Critical patent/JP6935946B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車線検出のためのポストプロセッシングが円滑に行われる方法を提供する。【解決手段】車線検出方法は、CNNによって生成された、セグメンテーションスコアマップ及びクラスタリングマップを取得しS01、セグメンテーションスコアマップを参照して車線を形成するピクセルを含む車線要素を決定しS02、車線要素と、セグメンテーションスコアマップと、クラスタリングマップとを参照してシード情報を生成しS03、シード情報を参照してベースモデルを生成させ、これを参照して車線アンカーを生成しS04、車線アンカーを参照して車線部ブロブを生成しS05、車線ブロブを参照して車線候補群を検出させS06、車線候補群にラインフィッティング演算を適用して車線モデルを生成させることにより車線を検出するS07。【選択図】図2

Description

本発明は、自律走行車に利用するためのポストプロセッシング方法及び装置に関し;より詳しくは、自律走行車の走行経路を計画するために車線を検出する前記ポストプロセッシング方法及び前記装置に関する。
ディープ・コンボリューション・ニューラル・ネットワーク(Deep Convolution Neural Networks;DeepCNN)は、ディープラーニング分野で起きた驚くべき発展の核心である。CNNは、文字の認識問題を解くために90年代にすでに使われたが、現在のように広く使われるようになったのは最近の研究結果のおかげだ。このようなディープCNNは2012年ImageNetイメージ分類コンテストで他の競争相手に勝って優勝を収めた。そして、コンボリューションニューラルネットワークはマシンラーニング(Machine Learning)分野で非常に有用なツールとなった。
ポストプロセッシング(post−processing)とは、ユーザが望む結果を得るために、ディープCNNから出力された結果に所定の調整を適用する作業を意味する。
最近、ディープCNNにおいてポストプロセッシングが多く利用されている。CNNは、自律走行モジュールにおいて多くの役割を担うが、その一つは入力映像から車線を検出することである。車線を検出することにより、車両が走行できる余裕空間を検出したり、車両が道路中央をうまく走行できるように適切に調節する役割をするのである。
だが、ディープCNNから導き出された結果だけを利用すると、車線検出の効果が低下する場合が多い。したがって、ディープCNNから導き出された結果をポストプロセッシングして車線を検出するものの、ディープCNNで生成されたセグメンテーションスコアマップのみが利用される場合、ポストプロセッシングの性能はよくない。
本発明は、前述した問題点を解決することを目的とする。
本発明は、セグメンテーションスコアマップとともにクラスタリングマップを利用することにより、車線検出のためのポストプロセッシングがさらに円滑に行われるようにすることを目的とする。
また、本発明は、セグメンテーションスコアマップ及びクラスタリングマップを参照して導き出された、車線要素と、車線アンカー(anchor)と、車線ブロブ(Blob)等とを利用して最適化された車線検出を遂行することを目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための、本発明の特徴的な構成は次の通りである。
本発明の一態様によれば、セグメンテーションスコアマップ及びクラスタリングマップを利用して一つ以上の車線を検出するポストプロセッシング(post−processing)方法において、(a)CNN(Convolutional neural network)が入力イメージを利用して前記セグメンテーションスコアマップ及び前記クラスタリングマップを生成すると、コンピューティング装置がこれを取得する段階;(b)前記コンピューティング装置が、前記CNNの後部においてデータプロセッシングを遂行するポストプロセッシングモジュールをもって(i)前記セグメンテーションスコアマップを参照して、前記入力イメージ上の前記車線を構成するピクセルを含む単位領域である車線要素を検出するようにし、(ii)前記車線要素と、前記セグメンテーションスコアマップと、前記クラスタリングマップとを参照してシード(seed)情報を生成するようにする段階;(c)前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記シード情報を参照して前記車線それぞれに対応する一つ以上のベースモデルを生成させ、これを参照して一つ以上の車線アンカー(anchor)を生成するようにする段階;(d)前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記車線アンカーを参照して、前記車線要素の少なくとも一つの集合を含む一つ以上の車線ブロブ(Blob)を生成させる段階;及び(e)前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、(i)前記車線ブロブを参照して前記入力イメージ内の一つ以上の車線候補群を検出するようにし、(ii)前記車線候補群に少なくとも一つのラインフィッティング(line−fitting)演算を適用して少なくとも一つの車線モデルを生成させることにより前記車線を検出する段階;を含むことを特徴とする方法が提供される。
一例として、前記(a)段階以前に、前記CNNは、前記入力イメージに少なくとも一つのコンボリューション演算及び少なくとも一つのデコンボレーション演算を適用することにより、前記セグメンテーションスコアマップを生成し、(i)前記入力イメージに含まれた前記車線それぞれのピクセルに対応する、前記セグメンテーションスコアマップに含まれたそれぞれの値の異なるクラス間の差異それぞれは増加し、(ii)前記入力イメージに含まれた前記それぞれの車線のピクセルに対応する、前記セグメンテーションスコアマップに含まれた前記それぞれの値の同一クラス内部の分散それぞれは減少するように、ニューラルネットワーク演算を前記セグメンテーションスコアマップに適用する。
一例として、前記(b)段階で、前記ポストプロセッシングモジュールは、(i)前記入力イメージ上の前記車線要素の位置に対応する中心座標、(ii)前記車線要素の幅、(iii)前記車線要素内に含まれたピクセルに対応する、前記セグメンテーションスコアマップ上の代表値、及び(iv)前記クラスタリングマップを利用して、前記車線要素が含まれた少なくとも一つの車線を示すクラスタリングID値の中の少なくとも一つを含む前記シード情報を生成する。
一例として、前記(c)段階で、前記ポストプロセッシングモジュールが、前記ベースモデルのうち、最も直線型に近い所定の公式によって表現される特定ベースモデルを、前記車線アンカーの一つとして決定し、前記所定の公式は、前記車線要素の前記中心座標を参照して導き出される。
一例として、前記(c)段階で、前記ポストプロセッシングモジュールが、特定ベースモデルを前記車線アンカーの一つとして決定し、前記特定ベースモデルは、前記ベースモデルのうち、(i)前記セグメンテーションスコアマップ上の代表値が予め設定された閾値以上であり(ii)前記クラスタリングマップを利用して取得されたクラスタリングID値が類似した、特定車線要素を参照して選択される。
一例として、前記(c)段階で、前記ポストプロセッシングモジュールが、特定ベースモデルを前記車線アンカーの一つとして決定し、前記特定ベースモデルは、前記ベースモデルのうち、前記シード情報に含まれたクラスタリングID値の最も小さい分散値を有する特定車線要素を参照して選択される。
一例として、前記(d)段階において、前記ポストプロセッシングモジュールが、各前記車線アンカーに隣接したそれぞれの特定車線要素をトレーシング(tracing)及びグループピング(grouping)することにより、前記車線ブロブを生成する。
一例として、前記ポストプロセッシングモジュールが、前記シード情報に含まれた、それぞれの前記車線アンカーに対応する、それぞれのクラスタリングID値と、それぞれの代表値と、それぞれの幅とを参照して、それぞれの前記車線アンカーに隣接したそれぞれの前記特定車線要素をトレーシング及びグループピングすることにより、それぞれの前記車線ブロブを生成する。
一例として、前記ポストプロセッシングモジュールが、各前記車線アンカーごとに、各前記車線アンカーに沿って両方向に前記特定車線要素をトレーシング及びグループピングすることにより、前記車線ブロブを生成する。
一例として、前記(e)段階で、前記ポストプロセッシングモジュールが、(i)前記車線ブロブに隣接した前記ピクセルのうち、前記車線要素に含まれていない特定ピクセルを探し出して追加して前記車線ブロブを拡張し、(ii)前記拡張された車線ブロブを統合することにより、前記車線候補群を検出する。
一例として、前記(e)段階で、前記ポストプロセッシングモジュールが、前記車線ブロブ間の方向性が互いに一致し、前記クラスタリングID値が予め設定された範囲内に含まれている前記車線ブロブを統合することにより、前記車線候補群を検出する。
一例として、前記(e)段階で、それぞれの前記車線ブロブの方向性と、車線であると誤認されたそれぞれのグループの方向性との差異それぞれは予め設定された閾値以下であるが、それぞれの前記車線ブロブの各クラスタリングID値と、前記誤認されたそれぞれのグループの各クラスタリングID値とが予め設定された範囲内に含まれていない場合、前記ポストプロセッシングモジュールは、前記車線ブロブ及び前記誤認されたグループのうち、前記セグメンテーションスコアマップ上の値の平均がより低い一部を除去する。
一例として、前記(e)段階で、前記ラインフィッティング演算は、それぞれの前記車線内に含まれる前記車線の中心座標間の関係を利用する多項式フィッティング(polynomial fitting)により多項式(polynomial)モデルを出力する演算である。
一例として、前記(e)段階で、前記ラインフィッティング演算は、前記車線アンカーの中の、前記トレーシングを遂行する間にエラーの少ない特定車線アンカーの中心位置をスプライン(spline)のキーポイントに選択することにより、スプラインモデルを出力する演算である。
本発明の他の態様によれば、セグメンテーションスコアマップ及びクラスタリングマップを利用して一つ以上の車線を検出するためのコンピューティング装置において、インストラクションを格納する少なくとも一つのメモリ;及び(I)CNN(Convolutional neural network)が前記入力イメージを利用して前記セグメンテーションスコアマップ及び前記クラスタリングマップを生成すると、前記CNNの後部においてデータプロセッシングを遂行するポストプロセッシングモジュールをもって、(i)前記セグメンテーションスコアマップを参照して、前記入力イメージ上の前記車線を構成するピクセルを含む単位領域である車線要素を検出するようにし、(ii)前記車線要素と、前記セグメンテーションスコアマップと、前記クラスタリングマップとを参照してシード(seed)情報を生成するようにするプロセス、(II)前記ポストプロセッシングモジュールをもって、前記シード情報を参照して前記車線それぞれに対応する一つ以上のベースモデルを生成させ、これを参照して一つ以上の車線アンカー(anchor)を生成するようにするプロセス、(III)前記ポストプロセッシングモジュールをもって、前記車線アンカーを参照して、前記車線要素の少なくとも一つの集合を含む一つ以上の車線ブロブ(Blob)を生成させるプロセス、及び(IV)前記ポストプロセッシングモジュールをもって、(i)前記車線ブロブを参照して前記入力イメージ内の一つ以上の車線候補群を検出するようにし、(ii)前記車線候補群に少なくとも一つのラインフィッティング(line−fitting)演算を適用して少なくとも一つの車線モデルを生成させることにより前記車線を検出するプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;を含むことを特徴とするコンピューティング装置が提供される。
一例として、前記セグメンテーションスコアマップ及び前記クラスタリングマップが取得される前に、前記CNNは、前記入力イメージに少なくとも一つのコンボリューション演算及び少なくとも一つのデコンボレーション演算を適用することにより、前記セグメンテーションスコアマップを生成し、(i)前記入力イメージに含まれた前記車線それぞれのピクセルに対応する、前記セグメンテーションスコアマップに含まれたそれぞれの値の異なるクラス間の差異それぞれは増加し、(ii)前記入力イメージに含まれた前記それぞれの車線のピクセルに対応する、前記セグメンテーションスコアマップに含まれた前記それぞれの値の同一クラス内部の分散それぞれは減少するように、ニューラルネットワーク演算を前記セグメンテーションスコアマップに適用する。
一例として、前記(I)プロセスで、前記ポストプロセッシングモジュールは、(i)前記入力イメージ上の前記車線要素の位置に対応する中心座標、(ii)前記車線要素の幅、(iii)前記車線要素内に含まれたピクセルに対応する、前記セグメンテーションスコアマップ上の代表値、及び(iv)前記クラスタリングマップを利用して、前記車線要素が含まれた少なくとも一つの車線を示すクラスタリングID値の中の少なくとも一つを含む前記シード情報を生成する。
一例として、 前記(II)プロセスで、前記ポストプロセッシングモジュールが、前記ベースモデルのうち、最も直線型に近い所定の公式によって表現される特定ベースモデルを、前記車線アンカーの一つとして決定し、前記所定の公式は、前記車線要素の前記中心座標を参照して導き出される。
一例として、前記(II)プロセスで、前記ポストプロセッシングモジュールが、特定ベースモデルを前記車線アンカーの一つとして決定し、前記特定ベースモデルは、前記ベースモデルのうち、(i)前記セグメンテーションスコアマップ上の代表値が予め設定された閾値以上であり(ii)前記クラスタリングマップを利用して取得されたクラスタリングID値が類似した、特定車線要素を参照して選択される。
一例として、前記(II)プロセスで、前記ポストプロセッシングモジュールが、特定ベースモデルを前記車線アンカーの一つとして決定し、前記特定ベースモデルは、前記ベースモデルのうち、前記シード情報に含まれたクラスタリングID値の最も小さい分散値を有する特定車線要素を参照して選択される。
一例として、前記(III)プロセスで、前記ポストプロセッシングモジュールが、各前記車線アンカーに隣接したそれぞれの特定車線要素をトレーシング(tracing)及びグループピング(grouping)することにより、前記車線ブロブを生成する。
一例として、前記ポストプロセッシングモジュールが、前記シード情報に含まれた、それぞれの前記車線アンカーに対応する、それぞれのクラスタリングID値と、それぞれの代表値と、それぞれの幅とを参照して、それぞれの前記車線アンカーに隣接したそれぞれの前記特定車線要素をトレーシング及びグループピングすることにより、それぞれの前記車線ブロブを生成する。
一例として、前記ポストプロセッシングモジュールが、各前記車線アンカーごとに、各前記車線アンカーに沿って両方向に前記特定車線要素をトレーシング及びグループピングすることにより、前記車線ブロブを生成する。
一例として、前記(IV)プロセスで、前記ポストプロセッシングモジュールが、(i)前記車線ブロブに隣接した前記ピクセルのうち、前記車線要素に含まれていない特定ピクセルを探し出して追加して前記車線ブロブを拡張し、(ii)前記拡張された車線ブロブを統合することにより、前記車線候補群を検出する。
一例として、前記(IV)プロセスで、前記ポストプロセッシングモジュールが、前記車線ブロブ間の方向性が互いに一致し、前記クラスタリングID値が予め設定された範囲内に含まれている前記車線ブロブを統合することにより、前記車線候補群を検出する。
一例として、前記(IV)プロセスで、それぞれの前記車線ブロブの方向性と、車線であると誤認されたそれぞれのグループの方向性との差異それぞれは予め設定された閾値以下であるが、それぞれの前記車線ブロブの各クラスタリングID値と、前記誤認されたそれぞれのグループの各クラスタリングID値とが予め設定された範囲内に含まれていない場合、前記ポストプロセッシングモジュールは、前記車線ブロブ及び前記誤認されたグループのうち、前記セグメンテーションスコアマップ上の値の平均がより低い一部を除去する。
一例として、前記(IV)プロセスで、前記ラインフィッティング演算は、それぞれの前記車線内に含まれる前記車線の中心座標間の関係を利用する多項式フィッティング(polynomial fitting)により多項式(polynomial)モデルを出力する演算である。
一例として、前記(IV)プロセスで、前記ラインフィッティング演算は、前記車線アンカーの中の、前記トレーシングを遂行する間にエラーの少ない特定車線アンカーの中心位置をスプライン(spline)のキーポイントに選択することにより、スプラインモデルを出力する演算である。
本発明は、セグメンテーションスコアマップとともにクラスタリングマップを利用して車線検出のためのポストプロセッシング(post−processing)がより円滑に行われるようにする効果がある。
また、本発明は、セグメンテーションスコアマップ及びクラスタリングマップを参照して導き出された、車線要素と、車線アンカー(anchor)と、車線ブロブ(Blob)等とを利用して最適化された車線検出を遂行する効果がある。
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうちの一部に過ぎず、本発明が属する技術分野でおいて、通常の知識を有する者(以下「通常の技術者」)は、発明的作業が行われることなくこの図面に基づいて他の図面が得られ得る。
本発明のセグメンテーションスコアマップ及びクラスタリングマップを利用して車線を検出するポストプロセッシング(post−processing)方法を遂行するコンピューティング装置の構成を示した図面である。 本発明の一例に係るポストプロセッシング方法の流れを示したフローチャートである。 本発明の一例に係るポストプロセッシングモジュールによって利用されるセグメンテーションスコアマップ及びクラスタリングマップを示した図面である。 本発明の一例に係る車線要素を示した図面である。 本発明の一例に係る車線アンカーを示した図面である。 本発明の一例に係る車線ブロブを示した図面である。
後述する本発明に対する詳細な説明は、本発明の各目的、技術的解決方法及び長所を明確にするために、本発明が実施され得る特定実施例を例示として示す添付図面を参照する。これらの実施例は、通常の技術者が本発明を実施することができるように充分詳細に説明される。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
さらに、本発明は、本明細書に示された実施例のあらゆる可能な組み合わせを網羅する。本発明の多様な実施例は相互異なるが、相互排他的である必要はないことを理解されたい。例えば、ここに記載されている特定の形状、構造及び特性は一例と関連して、本発明の精神及び範囲を逸脱せず、かつ他の実施例で実装され得る。また、各々の開示された実施例内の個別構成要素の位置または配置は本発明の精神及び範囲を逸脱せずに変更され得ることを理解されたい。従って、後述する詳細な説明は限定的な意味で捉えようとするものではなく、本発明の範囲は、適切に説明されれば、その請求項が主張することと均等なすべての範囲と、併せて添付された請求項によってのみ限定される。図面で類似する参照符号はいくつかの側面にかけて同一か類似する機能を指称する。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施することができるようにするために、本発明の好ましい実施例について添付の図面に基づいて詳細に説明する。
本発明において、すべてのプロセッサ、すべてのメモリ、すべての格納装置、あるいはその他のコンピューティング構成要素は相互に分離して記述されるが、前記すべてのプロセッサ、前記すべてのメモリ、前記すべての格納装置、あるいは前記その他コンピューティング構成要素は、単一装置あるいはこれらの組み合わせで構成されることもある。
図1は、本発明のセグメンテーションスコアマップ及びクラスタリングマップを利用して車線を検出するポストプロセッシング(post−processing)方法を遂行するコンピューティング装置の構成を示した図面である。
図1を参照すれば、前記コンピューティング装置100は、CNN(Convolutional Neural Network)200及びポストプロセッシングモジュール300を含み得る。前記CNN200及び前記ポストプロセッシングモジュール300の演算過程は、それぞれの通信部110及びプロセッサ120によって行われ得る。ただし、図1では、前記通信部110及び前記プロセッサ120の具体的な連結関係を省略した。また、前記コンピューティング装置は、後述するプロセスを遂行するコンピュータ読取り可能なインストラクション(computer readable instruction)を格納し得るメモリ115を追加的に含み得る。一例として、前記プロセッサ、前記メモリ、及び媒体等は、一つのプロセッサに統合されて機能することもできる。
以上、本発明の前記セグメンテーションスコアマップ及び前記クラスタリングマップを利用して車線を検出する前記ポストプロセッシング方法を遂行する前記コンピューティング装置100の構成を説明したところ、本発明の前記ポストプロセッシング方法について、図2を参照して概括的に説明する。
図2は、本発明の一例に係る前記ポストプロセッシング方法の流れを示したフローチャートである。
図2を参照すれば、前記CNN200によって入力イメージから前記セグメンテーションスコアマップと前記クラスタリングマップとが生成されると、前記ポストプロセッシングモジュール300がこれを取得するであろう(S01)。前記ポストプロセッシングモジュール300が車線の要素を検出し(S02)、前記車線要素と、前記セグメンテーションスコアマップと、前記クラスタリングマップとを参照してシード(seed)情報を生成するであろう(S03)。この後、前記ポストプロセッシングモジュール300は、前記シード情報を参照して車線アンカーを生成し(S04)、前記車線アンカーそれぞれを参照して各車線ブロブを生成し得る(S05)。最後に、前記ポストプロセッシングモジュール300は、前記車線ブロブを参照して車線候補群を検出し(S06)、前記車線候補群に少なくとも一つのラインフィッティング(line−fitting)演算を適用することにより前記車線を検出する(S07)。
図2を参照に概括的な本発明の一例に係る前記ポストプロセッシング方法を述べたが、これをさらに具体的に説明する。
まず、前記CNN200をもって、前記入力イメージから前記セグメンテーションスコアマップ及び前記クラスタリングマップが生成されると、前記コンピューティング装置100内に含まれた前記通信部110がこれを取得し、前記ポストプロセッシングモジュール300に前記セグメンテーションスコアマップ及び前記クラスタリングマップが伝達される。前記セグメンテーションスコアマップ及び前記クラスタリングマップを生成するプロセスは、図3を参照して説明することにする。
図3は、本発明の一例に係る前記ポストプロセッシングモジュールによって利用され得る前記セグメンテーションスコアマップ及び前記クラスタリングマップを示した図面である。
図3を参照すれば、前記入力イメージ上の車線と車線ではない部分が区分されるように、前記セグメンテーションスコアマップ内にセグメンテーションスコアが分布していることが確認できる。ここで、前記セグメンテーションスコアマップは全て数字で構成されているが、図3において前記セグメンテーションスコアマップを視覚化するために前記数字の大きさによって色(日本の特許法施行規則において着色図面が認められていないため、白黒図面を添付)を変えて表現した。前記セグメンテーションスコアマップだけを参照して車線と車線ではない部分は区別され得るが、前記車線と判断されるそれぞれのピクセルが同じ車線に属するか否か、あるいは互いに異なる車線に属するか否かを判断できないので、前記クラスタリングマップが一緒に利用され、前記クラスタリングマップ上の各前記値は、それぞれの前記ピクセルが同じクラスタあるいは互いに異なるクラスタ内に含まれているか否かを示す。図3を再び参照すれば、前記入力イメージと比較した際、左側車線と、真ん中の車線と、右側車線とのそれぞれは互いに区分される領域に属し、同じ領域内に存在する値は互いに類似する。従って、図3において同一車線に対応する領域は類似した色を示す。このように、前記CNNから導き出された二つのマップを利用して、前記ポストプロセッシングモジュール300は、前記車線を検出することができる。
この際、前記CNN200は、前記入力イメージに少なくとも一つのコンボリューション演算及び少なくとも一つのデコンボレーション演算を適用することにより、前記セグメンテーションスコアマップを生成し、(i)前記入力イメージ内に含まれた前記車線それぞれのピクセルに対応する、前記セグメンテーションスコアマップに含まれたそれぞれの値の異なるクラス間の差異それぞれは増加し、(ii)前記入力イメージ内に含まれた前記それぞれの車線のピクセルに対応する、前記セグメンテーションスコアマップに含まれた前記それぞれの値の同一クラス内部の分散それぞれは減少するように、ニューラルネットワーク演算を前記セグメンテーションスコアマップに適用する。
前記のようなプロセスに応じて前記コンピューティング装置100が前記ポストプロセッシングモジュール300をもって、前記セグメンテーションスコアマップ及び前記クラスタリングマップをどのように利用するようにするか説明するための前提として、図4を参照して前記車線要素がどのように定義されるのかを説明することにする。
図4は、本発明の一例に係る前記車線要素を示した図面である。図4を参照すれば、前記車線要素は、前記入力イメージ上で前記車線を構成するピクセルを含む単位領域であることが分かる。前記車線要素は、前記Y軸上の位置を変更しながら前記入力イメージ上の車線をX軸方向に沿って切断されたそれぞれの単位領域であり得るが、これに限るものではないであろう。以下、この発明では、前記車線要素が図4と類似して前記Y軸方向に一つのピクセル幅を有しながら前記X軸方向に沿って切断された単位領域であることを想定して説明することにする。
前記ポストプロセッシングモジュール300が、前記セグメンテーションスコアマップ上で周辺の値より大きい値を有するピクセルを車線候補群の領域として検出し、前記Y軸方向に配列されたピクセルごと、前記X軸方向に沿って前記車線候補群の領域を切断して生成された結果を前記車線要素として検出し得る。
前記車線要素が検出されると、前記ポストプロセッシングモジュール300は、前記車線要素及び前記クラスタリングマップを利用して、それぞれの前記車線要素に対応するそれぞれの前記シード情報を生成するのだが、これについて具体的に説明する。
前記ポストプロセッシングモジュール300は、(i)それぞれの前記車線要素の両端座標を検出し、前記両端座標を利用して中心に位置したピクセルの座標を算出し、(ii)前記検出された両段座標を利用して、それぞれの前記車線要素の横幅を算出し、(iii)それぞれの前記車線要素内に含まれたピクセルに対応する前記セグメンテーションスコアマップ上の前記値のうち、最も大きい値それぞれをそれぞれの前記車線要素の代表値それぞれに決定し得、(iv)前記クラスタリングマップを利用して、前記車線要素それぞれがどの車線に属するかを示すそれぞれのクラスタリングID値を取得することができる。それぞれの前記クラスタリングID値は、前記中心座標に対応する、前記クラスタリングマップ上の値あるいは前記代表値のピクセルに対応する前記クラスタリングマップ上の値であり得るが、これに限られるものではないであろう。つまり、ポストプロセッシングモジュール300は、それぞれの前記車線要素に対応する、(i)前記中心座標、(ii)前記車線要素の幅、(iii)前記代表値、及び(iv)前記クラスタリングID値を含む前記シード情報を生成する。
前記シード情報が前記ポストプロセッシングモジュール300によって生成されると、前記コンピューティング装置100は、前記ポストプロセッシングモジュール300をもって、前記シード情報を参照して、車線ごとに車線のアンカー(anchor)を検出するようにする。
前記車線アンカーは、ベースモデルの中で、車線としての特徴性が最も強い特定ベースモデルである。これは、後述する車線としての特徴性を最も強く有することを意味する。その際、前記車線アンカーを基盤に前記車線要素に統合演算等の一つ以上の演算を加えて前記車線が検出されるはずなので、車線としての特徴性が最も強い前記特定ベースモデルが前記車線アンカーとして決定されるのである。前記特定ベースモデルを探すために、前記シード情報を参照して、車線ごとに一つ以上のベースモデルが生成され、前記特定ベースモデルを基盤に車線が導き出される際に最もエラーが少ないと予想される前記特定ベースモデルが前記車線アンカーとして決定される。
前記ポストプロセッシングモジュール300によって前記車線のアンカーを決定する方法を次に説明する。
前記ポストプロセッシングモジュール300は、前記車線要素の前記中心座標間の数学的関係を導き出し、これに応じて前記各ベースモデルを生成することができる。前記ポストプロセッシングモジュール300は、前記ベースモデルのうち、最も直線型に近い所定の公式によって表現される特定ベースモデルを、前記車線アンカーとして決定し、前記所定の公式は、前記車線要素の前記中心座標を参照して導き出される。例えば、前記所定の公式は直線にうまくフィッティングするものであろう。
すなわち、前記所定の公式が直線を示すほどに前記車線要素が一貫したグループを成しているならば、前記特定ベースモデルをベースに車線を検出した際に良い結果が導き出されることが予想されるため、これを前記車線アンカーとして決定する。このような前記車線アンカーの一例を見てみるために、図5を参照することにする。
図5は、本発明の一例に係る前記車線アンカーを示した図面である。図5を参照すると、それぞれの前記車線内で最も直線に近い部分に対応する少なくとも一つの特定ベースモデルが前記車線アンカーの中の少なくとも一つとして決定されたことが分かる。このように、前記決定された車線アンカーそれぞれを利用してそれぞれの前記車線ブロブが生成され、その後、ピクセルを前記車線ブロブに追加する演算を適用して前記車線が検出されるのである。前記車線アンカーは前記車線検出の基盤となるので、車線としての特徴性が最も強いモデルが選択されるべきである。
前記のように、前記車線要素の前記中心座標に対応するグラフの線形性を基盤に前記車線アンカーを決定し得、また他の例として、前記車線要素の前記代表値を利用して前記車線アンカーが決定され得る。
つまり、前記ポストプロセッシングモジュール300が、それぞれの前記車線の要素に対応する前記シード情報内に含まれた代表値が所定閾値以上であり、前記シード情報内に含まれたクラスタリングID値が互いに類似した車線の要素を参照して、前記車線のアンカーを決定することができる。
前記セグメンテーションスコアマップ上の値それぞれは、前記CNN200によって前記入力イメージ上の各ピクセルが車線の一部として決定される確率を示す。この際、それぞれの前記値が大きければ、前記ピクセルが前記車線の一部である確率が高いことを意味する。従って、代表値が所定の閾値以上の車線要素に対応する前記特定ベースモデルを基盤に車線が検出されると良い結果が導き出されると予想されるため、このように前記車線アンカーが決定され得る。前記クラスタリングID値が互いに類似しているという条件は、前記クラスタリングID値がそれぞれの前記車線ごとにそれぞれの前記車線アンカーを区別するために利用されるため要求される条件である。
さらに、前記クラスタリングID値を利用して前記車線アンカーを生成することもできるであろう。つまり、前記ポストプロセッシングモジュール300が、前記それぞれの車線要素に対応する前記クラスタリングID値の分散が一番小さい車線要素を参照して、前記車線のアンカーを決定することができる。
前記クラスタリングマップ上の値は、それぞれのピクセルがどのグループに属するかを示す。前記値間の分散が小さい場合、小さな分散を有する前記値に対応するピクセルが同じ車線の一部である確率が高く判断される。従って、前記シード情報上の前記クラスタリングID値の分散が最も小さい車線要素に対応する前記特定ベースモデルを基盤に車線が検出されれば良い結果が導き出されると予想されるため、このように前記車線アンカーが決定され得るのである。
前記のような方法により前記車線アンカーが決定されると、前記ポストプロセッシングモジュール300は、前記車線アンカーに隣接した車線要素の集合に対応する前記車線ブロブを生成する。前記車線ブロブについて説明するため、図6を参照する。
図6は、本発明の一例に係る前記車線ブロブを示した図面である。図6を参照すれば、各前記車線アンカーに隣接したそれぞれの車線要素をトレーシング(tracing)及びグループピング(grouping)することにより、前記車線ブロブを生成する。具体的に、ポストプロセッシングモジュール300は、それぞれの前記車線アンカー周辺の前記車線要素に対応する前記シード情報上のクラスタリングID値の分布と、代表値の分布と、横軸の幅とを参照して、前記車線要素を前記車線ブロブに含めるか否か決定する。特定車線の要素が前記車線ブロブに含まれれば、前記ポストプロセッシングモジュール300は、前記新たに追加された特定車線要素を利用して、前記車線アンカーをアップデートし、このようなプロセスを各車線の車線アンカーに沿って両方向に繰り返すことにより前記車線ブロブを拡張していく。
前記のような方法で前記車線ブロブが生成されれば、前記ポストプロセッシングモジュール300は、前記生成された車線ブロブを参照して前記入力イメージ内の前記車線候補群を検出し、前記検出された車線候補群に前記ラインフィッティング演算を適用して少なくとも一つの車線モデルを生成することで、前記車線を検出することになる。
具体的に説明すると、まず、前記ポストプロセッシングモジュール300が前記車線ブロブに隣接したピクセルのうち、前記車線要素に含まれないが前記車線に含まれたピクセルを見つけて追加して前記車線ブロブを拡張し、前記拡張された車線ブロブを統合して、過多な車線ブロブの中から車線である確率がより低い車線ブロブを除去する。
前記車線ブロブを統合するプロセスは次の通りである。前記ポストプロセッシングモジュール300が、方向性が互いに一致し、クラスタリングID値が予め設定された範囲以内に含まれる前記車線ブロブを統合することにより、このような車線ブロブは同じ車線の一部に決定されるので、前記車線候補群を検出することができる。
前記車線ブロブを除去するプロセスは次の通りである。それぞれの前記車線ブロブの方向性と、車線であると誤認されたそれぞれのグループの方向性とは類似するが、それぞれの前記車線ブロブの各クラスタリングID値と、前記誤認されたそれぞれのグループの各クラスタリングID値とが予め設定された範囲内に含まれていない場合、前記ポストプロセッシングモジュール300は、前記車線ブロブ及び前記誤認されたグループのうち、前記セグメンテーションスコアマップ上の値の平均がより低い一部を除去することができる。
前記車線ブロブを統合及び除去する過程において、前記クラスタリングID値が類似しているか否かについては、それぞれの前記クラスタリングID値がそれぞれの予め設定された範囲内に属しているかを確認して判断される。
前記のようなプロセスによってそれぞれの前記車線に対する前記車線候補群が検出されると、前記車線モデルが前記車線候補群に前記ラインフィッティング演算を適用して生成されることにより、最終的に前記車線が検出される。前記ラインフィッティング演算として、様々な方法が適用され得る。例えば、前記多項式フィッティング(polynomial fitting)またはスプライン(spline)曲線を利用した方法が適用され得る。
前記多項式フッティングが利用される場合、前記車線候補群に含まれた前記車線要素の前記中心座標のそれぞれの第1成分とそれぞれの第2成分との間の関係を示す多項式を利用して、前記車線に対するラインフィッティングが遂行され、その結果である車線モデルが生成されて前記車線を検出することができるであろう。
前記スプランの曲線が利用される場合、前記車線アンカーのうちエラーが小さいアンカーの中心位置が前記スプランのキーポイントに選択された多項式モデルを生成して車線モデルが生成されることにより、車線が検出されるであろう。
本発明により前記車線を検出して、自律走行車のための走行経路を最適化することができる。
また、以上で説明された本発明に係る実施例は、多様なコンピュータ構成要素を通じて遂行できるプログラム命令語の形態で実装されてコンピュータ読取り可能な記録媒体に記録され得る。前記コンピュータで読取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含まれ得る。前記コンピュータ読取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるか、コンピュータソフトウェア分野の当業者に公知となって使用可能なものでもよい。コンピュータで判読可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(flopticaldisk)のような磁気−光媒体(magneto−opticalmedia)、およびROM、RAM、フラッシュメモリなどといったプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明に係る処理を遂行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その逆も同様である。
以上、本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば係る記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (28)

  1. セグメンテーションスコアマップ及びクラスタリングマップを利用して一つ以上の車線を検出するポストプロセッシング(post−processing)方法において、
    (a)CNN(Convolutional neural network)が入力イメージを利用して前記セグメンテーションスコアマップ及び前記クラスタリングマップを生成すると、コンピューティング装置がこれを取得する段階;
    (b)前記コンピューティング装置が、前記CNNの後部においてデータプロセッシングを遂行するポストプロセッシングモジュールをもって(i)前記セグメンテーションスコアマップを参照して、前記入力イメージ上の前記車線を構成するピクセルを含む単位領域である車線要素を検出するようにし、(ii)前記車線要素と、前記セグメンテーションスコアマップと、前記クラスタリングマップとを参照してシード(seed)情報を生成するようにする段階;
    (c)前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記シード情報を参照して前記車線それぞれに対応する一つ以上のベースモデルを生成させ、これを参照して一つ以上の車線アンカー(anchor)を生成するようにする段階;
    (d)前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記車線アンカーを参照して、前記車線要素の少なくとも一つの集合を含む一つ以上の車線ブロブ(Blob)を生成させる段階;及び
    (e)前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、(i)前記車線ブロブを参照して前記入力イメージ内の一つ以上の車線候補群を検出するようにし、(ii)前記車線候補群に少なくとも一つのラインフィッティング(line−fitting)演算を適用して少なくとも一つの車線モデルを生成させることにより前記車線を検出する段階;
    を含むことを特徴とする方法。
  2. 前記(a)段階以前に、
    前記CNNは、前記入力イメージに少なくとも一つのコンボリューション演算及び少なくとも一つのデコンボレーション演算を適用することにより、前記セグメンテーションスコアマップを生成し、(i)前記入力イメージに含まれた前記車線それぞれのピクセルに対応する、前記セグメンテーションスコアマップに含まれたそれぞれの値の異なるクラス間の差異それぞれは増加し、(ii)前記入力イメージに含まれた前記それぞれの車線のピクセルに対応する、前記セグメンテーションスコアマップに含まれた前記それぞれの値の同一クラス内部の分散それぞれは減少するように、ニューラルネットワーク演算を前記セグメンテーションスコアマップに適用することを特徴とする請求項1に記載の方法。
  3. 前記(b)段階で、
    前記ポストプロセッシングモジュールは、(i)前記入力イメージ上の前記車線要素の位置に対応する中心座標、(ii)前記車線要素の幅、(iii)前記車線要素内に含まれたピクセルに対応する、前記セグメンテーションスコアマップ上の代表値、及び(iv)前記クラスタリングマップを利用して、前記車線要素が含まれた少なくとも一つの車線を示すクラスタリングID値の中の少なくとも一つを含む前記シード情報を生成することを特徴とする請求項1に記載の方法。
  4. 前記(c)段階で、
    前記ポストプロセッシングモジュールが、前記ベースモデルのうち、最も直線型に近い所定の公式によって表現される特定ベースモデルを、前記車線アンカーの一つとして決定し、前記所定の公式は、前記車線要素の前記中心座標を参照して導き出されることを特徴とする請求項1に記載の方法。
  5. 前記(c)段階で、
    前記ポストプロセッシングモジュールが、特定ベースモデルを前記車線アンカーの一つとして決定し、前記特定ベースモデルは、前記ベースモデルのうち、(i)前記セグメンテーションスコアマップ上の代表値が予め設定された閾値以上であり(ii)前記クラスタリングマップを利用して取得されたクラスタリングID値が類似した、特定車線要素を参照して選択されることを特徴とする請求項1に記載の方法。
  6. 前記(c)段階で、
    前記ポストプロセッシングモジュールが、特定ベースモデルを前記車線アンカーの一つとして決定し、前記特定ベースモデルは、前記ベースモデルのうち、前記シード情報に含まれたクラスタリングID値の最も小さい分散値を有する特定車線要素を参照して選択されることを特徴とする請求項1に記載の方法。
  7. 前記(d)段階において、
    前記ポストプロセッシングモジュールが、各前記車線アンカーに隣接したそれぞれの特定車線要素をトレーシング(tracing)及びグループピング(grouping)することにより、前記車線ブロブを生成することを特徴とする請求項1に記載の方法。
  8. 前記ポストプロセッシングモジュールが、前記シード情報に含まれた、それぞれの前記車線アンカーに対応する、それぞれのクラスタリングID値と、それぞれの代表値と、それぞれの幅とを参照して、それぞれの前記車線アンカーに隣接したそれぞれの前記特定車線要素をトレーシング及びグループピングすることにより、それぞれの前記車線ブロブを生成することを特徴とする請求項7に記載の方法。
  9. 前記ポストプロセッシングモジュールが、各前記車線アンカーごとに、各前記車線アンカーに沿って両方向に前記特定車線要素をトレーシング及びグループピングすることにより、前記車線ブロブを生成することを特徴とする請求項8に記載の方法。
  10. 前記(e)段階で、
    前記ポストプロセッシングモジュールが、(i)前記車線ブロブに隣接した前記ピクセルのうち、前記車線要素に含まれていない特定ピクセルを探し出して追加して前記車線ブロブを拡張し、(ii)前記拡張された車線ブロブを統合することにより、前記車線候補群を検出することを特徴とする請求項1に記載の方法。
  11. 前記(e)段階で、
    前記ポストプロセッシングモジュールが、前記車線ブロブ間の方向性が互いに一致し、前記クラスタリングID値が予め設定された範囲内に含まれている前記車線ブロブを統合することにより、前記車線候補群を検出することを特徴とする請求項1に記載の方法。
  12. 前記(e)段階で、
    それぞれの前記車線ブロブの方向性と、車線であると誤認されたそれぞれのグループの方向性との差異それぞれは予め設定された閾値以下であるが、それぞれの前記車線ブロブの各クラスタリングID値と、前記誤認されたそれぞれのグループの各クラスタリングID値とが予め設定された範囲内に含まれていない場合、前記ポストプロセッシングモジュールは、前記車線ブロブ及び前記誤認されたグループのうち、前記セグメンテーションスコアマップ上の値の平均がより低い一部を除去することを特徴とする請求項1に記載の方法。
  13. 前記(e)段階で、
    前記ラインフィッティング演算は、それぞれの前記車線内に含まれる前記車線の中心座標間の関係を利用する多項式フィッティング(polynomial fitting)により多項式(polynomial)モデルを出力する演算であることを特徴とする請求項1に記載の方法。
  14. 前記(e)段階で、
    前記ラインフィッティング演算は、前記車線アンカーの中の、前記トレーシングを遂行する間にエラーの少ない特定車線アンカーの中心位置をスプライン(spline)のキーポイントに選択することにより、スプラインモデルを出力する演算であることを特徴とする請求項1に記載の方法。
  15. セグメンテーションスコアマップ及びクラスタリングマップを利用して一つ以上の車線を検出するためのコンピューティング装置において、
    インストラクションを格納する少なくとも一つのメモリ;及び
    (I)CNN(Convolutional neural network)が前記入力イメージを利用して前記セグメンテーションスコアマップ及び前記クラスタリングマップを生成すると、前記CNNの後部においてデータプロセッシングを遂行するポストプロセッシングモジュールをもって、(i)前記セグメンテーションスコアマップを参照して、前記入力イメージ上の前記車線を構成するピクセルを含む単位領域である車線要素を検出するようにし、(ii)前記車線要素と、前記セグメンテーションスコアマップと、前記クラスタリングマップとを参照してシード(seed)情報を生成するようにするプロセス、(II)前記ポストプロセッシングモジュールをもって、前記シード情報を参照して前記車線それぞれに対応する一つ以上のベースモデルを生成させ、これを参照して一つ以上の車線アンカー(anchor)を生成するようにするプロセス、(III)前記ポストプロセッシングモジュールをもって、前記車線アンカーを参照して、前記車線要素の少なくとも一つの集合を含む一つ以上の車線ブロブ(Blob)を生成させるプロセス、及び(IV)前記ポストプロセッシングモジュールをもって、(i)前記車線ブロブを参照して前記入力イメージ内の一つ以上の車線候補群を検出するようにし、(ii)前記車線候補群に少なくとも一つのラインフィッティング(line−fitting)演算を適用して少なくとも一つの車線モデルを生成させることにより前記車線を検出するプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
    を含むことを特徴とするコンピューティング装置。
  16. 前記セグメンテーションスコアマップ及び前記クラスタリングマップが取得される前に、前記CNNは、前記入力イメージに少なくとも一つのコンボリューション演算及び少なくとも一つのデコンボレーション演算を適用することにより、前記セグメンテーションスコアマップを生成し、(i)前記入力イメージに含まれた前記車線それぞれのピクセルに対応する、前記セグメンテーションスコアマップに含まれたそれぞれの値の異なるクラス間の差異それぞれは増加し、(ii)前記入力イメージに含まれた前記それぞれの車線のピクセルに対応する、前記セグメンテーションスコアマップに含まれた前記それぞれの値の同一クラス内部の分散それぞれは減少するように、ニューラルネットワーク演算を前記セグメンテーションスコアマップに適用することを特徴とする請求項15に記載のコンピューティング装置。
  17. 前記(I)プロセスで、
    前記ポストプロセッシングモジュールは、(i)前記入力イメージ上の前記車線要素の位置に対応する中心座標、(ii)前記車線要素の幅、(iii)前記車線要素内に含まれたピクセルに対応する、前記セグメンテーションスコアマップ上の代表値、及び(iv)前記クラスタリングマップを利用して、前記車線要素が含まれた少なくとも一つの車線を示すクラスタリングID値の中の少なくとも一つを含む前記シード情報を生成することを特徴とする請求項15に記載のコンピューティング装置。
  18. 前記(II)プロセスで、
    前記ポストプロセッシングモジュールが、前記ベースモデルのうち、最も直線型に近い所定の公式によって表現される特定ベースモデルを、前記車線アンカーの一つとして決定し、前記所定の公式は、前記車線要素の前記中心座標を参照して導き出されることを特徴とする請求項15に記載のコンピューティング装置。
  19. 前記(II)プロセスで、
    前記ポストプロセッシングモジュールが、特定ベースモデルを前記車線アンカーの一つとして決定し、前記特定ベースモデルは、前記ベースモデルのうち、(i)前記セグメンテーションスコアマップ上の代表値が予め設定された閾値以上であり(ii)前記クラスタリングマップを利用して取得されたクラスタリングID値が類似した、特定車線要素を参照して選択されることを特徴とする請求項15に記載のコンピューティング装置。
  20. 前記(II)プロセスで、
    前記ポストプロセッシングモジュールが、特定ベースモデルを前記車線アンカーの一つとして決定し、前記特定ベースモデルは、前記ベースモデルのうち、前記シード情報に含まれたクラスタリングID値の最も小さい分散値を有する特定車線要素を参照して選択されることを特徴とする請求項15に記載のコンピューティング装置。
  21. 前記(III)プロセスで、
    前記ポストプロセッシングモジュールが、各前記車線アンカーに隣接したそれぞれの特定車線要素をトレーシング(tracing)及びグループピング(grouping)することにより、前記車線ブロブを生成することを特徴とする請求項15に記載のコンピューティング装置。
  22. 前記ポストプロセッシングモジュールが、前記シード情報に含まれた、それぞれの前記車線アンカーに対応する、それぞれのクラスタリングID値と、それぞれの代表値と、それぞれの幅とを参照して、それぞれの前記車線アンカーに隣接したそれぞれの前記特定車線要素をトレーシング及びグループピングすることにより、それぞれの前記車線ブロブを生成することを特徴とする請求項21に記載のコンピューティング装置。
  23. 前記ポストプロセッシングモジュールが、各前記車線アンカーごとに、各前記車線アンカーに沿って両方向に前記特定車線要素をトレーシング及びグループピングすることにより、前記車線ブロブを生成することを特徴とする請求項22に記載のコンピューティング装置。
  24. 前記(IV)プロセスで、
    前記ポストプロセッシングモジュールが、(i)前記車線ブロブに隣接した前記ピクセルのうち、前記車線要素に含まれていない特定ピクセルを探し出して追加して前記車線ブロブを拡張し、(ii)前記拡張された車線ブロブを統合することにより、前記車線候補群を検出することを特徴とする請求項15に記載のコンピューティング装置。
  25. 前記(IV)プロセスで、
    前記ポストプロセッシングモジュールが、前記車線ブロブ間の方向性が互いに一致し、前記クラスタリングID値が予め設定された範囲内に含まれている前記車線ブロブを統合することにより、前記車線候補群を検出することを特徴とする請求項15に記載のコンピューティング装置。
  26. 前記(IV)プロセスで、
    それぞれの前記車線ブロブの方向性と、車線であると誤認されたそれぞれのグループの方向性との差異それぞれは予め設定された閾値以下であるが、それぞれの前記車線ブロブの各クラスタリングID値と、前記誤認されたそれぞれのグループの各クラスタリングID値とが予め設定された範囲内に含まれていない場合、前記ポストプロセッシングモジュールは、前記車線ブロブ及び前記誤認されたグループのうち、前記セグメンテーションスコアマップ上の値の平均がより低い一部を除去することを特徴とする請求項15に記載のコンピューティング装置。
  27. 前記(IV)プロセスで、
    前記ラインフィッティング演算は、それぞれの前記車線内に含まれる前記車線の中心座標間の関係を利用する多項式フィッティング(polynomial fitting)により多項式(polynomial)モデルを出力する演算であることを特徴とする請求項15に記載のコンピューティング装置。
  28. 前記(IV)プロセスで、
    前記ラインフィッティング演算は、前記車線アンカーの中の、前記トレーシングを遂行する間にエラーの少ない特定車線アンカーの中心位置をスプライン(spline)のキーポイントに選択することにより、スプラインモデルを出力する演算であることを特徴とする請求項15に記載のコンピューティング装置。
JP2020004556A 2019-01-31 2020-01-15 セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置 Active JP6935946B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/263,168 US10423840B1 (en) 2019-01-31 2019-01-31 Post-processing method and device for detecting lanes to plan the drive path of autonomous vehicle by using segmentation score map and clustering map
US16/263,168 2019-01-31

Publications (2)

Publication Number Publication Date
JP2020126610A true JP2020126610A (ja) 2020-08-20
JP6935946B2 JP6935946B2 (ja) 2021-09-15

Family

ID=67988499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020004556A Active JP6935946B2 (ja) 2019-01-31 2020-01-15 セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置

Country Status (5)

Country Link
US (1) US10423840B1 (ja)
EP (1) EP3690707B1 (ja)
JP (1) JP6935946B2 (ja)
KR (1) KR102300906B1 (ja)
CN (1) CN111507153B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112154449A (zh) * 2019-09-26 2020-12-29 深圳市大疆创新科技有限公司 车道线融合方法、车道线融合装置、车辆和存储介质
CN111753921B (zh) * 2020-07-01 2022-10-18 广东工业大学 一种高光谱图像聚类方法、装置、设备及存储介质
CN112488009A (zh) * 2020-12-05 2021-03-12 武汉中海庭数据技术有限公司 无人机数据中的车道线形点串提取方法及系统
CN112528859B (zh) * 2020-12-11 2023-04-07 中国第一汽车股份有限公司 车道线检测方法、装置、设备及存储介质
WO2022126377A1 (zh) * 2020-12-15 2022-06-23 中国科学院深圳先进技术研究院 检测车道线的方法、装置、终端设备及可读存储介质
CN112396044B (zh) * 2021-01-21 2021-04-27 国汽智控(北京)科技有限公司 车道线属性信息检测模型训练、车道线属性信息检测方法
CN114708576B (zh) * 2022-06-06 2022-10-25 天津所托瑞安汽车科技有限公司 一种车道线确定方法、装置、设备及存储介质
CN115147811B (zh) * 2022-07-01 2023-05-30 小米汽车科技有限公司 一种车道线检测方法、装置及电子设备
CN116543365B (zh) * 2023-07-06 2023-10-10 广汽埃安新能源汽车股份有限公司 一种车道线识别方法、装置、电子设备及存储介质

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005283197A (ja) * 2004-03-29 2005-10-13 Seiko Epson Corp 画面のスジ欠陥検出方法及び装置
JP2005346300A (ja) * 2004-06-01 2005-12-15 Seiko Epson Corp 筋状欠陥検出方法及び装置
CN102129690B (zh) * 2011-03-21 2013-01-02 西安理工大学 一种抗环境干扰的人体运动目标的跟踪方法
CN102867311B (zh) * 2011-07-07 2015-11-25 株式会社理光 目标跟踪方法和目标跟踪设备
CN102542560B (zh) * 2011-10-31 2013-10-30 华中科技大学 一种水稻移栽后密度自动检测的方法
KR101347886B1 (ko) * 2012-02-20 2014-01-08 울산대학교 산학협력단 도로 영역 및 기하학적 정보를 이용한 차로 인식 방법 및 장치
CN102629326A (zh) * 2012-03-19 2012-08-08 天津工业大学 一种基于单目视觉的车道线检测方法
DE102012111010A1 (de) * 2012-11-15 2014-06-12 Eads Deutschland Gmbh Verfahren und Vorrichtung zur bildgestützten Landebahnlokalisierung
KR102016549B1 (ko) * 2014-01-13 2019-08-30 한화디펜스 주식회사 차량 및 차선 위치 검출 시스템 및 방법
US10410096B2 (en) * 2015-07-09 2019-09-10 Qualcomm Incorporated Context-based priors for object detection in images
CN105260699B (zh) * 2015-09-10 2018-06-26 百度在线网络技术(北京)有限公司 一种车道线数据的处理方法及装置
US9965719B2 (en) * 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection
US10037471B2 (en) * 2016-07-05 2018-07-31 Nauto Global Limited System and method for image analysis
US20180048894A1 (en) * 2016-08-11 2018-02-15 Qualcomm Incorporated Methods and systems of performing lighting condition change compensation in video analytics
US10055669B2 (en) * 2016-08-12 2018-08-21 Qualcomm Incorporated Methods and systems of determining a minimum blob size in video analytics
CN106407893B (zh) * 2016-08-29 2019-11-22 东软集团股份有限公司 一种检测车道线的方法、装置和设备
US10859395B2 (en) * 2016-12-30 2020-12-08 DeepMap Inc. Lane line creation for high definition maps for autonomous vehicles
CN106845424B (zh) * 2017-01-24 2020-05-05 南京大学 基于深度卷积网络的路面遗留物检测方法
US10373002B2 (en) * 2017-03-31 2019-08-06 Here Global B.V. Method, apparatus, and system for a parametric representation of lane lines
US10209089B2 (en) * 2017-04-03 2019-02-19 Robert Bosch Gmbh Automated image labeling for vehicles based on maps
US10809361B2 (en) * 2017-05-31 2020-10-20 Uatc, Llc Hybrid-view LIDAR-based object detection
US10474908B2 (en) * 2017-07-06 2019-11-12 GM Global Technology Operations LLC Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation
CN107704837A (zh) * 2017-10-19 2018-02-16 千寻位置网络有限公司 道路网拓扑和几何信息的提取方法
CN108986127B (zh) * 2018-06-27 2021-08-31 北京市商汤科技开发有限公司 图像分割神经网络的训练方法及图像分割方法、装置
CN109214334B (zh) * 2018-09-03 2020-12-29 百度在线网络技术(北京)有限公司 车道线处理方法和装置
US10223614B1 (en) * 2018-09-04 2019-03-05 StradVision, Inc. Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same
US10229346B1 (en) * 2018-09-04 2019-03-12 StradVision, Inc. Learning method, learning device for detecting object using edge image and testing method, testing device using the same

Also Published As

Publication number Publication date
KR102300906B1 (ko) 2021-09-13
EP3690707B1 (en) 2023-10-04
JP6935946B2 (ja) 2021-09-15
EP3690707A1 (en) 2020-08-05
CN111507153B (zh) 2023-12-15
KR20200095330A (ko) 2020-08-10
EP3690707C0 (en) 2023-10-04
CN111507153A (zh) 2020-08-07
US10423840B1 (en) 2019-09-24

Similar Documents

Publication Publication Date Title
JP6935946B2 (ja) セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置
EP3686779B1 (en) Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same
KR102373487B1 (ko) 최근 주행 경로에 대한 궤적 기반 행동 분석을 수행하여 차량의 모드를 수동 주행 모드에서 자율 주행 모드로 변경할 지 여부를 판단하는 학습 방법 및 학습 장치
KR20200027427A (ko) 차선 후보 픽셀의 분류를 통해 차선을 검출하는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치
JP2019517089A (ja) 地面マーキングを認識するための画像処理方法、および地面マーキングを検出するためのシステム
CN110956069B (zh) 一种行人3d位置的检测方法及装置、车载终端
KR102349953B1 (ko) 자동차의 블라인드 스팟 모니터링을 위한 학습 방법과 테스팅 방법, 및 이를 이용한 학습 장치와 테스팅 장치
KR102373492B1 (ko) 자체적으로 생성된 정보 및 다른 개체에 의해 생성된 정보를 선택적으로 사용하여 카메라의 오정렬을 보정하는 방법 및 이를 이용한 장치
KR20200094075A (ko) 다수의 차량을 통한 센서 퓨전, v2x 통신 가능한 애플리케이션을 이용한 협업 주행을 위해 주변에 위치하는 카메라 각각에 대응되는 각각의 객체 검출기에 의해 검출되는 객체 검출 정보를 통합하는 방법 및 장치
KR20200027889A (ko) CNN(Convolutional Neural Network)을 사용하여 차선을 검출하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치
KR102296496B1 (ko) V2v 통신을 통해 획득한 정보와 카메라를 통해 획득한 정보를 융합하여 카메라의 피치 캘리브레이션을 더욱 정교하게 수행함으로써 카메라 기반 로버스트 객체 거리 예측을 제공하는 방법 및 이를 이용한 장치
CN111460879B (zh) 利用网格生成器的神经网络运算方法及使用该方法的装置
KR102349906B1 (ko) 자동차의 블라인드 스팟 모니터링을 위한 학습 방법과 테스팅 방법, 및 이를 이용한 학습 장치와 테스팅 장치
CN110909588B (zh) 基于cnn的用于车道线检测的方法和装置
JP6853543B2 (ja) 自律走行に対する論理的根拠を提示するために、管理者が物体検出器の検出プロセスを評価できるように支援する方法及び装置
JP2020119552A (ja) テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約し、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置
JP6918425B2 (ja) 撮影画像に含まれる境界線を検出するための装置、方法、及びプログラム
JP6856852B2 (ja) 横フィルタマスクを利用して自律走行車の走行経路を計画するために車線要素を検出する方法及び装置
CN115249407B (zh) 指示灯状态识别方法、装置、电子设备、存储介质及产品
CN114118188A (zh) 针对待检测图像中移动对象的处理系统、方法和存储介质
CN111461318B (zh) 利用网格生成器的神经网络运算方法及使用该方法的装置
CN111460878B (zh) 利用网格生成器的神经网络运算方法及使用该方法的装置
Kurdziel A monocular color vision system for road intersection detection
CN116630913A (zh) 一种基于特征融合的野外环境建图方法、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210819

R150 Certificate of patent or registration of utility model

Ref document number: 6935946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150