JP2016207191A - 車線逸脱警告におけるグランドトゥルース判別のための方法およびシステム - Google Patents

車線逸脱警告におけるグランドトゥルース判別のための方法およびシステム Download PDF

Info

Publication number
JP2016207191A
JP2016207191A JP2015203418A JP2015203418A JP2016207191A JP 2016207191 A JP2016207191 A JP 2016207191A JP 2015203418 A JP2015203418 A JP 2015203418A JP 2015203418 A JP2015203418 A JP 2015203418A JP 2016207191 A JP2016207191 A JP 2016207191A
Authority
JP
Japan
Prior art keywords
lane
images
image
maximum value
time slice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015203418A
Other languages
English (en)
Other versions
JP6515010B2 (ja
Inventor
ダス オプルボ
Das Apurba
ダス オプルボ
シュリニヴァーサムルティー ナガヴァジュラシヴァ
Siva Srinivasa Murthy Nagavajyula
シュリニヴァーサムルティー ナガヴァジュラシヴァ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tata Consultancy Services Ltd
Original Assignee
Tata Consultancy Services Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tata Consultancy Services Ltd filed Critical Tata Consultancy Services Ltd
Publication of JP2016207191A publication Critical patent/JP2016207191A/ja
Application granted granted Critical
Publication of JP6515010B2 publication Critical patent/JP6515010B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】車線逸脱警告におけるグランドトゥルース判別のためのシステムおよび方法を提供する。
【解決手段】画像取得ユニットから、複数の異なる時間フレームで取得された車線の複数の時間スライス画像を受信する。これら時間スライス画像の強度プロフィールが判別され、複数の画像のこれら複数の強度プロフィールが平滑化され、平滑化済ヒストグラムが取得される。これら時間スライス画像のしきい値が判別され、さらに、車線の車線マークを抽出するためにリファインされる。車線逸脱警告を検証するために用いられるグランドトゥルース値を検出する。
【選択図】図3

Description

関連出願への相互参照および優先権
本出願は、2015年4月17日付出願のインド国仮特許出願第1594/MUM/2015号に基づく優先権を主張し、該仮出願の開示内容の全てが、参照によりここに組み込まれる。
ここに説明される本発明は、一般に、デジタル信号処理に関し、より具体的には、車線逸脱警告(lane departure warning)におけるグランドトゥルース判別(ground truth determination)に関する。
運転中、特に、高速道路での運転中に、様々な制御を行う運転支援装置が知られている。また、車線のマーキング(lane marking)や車線の認識(lane recognition)を支援する方法も知られている。車線境界線(lane lines)に沿って車両を適切に運転するためには、車線境界線の位置を正確に推定する必要がある。自動車イメージング(automotive imaging)は、運転手を支援する研究の最近の流行であり、最終的には、無人自動車(driver-less car)のデザインという目的の達成を目指している。システムの質を確保するため、最先端のアルゴリズムと併せて、最先端の検証(validation:正しいかどうかを確認する)フレームワークも必要とされている。
自動車イメージングにおいて、オフラインビデオ・マーキンググランドトゥルース判別(offline video marking ground-truth determination)は、テスターまたはユーザーによって行われる、単調で退屈な作業である。典型的には、カメラは、1秒当たり30画像フレームの頻度で画像を取得する。これら画像を手動でマーキングすることは、単調で退屈な作業である。さらに、不意の環境の変化、車線マーク上での異物の不意の侵入(inclusion of foreign object)、カメラの視野内での複数の車線の存在のような状況が、主要な課題である。グランドトゥルース値は、車線逸脱アプリケーションの精度(accuracy)を判断するための参照(リファレンス)であるので、些細なエラー(minor errors)であっても許容できない。利用可能な2値化方法は、上述の問題となる状況に対して適合できない。そのため、テスターは、自動化されたアルゴリズムの監督者(supervisor)となる必要があり、要求されたときは手動に切り替えられるようにしていなければならない。
本概要は、車線逸脱警告システム用のグランドトゥルース判別のための方法およびシステムに関する様態を説明するために提供されるものであり、該様態は、以下の詳細な説明においてさらに説明される。本概要は、特許請求の範囲に記載された本発明の本質的特徴を特定する意図で用いられることはなく、さらに、本発明の範囲を決定または限定する意図で用いられるものでもない。
実施形態の1つにおいて、車線逸脱警告におけるグランドトゥルース判別のための方法が開示される。該方法は、入力として、画像取得ユニットから複数の車線画像を受信する工程を含む。さらに、該方法は、複数の車線画像を、複数の異なる時間フレームで取得された複数の時間スライス画像(time sliced images)に処理する工程を含む。さらに、該方法は、複数の時間スライス画像のそれぞれの強度プロフィール(intensity profile)を判別し、強度プロフィールを平滑化して、平滑化済ヒストグラム(smoothened histogram)を取得する工程とを含む。さらに、該方法は、平滑化済ヒストグラムの第1の最大値と、連続する第2の最大値(successive second maxima)との間の最小値を抽出することにより、複数の時間スライス画像のそれぞれのしきい値を取得する工程を含む。さらに、該方法は、複数の時間スライス画像を分割することによって、複数の時間スライス画像のしきい値をリファイン(refine:改良、改善)し、複数の個別時間スライス(individual time slices)を取得する工程と、複数の個別時間スライスのそれぞれの強度プロフィールの統計平均変動(statistical mean variation)を算出する工程と、所定の範囲内の平均強度を有する複数の個別時間スライスを、複数のスライスのクラスタ(a cluster of slices)にグループ化する工程と、該複数のスライスのクラスタの強度プロフィールの第1の最大値と、連続する第2の最大値との間の最小値を判別する工程とを含む。さらに、該方法は、複数の時間スライス画像のリファインされたしきい値に基づいて、車線の車線マークの複数の中点(mid-points)を抽出することにより、車線の車線マークを検出する工程と、車線逸脱警告を検証するために、車線の車線マークに基づいて、グランドトゥルース値を判別する工程とを含む。
さらに、該方法は、判別されたグランドトゥルースに対して、パーセンテージ検出精度(Percentage Detection Accuracy)=真の検出(True Detection)/トータル境界検出(Total Boundary Detection)*100を算出することによって、車線逸脱警告アプリケーションによって検出されたピクセル位置(pixel position)に基づいて、車線逸脱警告アプリケーション出力を検証する工程を含む。ここで、トータル境界検出は、グランドトゥルース内のピクセル数であり、真の検出は、車線逸脱警告アプリケーション内のピクセル数である。
さらに、該方法は、所定の範囲外の平均強度を有する複数の個別時間スライスを、複数のスライスのクラスタにサブグループ化する工程と、該複数のスライスのクラスタの強度プロフィールの第1の最大値と、連続する第2の最大値との間の最小値を判別する工程を含む。
該方法のしきい値をリファインする工程は、さらに、ユーザーが車線のフレーム数の選択および車線の境界の定義の少なくとも一方を実行可能とする工程を含む。
該方法のグランドトゥルースを判別する工程は、さらに、車線境界対応(lane boundary correspondence)を介した補間(interpolation)によって、車線内の複数の不連続点(discontinuity)を埋める工程を含む。ここで、車線境界対応は、車線の左側マークと右側マークとの間の距離を測定することによって車線マークを検出する工程と、画像フレームをマッピングする工程とを含む。
実施形態の1つにおいて、車線逸脱警告におけるグランドトゥルース判別のためのシステムが開示される。該システムは、画像取得ユニットと、画像取得ユニットに通信可能に接続され、画像取得ユニットから複数の車線画像を受信するよう構成された画像データベースとを含む。さらに、該システムは、画像処理ユニットを含む。画像処理ユニットは、プロセッサーと、該プロセッサーに接続されたメモリーとを含む。プロセッサーは、メモリー内に保存されている複数のモジュールを実行する。複数のモジュールは、入力として、画像データベースから車線画像を受信する受信モジュールを含む。さらに、画像処理モジュールは、受信モジュールから受信した複数の車線画像を処理し、複数の異なる時間フレームで取得された複数の時間スライス画像を取得する。さらに、処理モジュールは、平滑化済ヒストグラムの第1の最大値と、連続する第2の最大値との間の最小値を抽出することによって、複数の時間スライス画像のそれぞれのしきい値を取得する。さらに、処理モジュールは、複数の時間スライス画像を分割し、複数の個別時間スライスを取得する工程と、複数の個別時間スライスのそれぞれの強度プロフィールの統計平均変動を算出する工程と、所定の範囲内の平均強度を有する複数の個別時間スライスを、複数のスライスのクラスタにグループ化する工程と、該複数のクラスタの強度プロフィールの第1の最大値と、連続する第2の最大値との間の最小値を判別する工程とによって、複数の時間スライス画像のしきい値をリファインする。さらに、検出モジュールは、複数の時間スライス画像のリファインされたしきい値に基づいて、車線の車線マークの中点を抽出することによって、車線の車線マークを検出し、さらに、車線マークに基づいて、グランドトゥルース値を判別する。
さらに、複数のモジュールは、判別されたグランドトゥルースに対して、車線逸脱警告アプリケーションによって検出されたピクセル位置に基づいて、車線逸脱警告アプリケーション出力を検証する検証モジュールを含む。
処理モジュールは、さらに、所定の範囲外の平均強度を有する複数の個別時間スライスを、複数のスライスのクラスタにサブグループ化し、さらに、該複数のスライスのクラスタの強度プロフィールの第1の最大値と、連続する第2の最大値との間の最小値を判別する。
異なる実施形態において、車線逸脱警告におけるグランドトゥルース判別のために、演算デバイスにおいて実行可能なプログラムを具体化(embodying)する非一時的コンピューター可読媒体(non-transitory computer readable medium)が提供される。該プログラムは、入力として、画像取得ユニットから複数の車線画像を受信するためのプログラムコードを含む。さらに、該プログラムは、複数の車線画像を、複数の異なる時間フレームで取得された複数の時間スライス画像に処理するためのプログラムコードを含む。さらに、該プログラムは、複数の時間スライス画像のそれぞれの強度プロフィールを判別し、さらに、強度プロフィールを平滑化し、平滑化済ヒストグラムを取得するためのプログラムコードを含む。さらに、該プログラムは、平滑化済ヒストグラムの第1の最大値と、連続する第2の最大値との間の最小値を抽出することにより、複数の時間スライス画像のそれぞれのしきい値を取得するためのプログラムコードを含む。さらに、該プログラムは、複数の時間スライス画像を分割することによって、複数の個別時間スライスを取得し、複数の個別時間スライスのそれぞれの強度プロフィールの統計平均変動を算出し、所定の範囲内の平均強度を有する複数の個別時間スライスを、複数のスライスのクラスタにグループ化し、さらに、該複数のスライスのクラスタの強度プロフィールの第1の最大値と、連続する第2の最大値との間の最小値を判別することによって、複数の時間スライス画像のしきい値をリファインするためのプログラムコードを含む。さらに、該プログラムは、複数の時間スライス画像のリファインされたしきい値に基づいて、車線の車線マークの複数の中点を抽出することにより、車線の車線マークを検出するためのプログラムコードと、車線逸脱警告を検証するために、車線の車線マークに基づいて、グランドトゥルース値を判別するためのプログラムコードを含む。
以下添付図面を参照した以下の詳細な説明から、本発明がよりよく理解されるであろう。
図1は、本発明の例示的な実施形態に係る車線逸脱警告におけるグランドトゥルース判別のためのサーバーおよびデバイスのネットワーク実施を示す図である。
図2は、本発明の例示的な実施形態に係るデバイスを示す図である。
図3は、本発明の例示的な実施形態に係るデバイスの詳細な機能を示す図である。
図4(a)および図4(b)は、本発明の例示的な実施形態に係る時間スライスグレー画像のオリジナルのヒストグラムプロフィールおよび平滑化済ヒストグラムを示す図である。
図5(a)および図5(b)は、本発明の例示的な実施形態に係る統計平均に基づく複数のスライスのグループ化およびサブグループ化を示す画像である。
図6(a)、図6(b)および図6(c)は、本発明の例示的な実施形態に係るオリジナルの車線、グレースケールでのオリジナルの車線画像、および得られた車線マークの2値画像を示す図である。
図7(a)および図7(b)は、本発明の例示な実施形態に係るグランドトゥルース、およびグランドトゥルースと車線境界対応との組み合わせによってオリジナルのフレーム上にマッピングされた中点を示す図である。
図8は、本発明の例示的な実施形態に係る車線検出警告におけるグランドトゥルース判別のためのフロー図である。
ここに説明される本発明、並びに、その様々な特徴および利点の詳細が、添付図面に示され、以下の記述によって詳細に記載される非限定的実施形態を参照することにより、より十分に説明される。ここで用いられる実施例は、本発明が実施可能な様態で理解されることを容易とし、さらに、本分野における当業者が本発明を実施可能とする意図でのみ提供される。よって、本実施例は、本発明の範囲を限定するよう構成されたものではない。
複数の範囲にある複数のオブジェクト(目的物)を同時に検出するためのデバイスおよび方法の様態が、任意の数の異なる演算デバイス、環境および/または構成によって実施され得るが、本発明は、以下の例示的なデバイスのコンテキスト(context:文脈、内容)において説明される。
図1は、本発明の例示的な実施形態に係る車線逸脱警告におけるグランドトゥルース判別のためのサーバーおよびデバイスのネットワーク実施を示す図である。実施形態の1つにおいて、環境100は、少なくとも1つのデバイス(例えば、デバイス102)と、サーバー104と、画像取得ユニット106と、通信ネットワーク108とを含む。図1中に示すデバイスおよび/またはネットワークの数は、例示の目的でのみ提供されていることは留意されたし。実際の状況またはいくつかの例示的な状況において、追加的またはより少ないデバイスおよび/またはネットワーク、異なるデバイスおよび/またはネットワーク、または、それぞれ異なって配置されたデバイスおよび/またはネットワークが図1に示す環境内に存在していてもよい。また、いくつかの実施形態において、環境100の1つ以上のデバイスが、環境100の1つ以上の異なるデバイスによって実行されるものとして記述される1つ以上の機能を実行してもよい。実施例の1つにおいて、画像取得ユニット106およびサーバー104は、単一のデバイスおよび/またはシステム内において組み合わされてもよい。環境100のデバイスおよび/またはネットワークは、有線接続、無線接続、または有線および無線接続の組み合わせを介して互いに通信可能に接続されている。
デバイス102は、通信ネットワーク108を介して通信可能な任意の演算または通信デバイスを含む。例えば、デバイス102は、様々な通信デバイス(例えば、ラップトップコンピューター、デスクトップコンピューター、ノートパソコン、ワークステーション、携帯電話、PDA(Personal Digital Assistant)等)において実施される。さらに、デバイス102は、画像処理によって車線逸脱警告におけるグランドトゥルースを判別するよう構成されており、例えば、デバイス102は、画像処理ユニットである。
サーバー104は、1つ以上のサーバーデバイス、またはコンテツを提供する異なるタイプの演算および通信デバイスを含む。例えば、サーバー104は、コンテンツおよび/またはサービス(例えば、ウェブページ、動画、音声、画像、広告コンテンツ、テキスト、データ、および/またはこれらの複数の組み合わせ)を受信するデバイス102および/またはサーバーによってアクセス可能なウェブサイトをホスティングする。例えば、サーバー104は、画像取得ユニット106によって取得された複数の車線画像等にアクセスするために、デバイス102のユーザーによってアクセスされる。サーバー104は、複数の車線画像へのアクセスを容易とするために、デバイス102からのアクセス要求を受信する。該要求に応じて、サーバー104は、ユーザーが複数の画像にアクセスできるように、デバイス102を画像取得ユニット106にリダイレクトする。サーバー104は、ネットワーク108を介して、コンテンツおよび/またはサービスをデバイス102に提供する。代替的な実施形態において、サーバー104は、ネットワーク108と通信するアプリケーションをホスティングし、ユーザーからの要求を処理する。
図2は、例示的な実施形態に係るデバイス(例えば、図1のデバイス102)のブロック図である。デバイス102は、プロセッサー202のような少なくとも1つのプロセッサーと、メモリー204のような少なくとも1つのメモリーと、ユーザーインターフェース206とを含む、もしくは、これらと通信可能である。プロセッサー202、メモリー204、およびユーザーインターフェース206は、システムバスや同様の機構(図示せず)のようなシステムバスによって接続されている。図2は、デバイス102の例示的なコンポーネントを示しているが、他の実施形態において、デバイス102は、図2に示す構成よりも、より少ないコンポーネント、追加的なコンポーネント、異なるコンポーネント、または異なって配置されたコンポーネントを含んでいてもよい。
プロセッサー202は、回路実装、特に、通信に関する送受信および論理機能を含む。また、プロセッサー202は、メッセージおよび/またはデータ、または、情報をエンコードする機能を含む。また、プロセッサー202は、特に、プロセッサー202の動作を支援するよう構成されたクロック、数値演算ユニット(ALU)、および論理ゲートを含む。さらに、プロセッサー202は、メモリー204またはプロセッサー202にアクセス可能な他のコンポーネント内に保存された1つ以上のソフトウェアプログラムを実行する機能を含む。
メモリー204は、デバイス102の機能を実行するためにデバイス102によって用いられる任意の数の情報およびデータを保存している。メモリー204は、例えば、揮発性メモリーおよび/または非揮発性メモリーを含む。揮発性メモリーとしては、これに限定されるものではないが、例えば、揮発性ランダムアクセスメモリー(RAM)が挙げられる。不揮発性メモリーは、電気的消去可能ROM(EEPROM)、フラッシュメモリー、ハードドライブ等を追加的または代替的に含む。メモリー204は、デバイス102が様々な例示的実施形態に係る様々な機能を実行することを可能とする情報、データ、アプリケーション、命令等を保存するよう構成されている。追加的または代替的に、メモリー204は、プロセッサー202によって実行されたときに、デバイス102を様々な実施形態において記述されるように動作させる複数の命令を保存するよう構成されていてもよい。メモリー204は、複数のモジュール208と、データ220とを含む。
複数のモジュール208は、特定のタスクを実行または特定の抽象データ型(abstract data types)を実施するルーティーン(routines)、プログラム、オブジェクト、コンポーネント、データ構造等を含む。実施形態の1つにおいて、モジュール208は、受信モジュール209、画像処理モジュール210、検出モジュール212、検証モジュール214、およびその他モジュールを含む。その他モジュールは、デバイス102のアプリケーションおよび機能を補完するプログラムまたはコード化命令を含む。
データ220は、特に、1つ以上のモジュール208によって処理され、受信され、生成されたデータを保存するレポジトリ(repository)として機能する。また、データ220は、画像データベース222と、その他データ224とを含む。
図3は、本発明の例示的な実施形態に係る図2に示されているようなデバイス102のブロック図の詳細な機能を示す図である。車線の画像/ビデオは、従来利用可能な任意の画像取得ユニット106を用いて取得され、画像データベース222内に記録画像/ビデオセット(recorded image/vide set)として保存される。例示的な実施形態の1つにおいて、画像データベース222は、図3に示されているように、デバイス102内に位置している。異なる例示的な実施形態において、画像データベース222は、デバイス102から離れて位置している。例えば、画像の位置は、車両に取り付けられた画像取得ユニット106の動きに対応して変化してもよい。このような変化は、強度プロフィールおよび環境照明プロフィール(environmental illumination profile)に対しても同様である。
保存された複数の画像は、受信モジュール208によって受信および読み込まれ、1つ以上のプロセッサー202を用いた画像処理モジュール210内において処理される。画像処理の第1のステップとして、複数の画像が時間スライスされる。例示的な実施形態の1つにおいて、画像取得ユニット106から取得され、記録されたビデオは、複数の画像フレームを含む。各フレームは、記録された画像の複数の異なる時間スロット(time slots)で取得され、例えば、フレームの取得レートが1sの場合、第1のフレームは1sで取得され、第2のフレームは2sで取得され、第3のフレームは3sで取得される等である。各フレームは、同じサイズのフレームであり、複数の行を含むよう均一にスライスされる。例えば、各フレームは、1行〜30行を含んでいる。特定の行、例えば、複数の行のうち第10番目の行が選択され、第1の時間スライス画像となる。同様に、他の複数のフレームから第10番目の行が選択され、複数の時間スライス画像が取得される。
さらに、画像処理モジュール210は、各時間スライス画像の強度プロフィールまたはヒストグラムを判別する。時間スライス画像のヒストグラムは、(図4aに示されているように)ガウス分布の強度プロフィールに近い、明確な(well-defined)対称形の他に、いくつかの追加的なピークおよびスパイク(spike)を含んでいる。よって、ヒストグラムまたは強度プロフィールのローパスフィルターされた包絡線(envelop)を抽出するために、事前平滑化操作(pre-smoothing operation)がヒストグラムに対して実行される。ヒストグラム包絡線は、(図4bに示されているように)平滑化処理を介して抽出される。さらに、処理モジュール210は、平滑化済ヒストグラムの2つの明確な最大値の間の最小値を検出することによってしきい値を判別する。明確な最大値は、平滑化済ヒストグラムの最も高いピークである第1の最大値と、第1の最大値に次いで最も高い連続するピークである第2の最大値とを含む。よって、これら2つのピークの間の最小値は、しきい値とみなされる。この技術は、MBMT(Min-Between-Max-Thresholding)と称されている。例示的な実施形態の1つにおいて、時間スライス画像の強度プロフィールまたはヒストグラムは、中強度範囲周辺(around the mid-intensity range)の強度において、最も高いピークを有する。時間スライス画像の強度プロフィールの同様の対称形を有する連続する次の最も高いピークは、車線マークに対応する高い強度周辺(around a high intensity)に位置する。
さらに、画像処理モジュール210は、上述の技術(MBMT)を再度適用することにより、しきい値をリファイン(refine:改良、改善)する。この段階において、複数の時間スライス画像は、フレーム内において均一に分割され、個別スライスが取得される。各個別スライスの統計平均変動が算出される。さらに、画像処理モジュール210は、所定の範囲内の平均強度を有する複数の個別スライスを、複数のスライスのクラスタにグループ化(均一なスライス化)し、該複数のスライスのクラスタの強度プロフィールの第1の最大値と連続する第2の最大値との間の平均が判別される。例示的な実施形態の1つにおいて、複数の時間スライス画像の30枚のスライスが検討される。統計平均の値に基づいて、複数のスライスがグループ化および集中させられる。例えば、(図5aに示されているように)180±10の所定の範囲が単一のグループとみなされ、この領域の平均を有する複数のスライスが共にグループ化され、MBMT技術が適用される。平均における急激な変化が観測された場合、(図5bに示されているように)所定の範囲外の値が存在し、さらに、サブグループ化(非均一なスライス化)が実行され、MBMT技術が適用される。平均における急激な変化が、スライス内における障害物の存在によるものである。
さらに、MBMT技術を適用した後、(図6cに示すように)複数の時間スライス画像が2値画像の形式になる。該2値画像内では、車線マークが白ピクセルによって表されており、車線マーク以外のものは、黒ピクセルで表されている。MBMTを適用する前、車線画像は、(図6bに示すように)グレースケールであり、オリジナルの車線画像は、図6aに示すようなものである。さらに、検出モジュール212は、車線マークに対応する車線の(図7に示すような)2つの白区画の複数の中点を抽出することによって、車線マークを検出する。複数の中点は、MBMTを適用することによって得られたリファインされたしきい値に基づいて抽出される。各車線幅の中点は、ビデオ/画像のオリジナルのフレームにマッピングされた複数のグランドトルゥース車線ポイント(ground truth lane points)として検出される。ここで、複数の車線マークの複数の中点が、ビデオのオリジナルのフレームに逆マッピングされる。これは、複数の行にまで及び、車線マーク上の複数のポイントを判別し、さらに、車線逸脱警告を検証するために、(図7aに示すように)オリジナルのフレーム上にマッピングして、グランドトゥルースを判別するためのものである。
さらに、車線の構造(例えば、不連続な車線、遮断された車線、ドットの車線、ノイズ)に起因する時間スライス内の任意の欠落部(ギャップ)が、車線境界対応(LBC:Lane Boundary Correspondence)を介した補間によって埋められる。LBCでは、右側および左側の両サイドにおいて車線マークが検出されたとき、隣接する車線マーク同士(すなわち、車線の左マークと右マーク)の距離が測定される。欠落部は、以下の式を用いて埋められ、さらに、(図7bに示すように)オリジナルのフレームにマッピングされる。
d2=(d1×X+d3×Y)/(X+Y)
ここで、MBMT検出車線マーク(MBMT detected lane markings)は、それぞれd1およびd3であり、距離は、d1とd3に対応する車線間の距離である。その後、(図7cに示すように)d1、d3、未知の車線から上側の既知の車線マークまでの行距離(X)、および未知の車線から下側の既知の車線マークまでの行距離(Y)から、d2を判別することにより、未知の車線中央をマークすることができる。
さらに、検証モジュール214は、判別されたグランドトゥルースに対する任意の車線警告アプリケーションの検証を容易にする。車線逸脱警告の検証は、車線逸脱警告の一式のシステム(complete system)によって与えられた複数のピクセル位置検出または複数の警告に基づいていてもよい。例示的な実施形態において、ピクセルベースの検出精度が記述される。上述のステップから取得された複数の車線中点であるグランドトゥルース値周辺の境界が判別される。グランドトゥルース周辺の境界は、車線マークの左端と右端であり、実際の検出境界またはトータル検出境界とみなされる。実際の境界またはトータル境界内の車線マークにおけるアプリケーション(任意の車線逸脱警告アプリケーション)の検出車線は、真の検出(true detection)とみなされる。任意の車線逸脱アプリケーションの精度は、以下の式を用いて算出される。
パーセンテージピクセル検出精度(Percentage Pixel Detection Accuracy)=真の検出(True Detection)/トータル境界検出(Total Boundary Detection)*100
ここで、実際の検出(Actual Detection)→グランドトゥルースまたは実際の境界内のピクセルの数
真の検出→実際の境界内のアプリケーション車線内のピクセルの数
さらに、グランドトゥルースの実際の検出境界またはトータル検出境界外のピクセル検出は、車線逸脱の精度の算出において除外(排除)されている。実際の検出またはトータル検出外のピクセル検出、すなわち、実際の境界以外のものは、偽の検出(false detection)とみなされる。
さらに、上述のステップにおいて記述されたMBMTは、強度プロフィールおよび統計発散(statistical divergence)に基づく。グランドトゥルースは、ベースラインフレームワーク(baseline frame work)として用いられ、検証ステップにおける参照(リファレンス)とみなされる。検証ステップにおいては、些細なエラー(minor error)であっても対処されなければならない(些細なエラーであっても許容できない)。よって、この方法も、2段階の人手による介入(manual intervention)を可能とする。
さらに、デバイス102は、以下の2段階の人手による介入のための動作を含む。
(a)ユーザーが、画像処理モジュールにおいて処理されるべきフレームの数を定めることを実行可能とする。
(b)ユーザーが、画像処理用に、車線画像(ノイズを除く)としてみなされることとなる車線周辺の複数の境界を選択することを実行可能とする。
デバイス102は、ユーザー定義境界選択窓(user defined boundary selection window)(図示せず)を含んでいてもよい。これは、ユーザーが、複数の車線の外側の単一の車線を選択することを支援し、さらに、車線周辺の必要とされる境界を選択することによる車線の品質を改善するのに役立つ。また、ユーザーは、車線の境界を拒否し、車線の境界を再描画(redraw)する決定権、判断基準(provision)を有していてもよい。さらに、該規定は、車線が選択された境界内のものとなるまで、動作を実行および停止する選択肢を含んでいてもよい。
図8は、本発明に係る車線逸脱警告におけるグランドトゥルース判別のための方法800のフロー図である。
802において、該方法は、車両に取り付けられた少なくとも1つの画像取得ユニットによって、入力として、画像取得ユニットから複数の車線画像を受信する工程を含む。例えば、画像は、車両に取り付けられた1つ以上の画像処理ユニットによって取得される。ここで、画像処理ユニットは、車線の連続した画像を取得する。804において、複数の車線画像が処理され、複数の時間スライス画像が生成される。ここで、複数の異なる時間フレームで複数の車線画像を取得することによって、複数の時間スライス画像が生成され、それにより、複数のフレームが生成される。複数のフレームは、複数の行を含み、異なる時間スロットで取得された各行は、時間スライス画像とみなされる。例示的な実施形態の1つにおいて、ユーザーは、車線のフレーム数を選択し、処理されるべき車線の境界を定めてもよい。806において、各時間スライス画像の強度プロフィールが判別される。さらに、いくつかの追加的なピークおよびスパイクを含む強度プロフィールが、平滑化される。808において、平滑化済ヒストグラムの第1の最大値と、連続する第2の最大値との間の最小値を抽出することにより、時間スライス画像のしきい値が取得される。ここで、第1の最大値は、平滑化済ヒストグラムの最も高いピークであり、連続する第2の最大値は、(図4に示すように)第1の最大値に次いで最も高いピークである。
さらに、810において、複数の時間スライス画像を分割することによって時間スライス画像のしきい値がリファインされ、複数の個別時間スライスが取得される。また、複数の個別時間スライスのそれぞれの強度プロフィールの統計平均変動が算出される。統計平均変動は、複数の時間スライス画像のそれぞれの間の統計発散に基づく。さらに、812において、所定の範囲内の平均強度を有する複数の個別スライスが、複数のスライスのクラスタにグループ化され、該複数のスライスのクラスタの強度プロフィールの第1の最大値と、連続する第2の最大値との間の最小値が判別される。814において、複数の時間スライス画像のリファインされたしきい値に基づいて、マークの複数の中点を抽出することにより、車線の車線マークが検出される。ここで、時間スライス画像は、2値画像であり、車線の2値画像内において、車線マークは白ピクセルで表され、車線マーク以外のものは、黒ピクセルで表される。
さらに、816において、車線マークに基づくグランドトゥルース値が判別される。さらに、車線境界対応を介した補間によって車線内の不連続点を埋めることにより、グランドトゥルース値が修正される。ここで、車線境界対応は、車線の左側マークと右側マークとの間の距離を測定することによって車線マークを検出し、画像フレームにマッピングする。車線内の不連続点は、不連続な車線、遮断された車線、ドットの車線、またはノイズであってもよい。さらに、判別されたグランドトゥルースは、車線逸脱アプリケーションによって検出されたピクセル位置に基づいて、車線逸脱アプリケーション出力を検証するために適用される。検出精度は、判別されたグランドトゥルースに対して算出される。

Claims (15)

  1. 車線逸脱警告におけるグランドトゥルース判別のためのコンピューター実施方法であって、
    入力として、画像取得ユニットから複数の車線画像を受信する工程と、
    前記複数の車線画像を、複数の異なる時間フレームで取得された複数の時間スライス画像に処理する工程と、
    前記複数の時間スライス画像のそれぞれの強度プロフィールを判別し、該強度プロフィールを平滑化して、平滑化済ヒストグラムを取得する工程と、
    前記平滑化済ヒストグラムの第1の最大値と、連続する第2の最大値との間の最小値を抽出することにより、前記複数の時間スライス画像のそれぞれのしきい値を取得する工程と、
    前記複数の時間スライス画像を分割し、複数の個別時間スライスを取得する工程と、前記複数の個別時間スライスのそれぞれの前記強度プロフィールの統計平均変動を算出する工程と、所定の範囲内の平均強度を有する前記複数の個別時間スライスを、複数のスライスのクラスタにグループ化する工程と、該複数のスライスのクラスタの前記強度プロフィールの第1の最大値と、連続する第2の最大値との間の最小値を判別する工程とによって、前記複数の時間スライス画像の前記しきい値をリファインする工程と、
    前記複数の時間スライス画像の前記リファインされたしきい値に基づいて、車線の車線マークの複数の中点を抽出することにより、前記車線の前記車線マークを検出する工程と、
    車線逸脱警告を検証するために、前記車線の前記車線マークに基づいて、グランドトゥルース値を判別する工程と、を含むことを特徴とする方法。
  2. 前記判別されたグランドトゥルース値に対して、パーセンテージ検出精度=真の検出/トータル境界検出*100を算出することによって、車線逸脱警告アプリケーションによって検出されたピクセル位置に基づいて、車線逸脱警告アプリケーション出力を検証する工程をさらに含み、
    前記トータル境界検出は、前記グランドトゥルース値内のピクセル数であり、
    前記真の検出は、前記車線逸脱警告アプリケーション内のピクセル数である請求項1に記載のコンピューター実施方法。
  3. 実際の検出またはトータル検出外におけるピクセル検出は、除外されている請求項2に記載の方法。
  4. 所定の範囲外の平均強度を有する前記複数の個別時間スライスを、複数のスライスのクラスタにサブグループ化する工程と、
    該複数のスライスのクラスタの前記強度プロフィールの第1の最大値と、連続する第2の最大値との間の最小値を判別する工程と、をさらに含む請求項1に記載の方法。
  5. 前記複数の時間スライス画像に処理する工程は、ユーザーが、前記車線のフレーム数を選択することと、前記車線の前記境界を定めることとの少なくとも一方を実行可能とする工程をさらに含む請求項1に記載の方法。
  6. 前記複数の時間スライス画像は、複数の異なる時間フレームで前記複数の車線画像をスライスすることにより形成されており、
    各前記時間フレームは、複数の行を含む請求項1に記載の方法。
  7. 前記グランドトゥルース値を判別する工程は、車線境界対応を介した補間によって、前記車線内の不連続点を埋める工程をさらに含み、
    前記車線境界対応は、前記車線の左側マークと右側マークとの間の距離を測定することによって複数の車線マークを検出し、画像フレームにマッピングする工程を含む請求項1に記載の方法。
  8. 前記車線内の前記不連続点は、不連続の車線、遮断された車線、ドットの車線、およびノイズの少なくとも1つである請求項7に記載の方法。
  9. 前記統計平均変動は、前記複数の時間スライス画像の前記個別時間スライスのそれぞれの間の統計発散に基づく請求項1に記載の方法。
  10. 前記第1の最大値は、前記平滑化済ヒストグラムの最も高いピークであり、前記連続する第2の最大値は、前記第1の最大値に次いで最も高いピークである請求項1に記載の方法。
  11. 前記グランドトゥルース値を判別する工程は、前記検出された中点を、前記画像取得ユニットにより取得された画像フレーム上に逆マッピングする請求項1に記載の方法。
  12. 前記リファインされたしきい値を取得した後の前記複数の時間スライス画像は、2値画像である請求項1に記載の方法。
  13. 前記車線の2値画像内において、前記車線マークは白ピクセルで表され、前記車線マーク以外のものは黒ピクセルで表されている請求項1に記載の方法。
  14. 車線逸脱警告内におけるグランドトゥルース判別のためのシステムであって、
    画像取得ユニット(106)と、
    前記画像取得ユニットに通信可能に接続され、前記画像取得ユニットから複数の車線画像を受信するよう構成された画像データベース(222)と、
    画像処理ユニットと、を含み、
    前記画像処理ユニットは、
    プロセッサー(202)と、
    前記プロセッサー(202)に接続されたメモリー(206)と、を含み、
    前記メモリーは、
    入力として、前記画像データベースから複数の車線画像を受信する受信モジュール(209)と、
    画像処理モジュール(210)であって、
    前記受信モジュール(209)から受信した前記複数の車線画像を処理し、複数の異なる時間フレームで取得された複数の時間スライス画像を取得し、
    平滑化済ヒストグラムの第1の最大値と、連続する第2の最大値との間の最小値を抽出することにより、前記複数の時間スライス画像のそれぞれのしきい値を取得し、
    前記複数の時間スライス画像を分割し、複数の個別時間スライスを取得し、前記複数の個別時間スライスのそれぞれの強度プロフィールの統計平均変動を算出し、所定の範囲内の平均強度を有する前記複数の個別時間スライスを、複数のスライスのクラスタにグループ化し、さらに、該複数のスライスのクラスタの前記強度プロフィールの第1の最大値と、連続する第2の最大値の間の最小値を判別することによって、前記複数の時間スライスの前記しきい値をリファインする前記画像処理モジュール(210)と、
    前記複数の時間スライス画像の前記リファインされたしきい値に基づいて、車線の車線マークの複数の中点を抽出することにより、前記車線の前記車線マークを検出し、さらに、前記車線マークに基づいてグランドトゥルース値を判別する検出モジュール(212)と、を含むことを特徴とするシステム。
  15. 前記車線画像は、車両に取り付けられた1つ以上の前記画像取得ユニット(106)によって取得され、
    前記画像取得ユニットは、車線の連続画像を取得する請求項14に記載のシステム。
JP2015203418A 2015-04-17 2015-10-15 車線逸脱警告におけるグランドトゥルース値判別のための方法およびシステム Active JP6515010B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN1594/MUM/2015 2015-04-17
IN1594MU2015 2015-04-17

Publications (2)

Publication Number Publication Date
JP2016207191A true JP2016207191A (ja) 2016-12-08
JP6515010B2 JP6515010B2 (ja) 2019-05-15

Family

ID=54293072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015203418A Active JP6515010B2 (ja) 2015-04-17 2015-10-15 車線逸脱警告におけるグランドトゥルース値判別のための方法およびシステム

Country Status (3)

Country Link
US (1) US9792507B2 (ja)
EP (1) EP3082063A1 (ja)
JP (1) JP6515010B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105528914B (zh) * 2014-10-17 2018-12-28 现代摩比斯株式会社 驾驶者支援装置以及驾驶者支援方法
US10816354B2 (en) 2017-08-22 2020-10-27 Tusimple, Inc. Verification module system and method for motion-based lane detection with multiple sensors
US10482769B2 (en) * 2017-08-22 2019-11-19 TuSimple Post-processing module system and method for motioned-based lane detection with multiple sensors
US10614320B2 (en) 2018-04-03 2020-04-07 Honda Motor Co., Ltd. System and method for advanced highway lane detection
EP3680858A1 (en) 2019-01-11 2020-07-15 Tata Consultancy Services Limited Dynamic multi-camera tracking of moving objects in motion streams
CN111192216B (zh) * 2019-12-31 2023-04-21 武汉中海庭数据技术有限公司 一种车道线平滑处理方法及系统
CN112036231B (zh) * 2020-07-10 2022-10-21 武汉大学 一种基于车载视频的车道线和路面指示标志检测与识别方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4016735B2 (ja) 2001-11-30 2007-12-05 株式会社日立製作所 レーンマーク認識方法
US9077958B2 (en) * 2010-08-30 2015-07-07 Honda Motor Co., Ltd. Road departure warning system
US8976040B2 (en) 2012-02-16 2015-03-10 Bianca RAY AVALANI Intelligent driver assist system based on multimodal sensor fusion

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BORKAR,A ET AL.: "A Novel Lane Detection System With Efficient Ground Truth Generation.", IEEE TRANSACTION ON INTELLIGENT TRANSPORTATION SYSTEMS., vol. 13, no. 1, JPN6017018076, March 2012 (2012-03-01), US, pages 365 - 374, XP011427541, DOI: doi:10.1109/TITS.2011.2173196 *
GONZALES,J P ET AL.: "Lane Detection Using Histogram-Based Segmentation and Decision Trees", 2000 IEEE INTELLIGENT TRANSPORTATION SYSTEMS CONFERENCE PROCEEDINGS, JPN6017018078, 1 October 2000 (2000-10-01), US, pages 346 - 351, XP010520563 *

Also Published As

Publication number Publication date
US20160307050A1 (en) 2016-10-20
US9792507B2 (en) 2017-10-17
JP6515010B2 (ja) 2019-05-15
EP3082063A1 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
JP6515010B2 (ja) 車線逸脱警告におけるグランドトゥルース値判別のための方法およびシステム
US10803326B2 (en) Obstacle detecting method and apparatus, device and storage medium
JP6395759B2 (ja) レーン検出
US9087253B2 (en) Method and system for determining edge line in QR code binary image
US20150090791A1 (en) Method and system for binarization of two dimensional code image
CN111047615B (zh) 基于图像的直线检测方法、装置以及电子设备
US10169673B2 (en) Region-of-interest detection apparatus, region-of-interest detection method, and recording medium
US11275955B2 (en) Lane line processing method and device
CN104021376A (zh) 验证码识别方法和装置
CN109416749B (zh) 一种图像的灰阶分类方法、装置以及可读存储介质
CN105069453A (zh) 一种图像校正方法及装置
KR20130028610A (ko) 실시간 차선 검출 장치 및 방법과 이에 관한 기록매체
JP2018180945A (ja) 物体検出装置及びプログラム
US20150178573A1 (en) Ground plane detection
JP2016133838A (ja) 複合線判定装置及び複合線判定方法
EP3631675B1 (en) Advanced driver assistance system and method
WO2018058573A1 (zh) 对象检测方法、对象检测装置以及电子设备
CN110765875B (zh) 交通目标的边界检测方法、设备及装置
CN112967191A (zh) 图像处理方法、装置、电子设备和存储介质
US9659227B2 (en) Detecting object from image data using feature quantities
CN104881856A (zh) 检测图像中的规则形状的方法及其装置
CN107862679B (zh) 图像检测区域的确定方法及装置
CN112784737B (zh) 结合像素分割和线段锚的文本检测方法、系统及装置
CN111783780B (zh) 图像处理方法、装置及计算机可读存储介质
CN109409247B (zh) 交通标志识别方法和装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R150 Certificate of patent or registration of utility model

Ref document number: 6515010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250