JP2018052461A - 領域認識装置及び領域認識方法 - Google Patents

領域認識装置及び領域認識方法 Download PDF

Info

Publication number
JP2018052461A
JP2018052461A JP2016194591A JP2016194591A JP2018052461A JP 2018052461 A JP2018052461 A JP 2018052461A JP 2016194591 A JP2016194591 A JP 2016194591A JP 2016194591 A JP2016194591 A JP 2016194591A JP 2018052461 A JP2018052461 A JP 2018052461A
Authority
JP
Japan
Prior art keywords
area
temporary
region
edge points
travel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016194591A
Other languages
English (en)
Other versions
JP6637399B2 (ja
Inventor
俊輔 鈴木
Shunsuke Suzuki
俊輔 鈴木
鶴田 知彦
Tomohiko Tsuruta
知彦 鶴田
直輝 川嵜
Naoteru Kawasaki
直輝 川嵜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2016194591A priority Critical patent/JP6637399B2/ja
Priority to US15/716,415 priority patent/US20180096210A1/en
Publication of JP2018052461A publication Critical patent/JP2018052461A/ja
Application granted granted Critical
Publication of JP6637399B2 publication Critical patent/JP6637399B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】走行領域を適切に認識できる領域認識装置及び領域認識方法を提供すること。
【解決手段】領域認識装置10は、単眼カメラ21による撮影画像を取得する画像取得部11と、撮影画像に基づいて、自車両が走行する走行領域における左右両側の境界部のエッジ点を抽出する抽出部12と、を備える。また、領域認識装置10は、撮影画像内で、走行領域の候補となる複数の仮領域を設定する設定部13を備え、設定部13は、少なくとも一部の領域がそれぞれ重複するように複数の仮領域を設定する。そして、領域認識装置10は、複数の仮領域内に存在するエッジ点の数をそれぞれ算出する算出部14と、複数の仮領域及び各仮領域内に存在するエッジ点の数に基づいて、走行領域を認識する認識部15と、を備える。
【選択図】 図1

Description

本発明は、車両が走行する走行領域を認識する領域認識装置及び領域認識方法に関するものである。
従来、車線中央からの車両の横変位を計測する車両位置検出装置がある(例えば、特許文献1)。この車両位置検出装置では、車載カメラで撮影された撮影画像からエッジ点を抽出し、エッジ点に基づき自車両周辺の道路における左右両側の境界部である白線の輪郭を抽出している。そして、車両位置検出装置は、抽出した左右両側の白線の輪郭の中点を求め、この中点を2次曲線で近似し、近似した曲線を用いて、車両の位置を計測している。
特開平7−128059号公報
ところで、この車両位置検出装置は、白線の輪郭を抽出する際、所定のエッジ強度を有するエッジ点を使用している。しかしながら、撮影画像の中には、白線のエッジ点とは本来関係ないエッジ点であっても、所定のエッジ強度を有する場合がある。また、道路が分岐する場合、自車両が走行する車線を区画する白線とは関係ない分岐先の白線のエッジ点を抽出する場合がある。これらの場合、自車両が走行する車線を区画する白線のエッジ点とは関係のないエッジ点の影響を受け、自車両が走行する車線を区画する白線を正しく特定できない場合がある。特に、2次曲線で近似する場合、一部の誤ったエッジ点の影響を強く受け、大きくゆがむ可能性がある。
また、撮影画像の中に白線が存在したとしても、何らかの遮蔽物(例えば、他車両など)に隠れ、白線のエッジ点が一部抽出されない場合がある。この場合も、抽出されない一部のエッジ点により、自車両が走行する車線を区画する白線を正しく特定できない可能性がある。
そして、自車両が走行する車線を区画する白線を正しく特定できない場合、左右両側の白線によって定められる自車両が走行する走行領域も適切に認識しにくくなる。
本発明は、上記事情に鑑みてなされたものであり、走行領域を適切に認識できる領域認識装置及び領域認識方法を提供することを主たる目的とするものである。
本発明は、上記課題を解決するために、以下のようにした。
本発明は、車載カメラによる撮影画像を取得する画像取得部と、前記撮影画像に基づいて、自車両が走行する走行領域における左右両側の境界部のエッジ点を抽出する抽出部と、前記撮影画像内で、少なくとも一部の領域がそれぞれ重複するように前記走行領域の候補となる複数の仮領域を設定する設定部と、前記仮領域ごとに、前記仮領域内に存在する前記エッジ点の数を算出する算出部と、前記複数の仮領域及び各仮領域内に存在する前記エッジ点の数に基づいて前記走行領域を認識する認識部と、を備える。
境界部のエッジ点を抽出した場合、エッジ点がライン状に並ぶように集中するため、境界部付近においてエッジ点を抽出する領域をわずかにずらしただけでも、その領域内のおけるエッジ点の数の差が大きくなりうる。そこで、少なくとも一部の領域が重複するように複数の仮領域を設定し、複数の仮領域及び各仮領域内に存在するエッジ点の数に基づき、走行領域を認識するようにした。このため、撮影画像の中に、境界部のエッジ点とは本来関係ないエッジ点が抽出された場合であっても、走行領域に沿う境界部のエッジ点の数に基づいて適切に走行領域を認識できる。また、道路が分岐して自車両が走行する走行領域に沿う境界部とは異なる境界部のエッジ点が抽出された場合であっても、走行領域に沿う境界部のエッジ点の数に基づいて適切に走行領域を認識できる。また、何らかの遮蔽物により境界部の一部が隠れて、境界部のエッジ点が一部抽出されない場合であっても、抽出された他のエッジ点の数に基づき走行領域を適切に認識できる。
領域認識装置の概略構成を示すブロック図。 仮領域を模式的に示した図。 (a)〜(d)は、各変数の値を変更した場合における仮領域を模式的に示した図。 (a)及び(b)は、仮領域を模式的に示した図。 領域認識処理を示すフローチャート。 領域設定処理を示すフローチャート。 エッジ点評価処理を示すフローチャート。 (a)〜(c)は、走行領域を模式的に示した図。 第4実施形態の領域認識処理を示すフローチャート。
以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付してある。
(第1実施形態)
第1実施形態にかかる領域認識装置について、図面を参照しつつ説明する。領域認識装置10は、車両に備えられ、車両が走行する道路等における走行領域を認識する。
図1に示すように、領域認識装置10は、車載カメラとしての単眼カメラ21と通信可能に接続されている。単眼カメラ21は、CCDやCOMS等の撮像素子が用いられているカメラである。単眼カメラ21は、例えば車両のフロントガラスの上端付近に配置されており、自車両の前方の道路を含む周辺環境を撮影(撮像)する。単眼カメラ21で撮影された撮影画像は、領域認識装置10に出力される。なお、単眼カメラ21を備えたが、複数台のカメラ(複眼カメラ)を備えてもよい。
領域認識装置10は、CPU、ROM、RAM、入出力インターフェース等を備えたコンピュータである。領域認識装置10は、撮影画像を取得する画像取得部11と、境界部のエッジ点を抽出する抽出部12と、走行領域の候補となる仮領域を設定する設定部13と、仮領域内に存在するエッジ点の数を算出する算出部14と、走行領域を認識する認識部15と、運転を支援する支援部16とによる各種機能を実行する。領域認識装置10が備える記憶部17に記憶されたプログラムが実行されることで、各種機能が実現される。なお、各種機能は、ハードウェアである電子回路によって実現されてもよく、あるいは、少なくとも一部をソフトウェア、すなわちコンピュータ上で実行される処理によって実現されてもよい。
画像取得部11は、単眼カメラ21が撮影した撮影画像を取得する。画像取得部11は、所定周期(例えば、100ms)ごとに撮影画像を取得する。本実施形態では、撮影画像を取得する場合、画像取得部11は、単眼カメラ21から取得した撮影画像を、単眼カメラ21の位置(路面からの高さ及び俯角)に基づいて平面(車両を真上から見下ろした図)に変換する。以下の説明では、平面に変換した撮影画像を利用することを前提として説明する。なお、単眼カメラ21から取得した撮影画像をそのまま利用してもよい。また、周期は任意に変更してもよい。
図2に示すように、抽出部12は、画像取得部11により取得された撮影画像に基づいて、自車両が走行する走行領域における左右両側の境界部50のエッジ点51を抽出する。境界部50は、道路の境界を示すものである。境界部50には、例えば、白線などの道路の路面に描かれたペイントや、道路鋲若しくは石などによる区画線がある。また、例えば、境界部50には、道路に沿って設けられるガードレール、道路に沿って設けられる壁、及び道路の路肩に設けられる縁石など、道路に沿って設けられている構造物が含まれていてもよい。
エッジ点51を抽出する場合、抽出部12は、画像取得部11により取得された撮影画像の走査方向における輝度値の変化に基づいて、エッジ点51を抽出する。詳しくは、抽出部12は、自車両を中心として、撮影画像を右方向及び左方向に走査し、輝度値が所定値以上上昇するアップエッジ点を抽出する。なお、輝度値が所定値以下下降するダウンエッジ点を抽出してもよい。エッジ点51の抽出方法は、任意に変更してもよく、例えば、撮影画像にsobelフィルタ等を適用してエッジ点51を抽出してもよい。そして、抽出部12は、エッジ点51の撮影画像上の座標を算出し、出した座標をそれぞれエッジ点51の位置として記憶する。
設定部13は、撮影画像内で、走行領域の候補となる複数の仮領域52を設定する。ところで、境界部50のエッジ点51は、ライン状に並ぶように集中する。例えば、図2に示すように、境界部50に沿ったライン状に、エッジ点51が並ぶ。このため、仮領域52が境界部50に沿っている場合、仮領域52をわずかにずらしただけでも(例えば右方向にずらしただけでも)、仮領域52内のおけるエッジ点51の数の差が大きくなりうる。そこで、設定部13は、仮領域52を設定する場合、少なくとも一部の領域がそれぞれ重複するように複数の仮領域52を設定する。
具体的には、設定部13は、仮領域52に影響を及ぼす1又は複数の変数を使用して仮領域52を設定する。仮領域52に影響を及ぼす変数には、仮領域52の位置に影響を及ぼす変数としてのオフセットdがある。オフセットdは、道路の幅方向における自車両に対するずれ量である。例えば、図2のように設定されている仮領域52におけるオフセットdの値を変更すると、図3(a)に示すように、仮領域52が幅方向にずれることとなる。
仮領域52に影響を及ぼす変数には、仮領域52の大きさに影響を及ぼす変数としての領域幅Lがある。領域幅Lは、幅方向における仮領域52の距離である。例えば、図2のように設定されている仮領域52における領域幅Lの値を変更すると、図3(b)に示すように、仮領域52の幅が変更される。
仮領域52に影響を及ぼす変数には、仮領域52の向きに影響を及ぼす変数としてのヨー角φがある。ヨー角φは、自車両の進行方向に対する仮領域52の傾きである。例えば、図2のように設定されている仮領域52におけるヨー角φの値を変更すると、図3(c)に示すように、仮領域52の傾きが変更される。
仮領域52に影響を及ぼす変数には、仮領域52の形状に影響を及ぼす変数としての曲率ρがある。曲率ρは、領域の曲率である。例えば、図2のように設定されている仮領域52における曲率ρの値を変更すると、図3(d)に示すように、仮領域52の形状(曲がり方)が変更され、直線から曲線となる。
設定部13は、これらの変数のうち、少なくともいずれか1つの変数の値を異ならせて複数の仮領域52を設定する。これらの変数には、それぞれ使用可能な値が段階的に定められている。設定部13は、少なくとも一部の領域がそれぞれ重複するように、段階的に各変数の値を変更する。より詳しくは、設定部13は、所定の非重複部分ずつ段階的に各々ずらして複数の仮領域52を設定するように変数の値を変更する。例えば、オフセットdは、0.1mごとに使用可能な値が段階的に定められている。図4(a)に示すように仮領域52Aが設定されていた場合、オフセットdの値を1段階変更させると、図4(b)に示すように、幅方向に0.1mずつずれて仮領域52Bが設定される。図4(b)に示すように、オフセットdの値を1段階変更させた場合、仮領域52Bは、仮領域52Aに対して所定の非重複部分A2ずつずれて設定される。それとともに、仮領域52Bは、仮領域52Aと重複部分A1が生じるように設定される。図4では、重複部分A1を斜線で示す。領域幅L、ヨー角φ、曲率ρの各変数も同様である。このように、変数の値を段階的に変更させることにより、仮領域52は、いずれかの仮領域52に対して所定の非重複部分ずつずれて設定される。
ところで走行領域は、所定周期(100ms)ごとに認識される。このため、前回認識された走行領域と全く異なる領域となっていることは想定しにくい。そこで、設定部13は、前回認識された走行領域を設定する際に使用された1又は複数の変数の値を基準値とし、基準値を基準(中心)としてそれぞれ所定の範囲内で変数の値を変更させる。なお、変数ごとに定められる所定の範囲は、各範囲内でそれぞれ各変数の値を変更させて仮領域52を設定しても、当該仮領域52のうち少なくとも一部の領域が他の仮領域52と重複するように定められている。
具体的には、設定部13は、基準値を基準(中心)として所定段階(本実施形態では2段階)ずつ増減させる範囲で各変数の値がとりうる範囲を決定する。これにより、設定部13は、基準値と、基準値を基準(中心)として値を1段階増やした変数の値と、2段階増やした変数の値と、値を1段階減らした変数の値と、2段階減らした変数の値とを使用することとなる。
例えば、設定部13は、オフセットdの基準値が「0.3m」である場合、基準値「0.3m」と、基準値から右方向へ1段階増やした値「0.4m」と、右方向へ2段階増やした値「0.5m」と、右方向へ1段階減らした値「0.2m」と、右方向へ2段階減らした値「0.1m」を使用する。なお、オフセットdの値「0.2m」は、基準値から左方向へ1段階増やした値ともいえる。領域幅L、ヨー角φ及び曲率ρも同様に使用する値の範囲が定められる。
設定部13は、上述した所定の範囲内で各変数の値を段階的に変更させることにより、複数の仮領域52を撮影画像内に設定する。本実施形態では、各変数について、5通りの値が使用される。このため、可能となる変数の値の組み合わせは、625通り(5通りのオフセットdの値×5通りの領域幅Lの値×5通りのヨー角φの値×5通りの曲率ρの値)となる。その結果、設定部13は、625通りの仮領域52を設定することとなる。
算出部14は、設定部13により設定された複数の仮領域52内に存在するエッジ点51の数をそれぞれ算出する。そして、算出部14は、算出したエッジ点51の数を仮領域52ごとに記憶させる。
前述したように、境界部50のエッジ点51はライン状に並ぶように集中している。このため、所定以上重複している2つの仮領域52からなる仮領域52の組み合わせにおいて、2つの仮領域52内に存在するエッジ点51の数の差を比較した場合、当該差が最大となる組み合わせを構成する仮領域52が走行領域に近いと考えられる。なぜなら仮領域52が所定以上重複しているにもかかわらず、エッジ点51の数の差が最大であれば、他の組み合わせよりも境界部50のエッジ点51に沿っていると考えられるからである。そこで、領域認識装置10の認識部15は、複数の仮領域52及び各仮領域52内に存在するエッジ点51の数に基づいて、走行領域を認識する。以下、詳しく説明する。
認識部15は、設定部13が設定した各仮領域52のうち所定以上重複している2つの仮領域52からなる仮領域52の組み合わせ(以下、領域組み合わせと示す)を複数設定する。本実施形態では、4つの変数のうち、1又は2の変数の値が1段階異なる2つの仮領域52からなる領域組み合わせを複数設定する。例えば、オフセットdの値が1段階だけ異なり、他の変数の値は一致する2つの仮領域52を組み合わせてもよい。また、オフセットdの値と領域幅Lの値がそれぞれ1段階だけ異なり、他の変数の値は一致する2つの仮領域52を組み合わせてもよい。
いずれか1つの変数を1段階だけ変更すると、所定の非重複部分ずつ仮領域52がずれる。このため、いずれか1つの変数を1段階だけ異ならせた2つの仮領域52を組み合わせることにより、所定の非重複部分ずつずれた2つの仮領域52からなる領域組み合わせを設定することができる。
なお、仮領域52同士が重複する重複部分(重複面積)が所定の大きさ以上である2つの仮領域52を組み合わせてもよい。また、いずれか1つの変数の値が1段階異なる2つの仮領域52を組み合わせてもよい。また、いずれか1又は複数の変数の値が1段階異なる2つの仮領域52を組み合わせてもよい。また、いずれか1つの変数の値が複数段階異なる2つの仮領域52を組み合わせてもよい。また、仮領域52同士が所定の非重複部分ずつずれている2つの仮領域52を組み合わせてもよい。
そして、認識部15は、領域組み合わせを決定した後、各領域組み合わせを構成する2つの仮領域52内におけるエッジ点51の数の差(以下、エッジ点数差と示す)を算出する。そして、認識部15は、各領域組み合わせにおけるエッジ点数差を比較し、最もエッジ点数差が大きい領域組み合わせを特定する。
そして、認識部15は、最もエッジ点数差が大きい領域組み合わせを構成する仮領域52のうち、エッジ点51の数が少ない仮領域52を特定する。最もエッジ点数差が大きい領域組み合わせが複数存在する場合(差が同じ領域組み合わせが複数存在する場合)、認識部15は、そのうちエッジ点51の数が最も少ない仮領域52を特定する。認識部15は、特定した仮領域52を、走行領域として認識する。境界部50に沿った2つの仮領域52のうち、エッジ点51の数が少ない仮領域52は、境界部50の内側である可能性が高く、より車両の走行に適しているといえる。このため、エッジ点51の数が小さい仮領域52を走行領域とすることにより、適切な走行領域を認識できる。
認識部15は、走行領域を認識した場合、走行領域を設定するために使用された各変数の値(すなわち、走行領域として認識された仮領域52を設定するために使用された各変数の値)を記憶部17に記憶させる。記憶部17に記憶された各変数の値は、それぞれ次回の基準値となる。
支援部16は、認識部15により認識された走行領域に基づき、運転の支援を実行させる。具体的には、支援部16は、認識された走行領域と自車両に位置関係に基づき、支援実行装置22を制御して、運転の支援を実行させる。例えば、領域認識装置10は、支援実行装置22としてのスピーカ22aと接続されており、支援部16は、走行領域から自車両がはみ出している場合、警告音が出力されるようにスピーカ22aを制御して、運転を支援する。また、例えば、領域認識装置10は、支援実行装置22としての操舵部22bと接続されている。操舵部22bは、自車両の進行方向を操作するための装置である。支援部16は、走行領域から自車両がはみ出している場合、操舵部22bを制御して、例えば、走行領域の中央に自車両が移動するように、車両の進行方向を操作する。
なお、境界部50までの距離(認識された走行領域の幅方向における境界までの距離)が所定の距離以下である場合、支援部16は、運転の支援を実行させてもよい。また、走行領域の中央線と車両進行方向との傾き角が所定の角度以上である場合に、支援部16は、運転の支援を実行させてもよい。本実施形態では、領域認識装置10に支援部16を備えたが、支援部16を備えた装置を別に設け、当該装置に支援実行装置22を接続してもよい。この場合、領域認識装置10が認識した走行領域を支援部16が取得し、取得した走行領域に基づき、運転の支援を行うこととなる。
次に、図5〜図7のフローチャートを用いて、走行領域を認識するための領域認識処理の流れについて説明する。領域認識装置10は、図5に示す領域認識処理を所定周期(100ms)ごとに実行する。領域認識処理を実行すると、領域認識装置10は、単眼カメラ21から撮影画像を取得する(ステップS11)。
次に、領域認識装置10は、取得した撮影画像に基づいて、自車両が走行する走行領域における左右両側の境界部50のエッジ点51を抽出する(ステップS12)。その後、領域認識装置10は、後述する領域設定処理を実行し、撮影画像内で、走行領域の候補となる複数の仮領域52を設定する(ステップS13)。仮領域52を設定した後、領域認識装置10は、後述するエッジ点評価処理により、各仮領域52及びその仮領域52内におけるエッジ点51の数に基づいて、走行領域に適した仮領域52を特定する(ステップS14)。領域認識装置10は、ステップS14で特定した仮領域52を、走行領域として認識する(ステップS15)。
次に、図6に基づき、ステップS13の領域設定処理について説明する。領域認識装置10は、前回認識された走行領域(つまり、走行領域として前回認識された仮領域52)を設定する際に使用した各変数の値に基づき、各変数の基準値をそれぞれ設定する(ステップS21)。
次に、領域認識装置10は、各変数の値がとりうる範囲を変数ごとに決定する(ステップS22)。このステップS22において、領域認識装置10は、基準値を中心とした2段階ずつの範囲で各変数の値を変更させることを決定する。その後、領域認識装置10は、決定した範囲内で各変数の値を決定し、仮領域52を設定する(ステップS23)。
仮領域52を設定した場合、領域認識装置10は、当該仮領域52内に存在するエッジ点51の数を算出し(ステップS24)、仮領域52ごとに記憶させる(ステップS25)。
その後、領域認識装置10は、各変数の値を所定の範囲内でそれぞれ変更させることにより設定可能なすべての仮領域52についてエッジ点51の数を算出したか否かを判定する(ステップS26)。つまり、領域認識装置10は、使用される各変数の値の組み合わせがすべて網羅されたか否かを判定する。
設定可能なすべての仮領域52についてエッジ点51の数を算出した場合(ステップS26:YES)、領域認識装置10は、領域設定処理を終了する。一方、設定可能なすべての仮領域52についてエッジ点51の数を算出していない場合(ステップS26:NO)、領域認識装置10は、ステップS23に移行し、各変数の値を新たに設定する。その際、1回の領域設定処理において、同じ組み合わせが決定されないように、設定部13は、ステップS22で決定された範囲内で、1又は複数の変数の値を変更させる。つまり、領域認識装置10は、これまで設定されていない仮領域52を設定するように、各変数の値を決定する。
次に、図7に基づき、ステップS14のエッジ点評価処理について説明する。領域認識装置10は、エッジ点評価処理において、所定以上重複している2つの仮領域52からなる領域組み合わせを複数設定する(ステップS31)。
次に、領域認識装置10は、各領域組み合わせにおいて2つの仮領域52のエッジ点数差を算出する(ステップS32)。エッジ点数差を算出した後、領域認識装置10は、各領域組み合わせにおけるエッジ点数差を比較し(ステップS33)、最もエッジ点数差が大きい領域組み合わせを特定する(ステップS34)。
その後、領域認識装置10は、最もエッジ点数差が大きい領域組み合わせを構成する2つの仮領域52のうち、エッジ点51の数が少ない仮領域52を特定する(ステップS35)。最もエッジ点数差が大きい領域組み合わせが複数存在する場合も領域認識装置10は、その中から、最もエッジ点51の数が少ない仮領域52を特定する。なお、ステップS35の代わりに、又はステップS35の処理とともに、領域認識装置10は、特定した領域組み合わせを構成する仮領域52の中から、各変数の基準値から変更した変数の数が最も少ない仮領域52を特定してもよい。すなわち、前回認識された走行領域と重複する領域が最も大きい仮領域52を特定してもよい。その後、エッジ点評価処理を終了する。
エッジ点評価処理の終了後、領域認識装置10は、ステップS16の処理において、ステップS35で特定された仮領域52を、走行領域として認識する。領域認識処理により、走行領域が認識された後、領域認識装置10は、走行領域と自車両の位置関係等に基づき、運転の支援を実行させる。以上により、領域認識装置10が領域認識処理を実行することにより、領域認識方法が行われることとなる。
次に、図8を参照して、走行領域の具体的な設定態様について、説明する。図8(a)では、境界部50のうち、右側境界部50bの一部が途切れている場合について説明する。図8(a)の場合、右側境界部50bの一部は途切れて、その途切れている部分については、エッジ点51は抽出されていないが、右側境界部50bの他の部分や、左側境界部50aにおいてエッジ点51が抽出されている。このため、境界部50のエッジ点51に沿って直線状の仮領域52が走行領域と認識される。
図8(b)では、道路が分岐しており、分岐先の道路における右側境界部50bのエッジ点51が抽出されている。図8(b)の場合、抽出されているエッジ点51の大半は、直線状となっている。特に、分岐している右側境界部50bとは反対側(図8において左側)の左側境界部50aのエッジ点51は、直線状に並んでいる。そして、大半のエッジ点51に沿った2つの仮領域52からなる領域組み合わせにおけるエッジ点数差は、最大となる。したがって、直線状の境界部50に基づき抽出されたエッジ点51に沿った仮領域52が走行領域と認識される。
図8(c)では、境界部50のエッジ点51の他に、境界部50とは関係のない箇所にエッジ点51が抽出されている。図8(c)の場合、抽出されているエッジ点51の大半は、直線状となっている。そして、大半のエッジ点51に沿った2つの仮領域52からなる領域組み合わせにおけるエッジ点数差は、最大となる。したがって、直線状の境界部50に基づき抽出されたエッジ点51に沿った仮領域52が走行領域と認識される。
以上詳述した第1実施形態によれば、次の優れた効果が得られる。
領域認識装置10は、少なくとも一部の領域が重複するように複数の仮領域52を設定し、各仮領域52及びその仮領域52内に存在するエッジ点51の数に基づき、走行領域を認識した。このため、撮影画像の中に、境界部50のエッジ点51とは本来関係ないエッジ点51が抽出された場合であっても、走行領域に沿う境界部50のエッジ点51の数に基づいて適切に走行領域を認識できる。また、道路の分岐に基づき、自車両が走行する走行領域に沿う境界部50とは異なる境界部50のエッジ点51が抽出された場合であっても、走行領域に沿う境界部50のエッジ点51の数に基づいて適切に走行領域を認識できる。また、何らかの遮蔽物により境界部50の一部が隠れて、境界部50のエッジ点51が一部抽出されない場合であっても、抽出された他のエッジ点51の数に基づき走行領域を適切に認識できる。
境界部50のエッジ点51を抽出した場合、エッジ点51がライン状に並ぶように集中する。このため、所定以上重複している2つの仮領域52からなる仮領域52の組み合わせにおいて、エッジ点数差を比較した場合、当該差が最大となる領域組み合わせを構成する仮領域52が走行領域に近いと考えられる。なぜなら仮領域52が所定以上重複しているにもかかわらず、エッジ点51の数の差が最大であれば、最も境界部50のエッジ点51に沿っている領域であると考えられるからである。そこで、領域組み合わせにおけるエッジ点数差を比較し、当該差が最大となる領域組み合わせを構成する仮領域52に基づいて、走行領域を認識するようにした。これにより、適切な走行領域を認識できる。
また、いずれかの変数を1段階ずつずらした2つの仮領域52からなる領域組み合わせを複数設定している。いずれかの変数を1段階ずつずらすことにより、所定の非重複部分ずつ領域がずれた2つの仮領域52からなる領域組み合わせを設定することができる。このように設定された領域組み合わせにおけるエッジ点数差を比較しているため、所定の非重複部分における差が最大となる領域組み合わせを特定することができる。そして、このような領域組み合わせを構成する仮領域52に基づいて、走行領域を認識することにより、適切な走行領域を認識できる。
仮領域52の位置に影響を及ぼす変数であるオフセットdと、大きさに影響を及ぼす変数である領域幅Lと、向きに影響を及ぼす変数であるヨー角φと、形状に影響を及ぼす変数である曲率ρとを利用して、複数の仮領域52を設定した。このため、実際の走行領域と似た仮領域52を設定することができる。すなわち、これらの変数の値に基づき仮領域52が設定されるため、通常の走行領域ではありえない領域が仮領域52として設定されることはない。
所定周期ごとに走行領域は認識されるため、前回認識された走行領域と全く異なる領域となっていることは想定しにくい。そこで、前回認識された走行領域を設定する際に使用された1又は複数の変数の値を基準値とし、基準値から所定の範囲内で1又は複数の変数の値を変更させることとした。これにより、仮領域52の設定数が少なくても、走行領域に適した仮領域52を設定することができる。また、誤差の少ない適切な走行領域を認識できる。
(第2実施形態)
第2実施形態にかかる領域認識装置10は、設定部13の機能と、領域設定処理が、第1実施形態と異なっている。以下、詳しく説明する。
領域認識装置10は、自車両の挙動を検出する挙動検出装置としてのヨーレートセンサ(図示略)と接続されている。ヨーレートセンサは、自車両の旋回方向への角速度(ヨーレート)を検出するものであり、角速度から自車両の挙動としての車両進行方向を特定することができる。領域認識装置10は、ヨーレートセンサから角速度を取得する挙動取得部による機能を実行する。
第2実施形態の設定部13は、角速度を取得した場合、自車両の挙動に基づいて各変数の値を変更させて、複数の仮領域52を設定する。詳しく説明すると、設定部13は、ヨーレートセンサから角速度を取得し、取得した角速度に基づき、自車両の進行方向を判別する。そして、設定部13は、進行方向に基づき、使用可能な変数の範囲を絞り込み、各変数の値を決定する。
すなわち、角速度に基づき特定される自車両の進行方向は、走行領域の位置又は向きに影響を及ぼす。このため、設定部13は、自車両の進行方向に基づき、オフセットdの値がとりうる範囲と、ヨー角φの値がとりうる範囲を絞り込む。具体的には、自車両の進行方向が、直進方向から右方向に傾いた場合、オフセットdの値がとりうる範囲及びヨー角φの値がとりうる範囲を、基準値を中心として左方向のみとする。すなわち、右方向に車両が移動した場合、自車両に対して走行領域は、左方向にずれる、又は左方向に傾く可能性が高いため、範囲を左方向に絞り込む。例えば、設定部13は、オフセットdの基準値が「0.3m」である場合、基準値「0.3m」と、基準値から右方向へ1段階減らした値「0.2m」と、右方向へ2段階減らした値「0.1m」をオフセットdの値として使用する。
また、例えば、自車両の進行方向が、直進方向のまま、変化していない場合、オフセットdの値がとりうる範囲及びヨー角φの値がとりうる範囲を、基準値を中心として1段階ずつのみ変更する範囲とする。すなわち、設定部13は、オフセットdの基準値が「0.3m」である場合、基準値「0.3m」と、基準値から右方向へ1段階増やした値「0.4m」と、右方向へ1段階減らした値「0.2m」をオフセットdの値として使用する。
設定部13は、絞り込んだ範囲内で各変数の値を段階的に変更させることにより、複数の仮領域52を撮影画像内に設定する。第2実施形態において、角速度が取得された場合、可能となる変数の値の組み合わせは、225通り(3通りのオフセットdの値×5通りの領域幅Lの値×3通りのヨー角φの値×5通りの曲率ρの値)となる。その結果、設定部13は、225通りの仮領域52を設定することとなる。
なお、本実施形態において、角速度の大きさに基づき、変数の値がとりうる範囲を変更してもよい。例えば、自車両の進行方向が、直進方向のまま、変化していない場合には、オフセットd及びヨー角φの値として、基準値のみを使用することとしてもよい。また、角速度が所定以上大きい場合には、オフセットd及びヨー角φの値として、2段階変更した値のみを使用することとしてもよい。これにより、さらに変数の範囲を絞り込み、設定する仮領域52を少なくすることができる。
次に、第2実施形態における領域設定処理について説明する。
領域認識装置10は、角速度を取得した場合、図6のステップS22において、取得した角速度に基づき、自車両の進行方向を判別する。そして、領域認識装置10は、自車両の進行方向に基づき、各変数の値がとりうる範囲を絞り込み、決定する。そして、領域認識装置10は、ステップS23において、ステップS22で決定した範囲内で各変数の値を決定し、仮領域52を設定する。
以上詳述した第2実施形態によれば、第1実施形態の効果に加えて、次の優れた効果が得られる。
設定部13は、自車両の動きに基づいて1又は複数の変数の値を変更させることで、仮領域52を走行領域に近づけて設定することができる。すなわち、誤差が少なくなり、正確な走行領域を認識することができる。同時に、仮領域52の設定数が少なくなり、処理負担を少なくすることができる。
(第3実施形態)
第3実施形態にかかる領域認識装置10は、算出部14の機能と、領域設定処理が、第1実施形態と異なっている。以下、詳しく説明する。
境界部50に基づき抽出されるエッジ点51が有するエッジ強度は、予め想定可能な範囲内の値となる。エッジ強度とは、輝度値の変化量(輝度値の勾配の大きさ)のことであり、変化量が大きいほど、エッジ強度が大きくなる。例えば、白線などの場合、路面とペイントの境目におけるエッジ点51のエッジ強度はほぼ一定であり、想定可能である。つまり、エッジ強度に基づき、境界部50のエッジ点51である可能性が高いエッジ点51を判別可能である。
そこで、第3実施形態における算出部14は、仮領域52内に存在する各エッジ点51のエッジ強度に基づき、その仮領域52内に存在するエッジ点51の数を補正することとした。具体的には、算出部14は、各エッジ点51のエッジ強度が、境界部50に基づき抽出されるエッジ点51が有するエッジ強度として想定可能な範囲外である場合、境界部50に基づき抽出されたエッジ点51でないものとしてエッジ点51の数を補正する。例えば、算出部14は、エッジ点51の数を算出する場合、エッジ強度が想定可能な範囲外であるエッジ点51を除外して、仮領域52内に存在するエッジ点51の数を算出する。
なお、エッジ点51の数を補正する場合、エッジ強度に応じた係数を乗算して、補正してもよい。例えば、想定可能な範囲外であるエッジ強度を有するエッジ点51の数に、係数として1よりも小さい係数(例えば、0.5)を乗算することにより、補正してもよい。この場合、想定可能な範囲からエッジ強度の大きさが離れるにしたがって、係数を小さくしてもよい。逆に、想定可能な範囲内となるエッジ強度を有するエッジ点51の数に、1よりも大きい係数を乗算して数を補正してもよい。すなわち、エッジ点51のエッジ強度に応じて重みづけを行ってもよい。
次に、第3実施形態における領域設定処理について説明する。
図6のステップS24において、領域認識装置10は、仮領域52内に存在するエッジ点51の数を算出する際、エッジ強度が想定可能な範囲外であるエッジ点51の数を除外して、エッジ点51の数を補正する。
なお、第2実施形態においても、第3実施形態と同様に、算出部14は、仮領域52内に存在する各エッジ点51のエッジ強度に基づき、その仮領域52内に存在するエッジ点51の数を補正してもよい。
以上詳述した第3実施形態によれば、次の優れた効果が得られる。
各エッジ点51のエッジ強度に基づき、エッジ点51の数を補正することにより、境界部50のエッジ点51である可能性が高いエッジ点51の数を精度よく算出することができる。これにより、誤差の少ないより適切な走行領域を認識することができる。
(第4実施形態)
第4実施形態にかかる領域認識装置10は、境界部50を特定する境界特定部による機能を備え、認識部15は、境界特定部により特定された境界部50に基づき、走行領域を認識することが可能に構成されている点が、第1実施形態と異なっている。以下、詳しく説明する。
領域認識装置10は、境界部50を特定する境界特定部による機能を実行する。境界特定部は、抽出部12により抽出されたエッジ点51に基づき、境界部50を特定する。具体的には、抽出したエッジ点51がライン状に並んでおり、かつ、ライン状にならんだエッジ点51により1組のラインが特定できる場合、当該ラインを境界部50として特定する。エッジ点51がライン状に並んでいるとは、例えば、対象とするエッジ点51が幅方向において所定の範囲内に存在していることなどを指す。幅方向における所定の範囲内とは、例えば、境界部50として想定可能な範囲内(15cm〜30cm)である。
なお、境界部50の特定方法は、任意に変更してもよい。例えば、ライン状にならんだエッジ点51により1組のラインが特定できる場合であって、ライン間の間隔が一定である場合(ラインが平行である場合)、当該ラインを境界部50として特定してもよい。また、エッジ点51を2次曲線で近似したラインを境界部50として特定してもよい。
次に、第4実施形態における設定部13と認識部15について説明する。
設定部13は、境界特定部により左右両側の境界部50が特定された場合、特定された境界部50に基づいて、走行領域の候補となる仮領域52を設定する。具体的には、設定部13は、特定された左右両側の境界部50により囲まれた領域であって、最大の面積を有するように各変数の値を決定し、仮領域52を設定する。
そして、認識部15は、当該仮領域52と、前回認識された走行領域とを比較し、その差分が予め決められた閾値以上であるか否か(重複していない領域が所定の大きさ以上であるか否か)を判定する。走行領域は所定周期ごとに認識されるため、前回認識された走行領域と仮領域52との差分が閾値以上である可能性は少ない。このため、差分が閾値よりも小さい場合(重複領域が所定の大きさよりも大きい場合)、認識部15は、境界特定部により特定された境界部50に基づく仮領域52を走行領域として認識する。
一方、差分が閾値以上である場合、認識部15は、複数の仮領域52を設定し、複数の仮領域52及び各仮領域52内に存在するエッジ点51の数に基づいて走行領域を認識する。なお、エッジ点51の抽出状況によって、複数の仮領域52及び仮領域52内に存在するエッジ点51の数に基づいて走行領域を認識してもよい。
例えば、抽出されたエッジ点51がライン状に並んでいないと特定される場合、又はライン状に並んだエッジ点51により複数通りの境界部50が特定される場合、複数の仮領域52及び各仮領域52内に存在するエッジ点51の数に基づいて走行領域を認識してもよい。このような場合には、境界特定部により特定された境界部50に基づき、走行領域を認識すると、走行領域の誤差が大きくなる可能性が高い。そこで、このような場合には、複数の仮領域52及び各仮領域52内に存在するエッジ点51の数に基づいて、走行領域を認識することで、誤差を少なくし、適切な走行領域を認識する。
次に、図9を参照して、第4実施形態の領域認識処理について説明する。領域認識処理を実行すると、領域認識装置10は、単眼カメラ21から撮影画像を取得する(ステップS11)。
次に、領域認識装置10は、取得した撮影画像に基づいて、自車両が走行する走行領域における左右両側の境界部50のエッジ点51を抽出する(ステップS12)。
その後、領域認識装置10は、抽出したエッジ点51に基づき、左右両側の境界部50が特定できるか否かを判定する(ステップS41)。左右両側の境界部50が特定できない場合(ステップS41;NO)、領域認識装置10は、ステップS13の処理に移行する。なお、境界部50が特定できるか否かは、エッジ点51の抽出状況に基づき判定する。例えば、抽出されたエッジ点51がライン状に並んでいないと特定される場合、又はライン状に並んだエッジ点51により複数通りの境界部50が特定される場合、領域認識装置10は、境界部50が特定できないと判定する。エッジ点51がライン状に並んでいないとは、例えば、所定のエッジ強度を有するエッジ点51がラインに沿って所定間隔の範囲内で存在していない場合、又は所定のエッジ強度を有するエッジ点51がラインの幅方向において所定の範囲内に存在していない場合等が該当する。
一方、左右両側の境界部50が特定できる場合(ステップS41:YES)、領域認識装置10は、左右両側の境界部50を特定し、特定された境界部50に基づいて、走行領域の候補となる仮領域52を設定する(ステップS42)。そして、領域認識装置10は、ステップS42で設定された仮領域52と、前回認識された走行領域とを比較し、その差分が予め決められた閾値以上であるか否かを判定する(ステップS43)。
閾値以上である場合(ステップS43:YES)、領域認識装置10は、ステップS13の処理に移行する。一方、閾値以上でない場合、領域認識装置10は、ステップS42で設定された仮領域52を走行領域として認識し(ステップS44)、領域認識処理を終了する。
なお、第2実施形態又は第3実施形態において、領域認識装置10は、境界部50を特定する機能を備え、認識部15は、境界特定部により特定された境界部50に基づき、走行領域を認識することが可能に構成してもよい。その際、領域認識処理においてステップS41〜ステップS44の処理が加えられることとなる。
以上詳述した第4実施形態によれば、次の優れた効果が得られる。
エッジ点51の抽出状況によっては、走行領域の左右両側の境界部50を正確に特定可能となる場合もあれば、そうでない場合もある。このため、エッジ点51の抽出状況によっては、境界特定部により特定された境界部50に基づき走行領域を認識した方が、各仮領域内に存在するエッジ点51の数に基づいて認識するよりも適切である可能性がある。また、逆の場合もありうる。そこで、エッジ点51の抽出状況によって、境界特定部により特定された境界部50に基づいて走行領域を認識する処理と、各仮領域内に存在するエッジ点51の数に基づいて走行領域を認識する処理のいずれかを実行するようにした。これにより、より適切な走行領域を認識可能となる。
所定周期ごとに走行領域は認識されるため、前回認識された走行領域と全く異なる領域となっていることは想定しにくい。このため、境界特定部により特定された境界部50に基づき認識可能な走行領域と、前回認識された走行領域との差分が、予め決められた閾値(大きさ)以上である場合、一部の誤ったエッジ点51の影響を受けて、誤認識が生じている可能性が高い。そこで、このような場合には、認識部15は、各仮領域52におけるエッジ点51の数に基づいて走行領域を認識することとした。これにより、より適切な走行領域を認識できる。
(他の実施形態)
本発明は、上記実施形態に限定されず、例えば以下のように実施してもよい。なお、以下では、各実施形態で互いに同一又は均等である部分には同一符号を付しており、同一符号の部分についてはその説明を援用する。
・走行領域にかかわる各種情報を検出する検出装置から検出結果を取得する検出結果取得部による機能を領域認識装置10に備えてもよい。そして、設定部13は、仮領域52を設定する場合、検出結果取得部が取得した検出結果に基づき、1又は複数の変数の値を固定させ、固定させていない1又は複数の変数の値を変更させるようにしてもよい。検出装置は、走行領域の大きさ(領域幅L)を検出する大きさ検出装置、走行領域の位置(オフセットd)を検出する位置検出装置、走行領域の向き(ヨー角φ)を検出する向き検出装置、及び走行領域の形状(曲率ρ)を検出する形状検出装置のうち少なくともいずれかが考えられる。
走行領域の大きさ(領域幅L)を検出する大きさ検出装置としては、具体的には、単眼カメラ21などの車載カメラがある。領域認識装置10は、車載カメラが撮影した撮影画像を取得し、取得した撮影画像から自車両周辺における左右両側の境界部50を特定する。そして、領域認識装置10は、複数の仮領域52を設定する場合、例えば、境界部50の間の距離を特定可能である場合、その距離に基づき領域幅Lの固定値を決定してもよい。なお、撮影画像に基づき境界部50からの自車両までの距離を特定可能である場合、その距離に基づきオフセットdの固定値を決定してもよい。この場合、車載カメラは、走行領域の位置(オフセットd)を検出する位置検出装置となる。また、撮影画像に基づき左右いずれか一方の境界部50の曲率を特定可能である場合、境界部50の曲率に基づき曲率の固定値を決定してもよい。この場合、車載カメラは、走行領域の形状(曲率ρ)を検出する形状検出装置となる。同様に、撮影画像に基づき左右いずれか一方の境界部50と車両の進行方向の傾きを特定可能である場合、その傾きに基づきヨー角φの固定値を決定してもよい。この場合、車載カメラは、走行領域の向き(ヨー角φ)を検出する向き検出装置となる。
また、検出装置としては、例えば、ナビゲーションシステムがある。ナビゲーションシステムから取得した領域幅L(道路幅)、道路のヨー角φ、及び道路の曲率ρにかかわる各種情報に基づき、変数の値を固定してもよい。このように、実際の走行領域の大きさ、位置、向き、及び形状のうち少なくともいずれかが検出された場合、検出結果に基づいて変数の値を固定させることにより、仮領域52の設定数が少なくなる。また、誤差の少ない適切な走行領域を認識できる。
・領域幅Lは、一定の場合が多いため、過去において特定した左右両側の境界部50に基づいて領域幅Lを特定した場合、当該領域幅Lを固定値として使用してもよい。これにより、仮領域52の設定数を少なくすることができる。
・走行領域に影響を及ぼす変数として、道路の曲率変化率や、道路のピッチ角を採用してもよい。これらの変数を採用することにより、実際の走行領域に近い仮領域52を設定することができる。
・第2実施形態において、ヨーレートセンサの代わりに、又はヨーレートセンサとともに、自車両の挙動を検出する挙動検出装置としての加速度センサや車速センサを用いてもよい。そして、領域認識装置10は、加速度センサや速度センサから取得した情報に基づき、自車両の挙動を特定し、設定部13は、自車両の挙動に応じて各変数の値の範囲を決定してもよい。例えば、車速センサから取得した車速が大きい時ほど、オフセットdの取りうる値の範囲を広くしてもよい。
・上記実施形態では、認識部15は、最もエッジ点数差が大きい領域組み合わせを構成する仮領域52のうち、エッジ点51の数が少ない仮領域52を走行領域として認識したが、エッジ点51の数が大きい仮領域52を走行領域として認識してもよい。また、2つの仮領域52の平均した領域を走行領域として認識してもよい。
10…領域認識装置、11…画像取得部、12…抽出部、13…設定部、14…算出部、15…認識部、50…境界部、51…エッジ点、52…仮領域。

Claims (12)

  1. 車載カメラによる撮影画像を取得する画像取得部と、
    前記撮影画像に基づいて、自車両が走行する走行領域における左右両側の境界部(50)のエッジ点(51)を抽出する抽出部と、
    前記撮影画像内で、少なくとも一部の領域がそれぞれ重複するように前記走行領域の候補となる複数の仮領域(52)を設定する設定部と、
    前記仮領域ごとに、前記仮領域内に存在する前記エッジ点の数を算出する算出部と、
    前記複数の仮領域及び各仮領域内に存在する前記エッジ点の数に基づいて前記走行領域を認識する認識部と、を備える領域認識装置(10)。
  2. 前記認識部は、前記設定部が設定した前記各仮領域のうち重複部分が所定以上となる2つの仮領域からなる仮領域の組み合わせを複数設定し、前記仮領域の組み合わせごとに前記仮領域内に存在するエッジ点の数の差を算出し、当該差が最大となる前記仮領域の組み合わせを構成する前記仮領域に基づいて前記走行領域として認識する請求項1に記載の領域認識装置。
  3. 前記設定部は、所定の非重複部分ずつ段階的に各々ずらして前記複数の仮領域を設定し、前記認識部は、前記設定部が設定した前記各仮領域のうち前記所定の非重複部分の差を有する2つの仮領域からなる仮領域の組み合わせを複数設定し、前記仮領域の組み合わせごとに前記仮領域内に存在するエッジ点の数の差を算出し、当該差が最大となる前記仮領域の組み合わせを構成する前記仮領域に基づいて前記走行領域として認識する請求項1又は2に記載の領域認識装置。
  4. 前記算出部は、前記各エッジ点のエッジ強度に基づき、前記各仮領域内に存在する前記エッジ点の数を補正する請求項1〜3のうちいずれか1項に記載の領域認識装置。
  5. 前記設定部は、前記仮領域の大きさに影響を及ぼす変数と、前記仮領域の位置に影響を及ぼす変数と、前記仮領域の向きに影響を及ぼす変数と、前記仮領域の形状に影響を及ぼす変数のうち、少なくともいずれか1つの変数の値を異ならせて前記複数の仮領域を設定する請求項1〜4のうちいずれか1項に記載の領域認識装置。
  6. 前記走行領域は、所定周期ごとに認識され、
    前記設定部は、前記認識部により前回認識された前記走行領域を設定する際に使用された1又は複数の前記変数の値を基準値とし、各基準値からそれぞれ所定の範囲内で1又は複数の前記変数の値を変更させることにより、前記複数の仮領域を設定する請求項5に記載の領域認識装置。
  7. 前記走行領域の大きさを検出する大きさ検出装置(21)、前記走行領域の位置を検出する位置検出装置、前記走行領域の向きを検出する向き検出装置、及び前記走行領域の形状を検出する形状検出装置の少なくともいずれかから検出結果を取得する検出結果取得部を備え、
    前記検出結果取得部が前記検出結果を取得した場合、前記設定部は、前記検出結果に基づいて1又は複数の前記変数の値を固定させる一方、固定されなかった他の前記変数の値を変更させて、前記複数の仮領域を設定する請求項5又は6に記載の領域認識装置。
  8. 自車両の挙動を検出する挙動検出装置から自車両の挙動を取得する挙動取得部を備え、
    前記設定部は、前記自車両の挙動を取得した場合、前記自車両の挙動に基づいて1又は複数の前記変数の値を変更させて、前記複数の仮領域を設定する請求項5〜7のうちいずれか1項に記載の領域認識装置。
  9. 前記抽出部により抽出されたエッジ点に基づき、前記境界部を特定する境界特定部を備え、
    前記認識部は、前記エッジ点の抽出状況によって、前記境界特定部により特定された前記境界部に基づいて前記走行領域を認識する処理と、前記複数の仮領域及び各仮領域内に存在する前記エッジ点の数に基づいて前記走行領域を認識する処理とのいずれかを実行する請求項1〜8のうちいずれか1項に記載の領域認識装置。
  10. 抽出されたエッジ点がライン状に並んでいないと特定される場合、又はライン状に並んだエッジ点により複数通りの前記境界部が特定される場合、前記認識部は、前記複数の仮領域及び各仮領域内に存在する前記エッジ点の数に基づいて前記走行領域を認識する請求項9に記載の領域認識装置。
  11. 前記走行領域は、所定周期ごとに認識され、
    前記境界特定部により特定された前記境界部に基づき認識可能な前記走行領域と、前回認識された前記走行領域との差分が、予め決められた閾値以上である場合、前記認識部は、前記複数の仮領域及び各仮領域内に存在する前記エッジ点の数に基づいて前記走行領域を認識する請求項9又は10に記載の領域認識装置。
  12. 車載カメラによる撮影画像を取得するステップ(S11)と、
    前記撮影画像に基づいて、自車両が走行する走行領域における左右両側の境界部のエッジ点を抽出するステップ(S12)と、
    前記撮影画像内で、少なくとも一部の領域がそれぞれ重複するように前記走行領域の候補となる複数の仮領域を設定するステップ(S23)と、
    前記仮領域ごとに、前記仮領域内に存在する前記エッジ点の数を算出するステップ(S24)と、
    前記複数の仮領域及び各仮領域内における前記エッジ点の数に基づいて前記走行領域を認識するステップ(S15)と、を含む領域認識方法。
JP2016194591A 2016-09-30 2016-09-30 領域認識装置及び領域認識方法 Active JP6637399B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016194591A JP6637399B2 (ja) 2016-09-30 2016-09-30 領域認識装置及び領域認識方法
US15/716,415 US20180096210A1 (en) 2016-09-30 2017-09-26 Driving area recognition device and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016194591A JP6637399B2 (ja) 2016-09-30 2016-09-30 領域認識装置及び領域認識方法

Publications (2)

Publication Number Publication Date
JP2018052461A true JP2018052461A (ja) 2018-04-05
JP6637399B2 JP6637399B2 (ja) 2020-01-29

Family

ID=61758818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016194591A Active JP6637399B2 (ja) 2016-09-30 2016-09-30 領域認識装置及び領域認識方法

Country Status (2)

Country Link
US (1) US20180096210A1 (ja)
JP (1) JP6637399B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977845B (zh) * 2019-03-21 2021-08-17 百度在线网络技术(北京)有限公司 一种可行驶区域检测方法及车载终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07128059A (ja) * 1993-11-08 1995-05-19 Matsushita Electric Ind Co Ltd 車両位置検出装置
JPH11312299A (ja) * 1998-04-28 1999-11-09 Aqueous Reserch:Kk 自車位置認識装置、自車位置認識方法及びそのプログラムを記録した記録媒体
JP2002197469A (ja) * 2000-12-26 2002-07-12 Nissan Motor Co Ltd 車線検出装置
JP2009169618A (ja) * 2008-01-15 2009-07-30 Toyota Central R&D Labs Inc 路側境界面検出装置
JP2012068961A (ja) * 2010-09-24 2012-04-05 Toyota Central R&D Labs Inc 走路推定装置及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3603768B2 (ja) * 2000-09-06 2004-12-22 日産自動車株式会社 車線逸脱判定装置
JP3780848B2 (ja) * 2000-12-27 2006-05-31 日産自動車株式会社 車両の走行路認識装置
JP4327389B2 (ja) * 2001-10-17 2009-09-09 株式会社日立製作所 走行レーン認識装置
JP3722486B1 (ja) * 2004-05-19 2005-11-30 本田技研工業株式会社 車両用走行区分線認識装置
JP5276637B2 (ja) * 2010-09-08 2013-08-28 富士重工業株式会社 車線推定装置
CN103582907B (zh) * 2011-06-13 2016-07-20 日产自动车株式会社 车载用图像识别装置及车道识别方法
JP5926080B2 (ja) * 2012-03-19 2016-05-25 株式会社日本自動車部品総合研究所 走行区画線認識装置およびプログラム
CN104603841B (zh) * 2012-08-30 2017-10-24 本田技研工业株式会社 行车线标识识别装置
JP6134276B2 (ja) * 2014-03-03 2017-05-24 株式会社Soken 走行区画線認識装置
JP2015179368A (ja) * 2014-03-19 2015-10-08 株式会社日本自動車部品総合研究所 走行区画線認識装置及び走行区画線認識プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07128059A (ja) * 1993-11-08 1995-05-19 Matsushita Electric Ind Co Ltd 車両位置検出装置
JPH11312299A (ja) * 1998-04-28 1999-11-09 Aqueous Reserch:Kk 自車位置認識装置、自車位置認識方法及びそのプログラムを記録した記録媒体
JP2002197469A (ja) * 2000-12-26 2002-07-12 Nissan Motor Co Ltd 車線検出装置
JP2009169618A (ja) * 2008-01-15 2009-07-30 Toyota Central R&D Labs Inc 路側境界面検出装置
JP2012068961A (ja) * 2010-09-24 2012-04-05 Toyota Central R&D Labs Inc 走路推定装置及びプログラム

Also Published As

Publication number Publication date
US20180096210A1 (en) 2018-04-05
JP6637399B2 (ja) 2020-01-29

Similar Documents

Publication Publication Date Title
JP7027738B2 (ja) 運転支援装置
US8655081B2 (en) Lane recognition system, lane recognition method, and lane recognition program
US9336595B2 (en) Calibration device, method for implementing calibration, and camera for movable body and storage medium with calibration function
KR101605514B1 (ko) 차선 인식 장치 및 방법
JP5760696B2 (ja) 画像認識装置
US10108865B2 (en) Information calculation device
JP6965739B2 (ja) 車両制御装置
JP6093314B2 (ja) 境界線認識装置
JP5402828B2 (ja) 車線境界検出装置、車線境界検出プログラム
JP6363518B2 (ja) 区画線認識装置
JP2017054296A (ja) 走行支援装置及び走行支援方法
JP6139465B2 (ja) 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
US10116918B2 (en) Disparity image generating device, disparity image generating method, and image
JP2015179368A (ja) 走行区画線認識装置及び走行区画線認識プログラム
JP6189816B2 (ja) 走行区画線認識装置
JP2012159469A (ja) 車両用画像認識装置
JP6606472B2 (ja) 走路形状認識装置、走路形状認識方法
JP2018005618A (ja) 道路認識装置
JP2010170488A (ja) 車線認識装置、及び車線認識方法
JP6408935B2 (ja) 走行区画線認識装置
JP7095559B2 (ja) 区画線検出装置及び区画線検出方法
JP7068017B2 (ja) 車両の走行路認識装置及び走行制御装置
JP6637399B2 (ja) 領域認識装置及び領域認識方法
JP2012159470A (ja) 車両用画像認識装置
JP2019107944A (ja) 車両制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191220

R150 Certificate of patent or registration of utility model

Ref document number: 6637399

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250