JP2015210608A - 道路環境認識装置 - Google Patents

道路環境認識装置 Download PDF

Info

Publication number
JP2015210608A
JP2015210608A JP2014090733A JP2014090733A JP2015210608A JP 2015210608 A JP2015210608 A JP 2015210608A JP 2014090733 A JP2014090733 A JP 2014090733A JP 2014090733 A JP2014090733 A JP 2014090733A JP 2015210608 A JP2015210608 A JP 2015210608A
Authority
JP
Japan
Prior art keywords
area
road
region
protrusion
road environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014090733A
Other languages
English (en)
Other versions
JP6130325B2 (ja
Inventor
洋介 坂本
Yosuke Sakamoto
洋介 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2014090733A priority Critical patent/JP6130325B2/ja
Priority to US14/689,384 priority patent/US9558410B2/en
Publication of JP2015210608A publication Critical patent/JP2015210608A/ja
Application granted granted Critical
Publication of JP6130325B2 publication Critical patent/JP6130325B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • B62D15/0265Automatic obstacle avoidance by steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Abstract

【課題】道路周辺の突出物の認識にあたって、当該突出物の認識精度を向上させることができる道路環境認識装置を提供する。【解決手段】第1領域抽出部13は、エッジ画像22から、エッジ点で区画され、周囲部よりも輝度が高い第1領域61d〜63dを抽出する。物体認識部14は、エッジ画像22において、周囲部よりも輝度が低い第2領域61e〜63eが第1領域61d〜63dの周囲に存在しているときに、第1領域61d〜63dと当該第2領域61e〜63eとを合わせた領域である第3領域に基づいて道路に存在する突出物を認識する。【選択図】 図4

Description

本発明は、車両に搭載されたカメラの撮像画像に基づいて、道路周辺の突出物を認識する道路環境認識装置に関する。
従来より、車載カメラにより撮像された車両前方の道路の画像から、道路周辺の突出物を認識する道路環境認識装置が知られている(例えば、特許文献1及び特許文献2参照)。
特許文献1には、撮影手段が撮影した走行道路の画像の水平方向の一ライン上にある画素群毎に、所定閾値以上の輝度を有する水平方向の一ライン上で連続する画素群に基づいて道路鋲を認識する車線境界導出装置が記載されている。
特許文献2には、撮像画像のエッジ画像に対し、閾値以上のエッジ強度を有する画素を白色に変換し、閾値よりも小さなエッジ強度を有する画素を黒色に変換した後、モルフォロジー演算などを用いて全方向に膨張させた白色領域のうち、面積及びアスペクト比が所定以上となる白色領域に基づいて道路鋲を認識する車線認識装置が記載されている。
特許第5195377号公報 特許第5152002号公報
しかしながら、従来の技術には、太陽光等による影の影響で、道路周辺に突出物が存在しているにもかかわらずその突出物を検出できなかったりするおそれがあり、道路周辺の突出物の認識精度の向上の観点から改良の余地がある。
たとえば、特許文献1の技術では、太陽光等により道路鋲の一部が影で覆われていた場合には、所定以上の閾値以上の輝度を有する画素群の数が少なくなるので、当該輝度を有する水平方向の一ライン以上で連続する画素群が抽出できないおそれがある。この結果、道路鋲が存在するにもかかわらず、当該道路鋲を認識できない可能性がある。
一方、特許文献2の技術では、太陽光等により道路鋲の一部が影で覆われていた場合には、膨張された白色領域の領域が所定よりも小さくなる。この結果、当該白色領域に相当する部分に道路鋲が存在していたとしても、当該道路鋲を認識できないおそれがある。
本発明はかかる背景に鑑みてなされたものであり、道路周辺の突出物の認識にあたって、当該突出物の認識精度を向上させることができる道路環境認識装置を提供することを目的とする。
本発明は上記目的を達成するためになされたものであり、カメラにより撮像された該車両周囲の画像に基づいて、道路周辺の突出物を認識する道路環境認識装置、車両、及び道路環境認識方法に関する。
本発明の道路環境認識装置は、
カメラにより撮像された道路の画像から、周囲部に対する輝度の変化量が所定値以上であるエッジ点を抽出したエッジ画像を生成するエッジ画像生成部と、
前記エッジ画像から、エッジ点で区画され、周囲部よりも輝度が高い第1領域を抽出する第1領域抽出部と、
前記エッジ画像において、周囲部よりも輝度が低い第2領域が前記第1領域の周囲に存在しているときに、当該第1領域と当該第2領域とを合わせた領域である第3領域に基づいて前記道路に存在する突出物を認識する物体認識部とを備えることを特徴とする。
本願発明者の検討によって、道路に存在する突出物のうち光(太陽光等)が当たっている部分の画像部分は周囲の道路よりも輝度が高く、突出物のうち影となっている部分の画像部分は周囲の道路よりも輝度が低いことが多いことが判明した。
この点に着目して構成された当該構成の道路環境認識装置によれば、周囲部よりも輝度が高い第1領域と、第1領域の周囲に存在し、周囲部よりも輝度が低い第2領域とを合わせた領域である第3領域に基づいて道路に存在する突出物が認識される。この結果、突出物の一部が当該突出物の影で覆われていたとしても、影で覆われていない箇所の画像部分である第1領域と影で覆われている箇所の画像部分である第2領域とを合わせた第3領域に基づいて突出物が認識される。この結果、突出物が存在しているにもかかわらず、突出物の一部が影で覆われているために当該突出物が存在しないとするような誤認識の蓋然性が低下する。
したがって、当該構成の道路環境認識装置によれば、道路周辺の突出物の認識にあたって、当該突出物の認識精度の向上が図られうる。
本発明の道路環境認識装置において、
前記第1領域抽出部は、当該エッジ点で囲まれることにより区画される領域を前記第1領域として抽出するように構成されていることが好ましい。
当該構成の道路環境認識装置によれば、エッジ点で囲まれることにより区画される領域が第1領域として抽出される。エッジ点で囲まれる領域は立体物である蓋然性が高い。したがって、当該構成の道路環境認識装置によれば、道路周辺の突出物の認識にあたって、当該突出物の認識精度の向上が図られうる。
本発明の道路環境認識装置において、
前記物体認識部は、前記第1領域の色相が道路鋲を示す所定の第1色であり、かつ、前記第1領域の大きさが前記道路鋲の実空間上の大きさから定められた第1範囲である場合に、当該第1領域を前記突出物としての前記道路鋲の画像部分と認識するように構成されていることが好ましい。
当該構成の道路環境認識装置によれば、第1色を有する第1領域の大きさが道路鋲の大きさに対応した第1範囲であるときに当該第1領域が道路鋲の画像部分と認識されるので、道路鋲が精度よく認識されうる。
当該構成の道路環境認識装置において、
前記物体認識部は、
前記第1領域の大きさが前記第1範囲の下限未満である場合、前記第1領域の周囲に存在し、かつ、色相が前記第1色よりも暗い第2色である領域を第2領域として探索し、
当該第2領域が検出された場合には前記第3領域の大きさが、前記道路鋲の大きさから定まる第2範囲の大きさであることを条件として当該第3領域を前記道路鋲の画像部分と認識するように構成されていることが好ましい。
ここで、太陽等の光源の方向によっては、当該光源により照射されている道路鋲の部分に相当する第1領域の大きさは変化しうるが、道路鋲の部分に道路鋲の影部分に相当する第2領域を合わせた第3領域の大きさは、道路鋲の大きさに応じたものとなるため、変化の度合いは小さいと推察される。
したがって、第3領域の大きさが突出物の大きさから定まる所定範囲の大きさである場合には、第3領域は、道路鋲の画像部分である蓋然性が高い。
この点に着目して構成された当該構成の道路環境認識装置によれば、道路周辺の道路鋲の認識にあたって、道路鋲の認識精度の向上が図られうる。
本発明の道路環境認識装置において、
前記物体認識部は、前記突出物として道路鋲を認識するように構成され、
前記道路環境認識装置は、
認識された前記道路鋲に基づいて車線を認識する車線認識部と、
認識された車線に基づいて車両の操舵制御を行う操舵制御部とを備えることが好ましい。
当該構成の道路環境認識装置によれば、道路鋲が敷設されている道路において当該道路鋲を境界とする車線に基づいた車両の制御が可能となる。
当該構成の道路環境認識装置において、
前記物体認識部は、前記道路鋲と、当該道路鋲と異なる道路上の突出物とを区別して認識するように構成され、
前記操舵制御部は、前記道路鋲が認識された場合と、当該道路鋲と異なる道路上の突出物が認識された場合とで異なる制御を行うように構成されていることが好ましい。
当該構成の道路環境認識装置によれば、道路鋲と道路鋲と異なる道路上の突出物とが区別されて車両が制御されるので、実際の道路環境に即した車両の制御が可能となる。
当該構成の道路環境認識装置において、
前記物体認識部は、前記突出物の高さに応じて当該突出物が障害物か否かを判定し、
前記操舵制御部は、前記突出物を障害物と認識した場合に当該突出物の回避制御を実行し、前記突出物を障害物と認識しなかった場合に当該突出物の回避制御を実行しないことが好ましい。
当該構成の道路環境認識装置によれば、突出物が障害物と認識された場合に回避制御がされ、当該突出物が障害物と認識されなかった場合には回避制御が行われないので、すべての突出物に対して回避制御を行う場合に比べ、車両の制御が安定する。
本発明の道路環境認識装置において、
前記物体認識部は、前記第1領域の周囲であり、かつ、日光の向きに基づいて推定される前記突出物の影の画像部分が存在する可能性が高い領域内において、前記第2領域を探索するように構成されていることが好ましい。
当該構成の道路環境認識装置によれば、第1領域の周辺かつ、日光の向きに基づいて推定される突出物の影の画像部分が存在する可能性が高い領域において第2領域が探索されるので、計算コストが削減される。
本発明の車両は、
カメラにより撮像された道路の画像から、周囲部に対する輝度の変化量が所定値以上であるエッジ点を抽出したエッジ画像を生成するエッジ画像生成部と、
前記エッジ画像から、エッジ点で区画され、周囲部よりも輝度が高い第1領域を抽出する第1領域抽出部と、
前記エッジ画像において、周囲部よりも輝度が低い第2領域が前記第1領域の周囲に存在しているときに、当該第1領域と当該第2領域とを合わせた領域である第3領域に基づいて前記道路に存在する突出物を認識する物体認識部とを備えることを特徴とする車両。
本発明の道路環境認識方法は、
カメラにより撮像された道路の画像から、周囲部に対する輝度の変化量が所定値以上であるエッジ点を抽出したエッジ画像を生成するエッジ画像生成工程と、
前記エッジ画像から、エッジ点で区画され、周囲部よりも輝度が高い第1領域を抽出する第1領域抽出工程と、
前記エッジ画像において、周囲部よりも輝度が低い第2領域が前記第1領域の周囲に存在しているときに、当該第1領域と当該第2領域とを合わせた領域である第3領域に基づいて前記道路に存在する突出物を認識する物体認識工程とを含むことを特徴とする。
道路環境認識装置の構成図。 ボッツドッツ認識処理のフローチャート。 ボッツドッツ認識処理のフローチャート。 ボッツドッツの影の部分が比較的小さい場合の説明図で、(a)が撮像画像、(b)がエッジ処理されたエッジ画像、(c)がエッジ方向が算出された後の第1領域を示す図。 ボッツドッツの影の部分が比較的大きい場合の説明図で、(a)が撮像画像、(b)がエッジ処理されたエッジ画像、(c)がエッジ方向が算出された後の第1領域及び第2領域を示す図。 ボッツドッツに基づく車線の認識処理の説明図。
(道路環境認識装置の構成)
本発明の道路環境認識装置の実施形態について、図1〜図5を参照して説明する。
図1を参照して、道路環境認識装置10は、カメラ2(カラーカメラ)、スピーカ5、表示器6、及び操舵機構7を備えた車両1(本発明の車両に相当する)に搭載されている。
道路環境認識装置10は、図示しないCPU、メモリ、各種インターフェース回路等により構成された電子ユニットであり、メモリに保持されたボッツドッツ認識及び操舵制御用のプログラムをCPUで実行することにより、撮像画像取得部11、エッジ画像生成部12、第1領域抽出部13、物体認識部14、及び操舵制御部15として機能する。また、道路環境認識装置10により、本発明の道路環境認識方法が実施される。
(道路環境認識処理)
以下、図2(a)及び図2(b)に示したフローチャートに従って、道路環境認識装置10により、道路に設けられたボッツドッツ(道路鋲)を認識する処理について説明する。道路環境認識装置10は、所定の制御周期毎に図2(a)及び図2(b)に示したフローチャートによる処理を実行して、車両1が走行している道路のボッツドッツを認識する。
図2(a)/STEP1は撮像画像取得部11による処理である。撮像画像取得部11は、カメラ2から出力される車両1の前方(本発明の車両周囲に相当する)の映像信号を入力して、この映像信号のカラー成分(R値,G値,B値)をデモザイキングし、各画素のデータとしてR値,G値,B値を有するカラーの撮像画像21を取得する。そして、この撮像画像21のデータを画像メモリ20に保持する。
続く図2(a)/STEP2〜図2(a)/STEP3はエッジ画像生成部12による処理である。なお、エッジ画像生成部12による処理工程は、本発明の道路環境認識方法におけるエッジ画像生成工程に相当する。
エッジ画像生成部12は、撮像画像21の各画素のカラー成分を輝度に変換する処理を行って、グレースケール画像(多値画像)を生成する。そして、エッジ画像生成部12は、グレースケール画像からエッジ点(周囲部の画素(画像部分)との輝度差(輝度の変化量)が所定値以上である画素。輝度が暗から明に変化する正のエッジ点、及び輝度が明から暗に変化する負のエッジ点を含む)を抽出して、エッジ画像22(図1参照)を生成する。
なお、カメラ2がモノクロカメラであるときには、各画素の輝度からグレースケールの撮像画像が得られるので、上述したカラーの撮像画像からグレースケール画像を生成する処理は不要である。
ここで、図3(a)に示されるIm1は撮像画像21から生成されたグレースケール画像の例であり、車両1(自車両)が走行している車線を区画するボッツドッツの画像部分51a〜54aが含まれている。
図3(b)に示されるIm2は、グレースケール画像Im1に対してエッジ抽出処理を行うことにより生成されたエッジ画像である。エッジ画像Im2において、ボッツドッツの画像部分51c〜54cは、日光により照射されている箇所の画像部分がエッジ点によって囲まれている。
また、図4(a)に示されるIm4は撮像画像21から生成されたグレースケール画像の例であり、一部に影を有するボッツドッツの画像部分61a〜63aが含まれている。
図4(b)に示したIm5は、グレースケール画像Im4に対してエッジ抽出処理を行うことにより生成されたエッジ画像である。エッジ画像Im5において、ボッツドッツの画像部分61c〜63cは、日光により照射されている箇所の画像部分と影の画像部分とがそれぞれエッジ点によって囲まれている。
エッジ画像生成部12は、撮像画像21からエッジ点ごとに輝度の変化の方向であるエッジ方向を検出することにより、エッジ線を検出する(図2(a)/STEP3)。ここで、エッジ方向とは輝度の濃淡の変化の方向をいう。同一のエッジ方向を持つエッジ点がひとまとめにされることにより、輝度が異なる区域を分けるエッジ線が検出される。このようなエッジ線は、所定の輝度を有する1つの領域を区画する1つの区画線となる。
この結果、図3(c)のIm3に示されるように、ボッツドッツの日光の当たっている部分に相当する画像部分(領域51d〜54d)が複数のエッジ線で区画される。また、図4(c)に示されるように、ボッツドッツの日の当たっている部分に相当する画像部分(領域61d〜63d)がエッジ線で区画されるとともに、影の部分に相当する画像部分(領域61e〜63e)がエッジ線で区画される。
続く図2(a)/STEP4は、第1領域抽出部13による処理である。各領域を区画する複数のエッジ線によって区画された領域51d〜54d、61d〜63d、61e〜63eのうち、当該領域の輝度(領域の輝度の平均値、領域の画素の最大値等)が所定の第1輝度以上である第1領域51d〜54d、61d〜63dを抽出する。当該所定の第1輝度は、当該領域の周囲(道路)よりも輝度が高い輝度という観点で定められ、たとえば当該領域を含む所定の大きさの領域の平均輝度が当該所定の第1輝度として採用される。
なお、第1領域抽出部13による処理工程は、本発明の道路環境認識方法における第1領域抽出工程に相当する。
続く図2(a)/STEP5(図2(a)/STEP51〜図2(a)/STEP58)、図2(b)/STEP6〜図2(b)/STEP8は物体認識部14による処理である。なお、物体認識部14による処理工程は、本発明の道路環境認識方法における物体認識工程に相当する。
物体認識部14は、第1領域抽出部13によって抽出された第1領域51d〜54d、61d〜63dのそれぞれについて図2(a)/STEP51〜図2(a)/STEP58の処理を実行する(図2(a)/STEP5)。なお、図2(a)/STEP51〜図2(a)/STEP58の処理対象となっている第1領域を「今回の第1領域」という。
物体認識部14は、今回の第1領域に対して、カメラ座標から実空間座標への逆射影変換を行って、今回の第1領域に対応する実空間での突出物の位置を算出する(図2(a)/STEP51)。
物体認識部14は、当該算出された位置に基づいて推定された今回の第1領域に対応する実空間上の突出物の高さが所定の高さ以上であるか否かを判定する(図2(a)/STEP52)。当該判定結果が肯定的な結果である場合(図2(a)/STEP52‥YES)、物体認識部14は、今回の第1領域を突起物の画像部分の候補であると認識する(図2(a)/STEP56)。
当該判定結果が否定的な結果である場合(図2(a)/STEP52‥NO)、物体認識部14は、今回の第1領域の大きさが所定の範囲に含まれるか否かを判定する(図2(a)/STEP53)。当該所定の範囲は、今回の第1領域に対応する実空間上の位置にボッツドッツが存在したときの当該ボッツドッツの画像部分の大きさを想定して設定された範囲である。また、大きさに加え、第1領域の色相が所定の色相(ボッツドッツの表面の色から定まる色相で、たとえば白)であるか否かが判定されてもよい。
たとえば、図3(c)のIm3に示されるように、物体認識部14は、横幅x1と縦幅y1とから求められる第1領域51dの大きさが、第1領域51dに対応する実空間上の位置から推定されるボッツドッツの画像部分の大きさの範囲内であるか否かを判定する。図3(a)に示されるボッツドッツの画像部分51aは、影で覆われている部分がほとんどないため、ボッツドッツの画像部分51aに対応する第1領域51dの大きさは、実空間上の距離から推定されるボッツドッツの画像部分の大きさの範囲内となる。
また、図4(c)のIm6に示されるように、物体認識部14は、横幅x2と縦幅y2とから求められる第1領域62dの大きさが、第1領域62dに対応する実空間上の位置から推定される所定の大きさ以上であるか否かを判定する。図4(a)に示されるボッツドッツの画像部分62aは、一部が影で覆われているため、ボッツドッツの画像部分62aの日が当たっている部分に対応する第1領域62dの大きさは、実空間上の距離から推定されるボッツドッツの画像部分の大きさの範囲外となる。
図2(a)/STEP53の判定結果が肯定的な結果である場合(図2(a)/STEP53‥YES)、物体認識部14は、今回の第1領域をボッツドッツの画像部分の候補であると認識する(図2(a)/STEP57)。
図2(a)/STEP53の判定結果が否定的な結果である場合(図2(a)/STEP53‥NO)、物体認識部14は、今回の第1領域の周辺部において、所定の第2輝度よりも低い輝度を有する第2領域を探索する(図2(a)/STEP54)。ここで、第2領域の探索領域は、ボッツドッツの大きさから定められる領域と日光の向きから推定される影ができる領域との重なった領域である。また、当該所定の第2輝度は、第2領域の周囲(道路等)よりも低い輝度であり、たとえば、第2領域を含む領域の平均輝度が採用されうる。第1輝度と第2輝度とは同一の輝度であってもよい。なお、今回の第1領域の大きさが所定の範囲の上限値を超えている場合、物体認識部14は、図2(a)/STEP54〜図2(a)/STEP57の処理を省略して、図2(a)/STEP58の処理を行ってもよい。
ここで、ボッツドッツの大きさから定められる領域として、たとえば、ボッツドッツの所定の横幅xと縦幅yと、第1領域62dの横幅x2、縦幅y2に基づき、第1領域62dの左右方向に横幅の差分(x−x2)だけずれた領域、上下方向に縦幅の差分(x−y2)だけずれた領域が採用されうる。
また、日光の向きは、たとえば、車両1の進行方向及びカメラ2の傾斜角度等から推定されるカメラ2の撮像方向と、日時とに基づき推定されうる。日光により影ができる領域の推定は、種々の公知の技術が採用されうる。
なお、当該第1領域の色相が想定と異なる場合、物体認識部14は、当該第2領域の探索を行わず、図2(a)/STEP58の処理を行ってもよい。
物体認識部14は、今回の第1領域と第2領域とを合わせた第3領域の大きさが所定の範囲に含まれるか否かを判定する(図2(a)/STEP55)。当該所定の範囲は、第3領域に対応する実空間上の位置から推定されるボッツドッツの画像部分の大きさの範囲である。なお、当該第2領域が抽出されなかった場合、物体認識部14は、STEP55以下の判定を行わずに、図2(a)/STEP58の処理を行う。
例えば、図4(c)に示されるように、物体認識部14は、横幅x3と縦幅y3とから求められる第1領域62d及び第2領域62eを合わせた第3領域の大きさが、第3領域に対応する実空間上の位置から推定される所定の大きさ以上であるか否かを判定する。
当該判定結果が肯定的な結果である場合(図2(a)/STEP55‥YES)、物体認識部14は、第3領域をボッツドッツの画像部分の候補であると認識する(図2(a)/STEP57)。たとえば、図4(c)に示されている横幅x3と縦幅y3とから求められる第1領域62d及び第2領域62eを合わせた第3領域の大きさが、第3領域に対応する実空間上の位置から推定される所定の大きさ以上である場合、物体認識部14は、当該第3領域をボッツドッツの画像部分であると認識する。
一方、当該判定結果が否定的な結果である場合(図2(a)/STEP55‥NO)、物体認識部14は、第1領域を、ボッツドッツの画像部分の候補でも、突起物の画像部分の候補でもないと認識する(図2(a)/STEP58)。
物体認識部14は、各第1領域に対して図2(a)/STEP5(図2(a)/STEP51〜図2(a)/STEP58)の処理が終了すると、認識したボッツドッツの候補をボッツドッツとして認識する(図2(b)/STEP6)。この際に、さらに他の道路環境と照合してボッツドッツ候補がボッツドッツか否かが判定されてもよい。
図5は、車両1が走行している車線の左右に複数のボッツドッツが敷設されている例を示ししている。
図5の場合は、左右両側において、合計6つのボッツドッツ候補71b〜76bが検出されている。これらのボッツドッツ候補71b〜76bは、ボッツドッツ(以下、単にボッツドッツ71b〜76bという。)として認識される。
また、物体認識部14は、認識した突起物の候補を突起物として認識する(図2(b)/STEP7)。この際に、詳細な突起物の形状に基づき、その突起物がどの種類の突起物かであるかが判定されてもよい。また、物体認識部14は、突起物の大きさに基づき、障害物であるか否かを判定してもよい。
図5の場合、車両の右側前方に突起物の候補81bが検出されている。これらの突起物候補81bは、突起物(以下単に「突起物81b」という。)として認識される。
続く図2(b)/STEP8で、物体認識部14は、左右のボッツドッツ71b〜76bの位置に基づいて、車線の中央位置を認識する。図5の例では、左側のボッツドッツ71b〜73bの内側位置XL1と右側のボッツドッツ74b〜76bの内側位置XR1との中央位置Xcを認識する。
また、図5の例では、左側のボッツドッツ71b〜73bの内側位置XL1と、右側のボッツドッツ74b〜76bの内側位置XR1との中央位置Xcが、車線の中央位置として認識される。
次の図2(b)/STEP9は操舵制御部15による処理である。操舵制御部15は、車両1が車線内の中心位置Xc付近を走行するように、操舵機構7を作動させて車両1の運転者の運転操作をアシストする。
ここで、操舵制御部15は、車両1と中心位置Xcとのずれが大きくなって、車両1と右ボッツドッツ74b〜76bとの間隔WR、又は車両1と左ボッツドッツ71b〜73bとの間隔WLが予め設定された判定値以下になったときに、操舵機構7を作動させて車両1を中心位置Xcに近づける制御を行う。
また、操舵制御部15は、認識された突起物81bについて、車両1と当該突起物81bとの接触を避けるための回避制御を行う。なお、操舵制御部15は、当該回避制御を、突起物81が障害物と認識された場合にのみ行ってもよい。
(道路環境認識装置の作用効果)
当該構成の道路環境認識装置10によれば、突出物の一部が当該突出物の影で覆われていたとしても、影で覆われていない箇所の画像部分である第1領域61d〜63dと影で覆われている箇所の画像部分である第2領域61e〜63eとが抽出された場合に、それらを合わせた第3領域に基づいて突出物が認識される。この結果、突出物が存在しているにもかかわらず、突出物の一部が影で覆われているために当該突出物が存在しないとするような誤認識の蓋然性が低下する。
したがって、当該構成の道路環境認識装置10によれば、道路周辺の突出物の認識にあたって、当該突出物の認識精度の向上が図られうる。
また、当該構成の道路環境認識装置10によれば、算出されたエッジ方向に基づいて第1領域51d〜54d、61d〜63dが抽出されるので、所定以上の輝度を有する第1領域の抽出精度が向上する。この結果、当該構成の道路環境認識装置10によれば、道路周辺の突出物の認識にあたって、当該突出物の認識精度の向上が図られうる。
また、当該構成の道路環境認識装置10によれば、第1色(白色)を有する第1領域51d〜54dの大きさが突出物の大きさに対応した第1範囲であるときに当該第1領域51d〜54dが突出物の画像部分と認識されるので、突出物が精度よく認識されうる。
当該構成の道路環境認識装置において、
ここで、太陽等の光源の方向によっては、当該光源により照射されている突出物の部分に相当する第1領域61d〜63dの大きさは変化しうるが、当該突出物の部分に突出物の影部分に相当する第2領域61e〜63eを合わせた第3領域の大きさは、突出物の大きさに応じたものとなるため、変化の度合いは小さいと推察される。
したがって、第3領域の大きさが突出物の大きさから定まる所定範囲の大きさである場合には、第3領域は、当該突出物の画像部分である蓋然性が高い。
この点に着目して構成された当該構成の道路環境認識装置10によれば、道路周辺の突出物の認識にあたって、当該突出物の認識精度の向上が図られうる。
また、当該構成の道路環境認識装置10によれば、道路鋲(ボッツドッツ)が敷設されている道路において当該道路鋲を境界とする車線(の内側位置XL、XR、及び中央位置Xc)に基づいて車両1の制御が可能となる。
また、当該構成の道路環境認識装置10によれば、道路鋲と道路鋲と異なる道路上の突出物とが区別されて車両1が制御されるので、実際の道路環境に即した車両1の制御が可能となる。
また、当該構成の道路環境認識装置10によれば、突出物が障害物と認識された場合に回避制御がされ、当該突出物が障害物と認識されなかった場合には回避制御が行われないので、すべての突出物に対して回避制御を行う場合に比べ、車両1の制御が安定する。
当該構成の道路環境認識装置10によれば、第1領域61d〜63dの周辺かつ、日光の向きに基づいて推定される突出物の影の画像部分が存在する可能性が高い領域において第2領域61e〜63eが探索されるので、計算コストが削減される。
(変形態様)
本実施形態ではボッツドッツと突起物とが認識対象とされたが、これに限られず、たとえばキャッツアイ、パイロン等が認識対象とされてもよい。
1…車両(自車両)、2…カメラ、7…操舵機構、10…道路環境認識装置、11…撮像画像取得部、12…エッジ画像生成部、13…第1領域抽出部13…物体認識部14…操舵制御部、20…画像メモリ、21…撮像画像、22…エッジ画像。

Claims (10)

  1. カメラにより撮像された道路の画像から、周囲部に対する輝度の変化量が所定値以上であるエッジ点を抽出したエッジ画像を生成するエッジ画像生成部と、
    前記エッジ画像から、エッジ点で区画され、周囲部よりも輝度が高い第1領域を抽出する第1領域抽出部と、
    前記エッジ画像において、周囲部よりも輝度が低い第2領域が前記第1領域の周囲に存在しているときに、当該第1領域と当該第2領域とを合わせた領域である第3領域に基づいて前記道路に存在する突出物を認識する物体認識部とを備えることを特徴とする道路環境認識装置。
  2. 請求項1記載の道路環境認識装置において、
    前記第1領域抽出部は、当該エッジ点で囲まれることにより区画される領域を前記第1領域として抽出するように構成されていることを特徴とする道路環境認識装置。
  3. 請求項1又は2記載の道路環境認識装置において、
    前記物体認識部は、前記第1領域の色相が道路鋲を示す所定の第1色であり、かつ、前記第1領域の大きさが前記道路鋲の実空間上の大きさから定められた第1範囲である場合に、当該第1領域を前記突出物としての前記道路鋲の画像部分と認識するように構成されていることを特徴とする道路環境認識装置。
  4. 請求項3記載の道路環境認識装置において、
    前記物体認識部は、
    前記第1領域の大きさが前記第1範囲の下限未満である場合、前記第1領域の周囲に存在し、かつ、色相が前記第1色よりも暗い第2色である領域を第2領域として探索し、
    当該第2領域が検出された場合には前記第3領域の大きさが、前記道路鋲の大きさから定まる第2範囲の大きさであることを条件として当該第3領域を前記道路鋲の画像部分と認識するように構成されていることを特徴とする道路環境認識装置。
  5. 請求項1〜4のいずれか1項記載の道路環境認識装置において、
    前記物体認識部は、前記突出物として道路鋲を認識するように構成され、
    前記道路環境認識装置は、
    認識された前記道路鋲に基づいて車線を認識する車線認識部と、
    認識された車線に基づいて車両の操舵制御を行う操舵制御部とを備えることを特徴とする道路環境認識装置。
  6. 請求項5記載の道路環境認識装置において、
    前記物体認識部は、前記道路鋲と、当該道路鋲と異なる道路上の突出物とを区別して認識するように構成され、
    前記操舵制御部は、前記道路鋲が認識された場合と、当該道路鋲と異なる道路上の突出物が認識された場合とで異なる制御を行うように構成されていることを特徴とする道路環境認識装置。
  7. 請求項6記載の道路環境認識装置において、
    前記物体認識部は、前記突出物の高さに応じて当該突出物が障害物か否かを判定し、
    前記操舵制御部は、前記突出物を障害物と認識した場合に当該突出物の回避制御を実行し、前記突出物を障害物と認識しなかった場合に当該突出物の回避制御を実行しないことを特徴とする道路環境認識装置。
  8. 請求項1〜7のいずれか1項記載の道路環境認識装置において、
    前記物体認識部は、前記第1領域の周囲であり、かつ、日光の向きに基づいて推定される前記突出物の影の画像部分が存在する可能性が高い領域内において、前記第2領域を探索するように構成されていることを特徴とする道路環境認識装置。
  9. カメラにより撮像された道路の画像から、周囲部に対する輝度の変化量が所定値以上であるエッジ点を抽出したエッジ画像を生成するエッジ画像生成部と、
    前記エッジ画像から、エッジ点で区画され、周囲部よりも輝度が高い第1領域を抽出する第1領域抽出部と、
    前記エッジ画像において、周囲部よりも輝度が低い第2領域が前記第1領域の周囲に存在しているときに、当該第1領域と当該第2領域とを合わせた領域である第3領域に基づいて前記道路に存在する突出物を認識する物体認識部とを備えることを特徴とする車両。
  10. カメラにより撮像された道路の画像から、周囲部に対する輝度の変化量が所定値以上であるエッジ点を抽出したエッジ画像を生成するエッジ画像生成工程と、
    前記エッジ画像から、エッジ点で区画され、周囲部よりも輝度が高い第1領域を抽出する第1領域抽出工程と、
    前記エッジ画像において、周囲部よりも輝度が低い第2領域が前記第1領域の周囲に存在しているときに、当該第1領域と当該第2領域とを合わせた領域である第3領域に基づいて前記道路に存在する突出物を認識する物体認識工程とを含むことを特徴とする道路環境認識方法。
JP2014090733A 2014-04-24 2014-04-24 道路環境認識装置 Expired - Fee Related JP6130325B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014090733A JP6130325B2 (ja) 2014-04-24 2014-04-24 道路環境認識装置
US14/689,384 US9558410B2 (en) 2014-04-24 2015-04-17 Road environment recognizing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014090733A JP6130325B2 (ja) 2014-04-24 2014-04-24 道路環境認識装置

Publications (2)

Publication Number Publication Date
JP2015210608A true JP2015210608A (ja) 2015-11-24
JP6130325B2 JP6130325B2 (ja) 2017-05-17

Family

ID=54335069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014090733A Expired - Fee Related JP6130325B2 (ja) 2014-04-24 2014-04-24 道路環境認識装置

Country Status (2)

Country Link
US (1) US9558410B2 (ja)
JP (1) JP6130325B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6996200B2 (ja) * 2017-09-29 2022-01-17 富士通株式会社 画像処理方法、画像処理装置、および画像処理プログラム
DE102018208739A1 (de) * 2018-06-04 2019-12-05 Conti Temic Microelectronic Gmbh Abschätzung von Ortskoordinaten von Lichtquellen in Umgebungsbildern
DE102018216562A1 (de) * 2018-09-27 2020-04-02 Conti Temic Microelectronic Gmbh Verfahren zum Detektieren von Lichtverhältnissen in einem Fahrzeug
US11891067B2 (en) * 2019-12-11 2024-02-06 Electronics And Telecommunications Research Institute Vehicle control apparatus and operating method thereof
CN115880674B (zh) * 2023-03-01 2023-05-23 上海伯镭智能科技有限公司 一种基于无人驾驶矿车的避障转向矫正方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001184512A (ja) * 1999-12-24 2001-07-06 Sanyo Electric Co Ltd 画像処理装置及び方法並びに記録媒体
JP2007156919A (ja) * 2005-12-06 2007-06-21 Toyota Motor Corp 道路区画線検出装置
JP2007213165A (ja) * 2006-02-07 2007-08-23 Toyota Motor Corp 道路区間線検出装置
JP2009265798A (ja) * 2008-04-23 2009-11-12 Honda Motor Co Ltd レーンマーカ認識装置、車両、及びレーンマーカ認識用プログラム
JP2010140170A (ja) * 2008-12-10 2010-06-24 Toyota Motor Corp 車線境界導出装置
JP2010165204A (ja) * 2009-01-16 2010-07-29 Nissan Motor Co Ltd 車線認識装置および車線認識方法
JP2013250874A (ja) * 2012-06-01 2013-12-12 Nippon Soken Inc 車線境界線検出装置およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4016735B2 (ja) * 2001-11-30 2007-12-05 株式会社日立製作所 レーンマーク認識方法
JP4470067B2 (ja) * 2007-08-07 2010-06-02 本田技研工業株式会社 対象物種別判定装置、車両
US8699754B2 (en) * 2008-04-24 2014-04-15 GM Global Technology Operations LLC Clear path detection through road modeling
JP5220787B2 (ja) * 2010-03-08 2013-06-26 株式会社日本自動車部品総合研究所 車載白線認識装置
US9591274B2 (en) * 2012-07-27 2017-03-07 Nissan Motor Co., Ltd. Three-dimensional object detection device, and three-dimensional object detection method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001184512A (ja) * 1999-12-24 2001-07-06 Sanyo Electric Co Ltd 画像処理装置及び方法並びに記録媒体
JP2007156919A (ja) * 2005-12-06 2007-06-21 Toyota Motor Corp 道路区画線検出装置
JP2007213165A (ja) * 2006-02-07 2007-08-23 Toyota Motor Corp 道路区間線検出装置
JP2009265798A (ja) * 2008-04-23 2009-11-12 Honda Motor Co Ltd レーンマーカ認識装置、車両、及びレーンマーカ認識用プログラム
JP2010140170A (ja) * 2008-12-10 2010-06-24 Toyota Motor Corp 車線境界導出装置
JP2010165204A (ja) * 2009-01-16 2010-07-29 Nissan Motor Co Ltd 車線認識装置および車線認識方法
JP2013250874A (ja) * 2012-06-01 2013-12-12 Nippon Soken Inc 車線境界線検出装置およびプログラム

Also Published As

Publication number Publication date
JP6130325B2 (ja) 2017-05-17
US9558410B2 (en) 2017-01-31
US20150310284A1 (en) 2015-10-29

Similar Documents

Publication Publication Date Title
JP5407898B2 (ja) 対象物検出装置及びプログラム
JP5822255B2 (ja) 対象物識別装置及びプログラム
JP6130325B2 (ja) 道路環境認識装置
US8867792B2 (en) Environment recognition device and environment recognition method
WO2017138245A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6141787B2 (ja) レーンマーク認識装置
JP6230482B2 (ja) レーンマーク認識装置、車両及びレーンマーク認識方法
WO2020160155A1 (en) Dynamic distance estimation output generation based on monocular video
JP6597792B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
CN111971682A (zh) 路面检测装置、利用了路面检测装置的图像显示装置、利用了路面检测装置的障碍物检测装置、路面检测方法、利用了路面检测方法的图像显示方法以及利用了路面检测方法的障碍物检测方法
KR20090098167A (ko) 거리센서를 이용한 차선인식 방법 및 그 시스템
Laible et al. Terrain classification with conditional random fields on fused 3D LIDAR and camera data
JPWO2017099199A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP4123138B2 (ja) 車両検知方法及び車両検知装置
JP2017052498A (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6431299B2 (ja) 車両周辺監視装置
US20160188967A1 (en) Pedestrian detecting system
Zhang et al. Night time vehicle detection and tracking by fusing sensor cues from autonomous vehicles
JP6132807B2 (ja) レーンマーク認識装置
Vitor et al. Stereo vision for dynamic urban environment perception using semantic context in evidential grid
CN111062311A (zh) 一种基于深度级可分离卷积网络的行人手势识别与交互方法
Itu et al. An efficient obstacle awareness application for android mobile devices
JP4824729B2 (ja) 物体検知の方法
KR101461316B1 (ko) 듀얼 카메라를 포함하는 무인차의 컬러 마커 기반 무인 운전 시스템 및 그 방법
Guo et al. Drivable road region detection based on homography estimation with road appearance and driving state models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170413

R150 Certificate of patent or registration of utility model

Ref document number: 6130325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees