JP2018101437A - 走行支援装置、走行支援装置による走行支援方法及びプログラム - Google Patents

走行支援装置、走行支援装置による走行支援方法及びプログラム Download PDF

Info

Publication number
JP2018101437A
JP2018101437A JP2018019517A JP2018019517A JP2018101437A JP 2018101437 A JP2018101437 A JP 2018101437A JP 2018019517 A JP2018019517 A JP 2018019517A JP 2018019517 A JP2018019517 A JP 2018019517A JP 2018101437 A JP2018101437 A JP 2018101437A
Authority
JP
Japan
Prior art keywords
image
road
line
lane marking
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018019517A
Other languages
English (en)
Inventor
哲也 藤川
Tetsuya Fujikawa
哲也 藤川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2018101437A publication Critical patent/JP2018101437A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/108Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 'non-standard' camera systems, e.g. camera sensor used for additional purposes i.a. rain sensor, camera sensor split in multiple image areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】走行支援装置及び走行支援装置による走行支援方法において、可視画像の画素値に基づいて、可視画像中の可視撮像部の最低照度未満の照度を有する区分線が検出できない場合にも、赤外線画像と可視画像とを用いて区分線を推定する。
【解決手段】走行支援装置が、赤外線画像を撮像する赤外線撮像部と、赤外線画像の表す範囲に対応する範囲の可視画像を撮像する可視撮像部と、撮像された赤外線画像から車両が走行する道路の道路端線を検出する道路検出部(41)と、撮像された可視画像から道路の区分線を検出する区分線検出部(42)と、互いに位置合わせされた赤外線画像と可視画像に基づいて、道路端線と区分線とを表す統合画像を生成する画像生成部(43)と、統合画像中の区分線と道路端線とに基づいて、統合画像における区分線の延長部分を推定する区分線推定部(44)とを備える。
【選択図】図2

Description

本発明は、車両の走行を支援する走行支援装置及び走行支援装置による走行支援方法に関し、特に車両に搭載された赤外線撮像部によって撮像された赤外線画像と、車両に搭載された可視撮像部によって撮像された可視画像とに基づいて、車両の走行を支援する走行支援装置及び走行支援装置による走行支援方法に関する。
従来、道路等の走行を支援するために、車両に搭載したカメラで撮像した画像に基づいて、車両の走行を補助する情報を抽出する様々な技術が提案されている。
例えば、特許文献1及び2は、車両に可視カメラと赤外線カメラを搭載し、これらの可視カメラと赤外線カメラで対応する範囲を撮像し、可視カメラで撮像された可視画像から区分線を検出して、検出した区分線を赤外線カメラで撮像された赤外線画像に重畳して表示する技術を開示している。また、特許文献2は、可視画像から区分線を検出できなかった場合には、車速と舵角に基づいて自車両の進行方向を推定演算し、自車両の進行方向に対して車幅方向に所定幅を持つ領域を進行路と推定して赤外線画像に重畳する技術を開示している。
また、特許文献3及び4は、可視画像から検出した複数の境界線候補を結んだ直線を、道路上の区分線として検出する技術を開示している。
特許第04584277号公報 特開2001−101596号公報 特開2006−185406号公報 特開2005−316607号公報
ここで、夜間などの可視光が制限された状況では、ヘッドライトからの光が届かない場所など、可視画像の撮影範囲の一部が可視撮像部の最低照度未満の照度となってしまう場合もあり得る。このような場合には、可視画像中で最低照度未満の照度を有する区分線がほぼ一様に小さい画素値となって、可視画像の画素値の明暗に基づいて、可視画像中で最低照度未満の照度を有する区分線を検出できないという問題がある。
しかし、特許文献1乃至4に示す技術は、可視画像の画素値の明暗に基づいて、可視画像から区分線を検出する技術であるため、上記問題を解消することができない。また、特許文献2の技術によって、道路や区分線などの外部環境の情報によらず推定された進行路は、区分線や道路との関係が不明であり、進行路に基づいて区分線を推定できるとはいえない。
本発明は上記問題に鑑みてなされたものであり、可視画像の画素値に基づいて、可視画像中の可視撮像部の最低照度未満の照度を有する区分線を検出できない場合にも、赤外線撮像部によって撮像された赤外線画像と可視撮像部によって撮像された可視画像とを用いて道路の区分線を推定する走行支援装置及び係る走行支援装置による走行支援方法を提案することを目的とする。
本願発明に係る赤外線撮像装置は、車両に搭載されて車両前方の赤外線画像を撮像する赤外線撮像部と、車両に搭載されて赤外線画像の表す範囲に対応する範囲の可視画像を撮像する可視撮像部と、撮像された赤外線画像から車両が走行する道路の道路端線を検出する道路検出部と、撮像された可視画像から道路の区分線を検出する区分線検出部と、互いに位置合わせされた赤外線画像と可視画像に基づいて、道路端線と区分線とを表す統合画像を生成する画像生成部と、統合画像中の区分線と道路端線とに基づいて、統合画像における区分線の延長部分を推定する区分線推定部とを備えたことを特徴とする。
本願発明に係る赤外線撮像方法は、車両に搭載された赤外線撮像部と車両に搭載された可視撮像部とを備えた走行支援装置によって実施される走行支援方法であって、車両の車両前方の赤外線画像を撮像する赤外線撮像ステップと、赤外線画像の表す範囲に対応する範囲の可視画像を撮像する可視撮像ステップと、撮像された赤外線画像から車両が走行する道路の道路端線を検出する道路検出ステップと、撮像された可視画像から道路の区分線を検出する区分線検出ステップと、互いに位置合わせされた赤外線画像と可視画像に基づいて、道路端線と区分線とを表す統合画像を生成する画像生成ステップと、統合画像中の区分線と道路端線とに基づいて、統合画像における区分線の延長部分を推定する区分線推定ステップとを有することを特徴とする。
「車両前方」とは車両が移動する際の前方を意味する。例えば、車両前方は、車両が前進移動する際には車両が前進する向きを前向きとした場合の前方を意味し、車両が後退移動する際には車両が後退する向きを前向きとした場合の前方を意味する。
「区分線」とは、道路を区分するために、道路の走行方向に沿って路面に設けられた線を意味する。例えば、区分線は、車線境界線、車線と路側帯の境界を表す区画線、車線と歩道との境界線を含む。
本発明の走行支援装置において、区分線推定部が、道路面上において、区分線が道路端線と道路の走行方向に並走し、かつ、区分線が道路の走行方向と直交する横断方向に道路端線と一定の距離をあけて位置するという条件に従って、統合画像中の区分線の延長部分を推定することが好ましい。
「道路の走行方向と直交する横断方向」とは、道路の走行方向と横断方向が実質的に直交していることを意味する。例えば、横断方向は、道路の走行方向と実質的に直交していると見なせるものであれば、道路の走行方向と厳密に直交していないものも含む。
本発明の走行支援装置において、画像生成部は、互いに位置合わせされた赤外線画像と可視画像に基づいて、道路端線と区分線とを表す2次元画像である第1統合画像を統合画像として生成し、区分線推定部は、道路の両端をそれぞれ表す2つの道路端線が検出された場合に、車両の下向きを画像下向きとして第1統合画像を配置した状態で、第1統合画像の水平方向に延びる線上において、2つの道路端線のうち一方の道路端線上の参照点と2つの道路端線のうち他方の道路端線上の参照点とを区分線上の参照点が内分する内分比を算出し、各々の参照点から2つの道路端線の交点までの各点を通る水平方向に延びる線上において、一方の道路端線上の点と他方の道路端線上の点と区分線上の点とが内分比を維持するという条件に従って、区分線の候補点をそれぞれ算出し、算出された区分線の候補点に基づいて区分線の延長部分を推定する第1推定処理を実施することが好ましい。
本発明の走行支援装置において、画像生成部は、互いに位置合わせされた赤外線画像と可視画像に基づいて、道路端線と区分線とを表す2次元画像である第2統合画像を統合画像として生成し、区分線推定部は、車両の下向きを画像下向きとして第2統合画像を配置した状態で、第2統合画像において、道路端線の上端からの垂直方向の距離が大きくなるほど、道路端線と区分線との間の水平方向の距離が一定割合で大きくなるという条件に従って、道路端線の各点に対応する区分線の候補点をそれぞれ算出し、算出された区分線の候補点に基づいて区分線の延長部分を推定する第2推定処理を実施することが好ましい。
区分線推定部が第2推定処理を実施する場合に、区分線推定部は、車両の下向きを画像下向きとして第2統合画像を配置した状態において、道路端線の上端を検出し、道路端線の参照点から区分線までの水平方向の第1参照距離を算出し、上端から区分線の延長部分までの水平方向の第2参照距離を零と設定し、道路端線の参照点から上端までの垂直方向の距離に対する第1参照距離と第2参照距離の差の割合に基づいて一定割合を算出して第2推定処理を実施することが好ましい。
区分線推定部が第2推定処理を実施する場合に、区分線推定部は、車両の下向きを画像下向きとして第2統合画像を配置した状態において、道路端線の上端を検出し、道路端線の第1参照点から区分線までの水平方向の第1参照距離を算出し、道路端線の第2参照点から区分線までの水平方向の第2参照距離を算出し、第1参照点から第2参照点までの垂直方向の距離に対する第1参照距離と第2参照距離の差の割合に基づいて一定割合を算出して第2推定処理を実施することが好ましい。
本発明の走行支援装置において、区分線推定部が、道路の両端をそれぞれ表す2つの道路端線が検出された場合に第1推定処理を実施し、道路の一方の端を表す道路端線が検出され、道路の他方の端を表す道路端線が検出されなかった場合に、車両の下向きを画像下向きとして第1統合画像を配置した状態において、道路端線の上端からの垂直方向の距離が大きくなるほど、道路端線と区分線との間の水平方向の距離が一定割合で大きくなるという条件に従って、道路端線の各点に対応する区分線の候補点をそれぞれ算出し、算出された区分線の候補点に基づいて区分線の延長部分を推定する第2推定処理を実施することが好ましい。
上記において、「車両の下向きが画像下向きに相当する」とは、統合画像の下向きが車両の下向きと実質的に一致することを意味する。例えば、統合画像の下向きが車両の下向きと実質的に一致すると見なせるものであれば、統合画像の下向きが車両の下向きと厳密に一致しないものも含む。
上記、「道路の一方の端を表す道路端線が検出され、道路の他方の端を表す道路端線が検出されなかった場合」とは、道路の両端をそれぞれ表す道路端線のうち一方の端を表す道路端線のみが検出され、道路の他方の端を表す道路端線が検出されなかった場合を意味する。
本発明の走行支援装置において、道路検出部は、道路端線を表す複数の候補点を検出し、検出した複数の候補点に基づいて道路端線を多項式曲線として近似し、区分線検出部は、区分線の候補点に基づいて区分線を多項式曲線として近似することが好ましい。
本発明の走行支援装置において、画像生成部は、区分線と区分線の延長部分と道路端線とを表す表示画像を生成し、生成された表示画像を表示画面に表示させる表示制御部をさらに備えることが好ましい。
本発明の走行支援装置において、区分線と区分線の延長部分と道路端線に基づいて、道路のうち車両が走行する走行車線領域を設定する領域設定部と、赤外線画像から恒温の物体を検出する物体検出部と、車両の運転者のために警告を提示する警告部と、走行車線領域内の物体の存在の有無を判定し、物体が存在する場合に警告部に警告を提示させる判定部と、をさらに備えてもよい。
上記の場合に、判定部が、走行車線領域と物体との間の距離と物体の移動速度とに基づいて、物体が走行車線領域に進入する進入時間を推定し、物体と車両の間の距離と車両の移動速度とに基づいて、車両が物体の位置に到達する到達時間を推定し、進入時間が到達時間以前である場合に警告を提示させてもよい。
上記「恒温の物体」とは、道路や車両とは異なる温度を有する恒温の動物を意味する。例えば、恒温の物体は、人物、犬などの恒温の動物を含む。
本発明の走行支援装置において、区分線と区分線の延長部分と道路端線に基づいて、道路のうち車両が走行する走行車線領域を設定する領域設定部と、可視画像における走行車線領域の画素値に基づいて、可視画像の露出補正処理を行う露出補正部をさらに備えてもよい。
本発明の走行支援装置において、区分線と区分線の延長部分と道路端線に基づいて、道路のうち車両が走行する走行車線領域を設定する領域設定部と、可視画像における走行車線領域の画素値に基づいて可視撮像部の露出制御を行う露出制御部をさらに備えてもよい。
本発明の走行支援装置及び本発明の走行支援装置による走行支援方法によれば、可視画像の画素値に基づいて、可視画像中の可視撮像部の最低照度未満の照度を有する区分線を検出できない場合にも、赤外線画像から車両が走行する道路の道路端線を検出し、可視画像から道路の区分線を検出し、互いに位置合わせされた赤外線画像と可視画像に基づいて、道路端線と区分線とを表す統合画像を生成し、統合画像中の区分線と道路端線とに基づいて、統合画像における区分線の延長部分を推定するため、区分線の延長部分を好適に推定することができる。
本発明の一実施形態に係る走行支援装置を示すブロック図。 第1の実施形態におけるデジタル信号処理部と制御部の構成を示すブロック図。 第1の実施形態において生成される画像を示す図。 区分線推定部による第1推定処理を説明するための図。 区分線推定部による第2推定処理を説明するための図。 第2推定処理における、道路端線の上端からの垂直方向の距離に対する、道路端線と区分線との間の水平方向の距離の割合を示す図。 第1の実施形態の走行支援装置による処理の流れを示すフローチャート。 区分線推定部による処理の流れを示すフローチャート。 第2の実施形態において生成される画像を示す図。 第2の実施形態におけるデジタル信号処理部と制御部の構成を示すブロック図。 第2の実施形態の走行支援装置による処理の流れを示すフローチャート。 図10における判定処理の流れを示すフローチャート。 汎用の露出パラメータに基づく露出補正処理後の可視画像と第3の実施形態により設定した露出パラメータに基づく露出補正処理後の可視画像を示す図。 第3の実施形態におけるデジタル信号処理部と制御部の構成を示すブロック図。 第3の実施形態の走行支援装置による処理の流れを示すフローチャート。 第4の実施形態におけるデジタル信号処理部と制御部の構成を示すブロック図。 第4の実施形態の走行支援装置による処理の流れを示すフローチャート。
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の一実施形態による走行支援装置100を示すブロック図を示す。
図1に示すように、走行支援装置100は、赤外線画像を撮像する赤外線撮像部10と、可視画像を撮像する可視撮像部20と、制御部30と、赤外線画像及び可視画像に対して各種の画像処理を行うデジタル信号処理部40と、メモリ60と、表示部70と、補助記憶装置80と、各部を通信可能に接続するバス90とを備える。
赤外線撮像部10は、車両に搭載されて車両前方の赤外線画像を撮像する機能を有する。赤外線撮像部10は、赤外線撮像用の光学系11と、赤外線撮像の際に露出を調節する絞り12と、光学系11の結像面に位置し、光学系11を通過した赤外線を検出して赤外線画像を出力するイメージセンサである赤外線検出器13と、赤外線検出器13で検出された赤外線画像の各画素値に対して増幅処理を含む公知のアナログ信号処理を行うアナログ信号処理回路14と、アナログ信号処理を施された赤外線画像の各画素値に対してAD変換(Analog to Digital変換)を行うAD変換回路15とを有する。なお、この変換されたデジタルの画像信号は、1コマのフレーム画像の画像データとして後述のフレームメモリ61に記録される。
赤外線検出器13は、複数の赤外線検出素子を行列状配置したイメージセンサから構成される。赤外線検出器13は、赤外線(波長0.7μm〜1mm)を検出可能な赤外線検出器であり、特に、遠赤外線(波長4μm〜1mm)を検出可能な赤外線検出器である。例えば、赤外線検出器13の赤外線検出素子としてボロメータ型の赤外線検出素子を用いることができる。
可視撮像部20は、車両に搭載されて赤外線画像の表す範囲に対応する範囲の可視画像を撮像する機能を有する。可視撮像部20は、可視撮像用の光学系21と、可視撮像の際に露出を調節する絞り22と、光学系21の結像面に位置し、光学系21を通過した可視光線を検出して可視画像を出力するイメージセンサである検出器23と、検出器23で検出された可視画像の各画素値に対して増幅処理を含む公知のアナログ信号処理を行うアナログ信号処理回路24と、アナログ信号処理を施された可視画像の各画素値に対してAD変換(Analog to Digital変換)を行うAD変換回路25とを有する。なお、この変換されたデジタルの画像信号は、1コマのフレーム画像の画像データとして後述のフレームメモリ62に記録される。また、可視撮像部20と赤外線撮像部10は、互いに近傍に配置され、ほぼ同じ範囲の外部領域をほぼ同じ撮像位置から撮像できるように構成されている。
メモリ60は、ROM(Read Only Memory)領域とRAM(Random Access Memory)領域を備える。メモリ60のRAM領域は、制御部30及びデジタル信号処理部40が処理を実行するためのワークメモリや、各種データの一時保管先として機能する。メモリ60のROM領域は、制御部30及びデジタル信号処理部40の制御のためのプログラムや後述の露出テーブル及び露出条件テーブルなどの各種処理に必要なデータを記憶している。また、ROM領域は、本実施形態に係る走行支援処理を規定するプログラムを記憶している。また、メモリ60のRAM領域は、フレームメモリ61とフレームメモリ62を備えている。フレームメモリ61及びフレームメモリ62は、各画像処理の際に必要に応じて画像データを一時的に記録する。
補助記憶装置80は、ハードディスクなど各種の記憶媒体から構成される。補助記憶装置80は、不図示のメディアインターフェースを介して、例えば、後述のデジタル信号処理部によって画像処理された赤外線画像、可視画像、赤外線画像と可視画像を重畳した画像および各種表示画像などを記憶する。
表示部70は、液晶型ディスプレイなど公知のディスプレイから構成される。表示部70は、後述の表示制御部31の制御に従って適宜対応する画像及び必要な情報を表示する。例えば、表示部70に表示される各種の画像は、撮像により取得した画像、後述の画像生成部43に生成される表示画像および補助記憶装置80に記録された画像等がある。
制御部30は、メモリ60に記憶されたプログラムに従って、走行支援装置100の統括的な制御を行う。制御部30は、赤外線撮像部10及び可視撮像部20を適宜同期させてそれぞれの撮像制御、及び、撮像時に必要となる各種処理を行う。例えば、制御部30は、メモリ60に設定された絞り値やシャッタースピードなどの露出条件に基づいて、目標の絞り値に応じて絞り12を制御し、目標のシャッタースピードに応じて赤外線検出器13の撮像時間を制御して赤外線撮像部10に赤外線画像の撮像を実行させる。また、制御部30は、メモリ60に設定された絞り値やシャッタースピードなどの露出条件に基づいて、目標の絞り値に応じて絞り22を制御し、目標のシャッタースピードに応じて検出器23の撮像時間を制御して可視撮像部20に可視画像の撮像を実行させる。また、制御部30は、デジタル信号処理部40の制御、補助記憶装置80へのデータの記憶や読み出しなどの制御等を実行する。
図2は、第1の実施形態におけるデジタル信号処理部40と制御部30の構成を示すブロック図である。本明細書の各実施形態において、制御部30は、メモリ60に記憶された本実施形態に係る走行支援処理を規定するプログラムを実行することにより、表示部70の表示を制御するための表示制御部31として機能する。
デジタル信号処理部40は、メモリ60に記憶された本実施形態に係る走行支援処理を規定するプログラムを実行することにより、撮像された赤外線画像から車両が走行する道路の道路端線を検出する道路検出部41と、撮像された可視画像から道路の区分線を検出する区分線検出部42と、互いに位置合わせされた赤外線画像と可視画像に基づいて、道路端線と区分線とを表す統合画像を生成する画像生成部43と、統合画像中の区分線と道路端線とに基づいて、統合画像における区分線の延長部分を推定する区分線推定部44として機能する。
道路検出部41は、赤外線画像に基づいて、公知の手法により道路と道路の外側の領域の画素値の差に基づいて道路の輪郭上の点を、道路領域の端を表す道路端の候補点として検出する。道路検出部41は、検出された候補点に基づいて最小自乗法によるフィッティングを行って多項式曲線を近似する。そして、近似された曲線を道路端線として検出する。なお、赤外線画像内で道路端線が一般的に取り得る曲線形状に合わせて、多項式の次数を2次又は3次に限定してもよい。また、赤外線画像内で道路端線が直線形状である場合には、最小自乗法などによるフィッティングを行って直線により道路端線を近似してもよい。
以下、道路検出部41が道路の片側の道路端線のみを検出した場合には、片側の道路端線を第1道路端線と記載する。また、道路検出部41が両側の道路端線(2つの道路端線)を検出した場合には、一方の道路端線を第1道路端線と記載し、他方の道路端線を第2道路端線と記載する。なお、幅の広い道路を走行する際など赤外線画像中に道路端が含まれない場合、他の車両、人物又は電柱などの障害物により道路端が遮られて赤外線画像中に道路端が含まれない場合、あるいは、道路端が赤外線画像中に含まれていても、道路と道路の外側の領域の画素値に差が無い場合などには、道路端線が検出されない場合もある。
区分線検出部42は、可視画像に基づいて、公知の手法により区分線と区分線の外側の領域との画素値の差に基づいて区分線の輪郭上の点を、区分線上の区分線候補点として複数検出する。そして、区分線検出部42は、検出された候補点に基づいて最小自乗法によるフィッティングを行って多項式曲線を近似する。そして、近似された曲線を区分線として検出する。なお、可視画像内で区分線が一般的に取り得る曲線形状に合わせて、多項式の次数を2次又は3次に限定してもよい。また、赤外線画像内で道路端線が直線形状である場合には、最小自乗法などによるフィッティングを行って直線により道路端線を近似してもよい。
画像生成部43は、位置合わせした赤外線画像と可視画像に基づいて、道路端線と区分線を表す統合画像(第1統合画像、第2統合画像)を生成する。ここでは、画像生成部43は、赤外線画像と可視画像の既知の相対位置情報に基づいて、赤外線画像の座標系を基準座標系として、可視画像の座標系を基準座標系に変換することによって赤外線画像と可視画像を位置合わせする。
なお、画像生成部43は、任意の手法によって赤外線画像と可視画像の位置合わせを行ってよい。例えば、可視画像の座標系を基準座標系として、赤外線画像の座標系を基準座標系に変換して、基準座標系に基づいて、統合画像を生成してもよい。また、赤外線画像と可視画像の相対位置情報が既知ではない場合など、例えば、赤外線画像と可視画像の両方に含まれるランドマークの位置を互いに一致させるように、画像の回転、移動および拡大縮小などを任意に組み合わせて行って、赤外線画像と可視画像の位置合わせを行ってもよい。また、赤外線撮像部10と可視撮像部20が近接して設けられ、ほぼ同位置から赤外線画像と可視画像が撮像されたと見なせる場合には、赤外線画像と可視画像が位置合わせされているとして、位置合わせのための特別な処理を省略してもよい。
画像生成部43は、基準座標系において、道路端線と区分線を表す統合画像を生成する。図3は、第1の実施形態において生成される画像を示す図である。図3に示すように、本実施形態では、画像生成部43は、赤外線画像ImgBと、可視画像ImgAに基づいて、赤外線画像ImgB上に、可視画像ImgAから検出した区分線LA、LB、LC、LDと赤外線画像ImgBから検出した道路端線LL、LRを重畳した画像である統合画像ImgCを生成する。なお、統合画像は、車両に搭載された撮像部から観察される2次元画像の座標系に対応する基準座標系において、少なくとも道路端線と区分線とを含むものであれば、歩行者などの物体や他の車両を示す他の情報などを含んでもよい。また、画像生成部43は、赤外線画像と可視画像に加えて、赤外線画像又は可視画像の撮像の際の撮像方向の距離情報を取得可能な場合には、統合画像を3次元画像として生成してもよい。
また、画像生成部43は、表示に必要な各種の表示画像を生成する。本実施形態では、図3に示すように、画像生成部43は、赤外線画像ImgBと、可視画像ImgAに基づいて、赤外線画像ImgB上に、可視画像ImgAから検出した区分線LA、LB、LC、LD及びそれらの延長部分LAE、LBE、LCE、LDEと赤外線画像ImgBから検出した道路端線LL、LRとを重畳した画像を表示画像ImgDとして生成する。なお、係る表示画像ImgDは、区分線の延長部分LAE、LBE、LCE、LDEを追加した点が統合画像ImgCと異なる。表示画像は、このような位置合わせした2次元の基準座標系において、道路端線と区分線と推定された区分線の延長部分を表す画像を表示することにより、道路と区分線と推定された区分線の延長部分との相対的な位置関係を把握するための情報を提供することができる。
画像生成部43によって生成される各画像は、適宜補助記憶装置80に記憶される。なお、赤外線撮像部10によって撮像される赤外線画像及び可視撮像部20によって撮像される可視画像及び画像生成部43によって生成される各画像は、デジタル信号処理部40によって、走行支援処理の前又は後にその他の必要な補正処理などが適宜施されてよい。
次に、区分線推定部44による区分線の延長部分の推定の原理を説明する。
一般に、夜間などの場合、可視画像からは、可視撮像部20の最低照度以上の照度を有する被写体である道路や区分線や人物などの被写体は識別できるが、ヘッドライトの光が到達しないなど最低照度未満の照度を有する被写体は識別することができない。一方、赤外線画像からは、可視光の照度にかかわらず、道路から放射される赤外線に基づいて道路端線の情報が得られるが、道路との温度差の小さい道路上の区分線などの被写体は明確に検出することができない。
このため、図3に示すように、可視画像ImgAでは、可視撮像部20の最低照度以上の照度を有する区分線は識別できるが、可視撮像部20の最低照度未満の照度の区分線(区分線の延長部分)は黒潰れして識別できない。さらに、赤外線画像ImgBでは可視光の照度にかかわらず道路端線を識別できるが、区分線を識別することができない。このような場合、赤外線画像ImgBと可視画像ImgAとから得られる情報とを単純に組み合わせても、可視撮像部20の最低照度未満の照度となってしまった区分線の延長部分が識別できない。
本発明は上記事情に鑑み、可視画像の画素値に基づいて、可視画像中の可視撮像部20の最低照度未満の照度を有する区分線を検出できない場合にも、赤外線画像から車両が走行する道路の道路端線を検出し、可視画像から道路の区分線を検出し、検出した区分線と道路端線とに基づいて、区分線の延長部分を推定する。
特に、本発明では、区分線が道路の走行方向に道路端線に沿って設けられ、かつ、区分線が道路の横断方向において、道路端から所定距離離間した位置に設けられることが多いという特徴に着目した。そして、上記特徴を、道路面上において、区分線が道路端線と道路の走行方向に並走し、かつ、区分線が道路の走行方向と直交する横断方向に道路端線と一定の距離をあけて位置するという条件(第1条件)ととらえることを見出した。このため、区分線推定部44は、第1条件に従って、統合画像中の区分線の延長部分を推定する。このことにより、赤外線画像から得た道路端線の情報と可視画像から得た区分線の情報から区分線の延長部分の位置を推定することができる。
さらに、車両に搭載される可視撮像部20及び赤外線撮像部10からそれぞれ撮像した可視画像と赤外線画像に基づいて、2次元画像である統合画像を生成し、2次元統合画像上で第1条件に基づく区分線推定処理が実施できることが好ましい。道路の3次元画像の情報を取得する負担を低減して、より簡易に区分線推定処理を実施できる方が好ましいからである。このため、ここでは、第1条件を、下記第1推定条件又は第2推定条件としてさらに具体化し、第1推定条件又は第2推定条件に基づいて区分線推定処理を行う。
なお、公知の方法を用いて、可視画像あるいは赤外線画像の撮像の際の撮像方向の距離情報が取得できる場合には、画像生成部43は、距離情報に基づいて、3次元画像の統合画像を生成してもよい。この場合には、区分線推定部44は、統合画像で、赤外線画像から検出した道路端線と可視画像から検出した区分線に基づいて、道路面上で、道路端線と区分線との一定の距離を算出し、道路端線から一定の距離に区分線の延長部が位置すると推定して、区分線の延長部分を推定すればよい。なお、車両前方の距離情報を取得する技術として、3次元形状測定器によって車両前方の距離を測定する技術、あるいは、2つ赤外線撮像部10を備えて視差を基に赤外線画像の奥行き方向の距離情報を取得する技術が考えられる。
第1推定条件は、車両の下向き(車両の天井面側から底面側に向かう向き)を画像下向きとして統合画像を配置した状態で、統合画像の水平方向に延びる線上において、2つの道路端線のうち一方の道路端線上の参照点と2つの道路端線のうち他方の道路端線上の参照点とを区分線上の参照点が内分する内分比を算出し、各々の参照点から2つの道路端線の交点までの各点を通る水平方向に延びる線上において、一方の道路端線上の点と他方の道路端線上の点と区分線上の点とが内分比を維持するという条件である。
第2推定条件は、車両の下向きを画像下向きとして統合画像を配置した状態で、統合画像において、道路端線の上端からの垂直方向の距離が大きくなるほど、道路端線と区分線との間の水平方向の距離が一定割合で大きくなるという条件である。
赤外線画像と可視画像に基づいて、車両に搭載された撮像部から観察される2次元画像の座標系に対応する基準座標系を設定すると、係る基準座標系はいわゆるカメラ座標系となっている。このため、上記基準座標系に基づいて、少なくとも道路端線と区分線とを示すように統合画像を生成した場合には、道路と区分線が中心投影法により表される。また、車両下向きを画像下向きになるように統合画像を配置した場合には、第1条件における道路の進行方向が統合画像の縦方向に相当し、道路の横断方向は統合画像の横方向に相当すると考えられる。
このことを利用して、第1条件が満たされる場合には、車両の下向きを画像下向きとして統合画像を配置した状態で、水平方向に延びる線上において、2つの道路端線のうち一方の道路端線上の参照点と2つの道路端線のうち他方の道路端線上の参照点とを区分線上の参照点が内分する内分比は一定となると考えられ、上記第1推定条件が成立すると考えられる。また、赤外線画像から道路の進行方向に沿って滑らかに延びる道路端線が検出され、第1条件が満たされる場合には、車両の下向きを画像下向きとして配置された統合画像においては、中心投影法に従って、画像の下方から上方に向かって道路と区分線との距離が一定の割合で小さくなっていくと考えられ、上記第2推定条件が成立すると考えられる。
上記のように、車両に搭載された撮像部から観察される2次元画像の座標系に対応する基準座標系で表される統合画像を用いて、第1推定条件又は第2推定条件に基づいて区分線の延長部分を推定した場合には、道路の3次元形状の情報などを新たに取得しなくても赤外線画像の情報と可視画像の情報から、好適に区分線の延長部分を推定することができる。
図4は、第1推定条件に従って、区分線の候補点をそれぞれ算出し、算出された区分線の候補点に基づいて区分線の延長部分を推定する第1推定処理を説明するための図である。図4を用いて、第1推定処理について説明する。図4は、道路検出部41に検出された第1道路端線LLと第2道路端線LRと区分線検出部42に検出された区分線LA、LB、LCが含まれる統合画像(第1統合画像)を示している。統合画像において、画像の下向き(y軸正方向)は、車両の下向きとされている。
区分線推定部44は、道路の片端を表す近似曲線である第1道路端線LLと、道路の他端を表す近似曲線である第2道路端線LRの交点Peを算出する。
区分線推定部44は、直線Y=ynが第1道路端線LL、第2道路端線LR、区分線LA、LB、LCの全てと交わるようなy座標値ynを選択する。そして、直線Y=ynにおいて第1道路端線LL上の参照点PLLnと、区分線LA上の参照点PLAnと、区分線LB上の参照点PLBnと、区分線LC上の参照点PLCnと、第2道路端線LR上の参照点PLRnを特定する。なお、交点Peのy座標をyeとするとyn>yeである。
そして、区分線推定部44は、第1道路端線LL上の参照点PLLnと区分線LA上の参照点PLAnとの間の距離LLLA(yn)と、区分線LA上の参照点PLAnと区分線LB上の参照点PLBnとの間の距離LALB(yn)と、区分線LB上の参照点PLBnと区分線LC上の参照点PLCnとの間の距離LBLC(yn)と、区分線LC上の参照点PLCnと第2道路端線LR上の参照点PLRnとの間の距離LCLR(yn)と、を算出する。そして、これらの距離の比、LLLA(yn):LALB(yn):LBLC(yn):LCLR(yn)を算出する。
そして、区分線推定部44は、y=yi(ye≦yi≦yn)上において、第1道路端線LL上の参照点PLLiと、第2道路端線LR上の参照点PLRiを特定する。そして、LLLA(yn):LALB(yn):LBLC(yn):LCLR(yn)=LLLA(yi):LALB(yi):LBLC(yi):LCLR(yi)となるように、区分線LAの候補点PLAi、区分線LB上の候補点PLBi、区分線LC上の候補点PLCiを特定する。区分線推定部44は、ye≦yi≦ynの区間における各y座標(yi)に対して、区分線LA上の候補点PLAi、区分線LB上の候補点PLBi、区分線LC上の候補点PLCiをそれぞれ算出する処理を行う。
そして、区分線推定部44は、ye≦yi≦ynの区間における区分線LA上の複数の候補点PLAiと区分線LAに基づいて、最小自乗法によるフィッティングを行って多項式曲線を近似する。そして、近似された曲線を推定後区分線として推定する。なお、推定後区分線から区分線LAを除いた部分が、推定された区分線LAの延長部分LAEに相当する。
区分線推定部44は、区分線LBと区分線LCに対しても、区分線LAと同様の処理を行って推定後区分線を算出する。つまり、区分線推定部44は、ye≦yi≦ynの区間における区分線LB上の候補点PLBiと区分線LBに基づいて、最小自乗法によるフィッティングを行って多項式曲線を近似する。そして、近似された曲線を推定後区分線として算出する。区分線推定部44は、ye≦yi≦ynの区間における区分線LC上の候補点PLCiと区分線LCに基づいて、最小自乗法によるフィッティングを行って多項式曲線を近似する。そして、近似された曲線を推定後区分線として算出する。そして、図4に示すように、区分線LBの延長部分LBE、区分線LCの延長部分LCEが推定される。
上記のように、第1推定条件を用いて区分線の延長部分を推定した場合には、2つの道路端線の情報を用いるため、正確に区分線の延長部分の位置を算出することができる。
図5Aは、第2推定条件に従って、区分線の候補点をそれぞれ算出し、算出された区分線の候補点に基づいて区分線の延長部分を推定する第2推定処理を説明するための図である。図5Bは、車両の下向きを画像下向きとして統合画像(第2統合画像)を配置した状態で、道路端線の上端からの垂直方向の距離に対する、道路端線と区分線との間の水平方向の距離の割合を示す図である。図5Bでは、道路端線の上端からの垂直方向の距離を横軸とし、道路端線と区分線との間の水平方向の距離を縦軸に示す。図5Aと図5Bとを用いて、第2推定処理について説明する。
まず、区分線推定部44は、第1道路端線上の画素値の変化に基づいて、画素値の変化がしきい値以上となる点を第1道路端線の上端PLLeとして特定する。
区分線推定部44は、直線Y=yn1が第1道路端線LL、区分線LA、LBの全てと交わるようなy座標値yn1を選択する。そして、直線Y=yn1において、第1道路端線LL上の参照点PLLn1と、区分線LA上の参照点PLAn1と、区分線LB上の参照点PLBn1とを特定する。なお、第1道路端線の上端PLLeのy座標をyeとするとyn1>yeである。
区分線推定部44は、第1道路端線LL上の参照点PLLn1と区分線LA上の参照点PLAn1との間の第1参照距離LLLA(yn1)と、第1道路端線LL上の参照点PLLn1と区分線LB上の参照点PLBn1との間の第1参照距離LLLB(yn1)とを算出する。また、第1道路端線の上端PLLeを通る直線Y=ye上における第1道路端線LL上の参照点PLLeと区分線LA上の候補点との間の第2参照距離LLLA(ye)が零であると推定する。また、第1道路端線LL上の参照点PLLeと区分線LB上の候補点との間の第2参照距離LLLB(ye)が零であると推定する。
そして、区分線推定部44は、図5Bに示すように、ye≦yi≦yn1において、第1参照点PLAn1から第2参照点PLAeまでの垂直方向の距離(yn1−ye)に対する第1参照距離LLLA(yn1)と第2参照距離LLLA(ye)の差の割合である一定割合αA=(LLLA(yn1)−LLLA(ye))/(yn1−ye)を算出する。そして、区分線推定部44は、各y座標におけるLLLA(yi)=αA×(yi−ye)を算出する。
また、同様に、区分線推定部44は、ye≦yi≦yn1において、第1参照点PLBn1から第2参照点PLBeまでの垂直方向の距離(yn1−ye)に対する第1参照距離LLLB(yn1)と第2参照距離LLLB(ye)の差の割合である一定割合αB=(LLLB(yn1)−LLLB(ye))/(yn1−ye)を算出する。そして、区分線推定部44は、各y座標におけるLLLB(yi)=αB×(yi−ye)を算出する。
そして、区分線推定部44は、ye≦yi≦yn1の区間の各y座標yiにおいて、直線y=yi(ye≦yi≦yn1)上で、第1道路端線LL上の参照点PLLiから、x軸の正方向にLLLA(yi)離れた位置に区分線LAの候補点PLAiをそれぞれ設定する。同様に、区分線推定部44は、第1道路端線LL上の参照点PLLiから、x軸の正方向にLLLB(yi)離れた位置に区分線LBの候補点PLBiをそれぞれ設定する。
区分線推定部44は、ye≦yi≦yn1の区間における区分線LAの候補点PLAiと区分線LAに基づいて、最小自乗法によるフィッティングを行って多項式曲線を近似する。そして、近似された曲線を推定後区分線として算出する。この結果、区分線LAの延長部分LAEが推定される。また、区分線推定部44は、ye≦yi≦yn1の区間における区分線LBの候補点PLBiと区分線LBに基づいて、最小自乗法によるフィッティングを行って多項式曲線を近似する。そして、近似された曲線を推定後区分線として算出する。この結果、区分線LBの延長部分LBEが推定される。
区分線推定部44が、第2推定条件に基づいて、区分線の延長部分を推定した場合には、少なくとも道路の片側の第1道路端線が検出できていれば、第2道路端線の情報を用いなくても、第1道路端線の情報に基づいて区分線を検出することができる。
上記の例では、垂直方向の距離に対する、道路端線と区分線との間の水平方向の距離の変化の割合を算出する際に、第1道路端線の上端において、道路端線と区分線との間の水平方向の距離(第2参照距離)を零と推定している。つまり、第1道路端線の上端の参照点が区分線の延長部分の候補点に相当すると推定している。このため、可視画像から検出された区分線が短い場合でも、区分線上に1つ参照点を設定することができれば、上記変化の割合を算出することができる。
また、区分線推定部44は、第2推定条件に基づいて、区分線の延長部分を推定する場合に、以下の方法で、垂直方向の距離に対する、道路端線と区分線との間の水平方向の距離の変化の割合を算出してもよい。
区分線推定部44は、車両の下向きを画像下向きとして統合画像を配置した状態において、第1道路端線LLの上端PLLeを検出する。区分線推定部44は、上記した方法と同様に、直線Y=yn1が第1道路端線LL、区分線LA、LBの全てと交わるようなy座標値yn1を選択する。そして、直線Y=yn1において第1道路端線LL上の第1参照点PLLn1と、区分線LA上の第1参照点PLAn1と、区分線LB上の第1参照点PLBn1とを特定する。そして、第1道路端線LLの第1参照点PLLn1と区分線LA上の第1参照点PLAn1との間の第1参照距離LLLA(yn1)を算出し、第1道路端線LLの第1参照点PLLn1と区分線LB上の第1参照点PLBn1との間の第1参照距離LLLB(yn1)を算出する。
また、区分線推定部44は、直線Y=yn2が第1道路端線LL、区分線LA、LBの全てと交わるようなy座標値であって、yn1とは異なるy座標値yn2を選択する。そして、直線Y=yn2において、第1道路端線LL上の第2参照点PLLn2と、区分線LA上の第2参照点PLAn2と、区分線LB上の第2参照点PLBn2とを特定する。そして、区分線推定部44は、第1道路端線LLの第2参照点PLLn2と区分線LA上の第2参照点PLAn2との間の第2参照距離LLLA(yn2)を算出し、第1道路端線LLの第2参照点PLLn2と区分線LB上の第2参照点PLBn2との間の第2参照距離LLLB(yn2)を算出する。なお、ここでは、yn1>yn2である。
そして、図5Bに示すように、区分線推定部44は、第1参照点PLLn1から第2参照点PLLn2との間の垂直方向の距離(yn1−yn2)に対する第1参照距離LLLA(n1)と第2参照距離LLLA(n2)の差の割合である一定割合αA=(LLLA(yn1)−LLLA(yn2))/(yn1−yn2)を算出する。また、区分線推定部44は、図5Bに示すように、第1参照点PLLn1から第2参照点PLLn2までの垂直方向の距離(yn1−yn2)に対する第1参照距離LLLB(yn1)と第2参照距離LLLB(yn2)の差の割合である一定割合αB=(LLLB(yn1)−LLLB(yn2))/(yn1−yn2)を算出する。
上記のように、車両の下向きを画像下向きとして統合画像を配置した状態において、複数の水平な直線上において、道路端線LL上と区分線上に互いに対応する参照点を設け、垂直方向の距離に対する、道路端線と区分線との間の水平方向の距離の変化の割合を求める場合には、可視画像から検出された区分線の情報をそれぞれ有効に活用して、区分線の延長部分を推定することができる。
ここでは、道路端線と区分線とにそれぞれ2つの参照点を設けて、第1道路端線と区分線との間の水平方向の距離の変化の割合を求めたが、道路端線と区分線とに設ける参照点をさらに多くして、3つ以上の水平な直線上において、道路端線LL上と区分線上に互いに対応する参照点を設け、第1道路端線と区分線との間の水平方向の距離の変化の割合を求めてもよい。この場合には、より多くの参照点を用いることにより、より正確に距離の変化の割合を求めることができる。
ここでは、区分線推定部44は、道路の両端をそれぞれ表す2つの道路端線が検出された場合に、第1推定処理を実施する。また、区分線推定部44は、道路の一方の端を表す道路端線が検出され、道路の他方の端を表す道路端線が検出されなかった場合に、第2推定処理を実施する。この場合には、検出された道路端線の数に応じて、第1推定処理と第2推定処理を組み合わせて用いることにより、精度よく区分線の延長部分を推定することができる。
なお、これに限定されず、区分線推定部44を、第1推定条件のみを用いて区分線の延長部分を推定するように構成してもよい。また、区分線推定部44を、第2推定条件のみを用いて区分線の延長部分を推定するように構成してもよい。また、区分線推定部44は、第1推定条件に従って区分線の延長部分を推定する任意の手法を用いてよく、第2推定条件に従って区分線の延長部分を推定する任意の手法を用いてよい。
図6に第1の実施形態の走行支援装置100による処理の流れを示すフローチャートを示し、図7に区分線推定部44による処理の流れを示すフローチャートを示す。以下、図6及び図7を用いて、第1の実施形態の走行支援装置100による処理の流れについて詳細に説明する。
まず、赤外線撮像部10が赤外線画像を撮像し、撮像された赤外線画像をフレームメモリ61に記憶する(ST01)。次に、道路検出部41が、赤外線画像から道路端を検出する(ST02)。
また、可視撮像部20は、赤外線撮像部10による撮像と同期して、可視画像を撮像し、撮像された可視画像をフレームメモリ62に記憶する(ST03)。次に、区分線検出部42が、可視画像から区分線を検出する(ST04)。
次に、区分線推定部44は、赤外線画像から少なくとも一方の道路端線が検出され、かつ、可視画像から区分線が検出されたという判定条件が満たされたかを判定する(ST05)。もし、判定条件を満たさない場合には(ST05、NO)、画像生成部43が予め設定された表示態様で表示画像を生成する(ST08)。ここでは、表示画像として、赤外線画像と可視画像の重畳画像が生成される。そして、表示制御部31は、生成された表示画像を表示部70に表示させる表示制御を行う(ST09)。また、走行支援装置100は、終了条件を満たすか否かを判定し(ST10)、終了条件を満たす(ST10、YES)処理を終了する。また、終了条件を満たさない場合には(ST10、NO)、ST01からST09までの処理を繰り返す。
一方、判定条件を満たす場合には(ST05、YES)、画像生成部43は、統合画像を生成する(ST06)。次に、区分線推定部44は区分線推定処理を行う(ST07)。図7にST07における処理の流れを表す。図7に示すように、区分線推定部44は、道路の両端をそれぞれ表す2つの道路端線が検出された場合には(ST21、YES)、統合画像に基づいて、第1推定処理を行って区分線の延長部分を推定する(ST22)。一方、区分線推定部44は、道路の両端をそれぞれ表す2つの道路端線が検出されていない場合には(ST21、NO)、統合画像に基づいて、第2推定処理を行って区分線の延長部分を推定する(ST23)。
画像生成部43は、道路と区分線と推定された区分線の延長部分とを含む表示画像を生成する(ST08)。ここでは、画像生成部43は、赤外線画像と可視画像の重畳画像を生成し、重畳画像上に推定された区分線を識別表示した表示画像を生成する。そして、表示制御部31は、生成された表示画像を表示部70に表示させる(ST09)。また、走行支援装置100は、終了条件を満たすか否かを判定し(ST10)、終了条件を満たす場合には(ST10、YES)、処理を終了する。また、終了条件を満たさない場合には(ST10、NO)、ST01からST09までの処理を繰り返す。
以上のように本発明の実施形態によれば、可視画像の画素値に基づいて、可視画像中の可視撮像部20の最低照度未満の照度を有する区分線を検出できない場合にも、赤外線画像から車両が走行する道路の道路端線を検出し、可視画像から道路の区分線を検出し、互いに位置合わせされた赤外線画像と可視画像に基づいて、道路端線と区分線とを表す統合画像を生成し、統合画像中の区分線と道路端線とに基づいて、統合画像における区分線の延長部分を推定するため、区分線の延長部分を好適に推定することができる。
また、区分線検出部42が、検出された道路端線の候補点に基づいて多項式曲線を近似し、近似された曲線を道路端線として算出している。さらに、区分線推定部44が、検出された区分線の候補点に基づいて多項式曲線を近似し、近似された曲線を区分線の延長部分として算出している。このため、湾曲した道路であっても、多項式曲線として近似された道路端線に基づいて好適に区分線の延長部分を推定することができる。これに対し、特許文献3及び4を応用して、可視画像から検出した複数の境界線候補を結んだ直線を延長した直線を区分線として推定することが考えられる。しかし、この場合であっても、特許文献3及び4の技術では区分線が直線である場合にしか区分線を推定することができない。
以下、図8乃至11を用いて、第2の実施形態の走行支援装置100の処理について説明する。第2の実施形態は、推定された区分線の延長部分を利用して、走行車線領域において障害となりうる物体の存否の判定を行う応用例を示す。図8に、第2の実施形態において生成される画像を示す。図8は、赤外線撮像部10に撮像された赤外線画像ImgBと、可視撮像部20に撮像された可視画像ImgAと、赤外線画像ImgBと可視画像ImgAを重畳した画像である統合画像ImgCと、詳細は後述するが本実施形態による処理によって生成表示される表示画像ImgEを示す。
一般に、夜間などの場合、可視画像からは、可視撮像部20の最低照度以上の照度を有する被写体である道路や区分線や人物などの被写体は識別できるが、ヘッドライトの光が到達しないなど最低照度未満の照度を有する被写体は識別することができない。一方、赤外線画像からは、照度にかかわらず、恒温の物体である人物の情報と道路端線の情報が得られる。
例えば、図8に示すように、赤外線画像ImgBでは人物である物体S1と物体S2が識別できる。一方、可視画像ImgAでは可視撮像部20の最低照度以上の照度を有する物体S1は識別できるが、可視撮像部20の最低照度未満の照度を有する物体S2は検出できない。このような場合、赤外線画像ImgBから物体S2が存在することは把握できるが、赤外線画像ImgBと可視画像ImgAとの両画像を単に組み合わせても区分線の延長部分が識別できないため、物体S2が走行車線領域の境界を示す区分線の外側にいるのか内側にいるのか判別できず、物体S2が走行車線領域において障害物になる可能性があるのか否か不明である。
上記に鑑み、第2の実施形態は、赤外線画像から検出され、かつ、可視画像では検出できない物体が存在する場合であっても、推定された区分線の延長部分を用いて自車両の走行車線領域を設定し、走行車線領域において障害物になりうる物体の存否を判定し、障害物になりうる物体が存在する場合、運転者などのユーザのために警告を行う。
図9に第2の実施形態におけるデジタル信号処理部40と制御部30の構成を示すブロック図を示す。以下の各実施形態において、第1の実施形態と同様の構成については同じ符号を付して説明を省略する。
第2の実施形態は、図9に示すように、走行支援装置100が、領域設定部45と、物体検出部46と、判定部47とをさらに備え、表示部70が警告部として機能し、画像生成部43が判定の結果に応じて警告表示を付した表示画像を生成する点が第1の実施形態と異なる。以下、第1の実施形態との相違点を中心に説明し、その他の共通部分については説明を省略する。
領域設定部45は、区分線と区分線の延長部分と道路端線に基づいて、道路のうち車両が走行する走行車線領域を設定する。領域設定部45は、車両に対する可視撮像部20及び赤外線撮像部10との既知の位置関係に基づいて、車両の下向きを画像下向きとして統合画像を配置した状態で、統合画像中の区分線及び道路端線から、車両右側部に最も近い線と、車両左側部に最も近い線とを特定し、特定された2つの線の間の領域を走行車線領域として設定する。
物体検出部46は、赤外線画像から恒温の物体を検出する。ここでは、物体検出部46は、公知の手法により、赤外線画像から人物温度に対応する基準範囲の温度を表す画素集合を検出し、検出された画素集合のエッジを抽出する。そして、抽出されたエッジに対して、既知の人物形状を表すパターンを用いてパターン認識を行うことにより、赤外線画像から人物を検出する。ここでは、物体検出部46は、赤外線画像から恒温の物体として、人物を検出したが、犬などの動物を合わせて検出してもよく、犬などの動物のみを検出するように構成してもよい。
表示部70は、車両の運転者などのユーザに警告を提示する警告部の機能を兼ね備えている。具体的には、表示部70が、警告表示を付した表示画像を表示することにより警告部として機能する。
なお、警告部を、車両の運転者等のユーザに警告可能な任意の装置によって構成してよい。例えば、警告部を、点灯又は点滅させるなどして警告を行う警告ランプを備えた構成としてもよい。また、警告部を、警告音や警告メッセージを発して警告を行うスピーカを備えた構成としてもよい。また、警告部は、スピーカや表示部70や警告ランプなどを任意の組み合わせで備えた構成としてもよい。
判定部47は、赤外線画像から検出した物体に基づいて、走行車線領域において障害物になりうる物体の存否を判定し、警告の要否を判定する。なお、判定部47は、赤外線画像から物体が検出されなかった場合には、警告が不要であると判定する。
また、判定部47は、領域設定部45に設定された走行車線領域と物体検出部46に検出された物体との相対的な位置情報に基づいて、走行車線領域内の物体の存在の有無を判定し、走行車線領域に物体が存在する場合には、警告が必要であると判定する。走行車線領域に物体が存在する場合には、走行車線において物体が障害物となる可能性が高く、運転者などのユーザに注意を喚起することが安全走行上好ましいためである。
判定部47は、物体が走行車線領域の外側に位置する場合には、判定時直前の所定フレーム枚数の時系列赤外線画像である赤外線動画像に基づいて、走行車線領域に対する物体の移動方向と移動速度を算出する。物体の移動速度と移動方向は、フレームレート及びフレーム画像間の物体の位置の変位に基づいて公知の方法により算出される。判定部47は、物体が走行車線領域に向かって移動していない場合には、警告が不要であると判定する。このことにより、物体が走行車線領域に入る可能性が低い場合には警告を提示しないようにして、過剰な警告を抑制することができる。
また、判定部47は、物体が走行車線領域に近づく方向に移動している場合には、走行車線領域と物体との間の距離と物体の移動速度とに基づいて、物体が走行車線領域に進入する進入時間Tpを推定する。また、判定部47は、物体と車両との間の距離と車両の移動速度とに基づいて、車両が物体の位置に到達する到達時間Tcを推定する。例えば、判定部47は、物体の大きさと物体の車両との間の距離を予め対応付けた対応付け情報などに基づいて、物体の大きさに基づいて物体と車両との間の距離を推定してもよく、任意の方法で物体と車両との間の距離を算出してよい。
そして、判定部47は、進入時間Tpが到達時間Tc以前である場合にも警告が必要であると判定する。これは、車両が物体の位置に到達する時間までに物体が走行車線領域に進入する可能性がある場合(物体の走行車線領域への進入可能性がある場合)にも、運転者などのユーザに注意を喚起することが安全走行上好ましいためである。また、進入時間Tpと到達時間Tcを用いて、走行車線領域に進入する可能性のある物体を判定することにより、物体が走行車線領域に入る可能性が低い場合には警告を提示しないようにして、過剰な警告を抑制することができる。
なお、動画像において、物体の検出位置がフレームごとに変位するため、判定部47は、複数の前後フレームを用いてフレーム間の平滑化を行ったフレーム画像からなる動画像を用いて、物体の移動方向や移動速度を算出してもよい。また、判定部47は、カルマンフィルタなど公知の時系列フィルタリング法を用いることにより、物体位置の平滑化と動き予測を行って、動き予測に基づいて、物体が走行車線領域に向かって移動しているか否かを判定してよい。なお、本実施形態に限定されず、判定部47は、進入時間Tpと到達時間Tcの算出を省略して、物体が走行車線領域に向かって移動している場合には物体が走行車線領域に進入する可能性があると判定してもよい。また、本実施形態に限定されず、判定部47は、物体が走行車線領域外に存在する場合に警告が不要であると判定してもよい。
判定部47は、警告が必要であると判定した場合には、警告部に警告を提示させる。ここでは、判定部47は、警告表示を付した表示画像を画像生成部43に生成させ、表示部70(警告部)に警告表示を付した表示画像を表示させることによって警告を提示させる。
なお、判定部47は、警告部がスピーカを備えて構成される場合には、スピーカに警告音あるいは音声メッセージを発するように、制御部30にスピーカの制御指示を送信することにより警告を提示する。また、警告部が警告ランプを備えて構成される場合には、警告ランプに点灯指示を発するように、制御部30に警告ランプの制御指示を送信することにより警告を提示する。
なお、本実施形態では、判定部47は、走行車線領域に物体が存在する場合と、走行車線領域の外側に位置する物体が走行車線領域への進入可能性がある場合とのそれぞれに対して異なる態様で警告を提示させる。走行車線領域に物体が存在する場合のほうが、走行車線領域外の物体が走行車線領域に進入する可能性がある場合よりも、走行の障害となる可能性が高く、運転者などのユーザにより強く注意を促した方がよいと考えられるからである。また、走行の障害となる可能性に合わせて警告の態様を異ならせることにより、ユーザにより詳しく物体と走行車線領域との関係を把握させることができる。なお、本実施形態に限定されず、判定部47は、警告のレベルに関わらず共通の態様で警告を提示してもよい。
判定部47は、走行車線領域に物体が存在する場合には、第1警告レベルの警告表示を付すように画像生成部43に指示し、走行車線領域外に存在する物体が走行車線領域に進入する可能性が高い場合には、注意のレベルが第1警告レベルよりも低い第2警告レベルの警告表示を付すように画像生成部43に指示する。そして、画像生成部43は、指示に応じた警告表示を付して表示画像を生成し、表示制御部31が生成された表示画像を表示部70に表示させることによって警告が提示される。
判定部47は、警告部の構成に応じて任意の方法で警告の態様を異ならせてよい。例えば、判定部47は、スピーカを用いて異なる態様で警告を提示する場合には、音声メッセージを異ならせる、警告音を異ならせる、警告メッセージなどの繰り返し回数や音量を異ならせるなどの任意の方法を採用してよい。また、判定部47は、警告ランプを用いて異なる態様で警告を提示する場合には、点滅のパターンや回数を異ならせるなど任意の方法を採用してよい。
画像生成部43は、警告の要否判定の結果に応じて、警告表示を付した表示画像を生成する。図8に警告表示を付した表示画像ImgEの例を示す。表示画像ImgEは、赤外線画像ImgBと可視画像ImgAとを位置合わせして重畳してなり、可視画像ImgAから検出した区分線LA、LB、LC、LDと、赤外線画像ImgBから検出した道路端線LL、LRと、赤外線画像ImgBから検出した物体S1、S2と、他の道路領域とは異なる色を付した走行車線領域Rとを視認可能に含んでいる。また、表示画像ImgEは、赤外線画像ImgBから検出された物体S1、S2に対して、矩形の指標K1、K2を付すことにより、物体S1、S2について警告表示を行っている。
画像生成部43は、警告表示の方法として任意の方法を採用してよい。例えば、画像生成部43は、表示画像中に警告メッセージを付してもよく、物体の点滅や物体の着色などによる強調表示や、表示画像の一部又は全体を点滅させるなどの方法を用いて警告表示を行ってもよい。
また、画像生成部43は、警告表示を行う場合に、警告のレベルに応じて、任意の方法により警告表示の態様を異ならせてもよい。ここでは、走行車線領域内に存在する物体には、赤色の枠形状の指標K2を付して警告表示を行い、走行車線領域の外側に位置し、走行車線領域内に進入する可能性が高い物体には、黄色の枠形状の指標K1を付して警告表示を行う。このように、警告表示を色の異なる簡易な指標を用いて段階表示することによって、ユーザに把握しやすく、警告表示によって表示画面が見づらくなることを避けることができる。警告のレベルに応じて、警告表示の態様を異ならせる用法として、例えば、警告のレベルに応じた警告メッセージを表示してもよく、物体に付した指標の点滅回数を異ならせるなど任意の方法が採用可能である。なお、画像生成部43のその他の機能や構造は第1の実施形態と同様である。
画像生成部43は、警告の有無にかかわらず、赤外線画像と可視画像を位置合わせした基準座標系において、走行車線領域と物体を視認可能に含む表示画像を生成することが好ましい。この場合には、表示画像において走行車線領域と物体との位置関係を明確に把握できる情報を提示することができる。ここでは、警告の必要が無い場合には、画像生成部43は、赤外線画像と可視画像とを位置合わせして重畳してなり、可視画像から検出した区分線と、赤外線画像から検出した道路端線と、赤外線画像から検出した物体と、走行車線領域とを視認可能に含む表示画像を生成する。なお、本実施形態では、警告が必要な場合に生成される表示画像と警告が不要な場合に生成される表示画像は、警告必要と判定された物体の周りに付される指標の有無のみが異なる。
画像生成部43は、表示画像の生成の際に、走行車線領域と物体を識別可能とする任意の手法を用いてよい。例えば、画像生成部43は、表示画像において走行車線領域を他の領域とは異なるパターンを付して識別可能に示してもよく、走行車線領域の輪郭を太線とするなど輪郭に特徴を持たせて識別可能に示してもよい。また、画像生成部43は、表示画像において物体を他の領域とは異なるパターンを付して識別可能に示してもよく、物体の輪郭を太線とするなど輪郭に特徴を持たせて識別可能に示してもよい。
図10に第2の実施形態の走行支援装置100による処理の流れを示すフローチャートを示し、図11に図10における警告の要否を判定する判定処理(図10のST40)の流れを詳細に示すフローチャートを示す。図10、11を用いて、第2の実施形態の処理の流れを説明する。なお、ST31〜ST34,ST35(YESの場合)、ST36およびST37は、図6のST01〜ST07と同様の処理であるため説明を省略する。ST37の処理が終了すると、領域設定部45は、統合画像を用いて走行車線領域を設定する(ST38)。物体検出部46は、赤外線画像から恒温の物体である人物を検出する(ST39)。なお、ST39の処理は、ST31の処理後(赤外線画像の撮像後)であってST40の処理に先立って行われるものであれば、任意のタイミングで実施してよい。次に、判定部47は、警告の要否を判定する(ST40)。
図11を用いて、判定部47が警告の要否を判定する処理を詳細に説明する。判定部47は、赤外線画像から物体の存在の有無を判定し(ST51)、赤外線画像に物体が存在しない場合には(ST51、NO)、警告は不要であると判定する(ST59)。
また、判定部47は、赤外線画像に物体が存在する場合には(ST51、YES)、物体が走行車線領域内に存在するか否かを判定し(ST52)、物体が走行車線領域内に存在する場合には(ST52、YES)、警告が必要であると判定する(ST58)。
一方、判定部47は、物体が走行車線領域に存在しない場合には(ST52、NO)、物体が走行車線方向に移動方向と移動速度を算出する(ST53)。判定部47は、物体が走行車線に近づく方向に移動しているか否かを判定し(ST54)、物体が走行車線に近づく方向に移動していない場合には(ST54、NO)、警告は不要であると判定する(ST59)。
また、判定部47は、物体が走行車線に近づく方向に移動している場合には(ST54、YES)、物体が走行車線領域に進入する進入時間Tpを算出する(ST55)。また、車両が物体の位置に到達する到達時間Tcを算出する(ST56)。なお、ST55とST56の処理は同時に行ってもよく、順番を前後して行ってもよい。そして、判定部47は、進入時間Tpが到達時間Tc以前である場合には(ST57、YES)、警告が必要であると判定する(ST58)。また、判定部47は、進入時間Tpが到達時間Tcより後である場合には(ST57、NO)、警告が不要であると判定する(ST59)。
そして、判定部47は、警告必要と判定する処理(ST58)及び警告不要と判定する処理(ST59)の後、まだ警告の要否を判定していない未判定の物体が存在する場合には(ST60、YES)、未判定の物体に対して、S51〜S59の処理を繰り返す。警告の要否が検出された物体のそれぞれに対して判定された場合には(ST60、NO)、警告の要否を判定する処理を終了する。
図10に戻って続きの処理を説明する。判定部47が少なくとも1つ以上の物体について警告必要であると判定した場合には(ST41、YES)、判定部47は画像生成部43に警告表示を含む表示画像の生成を指示する(ST42)。画像生成部43は、指示に従って警告表示を付した表示画像を生成する(ST43)。
また、判定部47が、警告は不要であると判定した場合には(ST41、NO)、画像生成部43は予め設定された表示態様で表示画像を生成する(ST44)。ここでは、表示画像として、赤外線画像と可視画像とを位置合わせして重畳してなり、可視画像から検出した区分線と、赤外線画像から検出した道路端線と、赤外線画像から検出した物体があればその物体と、他の道路領域とは異なる色を付した走行車線領域とを視認可能に含んだ画像を表示画像として生成する。また、赤外線画像から少なくとも一方の道路端線が検出され、かつ、可視画像から区分線が検出されたという判定条件が満たされたかを判定する処理(ST35)において、判定条件を満たさない場合にも(ST35、NO)、画像生成部43は、予め設定された表示態様で表示画像を生成する(ST44)。ここでは、赤外線画像と可視画像の重畳画像を表示する。
そして、表示制御部31は、生成された表示画像を表示部70に表示させる(ST45)。また、走行支援装置100は、終了条件を満たすか否かを判定し(ST46)、終了条件を満たす場合には(ST46、YES)、処理を終了する。また、終了条件を満たさない場合には(ST46、NO)、ST31からST45までの処理を繰り返す。
第2の実施形態によれば、区分線と推定した区分線の延長部分を用いて自車両の走行車線領域を設定し、物体が走行車線領域に存在する場合に、運転者などのユーザに警告を提示することができる。このため、赤外線画像から検出され、かつ、可視画像では検出できない物体が存在する場合であっても、物体と走行車線領域との位置関係を判定して、走行上障害物となる可能性のある物体を容易にユーザに把握させることができる。また、過剰な警告を抑制して、車両走行上障害物になりうる物体が存在する場合にのみユーザの注意を喚起することができる。
第3の実施形態として、推定した区分線の延長部分の情報を利用して、可視画像の露出補正を行う応用例を説明する。図12に、汎用の露出パラメータに基づく露出補正処理後の可視画像(図12の左の画像)と、第3の実施形態によって設定した露出パラメータに基づく露出補正処理後の可視画像(図12の右の画像)を示す。なお、図12における左の画像と右の画像は、同じ可視画像に対して、露出パラメータを異ならせて露出補正を行った例である。
図12における左の画像は、汎用の自動露出補正処理により、均一な重みで可視画像全体の画素値の平均値を評価値として露出パラメータを設定している。また、汎用の自動露出補正には、可視画像中央領域が適正露出となるように露出パラメータを設定する場合もある。図12における左の画像に示すように、汎用の露出制御によれば、対向車のヘッドライトなどが可視画像に含まれる場合などに、ヘッドライトからの照射光による大きい画素値を有する画素集合の影響を受けて、観察したい走行車線領域が著しく小さい画素値になるような意図しない露出パラメータが設定されてしまう場合がある。
第3の実施形態は、上記のような可視画像内の画素値の変動によって走行車線領域の適正な露出が得られないような露出パラメータが設定されるという問題を避けるために、推定した区分線の延長部分の情報を利用して可視画像の露出補正を行う。図13に第3の実施形態におけるデジタル信号処理部40と制御部30の構成を示すブロック図を示し、図14に第3の実施形態の走行支援装置100による処理の流れを示すフローチャートを示す。
図13に示すように第3の実施形態は、走行支援装置100が、区分線と区分線の延長部分と道路端線に基づいて、自車両が走行する走行車線領域を設定する領域設定部45と、走行車線領域が適正な露出となるように露出補正を行う露出補正部48を備え、画像生成部43が設定された露出パラメータを用いて露出補正が行われた処理後可視画像を取得し、処理後可視画像に基づいて表示画像を生成する点で第1の実施形態と異なる。第3の実施形態における領域設定部45は、第2の実施形態における領域設定部45と同じ構成と機能を有するため、詳細な説明は省略する。以下、第1の実施形態との相違点を中心に説明し、その他の共通部分については説明を省略する。
露出補正部48は、可視画像における走行車線領域の画素値に基づいて、可視画像の露出補正処理を行う。ここで、露出補正部48は、可視画像における走行車線領域の画素値に基づいて、可視画像の画素値の評価値を算出し、評価値に応じた露出パラメータを設定して露出補正を行う。なお、評価値ごとに露出パラメータを対応づけた露出テーブルが予めメモリ60に記憶されている。
露出補正部48は、可視画像における走行車線領域の画素値に基づいて可視画像の画素値の評価値を算出する任意の方法を用いてよい。例えば、露出補正部48は、走行車線領域の任意の画素の画素値を選択的に用いて評価値を算出してもよく、走行車線領域の全ての画素の画素値を用いて評価値を算出してもよい。例えば、露出補正部48は、走行車線領域の画素値ヒストグラムを用いて、最頻値、中央値、平均値のいずれかを評価値として算出してもよい。この場合には、図12の右図のように、走行車線領域を平均的に好適な露出とした処理後可視画像に基づいて、表示画像における走行車線領域の視認性を向上することができる。
例えば、露出補正部48は、赤外線画像から検出した道路端線の上端の画素値を評価値として算出してもよい。また、露出補正部48は、赤外線画像から検出した2つの道路端線の交点の画素値を評価値として算出してもよい。また、露出補正部48は、2つの道路端線の交点又は道路端線の上端に近い画素ほど重みが重くなるように走行車線領域の画素の画素値を重みづけして、重みづけ平均値を評価値として算出してもよい。これらの場合には、走行車線領域のうち、道路の走行方向に沿って車両から最も遠い点が好適な露出とするように露出パラメータを設定して露出補正をすることができるため、走行方向に沿って走行車線領域を好適な露出設定として、可視画像の走行車線領域の視認性を向上することができる。
また、露出補正部48は、走行車線領域を適正露出にできる範囲内であれば、走行車線領域の画素の画素値だけでなく走行車線領域外の画素の画素値を用いて評価値を算出して、評価値に基づいて露出パラメータを設定してもよい。この場合には、走行車線領域の画素値の重みを走行車線領域外の画素値の重みよりも大きく設定することが考えられる。
また、露出補正部48は、評価値に基づいて設定した露出パラメータを用いて、可視画像内の走行車線領域についてのみ露出補正を行ってもよく、可視画像全体に対して露出補正を行ってもよい。
画像生成部43は、設定された露出パラメータを用いて露出補正が行われた処理後可視画像を取得し、処理後可視画像に基づいて表示画像を生成する。なお、画像生成部43は、処理後可視画像に基づいて表示画像を生成するものであれば、可視画像を用いて任意の画像処理を行って表示画像を生成してよい。例えば、画像生成部43は、処理後可視画像を表示画像としてもよく、処理後可視画像と赤外線画像とを位置合わせした重畳画像を表示画像としてもよい。なお、画像生成部43のその他の機能や構造は第1の実施形態と同様である。
次に、図14を用いて、第3の実施形態の走行支援装置100の処理の流れを説明する。なお、ST61〜ST64、ST65(YESの場合)、ST66およびST67は、図6のST01〜ST07と同様の処理であるため説明を省略する。
区分線の延長部分が推定されると、領域設定部45は、走行車線領域を設定する(ST68)。露出補正部48は、走行車線領域の画素値ヒストグラムを用いて、走行車線領域の画素値の最頻値を算出する。そして、算出した最頻値を評価値として用いて、評価値に対応する可視画像の露出パラメータを設定する。そして設定した露出パラメータを用いて可視画像の露出補正を行って処理後可視画像を出力する(ST69)。
続いて、画像生成部43は、処理後可視画像に基づいて表示画像を生成し(ST70)、表示制御部31は、生成された表示画像を表示部70に表示させる(ST71)。なお、赤外線画像から少なくとも一方の道路端線が検出され、かつ、可視画像から区分線が検出されたという判定条件が満たされたかを判定する処理(ST65)において、判定条件を満たさない場合には(ST65、NO)、画像生成部43は、予め設定された表示態様で表示画像を生成する(ST70)。ここでは、赤外線画像と可視画像の重畳画像を表示する。また、走行支援装置100は、終了条件を満たすか否かを判定し(ST72)、終了条件を満たす(ST72、YES)場合には処理を終了する。また、終了条件を満たさない場合には(ST72、NO)、ST61からST71までの処理を繰り返す。
第3の実施形態によれば、推定された区分線の延長部分の情報を利用して走行車線領域を設定し、走行車線領域の画素値に基づいて露出パラメータを設定するため、走行車線領域が適正な露出となるように可視撮像部20の露出補正を行うことができる。また、走行車線領域の画素値の評価値として、走行車線領域内の画素から算出した評価値、あるいは、走行車線領域内の画素の画素値の重みが大きくなるように重みづけした評価値を用いて露出パラメータを設定することにより、走行車線領域以外の画素値の変動により走行車線領域に不適正な露出補正がされることを避けることができる。この結果、図12の右の画像に示すように、対向車のヘッドライトなどが可視画像に含まれる場合であっても、観察したい走行車線領域が適正な露出となるように露出補正を行うことができる。
第4の実施形態として、推定した区分線の延長部分の情報を利用して、可視画像の露出制御を行う応用例を示す。汎用の自動露出制御処理では、例えば、可視画像全体の画素値の平均値を評価値として用いて露出条件を設定する、あるいは、可視画像の画素値に基づいて、可視画像中央領域が適正露出となるように重み付けして評価値を算出して、算出された評価値を用いて露出条件を設定するような場合がある。このような汎用の露出制御によれば、対向車のヘッドライトなどが可視画像に含まれる場合などに、ヘッドライトからの照射光による大きい画素値を有する画素集合の影響を受けて、観察したい走行車線領域が著しく小さい画素値になるような意図しない露出条件が設定されてしまう場合がある。第4の実施形態は、このような問題に鑑み、走行車線領域に対して適正な露出条件の設定を行うことを目的とする。
第4の実施形態は、上記のような可視画像内の画素値の変動によって走行車線領域の適正な露出が得られないような露出条件が設定されるという問題を避けるために、推定した区分線の延長部分の情報を利用して可視画像の露出補正を行う。図15に、第4の実施形態におけるデジタル信号処理部40と制御部30の構成を示すブロック図を示し、図16に第4の実施形態の走行支援装置100による処理の流れを示すフローチャートを示す。
第4の実施形態は、走行支援装置100が、区分線と区分線の延長部分と道路端線に基づいて、自車両が走行する走行車線領域を設定する領域設定部45と、走行車線領域が適正な露出設定となるように露出制御を行う露出制御部32を備え、制御部30が、露出制御によって設定された露出条件で可視画像の撮像を行う点で第1の実施形態と異なる。第4の実施形態における領域設定部45は、第2の実施形態における領域設定部45と同じ構成と機能を有するため、詳細な説明は省略する。以下、第1の実施形態との相違点を中心に説明し、その他の共通部分については説明を省略する。
露出制御部32は、可視画像における走行車線領域の画素値に基づいて可視撮像部20の露出制御を行う。そして、露出制御部32は、可視画像における走行車線領域の画素値に基づいて可視画像の画素値の評価値を算出し、算出した評価値に対応する露出条件を設定する。なお、評価値ごとに、絞り値とシャッタースピードなどの露出条件を対応付けた露出条件テーブルが予めメモリ60に記憶されている。
露出制御部32は、可視画像における走行車線領域の画素値に基づいて可視画像の画素値の評価値を算出する任意の方法を用いてよい。例えば、露出制御部32は、評価値を算出するために、走行車線領域の任意の画素の画素値を選択的に用いてもよく、走行車線領域の全ての画素の画素値を用いてもよい。例えば、露出制御部32は、走行車線領域の画素値ヒストグラムを用いて、最頻値、中央値、平均値のいずれかを評価値として算出してもよい。この場合には、走行車線領域を平均的に好適な露出として、表示画像における走行車線領域の視認性を向上することができる。
例えば、露出制御部32は、赤外線画像から検出した道路端線の上端の画素値を評価値として算出してもよい。また、露出補正部48は、赤外線画像から検出した2つの道路端線の交点の画素値を評価値として算出してもよい。また、露出補正部48は、2つの道路端線の交点又は道路端線の上端に近い画素ほど重みが重くなるように走行車線領域の画素の画素値を重みづけして、重みづけ平均値を評価値として算出してもよい。これらの場合には、走行車線領域のうち、道路の走行方向に沿って車両から最も遠い点が好適な露出とするように露出条件を設定することができるため、走行方向に沿って走行車線領域を適正な露出設定として、可視画像中の走行車線領域の視認性を向上することができる。
また、露出制御部32は、走行車線領域を適正露出にできる範囲内であれば、走行車線領域の画素の画素値だけでなく走行車線領域外の画素の画素値を用いて評価値を算出して、評価値に基づいて露出条件を設定してもよい。この場合には、走行車線領域の画素値の重みを走行車線領域外の画素値の重みよりも大きく設定することが考えられる。
図16を用いて、第4の実施形態の走行支援装置100の処理の流れを説明する。なお、図16のST81〜ST84、ST85(YESの場合)、ST86およびST87に示す処理は図6のST01とST07に示す処理とそれぞれ対応する処理であるため説明を省略する。
区分線の延長部分が推定されると、領域設定部45は、走行車線領域を設定する(ST88)。画像生成部43は、予め設定された表示態様で表示画像を生成する(ST89)。ここでは、画像生成部43は、区分線の延長部分と区分線と道路端を視認可能に、赤外線画像と可視画像を重畳した表示画像を生成する。また、赤外線画像から少なくとも一方の道路端線が検出され、かつ、可視画像から区分線が検出されたという判定条件が満たされたかを判定する処理(ST85)において、判定条件を満たさない場合にも(ST85、NO)、画像生成部43は、予め設定された表示態様で表示画像を生成する(ST89)。ここでは、赤外線画像と可視画像の重畳画像を表示する。そして、表示制御部31は、生成された表示画像を表示部70に表示させる(ST90)。
走行支援装置100は、終了条件を満たすか否かを判定し(ST91)、終了条件を満たす場合には(ST91、YES)、処理を終了する。また、終了条件を満たさない場合には(ST91、NO)、露出制御を行う(ST92)。具体的には、直前に撮像された可視画像の走行車線領域の画素値ヒストグラムに基づいて、走行車線領域の画素値の最頻値を算出し、算出した最頻値を評価値として対応付けテーブルに基づいて露出条件を設定する。そして、走行支援装置100は、ST81からST91までの処理を繰り返す。なお、ST83において、制御部30は露出制御部32に設定された露出条件に基づいて、可視画像の撮像を行う。
第4の実施形態によれば、推定された区分線の延長部分の情報を利用して走行車線領域を設定し、走行車線領域の画素値に基づいて露出条件を設定するため、走行車線領域が適正な露出となるように可視撮像部20の露出条件を設定することができる。また、走行車線領域の画素値の評価値として、走行車線領域内の画素から算出した評価値、あるいは、走行車線領域内の画素の画素値の重みが大きくなるように重みづけした評価値を用いて露出条件を設定することにより、走行車線領域以外の画素値の変動の影響を抑制して走行車線領域により適正な露出条件を設定することができる。結果として、第4の実施形態によって設定した露出条件に基づいて可視画像の撮像を行うことにより、可視画像における走行車線領域の視認性を高めることができる。
本明細書における各実施形態では、デジタル信号処理部40が、道路検出部41、区分線検出部42、画像生成部43、区分線推定部44、領域設定部45、物体検出部46、判定部47、露出補正部48として機能し、制御部30が表示制御部31、露出制御部32として機能した。しかし、これに限定されず、デジタル信号処理部40及び制御部30の一方が単独で上記各部の機能を有してもよい。また、デジタル信号処理部40及び制御部30が任意の分け方で、上記各部の機能を分担してもよい。また、デジタル信号処理部40と制御部30は、1つのチップとして実装されてもよく、それぞれ異なるチップとして実装されてよい。また、メモリ60は、要求される機能を実現される範囲であれば、任意の態様で実装されてよい。
上記の各実施形態はあくまでも例示であり、上記のすべての説明が本発明の技術的範囲を限定的に解釈するために利用されるべきものではない。本発明の態様は、上記した個々の実施例(第1〜第4の実施形態、その他の変形例及び応用例)に限定されるものではなく、個々の実施例の各要素のいかなる組合せも本発明に含み、また、当業者が想到しうる種々の変形も含むものである。すなわち、特許請求の範囲に規定された内容及びその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更及び部分的削除が可能である。
10 赤外線撮像部
20 可視撮像部
30 制御部
31 表示制御部
32 露出制御部
40 デジタル信号処理部
41 道路検出部
42 区分線検出部
43 画像生成部
44 区分線推定部
45 領域設定部
46 物体検出部
47 判定部
48 露出補正部
60 メモリ
70 表示部
80 補助記憶装置
90 バス

Claims (14)

  1. 車両に搭載されて車両前方の赤外線画像を撮像する赤外線撮像部と、
    前記車両に搭載されて前記赤外線画像の表す範囲に対応する範囲の可視画像を撮像する可視撮像部と、
    撮像された前記赤外線画像から前記車両が走行する道路の道路端線を検出する道路検出部と、
    撮像された前記可視画像から前記道路の区分線を検出する区分線検出部と、
    互いに位置合わせされた前記赤外線画像と前記可視画像に基づいて、前記道路端線と前記区分線とを表す統合画像を生成する画像生成部と、
    前記統合画像中の前記区分線と前記道路端線とに基づいて、前記統合画像における前記区分線の延長部分を推定する区分線推定部とを備えたことを特徴とする走行支援装置。
  2. 前記区分線推定部が、道路面上において、前記区分線が前記道路端線と前記道路の走行方向に並走し、かつ、前記区分線が前記道路の走行方向と直交する横断方向に前記道路端線と一定の距離をあけて位置するという条件に従って、前記統合画像中の前記区分線の延長部分を推定する請求項1記載の走行支援装置。
  3. 前記画像生成部は、互いに位置合わせされた前記赤外線画像と前記可視画像に基づいて、前記道路端線と前記区分線とを表す2次元画像である第1統合画像を前記統合画像として生成し、
    前記区分線推定部は、前記道路の両端をそれぞれ表す2つの前記道路端線が検出された場合に、前記車両の下向きを画像下向きとして前記第1統合画像を配置した状態で、前記第1統合画像の水平方向に延びる線上において、前記2つの道路端線のうち一方の道路端線上の参照点と前記2つの道路端線のうち他方の道路端線上の参照点とを前記区分線上の参照点が内分する内分比を算出し、
    各々の前記参照点から前記2つの道路端線の交点までの各点を通る水平方向に延びる線上において、前記一方の道路端線上の点と前記他方の道路端線上の点と前記区分線上の点とが前記内分比を維持するという条件に従って、前記区分線の候補点をそれぞれ算出し、算出された該区分線の候補点に基づいて前記区分線の延長部分を推定する第1推定処理を実施する請求項1又は2記載の走行支援装置。
  4. 前記画像生成部は、互いに位置合わせされた前記赤外線画像と前記可視画像に基づいて、前記道路端線と前記区分線とを表す2次元画像である第2統合画像を前記統合画像として生成し、
    前記区分線推定部は、前記車両の下向きを画像下向きとして前記第2統合画像を配置した状態で、前記第2統合画像において、前記道路端線の上端からの垂直方向の距離が大きくなるほど、前記道路端線と前記区分線との間の水平方向の距離が一定割合で大きくなるという条件に従って、前記道路端線の各点に対応する前記区分線の候補点をそれぞれ算出し、算出された該区分線の候補点に基づいて前記区分線の延長部分を推定する第2推定処理を実施する請求項1から3のいずれか1項記載の走行支援装置。
  5. 前記区分線推定部は、前記車両の下向きを画像下向きとして前記第2統合画像を配置した状態において、前記道路端線の上端を検出し、
    前記道路端線の参照点から前記区分線までの水平方向の第1参照距離を算出し、
    前記上端から前記区分線の延長部分までの水平方向の第2参照距離を零と設定し、
    前記道路端線の参照点から前記上端までの垂直方向の距離に対する前記第1参照距離と前記第2参照距離の差の割合に基づいて前記一定割合を算出して前記第2推定処理を実施する請求項4記載の走行支援装置。
  6. 前記区分線推定部は、前記車両の下向きを画像下向きとして前記第2統合画像を配置した状態において、前記道路端線の上端を検出し、
    前記道路端線の第1参照点から前記区分線までの水平方向の第1参照距離を算出し、
    前記道路端線の第2参照点から前記区分線までの水平方向の第2参照距離を算出し、
    前記第1参照点から前記第2参照点までの垂直方向の距離に対する前記第1参照距離と前記第2参照距離の差の割合に基づいて前記一定割合を算出して前記第2推定処理を実施する請求項4記載の走行支援装置。
  7. 前記区分線推定部が、前記道路の両端をそれぞれ表す2つの道路端線が検出された場合に前記第1推定処理を実施し、
    前記道路の一方の端を表す道路端線が検出され、前記道路の他方の端を表す道路端線が検出されなかった場合に、前記車両の下向きを画像下向きとして前記第1統合画像を配置した状態において、前記道路端線の上端からの垂直方向の距離が大きくなるほど、前記道路端線と前記区分線との間の水平方向の距離が一定割合で大きくなるという条件に従って、前記道路端線の各点に対応する前記区分線の候補点をそれぞれ算出し、算出された該区分線の候補点に基づいて前記区分線の延長部分を推定する第2推定処理を実施する請求項3記載の走行支援装置。
  8. 前記道路検出部は、前記道路端線を表す複数の候補点を検出し、検出した該複数の候補点に基づいて前記道路端線を多項式曲線として近似し、
    前記区分線検出部は、前記区分線の候補点に基づいて前記区分線を多項式曲線として近似する請求項1から7のいずれか1項記載の走行支援装置。
  9. 前記画像生成部は、前記区分線と前記区分線の延長部分と前記道路端線とを表す表示画像を生成し、
    生成された前記表示画像を表示画面に表示させる表示制御部をさらに備える請求項1から8のいずれか1項記載の走行支援装置。
  10. 前記区分線と前記区分線の延長部分と前記道路端線に基づいて、前記道路のうち前記車両が走行する走行車線領域を設定する領域設定部と、
    前記赤外線画像から恒温の物体を検出する物体検出部と、
    前記車両の運転者のために警告を提示する警告部と、
    前記走行車線領域内の前記物体の存在の有無を判定し、前記物体が存在する場合に前記警告部に警告を提示させる判定部と、
    をさらに備える請求項1から9のいずれか1項記載の走行支援装置。
  11. 前記判定部が、前記走行車線領域と前記物体との間の距離と前記物体の移動速度に基づいて、前記物体が前記走行車線領域に進入する進入時間を推定し、前記物体と前記車両との間の距離と前記車両の移動速度とに基づいて、前記車両が前記物体の位置に到達する到達時間を推定し、前記進入時間が前記到達時間以前である場合に警告を提示させる請求項10記載の走行支援装置。
  12. 前記区分線と前記区分線の延長部分と前記道路端線に基づいて、前記道路のうち前記車両が走行する走行車線領域を設定する領域設定部と、
    前記可視画像における前記走行車線領域の画素値に基づいて、前記可視画像の露出補正処理を行う露出補正部をさらに備える請求項1から9のいずれか1項記載の走行支援装置。
  13. 前記区分線と前記区分線の延長部分と前記道路端線に基づいて、前記道路のうち前記車両が走行する走行車線領域を設定する領域設定部と、
    前記可視画像における前記走行車線領域の画素値に基づいて前記可視撮像部の露出制御を行う露出制御部をさらに備える請求項1から9のいずれか1項記載の走行支援装置。
  14. 車両に搭載された赤外線撮像部と前記車両に搭載された可視撮像部とを備えた走行支援装置によって実施される走行支援方法であって、
    前記車両の車両前方の赤外線画像を撮像する赤外線撮像ステップと、
    前記赤外線画像の表す範囲に対応する範囲の可視画像を撮像する可視撮像ステップと、
    撮像された前記赤外線画像から前記車両が走行する道路の道路端線を検出する道路検出ステップと、
    撮像された前記可視画像から前記道路の区分線を検出する区分線検出ステップと、
    互いに位置合わせされた前記赤外線画像と前記可視画像に基づいて、前記道路端線と前記区分線とを表す統合画像を生成する画像生成ステップと、
    前記統合画像中の前記区分線と前記道路端線とに基づいて、前記統合画像における前記区分線の延長部分を推定する区分線推定ステップとを有することを特徴とする走行支援方法。
JP2018019517A 2015-09-11 2018-02-06 走行支援装置、走行支援装置による走行支援方法及びプログラム Pending JP2018101437A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015179506 2015-09-11
JP2015179506 2015-09-11

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017538867A Division JP6291144B2 (ja) 2015-09-11 2016-09-06 走行支援装置及び走行支援装置による走行支援方法

Publications (1)

Publication Number Publication Date
JP2018101437A true JP2018101437A (ja) 2018-06-28

Family

ID=58240766

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017538867A Active JP6291144B2 (ja) 2015-09-11 2016-09-06 走行支援装置及び走行支援装置による走行支援方法
JP2018019517A Pending JP2018101437A (ja) 2015-09-11 2018-02-06 走行支援装置、走行支援装置による走行支援方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017538867A Active JP6291144B2 (ja) 2015-09-11 2016-09-06 走行支援装置及び走行支援装置による走行支援方法

Country Status (4)

Country Link
US (1) US10671859B2 (ja)
JP (2) JP6291144B2 (ja)
CN (1) CN108027976B (ja)
WO (1) WO2017043067A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020034483A (ja) * 2018-08-31 2020-03-05 株式会社キーエンス 画像測定装置
JP2020047272A (ja) * 2018-09-15 2020-03-26 株式会社ストラドビジョン Cnn基盤車線検出のための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置
WO2023095397A1 (ja) * 2021-11-25 2023-06-01 株式会社Jvcケンウッド 運転支援装置、運転支援方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101648339B1 (ko) * 2009-09-24 2016-08-17 삼성전자주식회사 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치
CN108027976B (zh) 2015-09-11 2021-10-29 富士胶片株式会社 行驶支援装置以及基于行驶支援装置的行驶支援方法
MX2019002644A (es) 2016-09-08 2019-06-17 Walmart Apollo Llc Sistemas y metodos para dispensar un insecticida a traves de vehiculos no tripulados para defender un area que contiene cultivo contra plagas.
WO2018048708A1 (en) * 2016-09-08 2018-03-15 Wal-Mart Stores, Inc. Systems and methods for identifying pests in crop-containing areas via unmanned vehicles
EP3550261A4 (en) * 2016-12-05 2019-12-25 Panasonic Intellectual Property Management Co., Ltd. IMAGE CAPTURE DEVICE AND IMAGE CAPTURE ELEMENT USED THEREIN
EP3428884B1 (en) * 2017-05-12 2020-01-08 HTC Corporation Tracking system and tracking method thereof
CN111226094A (zh) * 2017-10-24 2020-06-02 索尼公司 信息处理装置、信息处理方法、程序和移动体
JP6971177B2 (ja) * 2018-03-09 2021-11-24 フォルシアクラリオン・エレクトロニクス株式会社 区画線認識装置
WO2020063816A1 (zh) * 2018-09-30 2020-04-02 长城汽车股份有限公司 行车坐标系的构建方法及应用
CN109472793A (zh) * 2018-10-15 2019-03-15 中山大学 基于fpga的4k高清图像实时路面分割方法
US11265480B2 (en) * 2019-06-11 2022-03-01 Qualcomm Incorporated Systems and methods for controlling exposure settings based on motion characteristics associated with an image sensor
JP2022007359A (ja) * 2020-06-26 2022-01-13 キヤノン株式会社 画像処理装置、撮像システム、移動体、画像処理方法及びプログラム
US11676403B2 (en) * 2021-01-21 2023-06-13 Hitachi Astemo, Ltd. Combining visible light camera and thermal camera information
US11715305B1 (en) * 2022-11-30 2023-08-01 Amitha Nandini Mandava Traffic detection system using machine vision

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04205320A (ja) * 1990-11-30 1992-07-27 Honda Motor Co Ltd 移動路データに対する評価方法
JP2010221909A (ja) * 2009-03-24 2010-10-07 Hitachi Automotive Systems Ltd 走行環境認識装置および車両制御装置
JP2017538867A (ja) * 2014-12-17 2017-12-28 アトテツク・ドイチユラント・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツングAtotech Deutschland GmbH パラジウム無電解めっき用のめっき浴組成物およびパラジウムの無電解めっき方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101596A (ja) * 1999-09-27 2001-04-13 Mazda Motor Corp 車両の表示装置
JP2003067752A (ja) * 2001-08-28 2003-03-07 Yazaki Corp 車両周辺監視装置
JP3909691B2 (ja) * 2002-09-12 2007-04-25 株式会社日立製作所 車載用画像処理装置
JP2005316607A (ja) 2004-04-27 2005-11-10 Toyota Motor Corp 画像処理装置及び画像処理方法
JP4650079B2 (ja) 2004-11-30 2011-03-16 日産自動車株式会社 物体検出装置、および方法
JP4735530B2 (ja) * 2006-12-21 2011-07-27 トヨタ自動車株式会社 道路区画線認識装置
JP4584277B2 (ja) 2007-03-19 2010-11-17 本田技研工業株式会社 表示装置
DE102008003800A1 (de) * 2008-01-10 2009-07-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bilderfassung für Kraftfahrzeuge
JP5074365B2 (ja) * 2008-11-28 2012-11-14 日立オートモティブシステムズ株式会社 カメラ装置
CN101620732A (zh) * 2009-07-17 2010-01-06 南京航空航天大学 道路行驶线的视觉检测方法
CN102044090B (zh) * 2010-12-30 2013-09-11 长安大学 车辆连环碰撞事故分析与模拟再现计算机系统
EP2541498B1 (en) * 2011-06-30 2017-09-06 Harman Becker Automotive Systems GmbH Method of determining extrinsic parameters of a vehicle vision system and vehicle vision system
EP2851864B1 (en) * 2012-05-18 2016-09-07 Nissan Motor Co., Ltd. Vehicular display apparatus, vehicular display method, and vehicular display program
JP5904925B2 (ja) * 2012-10-25 2016-04-20 本田技研工業株式会社 車両周辺監視装置
CN103177246B (zh) * 2013-03-26 2015-11-25 北京理工大学 基于动态区域划分的双模型车道线识别方法
JP6548893B2 (ja) * 2014-11-18 2019-07-24 日立オートモティブシステムズ株式会社 走行路認識装置及びそれを用いた走行支援システム
CN108027976B (zh) 2015-09-11 2021-10-29 富士胶片株式会社 行驶支援装置以及基于行驶支援装置的行驶支援方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04205320A (ja) * 1990-11-30 1992-07-27 Honda Motor Co Ltd 移動路データに対する評価方法
JP2010221909A (ja) * 2009-03-24 2010-10-07 Hitachi Automotive Systems Ltd 走行環境認識装置および車両制御装置
JP2017538867A (ja) * 2014-12-17 2017-12-28 アトテツク・ドイチユラント・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツングAtotech Deutschland GmbH パラジウム無電解めっき用のめっき浴組成物およびパラジウムの無電解めっき方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020034483A (ja) * 2018-08-31 2020-03-05 株式会社キーエンス 画像測定装置
JP7152223B2 (ja) 2018-08-31 2022-10-12 株式会社キーエンス 画像測定装置
JP2020047272A (ja) * 2018-09-15 2020-03-26 株式会社ストラドビジョン Cnn基盤車線検出のための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置
WO2023095397A1 (ja) * 2021-11-25 2023-06-01 株式会社Jvcケンウッド 運転支援装置、運転支援方法

Also Published As

Publication number Publication date
JP6291144B2 (ja) 2018-03-14
US20180197022A1 (en) 2018-07-12
US10671859B2 (en) 2020-06-02
WO2017043067A1 (ja) 2017-03-16
JPWO2017043067A1 (ja) 2018-05-24
CN108027976A (zh) 2018-05-11
CN108027976B (zh) 2021-10-29

Similar Documents

Publication Publication Date Title
JP6291144B2 (ja) 走行支援装置及び走行支援装置による走行支援方法
JP6254083B2 (ja) 車載用周囲環境認識装置
JP6091586B1 (ja) 車両用画像処理装置および車両用画像処理システム
US9591274B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
JP6379779B2 (ja) 車両用表示装置
KR102045088B1 (ko) 영상 표시 방법 및 이를 위한 위한 장치
JP5120227B2 (ja) 輪止検出装置及び後方画像表示装置
JP2016115305A (ja) 物体検出装置、物体検出システム、物体検出方法及びプログラム
JP4528283B2 (ja) 車両周辺監視装置
JP4872769B2 (ja) 路面判別装置および路面判別方法
JP6375816B2 (ja) 車両用周辺情報表示システム及び表示装置
JP2011048520A (ja) 車両周辺監視装置および車両周辺監視方法
JP2009231938A (ja) 車両用周囲監視装置
KR20090109437A (ko) 차량주행중 영상정합 방법 및 그 시스템
KR102268641B1 (ko) 어라운드 뷰 시스템 및 그 동작방법
KR20110111668A (ko) 차선 인식 장치 및 차선 인식 방법
JP4813304B2 (ja) 車両周辺監視装置
JP2017167608A (ja) 物体認識装置、物体認識方法及び物体認識プログラム
KR102095560B1 (ko) 장애물 위치 표시 제어 시스템 및 그 방법
KR20000063151A (ko) 차선 이탈 경보장치 및 방법
JP2009169618A (ja) 路側境界面検出装置
JPH11272989A (ja) 交通流監視装置
JP6174884B2 (ja) 車外環境認識装置および車外環境認識方法
JP4574157B2 (ja) 情報表示装置および情報表示方法
JP2005339286A (ja) 交差点における停止車両の発進状態計測装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20190702

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201104