JP2009096274A - White line detector, parking and stop assist device, and white line detection method - Google Patents

White line detector, parking and stop assist device, and white line detection method Download PDF

Info

Publication number
JP2009096274A
JP2009096274A JP2007268573A JP2007268573A JP2009096274A JP 2009096274 A JP2009096274 A JP 2009096274A JP 2007268573 A JP2007268573 A JP 2007268573A JP 2007268573 A JP2007268573 A JP 2007268573A JP 2009096274 A JP2009096274 A JP 2009096274A
Authority
JP
Japan
Prior art keywords
image
white line
vehicle
luminance value
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007268573A
Other languages
Japanese (ja)
Other versions
JP5012396B2 (en
Inventor
Yohei Aragaki
洋平 新垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2007268573A priority Critical patent/JP5012396B2/en
Publication of JP2009096274A publication Critical patent/JP2009096274A/en
Application granted granted Critical
Publication of JP5012396B2 publication Critical patent/JP5012396B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a white line detector capable of extracting a white line even from an image in which an edge part is hardly detected. <P>SOLUTION: A picked-up image of the periphery of a vehicle by an image pickup unit A is prepared with the converted image subjected to the viewpoint conversion by a conversion image preparation unit C01b of an image edition unit C01 being an objective image, and saved in a memory unit B02. Then, an edge candidate area estimated to be a white line candidate area from the frequency of appearance of the brightness value of each pixel of the objective image is extracted by an edge part extraction unit C02 and an edge brightness value histogram preparation unit C03, the brightness value in a vicinity of the peak brightness value of the edge candidate area is determined as the binary threshold by a binary threshold determination unit C04. The objective image is converted into the binary image by a white line calculating unit C05 using the binary threshold, and a white line part is extracted therefrom, and saved in the data memory unit B02. Not the converted image, but the picked-up image or the compressed image with the pixel number being thinned from the picked-up image by a compressed image preparation unit C01a may be used for the objective image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、白線検出装置、駐停車支援装置および白線検出方法に関する。   The present invention relates to a white line detection device, a parking / stop support device, and a white line detection method.

車両周囲の路面上の白線を検出する既存の技術として、特許文献1の特開2004−118757号公報「路面走行レーン検出装置」に記載の技術がある。該特許文献1においては、車両の走行レーンを検出するために、車両に搭載されたカメラにより取得された画像から、輝度値が急峻に変化するエッジを検出し、検出した該エッジ上の複数の点を白線候補の特徴点として抽出するものであり、抽出した特徴点に対して、走行レーンの検出用としてRANSAC(Random Sample Consensus)を応用した手法を適用して、直線当て嵌めを行うことにより、白線を検出するという構成が採用されている。
特開2004−118757号公報
As an existing technique for detecting a white line on a road surface around a vehicle, there is a technique described in Japanese Patent Application Laid-Open No. 2004-118757 “Road Surface Traveling Lane Detection Device”. In this patent document 1, in order to detect the traveling lane of a vehicle, an edge whose luminance value changes sharply is detected from an image acquired by a camera mounted on the vehicle, and a plurality of detected edges are detected. A point is extracted as a feature point of a white line candidate. By applying a method applying RANSAC (Random Sample Consensus) to the extracted feature point for detecting a driving lane, a straight line fit is performed. The configuration of detecting a white line is employed.
JP 2004-118757 A

しかしながら、前記特許文献1に記載のような技術では、エッジ部を検出することが前提となっているため、エッジ部が鈍くなるような歪みが生じた状態で撮像された画像などのように、エッジ部の抽出自体が困難になる場合には、十分な個数の白線候補の特徴点を抽出することができなくなり、白線を誤検出したり、あるいは、検出できなくなったりする場合があった。   However, since the technique as described in Patent Document 1 is based on the premise that the edge portion is detected, such as an image captured in a state in which the edge portion becomes distorted, the edge portion becomes dull. When extraction of the edge portion itself becomes difficult, a sufficient number of white line candidate feature points cannot be extracted, and white lines may be erroneously detected or may not be detected.

本発明は、かかる事情に鑑みてなされたものであり、車両周囲を撮像して得られる処理対象の画像の輝度値に基づいて、画像の2値化を行うための2値化閾値を適切に決定することにより、白線部位のエッジ部の検出が困難な画像であっても、白線を抽出することを可能とする白線検出装置、駐停車支援装置および白線検出方法を提供することを、その目的としている。   The present invention has been made in view of such circumstances, and appropriately sets a binarization threshold value for performing binarization of an image based on a luminance value of an image to be processed obtained by imaging around the vehicle. An object of the present invention is to provide a white line detection device, a parking / stop support device, and a white line detection method capable of extracting a white line even if it is difficult to detect an edge portion of a white line part by determining It is said.

本発明は、前述の課題を解決するために、車両周囲の撮像画像を処理対象画像として取得し、該処理対象画像の各画素の輝度値の出現頻度に基づいて、白線候補領域と推定されるエッジ候補領域におけるピーク輝度値近傍の輝度値を求めて、前記処理対象画像の2値化を行うための2値化閾値を決定することにより、前記2値化閾値により変換した2値化画像を用いて白線を検出することを特徴としている。   In order to solve the above-described problem, the present invention acquires a captured image around a vehicle as a processing target image, and is estimated as a white line candidate region based on the appearance frequency of the luminance value of each pixel of the processing target image. By obtaining a luminance value near the peak luminance value in the edge candidate region and determining a binarization threshold for binarizing the processing target image, the binarized image converted by the binarization threshold is obtained. It is characterized by detecting a white line by using.

本発明の白線検出装置、駐停車支援装置および白線検出方法によれば、処理対象画像の各画素の輝度値の出現頻度に基づいて、2値化閾値を決定して、該処理対象画像の2値化を行った結果を用いて、白線を検出するように構成しているので、検出することができたエッジ部のみを用いて白線の検出を行う場合に生じる白線の非検出や誤検出を低減させることが可能になり、たとえ、輝度値の変化が緩やかで、白線部位のエッジ部の検出が困難な画像を処理対象画像として用いる場合であっても、白線を確実に検出することが可能になるという効果を奏することができる。   According to the white line detection device, the parking / stop support device, and the white line detection method of the present invention, the binarization threshold is determined based on the appearance frequency of the luminance value of each pixel of the processing target image, and the processing target image 2 Since it is configured to detect the white line using the result of the digitization, non-detection or false detection of the white line that occurs when the white line is detected using only the edge portion that can be detected. Even if an image whose luminance value changes slowly and it is difficult to detect the edge part of the white line part is used as the processing target image, the white line can be reliably detected. The effect of becoming can be produced.

以下に、本発明による白線検出装置、駐停車支援装置および白線検出方法の最良の実施形態について、図面を参照しながら詳細に説明する。   DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of a white line detection device, parking / stop support device, and white line detection method according to the present invention will be described below in detail with reference to the drawings.

本発明の実施形態の説明に先立って、本発明による白線検出装置、駐停車支援装置および白線検出方法の主要な特徴について、まず説明する。本発明は、処理対象画像の各画素の輝度値の出現頻度に基づいて2値化閾値を決定して、該処理対象画像の2値化を行った結果を用いて、白線を検出することを主要な特徴とするものである。而して、エッジ部の輝度値の変化が緩やかな画像であって、エッジ部の抽出が困難になるような画像であっても、白線の非検出や誤検出を低減し、白線を確実に検出することを可能としている。   Prior to the description of the embodiments of the present invention, the main features of the white line detection device, parking / stop support device and white line detection method according to the present invention will be described first. The present invention determines a binarization threshold based on the appearance frequency of the luminance value of each pixel of a processing target image, and detects a white line using the result of binarization of the processing target image. It is the main feature. Thus, even for an image in which the luminance value of the edge portion changes slowly and it is difficult to extract the edge portion, non-detection and false detection of the white line are reduced, and the white line is reliably detected. It is possible to detect.

つまり、本発明は、次のような手順に基づいて、白線を検出していることを特徴としている。まず、車両周囲を撮像した画像を処理の対象となる処理対象画像として取得し、該処理対象画像の各画素の輝度値の出現頻度を輝度値ヒストグラムとして作成することによって、輝度値の出現頻度に基づいて白線候補領域と推定されるエッジ候補領域を検出する。   That is, the present invention is characterized in that a white line is detected based on the following procedure. First, an image captured around the vehicle is acquired as a processing target image to be processed, and the frequency of appearance of the luminance value of each pixel of the processing target image is created as a luminance value histogram. Based on this, an edge candidate area estimated as a white line candidate area is detected.

しかる後、検出された該エッジ候補領域におけるピーク輝度値の近傍の輝度値を、例えば、検出された該エッジ候補領域の近傍にあって、該エッジ候補領域のピーク輝度値よりも輝度値があらかじめ定めた所定値だけ低い輝度値を、前記処理対象画像の2値化を行うための2値化閾値として決定する。次いで、該2値化閾値を用いて、前記処理対象画像を2値化画像に変換する。   Thereafter, the luminance value in the vicinity of the peak luminance value in the detected edge candidate region is set, for example, in the vicinity of the detected edge candidate region, and the luminance value in advance is higher than the peak luminance value in the edge candidate region. A luminance value that is lower by a predetermined value is determined as a binarization threshold value for binarizing the processing target image. Next, the processing target image is converted into a binarized image using the binarization threshold.

しかる後、変換された2値化画像の中から、白い直線を形成する部位を白線として検出することにより、たとえ、処理対象画像が、エッジ部が鈍い傾斜の画像であっても、白線を確実に検出することができる。   After that, by detecting a part forming a white straight line as a white line from the converted binarized image, even if the processing target image is an image with a slanted edge portion, the white line is surely obtained. Can be detected.

なお、車両周囲の画像を撮像する撮像部の車両への搭載位置如何によっては、撮像された車両周囲の撮像画像そのものを前記処理対象画像として用いても良いし、あらかじめ定めた方向に視点を変換した変換画像を作成し、該変換画像を前記処理対象画像として用いるようにしても良く、該変換画像としては、例えば、視点位置を車両の上方向に置いて車両を俯瞰した俯瞰画像を用いることとしても良い。   Depending on the mounting position of the imaging unit that captures an image around the vehicle on the vehicle, the captured image itself around the vehicle may be used as the processing target image, or the viewpoint is converted in a predetermined direction. The converted image may be created, and the converted image may be used as the processing target image. As the converted image, for example, an overhead image in which the viewpoint is placed in the upward direction of the vehicle is used. It is also good.

さらに、車両周囲の撮像画像について、あらかじめ定めた間隔ごとに、車両の縦方向および/または横方向に直線状に配置されている各画素を代表画素として抽出して圧縮した圧縮画像を、前記処理対象画像として作成するようにしても良いし、あるいは、車両周囲の撮像画像について、車両内部あるいは車両周辺のあらかじめ定めた1ないし複数の中心またはあらかじめ定めた2つの焦点から見て、あらかじめ定めた間隔ごとに、同心円状または楕円状に配置されている各画素を代表画素として抽出して圧縮した圧縮画像を、前記処理対象画像として作成するようにしても良い。   Further, a compressed image obtained by extracting and compressing each pixel arranged linearly in the longitudinal direction and / or the lateral direction of the vehicle at a predetermined interval with respect to the captured image around the vehicle is processed as described above. It may be made as a target image, or, with respect to a captured image around the vehicle, a predetermined interval from one or a plurality of predetermined centers or two predetermined focal points inside or around the vehicle. A compressed image obtained by extracting and compressing each pixel arranged concentrically or elliptically as a representative pixel may be created as the processing target image.

また、圧縮画像を作成する際には、代表画素の輝度値を、変更しないでそのまま用いるようにしても良いし、あるいは、代表画素の周辺にあって間引かれる画素の輝度値を含めて加重平均した輝度値を、代表画素の輝度値として用いるようにしても良い。   Further, when creating a compressed image, the luminance value of the representative pixel may be used as it is without being changed, or a weight including a luminance value of a pixel that is thinned out around the representative pixel is included. The averaged luminance value may be used as the luminance value of the representative pixel.

また、前述のような変換画像を前記処理対象画像として作成する場合において、圧縮画像を作成している場合には、車両周囲の撮像画像のみならず、該圧縮画像について、視点を変換した変換画像として作成するようにしても良い。   Further, when creating a converted image as the processing target image as described above, when creating a compressed image, not only the captured image around the vehicle, but also a converted image obtained by converting the viewpoint of the compressed image. You may make it create as.

さらに、変換画像を前記処理対象画像として作成する場合、車両周囲の撮像画像や圧縮画像から変換画像をできるだけ速く作成することができるように、車両周囲の撮像画像の各画素位置と前記変換画像の各画素位置との対応関係を示す変換マップを用いるようにしても良い。   Further, when creating a converted image as the processing target image, each pixel position of the captured image around the vehicle and the converted image can be created as quickly as possible from the captured image or compressed image around the vehicle. You may make it use the conversion map which shows the correspondence with each pixel position.

さらに、前述のような輝度値ヒストグラムを作成する際に、処理対象画像内の各画素の輝度値の変化状況を参照することによって、処理対象画像全体の領域を対象とするのではなく、処理対象画像の中から、白線候補領域と推定されるエッジ候補領域を抽出し、抽出した前記エッジ候補領域を含む領域に関する輝度値ヒストグラムをエッジ部輝度値ヒストグラムとして作成するようにしても良い。   Furthermore, when creating the luminance value histogram as described above, the processing target is not targeted for the entire area of the processing target image by referring to the change state of the luminance value of each pixel in the processing target image. An edge candidate region estimated as a white line candidate region may be extracted from the image, and a luminance value histogram related to the extracted region including the edge candidate region may be created as an edge portion luminance value histogram.

また、処理対象画像として前記変換画像を用いる場合、車両周囲の撮像画像の各画素を、前記変換画像の各画素に変換する変換度合いを示す情報を参照可能とするようにして、該変換度合いに応じて、1ないし複数の画像領域に分割して、分割した各画像領域それぞれについて、エッジ候補領域を抽出する際に用いるエッジ抽出用フィルタを変更するとともに、各画像領域それぞれのエッジ部輝度値ヒストグラムを分割して作成するようにしても良い。この結果、変換に伴う画像歪みを考慮に入れた形で、白線をより確実に検出することができる。   In addition, when the converted image is used as the processing target image, information indicating the conversion level for converting each pixel of the captured image around the vehicle into each pixel of the converted image can be referred to, and the conversion level is set. Accordingly, it is divided into one or a plurality of image areas, and for each divided image area, the edge extraction filter used for extracting the edge candidate area is changed, and the edge portion luminance value histogram of each image area is changed. You may make it produce by dividing | segmenting. As a result, it is possible to more reliably detect the white line in a form that takes image distortion accompanying conversion into consideration.

さらに、エッジ部輝度値ヒストグラムを作成する際に、エッジ候補領域における各画素の輝度値の平均値、エッジ候補領域の周辺領域における各画素の輝度値の平均値、エッジ候補領域のエッジ明部とエッジ暗部との出現位置、エッジ候補領域のエッジ明部とエッジ暗部との輝度差、のうち、いずれか1ないし複数に基づいて、処理対象画像を1ないし複数の画像領域に分割し、分割した各画像領域それぞれに対応するエッジ部輝度値ヒストグラムを、1ないし複数、作成するようにしても良い。この結果、日射しや日陰の影響を考慮に入れて、白線をより確実に検出することができる。   Further, when creating the edge portion luminance value histogram, the average value of the luminance value of each pixel in the edge candidate region, the average value of the luminance value of each pixel in the peripheral region of the edge candidate region, the edge bright portion of the edge candidate region, and The processing target image is divided into one or a plurality of image regions based on one or more of the appearance position with the edge dark portion and the luminance difference between the edge bright portion and the edge dark portion of the edge candidate region. One or a plurality of edge portion luminance value histograms corresponding to the respective image regions may be created. As a result, the white line can be detected more reliably in consideration of the influence of sunlight and shade.

また、複数の撮像部(カメラ)を車両の複数の箇所に搭載して、各撮像部で撮像された複数の車両周囲撮像画像を一つの統合画像に統合して、該統合画像を処理対象画像として出力するようにして、車両のより広範な範囲で、白線を検出するようにしても良い。   In addition, a plurality of imaging units (cameras) are mounted at a plurality of locations on the vehicle, a plurality of vehicle surroundings captured by each imaging unit are integrated into one integrated image, and the integrated image is processed as a processing target image. And the white line may be detected in a wider range of the vehicle.

(本発明の第1の実施形態の構成)
まず、本発明による白線検出装置の構成についてその一例を説明する。本発明による白線検出装置の主要部の第1の実施形態における構成例を図1に示す。なお、図1には、本発明に直接関連する構成要素のみを示している。図1に示すように、本発明の白線検出装置は、車両に搭載された撮像部Aと記憶部Bと演算部Cとを少なくとも備えている。
(Configuration of the first embodiment of the present invention)
First, an example of the configuration of the white line detection device according to the present invention will be described. A configuration example of the main part of the white line detection device according to the present invention in the first embodiment is shown in FIG. FIG. 1 shows only the components directly related to the present invention. As shown in FIG. 1, the white line detection device of the present invention includes at least an imaging unit A, a storage unit B, and a calculation unit C mounted on a vehicle.

撮像部Aは、CCDなどの撮像素子を備えたカメラ(CCDカメラなどの撮像機器)からなり、車両周囲の画像を撮像して記憶部Bに車両周囲撮像画像として格納する画像取得手段を構成しており、例えば、図2に示すように、車両後方を車両周囲撮像画像として撮像するために、車両後部に設置されている。図2は、本発明による白線検出装置の撮像部Aの設置場所の一例を示す配置図であり、図2(a)は側面図を、図2(b)は平面図を示している。   The imaging unit A includes a camera (an imaging device such as a CCD camera) provided with an imaging element such as a CCD, and constitutes an image acquisition unit that captures an image around the vehicle and stores it in the storage unit B as a vehicle surrounding captured image. For example, as shown in FIG. 2, it is installed at the rear of the vehicle in order to capture the rear of the vehicle as a vehicle surrounding captured image. 2A and 2B are layout diagrams showing an example of the installation location of the imaging unit A of the white line detection device according to the present invention. FIG. 2A is a side view and FIG. 2B is a plan view.

ただし、本発明における撮像部Aの設置場所としては、かかる場合に限るものではなく、車両側方を撮像するためにドアミラー下部などの車両側部に設置されていても良いし、車両前方を撮像するために車両前部に設置されていても良い。また、撮像部Aの台数として、1台のみに限ることなく、複数台、設置するようにしても良い。   However, the installation location of the imaging unit A in the present invention is not limited to such a case, and it may be installed on a vehicle side portion such as a lower part of a door mirror in order to image the side of the vehicle, or the front of the vehicle is imaged. In order to do so, it may be installed at the front of the vehicle. Further, the number of imaging units A is not limited to one, and a plurality of imaging units A may be installed.

記憶部Bは、撮像した車両周囲撮像画像を記憶する画像メモリ部B01と白線検出用の各種データを記憶するデータメモリ部B02とによって構成されている。   The storage unit B includes an image memory unit B01 that stores a captured image around the vehicle and a data memory unit B02 that stores various data for detecting a white line.

画像メモリ部B01は、RAM(Random Access Memory)等の記憶装置により構成されており、撮像部Aによって撮像された車両周囲撮像画像を記憶する。データメモリ部B02は、RAM等の記憶装置により構成されており、路面上の白線を検出するために実施される演算処理や抽出処理によって出力される各種のデータを一時的に記憶する。   The image memory unit B01 is configured by a storage device such as a RAM (Random Access Memory), and stores the vehicle periphery captured image captured by the imaging unit A. The data memory unit B02 is configured by a storage device such as a RAM, and temporarily stores various data output by arithmetic processing or extraction processing performed to detect a white line on the road surface.

つまり、データメモリ部B02は、画像メモリ部B01に記憶された車両周囲撮像画像そのものを画像処理用の処理対象画像として転送して記憶したり、該処理対象画像として、車両周囲撮像画像のあらかじめ定めた間隔ごとの画素のみになるように画素数を間引いた圧縮画像を記憶したり、該処理対象画像として、あらかじめ定めた方向にある視点位置からの画像に変換した変換画像を記憶したりする。   That is, the data memory unit B02 transfers and stores the vehicle surrounding captured image itself stored in the image memory unit B01 as a processing target image for image processing, or predetermines a vehicle surrounding captured image as the processing target image. A compressed image in which the number of pixels is thinned out so as to include only pixels at every interval is stored, or a converted image converted into an image from a viewpoint position in a predetermined direction is stored as the processing target image.

また、データメモリ部B02は、処理対象画像の輝度値の出現頻度を算出することにより、各輝度値の出現頻度を輝度値ヒストグラムとして記憶したり、輝度値ヒストグラムの出現頻度に基づいて抽出されたエッジ候補領域のうち、白線候補領域と推定されるエッジ候補領域を用いることにより算出される、ピーク輝度値レベルよりもあらかじめ定めた所定値だけ低い近傍の輝度値を2値化閾値として記憶したりする。さらに、データメモリ部B02は、該2値化閾値を用いて処理対象画像を2値化画像に変換して記憶したり、2値化画像から白線を抽出して記憶したり、抽出した白線に関する情報を外部に出力可能な形に編集して記憶したりする。   Further, the data memory unit B02 calculates the appearance frequency of the luminance value of the processing target image, thereby storing the appearance frequency of each luminance value as a luminance value histogram, or extracted based on the appearance frequency of the luminance value histogram. Among the edge candidate areas, the brightness value near the peak brightness value level, which is calculated by using the edge candidate area estimated as the white line candidate area, is stored as a binarization threshold. To do. Further, the data memory unit B02 converts the processing target image into a binarized image using the binarization threshold value and stores it, extracts a white line from the binarized image and stores it, or relates to the extracted white line Edit and store information in a form that can be output to the outside.

演算部Cは、プロセッサなどの周知の情報処理装置によって構成されており、画像編集部C01、エッジ部位抽出部C02、エッジ部輝度値ヒストグラム作成部C03、2値化閾値決定部C04、白線算出部C05および結果出力部C06を少なくとも有している。   The calculation unit C is configured by a known information processing device such as a processor, and includes an image editing unit C01, an edge part extraction unit C02, an edge portion luminance value histogram creation unit C03, a binarization threshold value determination unit C04, and a white line calculation unit. C05 and the result output unit C06 are included.

ここで、画像編集部C01は、撮像された車両周囲撮像画像を処理対象画像として編集する部位であり、エッジ部位抽出部C02は、処理対象画像の輝度値の変化状況に基づいてエッジ候補領域を抽出する部位である。また、エッジ部輝度値ヒストグラム作成部C03は、エッジ候補領域のうち白線候補領域と推定されるエッジ候補領域における各画素の輝度値の出現頻度を示すエッジ部輝度値ヒストグラムを作成する部位である。   Here, the image editing unit C01 is a part that edits a captured vehicle surrounding captured image as a processing target image, and the edge part extracting unit C02 selects an edge candidate region based on a change in luminance value of the processing target image. This is the part to be extracted. The edge part luminance value histogram creation unit C03 is a part that creates an edge part luminance value histogram indicating the appearance frequency of the luminance value of each pixel in the edge candidate area estimated as the white line candidate area among the edge candidate areas.

また、2値化閾値決定部C04は、白線候補領域と推定されるエッジ候補領域におけるピーク輝度値近傍の輝度値を、処理対象画像の2値化を行うための2値化閾値として決定する部位であり、白線算出部C05は、2値化閾値を用いて、処理対象画像を2値化画像に変換し、変換された2値化画像に基づいて白線を検出する部位である。また、結果出力部C06は、検出した白線に関する情報を外部に出力可能な形式に編集して出力する部位である。   Further, the binarization threshold value determination unit C04 determines a luminance value near the peak luminance value in the edge candidate region estimated as the white line candidate region as a binarization threshold value for binarizing the processing target image. The white line calculation unit C05 is a part that converts a processing target image into a binarized image using a binarization threshold and detects a white line based on the converted binarized image. The result output unit C06 is a part that edits and outputs information related to the detected white line to a format that can be output to the outside.

つまり、演算部Cは、内部CPU(Central Processing Unit:中央演算処理装置)によって各種の処理プログラムを実行することにより、本発明に係る画像編集手段を実現する画像編集部C01の機能、エッジ部抽出手段を実現するエッジ部位抽出部C02の機能、エッジ部輝度値ヒストグラム作成手段を実現するエッジ部輝度値ヒストグラム作成部C03の機能、2値化閾値決定手段を実現する2値化閾値決定部C04の機能、白線検出手段を実現する白線算出部C05の機能、および、結果出力手段を実現する結果出力部C06の機能を実現している。   In other words, the calculation unit C executes various processing programs by an internal CPU (Central Processing Unit) to extract the functions of the image editing unit C01 that realizes the image editing unit according to the present invention, and edge portion extraction. The function of the edge part extraction unit C02 that realizes the means, the function of the edge portion luminance value histogram creation unit C03 that realizes the edge portion luminance value histogram creation unit, and the binarization threshold value determination unit C04 that realizes the binarization threshold value determination unit The function of the white line calculation part C05 which implement | achieves a function, a white line detection means, and the function of the result output part C06 which implement | achieves a result output means are implement | achieved.

なお、画像編集部C01は、車両周囲撮像画像をそのまま処理対象画像として出力することもできるし、複数の車両周囲撮像画像を1つの統合画像に統合して処理対象画像として出力することもできるし、さらには、車両周囲撮像画像や統合画像の画素数を間引いた圧縮画像を作成して処理対象画像として出力する圧縮画像作成部C01aや車両周囲撮像画像や統合画像をあらかじめ定めた方向の視点位置から眺めた変換画像に変換して処理対象画像として出力する変換画像作成部C01bをさらに含んで構成されている。   The image editing unit C01 can output the vehicle surrounding captured image as it is as a processing target image, or can integrate a plurality of vehicle surrounding captured images into one integrated image and output it as a processing target image. Further, a compressed image creation unit C01a that creates a compressed image obtained by thinning out the number of pixels of the vehicle surrounding captured image or the integrated image and outputs it as a processing target image, or a viewpoint position in a predetermined direction for the vehicle surrounding captured image or the integrated image It further includes a converted image creation unit C01b that converts the image into a converted image viewed from above and outputs it as a processing target image.

ここで、圧縮画像作成手段を実現する圧縮画像作成部C01aは、例えば、車両周囲撮像画像や統合画像の中から、あらかじめ定めた間隔ごとに、車両の縦方向および/または横方向に直線状に配置されている画素のみを抽出して、あるいは、車両内部あるいは車両周辺のあらかじめ定めた1ないし複数の中心またはあらかじめ定めた2つの焦点から見て、あらかじめ定めた間隔ごとに、同心円状または楕円状に配置されている各画素のみを抽出して、画素数を間引きした圧縮画像を処理対象画像としてデータメモリ部B02に格納するものである。圧縮画像作成部C01aは、記憶部Bの記憶容量や白線の検出速度如何によっては、必ずしも必須のものではないが、白線の検出速度のより一層の向上を図るためには、圧縮画像作成部C01aを備えていることが望ましい。   Here, the compressed image creating unit C01a that realizes the compressed image creating unit linearly extends in the longitudinal direction and / or the lateral direction of the vehicle at predetermined intervals from, for example, the vehicle periphery captured image and the integrated image. Extract only the arranged pixels, or concentric circles or ellipses at predetermined intervals as seen from one or more predetermined centers or two predetermined focal points inside or around the vehicle In this case, only the pixels arranged in are extracted, and a compressed image obtained by thinning out the number of pixels is stored in the data memory unit B02 as a processing target image. The compressed image creation unit C01a is not necessarily required depending on the storage capacity of the storage unit B and the white line detection speed, but in order to further improve the white line detection speed, the compressed image creation unit C01a It is desirable to have.

また、変換画像作成手段を実現する変換画像作成部C01bは、撮像部Aの車両への搭載位置や撮像部Aの搭載台数の如何によっては、必ずしも必須のものではないが、図2に示すように、車両後方の撮像用として1台の撮像部Aのみが搭載されているような場合には、路面上の白線の検出処理をより確実に行うことができるように、例えば、車両の上方向から見下ろした俯瞰画像に変換するために、変換画像作成部C01bを備えていることが望ましい。   Further, the converted image creating unit C01b that realizes the converted image creating means is not necessarily required depending on the mounting position of the imaging unit A on the vehicle or the number of the mounted imaging units A, but as shown in FIG. In addition, when only one imaging unit A is mounted for imaging the rear of the vehicle, for example, in the upward direction of the vehicle, the white line detection process on the road surface can be performed more reliably. In order to convert to a bird's-eye view image looking down from above, it is desirable to include a converted image creation unit C01b.

また、エッジ部抽出手段を実現するエッジ部位抽出部C02の機能、エッジ部輝度値ヒストグラム作成手段を実現するエッジ部輝度値ヒストグラム作成部C03についても、撮像部Aの車両への搭載位置や撮像部Aの搭載台数、撮像画像の画質の如何によっては、エッジ候補領域に限らず、車両周囲の撮像画像または撮像画像を圧縮して作成された圧縮画像または撮像画像の視点位置を変換して作成された変換画像の全体の領域について、各画素の輝度値を算出して、各輝度値の出現頻度を輝度値ヒストグラムとして作成する輝度値ヒストグラム作成手段の形式に構成するようにしても良い。   Further, the function of the edge part extraction unit C02 that realizes the edge part extraction unit and the edge unit luminance value histogram creation unit C03 that realizes the edge unit luminance value histogram creation unit also include the mounting position of the imaging unit A on the vehicle and the imaging unit. Depending on the number of mounted A and the image quality of the captured image, the image is not limited to the edge candidate region, and is created by converting the captured image around the vehicle or the compressed image created by compressing the captured image or the viewpoint position of the captured image. The luminance value of each pixel may be calculated for the entire area of the converted image, and the luminance value histogram creating means for creating the appearance frequency of each luminance value as a luminance value histogram may be configured.

なお、画像編集部C01、エッジ部位抽出部C02、エッジ部輝度値ヒストグラム作成部C03、2値化閾値決定部C04、白線算出部C05および結果出力部C06の各機能の詳細については後述する。   Details of the functions of the image editing unit C01, the edge part extraction unit C02, the edge portion luminance value histogram creation unit C03, the binarization threshold value determination unit C04, the white line calculation unit C05, and the result output unit C06 will be described later.

(第1の実施形態の動作)
次に、本発明の第1の実施形態として示した図1の白線検出装置の動作の一例について、図3のフローチャートを用いて説明する。図3は、本発明による白線検出装置の動作の第1の実施形態を説明するためのフローチャートであり、本発明による白線検出方法の一例を示している。なお、図3のフローチャートにおいては、画像編集部C01として、変換画像作成部C01bを用いて、車両周囲撮像画像を車両の上方向から見下ろした俯瞰画像に変換し、かつ、輝度値ヒストグラム作成手段として、エッジ部位抽出部C02によりエッジ候補領域を抽出して、エッジ部輝度値ヒストグラム作成部C03により白線候補領域と推定されるエッジ候補領域を含む領域における各画素の輝度値の出現頻度を示すエッジ部輝度値ヒストグラムを作成している場合を示している。
(Operation of the first embodiment)
Next, an example of the operation of the white line detection device of FIG. 1 shown as the first embodiment of the present invention will be described using the flowchart of FIG. FIG. 3 is a flowchart for explaining the first embodiment of the operation of the white line detection apparatus according to the present invention, and shows an example of the white line detection method according to the present invention. In the flowchart of FIG. 3, as the image editing unit C01, the converted image creation unit C01b is used to convert the captured image around the vehicle into an overhead view image looking down from above the vehicle, and as a brightness value histogram creation unit. An edge portion indicating the frequency of appearance of the luminance value of each pixel in the region including the edge candidate region estimated as the white line candidate region by the edge portion luminance value histogram creation unit C03 by extracting the edge candidate region by the edge part extraction unit C02 The case where the brightness value histogram is created is shown.

つまり、図3のフローチャートは、車両周囲の撮像画像を車両上方向から眺めた俯瞰画像に変換することにより作成された処理対象画像について、各画素の輝度値の変化状況から、あらかじめ定めた閾値よりも大きい変化がある領域をエッジ候補領域として抽出して、該エッジ候補領域の中から、白線候補領域と推定されるエッジ候補領域に限定して、各画素の輝度値の出現頻度を示すエッジ部輝度値ヒストグラムを作成することによって、処理対象画像を2値化の画像に変換するための2値化閾値を決定し、該2値化閾値を用いて処理対象画像を2値化画像に変換して、その中から、白線を抽出する動作の一例を説明している。   That is, the flowchart of FIG. 3 shows a processing target image created by converting a captured image around the vehicle into a bird's-eye view viewed from above the vehicle according to a predetermined threshold value based on a change in luminance value of each pixel. An edge portion that indicates the appearance frequency of the luminance value of each pixel by extracting an area having a large change as an edge candidate area and limiting the extracted edge candidate area to an edge candidate area estimated as a white line candidate area. By creating a luminance value histogram, a binarization threshold for converting the processing target image into a binarized image is determined, and the processing target image is converted into a binarized image using the binarization threshold. An example of the operation for extracting a white line from the above is described.

図3のフローチャートにおいて、まず、車両後方に搭載された撮像部A(画像取得手段)によって撮像された車両周囲の画像を取得し、画像メモリ部B01に格納する(ステップD01)。ここで、車両周囲の撮像画像をそのまま処理対象の画像とする代わりに、画像編集部C01の圧縮画像作成部C01aにより、画像メモリ部B01に格納した処理対象の画像からあらかじめ定めた間隔ごとの画素のみを抽出した圧縮画像を、一旦、処理対象の画像として作成して、データメモリ部B02に格納するようにしても良い。   In the flowchart of FIG. 3, first, an image around the vehicle imaged by the imaging unit A (image acquisition means) mounted on the rear side of the vehicle is acquired and stored in the image memory unit B01 (step D01). Here, instead of using the picked-up image around the vehicle as the processing target image as it is, the compressed image creating unit C01a of the image editing unit C01 performs pixels at predetermined intervals from the processing target image stored in the image memory unit B01. A compressed image obtained by extracting only the image may be temporarily created as a processing target image and stored in the data memory unit B02.

次に、取得された車両周囲の撮像画像そのものまたは画素数が間引きされた圧縮画像を、あらかじめ定めた方向に視点位置が変換された変換画像例えば図4に示すような俯瞰画像(視点位置として車両の上方向から見下ろした画像)へ変換画像作成部C01bにて変換する(ステップD02)。この結果、図5に示すような変換画像(つまり、車両後方の俯瞰画像)が処理対象画像として作成される。図4は、撮像部Aにより撮像された車両周囲撮像画像を俯瞰画像に変換する様子を示す模式図であり、図5は、本発明の白線検出装置の変換画像作成部C01bにより変換画像として変換された俯瞰画像の一例を示すイメージ図である。   Next, the obtained captured image itself around the vehicle or a compressed image in which the number of pixels is thinned out is converted into a converted image in which the viewpoint position is converted in a predetermined direction, for example, an overhead image as shown in FIG. The converted image creating unit C01b converts the image into an image looking down from above (step D02). As a result, a converted image as shown in FIG. 5 (that is, an overhead image behind the vehicle) is created as a processing target image. FIG. 4 is a schematic diagram showing a state in which the vehicle surroundings image captured by the imaging unit A is converted into a bird's-eye view image, and FIG. 5 is converted as a converted image by the converted image creation unit C01b of the white line detection device of the present invention. It is an image figure which shows an example of the made bird's-eye view image.

なお、変換画像作成部C01bの画像変換方法としては、一般的には、Affine変換を用いる方法が知られているが、変換のための計算量の削減を狙って、図4(a)に示すように、例えば、撮像部Aにより取得された車両周囲撮像画像F01(または画素数が間引きされた圧縮画像)の各画素位置と変換後の俯瞰画像F02の各画素位置との画素ごとの変換場所があらかじめ登録された、変換マップF03を用いてもかまわない。撮像された車両周囲撮像画像を変換するための変換マップF03の具体的なイメージを、図4(b)に示している。   As an image conversion method of the converted image creation unit C01b, a method using Affine conversion is generally known. However, with the aim of reducing the amount of calculation for conversion, FIG. Thus, for example, the conversion location for each pixel between each pixel position of the vehicle surrounding captured image F01 (or a compressed image with the number of pixels thinned out) acquired by the imaging unit A and each pixel position of the overhead image F02 after conversion May use the conversion map F03 registered in advance. FIG. 4B shows a specific image of the conversion map F03 for converting the captured vehicle surrounding captured image.

次に、ステップD02にて処理対象画像として作成された変換画像(俯瞰画像)を基にして、エッジ部位抽出部C02を用いて、輝度値があらかじめ定めた閾値を超えて変化するエッジ候補領域を取得する(ステップD03)。例えば、図5の俯瞰画像上のG01のラインに沿って、G点からG’点までの輝度値を観察した場合、輝度値の変化は、図6の曲線H01のようになる。この曲線H01の1次微分を行った結果が曲線H02となり、2次微分を行った結果が曲線H03となる。   Next, based on the converted image (overhead image) created as the processing target image in step D02, an edge candidate region whose luminance value changes beyond a predetermined threshold is determined using the edge part extraction unit C02. Obtain (step D03). For example, when the luminance value from the point G to the point G ′ is observed along the line G01 on the bird's-eye view image in FIG. 5, the change in the luminance value is as shown by a curve H01 in FIG. The result of the first derivative of the curve H01 is the curve H02, and the result of the second derivative is the curve H03.

ここで、図6は、図5の変換画像(俯瞰画像)の輝度値およびその一次微分値、二次微分値を示すグラフであり、横軸に図5のG01ライン上の位置を示し、縦軸にそれぞれの位置における輝度値およびその一次微分値、二次微分値を、丸印、×印、■印でプロットして示している。図6において、曲線H01の輝度値があらかじめ定めた所定の輝度値閾値H01aを超えていて、かつ、曲線H02、H03の1次、2次微分値のいずれかがそれぞれに対応するあらかじめ定めた所定の微分輝度値閾値H02a、H03aを超える値を有している部位を、輝度値の変化が大きいエッジ候補領域として抽出する。その結果、該エッジ候補部位には、白線候補領域と推定される領域が含まれていることになる。   Here, FIG. 6 is a graph showing the luminance value of the converted image (overhead image) of FIG. 5 and its primary differential value and secondary differential value. The horizontal axis indicates the position on the G01 line of FIG. On the axis, the luminance values at the respective positions and the primary differential values and secondary differential values thereof are plotted by circles, x marks, and ■ marks. In FIG. 6, the luminance value of the curve H01 exceeds a predetermined luminance value threshold value H01a, and a predetermined predetermined value corresponding to one of the primary and secondary differential values of the curves H02 and H03, respectively. A portion having a value exceeding the differential luminance value thresholds H02a and H03a is extracted as an edge candidate region having a large change in luminance value. As a result, the edge candidate region includes a region estimated as a white line candidate region.

なお、エッジ候補領域の抽出に利用する手法として、ここでは、1次、2次の微分値を用いる場合について説明したが、かかる場合のみに限るものではなく、画像処理分野においてエッジ検出用として一般的に利用されているSobel手法等他の手法を用いてももちろんかまわない。   Note that, as a technique used for extraction of edge candidate regions, the case where primary and secondary differential values are used has been described here. However, the method is not limited to such a case, and is generally used for edge detection in the image processing field. Of course, other methods such as the Sobel method that is commonly used may be used.

さらに、ステップD03にて得られた輝度値の変化が大きいエッジ候補部位の画像の輝度値を利用して、図6に示す画像全体のエッジ候補領域のうち、図7の下半分に示すように、白線候補領域と推定されるエッジ候補領域のみに限定した輝度値の出現頻度をプロットしたエッジ部輝度値ヒストグラムをエッジ部輝度値ヒストグラム作成部C03において作成し、データメモリ部B02に保存する(ステップD04)。   Further, as shown in the lower half of FIG. 7, among the edge candidate areas of the entire image shown in FIG. 6, using the brightness value of the image of the edge candidate part having a large change in brightness value obtained in step D03. The edge portion luminance value histogram creation unit C03 creates an edge portion luminance value histogram in which the appearance frequency of luminance values limited to only the edge candidate region estimated as the white line candidate region is plotted, and is stored in the data memory unit B02 (step S22). D04).

図7は、図6のエッジ候補領域のうち、白線候補領域と推定されるエッジ候補領域として抽出された領域の輝度値に関するヒストグラム(エッジ部輝度値ヒストグラム)を示すグラフであり、横軸に輝度値(図の左側に進むほど暗く、右側に進むほど明るい)を示し、縦軸に、各輝度値の出現頻度を示している。なお、図7には、上側方向に向かって、画像全体の輝度値に関するヒストグラムi01を、また、下側方向に向かって、エッジ候補部位のみの輝度値に関するヒストグラムi02を、それぞれ、示している。   FIG. 7 is a graph showing a histogram (edge portion luminance value histogram) regarding the luminance value of an area extracted as an edge candidate area estimated as a white line candidate area among the edge candidate areas in FIG. A value (darker as it goes to the left side of the figure and brighter as it goes to the right side) is shown, and the vertical axis shows the appearance frequency of each luminance value. FIG. 7 shows a histogram i01 related to the luminance value of the entire image in the upward direction, and a histogram i02 related to the luminance value of only the edge candidate portion in the downward direction.

例えば、画像全体のヒストグラムを算出した場合、図7の曲線i01のように、輝度値が高く(明るく)、かつ、狭い範囲に存在し、面積が小さい白線候補領域と推定される白線部領域i01aと、輝度値が比較的低く(比較的暗く)、かつ、広い範囲に存在し、面積が大きい白線候補領域とは異なる様相を呈する路面領域i01bとにそれぞれピーク輝度値を有する輝度値ヒストグラムi01が得られる。   For example, when the histogram of the entire image is calculated, a white line portion region i01a that is estimated to be a white line candidate region having a high brightness value (bright) and existing in a narrow range with a small area, as indicated by a curve i01 in FIG. And a brightness value histogram i01 having a peak brightness value in a road surface area i01b that has a relatively low brightness value (relatively dark), exists in a wide range, and has a different aspect from a white line candidate area having a large area. can get.

次いで、輝度値ヒストグラムi01において、ピーク輝度値を有する出現頻度が高い2つの輝度値領域のうち、白線候補領域と推定され、狭い範囲でかつより高い輝度値を示す白線部領域i01aの部分に相当する、エッジ候補領域のみに注目して、エッジ部輝度値ヒストグラムi02を作成する。   Next, in the luminance value histogram i01, it is estimated as a white line candidate region out of two luminance value regions having a peak luminance value and a high appearance frequency, and corresponds to a portion of the white line portion region i01a showing a higher luminance value in a narrow range. The edge portion luminance value histogram i02 is generated by paying attention only to the edge candidate region.

白線候補領域と推定されるエッジ候補領域のみに限定してエッジ部輝度値ヒストグラムi02を作成した場合、図7の曲線i02に示すように、エッジ部位の明るい部分(明部)と暗い部分(暗部)とにピークを有する輝度値ヒストグラムが得られる。これは、エッジ部分のエッジ部輝度値ヒストグラムi02においては、エッジ部位の明るい部分(明部)と暗い部分(暗部)とにヒストグラムとしてより多くの頻度値投票をすることになるためである。なお、曲線i02の場合、前述のように、頻度値の正負が画像全体のヒストグラムi01と逆転していて、図7の下方向に進む程、頻度値が高くなる。   When the edge portion luminance value histogram i02 is created only for the edge candidate region estimated as the white line candidate region, as shown by the curve i02 in FIG. 7, the bright part (bright part) and the dark part (dark part) of the edge part are shown. ) And a luminance value histogram having peaks. This is because, in the edge portion luminance value histogram i02 of the edge portion, more frequency value voting is performed as a histogram on the bright portion (bright portion) and the dark portion (dark portion) of the edge portion. In the case of the curve i02, as described above, the frequency value becomes higher as the frequency value is reversed with respect to the histogram i01 of the entire image and proceeds downward in FIG.

前述のように、エッジ部位のみに注目したエッジ部輝度値ヒストグラムi02の場合、白線部位i02aに相当する輝度値と、白線の周辺部(例えば路面)i02bの輝度値とにそれぞれ相当する部位の輝度値とが高い出現頻度として出力されることになる。つまり、エッジ候補領域の明部と暗部とに、それぞれのピーク輝度値i03,i04を有するヒストグラムが得られる。このエッジ部輝度値ヒストグラムi02は、エッジ候補領域以外の影響を受けることがないヒストグラムとなっており、処理対象画像の2値化を行うための閾値を安定した状態で決定することが可能となっている。   As described above, in the case of the edge portion luminance value histogram i02 focusing only on the edge portion, the luminance values corresponding to the luminance value corresponding to the white line portion i02a and the luminance value corresponding to the white line peripheral portion (for example, road surface) i02b, respectively. The value is output as a high appearance frequency. That is, histograms having respective peak luminance values i03 and i04 are obtained in the bright and dark portions of the edge candidate region. This edge portion luminance value histogram i02 is a histogram that is not affected by any area other than the edge candidate area, and it is possible to determine a threshold value for binarizing the processing target image in a stable state. ing.

次に、ステップD04にて得られた白線候補領域と推定されるエッジ候補領域の図7のようなエッジ部輝度値ヒストグラムi02を用いて、2値化閾値決定部C04において、白線候補領域と推定されるエッジ候補領域におけるピーク輝度値近傍の輝度値を、処理対象画像の2値化を行うための2値化閾値として決定して、データメモリ部B02に保存する(ステップD05)。   Next, using the edge portion luminance value histogram i02 as shown in FIG. 7 of the edge candidate region estimated as the white line candidate region obtained in step D04, the binarization threshold value determination unit C04 estimates the white line candidate region. The luminance value near the peak luminance value in the edge candidate area to be processed is determined as a binarization threshold for binarizing the processing target image, and stored in the data memory unit B02 (step D05).

つまり、エッジ部のエッジ部輝度値ヒストグラムi02は、輝度値の一次微分値、二次微分値を用いて、輝度値があらかじめ定めた閾値を超えて変化する部位の輝度値を観察するようにしているため、図7に示すように、そのピークは、明部として白線であると推定される部位のピーク輝度値i03と、暗部として白線に隣接している周辺(例えば路面)と推定される部位のピーク輝度値i04との2箇所に出現している。この特性を利用して、ピーク輝度値i03とピーク輝度値i04との間にあり、かつ、白線であると推定され、より輝度値が高い位置でピーク値を示すピーク輝度値i03よりもあらかじめ定めた所定値だけ小さい図7に示す輝度値i05を、2値化を行うための白黒判定用の2値化閾値i05として決定する。   That is, the edge portion luminance value histogram i02 of the edge portion uses the primary differential value and the secondary differential value of the luminance value so as to observe the luminance value of the part where the luminance value changes beyond a predetermined threshold value. Therefore, as shown in FIG. 7, the peak is a peak luminance value i03 of a part estimated to be a white line as a bright part and a part estimated to be a periphery (for example, a road surface) adjacent to the white line as a dark part. Appear at two locations with the peak luminance value i04. Using this characteristic, it is estimated to be a white line between the peak luminance value i03 and the peak luminance value i04, and is determined in advance than the peak luminance value i03 indicating the peak value at a higher luminance value. The luminance value i05 shown in FIG. 7 that is smaller by the predetermined value is determined as the binarization threshold value i05 for monochrome determination for binarization.

次に、白線算出部C05において、ステップD04にて得られた2値化閾値i05を用いて、ステップD02にて処理対象画像として作成された変換画像(俯瞰画像)を、図8に示すような2値化画像に変換して、該2値化画像の中から、2値のうち白の値を有する領域を探索することにより、白線の抽出を行って、データメモリ部B02に保存する(ステップD06)。図8は、車両周囲撮像画像を変換した変換画像(俯瞰画像)に関して白線候補領域を含む領域を2値化した2値化画像の一例を示すイメージ図である。   Next, in the white line calculation unit C05, using the binarized threshold value i05 obtained in step D04, the converted image (overhead image) created as the processing target image in step D02 is as shown in FIG. By converting to a binarized image and searching for an area having a white value in the binarized image from the binarized image, a white line is extracted and stored in the data memory unit B02 (step D06). FIG. 8 is an image diagram illustrating an example of a binarized image obtained by binarizing a region including a white line candidate region with respect to a converted image (overhead image) obtained by converting a vehicle surrounding captured image.

ここで、白線の抽出方法としては、例えば、白線候補領域が存在する2値化画像について、領域の輪郭部を白線の輪郭候補として、Hough変換を行い、白線の直線成分を抽出する処理などを行うようにすれば良い。最後に、結果出力部C06を用いて、ステップD06において抽出された白線の部位に関する情報を、外部に出力可能な内容に編集して、データメモリ部B02の所定領域に蓄積することにより、外部に出力する。   Here, as a white line extraction method, for example, processing for extracting a linear component of a white line by performing Hough conversion on a binarized image in which a white line candidate area exists, using the outline portion of the area as a white line outline candidate, and the like. You should do it. Finally, by using the result output unit C06, the information on the part of the white line extracted in step D06 is edited into contents that can be output to the outside, and stored in a predetermined area of the data memory unit B02. Output.

以上の図3のような手順により、処理対象画像の各画素の輝度値を利用して、白線を抽出する2値化画像を作成するための2値化閾値を決定することによって、例えば、車両位置から4〜5m離れた車両周囲領域にあって、歪みが大きく、エッジ部が抽出しにくい部位がある画像についても、あるいは、曇っていて明瞭な影がなく不鮮明な画像のような場合であっても、輝度値が急峻に変化するエッジ部の検出の如何に関係なく、白線とその周辺部分とを2値化によって分離することが可能となり、白線の非検出・誤検出を低減することが可能となる。   By determining the binarization threshold value for creating the binarized image for extracting the white line using the luminance value of each pixel of the processing target image by the procedure as shown in FIG. This is also the case for an image in a vehicle surrounding area that is 4 to 5 m away from the position, where there is a portion where the distortion is large and the edge portion is difficult to extract, or a cloudy image with no clear shadow and an unclear image. However, the white line and its peripheral part can be separated by binarization irrespective of the detection of the edge part where the luminance value changes sharply, and the non-detection / false detection of the white line can be reduced. It becomes possible.

つまり、処理対象画像の各画素の輝度値の出現頻度に基づいて、2値化閾値を決定して、該処理対象画像の2値化を行った結果を用いて、白線を検出するように構成しているので、急峻な輝度値の変化を検出することができたエッジ部のみを用いて白線の検出を行う場合に生じる白線の非検出や誤検出を低減させることが可能になり、たとえ、輝度値の変化が緩やかで、白線部位のエッジ部の検出が困難な画像を処理対象画像として用いる場合であっても、白線を確実に検出することが可能になる。   In other words, the configuration is such that the binarization threshold is determined based on the appearance frequency of the luminance value of each pixel of the processing target image, and the white line is detected using the binarization result of the processing target image. Therefore, it is possible to reduce white line non-detection and false detection that occur when white line detection is performed using only the edge portion that can detect a sharp change in luminance value. Even when an image in which the change in luminance value is gradual and it is difficult to detect the edge portion of the white line portion is used as the processing target image, the white line can be reliably detected.

さらに、白線候補領域と推定されるエッジ候補領域に限定したエッジ部輝度値ヒストグラムを作成することにより、白線が有すると推定される輝度値と、白線の周囲の領域が有すると推定される輝度値とを算出することが可能となり、白線候補領域の画像の輝度値に応じて、適切な2値化閾値が設定することができるようになり、白線領域をより安定して抽出することが可能となる。   Furthermore, by creating an edge portion luminance value histogram limited to the edge candidate region estimated as the white line candidate region, the luminance value estimated to have the white line and the luminance value estimated to have the region around the white line And an appropriate binarization threshold can be set according to the luminance value of the image of the white line candidate area, and the white line area can be extracted more stably. Become.

つまり、2値化閾値を決定する際に、処理対象画像全体の領域を扱うのではなく、白線候補領域が存在する一部の画像領域のみを対象とすることによって、2値化閾値をより適切な値に決定することができ、白線の誤検出をより確実に防止することが可能になる。さらには、処理の対象となるデータ量を、処理対象画像全体を対象とする場合よりも低減することができるので、白線の検出処理速度を速くすることも可能になる。   That is, when determining the binarization threshold, the binarization threshold is more appropriate by targeting only a part of the image area where the white line candidate area exists, instead of handling the entire area to be processed. Therefore, it is possible to more reliably prevent erroneous detection of white lines. Furthermore, since the amount of data to be processed can be reduced as compared with the case where the entire processing target image is targeted, the white line detection processing speed can be increased.

なお、前述のように、撮像部Aの車両への搭載位置や搭載台数如何によっては、変換画像作成部C01bにより視点を変換した変換画像を生成することなく、撮像部Aにて撮像された車両周囲撮像画像そのもの、あるいは、圧縮画像作成部C01aにより車両周囲撮像画像から画素数を間引きした圧縮画像を、処理対象画像として、用いるようにしても良い。   As described above, the vehicle imaged by the imaging unit A without generating a converted image whose viewpoint has been converted by the converted image creation unit C01b, depending on the mounting position and the number of the imaging unit A mounted on the vehicle. The surrounding captured image itself or a compressed image obtained by thinning the number of pixels from the vehicle surrounding captured image by the compressed image creation unit C01a may be used as the processing target image.

また、撮像部Aの車両への搭載位置や搭載台数如何、撮像画像の画質如何によっては、前述のように、白線候補領域と推定されるエッジ候補領域に限定したエッジ部輝度値ヒストグラムを生成しないで、車両周囲撮像画像、あるいは、車両周囲撮像画像から画素数を間引きした圧縮画像に関する輝度値ヒストグラムを用いて、2値化画像を作成するための2値化閾値を決定するようにしても良い。   Further, as described above, the edge portion luminance value histogram limited to the edge candidate region estimated as the white line candidate region is not generated depending on the mounting position and the number of the imaging unit A mounted on the vehicle and the image quality of the captured image. Thus, the binarization threshold for creating the binarized image may be determined using the luminance image histogram regarding the vehicle surrounding captured image or the compressed image obtained by thinning the number of pixels from the vehicle surrounding captured image. .

(本発明の第2の実施形態の構成)
次に、本発明による白線検出装置の構成について、図1とは異なる構成例を説明する。本発明による白線検出装置の主要部の第2の実施形態における構成例を図9に示す。なお、図9には、本発明に直接関連する構成要素のみを示している。図9においても、図1の場合と同様に、本発明の白線検出装置は、車両に搭載された撮像部Aと記憶部Bと演算部Jとを少なくとも備えており、図1の演算部Cの代わりに、演算部Jを用いている。ここで、図9の撮像部A、記憶部Bは、図1の場合と同じであり、以下には、演算部Jについてのみ説明する。
(Configuration of second embodiment of the present invention)
Next, a configuration example of the white line detection device according to the present invention, which is different from FIG. 1, will be described. FIG. 9 shows a configuration example in the second embodiment of the main part of the white line detection device according to the present invention. FIG. 9 shows only components that are directly related to the present invention. Also in FIG. 9, as in the case of FIG. 1, the white line detection device of the present invention includes at least an imaging unit A, a storage unit B, and a calculation unit J mounted on the vehicle, and the calculation unit C of FIG. 1. Instead of the above, the calculation unit J is used. Here, the imaging unit A and the storage unit B in FIG. 9 are the same as those in FIG. 1, and only the calculation unit J will be described below.

演算部Jは、図1の場合と同様、プロセッサなどの周知の情報処理装置によって構成されており、画像編集部J01、エッジ部位抽出部J02、エッジ部輝度値ヒストグラム作成部J03、2値化閾値決定部J04、白線算出部J05および結果出力部J06を少なくとも有している。また、画像編集部J01は、車両周囲撮像画像を圧縮した圧縮画像を作成する圧縮画像作成部J01a、車両周囲撮像画像または圧縮画像を視点変換して変換画像を作成する変換画像作成部J01bを含んで構成している。   As in the case of FIG. 1, the calculation unit J is configured by a known information processing device such as a processor, and includes an image editing unit J01, an edge part extraction unit J02, an edge portion luminance value histogram creation unit J03, and a binarization threshold value. At least a determination unit J04, a white line calculation unit J05, and a result output unit J06 are included. The image editing unit J01 includes a compressed image creating unit J01a that creates a compressed image obtained by compressing a vehicle surrounding captured image, and a converted image creating unit J01b that creates a converted image by performing viewpoint conversion of the vehicle surrounding captured image or the compressed image. It consists of.

画像編集部J01、エッジ部位抽出部J02、エッジ部輝度値ヒストグラム作成部J03、2値化閾値決定部J04、白線算出部J05および結果出力部J06は、図1の各構成要素と、基本的にはほぼ同一の機能を実現するものの、結果出力部J06以外の各構成要素については、図1の変換画像作成部C01、エッジ部位抽出部C02、エッジ部輝度値ヒストグラム作成部C03、2値化閾値決定部C04、白線算出部C05のそれぞれとは、異なる機能を備えている。   The image editing unit J01, the edge part extraction unit J02, the edge portion luminance value histogram creation unit J03, the binarization threshold value determination unit J04, the white line calculation unit J05, and the result output unit J06 basically have the components shown in FIG. 1 implements substantially the same function, but for each component other than the result output unit J06, the converted image creation unit C01, edge part extraction unit C02, edge portion brightness value histogram creation unit C03 of FIG. Each of the determination unit C04 and the white line calculation unit C05 has a different function.

つまり、演算部Jは、内部CPU(Central Processing Unit:中央演算処理装置)によって各種のプログラムを実行することにより、図1の場合とは異なり、画像編集部J01の変換画像作成部J01bにおける処理対象画像の各画素の変換度合いの程度に応じて、あるいは、各画素の輝度値の分布状況に応じて、エッジ部位抽出部J02、エッジ部輝度値ヒストグラム作成部J03において、処理対象画像を1ないし複数の画像領域に分割する。   That is, the calculation unit J executes various programs by an internal CPU (Central Processing Unit), and unlike the case of FIG. 1, the calculation target J is processed in the converted image creation unit J01b of the image editing unit J01. Depending on the degree of conversion of each pixel of the image or depending on the distribution of the luminance value of each pixel, the edge part extraction unit J02 and the edge luminance value histogram creation unit J03 select one or more processing target images. Is divided into image areas.

しかる後、2値化閾値決定部J04において、分割した各画像領域それぞれのエッジ部輝度値ヒストグラムに基づいて、それぞれの画像領域に適用すべき2値化閾値を決定することにより、白線算出部J05において、各画像領域ごとにそれぞれ2値化画像に変換して、白線を抽出するという機能を実現している。   Thereafter, the binarization threshold value determination unit J04 determines a binarization threshold value to be applied to each image region based on the edge portion luminance value histogram of each divided image region, thereby obtaining a white line calculation unit J05. 2 realizes a function of converting each image area into a binarized image and extracting a white line.

かくのごとく、演算部Jは、図1の場合とは異なる画像編集手段を実現する画像編集部J01の機能、エッジ部抽出手段を実現するエッジ部位抽出部J02の機能、エッジ部輝度値ヒストグラム作成手段を実現するエッジ部輝度値ヒストグラム作成部J03の機能、2値化閾値決定手段を実現する2値化閾値決定部J04の機能、白線検出手段を実現する白線算出部J05の機能、を実行するとともに、図1の結果出力部C06の場合と全く同様に、結果出力手段を実現する結果出力部J06の機能を実行している。   As described above, the calculation unit J has a function of an image editing unit J01 that realizes an image editing unit different from the case of FIG. 1, a function of an edge part extraction unit J02 that realizes an edge unit extracting unit, and an edge portion luminance value histogram creation. The function of the edge portion luminance value histogram creation unit J03 that realizes the means, the function of the binarization threshold value determination unit J04 that realizes the binarization threshold value determination unit, and the function of the white line calculation unit J05 that realizes the white line detection unit In addition, the function of the result output unit J06 that implements the result output means is executed in the same manner as in the case of the result output unit C06 of FIG.

なお、画像編集部J01は、図1の画像編集部C01の場合と同様、車両周囲撮像画像をそのまま処理対象画像として出力することもできるし、複数の車両周囲撮像画像を1つの統合画像に統合して処理対象画像として出力することもできるし、さらには、圧縮画像作成部J01aにより車両周囲撮像画像や統合画像の画素数を圧縮した圧縮画像を作成して処理対象画像として出力することもできるし、変換画像作成部C01bにより車両周囲撮像画像や統合画像をあらかじめ定めた方向の視点位置から眺めた変換画像を作成して処理対象画像として出力することもできる。   As in the case of the image editing unit C01 in FIG. 1, the image editing unit J01 can output the vehicle surrounding captured image as it is as a processing target image, or can integrate a plurality of vehicle surrounding captured images into one integrated image. Then, it can be output as a processing target image, and further, a compressed image in which the number of pixels of the vehicle surrounding captured image and the integrated image is compressed can be generated by the compressed image generating unit J01a and output as the processing target image. Then, the converted image creation unit C01b can create a converted image obtained by viewing the vehicle periphery captured image and the integrated image from the viewpoint position in a predetermined direction, and output the converted image as a processing target image.

ここで、圧縮画像作成手段を実現する圧縮画像作成部J01aは、図1の圧縮画像作成部C01aと同様、例えば、車両周囲撮像画像や統合画像の中から、あらかじめ定めた間隔ごとに、車両の縦方向および/または横方向に直線状に配置されている画素のみを抽出して、あるいは、車両内部あるいは車両周辺のあらかじめ定めた1ないし複数の中心またはあらかじめ定めた2つの焦点から見て、あらかじめ定めた間隔ごとに、同心円状または楕円状に配置されている各画素のみを抽出して、画素数を間引きした圧縮画像を処理対象画像としてデータメモリ部B02に格納するものである。   Here, the compressed image creating unit J01a that realizes the compressed image creating unit is similar to the compressed image creating unit C01a in FIG. 1, for example, at a predetermined interval from the vehicle surrounding captured image or the integrated image. Extracting only pixels arranged in a straight line in the vertical direction and / or the horizontal direction, or by looking at one or more predetermined centers or two predetermined focal points inside or around the vehicle, Only the pixels arranged concentrically or elliptically are extracted at predetermined intervals, and a compressed image obtained by thinning out the number of pixels is stored in the data memory unit B02 as a processing target image.

圧縮画像作成部J01aは、記憶部Bの記憶容量や白線の検出速度如何によっては、必ずしも必須のものではないが、白線の検出速度のより一層の向上を図るためには、圧縮画像作成部J01aを備えていることが望ましい。   The compressed image creation unit J01a is not necessarily indispensable depending on the storage capacity of the storage unit B and the white line detection speed, but in order to further improve the white line detection speed, the compressed image creation unit J01a It is desirable to have.

また、変換画像作成手段を実現する変換画像作成部J01bは、車両周囲撮像画像や統合画像をあらかじめ定めた方向の視点位置から眺めた変換画像に変換して処理対象画像としてデータメモリ部B02に格納するものであるが、図1の変換画像作成部C01bとは異なり、変換画像に変換する際の各画素の変換度合いの大きさについても、変換画像と合わせて出力するように構成されている。変換画像作成部J01bは、撮像部Aの車両への搭載位置や撮像部Aの搭載台数の如何によっては、必ずしも必須のものではないが、図2に示すように、車両後方の撮像用として1台の撮像部Aのみが搭載されているような場合には、路面上の白線の検出処理をより確実に行うことができるように、例えば、車両の上方向から見下ろした俯瞰画像に変換するために、変換画像作成部J01bを備えていることが望ましい。   Also, the converted image generating unit J01b that realizes the converted image generating means converts the captured image around the vehicle and the integrated image into a converted image viewed from a viewpoint position in a predetermined direction and stores it as a processing target image in the data memory unit B02. However, unlike the converted image creation unit C01b of FIG. 1, the degree of conversion of each pixel when converted into a converted image is also output together with the converted image. The converted image creation unit J01b is not necessarily required depending on the mounting position of the imaging unit A in the vehicle or the number of the imaging units A mounted, but as shown in FIG. In the case where only the imaging unit A is mounted, for example, in order to convert to a bird's-eye view looking down from above the vehicle so that the white line detection process on the road surface can be performed more reliably In addition, it is desirable to include a converted image creation unit J01b.

また、エッジ部抽出手段を実現するエッジ部位抽出部J02の機能、エッジ部輝度値ヒストグラム作成手段を実現するエッジ部輝度値ヒストグラム作成部J03についても、撮像部Aの車両への搭載位置や撮像部Aの搭載台数、撮像画像の画質の如何によっては、図1のエッジ部位抽出部C02、エッジ部輝度値ヒストグラム作成部C03の場合と同様、エッジ候補領域に限らず、車両周囲の撮像画像または車両周囲の撮像画像を圧縮して作成された圧縮画像または撮像画像の視点位置を変換して作成された変換画像の全体の領域について、各画素の輝度値を算出して、各輝度値の出現頻度を輝度値ヒストグラムとして作成する輝度値ヒストグラム作成手段の形式に構成するようにしても良い。   In addition, regarding the function of the edge part extraction unit J02 that realizes the edge part extraction unit and the edge unit luminance value histogram creation unit J03 that realizes the edge portion luminance value histogram creation unit, the mounting position of the imaging unit A on the vehicle and the imaging unit Depending on the number of A mounted and the image quality of the captured image, as in the case of the edge portion extraction unit C02 and the edge portion luminance value histogram creation unit C03 in FIG. Calculate the luminance value of each pixel for the entire area of the compressed image created by compressing the surrounding captured image or the converted image created by converting the viewpoint position of the captured image, and the frequency of appearance of each luminance value May be configured in the form of a brightness value histogram creating means for creating a brightness value histogram.

なお、画像編集部J01、エッジ部位抽出部J02、エッジ部輝度値ヒストグラム作成部J03、2値化閾値決定部J04、白線算出部J05および結果出力部J06の各機能の詳細については後述する。   Details of the functions of the image editing unit J01, the edge part extraction unit J02, the edge portion luminance value histogram creation unit J03, the binarization threshold value determination unit J04, the white line calculation unit J05, and the result output unit J06 will be described later.

(第2の実施形態の動作)
次に、本発明の第2の実施形態として示した図9の白線検出装置の動作例について、図10のフローチャートを用いて説明する。図10は、本発明による白線検出装置の動作の第2の実施形態を説明するためのフローチャートであり、本発明による白線検出方法の図3とは異なる例を示している。なお、図10のフローチャートにおいては、図3のフローチャートと基本的には同様の動作を行う。
(Operation of Second Embodiment)
Next, an operation example of the white line detection device of FIG. 9 shown as the second embodiment of the present invention will be described using the flowchart of FIG. FIG. 10 is a flowchart for explaining the second embodiment of the operation of the white line detection apparatus according to the present invention, and shows an example different from FIG. 3 of the white line detection method according to the present invention. Note that the flowchart of FIG. 10 performs basically the same operation as the flowchart of FIG.

しかし、図10に示すフローチャートの場合は、図3のフローチャートとは異なり、例えば、処理対象画像として変換画像を作成した際の変換度合い(変換の程度)の大きさに応じて、処理対象画像を1ないし複数の画像領域に分割して、分割した各画像領域において各画素の輝度値の変化状況の大きさを検出してエッジ候補領域を抽出するために用いるエッジ抽出用フィルタを変更する例を示している。   However, in the case of the flowchart shown in FIG. 10, unlike the flowchart of FIG. 3, for example, depending on the degree of conversion (degree of conversion) when the converted image is created as the processing target image, the processing target image is changed. An example in which an edge extraction filter used for extracting an edge candidate area is detected by dividing the image area into one or a plurality of image areas, detecting the magnitude of change in the luminance value of each pixel in each divided image area Show.

さらに、前記エッジ抽出用フィルタによって抽出した各エッジ候補領域のうち、白線候補領域と推定されるエッジ候補領域における各画素の輝度値の出現頻度を示すエッジ部輝度値ヒストグラムを、1ないし複数に分割した各画像領域ごとに作成する例を示している。しかる後、それぞれのエッジ部輝度値ヒストグラムに基づいて、それぞれの画像領域に適用される2値化閾値を決定して、それぞれの画像領域ごとに異なる適切な2値化閾値を用いて、2値化画像を生成することにより、画像の変換度合いに応じて最適な2値化画像に基づいて、白線の抽出を行う例を示している。   Further, among the edge candidate regions extracted by the edge extraction filter, an edge portion luminance value histogram indicating the appearance frequency of the luminance value of each pixel in the edge candidate region estimated as the white line candidate region is divided into one or a plurality. An example of creating each image area is shown. Thereafter, a binarization threshold value to be applied to each image region is determined based on each edge portion luminance value histogram, and binarization is performed using an appropriate binarization threshold value that is different for each image region. An example is shown in which white lines are extracted based on a binarized image that is optimal in accordance with the degree of image conversion by generating a digitized image.

図10のフローチャートにおいて、ステップK01とステップK03とは、それぞれ、図3に示したステップD01とステップD02と同じ処理を行う。つまり、まず、車両後方に搭載された撮像部A(画像取得手段)によって撮像された車両周囲の画像を取得し、画像メモリ部B01に格納する(ステップK01)。ここで、車両周囲の撮像画像をそのまま処理対象の画像とする代わりに、画像編集部J01の圧縮画像作成部J01aにより、画像メモリ部B01に格納した処理対象の画像からあらかじめ定めた間隔ごとの画素のみを抽出した圧縮画像を、一旦、処理対象の画像として作成して、データメモリ部B02に格納するようにしても良い。   In the flowchart of FIG. 10, Step K01 and Step K03 perform the same processing as Step D01 and Step D02 shown in FIG. 3, respectively. That is, first, an image around the vehicle imaged by the imaging unit A (image acquisition unit) mounted on the rear side of the vehicle is acquired and stored in the image memory unit B01 (step K01). Here, instead of using the captured image around the vehicle as the processing target image as it is, the compressed image creation unit J01a of the image editing unit J01 uses the pixel for each predetermined interval from the processing target image stored in the image memory unit B01. A compressed image obtained by extracting only the image may be temporarily created as a processing target image and stored in the data memory unit B02.

次に、取得された車両周囲の撮像画像そのものまたは画素数が間引きされた圧縮画像を、あらかじめ定めた方向に視点位置が変換された変換画像例えば前述した図4に示すような変換画像(俯瞰画像)へ変換画像作成部J01bにて変換する(ステップK03)。この結果、前述した図5に示すような変換画像(つまり、車両後方の俯瞰画像)が処理対象画像として作成される。   Next, the acquired captured image itself around the vehicle or the compressed image in which the number of pixels is thinned out is converted into a converted image in which the viewpoint position is converted in a predetermined direction, for example, a converted image (overhead image as shown in FIG. 4 described above). ) Is converted by the converted image creation unit J01b (step K03). As a result, a converted image (that is, a bird's-eye view image behind the vehicle) as shown in FIG. 5 is created as a processing target image.

ただし、図10の場合、ステップK03において変換画像(俯瞰画像)へ変換する際に参照する変換マップとして、図4に示す変換マップF03の代わりに、車両周囲撮像画像または車両周囲撮像画像の画素が間引きされた圧縮画像から変換画像(俯瞰画像)へ変換する際の各画素の変換度合い(変換の程度)を示す情報を有している変換マップK02を用いることとする。なお、変換度合いに関する情報は、変換マップK02内に画素ごとに保有するものに限ることはなく、いくつかに分割した画像領域ごとに異なる変換度合いに関する情報を保有していても良いし、変換マップK02とは異なる領域に記憶するようにしても良い。   However, in the case of FIG. 10, instead of the conversion map F03 shown in FIG. 4, a pixel around the vehicle surrounding captured image or the vehicle surrounding captured image is used as a conversion map to be referred to when converting into a converted image (overhead image) in step K03. It is assumed that a conversion map K02 having information indicating the conversion degree (degree of conversion) of each pixel when converting the thinned compressed image into a converted image (overhead image) is used. Note that the information regarding the degree of conversion is not limited to information held for each pixel in the conversion map K02, and information regarding a different degree of conversion may be held for each divided image area. You may make it memorize | store in the area | region different from K02.

次に、例えば変換マップK02が有している各画素の変換度合いに関する情報を利用して、エッジ部位抽出部J02にて用いるべきエッジ抽出用フィルタを変更して、輝度値があらかじめ定めた閾値を超えて変化しているエッジ候補領域を抽出する(ステップK04)。   Next, for example, by using information regarding the degree of conversion of each pixel included in the conversion map K02, the edge extraction filter to be used in the edge part extraction unit J02 is changed, and a threshold value with a predetermined luminance value is set. Edge candidate regions that have changed in excess are extracted (step K04).

例えば、図5に示した変換後の変換画像(俯瞰画像)のうち、G01のラインに沿って、車両に近いG点の付近と車両から離れているG’点の付近とを比較すると、変換画像(俯瞰画像)への変換時に画像の変換度合いが大きくなるG’点付近の方が、画像の変換度合いが小さいG点付近よりも、画像が歪んでエッジ部が鈍った状態となる。   For example, in the converted image (overhead image) after conversion shown in FIG. 5, when the vicinity of the point G near the vehicle and the vicinity of the point G ′ far from the vehicle are compared along the line G01, In the vicinity of the point G ′ where the degree of conversion of the image becomes large when converting to an image (overhead image), the image is distorted and the edge portion becomes duller than the vicinity of the point G where the degree of conversion of the image is small.

このような状態の変換画像(俯瞰画像)においては、G点付近の白線部位からは、図11(a)に示す曲線L01のように、ほぼ矩形形状に立ち上がる輝度値が観察され、その2次微分は、曲線L03のように狭い範囲で急峻に変化する鋭いエッジ状として算出することができ、算出したエッジ部から白線候補領域を容易に抽出することができる。   In the converted image (overhead image) in such a state, a luminance value that rises in a substantially rectangular shape is observed from a white line portion near the point G as shown by a curve L01 shown in FIG. The differentiation can be calculated as a sharp edge shape that changes sharply in a narrow range like a curve L03, and a white line candidate region can be easily extracted from the calculated edge portion.

これに対して、画像が歪んでエッジが鈍った状態となるG’点付近の白線部分については、画像の歪みの影響から、図11(b)の曲線L02のような緩やかな曲線形状の輝度値の変化として観察され、その2次微分となるエッジ部位も、曲線L04のように鈍った状態となってしまう。したがって、G点付近と同じエッジ抽出用フィルタを用いると、エッジ部分の抽出が難しくなる。   On the other hand, with respect to the white line portion in the vicinity of the point G ′ where the image is distorted and the edge is dull, the luminance of a gentle curve shape such as the curve L02 in FIG. The edge portion that is observed as a change in value and is the second derivative thereof is also dull as shown by the curve L04. Therefore, using the same edge extraction filter as that near the point G makes it difficult to extract the edge portion.

かくのごとく、歪みが大きい領域の画像にも対応することができるように、例えば、エッジ部を抽出するためのフィルタサイズについて、画像の変換度合いに応じて使い分けるようにする。つまり、図11(a)のように、変換度合いが小さく、歪みが小さい車両近傍の画像領域におけるエッジ抽出の場合であれば、図12(a)に示すように、3×3画素のサイズのエッジ抽出用フィルタを用い、逆に、図11(b)のように、変換度合いが大きく、画像の歪みが大きい、車両から離れた画像領域であれば、図12(c)に示すように、大き目の9×9画素のサイズのエッジ抽出用フィルタを用いるなど、画像の変換度合いの大きさに応じて、エッジ抽出用のフィルタを変更する。   As described above, for example, the filter size for extracting the edge portion is properly used according to the degree of conversion of the image so that an image of a region having a large distortion can be dealt with. That is, as shown in FIG. 11A, in the case of edge extraction in an image area in the vicinity of a vehicle with a small degree of conversion and small distortion, as shown in FIG. 12A, the size is 3 × 3 pixels. On the contrary, if the image area is far away from the vehicle with a large degree of conversion and a large image distortion as shown in FIG. 11B, using an edge extraction filter, as shown in FIG. The edge extraction filter is changed in accordance with the degree of image conversion, such as using a large edge extraction filter having a size of 9 × 9 pixels.

なお、図11は、エッジ部近傍の輝度値の変化の一例を説明するためのグラフであり、図11(a)が、画像変換度合いが小さい俯瞰画像におけるエッジ部近傍の輝度値の変化を示し、図11(b)が、画像変換度合いが大きい俯瞰画像におけるエッジ部近傍の輝度値の変化を示している。   FIG. 11 is a graph for explaining an example of a change in luminance value near the edge portion. FIG. 11A shows a change in luminance value in the vicinity of the edge portion in an overhead image with a small degree of image conversion. FIG. 11B shows a change in the luminance value in the vicinity of the edge portion in the overhead image with a high degree of image conversion.

また、図12は、エッジ候補領域を抽出するために用いるエッジ抽出用フィルタのフィルタサイズの一例を説明するための模式図であり、図12(a)は、3×3画素のサイズ、図12(b)は、5×5画素のサイズ、図12(c)は、9×9画素のサイズを一例として示している。画像領域の変換度合いに応じて、エッジ抽出用フィルタのフィルタサイズを切り替えることにより、エッジ部が鈍った状態の画像であっても、エッジ候補領域を検出することがより確実になる。   FIG. 12 is a schematic diagram for explaining an example of the filter size of the edge extraction filter used for extracting the edge candidate region. FIG. 12A is a 3 × 3 pixel size, and FIG. FIG. 12B shows an example of a size of 5 × 5 pixels, and FIG. 12C shows an example of a size of 9 × 9 pixels. By switching the filter size of the edge extraction filter according to the degree of conversion of the image region, it is more reliable to detect the edge candidate region even in an image with a dull edge portion.

次に、エッジ部輝度値ヒストグラム作成部J03と2値化閾値決定部J04とにおいて、それぞれ、基本的には、図3のステップD04とステップD05にて行った処理と同様の処理を行って、白線候補領域と推定されるエッジ部周辺における輝度値に関するエッジ部輝度値ヒストグラムを作成するとともに(ステップK05)、変換画像(俯瞰画像)の2値化を行うための2値化閾値を決定し、それぞれ、データメモリ部B02に保存する(ステップK06)。   Next, in the edge portion luminance value histogram creation unit J03 and the binarization threshold value determination unit J04, basically, the same processing as the processing performed in step D04 and step D05 in FIG. An edge portion luminance value histogram relating to luminance values around the edge portion estimated as a white line candidate region is created (step K05), and a binarization threshold value for binarizing the converted image (overhead image) is determined. Each is stored in the data memory unit B02 (step K06).

ただし、エッジ部輝度値ヒストグラム作成部J03において作成するエッジ部輝度値ヒストグラムや2値化閾値決定部J04において決定される2値化閾値は、処理対象画像とするために変換画像(俯瞰画像)を作成した際の各画素の変換度合いや、エッジ抽出用フィルタのフィルタサイズや、処理対象画像における輝度値の条件や、エッジのどの部分に相当するかなどによって、1つのみならず複数に分割して作成するようにしている。   However, the edge portion luminance value histogram created in the edge portion luminance value histogram creating unit J03 and the binarization threshold value determined in the binarization threshold value determining unit J04 are converted images (overhead images) to be processed images. Depending on the degree of conversion of each pixel at the time of creation, the filter size of the edge extraction filter, the condition of the luminance value in the processing target image, and which part of the edge it corresponds to, it is divided into not only one but also multiple To create.

具体的には、例えば、変換度合いの程度に応じて、エッジ抽出用フィルタのフィルタサイズを切り替えた場合には、それぞれのフィルタサイズごとに別々のエッジ部輝度値ヒストグラムを作成し、それぞれのエッジ部輝度値ヒストグラムに基づいて、それぞれの画像領域に適用する2値化閾値を決定するようにする。   Specifically, for example, when the filter size of the edge extraction filter is switched according to the degree of conversion, a separate edge portion luminance value histogram is created for each filter size, and each edge portion Based on the luminance value histogram, a binarization threshold value to be applied to each image region is determined.

この結果、変換度合いに応じて、変換された画像領域それぞれに適用すべき適切な2値化閾値を別々に決定して、決定された1ないし複数の前記2値化閾値をそれぞれの画像領域に適用して、処理対象画像を2値化画像に変換することによって、変換に伴う画像歪みを考慮に入れた形で、白線をより確実に検出することができるようになる。   As a result, an appropriate binarization threshold value to be applied to each converted image area is determined separately according to the degree of conversion, and the determined one or more binarization threshold values are set in each image area. By applying and converting the processing target image into a binarized image, it becomes possible to more reliably detect the white line in a form that takes into account image distortion caused by the conversion.

また、エッジ候補領域の明部と暗部とを別々のエッジ部輝度値ヒストグラムとして作成した場合には、本来分離しているはずのエッジ明部とエッジ暗部とが、どの程度、分離できているのかを観察することが可能になる。つまり、明部のヒストグラムと暗部のヒストグラムとの輝度値の出現頻度の山が交錯して出現していた場合には、日射しなどの影響により、画像に明るい部分と暗い部分とが存在し、1つのみの2値化閾値を画像全体に適用することは、不適切であるということが分かるので、各エッジ候補領域におけるエッジ明部とエッジ暗部など、処理対象画像内の部位に応じて、複数の2値化閾値を設定することが望ましい。   In addition, if the bright and dark portions of the edge candidate area are created as separate edge portion luminance value histograms, how well the edge bright and edge dark portions that should have been separated can be separated. Can be observed. That is, when the peaks of the luminance values of the bright portion histogram and the dark portion histogram appear in a mixed manner, the image has a bright portion and a dark portion due to the influence of sunlight and the like. Since it is understood that it is inappropriate to apply only one binarization threshold to the entire image, a plurality of binarization thresholds such as a bright edge portion and an edge dark portion in each edge candidate region may be used. It is desirable to set a binary threshold value.

また、例えばエッジ部分の周辺画素の平均輝度値に応じて、複数のヒストグラムを作成するようにしても良い。これにより、例えば、日射しの影響により生じる車両の影部分と、日向の部分とで、別々の2値化閾値を算出することが可能になり、外乱の影響を低減することが可能となる。また、エッジ候補領域と推定される画像領域の平均輝度値によって複数のヒストグラムを作成した場合や、エッジ候補領域の明部と暗部との輝度差に応じて複数のヒストグラムを作成した場合においても、同様の効果を得ることが可能である。   Further, for example, a plurality of histograms may be created according to the average luminance value of the peripheral pixels in the edge portion. Thereby, for example, it is possible to calculate separate binarization threshold values for the shadow portion of the vehicle caused by the influence of sunlight and the sunny portion, thereby reducing the influence of disturbance. In addition, when creating a plurality of histograms according to the average luminance value of the image area estimated as the edge candidate area, or when creating a plurality of histograms according to the luminance difference between the bright part and the dark part of the edge candidate area, Similar effects can be obtained.

かくのごとく、エッジ部分とその周辺部分の輝度値の分布状況を観察することにより、日射しや日陰の影響を考慮に入れて、処理対象画像の各領域それぞれに適用すべき適切な2値化閾値を決定することができ、決定された1ないし複数の2値化閾値をそれぞれの画像領域に適用して、処理対象画像を2値化画像に変換することによって、白線をより確実に検出することができるようになる。   In this way, by observing the distribution of the luminance values of the edge portion and its peripheral portion, an appropriate binarization threshold value to be applied to each region of the processing target image in consideration of the influence of sunlight and shade. By applying the determined binarization threshold value to each image region and converting the processing target image into a binarized image, the white line can be detected more reliably. Will be able to.

次に、1ないし複数の画像領域に対応して、ステップK06にて得られた1ないし複数の2値化閾値を用いて、白線算出部J05において、ステップK03にて処理対象画像として作成された変換画像(俯瞰画像)に関して、各画像領域ごとの2値化画像を作成した後、各画像領域の2値化画像を統合することにより、例えば図8にて前述したような2値化画像を作成し、白線の抽出を行って、データメモリ部B02に保存する(ステップK07)。   Next, the white line calculation unit J05 created the processing target image in step K03 using the one or more binarization threshold values obtained in step K06 corresponding to one or more image regions. For the converted image (overhead image), after creating a binarized image for each image area, the binarized image of each image area is integrated, for example, to convert the binarized image as described above with reference to FIG. A white line is extracted and stored in the data memory unit B02 (step K07).

ここで、白線の抽出方法としては、第1の実施形態の場合と同様に、例えば、白線候補領域が存在する2値化画像について、領域の輪郭部を白線の輪郭候補として、Hough変換を行い、白線の直線成分を抽出する処理などを行うようにすれば良い。最後に、結果出力部J06を用いて、ステップK07において抽出された白線の部位に関する情報を、外部に出力可能な内容に編集して、データメモリ部B02の所定領域に蓄積することにより、外部に出力する。   Here, as a method for extracting a white line, as in the case of the first embodiment, for example, for a binarized image in which a white line candidate area exists, Hough conversion is performed using the outline portion of the area as a white line outline candidate. Then, a process for extracting the straight line component of the white line may be performed. Finally, by using the result output unit J06, the information on the part of the white line extracted in step K07 is edited into contents that can be output to the outside, and stored in a predetermined area of the data memory unit B02. Output.

以上の図10のような手順により、本実施形態においては、第1の実施形態の場合とは異なり、処理対象画像の各画素の輝度値情報を利用するとともに、処理対象画像の変換度合いに応じて、エッジ抽出用フィルタを変更した場合や、あるいは、エッジ候補領域の各画素の輝度値の平均値、エッジ候補領域の周辺領域の各画素の輝度値の平均値、エッジ明部、エッジ暗部の出現位置、エッジ候補領域のエッジ明部とエッジ暗部との輝度差などのうち、いずれか1ないし複数に基づいて、1ないし複数の画像領域に分割している。   According to the procedure as shown in FIG. 10, in the present embodiment, unlike the first embodiment, the luminance value information of each pixel of the processing target image is used and the degree of conversion of the processing target image is set. If the edge extraction filter is changed, or the average brightness value of each pixel in the edge candidate area, the average brightness value of each pixel in the peripheral area of the edge candidate area, the edge bright part, the edge dark part The image is divided into one or a plurality of image regions based on one or more of the appearance position, the luminance difference between the edge bright portion and the edge dark portion of the edge candidate region, and the like.

しかる後、1ないし複数に分割した各画像領域それぞれに対応するエッジ部輝度値ヒストグラムを作成し、それぞれのエッジ部輝度値ヒストグラムを用いて、各画像領域の画像から2値化画像を作成するための適切な2値化閾値を決定している。   Thereafter, an edge portion luminance value histogram corresponding to each of the image regions divided into one or more is created, and a binary image is created from the image of each image region using each edge portion luminance value histogram. An appropriate binarization threshold is determined.

この結果、各画像領域それぞれについて適切な2値化閾値を用いて作成された2値化画像から白線をより確実に検出することができる。而して、例えば、車両位置から4〜5m離れた車両周囲領域にあって、歪みが大きく、エッジ部が抽出しにくい画像領域についても、あるいは、曇っていて、影がなかったり、白線からの反射量が少なかったりするような環境下であっても、あるいは、日射しが強く車両の影が延びているような環境下であっても、白線とその周辺部分とを2値化によって分離することが可能となり、白線の非検出・誤検出をより低減することが可能となる。   As a result, a white line can be detected more reliably from a binarized image created using an appropriate binarization threshold for each image region. Thus, for example, in an area around the vehicle 4 to 5 m away from the vehicle position, an image area where distortion is large and the edge portion is difficult to extract, or is cloudy and has no shadow, Even in an environment where the amount of reflection is small, or in an environment where the sun's shadow is strong and the shadow of the vehicle extends, the white line and the surrounding area are separated by binarization. Thus, non-detection / false detection of white lines can be further reduced.

つまり、処理対象画像の変換度合いや輝度値の分布状況に応じて、複数のヒストグラムを作成することにより、画像歪みや日射しなどの外乱による影響を、より低減して、白線の検出性能の向上を図ることが可能となる。   In other words, by creating multiple histograms according to the conversion level of the image to be processed and the distribution of luminance values, the effects of disturbances such as image distortion and solar radiation can be further reduced and white line detection performance improved. It becomes possible to plan.

さらに言えば、処理対象画像の変換度合いに応じて、言い換えると、処理対象画像の歪み具合に応じて、エッジ候補領域を抽出するエッジ抽出用フィルタを変更することによって、歪みが大きく、エッジ部が鈍ってしまっている画像であっても、白線候補領域と推定されるエッジ候補領域を抽出することが可能となり、2値化閾値を算出するために用いるエッジ部輝度値ヒストグラムを安定して作成することが可能となる。   Furthermore, according to the degree of conversion of the processing target image, in other words, by changing the edge extraction filter that extracts the edge candidate region according to the degree of distortion of the processing target image, the distortion is large and the edge portion is Even for an image that has become dull, it is possible to extract an edge candidate area estimated as a white line candidate area, and stably create an edge portion luminance value histogram used for calculating a binarization threshold value. It becomes possible.

また、エッジ候補領域における輝度値の特徴の分析結果に応じて、2値化閾値を算出するために用いるエッジ部輝度値ヒストグラムを複数作成することによって、2値化閾値をそれぞれに対応して適切な輝度値に設定することが可能となり、日射しや日影などの影響により、1枚の処理対象画像中で、複数の特性を示す画像を扱う場合であっても、適切な2値化閾値を用いて作成した2値化画像から白線を確実に抽出することが可能となる。   In addition, by generating a plurality of edge portion luminance value histograms used for calculating the binarization threshold value according to the analysis result of the characteristic of the luminance value in the edge candidate region, the binarization threshold value is appropriately set for each. It is possible to set an appropriate binarization threshold value even in the case of handling an image showing a plurality of characteristics in one processing target image due to the influence of sunlight and shadows. The white line can be reliably extracted from the binarized image created by using the image.

なお、本実施形態においても、第1の実施形態の場合と同様、撮像部Aの車両への搭載位置や搭載台数如何によっては、変換画像作成部J01bにより視点を変換した変換画像を生成することなく、撮像部Aにて撮像された車両周囲撮像画像そのもの、あるいは、圧縮画像作成部J01aにより車両周囲撮像画像から画素数を間引きした圧縮画像を、処理対象画像として、用いるようにしても良い。   In this embodiment as well, as in the case of the first embodiment, a converted image in which the viewpoint is converted by the converted image creation unit J01b is generated depending on the mounting position of the imaging unit A on the vehicle and the number of mounted units. Instead, a vehicle surrounding captured image itself captured by the imaging unit A or a compressed image obtained by thinning the number of pixels from the vehicle surrounding captured image by the compressed image creating unit J01a may be used as the processing target image.

(その他の実施形態)
以上の各実施形態のいずれにおいても、白線候補領域となるエッジ部位の探索範囲を限定することによって、白線を安定して検出することが可能になると同時に、処理対象とするデータ量を低減させることが可能となり、処理速度の向上を図ることも可能としている。ここで、前述した各実施形態の図1、図9に示すように、圧縮画像作成部C01aまたは圧縮画像作成部J01aにより、車両周囲を撮像した車両周囲撮像画像の画素数を間引きして圧縮した圧縮画像を、処理対象画像として用いることにより、処理対象とするデータ量をさらに低減することができる。以下には、該圧縮画像を作成する具体的な作成例について、さらに具体的に説明する。
(Other embodiments)
In any of the embodiments described above, by limiting the search range of the edge part that is a white line candidate region, it is possible to stably detect a white line and at the same time reduce the amount of data to be processed. It is possible to improve the processing speed. Here, as shown in FIG. 1 and FIG. 9 of each of the above-described embodiments, the compressed image creation unit C01a or the compressed image creation unit J01a compresses the number of pixels of the vehicle surrounding captured image obtained by imaging the vehicle periphery. By using the compressed image as the processing target image, it is possible to further reduce the amount of data to be processed. Hereinafter, a specific creation example for creating the compressed image will be described more specifically.

まず、例えば、図13の車両周囲の点線で示すように、画像取得手段の撮像部Aにて撮像された車両周囲の撮像画像を画像編集部C01,J01において処理対象画像として編集する際に、圧縮画像作成部C01a,J01aを用いて、あらかじめ定めた所定の間隔で、車両横方向および/または縦方向の1ないし複数の直線に沿って配置されている画素を代表画素として抽出して、処理対象画像の各画素として設定することにより、車両周囲の撮像画像よりも間引きされた画素数からなる圧縮画像を処理対象画像として作成して、該圧縮画像を基にして、エッジ候補領域を探索するようにしても良い。   First, for example, as shown by a dotted line around the vehicle in FIG. 13, when a captured image around the vehicle captured by the imaging unit A of the image acquisition unit is edited as a processing target image in the image editing units C01 and J01, Using compressed image creation units C01a and J01a, pixels arranged along one or more straight lines in the vehicle lateral direction and / or longitudinal direction are extracted as representative pixels at predetermined intervals. By setting each pixel of the target image, a compressed image having the number of pixels thinned out from the captured image around the vehicle is created as a processing target image, and an edge candidate area is searched based on the compressed image. You may do it.

図13は、車両周囲撮像画像を圧縮した圧縮画像から視点変換した変換画像(俯瞰画像)を作成した場合の一例を示す模式図であり、車両の縦方向・横方向の画素数を間引きした圧縮画像を俯瞰画像に変換した場合の一例を示している。   FIG. 13 is a schematic diagram illustrating an example of a case where a converted image (overhead image) obtained by performing viewpoint conversion from a compressed image obtained by compressing a vehicle surrounding captured image, and is a compression in which the number of pixels in the vertical and horizontal directions of the vehicle is thinned out. An example when an image is converted into a bird's-eye view image is shown.

このような俯瞰画像(変換画像)を処理対象画像として用いる場合、車両周囲撮像画像から、あらかじめ定めた間隔で、車両の縦方向・横方向に配置されている各画素を抽出した圧縮画像を対象として、俯瞰画像に変換されたものを処理対象画像とする場合であり、扱うデータ量を元の車両周囲撮像画像に比して低減することができ、白線の検出処理速度を向上させることができる。   When such a bird's-eye view image (converted image) is used as a processing target image, the target is a compressed image obtained by extracting each pixel arranged in the vertical and horizontal directions of the vehicle at predetermined intervals from a captured image around the vehicle. As a processing target image converted to a bird's-eye view image, the amount of data handled can be reduced as compared to the original vehicle surrounding captured image, and the white line detection processing speed can be improved. .

なお、かくのごとき変換画像を処理対象画像として用いている場合、車両の前後方向(縦方向)に沿った直線上に存在する画素を走査する場合には、車両の横方向に出現する白線を対象としたエッジ部の抽出が可能となる。このとき、エッジ抽出用フィルタとして方向性を有するフィルタ(例えばSobelフィルタ)を用いることによって、例えば、横エッジを抽出するフィルタを利用することによって、車両横方向の白線を検出し、目的とする方向以外の方向に出現するエッジ部を排除することが可能となる。   When a converted image like this is used as a processing target image, when scanning pixels existing on a straight line along the front-rear direction (vertical direction) of the vehicle, a white line appearing in the lateral direction of the vehicle is used. The target edge portion can be extracted. At this time, by using a filter having directionality (for example, a Sobel filter) as an edge extraction filter, for example, by using a filter for extracting a lateral edge, a white line in the vehicle lateral direction is detected, and a target direction is detected. Edge portions appearing in directions other than can be eliminated.

同様に、車両の横方向に沿った直線上に存在する画素を走査してエッジ部を抽出する場合についても、エッジ抽出用フィルタとして方向性を有するフィルタを用い、横エッジを抽出するフィルタを利用することによって、車両の前後に出現する、車両前後方向(縦方向)の白線を抽出することが可能となる。また、エッジ抽出フィルタとして、方向性を有するフィルタを用いる場合、横エッジではなく、縦エッジや斜めエッジを抽出するフィルタを用いることによっても、同様に、目的とする方向以外の方向のエッジを排除することが可能である。   Similarly, when extracting edges by scanning pixels that exist on a straight line along the lateral direction of the vehicle, a filter with directionality is used as an edge extraction filter, and a filter that extracts lateral edges is used. By doing so, it becomes possible to extract the white line of the vehicle front-back direction (vertical direction) which appears before and after the vehicle. In addition, when a directional filter is used as an edge extraction filter, an edge in a direction other than the target direction can be similarly removed by using a filter that extracts a vertical edge or a diagonal edge instead of a horizontal edge. Is possible.

なお、圧縮画像作成部C01a,J01aにおいて画素数の間引きを行って、代表画素のみを抽出する際に、該代表画素の輝度値をそのまま用いるようにしても良いし、近傍の間引き対象となった各画素の輝度値も含めて加重平均を行った結果の輝度値を代表画素の輝度値とするようにしても良い。   It should be noted that when extracting only representative pixels by thinning out the number of pixels in the compressed image creation units C01a and J01a, the luminance value of the representative pixel may be used as it is, or it is subject to thinning in the vicinity. The luminance value obtained by performing the weighted average including the luminance value of each pixel may be used as the luminance value of the representative pixel.

また、前述の説明においては、画像編集手段を構成する画像編集部C01,J01において、撮像部Aにより撮像された車両周囲撮像画像を圧縮画像作成部C01a,J01aによって車両の縦方向および/または横方向にあらかじめ定めた間隔で配置されている各画素を抽出して圧縮した圧縮画像を処理対象画像として出力することにより、処理対象とするデータ量を低減する例について説明したが、本実施形態においては、処理対象画像について圧縮した圧縮画像を用いる場合のみに限るものではなく、白線検出に要する処理量を低減し、処理速度を向上させることが可能であれば、如何なる手法を用いても良い。   Further, in the above description, in the image editing units C01 and J01 constituting the image editing means, the vehicle surroundings captured images captured by the image capturing unit A are compressed by the compressed image creating units C01a and J01a in the longitudinal direction and / or the horizontal direction of the vehicle. Although an example of reducing the amount of data to be processed by outputting a compressed image obtained by extracting and compressing each pixel arranged at a predetermined interval in the direction as a processing target image has been described. Is not limited to the case of using a compressed image compressed with respect to the processing target image, and any method may be used as long as the processing amount required for white line detection can be reduced and the processing speed can be improved.

例えば、処理対象画像において車両の縦方向および/または横方向にあらかじめ定めた間隔で配置されている各画素を抽出する代わりに、白線算出部C05,J05により2値化閾値を用いて処理対象画像を2値化画像に変換する際に、処理対象画像について、あらかじめ定めた間隔で、車両の縦方向および/または横方向に配置されている各画素を抽出して、2値化画像を作成するようにしても良い。抽出した各画素の輝度値と2値化閾値との比較結果に基づいて、2値化画像を作成することにより、処理すべきデータ量を低減して、2値化画像を作成することができ、白線検出処理の高速化を図ることができる。   For example, instead of extracting each pixel arranged at a predetermined interval in the longitudinal direction and / or the lateral direction of the vehicle in the processing target image, the white line calculation units C05 and J05 use the binarization threshold value to perform the processing target image. Is converted into a binarized image, each pixel arranged in the vertical direction and / or the horizontal direction of the vehicle is extracted from the processing target image at predetermined intervals to create a binarized image. You may do it. By creating a binarized image based on the comparison result between the extracted luminance value of each pixel and the binarization threshold, it is possible to reduce the amount of data to be processed and create a binarized image. The white line detection process can be speeded up.

あるいは、場合によっては、白線算出部C05,J05により2値化画像から白線に相当する領域を抽出する際に、2値化画像について、あらかじめ定めた間隔ごとに、車両の縦方向および/または横方向に配置されている各画素の中から、白線に相当する領域を抽出するようにしても良い。   Alternatively, in some cases, when the white line calculation units C05 and J05 extract a region corresponding to a white line from the binarized image, the binarized image is subjected to a vehicle longitudinal direction and / or a horizontal direction at predetermined intervals. An area corresponding to a white line may be extracted from each pixel arranged in the direction.

かくのごとく、処理対象とする画素数を限定することによって、処理すべきデータ量を低減することが可能となり、白線検出処理の高速化が可能となる。   As described above, by limiting the number of pixels to be processed, it is possible to reduce the amount of data to be processed, and it is possible to speed up the white line detection process.

次に、図14の車両周囲の点線に示すように、画像取得手段の撮像部Aにて撮像された車両周囲の撮像画像を画像編集部C01,J01において処理対象画像として編集する際に、圧縮画像作成部C01a,J01aを用いて、車両内部あるいは車両周辺のあらかじめ定めた1ないし複数の中心またはあらかじめ定めた2つの焦点から見て、あらかじめ定めた間隔で、同心円状または楕円状に配置されている画素を代表画素として抽出して、処理対象画像の各画素として設定することにより、車両周囲の撮像画像よりも間引きされた画素数からなる圧縮画像を処理対象画像として作成して、該圧縮画像を基にして、エッジ候補領域を探索するようにしても良い。   Next, as shown by a dotted line around the vehicle in FIG. 14, compression is performed when a captured image around the vehicle captured by the imaging unit A of the image acquisition unit is edited as a processing target image in the image editing units C01 and J01. Using the image creating units C01a and J01a, they are arranged concentrically or elliptically at predetermined intervals when viewed from one or more predetermined centers or two predetermined focal points inside or around the vehicle. The extracted image is extracted as a representative pixel and set as each pixel of the processing target image, thereby creating a compressed image having the number of pixels thinned out from the captured image around the vehicle as the processing target image. The edge candidate area may be searched based on the above.

図14は、車両周囲撮像画像を圧縮した圧縮画像から視点変換した変換画像(俯瞰画像)を作成した場合の図13とは異なる例を示す模式図であり、車両内部あるいは車両周辺のあらかじめ定めた1ないし複数の中心またはあらかじめ定めた2つの焦点から見て、あらかじめ定めた間隔で、同心円状または楕円状に配置されている画素を代表画素とすることにより、画素数を間引きした圧縮画像を俯瞰画像に変換した場合の一例を示している。   FIG. 14 is a schematic diagram showing an example different from FIG. 13 in the case where a converted image (overhead image) obtained by converting a viewpoint from a compressed image obtained by compressing a captured image around the vehicle, and is determined in advance inside or around the vehicle. View a compressed image from which the number of pixels is thinned by using, as representative pixels, pixels arranged concentrically or elliptically at predetermined intervals as viewed from one or more centers or two predetermined focal points. An example when converted into an image is shown.

このような俯瞰画像(変換画像)を処理対象画像として用いる場合、車両周囲撮像画像から、あらかじめ定めた間隔ごとに、同心円状または楕円状に配置されている各画素を抽出した圧縮画像を対象として、俯瞰画像に変換されたものであり、扱うデータ量を元の車両周囲撮像画像に比して低減することができ、白線の検出処理速度を向上させることができる。   When such a bird's-eye view image (converted image) is used as a processing target image, a compressed image obtained by extracting pixels arranged concentrically or elliptically at predetermined intervals from a captured image around the vehicle is targeted. Thus, it is converted into a bird's-eye view image, and the amount of data handled can be reduced as compared with the original captured image around the vehicle, and the white line detection processing speed can be improved.

さらに、かくのごとき変換画像を処理対象画像として、円弧状や楕円状の曲線に沿ってエッジ部を探索するようなエッジ探索方法を用いることにより、車両に近接した位置にある白線を、車両からより遠い位置にある白線よりも優先して探索したい場合などにおいて、効率的に、エッジ部を抽出することが可能となる。   Furthermore, by using an edge search method such as searching for an edge portion along an arc-shaped or elliptical curve using the converted image as a processing target image, a white line at a position close to the vehicle is removed from the vehicle. For example, when it is desired to search with priority over a white line at a farther position, an edge portion can be efficiently extracted.

なお、図14の場合においても、圧縮画像作成部C01a,J01aにおいて画素数の間引きを行って、代表画素のみを抽出する際に、該代表画素の輝度値をそのまま用いるようにしても良いし、近傍の間引き対象となった各画素の輝度値も含めて加重平均を行った結果の輝度値を代表画素の輝度値とするようにしても良い。   In the case of FIG. 14 as well, when the compressed image creation units C01a and J01a thin out the number of pixels and extract only the representative pixel, the luminance value of the representative pixel may be used as it is. You may make it make the luminance value of the result of having performed the weighted average including the luminance value of each pixel used as the thinning | decimation object of a neighborhood be a luminance value of a representative pixel.

また、前述の説明においては、画像編集手段を構成する画像編集部C01,J01において、撮像部Aにより撮像された車両周囲撮像画像を圧縮画像作成部C01a,J01aによって同心円状または楕円状にあらかじめ定めた間隔で配置されている各画素を抽出して圧縮した圧縮画像を処理対象画像として出力することにより、処理対象とするデータ量を低減する例について説明したが、本実施形態においても、処理対象画像について圧縮した圧縮画像を用いる場合のみに限るものではない。   In the above description, in the image editing units C01 and J01 constituting the image editing means, the vehicle surroundings captured image captured by the imaging unit A is determined in advance in a concentric or elliptical shape by the compressed image creating units C01a and J01a. The example of reducing the amount of data to be processed by outputting a compressed image obtained by extracting and compressing each pixel arranged at a predetermined interval as a processing target image has been described. The present invention is not limited to the case where a compressed image compressed with respect to an image is used.

例えば、処理対象画像において、車両内部あるいは車両周辺のあらかじめ定めた1ないし複数の中心またはあらかじめ定めた2つの焦点から見て、あらかじめ定めた間隔で、同心円状または楕円状に配置されている各画素を代表画素として抽出する代わりに、白線算出部C05,J05により2値化閾値を用いて処理対象画像を2値化画像に変換する際に、処理対象画像について、あらかじめ定めた間隔で、同心円状または楕円状に配置されている各画素を抽出して、2値化画像を作成するようにしても良い。   For example, in the processing target image, each pixel arranged concentrically or elliptically at a predetermined interval when viewed from one or more predetermined centers or two predetermined focal points inside or around the vehicle. When the processing target image is converted into a binarized image using the binarization threshold value by the white line calculation units C05 and J05, the processing target image is concentrically formed at predetermined intervals. Alternatively, each pixel arranged in an elliptical shape may be extracted to create a binarized image.

抽出した各画素の輝度値と2値化閾値との比較結果に基づいて、2値化画像を作成することにより、処理すべきデータ量を低減して、2値化画像を作成することができ、白線検出処理の高速化を図ることができるとともに、車両の近傍の白線をより効率的に検出することができる。   By creating a binarized image based on the comparison result between the extracted luminance value of each pixel and the binarization threshold, it is possible to reduce the amount of data to be processed and create a binarized image. The white line detection process can be speeded up, and the white line near the vehicle can be detected more efficiently.

あるいは、場合によっては、白線算出部C05,J05により2値化画像から白線に相当する領域を抽出する際に、2値化画像について、車両内部あるいは車両周辺のあらかじめ定めた1ないし複数の中心またはあらかじめ定めた2つの焦点から見て、あらかじめ定めた間隔で、同心円状または楕円状に配置されている各画素の中から、白線に相当する領域を抽出するようにしても良い。   Alternatively, in some cases, when the white line calculation unit C05, J05 extracts a region corresponding to the white line from the binarized image, the binarized image may have one or a plurality of predetermined centers inside or around the vehicle. An area corresponding to a white line may be extracted from each pixel arranged concentrically or elliptically at predetermined intervals when viewed from two predetermined focal points.

かくのごとく、処理対象の画素を同心円状または楕円状の位置に限定することにより、白線の検出処理の高速化が可能になるとともに、車両の特定位置例えばより近傍の位置に関わる白線候補を優先して効率的に抽出することが可能となるため、白線検出処理をより高速化することが可能となる。   Thus, by limiting the pixels to be processed to concentric or elliptical positions, it is possible to speed up the white line detection process and prioritize white line candidates related to a specific position of the vehicle, for example, a nearby position. Therefore, the white line detection process can be further speeded up.

次に、画像取得手段を構成する撮像部Aの図2の場合とは異なる構成例について説明する。つまり、本発明においては、画像取得手段として、車両に搭載する画像撮像手段(カメラ)を、1台のみではなく、複数台、車両の任意の位置に搭載するようにしても良い。複数台の画像撮像手段(カメラ)を搭載している場合においては、複数台の画像撮像手段(カメラ)から得られる各車両周囲撮像画像を1枚の統合画像として統合して、該統合画像を処理対象画像として編集することにより、前述した各実施形態と同様の白線の検出処理を行うことが可能である。   Next, a configuration example different from the case of FIG. 2 of the imaging unit A configuring the image acquisition unit will be described. That is, in the present invention, as the image acquisition means, the image capturing means (camera) to be mounted on the vehicle may be mounted not only on one unit but on a plurality of arbitrary positions on the vehicle. In the case where a plurality of image capturing means (cameras) are installed, the vehicle surroundings captured images obtained from the plurality of image capturing means (cameras) are integrated as one integrated image, and the integrated images are By editing the image to be processed, it is possible to perform white line detection processing similar to that in each of the above-described embodiments.

複数台の画像撮像手段から得られる複数の車両周囲撮像画像を統合した1枚の統合画像に基づいて、白線の検出処理を行う場合、例えば画像撮像手段(カメラ)が1台しか搭載されていない場合に比べて、車両周辺のより広い範囲について、白線の検出を行うことが可能となり、視野の広い白線検出処理を実現することができる。   When white line detection processing is performed based on a single integrated image obtained by integrating a plurality of vehicle periphery captured images obtained from a plurality of image capturing units, for example, only one image capturing unit (camera) is mounted. Compared to the case, it is possible to detect a white line in a wider range around the vehicle, and a white line detection process with a wide field of view can be realized.

さらに、例えば、車両の駐停車の操作を支援する駐停車支援装置として、以上のようないずれかの実施形態の白線検出装置や白線検出方法を実現する装置を少なくとも備えた駐停車支援装置を構成することにより、車両を駐停車しようとする際に、車両周囲を撮像した車両周囲撮像画像の歪みや日射しの有無などに関係なく、駐停車位置の白線を示す情報を安定して出力することができるので、ドライバは、駐停車すべき位置をより確実に把握することができ、さらに、複数の画像撮像手段(カメラ)を備えた白線検出装置を用いることにより、より広範囲のエリアまで拡大して、駐停車支援を行うことができる。   Furthermore, for example, as a parking / stop support device that supports the operation of parking / stopping a vehicle, a parking / stop support device including at least the white line detection device or the device that realizes the white line detection method according to any of the above embodiments is configured. By doing so, when the vehicle is parked or stopped, information indicating the white line of the parking / stopping position can be stably output regardless of the distortion of the vehicle surrounding image captured around the vehicle or the presence or absence of sunlight. As a result, the driver can grasp the position where the vehicle should be parked and stopped more reliably, and further expands to a wider area by using a white line detection device equipped with a plurality of image capturing means (cameras). , Parking assistance can be provided.

本発明による白線検出装置の主要部の第1の実施形態における構成を示すブロック構成図である。It is a block block diagram which shows the structure in 1st Embodiment of the principal part of the white line detection apparatus by this invention. 本発明による白線検出装置の撮像部の設置場所の一例を示す配置図である。It is a layout showing an example of an installation location of an imaging unit of the white line detection device according to the present invention. 本発明による白線検出装置の動作の第1の実施形態を説明するためのフローチャートである。It is a flowchart for demonstrating 1st Embodiment of operation | movement of the white line detection apparatus by this invention. 撮像部により撮像された車両周囲撮像画像を変換画像(俯瞰画像)に変換する様子を示す模式図である。It is a schematic diagram which shows a mode that the vehicle periphery picked-up image imaged by the imaging part is converted into a conversion image (overhead image). 本発明の白線検出装置の変換画像作成部により変換された変換画像(俯瞰画像)の一例を示すイメージ図である。It is an image figure which shows an example of the conversion image (overhead image) converted by the conversion image preparation part of the white line detection apparatus of this invention. 図5の変換画像(俯瞰画像)の輝度値およびその一次微分値、二次微分値を示すグラフである。It is a graph which shows the luminance value of the converted image (overhead image) of FIG. 5, its primary differential value, and a secondary differential value. 図6のエッジ候補領域として抽出された領域の輝度値に関するヒストグラムを示すグラフである。It is a graph which shows the histogram regarding the luminance value of the area | region extracted as an edge candidate area | region of FIG. 車両周囲撮像画像を変換した変換画像(俯瞰画像)に関して白線候補領域を含む領域を2値化した2値化画像の一例を示すイメージ図である。It is an image figure which shows an example of the binarized image which binarized the area | region containing a white line candidate area | region regarding the converted image (overhead image) which converted the vehicle periphery picked-up image. 本発明による白線検出装置の主要部の第2の実施形態における構成を示すブロック構成図である。It is a block block diagram which shows the structure in 2nd Embodiment of the principal part of the white line detection apparatus by this invention. 本発明による白線検出装置の動作の第2の実施形態を説明するためのフローチャートである。It is a flowchart for demonstrating 2nd Embodiment of operation | movement of the white line detection apparatus by this invention. エッジ部近傍の輝度値の変化の一例を説明するためのグラフである。It is a graph for demonstrating an example of the change of the luminance value of the edge part vicinity. エッジ候補領域を抽出するために用いるエッジ抽出用フィルタのフィルタサイズの一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of the filter size of the filter for edge extraction used in order to extract an edge candidate area | region. 車両周囲撮像画像を圧縮した圧縮画像から視点変換した変換画像(俯瞰画像)を作成した場合の一例を示す模式図である。It is a schematic diagram which shows an example at the time of producing the conversion image (overhead image) which carried out viewpoint conversion from the compression image which compressed the surrounding vehicle captured image. 車両周囲撮像画像を圧縮した圧縮画像から視点変換した変換画像(俯瞰画像)を作成した場合の図13とは異なる例を示す模式図である。It is a schematic diagram which shows the example different from FIG. 13 at the time of producing the conversion image (overhead image) which carried out viewpoint conversion from the compression image which compressed the surrounding vehicle captured image.

符号の説明Explanation of symbols

A…撮像部、B…記憶部、B01…画像メモリ部、B02…データメモリ部、C…演算部、C01…画像編集部、C01a…圧縮画像作成部、C01b…変換画像作成部、C02…エッジ部位抽出部、C03…エッジ部輝度値ヒストグラム作成部、C04…2値化閾値決定部、C05…白線算出部、C06…結果出力部、F01…車両周囲撮像画像、F02…俯瞰画像、F03…変換マップ、H01a…輝度値閾値、H02a,H03a…微分輝度値閾値、i01…輝度値ヒストグラム、i02…エッジ部輝度値ヒストグラム、i01a…白線部領域、i01b…路面領域、i03,i04…ピーク輝度値、i05…2値化閾値、J…演算部、J01…画像編集部、J01a…圧縮画像作成部、J01b…変換画像作成部、J02…エッジ部位抽出部、J03…エッジ部輝度値ヒストグラム作成部、J04…2値化閾値決定部、J05…白線算出部、J06…結果出力部、K02…変換マップ。 A ... Imaging unit, B ... Storage unit, B01 ... Image memory unit, B02 ... Data memory unit, C ... Calculation unit, C01 ... Image editing unit, C01a ... Compressed image creation unit, C01b ... Conversion image creation unit, C02 ... Edge Part extraction unit, C03 ... edge portion luminance value histogram creation unit, C04 ... binarization threshold value determination unit, C05 ... white line calculation unit, C06 ... result output unit, F01 ... vehicle surrounding captured image, F02 ... overhead image, F03 ... conversion Map, H01a ... Luminance value threshold, H02a, H03a ... Differential luminance value threshold, i01 ... Luminance value histogram, i02 ... Edge portion luminance value histogram, i01a ... White line region, i01b ... Road surface region, i03, i04 ... Peak luminance value, i05: Binarization threshold, J: Calculation unit, J01: Image editing unit, J01a: Compressed image creation unit, J01b: Conversion image creation unit, J02: Edge unit Extractor, J03 ... edge intensity histogram creation unit, J04 ... 2 binarization threshold value determining unit, J05 ... white line calculator, J06 ... result output unit, K02 ... conversion map.

Claims (15)

車両周囲の路面上の白線を検出する白線検出装置において、車両周囲の画像を撮像して取得した車両周囲撮像画像を処理対象画像として出力する画像取得手段と、前記画像取得手段から出力された前記処理対象画像の各画素の輝度値を算出して、各輝度値の出現頻度を輝度値ヒストグラムとして作成する輝度値ヒストグラム作成手段と、前記輝度値ヒストグラム作成手段により作成された前記輝度値ヒストグラムに基づいて、白線候補領域と推定されるエッジ候補領域におけるピーク輝度値近傍の輝度値を、前記処理対象画像の2値化を行うための2値化閾値として決定する2値化閾値決定手段と、前記2値化閾値決定手段により決定された前記2値化閾値を用いて、前記処理対象画像を2値化画像に変換し、変換された前記2値化画像に基づいて白線を検出する白線検出手段と、を少なくとも備えていることを特徴とする白線検出装置。   In a white line detection device that detects a white line on a road surface around a vehicle, an image acquisition unit that outputs a vehicle periphery captured image acquired by capturing an image of the vehicle periphery as a processing target image, and the output from the image acquisition unit Based on the brightness value histogram creation means for calculating the brightness value of each pixel of the processing target image and creating the appearance frequency of each brightness value as a brightness value histogram, and the brightness value histogram created by the brightness value histogram creation means Binarization threshold value determining means for determining a luminance value in the vicinity of the peak luminance value in the edge candidate region estimated as a white line candidate region as a binarization threshold value for binarizing the processing target image; Using the binarization threshold determined by the binarization threshold determination means, the processing target image is converted into a binarized image, and the converted binarized image is used as a basis. There are white line detection apparatus characterized by comprising at least a white line detecting means for detecting a white line, a. 車両周囲の路面上の白線を検出する白線検出装置において、車両周囲の画像を撮像して車両周囲撮像画像として取得する画像取得手段と、前記画像取得手段により取得された前記車両周囲撮像画像を編集して、編集結果を処理対象画像として出力する画像編集手段と、前記画像編集手段から出力された前記処理対象画像の各画素の輝度値を算出して、各輝度値の出現頻度を輝度値ヒストグラムとして作成する輝度値ヒストグラム作成手段と、前記輝度値ヒストグラム作成手段により作成された前記輝度値ヒストグラムに基づいて、白線候補領域と推定されるエッジ候補領域におけるピーク輝度値近傍の輝度値を、前記処理対象画像の2値化を行うための2値化閾値として決定する2値化閾値決定手段と、前記2値化閾値決定手段により決定された前記2値化閾値を用いて、前記処理対象画像を2値化画像に変換し、変換された前記2値化画像に基づいて白線を検出する白線検出手段と、を少なくとも備えていることを特徴とする白線検出装置。   In a white line detection device that detects a white line on a road surface around a vehicle, an image acquisition unit that captures an image around the vehicle and acquires the image as a vehicle periphery captured image, and edits the captured image around the vehicle acquired by the image acquisition unit An image editing means for outputting the editing result as a processing target image; and calculating a luminance value of each pixel of the processing target image output from the image editing means, and calculating an appearance frequency of each luminance value as a luminance value histogram A brightness value histogram creating means to create a brightness value near a peak brightness value in an edge candidate area estimated as a white line candidate area based on the brightness value histogram created by the brightness value histogram creating means A binarization threshold value determining unit that determines a binarization threshold value for binarizing the target image; and the binarization threshold value determining unit And a white line detecting means for converting the processing target image into a binarized image using the binarized threshold and detecting a white line based on the converted binarized image. A characteristic white line detector. 請求項2に記載の白線検出装置において、前記車両周囲撮像画像について、あらかじめ定めた間隔ごとに、車両の縦方向および/または横方向に直線状に配置されている各画素を抽出して圧縮した圧縮画像を、前記処理対象画像として作成する圧縮画像作成手段を備え、前記画像編集手段により、編集した前記処理対象画像を出力する際に、前記圧縮画像作成手段により作成された前記圧縮画像を出力することを特徴とする白線検出装置。   3. The white line detection device according to claim 2, wherein each of the pixels that are linearly arranged in the longitudinal direction and / or the lateral direction of the vehicle is extracted and compressed with respect to the captured image around the vehicle at predetermined intervals. A compressed image creating unit configured to create a compressed image as the processing target image; and outputting the compressed image created by the compressed image creating unit when the edited image to be processed is output by the image editing unit. A white line detection device characterized by: 請求項2に記載の白線検出装置において、前記車両周囲撮像画像について、車両内部あるいは車両周辺のあらかじめ定めた1ないし複数の中心またはあらかじめ定めた2つの焦点から見て、あらかじめ定めた間隔ごとに、同心円状または楕円状に配置されている各画素を抽出して圧縮した圧縮画像を、前記処理対象画像として作成する圧縮画像作成手段を備え、前記画像編集手段により、編集した前記処理対象画像を出力する際に、前記圧縮画像作成手段により作成された前記圧縮画像を出力することを特徴とする白線検出装置。   In the white line detection device according to claim 2, with respect to the vehicle surrounding captured image, when viewed from one or more predetermined centers or two predetermined focal points inside or around the vehicle, at predetermined intervals, Compressed image creation means for creating a compressed image obtained by extracting and compressing each pixel arranged concentrically or elliptically as the processing target image, and outputting the edited processing target image by the image editing means A white line detecting device that outputs the compressed image created by the compressed image creating means. 請求項2ないし4のいずれかに記載の白線検出装置において、前記車両周囲撮像画像または前記圧縮画像について、あらかじめ定めた方向に視点が変換された変換画像を、前記処理対象画像として作成する変換画像作成手段を備え、前記画像編集手段により、編集した前記処理対象画像を出力する際に、前記変換画像作成手段により作成された前記変換画像を出力することを特徴とする白線検出装置。   5. The white line detection device according to claim 2, wherein a converted image in which a viewpoint is converted in a predetermined direction with respect to the vehicle surrounding captured image or the compressed image is generated as the processing target image. A white line detection apparatus comprising: a creating unit, wherein the converted image created by the converted image creating unit is output when the processed image edited by the image editing unit is output. 請求項5に記載の白線検出装置において、前記変換画像作成手段により作成される前記変換画像が、視点位置を車両の上方向に置いた俯瞰画像であることを特徴とする白線検出装置。   6. The white line detecting device according to claim 5, wherein the converted image created by the converted image creating means is a bird's-eye view image with a viewpoint position in an upward direction of the vehicle. 請求項5または6に記載の白線検出装置において、前記変換画像作成手段が、前記車両周囲撮像画像の各画素位置と前記変換画像の各画素位置との対応関係を示す変換マップを用いて、前記車両周囲撮像画像または前記圧縮画像を前記変換画像に変換することを特徴とする白線検出装置。   The white line detection device according to claim 5 or 6, wherein the converted image creating means uses a conversion map indicating a correspondence relationship between each pixel position of the vehicle surrounding captured image and each pixel position of the converted image. A white line detection apparatus that converts a captured image around a vehicle or the compressed image into the converted image. 請求項1ないし7のいずれかに記載の白線検出装置において、前記輝度値ヒストグラム作成手段が、前記処理対象画像に関して、画素の輝度値の変化があらかじめ定めた閾値よりも大きい画像領域をエッジ候補領域として抽出するエッジ部抽出手段と、前記エッジ部抽出手段により抽出された前記エッジ候補領域のうち、白線候補領域と推定される前記エッジ候補領域を含む領域に関する輝度値ヒストグラムをエッジ部輝度値ヒストグラムとして作成するエッジ部輝度値ヒストグラム作成手段と、を含んで構成され、前記2値化閾値決定手段により前記2値化閾値を決定する際に、前記輝度値ヒストグラムとして、前記エッジ部輝度値ヒストグラム作成手段により作成された前記エッジ部輝度値ヒストグラムを用いて、前記2値化閾値を決定することを特徴とする白線検出装置。   8. The white line detection device according to claim 1, wherein the brightness value histogram creating unit determines an image area in which a change in brightness value of a pixel is greater than a predetermined threshold with respect to the processing target image as an edge candidate area. As an edge portion luminance value histogram, an edge portion extracting means for extracting as an edge portion and a luminance value histogram relating to an area including the edge candidate region estimated as a white line candidate region among the edge candidate regions extracted by the edge portion extracting means Edge portion luminance value histogram creating means, and when determining the binarization threshold value by the binarization threshold value determining means, the edge portion luminance value histogram creating means is used as the luminance value histogram. The binarization threshold value is determined using the edge portion luminance value histogram created by White line detection apparatus according to claim Rukoto. 請求項8に記載の白線検出装置において、前記2値化閾値決定手段により前記2値化閾値を決定する際に、前記エッジ部輝度値ヒストグラムにおいて、白線候補領域と推定される前記エッジ候補領域においてピークを示す輝度値からあらかじめ定めた所定値だけ小さい輝度値を、前記2値化閾値として決定することを特徴とする白線検出装置。   9. The white line detection device according to claim 8, wherein when the binarization threshold value is determined by the binarization threshold value determination unit, in the edge candidate area estimated as a white line candidate area in the edge portion luminance value histogram. A white line detection apparatus, wherein a luminance value smaller than a luminance value indicating a peak by a predetermined value is determined as the binarization threshold value. 請求項8または9に記載の白線検出装置において、前記処理対象画像として、前記車両周囲撮像画像または前記車両周囲撮像画像が圧縮された圧縮画像を、あらかじめ定めた方向に視点を変換して作成される変換画像を用いる場合、前記車両周囲撮像画像または前記圧縮画像の各画素を前記変換画像の各画素に変換する変換度合いの大きさに応じて、前記処理対象画像を1ないし複数の画像領域に分割し、分割した該画像領域それぞれについて、前記エッジ部抽出手段により前記エッジ候補領域を抽出する際に用いるエッジ抽出用フィルタを変更するとともに、分割した該画像領域それぞれに対応する前記エッジ部輝度値ヒストグラムを、1ないし複数、前記エッジ部輝度値ヒストグラム作成手段により作成することを特徴とする白線検出装置。   10. The white line detection device according to claim 8, wherein the processing target image is created by converting the viewpoint around the vehicle surrounding captured image or the compressed image obtained by compressing the vehicle surrounding captured image in a predetermined direction. When the converted image is used, the processing target image is converted into one or a plurality of image regions according to the degree of conversion for converting each pixel of the vehicle surrounding captured image or the compressed image into each pixel of the converted image. For each of the divided image regions, the edge extraction filter used for extracting the edge candidate region by the edge portion extraction unit is changed, and the edge portion luminance value corresponding to each of the divided image regions is changed One or a plurality of histograms are created by the edge portion luminance value histogram creating means. . 請求項8ないし10のいずれかに記載の白線検出装置において、前記処理対象画像について、前記エッジ候補領域における各画素の輝度値の平均値、前記エッジ候補領域の周辺領域における各画素の輝度値の平均値、前記エッジ候補領域のエッジ明部とエッジ暗部との出現位置、前記エッジ候補領域のエッジ明部とエッジ暗部との輝度差、のうち、いずれか1ないし複数に基づいて、前記処理対象画像を1ないし複数の画像領域に分割し、分割した該画像領域それぞれに対応する前記エッジ部輝度値ヒストグラムを、1ないし複数、前記エッジ部輝度値ヒストグラム作成手段により作成することを特徴とする白線検出装置。   11. The white line detection device according to claim 8, wherein for the processing target image, an average value of luminance values of each pixel in the edge candidate region, and a luminance value of each pixel in a peripheral region of the edge candidate region. The processing target based on one or more of an average value, an appearance position of an edge bright part and an edge dark part of the edge candidate area, and a luminance difference between an edge bright part and an edge dark part of the edge candidate area An image is divided into one or a plurality of image regions, and the edge portion luminance value histogram corresponding to each of the divided image regions is created by one or a plurality of edge portion luminance value histogram creating means. Detection device. 請求項10または11に記載の白線検出装置において、前記2値化閾値決定手段は、前記エッジ部輝度値ヒストグラム作成手段により作成される1ないし複数の前記エッジ部輝度値ヒストグラムそれぞれに基づいて、それぞれの画像領域に適用する前記2値化閾値を決定し、前記白線抽出手段は、前記2値化閾値決定手段により決定された1ないし複数の前記2値化閾値をそれぞれの画像領域に適用して、前記処理対象画像を2値化画像に変換することを特徴とする白線検出装置。   12. The white line detection apparatus according to claim 10 or 11, wherein the binarization threshold value determination unit is based on each of the one or more edge portion luminance value histograms created by the edge portion luminance value histogram creation unit. The binarization threshold to be applied to the image area is determined, and the white line extraction means applies one or more of the binarization thresholds determined by the binarization threshold determination means to each image area. A white line detection apparatus, wherein the processing target image is converted into a binarized image. 請求項1ないし12のいずれかに記載の白線検出装置において、前記画像取得手段として、前記車両周囲撮像画像を撮像する画像撮像手段を複数備え、前記画像撮像手段それぞれにより撮像された複数の前記車両周囲撮像画像を一つの統合画像に統合して、前記処理対象画像として出力することを特徴とする白線検出装置。   13. The white line detection device according to claim 1, wherein the image acquisition unit includes a plurality of image imaging units that capture the captured image around the vehicle, and the plurality of vehicles captured by each of the image imaging units. A white line detection apparatus, wherein a surrounding captured image is integrated into one integrated image and output as the processing target image. 車両の駐停車を支援するための駐停車支援装置において、請求項1ないし13のいずれかに記載の白線検出装置を少なくとも備えていることを特徴とする駐停車支援装置。   A parking / stop support device for supporting parking / stopping of a vehicle, comprising at least the white line detection device according to claim 1. 車両周囲の路面上の白線を検出する白線検出方法であって、撮像した車両の周囲画像を処理対象画像として取得し、前記処理対象画像における各画素の輝度値に関する出現頻度に基づいて、白線候補領域と推定されるエッジ候補領域におけるピーク輝度値近傍の輝度値を、前記処理対象画像の2値化を行うための2値化閾値として決定することにより、前記2値化閾値を用いて前記処理対象画像が変換された2値化画像に基づいて、白線を検出することを特徴とする白線検出方法。   A white line detection method for detecting a white line on a road surface around a vehicle, wherein a captured surrounding image of the vehicle is acquired as a processing target image, and based on an appearance frequency related to a luminance value of each pixel in the processing target image, a white line candidate By determining a luminance value in the vicinity of a peak luminance value in an edge candidate region estimated as a region as a binarization threshold for binarizing the processing target image, the processing using the binarization threshold is performed. A white line detection method, wherein a white line is detected based on a binarized image obtained by converting a target image.
JP2007268573A 2007-10-16 2007-10-16 White line detection device, parking and stopping support device, and white line detection method Active JP5012396B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007268573A JP5012396B2 (en) 2007-10-16 2007-10-16 White line detection device, parking and stopping support device, and white line detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007268573A JP5012396B2 (en) 2007-10-16 2007-10-16 White line detection device, parking and stopping support device, and white line detection method

Publications (2)

Publication Number Publication Date
JP2009096274A true JP2009096274A (en) 2009-05-07
JP5012396B2 JP5012396B2 (en) 2012-08-29

Family

ID=40699696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007268573A Active JP5012396B2 (en) 2007-10-16 2007-10-16 White line detection device, parking and stopping support device, and white line detection method

Country Status (1)

Country Link
JP (1) JP5012396B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8548200B2 (en) 2010-02-12 2013-10-01 Denso Corporation Lane-marker recognition system with improved recognition-performance
CN103958325A (en) * 2011-12-06 2014-07-30 罗伯特·博世有限公司 Method and device for locating a predefined parking position
JP2015036885A (en) * 2013-08-13 2015-02-23 Necソリューションイノベータ株式会社 Detection device, detection method, and program
JP2015079519A (en) * 2014-11-04 2015-04-23 ソニー株式会社 Image processing device, image processing method, and image processing program
JP2015534152A (en) * 2012-08-27 2015-11-26 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Method for recognizing lane transitions for vehicles
US9503629B2 (en) 2010-03-19 2016-11-22 Sony Corporation Image processing apparatus, image processing method, and computer-readable device having instructions for generating focused image
WO2017022475A1 (en) * 2015-07-31 2017-02-09 日立オートモティブシステムズ株式会社 Vehicle periphery information management device
JP2018077713A (en) * 2016-11-10 2018-05-17 スズキ株式会社 Lane marking detection system
JP2018147353A (en) * 2017-03-08 2018-09-20 三菱電機株式会社 Intersection detecting apparatus, measuring vehicle, intersection detecting program, and data management apparatus
JP7142131B1 (en) * 2021-07-12 2022-09-26 株式会社デンソーテン Lane detection device, lane detection method, and lane detection program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011582A (en) * 1996-06-20 1998-01-16 Honda Motor Co Ltd White line detector for vehicle
JP2002081941A (en) * 2000-09-11 2002-03-22 Zenrin Co Ltd System and method of measuring three-dimensional shape of road
JP2002092598A (en) * 2000-09-14 2002-03-29 Nissan Motor Co Ltd Own vehicle position detector in parking
JP2002112267A (en) * 2000-09-28 2002-04-12 Nec Corp Variable resolution decode processing apparatus
JP2003228711A (en) * 2001-11-30 2003-08-15 Hitachi Ltd Lane mark recognition method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011582A (en) * 1996-06-20 1998-01-16 Honda Motor Co Ltd White line detector for vehicle
JP2002081941A (en) * 2000-09-11 2002-03-22 Zenrin Co Ltd System and method of measuring three-dimensional shape of road
JP2002092598A (en) * 2000-09-14 2002-03-29 Nissan Motor Co Ltd Own vehicle position detector in parking
JP2002112267A (en) * 2000-09-28 2002-04-12 Nec Corp Variable resolution decode processing apparatus
JP2003228711A (en) * 2001-11-30 2003-08-15 Hitachi Ltd Lane mark recognition method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8548200B2 (en) 2010-02-12 2013-10-01 Denso Corporation Lane-marker recognition system with improved recognition-performance
US9503629B2 (en) 2010-03-19 2016-11-22 Sony Corporation Image processing apparatus, image processing method, and computer-readable device having instructions for generating focused image
JP2015508350A (en) * 2011-12-06 2015-03-19 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Predetermined parking position location method and apparatus
CN103958325A (en) * 2011-12-06 2014-07-30 罗伯特·博世有限公司 Method and device for locating a predefined parking position
JP2015534152A (en) * 2012-08-27 2015-11-26 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Method for recognizing lane transitions for vehicles
JP2015036885A (en) * 2013-08-13 2015-02-23 Necソリューションイノベータ株式会社 Detection device, detection method, and program
JP2015079519A (en) * 2014-11-04 2015-04-23 ソニー株式会社 Image processing device, image processing method, and image processing program
WO2017022475A1 (en) * 2015-07-31 2017-02-09 日立オートモティブシステムズ株式会社 Vehicle periphery information management device
US10493907B2 (en) 2015-07-31 2019-12-03 Hitachi Automotive Systems, Ltd. Vehicle periphery information management device
US10759336B2 (en) 2015-07-31 2020-09-01 Hitachi Automotive Systems, Ltd. Vehicle periphery information management device
JP2018077713A (en) * 2016-11-10 2018-05-17 スズキ株式会社 Lane marking detection system
JP2018147353A (en) * 2017-03-08 2018-09-20 三菱電機株式会社 Intersection detecting apparatus, measuring vehicle, intersection detecting program, and data management apparatus
JP7142131B1 (en) * 2021-07-12 2022-09-26 株式会社デンソーテン Lane detection device, lane detection method, and lane detection program

Also Published As

Publication number Publication date
JP5012396B2 (en) 2012-08-29

Similar Documents

Publication Publication Date Title
JP5012396B2 (en) White line detection device, parking and stopping support device, and white line detection method
CN107463918B (en) Lane line extraction method based on fusion of laser point cloud and image data
JP2008286725A (en) Person detector and detection method
JP2008158958A (en) Road surface determination method and road surface determination device
US20180225522A1 (en) Ir or thermal image enhancement method based on background information for video analysis
CN111242888A (en) Image processing method and system based on machine vision
KR20110129158A (en) Method and system for detecting a candidate area of an object in an image processing system
CN109800641B (en) Lane line detection method based on threshold value self-adaptive binarization and connected domain analysis
CN112115778B (en) Intelligent lane line identification method under ring simulation condition
JP2013251005A (en) Image correction method
JP5906696B2 (en) Vehicle periphery photographing apparatus and vehicle periphery image processing method
JP2019209734A (en) Track identification apparatus
JP7200894B2 (en) Attached matter detection device and attached matter detection method
US20140285662A1 (en) Image processing apparatus, and method
US20150248000A1 (en) Image processing apparatus, image processing program, and image processing method
JP2021051381A (en) Attached matter detection device and attached matter detection method
JP2009193390A (en) Vehicle periphery monitor device, vehicle, and program and method for monitoring vehicle periphery
KR20140026078A (en) Apparatus and method for extracting object
WO2022247684A1 (en) Detection method and system for base-station feeder line, and related apparatus
JP6825299B2 (en) Information processing equipment, information processing methods and programs
JP2008028478A (en) Obstacle detection system, and obstacle detecting method
CN109993761B (en) Ternary image acquisition method and device and vehicle
CN114140742A (en) Track foreign matter intrusion detection method based on light field depth image
JP2005346381A (en) Apparatus and method for recognizing solid object
JP4887539B2 (en) Object type determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100628

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101013

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120521

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5012396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150