JP2012105090A - Parking support apparatus - Google Patents

Parking support apparatus Download PDF

Info

Publication number
JP2012105090A
JP2012105090A JP2010252187A JP2010252187A JP2012105090A JP 2012105090 A JP2012105090 A JP 2012105090A JP 2010252187 A JP2010252187 A JP 2010252187A JP 2010252187 A JP2010252187 A JP 2010252187A JP 2012105090 A JP2012105090 A JP 2012105090A
Authority
JP
Japan
Prior art keywords
image
parking
white
correction
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010252187A
Other languages
Japanese (ja)
Inventor
Masaru Tanaka
優 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2010252187A priority Critical patent/JP2012105090A/en
Publication of JP2012105090A publication Critical patent/JP2012105090A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a parking support apparatus capable of simply correcting difference in color between photographic images from plural cameras, without needing a color reference member etc. to be mounted to a vehicle.SOLUTION: The parking support apparatus extracts a specific road sign such as a white-based road sign from images photographed by the cameras which photograph the surrounding of the vehicle with respectively different photographic visual fields, and performs image correction such as white balance on the photographed images on the basis of the specific road sign extracted from the photographic images, thereby generating corrected photographic images. The parking support apparatus composes bird's-eye-view image segments of each camera generated from the generated corrected photographic image through visual-point conversion, thereby generating a bird's-eye-view image as a display image of the surrounding of the vehicle to be displayed on a monitor.

Description

本発明は、自車周辺をそれぞれ異なる撮影視野で撮影する複数のカメラによる撮影画像に基づいて生成された俯瞰画像をモニタに表示して駐車支援する駐車支援装置に関する。   The present invention relates to a parking assistance device that supports parking by displaying, on a monitor, overhead images generated based on images taken by a plurality of cameras that photograph the periphery of a vehicle with different field of view.

4台のカメラからの撮影画像から、車両の上方から見た画像である俯瞰画像セグメントを生成し、この4つの俯瞰画像セグメントを予め記憶しておいた車両を示すマークとともに合成してモニタに出力する装置が、特許文献1から知られている。この装置では、カメラで取得した撮像画像の歪みや明るさの違いを補正する変換式が、レンズ系の特徴に基づいて、撮像画像内の位置ごとにあらかじめ設定されており、この変換式に基づいて撮像画像が補正され、カメラの撮像範囲内における位置に関係なく、同じ物体や同じテクスチャが撮像画像内において常に同じように表示されるように意図されている。しかしながら、この装置では、カメラ毎に予め設定された変換式を用いているので、カメラ毎の輝度補正は良好に行えるが、環境光源によって生じる各カメラ間の撮影画像における色バランスなどを調整することができない。したがって、後方カメラがブレーキランプを主光源とする周辺風景を撮影し、前方カメラがフロントランプを主光源とする周辺風景を撮影し、サイドカメラが駐車場ランプを主光源とする周辺風景を撮影しているとすると、それぞれのカメラからの撮影画像に基づいて俯瞰画像を作成した場合、その俯瞰画像における色バランスが大きく崩れており、運転者にとって見づらい画像となる。   An overhead image segment that is an image viewed from above the vehicle is generated from the images taken from the four cameras, and the four overhead image segments are combined with a mark indicating the vehicle stored in advance and output to the monitor. An apparatus is known from US Pat. In this apparatus, a conversion formula for correcting a distortion or brightness difference of a captured image acquired by the camera is set in advance for each position in the captured image based on the characteristics of the lens system. Thus, the captured image is corrected, and the same object and the same texture are always displayed in the same manner in the captured image regardless of the position in the imaging range of the camera. However, since this apparatus uses a conversion formula set in advance for each camera, brightness correction for each camera can be performed satisfactorily, but the color balance in the captured image between the cameras caused by the environmental light source can be adjusted. I can't. Therefore, the rear camera shoots the surrounding scenery with the brake lamp as the main light source, the front camera shoots the surrounding scenery with the front lamp as the main light source, and the side camera shoots the surrounding scenery with the parking lot lamp as the main light source. If a bird's-eye view image is created based on the images taken from the respective cameras, the color balance in the bird's-eye view image is greatly lost, and the image is difficult to see for the driver.

一般的には、光源による色かぶりの問題を解消するためにはホワイトバランス調整という技術が知られている。このホワイトバランス調整は、人間が撮像対象物を直接目視した場合に認識される表示色がその撮影画像においても正確に再現されるように撮影画像を調整する画像処理技術のひとつである。例えば、そのようなホワイトバランス調整技術を採用した車載用画像認識装置として、車両における所定の位置に配置された無彩色部材の撮影画像から推定される色温度に基づき、車外における支配的な光源(主光源)の色温度を推定して当該撮影画像における光源による影響を低減させる技術が特許文献2から知られている。つまり、車両に搭載された撮像手段により撮像された撮像画像に基づいて車外の光源の色温度を推定するために、車両における所定の位置に無彩色部材を設け、撮像手段により、無彩色部材及び上空を含むように車両の周辺の画像を撮像する。撮像した撮像画像中の無彩色部材の画像領域についてその画像領域の色温度を推定するとともに、撮像した撮像画像中の上空の画像領域についてその画像領域に存在する一又は複数の光源の色温度を推定する。そして、各推定結果に基づき、上空の画像領域に存在する光源の色温度のうち、無彩色部材の画像領域の色温度を含む所定の色温度判定範囲内にあるものを、最終的な色温度の推定結果とする。この技術では、車両における所定の位置に無彩色部材を配置することが必要となるだけでなく、このカラーリファレンスとなる無彩色部材が汚染されたり、局地的な光源種にさらされたりした場合には、正確な色温度の推定が不可能となる。   In general, a technique called white balance adjustment is known to solve the problem of color cast caused by a light source. This white balance adjustment is one of image processing techniques for adjusting a captured image so that a display color recognized when a human directly looks at an object to be captured is also accurately reproduced in the captured image. For example, as an in-vehicle image recognition device employing such a white balance adjustment technology, a dominant light source outside the vehicle (based on a color temperature estimated from a photographed image of an achromatic member disposed at a predetermined position in the vehicle) A technique for estimating the color temperature of the main light source and reducing the influence of the light source on the captured image is known from Patent Document 2. In other words, in order to estimate the color temperature of the light source outside the vehicle based on the captured image captured by the imaging unit mounted on the vehicle, an achromatic member is provided at a predetermined position in the vehicle. An image of the periphery of the vehicle is taken so as to include the sky. Estimate the color temperature of the image area of the achromatic member in the captured image, and determine the color temperature of one or more light sources existing in the image area of the sky in the captured image. presume. Then, based on each estimation result, the color temperature of the light source existing in the sky image area, which is within a predetermined color temperature determination range including the color temperature of the image area of the achromatic member, is determined as the final color temperature. It is assumed that In this technology, not only is it necessary to place an achromatic member at a predetermined position in the vehicle, but the achromatic member that becomes this color reference is contaminated or exposed to a local light source species. Therefore, it is impossible to accurately estimate the color temperature.

特開2008−158958号公報 (段落番号〔0011−0021〕、図1)JP 2008-158958 A (paragraph number [0011-0021], FIG. 1) 特開2009‐271122号公報(段落番号〔0009−0021〕、図1)JP 2009-271112 A (paragraph number [0009-0021], FIG. 1)

本発明の目的は、上記従来技術の実情に鑑み、複数のカメラからの撮影画像間における色合いや輝度などの画像特性の違いを、車両に取り付けるカラーリファレンス部材などを必要とせずに簡単な方法で補正し、違和感の生じない俯瞰画像を生成する駐車支援装置を提供することである。   An object of the present invention is to provide a simple method for detecting differences in image characteristics such as hue and luminance between captured images from a plurality of cameras without requiring a color reference member attached to a vehicle. It is to provide a parking support device that corrects and generates an overhead image that does not cause a sense of incongruity.

上記目的を達成するため、本発明による駐車支援装置は、自車周辺をそれぞれ異なる撮影視野で撮影する複数のカメラによる撮影画像を取得する画像入力部と、
前記撮影画像から特定の色成分を有する識別可能な道路要素を抽出する特定道路標示抽出部と、
前記撮影画像から抽出された特定の道路標示に基づいて補正対象画像に対して画像補正を施して補正撮影画像を生成する撮影画像補正部と、
前記撮影画像に基づく画像から視点変換を通じて生成された前記カメラ毎の俯瞰画像セグメントを合成して、モニタに表示する自車周辺の表示画像としての俯瞰画像を生成する俯瞰画像生成部とを備え、前記補正対象画像が前記撮影画像又は前記俯瞰画像セグメントである。
In order to achieve the above object, a parking assistance device according to the present invention includes an image input unit that acquires images captured by a plurality of cameras that capture images of the periphery of the vehicle with different fields of view;
A specific road marking extraction unit that extracts an identifiable road element having a specific color component from the captured image;
A captured image correction unit that generates a corrected captured image by performing image correction on the correction target image based on a specific road sign extracted from the captured image;
An overhead image generation unit that generates an overhead image as a display image around the vehicle to be displayed on a monitor by synthesizing the overhead image segments for each of the cameras generated through viewpoint conversion from an image based on the captured image; The correction target image is the captured image or the overhead image segment.

道路路肩周辺や駐車場に区画された駐車領域にはその境界を示すための白線や、道路側に描かれた車線境界線、側道区画線などの道路標識、さらにには路面側溝に装着された溝蓋などの特定の色成分を有する識別可能な道路要素が存在している。この構成によると、そのような特定の色成分を有する道路要素を各カメラから取得された撮影画像から抽出し、この抽出された特定の色成分を有する道路要素を画像補正のためのカラーリファレンスとして用いる。つまり、各撮影画像において、抽出された特定の色成分を有する道路要素が所定の色成分になるように画像補正をする。これによって得られた補正撮影画像では、どのような主光源下で撮影されたものであっても、少なくとも特定の色成分を有する道路要素は特定の色となっている。従って、これらの補正撮影画像を用いて、自車周辺の表示画像としての俯瞰画像を生成し、モニタに表示すると、駐車時において最も重要であり、運転者が認識しやすい特定の色成分を有する道路要素は、俯瞰画像全体において同じ色、つまり特定の色で表示されるので、運転者は駐車支援のためにモニタに表示された俯瞰画像を違和感なしに見ることができる。   It is attached to the road area around the shoulder of the road and the parking area partitioned by the parking lot, road markings such as white lines to indicate the boundaries, lane boundary lines drawn on the road side, side road lane markings, and road surface side grooves. There are identifiable road elements with specific color components, such as groove covers. According to this configuration, a road element having such a specific color component is extracted from a captured image acquired from each camera, and the road element having the extracted specific color component is used as a color reference for image correction. Use. That is, in each captured image, image correction is performed so that the extracted road element having a specific color component becomes a predetermined color component. In the corrected captured image obtained in this way, a road element having at least a specific color component has a specific color regardless of the main light source. Therefore, when using these corrected captured images to generate a bird's-eye view image as a display image around the host vehicle and displaying it on the monitor, it has a specific color component that is most important when parking and is easily recognized by the driver. Since the road elements are displayed in the same color, that is, a specific color, in the entire overhead image, the driver can see the overhead image displayed on the monitor for parking assistance without a sense of incongruity.

撮影画像補正部による、特定の色成分を有する道路要素をカラーリファレンスとした画像補正は、俯瞰画像セグメントを生成するための元画像に対して行ってもよいし、生成された俯瞰画像セグメントに対して行っても良い。従って、好適な実施形態の1つでは、前記俯瞰画像生成部は、前記撮影画像補正部によって生成された補正撮影画像から前記俯瞰画像セグメントを生成する。また、好適な実施形態の他の1つでは、前記撮影画像補正部は、前記俯瞰画像生成部によって生成された俯瞰画像セグメントに対して画像補正を施し、この画像補正された俯瞰画像セグメントから前記俯瞰画像が生成される。   Image correction using a road element having a specific color component as a color reference by the photographed image correction unit may be performed on the original image for generating the overhead image segment, or on the generated overhead image segment You may go. Therefore, in one preferred embodiment, the overhead image generation unit generates the overhead image segment from the corrected captured image generated by the captured image correction unit. Further, in another one of the preferred embodiments, the captured image correction unit performs image correction on the overhead image segment generated by the overhead image generation unit, and from the overhead image segment subjected to the image correction, the image correction unit performs the image correction. An overhead image is generated.

上述したような道路要素をカラーリファレンスとした画像補正において特に好適な画像補正は、ホワイトバランス補正である。従って、特に好適な実施形態として、前記特定の道路要素が白色系道路標示であり、前記画像補正がホワイトバランス補正であり、前記撮影画像補正部は、前記撮影画像から抽出された白色系道路標示に基づいて当該撮影画像に対してホワイトバランス補正を施して補正撮影画像を生成する駐車支援装置が提案される。つまり、この好適な駐車支援装置の特徴は、自車周辺をそれぞれ異なる撮影視野で撮影する複数のカメラによる撮影画像を取得する画像入力部と、前記撮影画像から白色系道路標示を抽出する白色系道路標示抽出部と、前記撮影画像から抽出された白色系道路標示に基づいて当該撮影画像に対してホワイトバランス補正を施して補正撮影画像を生成する撮影画像補正部と、前記補正撮影画像から視点変換を通じて生成された前記カメラ毎の俯瞰画像セグメントを合成して、モニタに表示する自車周辺の表示画像としての俯瞰画像を生成する俯瞰画像生成部とを備えている点にある。   A particularly suitable image correction in the image correction using the road elements as described above as a color reference is white balance correction. Therefore, as a particularly preferred embodiment, the specific road element is a white road sign, the image correction is a white balance correction, and the photographed image correction unit is a white road sign extracted from the photographed image. A parking assist device is proposed that performs white balance correction on the captured image to generate a corrected captured image. In other words, this preferred parking assist device is characterized by an image input unit that acquires captured images from a plurality of cameras that capture the periphery of the vehicle with different field of view, and a white system that extracts a white road sign from the captured image. A road sign extraction unit, a shot image correction unit that generates a corrected shot image by performing white balance correction on the shot image based on a white road sign extracted from the shot image, and a viewpoint from the corrected shot image An overhead image generation unit that combines the overhead image segments for each camera generated through the conversion and generates an overhead image as a display image around the host vehicle displayed on the monitor.

道路路肩周辺や駐車場に区画された駐車領域にはその境界を示すための白線や、道路側に描かれた車線境界線などの白色系道路標示が存在している。この構成によると、そのような白色系道路標示を各カメラから取得された撮影画像から抽出し、この抽出された白色系道路標示をホワイトバランス補正のためのカラーリファレンスとして用いる。つまり、各撮影画像において、抽出された白色系道路標示が所定の白系色になるように色補正する。これによって得られた補正撮影画像では、どのような主光源下で撮影されたものであっても、少なくとも白色系道路標示は所定の白系色となっている。従って、これらの補正撮影画像から視点変換を通じて、自車周辺の表示画像としての俯瞰画像を生成し、モニタに表示すると、駐車時において最も重要であり、運転者が注目する、駐車境界線を示す白線等の白色系道路標示は、俯瞰画像全体において同じ色、つまり所定の白系色で表示されるので、運転者は駐車支援のためにモニタに表示された俯瞰画像を違和感なしに見ることができる。   White road markings such as a white line for indicating the boundary and a lane boundary drawn on the road side exist in the parking area partitioned around the road shoulder and the parking lot. According to this configuration, such a white road marking is extracted from a captured image acquired from each camera, and the extracted white road marking is used as a color reference for white balance correction. That is, color correction is performed so that the extracted white road marking becomes a predetermined white color in each captured image. In the corrected captured image obtained in this way, at least the white road marking has a predetermined white color regardless of the main light source. Therefore, when a bird's-eye view image as a display image around the host vehicle is generated from these corrected captured images through viewpoint conversion and displayed on the monitor, the parking boundary line that is most important at the time of parking and is noticed by the driver is shown. A white road marking such as a white line is displayed in the same color in the entire overhead image, that is, a predetermined white color, so that the driver can see the overhead image displayed on the monitor for parking assistance without a sense of incongruity. .

駐車場では、大抵の場合、白色系道路標示の一例として駐車領域の境界を示すために直線的な駐車白線が存在しているので、俯瞰画像を生成するための各撮影画像にそのような白色系道路標示が含まれている可能性が高い。しかしながら、車両の向きや姿勢によっては、特定のカメラの撮影画像には白色系道路標示が含まれていない可能性もある。したがって本発明の好適な実施形態の1つでは、前記撮影画像補正部は、前記白色系道路標示が抽出されなかった撮影画像に対して、前回の補正撮影画像の生成時に用いられたホワイトバランス補正パラメータに基づいて擬似ホワイトバランス補正を施して補正撮影画像を生成するように構成されている。この構成によれば、ホワイトバランス補正を行うとする撮影画像から白色系道路標示が抽出されなければ、前回に使用されたホワイトバランス補正パラメータを用いてホワイトバランス補正が行われる。環境光源の状態が短い時間間隔で大きく変化する可能性は少ないので、前回の白色系道路標示抽出点から時間的または距離的に所定以上離れていない場合、前回のホワイトバランス補正パラメータに基づいて補正しても、満足できる補正撮影画像が得られる。   In parking lots, there is often a straight parking white line to show the boundary of the parking area as an example of a white road marking, so each captured image for generating an overhead image has such white There is a high possibility that road markings are included. However, depending on the orientation and posture of the vehicle, there is a possibility that a photograph taken by a specific camera does not include a white road marking. Therefore, in one preferred embodiment of the present invention, the captured image correction unit performs white balance correction used at the time of generating the previous corrected captured image on the captured image from which the white road marking has not been extracted. A corrected captured image is generated by performing pseudo white balance correction based on the parameter. According to this configuration, if a white road marking is not extracted from a photographed image to be subjected to white balance correction, white balance correction is performed using the white balance correction parameter used last time. Since the state of the environmental light source is unlikely to change significantly at short time intervals, if it is not more than a predetermined distance in time or distance from the previous white road marking extraction point, it is corrected based on the previous white balance correction parameter Even so, a satisfactory corrected photographed image can be obtained.

駐車経路や車両姿勢によっては、特定のカメラの撮影画像から白色系道路標示が抽出されない状態が続く場合がある。このような事態に対処するため、本発明の好適な実施形態の1つでは、前記白色系道路標示が抽出されなかった撮影画像に対する擬似ホワイトバランス補正は、当該撮影画像のカメラに隣接するカメラによる撮影画像の補正撮影画像の生成時に用いられたホワイトバランス補正パラメータに基づいて行われる。この構成では、隣接する同士のカメラによる撮影画像は主光源が同じ可能性が高いことから、一方の補正に用いられたホワイトバランス補正パラメータを流用される。これにより、相互の補正撮影画像において違和感を生じるような色ずれなどは抑制される。   Depending on the parking route and the vehicle posture, a state where a white road marking is not extracted from a photographed image of a specific camera may continue. In order to cope with such a situation, in one of the preferred embodiments of the present invention, the pseudo white balance correction for the captured image from which the white road marking is not extracted is performed by a camera adjacent to the camera of the captured image. Correction of the photographed image This is performed based on the white balance correction parameter used when generating the photographed image. In this configuration, images taken by adjacent cameras are likely to have the same main light source, so the white balance correction parameter used for one of the corrections is used. As a result, color misalignment or the like that causes a sense of incongruity in the mutually corrected captured images is suppressed.

本発明の好適な実施形態の1つでは、路面に描画されている駐車白線を境界基準として駐車領域を設定する駐車領域設定部が備えられており、当該駐車白線の認識情報が前記白色系道路標示として利用される。この構成は、従来から知られている、所定の駐車位置に車両を駐車させる運転操作を支援する駐車支援装置における、白色系道路標示としての白線認識技術を利用するものである。例えば、特開2008−284969号公報に記載されている駐車支援装置では、駐車区画を示す白線を画像認識し、その認識結果に基づいて駐車目標位置を定め、当該駐車目標位置と後退開始位置において停車している車両の位置とに基づいて誘導経路を計算して、当該誘導経路に基づいて駐車支援を行う。このように駐車白線の認識技術を備えている駐車支援装置に本発明によるホワイトバランス補正技術を組み込むことで、違和感のない俯瞰画像をモニタ表示することができる。つまり、認識された駐車白線に関する情報に基づいて撮影画像から駐車白線を抽出して、その抽出された駐車白線をカラーリファレンスとして用いてホワイトバランス補正を施すことにより、違和感のない俯瞰画像が生成される。   In one preferred embodiment of the present invention, a parking area setting unit is provided for setting a parking area with a parking white line drawn on a road surface as a boundary reference, and the recognition information of the parking white line is the white road. Used as a sign. This configuration uses a white line recognition technique as a white road marking in a parking assist device that supports a driving operation for parking a vehicle at a predetermined parking position, which is conventionally known. For example, in the parking assist device described in Japanese Patent Application Laid-Open No. 2008-284969, a white line indicating a parking area is image-recognized, a parking target position is determined based on the recognition result, and the parking target position and the reverse start position are determined. A guidance route is calculated based on the position of the stopped vehicle, and parking assistance is performed based on the guidance route. Thus, by incorporating the white balance correction technology according to the present invention into a parking assistance device having a parking white line recognition technology, it is possible to monitor and display a bird's-eye view image without a sense of incongruity. In other words, by extracting the parking white line from the captured image based on the information regarding the recognized parking white line and performing white balance correction using the extracted parking white line as a color reference, a bird's-eye view image without a sense of incongruity is generated. The

本発明による駐車支援装置の好適な実施形態で用いられている、複数カメラによる撮影画像にホワイトバランス補正を施し、補正された撮影画像に基づいて俯瞰画像を生成する基本的な生成過程を説明する模式図である。A basic generation process used in a preferred embodiment of the parking assistance apparatus according to the present invention to perform white balance correction on an image captured by a plurality of cameras and generate an overhead image based on the corrected captured image will be described. It is a schematic diagram. 本発明による駐車支援装置を搭載した車両の一部を切り欠いた車両斜視図である。1 is a perspective view of a vehicle in which a part of a vehicle equipped with a parking assist device according to the present invention is cut away. 複数の車載カメラの撮影範囲を示す平面図である。It is a top view which shows the imaging | photography range of a some vehicle-mounted camera. 駐車支援制御ユニットを含む車両制御システムの一部を模式的に示す機能ブロック図である。It is a functional block diagram which shows typically a part of vehicle control system containing a parking assistance control unit. 画像処理モジュールの機能ブロック図である。It is a functional block diagram of an image processing module. 撮影画像に対して、白線を用いホワイトバランス補正及び擬似ホワイトバランス補正を施す過程を模式的に示す説明図である。It is explanatory drawing which shows typically the process of performing white balance correction | amendment and pseudo | simulation white balance correction | amendment using a white line with respect to a picked-up image. 補正撮影画像から俯瞰画像が生成される工程を模式的に示す説明図である。It is explanatory drawing which shows typically the process in which a bird's-eye view image is produced | generated from a correction | amendment picked-up image. 白線が強調された俯瞰画像を含むモニタ表示画像を示すモニタ画面図である。It is a monitor screen figure which shows the monitor display image containing the bird's-eye view image with which the white line was emphasized.

まず、図1を用いて、本発明による駐車支援装置の好適な実施形態を説明する。なお、ここでは、 特定の道路要素が白色系道路標示であり、画像補正がホワイトバランス補正である。つまり、当該撮影画像に対してホワイトバランス補正を施して補正撮影画像を生成される構成が採用されている。複数カメラによる撮影画像から抽出された白色系道路標示に基づいて撮影画像にホワイトバランス補正を施すことで補正された撮影画像に基づいて俯瞰画像を生成する基本的な生成過程を説明する。ここでの例では、後進車庫入れ駐車時に4台のカメラで取得される複数の撮影画像を、駐車用白色系道路標示に基づいてホワイトバランス補正を行い、補正された撮影画像から自車周辺俯瞰画像(以後、単に俯瞰画像と略称する)が生成される。駐車領域を境界付けている駐車白線(以下単に白線と略称する)WMが駐車用白色系道路標示の一例として採用されている。ここで駐車支援される乗用車(以下自車と称す)は、リア、フロント、左右サイドをそれぞれ撮影視野とする4台のカメラを搭載しており、各カメラによって取得された、ここでは(1a)、(1b)、(1c)、(1d)で符号付けられた4つの撮影画像によって、自車周囲は実質的に隙間なくカバーされている。   First, a preferred embodiment of a parking assistance device according to the present invention will be described with reference to FIG. Here, the specific road element is a white road marking, and the image correction is white balance correction. That is, a configuration is adopted in which white balance correction is performed on the captured image to generate a corrected captured image. A basic generation process for generating a bird's-eye view image based on a photographed image corrected by performing white balance correction on the photographed image based on a white road marking extracted from the photographed images by a plurality of cameras will be described. In this example, white balance correction is performed on a plurality of captured images acquired by four cameras during parking in a reverse garage, based on the white road marking for parking, and the surrounding area of the vehicle is viewed from the corrected captured images. An image (hereinafter simply referred to as an overhead image) is generated. A parking white line (hereinafter simply referred to as a white line) WM that bounds the parking area is employed as an example of a white road marking for parking. The passenger car (hereinafter referred to as the own vehicle) that is parking-supported here is equipped with four cameras each having a photographing field of view at the rear, the front, and the left and right sides. Here, (1a) acquired by each camera. , (1b), (1c), and (1d), the surrounding area of the vehicle is substantially covered with no gaps.

駐車領域(この例では、駐車方向に延びた2つの白線WMで区画された領域)が確定され、後進駐車が開始されると、各カメラによって撮影された撮影画像(1a)、(1b)、(1c)、(1d)が取得される(#01)。取得された撮影画像から、それ自体は公知の白線検出アルゴリズムを用いた、白線WMの検出処理が行われる。白線WMが検出されると、その白線WMの境界線で囲まれた白線領域が抽出され、その領域の平均画素値(例えばR・G・B値)などを含む白線情報が生成される(#02)。白線情報が生成されると、この白線情報の内容と、対応する撮影画像の画像特性(ka:平均画素値や輝度ヒストグラムなど)とに基づいて、補正パラメータを生成する(#03)。この補正パラメータは、処理対象となっている撮影画像の白線WMが所定の白色に変換されるパラメータ群を意味しており、ホワイトバランス補正パラメータ(ホワイトバランス補正曲線:Pa=f(ka))である。これらのホワイトバランス補正パラメータ(Pa=f(ka);Pb=f(kb);Pc=f(kc);Pd=f(kd))は全ての撮影画像(1a)、(1b)、(1c)、(1d)に対して生成される。続いて、このホワイトバランス補正パラメータを当該撮影画像全体に施すことにより、4つの撮影画像に対してホワイトバランス補正が実行され、4つの補正撮影画像が生成される(#04)。この4つの補正撮影画像では、少なくとも白線WMの色が統一されているとともに、その他の画像領域における色かぶりなども抑制されるので、相互の色合いの違いが改善されることになる。次いで、各補正撮影画像を視点変換することにより、カメラ毎の俯瞰画像セグメントが生成され、これらの俯瞰画像セグメントが合成され、俯瞰画像が生成される(#05)。生成された俯瞰画像は、例えば、バックカメラの撮影画像をそのまま利用したバックモニタ画像とともにモニタ表示される(#06)。   When a parking area (in this example, an area partitioned by two white lines WM extending in the parking direction) is determined and reverse parking is started, the captured images (1a), (1b), (1c) and (1d) are acquired (# 01). From the acquired captured image, white line WM detection processing is performed using a known white line detection algorithm. When the white line WM is detected, a white line region surrounded by the boundary line of the white line WM is extracted, and white line information including an average pixel value (for example, R, G, B value) of the region is generated (# 02). When the white line information is generated, a correction parameter is generated based on the content of the white line information and the image characteristics (ka: average pixel value, luminance histogram, etc.) of the corresponding captured image (# 03). This correction parameter means a parameter group in which the white line WM of the photographed image to be processed is converted into a predetermined white color, and is a white balance correction parameter (white balance correction curve: Pa = f (ka)). is there. These white balance correction parameters (Pa = f (ka); Pb = f (kb); Pc = f (kc); Pd = f (kd)) are all taken images (1a), (1b), (1c). ), (1d). Subsequently, by applying this white balance correction parameter to the entire photographed image, white balance correction is executed on the four photographed images, and four corrected photographed images are generated (# 04). In these four corrected photographed images, at least the color of the white line WM is unified, and color fogging in other image areas is also suppressed, so that the difference in mutual hue is improved. Next, by converting the viewpoint of each corrected photographed image, an overhead image segment for each camera is generated, and these overhead image segments are combined to generate an overhead image (# 05). The generated overhead image is displayed on a monitor together with, for example, a back monitor image using the image captured by the back camera as it is (# 06).

図1を用いて説明した実施形態では、駐車用白色系道路標示を用いてホワイトバランス補正された補正撮影画像から俯瞰画像セグメントが生成される手順が示されていたが、これに代えて、先に俯瞰画像セグメントを生成し、この俯瞰画像セグメントに対して駐車用白色系道路標示を用いてホワイトバランス補正を行う手順を採用してもよい。   In the embodiment described with reference to FIG. 1, the procedure for generating the overhead image segment from the corrected captured image that has been white balance corrected using the white road marking for parking has been shown. Alternatively, a procedure may be employed in which an overhead image segment is generated and white balance correction is performed on the overhead image segment using a white road marking for parking.

以下、本発明の実施形態の具体例を図面に基づいて説明する。本実施形態での駐車支援装置は、自車に備えられた前方カメラ、左右サイドカメラ、後方カメラのうちの駐車方向と左右方向とを撮影するカメラの撮影画像とから生成される俯瞰画像をモニタ表示するものである。
図2と、図3に示すように、この車両は、左右の前輪11aと11bが操向車輪として、左右の後輪12aと12bが非操向車輪として構成されている。車両後部、即ちバックドア91には後方カメラ1aが備えられている。左前部ドアに備えられた左サイドミラー92の下部には左サイドカメラ1bが備えられ、右前部ドアに備えられた右サイドミラー93の下部には右サイドカメラ1cが備えられている。また、車両前部には、前方カメラ1dが備えられている。以下の説明において、適宜、これらのカメラ1a〜1dを総称してカメラ1(車載カメラ)と称する。
Hereinafter, specific examples of embodiments of the present invention will be described with reference to the drawings. The parking assist device according to the present embodiment monitors a bird's-eye view image generated from a captured image of a camera that captures the parking direction and the left-right direction among the front camera, left-right side camera, and rear camera provided in the host vehicle. To display.
As shown in FIGS. 2 and 3, the vehicle is configured such that the left and right front wheels 11a and 11b are steered wheels and the left and right rear wheels 12a and 12b are non-steered wheels. A rear camera 1 a is provided at the rear of the vehicle, that is, the back door 91. A left side camera 1b is provided below the left side mirror 92 provided on the left front door, and a right side camera 1c is provided below the right side mirror 93 provided on the right front door. A front camera 1d is provided at the front of the vehicle. In the following description, these cameras 1a to 1d will be collectively referred to as a camera 1 (vehicle camera) as appropriate.

カメラ1はCCD(charge coupled device)やCIS(CMOS image sensor)などの撮像素子を用いて、毎秒15〜30フレームの2次元画像を時系列に撮影し、デジタル変換してその撮影画像をリアルタイムに出力するデジタルカメラである。カメラ1は、広角レンズを備えて構成される。特に、本実施形態においては、水平方向にほぼ180°の視野角が確保されている。後方カメラ1a及び前方カメラ1dは、光軸に約30度程度の俯角を有して車両に設置され、車両からおおよそ8m程度までの領域を撮影可能である。左サイドカメラ1b及び右サイドカメラ1cはサイドミラー92及び93の底部に光軸を下方に向けて設置され、車両側面の一部と路面(地面)とがその視野内となる。駐車支援においては、カメラ1による撮影画像ないしは当該撮影画像を用いて生成された俯瞰画像がモニタ21に表示される。また、駐車出発点から目標とする駐車領域までの駐車経路に基づく音声による駐車案内もスピーカ22から発せられる。駐車領域の確認やその他の操作入力はモニタ21に装着されたタッチパネル21Tを通じて行われる。   The camera 1 uses an image sensor such as a charge coupled device (CCD) or a CMOS image sensor (CIS) to take a two-dimensional image of 15 to 30 frames per second in time series, and digitally converts the captured image in real time. It is a digital camera that outputs. The camera 1 includes a wide angle lens. In particular, in the present embodiment, a viewing angle of approximately 180 ° is ensured in the horizontal direction. The rear camera 1a and the front camera 1d are installed in a vehicle having a depression angle of about 30 degrees on the optical axis, and can capture an area of about 8 m from the vehicle. The left side camera 1b and the right side camera 1c are installed at the bottoms of the side mirrors 92 and 93 with the optical axis facing downward, and part of the side surface of the vehicle and the road surface (ground) are within the field of view. In the parking assistance, an image captured by the camera 1 or an overhead image generated using the captured image is displayed on the monitor 21. In addition, voice guidance based on a parking route from a parking departure point to a target parking area is also emitted from the speaker 22. Confirmation of the parking area and other operation inputs are performed through the touch panel 21T attached to the monitor 21.

車両内部には、本発明の駐車支援装置の中核をなす駐車支援制御ユニット(以下単にECUと称する)20が配置されている。このECU20は、図4に示すように、情報の入出力を行う入出力インターフェースとしてセンサ入力インターフェース23や通信インターフェース70などを備えると共に、入出力インターフェースを介して得られる情報を処理するマイクロプロセッサや、DSP(digital signal processor)を備えている。また、入出力インターフェースの一部又は全てがこのようなプロセッサに含まれていてもよい。   Inside the vehicle, a parking support control unit (hereinafter simply referred to as ECU) 20 that is the core of the parking support device of the present invention is arranged. As shown in FIG. 4, the ECU 20 includes a sensor input interface 23, a communication interface 70, and the like as input / output interfaces for inputting / outputting information, and a microprocessor for processing information obtained via the input / output interface, A DSP (digital signal processor) is provided. Also, some or all of the input / output interfaces may be included in such a processor.

センサ入力インターフェース23には、運転操作や移動状態を検出するための車両状態検出センサ群が接続されている。車両状態検出センサ群には、ステアリング操作方向(操舵方向)と操作量(操舵量)とを計測するステアリングセンサ24、シフトレバーのシフト位置を判別するシフト位置センサ25、アクセルペダルの操作量を計測するアクセルセンサ26、ブレーキペダルの操作量を検出するブレーキセンサ27、自車の走行距離を検出する距離センサ28などが含まれている。
また、通信インターフェース70は、車載LANを採用しており、タッチパネル21Tやモニタ21だけでなく、パワーステアリングユニットPS、変速機構T、ブレーキ装置BKなどの制御ユニットがデータ伝送可能に接続されている。
The sensor input interface 23 is connected to a vehicle state detection sensor group for detecting a driving operation and a moving state. The vehicle state detection sensor group includes a steering sensor 24 that measures the steering operation direction (steering direction) and the operation amount (steering amount), a shift position sensor 25 that determines the shift position of the shift lever, and an accelerator pedal operation amount. An accelerator sensor 26 for detecting the brake pedal, a brake sensor 27 for detecting the operation amount of the brake pedal, a distance sensor 28 for detecting the travel distance of the host vehicle, and the like.
The communication interface 70 employs an in-vehicle LAN, and not only the touch panel 21T and the monitor 21, but also control units such as a power steering unit PS, a transmission mechanism T, and a brake device BK are connected so as to be able to transmit data.

ECU20には、報知出力機能部として、表示制御部71と、音声処理モジュール72が備えられている。GUI用の各種画像情報や車両誘導のための報知メッセージを含む撮影画像情報は表示制御部71を介してモニタ21に表示される。音声処理モジュール72で生成された車両誘導のための音声ガイドや緊急時の警告音などはスピーカ22から出力される。さらに、ECU20には、白色系道路標示認識部30と、駐車領域設定部31と、目標駐車位置算定部32と、駐車経路生成部33と、誘導制御部34と、位置情報算定部35と、画像処理モジュール50とが備えられる。   The ECU 20 includes a display control unit 71 and a sound processing module 72 as a notification output function unit. Captured image information including various image information for GUI and a notification message for vehicle guidance is displayed on the monitor 21 via the display control unit 71. A voice guide for vehicle guidance, an emergency warning sound, and the like generated by the voice processing module 72 are output from the speaker 22. Further, the ECU 20 includes a white road marking recognition unit 30, a parking area setting unit 31, a target parking position calculation unit 32, a parking route generation unit 33, a guidance control unit 34, a position information calculation unit 35, An image processing module 50 is provided.

白色系道路標示認識部30は、ここでは駐車領域の区画を決定している白線を認識する駐車白線認識部として構成されている。この白線認識は、例えば画像処理モジュール50に一時的に格納されている撮影画像に微分フィルタをかけて得られるエッジ画素に対してハフ変換などを用いて直線当てはめを行うことによって行われる。そのような白線認識アルゴリズムはそれ自体公知であり、例えば特開2006−175918号公報や特開2008−284969号公報に詳しく記載されているので、ここではこれ以上の説明は省略する。   Here, the white road marking recognizing unit 30 is configured as a parking white line recognizing unit that recognizes a white line that determines a section of the parking area. This white line recognition is performed, for example, by performing straight line fitting using Hough transform or the like on edge pixels obtained by applying a differential filter to a captured image temporarily stored in the image processing module 50. Such a white line recognition algorithm is known per se, and is described in detail in, for example, Japanese Patent Application Laid-Open No. 2006-175918 and Japanese Patent Application Laid-Open No. 2008-284969.

駐車領域設定部31は、白色系道路標示認識部30によって認識された白線の位置情報から自車を駐車させるための駐車領域を設定する。なお、この駐車領域の設定を、モニタ21に表示された撮影画像を通じてマニュアル操作で設定するような方式を採用してもよい。
目標駐車位置算定部32は、駐車領域設定部31によって設定された駐車領域内における駐車走行の到達点となる目標駐車位置としての駐車完了位置を、駐車領域の寸法や自車の寸法や設定する。自車が目標駐車位置で停止することで、自車は駐車領域内の適切な位置(例えば真ん中)に駐車することになる。
The parking area setting unit 31 sets a parking area for parking the vehicle from the position information of the white line recognized by the white road marking recognition unit 30. In addition, you may employ | adopt the system which sets the setting of this parking area by manual operation through the picked-up image displayed on the monitor 21. FIG.
The target parking position calculation unit 32 sets the parking completion position as the target parking position, which is the arrival point of parking travel in the parking area set by the parking area setting unit 31, and the dimension of the parking area and the size of the own vehicle. . When the own vehicle stops at the target parking position, the own vehicle is parked at an appropriate position (for example, the middle) in the parking area.

駐車経路生成部33は、駐車経路を生成する。この駐車経路は、駐車支援が開始された駐車出発点から駐車目標位置である駐車完了位置までを結ぶ経路であり、部分的に直線が含まれたり、または全体として直線であったりしてもよいが、実質的には1つ以上の曲線で示すことができる。なお駐車経路の生成アルゴリズムは、従来から知られており、特開2003‐237511号公報や特開2008‐284969号公報などを参照することができる。   The parking route generation unit 33 generates a parking route. This parking route is a route connecting from the parking departure point where parking assistance is started to the parking completion position which is the parking target position, and may include a straight line partially or as a whole as a straight line. Can be substantially represented by one or more curves. Incidentally, the generation algorithm of the parking route has been conventionally known, and reference can be made to Japanese Patent Laid-Open No. 2003-237511, Japanese Patent Laid-Open No. 2008-284969, and the like.

位置情報算定部35は、自車の移動時に、自車の誘導に必要な現在の車両位置と、自車に対する目標駐車領域の位置とを取得する。つまり、位置情報算定部35では自車の移動に伴って変化する自車の位置情報を検出する車両位置検出処理と、自車の移動に伴って変化する目標駐車領域との相対的な位置関係を算定する駐車領域相対位置算定処理とを行う。これらの処理はカメラ1で取得された撮影画像と、距離センサ28で取得する車両移動量と、ステアリングセンサ24で計測されるステアリングホイールの操舵量とに基づいて行われる。   The position information calculation unit 35 acquires the current vehicle position necessary for guidance of the host vehicle and the position of the target parking area with respect to the host vehicle when the host vehicle moves. That is, the position information calculation unit 35 detects the relative position relationship between the vehicle position detection process for detecting the position information of the own vehicle that changes with the movement of the own vehicle and the target parking area that changes with the movement of the own vehicle. The parking area relative position calculation process for calculating These processes are performed based on the captured image acquired by the camera 1, the vehicle movement amount acquired by the distance sensor 28, and the steering amount of the steering wheel measured by the steering sensor 24.

誘導制御部34は、駐車経路生成部33によって生成された直接駐車経路に基づく駐車を誘導する。その際、位置情報算定部35からの位置情報が参照される。誘導制御部34は、位置情報算定部35からの位置情報を参照しながら、駐車経路に沿うように誘導制御によって自車を走行させる制御を実現することができる。しかしながら、誘導制御部34がパワーステアリングユニットPS、変速機構T、ブレーキ装置BKを制御する自動操舵は後進走行だけに限定して、前進走行は人為操舵とするといったように、部分的に人為操舵を組み込んでもよい。この誘導制御部34による誘導情報は画像処理モジュール50や音声処理モジュール72に送られるので、要求に応じてに応じて操舵方向や操舵量がモニタ21に表示され、あるいは操舵方向や操舵量がスピーカ22から出力される。いずれにせよ、モニタ21には、画像処理モジュール50によって生成された俯瞰画像が表示されるので、運転者は駐車プロセスにおける自車の位置関係を容易に理解できる。   The guidance control unit 34 guides parking based on the direct parking route generated by the parking route generation unit 33. At that time, the position information from the position information calculation unit 35 is referred to. The guidance control unit 34 can realize control for driving the host vehicle by guidance control along the parking route while referring to the location information from the location information calculation unit 35. However, automatic steering in which the guidance control unit 34 controls the power steering unit PS, the transmission mechanism T, and the brake device BK is limited to backward traveling only, and the forward steering is partially manual steering. It may be incorporated. Since the guidance information by the guidance control unit 34 is sent to the image processing module 50 and the sound processing module 72, the steering direction and the steering amount are displayed on the monitor 21 as required, or the steering direction and the steering amount are displayed on the speaker. 22 is output. In any case, since the bird's-eye view image generated by the image processing module 50 is displayed on the monitor 21, the driver can easily understand the positional relationship of the vehicle in the parking process.

図5に、ECU20の画像処理モジュール50の機能ブロック図が示されている。画像処理モジュール50は、自車周辺を撮影する複数のカメラ1によって取得された撮影画像に統一感を与えるように、少なくとも白線WMの色を所定色に合わす機構と、撮影画像から自車上方を視点とする視点変換によって俯瞰画像を生成する機能とを有している。   FIG. 5 shows a functional block diagram of the image processing module 50 of the ECU 20. The image processing module 50 includes a mechanism for matching at least the color of the white line WM to a predetermined color so as to give a sense of unity to the captured images acquired by the plurality of cameras 1 that capture the periphery of the vehicle, And a function of generating a bird's-eye view image by viewpoint conversion as a viewpoint.

画像処理モジュール50は、画像入力部51、撮影画像メモリ52、白色系道路標示抽出部53、撮影画像補正部54、画像生成部60、画像合成部67を含んでいる。画像入力部51は、各カメラ1によって取得された撮影画像はを撮影画像メモリ52に展開する。白色系道路標示抽出部53は、ここでは駐車区画線である白線WMを、上記した白色系道路標示認識部30から送られてくる白線認識情報に基づいて対応する撮影画像から白線WMの画像領域の画素値などの画像特徴量を抽出する。   The image processing module 50 includes an image input unit 51, a captured image memory 52, a white road marking extraction unit 53, a captured image correction unit 54, an image generation unit 60, and an image composition unit 67. The image input unit 51 develops the captured image acquired by each camera 1 in the captured image memory 52. The white road marking extraction unit 53 here converts the white line WM, which is a parking lot line, from the corresponding captured image based on the white line recognition information sent from the white road marking recognition unit 30 to the image area of the white line WM. The image feature amount such as the pixel value is extracted.

撮影画像補正部54は、補正パラメータ算定部55、ホワイトバランス補正部56、擬似ホワイトバランス補正部57を有する。次に、図6を参照しながら、この撮影画像補正部54による補正機能を説明する。補正パラメータ算定部55は、白色系道路標示抽出部53によって抽出された白線WMに関する画像特徴量や、撮影画像メモリ52に展開されている処理対象の撮影画像((1a)、(1b)、(1c)、(1d)のいずれか)の画像特徴量などである補正パラメータ算定因子群ka、kb、kc、kdから、処理対象の撮影画像で認識された白線WMの色を所定の色(例えば予め設定された白色)とするためのホワイトバランス補正パラメータ(以下単に補正パラメータと略称する)を算定する。この補正パラメータを導出する関数をfとし、各撮影画像のための補正パラメータをPa、Pb、Pc、Pdとすると、
Pa=f(ka)、Pb=f(kb)、Pc=f(kc)、Pd=f(kd)、
と表すことができる。なお、補正パラメータは一般的にはマトリックスで表されるが、機能的には、入力値を所定の出力値に変換する変換曲線のようなものである。
The captured image correction unit 54 includes a correction parameter calculation unit 55, a white balance correction unit 56, and a pseudo white balance correction unit 57. Next, the correction function by the photographed image correction unit 54 will be described with reference to FIG. The correction parameter calculation unit 55 includes the image feature amount related to the white line WM extracted by the white road marking extraction unit 53, and the processing target captured images ((1a), (1b), ( From the correction parameter calculation factor groups ka, kb, kc, and kd that are image feature amounts of any of 1c) and (1d)), the color of the white line WM recognized in the captured image to be processed is set to a predetermined color (for example, A white balance correction parameter (hereinafter simply referred to as a correction parameter) for obtaining a preset white color) is calculated. If the function for deriving this correction parameter is f and the correction parameters for each captured image are Pa, Pb, Pc, Pd,
Pa = f (ka), Pb = f (kb), Pc = f (kc), Pd = f (kd),
It can be expressed as. The correction parameter is generally expressed as a matrix, but functionally, it is like a conversion curve for converting an input value into a predetermined output value.

ホワイトバランス補正部56は、各補正パラメータPa、Pb、Pc、Pdを用いて対応する撮影画像に対してホワイトバランス補正を施し、つまり〔補正撮影画像(1a)〕=〔撮影画像(1a)〕*〔Pa〕のようなマトリックス演算を施し、各補正撮影画像を生成する。 The white balance correction unit 56 performs white balance correction on the corresponding captured image using each correction parameter Pa, Pb, Pc, Pd, that is, [corrected captured image (1a)] = [captured image (1a)]. * Matrix operation like [Pa] is performed to generate each corrected photographed image.

擬似ホワイトバランス補正部57は、図6においては、撮影画像(1c)や撮影画像(1d)のように白線WMが認識されなかった場合、以下に説明するような擬似的なホワイトバランス補正を白線WMが認識されなかった撮影画像に施す機能を有する。この擬似ホワイトバランス補正として2種類の例をここで示す。   In FIG. 6, when the white line WM is not recognized as in the captured image (1c) or the captured image (1d), the pseudo white balance correction unit 57 performs pseudo white balance correction as described below. It has a function to be applied to a captured image in which WM is not recognized. Two examples of this pseudo white balance correction are shown here.

第1の擬似ホワイトバランス補正は、白線WMが認識されなかった撮影画像を取得したカメラ1による、今回の駐車プロセスにおけるこれまでの撮影画像において認識された白線WMがあれば、その白線WMに基づく補正パラメータを用いて行うホワイトバランス補正である。つまり、時間的または走行距離的に所定値だけ遡った時点で用いた補正パラメータを用いる補正である。第2の擬似ホワイトバランス補正は、白線WMが認識されなかった撮影画像を取得したカメラ1以外の、好ましくは隣接するカメラ1の撮影画像で白線WMが認識されている場合、その白線WMに基づく補正パラメータに基づいて行うホワイトバランス補正である。例えば、図6の例では、撮影画像(1d)を取得するカメラ1dに隣接するカメラ1bによる撮影画像(1b)で白線WMが認識されているので、その白線WMに基づく補正パラメータPbを用いて、つまりPd=g(Pb)で導出される補正パラメータを用いて、撮影画像(1d)のホワイトバランス補正が行われる。同様に、撮影画像(1c)ホワイトバランス補正が、Pc=g(Pa)で導出される補正パラメータを用いて行われる。また、図示された例とは異なるが、撮影画像(1d)を取得するカメラ1dに隣接するカメラ1b及び1cによる撮影画像(1b)及び(1c)において白線WMが認識されていた場合、それらの白線WMに基づく補正パラメータPdから撮影画像(1d)のための補正パラメータPdを導出することも可能である。この導出は、Pd=h(Pb,Pc)と表されるが、例えばその関数hとしてその中間値を求める関数などを採用することができる。
なお、この第1又は第2の擬似ホワイトバランス補正の選択基準としては、第1の擬似ホワイトバランス補正を、所定走行距離内で生成された補正パラメータPdが存在することを条件として、優先することが好ましい。
The first pseudo white balance correction is based on the white line WM, if there is a white line WM recognized in the previous captured image in the current parking process by the camera 1 that acquired the captured image in which the white line WM was not recognized. This is white balance correction performed using correction parameters. In other words, the correction is performed using the correction parameter used when the time or travel distance goes back by a predetermined value. The second pseudo white balance correction is based on the white line WM when the white line WM is recognized in a captured image of an adjacent camera 1 other than the camera 1 that has acquired the captured image in which the white line WM was not recognized. This is white balance correction performed based on the correction parameters. For example, in the example of FIG. 6, since the white line WM is recognized in the captured image (1b) by the camera 1b adjacent to the camera 1d that acquires the captured image (1d), the correction parameter Pb based on the white line WM is used. That is, using the correction parameter derived by Pd = g (Pb), white balance correction of the captured image (1d) is performed. Similarly, the photographic image (1c) white balance correction is performed using the correction parameter derived by Pc = g (Pa). Further, although different from the illustrated example, when the white line WM is recognized in the captured images (1b) and (1c) by the cameras 1b and 1c adjacent to the camera 1d that acquires the captured image (1d), It is also possible to derive the correction parameter Pd for the captured image (1d) from the correction parameter Pd based on the white line WM. This derivation is expressed as Pd = h (Pb, Pc). For example, a function for obtaining an intermediate value can be adopted as the function h.
As a selection criterion for the first or second pseudo white balance correction, the first pseudo white balance correction is prioritized on the condition that the correction parameter Pd generated within a predetermined travel distance exists. Is preferred.

画像生成部60は、通常画像生成部61、周辺俯瞰画像生成部62、マッピングテーブル63、強調標示イメージ生成部64、自車イメージ生成部65、報知イメージ生成部66を含んでいる。
通常画像生成部61は、撮影画像をそのまま車両周辺画像としてモニタ表示するために適した画質に調整する。モニタ表示される車両周辺画像はカメラ毎に独立しており、そのモニタ表示を任意に選択することができる。
The image generation unit 60 includes a normal image generation unit 61, a surrounding bird's-eye view image generation unit 62, a mapping table 63, an enhanced sign image generation unit 64, a host vehicle image generation unit 65, and a notification image generation unit 66.
The normal image generation unit 61 adjusts the captured image to an image quality suitable for monitor display as a vehicle peripheral image as it is. The vehicle periphery image displayed on the monitor is independent for each camera, and the monitor display can be arbitrarily selected.

周辺俯瞰画像生成部62は、図7で模式的に示されているように、撮影画像補正部54によって補正された後の補正撮影画像をマッピングテーブル63に仮想視点毎に用意された視点変換テーブルを用いて俯瞰画像セグメントを生成して、画像合成部67に送る。その際に使用される仮想視点位置は、予め設定しておいてもよいし、任意に設定されるように構成してもよい。なお、マッピングテーブル63の視点変換テーブルは種々の形態で構築することができるが、撮影画像の画素データと俯瞰画像セグメントの画素データとの対応関係が記述されたテーブルとして構築し、1フレームの撮影画像の各画素に、俯瞰画像セグメントにおける行き先画素座標が記述されたものとするのが好都合である。   As schematically shown in FIG. 7, the peripheral bird's-eye view image generation unit 62 uses the viewpoint conversion table prepared for each virtual viewpoint in the mapping table 63 with the corrected captured image corrected by the captured image correction unit 54. Is used to generate an overhead image segment and send it to the image composition unit 67. The virtual viewpoint position used at that time may be set in advance or may be set arbitrarily. Although the viewpoint conversion table of the mapping table 63 can be constructed in various forms, it is constructed as a table describing the correspondence between the pixel data of the captured image and the pixel data of the overhead image segment, and captures one frame. Conveniently, the destination pixel coordinates in the overhead image segment are described in each pixel of the image.

強調標示イメージ生成部64は、ここでは白色系道路標示抽出部53で抽出された白線WMの色彩的に又は形状的にあるいはその両方で視覚的に強調された白線イメージを生成し、当該白線イメージをその俯瞰画像における座標位置とともに、画像合成部67に送る。
自車イメージ生成部65は、俯瞰画像の中央に配置される自車のイメージを準備して、画像合成部67に送る。報知イメージ生成部66は、駐車支援時に運転者に与えるメッセージなどが発生した場合これをイメージ化して、画像合成部67に送る。
Here, the emphasized sign image generating unit 64 generates a white line image visually enhanced in color and / or shape of the white line WM extracted by the white road sign extracting unit 53, and the white line image is generated. Are sent to the image composition unit 67 together with the coordinate position in the overhead image.
The own vehicle image generation unit 65 prepares an image of the own vehicle arranged at the center of the overhead image and sends it to the image composition unit 67. When a message or the like to be given to the driver at the time of parking assistance is generated, the notification image generation unit 66 converts this into an image and sends it to the image composition unit 67.

画像合成部66は、周辺俯瞰画像生成部62からの俯瞰画像セグメントを合成して生成した俯瞰画像に、強調標示イメージ生成部64からの強調標示イメージ、自車イメージ生成部65からの自車イメージと、報知イメージ生成部65からの報知イメージを合成してモニタ表示用俯瞰画像(表示画像)を生成する。その際、モニタ表示画像としては、図8に例示するように、当該俯瞰画像だけでなく、バックモニタ画像などを区分け配置してモニタ出力すると好都合である。   The image synthesizing unit 66 adds the emphasis indication image from the emphasis indication image generation unit 64 and the own vehicle image from the own vehicle image generation unit 65 to the overhead view image generated by synthesizing the overhead view image segments from the peripheral overhead view image generation unit 62. Then, a notification image from the notification image generation unit 65 is synthesized to generate a monitor display overhead image (display image). In this case, as the monitor display image, as illustrated in FIG. 8, it is convenient to divide and arrange not only the overhead image but also the back monitor image and the like for monitor output.

次に、上述のように構成された駐車支援装置による駐車支援制御における一連の動作を以下に説明する。
(1)後進駐車を行う場合には、駐車領域がリアカメラ1aの撮影視野に入るような位置で停止し、駐車支援を起動する。
(2)リアカメラ1aからの撮影画像に基づいて、白色系道路標示認識部30が白線認識を行い、認識された白線WMに関する認識情報を生成する。
(3)この認識情報に基づいて駐車領域設定部31が駐車領域を設定するとともに、目標駐車位置算定部32が目標駐車位置を算定する。
(4)停車している自車位置を駐車出発位置とするとともに、この駐車出発位置と駐車目標位置との間の駐車経路を駐車経路生成部33が生成する。
(5)画像処理モジュール50において、4台のカメラ1からの撮影画像が取得され、各撮影画像に対して図6に示す手順でホワイトバランス補正が施される。
(6)補正された撮影画像を用いて、図7に示す手順で俯瞰画像が生成され、図8に示すようなモニタ表示画像がモニタ21に表示される。
(7)誘導制御部34による車両誘導が始まると、モニタ21には駐車支援としての車両誘導メッセージなどの報知メッセージも俯瞰画像とともに表示される。
(8)所定距離の走行が行われる毎に、自車が駐車目標位置に到達したかどうかチェックされ、自車が駐車目標位置に到達していなければ、新たな撮影画像での俯瞰画像を生成し、これをモニタ表示しながら車両誘導が続行する。
(9)自車が駐車目標位置に到達すれば、自車は停止し、この駐車支援制御が終了する。
Next, a series of operations in the parking assistance control by the parking assistance device configured as described above will be described below.
(1) When performing reverse parking, the parking area is stopped at a position where the parking area is within the field of view of the rear camera 1a, and parking assistance is activated.
(2) Based on the photographed image from the rear camera 1a, the white road marking recognition unit 30 performs white line recognition and generates recognition information regarding the recognized white line WM.
(3) Based on this recognition information, the parking area setting unit 31 sets the parking area, and the target parking position calculation unit 32 calculates the target parking position.
(4) While the parked vehicle position is set as the parking departure position, the parking route generation unit 33 generates a parking route between the parking departure position and the parking target position.
(5) In the image processing module 50, captured images from the four cameras 1 are acquired, and white balance correction is performed on each captured image in the procedure shown in FIG.
(6) Using the corrected captured image, a bird's-eye view image is generated according to the procedure shown in FIG. 7, and a monitor display image as shown in FIG.
(7) When vehicle guidance by the guidance control unit 34 starts, a notification message such as a vehicle guidance message as parking assistance is also displayed on the monitor 21 together with an overhead image.
(8) Each time a predetermined distance is traveled, it is checked whether or not the vehicle has reached the parking target position. If the vehicle has not reached the parking target position, a bird's-eye view image with a new captured image is generated. Then, the vehicle guidance continues while displaying this on the monitor.
(9) If the host vehicle reaches the parking target position, the host vehicle stops, and the parking support control ends.

〔変形例〕
(1)上述した実施の形態では、撮影画像はカラー画像として取り扱い、認識された白線をリファレンスとしてホワイトバランス補正パラメータを算定し、この補正パラメータを用いてホワイトバランス補正を行い、補正された撮影画像から俯瞰画像を生成していた。これに代えて、補正された撮影画像をグレースケール変換して得られるモノクロ撮影画像から俯瞰画像を生成して、モニタ画像としてもよい。さらには、このホワイトバランス補正技術をそのままモノクロ画像処理に転用し、モノクロの撮影画像から補正パラメータを算定し、この補正パラメータを用いて画像補正を行い、補正された撮影画像から俯瞰画像を生成してもよい。つまり、ここでのホワイトバランス補正は、広義の意味で解釈されるべきで、例えば、カラー撮影画像のみならず、モノクロ撮影画像にも適用することが可能ものである。
[Modification]
(1) In the above-described embodiment, the captured image is handled as a color image, white balance correction parameters are calculated using the recognized white line as a reference, white balance correction is performed using the correction parameters, and the corrected captured image is corrected. A bird's-eye view image was generated. Instead, a bird's-eye view image may be generated from a monochrome captured image obtained by performing gray scale conversion on the corrected captured image and used as a monitor image. Furthermore, this white balance correction technique is directly applied to monochrome image processing, a correction parameter is calculated from a monochrome captured image, image correction is performed using the correction parameter, and an overhead image is generated from the corrected captured image. May be. That is, the white balance correction here should be interpreted in a broad sense, and can be applied not only to a color photographed image but also to a monochrome photographed image, for example.

(2)上記実施の形態では、白色系道路標示として、駐車領域を境界付ける白線(駐車)がされていたが、その他の道路標示、例えば、「IN(入口)」や「OUT(出口)」といった文字標示なども同様に取り扱うことができる。 (2) In the embodiment described above, the white line (parking) that bounds the parking area is used as the white road marking. However, other road markings such as “IN (entrance)” and “OUT (exit)” It is possible to handle character markings such as

〔別実施形態〕
上述した実施の形態では、特定の道路要素が白色系道路標示であり、前記画像補正がホワイトバランス補正であった。しかしながら、本発明は、そのような特定の道路要素や画像補正に限定されるわけではない。例えば、特定の道路要素として、道路区画線、側道区画線などの道路標識、さらには路面に敷設された縁石、路面側溝に装着された溝蓋などの識別可能な特定の色成分を有する道路要素なら、カラーリファレンスとして採用可能である。また、撮影画像補正部54もホワイトバランス補正以外に、色あわせ(色合いを合わせる)や、輝度調整、ガンマ調整などの画像補正を行うものとして構成することも可能である。
[Another embodiment]
In the embodiment described above, the specific road element is a white road marking, and the image correction is white balance correction. However, the present invention is not limited to such specific road elements or image correction. For example, roads having specific color components that can be identified as specific road elements, such as road signs such as road lane markings and side road lane markings, curbs laid on the road surface, and groove covers mounted on the road surface side grooves Any element can be used as a color reference. In addition to the white balance correction, the photographed image correction unit 54 can also be configured to perform image correction such as color matching (tone adjustment), luminance adjustment, and gamma adjustment.

本発明は、駐車時における自車両周囲の状況を運転者に認識させるための俯瞰画像を表示することで運転者の運転操作を支援する駐車支援装置に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used in a parking assistance device that supports a driver's driving operation by displaying a bird's-eye view image for allowing the driver to recognize the situation around the host vehicle during parking.

1:カメラ
30:白色系道路標示認識部
50:入力画像処理モジュール
51:画像入力部
53:白色系道路標示抽出部
54:撮影画像補正部
55:補正パラメータ算定部
56:ホワイトバランス補正部
57:擬似ホワイトバランス補正部
60:画像生成部
62:周辺俯瞰画像生成部
63:マッピングテーブル
64:強調標示イメージ生成部
WM:白線(駐車白線、白色系道路標示)
1: Camera 30: White road marking recognition unit 50: Input image processing module 51: Image input unit 53: White road marking extraction unit 54: Captured image correction unit 55: Correction parameter calculation unit 56: White balance correction unit 57: Pseudo white balance correction unit 60: image generation unit 62: peripheral overhead image generation unit 63: mapping table 64: emphasis marking image generation unit WM: white line (parking white line, white road marking)

Claims (7)

自車周辺をそれぞれ異なる撮影視野で撮影する複数のカメラによる撮影画像を取得する画像入力部と、
前記撮影画像から特定の色成分を有する識別可能な道路要素を抽出する特定道路標示抽出部と、
前記撮影画像から抽出された特定の道路要素に基づいて補正対象画像に対して画像補正を施して補正撮影画像を生成する撮影画像補正部と、
前記撮影画像に基づく画像から視点変換を通じて生成された前記カメラ毎の俯瞰画像セグメントを合成して、モニタに表示する自車周辺の表示画像としての俯瞰画像を生成する俯瞰画像生成部と、を備え、前記補正対象画像が前記撮影画像又は前記俯瞰画像セグメントである駐車支援装置。
An image input unit for acquiring images taken by a plurality of cameras that shoot around the own vehicle in different fields of view;
A specific road marking extraction unit that extracts an identifiable road element having a specific color component from the captured image;
A captured image correction unit that generates a corrected captured image by performing image correction on the correction target image based on a specific road element extracted from the captured image;
An overhead image generation unit that synthesizes an overhead image segment for each camera generated through viewpoint conversion from an image based on the captured image and generates an overhead image as a display image around the host vehicle displayed on a monitor; The parking support device in which the correction target image is the captured image or the overhead image segment.
前記俯瞰画像生成部は、前記撮影画像補正部によって生成された補正撮影画像から前記俯瞰画像セグメントを生成する請求項1に記載の駐車支援装置。   The parking assistance device according to claim 1, wherein the overhead image generation unit generates the overhead image segment from the corrected captured image generated by the captured image correction unit. 前記撮影画像補正部は、前記俯瞰画像生成部によって生成された俯瞰画像セグメントに対して画像補正を施し、この画像補正された俯瞰画像セグメントから前記俯瞰画像が生成される請求項1に記載の駐車支援装置。   The parking according to claim 1, wherein the captured image correction unit performs image correction on the overhead image segment generated by the overhead image generation unit, and the overhead image is generated from the image-corrected overhead image segment. Support device. 前記特定の道路要素が白色系道路標示であり、前記画像補正がホワイトバランス補正であり、
前記撮影画像補正部は、前記撮影画像から抽出された白色系道路標示に基づいて当該撮影画像に対してホワイトバランス補正を施して補正撮影画像を生成する請求項1から3のいずれか1つに記載の駐車支援装置。
The specific road element is a white road marking, and the image correction is a white balance correction;
The photographed image correcting unit according to any one of claims 1 to 3, wherein the photographed image correcting unit generates a corrected photographed image by performing white balance correction on the photographed image based on a white road sign extracted from the photographed image. The parking assistance device described.
前記撮影画像補正部は、前記白色系道路標示が抽出されなかった撮影画像に対して、前回の補正撮影画像の生成時に用いられたホワイトバランス補正パラメータに基づいて擬似ホワイトバランス補正を施して補正撮影画像を生成する請求項4に記載の駐車支援装置。   The photographed image correction unit performs a corrected white balance correction on a photographed image from which the white road marking has not been extracted based on a white balance correction parameter used when generating a previous corrected photographed image. The parking assistance device according to claim 4 which generates an image. 前記白色系道路標示が抽出されなかった撮影画像に対する擬似ホワイトバランス補正は、当該撮影画像のカメラに隣接するカメラによる撮影画像の補正撮影画像の生成時に用いられたホワイトバランス補正パラメータに基づいて行われる請求項4または5に記載の駐車支援装置。   The pseudo white balance correction for the captured image from which the white road marking is not extracted is performed based on the white balance correction parameter used when the corrected captured image is generated by the camera adjacent to the camera of the captured image. The parking assistance device according to claim 4 or 5. 路面に描画されている駐車白線を境界基準として駐車領域を設定する駐車領域設定部が備えられており、当該駐車白線の認識情報が前記白色系道路標示として利用される請求項4から6のいずれか一項に記載の駐車支援装置。   The parking area setting part which sets a parking area on the basis of the parking white line drawn on the road surface as a boundary reference is provided, and the recognition information of the parking white line is used as the white road marking. The parking assistance device according to claim 1.
JP2010252187A 2010-11-10 2010-11-10 Parking support apparatus Pending JP2012105090A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010252187A JP2012105090A (en) 2010-11-10 2010-11-10 Parking support apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010252187A JP2012105090A (en) 2010-11-10 2010-11-10 Parking support apparatus

Publications (1)

Publication Number Publication Date
JP2012105090A true JP2012105090A (en) 2012-05-31

Family

ID=46394976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010252187A Pending JP2012105090A (en) 2010-11-10 2010-11-10 Parking support apparatus

Country Status (1)

Country Link
JP (1) JP2012105090A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140006463A (en) * 2012-07-05 2014-01-16 현대모비스 주식회사 Method and apparatus for recognizing lane
JP2017055242A (en) * 2015-09-09 2017-03-16 富士通株式会社 Color correction device, color correction method and computer program for color correction
US10242287B2 (en) 2015-06-11 2019-03-26 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and recording medium
JP2019121096A (en) * 2017-12-28 2019-07-22 三菱重工機械システム株式会社 Display device, display system, display method, and display program
JP2019128273A (en) * 2018-01-25 2019-08-01 積水ハウス株式会社 Method for diagnosing waterproof sheet
JP2019196056A (en) * 2018-05-08 2019-11-14 トヨタ自動車株式会社 Parking support device
CN110877573A (en) * 2018-09-06 2020-03-13 爱信精机株式会社 Vehicle periphery display device
KR20200034035A (en) * 2018-09-14 2020-03-31 현대자동차주식회사 Apparatus and method for controlling display of rear image, vehicle system
KR20200123513A (en) * 2019-04-19 2020-10-30 주식회사 아이유플러스 Method And Apparatus for Displaying 3D Obstacle by Combining Radar And Video

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140006463A (en) * 2012-07-05 2014-01-16 현대모비스 주식회사 Method and apparatus for recognizing lane
US10242287B2 (en) 2015-06-11 2019-03-26 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and recording medium
JP2017055242A (en) * 2015-09-09 2017-03-16 富士通株式会社 Color correction device, color correction method and computer program for color correction
JP2019121096A (en) * 2017-12-28 2019-07-22 三菱重工機械システム株式会社 Display device, display system, display method, and display program
JP2019128273A (en) * 2018-01-25 2019-08-01 積水ハウス株式会社 Method for diagnosing waterproof sheet
JP7059650B2 (en) 2018-01-25 2022-04-26 積水ハウス株式会社 How to diagnose the tarpaulin
JP7000980B2 (en) 2018-05-08 2022-01-19 トヨタ自動車株式会社 Parking support device
JP2019196056A (en) * 2018-05-08 2019-11-14 トヨタ自動車株式会社 Parking support device
CN110877573A (en) * 2018-09-06 2020-03-13 爱信精机株式会社 Vehicle periphery display device
KR20200034035A (en) * 2018-09-14 2020-03-31 현대자동차주식회사 Apparatus and method for controlling display of rear image, vehicle system
KR102564021B1 (en) 2018-09-14 2023-08-07 현대자동차주식회사 Apparatus and method for controlling display of rear image, vehicle system
KR102175947B1 (en) * 2019-04-19 2020-11-11 주식회사 아이유플러스 Method And Apparatus for Displaying 3D Obstacle by Combining Radar And Video
KR20200123513A (en) * 2019-04-19 2020-10-30 주식회사 아이유플러스 Method And Apparatus for Displaying 3D Obstacle by Combining Radar And Video

Similar Documents

Publication Publication Date Title
JP2012105090A (en) Parking support apparatus
JP6091586B1 (en) VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM
WO2012169355A1 (en) Image generation device
JP6724982B2 (en) Signal processing device and imaging device
JP5516998B2 (en) Image generation device
WO2012096058A1 (en) Image generating device
US8514282B2 (en) Vehicle periphery display device and method for vehicle periphery image
JP5171723B2 (en) Obstacle detection device and vehicle equipped with the device
WO2013047012A1 (en) Vehicle surroundings monitoring device
US20120069153A1 (en) Device for monitoring area around vehicle
JP2008230296A (en) Vehicle drive supporting system
KR20120077309A (en) Apparatus and method for displaying rear image of vehicle
JP6471522B2 (en) Camera parameter adjustment device
JP5516997B2 (en) Image generation device
JP2013168063A (en) Image processing device, image display system, and image processing method
JP2008048094A (en) Video display device for vehicle, and display method of video images in vicinity of the vehicle
TW201605247A (en) Image processing system and method
TWI552907B (en) Auxiliary system and method for driving safety
TW201837594A (en) Image capturing device, image capturing module, image capturing system and control method of image capturing device
CN110053625B (en) Distance calculation device and vehicle control device
KR102177878B1 (en) Apparatus and method for processing image
JP5618139B2 (en) Parking assistance device
JP5166111B2 (en) Vehicle periphery monitoring device
JP2013200820A (en) Image transmitting and receiving system
KR101709009B1 (en) System and method for compensating distortion of around view