JP2014191475A - Driving support device - Google Patents

Driving support device Download PDF

Info

Publication number
JP2014191475A
JP2014191475A JP2013064863A JP2013064863A JP2014191475A JP 2014191475 A JP2014191475 A JP 2014191475A JP 2013064863 A JP2013064863 A JP 2013064863A JP 2013064863 A JP2013064863 A JP 2013064863A JP 2014191475 A JP2014191475 A JP 2014191475A
Authority
JP
Japan
Prior art keywords
image
inappropriate
images
driving support
straight line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013064863A
Other languages
Japanese (ja)
Inventor
Yosuke Sakamoto
洋介 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2013064863A priority Critical patent/JP2014191475A/en
Publication of JP2014191475A publication Critical patent/JP2014191475A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a driving support device capable of suppressing deterioration in visibility of an image after processing, and capable of suppressing deterioration in accuracy of driving support.SOLUTION: A driving support device 10 comprises: a plurality of cameras 21-24 that capture the periphery of its own vehicle; and an image processing unit 35 that processes respective images captured by the plurality of cameras 21-24. The driving support device 10 further comprises an extraction unit 33 that extracts an inappropriate image which is inappropriate for processing among the respective images. The image processing unit 35 excludes the inappropriate image.

Description

この発明は、運転支援装置に関するものである。   The present invention relates to a driving support device.

従来、自動車等の車両用の運転支援装置として、例えば車両に搭載された複数のカメラにより撮像される複数の画像を処理して合成し、自車両の周辺の物体(例えば、前方車両や障害物)等の情報をディスプレイに表示することにより、自車両の進路誘導等を行うものが知られている。   Conventionally, as a driving support device for a vehicle such as an automobile, for example, a plurality of images captured by a plurality of cameras mounted on the vehicle are processed and combined, and an object around the host vehicle (for example, a forward vehicle or an obstacle) ) And the like are displayed on a display to guide the route of the host vehicle.

ところで、一般に、車両に搭載される複数のカメラは、車両の周辺情報を得るために、それぞれ異なった位置に取り付けられる。このため、各カメラにより撮像される画像は、例えば光の差込み具合の違い等に起因して、輝度や彩度、コントラスト等が異なることになる。したがって、各カメラにより撮像された複数の画像を合成してディスプレイに表示する場合、単に画像を合成しただけでは、所定の輝度や彩度、コントラスト等を有する合成画像が得られず、合成画像の視認性が悪化するおそれがある。   By the way, in general, a plurality of cameras mounted on a vehicle are attached to different positions in order to obtain information on the surroundings of the vehicle. For this reason, the images picked up by the respective cameras differ in luminance, saturation, contrast, and the like due to, for example, differences in light insertion. Therefore, when a plurality of images taken by each camera are combined and displayed on the display, a combined image having a predetermined brightness, saturation, contrast, etc. cannot be obtained by simply combining the images. Visibility may deteriorate.

上述の問題を解決するために、例えば特許文献1には、運転支援装置の複数のカメラにより撮像された画像を処理する方法として、複数のカメラのうち隣接するカメラにより撮像された画像の画素データ間の差違が小さくなるように補正し、複数のカメラの合成画像を画面に表示するカメラの画像合成表示方法が記載されている。具体的には、複数(特許文献1では8台)のカメラにより撮像された複数の画像のうち、各画像の平均値に最も近い画像を基準画像とする。そして、この基準画像を撮像する基準カメラと隣接するカメラにより撮像された画像の輝度が、基準画像の輝度と等しくなるように、隣接するカメラの画像を補正する。これにより、複数の車載カメラにより撮像された画像から、視認しやすい合成画像をリアルタイムに生成することができるとされている。   In order to solve the above-described problem, for example, Patent Document 1 discloses a pixel data of an image captured by an adjacent camera among a plurality of cameras as a method of processing an image captured by a plurality of cameras of a driving support device. A camera image composition display method is described in which a difference between the images is corrected to be small and a composite image of a plurality of cameras is displayed on a screen. Specifically, an image closest to an average value of each image among a plurality of images captured by a plurality of (eight in Patent Document 1) cameras is set as a reference image. Then, the image of the adjacent camera is corrected so that the brightness of the image captured by the camera adjacent to the reference camera that captures the reference image is equal to the brightness of the reference image. Thereby, it is supposed that a composite image that is easy to visually recognize can be generated in real time from images captured by a plurality of in-vehicle cameras.

特開2002−324235号公報JP 2002-324235 A

しかしながら、特許文献1においては、例えば輝度が著しく高く視認性の悪い画像が複数存在する場合には、各画像の平均値に最も近い画像として、視認性の悪い画像が基準画像として選択されるおそれがある。このため、視認性の悪い基準画像に基づいて各画像を補正して処理した場合には、処理後の画像の視認性が悪化するおそれがあるとともに、処理後の画像を使用した運転支援の精度が低下するおそれがある。   However, in Patent Document 1, for example, when there are a plurality of images with extremely high luminance and poor visibility, an image with poor visibility may be selected as a reference image as an image closest to the average value of each image. There is. For this reason, when each image is corrected and processed based on a reference image with poor visibility, the visibility of the processed image may be deteriorated, and the accuracy of driving assistance using the processed image May decrease.

そこで本発明は、上述した事情に鑑みてなされたものであって、処理後の画像の視認性が悪化するのを抑制できるとともに、運転支援の精度が低下するのを抑制できる運転支援装置の提供を課題とする。   Therefore, the present invention has been made in view of the above-described circumstances, and can provide a driving assistance device that can suppress deterioration in the visibility of an image after processing and can suppress deterioration in driving assistance accuracy. Is an issue.

上記の課題を解決するため、本発明の請求項1に記載の運転支援装置(例えば、実施形態における運転支援装置10)は、自車両(例えば、実施形態における自車両1)の周辺を撮像する複数の撮像部(例えば、実施形態における前方カメラ21、後方カメラ22、左側方カメラ23、右側方カメラ24)と、複数の前記撮像部により撮像された各々の画像(例えば、実施形態における前方カメラ21の画像21a、後方カメラ22の画像22a、左側方カメラ23の画像23a、右側方カメラ24の画像24a)を処理する画像処理部(例えば、実施形態における画像処理部35)と、を備えた運転支援装置において、各々の前記画像のうち、前記処理に不適切な不適切画像(例えば、実施形態における前方カメラ21の画像21a)を抽出する抽出部(例えば、実施形態における抽出部33)をさらに備え、前記画像処理部は、前記不適切画像を除外することを特徴としている。   In order to solve the above-mentioned problem, the driving support device according to claim 1 of the present invention (for example, the driving support device 10 in the embodiment) images the periphery of the host vehicle (for example, the host vehicle 1 in the embodiment). A plurality of imaging units (for example, the front camera 21, the rear camera 22, the left side camera 23, and the right side camera 24 in the embodiment) and each image captured by the plurality of the imaging units (for example, the front camera in the embodiment) An image processing unit (for example, the image processing unit 35 in the embodiment) that processes the image 21a of the rear camera 22, the image 22a of the rear camera 22, the image 23a of the left side camera 23, and the image 24a of the right side camera 24). In the driving support device, out of each of the images, an inappropriate image inappropriate for the processing (for example, the image 21a of the front camera 21 in the embodiment) is extracted. Extractor for (e.g., the extraction unit 33 in the embodiment) further wherein the image processing unit is characterized to exclude the inappropriate images.

本発明によれば、各々の画像の処理に不適切な不適切画像を抽出する抽出部を備え、画像処理部は、不適切画像を除外するので、不適切画像を使用することなく各々の画像を処理することができる。これにより、不適切画像の影響を受けることなく各々の画像を処理できるので、処理後の画像の視認性が悪化するのを抑制できる。また、視認性の悪化が抑制された処理後の画像を運転支援装置による運転支援の際に使用することにより、運転支援の精度が低下するのを抑制できる。   According to the present invention, the image processing unit includes an extraction unit that extracts an inappropriate image inappropriate for processing of each image, and the image processing unit excludes the inappropriate image, so that each image can be used without using the inappropriate image. Can be processed. Thereby, since each image can be processed without being affected by an inappropriate image, it is possible to suppress deterioration of the visibility of the processed image. Moreover, it can suppress that the precision of driving assistance falls by using the image after the process by which the deterioration of visibility was suppressed in the case of the driving assistance by a driving assistance device.

また、本発明の請求項2に記載の発明は、複数の前記撮像部は、それぞれ前記自車両の周辺における異なる方向を撮像することを特徴としている。   The invention according to claim 2 of the present invention is characterized in that each of the plurality of imaging units images different directions around the own vehicle.

本発明によれば、複数の撮像部で自車両の周辺における異なる方向を撮像することにより、各々の画像間において、例えば太陽光等の光の影響を異ならせることができる。したがって、各々の画像を比較することにより各々の画像における太陽光等の光の影響度合いを精度よく検知できるとともに、太陽光等の光の影響を著しく受けることにより生成される不適切画像の数を減少させることができる。すなわち、除外する不適切画像の数を減少させることができるので、処理後の画像の精度を向上できるとともに視認性が悪化するのをさらに抑制できる。   According to the present invention, it is possible to vary the influence of light such as sunlight between the images by imaging different directions around the host vehicle with a plurality of imaging units. Therefore, the degree of influence of light such as sunlight in each image can be accurately detected by comparing each image, and the number of inappropriate images generated by being significantly affected by light such as sunlight can be calculated. Can be reduced. That is, since the number of inappropriate images to be excluded can be reduced, the accuracy of the processed image can be improved and the visibility can be further suppressed from deteriorating.

また、本発明の請求項3に記載の発明は、前記撮像部により撮像された各々の前記画像の明るさに起因する数値を演算する演算部(例えば、実施形態における演算部31)を備え、前記抽出部は、前記演算部の結果に基づいて前記不適切画像を抽出することを特徴としている。   Moreover, the invention according to claim 3 of the present invention includes a calculation unit (for example, the calculation unit 31 in the embodiment) that calculates a numerical value due to the brightness of each of the images captured by the imaging unit. The extraction unit extracts the inappropriate image based on a result of the calculation unit.

本発明によれば、撮像部により撮像された各々の画像の明るさに起因する数値を演算する演算部を備えているので、太陽光等の光の影響を、例えば画像の輝度や彩度、コントラスト等として数値化することができる。また、抽出部は、演算部の結果に基づいて不適切画像を抽出するので、数値化されたデータを基に、確実に不適切画像を抽出できる。したがって、太陽光等の光の影響を著しく受けることにより生成される不適切画像を確実に除外できるので、処理後の画像の精度を向上できるとともに視認性が悪化するのをさらに抑制できる。   According to the present invention, since the operation unit that calculates the numerical value resulting from the brightness of each image captured by the image capturing unit is provided, the influence of light such as sunlight is affected by, for example, the brightness and saturation of the image, It can be quantified as contrast or the like. Further, since the extraction unit extracts an inappropriate image based on the result of the calculation unit, it is possible to reliably extract the inappropriate image based on the digitized data. Therefore, an inappropriate image generated by being significantly affected by light such as sunlight can be surely excluded, so that the accuracy of the processed image can be improved and the visibility can be further suppressed from deteriorating.

また、本発明の請求項4に記載の発明は、前記演算部は、各々の前記画像の明るさに起因する数値の平均値(例えば、実施形態における平均輝度値K1,K2,K3,K4)を算出し、前記抽出部は、各々の前記画像のうち、前記平均値が所定値(例えば、実施形態における所定値α)以上である前記画像を前記不適切画像として抽出することを特徴としている。   In the invention according to claim 4 of the present invention, the arithmetic unit is configured to obtain an average value of numerical values resulting from the brightness of each of the images (for example, average luminance values K1, K2, K3, K4 in the embodiment). The extraction unit extracts, as the inappropriate image, the image whose average value is equal to or greater than a predetermined value (for example, the predetermined value α in the embodiment) among the images. .

本発明によれば、所定値を閾値として不適切画像を抽出するので、太陽光等の光の影響を著しく受けることにより生成される不適切画像を確実に除外できる。   According to the present invention, an inappropriate image is extracted using a predetermined value as a threshold value, and therefore an inappropriate image generated by being significantly affected by light such as sunlight can be reliably excluded.

また、本発明の請求項5に記載の発明は、前記演算部は、各々の前記画像の明るさに起因する数値の平均値(例えば、実施形態における平均輝度値K1,K2,K3,K4)を算出し、前記抽出部は、各々の前記画像のうち一の画像(例えば、実施形態における前方カメラ21の画像21a)の前記平均値と他の画像(例えば、実施形態における後方カメラ22の画像22a、左側方カメラ23の画像23a、右側方カメラ24の画像24a)の前記平均値との差の合計値、もしくは前記一の画像の前記平均値と前記他の画像の前記平均値との差の平均値が所定値(例えば、実施形態における所定値D1,D2)以上である場合には、前記一の画像を前記不適切画像として抽出することを特徴としている。   In the invention according to claim 5 of the present invention, the arithmetic unit is configured to obtain an average value of numerical values resulting from the brightness of each of the images (for example, average luminance values K1, K2, K3, K4 in the embodiment). The extraction unit calculates the average value of one of the images (for example, the image 21a of the front camera 21 in the embodiment) and another image (for example, the image of the rear camera 22 in the embodiment). 22a, the total value of the difference between the average value of the image 23a of the left-side camera 23 and the image 24a) of the right-side camera 24, or the difference between the average value of the one image and the average value of the other image When the average value is equal to or greater than a predetermined value (for example, the predetermined values D1 and D2 in the embodiment), the one image is extracted as the inappropriate image.

本発明によれば、一の画像の平均値と他の画像の平均値との差の合計値、もしくは一の画像の平均値と他の画像の平均値との差の平均値が所定値以上である場合に、一の画像を不適切画像として抽出するので、一の画像と、一の画像とは異なる方向を撮像して得られた他の画像と比較をしたうえで、不適切画像を確実に除外できる。   According to the present invention, the total value of the differences between the average value of one image and the average value of the other image, or the average value of the difference between the average value of the one image and the average value of the other image is a predetermined value or more. In this case, since one image is extracted as an inappropriate image, the one image is compared with another image obtained by capturing a different direction from the one image, Can be definitely excluded.

また、本発明の請求項6に記載の発明は、前記画像処理部は、各々の前記画像における直線情報(例えば、実施形態における直線情報N1,N2,N3,N4,N5,N6)を取得し、前記抽出部は、前記直線情報に基づいて前記不適切画像を抽出することを特徴としている。   In the invention according to claim 6 of the present invention, the image processing unit acquires straight line information in each of the images (for example, straight line information N1, N2, N3, N4, N5, N6 in the embodiment). The extraction unit extracts the inappropriate image based on the straight line information.

本発明によれば、画像中の直線状のノイズを直線情報として取得できるので、不適切画像を抽出することができる。   According to the present invention, since linear noise in an image can be acquired as straight line information, an inappropriate image can be extracted.

また、本発明の請求項7に記載の発明は、前記自車両が位置する周辺のマップ情報(例えば、実施形態における車道中央線L1および車道外側線L2)を取得するマップ情報取得部(例えば、実施形態におけるマップ情報取得部45)を備え、前記抽出部は、前記直線情報と前記マップ情報とに基づいて前記不適切画像を抽出することを特徴としている。   Moreover, the invention according to claim 7 of the present invention is a map information acquisition unit (for example, a roadway center line L1 and a roadway outer line L2 in the embodiment) that acquires the map information of the vicinity where the host vehicle is located The map information acquisition unit 45) according to the embodiment is provided, and the extraction unit extracts the inappropriate image based on the straight line information and the map information.

本発明によれば、抽出部は、直線情報とマップ情報とに基づいて不適切画像を抽出するので、複数の直線情報のうち、ノイズに起因する誤った直線情報を精度よく選別できるとともに、不適切画像を確実に抽出することができる。   According to the present invention, since the extraction unit extracts an inappropriate image based on the straight line information and the map information, it is possible to accurately select erroneous straight line information due to noise among a plurality of straight line information and An appropriate image can be reliably extracted.

また、本発明の請求項8に記載の発明は、前記抽出部は、各々の前記画像のうち、一の画像(例えば、実施形態における前方カメラ21の画像21a)における前記直線情報と前記マップ情報との比較を行い、前記マップ情報に対してマッチングする前記直線情報が所定数以上である場合、もしくは前記マップ情報に対してマッチングする前記直線情報が全く存在しない場合には、前記一の画像を前記不適切画像として抽出することを特徴としている。   Further, in the invention according to claim 8 of the present invention, the extraction unit includes the straight line information and the map information in one of the images (for example, the image 21a of the front camera 21 in the embodiment). When the number of the straight line information that matches the map information is a predetermined number or more, or when the straight line information that matches the map information does not exist at all, the one image is The image is extracted as the inappropriate image.

本発明によれば、直線情報とマップ情報との比較を行うことにより一の画像を不適切画像として抽出するので、例えばノイズに起因する誤った直線情報を精度よく選別できる。とりわけ、直線情報が全く存在しない場合においても、一の画像を不適切画像として抽出するので、例えば受光量が少なく、視認度が著しく低い不適切画像を確実に除外できる。   According to the present invention, since one image is extracted as an inappropriate image by comparing the straight line information and the map information, for example, erroneous straight line information caused by noise can be accurately selected. In particular, even when there is no straight line information, since one image is extracted as an inappropriate image, for example, an inappropriate image with a small amount of received light and a remarkably low visibility can be surely excluded.

本発明によれば、各々の画像の処理に不適切な不適切画像を抽出する抽出部を備え、画像処理部は、不適切画像を除外するので、不適切画像を使用することなく各々の画像を処理することができる。これにより、不適切画像の影響を受けることなく各々の画像を処理できるので、処理後の画像の視認性が悪化するのを抑制できる。また、視認性の悪化が抑制された処理後の画像を運転支援装置による運転支援の際に使用することにより、運転支援の精度が低下するのを抑制できる。   According to the present invention, the image processing unit includes an extraction unit that extracts an inappropriate image inappropriate for processing of each image, and the image processing unit excludes the inappropriate image, so that each image can be used without using the inappropriate image. Can be processed. Thereby, since each image can be processed without being affected by an inappropriate image, it is possible to suppress deterioration of the visibility of the processed image. Moreover, it can suppress that the precision of driving assistance falls by using the image after the process by which the deterioration of visibility was suppressed in the case of the driving assistance by a driving assistance device.

運転支援装置のシステム構成図である。It is a system block diagram of a driving assistance device. 運転支援装置を搭載した自車両の平面図である。It is a top view of the own vehicle carrying a driving assistance device. 演算部による演算および抽出部による抽出の説明図である。It is explanatory drawing of the calculation by a calculating part, and the extraction by an extraction part. 第一実施形態の運転支援装置が行う画像の処理のフローチャートである。It is a flowchart of the process of the image which the driving assistance device of 1st embodiment performs. 第一実施形態の各変形例における不適切画像の抽出の説明図である。It is explanatory drawing of extraction of the inappropriate image in each modification of 1st embodiment. 第二実施形態の運転支援装置が行う画像の処理の説明図である。It is explanatory drawing of the process of the image which the driving assistance device of 2nd embodiment performs. 第二実施形態の運転支援装置が行う画像の処理のフローチャートである。It is a flowchart of the process of the image which the driving assistance device of 2nd embodiment performs.

以下、第一実施形態に係る運転支援装置について、図面を参照して説明をする。
図1は、運転支援装置10のシステム構成図であり、図2は、運転支援装置10を搭載した自車両1の平面図である。
図1に示すように、本実施形態に係る運転支援装置10は、主に外界カメラユニット25と、ナビゲーションシステム40と、演算部31、抽出部33、画像処理部35および記憶部37を含む制御装置30と、を備えている。図2に示すように、運転支援装置10は、自車両1に搭載されており、自車両1の周辺の画像を運転者に対して表示するものである。以下に、運転支援装置10を構成する各部品の詳細について説明する。なお、以下の説明における前後左右等の向きは、特に記載が無ければ、図2に示す自車両1における向きと同一とする。
Hereinafter, the driving support apparatus according to the first embodiment will be described with reference to the drawings.
FIG. 1 is a system configuration diagram of the driving support device 10, and FIG. 2 is a plan view of the host vehicle 1 on which the driving support device 10 is mounted.
As shown in FIG. 1, the driving support device 10 according to the present embodiment mainly includes an external camera unit 25, a navigation system 40, a calculation unit 31, an extraction unit 33, an image processing unit 35, and a storage unit 37. Device 30. As shown in FIG. 2, the driving support device 10 is mounted on the host vehicle 1 and displays an image around the host vehicle 1 to the driver. Below, the detail of each component which comprises the driving assistance apparatus 10 is demonstrated. Note that the directions such as front, rear, left and right in the following description are the same as those in the host vehicle 1 shown in FIG. 2 unless otherwise specified.

外界カメラユニット25は、自車両1の周辺における異なる方向を撮像するためのものであって、例えば、自車両1の前方の周辺領域を撮像領域とする前方カメラ21(請求項の「撮像部」に相当。)と、自車両1の後方の周辺領域を撮像領域とする後方カメラ22(請求項の「撮像部」に相当。)と、自車両1の左側方の周辺領域を撮像領域とする左側方カメラ23(請求項の「撮像部」に相当。)と、自車両1の右側方の周辺領域を撮像領域とする右側方カメラ24(請求項の「撮像部」に相当。)とを備えている。各カメラ21〜24は、それぞれ例えばCCD(Charge−Coupled Device、電荷結合素子)やCMOS(Complementary Metal Oxide Semiconductor、相補性金属酸化膜半導体)等の撮像素子を備えたカメラである。   The external camera unit 25 is for imaging different directions in the vicinity of the host vehicle 1, and is, for example, a front camera 21 having a peripheral region in front of the host vehicle 1 as an imaging region ("imaging unit" in claims) ), A rear camera 22 (corresponding to “imaging unit” in the claims) having a peripheral region behind the host vehicle 1 as an imaging region, and a peripheral region on the left side of the host vehicle 1 as an imaging region. A left-side camera 23 (corresponding to “imaging unit” in claims) and a right-side camera 24 (corresponding to “imaging unit” in claims) whose imaging region is a peripheral region on the right side of the host vehicle 1. I have. Each of the cameras 21 to 24 is a camera provided with an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor, complementary metal oxide semiconductor).

図1に示すように、外界カメラユニット25は、各カメラ21〜24の撮像により得られた画像を制御装置30へ出力する。各カメラ21〜24の撮像により得られた各々の画像は、制御装置30に設けられた後述の画像処理部35により合成される。これにより、自車両1(図2参照)を俯瞰するように視点変換を行った画像(以下「俯瞰合成画像」という。)が得られるとともに、俯瞰合成画像が制御装置30を介してナビゲーションシステム40に出力されて、ディスプレイ43に表示される。   As shown in FIG. 1, the external camera unit 25 outputs an image obtained by imaging with the cameras 21 to 24 to the control device 30. Each image obtained by the imaging of each of the cameras 21 to 24 is synthesized by an image processing unit 35 described later provided in the control device 30. Thereby, an image (hereinafter referred to as “overhead synthesized image”) obtained by performing viewpoint conversion so as to overlook the host vehicle 1 (see FIG. 2) is obtained, and the overhead view synthesized image is transmitted via the control device 30 to the navigation system 40. To be displayed on the display 43.

ナビゲーションシステム40は、自車両1(図2参照)の現在位置を表示したり、現在位置から目的地までの経路を探索して自車両1(図2参照)を誘導したりするためのものであって、ナビゲーション制御部41と、ディスプレイ43と、を主に備えている。図2に示すように、ナビゲーションシステム40は、例えば自車両1の不図示のインストルメントパネルに収容されている。
ナビゲーション制御部41は、図示しない現在位置検出部と、地図データ記憶部と、ナビゲーション処理部と、を主に備えている。
現在位置検出部は、人工衛星を利用したGPS(Global Positioning System)信号等の測位信号を受信して、自車両1の現在位置を検出する。
地図データ記憶部は、ハードディスク装置等の磁気ディスク装置や、CD−ROMやDVD−ROM等の光ディスク装置等のコンピュータ読み取り可能な記憶媒体に、地図データを記録して構成されている。その地図データとして、例えば道路や交差点の位置および形状等の道路データや、建物の位置および形状等の建物データ、駐車場の位置および形状等の駐車場データ等が格納されている。
ナビゲーション処理部は、現在位置検出部で検出された現在位置やナビゲーションシステム40に入力された目的地、地図データ記憶部から読み出された地図データ等に基づいて、自車両1の走行経路を探索する。
The navigation system 40 is for displaying the current position of the host vehicle 1 (see FIG. 2), or for guiding the host vehicle 1 (see FIG. 2) by searching for a route from the current position to the destination. The navigation control unit 41 and the display 43 are mainly provided. As shown in FIG. 2, the navigation system 40 is accommodated in an instrument panel (not shown) of the host vehicle 1, for example.
The navigation control unit 41 mainly includes a current position detection unit (not shown), a map data storage unit, and a navigation processing unit.
The current position detection unit receives a positioning signal such as a GPS (Global Positioning System) signal using an artificial satellite, and detects the current position of the host vehicle 1.
The map data storage unit is configured by recording map data on a computer-readable storage medium such as a magnetic disk device such as a hard disk device or an optical disk device such as a CD-ROM or DVD-ROM. As the map data, for example, road data such as road and intersection positions and shapes, building data such as building positions and shapes, and parking lot data such as parking positions and shapes are stored.
The navigation processing unit searches for the travel route of the host vehicle 1 based on the current position detected by the current position detection unit, the destination input to the navigation system 40, the map data read from the map data storage unit, and the like. To do.

ディスプレイ43は、例えば液晶ディスプレイであって、自車両1の不図示のインストルメントパネル内に運転者が視認可能なように設置される。ディスプレイ43には、ナビゲーション制御部41の地図データに基づく画像や、制御装置30から出力される自車両1の俯瞰合成画像等が表示される。   The display 43 is a liquid crystal display, for example, and is installed in an instrument panel (not shown) of the host vehicle 1 so that the driver can visually recognize it. The display 43 displays an image based on the map data of the navigation control unit 41, an overhead view composite image of the host vehicle 1 output from the control device 30, and the like.

また、運転支援装置10は、マップ情報取得部45を備えていてもよい。マップ情報取得部45は、既存の移動体通信網を利用した、例えば携帯電話等の携帯情報端末である。マップ情報取得部45は、不図示の情報サーバから提供される駐車場等のマップ情報(例えば、駐車場を画成する白線のマップ情報)や、道路等のマップ情報(例えば、道路上における車道中央線や車道外側線等の区画線のマップ情報)を取得している。また、マップ情報取得部45は、ナビゲーションシステム40と既存の通信手段によって接続されるとともに、ナビゲーションシステム40とマップ情報を共有するためのアプリケーション機能を備えている。   In addition, the driving support device 10 may include a map information acquisition unit 45. The map information acquisition unit 45 is a mobile information terminal such as a mobile phone using an existing mobile communication network. The map information acquisition unit 45 is provided with map information such as a parking lot provided from an information server (not shown) (for example, map information of a white line defining the parking lot) and map information such as a road (for example, a roadway on a road) Map information of lane markings such as Chuo Line and roadway outside line). The map information acquisition unit 45 is connected to the navigation system 40 by existing communication means and has an application function for sharing map information with the navigation system 40.

図1に示すように、制御装置30は、演算部31と、抽出部33と、画像処理部35と、記憶部37とを備えて構成されており、上述した外界カメラユニット25およびナビゲーションシステム40が接続されている。
外界カメラユニット25が接続されることにより、制御装置30には、各カメラ21〜24により得られた自車両1(図2参照)の周囲の画像が入力される。また、制御装置30は、自車両1の周囲の画像をナビゲーションシステム40に出力し、ディスプレイ43に表示させている。
As shown in FIG. 1, the control device 30 includes a calculation unit 31, an extraction unit 33, an image processing unit 35, and a storage unit 37, and the external camera unit 25 and the navigation system 40 described above. Is connected.
By connecting the external camera unit 25, images around the host vehicle 1 (see FIG. 2) obtained by the cameras 21 to 24 are input to the control device 30. Further, the control device 30 outputs an image around the host vehicle 1 to the navigation system 40 and displays it on the display 43.

図3は、演算部31(図1参照)による演算および抽出部33(図1参照)による抽出の説明図である。なお、図3における横軸は輝度を示している。
演算部31は、各カメラ21〜24により撮像された各々の画像の明るさに起因する数値を演算する。より具体的には、図3に示すように、各カメラ21〜24により撮像された各々の画像21a〜24aの明るさに起因する数値として、例えば各々の画像21a〜24aにおける輝度を演算し、各々の画像21a〜24aにおける輝度の平均値K1〜K4(請求項の「画像の明るさに起因する数値の平均値」に相当。以下、「平均輝度値」という。)をそれぞれ算出する。図3では、一例として、前方カメラ21の画像21aにおける平均輝度値K1が最も高くなっている場合を図示している。
FIG. 3 is an explanatory diagram of calculation by the calculation unit 31 (see FIG. 1) and extraction by the extraction unit 33 (see FIG. 1). Note that the horizontal axis in FIG. 3 indicates luminance.
The calculation unit 31 calculates a numerical value resulting from the brightness of each image captured by each camera 21 to 24. More specifically, as shown in FIG. 3, for example, the luminance in each of the images 21 a to 24 a is calculated as a numerical value resulting from the brightness of each of the images 21 a to 24 a captured by the cameras 21 to 24. Average values K1 to K4 (corresponding to “average value of numerical values attributed to image brightness” in claims, hereinafter referred to as “average luminance value”) are calculated for each of the images 21a to 24a. In FIG. 3, as an example, the case where the average luminance value K1 in the image 21a of the front camera 21 is the highest is illustrated.

また、本実施形態では、演算部31で算出する「明るさに起因する数値」として輝度を例にして説明するが、「明るさに起因する数値」は、輝度に限定されない。すなわち、「明るさに起因する数値」とは、各々の画像21a〜24aの視認性に関する数値であって、輝度や明度、彩度、コントラスト等をいう。したがって、演算部31は、各カメラ21〜24により撮像された各々の画像21a〜24aの明るさに起因する数値として、明度や彩度、コントラスト等を演算してもよい。   In the present embodiment, luminance is described as an example of the “numerical value resulting from brightness” calculated by the calculation unit 31, but the “numerical value resulting from brightness” is not limited to luminance. That is, the “numerical value resulting from brightness” is a numerical value related to the visibility of each of the images 21a to 24a and refers to brightness, brightness, saturation, contrast, and the like. Therefore, the calculation unit 31 may calculate brightness, saturation, contrast, and the like as numerical values resulting from the brightness of the images 21a to 24a captured by the cameras 21 to 24.

抽出部33(図1参照)は、演算部31(図1参照)の演算結果に基づいて、各カメラ21〜24により撮像された各々の画像21a〜24aのうち、処理に不適切な不適切画像を抽出する。本実施形態の抽出部33(図1参照)は、図3に示す一例のように、各々の画像21a〜24aのうち、平均輝度値が所定値α以上である前方カメラ21の画像21aを不適切画像として抽出する。不適切画像を抽出するための所定値αは、例えば、画像に対する視認性が著しく低下する輝度の値であって、強い光が各カメラ21〜24に入射し、ブルーミングやハレーションが発生したときの画像における平均輝度値に対応して決定される。   The extraction unit 33 (see FIG. 1) is inappropriate for processing among the images 21a to 24a captured by the cameras 21 to 24 based on the calculation result of the calculation unit 31 (see FIG. 1). Extract images. The extraction unit 33 (see FIG. 1) of the present embodiment does not recognize the image 21a of the front camera 21 whose average luminance value is equal to or greater than the predetermined value α among the images 21a to 24a, as in the example illustrated in FIG. Extract as an appropriate image. The predetermined value α for extracting an inappropriate image is, for example, a luminance value that significantly reduces the visibility of the image, and when strong light is incident on each of the cameras 21 to 24 and blooming or halation occurs. It is determined corresponding to the average luminance value in the image.

画像処理部35(図1参照)は、各カメラ21〜24により撮像された各々の画像21a〜24aを処理する。画像処理部35(図1参照)は、主に画像21a〜24aの処理として、例えば各カメラ21〜24により撮像された各々の画像21a〜24aの輝度を補正する処理(以下、「輝度補正処理」という。)と、各々の画像21a〜24aを合成して俯瞰合成画像を作成する処理(以下、「俯瞰合成画像作成処理」という。)と、を行っている。   The image processing unit 35 (see FIG. 1) processes the images 21a to 24a captured by the cameras 21 to 24. The image processing unit 35 (see FIG. 1) mainly corrects the luminance of the images 21a to 24a captured by the cameras 21 to 24 (hereinafter referred to as “brightness correction processing”), for example, as the processing of the images 21a to 24a. And a process of synthesizing the images 21a to 24a to create an overhead view composite image (hereinafter referred to as "overhead view composite image creation process").

輝度補正処理では、各カメラ21〜24により撮像された各々の画像21a〜24aの輝度を補正する。補正の方法としては、前方カメラ21の画像21a、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aの各平均輝度値K1,K2,K3,K4について、さらに平均値(以下、「全体平均値」という。)を求める。そして、全体平均値を目標値として、前方カメラ21の画像21aの平均輝度値K1、後方カメラ22の画像22aの平均輝度値K2、左側方カメラ23の画像23a平均輝度値K3および右側方カメラ24の画像24aの平均輝度値K4を補正する。
また、俯瞰合成画像作成処理では、前方カメラ21の画像21a、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aを合成して俯瞰合成画像を作成する。
また、画像処理部35では、例えば、画像内において局所的に輝度を上昇させる他車両の光源のデータ等、画像の平均輝度値を算出する際に妨げとなる障害データをフィルタリングして除去する。
In the brightness correction process, the brightness of each of the images 21a to 24a captured by the cameras 21 to 24 is corrected. As a correction method, the average luminance values K1, K2, K3, and K4 of the image 21a of the front camera 21, the image 22a of the rear camera 22, the image 23a of the left side camera 23, and the image 24a of the right side camera 24 are further An average value (hereinafter referred to as “overall average value”) is obtained. Then, using the overall average value as a target value, the average luminance value K1 of the image 21a of the front camera 21, the average luminance value K2 of the image 22a of the rear camera 22, the image 23a of the left camera 23, the average luminance value K3, and the right camera 24 The average luminance value K4 of the image 24a is corrected.
In the overhead view composite image creation process, the image 21a of the front camera 21, the image 22a of the rear camera 22, the image 23a of the left side camera 23, and the image 24a of the right side camera 24 are synthesized to create an overhead view composite image.
In addition, the image processing unit 35 filters and removes obstacle data that hinders the calculation of the average luminance value of the image, such as data of a light source of another vehicle that locally increases the luminance in the image.

ここで、本実施形態の画像処理部35(図1参照)は、各カメラ21〜24により撮像された各々の画像21a〜24aのうち、不適切画像(本実施形態の図3に示す例では、前方カメラ21の画像21a)が存在する場合には、該不適切画像を除外したうえで処理を行う。
具体的には、輝度補正処理では、不適切画像である前方カメラ21の画像21aを輝度補正処理の対象から除外する。次いで、前方カメラ21の画像21a以外の画像である、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aの各平均輝度値K2,K3,K4について、さらに平均値(以下、「全体平均値」という。)を求める。そして、全体平均値を目標値として、後方カメラ22の画像22aの平均輝度値K2、左側方カメラ23の画像23a平均輝度値K3および右側方カメラ24の画像24aの平均輝度値K4を補正する。これにより、不適切画像とされた前方カメラ21の画像21aの影響を受けることなく、前方カメラ21の画像21a以外の他の各々の画像22a〜24aの輝度を補正できる。
Here, the image processing unit 35 (see FIG. 1) of the present embodiment is an inappropriate image (in the example illustrated in FIG. 3 of the present embodiment) among the images 21a to 24a captured by the cameras 21 to 24. If the image 21a) of the front camera 21 exists, the process is performed after removing the inappropriate image.
Specifically, in the luminance correction process, the image 21a of the front camera 21 that is an inappropriate image is excluded from the target of the luminance correction process. Next, the average luminance values K2, K3, and K4 of the image 22a of the rear camera 22, the image 23a of the left camera 23, and the image 24a of the right camera 24, which are images other than the image 21a of the front camera 21, are further averaged. A value (hereinafter referred to as “overall average value”) is obtained. Then, the average luminance value K2 of the image 22a of the rear camera 22, the average luminance value K3 of the image 23a of the left side camera 23, and the average luminance value K4 of the image 24a of the right side camera 24 are corrected using the overall average value as a target value. Thereby, the brightness | luminance of each other images 22a-24a other than the image 21a of the front camera 21 can be correct | amended, without being influenced by the image 21a of the front camera 21 made into the inappropriate image.

また、俯瞰合成画像作成処理では、不適切画像である前方カメラ21の画像21aを除外し、前方カメラ21の画像21a以外の画像である、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aにより俯瞰合成画像を作成する。これにより、精度の悪い不適切画像である前方カメラ21の画像21aを表示することなく俯瞰合成画像を作成できる。なお、不適切画像である前方カメラ21の画像21aを輝度補正処理の対象から除外しつつ、俯瞰合成画像作成処理で前方カメラ21の画像21aを除外することなく、前方カメラ21の画像21a、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aにより俯瞰合成画像を作成してもよい。   In the overhead view composite image creation process, the image 21a of the front camera 21 that is an inappropriate image is excluded, and the image 22a of the rear camera 22 and the image 23a of the left-side camera 23 that are images other than the image 21a of the front camera 21 are excluded. Then, an overhead view composite image is created from the image 24a of the right side camera 24. Thereby, a bird's-eye view synthesized image can be created without displaying the image 21a of the front camera 21 which is an inappropriate image with poor accuracy. In addition, while excluding the image 21a of the front camera 21 that is an inappropriate image from the target of the brightness correction process, the image 21a of the front camera 21 and the rear side are excluded without excluding the image 21a of the front camera 21 in the overhead view composite image creation process. An overhead view composite image may be created from the image 22a of the camera 22, the image 23a of the left camera 23, and the image 24a of the right camera 24.

記憶部37は、例えば、フラッシュメモリやROM(Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、RAM(Random Access Memory)等のメモリにより構成される。記憶部37は、例えば外界カメラユニット25やナビゲーションシステム40等から制御装置30に対して出力される種々のデータを記憶している。   The storage unit 37 includes, for example, a memory such as a flash memory, a ROM (Read Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), and a RAM (Random Access Memory). The storage unit 37 stores various data output from the external camera unit 25, the navigation system 40, and the like to the control device 30, for example.

図4は、第一実施形態の運転支援装置が行う画像の処理のフローチャートである。
続いて、図4に示すフローチャートを用いて、本実施形態の運転支援装置が行う画像の処理について説明する。なお、以下の説明における各部品等の符号については、図1から図3を参照されたい。
FIG. 4 is a flowchart of image processing performed by the driving support apparatus according to the first embodiment.
Next, image processing performed by the driving support apparatus according to the present embodiment will be described with reference to the flowchart shown in FIG. In addition, please refer to FIG. 1 to FIG.

ステップS1では、各カメラ21〜24により撮像された各々の画像21a〜24aを、例えば制御装置30の記憶部37に記憶する。
ステップS3では、記憶部37に記憶した各々の画像21a〜24aについて、例えば他車両の光源のデータ等の障害データが存在するか否かの判定を行う。ステップS3において、障害データが存在しない場合には、「NO」と判定してステップS7に進む。これに対して、ステップS3において、障害データが存在する場合には、「YES」と判定してステップS5に進み、対象となる画像の障害データをフィルタリングして除去した後、ステップS7に進む。
ステップS7では、各カメラ21〜24により撮像された各々の画像21a〜24aの平均輝度値K1〜K4をそれぞれ算出する。
In step S <b> 1, the images 21 a to 24 a captured by the cameras 21 to 24 are stored in the storage unit 37 of the control device 30, for example.
In step S <b> 3, for each of the images 21 a to 24 a stored in the storage unit 37, for example, it is determined whether or not failure data such as light source data of another vehicle exists. If there is no failure data in step S3, the determination is “NO” and the process proceeds to step S7. On the other hand, in step S3, when failure data exists, it determines with "YES" and progresses to step S5, and after filtering and removing the failure data of the target image, it progresses to step S7.
In step S7, average luminance values K1 to K4 of the images 21a to 24a captured by the cameras 21 to 24 are calculated.

ステップS9では、各々の画像21a〜24aの平均輝度値K1〜K4と、所定値αとの比較を行い、平均輝度値が所定値α以上の画像があるか否かの判定を行う。ステップS9において、各々の画像21a〜24aの平均輝度値K1〜K4がいずれも所定値α以上ではない場合には、「NO」と判定して、ステップS11に進む。
ステップS11では、各カメラ21〜24により撮像された各々の画像21a〜24aの処理を行う。具体的には、各々の画像21a〜24aの輝度を補正したあと、各々の画像21a〜24aを合成して俯瞰合成画像を作成する。各々の画像21a〜24aの処理が終了した時点で、運転支援装置10が行う画像の処理が終了する。
In step S9, the average luminance values K1 to K4 of the images 21a to 24a are compared with a predetermined value α to determine whether there is an image having an average luminance value equal to or larger than the predetermined value α. In step S9, if none of the average luminance values K1 to K4 of the images 21a to 24a is greater than or equal to the predetermined value α, it is determined as “NO” and the process proceeds to step S11.
In step S11, each image 21a-24a imaged by each camera 21-24 is processed. Specifically, after correcting the brightness of each of the images 21a to 24a, the images 21a to 24a are combined to create an overhead view composite image. When the processing of each of the images 21a to 24a is finished, the image processing performed by the driving support device 10 is finished.

これに対して、ステップS9において、各々の画像21a〜24aの平均輝度値K1〜K4のうち、少なくとも一の画像の平均輝度値が所定値α以上である場合には、「YES」と判定して、ステップS13に進む。例えば、図3に示す一例のように、前方カメラ21の画像21aの平均輝度値K1が所定値α以上である場合には、「YES」と判定する。そして、前方カメラ21の画像21aが不適切画像であると判断して、ステップS13に進む。
ステップS13では、不適切画像(例えば、図3に示す一例では、前方カメラ21の画像21a)を除外する。
ステップS15では、不適切画像以外の画像(例えば、図3に示す一例では、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24a)の処理を行う。具体的には、不適切画像以外の画像22a〜24aの輝度を補正したあと、不適切画像以外の画像22a〜24aを合成して俯瞰合成画像を作成する。各々の画像22a〜24aの処理が終了した時点で、運転支援装置10が行う画像の処理が終了する。なお、ステップS15において、不適切画像である前方カメラ21の画像21aを輝度補正処理の対象から除外しつつ、俯瞰合成画像作成処理で前方カメラ21の画像21aを除外することなく、前方カメラ21の画像21a、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aにより俯瞰合成画像を作成してもよい。
On the other hand, if the average luminance value of at least one of the average luminance values K1 to K4 of the images 21a to 24a is greater than or equal to the predetermined value α in step S9, “YES” is determined. Then, the process proceeds to step S13. For example, as in the example illustrated in FIG. 3, when the average luminance value K1 of the image 21a of the front camera 21 is equal to or greater than a predetermined value α, “YES” is determined. Then, it is determined that the image 21a of the front camera 21 is an inappropriate image, and the process proceeds to step S13.
In step S13, inappropriate images (for example, the image 21a of the front camera 21 in the example shown in FIG. 3) are excluded.
In step S15, an image other than an inappropriate image (for example, in the example shown in FIG. 3, the image 22a of the rear camera 22, the image 23a of the left camera 23, and the image 24a of the right camera 24) is processed. Specifically, after correcting the brightness of the images 22a to 24a other than the inappropriate images, the images 22a to 24a other than the inappropriate images are combined to create an overhead view composite image. When the processing of each of the images 22a to 24a is completed, the image processing performed by the driving support device 10 is completed. In step S15, the image 21a of the front camera 21 that is an inappropriate image is excluded from the target of the brightness correction process, and the image 21a of the front camera 21 is not excluded in the overhead view composite image creation process. An overhead view composite image may be created from the image 21a, the image 22a of the rear camera 22, the image 23a of the left camera 23, and the image 24a of the right camera 24.

本実施形態によれば、各々の画像の処理に不適切な不適切画像を抽出する抽出部33を備え、画像処理部35は、不適切画像を除外するので、不適切画像を使用することなく各々の画像を処理することができる。これにより、不適切画像の影響を受けることなく各々の画像を処理できるので、処理後の俯瞰合成画像の視認性が悪化するのを抑制できる。また、視認性の悪化が抑制された俯瞰合成画像を運転支援装置10による運転支援の際に使用することにより、運転支援の精度が低下するのを抑制できる。   According to the present embodiment, the image processing unit 35 includes the extraction unit 33 that extracts an inappropriate image inappropriate for processing of each image, and the image processing unit 35 excludes the inappropriate image, so that the inappropriate image is not used. Each image can be processed. Thereby, since each image can be processed without being influenced by an inappropriate image, it is possible to suppress deterioration of the visibility of the overhead view composite image after processing. Moreover, it can suppress that the precision of a driving assistance falls by using the bird's-eye view synthesized image in which the deterioration of visibility was suppressed in the case of the driving assistance by the driving assistance apparatus 10. FIG.

また、複数のカメラ21〜24で自車両1の周辺における異なる方向を撮像することにより、各々の画像間において、例えば太陽光等の光の影響を異ならせることができる。したがって、各々の画像を比較することにより各々の画像における太陽光等の光の影響度合いを精度よく検知できるとともに、太陽光等の光の影響を著しく受けることにより生成される不適切画像の数を減少させることができる。すなわち、除外する不適切画像の数を減少させることができるので、処理後の俯瞰合成画像の精度を向上できるとともに視認性が悪化するのをさらに抑制できる。   Moreover, the influence of light, such as sunlight, can be varied between each image by imaging the different direction in the periphery of the own vehicle 1 with the some cameras 21-24. Therefore, the degree of influence of light such as sunlight in each image can be accurately detected by comparing each image, and the number of inappropriate images generated by being significantly affected by light such as sunlight can be calculated. Can be reduced. That is, since the number of inappropriate images to be excluded can be reduced, it is possible to improve the accuracy of the overhead view composite image after processing and further suppress deterioration in visibility.

また、各カメラ21〜24により撮像された各々の画像の輝度を演算する演算部31を備えているので、太陽光等の光の影響を数値化することができる。また、抽出部33は、演算部31の結果に基づいて不適切画像を抽出するので、数値化されたデータを基に、確実に不適切画像を抽出できる。したがって、太陽光等の光の影響を著しく受けることにより生成される不適切画像を確実に除外できるので、俯瞰合成画像の精度を向上できるとともに視認性が悪化するのをさらに抑制できる。   Moreover, since the calculating part 31 which calculates the brightness | luminance of each image imaged with each camera 21-24 is provided, the influence of light, such as sunlight, can be quantified. Moreover, since the extraction part 33 extracts an inappropriate image based on the result of the calculating part 31, it can extract an inappropriate image reliably based on the digitized data. Therefore, an inappropriate image generated by being significantly affected by light such as sunlight can be surely excluded, so that it is possible to improve the accuracy of the overhead view composite image and further suppress the deterioration of the visibility.

また、所定値αを閾値として不適切画像を抽出するので、太陽光等の光の影響を著しく受けることにより生成される不適切画像を確実に除外できる。   In addition, since an inappropriate image is extracted with the predetermined value α as a threshold, an inappropriate image generated by being significantly affected by light such as sunlight can be reliably excluded.

(第一実施形態の変形例)
続いて、第一実施形態の各変形例に係る運転支援装置ついて説明する。なお、以下では、第一実施形態と同様の構成部分については説明を省略し、異なる部分についてのみ説明する。
図3に示すように、第一実施形態では、各々の画像21a〜24aのうち、平均輝度値が所定値α以上である画像(図3に示す一例では、前方カメラ21の画像21a)を不適切画像として抽出していた。これに対して、不適切画像の抽出手法は、上記手法に限定されない。
(Modification of the first embodiment)
Next, driving support devices according to modifications of the first embodiment will be described. In addition, below, description is abbreviate | omitted about the component similar to 1st embodiment, and only a different part is demonstrated.
As shown in FIG. 3, in the first embodiment, among the images 21a to 24a, an image having an average luminance value equal to or greater than a predetermined value α (an image 21a of the front camera 21 in the example shown in FIG. 3) is not used. It was extracted as an appropriate image. On the other hand, the technique for extracting inappropriate images is not limited to the above technique.

(第一実施形態の第一変形例)
図5は、第一実施形態の各変形例における不適切画像の抽出の説明図である。なお、以下の説明における各部品等の符号については、図1から図3を参照されたい。
図5に示すように、第一実施形態の第一変形例では、抽出部33は、各々の画像21a〜24aのうち一の画像の平均輝度値(例えば、図5に示す一例では、前方カメラ21の画像21aの平均輝度値K1)と他の画像の平均輝度値(例えば、図5に示す一例では、後方カメラ22の画像22aの平均輝度値K2、左側方カメラ23の画像23aの平均輝度値K3および右側方カメラ24の画像24aの平均輝度値K4)との差の合計値が所定値以上である場合には、一の画像(例えば、図5に示す一例では、前方カメラ21の画像21a)を不適切画像として抽出する。
すなわち、所定値をD1としたとき、
(K1−K2)+(K1−K3)+(K1−K4)≧D1
を満足する場合には、前方カメラ21の画像21aを不適切画像として抽出する。
(First modification of the first embodiment)
FIG. 5 is an explanatory diagram of extraction of inappropriate images in each modification of the first embodiment. In addition, please refer to FIG. 1 to FIG.
As shown in FIG. 5, in the first modification example of the first embodiment, the extraction unit 33 uses the average luminance value of one of the images 21 a to 24 a (for example, the front camera in the example shown in FIG. 5). 21 and the average luminance value of other images (for example, in the example shown in FIG. 5, the average luminance value K2 of the image 22a of the rear camera 22 and the average luminance of the image 23a of the left-side camera 23). When the total value of the difference between the value K3 and the average brightness value K4 of the image 24a of the right side camera 24 is equal to or greater than a predetermined value, one image (for example, the image of the front camera 21 in the example shown in FIG. 5). 21a) is extracted as an inappropriate image.
That is, when the predetermined value is D1,
(K1-K2) + (K1-K3) + (K1-K4) ≧ D1
Is satisfied, the image 21a of the front camera 21 is extracted as an inappropriate image.

(第一実施形態の第二変形例)
また、第一実施形態の第二変形例では、一の画像の平均輝度値(例えば、図5に示す一例では、前方カメラ21の画像21aの平均輝度値K1)と他の画像の平均輝度値(例えば、図5に示す一例では、後方カメラ22の画像22aの平均輝度値K2、左側方カメラ23の画像23aの平均輝度値K3および右側方カメラ24の画像24aの平均輝度値K4)との差の平均値が所定値以上である場合には、一の画像(例えば、図5に示す一例では、前方カメラ21の画像21a)を不適切画像として抽出する。
すなわち、所定値をD2としたとき、
((K1−K2)+(K1−K3)+(K1−K4))/3≧D2
を満足する場合には、前方カメラ21の画像21aを不適切画像として抽出する。
(Second modification of the first embodiment)
Further, in the second modification of the first embodiment, the average luminance value of one image (for example, the average luminance value K1 of the image 21a of the front camera 21 in the example shown in FIG. 5) and the average luminance value of other images. (For example, in the example shown in FIG. 5, the average luminance value K2 of the image 22a of the rear camera 22, the average luminance value K3 of the image 23a of the left side camera 23, and the average luminance value K4 of the image 24a of the right side camera 24) If the average value of the differences is greater than or equal to a predetermined value, one image (for example, the image 21a of the front camera 21 in the example shown in FIG. 5) is extracted as an inappropriate image.
That is, when the predetermined value is D2,
((K1-K2) + (K1-K3) + (K1-K4)) / 3 ≧ D2
Is satisfied, the image 21a of the front camera 21 is extracted as an inappropriate image.

第一実施形態の各変形例によれば、一の画像の平均値と他の画像の平均値との差の合計値、もしくは一の画像の平均値と他の画像の平均値との差の平均値が所定値以上である場合に、一の画像を不適切画像として抽出するので、一の画像と、一の画像とは異なる方向を撮像して得られた他の画像と比較をしたうえで、不適切画像を確実に除外できる。   According to each modification of the first embodiment, the total value of the difference between the average value of one image and the average value of the other image, or the difference between the average value of one image and the average value of the other image When the average value is greater than or equal to the predetermined value, one image is extracted as an inappropriate image, so compare one image with another image obtained by capturing a different direction from the one image. Thus, inappropriate images can be surely excluded.

(第二実施形態)
続いて、第二実施形態に係る運転支援装置ついて説明する。なお、第二実施形態の運転支援装置のシステム構成図は、図1と同一であるため図示を省略する。また、第二実施形態における第一実施形態と共通の構成部品等の符号は、第一実施形態における各構成部品等の符号と同一となっている。
第一実施形態に係る運転支援装置10は、各カメラ21〜24の各々の画像から俯瞰合成画像を作成する場合に、不適切画像を抽出および除外して画像の処理を行っていた。
これに対して、第二実施形態に係る運転支援装置10では、各カメラ21〜24の各々の画像から、例えば道路に設けられた車道中央線および車道外側線を認識する場合に、不適切画像を抽出および除外して画像の処理を行っている。なお、以下では、第一実施形態と同様の構成部分については説明を省略し、異なる部分についてのみ説明する。
(Second embodiment)
Next, the driving support device according to the second embodiment will be described. Note that the system configuration diagram of the driving support apparatus of the second embodiment is the same as FIG. Moreover, the code | symbols, such as a component common in 1st embodiment in 2nd embodiment, are the same as the codes | symbols of each component in 1st embodiment.
The driving support apparatus 10 according to the first embodiment performs image processing by extracting and excluding inappropriate images when creating a bird's-eye view composite image from the images of the cameras 21 to 24.
On the other hand, in the driving support device 10 according to the second embodiment, an inappropriate image is used when recognizing the road center line and the road outer line provided on the road from the images of the cameras 21 to 24, for example. Are extracted and excluded to perform image processing. In addition, below, description is abbreviate | omitted about the component similar to 1st embodiment, and only a different part is demonstrated.

図6は、第二実施形態の運転支援装置が行う画像の処理の説明図である。なお、図6では、前方カメラ21の撮像領域R1の画像を二点鎖線で図示しており、他のカメラ22〜24の撮像領域の画像については、図示を省略している。
図6に示すように、運転支援装置10(図1参照)は、自車両1が進行する道路Wに設けられた車道中央線L1および車道外側線L2に沿って自車両1を走行させるためのものであって、不図示の電動パワーステアリングユニットに対して必要な操舵アシストトルクを出力するとともに、車道中央線L1および車道外側線L2から自車両1がはみ出した場合には、運転者に対して警報を出力するものである。すなわち、運転支援装置10は、いわゆるLKAS(Lane Keeping Assistance System)制御およびLDW(Lane Departure Warning)制御を行う装置である。
FIG. 6 is an explanatory diagram of image processing performed by the driving support apparatus of the second embodiment. In FIG. 6, the image of the imaging region R1 of the front camera 21 is illustrated by a two-dot chain line, and the images of the imaging regions of the other cameras 22 to 24 are not illustrated.
As shown in FIG. 6, the driving assistance device 10 (see FIG. 1) is for driving the host vehicle 1 along the road center line L1 and the road outer line L2 provided on the road W on which the host vehicle 1 travels. When a necessary steering assist torque is output to an electric power steering unit (not shown) and the own vehicle 1 protrudes from the road center line L1 and the road outer line L2, An alarm is output. That is, the driving support device 10 is a device that performs so-called LKAS (Lane Keeping Assistance System) control and LDW (Lane Departure Warning) control.

図1に示すように、運転支援装置10は、マップ情報取得部45を備えている。第二実施形態のマップ情報取得部45は、外部の不図示の情報サーバから、道路Wに設けられた車道中央線L1および車道外側線L2(図6参照)のマップ情報を取得している。
画像処理部35は、記憶部37に記憶した各カメラ21〜24の各々の画像から直線情報を取得する。ここで、本実施形態における直線情報とは、自車両1が走行する道路Wに設けられた車道中央線L1および車道外側線L2の情報である(図6参照)。また本実施形態において、LKAS制御に必要な直線情報は、主に前方カメラ21および後方カメラ22により撮像された画像から取得し、LDW制御に必要な直線情報は、主に左側方カメラ23および右側方カメラ24により撮像された画像から取得している。
抽出部33は、各カメラ21〜24の各々の画像から取得された直線情報と、マップ情報取得部45が取得したマップ情報とに基づいて、不適切画像を抽出する。抽出部33による具体的な不適切画像の抽出方法については後述する。
As shown in FIG. 1, the driving support device 10 includes a map information acquisition unit 45. The map information acquisition unit 45 of the second embodiment acquires map information of the road center line L1 and the road outer line L2 (see FIG. 6) provided on the road W from an external information server (not shown).
The image processing unit 35 acquires straight line information from the images of the cameras 21 to 24 stored in the storage unit 37. Here, the straight line information in the present embodiment is information on the road center line L1 and the road outer line L2 provided on the road W on which the host vehicle 1 travels (see FIG. 6). In this embodiment, straight line information necessary for LKAS control is obtained mainly from images captured by the front camera 21 and the rear camera 22, and straight line information necessary for LDW control is mainly obtained by the left camera 23 and the right camera. It is acquired from the image captured by the direction camera 24.
The extraction unit 33 extracts inappropriate images based on the straight line information acquired from the images of the cameras 21 to 24 and the map information acquired by the map information acquisition unit 45. A specific method of extracting inappropriate images by the extraction unit 33 will be described later.

図7は、第二実施形態の運転支援装置が行う画像の処理の説明図である。
続いて、図7に示すフローチャートを用いて、本実施形態の運転支援装置が行う画像の処理について説明する。なお、以下の説明における各部品等の符号については、図1および図6を参照されたい。
FIG. 7 is an explanatory diagram of image processing performed by the driving support apparatus of the second embodiment.
Next, image processing performed by the driving support device of the present embodiment will be described with reference to the flowchart shown in FIG. In addition, please refer to FIG. 1 and FIG.

まず、ステップS21では、各カメラ21〜24により撮像された各々の画像を、例えば制御装置30の記憶部37に記憶する。
ステップS23では、記憶部37に記憶した各々の画像から、道路Wに存在する直線情報を取得する。ここで、画像中に直線状の画像ノイズが存在する場合には、該画像ノイズについても直線情報として取得される。図6に示す例では、前方カメラ21の撮像領域R1の画像において、車道中央線L1に対応する直線情報、車道外側線L2に対応する直線情報および直線状の画像ノイズが直線情報N1〜N6として取得される。前方カメラ21以外の各カメラ22〜24の画像においても同様に、直線情報を取得する。
First, in step S <b> 21, each image captured by each camera 21 to 24 is stored in the storage unit 37 of the control device 30, for example.
In step S23, straight line information existing on the road W is obtained from each image stored in the storage unit 37. Here, when linear image noise exists in the image, the image noise is also acquired as straight line information. In the example shown in FIG. 6, in the image of the imaging region R1 of the front camera 21, straight line information corresponding to the road center line L1, straight line information corresponding to the road outer line L2, and straight image noise are straight line information N1 to N6. To be acquired. Similarly, straight line information is acquired in the images of the cameras 22 to 24 other than the front camera 21.

ステップS25では、マップ情報と各々の画像の直線情報とを比較する。図6に示す例では、マップ情報である車道中央線L1および車道外側線L2と、前方カメラ21の画像から取得した各直線情報N1〜N6との比較を行なう。前方カメラ21以外の各カメラ22〜24の画像から取得した各直線情報についても同様に、マップ情報と比較を行う。   In step S25, the map information is compared with the straight line information of each image. In the example shown in FIG. 6, comparison is made between the roadway center line L1 and the roadway outer line L2 that are map information, and the straight line information N1 to N6 acquired from the image of the front camera 21. Similarly, the straight line information acquired from the images of the cameras 22 to 24 other than the front camera 21 is compared with the map information.

ステップS27では、マップ情報とマッチングする直線情報を検出する。図6に示す例では、マップ情報である車道中央線L1および車道外側線L2と、前方カメラ21の画像から取得した各直線情報N1〜N6との一致度合い(マッチング度合い)から、車道中央線L1および車道外側線L2にマッチングする直線情報を検出する。なお、本実施形態におけるマッチングは、例えば、直線情報が車道中央線L1および車道外側線L2と所定角度(例えば30°程度)以下で交差するか否かにより決定される。すなわち、直線情報が車道中央線L1および車道外側線L2と30°以下で交差する場合には、マップ情報とマッチングする直線情報であると検出する。   In step S27, straight line information matching the map information is detected. In the example shown in FIG. 6, the roadway center line L1 is calculated from the degree of matching (matching degree) between the roadway center line L1 and the roadway outer line L2 that are map information and the straight line information N1 to N6 acquired from the image of the front camera 21. The straight line information matching the roadway outer line L2 is detected. Note that the matching in the present embodiment is determined, for example, based on whether or not the straight line information intersects the roadway center line L1 and the roadway outer line L2 at a predetermined angle (for example, about 30 °) or less. That is, when the straight line information intersects the roadway center line L1 and the roadway outer line L2 at 30 ° or less, it is detected as straight line information that matches the map information.

前方カメラ21の画像から取得した各直線情報N1〜N6のうち、直線情報N1および直線情報N6は、それぞれマップ情報に基づく車道中央線L1と30°以下の角度で交差している。したがって、直線情報N1および直線情報N6の2本の直線情報を、車道中央線L1に対してマッチングする直線情報として検出する。また、前方カメラ21の画像から取得した各直線情報N1〜N6のうち、直線情報N2および直線情報N5は、それぞれマップ情報に基づく車道外側線L2と30°以下の角度で交差している。したがって、直線情報N2および直線情報N5の2本の直線情報を、車道外側線L2に対してマッチングする直線情報として検出する。前方カメラ21以外の各カメラ22〜24の画像から取得した各直線情報についても同様に、マップ情報とマッチングする直線情報を検出する。
なお、各直線情報N1〜N6のうち、直線情報N3および直線情報N4は、それぞれマップ情報に基づく車道中央線L1および車道外側線L2とは交差していない。したがって、直線情報N3および直線情報N4の2本の直線情報を、車道中央線L1および車道外側線L2に対してマッチングしない画像ノイズに基づく直線情報であると検出してもよい。
Of the straight line information N1 to N6 acquired from the image of the front camera 21, the straight line information N1 and the straight line information N6 intersect with the roadway center line L1 based on the map information at an angle of 30 ° or less, respectively. Therefore, the two pieces of straight line information of the straight line information N1 and the straight line information N6 are detected as straight line information matching the roadway center line L1. Of the straight line information N1 to N6 acquired from the image of the front camera 21, the straight line information N2 and the straight line information N5 intersect with the roadway outer line L2 based on the map information at an angle of 30 ° or less, respectively. Therefore, the two pieces of straight line information of the straight line information N2 and the straight line information N5 are detected as straight line information that matches the roadway outer line L2. Similarly, straight line information matching the map information is detected for each straight line information acquired from the images of the cameras 22 to 24 other than the front camera 21.
Of the straight line information N1 to N6, the straight line information N3 and the straight line information N4 do not intersect the roadway center line L1 and the roadway outer line L2 based on the map information, respectively. Therefore, the two pieces of straight line information of the straight line information N3 and the straight line information N4 may be detected as straight line information based on image noise that does not match the roadway center line L1 and the roadway outer line L2.

ステップS29では、マップ情報に対してマッチングする直線情報が所定本数(本実施形態では2本)以上か否かの判定を行う。
図6に示す例では、前方カメラ21の画像から取得した直線情報N1〜N6のうち、直線情報N1および直線情報N6の2本の直線情報が、車道中央線L1に対してマッチングする直線情報として検出されるとともに、直線情報N2および直線情報N5の2本の直線情報が、車道外側線L2に対してマッチングする直線情報として検出される。すなわち、前方カメラ21の画像においては、マップ情報である車道中央線L1および車道外側線L2に対してマッチングする直線情報がそれぞれ2本ずつ検出されている。したがって、ステップS29では、「YES」と判定して、ステップS31に進む。前方カメラ21以外の各カメラ22〜24の画像についても同様に、マップ情報に対してマッチングする直線情報が所定本数(本実施形態では2本)以上であるか否かの判定を行う。
In step S29, it is determined whether or not the number of straight line information matching the map information is equal to or greater than a predetermined number (two in this embodiment).
In the example illustrated in FIG. 6, two pieces of straight line information N1 and straight line information N6 out of straight line information N1 to N6 acquired from the image of the front camera 21 are straight line information that matches the roadway center line L1. While being detected, the two pieces of straight line information of the straight line information N2 and the straight line information N5 are detected as straight line information that matches the roadway outer line L2. That is, in the image of the front camera 21, two pieces of straight line information matching the roadway center line L1 and the roadway outer side line L2, which are map information, are respectively detected. Therefore, in step S29, it determines with "YES" and progresses to step S31. Similarly, for the images of the cameras 22 to 24 other than the front camera 21, it is determined whether or not the number of straight line information matching the map information is equal to or greater than a predetermined number (two in the present embodiment).

ステップS31では、マップ情報に対してマッチングする直線情報が所定数(本実施形態では2本)以上である画像を不適切画像として除外する。本実施形態では、前方カメラ21の画像において、マップ情報である車道中央線L1および車道外側線L2に対してマッチングする直線情報がそれぞれ2本ずつ検出されている。したがって、前方カメラ21の画像を不適切画像として除外する。   In step S31, images having a predetermined number (two in the present embodiment) of straight line information matching the map information are excluded as inappropriate images. In the present embodiment, two pieces of straight line information matching the roadway center line L1 and the roadway outer side line L2, which are map information, are respectively detected in the image of the front camera 21. Therefore, the image of the front camera 21 is excluded as an inappropriate image.

ステップS33では、必要に応じてLKAS制御とLDW制御との切り換えを行う。本実施形態においては、前方カメラ21の画像が不適切画像として除外されるため、主に前方カメラ21および後方カメラ22により撮像された画像を使用するLKAS制御から、主に左側方カメラ23および右側方カメラ24により撮像された画像を使用するLDW制御に切り換える。ステップS33が終了した時点で、運転支援装置10が行う画像の処理が終了する。   In step S33, switching between LKAS control and LDW control is performed as necessary. In the present embodiment, since the image of the front camera 21 is excluded as an inappropriate image, from the LKAS control mainly using the images captured by the front camera 21 and the rear camera 22, the left camera 23 and the right camera are mainly used. The mode is switched to the LDW control using the image captured by the direction camera 24. When step S33 ends, the image processing performed by the driving support device 10 ends.

これに対して、ステップS29において、マップ情報に対してマッチングする直線情報が所定本数(本実施形態では2本)未満である場合には、「NO」と判定して、ステップS35に進む。
ステップS35では、各カメラ21〜24の画像における直線情報を道路情報(本実施形態では、車道中央線L1および車道外側線L2)として認識する。ステップS35が終了した時点で、運転支援装置10が行う画像の処理が終了する。なお、ステップS35においては、LKAS制御とLDW制御との切り換えを行うことなく、選択されているLKAS制御およびLDW制御の少なくともいずれかの制御を採用した状態で、フローを終了する。
On the other hand, if the number of straight line information matching the map information is less than the predetermined number (two in this embodiment) in step S29, the determination is “NO” and the process proceeds to step S35.
In step S35, the straight line information in the images of the cameras 21 to 24 is recognized as road information (in this embodiment, the road center line L1 and the road outer line L2). When step S35 ends, the image processing performed by the driving support device 10 ends. In step S35, the flow is ended in a state where at least one of the selected LKAS control and LDW control is adopted without switching between LKAS control and LDW control.

第二実施形態によれば、例えば太陽光等の光の影響により発生する画像中の直線状のノイズを直線情報として取得できるので、不適切画像を抽出することができる。   According to the second embodiment, for example, linear noise in an image generated by the influence of light such as sunlight can be acquired as straight line information, so that an inappropriate image can be extracted.

また、抽出部33は、直線情報とマップ情報である車道中央線L1および車道外側線L2に基づいて不適切画像を抽出するので、複数の直線情報のうち、ノイズに起因する誤った直線情報を精度よく選別できるとともに、不適切画像を確実に抽出することができる。   In addition, the extraction unit 33 extracts an inappropriate image based on the straight line information and the roadway center line L1 and the roadway outer line L2, which are map information. Therefore, among the plurality of straight line information, incorrect straight line information caused by noise is extracted. In addition to being able to select with high accuracy, it is possible to reliably extract inappropriate images.

また、直線情報とマップ情報である車道中央線L1および車道外側線L2との比較を行うことにより一の画像を不適切画像として抽出するので、ノイズに起因する誤った直線情報を精度よく選別できる。   Moreover, since one image is extracted as an inappropriate image by comparing the straight line information with the roadway center line L1 and the roadway outer line L2 which are map information, erroneous straight line information caused by noise can be accurately selected. .

なお、この発明の技術範囲は上記の実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。   The technical scope of the present invention is not limited to the above embodiment, and various modifications can be made without departing from the spirit of the present invention.

運転支援装置10のシステム構成は、各実施形態に限定されない。例えば、外界カメラユニット25の個数は4個に限定されない。また、各カメラ21〜24により撮像された画像を表示する手段として、ナビゲーションシステム40のディスプレイ43に限定されることはなく、例えば、いわゆるヘッドアップディスプレイ等であってもよい。また、マップ情報取得部45は、携帯情報端末に限定されない。   The system configuration of the driving support device 10 is not limited to each embodiment. For example, the number of external camera units 25 is not limited to four. The means for displaying images captured by the cameras 21 to 24 is not limited to the display 43 of the navigation system 40, and may be a so-called head-up display or the like, for example. Moreover, the map information acquisition part 45 is not limited to a portable information terminal.

第一実施形態では、不適切画像である前方カメラ21の画像21aを輝度補正処理の対象から除外しつつ、俯瞰合成画像作成処理で前方カメラ21の画像21a以外の後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aの輝度補正処理をしていた。これに対して、例えば、認識された不適切画像を画像処理の対象から除外するとともに、例えば白線等の認識を一切行わないようにしてもよい。   In the first embodiment, the image 22a of the rear camera 22 other than the image 21a of the front camera 21 is left in the overhead view composite image creation process while excluding the image 21a of the front camera 21 that is an inappropriate image from the target of the brightness correction process. The luminance correction processing was performed on the image 23a of the side camera 23 and the image 24a of the right side camera 24. On the other hand, for example, a recognized inappropriate image may be excluded from the target of image processing, and for example, white line may not be recognized at all.

第一実施形態と第二実施形態とを組み合わせた運転支援装置10としてもよい。具体的には、不適切画像を抽出および除外して画像の処理を行うとともに、不適切画像であるとされた画像に対応して、LKAS制御とLDW制御との切り換えを行ってもよい。したがって、例えば前方カメラ21の画像21aが不適切画像であるとされた場合には、LKAS制御からLDW制御に切り換えるように制御を行ってもよい。   It is good also as the driving assistance device 10 which combined 1st embodiment and 2nd embodiment. Specifically, image processing may be performed by extracting and excluding inappropriate images, and switching between LKAS control and LDW control may be performed in response to an image determined to be an inappropriate image. Therefore, for example, when the image 21a of the front camera 21 is determined to be an inappropriate image, control may be performed so as to switch from LKAS control to LDW control.

また、第二実施形態の運転支援装置10は、道路Wに設けられた車道中央線L1および車道外側線L2に沿って自車両1を走行させる、いわゆるLKAS制御およびLDW制御を行う装置であったが、例えば、白線により画成された駐車スペースを検出するとともに駐車スペースに対して自車両1を駐車する際の経路を算出し、この経路に沿って自車両1を走行させるための駐車支援装置であってもよい。また、例えば、駐車支援装置において、不適切画像における白線を認識しないように制御してもよい。   The driving support device 10 according to the second embodiment is a device that performs so-called LKAS control and LDW control in which the host vehicle 1 travels along the road center line L1 and the road outer line L2 provided on the road W. However, for example, a parking assist device for detecting a parking space defined by a white line and calculating a route when the host vehicle 1 is parked in the parking space and causing the host vehicle 1 to travel along the route. It may be. For example, in a parking assistance apparatus, you may control so that the white line in an inappropriate image is not recognized.

また、第二実施形態の運転支援装置10は、マップ情報に対してマッチングする直線情報が所定本数(本実施形態では2本)以上である画像を不適切画像として抽出していた。これに対して、マップ情報に対してマッチングする直線情報が全く存在しない画像についても不適切画像として抽出してもよい。これにより、直線情報が全く存在しない場合においても不適切画像として抽出できるので、例えば受光量が少なく、視認度が著しく低い不適切画像を確実に除外できる。   In addition, the driving support device 10 of the second embodiment extracts an image in which the number of straight line information matching the map information is equal to or greater than a predetermined number (two in the present embodiment) as an inappropriate image. On the other hand, an image having no straight line information matching the map information may be extracted as an inappropriate image. Thereby, even when there is no straight line information, it can be extracted as an inappropriate image, so that an inappropriate image with a small amount of received light and a remarkably low visibility can be surely excluded.

その他、本発明の趣旨を逸脱しない範囲で、上記した実施の形態における構成要素を周知の構成要素に置き換えることは適宜可能である。   In addition, it is possible to appropriately replace the components in the above-described embodiments with known components without departing from the spirit of the present invention.

1 自車両
21 前方カメラ(撮像部)
21a 画像(不適切画像)
22 後方カメラ(撮像部)
22a 画像
23 左側方カメラ(撮像部)
23a 画像
24 右側方カメラ(撮像部)
24a 画像
31 演算部
33 抽出部
35 画像処理部
45 マップ情報取得部
D1,D2 所定値
K1,K2,K3,K4 平均輝度値(平均値)
L1 車道中央線(マップ情報)
L2 車道外側線(マップ情報)
N1,N2,N3,N4,N5,N6 直線情報
α 所定値
1 Self-vehicle 21 Front camera (imaging part)
21a Image (unsuitable image)
22 Rear camera (imaging part)
22a Image 23 Left-side camera (imaging unit)
23a Image 24 Right-side camera (imaging unit)
24a Image 31 Calculation unit 33 Extraction unit 35 Image processing unit 45 Map information acquisition unit D1, D2 Predetermined values K1, K2, K3, K4 Average luminance value (average value)
L1 Roadway Chuo Line (map information)
L2 roadway outside line (map information)
N1, N2, N3, N4, N5, N6 Straight line information α Predetermined value

Claims (8)

自車両の周辺を撮像する複数の撮像部と、
複数の前記撮像部により撮像された各々の画像を処理する画像処理部と、
を備えた運転支援装置において、
各々の前記画像のうち、前記処理に不適切な不適切画像を抽出する抽出部をさらに備え、
前記画像処理部は、前記不適切画像を除外することを特徴とする運転支援装置。
A plurality of imaging units for imaging the periphery of the host vehicle;
An image processing unit that processes each image captured by the plurality of imaging units;
In a driving support device equipped with
An extraction unit that extracts an inappropriate image inappropriate for the processing among the images;
The driving support device, wherein the image processing unit excludes the inappropriate image.
請求項1に記載の運転支援装置であって、
複数の前記撮像部は、それぞれ前記自車両の周辺における異なる方向を撮像することを特徴とする運転支援装置。
The driving support device according to claim 1,
The plurality of imaging units respectively capture different directions in the vicinity of the host vehicle.
請求項1または2に記載の運転支援装置であって、
前記撮像部により撮像された各々の前記画像の明るさに起因する数値を演算する演算部を備え、
前記抽出部は、前記演算部の結果に基づいて前記不適切画像を抽出することを特徴とする運転支援装置。
The driving support device according to claim 1 or 2,
An arithmetic unit that calculates a numerical value resulting from the brightness of each of the images captured by the imaging unit;
The said extraction part extracts the said inappropriate image based on the result of the said calculating part, The driving assistance apparatus characterized by the above-mentioned.
請求項3に記載の運転支援装置であって、
前記演算部は、各々の前記画像の明るさに起因する数値の平均値を算出し、
前記抽出部は、各々の前記画像のうち、前記平均値が所定値以上である前記画像を前記不適切画像として抽出することを特徴とする運転支援装置。
The driving support device according to claim 3,
The calculation unit calculates an average value of numerical values resulting from the brightness of each of the images,
The said extraction part extracts the said image whose said average value is more than predetermined value among each said image as said inappropriate image.
請求項3に記載の運転支援装置であって、
前記演算部は、各々の前記画像の明るさに起因する数値の平均値を算出し、
前記抽出部は、各々の前記画像のうち一の画像の前記平均値と他の画像の前記平均値との差の合計値、もしくは前記一の画像の前記平均値と前記他の画像の前記平均値との差の平均値が所定値以上である場合には、前記一の画像を前記不適切画像として抽出することを特徴とする運転支援装置。
The driving support device according to claim 3,
The calculation unit calculates an average value of numerical values resulting from the brightness of each of the images,
The extraction unit includes a sum of differences between the average value of one image and the average value of another image among the images, or the average value of the one image and the average of the other image. When the average value of the difference from the value is equal to or larger than a predetermined value, the one image is extracted as the inappropriate image.
請求項1に記載の運転支援装置であって、
前記画像処理部は、各々の前記画像における直線情報を取得し、
前記抽出部は、前記直線情報に基づいて前記不適切画像を抽出することを特徴とする運転支援装置。
The driving support device according to claim 1,
The image processing unit acquires straight line information in each of the images,
The driving support device, wherein the extraction unit extracts the inappropriate image based on the straight line information.
請求項6に記載の運転支援装置であって、
前記自車両が位置する周辺のマップ情報を取得するマップ情報取得部を備え、
前記抽出部は、前記直線情報と前記マップ情報とに基づいて前記不適切画像を抽出することを特徴とする運転支援装置。
The driving support device according to claim 6,
A map information acquisition unit for acquiring map information around the vehicle where the vehicle is located;
The driving support device, wherein the extraction unit extracts the inappropriate image based on the straight line information and the map information.
請求項7に記載の運転支援装置であって、
前記抽出部は、各々の前記画像のうち、一の画像における前記直線情報と前記マップ情報との比較を行い、前記マップ情報に対してマッチングする前記直線情報が所定数以上である場合、もしくは前記マップ情報に対してマッチングする前記直線情報が全く存在しない場合には、前記一の画像を前記不適切画像として抽出することを特徴とする運転支援装置。
The driving support device according to claim 7,
The extraction unit compares the straight line information and the map information in one image among the images, and when the straight line information matching the map information is a predetermined number or more, or When there is no straight line information that matches map information, the one image is extracted as the inappropriate image.
JP2013064863A 2013-03-26 2013-03-26 Driving support device Pending JP2014191475A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013064863A JP2014191475A (en) 2013-03-26 2013-03-26 Driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013064863A JP2014191475A (en) 2013-03-26 2013-03-26 Driving support device

Publications (1)

Publication Number Publication Date
JP2014191475A true JP2014191475A (en) 2014-10-06

Family

ID=51837699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013064863A Pending JP2014191475A (en) 2013-03-26 2013-03-26 Driving support device

Country Status (1)

Country Link
JP (1) JP2014191475A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10397461B2 (en) 2017-01-05 2019-08-27 Canon Kabushiki Kaisha Control apparatus, control method, and non-transitory computer-readable storage medium
JP7478570B2 (en) 2020-03-30 2024-05-07 本田技研工業株式会社 Vehicle control device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10397461B2 (en) 2017-01-05 2019-08-27 Canon Kabushiki Kaisha Control apparatus, control method, and non-transitory computer-readable storage medium
US10659673B2 (en) 2017-01-05 2020-05-19 Canon Kabushiki Kaisha Control apparatus, control method, and non-transitory computer-readable storage medium
JP7478570B2 (en) 2020-03-30 2024-05-07 本田技研工業株式会社 Vehicle control device

Similar Documents

Publication Publication Date Title
CN106740841B (en) Method for detecting lane lines, device and mobile unit based on dynamic control
US11214248B2 (en) In-vehicle monitoring camera device
US11205284B2 (en) Vehicle-mounted camera pose estimation method, apparatus, and system, and electronic device
JP5421072B2 (en) Approaching object detection system
WO2016002163A1 (en) Image display device and image display method
EP2822273B1 (en) Video processing device, video processing method, and video display system
US8461976B2 (en) On-vehicle device and recognition support system
US20130191022A1 (en) Method for displaying images on a display device and driver assistance system
US10268904B2 (en) Vehicle vision system with object and lane fusion
WO2014084251A1 (en) Onboard image processing system
JP6586849B2 (en) Information display device and information display method
CN111273765B (en) Vehicle display control device, vehicle display control method, and storage medium
JP2012080497A (en) Parking frame detection device and parking frame detection method
JP2011152865A (en) On-vehicle image pickup device
JP2018097431A (en) Driving support apparatus, driving support system and driving support method
WO2014156166A1 (en) Parking assistance system and parking assistance method
JP2008306402A (en) Onboard imaging and display device
JP2016053748A (en) Driving support device and driving support method
JP6152261B2 (en) Car parking frame recognition device
JP2014106739A (en) In-vehicle image processing device
JP2019146012A (en) Imaging apparatus
WO2016072300A1 (en) Vehicle periphery image display device and vehicle periphery image display method
JP6799030B2 (en) Image recognition device, image recognition method, and parking support system
JP2014191475A (en) Driving support device
JP2017117105A (en) Visibility determination device