JP2014191475A - Driving support device - Google Patents
Driving support device Download PDFInfo
- Publication number
- JP2014191475A JP2014191475A JP2013064863A JP2013064863A JP2014191475A JP 2014191475 A JP2014191475 A JP 2014191475A JP 2013064863 A JP2013064863 A JP 2013064863A JP 2013064863 A JP2013064863 A JP 2013064863A JP 2014191475 A JP2014191475 A JP 2014191475A
- Authority
- JP
- Japan
- Prior art keywords
- image
- inappropriate
- images
- driving support
- straight line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
Abstract
Description
この発明は、運転支援装置に関するものである。 The present invention relates to a driving support device.
従来、自動車等の車両用の運転支援装置として、例えば車両に搭載された複数のカメラにより撮像される複数の画像を処理して合成し、自車両の周辺の物体(例えば、前方車両や障害物)等の情報をディスプレイに表示することにより、自車両の進路誘導等を行うものが知られている。 Conventionally, as a driving support device for a vehicle such as an automobile, for example, a plurality of images captured by a plurality of cameras mounted on the vehicle are processed and combined, and an object around the host vehicle (for example, a forward vehicle or an obstacle) ) And the like are displayed on a display to guide the route of the host vehicle.
ところで、一般に、車両に搭載される複数のカメラは、車両の周辺情報を得るために、それぞれ異なった位置に取り付けられる。このため、各カメラにより撮像される画像は、例えば光の差込み具合の違い等に起因して、輝度や彩度、コントラスト等が異なることになる。したがって、各カメラにより撮像された複数の画像を合成してディスプレイに表示する場合、単に画像を合成しただけでは、所定の輝度や彩度、コントラスト等を有する合成画像が得られず、合成画像の視認性が悪化するおそれがある。 By the way, in general, a plurality of cameras mounted on a vehicle are attached to different positions in order to obtain information on the surroundings of the vehicle. For this reason, the images picked up by the respective cameras differ in luminance, saturation, contrast, and the like due to, for example, differences in light insertion. Therefore, when a plurality of images taken by each camera are combined and displayed on the display, a combined image having a predetermined brightness, saturation, contrast, etc. cannot be obtained by simply combining the images. Visibility may deteriorate.
上述の問題を解決するために、例えば特許文献1には、運転支援装置の複数のカメラにより撮像された画像を処理する方法として、複数のカメラのうち隣接するカメラにより撮像された画像の画素データ間の差違が小さくなるように補正し、複数のカメラの合成画像を画面に表示するカメラの画像合成表示方法が記載されている。具体的には、複数(特許文献1では8台)のカメラにより撮像された複数の画像のうち、各画像の平均値に最も近い画像を基準画像とする。そして、この基準画像を撮像する基準カメラと隣接するカメラにより撮像された画像の輝度が、基準画像の輝度と等しくなるように、隣接するカメラの画像を補正する。これにより、複数の車載カメラにより撮像された画像から、視認しやすい合成画像をリアルタイムに生成することができるとされている。
In order to solve the above-described problem, for example,
しかしながら、特許文献1においては、例えば輝度が著しく高く視認性の悪い画像が複数存在する場合には、各画像の平均値に最も近い画像として、視認性の悪い画像が基準画像として選択されるおそれがある。このため、視認性の悪い基準画像に基づいて各画像を補正して処理した場合には、処理後の画像の視認性が悪化するおそれがあるとともに、処理後の画像を使用した運転支援の精度が低下するおそれがある。
However, in
そこで本発明は、上述した事情に鑑みてなされたものであって、処理後の画像の視認性が悪化するのを抑制できるとともに、運転支援の精度が低下するのを抑制できる運転支援装置の提供を課題とする。 Therefore, the present invention has been made in view of the above-described circumstances, and can provide a driving assistance device that can suppress deterioration in the visibility of an image after processing and can suppress deterioration in driving assistance accuracy. Is an issue.
上記の課題を解決するため、本発明の請求項1に記載の運転支援装置(例えば、実施形態における運転支援装置10)は、自車両(例えば、実施形態における自車両1)の周辺を撮像する複数の撮像部(例えば、実施形態における前方カメラ21、後方カメラ22、左側方カメラ23、右側方カメラ24)と、複数の前記撮像部により撮像された各々の画像(例えば、実施形態における前方カメラ21の画像21a、後方カメラ22の画像22a、左側方カメラ23の画像23a、右側方カメラ24の画像24a)を処理する画像処理部(例えば、実施形態における画像処理部35)と、を備えた運転支援装置において、各々の前記画像のうち、前記処理に不適切な不適切画像(例えば、実施形態における前方カメラ21の画像21a)を抽出する抽出部(例えば、実施形態における抽出部33)をさらに備え、前記画像処理部は、前記不適切画像を除外することを特徴としている。
In order to solve the above-mentioned problem, the driving support device according to
本発明によれば、各々の画像の処理に不適切な不適切画像を抽出する抽出部を備え、画像処理部は、不適切画像を除外するので、不適切画像を使用することなく各々の画像を処理することができる。これにより、不適切画像の影響を受けることなく各々の画像を処理できるので、処理後の画像の視認性が悪化するのを抑制できる。また、視認性の悪化が抑制された処理後の画像を運転支援装置による運転支援の際に使用することにより、運転支援の精度が低下するのを抑制できる。 According to the present invention, the image processing unit includes an extraction unit that extracts an inappropriate image inappropriate for processing of each image, and the image processing unit excludes the inappropriate image, so that each image can be used without using the inappropriate image. Can be processed. Thereby, since each image can be processed without being affected by an inappropriate image, it is possible to suppress deterioration of the visibility of the processed image. Moreover, it can suppress that the precision of driving assistance falls by using the image after the process by which the deterioration of visibility was suppressed in the case of the driving assistance by a driving assistance device.
また、本発明の請求項2に記載の発明は、複数の前記撮像部は、それぞれ前記自車両の周辺における異なる方向を撮像することを特徴としている。 The invention according to claim 2 of the present invention is characterized in that each of the plurality of imaging units images different directions around the own vehicle.
本発明によれば、複数の撮像部で自車両の周辺における異なる方向を撮像することにより、各々の画像間において、例えば太陽光等の光の影響を異ならせることができる。したがって、各々の画像を比較することにより各々の画像における太陽光等の光の影響度合いを精度よく検知できるとともに、太陽光等の光の影響を著しく受けることにより生成される不適切画像の数を減少させることができる。すなわち、除外する不適切画像の数を減少させることができるので、処理後の画像の精度を向上できるとともに視認性が悪化するのをさらに抑制できる。 According to the present invention, it is possible to vary the influence of light such as sunlight between the images by imaging different directions around the host vehicle with a plurality of imaging units. Therefore, the degree of influence of light such as sunlight in each image can be accurately detected by comparing each image, and the number of inappropriate images generated by being significantly affected by light such as sunlight can be calculated. Can be reduced. That is, since the number of inappropriate images to be excluded can be reduced, the accuracy of the processed image can be improved and the visibility can be further suppressed from deteriorating.
また、本発明の請求項3に記載の発明は、前記撮像部により撮像された各々の前記画像の明るさに起因する数値を演算する演算部(例えば、実施形態における演算部31)を備え、前記抽出部は、前記演算部の結果に基づいて前記不適切画像を抽出することを特徴としている。
Moreover, the invention according to claim 3 of the present invention includes a calculation unit (for example, the
本発明によれば、撮像部により撮像された各々の画像の明るさに起因する数値を演算する演算部を備えているので、太陽光等の光の影響を、例えば画像の輝度や彩度、コントラスト等として数値化することができる。また、抽出部は、演算部の結果に基づいて不適切画像を抽出するので、数値化されたデータを基に、確実に不適切画像を抽出できる。したがって、太陽光等の光の影響を著しく受けることにより生成される不適切画像を確実に除外できるので、処理後の画像の精度を向上できるとともに視認性が悪化するのをさらに抑制できる。 According to the present invention, since the operation unit that calculates the numerical value resulting from the brightness of each image captured by the image capturing unit is provided, the influence of light such as sunlight is affected by, for example, the brightness and saturation of the image, It can be quantified as contrast or the like. Further, since the extraction unit extracts an inappropriate image based on the result of the calculation unit, it is possible to reliably extract the inappropriate image based on the digitized data. Therefore, an inappropriate image generated by being significantly affected by light such as sunlight can be surely excluded, so that the accuracy of the processed image can be improved and the visibility can be further suppressed from deteriorating.
また、本発明の請求項4に記載の発明は、前記演算部は、各々の前記画像の明るさに起因する数値の平均値(例えば、実施形態における平均輝度値K1,K2,K3,K4)を算出し、前記抽出部は、各々の前記画像のうち、前記平均値が所定値(例えば、実施形態における所定値α)以上である前記画像を前記不適切画像として抽出することを特徴としている。 In the invention according to claim 4 of the present invention, the arithmetic unit is configured to obtain an average value of numerical values resulting from the brightness of each of the images (for example, average luminance values K1, K2, K3, K4 in the embodiment). The extraction unit extracts, as the inappropriate image, the image whose average value is equal to or greater than a predetermined value (for example, the predetermined value α in the embodiment) among the images. .
本発明によれば、所定値を閾値として不適切画像を抽出するので、太陽光等の光の影響を著しく受けることにより生成される不適切画像を確実に除外できる。 According to the present invention, an inappropriate image is extracted using a predetermined value as a threshold value, and therefore an inappropriate image generated by being significantly affected by light such as sunlight can be reliably excluded.
また、本発明の請求項5に記載の発明は、前記演算部は、各々の前記画像の明るさに起因する数値の平均値(例えば、実施形態における平均輝度値K1,K2,K3,K4)を算出し、前記抽出部は、各々の前記画像のうち一の画像(例えば、実施形態における前方カメラ21の画像21a)の前記平均値と他の画像(例えば、実施形態における後方カメラ22の画像22a、左側方カメラ23の画像23a、右側方カメラ24の画像24a)の前記平均値との差の合計値、もしくは前記一の画像の前記平均値と前記他の画像の前記平均値との差の平均値が所定値(例えば、実施形態における所定値D1,D2)以上である場合には、前記一の画像を前記不適切画像として抽出することを特徴としている。
In the invention according to claim 5 of the present invention, the arithmetic unit is configured to obtain an average value of numerical values resulting from the brightness of each of the images (for example, average luminance values K1, K2, K3, K4 in the embodiment). The extraction unit calculates the average value of one of the images (for example, the image 21a of the
本発明によれば、一の画像の平均値と他の画像の平均値との差の合計値、もしくは一の画像の平均値と他の画像の平均値との差の平均値が所定値以上である場合に、一の画像を不適切画像として抽出するので、一の画像と、一の画像とは異なる方向を撮像して得られた他の画像と比較をしたうえで、不適切画像を確実に除外できる。 According to the present invention, the total value of the differences between the average value of one image and the average value of the other image, or the average value of the difference between the average value of the one image and the average value of the other image is a predetermined value or more. In this case, since one image is extracted as an inappropriate image, the one image is compared with another image obtained by capturing a different direction from the one image, Can be definitely excluded.
また、本発明の請求項6に記載の発明は、前記画像処理部は、各々の前記画像における直線情報(例えば、実施形態における直線情報N1,N2,N3,N4,N5,N6)を取得し、前記抽出部は、前記直線情報に基づいて前記不適切画像を抽出することを特徴としている。 In the invention according to claim 6 of the present invention, the image processing unit acquires straight line information in each of the images (for example, straight line information N1, N2, N3, N4, N5, N6 in the embodiment). The extraction unit extracts the inappropriate image based on the straight line information.
本発明によれば、画像中の直線状のノイズを直線情報として取得できるので、不適切画像を抽出することができる。 According to the present invention, since linear noise in an image can be acquired as straight line information, an inappropriate image can be extracted.
また、本発明の請求項7に記載の発明は、前記自車両が位置する周辺のマップ情報(例えば、実施形態における車道中央線L1および車道外側線L2)を取得するマップ情報取得部(例えば、実施形態におけるマップ情報取得部45)を備え、前記抽出部は、前記直線情報と前記マップ情報とに基づいて前記不適切画像を抽出することを特徴としている。 Moreover, the invention according to claim 7 of the present invention is a map information acquisition unit (for example, a roadway center line L1 and a roadway outer line L2 in the embodiment) that acquires the map information of the vicinity where the host vehicle is located The map information acquisition unit 45) according to the embodiment is provided, and the extraction unit extracts the inappropriate image based on the straight line information and the map information.
本発明によれば、抽出部は、直線情報とマップ情報とに基づいて不適切画像を抽出するので、複数の直線情報のうち、ノイズに起因する誤った直線情報を精度よく選別できるとともに、不適切画像を確実に抽出することができる。 According to the present invention, since the extraction unit extracts an inappropriate image based on the straight line information and the map information, it is possible to accurately select erroneous straight line information due to noise among a plurality of straight line information and An appropriate image can be reliably extracted.
また、本発明の請求項8に記載の発明は、前記抽出部は、各々の前記画像のうち、一の画像(例えば、実施形態における前方カメラ21の画像21a)における前記直線情報と前記マップ情報との比較を行い、前記マップ情報に対してマッチングする前記直線情報が所定数以上である場合、もしくは前記マップ情報に対してマッチングする前記直線情報が全く存在しない場合には、前記一の画像を前記不適切画像として抽出することを特徴としている。
Further, in the invention according to claim 8 of the present invention, the extraction unit includes the straight line information and the map information in one of the images (for example, the image 21a of the
本発明によれば、直線情報とマップ情報との比較を行うことにより一の画像を不適切画像として抽出するので、例えばノイズに起因する誤った直線情報を精度よく選別できる。とりわけ、直線情報が全く存在しない場合においても、一の画像を不適切画像として抽出するので、例えば受光量が少なく、視認度が著しく低い不適切画像を確実に除外できる。 According to the present invention, since one image is extracted as an inappropriate image by comparing the straight line information and the map information, for example, erroneous straight line information caused by noise can be accurately selected. In particular, even when there is no straight line information, since one image is extracted as an inappropriate image, for example, an inappropriate image with a small amount of received light and a remarkably low visibility can be surely excluded.
本発明によれば、各々の画像の処理に不適切な不適切画像を抽出する抽出部を備え、画像処理部は、不適切画像を除外するので、不適切画像を使用することなく各々の画像を処理することができる。これにより、不適切画像の影響を受けることなく各々の画像を処理できるので、処理後の画像の視認性が悪化するのを抑制できる。また、視認性の悪化が抑制された処理後の画像を運転支援装置による運転支援の際に使用することにより、運転支援の精度が低下するのを抑制できる。 According to the present invention, the image processing unit includes an extraction unit that extracts an inappropriate image inappropriate for processing of each image, and the image processing unit excludes the inappropriate image, so that each image can be used without using the inappropriate image. Can be processed. Thereby, since each image can be processed without being affected by an inappropriate image, it is possible to suppress deterioration of the visibility of the processed image. Moreover, it can suppress that the precision of driving assistance falls by using the image after the process by which the deterioration of visibility was suppressed in the case of the driving assistance by a driving assistance device.
以下、第一実施形態に係る運転支援装置について、図面を参照して説明をする。
図1は、運転支援装置10のシステム構成図であり、図2は、運転支援装置10を搭載した自車両1の平面図である。
図1に示すように、本実施形態に係る運転支援装置10は、主に外界カメラユニット25と、ナビゲーションシステム40と、演算部31、抽出部33、画像処理部35および記憶部37を含む制御装置30と、を備えている。図2に示すように、運転支援装置10は、自車両1に搭載されており、自車両1の周辺の画像を運転者に対して表示するものである。以下に、運転支援装置10を構成する各部品の詳細について説明する。なお、以下の説明における前後左右等の向きは、特に記載が無ければ、図2に示す自車両1における向きと同一とする。
Hereinafter, the driving support apparatus according to the first embodiment will be described with reference to the drawings.
FIG. 1 is a system configuration diagram of the
As shown in FIG. 1, the driving
外界カメラユニット25は、自車両1の周辺における異なる方向を撮像するためのものであって、例えば、自車両1の前方の周辺領域を撮像領域とする前方カメラ21(請求項の「撮像部」に相当。)と、自車両1の後方の周辺領域を撮像領域とする後方カメラ22(請求項の「撮像部」に相当。)と、自車両1の左側方の周辺領域を撮像領域とする左側方カメラ23(請求項の「撮像部」に相当。)と、自車両1の右側方の周辺領域を撮像領域とする右側方カメラ24(請求項の「撮像部」に相当。)とを備えている。各カメラ21〜24は、それぞれ例えばCCD(Charge−Coupled Device、電荷結合素子)やCMOS(Complementary Metal Oxide Semiconductor、相補性金属酸化膜半導体)等の撮像素子を備えたカメラである。
The
図1に示すように、外界カメラユニット25は、各カメラ21〜24の撮像により得られた画像を制御装置30へ出力する。各カメラ21〜24の撮像により得られた各々の画像は、制御装置30に設けられた後述の画像処理部35により合成される。これにより、自車両1(図2参照)を俯瞰するように視点変換を行った画像(以下「俯瞰合成画像」という。)が得られるとともに、俯瞰合成画像が制御装置30を介してナビゲーションシステム40に出力されて、ディスプレイ43に表示される。
As shown in FIG. 1, the
ナビゲーションシステム40は、自車両1(図2参照)の現在位置を表示したり、現在位置から目的地までの経路を探索して自車両1(図2参照)を誘導したりするためのものであって、ナビゲーション制御部41と、ディスプレイ43と、を主に備えている。図2に示すように、ナビゲーションシステム40は、例えば自車両1の不図示のインストルメントパネルに収容されている。
ナビゲーション制御部41は、図示しない現在位置検出部と、地図データ記憶部と、ナビゲーション処理部と、を主に備えている。
現在位置検出部は、人工衛星を利用したGPS(Global Positioning System)信号等の測位信号を受信して、自車両1の現在位置を検出する。
地図データ記憶部は、ハードディスク装置等の磁気ディスク装置や、CD−ROMやDVD−ROM等の光ディスク装置等のコンピュータ読み取り可能な記憶媒体に、地図データを記録して構成されている。その地図データとして、例えば道路や交差点の位置および形状等の道路データや、建物の位置および形状等の建物データ、駐車場の位置および形状等の駐車場データ等が格納されている。
ナビゲーション処理部は、現在位置検出部で検出された現在位置やナビゲーションシステム40に入力された目的地、地図データ記憶部から読み出された地図データ等に基づいて、自車両1の走行経路を探索する。
The
The
The current position detection unit receives a positioning signal such as a GPS (Global Positioning System) signal using an artificial satellite, and detects the current position of the
The map data storage unit is configured by recording map data on a computer-readable storage medium such as a magnetic disk device such as a hard disk device or an optical disk device such as a CD-ROM or DVD-ROM. As the map data, for example, road data such as road and intersection positions and shapes, building data such as building positions and shapes, and parking lot data such as parking positions and shapes are stored.
The navigation processing unit searches for the travel route of the
ディスプレイ43は、例えば液晶ディスプレイであって、自車両1の不図示のインストルメントパネル内に運転者が視認可能なように設置される。ディスプレイ43には、ナビゲーション制御部41の地図データに基づく画像や、制御装置30から出力される自車両1の俯瞰合成画像等が表示される。
The
また、運転支援装置10は、マップ情報取得部45を備えていてもよい。マップ情報取得部45は、既存の移動体通信網を利用した、例えば携帯電話等の携帯情報端末である。マップ情報取得部45は、不図示の情報サーバから提供される駐車場等のマップ情報(例えば、駐車場を画成する白線のマップ情報)や、道路等のマップ情報(例えば、道路上における車道中央線や車道外側線等の区画線のマップ情報)を取得している。また、マップ情報取得部45は、ナビゲーションシステム40と既存の通信手段によって接続されるとともに、ナビゲーションシステム40とマップ情報を共有するためのアプリケーション機能を備えている。
In addition, the driving
図1に示すように、制御装置30は、演算部31と、抽出部33と、画像処理部35と、記憶部37とを備えて構成されており、上述した外界カメラユニット25およびナビゲーションシステム40が接続されている。
外界カメラユニット25が接続されることにより、制御装置30には、各カメラ21〜24により得られた自車両1(図2参照)の周囲の画像が入力される。また、制御装置30は、自車両1の周囲の画像をナビゲーションシステム40に出力し、ディスプレイ43に表示させている。
As shown in FIG. 1, the
By connecting the
図3は、演算部31(図1参照)による演算および抽出部33(図1参照)による抽出の説明図である。なお、図3における横軸は輝度を示している。
演算部31は、各カメラ21〜24により撮像された各々の画像の明るさに起因する数値を演算する。より具体的には、図3に示すように、各カメラ21〜24により撮像された各々の画像21a〜24aの明るさに起因する数値として、例えば各々の画像21a〜24aにおける輝度を演算し、各々の画像21a〜24aにおける輝度の平均値K1〜K4(請求項の「画像の明るさに起因する数値の平均値」に相当。以下、「平均輝度値」という。)をそれぞれ算出する。図3では、一例として、前方カメラ21の画像21aにおける平均輝度値K1が最も高くなっている場合を図示している。
FIG. 3 is an explanatory diagram of calculation by the calculation unit 31 (see FIG. 1) and extraction by the extraction unit 33 (see FIG. 1). Note that the horizontal axis in FIG. 3 indicates luminance.
The
また、本実施形態では、演算部31で算出する「明るさに起因する数値」として輝度を例にして説明するが、「明るさに起因する数値」は、輝度に限定されない。すなわち、「明るさに起因する数値」とは、各々の画像21a〜24aの視認性に関する数値であって、輝度や明度、彩度、コントラスト等をいう。したがって、演算部31は、各カメラ21〜24により撮像された各々の画像21a〜24aの明るさに起因する数値として、明度や彩度、コントラスト等を演算してもよい。
In the present embodiment, luminance is described as an example of the “numerical value resulting from brightness” calculated by the
抽出部33(図1参照)は、演算部31(図1参照)の演算結果に基づいて、各カメラ21〜24により撮像された各々の画像21a〜24aのうち、処理に不適切な不適切画像を抽出する。本実施形態の抽出部33(図1参照)は、図3に示す一例のように、各々の画像21a〜24aのうち、平均輝度値が所定値α以上である前方カメラ21の画像21aを不適切画像として抽出する。不適切画像を抽出するための所定値αは、例えば、画像に対する視認性が著しく低下する輝度の値であって、強い光が各カメラ21〜24に入射し、ブルーミングやハレーションが発生したときの画像における平均輝度値に対応して決定される。
The extraction unit 33 (see FIG. 1) is inappropriate for processing among the images 21a to 24a captured by the
画像処理部35(図1参照)は、各カメラ21〜24により撮像された各々の画像21a〜24aを処理する。画像処理部35(図1参照)は、主に画像21a〜24aの処理として、例えば各カメラ21〜24により撮像された各々の画像21a〜24aの輝度を補正する処理(以下、「輝度補正処理」という。)と、各々の画像21a〜24aを合成して俯瞰合成画像を作成する処理(以下、「俯瞰合成画像作成処理」という。)と、を行っている。
The image processing unit 35 (see FIG. 1) processes the images 21a to 24a captured by the
輝度補正処理では、各カメラ21〜24により撮像された各々の画像21a〜24aの輝度を補正する。補正の方法としては、前方カメラ21の画像21a、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aの各平均輝度値K1,K2,K3,K4について、さらに平均値(以下、「全体平均値」という。)を求める。そして、全体平均値を目標値として、前方カメラ21の画像21aの平均輝度値K1、後方カメラ22の画像22aの平均輝度値K2、左側方カメラ23の画像23a平均輝度値K3および右側方カメラ24の画像24aの平均輝度値K4を補正する。
また、俯瞰合成画像作成処理では、前方カメラ21の画像21a、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aを合成して俯瞰合成画像を作成する。
また、画像処理部35では、例えば、画像内において局所的に輝度を上昇させる他車両の光源のデータ等、画像の平均輝度値を算出する際に妨げとなる障害データをフィルタリングして除去する。
In the brightness correction process, the brightness of each of the images 21a to 24a captured by the
In the overhead view composite image creation process, the image 21a of the
In addition, the
ここで、本実施形態の画像処理部35(図1参照)は、各カメラ21〜24により撮像された各々の画像21a〜24aのうち、不適切画像(本実施形態の図3に示す例では、前方カメラ21の画像21a)が存在する場合には、該不適切画像を除外したうえで処理を行う。
具体的には、輝度補正処理では、不適切画像である前方カメラ21の画像21aを輝度補正処理の対象から除外する。次いで、前方カメラ21の画像21a以外の画像である、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aの各平均輝度値K2,K3,K4について、さらに平均値(以下、「全体平均値」という。)を求める。そして、全体平均値を目標値として、後方カメラ22の画像22aの平均輝度値K2、左側方カメラ23の画像23a平均輝度値K3および右側方カメラ24の画像24aの平均輝度値K4を補正する。これにより、不適切画像とされた前方カメラ21の画像21aの影響を受けることなく、前方カメラ21の画像21a以外の他の各々の画像22a〜24aの輝度を補正できる。
Here, the image processing unit 35 (see FIG. 1) of the present embodiment is an inappropriate image (in the example illustrated in FIG. 3 of the present embodiment) among the images 21a to 24a captured by the
Specifically, in the luminance correction process, the image 21a of the
また、俯瞰合成画像作成処理では、不適切画像である前方カメラ21の画像21aを除外し、前方カメラ21の画像21a以外の画像である、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aにより俯瞰合成画像を作成する。これにより、精度の悪い不適切画像である前方カメラ21の画像21aを表示することなく俯瞰合成画像を作成できる。なお、不適切画像である前方カメラ21の画像21aを輝度補正処理の対象から除外しつつ、俯瞰合成画像作成処理で前方カメラ21の画像21aを除外することなく、前方カメラ21の画像21a、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aにより俯瞰合成画像を作成してもよい。
In the overhead view composite image creation process, the image 21a of the
記憶部37は、例えば、フラッシュメモリやROM(Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、RAM(Random Access Memory)等のメモリにより構成される。記憶部37は、例えば外界カメラユニット25やナビゲーションシステム40等から制御装置30に対して出力される種々のデータを記憶している。
The
図4は、第一実施形態の運転支援装置が行う画像の処理のフローチャートである。
続いて、図4に示すフローチャートを用いて、本実施形態の運転支援装置が行う画像の処理について説明する。なお、以下の説明における各部品等の符号については、図1から図3を参照されたい。
FIG. 4 is a flowchart of image processing performed by the driving support apparatus according to the first embodiment.
Next, image processing performed by the driving support apparatus according to the present embodiment will be described with reference to the flowchart shown in FIG. In addition, please refer to FIG. 1 to FIG.
ステップS1では、各カメラ21〜24により撮像された各々の画像21a〜24aを、例えば制御装置30の記憶部37に記憶する。
ステップS3では、記憶部37に記憶した各々の画像21a〜24aについて、例えば他車両の光源のデータ等の障害データが存在するか否かの判定を行う。ステップS3において、障害データが存在しない場合には、「NO」と判定してステップS7に進む。これに対して、ステップS3において、障害データが存在する場合には、「YES」と判定してステップS5に進み、対象となる画像の障害データをフィルタリングして除去した後、ステップS7に進む。
ステップS7では、各カメラ21〜24により撮像された各々の画像21a〜24aの平均輝度値K1〜K4をそれぞれ算出する。
In step S <b> 1, the images 21 a to 24 a captured by the
In step S <b> 3, for each of the images 21 a to 24 a stored in the
In step S7, average luminance values K1 to K4 of the images 21a to 24a captured by the
ステップS9では、各々の画像21a〜24aの平均輝度値K1〜K4と、所定値αとの比較を行い、平均輝度値が所定値α以上の画像があるか否かの判定を行う。ステップS9において、各々の画像21a〜24aの平均輝度値K1〜K4がいずれも所定値α以上ではない場合には、「NO」と判定して、ステップS11に進む。
ステップS11では、各カメラ21〜24により撮像された各々の画像21a〜24aの処理を行う。具体的には、各々の画像21a〜24aの輝度を補正したあと、各々の画像21a〜24aを合成して俯瞰合成画像を作成する。各々の画像21a〜24aの処理が終了した時点で、運転支援装置10が行う画像の処理が終了する。
In step S9, the average luminance values K1 to K4 of the images 21a to 24a are compared with a predetermined value α to determine whether there is an image having an average luminance value equal to or larger than the predetermined value α. In step S9, if none of the average luminance values K1 to K4 of the images 21a to 24a is greater than or equal to the predetermined value α, it is determined as “NO” and the process proceeds to step S11.
In step S11, each image 21a-24a imaged by each camera 21-24 is processed. Specifically, after correcting the brightness of each of the images 21a to 24a, the images 21a to 24a are combined to create an overhead view composite image. When the processing of each of the images 21a to 24a is finished, the image processing performed by the driving
これに対して、ステップS9において、各々の画像21a〜24aの平均輝度値K1〜K4のうち、少なくとも一の画像の平均輝度値が所定値α以上である場合には、「YES」と判定して、ステップS13に進む。例えば、図3に示す一例のように、前方カメラ21の画像21aの平均輝度値K1が所定値α以上である場合には、「YES」と判定する。そして、前方カメラ21の画像21aが不適切画像であると判断して、ステップS13に進む。
ステップS13では、不適切画像(例えば、図3に示す一例では、前方カメラ21の画像21a)を除外する。
ステップS15では、不適切画像以外の画像(例えば、図3に示す一例では、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24a)の処理を行う。具体的には、不適切画像以外の画像22a〜24aの輝度を補正したあと、不適切画像以外の画像22a〜24aを合成して俯瞰合成画像を作成する。各々の画像22a〜24aの処理が終了した時点で、運転支援装置10が行う画像の処理が終了する。なお、ステップS15において、不適切画像である前方カメラ21の画像21aを輝度補正処理の対象から除外しつつ、俯瞰合成画像作成処理で前方カメラ21の画像21aを除外することなく、前方カメラ21の画像21a、後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aにより俯瞰合成画像を作成してもよい。
On the other hand, if the average luminance value of at least one of the average luminance values K1 to K4 of the images 21a to 24a is greater than or equal to the predetermined value α in step S9, “YES” is determined. Then, the process proceeds to step S13. For example, as in the example illustrated in FIG. 3, when the average luminance value K1 of the image 21a of the
In step S13, inappropriate images (for example, the image 21a of the
In step S15, an image other than an inappropriate image (for example, in the example shown in FIG. 3, the image 22a of the
本実施形態によれば、各々の画像の処理に不適切な不適切画像を抽出する抽出部33を備え、画像処理部35は、不適切画像を除外するので、不適切画像を使用することなく各々の画像を処理することができる。これにより、不適切画像の影響を受けることなく各々の画像を処理できるので、処理後の俯瞰合成画像の視認性が悪化するのを抑制できる。また、視認性の悪化が抑制された俯瞰合成画像を運転支援装置10による運転支援の際に使用することにより、運転支援の精度が低下するのを抑制できる。
According to the present embodiment, the
また、複数のカメラ21〜24で自車両1の周辺における異なる方向を撮像することにより、各々の画像間において、例えば太陽光等の光の影響を異ならせることができる。したがって、各々の画像を比較することにより各々の画像における太陽光等の光の影響度合いを精度よく検知できるとともに、太陽光等の光の影響を著しく受けることにより生成される不適切画像の数を減少させることができる。すなわち、除外する不適切画像の数を減少させることができるので、処理後の俯瞰合成画像の精度を向上できるとともに視認性が悪化するのをさらに抑制できる。
Moreover, the influence of light, such as sunlight, can be varied between each image by imaging the different direction in the periphery of the
また、各カメラ21〜24により撮像された各々の画像の輝度を演算する演算部31を備えているので、太陽光等の光の影響を数値化することができる。また、抽出部33は、演算部31の結果に基づいて不適切画像を抽出するので、数値化されたデータを基に、確実に不適切画像を抽出できる。したがって、太陽光等の光の影響を著しく受けることにより生成される不適切画像を確実に除外できるので、俯瞰合成画像の精度を向上できるとともに視認性が悪化するのをさらに抑制できる。
Moreover, since the calculating
また、所定値αを閾値として不適切画像を抽出するので、太陽光等の光の影響を著しく受けることにより生成される不適切画像を確実に除外できる。 In addition, since an inappropriate image is extracted with the predetermined value α as a threshold, an inappropriate image generated by being significantly affected by light such as sunlight can be reliably excluded.
(第一実施形態の変形例)
続いて、第一実施形態の各変形例に係る運転支援装置ついて説明する。なお、以下では、第一実施形態と同様の構成部分については説明を省略し、異なる部分についてのみ説明する。
図3に示すように、第一実施形態では、各々の画像21a〜24aのうち、平均輝度値が所定値α以上である画像(図3に示す一例では、前方カメラ21の画像21a)を不適切画像として抽出していた。これに対して、不適切画像の抽出手法は、上記手法に限定されない。
(Modification of the first embodiment)
Next, driving support devices according to modifications of the first embodiment will be described. In addition, below, description is abbreviate | omitted about the component similar to 1st embodiment, and only a different part is demonstrated.
As shown in FIG. 3, in the first embodiment, among the images 21a to 24a, an image having an average luminance value equal to or greater than a predetermined value α (an image 21a of the
(第一実施形態の第一変形例)
図5は、第一実施形態の各変形例における不適切画像の抽出の説明図である。なお、以下の説明における各部品等の符号については、図1から図3を参照されたい。
図5に示すように、第一実施形態の第一変形例では、抽出部33は、各々の画像21a〜24aのうち一の画像の平均輝度値(例えば、図5に示す一例では、前方カメラ21の画像21aの平均輝度値K1)と他の画像の平均輝度値(例えば、図5に示す一例では、後方カメラ22の画像22aの平均輝度値K2、左側方カメラ23の画像23aの平均輝度値K3および右側方カメラ24の画像24aの平均輝度値K4)との差の合計値が所定値以上である場合には、一の画像(例えば、図5に示す一例では、前方カメラ21の画像21a)を不適切画像として抽出する。
すなわち、所定値をD1としたとき、
(K1−K2)+(K1−K3)+(K1−K4)≧D1
を満足する場合には、前方カメラ21の画像21aを不適切画像として抽出する。
(First modification of the first embodiment)
FIG. 5 is an explanatory diagram of extraction of inappropriate images in each modification of the first embodiment. In addition, please refer to FIG. 1 to FIG.
As shown in FIG. 5, in the first modification example of the first embodiment, the
That is, when the predetermined value is D1,
(K1-K2) + (K1-K3) + (K1-K4) ≧ D1
Is satisfied, the image 21a of the
(第一実施形態の第二変形例)
また、第一実施形態の第二変形例では、一の画像の平均輝度値(例えば、図5に示す一例では、前方カメラ21の画像21aの平均輝度値K1)と他の画像の平均輝度値(例えば、図5に示す一例では、後方カメラ22の画像22aの平均輝度値K2、左側方カメラ23の画像23aの平均輝度値K3および右側方カメラ24の画像24aの平均輝度値K4)との差の平均値が所定値以上である場合には、一の画像(例えば、図5に示す一例では、前方カメラ21の画像21a)を不適切画像として抽出する。
すなわち、所定値をD2としたとき、
((K1−K2)+(K1−K3)+(K1−K4))/3≧D2
を満足する場合には、前方カメラ21の画像21aを不適切画像として抽出する。
(Second modification of the first embodiment)
Further, in the second modification of the first embodiment, the average luminance value of one image (for example, the average luminance value K1 of the image 21a of the
That is, when the predetermined value is D2,
((K1-K2) + (K1-K3) + (K1-K4)) / 3 ≧ D2
Is satisfied, the image 21a of the
第一実施形態の各変形例によれば、一の画像の平均値と他の画像の平均値との差の合計値、もしくは一の画像の平均値と他の画像の平均値との差の平均値が所定値以上である場合に、一の画像を不適切画像として抽出するので、一の画像と、一の画像とは異なる方向を撮像して得られた他の画像と比較をしたうえで、不適切画像を確実に除外できる。 According to each modification of the first embodiment, the total value of the difference between the average value of one image and the average value of the other image, or the difference between the average value of one image and the average value of the other image When the average value is greater than or equal to the predetermined value, one image is extracted as an inappropriate image, so compare one image with another image obtained by capturing a different direction from the one image. Thus, inappropriate images can be surely excluded.
(第二実施形態)
続いて、第二実施形態に係る運転支援装置ついて説明する。なお、第二実施形態の運転支援装置のシステム構成図は、図1と同一であるため図示を省略する。また、第二実施形態における第一実施形態と共通の構成部品等の符号は、第一実施形態における各構成部品等の符号と同一となっている。
第一実施形態に係る運転支援装置10は、各カメラ21〜24の各々の画像から俯瞰合成画像を作成する場合に、不適切画像を抽出および除外して画像の処理を行っていた。
これに対して、第二実施形態に係る運転支援装置10では、各カメラ21〜24の各々の画像から、例えば道路に設けられた車道中央線および車道外側線を認識する場合に、不適切画像を抽出および除外して画像の処理を行っている。なお、以下では、第一実施形態と同様の構成部分については説明を省略し、異なる部分についてのみ説明する。
(Second embodiment)
Next, the driving support device according to the second embodiment will be described. Note that the system configuration diagram of the driving support apparatus of the second embodiment is the same as FIG. Moreover, the code | symbols, such as a component common in 1st embodiment in 2nd embodiment, are the same as the codes | symbols of each component in 1st embodiment.
The driving
On the other hand, in the driving
図6は、第二実施形態の運転支援装置が行う画像の処理の説明図である。なお、図6では、前方カメラ21の撮像領域R1の画像を二点鎖線で図示しており、他のカメラ22〜24の撮像領域の画像については、図示を省略している。
図6に示すように、運転支援装置10(図1参照)は、自車両1が進行する道路Wに設けられた車道中央線L1および車道外側線L2に沿って自車両1を走行させるためのものであって、不図示の電動パワーステアリングユニットに対して必要な操舵アシストトルクを出力するとともに、車道中央線L1および車道外側線L2から自車両1がはみ出した場合には、運転者に対して警報を出力するものである。すなわち、運転支援装置10は、いわゆるLKAS(Lane Keeping Assistance System)制御およびLDW(Lane Departure Warning)制御を行う装置である。
FIG. 6 is an explanatory diagram of image processing performed by the driving support apparatus of the second embodiment. In FIG. 6, the image of the imaging region R1 of the
As shown in FIG. 6, the driving assistance device 10 (see FIG. 1) is for driving the
図1に示すように、運転支援装置10は、マップ情報取得部45を備えている。第二実施形態のマップ情報取得部45は、外部の不図示の情報サーバから、道路Wに設けられた車道中央線L1および車道外側線L2(図6参照)のマップ情報を取得している。
画像処理部35は、記憶部37に記憶した各カメラ21〜24の各々の画像から直線情報を取得する。ここで、本実施形態における直線情報とは、自車両1が走行する道路Wに設けられた車道中央線L1および車道外側線L2の情報である(図6参照)。また本実施形態において、LKAS制御に必要な直線情報は、主に前方カメラ21および後方カメラ22により撮像された画像から取得し、LDW制御に必要な直線情報は、主に左側方カメラ23および右側方カメラ24により撮像された画像から取得している。
抽出部33は、各カメラ21〜24の各々の画像から取得された直線情報と、マップ情報取得部45が取得したマップ情報とに基づいて、不適切画像を抽出する。抽出部33による具体的な不適切画像の抽出方法については後述する。
As shown in FIG. 1, the driving
The
The
図7は、第二実施形態の運転支援装置が行う画像の処理の説明図である。
続いて、図7に示すフローチャートを用いて、本実施形態の運転支援装置が行う画像の処理について説明する。なお、以下の説明における各部品等の符号については、図1および図6を参照されたい。
FIG. 7 is an explanatory diagram of image processing performed by the driving support apparatus of the second embodiment.
Next, image processing performed by the driving support device of the present embodiment will be described with reference to the flowchart shown in FIG. In addition, please refer to FIG. 1 and FIG.
まず、ステップS21では、各カメラ21〜24により撮像された各々の画像を、例えば制御装置30の記憶部37に記憶する。
ステップS23では、記憶部37に記憶した各々の画像から、道路Wに存在する直線情報を取得する。ここで、画像中に直線状の画像ノイズが存在する場合には、該画像ノイズについても直線情報として取得される。図6に示す例では、前方カメラ21の撮像領域R1の画像において、車道中央線L1に対応する直線情報、車道外側線L2に対応する直線情報および直線状の画像ノイズが直線情報N1〜N6として取得される。前方カメラ21以外の各カメラ22〜24の画像においても同様に、直線情報を取得する。
First, in step S <b> 21, each image captured by each
In step S23, straight line information existing on the road W is obtained from each image stored in the
ステップS25では、マップ情報と各々の画像の直線情報とを比較する。図6に示す例では、マップ情報である車道中央線L1および車道外側線L2と、前方カメラ21の画像から取得した各直線情報N1〜N6との比較を行なう。前方カメラ21以外の各カメラ22〜24の画像から取得した各直線情報についても同様に、マップ情報と比較を行う。
In step S25, the map information is compared with the straight line information of each image. In the example shown in FIG. 6, comparison is made between the roadway center line L1 and the roadway outer line L2 that are map information, and the straight line information N1 to N6 acquired from the image of the
ステップS27では、マップ情報とマッチングする直線情報を検出する。図6に示す例では、マップ情報である車道中央線L1および車道外側線L2と、前方カメラ21の画像から取得した各直線情報N1〜N6との一致度合い(マッチング度合い)から、車道中央線L1および車道外側線L2にマッチングする直線情報を検出する。なお、本実施形態におけるマッチングは、例えば、直線情報が車道中央線L1および車道外側線L2と所定角度(例えば30°程度)以下で交差するか否かにより決定される。すなわち、直線情報が車道中央線L1および車道外側線L2と30°以下で交差する場合には、マップ情報とマッチングする直線情報であると検出する。
In step S27, straight line information matching the map information is detected. In the example shown in FIG. 6, the roadway center line L1 is calculated from the degree of matching (matching degree) between the roadway center line L1 and the roadway outer line L2 that are map information and the straight line information N1 to N6 acquired from the image of the
前方カメラ21の画像から取得した各直線情報N1〜N6のうち、直線情報N1および直線情報N6は、それぞれマップ情報に基づく車道中央線L1と30°以下の角度で交差している。したがって、直線情報N1および直線情報N6の2本の直線情報を、車道中央線L1に対してマッチングする直線情報として検出する。また、前方カメラ21の画像から取得した各直線情報N1〜N6のうち、直線情報N2および直線情報N5は、それぞれマップ情報に基づく車道外側線L2と30°以下の角度で交差している。したがって、直線情報N2および直線情報N5の2本の直線情報を、車道外側線L2に対してマッチングする直線情報として検出する。前方カメラ21以外の各カメラ22〜24の画像から取得した各直線情報についても同様に、マップ情報とマッチングする直線情報を検出する。
なお、各直線情報N1〜N6のうち、直線情報N3および直線情報N4は、それぞれマップ情報に基づく車道中央線L1および車道外側線L2とは交差していない。したがって、直線情報N3および直線情報N4の2本の直線情報を、車道中央線L1および車道外側線L2に対してマッチングしない画像ノイズに基づく直線情報であると検出してもよい。
Of the straight line information N1 to N6 acquired from the image of the
Of the straight line information N1 to N6, the straight line information N3 and the straight line information N4 do not intersect the roadway center line L1 and the roadway outer line L2 based on the map information, respectively. Therefore, the two pieces of straight line information of the straight line information N3 and the straight line information N4 may be detected as straight line information based on image noise that does not match the roadway center line L1 and the roadway outer line L2.
ステップS29では、マップ情報に対してマッチングする直線情報が所定本数(本実施形態では2本)以上か否かの判定を行う。
図6に示す例では、前方カメラ21の画像から取得した直線情報N1〜N6のうち、直線情報N1および直線情報N6の2本の直線情報が、車道中央線L1に対してマッチングする直線情報として検出されるとともに、直線情報N2および直線情報N5の2本の直線情報が、車道外側線L2に対してマッチングする直線情報として検出される。すなわち、前方カメラ21の画像においては、マップ情報である車道中央線L1および車道外側線L2に対してマッチングする直線情報がそれぞれ2本ずつ検出されている。したがって、ステップS29では、「YES」と判定して、ステップS31に進む。前方カメラ21以外の各カメラ22〜24の画像についても同様に、マップ情報に対してマッチングする直線情報が所定本数(本実施形態では2本)以上であるか否かの判定を行う。
In step S29, it is determined whether or not the number of straight line information matching the map information is equal to or greater than a predetermined number (two in this embodiment).
In the example illustrated in FIG. 6, two pieces of straight line information N1 and straight line information N6 out of straight line information N1 to N6 acquired from the image of the
ステップS31では、マップ情報に対してマッチングする直線情報が所定数(本実施形態では2本)以上である画像を不適切画像として除外する。本実施形態では、前方カメラ21の画像において、マップ情報である車道中央線L1および車道外側線L2に対してマッチングする直線情報がそれぞれ2本ずつ検出されている。したがって、前方カメラ21の画像を不適切画像として除外する。
In step S31, images having a predetermined number (two in the present embodiment) of straight line information matching the map information are excluded as inappropriate images. In the present embodiment, two pieces of straight line information matching the roadway center line L1 and the roadway outer side line L2, which are map information, are respectively detected in the image of the
ステップS33では、必要に応じてLKAS制御とLDW制御との切り換えを行う。本実施形態においては、前方カメラ21の画像が不適切画像として除外されるため、主に前方カメラ21および後方カメラ22により撮像された画像を使用するLKAS制御から、主に左側方カメラ23および右側方カメラ24により撮像された画像を使用するLDW制御に切り換える。ステップS33が終了した時点で、運転支援装置10が行う画像の処理が終了する。
In step S33, switching between LKAS control and LDW control is performed as necessary. In the present embodiment, since the image of the
これに対して、ステップS29において、マップ情報に対してマッチングする直線情報が所定本数(本実施形態では2本)未満である場合には、「NO」と判定して、ステップS35に進む。
ステップS35では、各カメラ21〜24の画像における直線情報を道路情報(本実施形態では、車道中央線L1および車道外側線L2)として認識する。ステップS35が終了した時点で、運転支援装置10が行う画像の処理が終了する。なお、ステップS35においては、LKAS制御とLDW制御との切り換えを行うことなく、選択されているLKAS制御およびLDW制御の少なくともいずれかの制御を採用した状態で、フローを終了する。
On the other hand, if the number of straight line information matching the map information is less than the predetermined number (two in this embodiment) in step S29, the determination is “NO” and the process proceeds to step S35.
In step S35, the straight line information in the images of the
第二実施形態によれば、例えば太陽光等の光の影響により発生する画像中の直線状のノイズを直線情報として取得できるので、不適切画像を抽出することができる。 According to the second embodiment, for example, linear noise in an image generated by the influence of light such as sunlight can be acquired as straight line information, so that an inappropriate image can be extracted.
また、抽出部33は、直線情報とマップ情報である車道中央線L1および車道外側線L2に基づいて不適切画像を抽出するので、複数の直線情報のうち、ノイズに起因する誤った直線情報を精度よく選別できるとともに、不適切画像を確実に抽出することができる。
In addition, the
また、直線情報とマップ情報である車道中央線L1および車道外側線L2との比較を行うことにより一の画像を不適切画像として抽出するので、ノイズに起因する誤った直線情報を精度よく選別できる。 Moreover, since one image is extracted as an inappropriate image by comparing the straight line information with the roadway center line L1 and the roadway outer line L2 which are map information, erroneous straight line information caused by noise can be accurately selected. .
なお、この発明の技術範囲は上記の実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。 The technical scope of the present invention is not limited to the above embodiment, and various modifications can be made without departing from the spirit of the present invention.
運転支援装置10のシステム構成は、各実施形態に限定されない。例えば、外界カメラユニット25の個数は4個に限定されない。また、各カメラ21〜24により撮像された画像を表示する手段として、ナビゲーションシステム40のディスプレイ43に限定されることはなく、例えば、いわゆるヘッドアップディスプレイ等であってもよい。また、マップ情報取得部45は、携帯情報端末に限定されない。
The system configuration of the driving
第一実施形態では、不適切画像である前方カメラ21の画像21aを輝度補正処理の対象から除外しつつ、俯瞰合成画像作成処理で前方カメラ21の画像21a以外の後方カメラ22の画像22a、左側方カメラ23の画像23aおよび右側方カメラ24の画像24aの輝度補正処理をしていた。これに対して、例えば、認識された不適切画像を画像処理の対象から除外するとともに、例えば白線等の認識を一切行わないようにしてもよい。
In the first embodiment, the image 22a of the
第一実施形態と第二実施形態とを組み合わせた運転支援装置10としてもよい。具体的には、不適切画像を抽出および除外して画像の処理を行うとともに、不適切画像であるとされた画像に対応して、LKAS制御とLDW制御との切り換えを行ってもよい。したがって、例えば前方カメラ21の画像21aが不適切画像であるとされた場合には、LKAS制御からLDW制御に切り換えるように制御を行ってもよい。
It is good also as the driving
また、第二実施形態の運転支援装置10は、道路Wに設けられた車道中央線L1および車道外側線L2に沿って自車両1を走行させる、いわゆるLKAS制御およびLDW制御を行う装置であったが、例えば、白線により画成された駐車スペースを検出するとともに駐車スペースに対して自車両1を駐車する際の経路を算出し、この経路に沿って自車両1を走行させるための駐車支援装置であってもよい。また、例えば、駐車支援装置において、不適切画像における白線を認識しないように制御してもよい。
The driving
また、第二実施形態の運転支援装置10は、マップ情報に対してマッチングする直線情報が所定本数(本実施形態では2本)以上である画像を不適切画像として抽出していた。これに対して、マップ情報に対してマッチングする直線情報が全く存在しない画像についても不適切画像として抽出してもよい。これにより、直線情報が全く存在しない場合においても不適切画像として抽出できるので、例えば受光量が少なく、視認度が著しく低い不適切画像を確実に除外できる。
In addition, the driving
その他、本発明の趣旨を逸脱しない範囲で、上記した実施の形態における構成要素を周知の構成要素に置き換えることは適宜可能である。 In addition, it is possible to appropriately replace the components in the above-described embodiments with known components without departing from the spirit of the present invention.
1 自車両
21 前方カメラ(撮像部)
21a 画像(不適切画像)
22 後方カメラ(撮像部)
22a 画像
23 左側方カメラ(撮像部)
23a 画像
24 右側方カメラ(撮像部)
24a 画像
31 演算部
33 抽出部
35 画像処理部
45 マップ情報取得部
D1,D2 所定値
K1,K2,K3,K4 平均輝度値(平均値)
L1 車道中央線(マップ情報)
L2 車道外側線(マップ情報)
N1,N2,N3,N4,N5,N6 直線情報
α 所定値
1 Self-
21a Image (unsuitable image)
22 Rear camera (imaging part)
L1 Roadway Chuo Line (map information)
L2 roadway outside line (map information)
N1, N2, N3, N4, N5, N6 Straight line information α Predetermined value
Claims (8)
複数の前記撮像部により撮像された各々の画像を処理する画像処理部と、
を備えた運転支援装置において、
各々の前記画像のうち、前記処理に不適切な不適切画像を抽出する抽出部をさらに備え、
前記画像処理部は、前記不適切画像を除外することを特徴とする運転支援装置。 A plurality of imaging units for imaging the periphery of the host vehicle;
An image processing unit that processes each image captured by the plurality of imaging units;
In a driving support device equipped with
An extraction unit that extracts an inappropriate image inappropriate for the processing among the images;
The driving support device, wherein the image processing unit excludes the inappropriate image.
複数の前記撮像部は、それぞれ前記自車両の周辺における異なる方向を撮像することを特徴とする運転支援装置。 The driving support device according to claim 1,
The plurality of imaging units respectively capture different directions in the vicinity of the host vehicle.
前記撮像部により撮像された各々の前記画像の明るさに起因する数値を演算する演算部を備え、
前記抽出部は、前記演算部の結果に基づいて前記不適切画像を抽出することを特徴とする運転支援装置。 The driving support device according to claim 1 or 2,
An arithmetic unit that calculates a numerical value resulting from the brightness of each of the images captured by the imaging unit;
The said extraction part extracts the said inappropriate image based on the result of the said calculating part, The driving assistance apparatus characterized by the above-mentioned.
前記演算部は、各々の前記画像の明るさに起因する数値の平均値を算出し、
前記抽出部は、各々の前記画像のうち、前記平均値が所定値以上である前記画像を前記不適切画像として抽出することを特徴とする運転支援装置。 The driving support device according to claim 3,
The calculation unit calculates an average value of numerical values resulting from the brightness of each of the images,
The said extraction part extracts the said image whose said average value is more than predetermined value among each said image as said inappropriate image.
前記演算部は、各々の前記画像の明るさに起因する数値の平均値を算出し、
前記抽出部は、各々の前記画像のうち一の画像の前記平均値と他の画像の前記平均値との差の合計値、もしくは前記一の画像の前記平均値と前記他の画像の前記平均値との差の平均値が所定値以上である場合には、前記一の画像を前記不適切画像として抽出することを特徴とする運転支援装置。 The driving support device according to claim 3,
The calculation unit calculates an average value of numerical values resulting from the brightness of each of the images,
The extraction unit includes a sum of differences between the average value of one image and the average value of another image among the images, or the average value of the one image and the average of the other image. When the average value of the difference from the value is equal to or larger than a predetermined value, the one image is extracted as the inappropriate image.
前記画像処理部は、各々の前記画像における直線情報を取得し、
前記抽出部は、前記直線情報に基づいて前記不適切画像を抽出することを特徴とする運転支援装置。 The driving support device according to claim 1,
The image processing unit acquires straight line information in each of the images,
The driving support device, wherein the extraction unit extracts the inappropriate image based on the straight line information.
前記自車両が位置する周辺のマップ情報を取得するマップ情報取得部を備え、
前記抽出部は、前記直線情報と前記マップ情報とに基づいて前記不適切画像を抽出することを特徴とする運転支援装置。 The driving support device according to claim 6,
A map information acquisition unit for acquiring map information around the vehicle where the vehicle is located;
The driving support device, wherein the extraction unit extracts the inappropriate image based on the straight line information and the map information.
前記抽出部は、各々の前記画像のうち、一の画像における前記直線情報と前記マップ情報との比較を行い、前記マップ情報に対してマッチングする前記直線情報が所定数以上である場合、もしくは前記マップ情報に対してマッチングする前記直線情報が全く存在しない場合には、前記一の画像を前記不適切画像として抽出することを特徴とする運転支援装置。 The driving support device according to claim 7,
The extraction unit compares the straight line information and the map information in one image among the images, and when the straight line information matching the map information is a predetermined number or more, or When there is no straight line information that matches map information, the one image is extracted as the inappropriate image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013064863A JP2014191475A (en) | 2013-03-26 | 2013-03-26 | Driving support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013064863A JP2014191475A (en) | 2013-03-26 | 2013-03-26 | Driving support device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014191475A true JP2014191475A (en) | 2014-10-06 |
Family
ID=51837699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013064863A Pending JP2014191475A (en) | 2013-03-26 | 2013-03-26 | Driving support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014191475A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10397461B2 (en) | 2017-01-05 | 2019-08-27 | Canon Kabushiki Kaisha | Control apparatus, control method, and non-transitory computer-readable storage medium |
JP7478570B2 (en) | 2020-03-30 | 2024-05-07 | 本田技研工業株式会社 | Vehicle control device |
-
2013
- 2013-03-26 JP JP2013064863A patent/JP2014191475A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10397461B2 (en) | 2017-01-05 | 2019-08-27 | Canon Kabushiki Kaisha | Control apparatus, control method, and non-transitory computer-readable storage medium |
US10659673B2 (en) | 2017-01-05 | 2020-05-19 | Canon Kabushiki Kaisha | Control apparatus, control method, and non-transitory computer-readable storage medium |
JP7478570B2 (en) | 2020-03-30 | 2024-05-07 | 本田技研工業株式会社 | Vehicle control device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106740841B (en) | Method for detecting lane lines, device and mobile unit based on dynamic control | |
US11214248B2 (en) | In-vehicle monitoring camera device | |
US11205284B2 (en) | Vehicle-mounted camera pose estimation method, apparatus, and system, and electronic device | |
JP5421072B2 (en) | Approaching object detection system | |
WO2016002163A1 (en) | Image display device and image display method | |
EP2822273B1 (en) | Video processing device, video processing method, and video display system | |
US8461976B2 (en) | On-vehicle device and recognition support system | |
US20130191022A1 (en) | Method for displaying images on a display device and driver assistance system | |
US10268904B2 (en) | Vehicle vision system with object and lane fusion | |
WO2014084251A1 (en) | Onboard image processing system | |
JP6586849B2 (en) | Information display device and information display method | |
CN111273765B (en) | Vehicle display control device, vehicle display control method, and storage medium | |
JP2012080497A (en) | Parking frame detection device and parking frame detection method | |
JP2011152865A (en) | On-vehicle image pickup device | |
JP2018097431A (en) | Driving support apparatus, driving support system and driving support method | |
WO2014156166A1 (en) | Parking assistance system and parking assistance method | |
JP2008306402A (en) | Onboard imaging and display device | |
JP2016053748A (en) | Driving support device and driving support method | |
JP6152261B2 (en) | Car parking frame recognition device | |
JP2014106739A (en) | In-vehicle image processing device | |
JP2019146012A (en) | Imaging apparatus | |
WO2016072300A1 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP6799030B2 (en) | Image recognition device, image recognition method, and parking support system | |
JP2014191475A (en) | Driving support device | |
JP2017117105A (en) | Visibility determination device |