JP2008171097A - Vehicle recognition apparatus - Google Patents

Vehicle recognition apparatus Download PDF

Info

Publication number
JP2008171097A
JP2008171097A JP2007001902A JP2007001902A JP2008171097A JP 2008171097 A JP2008171097 A JP 2008171097A JP 2007001902 A JP2007001902 A JP 2007001902A JP 2007001902 A JP2007001902 A JP 2007001902A JP 2008171097 A JP2008171097 A JP 2008171097A
Authority
JP
Japan
Prior art keywords
image
luminance
blocks
vehicle recognition
recognition apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007001902A
Other languages
Japanese (ja)
Inventor
Daisuke Konno
大輔 今野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marelli Corp
Original Assignee
Calsonic Kansei Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Calsonic Kansei Corp filed Critical Calsonic Kansei Corp
Priority to JP2007001902A priority Critical patent/JP2008171097A/en
Publication of JP2008171097A publication Critical patent/JP2008171097A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle recognition apparatus capable of enhancing the recognizability of a subject even if there is a local high-brightness area during the night. <P>SOLUTION: The vehicle recognition apparatus 1 includes a camera 2 for capturing an image including the subject of recognition, and an image processing part 3 for ternalizing the captured image through comparison with nearby pixels using a threshold. The image processing part 3 includes a local exclusion process part 32 for dividing the captured image into a plurality of blocks, and excluding blocks of locally bright parts from the subjects of computing, and a ternalizing process part 33 for computing the best expected value of the threshold based on the brightness average and the brightness dispersion of the image from which the blocks of locally bright parts have been excluded by the local exclusion process part 32. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、他車のナンバーや道路標識を画像から認識する車両用認識装置の技術分野に属する。   The present invention belongs to the technical field of a vehicular recognition device that recognizes the number or road sign of another vehicle from an image.

従来では、他車のナンバープレートを含む画像を取り込むカメラと、取り込んだ画像に対して、近傍画素との閾値を用いた比較により3値化を行う3値化処理部とを備える車両用認識装置において、取り込んだ画像の輝度平均と輝度分散から閾値の最適な予測値を演算し、3値化処理部は閾値の予測値を用いて3値化を行っている(例えば、特許文献1参照。)。
特開2006−309650号公報(第2−7頁、全図)
2. Description of the Related Art Conventionally, a vehicle recognition device includes a camera that captures an image including a license plate of another vehicle, and a ternary processing unit that performs ternarization on the captured image by using a threshold value with a neighboring pixel. 2, the optimal prediction value of the threshold value is calculated from the luminance average and luminance variance of the captured image, and the ternary processing unit performs ternarization using the threshold prediction value (see, for example, Patent Document 1). ).
JP 2006-309650 A (page 2-7, full view)

しかしながら、従来にあっては、画像全体から輝度平均、輝度分散を算出するため、全体的に明るい画像、全体的に暗い画像には効果を発揮するが、夜間に対向車のヘッドライトが写りこんでいる画像や、夜間に前車のストップランプが写りこんでいる画像のような明暗の差が大きい画像の場合に適切な閾値を求めることができないという問題があった。   However, in the past, the brightness average and brightness variance are calculated from the entire image, so it is effective for the overall bright image and the overall dark image, but the headlight of the oncoming vehicle is not captured at night. There is a problem that an appropriate threshold value cannot be obtained in the case of an image having a large difference in brightness and darkness, such as an image that is blurred or an image in which a stop lamp of the front car is reflected at night.

本発明は、上記問題点に着目してなされたもので、その目的とするところは、夜間時における局所的な高輝度領域が存在する場合であっても対象物の認識性を向上することができる車両用認識装置を提供することにある。   The present invention has been made paying attention to the above-mentioned problems, and the object of the present invention is to improve the recognizability of an object even when a local high-intensity region exists at night. An object is to provide a vehicle recognition device.

上記目的を達成するため、本発明では、認識対象物を含む画像を取り込む撮像手段と、取り込んだ画像に対して、近傍画素との閾値を用いた比較により3値化を行う画像処理手段と、を備える車両用認識装置において、前記画像処理手段は、取り込んだ画像を複数のブロックに分割する画像分割手段と、局所的に明るい部分のブロックを演算対象から除外する局所的高輝度除外手段と、前記局所的高輝度除外手段により局所的に明るい部分のブロックを除外した画像の輝度平均と輝度分散から前記閾値の最適な予測値を演算する閾値予測手段と、を備えることを特徴とする。   In order to achieve the above object, in the present invention, an imaging unit that captures an image including a recognition object, an image processing unit that performs ternarization on the captured image by comparison using a threshold value with neighboring pixels, In the vehicular recognition apparatus, the image processing means includes an image dividing means for dividing the captured image into a plurality of blocks, a local high-luminance exclusion means for excluding locally bright blocks from the calculation target, Threshold value predicting means for calculating an optimum predicted value of the threshold value from the luminance average and luminance variance of the image obtained by excluding locally bright blocks by the local high luminance exclusion means.

よって、本発明にあっては、夜間時における局所的な高輝度領域が存在する場合であっても対象物の認識性を向上することができる。   Therefore, in the present invention, it is possible to improve the recognizability of an object even when there is a local high luminance area at night.

以下、本発明の車両用認識装置を実現する実施の形態を、請求項1,2に係る発明に対応する実施例1に基づいて説明する。   Hereinafter, an embodiment for realizing a vehicular recognition device of the present invention will be described based on a first embodiment corresponding to the first and second aspects of the invention.

まず、構成を説明する。
図1は実施例1の車両用認識装置の構成を示す概略図である。
車両用認識装置1は、カメラ2、画像処理部3、車両装置4を主な構成とする。
カメラ2は、CCDカメラであり、24bitのカラー画像を撮像し、画像データ信号として出力する。
画像処理部3は、グレースケール処理部31、局所排除処理部32、3値化処理部33、認識処理部34からなり、カメラ2から入力した画像データの処理を行う。
First, the configuration will be described.
FIG. 1 is a schematic diagram illustrating the configuration of the vehicle recognition apparatus according to the first embodiment.
The vehicle recognition device 1 mainly includes a camera 2, an image processing unit 3, and a vehicle device 4.
The camera 2 is a CCD camera and takes a 24-bit color image and outputs it as an image data signal.
The image processing unit 3 includes a gray scale processing unit 31, a local exclusion processing unit 32, a ternary processing unit 33, and a recognition processing unit 34, and processes image data input from the camera 2.

グレースケール処理部31は、カラー画像を白黒で8bitの輝度値を持つグレースケール画像に変換する。
局所排除処理部32は、ストップランプやヘッドライトの写り込みなどの部分を除外する処理を行う。詳細は後述する。
3値化処理部33は、除外されていない残りのグレースケール画像の各画素を3種(無色、白、黒)に分類し、3値化画像を生成する。この3値化分類には、白と判定するために閾値f1を用い、黒と判定するために閾値f2を用いる。
The gray scale processing unit 31 converts the color image into a gray scale image having a luminance value of 8 bits in black and white.
The local exclusion processing unit 32 performs processing for excluding portions such as stop lamps and reflection of headlights. Details will be described later.
The ternarization processing unit 33 classifies each pixel of the remaining grayscale image that is not excluded into three types (colorless, white, and black), and generates a ternary image. In this ternary classification, a threshold f1 is used to determine white, and a threshold f2 is used to determine black.

この閾値f1,f2は、C11〜C13,C21〜C23を予測式の係数として、   The thresholds f1 and f2 are obtained by using C11 to C13 and C21 to C23 as coefficients of the prediction formula.

f1=C11×輝度平均+C12×輝度分散+C13・・・(式1)   f1 = C11 × luminance average + C12 × luminance variance + C13 (Expression 1)

f2=C21×輝度平均+C22×輝度分散+C23・・・(式2)   f2 = C21 × luminance average + C22 × luminance variance + C23 (Expression 2)

以上の式から求めたものを用いる。
この式1、式2は予め、実験と重回帰分析により求めておく。
認識処理部34は、3値化画像から、ナンバープレートや、標識等に表示されている文字、数字、形状のマッチングによる認識処理を行い、ナンバープレートの大きさや、標識の内容を認識する処理を行う。
車両装置4は、得られた車両のナンバーやナンバープレートの大きさ、標識内容等を利用する装置である。例えば、ナンバープレートの大きさから、車間距離を算出する装置であってもよい。
What was obtained from the above formula is used.
Equations 1 and 2 are obtained in advance by experiments and multiple regression analysis.
The recognition processing unit 34 performs recognition processing by matching characters, numbers, and shapes displayed on a license plate, a sign, etc. from a ternary image, and recognizes the size of the license plate and the contents of the sign. Do.
The vehicle device 4 is a device that uses the obtained vehicle number, the size of the license plate, the contents of the sign, and the like. For example, a device that calculates the inter-vehicle distance from the size of the license plate may be used.

作用を説明する。
[局所排除処理]
図2は実施例1の車両用認識装置の画像処理部3で実行される局所排除処理を主とする画像処理の流れを示すフローチャートで、以下各ステップについて説明する。
The operation will be described.
[Local exclusion process]
FIG. 2 is a flowchart showing a flow of image processing mainly including local exclusion processing executed by the image processing unit 3 of the vehicle recognition apparatus according to the first embodiment. Each step will be described below.

ステップS1では、入力されるカメラ画像から水平方向及び垂直方向の積算輝度を作成する。   In step S1, horizontal and vertical integrated luminances are created from the input camera image.

ステップS2では、各積算輝度グラフの傾きが一定値以上となる点を抽出する。   In step S2, points where the slope of each integrated luminance graph is greater than or equal to a certain value are extracted.

ステップS3では、積算輝度グラフ上の点からブロック境界線を決定する。   In step S3, a block boundary line is determined from points on the integrated luminance graph.

ステップS4では、各ブロックの輝度平均を算出する。   In step S4, the average brightness of each block is calculated.

ステップS5では、輝度平均が最大となるブロックを排除する。   In step S5, the block having the maximum luminance average is excluded.

ステップS6では、最大輝度平均のx%以上の輝度平均を持つブロックを排除する。   In step S6, blocks having a luminance average of x% or more of the maximum luminance average are excluded.

ステップS7では、残ったブロックから画面輝度を算出する。   In step S7, the screen brightness is calculated from the remaining blocks.

ステップS8では、画面輝度から多変量解析により最適閾値を予測し、認識アルゴリズムへ移行する。   In step S8, the optimal threshold value is predicted from the screen luminance by multivariate analysis, and the process proceeds to a recognition algorithm.

[局所的高輝度領域を排除する作用]
図3は実施例1の車両用認識装置における画像とその画像の水平、垂直方向の積算輝度グラフを示す説明図である。図4は実施例1の車両用認識装置における画像の水平、垂直方向の積算輝度グラフを処理し画面に反映させた状態を示す説明図である。図5は実施例1の車両用認識装置における画像の局所的高輝度ブロックを排除した状態を示す説明図である。
[Action to eliminate local high brightness area]
FIG. 3 is an explanatory diagram illustrating an image and a horizontal and vertical integrated luminance graph of the image in the vehicle recognition apparatus according to the first embodiment. FIG. 4 is an explanatory diagram illustrating a state in which the integrated luminance graphs in the horizontal and vertical directions of the image in the vehicle recognition apparatus according to the first embodiment are processed and reflected on the screen. FIG. 5 is an explanatory diagram illustrating a state in which the local high-intensity block of the image is excluded in the vehicle recognition apparatus according to the first embodiment.

実施例1の画像処理部3のグレースケール処理部31、局所排除処理部32では、カラー画像を白黒で8bitの輝度値を持つグレースケール画像に変換し、図3に示すように、その画像10の水平方向の積算輝度グラフ20と、垂直方向の積算輝度グラフ30を作成する(ステップS1)。
次に、図4に示すように、各積算輝度グラフ21,31の傾き211,311がある一定の値を超える点、つまり境界点212,312を抽出する(ステップS2)。そして、図4に示すように、その積算輝度グラフ上の点からブロック分割境界線213,313を設定する(ステップS3)。
In the gray scale processing unit 31 and the local exclusion processing unit 32 of the image processing unit 3 according to the first embodiment, the color image is converted into a gray scale image having a luminance value of 8 bits in black and white, and as shown in FIG. The horizontal integrated luminance graph 20 and the vertical integrated luminance graph 30 are created (step S1).
Next, as shown in FIG. 4, points at which the slopes 211 and 311 of the integrated luminance graphs 21 and 31 exceed a certain value, that is, boundary points 212 and 312 are extracted (step S2). Then, as shown in FIG. 4, block division boundary lines 213 and 313 are set from points on the integrated luminance graph (step S3).

次に、図5に示すように、ブロック分割境界線213,313で複数のブロックに分割するように仕切った画像12に対して、各ブロックの輝度平均を算出し(ステップS4)する。
そして、全ブロック中、輝度平均が最高であるブロックを排除する(ステップS5)。さらに、最大輝度平均がx%以上の輝度平均を持つブロックを排除する(ステップS6)。図5では、排除された局所的高輝度ブロック121を示す。
Next, as shown in FIG. 5, with respect to the image 12 partitioned so as to be divided into a plurality of blocks by the block division boundary lines 213 and 313, the luminance average of each block is calculated (step S4).
Then, the block having the highest luminance average among all the blocks is excluded (step S5). Further, blocks having a luminance average of which the maximum luminance average is x% or more are excluded (step S6). FIG. 5 shows the excluded local high intensity block 121.

次に、実施例1の3値化処理部33では、排除したブロック以外の残りのブロックから画面輝度を算出し(ステップS7)、算出した画面輝度から最適閾値を予測し(ステップS8)、その後の閾値を用いた3値化処理を行う。
実施例1では、このように画像を輝度の傾きによりブロックに分割し、局所的に高輝度となっているブロックを排除するため、夜間に対向車のヘッドライトが写りこんでいる画像や、夜間に前車のストップランプが写りこんでいる画像の場合に、局所的に高輝度となっているブロックを排除することで、従来と同様の処理により、適切な閾値を重回帰式から求め、良好に認識対象物(ナンバープレート、道路標識等)を認識することができる。
Next, the ternary processing unit 33 according to the first embodiment calculates the screen luminance from the remaining blocks other than the excluded blocks (step S7), predicts the optimum threshold from the calculated screen luminance (step S8), and then The ternarization process using the threshold value is performed.
In the first embodiment, the image is divided into blocks according to the gradient of luminance in this way, and blocks with locally high luminance are excluded. In the case of an image in which the stop lamp of the front car is reflected, the appropriate threshold value is obtained from the multiple regression equation using the same process as before by eliminating blocks that are locally high in brightness. It is possible to recognize an object to be recognized (number plate, road sign, etc.).

この実施例1の3値化の前の局所的高輝度のブロックを排除する処理では、輝度の変化からブロック境界線を求めるため、計算コストを低く抑えることができる。
また、この処理が効果を発揮するのは、夜間であるが、昼間の使用に対しても影響なく使用することができ、昼、夜で切替える必要がない。
このことは、切り替え処理負担、ソフトの保存負担等を軽減し、コストを抑制することにつながるものである。
In the process of eliminating local high-brightness blocks before ternarization according to the first embodiment, the block boundary line is obtained from the change in brightness, and therefore the calculation cost can be kept low.
Moreover, although this process is effective at night, it can be used without any influence on daytime use, and it is not necessary to switch between daytime and nighttime.
This reduces the switching processing load, the software storage load, and the like, and leads to cost reduction.

本実施例1の局所的高輝度領域を排除する作用についてさらに説明する。
図6は実施例1の車両用認識装置の輝度平均と閾値の関係と重回帰式により求めた閾値予測式を示すグラフ図である。図7は実施例1の車両用認識装置において、閾値Aを用いて処理した画像の例を示す説明図である。図8は実施例1の車両用認識装置において、閾値Bを用いて処理した画像の例を示す説明図である。
図7、図8の元画像は、前車のストップランプが点灯しているものとする。
従来では、重回帰分析を用いて、画像の輝度平均と輝度分散から3値化処理の閾値を予測する一次式を作成することにより、演算量の削減効果を得ていた。
その際、横軸に輝度平均、縦軸に閾値として関係を示したものが図6のグラフである。
The effect | action which excludes the local high-intensity area | region of the present Example 1 is further demonstrated.
FIG. 6 is a graph showing the relationship between the average brightness and the threshold value of the vehicle recognition apparatus according to the first embodiment and the threshold prediction formula obtained by the multiple regression equation. FIG. 7 is an explanatory diagram illustrating an example of an image processed using the threshold A in the vehicle recognition apparatus according to the first embodiment. FIG. 8 is an explanatory diagram illustrating an example of an image processed using the threshold B in the vehicle recognition apparatus according to the first embodiment.
In the original images of FIGS. 7 and 8, it is assumed that the stop lamp of the previous vehicle is lit.
Conventionally, by using a multiple regression analysis, a linear expression that predicts a threshold value for ternary processing from the luminance average and luminance variance of an image is created, thereby obtaining an effect of reducing the amount of calculation.
In this case, the graph of FIG. 6 shows the relationship between the luminance average on the horizontal axis and the threshold value on the vertical axis.

この閾値予測ライン100において、前車のストップランプが点灯しているために、輝度平均が高く引き上げられ、得られたのが、B点における閾値Bである。
この閾値Bは、例えば、図8の画像14で処理して得たいものがナンバープレートのナンバーとした場合に、そのナンバー近傍の輝度と比較して、高い輝度を持つストップランプが点灯により、最適な閾値よりも、高輝度用の閾値Bが得られてしまうことになる。そのために、図8の処理後画像14では、ナンバープレートのナンバーの読取りが困難になっている。よって、パターンマッチング等のその後の処理でも読取りは困難となるのである。
In this threshold prediction line 100, since the stop lamp of the preceding vehicle is lit, the average brightness is raised high, and the threshold B at point B is obtained.
This threshold value B is optimal when, for example, what is obtained from the image 14 in FIG. 8 is a license plate number, a stop lamp having a higher brightness than the brightness in the vicinity of the number is turned on. A threshold value B for high brightness is obtained than the threshold value. Therefore, it is difficult to read the number on the license plate in the processed image 14 of FIG. Therefore, reading is difficult even in subsequent processing such as pattern matching.

これに対して、実施例1では、ストップランプ点灯による局所的高輝度部分が削除され、輝度平均等を得る演算処理が成されるので、図6に示すように、得られる閾値は、閾値Bに比較して、低い輝度用のA点の閾値Aとなる。
これは、よりナンバーに近い輝度用の閾値Aが得られることになる。そのため、図7の処理後画像で13は、ナンバープレートのナンバーの読取りができるものになっている。よって、パターンマッチング等のその後の処理でも読取りが可能となるのである。
On the other hand, in the first embodiment, the local high-luminance portion due to the stop lamp lighting is deleted, and the arithmetic processing for obtaining the luminance average or the like is performed. Therefore, as shown in FIG. As compared with the threshold value A, the threshold value A of the point A for low luminance is obtained.
As a result, a threshold A for luminance closer to the number is obtained. Therefore, reference numeral 13 in the processed image in FIG. 7 can read the license plate number. Therefore, reading can be performed in subsequent processing such as pattern matching.

次に、効果を説明する。
実施例1の車両用認識装置にあっては、下記に列挙する効果を得ることができる。
(1)認識対象物を含む画像を取り込むカメラ2と、取り込んだ画像に対して、近傍画素との閾値を用いた比較により3値化を行う画像処理部3を備える車両用認識装置1において、画像処理部3は、取り込んだ画像を複数のブロックに分割し、局所的に明るい部分のブロックを演算対象から除外する局所排除処理部32と、局所排除処理部32により局所的に明るい部分のブロックを除外した画像の輝度平均と輝度分散から閾値の最適な予測値を演算する3値化処理部33を備えるため、夜間時における局所的な高輝度領域が存在する場合であっても対象物の認識性を向上することができる。
Next, the effect will be described.
In the vehicle recognition apparatus according to the first embodiment, the effects listed below can be obtained.
(1) In a vehicle recognition apparatus 1 including a camera 2 that captures an image including a recognition object, and an image processing unit 3 that performs ternarization on the captured image by comparison using a threshold value with neighboring pixels. The image processing unit 3 divides the captured image into a plurality of blocks, a local exclusion processing unit 32 that excludes locally bright blocks from the calculation target, and a local bright processing block by the local exclusion processing unit 32. 3 is provided with a ternary processing unit 33 that calculates an optimum predicted value of the threshold from the luminance average and luminance variance of the image excluding the image, so that even if there is a local high luminance region at night, Recognizability can be improved.

(2)局所排除処理部32の画像分割処理は、画像の水平方向の積算輝度グラフの傾きと、画像の垂直方向の積算輝度グラフの傾きから画像を分割する境界線を設定するため、輝度の変化からブロック境界線を求めるため、計算コストを低く抑えることができる。   (2) The image division process of the local exclusion processing unit 32 sets the boundary line for dividing the image from the inclination of the integrated luminance graph in the horizontal direction of the image and the inclination of the integrated luminance graph in the vertical direction of the image. Since the block boundary line is obtained from the change, the calculation cost can be kept low.

以上、本発明の車両用認識装置を実施例1に基づき説明してきたが、具体的な構成については、これらの実施例に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。   As mentioned above, although the vehicle recognition apparatus of the present invention has been described based on the first embodiment, the specific configuration is not limited to these embodiments, and the invention according to each claim of the claims. Design changes and additions are allowed without departing from the gist.

実施例1の車両用認識装置の構成を示す概略図である。It is the schematic which shows the structure of the recognition apparatus for vehicles of Example 1. FIG. 実施例1の車両用認識装置の画像処理部3で実行される局所排除処理を主とする画像処理の流れを示すフローチャートである。4 is a flowchart illustrating a flow of image processing mainly including local exclusion processing executed by the image processing unit 3 of the vehicle recognition apparatus according to the first embodiment. 実施例1の車両用認識装置における画像とその画像の水平、垂直方向の積算輝度グラフを示す説明図である。It is explanatory drawing which shows the integrated luminance graph of the image in the vehicle recognition apparatus of Example 1, and the horizontal and vertical direction of the image. 実施例1の車両用認識装置における画像の水平、垂直方向の積算輝度グラフを処理し画面に反映させた状態を示す説明図である。It is explanatory drawing which shows the state which processed the horizontal and vertical integrated luminance graph of the image in the vehicle recognition apparatus of Example 1, and reflected it on the screen. 実施例1の車両用認識装置における画像の局所的高輝度ブロックを排除した状態を示す説明図である。It is explanatory drawing which shows the state which excluded the local high-intensity block of the image in the vehicle recognition apparatus of Example 1. FIG. 実施例1の車両用認識装置の輝度平均と閾値の関係と重回帰式により求めた閾値予測式を示すグラフ図である。It is a graph which shows the threshold value prediction formula calculated | required by the relationship between the brightness | luminance average of the vehicle recognition apparatus of Example 1, and a threshold value, and multiple regression. 実施例1の車両用認識装置において、閾値Aを用いて処理した画像の例を示す説明図である。FIG. 6 is an explanatory diagram illustrating an example of an image processed using a threshold value A in the vehicle recognition apparatus according to the first embodiment. 実施例1の車両用認識装置において、閾値Bを用いて処理した画像の例を示す説明図である。FIG. 5 is an explanatory diagram illustrating an example of an image processed using a threshold value B in the vehicle recognition apparatus according to the first embodiment.

符号の説明Explanation of symbols

1 車両用認識装置
2 カメラ
3 画像処理部
31 グレースケール処理部
32 局所排除処理部
33 3値化処理部
34 認識処理部
4 車両装置
10 画像
11 画像
12 画像
13 画像
14 画像
20 積算輝度グラフ
21 積算輝度グラフ
211 傾き
212 境界点
213 ブロック分割境界線
30 積算輝度グラフ
31 積算輝度グラフ
311 傾き
312 境界点
313 ブロック分割境界線
100 閾値予測ライン
121 局所的高輝度ブロック
A 閾値
B 閾値
DESCRIPTION OF SYMBOLS 1 Vehicle recognition apparatus 2 Camera 3 Image processing part 31 Gray scale process part 32 Local exclusion process part 33 Trinarization process part 34 Recognition process part 4 Vehicle apparatus 10 Image 11 Image 12 Image 13 Image 14 Image 20 Integrated luminance graph 21 Integration Luminance graph 211 Inclination 212 Boundary point 213 Block division boundary line 30 Integrated luminance graph 31 Integrated luminance graph 311 Inclination 312 Boundary point 313 Block division boundary line 100 Threshold prediction line 121 Local high-intensity block A Threshold B Threshold

Claims (2)

認識対象物を含む画像を取り込む撮像手段と、
取り込んだ画像に対して、近傍画素との閾値を用いた比較により3値化を行う画像処理手段と、
を備える車両用認識装置において、
前記画像処理手段は、
取り込んだ画像を複数のブロックに分割する画像分割手段と、
局所的に明るい部分のブロックを演算対象から除外する局所的高輝度除外手段と、
前記局所的高輝度除外手段により局所的に明るい部分のブロックを除外した画像の輝度平均と輝度分散から前記閾値の最適な予測値を演算する閾値予測手段と、
を備えることを特徴とする車両用認識装置。
Imaging means for capturing an image including a recognition object;
Image processing means for performing ternarization on a captured image by comparison using a threshold value with neighboring pixels;
In a vehicle recognition device comprising:
The image processing means includes
Image dividing means for dividing the captured image into a plurality of blocks;
A local high-intensity exclusion means for excluding locally bright blocks from the calculation target;
Threshold prediction means for calculating an optimum predicted value of the threshold from the luminance average and luminance variance of the image excluding the locally bright block by the local high luminance exclusion means;
A vehicle recognition device comprising:
請求項1に記載の車両用認識装置において、
前記画像分割手段は、
画像の水平方向の積算輝度グラフの傾きと、画像の垂直方向の積算輝度グラフの傾きから画像を分割する境界線を設定する、
ことを特徴とする車両用認識装置。
The vehicle recognition device according to claim 1,
The image dividing means includes
Set the boundary line that divides the image from the inclination of the integrated luminance graph in the horizontal direction of the image and the inclination of the integrated luminance graph in the vertical direction of the image,
A recognition apparatus for a vehicle.
JP2007001902A 2007-01-10 2007-01-10 Vehicle recognition apparatus Pending JP2008171097A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007001902A JP2008171097A (en) 2007-01-10 2007-01-10 Vehicle recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007001902A JP2008171097A (en) 2007-01-10 2007-01-10 Vehicle recognition apparatus

Publications (1)

Publication Number Publication Date
JP2008171097A true JP2008171097A (en) 2008-07-24

Family

ID=39699144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007001902A Pending JP2008171097A (en) 2007-01-10 2007-01-10 Vehicle recognition apparatus

Country Status (1)

Country Link
JP (1) JP2008171097A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128768A (en) * 2008-11-27 2010-06-10 Toyota Motor Corp Vehicle periphery monitor
JP2013229022A (en) * 2012-04-23 2013-11-07 Xerox Corp Real-time video triggering for traffic surveillance and photo enforcement applications using near-infrared video acquisition
JP2014013452A (en) * 2012-07-03 2014-01-23 Clarion Co Ltd Image processor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128768A (en) * 2008-11-27 2010-06-10 Toyota Motor Corp Vehicle periphery monitor
JP2013229022A (en) * 2012-04-23 2013-11-07 Xerox Corp Real-time video triggering for traffic surveillance and photo enforcement applications using near-infrared video acquisition
JP2014013452A (en) * 2012-07-03 2014-01-23 Clarion Co Ltd Image processor

Similar Documents

Publication Publication Date Title
US9230183B2 (en) Automatic vehicle equipment monitoring, warning, and control system
JP4241834B2 (en) In-vehicle fog determination device
JP4437714B2 (en) Lane recognition image processing device
JP5437855B2 (en) Obstacle detection device, obstacle detection system including the same, and obstacle detection method
CN107709096B (en) System and method for processing streaming video images to correct for flicker of amplitude modulated light
JP4584120B2 (en) Road marking line detection device, road marking line detection method, road marking line detection program
KR20210006276A (en) Image processing method for flicker mitigation
JP2012027773A (en) Pseudo grayscale image generation device and program
JP5895448B2 (en) Vehicle recognition device, vehicle recognition method, and program
JP5353531B2 (en) Vehicle light recognition device and program
JP2008171097A (en) Vehicle recognition apparatus
JP2006309650A (en) Number recognition device and method
JP2005318408A (en) Vehicle surrounding monitoring apparatus and method
JP6701327B2 (en) Glare detection method and device
JP2006048238A (en) Image processor and image processing program
KR20130070210A (en) Method for removing noise of image
JP2007193702A (en) Image processing device and image processing method
JP2006244331A (en) Night-traveling supporting device and method
JP7261006B2 (en) External environment recognition device
JP2007058282A (en) Image recognition processor
JP2018106239A (en) Image processing apparatus, image processing method and image processing program
JP5056679B2 (en) Night view system
JP7262043B2 (en) Anomaly detection system, moving body, anomaly detection method, and program
CN110312106B (en) Image display method and device, computer equipment and storage medium
JP2005339234A (en) Front vehicle monitoring device