JP2008171097A - Vehicle recognition apparatus - Google Patents
Vehicle recognition apparatus Download PDFInfo
- Publication number
- JP2008171097A JP2008171097A JP2007001902A JP2007001902A JP2008171097A JP 2008171097 A JP2008171097 A JP 2008171097A JP 2007001902 A JP2007001902 A JP 2007001902A JP 2007001902 A JP2007001902 A JP 2007001902A JP 2008171097 A JP2008171097 A JP 2008171097A
- Authority
- JP
- Japan
- Prior art keywords
- image
- luminance
- blocks
- vehicle recognition
- recognition apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
Description
本発明は、他車のナンバーや道路標識を画像から認識する車両用認識装置の技術分野に属する。 The present invention belongs to the technical field of a vehicular recognition device that recognizes the number or road sign of another vehicle from an image.
従来では、他車のナンバープレートを含む画像を取り込むカメラと、取り込んだ画像に対して、近傍画素との閾値を用いた比較により3値化を行う3値化処理部とを備える車両用認識装置において、取り込んだ画像の輝度平均と輝度分散から閾値の最適な予測値を演算し、3値化処理部は閾値の予測値を用いて3値化を行っている(例えば、特許文献1参照。)。
しかしながら、従来にあっては、画像全体から輝度平均、輝度分散を算出するため、全体的に明るい画像、全体的に暗い画像には効果を発揮するが、夜間に対向車のヘッドライトが写りこんでいる画像や、夜間に前車のストップランプが写りこんでいる画像のような明暗の差が大きい画像の場合に適切な閾値を求めることができないという問題があった。 However, in the past, the brightness average and brightness variance are calculated from the entire image, so it is effective for the overall bright image and the overall dark image, but the headlight of the oncoming vehicle is not captured at night. There is a problem that an appropriate threshold value cannot be obtained in the case of an image having a large difference in brightness and darkness, such as an image that is blurred or an image in which a stop lamp of the front car is reflected at night.
本発明は、上記問題点に着目してなされたもので、その目的とするところは、夜間時における局所的な高輝度領域が存在する場合であっても対象物の認識性を向上することができる車両用認識装置を提供することにある。 The present invention has been made paying attention to the above-mentioned problems, and the object of the present invention is to improve the recognizability of an object even when a local high-intensity region exists at night. An object is to provide a vehicle recognition device.
上記目的を達成するため、本発明では、認識対象物を含む画像を取り込む撮像手段と、取り込んだ画像に対して、近傍画素との閾値を用いた比較により3値化を行う画像処理手段と、を備える車両用認識装置において、前記画像処理手段は、取り込んだ画像を複数のブロックに分割する画像分割手段と、局所的に明るい部分のブロックを演算対象から除外する局所的高輝度除外手段と、前記局所的高輝度除外手段により局所的に明るい部分のブロックを除外した画像の輝度平均と輝度分散から前記閾値の最適な予測値を演算する閾値予測手段と、を備えることを特徴とする。 In order to achieve the above object, in the present invention, an imaging unit that captures an image including a recognition object, an image processing unit that performs ternarization on the captured image by comparison using a threshold value with neighboring pixels, In the vehicular recognition apparatus, the image processing means includes an image dividing means for dividing the captured image into a plurality of blocks, a local high-luminance exclusion means for excluding locally bright blocks from the calculation target, Threshold value predicting means for calculating an optimum predicted value of the threshold value from the luminance average and luminance variance of the image obtained by excluding locally bright blocks by the local high luminance exclusion means.
よって、本発明にあっては、夜間時における局所的な高輝度領域が存在する場合であっても対象物の認識性を向上することができる。 Therefore, in the present invention, it is possible to improve the recognizability of an object even when there is a local high luminance area at night.
以下、本発明の車両用認識装置を実現する実施の形態を、請求項1,2に係る発明に対応する実施例1に基づいて説明する。 Hereinafter, an embodiment for realizing a vehicular recognition device of the present invention will be described based on a first embodiment corresponding to the first and second aspects of the invention.
まず、構成を説明する。
図1は実施例1の車両用認識装置の構成を示す概略図である。
車両用認識装置1は、カメラ2、画像処理部3、車両装置4を主な構成とする。
カメラ2は、CCDカメラであり、24bitのカラー画像を撮像し、画像データ信号として出力する。
画像処理部3は、グレースケール処理部31、局所排除処理部32、3値化処理部33、認識処理部34からなり、カメラ2から入力した画像データの処理を行う。
First, the configuration will be described.
FIG. 1 is a schematic diagram illustrating the configuration of the vehicle recognition apparatus according to the first embodiment.
The vehicle recognition device 1 mainly includes a camera 2, an image processing unit 3, and a vehicle device 4.
The camera 2 is a CCD camera and takes a 24-bit color image and outputs it as an image data signal.
The image processing unit 3 includes a gray scale processing unit 31, a local exclusion processing unit 32, a ternary processing unit 33, and a recognition processing unit 34, and processes image data input from the camera 2.
グレースケール処理部31は、カラー画像を白黒で8bitの輝度値を持つグレースケール画像に変換する。
局所排除処理部32は、ストップランプやヘッドライトの写り込みなどの部分を除外する処理を行う。詳細は後述する。
3値化処理部33は、除外されていない残りのグレースケール画像の各画素を3種(無色、白、黒)に分類し、3値化画像を生成する。この3値化分類には、白と判定するために閾値f1を用い、黒と判定するために閾値f2を用いる。
The gray scale processing unit 31 converts the color image into a gray scale image having a luminance value of 8 bits in black and white.
The local exclusion processing unit 32 performs processing for excluding portions such as stop lamps and reflection of headlights. Details will be described later.
The ternarization processing unit 33 classifies each pixel of the remaining grayscale image that is not excluded into three types (colorless, white, and black), and generates a ternary image. In this ternary classification, a threshold f1 is used to determine white, and a threshold f2 is used to determine black.
この閾値f1,f2は、C11〜C13,C21〜C23を予測式の係数として、 The thresholds f1 and f2 are obtained by using C11 to C13 and C21 to C23 as coefficients of the prediction formula.
f1=C11×輝度平均+C12×輝度分散+C13・・・(式1) f1 = C11 × luminance average + C12 × luminance variance + C13 (Expression 1)
f2=C21×輝度平均+C22×輝度分散+C23・・・(式2) f2 = C21 × luminance average + C22 × luminance variance + C23 (Expression 2)
以上の式から求めたものを用いる。
この式1、式2は予め、実験と重回帰分析により求めておく。
認識処理部34は、3値化画像から、ナンバープレートや、標識等に表示されている文字、数字、形状のマッチングによる認識処理を行い、ナンバープレートの大きさや、標識の内容を認識する処理を行う。
車両装置4は、得られた車両のナンバーやナンバープレートの大きさ、標識内容等を利用する装置である。例えば、ナンバープレートの大きさから、車間距離を算出する装置であってもよい。
What was obtained from the above formula is used.
Equations 1 and 2 are obtained in advance by experiments and multiple regression analysis.
The recognition processing unit 34 performs recognition processing by matching characters, numbers, and shapes displayed on a license plate, a sign, etc. from a ternary image, and recognizes the size of the license plate and the contents of the sign. Do.
The vehicle device 4 is a device that uses the obtained vehicle number, the size of the license plate, the contents of the sign, and the like. For example, a device that calculates the inter-vehicle distance from the size of the license plate may be used.
作用を説明する。
[局所排除処理]
図2は実施例1の車両用認識装置の画像処理部3で実行される局所排除処理を主とする画像処理の流れを示すフローチャートで、以下各ステップについて説明する。
The operation will be described.
[Local exclusion process]
FIG. 2 is a flowchart showing a flow of image processing mainly including local exclusion processing executed by the image processing unit 3 of the vehicle recognition apparatus according to the first embodiment. Each step will be described below.
ステップS1では、入力されるカメラ画像から水平方向及び垂直方向の積算輝度を作成する。 In step S1, horizontal and vertical integrated luminances are created from the input camera image.
ステップS2では、各積算輝度グラフの傾きが一定値以上となる点を抽出する。 In step S2, points where the slope of each integrated luminance graph is greater than or equal to a certain value are extracted.
ステップS3では、積算輝度グラフ上の点からブロック境界線を決定する。 In step S3, a block boundary line is determined from points on the integrated luminance graph.
ステップS4では、各ブロックの輝度平均を算出する。 In step S4, the average brightness of each block is calculated.
ステップS5では、輝度平均が最大となるブロックを排除する。 In step S5, the block having the maximum luminance average is excluded.
ステップS6では、最大輝度平均のx%以上の輝度平均を持つブロックを排除する。 In step S6, blocks having a luminance average of x% or more of the maximum luminance average are excluded.
ステップS7では、残ったブロックから画面輝度を算出する。 In step S7, the screen brightness is calculated from the remaining blocks.
ステップS8では、画面輝度から多変量解析により最適閾値を予測し、認識アルゴリズムへ移行する。 In step S8, the optimal threshold value is predicted from the screen luminance by multivariate analysis, and the process proceeds to a recognition algorithm.
[局所的高輝度領域を排除する作用]
図3は実施例1の車両用認識装置における画像とその画像の水平、垂直方向の積算輝度グラフを示す説明図である。図4は実施例1の車両用認識装置における画像の水平、垂直方向の積算輝度グラフを処理し画面に反映させた状態を示す説明図である。図5は実施例1の車両用認識装置における画像の局所的高輝度ブロックを排除した状態を示す説明図である。
[Action to eliminate local high brightness area]
FIG. 3 is an explanatory diagram illustrating an image and a horizontal and vertical integrated luminance graph of the image in the vehicle recognition apparatus according to the first embodiment. FIG. 4 is an explanatory diagram illustrating a state in which the integrated luminance graphs in the horizontal and vertical directions of the image in the vehicle recognition apparatus according to the first embodiment are processed and reflected on the screen. FIG. 5 is an explanatory diagram illustrating a state in which the local high-intensity block of the image is excluded in the vehicle recognition apparatus according to the first embodiment.
実施例1の画像処理部3のグレースケール処理部31、局所排除処理部32では、カラー画像を白黒で8bitの輝度値を持つグレースケール画像に変換し、図3に示すように、その画像10の水平方向の積算輝度グラフ20と、垂直方向の積算輝度グラフ30を作成する(ステップS1)。
次に、図4に示すように、各積算輝度グラフ21,31の傾き211,311がある一定の値を超える点、つまり境界点212,312を抽出する(ステップS2)。そして、図4に示すように、その積算輝度グラフ上の点からブロック分割境界線213,313を設定する(ステップS3)。
In the gray scale processing unit 31 and the local exclusion processing unit 32 of the image processing unit 3 according to the first embodiment, the color image is converted into a gray scale image having a luminance value of 8 bits in black and white, and as shown in FIG. The horizontal integrated luminance graph 20 and the vertical integrated luminance graph 30 are created (step S1).
Next, as shown in FIG. 4, points at which the slopes 211 and 311 of the integrated luminance graphs 21 and 31 exceed a certain value, that is, boundary points 212 and 312 are extracted (step S2). Then, as shown in FIG. 4, block division boundary lines 213 and 313 are set from points on the integrated luminance graph (step S3).
次に、図5に示すように、ブロック分割境界線213,313で複数のブロックに分割するように仕切った画像12に対して、各ブロックの輝度平均を算出し(ステップS4)する。
そして、全ブロック中、輝度平均が最高であるブロックを排除する(ステップS5)。さらに、最大輝度平均がx%以上の輝度平均を持つブロックを排除する(ステップS6)。図5では、排除された局所的高輝度ブロック121を示す。
Next, as shown in FIG. 5, with respect to the image 12 partitioned so as to be divided into a plurality of blocks by the block division boundary lines 213 and 313, the luminance average of each block is calculated (step S4).
Then, the block having the highest luminance average among all the blocks is excluded (step S5). Further, blocks having a luminance average of which the maximum luminance average is x% or more are excluded (step S6). FIG. 5 shows the excluded local high intensity block 121.
次に、実施例1の3値化処理部33では、排除したブロック以外の残りのブロックから画面輝度を算出し(ステップS7)、算出した画面輝度から最適閾値を予測し(ステップS8)、その後の閾値を用いた3値化処理を行う。
実施例1では、このように画像を輝度の傾きによりブロックに分割し、局所的に高輝度となっているブロックを排除するため、夜間に対向車のヘッドライトが写りこんでいる画像や、夜間に前車のストップランプが写りこんでいる画像の場合に、局所的に高輝度となっているブロックを排除することで、従来と同様の処理により、適切な閾値を重回帰式から求め、良好に認識対象物(ナンバープレート、道路標識等)を認識することができる。
Next, the ternary processing unit 33 according to the first embodiment calculates the screen luminance from the remaining blocks other than the excluded blocks (step S7), predicts the optimum threshold from the calculated screen luminance (step S8), and then The ternarization process using the threshold value is performed.
In the first embodiment, the image is divided into blocks according to the gradient of luminance in this way, and blocks with locally high luminance are excluded. In the case of an image in which the stop lamp of the front car is reflected, the appropriate threshold value is obtained from the multiple regression equation using the same process as before by eliminating blocks that are locally high in brightness. It is possible to recognize an object to be recognized (number plate, road sign, etc.).
この実施例1の3値化の前の局所的高輝度のブロックを排除する処理では、輝度の変化からブロック境界線を求めるため、計算コストを低く抑えることができる。
また、この処理が効果を発揮するのは、夜間であるが、昼間の使用に対しても影響なく使用することができ、昼、夜で切替える必要がない。
このことは、切り替え処理負担、ソフトの保存負担等を軽減し、コストを抑制することにつながるものである。
In the process of eliminating local high-brightness blocks before ternarization according to the first embodiment, the block boundary line is obtained from the change in brightness, and therefore the calculation cost can be kept low.
Moreover, although this process is effective at night, it can be used without any influence on daytime use, and it is not necessary to switch between daytime and nighttime.
This reduces the switching processing load, the software storage load, and the like, and leads to cost reduction.
本実施例1の局所的高輝度領域を排除する作用についてさらに説明する。
図6は実施例1の車両用認識装置の輝度平均と閾値の関係と重回帰式により求めた閾値予測式を示すグラフ図である。図7は実施例1の車両用認識装置において、閾値Aを用いて処理した画像の例を示す説明図である。図8は実施例1の車両用認識装置において、閾値Bを用いて処理した画像の例を示す説明図である。
図7、図8の元画像は、前車のストップランプが点灯しているものとする。
従来では、重回帰分析を用いて、画像の輝度平均と輝度分散から3値化処理の閾値を予測する一次式を作成することにより、演算量の削減効果を得ていた。
その際、横軸に輝度平均、縦軸に閾値として関係を示したものが図6のグラフである。
The effect | action which excludes the local high-intensity area | region of the present Example 1 is further demonstrated.
FIG. 6 is a graph showing the relationship between the average brightness and the threshold value of the vehicle recognition apparatus according to the first embodiment and the threshold prediction formula obtained by the multiple regression equation. FIG. 7 is an explanatory diagram illustrating an example of an image processed using the threshold A in the vehicle recognition apparatus according to the first embodiment. FIG. 8 is an explanatory diagram illustrating an example of an image processed using the threshold B in the vehicle recognition apparatus according to the first embodiment.
In the original images of FIGS. 7 and 8, it is assumed that the stop lamp of the previous vehicle is lit.
Conventionally, by using a multiple regression analysis, a linear expression that predicts a threshold value for ternary processing from the luminance average and luminance variance of an image is created, thereby obtaining an effect of reducing the amount of calculation.
In this case, the graph of FIG. 6 shows the relationship between the luminance average on the horizontal axis and the threshold value on the vertical axis.
この閾値予測ライン100において、前車のストップランプが点灯しているために、輝度平均が高く引き上げられ、得られたのが、B点における閾値Bである。
この閾値Bは、例えば、図8の画像14で処理して得たいものがナンバープレートのナンバーとした場合に、そのナンバー近傍の輝度と比較して、高い輝度を持つストップランプが点灯により、最適な閾値よりも、高輝度用の閾値Bが得られてしまうことになる。そのために、図8の処理後画像14では、ナンバープレートのナンバーの読取りが困難になっている。よって、パターンマッチング等のその後の処理でも読取りは困難となるのである。
In this threshold prediction line 100, since the stop lamp of the preceding vehicle is lit, the average brightness is raised high, and the threshold B at point B is obtained.
This threshold value B is optimal when, for example, what is obtained from the image 14 in FIG. 8 is a license plate number, a stop lamp having a higher brightness than the brightness in the vicinity of the number is turned on. A threshold value B for high brightness is obtained than the threshold value. Therefore, it is difficult to read the number on the license plate in the processed image 14 of FIG. Therefore, reading is difficult even in subsequent processing such as pattern matching.
これに対して、実施例1では、ストップランプ点灯による局所的高輝度部分が削除され、輝度平均等を得る演算処理が成されるので、図6に示すように、得られる閾値は、閾値Bに比較して、低い輝度用のA点の閾値Aとなる。
これは、よりナンバーに近い輝度用の閾値Aが得られることになる。そのため、図7の処理後画像で13は、ナンバープレートのナンバーの読取りができるものになっている。よって、パターンマッチング等のその後の処理でも読取りが可能となるのである。
On the other hand, in the first embodiment, the local high-luminance portion due to the stop lamp lighting is deleted, and the arithmetic processing for obtaining the luminance average or the like is performed. Therefore, as shown in FIG. As compared with the threshold value A, the threshold value A of the point A for low luminance is obtained.
As a result, a threshold A for luminance closer to the number is obtained. Therefore, reference numeral 13 in the processed image in FIG. 7 can read the license plate number. Therefore, reading can be performed in subsequent processing such as pattern matching.
次に、効果を説明する。
実施例1の車両用認識装置にあっては、下記に列挙する効果を得ることができる。
(1)認識対象物を含む画像を取り込むカメラ2と、取り込んだ画像に対して、近傍画素との閾値を用いた比較により3値化を行う画像処理部3を備える車両用認識装置1において、画像処理部3は、取り込んだ画像を複数のブロックに分割し、局所的に明るい部分のブロックを演算対象から除外する局所排除処理部32と、局所排除処理部32により局所的に明るい部分のブロックを除外した画像の輝度平均と輝度分散から閾値の最適な予測値を演算する3値化処理部33を備えるため、夜間時における局所的な高輝度領域が存在する場合であっても対象物の認識性を向上することができる。
Next, the effect will be described.
In the vehicle recognition apparatus according to the first embodiment, the effects listed below can be obtained.
(1) In a vehicle recognition apparatus 1 including a camera 2 that captures an image including a recognition object, and an image processing unit 3 that performs ternarization on the captured image by comparison using a threshold value with neighboring pixels. The image processing unit 3 divides the captured image into a plurality of blocks, a local exclusion processing unit 32 that excludes locally bright blocks from the calculation target, and a local bright processing block by the local exclusion processing unit 32. 3 is provided with a ternary processing unit 33 that calculates an optimum predicted value of the threshold from the luminance average and luminance variance of the image excluding the image, so that even if there is a local high luminance region at night, Recognizability can be improved.
(2)局所排除処理部32の画像分割処理は、画像の水平方向の積算輝度グラフの傾きと、画像の垂直方向の積算輝度グラフの傾きから画像を分割する境界線を設定するため、輝度の変化からブロック境界線を求めるため、計算コストを低く抑えることができる。 (2) The image division process of the local exclusion processing unit 32 sets the boundary line for dividing the image from the inclination of the integrated luminance graph in the horizontal direction of the image and the inclination of the integrated luminance graph in the vertical direction of the image. Since the block boundary line is obtained from the change, the calculation cost can be kept low.
以上、本発明の車両用認識装置を実施例1に基づき説明してきたが、具体的な構成については、これらの実施例に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。 As mentioned above, although the vehicle recognition apparatus of the present invention has been described based on the first embodiment, the specific configuration is not limited to these embodiments, and the invention according to each claim of the claims. Design changes and additions are allowed without departing from the gist.
1 車両用認識装置
2 カメラ
3 画像処理部
31 グレースケール処理部
32 局所排除処理部
33 3値化処理部
34 認識処理部
4 車両装置
10 画像
11 画像
12 画像
13 画像
14 画像
20 積算輝度グラフ
21 積算輝度グラフ
211 傾き
212 境界点
213 ブロック分割境界線
30 積算輝度グラフ
31 積算輝度グラフ
311 傾き
312 境界点
313 ブロック分割境界線
100 閾値予測ライン
121 局所的高輝度ブロック
A 閾値
B 閾値
DESCRIPTION OF SYMBOLS 1 Vehicle recognition apparatus 2 Camera 3 Image processing part 31 Gray scale process part 32 Local exclusion process part 33 Trinarization process part 34 Recognition process part 4 Vehicle apparatus 10 Image 11 Image 12 Image 13 Image 14 Image 20 Integrated luminance graph 21 Integration Luminance graph 211 Inclination 212 Boundary point 213 Block division boundary line 30 Integrated luminance graph 31 Integrated luminance graph 311 Inclination 312 Boundary point 313 Block division boundary line 100 Threshold prediction line 121 Local high-intensity block A Threshold B Threshold
Claims (2)
取り込んだ画像に対して、近傍画素との閾値を用いた比較により3値化を行う画像処理手段と、
を備える車両用認識装置において、
前記画像処理手段は、
取り込んだ画像を複数のブロックに分割する画像分割手段と、
局所的に明るい部分のブロックを演算対象から除外する局所的高輝度除外手段と、
前記局所的高輝度除外手段により局所的に明るい部分のブロックを除外した画像の輝度平均と輝度分散から前記閾値の最適な予測値を演算する閾値予測手段と、
を備えることを特徴とする車両用認識装置。 Imaging means for capturing an image including a recognition object;
Image processing means for performing ternarization on a captured image by comparison using a threshold value with neighboring pixels;
In a vehicle recognition device comprising:
The image processing means includes
Image dividing means for dividing the captured image into a plurality of blocks;
A local high-intensity exclusion means for excluding locally bright blocks from the calculation target;
Threshold prediction means for calculating an optimum predicted value of the threshold from the luminance average and luminance variance of the image excluding the locally bright block by the local high luminance exclusion means;
A vehicle recognition device comprising:
前記画像分割手段は、
画像の水平方向の積算輝度グラフの傾きと、画像の垂直方向の積算輝度グラフの傾きから画像を分割する境界線を設定する、
ことを特徴とする車両用認識装置。 The vehicle recognition device according to claim 1,
The image dividing means includes
Set the boundary line that divides the image from the inclination of the integrated luminance graph in the horizontal direction of the image and the inclination of the integrated luminance graph in the vertical direction of the image,
A recognition apparatus for a vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007001902A JP2008171097A (en) | 2007-01-10 | 2007-01-10 | Vehicle recognition apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007001902A JP2008171097A (en) | 2007-01-10 | 2007-01-10 | Vehicle recognition apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008171097A true JP2008171097A (en) | 2008-07-24 |
Family
ID=39699144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007001902A Pending JP2008171097A (en) | 2007-01-10 | 2007-01-10 | Vehicle recognition apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008171097A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010128768A (en) * | 2008-11-27 | 2010-06-10 | Toyota Motor Corp | Vehicle periphery monitor |
JP2013229022A (en) * | 2012-04-23 | 2013-11-07 | Xerox Corp | Real-time video triggering for traffic surveillance and photo enforcement applications using near-infrared video acquisition |
JP2014013452A (en) * | 2012-07-03 | 2014-01-23 | Clarion Co Ltd | Image processor |
-
2007
- 2007-01-10 JP JP2007001902A patent/JP2008171097A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010128768A (en) * | 2008-11-27 | 2010-06-10 | Toyota Motor Corp | Vehicle periphery monitor |
JP2013229022A (en) * | 2012-04-23 | 2013-11-07 | Xerox Corp | Real-time video triggering for traffic surveillance and photo enforcement applications using near-infrared video acquisition |
JP2014013452A (en) * | 2012-07-03 | 2014-01-23 | Clarion Co Ltd | Image processor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9230183B2 (en) | Automatic vehicle equipment monitoring, warning, and control system | |
JP4241834B2 (en) | In-vehicle fog determination device | |
JP4437714B2 (en) | Lane recognition image processing device | |
JP5437855B2 (en) | Obstacle detection device, obstacle detection system including the same, and obstacle detection method | |
CN107709096B (en) | System and method for processing streaming video images to correct for flicker of amplitude modulated light | |
JP4584120B2 (en) | Road marking line detection device, road marking line detection method, road marking line detection program | |
KR20210006276A (en) | Image processing method for flicker mitigation | |
JP2012027773A (en) | Pseudo grayscale image generation device and program | |
JP5895448B2 (en) | Vehicle recognition device, vehicle recognition method, and program | |
JP5353531B2 (en) | Vehicle light recognition device and program | |
JP2008171097A (en) | Vehicle recognition apparatus | |
JP2006309650A (en) | Number recognition device and method | |
JP2005318408A (en) | Vehicle surrounding monitoring apparatus and method | |
JP6701327B2 (en) | Glare detection method and device | |
JP2006048238A (en) | Image processor and image processing program | |
KR20130070210A (en) | Method for removing noise of image | |
JP2007193702A (en) | Image processing device and image processing method | |
JP2006244331A (en) | Night-traveling supporting device and method | |
JP7261006B2 (en) | External environment recognition device | |
JP2007058282A (en) | Image recognition processor | |
JP2018106239A (en) | Image processing apparatus, image processing method and image processing program | |
JP5056679B2 (en) | Night view system | |
JP7262043B2 (en) | Anomaly detection system, moving body, anomaly detection method, and program | |
CN110312106B (en) | Image display method and device, computer equipment and storage medium | |
JP2005339234A (en) | Front vehicle monitoring device |