JP2001092979A - Unsuitable image detecting method - Google Patents

Unsuitable image detecting method

Info

Publication number
JP2001092979A
JP2001092979A JP26537299A JP26537299A JP2001092979A JP 2001092979 A JP2001092979 A JP 2001092979A JP 26537299 A JP26537299 A JP 26537299A JP 26537299 A JP26537299 A JP 26537299A JP 2001092979 A JP2001092979 A JP 2001092979A
Authority
JP
Japan
Prior art keywords
image
edge
camera
inappropriate
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP26537299A
Other languages
Japanese (ja)
Inventor
Kenji Oka
謙治 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP26537299A priority Critical patent/JP2001092979A/en
Publication of JP2001092979A publication Critical patent/JP2001092979A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method for exactly judging whether an image from a camera is a suitable image or unsuitable image. SOLUTION: A vertical or horizontal edge component is extracted and projected while using output images from cameras by using at least two cameras and the unsuitable image of blurring is detected by comparing the width of the projected edge component exceeding a threshold value. Besides, the unsuitable image of bleeding is detected by comparing the number of projected edge component exceeding the threshold value. Further, the unsuitable image of bleeding is detected by comparing the direction of an edge in the edge image provided from the extracted vertical or horizontal edge component. When the unsuitable image is detected, this unsuitable image is corrected and the corrected image is used for vehicle control. When the unsuitable image can not be corrected, however, system control based on the image is stopped and abnormality is reported to a driver.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は対象物が認識できな
い場合、それが不適切画像が入力されたためであるのか
どうかを検出する不適切画像検出方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an inappropriate image detecting method for detecting whether or not an object cannot be recognized because an inappropriate image has been input.

【0002】[0002]

【従来の技術】車両にカメラを搭載し、その出力画像を
用いて先行車両や周辺を監視し、危険を検知し、運転者
にそれを報知する、あるいは危険等を回避するために車
両を制御することが行われている。そのために画像処理
装置が用いられているが、先行車両等の対象物を認識で
きない場合、対象物が存在しないために認識できないの
か、雨や埃等のために対象物を明確に認識できず不適切
な画像が入力されたため認識できないのかを区別するこ
とが重要である。
2. Description of the Related Art A camera is mounted on a vehicle, and an output image of the vehicle is used to monitor a preceding vehicle and its surroundings, detect a danger, and notify a driver of the danger, or control the vehicle to avoid the danger. That is being done. For this purpose, an image processing apparatus is used. However, when an object such as a preceding vehicle cannot be recognized, the object cannot be recognized because the object does not exist, or the object cannot be clearly recognized due to rain, dust, or the like. It is important to distinguish whether an appropriate image has been input and cannot be recognized.

【0003】従来は1台のカメラを用い、その出力画像
を用いて先行車両や周辺を監視し、危険を検知し、運転
者にそれを報知する等を行っている。そのため前記1台
のカメラの出力画像を用いて、対物認識とは別に不適切
画像判断処理を行うことにより不適切画像、即ち画像が
ボヤケているかニジンでいるか等の検出を行っている。
Conventionally, a single camera is used to monitor a preceding vehicle and its surroundings using an output image thereof, detect a danger, and notify a driver of the danger. For this reason, an inappropriate image, that is, whether the image is blurred or a carrot, is detected by performing an inappropriate image determination process separately from objective recognition using the output image of the one camera.

【0004】[0004]

【発明が解決しようとする課題】上記のように1台のカ
メラで不適切画像の検出を行う場合、画像がボヤケてい
るか又はニジンでいるかの判断は、画像のエッジの幅、
数、向き等を用いる。しかし、車両に設けたカメラの場
合、天候等の環境や車両の動きに伴って背景が大きく変
化し、それにより上記画像のエッジの幅、数、向き等も
大きく変化するため、1台のカメラの出力画像のみでは
出力画像がボヤケ画像やニジミ画像等の不適切画像かど
うかを検出することは困難であった。
When an inappropriate image is detected by a single camera as described above, the determination of whether the image is blurred or carrot is made by determining the width of the edge of the image,
Use numbers, directions, etc. However, in the case of a camera provided in a vehicle, the background greatly changes in accordance with the environment such as the weather and the movement of the vehicle, and accordingly, the width, number, direction, and the like of the edges of the image greatly change. It is difficult to detect whether the output image is an unsuitable image such as a blurred image or a bleeding image using only the output image.

【0005】そこで、本発明はカメラからの画像が適切
画像か不適切画像かを的確に判断する方法を提供するこ
とである。
Accordingly, an object of the present invention is to provide a method for accurately determining whether an image from a camera is an appropriate image or an inappropriate image.

【0006】[0006]

【課題を解決するための手段】そこで本発明では少なく
とも2台のカメラを用いることにより、それぞれのカメ
ラからの出力画像を用いて垂直エッジ又は水平エッジを
抽出して投影し、閾値を超えた投影されたエッジの幅を
比較してボヤケの不適切画像を検出する。また、それぞ
れのカメラからの出力画像を用いて垂直エッジ又は水平
エッジを抽出して投影し、閾値を超えた投影されたエッ
ジのピークの数を比較してニジミの不適切画像を検出す
る。さらに、それぞれのカメラの出力画像から垂直エッ
ジ又は水平エッジを抽出し、抽出したエッジから得たエ
ッジ画像においてエッジの向きを比較してニジミの不適
切画像を検出する。
Accordingly, in the present invention, at least two cameras are used, and a vertical edge or a horizontal edge is extracted and projected by using an output image from each camera. The inappropriate image of blur is detected by comparing the widths of the obtained edges. Further, a vertical edge or a horizontal edge is extracted and projected using the output images from the respective cameras, and the number of peaks of the projected edge exceeding a threshold value is compared to detect a bleeding inappropriate image. Further, a vertical edge or a horizontal edge is extracted from the output image of each camera, and the direction of the edge is compared in the edge image obtained from the extracted edge to detect an unsuitable image of bleeding.

【0007】また、不適切画像を検出したときは、この
不適切画像を補正し、補正した画像を車両制御システム
に用いる。しかし、不適切画像を補正できないときには
車両制御システムを停止し、ドライバに異常を報知す
る。
When an inappropriate image is detected, the inappropriate image is corrected, and the corrected image is used for a vehicle control system. However, when the improper image cannot be corrected, the vehicle control system is stopped and the driver is notified of the abnormality.

【0008】[0008]

【発明の実施の形態】カメラの出力画像を用いてどのよ
うにボヤケ画像あるいはニジミ画像を検出するかを以下
に説明する。図1はカメラの出力画像のサンプルを示し
た図である。図1において斜線の部分Aがサンプル画像
であり、横の幅がx1 −x2 間の長さであり、高さは左
側がaで右側がbである。まずこのサンプル画像から垂
直エッジ成分の抽出を行う。垂直エッジの抽出は画像の
エッジ、即ち輪郭線から縦成分のみを抽出する。図1の
サンプル画像Aの輪郭の縦成分、即ち垂直エッジ成分を
抽出したものを図2に示す。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS How to detect a blurred image or a blurred image using an output image of a camera will be described below. FIG. 1 is a diagram showing a sample of the output image of the camera. In FIG. 1, a hatched portion A is a sample image, the horizontal width is the length between x1 and x2, and the height is a on the left and b on the right. First, a vertical edge component is extracted from this sample image. Extraction of a vertical edge extracts only a vertical component from an edge of an image, that is, a contour line. FIG. 2 shows an extracted vertical component of the outline of the sample image A of FIG. 1, that is, a vertical edge component.

【0009】図2は図1を拡大して画素単位で垂直エッ
ジ成分を表したものである。図2からわかるように、左
右の縦の輪郭の垂直エッジ成分の数は大きく、横の輪郭
の垂直エッジ成分の数は小さくなる。図3は垂直エッジ
成分を抽出して投影した図を表しており、横軸は図1と
同じであり、縦軸は垂直エッジ成分の数を表している。
図3において、ピークaはサンプル画像Aの左側のエッ
ジ成分aを表したものであり、ピークbはサンプル画像
Aの右側のエッジ成分bを表したものである。そして、
ピークaの垂直エッジ成分の数はa1 であり、ピークb
の垂直エッジ成分の数はb1 である。ピークa及びbは
ある程度幅を有している。例えば、ピークaは幅Dを有
しており、Dを「エッジの幅」と言う。図3において、
thは所定の値に設定した閾値であり、閾値を超えるピ
ーク(この場合a及びb)の数を「エッジ数」と言う。
FIG. 2 is an enlarged view of FIG. 1 showing vertical edge components in pixel units. As can be seen from FIG. 2, the number of vertical edge components of the left and right vertical contours is large, and the number of vertical edge components of the horizontal contour is small. FIG. 3 shows a diagram in which vertical edge components are extracted and projected. The horizontal axis is the same as FIG. 1, and the vertical axis represents the number of vertical edge components.
In FIG. 3, the peak a represents the left edge component a of the sample image A, and the peak b represents the right edge component b of the sample image A. And
The number of vertical edge components of peak a is a1 and peak b
Is the number of vertical edge components b1. Peaks a and b have a certain width. For example, peak a has a width D, and D is referred to as "edge width". In FIG.
th is a threshold value set to a predetermined value, and the number of peaks (a and b in this case) exceeding the threshold value is referred to as “the number of edges”.

【0010】図4は、図1に示された画像の垂直エッジ
成分を抽出し、抽出したエッジから得たエッジ画像であ
る。その結果、サンプル画像の左側のエッジa、右側の
エッジb、及び上部のエッジcが表示される。この図で
矢印に示すように、aとbの向きは垂直方向であり、c
の向きは斜めである。これらの向きを「エッジの向き」
と言う。
FIG. 4 is an edge image obtained by extracting vertical edge components of the image shown in FIG. 1 and extracting the extracted edges. As a result, a left edge a, a right edge b, and an upper edge c of the sample image are displayed. As shown by arrows in this figure, the directions of a and b are vertical directions, and c
Is oblique. These directions are called "edge directions"
Say

【0011】カメラの出力画像を用いてボヤケ画像ある
いはニジミ画像を検出する場合、上記「エッジの幅」、
「エッジ数」、「エッジの向き」を用いる。次に、図1
に示したサンプル画像がボヤケている場合、図3と同じ
ように垂直エッジ成分を抽出し投影したものを図5に示
す。画像がボヤケている場合ピークの幅は広くなる。例
えばピークaのエッジの幅はD+αとなり、αだけ広が
る。
When detecting a blurred image or a blurred image using an output image of a camera, the "edge width"
“Edge number” and “edge direction” are used. Next, FIG.
In the case where the sample image shown in FIG. 5 is blurred, FIG. 5 shows a vertical edge component extracted and projected as in FIG. When the image is blurred, the width of the peak becomes wide. For example, the width of the edge of the peak a is D + α, and the width is increased by α.

【0012】図6は、カメラの出力画像が図1に示され
た画像ようなはっきりした画像ではなく、ボヤケ画像で
あった場合、そのボヤケ画像の垂直エッジの抽出を行
い、抽出したエッジから得たエッジ画像を示したもので
ある。図に示すように、サンプル画像の左側のエッジ
a、右側のエッジb、及び上部のエッジcが表示されて
いる。この場合はボヤケ画像であるため、エッジの幅は
図4の場合より広くなっている。
FIG. 6 shows that when the output image of the camera is not a clear image as shown in FIG. 1 but a blurred image, vertical edges of the blurred image are extracted and obtained from the extracted edges. FIG. As shown in the figure, a left edge a, a right edge b, and an upper edge c of the sample image are displayed. In this case, since the image is a blurred image, the width of the edge is wider than that in FIG.

【0013】次に、図1に示した出力画像が、例えば雨
のためにニジンでいる場合、図7のA′に示すように歪
んだ形となる。このニジンだ画像を、図3と同じように
垂直エッジ成分を抽出して投影したものを図8に示す。
画像がニジンでいる場合は画像が歪み、図8に示すよう
にエッジに歪みが生じるためにピークa、bはそれぞれ
a1−β1、b1−β2と低くなる。その結果、図8に
示すようにピークaだけが閾値thを超え、ピークbは
閾値thより小さくなってしまう。
Next, when the output image shown in FIG. 1 is made of, for example, nidine due to rain, it becomes distorted as shown at A 'in FIG. FIG. 8 shows an image obtained by extracting and projecting the vertical edge component of this carrot image in the same manner as in FIG.
When the image is made of nidine, the image is distorted, and the edge is distorted as shown in FIG. 8, so that the peaks a and b become low as a1-β1 and b1-β2, respectively. As a result, as shown in FIG. 8, only the peak a exceeds the threshold th and the peak b becomes smaller than the threshold th.

【0014】また、図7に示す出力画像に基づいて図4
と同じようにエッジ画像を求めると、図9に示すような
エッジ画像が得られる。図9からわかるように、エッジ
aとbの方向は垂直方向ではなく、少し傾いている。次
に、本発明において、カメラの出力画像を用いてどのよ
うに上記ボヤケ画像あるいはニジミ画像等の不適切な画
像を検出するかを説明する。
4 based on the output image shown in FIG.
When an edge image is obtained in the same manner as in the above, an edge image as shown in FIG. 9 is obtained. As can be seen from FIG. 9, the directions of the edges a and b are not vertical but slightly inclined. Next, in the present invention, how to detect an inappropriate image such as the blurred image or the blurred image using the output image of the camera will be described.

【0015】図10は本発明による不適切画像検出に用
いる画像処理装置の構成を示した図である。図10にお
いて、1は画像処理装置で、不適切画像検出部11、車
両認識測距部12、画像補正部13を有する。不適切画
像検出部11は、第1カメラ21及び第2カメラ22か
ら出力画像を受け、適切な画像かあるいは不適切な画像
かを判断する。適切な画像と判断された場合、画像は適
切画像として車両認識測距部12に送られ、この画像に
基づいて計測が行われる。例えば、画像が先行車両であ
った場合、この車両との車間距離が測定され、そのデー
タが車両制御装置31に送られ、これに基づいて車間距
離制御や衝突防止制御等が行われる。32は後述する補
正不可信号を受け画像に基づく車両制御システムを停止
するシステム停止部である。また、車両が先行車両に接
近しすぎたことを検知した場合には警報33から警報を
発する。
FIG. 10 is a diagram showing a configuration of an image processing apparatus used for detecting an inappropriate image according to the present invention. In FIG. 10, reference numeral 1 denotes an image processing apparatus, which includes an inappropriate image detection unit 11, a vehicle recognition and distance measurement unit 12, and an image correction unit 13. The inappropriate image detecting unit 11 receives output images from the first camera 21 and the second camera 22, and determines whether the image is appropriate or inappropriate. If it is determined that the image is appropriate, the image is sent to the vehicle recognition and ranging unit 12 as an appropriate image, and measurement is performed based on this image. For example, when the image is a preceding vehicle, an inter-vehicle distance with the preceding vehicle is measured, and the data is sent to the vehicle control device 31. Based on the data, inter-vehicle distance control, collision prevention control, and the like are performed. Reference numeral 32 denotes a system stop unit that receives a correction impossible signal described later and stops the vehicle control system based on the image. When it is detected that the vehicle is too close to the preceding vehicle, an alarm is issued from the alarm 33.

【0016】一方、不適切な画像と判断された場合、画
像は不適切画像として画像補正部13に送られる。ここ
で不適切画像と判断された画像に補正が加えられ、補正
可能な場合には補正された画像が車両認識測距部12に
送られる。しかし、補正が不可能な場合、補正不可信号
が車両制御装置のシステム停止部32に送られて車両制
御システムを停止する。また、同時にドライバ報知部3
4にこの信号が送られ、システムの異常を報知する。
On the other hand, if it is determined that the image is inappropriate, the image is sent to the image correction unit 13 as an inappropriate image. Here, the image determined to be an inappropriate image is corrected, and if the image can be corrected, the corrected image is sent to the vehicle recognition distance measuring unit 12. However, when the correction is impossible, the correction impossible signal is sent to the system stop unit 32 of the vehicle control device to stop the vehicle control system. At the same time, the driver notification unit 3
This signal is sent to No. 4 to notify the system abnormality.

【0017】なお、上記画像処理装置は2台のカメラを
用いているが、互いに比較できればよいので、2台以上
であればよい。次に、図10に示された画像検出装置に
よりどのように不適切画像を検出するかについて説明す
る。図11は、不適切画像検出の制御をどのように行う
かを示したフローチャートである。なお、このフローチ
ャートに示された制御は、図10の画像処理装置に設け
られたマイコン(図示なし)により行う。また、カメラ
は2台用いたものとして説明する。
Although the above image processing apparatus uses two cameras, it suffices that two or more cameras be used as long as they can be compared with each other. Next, how an inappropriate image is detected by the image detection device shown in FIG. 10 will be described. FIG. 11 is a flowchart showing how to control inappropriate image detection. The control shown in this flowchart is performed by a microcomputer (not shown) provided in the image processing apparatus of FIG. Also, the description will be made assuming that two cameras are used.

【0018】不適切画像検出の制御が開始されると、ま
ず第1カメラ21の出力画像が不適切画像検出部11に
取り込まれ(S1)、続いて第2カメラ22の出力画像
が不適切画像検出部11に取り込まれる(S2)。次に
第1カメラの画像から図3に示されているようにエッジ
が抽出されて投影される(S3)、続いて第2カメラの
画像からもエッジ抽出されて投影される(S4)。この
場合、垂直エッジ成分又は水平エッジ成分のいずれを抽
出してもよいが、どちらを抽出するかは対象物の形状に
より選択できるようにする。次に抽出された2台のカメ
ラのそれぞれから抽出され投影されたエッジを比較す
る。まず、エッジの幅が正常かどうか判断する(S
5)。そのために、それぞれのカメラの投影された閾値
を超えるエッジの幅を比較し、一方のエッジの幅が他方
に比べて明らかに広がっている場合には、エッジの幅が
正常でないと判断し(No)、一方のカメラに生じたボ
ヤケ画像として検出し、不適切画像として画像補正部1
3に送られて画像の補正を行う(S8)。
When the control for detecting an inappropriate image is started, first, the output image of the first camera 21 is taken into the inappropriate image detecting section 11 (S1), and then the output image of the second camera 22 is converted to the inappropriate image. The data is captured by the detection unit 11 (S2). Next, edges are extracted and projected from the image of the first camera as shown in FIG. 3 (S3), and subsequently, edges are extracted and projected from the image of the second camera (S4). In this case, either the vertical edge component or the horizontal edge component may be extracted, but which one to extract can be selected according to the shape of the object. Next, the edges extracted and projected from each of the two extracted cameras are compared. First, it is determined whether the width of the edge is normal (S
5). For this purpose, the widths of the edges exceeding the projected threshold value of each camera are compared, and if the width of one edge is clearly wider than the other, it is determined that the width of the edge is not normal (No. ), Which is detected as a blurred image generated in one of the cameras, and is determined as an inappropriate image by the image correction unit 1
3 and the image is corrected (S8).

【0019】エッジの幅が両方共に正常である場合には
(Yes)、エッジの数及び/又は向きが正常かどうか
判断する(S6)。そのために、それぞれのカメラの投
影された閾値を超えるエッジの数を比較する。カメラの
画像にニジミがある場合、ある閾値を超えるエッジの数
が少なくなる。そこで一方のエッジの数が他方に比べて
明らかに少ない場合には、正常でないと判断し(N
o)、一方のカメラのみに生じたニジミ画像として検出
し、不適切画像として画像補正部13に送られて画像の
補正を行う(S8)。また、図4と図9に示されている
ようなエッジ画像においてエッジの向きを比較する。エ
ッジの向きが一致しなければ正常ではないと判断し(N
o)、不適切画像として画像補正部13に送られる。
If both edge widths are normal (Yes), it is determined whether the number and / or orientation of the edges is normal (S6). To do so, the number of edges that exceed the projected threshold of each camera is compared. If the camera image has blurring, the number of edges exceeding a certain threshold value is reduced. Therefore, if the number of one edge is clearly smaller than the other, it is determined that the edge is not normal (N
o), it is detected as a blurred image generated only in one camera, and sent to the image correcting unit 13 as an inappropriate image to correct the image (S8). In addition, the direction of the edge is compared between the edge images shown in FIGS. 4 and 9. If the directions of the edges do not match, it is determined that it is not normal (N
o), sent to the image correction unit 13 as an inappropriate image.

【0020】エッジの数あるいはエッジの向きが両方共
に正常である場合には(Yes)、検出された画像を用
いて通常の処理が行われる。例えば、画像は適切画像と
して車両認識測距部12に送られ、この画像に基づいて
計測が行われ、例えば、画像が先行車両であった場合、
この車両との車間距離が測定され、そのデータが車両制
御装置31に送られ、これに基づいて車間距離制御等が
行われる。
If both the number of edges and the direction of the edges are normal (Yes), normal processing is performed using the detected image. For example, the image is sent to the vehicle recognition and ranging unit 12 as an appropriate image, and measurement is performed based on this image. For example, if the image is a preceding vehicle,
The inter-vehicle distance from the vehicle is measured, and the data is sent to the vehicle control device 31, and the inter-vehicle distance control or the like is performed based on the data.

【0021】一方、画像補正部13に送られた不適切画
像は、ここで適切な画像に補正することが行われるが
(S8)、補正可能かどうか判断され(S9)、補正可
能であった場合(Yes)には補正されて車両認識測距
部12に送られる。補正は他方の適切画像を基準に行わ
れる。しかし、歪み等が大きく、不適切度が大きいため
補正可能でなかった場合(No)には補正不可信号がシ
ステム停止部32及びドライバ報知部34に送られ、車
両制御システムが停止され(S10)、ドライバにその
旨の報知を行う(S11)。
On the other hand, the inappropriate image sent to the image correcting section 13 is corrected to an appropriate image here (S8), but it is determined whether the image can be corrected (S9), and the image can be corrected. In the case (Yes), the correction is sent to the vehicle recognition and distance measurement unit 12. The correction is performed based on the other appropriate image. However, if the correction is not possible due to large distortion or the like and the degree of inappropriateness is large (No), a correction impossible signal is sent to the system stop unit 32 and the driver notification unit 34, and the vehicle control system is stopped (S10). Then, the driver is notified of the fact (S11).

【0022】上記実施形態の場合、画面全体の画像を対
象に不適切画像の検出を行っているが、画面全体でな
く、画面に常に現れる対象、例えば道路上の白線や自車
のボンネット等のエッジ抽出し投影を行い、これに基づ
いてボヤケ画像等の不適切画像を検出することができ
る。以下このような場合について説明する。図12は走
行中の自車のフロントガラスから見た画像である。図に
おいてBは自車のボンネットであり、Cは先行車両の後
部である。またWは車線を表す白線である。この図にお
いて、ピークp、qは白線の垂直エッジ成分、rはボン
ネットBの水平エッジ成分をそれぞれ抽出し投影したも
のである。白線の垂直エッジ成分はあまり大きくないの
で、ピークの高さは低い。また、ボンネットの場合垂直
エッジ成分は小さいので、水平エッジ成分を抽出してい
る。このように、必ずしも垂直エッジ成分とする必要は
なく、形状に応じて水平エッジ成分を抽出してもよい。
In the case of the above embodiment, the detection of an inappropriate image is performed on the image of the entire screen. However, instead of the entire screen, an object that always appears on the screen, such as a white line on the road or the hood of the own vehicle, is used. An edge is extracted and projected, and an inappropriate image such as a blurred image can be detected based on this. Hereinafter, such a case will be described. FIG. 12 is an image viewed from the windshield of the own vehicle during traveling. In the figure, B is the hood of the own vehicle, and C is the rear part of the preceding vehicle. W is a white line representing a lane. In this figure, peaks p and q are vertical edge components of a white line, and r is a horizontal edge component of hood B extracted and projected. Since the vertical edge component of the white line is not so large, the height of the peak is low. Since the vertical edge component is small in the case of the hood, the horizontal edge component is extracted. As described above, it is not always necessary to use the vertical edge component, and the horizontal edge component may be extracted according to the shape.

【0023】先に説明した場合と同様に、2台のカメラ
で得た画像から上記のような白線やボンネットのような
画面に常に現れる対象の垂直エッジ成分又は水平エッジ
成分の抽出して投影し、またエッジ画像を得て、エッジ
幅、エッジ数、エッジの向きを比較することにより、ボ
ヤケ画像やニジミ画像の不適切画像を検出することがで
きる。
As in the case described above, a vertical edge component or a horizontal edge component of an object which always appears on a screen such as a white line or a bonnet is extracted from images obtained by two cameras and projected. By obtaining an edge image and comparing the edge width, the number of edges, and the direction of the edge, an unsuitable image such as a blurred image or a blurred image can be detected.

【0024】[0024]

【発明の効果】上記のように、本発明は少なくとも2台
のカメラを用い、1台のカメラでは検出困難であったボ
ヤケ画像やニジミ画像の不適切画像を検出することが可
能となった。また、ボヤケ画像やニジミ画像の不適切画
像を補正することにより、システムの使用可能性が向上
する。
As described above, according to the present invention, at least two cameras can be used to detect an unsuitable image such as a blurred image or a blurred image, which was difficult to detect with one camera. Further, the usability of the system is improved by correcting an inappropriate image such as a blurred image or a blurred image.

【0025】さらに、不適切画像を的確に検出すること
により、車両制御システムの安全度が高まる。
Further, by accurately detecting an inappropriate image, the safety of the vehicle control system is increased.

【図面の簡単な説明】[Brief description of the drawings]

【図1】カメラの出力画像のサンプルを示した図であ
る。
FIG. 1 is a diagram showing a sample of an output image of a camera.

【図2】図1を拡大して画素単位で垂直エッジ成分を表
した図である。
FIG. 2 is an enlarged view of FIG. 1 showing vertical edge components in pixel units;

【図3】垂直エッジ成分を抽出して投影した図である。FIG. 3 is a diagram in which a vertical edge component is extracted and projected.

【図4】図1のサンプル画像のエッジ画像を示した図で
ある。
FIG. 4 is a diagram showing an edge image of the sample image of FIG. 1;

【図5】ボヤケ画像の垂直エッジ成分を抽出して投影し
た図である。
FIG. 5 is a diagram in which a vertical edge component of a blurred image is extracted and projected.

【図6】ボヤケ画像のエッジ画像を示した図である。FIG. 6 is a diagram showing an edge image of a blurred image.

【図7】ニジンだ出力画像のサンプルを示した図であ
る。
FIG. 7 is a diagram showing a sample of a carrot output image.

【図8】ニジンだ出力画像の垂直エッジ成分を抽出して
投影した図である。
FIG. 8 is a diagram in which a vertical edge component of a carrot output image is extracted and projected.

【図9】ニジミ画像のエッジ画像を示した図である。FIG. 9 is a diagram showing an edge image of a blurred image.

【図10】本発明による不適切画像検出に用いる画像認
識装置の構成を示した図である。
FIG. 10 is a diagram showing a configuration of an image recognition device used for detecting an inappropriate image according to the present invention.

【図11】本発明による不適切画像検出の制御をどのよ
うに行うかを示したフローチャートである。
FIG. 11 is a flowchart showing how to control inappropriate image detection according to the present invention.

【図12】走行中のフロントガラスから見た画像と、抽
出したエッジ成分を投影した図である。
FIG. 12 is a diagram in which an image viewed from a running windshield and an extracted edge component are projected.

【符号の説明】[Explanation of symbols]

1…画像処理装置 11…不適切画像検出部 12…車両認識測距部 13…画像補正部 21…第1カメラ 22…第2カメラ 31…車両制御装置 32…システム停止部 33…警報 34…ドライバ報知部 DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus 11 ... Unsuitable image detection part 12 ... Vehicle recognition distance measurement part 13 ... Image correction part 21 ... First camera 22 ... Second camera 31 ... Vehicle control device 32 ... System stop part 33 ... Warning 34 ... Driver Information department

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 少なくとも2台のカメラを用い、カメラ
の出力画像から垂直エッジ又は水平エッジを抽出して投
影し、所定の閾値を超える投影したエッジの幅を比較す
ることにより不適切画像を検出する方法。
1. An inappropriate image is detected by extracting and projecting a vertical edge or a horizontal edge from an output image of a camera using at least two cameras and comparing a width of the projected edge exceeding a predetermined threshold. how to.
【請求項2】 少なくとも2台のカメラを用い、それぞ
れのカメラの出力画像から垂直エッジ又は水平エッジを
抽出して投影し、所定の閾値を超える投影したエッジの
数を比較することにより不適切画像を検出する方法。
2. An inappropriate image by extracting and projecting a vertical edge or a horizontal edge from an output image of each camera using at least two cameras, and comparing the number of projected edges exceeding a predetermined threshold. How to detect.
【請求項3】 少なくとも2台のカメラを用い、それぞ
れのカメラの出力画像から垂直エッジ又は水平エッジを
抽出し、抽出したエッジから得たエッジ画像において、
エッジの向きを比較することにより不適切画像を検出す
る方法。
3. Using at least two cameras, extracting a vertical edge or a horizontal edge from an output image of each camera, and in an edge image obtained from the extracted edges,
A method of detecting inappropriate images by comparing the directions of edges.
【請求項4】 カメラの出力画像全体から垂直エッジ又
は水平エッジを抽出して投影する、請求項1又は2に記
載の不適切画像を検出する方法。
4. The method for detecting an inappropriate image according to claim 1, wherein a vertical edge or a horizontal edge is extracted and projected from the entire output image of the camera.
【請求項5】 カメラの出力画像のうち常に画面に現れ
る対象から垂直エッジ又は水平エッジを抽出して投影す
る、請求項1又は2に記載の不適切画像を検出する方
法。
5. The method for detecting an unsuitable image according to claim 1, wherein a vertical edge or a horizontal edge is extracted from a target that always appears on a screen in an output image of the camera and projected.
【請求項6】 カメラの出力画像全体から垂直エッジ又
は水平エッジを抽出してエッジ画像を得る、請求項3に
記載の不適切画像を検出する方法。
6. The method according to claim 3, wherein a vertical edge or a horizontal edge is extracted from the entire output image of the camera to obtain an edge image.
【請求項7】 カメラの出力画像のうち常に画面に現れ
る対象から垂直エッジ又は水平エッジを抽出してエッジ
画像を得る、請求項3に記載の不適切画像を検出する方
法。
7. The method for detecting an unsuitable image according to claim 3, wherein a vertical edge or a horizontal edge is extracted from a target that always appears on a screen in an output image of the camera to obtain an edge image.
【請求項8】 検出された不適切画像を適切画像を基準
に適切な画像に補正する段階を有する、請求項1〜7の
いずれか1項に記載された不適切画像を検出する方法。
8. The method for detecting an inappropriate image according to claim 1, further comprising the step of correcting the detected inappropriate image into an appropriate image based on the appropriate image.
【請求項9】 前記適切な画像に補正する段階におい
て、適切な画像に補正できない場合、前記カメラの出力
画像を用いる車両制御システムを停止させる、請求項8
に記載の不適切画像を検出する方法。
9. The vehicle control system using the output image of the camera is stopped if the image cannot be corrected to an appropriate image in the step of correcting the image to the appropriate image.
Method for detecting inappropriate images described in.
JP26537299A 1999-09-20 1999-09-20 Unsuitable image detecting method Withdrawn JP2001092979A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26537299A JP2001092979A (en) 1999-09-20 1999-09-20 Unsuitable image detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26537299A JP2001092979A (en) 1999-09-20 1999-09-20 Unsuitable image detecting method

Publications (1)

Publication Number Publication Date
JP2001092979A true JP2001092979A (en) 2001-04-06

Family

ID=17416276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26537299A Withdrawn JP2001092979A (en) 1999-09-20 1999-09-20 Unsuitable image detecting method

Country Status (1)

Country Link
JP (1) JP2001092979A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005515565A (en) * 2002-01-17 2005-05-26 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Visibility obstruction identification method and identification apparatus in image sensor system
JP2006107000A (en) * 2004-10-04 2006-04-20 Daihatsu Motor Co Ltd Method and device for deciding image abnormality
JP2006352793A (en) * 2005-06-20 2006-12-28 Hochiki Corp Adjustment system of signal amplifier
KR100734828B1 (en) 2004-12-14 2007-07-03 한국전자통신연구원 Circuit and method for detecting object edge in encoding of low bit-rate video data
JP2007228448A (en) * 2006-02-27 2007-09-06 Hitachi Ltd Imaging environment recognition apparatus
EP2871629A4 (en) * 2012-07-03 2016-10-05 Clarion Co Ltd Vehicle-mounted environment recognition device
JP2018070077A (en) * 2016-11-02 2018-05-10 株式会社東海理化電機製作所 Imaging system and drive support system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005515565A (en) * 2002-01-17 2005-05-26 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Visibility obstruction identification method and identification apparatus in image sensor system
US7609857B2 (en) 2002-01-17 2009-10-27 Robert Bosch Gmbh Method and device for recognizing obstruction of view in image sensor systems
JP2006107000A (en) * 2004-10-04 2006-04-20 Daihatsu Motor Co Ltd Method and device for deciding image abnormality
JP4601376B2 (en) * 2004-10-04 2010-12-22 ダイハツ工業株式会社 Image abnormality determination device
KR100734828B1 (en) 2004-12-14 2007-07-03 한국전자통신연구원 Circuit and method for detecting object edge in encoding of low bit-rate video data
JP2006352793A (en) * 2005-06-20 2006-12-28 Hochiki Corp Adjustment system of signal amplifier
JP2007228448A (en) * 2006-02-27 2007-09-06 Hitachi Ltd Imaging environment recognition apparatus
EP2871629A4 (en) * 2012-07-03 2016-10-05 Clarion Co Ltd Vehicle-mounted environment recognition device
JP2018070077A (en) * 2016-11-02 2018-05-10 株式会社東海理化電機製作所 Imaging system and drive support system

Similar Documents

Publication Publication Date Title
US7957559B2 (en) Apparatus and system for recognizing environment surrounding vehicle
JP5421072B2 (en) Approaching object detection system
JP3156817B2 (en) Vehicle periphery monitoring device
US7646890B2 (en) Image processor for automotive vehicle
JP6950170B2 (en) Information processing device, imaging device, device control system, information processing method, and program
US9798936B2 (en) System and method for detecting obstacles using a single camera
JP2004145852A (en) Method for detecting position of lane marker, apparatus for detecting position of lane marker and alarm apparatus for lane deviation
JP2003134508A (en) Information providing device for vehicle
JP2003098424A (en) Range finder based on image processing
JP2013137767A (en) Obstacle detection method and driver support system
JPH08329393A (en) Preceding vehicle detector
EP2770478A2 (en) Image processing unit, imaging device, and vehicle control system and program
JP2002140696A (en) Image pickup and image conversion device
JP2001092979A (en) Unsuitable image detecting method
JP4798576B2 (en) Attachment detection device
JPH10171966A (en) On-vehicle image processor
JPH0869596A (en) Traffic monitoring device
JPH07114689A (en) Method for recognizing vehicle registered number
JPH07250268A (en) Vehicle periphery monitoring device
JP2001043383A (en) Image monitoring system
JP3260503B2 (en) Runway recognition device and runway recognition method
JP2919718B2 (en) Vehicle distance measuring device and vehicle equipped with it
JP4176558B2 (en) Vehicle periphery display device
JPH07114688A (en) Method for recognizing vehicle registered number
JP2008028478A (en) Obstacle detection system, and obstacle detecting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060829

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090114