JP2000207563A - Image recognizing device - Google Patents

Image recognizing device

Info

Publication number
JP2000207563A
JP2000207563A JP11012333A JP1233399A JP2000207563A JP 2000207563 A JP2000207563 A JP 2000207563A JP 11012333 A JP11012333 A JP 11012333A JP 1233399 A JP1233399 A JP 1233399A JP 2000207563 A JP2000207563 A JP 2000207563A
Authority
JP
Japan
Prior art keywords
image
camera
condition
image data
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11012333A
Other languages
Japanese (ja)
Other versions
JP2000207563A5 (en
Inventor
Nobukazu Shima
伸和 島
Ryuichi Nakamura
隆一 中村
Masahiro Babasaki
正博 馬場崎
Akihiro Ota
明宏 太田
Kenji Oka
謙治 岡
Keiji Kunitomo
圭司 國友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP11012333A priority Critical patent/JP2000207563A/en
Publication of JP2000207563A publication Critical patent/JP2000207563A/en
Publication of JP2000207563A5 publication Critical patent/JP2000207563A5/ja
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve a reliability in an image recognizing device. SOLUTION: The image of a forward travelling direction is picked-up by a camera 1 which is mounted on a vehicle such as an automobile, a white line to display the travelling lane of a road is recognized and processed, driving is supported and automatic driving is executed. A condition detecting means arithmetically processes image data from the camera 1 and detects a recognition processing impossible condition such as a state where the image is too bright by backlight or after the rain, a state where the image is too dark at night or the like, a state where the image is the low contrast one owing to twilight or snow or a state where sumearing occurs owing to backlight or the like. An announcing means 12 announces such a recognition processing impossible condition. Therefore, it can be judged whether or not an abnormality occurs because of a fault in the camera 1 or not and an input image to the camera is abnormal or inappropriate.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラによって撮
像した画像データによって物体などの認識処理を行う画
像認識装置に関し、特に自動車などの車両に搭載され、
自動車の前方、側方または後方などに光軸が向けられて
搭載された車載カメラからの画像データによって、たと
えば道路に描かれた走行レーンを表す白線および他の車
両の有無などを認識し、運転者に報知し、または車両の
運転制御を行う運転支援、自動運転装置に好適に実施さ
れる画像認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognizing apparatus for recognizing an object or the like based on image data picked up by a camera.
Based on image data from an in-vehicle camera mounted with the optical axis directed in front, side, or rear of the vehicle, for example, a white line representing a driving lane drawn on a road and the presence or absence of other vehicles are recognized and driving is performed. The present invention relates to driving assistance for notifying a driver or controlling driving of a vehicle, and an image recognition device suitably implemented in an automatic driving device.

【0002】[0002]

【従来の技術】このような運転支援、自動運転装置用画
像認識装置では、認識する対象物体であるたとえば道路
の白線または先行車両を、カメラからの画像データによ
って画像認識することができない場合、画像認識不可能
であると判断している。
2. Description of the Related Art In such an image recognition device for a driving support and automatic driving device, when an object to be recognized, for example, a white line on a road or a preceding vehicle cannot be image-recognized by image data from a camera, an image is not recognized. You have determined that it is not recognizable.

【0003】図20は、上述の先行技術の動作を説明す
るためのフローチャートである。ステップg1からステ
ップg2に移り、カメラからの画像データをコンピュー
タなどによって実現される処理手段に入力する。ステッ
プg3では、この画像データを用いて、道路上に描かれ
た走行レーンを表示する白線などの物体を認識する認識
処理を行う。ステップg4において認識処理が可能であ
るとき、ステップg5において白線の認識が可能である
ことを表す信号を導出し、ステップg7では、その信号
を用いて、運転支援、自動運転などのための動作が実施
される。ステップg6では、白線の認識処理が不可能で
あることを表す信号が導出され、これによって運転支
援、自動運転の動作が停止される。
FIG. 20 is a flowchart for explaining the operation of the above-mentioned prior art. The process proceeds from step g1 to step g2, where image data from the camera is input to processing means implemented by a computer or the like. In step g3, a recognition process of recognizing an object such as a white line indicating a driving lane drawn on the road is performed using the image data. When the recognition processing is possible in step g4, a signal indicating that the white line can be recognized is derived in step g5. In step g7, the operation for driving assistance, automatic driving, and the like is performed using the signal. Will be implemented. In step g6, a signal indicating that the recognition processing of the white line is impossible is derived, and thereby the operation of the driving support and the automatic driving is stopped.

【0004】このような先行技術では、画像認識の処理
が不可能である条件が、たとえば雨または雪などの周囲
環境によるのか、またはカメラもしくはそのカメラから
の画像データを認識処理する回路が故障して異常である
のかを判断することができない。したがって画像認識装
置の信頼性が劣る結果になる。
In such prior art, the condition that the image recognition processing is not possible depends on the surrounding environment such as rain or snow, or the camera or the circuit for recognizing and processing the image data from the camera breaks down. It is impossible to judge whether it is abnormal. Therefore, the result is that the reliability of the image recognition device is poor.

【0005】また画像認識装置の認識性能を向上させ、
すなわち適用範囲を拡大すると、物体の認識率は向上す
るけれども、これと同時に、誤認識も増加することがあ
る。したがって操作者は、カメラからの画像データの認
識処理を適切に行うことができるか、または認識処理が
不可能であるかを知る必要が生じる。
[0005] Further, the recognition performance of the image recognition device is improved,
That is, when the application range is expanded, the recognition rate of the object is improved, but at the same time, false recognition may increase. Therefore, the operator needs to know whether the recognition processing of the image data from the camera can be appropriately performed or whether the recognition processing is impossible.

【0006】特に前述の運転支援、自動運転装置では、
カメラからの画像データの認識処理を適切に行うことが
できるかどうかを正確に判断することが、安全運転の観
点から必要であり、さもなければ、運転支援、自動運転
装置を使用することができなくなってしまう。
[0006] In particular, in the aforementioned driving support and automatic driving device,
It is necessary from the viewpoint of safe driving to accurately determine whether the recognition processing of the image data from the camera can be performed properly, otherwise, it is possible to use driving assistance and automatic driving devices Will be gone.

【0007】[0007]

【発明が解決しようとする課題】本発明の目的は、たと
えば運転支援、自動運転装置などの用途において、カメ
ラによって撮像して得られる画像データを用いて対象物
体の認識処理を行うことができるかどうかを判断する画
像認識装置を提供することである。
SUMMARY OF THE INVENTION An object of the present invention is to perform a target object recognition process using image data obtained by a camera in applications such as driving assistance and automatic driving devices. An object of the present invention is to provide an image recognition device for determining whether or not the image recognition is performed.

【0008】[0008]

【課題を解決するための手段】本発明は、カメラと、カ
メラからの画像データを演算処理し、認識処理が不可能
である条件を検出する条件検出手段と、条件検出手段の
出力に応答し、認識処理が不可能である条件を報知する
報知手段と、条件検出手段の出力に応答し、認識処理が
可能であるとき、カメラからの画像データの認識処理を
する認識処理手段とを含むことを特徴とする画像認識装
置である。
SUMMARY OF THE INVENTION The present invention provides a camera, condition detecting means for processing image data from the camera to detect a condition in which recognition processing is impossible, and responding to an output of the condition detecting means. Notification means for notifying the condition that the recognition processing is not possible, and recognition processing means for responding to the output of the condition detection means and performing recognition processing of image data from the camera when the recognition processing is possible. An image recognition device characterized by the following.

【0009】本発明に従えば、条件検出手段によって、
カメラからの画像データの認識処理を認識処理手段によ
って行うことができるかどうかを判断し、認識処理が不
可能であるとき、その条件、すなわち原因を検出し、報
知手段によって報知する。この報知手段は、液晶または
陰極線管などの2次元表示面を有する目視表示手段であ
ってもよく、または音声合成回路とスピーカとを有する
音響表示手段であってもよく、その他の構成を有する報
知手段であってもよい。したがってたとえば運転支援、
自動運転装置用画像処理装置において、カメラによって
撮像した先行車両を認識処理手段が認識処理することが
できない場合、先行車両がいないことによって認識でき
なかったのか、またはカメラからの画像データが異常で
ありもしくは動作が不適切であることによって認識でき
ないのかを、操作者は、知ることができる。こうして画
像認識装置の信頼性が確保される。
According to the present invention, the condition detecting means
It is determined whether or not the recognition processing of the image data from the camera can be performed by the recognition processing unit. If the recognition processing is not possible, the condition, that is, the cause is detected, and the notification unit notifies. The notification means may be a visual display means having a two-dimensional display surface such as a liquid crystal or a cathode ray tube, or may be an acoustic display means having a voice synthesis circuit and a speaker. It may be a means. So for example driving assistance,
In the image processing device for an automatic driving device, if the recognition processing unit cannot recognize the preceding vehicle imaged by the camera, it may not be able to recognize the absence of the preceding vehicle or the image data from the camera is abnormal. Alternatively, the operator can know whether the operation cannot be recognized due to improper operation. Thus, the reliability of the image recognition device is ensured.

【0010】また本発明は、カメラと、カメラからの画
像データを演算処理し、認識処理が不可能である条件を
検出する条件検出手段と、条件検出手段の出力に応答
し、カメラへの入力画像を補正し、またはカメラからの
画像データを補正する補正手段と、入力画像が補正手段
によって補正されたカメラからの画像データ、または補
正手段によって補正された画像データの認識処理をする
認識処理手段とを含むことを特徴とする画像認識装置で
ある。
Further, the present invention provides a camera, condition detecting means for calculating image data from the camera and detecting a condition in which recognition processing is impossible, and responding to an output of the condition detecting means to input an image to the camera. Correction means for correcting an image or image data from a camera, and recognition processing means for recognizing image data from a camera in which an input image has been corrected by the correction means or image data corrected by the correction means An image recognition apparatus characterized by including:

【0011】本発明に従えば、条件検出手段によって、
カメラからの画像データを認識処理手段が認識処理する
ことが不可能であると判断したとき、補正手段は、カメ
ラへの入力画像を補正し、たとえば(a)カメラの絞り
またはシャッタ速度を適正値に変更して露光条件を補正
し、または(b)自動車の車室内にカメラが搭載され、
車両の前方を撮像する構成において、フロントガラスの
外周面を払拭するワイパを自動的に作動させて正常な前
方の状況をカメラによって撮像することができるように
補正する。補正手段はまた、カメラからの画像データを
補正するように構成されてもよく、たとえば(c)カメ
ラからの画像データが、濃淡を表すアナログ信号である
場合、条件検出手段によって画像データが低コントラス
トであることが判断されたとき、アナログ信号をデジタ
ル信号に変換するアナログ/デジタル変換への感度を広
げ、すなわちアナログ信号のわずかな差毎に、デジタル
信号に変換するように構成し、こうしてカメラからの画
像データを補正することができる。
According to the present invention, the condition detecting means
When it is determined that the recognition processing unit cannot recognize the image data from the camera, the correction unit corrects the image input to the camera, and for example, (a) adjusts the aperture or shutter speed of the camera to an appropriate value. To correct the exposure condition, or (b) a camera is mounted in the cabin of the car,
In a configuration in which an image of the front of the vehicle is taken, a wiper for wiping the outer peripheral surface of the windshield is automatically operated to correct a normal front situation by the camera. The correcting means may be configured to correct the image data from the camera. For example, (c) when the image data from the camera is an analog signal representing shading, the image data is converted to a low contrast signal by the condition detecting means. When it is determined that the analog signal is converted to a digital signal, the sensitivity of the analog / digital conversion is increased, that is, the analog signal is converted into a digital signal for each small difference of the analog signal. Can be corrected.

【0012】こうして入力画像が補正されたカメラから
の画像データを用いて、またはカメラからの画像データ
を補正することによって、認識処理手段は、その画像デ
ータの認識処理を行うことができる。こうして条件検出
手段によって画像データの認識処理が不可能であると判
断されたとき、補正手段の働きによって、対応環境とさ
れる利用領域を拡大し、画像認識装置の性能を向上させ
ることができる。
By using the image data from the camera whose input image has been corrected in this way, or by correcting the image data from the camera, the recognition processing means can perform the recognition processing of the image data. When the condition detection unit determines that the image data cannot be recognized, the correction unit can expand the area of use as a corresponding environment and improve the performance of the image recognition device.

【0013】また本発明は、カメラと、カメラの周囲環
境を検出するセンサと、カメラからの画像データの認識
処理をする認識処理手段と、センサの出力に応答し、認
識処理手段によって、カメラからの画像データの認識処
理が不可能である条件を検出する条件検出手段と、条件
検出手段の出力に応答し、認識処理が不可能である条件
を報知する報知手段とを含むことを特徴とする画像認識
装置である。
The present invention also provides a camera, a sensor for detecting an environment surrounding the camera, recognition processing means for performing recognition processing of image data from the camera, and a recognition processing means responsive to an output of the sensor. Condition detecting means for detecting a condition in which recognition processing of the image data is not possible, and notifying means for notifying a condition in which recognition processing is not possible in response to an output of the condition detecting means. An image recognition device.

【0014】本発明に従えば、センサによってカメラの
周囲環境を検出し、このセンサによって検出された周囲
環境が、認識処理手段によるカメラからの画像データの
認識処理が不可能である条件であるかを、条件検出手段
によって判断し、認識処理が不可能であるとき、報知手
段によって認識処理が不可能である条件を検出して判断
するために、カメラからの画像データを演算処理する必
要がなく、センサの出力を用いるようにしたので、演算
処理量を減少し、迅速な演算処理不可能条件の判断を行
うことができる。
According to the present invention, the surrounding environment of the camera is detected by the sensor, and whether the surrounding environment detected by the sensor is a condition that the recognition processing means cannot recognize the image data from the camera. Is determined by the condition detecting means, and when the recognition processing is not possible, there is no need to perform arithmetic processing on the image data from the camera in order to detect and determine the condition that the notifying means cannot perform the recognition processing. Since the output of the sensor is used, the amount of calculation processing can be reduced, and the condition for not being able to perform calculation processing can be quickly determined.

【0015】また本発明は、条件検出手段は、センサの
出力によって検出された条件と、カメラからの画像デー
タを演算処理することによって検出された条件とが、一
致したとき、その条件を表す出力を報知手段に与えるこ
とを特徴とする。
Further, according to the present invention, when the condition detected by the sensor output and the condition detected by performing arithmetic processing on the image data from the camera coincide with each other, an output representing the condition is provided. Is provided to the notification means.

【0016】本発明に従えば、認識処理手段による画像
データの認識処理が不可能である条件を、センサの出力
だけでなく、カメラからの画像データを演算処理するこ
とによってもまた検出する。こうして得られた認識処理
不可能の条件が一致したとき、その認識処理不可能な条
件を、報知手段によって報知するようにしたので、認識
処理が不可能である条件の判断を高精度で達成すること
ができるようになる。
According to the present invention, the condition that the recognition processing means cannot recognize the image data is detected not only by the output of the sensor but also by calculating the image data from the camera. When the condition of non-recognition process obtained in this way matches, the condition of non-recognition process is notified by the notification means, so that the determination of the condition of non-recognition process is achieved with high accuracy. Will be able to do it.

【0017】[0017]

【発明の実施の形態】図1は、本発明の実施の一形態の
画像認識装置を備える運転支援、自動運転装置の全体の
構成を示すブロック図である。カメラ1からの画像デー
タは、マイクロコンピュータによって実現される処理回
路2に与えられ、これによって制御回路3は、自動車の
車体を走行駆動する内燃機関4を制御するとともに、制
動手段5を制御する。カメラ1によって、自車よりも走
行方向前方を走行している先行車両を検出し、その先行
車両と自車との間の距離を処理手段2によって測定し、
この距離が予め定める値に保たれるように、制御回路3
は、内燃機関4と制動手段5とを制御し、こうして先行
車両が走行すると、自車も走行し、また先行車両が停止
すると自車も停止するように、自動運転が行われる。さ
らに処理手段2では、カメラ1によって撮像された画像
データを認識処理し、車両の前方の道路に描かれた走行
レーンを表す白線を検出する。この検出された白線が、
車両の左右に短い周期で変動したとき、運転者が居眠り
をしているものと判断して、たとえばブザーなどの音響
表示手段によって音響を発生し、居眠り運転を防止し、
運転支援を行う。
FIG. 1 is a block diagram showing the overall configuration of a driving support and automatic driving device provided with an image recognition device according to an embodiment of the present invention. The image data from the camera 1 is provided to a processing circuit 2 implemented by a microcomputer, whereby the control circuit 3 controls the internal combustion engine 4 that drives the vehicle body of the automobile and controls the braking means 5. The camera 1 detects a preceding vehicle traveling ahead of the own vehicle in the traveling direction, and measures the distance between the preceding vehicle and the own vehicle by the processing unit 2.
The control circuit 3 controls the distance so that the distance is maintained at a predetermined value.
Controls the internal combustion engine 4 and the braking means 5, so that when the preceding vehicle travels, the own vehicle also travels, and when the preceding vehicle stops, the automatic driving is performed so that the own vehicle stops. Further, the processing means 2 recognizes the image data captured by the camera 1 and detects a white line representing a driving lane drawn on a road ahead of the vehicle. This detected white line is
When the vehicle fluctuates to the left and right in a short cycle, it is determined that the driver is dozing, and for example, sound is generated by sound display means such as a buzzer, etc.
Provide driving assistance.

【0018】図2は、自動車の車体6の簡略化した側面
図である。運転者用座席7が設けられた車室8内には、
車体6の背後である走行方向後方を見るためのルームミ
ラーである反射鏡9が設けられ、この反射鏡9の走行方
向前方(図2の左方)にはカメラ1が設けられる。さら
にカメラ1の前方には、フロントガラス10が配置され
る。フロントガラス10の外表面は、ワイパ11によっ
て払拭することができる。
FIG. 2 is a simplified side view of the vehicle body 6 of the automobile. Inside the cabin 8 where the driver's seat 7 is provided,
A reflecting mirror 9 is provided as a rearview mirror for viewing behind the vehicle body 6 in the running direction, and the camera 1 is provided in front of the reflecting mirror 9 in the running direction (to the left in FIG. 2). Further, a windshield 10 is disposed in front of the camera 1. The outer surface of the windshield 10 can be wiped by the wiper 11.

【0019】図3は、処理手段2の動作を説明するため
のフローチャートである。ステップa1からステップa
2に移り、カメラ1によって撮像された車体6の走行方
向前方の景色の画像データが処理回路2に入力される。
ステップa3では、カメラ1からの画像データを演算処
理し、道路に描かれた白線である物体の認識処理が不可
能である条件を検出して判断する。ステップa4におい
て白線である物体の認識処理が可能であるとき、ステッ
プa5では、その物体の認識処理を行う。ステップa6
では、物体の認識処理が行われ、その物体が認識された
かどうかが判断される。道路上の白線が検出されていれ
ば、ステップa7では、その物体である白線が認識され
たことを表す信号が導出される。これとは逆に、白線で
ある物体が認識されなければ、車体6は、道路の走行レ
ーンを外れて走行しているおそれがあり、このとき白線
が認識されていないことを表す信号を、ステップa8に
おいて導出する。ステップa9では、白線が認識されて
いるとき、車体6は走行レーンを走行しているものと判
断することができ、このとき制御回路3によって、内燃
機関4および制動手段5を制御して自動運転動作を行う
とともに、居眠り防止のための運転支援動作を行う。白
線がステップa8において認識されないとき、制御回路
3による自動運転動作を停止する。
FIG. 3 is a flow chart for explaining the operation of the processing means 2. Step a1 to Step a
In step 2, image data of the scenery ahead of the vehicle body 6 in the traveling direction captured by the camera 1 is input to the processing circuit 2.
In step a3, image data from the camera 1 is subjected to arithmetic processing to detect and determine a condition under which recognition of an object that is a white line drawn on a road is not possible. When the recognition processing of the white line object is possible in step a4, the recognition processing of the object is performed in step a5. Step a6
In, an object recognition process is performed, and it is determined whether the object has been recognized. If a white line on the road is detected, in step a7, a signal indicating that the white line as the object is recognized is derived. Conversely, if an object that is a white line is not recognized, the vehicle body 6 may be running off the driving lane of the road, and at this time, a signal indicating that the white line has not been recognized is output by a step. Derived in a8. At step a9, when the white line is recognized, it can be determined that the vehicle body 6 is traveling on the traveling lane. At this time, the control circuit 3 controls the internal combustion engine 4 and the braking means 5 to automatically drive the vehicle. While performing the operation, the driving assist operation for preventing the falling asleep is performed. When the white line is not recognized in step a8, the automatic driving operation by the control circuit 3 is stopped.

【0020】ステップa4においてステップa5におけ
る物体の認識処理が不可能である条件を検出したとき、
ステップa9では、その認識処理が不可能である条件
を、報知手段12によって報知する。報知手段12は、
たとえば液晶または陰極線管などの2次元表示面に目視
表示をする手段であってもよく、または音声合成回路と
スピーカを備えた音響表示手段であってもよく、その他
の報知を行う構成を有していてもよい。認識処理が不可
能である条件というのは、たとえば表1に示される条件
が挙げられる。
When a condition that the object recognition process in step a5 is impossible is detected in step a4,
In step a9, a condition that the recognition processing is impossible is notified by the notifying unit 12. The notification means 12
For example, it may be a means for performing visual display on a two-dimensional display surface such as a liquid crystal or a cathode ray tube, or an acoustic display means having a voice synthesis circuit and a speaker. May be. The conditions under which the recognition process is not possible include, for example, the conditions shown in Table 1.

【0021】[0021]

【表1】 [Table 1]

【0022】図4は、図1に示される処理手段2の動作
の一部をさらに詳細に示すフローチャートである。図4
のステップb2は、図3のステップa3と同一であっ
て、認識処理が不可能であるかどうかの判断を行うステ
ップである。図3のステップa4の具体的な動作は、図
4のステップb3〜b10に示される。これらの各ステ
ップb3〜b10の動作は、表2に示される画像の現象
1〜8にそれぞれ対応する。
FIG. 4 is a flowchart showing a part of the operation of the processing means 2 shown in FIG. 1 in more detail. FIG.
Step b2 is the same as step a3 in FIG. 3, and is a step for determining whether or not recognition processing is impossible. The specific operation of step a4 in FIG. 3 is shown in steps b3 to b10 in FIG. The operations in steps b3 to b10 correspond to the phenomena 1 to 8 of the image shown in Table 2, respectively.

【0023】[0023]

【表2】 [Table 2]

【0024】図5は、カメラ1によって撮像され報知手
段12の2次元表示面に表示された画像16を示す正面
図である。この2次元表示面16の画面全体17には、
斜線を施して示す道路部分18と、車体6の前部である
自車ボデー部19とが含まれる。
FIG. 5 is a front view showing an image 16 captured by the camera 1 and displayed on the two-dimensional display surface of the notifying means 12. On the entire screen 17 of the two-dimensional display surface 16,
A road portion 18 indicated by hatching and an own vehicle body portion 19 which is a front portion of the vehicle body 6 are included.

【0025】図4のステップb2では、上述の表2に示
される判断動作が行われる。次のステップb3では、カ
メラ1によって撮像された画像が、逆光、雨上がりなど
の認識不可能条件によって、画像が明る過ぎるかが判断
される。この判断のために表2の判断動作1a〜1cが
実行される。
At step b2 in FIG. 4, the judgment operation shown in Table 2 is performed. In the next step b3, it is determined whether the image captured by the camera 1 is too bright based on unrecognizable conditions such as backlight or after rain. For this determination, the determination operations 1a to 1c in Table 2 are executed.

【0026】図6は、判断動作1aを説明するための図
である。図6(1)に示されるように画面全体の画像が
逆光によって明る過ぎると判断する際、図6(2)に示
される濃度ヒストグラムを求める。この濃度ヒストグラ
ムは、横軸が階調1(黒)〜256(白)であり、縦軸
は、その濃度を有する画素数である。画面の各画素毎
に、8ビットから成る画像データが得られる。図6
(2)の濃度ヒストグラムでは、輝度値すなわち濃度の
分布の傾向が、ほとんど白であることが判る。このよう
な濃度ヒストグラムにおいて、たとえば濃度201以上
の画素数が予め定める値以上であるとき、画像が明る過
ぎると判断することができる。
FIG. 6 is a diagram for explaining the judging operation 1a. When it is determined that the image of the entire screen is too bright due to backlight as shown in FIG. 6A, the density histogram shown in FIG. In this density histogram, the horizontal axis represents gradations 1 (black) to 256 (white), and the vertical axis represents the number of pixels having that density. Image data consisting of 8 bits is obtained for each pixel of the screen. FIG.
In the density histogram of (2), it can be seen that the tendency of the luminance value, that is, the density distribution, is almost white. In such a density histogram, for example, when the number of pixels having a density of 201 or more is a predetermined value or more, it can be determined that the image is too bright.

【0027】画面を構成する画素の輝度値すなわち濃度
の階調というのは、画像のデータをデジタル値に変換し
たときの明るさ、すなわち濃淡度を示し、モノクロ画像
の場合、1画素につき、8ビットの分解能0〜255の
値によって輝度値が表される。濃度ヒストグラムは、画
像の処理対象領域内の全画素を、各輝度値毎に分布状態
を求めたグラフである。
The luminance value of the pixels constituting the screen, that is, the gradation of the density, indicates the brightness when the image data is converted into a digital value, that is, the density, and in the case of a monochrome image, 8 pixels per pixel. The luminance value is represented by the value of the bit resolution 0 to 255. The density histogram is a graph in which the distribution state of all pixels in the processing target area of the image is obtained for each luminance value.

【0028】本発明の実施の他の形態では、画像が明る
過ぎることを判断する判断動作1bでは、画面の一部分
(たとえば図5に示される道路部分18)の濃度ヒスト
グラムを求め、その輝度値の分布の傾向がほとんど白で
あるとき、画像が明る過ぎるものと判断する。本発明の
実施のさらに他の形態では、判断動作1cにおいて、カ
メラ1の入力画像において、常に同じ状態の部分(たと
えば図5の自車ボデー部19)の平均濃度を演算して求
め、この濃度値が通常走行時の平均濃度と比べ、予め定
める差以上の差があるとき、画像が明る過ぎると判断す
る。
In another embodiment of the present invention, in the judging operation 1b for judging that the image is too bright, a density histogram of a part of the screen (for example, the road part 18 shown in FIG. 5) is obtained, and the luminance value of the histogram is calculated. When the distribution tendency is almost white, it is determined that the image is too bright. In still another embodiment of the present invention, in the determination operation 1c, the average density of a portion (for example, the own vehicle body portion 19 in FIG. 5) that is always in the same state in the input image of the camera 1 is calculated and obtained. If the value has a difference equal to or larger than a predetermined difference compared to the average density during normal running, it is determined that the image is too bright.

【0029】図4のステップb4では、カメラ1によっ
て撮像された画像が、認識不可能条件である夜間などに
よって、画像が暗過ぎるかが判断される。図7(1)
は、夜間、カメラ1によって撮像された画像が暗過ぎる
状態を示すための図である。図7(1)では、暗過ぎる
画像を示し、図7(2)は、その図7(1)の画像の濃
度ヒストグラムである。この画像が暗過ぎるための判断
動作2aは、画面全体の濃度ヒストグラムを、図7
(2)に示されるようにして求め、その輝度値の分布の
傾向がほとんど黒であるとき、画像が暗過ぎるものと判
断する。すなわち濃度ヒストグラムにおいて、たとえば
濃度51未満における画素数が予め定める値以上である
とき、画像が暗過ぎるものと判断する。
In step b4 of FIG. 4, it is determined whether or not the image captured by the camera 1 is too dark due to an unrecognizable condition such as at night. Fig. 7 (1)
Is a diagram for illustrating a state in which an image captured by the camera 1 is too dark at night. FIG. 7A shows an image that is too dark, and FIG. 7B shows a density histogram of the image shown in FIG. 7A. In the judgment operation 2a for determining that the image is too dark, the density histogram of the entire screen is displayed as shown in FIG.
It is obtained as shown in (2), and when the distribution of the luminance value is almost black, it is determined that the image is too dark. That is, in the density histogram, for example, when the number of pixels at a density lower than 51 is equal to or larger than a predetermined value, it is determined that the image is too dark.

【0030】本発明の実施の他の形態の判断動作2bで
は、画面の一部分(たとえば図5の道路部分18)の濃
度ヒストグラムを求め、その輝度値の分布の傾向がほと
んど黒であるとき、画像が暗過ぎるものと判断する。
In the judgment operation 2b according to another embodiment of the present invention, a density histogram of a part of the screen (for example, the road part 18 in FIG. 5) is obtained. Is determined to be too dark.

【0031】本発明の実施のさらに他の形態の判断動作
2cでは、カメラ1の入力画像における常に同じ状態の
部分(たとえば図5の自車ボデー部19)の平均濃度を
求め、この濃度値が通常走行時の平均濃度と比べ、暗過
ぎるとき、画像が暗過ぎるものと判断する。
In the determination operation 2c according to still another embodiment of the present invention, the average density of a portion (for example, the own vehicle body portion 19 in FIG. 5) of the input image of the camera 1 which is always in the same state is obtained. If it is too dark compared to the average density during normal running, it is determined that the image is too dark.

【0032】図4のステップb5では、画像が、薄暮、
霧などによって低コントラストであるかが判断される。
図8は、画像が低コントラストであるときの状態を示す
図である。図8(1)は低コントラストの画像を示し、
図8(2)はその画像の濃度ヒストグラムを示す。画像
が低コントラストであると判断する判断動作3aでは、
画面全体の濃度ヒストグラムを求め、その輝度値の分布
の傾向が、一部に集中しているとき、画面が低コントラ
ストであるものと判断する。このために濃度ヒストグラ
ムにおいて予め定める画素数以上を有する濃度の範囲が
予め定める濃度値未満であるとき、低コントラストであ
るものと判断する。
At step b5 in FIG. 4, the image is
It is determined whether the contrast is low based on fog or the like.
FIG. 8 is a diagram illustrating a state when an image has low contrast. FIG. 8A shows a low-contrast image.
FIG. 8B shows a density histogram of the image. In the determination operation 3a for determining that the image has low contrast,
A density histogram is obtained for the entire screen, and when the tendency of the distribution of luminance values is concentrated in a part, it is determined that the screen has low contrast. For this reason, when the range of the density having the number of pixels equal to or more than the predetermined number in the density histogram is less than the predetermined density value, it is determined that the contrast is low.

【0033】本発明の実施の他の形態では、画面が低コ
ントラストであると判断する判断動作3bにおいて、画
面の一部分(たとえば図5の道路部分18)の濃度ヒス
トグラムを求め、その輝度値の分布の傾向が一部に集中
するとき、低コントラストであるものと判断する。
In another embodiment of the present invention, in the judging operation 3b for judging that the screen has low contrast, a density histogram of a part of the screen (for example, the road portion 18 in FIG. 5) is obtained, and the distribution of the luminance value is obtained. When the tendency is partially concentrated, it is determined that the contrast is low.

【0034】ステップb6では、カメラ1によって撮像
された画像にスミアが発生していることを判断し、この
ようなスミアの発生は、逆光などの認識不可能条件にお
いて発生する。スミアというのは、次の図9(1)に示
されるように、カメラ1の外光の影響で画面に発生する
縦縞模様をいう。
In step b6, it is determined that smear has occurred in the image captured by the camera 1. Such smear occurs under non-recognizable conditions such as backlight. The smear refers to a vertical stripe pattern generated on the screen under the influence of external light of the camera 1 as shown in FIG.

【0035】図9は、カメラ1によって撮像された画像
にスミアが発生した状態を説明するための図である。図
9(1)の画像では、スミアである縦縞模様20が表示
されている。この画像の垂直方向への濃度投影は図9
(2)に示される。図9(2)において横軸は、画面の
水平方向の位置であり、縦軸は垂直方向の各画素の濃度
の合計値である濃度和を表す。スミアの発生を判断する
判断動作4aでは、画像全体の垂直方向への濃度投影を
求め、その投影値の一部が参照符21で示されるように
突出しているとき、スミアが発生しているものと判断す
る。
FIG. 9 is a diagram for explaining a state in which smear has occurred in an image picked up by the camera 1. In the image of FIG. 9A, a vertical stripe pattern 20 that is a smear is displayed. The density projection of this image in the vertical direction is shown in FIG.
It is shown in (2). In FIG. 9B, the horizontal axis represents the horizontal position of the screen, and the vertical axis represents the sum of the densities of the respective pixels in the vertical direction. In the judging operation 4a for judging the occurrence of smear, the density projection in the vertical direction of the entire image is obtained, and when a part of the projection value protrudes as indicated by a reference numeral 21, the smear is generated. Judge.

【0036】図10は、図4のステップb2においてス
ミアが発生している判断動作4aの具体的な動作を説明
するための図である。ステップc1からステップc2に
移り、図9(2)に示される画像全体の垂直方向への濃
度投影において、水平方向(図9(2)の横方向)に各
画素の位置毎に、まず、第1ピークp1が存在するかど
うか、すなわち両側の濃度和よりも高い濃度和を有する
位置であるかを判断する。次のステップc3では、その
第1ピークp1の両側±Lの範囲を設定する。この±L
は、たとえば自己の画素の位置の両側に±10画素分の
範囲である。ステップc4では、この範囲±Lにおける
第1ピークp1よりも高い、または低い第2ピークp2
を求める。ステップc5では、第1および第2ピークp
1,p2の差ΔP(=│p1−p2│)を演算して求め
る。ステップc6では、差Δpが、予め定める値Δp1
以上であるか(Δp≧Δp1)が判断される。差Δp
が、予め定める値Δp1以上であるとき、ステップc7
では、スミアが発生したものと判断する。
FIG. 10 is a diagram for explaining a specific operation of the judging operation 4a in which smear has occurred in step b2 of FIG. The process proceeds from step c1 to step c2. In the density projection in the vertical direction of the entire image shown in FIG. 9 (2), first, for each pixel position in the horizontal direction (horizontal direction in FIG. 9 (2)), It is determined whether or not one peak p1 exists, that is, whether or not the position has a higher density sum than the density sums on both sides. In the next step c3, a range of ± L on both sides of the first peak p1 is set. This ± L
Is, for example, a range of ± 10 pixels on both sides of the position of the own pixel. In step c4, the second peak p2 higher or lower than the first peak p1 in this range ± L
Ask for. In step c5, the first and second peaks p
The difference ΔP between 1 and p2 (= │p1−p2│) is calculated and obtained. In step c6, the difference Δp is set to a predetermined value Δp1.
It is determined whether this is the case (Δp ≧ Δp1). Difference Δp
Is greater than or equal to a predetermined value Δp1 and the step c7
Then, it is determined that smear has occurred.

【0037】本発明の実施の他の形態では、スミアの発
生を判断する判断動作4bにおいて、画面の一部分(た
とえば図5の道路部分18)の垂直方向への濃度投影を
求め、その投影値の一部が突出しているとき、スミアの
発生であると判断する。
In another embodiment of the present invention, in a judging operation 4b for judging occurrence of smear, a density projection in a vertical direction of a part of the screen (for example, the road portion 18 in FIG. 5) is obtained, and the projection value of the projection value is obtained. When a part is protruding, it is determined that smear has occurred.

【0038】図4のステップb7では、画面が、霧、カ
メラ異常、フロントガラス10の汚れなどの認識不可能
条件によってぼやけており、すなわちぼんやりしている
ことが判断される。
At step b7 in FIG. 4, it is determined that the screen is blurred due to unrecognizable conditions such as fog, camera abnormality, and dirt on the windshield 10, that is, blurred.

【0039】図11は画面がぼんやりしている状態を説
明するための図であり、図12は同一被写体の画面が順
光においてぼやけていない明瞭である状態を説明するた
めの図である。図11(1)に示されるぼやけた画面の
画面全体の垂直方向への濃度投影は図11(2)に示さ
れる。図12(1)の明瞭な画面の画面全体の垂直方向
への濃度投影は図12(2)に示される。図11(2)
は、画面の水平方向の各画素位置に対応するエッジ値の
垂直方向の和を示し、このことは図12(2)において
も同様である。画面がぼやけているかどうかの判断動作
においては、エッジ抽出の手法が実行される。このエッ
ジ値は、画像中で、輝度値が急激に変化する部分を取出
した値であり、エッジ抽出を行うことによって、画像中
の物体の輪郭線を抽出することができる。
FIG. 11 is a diagram for explaining a state in which the screen is blurred, and FIG. 12 is a diagram for explaining a state in which the screen of the same subject is not blurred in normal light. FIG. 11B shows the density projection in the vertical direction of the entire screen of the blurred screen shown in FIG. 11A. FIG. 12 (2) shows the density projection in the vertical direction of the entire screen of the clear screen of FIG. 12 (1). FIG. 11 (2)
Indicates the vertical sum of edge values corresponding to each pixel position in the horizontal direction of the screen, and the same applies to FIG. 12 (2). In the operation of determining whether or not the screen is blurred, an edge extraction technique is executed. The edge value is a value obtained by extracting a portion in the image where the luminance value changes abruptly. By performing edge extraction, it is possible to extract a contour of an object in the image.

【0040】図13は、エッジ値を抽出するための演算
係数を示す図である。座標(i,j)のエッジ値をΔf
(i,j)とし、濃度値をf(i,j)とすると、 Δf(i,j)=f(i−1,j−1)+2f(i−1,j) +f(i−1,j+1)−f(i+1,j−1) −2f(i+1,j)−f(i+1,j+1) …(1) 画面がぼやけているという判断動作5aでは、画面全体
の図11(2)および図12(2)に示されるエッジ画
像を求め、予め定める所定数以上のエッジ値が得られな
いとき、画面がぼやけているものと判断する。本発明の
実施の他の形態では、画面がぼやけていると判断する判
断動作5bにおいて、画面の一部分(たとえば図5の道
路部分18)のエッジ画像を求め、所定数以上のエッジ
値が得られないとき、画面がぼやけていると判断する。
本発明の実施のさらに他の形態では、画面がぼやけてい
ると判断する判断動作5cにおいて、常に輪郭線が得ら
れる部分(たとえば図5の自車ボディ部19と道路との
境目部分)のエッジ値を求め、所定数以上のエッジ値が
得られないとき、画面がぼやけているものと判断する。
FIG. 13 is a diagram showing operation coefficients for extracting an edge value. The edge value of the coordinates (i, j) is Δf
If (i, j) and the density value are f (i, j), Δf (i, j) = f (i−1, j−1) +2 f (i−1, j) + f (i−1, j) j + 1) -f (i + 1, j-1) -2f (i + 1, j) -f (i + 1, j + 1) (1) In the judgment operation 5a that the screen is blurred, FIG. 11 (2) and FIG. The edge image shown in 12 (2) is obtained, and when an edge value equal to or more than a predetermined number is not obtained, it is determined that the screen is blurred. In another embodiment of the present invention, in a determination operation 5b of determining that the screen is blurred, an edge image of a part of the screen (for example, the road portion 18 in FIG. 5) is obtained, and a predetermined number or more of edge values are obtained. If not, judge that the screen is blurred.
In still another embodiment of the present invention, in the determining operation 5c for determining that the screen is blurred, an edge of a portion where a contour is always obtained (for example, a boundary portion between the vehicle body portion 19 and the road in FIG. 5). The value is obtained, and when a predetermined number or more of edge values cannot be obtained, it is determined that the screen is blurred.

【0041】図14は、図4のステップb8において、
カメラ1による画像が、雨などがフロントガラス10の
外表面に付着するなどの認識不可能条件によって、にじ
んでいる状態を説明するための図である。図14(1)
では、にじんでいる画像が示され、図14(2)では、
図14(1)における画像の垂直方向へのエッジ投影を
示す。画像がにじんでいる際、判断動作6aでは、認識
した対象物体のエッジの長さおよび方向が不適切に歪ん
でいるとき、画像がにじんでいるものと判断する。エッ
ジの長さは、図14(2)において予め定めるエッジ和
が、予め定める値以上である長さL1が得られたとき、
画像がにじんでいるものと判断してもよい。
FIG. 14 shows that in step b8 of FIG.
FIG. 3 is a diagram for explaining a state in which an image from the camera 1 is blurred due to a non-recognizable condition such as rain adhering to the outer surface of the windshield 10. FIG. 14 (1)
Then, the blurred image is shown. In FIG. 14 (2),
FIG. 15 illustrates edge projection in the vertical direction of the image in FIG. When the image is blurred, the determining operation 6a determines that the image is blurred when the length and direction of the edge of the recognized target object are inappropriately distorted. The length of the edge is obtained when a length L1 in which the predetermined sum of edges in FIG. 14 (2) is equal to or larger than a predetermined value is obtained.
It may be determined that the image is blurred.

【0042】図4のステップb9では、車両が移動して
いるのにもかかわらず、カメラ1によって撮像される画
像が変化しない現象が生じたとき、カメラが故障などし
て異常であるなどの認識不可能条件を判断する判断動作
7aが行われる。この判断動作7aでは、車体6の車輪
速度を検出する検出手段からの出力が得られ、しかも順
次的な複数画面の画像が変化していないとき、画像が変
化なしと判断される。
In step b9 in FIG. 4, when a phenomenon occurs in which the image picked up by the camera 1 does not change even though the vehicle is moving, it is recognized that the camera is abnormal due to a breakdown or the like. A determination operation 7a for determining the impossible condition is performed. In this judging operation 7a, when an output from the detecting means for detecting the wheel speed of the vehicle body 6 is obtained, and when the images on the plurality of screens are not sequentially changed, it is determined that the images have not changed.

【0043】本発明の実施の他の形態では、表2におい
て、車両が移動しているのにもかかわらず画像が変化無
と判断する判断動作7bにおいて、画像全体の前回の入
力画像との差分を求め、所定数以上の差分値が得られな
いとき、画像が変化無と判断する。差分というのは、時
間的に隣り合う2枚の画像の対応する各画素の輝度値の
差を求めた値であり、画像に変化が無ければ、または少
なければ、差分値は零または小さい値になる。こうして
前入力画像と今回の現在の画像との対応する画素毎の輝
度値の差を求めて、レベル弁別することによって、画像
が変化無であるものと判断することができる。
In another embodiment of the present invention, in Table 2, in the judging operation 7b in which it is judged that the image has not changed even though the vehicle is moving, the difference between the entire image and the previous input image is determined. Is determined, and when a difference value equal to or more than a predetermined number is not obtained, it is determined that the image has not changed. The difference is a value obtained by calculating a difference between luminance values of corresponding pixels of two images temporally adjacent to each other. If there is no or little change in the image, the difference value becomes zero or a small value. Become. In this way, the difference between the luminance values of the corresponding pixels between the previous input image and the current image at this time is obtained, and the level is discriminated, whereby it can be determined that the image has not changed.

【0044】本発明の実施のさらに他の形態では表2に
おいて、車両が移動しているのにもかかわらず、画像が
変化無と判断する判断動作7cにおいて、画面の一部分
(たとえば図5の道路部分18)の前入力画像と現在の
入力画像との差分を上述のように求め、所定数以上の差
分値が得られないとき、画像が変化無と判断する。
In still another embodiment of the present invention, in Table 2, a part of the screen (for example, the road shown in FIG. 5) is used in the judgment operation 7c for judging that the image has not changed even though the vehicle is moving. The difference between the previous input image of the portion 18) and the current input image is obtained as described above, and if no difference value equal to or more than a predetermined number is obtained, it is determined that the image has not changed.

【0045】表2に示されるその他の画像の現象とし
て、カメラの故障などに起因した異常である認識不可能
条件を判断する判断動作8aでは、カメラ1から得られ
る画像信号中に含まれる水平または垂直の同期信号のレ
ベルが異常であり、判断動作8bでは、その画像信号中
の映像信号のレベルが異常であり、判断動作8cでは、
画像信号中の同期信号の間隔すなわち周期が異常である
とき、カメラ異常である認識不可能条件が発生したもの
と判断する。画像信号とは、映像信号と水平、垂直の同
期信号とを含む複合映像信号である。NTSC(Nation
al TelevisionStandard Comittee)方式の同期信号で
は、白レベルおよび同期信号の上部分と底との値が定め
られ、また垂直同期信号の間隔は16.7msecであ
り、水平同期信号の間隔は63.5μsecに定められ
ている。
As other image phenomena shown in Table 2, in the judging operation 8a for judging an unrecognizable condition which is an abnormality caused by a camera failure or the like, the horizontal or horizontal image included in the image signal obtained from the camera 1 is determined. The level of the vertical synchronization signal is abnormal, the level of the video signal in the image signal is abnormal in the determination operation 8b, and the level of the video signal is abnormal in the determination operation 8c.
When the interval, that is, the period of the synchronization signal in the image signal is abnormal, it is determined that an unrecognizable condition that the camera is abnormal has occurred. The image signal is a composite video signal including a video signal and horizontal and vertical synchronization signals. NTSC (Nation
al Television Standard Committee), the white level and the upper and lower values of the sync signal are determined. The interval between the vertical sync signals is 16.7 msec, and the interval between the horizontal sync signals is 63.5 μsec. Stipulated.

【0046】上述の表2の画像の現象1〜8が、図4の
ステップb3〜b10で検出されたとき、認識処理が不
可能である条件を、図3のステップa9において報知手
段12によって報知される。
When the phenomena 1 to 8 of the image shown in Table 2 are detected in steps b3 to b10 in FIG. 4, the condition that the recognition processing is impossible is notified by the notifying means 12 in step a9 in FIG. Is done.

【0047】図15は、本発明の実施の他の形態の全体
の構成を示すブロック図である。この実施の形態は、前
述の図1〜図14の実施の形態に類似し、対応する部分
には同一の参照符を付す。この実施の形態では、前述の
実施の形態における表2の画像の現象を判断して認識不
可能条件を報知した後、すぐに画像認識不可能と判断す
るのではなく、カメラ1への入力画像を補正し、または
カメラからの画像データを補正し、これによって画像認
識処理が可能である状態とする。図15においてフロン
トガラス10の外表面を払拭するワイパ11の駆動手段
が、処理回路2によって制御される。カメラ1からの画
像データのアナログ信号は、アナログ/デジタル変換器
23においてデジタル信号に変換され、処理回路本体2
4において前述と同様な演算処理動作が行われる。カメ
ラ1の受光量調節手段25は、処理手段2からの制御信
号に応答し、カメラ1の絞りおよび/またはシャッタ速
度を調整する。その他の構成と動作は、前述の実施の形
態と同様である。
FIG. 15 is a block diagram showing the overall configuration of another embodiment of the present invention. This embodiment is similar to the embodiment of FIGS. 1 to 14 described above, and corresponding parts are denoted by the same reference numerals. In this embodiment, after the phenomenon of the image in Table 2 in the above-described embodiment is determined and the unrecognizable condition is notified, it is not immediately determined that the image cannot be recognized. Or the image data from the camera is corrected so that image recognition processing can be performed. In FIG. 15, a driving circuit of the wiper 11 for wiping the outer surface of the windshield 10 is controlled by the processing circuit 2. An analog signal of image data from the camera 1 is converted into a digital signal in an analog / digital converter 23,
In 4, the same arithmetic processing operation as described above is performed. The light receiving amount adjusting means 25 of the camera 1 adjusts the aperture and / or shutter speed of the camera 1 in response to a control signal from the processing means 2. Other configurations and operations are the same as those of the above-described embodiment.

【0048】図16は、図15に示される実施の形態の
処理回路本体24の動作を説明するためのフローチャー
トである。図16のステップd2,d4〜d8は、前述
の実施の形態における図3のステップa2,a5〜a9
と同様である。ステップd1からステップd2に移り、
カメラ1の画像データがアナログ/デジタル(A/D)
変換器23を経て処理回路本体24に与えられる。ステ
ップd3では、認識不可判断を行い、認識不可の場合に
入力画像データを補正する。その補正後に、認識処理を
行い、画像認識可能状態とし、またこのような補正後に
おいても認識処理が不可能であるとき、その認識処理が
不可能な領域を、認識処理領域から除外してもよい。ス
テップd4では、得られた補正後の画像データを認識処
理し、たとえば道路の前記白線などの物体の認識処理を
行う。認識不可能条件が存在しないとき、ステップd2
で与えられたカメラ1からの画像データが、ステップd
4においてそのまま認識処理される。その他の動作は、
前述の実施の形態と同様である。
FIG. 16 is a flowchart for explaining the operation of the processing circuit main body 24 of the embodiment shown in FIG. Steps d2, d4 to d8 in FIG. 16 correspond to steps a2, a5 to a9 in FIG.
Is the same as Move from step d1 to step d2,
Image data of camera 1 is analog / digital (A / D)
The signal is supplied to the processing circuit main body 24 via the converter 23. In step d3, a determination is made that recognition is not possible, and if recognition is not possible, the input image data is corrected. After the correction, the recognition process is performed to make the image recognizable, and when the recognition process is not possible even after such correction, the region where the recognition process cannot be performed may be excluded from the recognition process region. Good. In step d4, the obtained corrected image data is subjected to recognition processing, for example, recognition processing of an object such as the white line on a road. If no unrecognizable condition exists, step d2
The image data from the camera 1 given in step
In step 4, the recognition processing is performed as it is. Other operations are
This is the same as the above-described embodiment.

【0049】図17は、図15および図16に示される
実施の形態において、図16のステップd3のさらに具
体的な動作を説明するためのフローチャートである。ス
テップe1〜e5では、表3に示される画像の現象およ
び画像の認識処理不可能条件1〜4,6を、表2の判断
動作によって実行する。これらの画像の現象と認識不可
能条件1〜4,6は、表2に示される画像の現象および
認識不可能条件の参照符と同様である。
FIG. 17 is a flowchart for explaining a more specific operation of step d3 in FIG. 16 in the embodiment shown in FIGS. In steps e1 to e5, the conditions of the image phenomena and the image non-recognition processing disabled conditions 1 to 4 and 6 shown in Table 3 are executed by the determination operation of Table 2. These image phenomena and unrecognizable conditions 1 to 4 and 6 are the same as the reference signs of the image phenomena and unrecognizable conditions shown in Table 2.

【0050】[0050]

【表3】 [Table 3]

【0051】図17のステップe1において画面が明る
過ぎると判断されたときおよびステップe2において画
面が暗過ぎると判断されたとき、ステップe6に移り、
フラグaが論理「1」であるかが判断される。初期状態
において、フラグaは論理「0」である。そこでステッ
プe6からステップe7に移り、フラグaが論理「1」
にされ、ステップe8では、カメラ1に備えられる絞り
および/またはシャッタ速度が調整され、画像認識が可
能な状態に調整される。その後再びステップe1,e2
に戻る。絞りおよび/またはシャッタ速度が調整された
にもかかわらず、画像が明る過ぎたり、または画像が暗
過ぎたりしたとき、再びe6に移り、フラグaが論理
「1」であるので、次のステップe9では、画像の全体
の認識処理領域から、認識不可能条件を有する領域を外
す。ステップe10では、フラグaを論理「0」に戻
す。こうして前述の図16におけるステップd4で、物
体の認識処理を行う。
When it is determined in step e1 in FIG. 17 that the screen is too bright, and when it is determined in step e2 that the screen is too dark, the process proceeds to step e6.
It is determined whether the flag a is logic “1”. In the initial state, the flag a is logic “0”. Then, the process proceeds from step e6 to step e7, where the flag a is set to logic “1”.
In step e8, the aperture and / or shutter speed provided in the camera 1 is adjusted, and the state is adjusted so that image recognition is possible. Thereafter, steps e1 and e2 are performed again.
Return to When the image is too bright or the image is too dark despite the aperture and / or shutter speed being adjusted, the process again goes to e6, and since the flag a is logic “1”, the next step e9 Then, the region having the unrecognizable condition is excluded from the entire recognition processing region of the image. At step e10, the flag a is returned to logic "0". Thus, the object recognition process is performed in step d4 in FIG.

【0052】図17のステップe3において、画像のコ
ントラストが低いと判断されたとき、ステップe11か
らステップe12に移り、フラグbが論理「1」とさ
れ、次のステップe13では、処理手段2に備えられて
いるアナログ/デジタル変換器23の感度を広げる。す
なわちアナログ/デジタル変換器23において、隣接す
るデジタル信号が表す入力アナログ信号のレベルの差を
大きくし、コントラストを高くするように調整される。
ステップe13の次に、再びステップe1〜e3に戻
り、ステップe11からステップe14に移る。画面が
依然として低コントラストであるとき、ステップe14
では、その認識不可能条件を有する領域を、画像全体の
認識処理領域から外し、次のステップe15では、フラ
グbを論理「0」に戻す。こうして図16のステップd
4において物体の認識処理を行う。
When it is determined in step e3 in FIG. 17 that the contrast of the image is low, the process proceeds from step e11 to step e12, where the flag b is set to logic "1". In the next step e13, the processing means 2 is provided. The sensitivity of the analog / digital converter 23 is increased. That is, in the analog / digital converter 23, adjustment is performed so that the level difference between the input analog signals represented by the adjacent digital signals is increased and the contrast is increased.
After step e13, the process returns to steps e1 to e3 again, and proceeds from step e11 to step e14. If the screen is still low contrast, step e14
Then, the area having the unrecognizable condition is excluded from the recognition processing area of the entire image, and in the next step e15, the flag b is returned to logic "0". Thus, step d in FIG.
In step 4, an object recognition process is performed.

【0053】画像のスミアが発生したことが、ステップ
e4において判断されたとき、前述のステップe6に移
る。ステップe4においてスミアの発生が検出されたと
き、カメラ1に制御信号を送信し、スミアが発生しない
ようにレンズの絞りおよび/またはシャッタ速度を調整
して変更する。この画像中にスミアが発生したとき、上
述の調整動作によっては除外することができないとき、
画像認識処理を行う際に、スミアが発生している領域
を、認識処理領域から外す。これによってスミアが発生
するときであっても、認識処理を行うことができる。
When it is determined in step e4 that image smearing has occurred, the operation proceeds to step e6. When the occurrence of smear is detected in step e4, a control signal is transmitted to the camera 1, and the aperture and / or shutter speed of the lens are adjusted and changed so that smear does not occur. When smear occurs in this image, when it cannot be excluded by the above adjustment operation,
When performing image recognition processing, an area where smear has occurred is excluded from the recognition processing area. As a result, the recognition process can be performed even when smear occurs.

【0054】ステップe5においてフロントガラス10
に雨滴が付着しているという認識不可能条件が判断され
たとき、ステップe16からステップe17に移り、フ
ラグcが論理「1」とされる。ステップe18では、ワ
イパ11が駆動され、フロントガラス10の外表面が払
拭されて清浄化される。再びステップe5に戻り、ワイ
パ11が駆動されたにもかかわらず、雨滴が付着してい
るという認識不可能条件が判断されると、ステップe1
6からステップe19に移り、その認識不可能条件が存
在する領域が、画像の全体の認識処理領域から外され
る。ステップe20では、フラグcが論理「0」に戻さ
れる。その後物体の認識処理が図16のステップd4に
おいて実行される。
In step e5, the windshield 10
When it is determined that an unrecognizable condition that raindrops have adhered to step e16, the process proceeds from step e16 to step e17, and the flag c is set to logic "1". In step e18, the wiper 11 is driven, and the outer surface of the windshield 10 is wiped and cleaned. Returning to step e5 again, if the unrecognizable condition that raindrops are attached is determined even though the wiper 11 is driven, step e1 is performed.
Then, the process proceeds from step 6 to step e19, in which the area where the unrecognizable condition exists is excluded from the entire recognition processing area of the image. At step e20, the flag c is returned to logic "0". Thereafter, an object recognition process is executed in step d4 of FIG.

【0055】図18は、本発明の実施のさらに他の形態
の全体の構成を示すブロック図である。この実施の形態
は前述の実施の形態に類似し、対応する部分には同一の
参照符を付す。この実施の形態では、カメラ1の画像デ
ータを用いた認識処理不可能条件である周囲環境を判断
するために、図18の参照符27〜34で示される各種
のセンサを用いる。各センサによる認識不可能条件は表
4に示されるとおりである。
FIG. 18 is a block diagram showing an overall configuration of still another embodiment of the present invention. This embodiment is similar to the above-described embodiment, and corresponding parts are denoted by the same reference numerals. In this embodiment, various sensors indicated by reference numerals 27 to 34 in FIG. 18 are used to determine the surrounding environment which is a condition in which recognition processing using the image data of the camera 1 is impossible. Table 4 shows the conditions that cannot be recognized by each sensor.

【0056】[0056]

【表4】 [Table 4]

【0057】図19は、図18に示される処理回路2の
動作を説明するためのフローチャートである。この図1
9のステップf1においてワイパの動作を検出するセン
サ27がワイパの動作が行われない状態であることを検
出し、または車体6に設けられた雨滴センサ28が降雨
状態を検出したとき、認識処理不可能条件を表す信号を
導出する。
FIG. 19 is a flowchart for explaining the operation of processing circuit 2 shown in FIG. This figure 1
In step f1 of step 9, when the sensor 27 for detecting the operation of the wiper detects that the operation of the wiper is not performed, or when the raindrop sensor 28 provided on the vehicle body 6 detects the rainfall state, the recognition process is not performed. A signal representing a possible condition is derived.

【0058】ステップf2において路面の摩擦係数μを
μセンサ29によって検出し、その道路の摩擦係数μ
が、小さく、雨が降っている状態、雨上がりの状態また
は雪の状態である認識不可能条件を検出したとき、認識
不可能条件を表す信号を導出する。これによって報知手
段12は、たとえば「道路状態不良のため、道路の白線
が検出不可」と表示して報知する。
In step f2, the friction coefficient μ of the road surface is detected by the μ sensor 29, and the friction coefficient μ of the road is detected.
However, when detecting an unrecognizable condition that is small, that is, a state of rain, a state of rain, or a state of snow, a signal representing the unrecognizable condition is derived. Accordingly, the notifying unit 12 displays and notifies, for example, that "the white line of the road cannot be detected due to poor road condition".

【0059】ステップf3では、音センサ30を用い、
車体6に衝突する雨滴の音を検出する。音センサ30に
よって雨滴の音が検出されるとき、認識不可能条件を表
す信号を導出する。ステップf4では、車体6に設けら
れた高度計、湿度計、温度計を含むセンサ31によって
検出される高度、湿度および温度から霧が発生している
こと、したがって認識処理が不可能である条件を表す信
号を導出する。
In step f3, the sound sensor 30 is used.
The sound of a raindrop colliding with the vehicle body 6 is detected. When the sound of the raindrop is detected by the sound sensor 30, a signal representing an unrecognizable condition is derived. In step f4, fog is generated from the altitude, humidity and temperature detected by the sensor 31 including the altimeter, hygrometer, and thermometer provided on the vehicle body 6, and represents a condition that the recognition process is not possible. Derive the signal.

【0060】ステップf8では、前述のステップf4に
おいて認識不可能条件である霧が発生していることが判
断されたとき、ステップf8ではさらに、カメラ1から
の画像データを演算処理し、前述の実施の形態と同様に
認識処理が不可能である条件を検出して判断する。この
ステップf8において得られた画像データの演算処理に
よる認識不可能条件が霧であることが判断され、したが
ってステップf4におけるセンサの出力によって検出さ
れた認識不可能条件である霧と一致したとき、その認識
不可能条件を、ステップf9で報知手段12によって報
知する。ステップf8における各検出された条件が一致
しないときには、認識処理を行うために、次のステップ
f5に移る。
In step f8, when it is determined in step f4 that fog, which is an unrecognizable condition, is generated, in step f8, image data from the camera 1 is further processed, and As in the case of the embodiment, the condition for which the recognition process is not possible is detected and determined. When it is determined that the unrecognizable condition due to the arithmetic processing of the image data obtained in step f8 is fog, and therefore matches the fog which is the unrecognizable condition detected by the output of the sensor in step f4, The not-recognizable condition is reported by the reporting means 12 in step f9. When each of the detected conditions does not match in step f8, the process proceeds to the next step f5 to perform the recognition process.

【0061】本発明の実施の他の形態では、ステップf
8は省略され、ステップf4において認識不可能条件で
ある霧が検出されたとき、認識処理を行わないようにし
て、ステップf9において報知を行うようにしてもよ
い。
In another embodiment of the present invention, step f
8 may be omitted, and when fog, which is an unrecognizable condition, is detected in step f4, the recognition process may not be performed, and notification may be performed in step f9.

【0062】ステップf5において照度計32によっ
て、照度値が検出され、これによって認識不可能条件で
ある逆光または真暗であることが検出されると、認識処
理を行わず、この認識不可能条件である逆光または真暗
であることが報知手段12によって報知される。照度計
の代わりに、指向性が高い日射センサが用いられ、日射
強度が検出されるようにしてもよい。この日射センサに
よって、逆光または真暗である認識不可能条件を検出す
ることができる。
In step f5, the illuminance meter 32 detects an illuminance value, and if it is detected that the condition is backlight or true darkness, which is an unrecognizable condition, the recognition process is not performed and the illuminance value is not recognized. The notification means 12 notifies that the light is backlight or true dark. Instead of the illuminometer, a solar sensor having high directivity may be used to detect the solar radiation intensity. With this solar radiation sensor, it is possible to detect a non-recognizable condition that is backlight or darkness.

【0063】ステップf6では、時計の時刻と方位のセ
ンサ33によって、太陽の方向を推測し、これによって
カメラ1が逆光であることを判断したとき、この認識不
可能条件を報知手段12によって報知し、認識処理を行
わない。
In step f6, the direction of the sun is estimated by the time and direction sensor 33 of the clock, and when it is determined that the camera 1 is in backlight, the unrecognizable condition is notified by the notification means 12. , Does not perform recognition processing.

【0064】ステップf7では、ナビゲーション装置
(略称ナビ)が備えている車両の現在位置を検出するG
PS(Gloval Positioning System)装置からの衛星受
信状態をセンサ34によって検出し、受信できないと
き、認識不可能条件であるトンネル内を走行中であるこ
とを報知手段12によって報知し、認識処理を行わな
い。このGPS装置は、図18において参照符34で示
されている。こうしてナビゲーションシステムでは、車
両を、予め入力した目的地に到達するための経路を2次
元表示面で表示し、しかも現在の自車位置をその2次元
表示面上に表示された地図に表示する。このようなナビ
ゲーション装置におけるGPS装置の出力を用いて、画
像認識不可能条件を判断するので、認識不可能条件の判
断のための構成を簡略化することができる。ナビゲーシ
ョン装置に代えて、その他の各種の装置の構成の一部
を、認識不可能条件の検出のために兼用するようにして
もよい。
In step f7, G for detecting the current position of the vehicle provided in the navigation device (abbreviated as "navigation").
The state of satellite reception from a PS (global positioning system) device is detected by the sensor 34, and when reception is not possible, the fact that the vehicle is traveling in a tunnel, which is an unrecognizable condition, is reported by the reporting means 12 and recognition processing is not performed. . This GPS device is indicated by reference numeral 34 in FIG. In this manner, the navigation system displays the route of the vehicle to reach the destination input in advance on the two-dimensional display surface, and displays the current position of the vehicle on the map displayed on the two-dimensional display surface. Since the image non-recognizable condition is determined using the output of the GPS device in such a navigation device, the configuration for determining the non-recognizable condition can be simplified. Instead of the navigation device, a part of the configuration of other various devices may be shared for detecting the unrecognizable condition.

【0065】本発明の画像認識装置は、自動車などの車
両に搭載されて実施されてもよいけれども、車両に搭載
されずに、実施されてもよい。
The image recognition apparatus according to the present invention may be mounted on a vehicle such as an automobile, or may be mounted on a vehicle without being mounted on a vehicle.

【0066】[0066]

【発明の効果】請求項1の本発明によれば、認識処理手
段によるカメラからの画像データの認識処理が不可能で
あるとき、その不可能である条件、すなわち原因を、条
件検出手段によって検出して判断し、報知手段によって
報知されるので、カメラへの入力画像が異常であったか
または不適切であったかどうかを操作者は判断すること
ができ、こうして画像認識装置の信頼性を確保すること
ができる。
According to the first aspect of the present invention, when recognition processing of image data from a camera by the recognition processing means is impossible, a condition that is not possible, that is, a cause is detected by the condition detection means. The notification is made by the notification means, so that the operator can determine whether the image input to the camera is abnormal or inappropriate, and thus the reliability of the image recognition device can be ensured. it can.

【0067】請求項2の本発明によれば、条件検出手段
によって、認識処理が不可能である条件が検出されて判
断されたとき、補正手段は、カメラへの入力画像を補正
し、またはカメラから得られる画像データを補正し、こ
れによって認識処理手段による対象物体の認識処理を可
能にし、したがって対応環境とされる利用領域を拡大
し、画像認識装置の性能を向上することができる。
According to the second aspect of the present invention, when the condition detecting means detects and determines that the condition that the recognition processing is not possible, the correcting means corrects the input image to the camera, or The image data obtained from the image processing apparatus can be corrected, thereby enabling the recognition processing unit to perform the recognition processing of the target object. Therefore, it is possible to enlarge the use area that is set as the corresponding environment and improve the performance of the image recognition apparatus.

【0068】請求項3の本発明によれば、認識処理手段
による物体の認識処理が不可能であるかどうかを、周囲
環境を検出するセンサからの出力に基づいて条件検出手
段が判断するようにしたので、カメラからの画像データ
の演算処理による認識不可能かどうかの判断を行う必要
がなく、演算処理を軽減することができ、条件検出手段
による認識処理が不可能である条件の検出判断を迅速に
行うことができる。
According to the third aspect of the present invention, the condition detecting means determines whether or not the recognition processing of the object by the recognition processing means is impossible based on the output from the sensor for detecting the surrounding environment. As a result, it is not necessary to judge whether or not recognition is possible by arithmetic processing of the image data from the camera, the arithmetic processing can be reduced, and the detection and determination of the condition in which the recognition processing by the condition detecting means is not possible can be performed. Can be done quickly.

【0069】請求項4の本発明によれば、センサの出力
によって検出された条件と、カメラからの画像データを
演算処理することによって検出された認識処理手段の認
識処理が不可能である条件とが、一致したとき、その一
致した条件を報知手段によって出力するので、認識不可
能の判断を高精度で行うことができ、画像認識装置の信
頼性をさらに向上することができる。
According to the fourth aspect of the present invention, the condition detected by the output of the sensor and the condition that the recognition processing means cannot perform the recognition processing detected by performing arithmetic processing on the image data from the camera. However, when a match is found, the matching condition is output by the notifying means, so that it is possible to determine with high accuracy that recognition is not possible, and the reliability of the image recognition device can be further improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の一形態の画像認識装置を備える
運転支援、自動運転装置の全体の構成を示すブロック図
である。
FIG. 1 is a block diagram illustrating an entire configuration of a driving support and automatic driving device including an image recognition device according to an embodiment of the present invention.

【図2】自動車の車体6の簡略化した側面図である。FIG. 2 is a simplified side view of a vehicle body 6 of an automobile.

【図3】処理手段2の動作を説明するためのフローチャ
ートである。
FIG. 3 is a flowchart for explaining the operation of the processing means 2;

【図4】は図1に示される処理手段2の動作の一部をさ
らに詳細に示すフローチャートである。
FIG. 4 is a flowchart showing a part of the operation of the processing means 2 shown in FIG. 1 in further detail.

【図5】カメラ1によって撮像され報知手段12の2次
元表示面に表示された画像16を示す正面図である。
FIG. 5 is a front view showing an image 16 captured by the camera 1 and displayed on a two-dimensional display surface of the notifying unit 12.

【図6】カメラ1によって撮像された画像が明るすぎる
状態を示す図である。
FIG. 6 is a diagram showing a state in which an image captured by the camera 1 is too bright.

【図7】夜間、カメラ1によって撮像された画像が暗過
ぎる状態を示すための図である。
FIG. 7 is a diagram illustrating a state in which an image captured by the camera 1 is too dark at night.

【図8】画像が低コントラストであるときの状態を示す
図である。
FIG. 8 is a diagram illustrating a state when an image has low contrast.

【図9】カメラ1によって撮像された画像にスミアが発
生した状態を説明するための図である。
FIG. 9 is a diagram for explaining a state in which smear has occurred in an image captured by the camera 1.

【図10】図4のステップb2においてスミアが発生し
ている判断動作4aの具体的な動作を説明するための図
である。
FIG. 10 is a diagram for explaining a specific operation of a determination operation 4a in which a smear has occurred in step b2 of FIG. 4;

【図11】画面がぼんやりしている状態を説明するため
の図である。
FIG. 11 is a diagram for explaining a state in which the screen is blurred.

【図12】同一被写体の画面が順光においてぼやけてい
ない明瞭である状態を説明するための図である。
FIG. 12 is a diagram for explaining a state where the screen of the same subject is clear and not blurred in normal light.

【図13】エッジ値を抽出するための演算係数を示す図
である。
FIG. 13 is a diagram showing operation coefficients for extracting an edge value.

【図14】にじんでいる画像を説明するための図であ
る。
FIG. 14 is a diagram for explaining a blurred image.

【図15】本発明の実施の他の形態の全体の構成を示す
ブロック図である。
FIG. 15 is a block diagram showing the overall configuration of another embodiment of the present invention.

【図16】図15に示される実施の形態の処理回路本体
24の動作を説明するためのフローチャートである。
FIG. 16 is a flowchart for explaining the operation of the processing circuit main body 24 of the embodiment shown in FIG.

【図17】図15および図16に示される実施の形態に
おいて、図16のステップd3のさらに具体的な動作を
説明するためのフローチャートである。
FIG. 17 is a flowchart for explaining a more specific operation of step d3 in FIG. 16 in the embodiment shown in FIGS. 15 and 16;

【図18】本発明の実施のさらに他の形態の全体の構成
を示すブロック図である。
FIG. 18 is a block diagram showing an overall configuration of still another embodiment of the present invention.

【図19】図18に示される処理回路2の動作を説明す
るためのフローチャートである。
FIG. 19 is a flowchart for explaining the operation of the processing circuit 2 shown in FIG. 18;

【図20】先行技術の動作を説明するためのフローチャ
ートである。
FIG. 20 is a flowchart for explaining the operation of the prior art.

【符号の説明】[Explanation of symbols]

1 カメラ 2 処理回路 3 制御回路 10 フロントガラス 11 ワイパ 12 報知手段 16 画像 23 アナログ/デジタル変換器 24 処理回路本体 25 受光量調節手段 32 照度計 33 方位センサ DESCRIPTION OF SYMBOLS 1 Camera 2 Processing circuit 3 Control circuit 10 Windshield 11 Wiper 12 Notification means 16 Image 23 Analog / Digital converter 24 Processing circuit main body 25 Light receiving amount adjusting means 32 Illuminance meter 33 Direction sensor

───────────────────────────────────────────────────── フロントページの続き (72)発明者 馬場崎 正博 兵庫県神戸市兵庫区御所通1丁目2番28号 富士通テン株式会社内 (72)発明者 太田 明宏 兵庫県神戸市兵庫区御所通1丁目2番28号 富士通テン株式会社内 (72)発明者 岡 謙治 兵庫県神戸市兵庫区御所通1丁目2番28号 富士通テン株式会社内 (72)発明者 國友 圭司 兵庫県神戸市兵庫区御所通1丁目2番28号 富士通テン株式会社内 Fターム(参考) 5H180 AA01 BB17 CC04 CC24 LL01 LL02 LL09 5L096 BA04 CA02 DA03 FA06 FA32 FA37 FA38 GA08  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Masahiro Babasaki 1-2-28, Goshodori, Hyogo-ku, Kobe City, Hyogo Prefecture Inside Fujitsu Ten Co., Ltd. (72) Inventor Akihiro Ota 1 Goshodori, Hyogo-ku, Kobe City, Hyogo Prefecture Fujitsu Ten Co., Ltd. (72) Inventor Kenji Oka 1-2-28 Goshodori, Hyogo-ku, Kobe City, Hyogo Prefecture Inside Fujitsu Ten Co., Ltd. (72) Inventor Keiji Kunitomo Hyogo-ku, Hyogo Prefecture Goshodori 1-2-28 Fujitsu Ten Limited F term (reference) 5H180 AA01 BB17 CC04 CC24 LL01 LL02 LL09 5L096 BA04 CA02 DA03 FA06 FA32 FA37 FA38 GA08

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 カメラと、 カメラからの画像データを演算処理し、認識処理が不可
能である条件を検出する条件検出手段と、 条件検出手段の出力に応答し、認識処理が不可能である
条件を報知する報知手段と、 条件検出手段の出力に応答し、認識処理が可能であると
き、カメラからの画像データの認識処理をする認識処理
手段とを含むことを特徴とする画像認識装置。
1. A camera, a condition detecting means for performing arithmetic processing on image data from the camera and detecting a condition in which recognition processing is impossible, and responding to an output of the condition detecting means to disable recognition processing. An image recognizing apparatus comprising: a notifying unit for notifying a condition; and a recognition processing unit for responding to an output of the condition detecting unit and performing a recognition process of image data from a camera when a recognition process is possible.
【請求項2】 カメラと、 カメラからの画像データを演算処理し、認識処理が不可
能である条件を検出する条件検出手段と、 条件検出手段の出力に応答し、カメラへの入力画像を補
正し、またはカメラからの画像データを補正する補正手
段と、 入力画像が補正手段によって補正されたカメラからの画
像データ、または補正手段によって補正された画像デー
タの認識処理をする認識処理手段とを含むことを特徴と
する画像認識装置。
2. A camera, a condition detecting means for performing arithmetic processing on image data from the camera and detecting a condition in which recognition processing is impossible, and responding to an output of the condition detecting means to correct an image input to the camera. Or correction means for correcting image data from the camera, and recognition processing means for recognizing image data from the camera in which the input image has been corrected by the correction means or image data corrected by the correction means. An image recognition device characterized by the above-mentioned.
【請求項3】 カメラと、 カメラの周囲環境を検出するセンサと、 カメラからの画像データの認識処理をする認識処理手段
と、 センサの出力に応答し、認識処理手段によって、カメラ
からの画像データの認識処理が不可能である条件を検出
する条件検出手段と、 条件検出手段の出力に応答し、認識処理が不可能である
条件を報知する報知手段とを含むことを特徴とする画像
認識装置。
3. A camera, a sensor for detecting a surrounding environment of the camera, recognition processing means for performing recognition processing of image data from the camera, and image data from the camera responsive to the output of the sensor. An image recognition apparatus comprising: condition detecting means for detecting a condition in which recognition processing cannot be performed; and notifying means for responding to an output of the condition detecting means and reporting a condition in which recognition processing cannot be performed. .
【請求項4】 条件検出手段は、センサの出力によって
検出された条件と、カメラからの画像データを演算処理
することによって検出された条件とが、一致したとき、
その条件を表す出力を報知手段に与えることを特徴とす
る請求項3記載の画像認識装置。
4. The condition detecting means, when the condition detected by the output of the sensor and the condition detected by performing arithmetic processing on the image data from the camera match,
4. The image recognition apparatus according to claim 3, wherein an output representing the condition is provided to a notification unit.
JP11012333A 1999-01-20 1999-01-20 Image recognizing device Pending JP2000207563A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11012333A JP2000207563A (en) 1999-01-20 1999-01-20 Image recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11012333A JP2000207563A (en) 1999-01-20 1999-01-20 Image recognizing device

Publications (2)

Publication Number Publication Date
JP2000207563A true JP2000207563A (en) 2000-07-28
JP2000207563A5 JP2000207563A5 (en) 2006-04-06

Family

ID=11802390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11012333A Pending JP2000207563A (en) 1999-01-20 1999-01-20 Image recognizing device

Country Status (1)

Country Link
JP (1) JP2000207563A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003174642A (en) * 2001-12-05 2003-06-20 Mitsubishi Electric Corp Smear detecting method and image processor employing the smear detecting method
JP2004023158A (en) * 2002-06-12 2004-01-22 Sharp Corp Picture imaging unit
JP2005515565A (en) * 2002-01-17 2005-05-26 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Visibility obstruction identification method and identification apparatus in image sensor system
JP2005143083A (en) * 2003-10-15 2005-06-02 Fujitsu Ten Ltd Image processing device, operation supporting device, and operation supporting system
JP2006119090A (en) * 2004-10-25 2006-05-11 Mitsubishi Electric Corp Navigation device
JP2007004689A (en) * 2005-06-27 2007-01-11 Fujitsu Ten Ltd Image processor and image processing method
JP2007318558A (en) * 2006-05-26 2007-12-06 Fujitsu Ten Ltd Image processor
JP2009241636A (en) * 2008-03-28 2009-10-22 Fuji Heavy Ind Ltd Driving support system
DE102009015142A1 (en) 2008-03-27 2009-12-17 Fuji Jukogyo K.K. Vehicle environment recognition device and control system for tracking a preceding vehicle
JP2012118929A (en) * 2010-12-03 2012-06-21 Fujitsu Ten Ltd Outside environment determination device and outside environment determination program
JP2012141691A (en) * 2010-12-28 2012-07-26 Fujitsu Ten Ltd Video processing device
JP2014192762A (en) * 2013-03-27 2014-10-06 Hitachi Kokusai Electric Inc Monitoring system
JP2015207212A (en) * 2014-04-22 2015-11-19 サクサ株式会社 Vehicle detection device and system, and program
KR20160047865A (en) * 2014-10-23 2016-05-03 현대모비스 주식회사 Apparatus and method for self-driving
JP2016161597A (en) * 2015-02-26 2016-09-05 株式会社ソシオネクスト Image processing device, integrated circuit, and camera
KR20170017203A (en) * 2015-08-05 2017-02-15 엘지전자 주식회사 Driver Assistance Apparatus and Vehicle Having The Same
US9594965B2 (en) 2014-08-20 2017-03-14 Denso Corporation Lane boundary lane recognition device and computer-readable storage medium storing program for recognizing lane boundary lines on roadway
CN107402017A (en) * 2016-05-06 2017-11-28 福特全球技术公司 Use the Route Generation of road track line mass
WO2018135413A1 (en) * 2017-01-23 2018-07-26 株式会社デンソー Driving support system and driving support method
JP2018169888A (en) * 2017-03-30 2018-11-01 株式会社デンソー Road parameter estimation system
KR20190087796A (en) * 2018-01-17 2019-07-25 현대모비스 주식회사 Method for controlling emergency braking of vehicle
CN110737266A (en) * 2019-09-17 2020-01-31 中国第一汽车股份有限公司 automatic driving control method, device, vehicle and storage medium
KR20200125189A (en) * 2019-04-26 2020-11-04 주식회사 만도 Vehicle control system, apparatus for classifing marker and method thereof

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003174642A (en) * 2001-12-05 2003-06-20 Mitsubishi Electric Corp Smear detecting method and image processor employing the smear detecting method
US7609857B2 (en) 2002-01-17 2009-10-27 Robert Bosch Gmbh Method and device for recognizing obstruction of view in image sensor systems
JP2005515565A (en) * 2002-01-17 2005-05-26 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Visibility obstruction identification method and identification apparatus in image sensor system
JP2004023158A (en) * 2002-06-12 2004-01-22 Sharp Corp Picture imaging unit
JP2005143083A (en) * 2003-10-15 2005-06-02 Fujitsu Ten Ltd Image processing device, operation supporting device, and operation supporting system
JP2006119090A (en) * 2004-10-25 2006-05-11 Mitsubishi Electric Corp Navigation device
JP2007004689A (en) * 2005-06-27 2007-01-11 Fujitsu Ten Ltd Image processor and image processing method
JP2007318558A (en) * 2006-05-26 2007-12-06 Fujitsu Ten Ltd Image processor
US8175334B2 (en) 2008-03-27 2012-05-08 Fuji Jukogyo Kabushiki Kaisha Vehicle environment recognition apparatus and preceding-vehicle follow-up control system
DE102009015142A1 (en) 2008-03-27 2009-12-17 Fuji Jukogyo K.K. Vehicle environment recognition device and control system for tracking a preceding vehicle
JP2009241636A (en) * 2008-03-28 2009-10-22 Fuji Heavy Ind Ltd Driving support system
JP2012118929A (en) * 2010-12-03 2012-06-21 Fujitsu Ten Ltd Outside environment determination device and outside environment determination program
JP2012141691A (en) * 2010-12-28 2012-07-26 Fujitsu Ten Ltd Video processing device
US8948925B2 (en) 2010-12-28 2015-02-03 Fujitsu Ten Limited Video processing device for determining video information status using analysis target specifying unit
JP2014192762A (en) * 2013-03-27 2014-10-06 Hitachi Kokusai Electric Inc Monitoring system
JP2015207212A (en) * 2014-04-22 2015-11-19 サクサ株式会社 Vehicle detection device and system, and program
US9594965B2 (en) 2014-08-20 2017-03-14 Denso Corporation Lane boundary lane recognition device and computer-readable storage medium storing program for recognizing lane boundary lines on roadway
KR102310280B1 (en) 2014-10-23 2021-10-07 현대모비스 주식회사 Apparatus and method for self-driving
KR20160047865A (en) * 2014-10-23 2016-05-03 현대모비스 주식회사 Apparatus and method for self-driving
JP2016161597A (en) * 2015-02-26 2016-09-05 株式会社ソシオネクスト Image processing device, integrated circuit, and camera
KR20170017203A (en) * 2015-08-05 2017-02-15 엘지전자 주식회사 Driver Assistance Apparatus and Vehicle Having The Same
US10127820B2 (en) 2015-08-05 2018-11-13 Lg Electronics Inc. Driver assistance apparatus and vehicle including the same
KR101714185B1 (en) * 2015-08-05 2017-03-22 엘지전자 주식회사 Driver Assistance Apparatus and Vehicle Having The Same
CN107402017A (en) * 2016-05-06 2017-11-28 福特全球技术公司 Use the Route Generation of road track line mass
CN110199518B (en) * 2017-01-23 2021-01-05 株式会社电装 Driving support system and driving support method
CN110199518A (en) * 2017-01-23 2019-09-03 株式会社电装 Driving assistance system, driving assistance method
WO2018135413A1 (en) * 2017-01-23 2018-07-26 株式会社デンソー Driving support system and driving support method
JP2018169888A (en) * 2017-03-30 2018-11-01 株式会社デンソー Road parameter estimation system
KR20190087796A (en) * 2018-01-17 2019-07-25 현대모비스 주식회사 Method for controlling emergency braking of vehicle
KR102037037B1 (en) * 2018-01-17 2019-10-28 현대모비스 주식회사 Method for controlling emergency braking of vehicle
US11124164B2 (en) 2018-01-17 2021-09-21 Hyundai Mobis Co., Ltd. Emergency braking control method for vehicle
US11760321B2 (en) 2018-01-17 2023-09-19 Hyundai Mobis Co., Ltd. Emergency braking control method for vehicle
KR20200125189A (en) * 2019-04-26 2020-11-04 주식회사 만도 Vehicle control system, apparatus for classifing marker and method thereof
KR102638068B1 (en) * 2019-04-26 2024-02-21 주식회사 에이치엘클레무브 Vehicle control system, apparatus for classifing marker and method thereof
CN110737266A (en) * 2019-09-17 2020-01-31 中国第一汽车股份有限公司 automatic driving control method, device, vehicle and storage medium
CN110737266B (en) * 2019-09-17 2022-11-18 中国第一汽车股份有限公司 Automatic driving control method and device, vehicle and storage medium

Similar Documents

Publication Publication Date Title
JP2000207563A (en) Image recognizing device
US11308720B2 (en) Vehicular imaging system
JP5022609B2 (en) Imaging environment recognition device
EP2351351B1 (en) A method and a system for detecting the presence of an impediment on a lens of an image capture device to light passing through the lens of an image capture device
US10449899B2 (en) Vehicle vision system with road line sensing algorithm and lane departure warning
JP4248558B2 (en) Road marking line detection device
US8249303B2 (en) Restoration apparatus for weather-degraded image and driver assistance system
JP6364797B2 (en) Image analysis apparatus and image analysis method
US20050134479A1 (en) Vehicle display system
JP6811106B2 (en) Head-up display device and display control method
JP2018071994A (en) Attached matter detection apparatus and attached matter detection method
JP2014116756A (en) Periphery monitoring system
JP5680436B2 (en) Foreign matter adhesion determination device for in-vehicle camera lens
KR20160048826A (en) Display system for displaying images acquired by a camera system onto a rearview assembly of a vehicle
CN110378836B (en) Method, system and equipment for acquiring 3D information of object
JPH09202180A (en) On-board camera device
JP2008098858A (en) Vehicle periphery monitoring device
JP2005033680A (en) Image processing apparatus for vehicle
JP2001111989A (en) On-vehicle image pickup device
JPH0948282A (en) Indirect visual confirmation device for vehicle
JP2004200864A (en) Device and method of monitoring surrounding of vehicle
EP2542453B1 (en) Method and device of raindrop detection on a windscreen
JP2006078635A (en) Front road-display control unit and front road-display control program
JP7439792B2 (en) Illuminance estimation device
JP7472780B2 (en) Image Processing Device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090317