JP2005073296A - Exposure control apparatus for on-vehicle camera - Google Patents

Exposure control apparatus for on-vehicle camera Download PDF

Info

Publication number
JP2005073296A
JP2005073296A JP2004312441A JP2004312441A JP2005073296A JP 2005073296 A JP2005073296 A JP 2005073296A JP 2004312441 A JP2004312441 A JP 2004312441A JP 2004312441 A JP2004312441 A JP 2004312441A JP 2005073296 A JP2005073296 A JP 2005073296A
Authority
JP
Japan
Prior art keywords
luminance
exposure
area
iris
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004312441A
Other languages
Japanese (ja)
Inventor
Koichi Sato
公一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2004312441A priority Critical patent/JP2005073296A/en
Publication of JP2005073296A publication Critical patent/JP2005073296A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an exposure control apparatus for an on-vehicle camera that is capable of self-diagnosis of a fault therein. <P>SOLUTION: The exposure control apparatus comprises a decision means for deciding whether it is a predetermined driving state on the basis of a detection output from a driving state detecting means, an exposure change means for changing so as to increase or decrease an exposure of an image pickup means by adjusting an exposure adjusting means when the decision means decides that it is the predetermined driving state, and a fault deciding means for deciding a fault according to whether luminance of a picture in the image pickup means is increased or decreased in accordance with the increase or decrease of the exposure. In the predetermined driving state, the exposure adjusting means is adjusted to change the exposure of the image pickup means to increase or decrease, and the fault is decided according to whether the luminance of the picture in the image pickup means is increased or decreased in accordance with the increase or decrease of the exposure. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は車両に取り付けられるカメラの制御に関するものであって、特に前記カメラのアイリス制御あるいはシャッタースピード制御に関するものである。   The present invention relates to control of a camera attached to a vehicle, and more particularly to iris control or shutter speed control of the camera.

一般に、撮像素子への入射光量は、絞りにより制御される。図21は、例えば特許文献1に示された従来の撮像素子の絞り制御を説明するブロック図である。同図において、1はレンズ、2は撮像手段である撮像素子3への入射光量を調節するアイリスとしての絞り、4は撮像素子3の出力、すなわち絞り2を介して入射する光の光量に応じた輝度信号を増幅するプリアンプ、5はプリアンプ4の出力を絞り制御用に増幅するアンプ、6は撮像素子3上に結像された画面全体の平均輝度を求める平均回路、7はこの平均輝度と予め設定された目標平均輝度(VT)とを比較する比較器、8はドライブ回路、9はこのドライブ回路8にて駆動され、絞り2の開口面積を変化させる駆動コイルである。
今、例えば絞り2が絞り過ぎの状態、即ちレンズ1から入射する光量が少なすぎる状態にあり、撮像素子3より十分な輝度信号が得られない場合、平均回路6にて得られた平均輝度は、目標平均輝度(VT)より低い値をとるので、比較器7の比較出力に基づきドライブ回路8に指令が与えられ、ドライブ回路8からの駆動信号により駆動コイル9が駆動され、絞り2は開かれる。逆に、絞り2が開き過ぎの状態にある場合には、撮像素子3より過大な輝度信号が出力され、平均回路6にて得られた平均輝度は、該目標平均輝度(VT)より高い値をとるので、比較器7の比較出力に基づきドライブ回路8及び駆動コイル9を介して、絞り2は閉じられる。以上の様にして、絞り2は、撮像素子3の平均輝度が目標平均輝度(VT)と一致する様、負帰還制御される。
In general, the amount of light incident on the image sensor is controlled by a diaphragm. FIG. 21 is a block diagram for explaining the aperture control of the conventional image sensor shown in Patent Document 1, for example. In the same figure, 1 is a lens, 2 is an iris as an iris for adjusting the amount of light incident on the image pickup device 3 as an image pickup means, and 4 is an output of the image pickup device 3, that is, depending on the amount of light incident through the stop 2. 5 is an amplifier for amplifying the output of the preamplifier 4 for aperture control, 6 is an averaging circuit for calculating the average luminance of the entire image formed on the image sensor 3, and 7 is the average luminance. A comparator for comparing with a preset target average luminance (VT), 8 is a drive circuit, and 9 is a drive coil that is driven by the drive circuit 8 and changes the aperture area of the diaphragm 2.
Now, for example, when the aperture 2 is in an excessive aperture state, that is, in a state where the amount of light incident from the lens 1 is too small and a sufficient luminance signal cannot be obtained from the image sensor 3, the average luminance obtained by the averaging circuit 6 is Since the value is lower than the target average luminance (VT), a command is given to the drive circuit 8 based on the comparison output of the comparator 7, the drive coil 9 is driven by the drive signal from the drive circuit 8, and the diaphragm 2 is opened. It is. On the contrary, when the diaphragm 2 is in an excessively open state, an excessive luminance signal is output from the image sensor 3, and the average luminance obtained by the averaging circuit 6 is higher than the target average luminance (VT). Therefore, the diaphragm 2 is closed via the drive circuit 8 and the drive coil 9 based on the comparison output of the comparator 7. As described above, the diaphragm 2 is subjected to negative feedback control so that the average luminance of the image sensor 3 matches the target average luminance (VT).

特公平4−57152号公報Japanese Examined Patent Publication No. 4-57152

上述のように従来の装置では撮像素子全体の平均輝度が目標平均輝度に一致するよう負帰還制御を行っていた。
よって、カメラを車に載んで車外の様子を撮影しこれに基づき種々の制御を行おうとする場合、道路と空とが同時に画面に映るようにカメラを設置すると、昼間晴天時などのように空の輝度レベルが大きいときは画面全体の平均輝度も大きくなる。この場合、従来の装置では画面全体の平均輝度が一定値になるようにアイリス制御されるため、アイリスは絞られ、全体的に輝度レベルを小さくすることで平均輝度を一定値に抑えてしまう。これは、空以外の部分の絶対的な輝度レベルが変化していないにも拘わらず、アイリス制御によって空以外の部分の輝度レベルが変化してしまうということである。ここで、車両用カメラにより得ようとしているのは前方車両の情報、道路情報(白線など)等の情報であり、いわば空以外の部分の情報を必要としている。
従って、従来の装置を用いてアイリス制御を行おうとすると、空の輝度レベルに応じて、空以外(道路等)の輝度レベルが変化し、安定した輝度レベルの画像を得る事が難しいという問題点があった。
また、上記問題点はアイリス制御装置だけでなく、シャッタースピード制御装置でも同様な問題点を有していた。
As described above, in the conventional apparatus, the negative feedback control is performed so that the average luminance of the entire image sensor matches the target average luminance.
Therefore, when taking a picture of the outside of the car with the camera mounted on it and performing various controls based on it, installing the camera so that the road and the sky are displayed on the screen at the same time will cause the sky to appear as if it is clear in the daytime. When the brightness level of is high, the average brightness of the entire screen is also increased. In this case, since the iris is controlled so that the average luminance of the entire screen becomes a constant value in the conventional apparatus, the iris is narrowed down and the average luminance is suppressed to a constant value by reducing the luminance level as a whole. This means that although the absolute luminance level of the portion other than the sky has not changed, the luminance level of the portion other than the sky changes due to the iris control. Here, what is to be obtained by the vehicular camera is information such as information on the vehicle ahead, road information (white line, etc.), and so to speak, information other than the sky is required.
Therefore, when performing iris control using a conventional device, the brightness level of the sky other than the sky (such as a road) changes according to the brightness level of the sky, and it is difficult to obtain an image with a stable brightness level. was there.
Further, the above-mentioned problem has the same problem not only in the iris control device but also in the shutter speed control device.

また、従来のアイリス制御装置あるいはシャッタースピード制御装置(以下これらを露光制御装置と称する)は装置の故障検出機能を有していないため、装置の故障により絞りを調節できない、あるいはシャッタースピードを調節できないという状態であってもこれを知ることができなかった。
この発明は、上述のような課題を解決するため、装置の故障を自己診断することができる車載用カメラの露光制御装置を提供することを目的としている。
Further, since conventional iris control devices or shutter speed control devices (hereinafter referred to as exposure control devices) do not have a device failure detection function, the iris cannot be adjusted or the shutter speed cannot be adjusted due to device failure. Even in such a state, I could not know this.
In order to solve the above-described problems, an object of the present invention is to provide an in-vehicle camera exposure control device capable of self-diagnosis of a device failure.

この発明の車両用カメラの露光制御装置は、光を集光するレンズと、このレンズからの光の輝度に応じて信号を出力する撮像手段と、この撮像手段の露光量を調節する露光量調節手段と、前記撮像手段の画面の輝度を検出する輝度検出手段と、車両の運転状態を検出する運転状態検出手段と、この運転状態検出手段の検出出力に基づき所定の運転状態であるか否かを判定する判定手段と、この判定手段が前記所定の運転状態であると判定したとき前記露光量調節手段を調節して前記撮像手段の露光量を増量あるいは減量方向に変化させる露光量変更手段と、前記露光量の増量あるいは減量に応じて前記撮像手段の画面の輝度が増加あるいは減少したか否かにより故障を判定する故障判定手段とを備えたものである。   An exposure control apparatus for a vehicle camera according to the present invention includes a lens that collects light, an imaging unit that outputs a signal according to the luminance of light from the lens, and an exposure amount adjustment that adjusts an exposure amount of the imaging unit. Brightness detection means for detecting the brightness of the screen of the imaging means, driving state detection means for detecting the driving state of the vehicle, and whether or not a predetermined driving state is based on the detection output of the driving state detection means And an exposure amount changing unit that adjusts the exposure amount adjusting unit to change the exposure amount of the imaging unit in the increasing or decreasing direction when it is determined that the determining unit is in the predetermined operating state. And failure determination means for determining a failure depending on whether or not the brightness of the screen of the imaging means has increased or decreased in accordance with the increase or decrease of the exposure amount.

この発明に係る車両用カメラの露光制御装置によれば、所定の運転状態であるとき露光量調節手段を調節して撮像手段の露光量を増量あるいは減量方向に変化させ、露光量の増量あるいは減量に応じて撮像手段の画面の輝度が増加あるいは減少したか否かにより故障を判定したので、制御を中断することなく自己診断することができる。   According to the vehicle camera exposure control apparatus of the present invention, the exposure amount adjustment means is adjusted in a predetermined driving state to change the exposure amount of the imaging means in the increase or decrease direction, thereby increasing or decreasing the exposure amount. Accordingly, since the failure is determined based on whether the brightness of the screen of the imaging means has increased or decreased, self-diagnosis can be performed without interrupting the control.

実施の形態1.
実施の形態1では、アイリスを調節することにより露光を制御するものについて説明する。なお、図示していないが実施の形態1の露光制御装置は、撮像手段に入射する光の露光時間を調節するシャッターを有しており、そのシャッタースピード(露光時間)は所定の値に固定されている。
図1は前方の様子を撮るカメラを車に取り付けた時の一例である。10は車、11は車載用のカメラ、θ°はカメラ11の取付角である。図2はカメラ11により撮影された画面を示している。図において12はカメラ11で撮った画面、13は地平線、14は空、15は道路、16は所定領域としての選択された領域である。
Embodiment 1 FIG.
In the first embodiment, a description will be given of controlling exposure by adjusting an iris. Although not shown, the exposure control apparatus of the first embodiment has a shutter that adjusts the exposure time of light incident on the imaging means, and the shutter speed (exposure time) is fixed to a predetermined value. ing.
FIG. 1 shows an example when a camera for taking a picture of the front is attached to a car. 10 is a car, 11 is an in-vehicle camera, and θ ° is an attachment angle of the camera 11. FIG. 2 shows a screen shot by the camera 11. In the figure, 12 is a screen taken by the camera 11, 13 is a horizon, 14 is sky, 15 is a road, and 16 is a selected area as a predetermined area.

ここで、空14の領域と空14以外の部分の領域の分割の手順について説明する。
この分割は、画面上の水平方向の線である地平線13の位置を基準として行われるもので、この地平線13の位置は、カメラ11の取付角、及び図3に示す画角(ビデオカメラが撮像することのできる上下方向、左右方向の最大角度:x°、y°)に基づき計算される。
例えば、図4のように垂直方向取付角θ°でカメラ11を取り付けたとする。このカメラの垂直方向の画角は図3に示したようにy°である。さて、このように取り付けられたカメラ11の画面を図5に示す。この画面上において、水平方向にi軸、垂直方向にj軸を設け、中心が原点であるとすると、画面右上、右下、左上、左下の座標は順に(1,1),(1,−1),(−1,1),(−1,−1)となる。このとき地平線13の位置はj=2θ/yによって与えられ、その地平線13により分割される領域のうち下側を地面領域、上側を空領域とするのである。
従って、このうち地面領域の平均輝度(もしくは輝度のピーク−ピーク値)を検出し、この地面領域の輝度が予め定められた目標輝度に一致するようアイリスの絞り調節量あるいはシャッターのスピード(露光時間)を制御することにより空領域の明るさに関わらず安定した明るさで地面を撮る事ができる。
Here, a procedure for dividing the area of the sky 14 and the area other than the sky 14 will be described.
This division is performed on the basis of the position of the horizon 13 which is a horizontal line on the screen. The position of the horizon 13 is determined by the mounting angle of the camera 11 and the angle of view shown in FIG. The maximum angle in the vertical and horizontal directions that can be calculated: x °, y °).
For example, assume that the camera 11 is mounted at a vertical mounting angle θ ° as shown in FIG. The vertical field angle of this camera is y ° as shown in FIG. Now, the screen of the camera 11 attached in this way is shown in FIG. On this screen, if the horizontal axis is the i axis and the vertical direction is the j axis, and the center is the origin, the coordinates of the upper right, lower right, upper left, and lower left of the screen are (1, 1), (1,- 1), (-1, 1), (-1, -1). At this time, the position of the horizon 13 is given by j = 2θ / y, and among the areas divided by the horizon 13, the lower side is the ground area and the upper side is the empty area.
Accordingly, the average brightness (or the peak-peak value of the brightness) of the ground area is detected, and the iris aperture adjustment amount or the shutter speed (exposure time) is set so that the brightness of the ground area matches the predetermined target brightness. ) Can be taken with stable brightness regardless of the brightness of the sky region.

図6は実施の形態1の構成を示すブロック図である。図において、1はレンズ、2はアイリスである。3は撮像手段であるCCD(Charge Coupled Device)で、複数個の画素によ
り構成されているものであって、これら複数個の画素は走査線によって走査されることにより順次輝度信号を出力する。4はCCD3の出力、すなわち絞り2を介して入射する光の光量に応じた輝度信号を増幅するプリアンプ、5はプリアンプ4の出力を絞り制御用に増幅するアンプ、6は撮像素子3上に結像された画面全体の平均輝度を求める平均回路、7はこの平均輝度と予め設定された目標平均輝度(VT )とを比較する比較手段である比較器、8はドライブ回路、9はこのドライブ回路8にて駆動され、絞り2の開口面積を変化させる駆動コイルである。20は走査線が所定領域内、即ち地面領域内にあるときはHレベル、地面領域外にあるときはLレベルのパルス信号(ウィンドウパルス)を発生するウィンドウパルス発生手段であって、このウィンドウパルス発生手段20は画面を分割する分割手段、及び選択手段を包含している。21はアンプ5の出力信号とウィンドウパルス発生手段20の出力信号とを合成するパルス合成手段である。
FIG. 6 is a block diagram showing the configuration of the first embodiment. In the figure, 1 is a lens and 2 is an iris. Reference numeral 3 denotes a CCD (Charge Coupled Device), which is an image pickup means, which is composed of a plurality of pixels. The plurality of pixels are scanned by scanning lines to sequentially output luminance signals. Reference numeral 4 denotes a preamplifier that amplifies a luminance signal corresponding to the output of the CCD 3, that is, the amount of light incident through the aperture 2, 5 an amplifier that amplifies the output of the preamplifier 4 for aperture control, and 6 is connected to the image sensor 3. An average circuit for calculating the average luminance of the entire imaged screen, 7 is a comparator which is a comparison means for comparing this average luminance with a preset target average luminance (VT), 8 is a drive circuit, and 9 is this drive circuit. 8 is a drive coil that is driven at 8 and changes the aperture area of the diaphragm 2. Reference numeral 20 denotes window pulse generating means for generating a pulse signal (window pulse) of H level when the scanning line is in a predetermined area, that is, within the ground area, and L level when the scanning line is outside the ground area. The generating means 20 includes a dividing means for dividing the screen and a selecting means. A pulse synthesizing unit 21 synthesizes the output signal of the amplifier 5 and the output signal of the window pulse generating unit 20.

次に図7のタイムチャートを用いて実施の形態1の動作を説明する。図7において縦軸は電圧、横軸は時間を表している。
レンズ1、アイリス2を通った光は、CCD3に受光されてその光の強度に応じた電気信号に変換される。この電気信号は、プリアンプ4を通って増幅され後段の信号処理部に送られると共に、アンプ5により図7の(a)に示すような輝度信号に増幅されパルス合成手段21に与えられる。なお、この輝度信号は、電圧値が大きいほど輝度値が大きいことを示す。
一方、ウィンドウパルス発生手段20では、分割手段が上述の画面の分割手順により地平線13を基準として画面を上下方向に2分割すると共に、選択手段が2分割した画面のうち下側の地面領域を所定領域として選択する。また、ウィンドウパルス発生手段20には走査線の走査位置の情報が与えられており、ウィンドウパルス発生手段20は走査線の走査位置の情報と選択手段により選択された地面領域の情報とに基づき、現在走査している位置が地面領域内であればHレベル、地面領域外であればLレベルとなる図7(b)に示すウィンドウパルスを発生する。このウィンドウパルスは、パルス合成手段21に与えられる。
Next, the operation of the first embodiment will be described with reference to the time chart of FIG. In FIG. 7, the vertical axis represents voltage, and the horizontal axis represents time.
The light passing through the lens 1 and the iris 2 is received by the CCD 3 and converted into an electrical signal corresponding to the intensity of the light. The electric signal is amplified through the preamplifier 4 and sent to the signal processing unit at the subsequent stage, and is amplified to a luminance signal as shown in FIG. This luminance signal indicates that the luminance value is larger as the voltage value is larger.
On the other hand, in the window pulse generating means 20, the dividing means divides the screen into two in the vertical direction with reference to the horizon 13 by the above-described screen dividing procedure, and the lower ground area of the divided screen by the selecting means is predetermined. Select as region. Further, the window pulse generating means 20 is given information on the scanning position of the scanning line, and the window pulse generating means 20 is based on the information on the scanning position of the scanning line and the information on the ground area selected by the selecting means. A window pulse shown in FIG. 7B is generated, which is at the H level if the currently scanned position is within the ground area, and at the L level if it is outside the ground area. This window pulse is given to the pulse synthesizing means 21.

パルス合成手段21では、アンプ5からの輝度信号とウィンドウパルスとの合成が行われる。
パルス合成手段21においてウィンドウパルスは、いわゆるマスク信号として使用される。即ち、ウィンドウパルスがLレベルのときは空領域を走査しているときの情報であるのでアンプ5からの輝度信号が平均回路6に与えられるのを阻止し、ウィンドウパルスがLレベルのときの輝度信号のみを後段の平均回路6に供給する。
従って、平均回路6には図7の(c)に示すように走査線が地面領域を走査しているときの輝度信号のみが供給される。平均回路6ではこの輝度信号を平均化処理し、地面領域の平均輝度値を出力する。ここで、パルス合成手段21及び平均回路6は、所定領域の輝度を検出する輝度検出手段を構成している。
この地面領域の平均輝度値は、比較器7の2入力のうち一方の入力端子に入力される。また比較器7の他方の入力端子には予め定められた目標輝度としての適正な平均輝度値が目標平均輝度値(VT)として入力されている。比較器7では両者の輝度の大きさを比較し、その比較結果をドライブ回路8に出力する。ドライブ回路8では比較器7の比較結果に基づき、地面領域の平均輝度値が目標平均輝度値(VT)よりも大きければアイリス2の開口面積を所定量だけ小さくするような指令信号を出力すると共に、逆に地面領域の平均輝度値が目標平均輝度値(VT)よりも小さければアイリス2の開口面積を所定量だけ大きくするような指令信号を出力する。この指令信号は後段の駆動コイル9に与えられ、駆動コイル9は駆動指令に基づきアイリス2の開口面積を所定量だけ変化させる。
ここで、比較器7、ドライブ回路8、及び駆動コイル9は露光制御手段を構成している。
The pulse synthesizing unit 21 synthesizes the luminance signal from the amplifier 5 and the window pulse.
In the pulse synthesis means 21, the window pulse is used as a so-called mask signal. That is, when the window pulse is at the L level, it is information when scanning the sky region, so that the luminance signal from the amplifier 5 is prevented from being applied to the averaging circuit 6, and the luminance when the window pulse is at the L level. Only the signal is supplied to the averaging circuit 6 in the subsequent stage.
Therefore, only the luminance signal when the scanning line is scanning the ground area as shown in FIG. 7C is supplied to the averaging circuit 6. The averaging circuit 6 averages the luminance signal and outputs an average luminance value of the ground area. Here, the pulse synthesizing means 21 and the averaging circuit 6 constitute luminance detecting means for detecting the luminance of a predetermined area.
The average luminance value of the ground area is input to one input terminal of the two inputs of the comparator 7. Further, an appropriate average luminance value as a predetermined target luminance is input as a target average luminance value (VT) to the other input terminal of the comparator 7. The comparator 7 compares the brightness levels of the two and outputs the comparison result to the drive circuit 8. Based on the comparison result of the comparator 7, the drive circuit 8 outputs a command signal for reducing the opening area of the iris 2 by a predetermined amount if the average luminance value of the ground area is larger than the target average luminance value (VT). On the contrary, if the average luminance value of the ground area is smaller than the target average luminance value (VT), a command signal for increasing the opening area of the iris 2 by a predetermined amount is output. This command signal is given to the drive coil 9 at the subsequent stage, and the drive coil 9 changes the opening area of the iris 2 by a predetermined amount based on the drive command.
Here, the comparator 7, the drive circuit 8, and the drive coil 9 constitute an exposure control means.

なお、上述の実施の形態では比較器の比較結果に基づきアイリスの開口面積を所定量ずつ変化させる例について説明したが、地面領域の平均輝度値と目標平均輝度値(VT)との差に基づき、その差分を補償する量だけアイリスの開口面積を調節するようにしても良い。
即ち、比較器7の代わりに2入力の差分を演算する手段(減算器、差動増幅器など)を用意して両者の差分を演算するとともに、ドライブ回路8ではこの差分に応じた調節量を演算あるいはマップマッピングにより算出して、駆動コイル9に与えるようにすればよい。
この場合は、1度の処理で地面領域の平均輝度を目標平均輝度(VT)に補正することができるので、制御の応答性を向上させることができる。
In the above-described embodiment, the example in which the opening area of the iris is changed by a predetermined amount based on the comparison result of the comparator has been described. However, based on the difference between the average luminance value of the ground region and the target average luminance value (VT). The iris opening area may be adjusted by an amount that compensates for the difference.
That is, instead of the comparator 7, a means for calculating the difference between two inputs (subtractor, differential amplifier, etc.) is prepared to calculate the difference between the two, and the drive circuit 8 calculates an adjustment amount corresponding to the difference. Alternatively, it may be calculated by map mapping and given to the drive coil 9.
In this case, since the average luminance of the ground area can be corrected to the target average luminance (VT) by one process, the control responsiveness can be improved.

また、上述の実施の形態では平均輝度値によるアイリス制御について説明したが、平均回路6をピーク値検出回路に換えればピーク値によるアイリス制御になる。   In the above embodiment, the iris control based on the average luminance value has been described. However, if the average circuit 6 is replaced with a peak value detection circuit, the iris control based on the peak value is performed.

よって、実施の形態1によれば空領域の影響を受けることなく、安定した輝度の画像を得ることができる。   Therefore, according to the first embodiment, an image with stable luminance can be obtained without being affected by the sky region.

また、実施の形態1ではアイリス制御するものについて説明したが、アイリスの開口面積を固定として所定領域の輝度に基づきシャッタースピードを制御するようにしても良い。   In the first embodiment, the iris control has been described. However, the shutter speed may be controlled based on the luminance of a predetermined area with the iris opening area fixed.

実施の形態2.
図8は白線認識装置での車の前方を撮ったときの画面の一例である。14は空、15は走行路である道路、30は走行車線を区分する区分線である白線、31は認識された自車線領域である。
実施の形態2では、実施の形態1の認識法で地面部分を認識し、更に地面部分で白線認識を行う。この白線認識は、例えば従来の一般的な方法で、輪郭線を内側からサーチしてゆき最初に輪郭線を発見したところを白線とする方式等により為される。実施の形態2ではこのようにして認識された左右白線を境界線として地面領域を更に細かく分割し2本の白線の内側を自車線として自車線領域を求め、この自車線領域を所定領域として選択する。
自車線領域を所定領域として選択した後は実施の形態1と同様の制御を行い、自車線領域の輝度が目標輝度と一致するよう負帰還制御が行われる。
Embodiment 2. FIG.
FIG. 8 is an example of a screen when the front of the car is photographed by the white line recognition device. 14 is an empty road, 15 is a road that is a traveling road, 30 is a white line that is a dividing line that divides the traveling lane, and 31 is a recognized lane area.
In the second embodiment, the ground portion is recognized by the recognition method of the first embodiment, and the white line is further recognized by the ground portion. This white line recognition is performed by, for example, a conventional general method by searching for the outline from the inside and using the white line as the first place where the outline is found. In the second embodiment, the ground area is further subdivided using the left and right white lines recognized in this way as boundaries, and the own lane area is obtained with the inside of the two white lines as the own lane, and this own lane area is selected as the predetermined area. To do.
After the own lane region is selected as the predetermined region, the same control as that in the first embodiment is performed, and negative feedback control is performed so that the luminance of the own lane region matches the target luminance.

また、白線認識ができなかった場合は自車線のイニシャライズ領域、もしくは地面領域全体の平均輝度あるいは輝度のピーク−ピーク値を基準にする。
なお、イニシャライズ領域とは、電源投入直後に選択されている領域であって、一般的な直線道路上にいるときに認識すべき自車線領域である。
また、イニシャライズ領域は、カメラ11の取付位置により定まる固定された領域としても良い。
If the white line cannot be recognized, the average luminance of the own lane initialization area or the entire ground area or the peak-peak value of the luminance is used as a reference.
Note that the initialization area is an area selected immediately after the power is turned on, and is an own lane area to be recognized when on a general straight road.
Further, the initialization area may be a fixed area determined by the mounting position of the camera 11.

図9に実施の形態2の構成をブロック図で示す。図において前出と同一符号を付しているものは、前出と同一あるいは相当部分を示す。32はプリアンプ4からの信号を受けて処理を行う信号処理手段、33は信号処理手段32からの出力を受け白線認識を行う区分線検出手段としての白線認識処理手段で、白線認識処理手段33で得られた情報はウィンドウパルス発生手段20に与えられる。   FIG. 9 is a block diagram showing the configuration of the second embodiment. In the figure, the same reference numerals as those shown above indicate the same or corresponding parts as those described above. Reference numeral 32 denotes a signal processing means for receiving a signal from the preamplifier 4 and processing. Reference numeral 33 denotes a white line recognition processing means as a dividing line detection means for receiving an output from the signal processing means 32 and performing white line recognition. The obtained information is given to the window pulse generating means 20.

次に図10のフローチャートにより実施の形態2の動作を説明する。
ステップS101では信号処理手段32からの出力に基づき白線認識処理手段33にて白線認識を行う。ステップS102ではこの白線認識結果に基づき正しく白線検出できたか否かを判定する。正しく白線認識できた場合は、ステップS103に進み右白線と左白線との間を自車線とし、この自車線を所定領域として選択し処理を終了する。白線検出できなかった場合はステップS104に進み予め定められたイニシャライズ領域を所定領域として選択し処理を終了する。
この処理が終了した後は、前出の実施の形態1と同様の負帰還制御が行われる。
Next, the operation of the second embodiment will be described with reference to the flowchart of FIG.
In step S101, the white line recognition processing unit 33 performs white line recognition based on the output from the signal processing unit 32. In step S102, it is determined based on the white line recognition result whether a white line has been correctly detected. If the white line can be correctly recognized, the process proceeds to step S103, the area between the right white line and the left white line is set as the own lane, the own lane is selected as a predetermined area, and the process is terminated. If a white line cannot be detected, the process proceeds to step S104, where a predetermined initialization area is selected as a predetermined area, and the process ends.
After this processing is completed, negative feedback control similar to that in the first embodiment is performed.

よって、実施の形態2によれば、所定領域を地面領域から白線に区切られた車線領域に狭めているので特定車線以外の影響を受けなくなる。従って、より輝度が安定した画像を得ることができる。   Therefore, according to the second embodiment, since the predetermined area is narrowed to the lane area divided from the ground area into the white line, it is not affected by other than the specific lane. Therefore, an image with more stable luminance can be obtained.

なお、実施の形態2では所定領域を自車線内としたが、自車線内に限らず、白線認識した結果より求められる任意の領域、例えば他の車線等についても同様の手法を行う事ができる。   In the second embodiment, the predetermined area is in the own lane, but the same technique can be applied not only in the own lane but also in any area obtained from the result of white line recognition, such as other lanes. .

また、実施の形態2では白線認識が出来なかった場合はイニシャライズ領域を所定領域とするようにしたが、実施の形態1と同様に地面領域を選択するようにしてもよい。   In the second embodiment, when the white line cannot be recognized, the initialization area is set as the predetermined area. However, as in the first embodiment, the ground area may be selected.

また、実施の形態2では自車線領域の輝度に基づきアイリス制御するようにしたが、シャッタースピードを制御するようにしても良い。   In the second embodiment, the iris control is performed based on the luminance of the own lane area. However, the shutter speed may be controlled.

実施の形態3.
図11は前方車認識装置での車の前方を撮ったときの画面の一例である。14は空、15は道路、35は認識された前方車両、36は認識された車両の周辺領域である。ここで周辺領域36は所定領域に相当する。
実施の形態3では、まず画面内で車両認識を行う。これは例えば、一般の方式に用いられているように集中した輪郭線を車両と認識する等の方法による。次に認識された車両の周辺を所定領域として選択する。
以降は、所定領域の平均輝度あるいはピーク−ピーク値を検出して、目標輝度となるよう上述の実施の形態と同様に負帰還制御を行う。
Embodiment 3 FIG.
FIG. 11 is an example of a screen when the front of the vehicle is photographed by the forward vehicle recognition device. 14 is the sky, 15 is the road, 35 is the recognized forward vehicle, and 36 is the peripheral area of the recognized vehicle. Here, the peripheral area 36 corresponds to a predetermined area.
In Embodiment 3, vehicle recognition is first performed within the screen. This is due to, for example, a method of recognizing a concentrated contour line as a vehicle as used in a general method. Next, the periphery of the recognized vehicle is selected as a predetermined area.
Thereafter, the average luminance or peak-peak value of the predetermined area is detected, and negative feedback control is performed in the same manner as in the above-described embodiment so as to obtain the target luminance.

また、車両認識が出来なかった場合は実施の形態2の方式を採用すればよい。   If the vehicle cannot be recognized, the method of the second embodiment may be adopted.

従って、実施の形態3によれば認識した車両の周辺領域以外の影響を受けなくなるので、より輝度の安定した画像が得られる。
また、実施の形態3は前方車追尾などの制御に簡単に応用することができる。
Therefore, according to the third embodiment, since the influence other than the recognized peripheral area of the vehicle is not affected, an image with more stable luminance can be obtained.
Further, the third embodiment can be easily applied to control such as front vehicle tracking.

また、実施の形態3では認識した車両の周辺領域の輝度に基づきアイリス制御するようにしたが、アイリスの開口面積を固定にして、代わりにシャッタースピードを制御するようにしても良い。   In the third embodiment, the iris control is performed based on the recognized brightness of the surrounding area of the vehicle. However, the iris opening area may be fixed and the shutter speed may be controlled instead.

実施の形態4.
実施の形態4は、輝度により画面を複数の領域に分割し、それらの領域のうち不必要な領域(例えば空領域)をのぞいた領域を所定領域として選択するものである。
図12(a)はカメラ11で撮った画像の一例である。
まず画面全体の平均輝度を検出し、これに所定の値を加えたものを閾値thとして設定する。
Σp
th=────+δ

ここで、pは画素の輝度、nは画素数、δは領域を分割する閾値オフセット値を表す。まず画面を輝度により複数の領域に分割する。これにより(a)のような画面が得られる。次に閾値thを用いて(輝度>th、輝度<=th)複数の領域を分類すると(b)のような画面が得られる。
最後に、分割されたそれぞれの領域の上辺と画面の上辺とが接していないもの、あるいは、輝度が閾値を越えないものを選択すると(c)にハッチングで示す所定領域が得られる。
Embodiment 4 FIG.
In the fourth embodiment, the screen is divided into a plurality of areas based on luminance, and an area excluding unnecessary areas (for example, empty areas) is selected as a predetermined area.
FIG. 12A shows an example of an image taken by the camera 11.
First, the average luminance of the entire screen is detected, and a value obtained by adding a predetermined value to this is set as the threshold th.
Σp
th = ──── + δ
n
Here, p represents the luminance of the pixel, n represents the number of pixels, and δ represents a threshold offset value for dividing the region. First, the screen is divided into a plurality of areas according to luminance. As a result, a screen as shown in FIG. Next, when a plurality of areas are classified using the threshold th (luminance> th, luminance <= th), a screen as shown in (b) is obtained.
Finally, when a region where the upper side of each divided region is not in contact with the upper side of the screen or a region whose luminance does not exceed the threshold value is selected, a predetermined region indicated by hatching in (c) is obtained.

図13は以上のアルゴリズムのフローチャートである。
ステップS131では画素の輝度に基づき、画面を複数の領域に分割する。ステップS132では画面の輝度に基づいて閾値thを設定すると共に、各々の領域の輝度が閾値th未満であるか否かを判定する。そしてここで、輝度が閾値th未満の領域は所定領域として選択される。また、輝度が閾値th以上であってもその上辺が画面の上辺と接していない領域はステップS133にて所定領域として選択される。即ち、ステップS132及びS133は、複数の領域のうち輝度が所定以上であって、かつ領域の上辺が画面の上辺と接している領域を空領域であると判断して非選択とし、それ以外の領域を所定領域として選択している。
なお、ステップS132およびS133は選択手段を構成している。
また、ステップS132は閾値設定手段を構成している。
FIG. 13 is a flowchart of the above algorithm.
In step S131, the screen is divided into a plurality of regions based on the luminance of the pixels. In step S132, the threshold value th is set based on the luminance of the screen, and it is determined whether or not the luminance of each region is less than the threshold value th. Here, an area having a luminance less than the threshold th is selected as a predetermined area. In addition, even if the luminance is equal to or higher than the threshold th, an area whose upper side is not in contact with the upper side of the screen is selected as a predetermined area in step S133. That is, in steps S132 and S133, a region in which the luminance is greater than or equal to a predetermined value and the upper side of the region is in contact with the upper side of the screen is determined to be an empty region and is not selected. The area is selected as the predetermined area.
Steps S132 and S133 constitute selection means.
Step S132 constitutes threshold setting means.

なお、上述の実施の形態はステップS132のみで構成することもできる。
この場合、画面は輝度が閾値th未満か否かにより2つの領域に分割され、それらのうち輝度が閾値th未満の領域が所定領域として選択される。
It should be noted that the above-described embodiment can be configured by only step S132.
In this case, the screen is divided into two areas depending on whether or not the luminance is less than the threshold th, and an area having the luminance less than the threshold th is selected as the predetermined area.

よって、実施の形態4によれば、車両の登坂、降坂あるいはピッチングによりカメラの画面上で地平線の位置が変化したとしても確実に空領域を検出して空領域の輝度による悪影響をなくすることができる。   Therefore, according to the fourth embodiment, even if the position of the horizon changes on the camera screen due to uphill, downhill or pitching of the vehicle, the sky area is reliably detected and the adverse effect due to the brightness of the sky area is eliminated. Can do.

なお、実施の形態4では空領域以外の領域の輝度に基づきアイリス制御するようにしたが、アイリスの開口面積を固定として、代わりにシャッタースピードを制御するようにしても良い。   In the fourth embodiment, the iris control is performed based on the brightness of the area other than the sky area. However, the iris opening area may be fixed and the shutter speed may be controlled instead.

実施の形態5.
実施の形態5は、カメラ11が現在撮像している撮像領域と現在の太陽の位置とを求め、撮像領域に太陽があると判定されたときは太陽及びその周辺領域以外の領域を所定領域として選択するというものである。
まず、ナビゲーションシステムなどの手段により車両の方位、緯度及び経度を検出する。このナビゲーションシステムは、方位検出手段及び位置検出手段を構成している。撮像領域検出手段は、車両の方位、緯度、経度、カメラ11の取付角及び画角から現在カメラ11が撮像している撮像領域を求める。
一方、太陽の現在位置は次のようにして求められる。
時計等により構成されるカレンダー手段は、現在の年月日及び時刻の情報を出力する。任意の年月日及び時刻における太陽の位置を記憶した記憶手段は、カレンダー手段からの情報に基づき現在の時刻における太陽の位置を演算する。
判定手段は、撮像領域と太陽の位置とに基づき太陽が撮像領域内にあるか否かを判定する。ここで、太陽が撮像領域内にあると判定された場合は太陽及びその周辺の領域を除外した領域を所定領域として選択する。
Embodiment 5 FIG.
Embodiment 5 calculates | requires the imaging area which the camera 11 is imaging now, and the position of the present sun, and when it determines with the sun being in an imaging area, area | regions other than the sun and its peripheral area are made into predetermined areas. It is to choose.
First, the direction, latitude, and longitude of the vehicle are detected by means such as a navigation system. This navigation system constitutes an azimuth detecting means and a position detecting means. The imaging area detection means obtains an imaging area currently captured by the camera 11 from the azimuth, latitude, and longitude of the vehicle, the mounting angle and the angle of view of the camera 11.
On the other hand, the current position of the sun is obtained as follows.
Calendar means constituted by a clock or the like outputs information on the current date and time. The storage unit that stores the position of the sun at an arbitrary date and time calculates the position of the sun at the current time based on information from the calendar unit.
The determination means determines whether or not the sun is in the imaging area based on the imaging area and the position of the sun. Here, when it is determined that the sun is in the imaging area, an area excluding the sun and the surrounding area is selected as the predetermined area.

これにより過大な輝度を有する太陽による影響をなくすることができる。   Thereby, the influence by the sun which has excessive brightness | luminance can be eliminated.

なお、この実施の形態では太陽が撮像領域内にあるときはその周辺の領域を除外することにより悪影響を緩和するようにしたが、このような場合は制御を中止するようにしても良い。
即ち、この場合は、太陽が画面内にあるか否かの判定基準となる閾値を用意し、画面の平均輝度値あるいはピーク−ピーク値がこの閾値を超えたときには制御を中止する手段を備えればよい。
これによれば上述の実施の形態よりも構成を簡略化することができる。
In this embodiment, when the sun is in the imaging region, the adverse effect is mitigated by excluding the surrounding region. However, in such a case, the control may be stopped.
That is, in this case, a threshold value is provided as a criterion for determining whether or not the sun is in the screen, and means for stopping the control when the average luminance value or peak-peak value of the screen exceeds this threshold value is provided. That's fine.
According to this, a structure can be simplified rather than the above-mentioned embodiment.

また、実施の形態5では太陽とその周辺領域以外の領域の輝度に基づいてアイリス制御するようにしたが、アイリスの開口面積を固定として、代わりにシャッタースピードを制御するようにしてもよい。   In the fifth embodiment, the iris control is performed based on the brightness of the region other than the sun and the surrounding region. However, the iris opening area may be fixed and the shutter speed may be controlled instead.

実施の形態6.
実施の形態6は上述の実施の形態のように画面を分割して所定領域を選択するものではなく、他の方法により空の明るさの影響をなくそうとするものである。
図14は実施の形態6の構成を示す外観図である。10は車両、11は車載用カメラ、40は光量検出手段である光量計である。光量計40は空の明るさをとれるように、上向きに取り付けられている。
この光量計40の検出結果は、アイリスの調節量の補正に用いられる。
図15に実施の形態6の構成をブロック図で示す。図において、前出と同一符号を付してあるものは同一あるいは相当部分を示す。41はドライブ回路である。
即ち、光量計40の出力はドライブ回路41に与えられる。ドライブ回路41は、光量計40の検出出力に基づき空の明るさが明るいほどアイリス2の開口面積を小さく、空の明るさが暗くなるほどアイリス2の開口面積を大きくする補正手段を有しており、この補正手段の出力に基づき駆動指令を発生して駆動コイル9を駆動する。その結果アイリス2の開口面積は光量計40の検出出力、即ち空の明るさに応じて変化することになる。
Embodiment 6 FIG.
The sixth embodiment does not divide the screen and select a predetermined area as in the above-described embodiment, but tries to eliminate the influence of sky brightness by other methods.
FIG. 14 is an external view showing the configuration of the sixth embodiment. Reference numeral 10 denotes a vehicle, 11 denotes an in-vehicle camera, and 40 denotes a light meter that is a light amount detection means. The photometer 40 is mounted upward so that the brightness of the sky can be taken.
The detection result of the light meter 40 is used to correct the iris adjustment amount.
FIG. 15 is a block diagram showing the configuration of the sixth embodiment. In the figure, the same reference numerals as those shown above denote the same or corresponding parts. Reference numeral 41 denotes a drive circuit.
That is, the output of the light meter 40 is given to the drive circuit 41. The drive circuit 41 has correction means for reducing the opening area of the iris 2 as the brightness of the sky is brighter based on the detection output of the light meter 40 and increasing the opening area of the iris 2 as the sky brightness becomes darker. Based on the output of the correction means, a drive command is generated to drive the drive coil 9. As a result, the opening area of the iris 2 changes according to the detection output of the light meter 40, that is, the brightness of the sky.

図16に実施の形態6のフローチャートを示す。ステップS161では光量計40の値を読み取る。ステップS162ではこの光量計の値に応じてアイリス2の開口面積を変化させる。   FIG. 16 shows a flowchart of the sixth embodiment. In step S161, the value of the light meter 40 is read. In step S162, the opening area of the iris 2 is changed according to the value of the light meter.

これにより、例えば、道路の横断歩道等の道路に描かれた白い模様によって画面の平均輝度が増加し、アイリスが動作するといった、アイリスが不安定に動く事を防ぐ事が出来る。
なお、目標輝度は平均輝度ではなく、ピーク−ピーク値でも良い。
Thereby, for example, it is possible to prevent the iris from moving in an unstable manner such that the average brightness of the screen increases due to a white pattern drawn on a road such as a pedestrian crossing, and the iris operates.
The target luminance may be a peak-peak value instead of the average luminance.

また、実施の形態6では光量計の出力に基づいてアイリス制御するようにしたが、アイリスの開口面積を固定として、代わりにシャッタースピードを制御するようにしても良い。   In the sixth embodiment, the iris control is performed based on the output of the light meter. However, the iris opening area may be fixed, and the shutter speed may be controlled instead.

実施の形態7.
実施の形態7は、天候を検出することにより空の明るさを推定して、空の明るさによる影響をなくするものである。
即ち、一般道路を適性な輝度レベルで映そうとするとき、昼の場合は晴天の時も曇の時もあまりアイリスの状態は変わらない。しかしながら、昼間の晴天時、昼間の雨天時、夜間の3状況では明らかにアイリスの調節量が異なる。これは前記3状況では空の明るさが全く異なることに起因する。
そこで実施の形態7では天候を検出して前記3状況のうちいずれの状況であるかを判定し、それぞれに対応したアイリスの調節量を設定するようにしている。
Embodiment 7 FIG.
In the seventh embodiment, the brightness of the sky is estimated by detecting the weather, and the influence of the brightness of the sky is eliminated.
That is, when trying to project a general road at an appropriate luminance level, the iris state does not change much in the daytime when it is fine or cloudy. However, the amount of iris adjustment is clearly different in the three situations of daytime sunny weather, daytime rainy weather, and nighttime. This is because the brightness of the sky is completely different in the above three situations.
In the seventh embodiment, therefore, the weather is detected to determine which one of the three situations, and the iris adjustment amount corresponding to each of the three situations is set.

図17は実施の形態7の構成を示すブロック図である。図において前出と同一符号を付してあるものは同一あるいは相当部分を示す。42は調節手段であってワイパスイッチ及びヘッドライトスイッチのオン・オフ情報が与えられている。
図18のフローチャートを用いて実施の形態7の動作を説明する。
ステップS181ではヘッドライトスイッチの情報に基づきヘッドライトがオンか否かを判定する。ヘッドライトがオンであれば夜間であると推定されるのでステップS182に進み夜間モードを選択する。ステップS181でヘッドライトがオフであると判定された場合は昼間であると推定できるのでステップS183に進みワイパがオンであるか否かにより晴天であるか否かを判定する。ワイパがオンであればステップS184に進み昼間雨天モードを選択し、ワイパがオフであればステップS185に進み昼間晴天モードを選択する。
なお、前記3つのモードには、それぞれ適正とされる固定のアイリス調節量が用意されている。3つのモードのうち何れかが選択された後はステップS186に進み、それぞれ選択されたアイリスの調節量に対応する指令をドライブ回路8へ出力する。ドライブ回路8は、この指令に基づき駆動コイル9を駆動してアイリスを駆動する。
FIG. 17 is a block diagram showing the configuration of the seventh embodiment. In the figure, the same reference numerals as those shown above denote the same or corresponding parts. Reference numeral 42 denotes an adjusting means which is provided with on / off information of a wiper switch and a headlight switch.
The operation of the seventh embodiment will be described using the flowchart of FIG.
In step S181, it is determined whether the headlight is on based on the information of the headlight switch. If the headlight is on, it is estimated that it is nighttime, so the process proceeds to step S182 and the nighttime mode is selected. If it is determined in step S181 that the headlight is off, it can be estimated that it is daytime. Therefore, the process proceeds to step S183 to determine whether the weather is clear or not depending on whether the wiper is on. If the wiper is on, the process proceeds to step S184 to select the daytime rainy mode, and if the wiper is off, the process proceeds to step S185 to select the daytime clear sky mode.
Note that fixed iris adjustment amounts that are appropriate for the three modes are prepared. After one of the three modes is selected, the process proceeds to step S186, and a command corresponding to the selected iris adjustment amount is output to the drive circuit 8. Based on this command, the drive circuit 8 drives the drive coil 9 to drive the iris.

よって、実施の形態7によれば、ヘッドライトスイッチ、ワイパスイッチと連動させ、夜間、雨天時に対応してそれぞれアイリスを一定値に固定させるので、アイリスが明らかに違う昼間の晴天時、昼間の雨天時、夜間の3状況であっても適性な道路画像を得る事ができる。   Therefore, according to the seventh embodiment, the iris is linked to the headlight switch and the wiper switch, and the iris is fixed at a constant value in response to the night time and the rainy weather. Appropriate road images can be obtained even in three situations at night and at night.

なお、実施の形態7において、ヘッドライトスイッチ及びワイパスイッチは天候検出手段を構成している。   In the seventh embodiment, the headlight switch and the wiper switch constitute weather detection means.

また、上述の実施の形態では天候検出手段としてヘッドライトスイッチ及びワイパスイッチを採用したが、例えば画面の平均輝度を検出してこれにより昼か夜かを判定する、湿度計を備え湿度計の値により晴天か雨天かを判定するようにしても良く、検出手段としてどのようなものを使用するかは自由である。   In the above-described embodiment, the headlight switch and the wiper switch are used as the weather detection means. For example, the value of the hygrometer is provided with a hygrometer that detects the average luminance of the screen and thereby determines whether it is day or night. It may be determined whether the weather is fine or rainy, and what kind of detection means is used is free.

また、実施の形態7では3状況に応じてアイリス制御をするようにしたが、アイリスの開口面積を固定として、代わりに3状況に応じたシャッタースピードを用意しシャッタースピードの制御を行うようにしても良い。   In the seventh embodiment, the iris control is performed according to the three situations. However, the iris opening area is fixed, and instead the shutter speed according to the three situations is prepared and the shutter speed is controlled. Also good.

実施の形態8.
実施の形態8は故障検出が可能な露光制御装置を提供するものである。
即ち、この種の装置ではカメラで撮影した画面に基づき種々の制御(例えば、白線認識、前方車追尾、周辺監視システム等)が行われる。しかしながら、これらの制御は常に必要なわけではなく、例えば車両が停止しているときにこれらの制御を行ってもあまり意味がない。
そこで、実施の形態8では車両の運転状態を検出し、カメラで撮影した画面に基づき種々の制御を行う運転状態であるか否かを判定する。もし、その制御が不要である運転状態、即ち所定の運転状態であると判定された場合には、通常のアイリス制御を中止して故障診断動作を行う。
Embodiment 8 FIG.
The eighth embodiment provides an exposure control apparatus capable of detecting a failure.
That is, in this type of apparatus, various controls (for example, white line recognition, forward vehicle tracking, surrounding monitoring system, etc.) are performed based on the screen shot by the camera. However, these controls are not always necessary, and it does not make much sense to perform these controls when the vehicle is stopped, for example.
Therefore, in the eighth embodiment, the driving state of the vehicle is detected, and it is determined whether or not the vehicle is in a driving state in which various controls are performed based on the screen shot by the camera. If it is determined that the operation is not required, that is, a predetermined operation state, the normal iris control is stopped and a failure diagnosis operation is performed.

図19に実施の形態8の動作をフローチャートで示す。
まず、ステップS201乃至203では車両の運転状態が所定の運転状態であるか否かが判定される。ここでは、サイドブレーキがオン、ギヤの位置がニュートラルもしくはパーキング、あるいは車速が所定値以下の場合は所定の運転状態であると判定されてステップS204以降の処理に進む。一方、所定の運転状態ではないと判定された場合はそのまま処理を終了し、通常の制御を行う。なお、サイドブレーキあるいはギヤの状態を検出する検出手段あるいは車速センサは運転状態検出手段を構成していると共に、ステップS201乃至203は判定手段を構成している。
FIG. 19 is a flowchart showing the operation of the eighth embodiment.
First, in steps S201 to 203, it is determined whether or not the driving state of the vehicle is a predetermined driving state. Here, if the side brake is on, the gear position is neutral or parking, or the vehicle speed is equal to or less than a predetermined value, it is determined that the vehicle is in a predetermined driving state, and the process proceeds to step S204 and subsequent steps. On the other hand, if it is determined that it is not in the predetermined operation state, the process is terminated as it is, and normal control is performed. Note that the detection means or vehicle speed sensor for detecting the state of the side brake or gear constitutes a driving state detection means, and steps S201 to S203 constitute a determination means.

さて、所定の運転状態であると判定されるとステップS204に進み、このときの画面の平均輝度を第1の輝度V1として検出し記憶する。記憶終了後、ステップS205に進みアイリス2を全開にする指令を出力する。ステップS206ではアイリスが全開になったと推定される所定時間だけ待機しステップS207でアイリスを開いた後の平均輝度を第2の輝度V2として検出する。ステップS208では第1の輝度V1と第2の輝度V2とを比較し、第2の輝度V2が第1の輝度V1よりも大きければ、指令通りにアイリスの開口面積が大きくなったと判定してステップS209に進む。ステップS209では逆にアイリスを全閉にする指令を出力しステップS210でアイリスが全開から全閉になったと推定される所定時間だけ待機する。所定時間経過するとステップS211に進みアイリスを閉じた後の輝度を第3の輝度V3として検出する。ステップS212では第1の輝度V1と第3の輝度V3とを比較し、第1の輝度V1の方が大きければアイリスが指令通りに閉じたと判定し、ステップS213にて装置が正常であると判定する。このとき、正常であることを表示あるいは運転者に報知してもよい。   When it is determined that the vehicle is in the predetermined operating state, the process proceeds to step S204, and the average luminance of the screen at this time is detected and stored as the first luminance V1. After the storage is completed, the process proceeds to step S205, and a command to fully open the iris 2 is output. In step S206, the system waits for a predetermined time estimated that the iris is fully opened, and detects the average luminance after opening the iris in step S207 as the second luminance V2. In step S208, the first luminance V1 and the second luminance V2 are compared. If the second luminance V2 is greater than the first luminance V1, it is determined that the iris opening area has increased as instructed. The process proceeds to S209. In step S209, on the contrary, a command for fully closing the iris is output, and in step S210, the process waits for a predetermined time estimated that the iris is fully opened from the fully open state. When the predetermined time has elapsed, the process proceeds to step S211, and the brightness after the iris is closed is detected as the third brightness V3. In step S212, the first luminance V1 and the third luminance V3 are compared. If the first luminance V1 is larger, it is determined that the iris is closed as instructed. In step S213, it is determined that the apparatus is normal. To do. At this time, it may be displayed or notified to the driver that it is normal.

一方、ステップS208あるいはステップS212でNOと判定された場合は、ステップS214にて故障と判定され、続くステップS215で故障表示あるいは警告が為される。   On the other hand, if it is determined NO in step S208 or step S212, it is determined that there is a failure in step S214, and a failure display or warning is given in the subsequent step S215.

なお、実施の形態8においてステップS205、S209は露光量変更手段、ステップS204、S207、S211は輝度検出手段、ステップS208、S212は故障判定手段を構成している。   In the eighth embodiment, steps S205 and S209 constitute exposure amount changing means, steps S204, S207 and S211 constitute luminance detecting means, and steps S208 and S212 constitute failure determining means.

よって、実施の形態8によれば、アイリスの正常動作が確認できない場合は運転者にアイリス異常動作を知らせ、制御システムを停止する。これにより、アイリス異常時に制御システムが動いて、その後に行う画像処理に誤動作を招くような事を防ぐ事が出来る。   Therefore, according to the eighth embodiment, when the normal operation of the iris cannot be confirmed, the driver is notified of the iris abnormal operation, and the control system is stopped. As a result, it is possible to prevent the control system from moving when the iris is abnormal and causing a malfunction in the subsequent image processing.

また、この故障の自己診断動作は、通常のアイリス制御あるいはシャッタースピード制御を必要としない運転状態において行っているので、通常の制御を中断することなく自己診断することができる。   In addition, since the failure self-diagnosis operation is performed in an operating state that does not require normal iris control or shutter speed control, self-diagnosis can be performed without interrupting normal control.

なお、実施の形態8ではアイリスの異常を検出するようにしたがシャッタースピードの異常も同様にして検出することができる。
その場合は、アイリスの全開・全閉指令を、シャッター速度最大・最小指令に差し替えればよい。
Although the iris abnormality is detected in the eighth embodiment, the shutter speed abnormality can be similarly detected.
In that case, the iris fully open / close command may be replaced with the shutter speed maximum / minimum command.

実施の形態9.
上述の実施の形態1乃至8はアイリス制御について説明したが、実施の形態9では実施の形態1をシャッタースピード制御に適用した例について説明する。
この場合、アイリスの開口面積は固定であって、シャッタースピード(露光時間)を調節することにより撮像素子の露光量を制御する。
Embodiment 9 FIG.
In the first to eighth embodiments described above, the iris control has been described. In the ninth embodiment, an example in which the first embodiment is applied to the shutter speed control will be described.
In this case, the iris opening area is fixed, and the exposure amount of the image sensor is controlled by adjusting the shutter speed (exposure time).

図20に実施の形態9の構成をブロック図で示す。
この制御は、所定時間毎のサンプリング時に行われる。図において、前出と同位置符号を付しているものは同一あるいは相当部分を示す。50は比較器7の出力に基づきシャッター速度を調節するタイミングパルス発生手段である。なお、アイリス2の開口面積は固定にされている。
FIG. 20 is a block diagram showing the configuration of the ninth embodiment.
This control is performed at the time of sampling every predetermined time. In the figure, the same reference numerals as those described above indicate the same or corresponding parts. Reference numeral 50 denotes timing pulse generating means for adjusting the shutter speed based on the output of the comparator 7. The opening area of the iris 2 is fixed.

次に、動作について説明する。比較手段7で、演算により得られた平均輝度と目標平均輝度(VT)とを比較するまでは実施の形態1の動作と同様である。
タイミングパルス発生手段50は、サンプリングタイムと同じ周期のパルス信号を発生しており、このパルス信号は露光時間の間だけHレベルとなりその他の期間はLレベルとなっている。即ち、シャッターは、このパルス信号の立ち上がりに同期して開けられると共に、立ち下がりに同期して閉じられるようになっている。
さて、タイミングパルス発生手段50は、比較手段7の比較結果を受けてシャッタースピード(露光時間)を設定する。仮に目標平均輝度の方が大きければ画面が暗くなっているので、画面を明るくすべくシャッタースピードを所定量だけ遅くする。これは、パルス信号がHレベルになっている期間を所定時間だけ長くすることにより達成される。
Next, the operation will be described. The operation is the same as that of the first embodiment until the comparison means 7 compares the average luminance obtained by the calculation with the target average luminance (VT).
The timing pulse generating means 50 generates a pulse signal having the same cycle as the sampling time, and this pulse signal is at the H level only during the exposure time and is at the L level during the other periods. That is, the shutter is opened in synchronization with the rising edge of the pulse signal and closed in synchronization with the falling edge.
The timing pulse generator 50 receives the comparison result from the comparator 7 and sets the shutter speed (exposure time). If the target average brightness is larger, the screen is darker, so the shutter speed is decreased by a predetermined amount to brighten the screen. This is achieved by extending the period during which the pulse signal is at the H level by a predetermined time.

次回のサンプリング時において、まだ目標平均輝度の方が平均輝度よりも大きい場合は、タイミングパルス発生手段50は再度シャッタースピードを所定量だけ遅くする。
また、次回のサンプリング時において、目標平均輝度が平均輝度よりも小さい場合は、画面が明るくなりすぎているので、画面を暗くするべくシャッタースピードを所定量だけ早くする。これはパルス信号がHレベルになっている期間を所定時間だけ短くすることにより達成される。
In the next sampling, if the target average luminance is still larger than the average luminance, the timing pulse generator 50 again decreases the shutter speed by a predetermined amount.
In the next sampling, if the target average brightness is smaller than the average brightness, the screen is too bright, so the shutter speed is increased by a predetermined amount to darken the screen. This is achieved by shortening the period during which the pulse signal is at the H level by a predetermined time.

以上のように、アイリスによらずシャッタースピードを制御しても画面の明るさを制御することができる。   As described above, the brightness of the screen can be controlled by controlling the shutter speed regardless of the iris.

また、実施の形態9では目標平均輝度と平均輝度とを比較してその比較結果に基づきシャッタースピードを所定量づつ変更したが、目標平均輝度と平均輝度との差に基づきシャッタースピードを定めるようにしても良い。この場合は、比較手段を省略して平均輝度と目標平均輝度をシャッタースピード制御手段に直接入力することになり、回路を簡略化できる。なお、シャッタースピードの定め方は、実験データに基づくマップマッピングあるいは演算などにより行うことができる。   In the ninth embodiment, the target average brightness is compared with the average brightness, and the shutter speed is changed by a predetermined amount based on the comparison result. However, the shutter speed is determined based on the difference between the target average brightness and the average brightness. May be. In this case, the comparison means is omitted and the average brightness and the target average brightness are directly input to the shutter speed control means, and the circuit can be simplified. The shutter speed can be determined by map mapping or calculation based on experimental data.

また、実施の形態9では、実施の形態1をシャッタースピード制御に適用した場合について説明したが、実施の形態1に限らず全ての実施の形態をシャッタースピード制御に容易に適用することができる。   In the ninth embodiment, the case where the first embodiment is applied to the shutter speed control has been described. However, not only the first embodiment but also all the embodiments can be easily applied to the shutter speed control.

カメラを車両に取り付けた状態を示す外観図である。It is an external view which shows the state which attached the camera to the vehicle. カメラにより撮影される画面を示す図である。It is a figure which shows the screen image | photographed with a camera. カメラの画角を示す斜視図である。It is a perspective view which shows the angle of view of a camera. カメラの取付角を示す側面図である。It is a side view which shows the attachment angle of a camera. カメラにより撮影される画面に座標を付した場合を示す図である。It is a figure which shows the case where a coordinate is attached | subjected to the screen image | photographed with a camera. 実施の形態1の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a first embodiment. 実施の形態1の動作を示すタイムチャートである。3 is a time chart showing the operation of the first embodiment. 白線認識装置での車の前方を撮ったときの画面の一例である。It is an example of the screen when the front of the car is taken with the white line recognition device. 実施の形態2の構成を示すブロック図である。6 is a block diagram illustrating a configuration of a second embodiment. FIG. 実施の形態2の動作を示すフローチャートである。10 is a flowchart showing the operation of the second embodiment. 前方車認識装置での車の前方を撮ったときの画面の一例である。It is an example of the screen when the front of the vehicle is photographed by the forward vehicle recognition device. カメラで撮影した画面の一例である。It is an example of the screen image | photographed with the camera. 実施の形態4の動作を示すフローチャートである。10 is a flowchart showing the operation of the fourth embodiment. 実施の形態6の構成を示す外観図である。FIG. 16 is an external view showing a configuration of a sixth embodiment. 実施の形態6の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a sixth embodiment. 実施の形態6の動作を示すフローチャートである。18 is a flowchart showing the operation of the sixth embodiment. 実施の形態7の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a seventh embodiment. 実施の形態7の動作を示すフローチャートである。18 is a flowchart showing the operation of the seventh embodiment. 実施の形態8の動作を示すフローチャートである。20 is a flowchart showing the operation of the eighth embodiment. 実施の形態9の構成を示すブロック図である。FIG. 20 is a block diagram showing the configuration of the ninth embodiment. 従来装置を示すブロック図である。It is a block diagram which shows a conventional apparatus.

符号の説明Explanation of symbols

1:レンズ、2:アイリス、3:CCD、4:プリアンプ、5:アンプ、6:平均回路、7:比較器、8:ドライブ回路、9:駆動コイル、10:車両、11:カメラ、12:画面、13:地平線、14:空、15:道路、16:選択された領域、20:ウィンドウパルス発生手段、21:パルス合成手段、30:白線、31:自車線領域、32:信号処理手段、33:白線認識処理手段、35:前方車両、36:周辺領域、40:光量計、41:ドライブ回路、42:調節手段、50:タイミングパルス発生手段 1: lens, 2: iris, 3: CCD, 4: preamplifier, 5: amplifier, 6: average circuit, 7: comparator, 8: drive circuit, 9: drive coil, 10: vehicle, 11: camera, 12: Screen: 13: horizon, 14: sky, 15: road, 16: selected area, 20: window pulse generating means, 21: pulse synthesizing means, 30: white line, 31: own lane area, 32: signal processing means, 33: White line recognition processing means, 35: Front vehicle, 36: Peripheral area, 40: Light meter, 41: Drive circuit, 42: Adjustment means, 50: Timing pulse generation means

Claims (2)

光を集光するレンズと、
このレンズからの光の輝度に応じて信号を出力する撮像手段と、
この撮像手段の露光量を調節する露光量調節手段と、
前記撮像手段の画面の輝度を検出する輝度検出手段と、
車両の運転状態を検出する運転状態検出手段と、
この運転状態検出手段の検出出力に基づき所定の運転状態であるか否かを判定する判定手段と、
この判定手段が前記所定の運転状態であると判定したとき前記露光量調節手段を調節して前記撮像手段の露光量を増量あるいは減量方向に変化させる露光量変更手段と、
前記露光量の増量あるいは減量に応じて前記撮像手段の画面の輝度が増加あるいは減少したか否かにより故障を判定する故障判定手段とを
備えたことを特徴とする車両用カメラの露光制御装置。
A lens that collects the light;
Imaging means for outputting a signal according to the luminance of light from the lens;
Exposure amount adjusting means for adjusting the exposure amount of the imaging means;
Brightness detection means for detecting the brightness of the screen of the imaging means;
Driving state detection means for detecting the driving state of the vehicle;
Determination means for determining whether or not a predetermined operation state based on the detection output of the operation state detection means;
An exposure amount changing means for adjusting the exposure amount adjusting means to change the exposure amount of the imaging means in the increasing or decreasing direction when it is determined that the determining means is in the predetermined operating state;
An exposure control apparatus for a vehicular camera, comprising: failure determination means for determining failure based on whether or not the brightness of the screen of the imaging means has increased or decreased in accordance with an increase or decrease in the exposure amount.
前記露光量調節手段は、前記撮像手段に入射する光の強度を調節するアイリスと、前記撮像手段に入射する光の露光時間を調節するシャッターとを含むことを特徴とする請求項1記載の車両用カメラの露光制御装置。
2. The vehicle according to claim 1, wherein the exposure amount adjusting means includes an iris for adjusting an intensity of light incident on the imaging means, and a shutter for adjusting an exposure time of light incident on the imaging means. Camera exposure control device.
JP2004312441A 2004-10-27 2004-10-27 Exposure control apparatus for on-vehicle camera Pending JP2005073296A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004312441A JP2005073296A (en) 2004-10-27 2004-10-27 Exposure control apparatus for on-vehicle camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004312441A JP2005073296A (en) 2004-10-27 2004-10-27 Exposure control apparatus for on-vehicle camera

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP7043029A Division JPH08240833A (en) 1995-03-02 1995-03-02 Exposure controller of camera for vehicle

Publications (1)

Publication Number Publication Date
JP2005073296A true JP2005073296A (en) 2005-03-17

Family

ID=34420373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004312441A Pending JP2005073296A (en) 2004-10-27 2004-10-27 Exposure control apparatus for on-vehicle camera

Country Status (1)

Country Link
JP (1) JP2005073296A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143083A (en) * 2003-10-15 2005-06-02 Fujitsu Ten Ltd Image processing device, operation supporting device, and operation supporting system
JP2006303844A (en) * 2005-04-20 2006-11-02 Hitachi Ltd Camera apparatus and monitoring system
JP2007318558A (en) * 2006-05-26 2007-12-06 Fujitsu Ten Ltd Image processor
JP2009234344A (en) * 2008-03-26 2009-10-15 Fuji Heavy Ind Ltd Adjustment device for photographing means and object detection device
JP2009284470A (en) * 2008-04-25 2009-12-03 Hitachi Ltd In-vehicle camera apparatus
JP2010124316A (en) * 2008-11-20 2010-06-03 Honda Motor Co Ltd Vehicle surroundings monitor device
WO2011099049A1 (en) * 2010-02-09 2011-08-18 トヨタ自動車株式会社 Imaging system
WO2014017434A1 (en) * 2012-07-27 2014-01-30 クラリオン株式会社 Image processing device
WO2015104915A1 (en) 2014-01-10 2015-07-16 日立オートモティブシステムズ株式会社 In-vehicle-camera image processing device
US9241157B2 (en) 2012-03-30 2016-01-19 Denso Corporation Imaging apparatus
JP2017017635A (en) * 2015-07-06 2017-01-19 株式会社トランストロン Failure diagnosis apparatus
JP2017028349A (en) * 2015-07-15 2017-02-02 株式会社デンソー Video processing device, operation support display system and video processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0457152B2 (en) * 1983-07-07 1992-09-10 Canon Kk
JPH06289456A (en) * 1993-03-31 1994-10-18 Canon Inc Diaphragm controller
JPH08240833A (en) * 1995-03-02 1996-09-17 Mitsubishi Electric Corp Exposure controller of camera for vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0457152B2 (en) * 1983-07-07 1992-09-10 Canon Kk
JPH06289456A (en) * 1993-03-31 1994-10-18 Canon Inc Diaphragm controller
JPH08240833A (en) * 1995-03-02 1996-09-17 Mitsubishi Electric Corp Exposure controller of camera for vehicle

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143083A (en) * 2003-10-15 2005-06-02 Fujitsu Ten Ltd Image processing device, operation supporting device, and operation supporting system
JP2006303844A (en) * 2005-04-20 2006-11-02 Hitachi Ltd Camera apparatus and monitoring system
JP4529779B2 (en) * 2005-04-20 2010-08-25 株式会社日立製作所 Monitoring system
US7872099B2 (en) 2005-04-20 2011-01-18 Hitachi, Ltd. Camera device and monitor system
JP2007318558A (en) * 2006-05-26 2007-12-06 Fujitsu Ten Ltd Image processor
JP2009234344A (en) * 2008-03-26 2009-10-15 Fuji Heavy Ind Ltd Adjustment device for photographing means and object detection device
JP2009284470A (en) * 2008-04-25 2009-12-03 Hitachi Ltd In-vehicle camera apparatus
JP2010124316A (en) * 2008-11-20 2010-06-03 Honda Motor Co Ltd Vehicle surroundings monitor device
WO2011099049A1 (en) * 2010-02-09 2011-08-18 トヨタ自動車株式会社 Imaging system
US9241157B2 (en) 2012-03-30 2016-01-19 Denso Corporation Imaging apparatus
WO2014017434A1 (en) * 2012-07-27 2014-01-30 クラリオン株式会社 Image processing device
CN104508723A (en) * 2012-07-27 2015-04-08 歌乐株式会社 Image processing device
JPWO2014017434A1 (en) * 2012-07-27 2016-07-11 クラリオン株式会社 Image processing device
CN104508723B (en) * 2012-07-27 2016-10-12 歌乐株式会社 Image processing apparatus
US9721169B2 (en) 2012-07-27 2017-08-01 Clarion Co., Ltd. Image processing device for detecting vehicle in consideration of sun position
WO2015104915A1 (en) 2014-01-10 2015-07-16 日立オートモティブシステムズ株式会社 In-vehicle-camera image processing device
US10154255B2 (en) 2014-01-10 2018-12-11 Hitachi Automotive Systems, Ltd. In-vehicle-camera image processing device
JP2017017635A (en) * 2015-07-06 2017-01-19 株式会社トランストロン Failure diagnosis apparatus
JP2017028349A (en) * 2015-07-15 2017-02-02 株式会社デンソー Video processing device, operation support display system and video processing method

Similar Documents

Publication Publication Date Title
JPH08240833A (en) Exposure controller of camera for vehicle
JP4706466B2 (en) Imaging device
JP4248558B2 (en) Road marking line detection device
JP4389999B2 (en) Exposure control device and exposure control program
US20060215882A1 (en) Image processing apparatus and method, recording medium, and program
JP4433045B2 (en) Exposure control device and exposure control program
WO2006109398A1 (en) Image processing device and method, program, and recording medium
US6859618B1 (en) Exposure compensation method and system employing meter matrix and flash
JP2005073296A (en) Exposure control apparatus for on-vehicle camera
JP5759907B2 (en) In-vehicle imaging device
JP2008110715A (en) Vehicular automatic lighting system
JP2010239479A (en) Imaging part control device, imaging part control method, and imaging part control program
JP4400512B2 (en) In-vehicle camera control device
US10462378B2 (en) Imaging apparatus
JP2970168B2 (en) Vehicle detection device
EP3674139A1 (en) Electronic mirror system
JP2008230464A (en) Automatic exposure device for on-vehicle camera
JP2004336153A (en) Exposure control method and apparatus for camera type vehicle sensor
JP4314103B2 (en) Car camera
JP4304610B2 (en) Method and apparatus for adjusting screen brightness in camera-type vehicle detector
JP2007043533A (en) Display device
US11721005B2 (en) Automobile use video image recording device and automobile use graphical image recognition device
JP2005148309A (en) Exposure controller for white line detection camera
JP2005033709A (en) Vehicle perimeter monitoring apparatus
JPH11201740A (en) Image processing method and its device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080909