WO2014148161A1 - 故障検出装置 - Google Patents

故障検出装置 Download PDF

Info

Publication number
WO2014148161A1
WO2014148161A1 PCT/JP2014/053365 JP2014053365W WO2014148161A1 WO 2014148161 A1 WO2014148161 A1 WO 2014148161A1 JP 2014053365 W JP2014053365 W JP 2014053365W WO 2014148161 A1 WO2014148161 A1 WO 2014148161A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
failure
failure detection
control
exposure
Prior art date
Application number
PCT/JP2014/053365
Other languages
English (en)
French (fr)
Inventor
俊和 村尾
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2014148161A1 publication Critical patent/WO2014148161A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Definitions

  • the present invention relates to a failure detection device that detects a camera failure.
  • the camera aperture must be fully closed and fully opened for failure detection, and therefore the timing at which failure detection can be performed is an operating state in which travel control using the camera is not performed.
  • the conventional apparatus has a problem that it cannot detect a failure while the vehicle is running.
  • the present invention has been made in view of such problems, and provides a failure detection apparatus that quickly detects a failure of a camera mounted on a moving body such as a vehicle even while the moving body is moving. With the goal.
  • the failure detection apparatus is a device that detects a failure of the image pickup means, and the image pickup means is mounted on the moving body, and the signal value for each pixel detected by the image pickup device is obtained by the exposure control means. It is amplified with a set control gain, converted into a pixel value, and image data composed of the pixel value is output.
  • the image acquisition means acquires image data in the moving direction of the moving body for each preset cycle.
  • the first detection means sets the imaging screen represented by the image data acquired by the image acquisition means in the current cycle as the current imaging screen, sets the control gain set for the current imaging screen as the current control gain, and sets the current imaging A region that is included in the screen and that is determined in advance from the pixel value of the pixel included in the first reference region and the current control gain is defined as a first reference region in the moving direction of the moving object.
  • the brightness of the imaging target in one reference area is detected as the first brightness.
  • the second detection means sets, as a second reference area, an area that is included in the current imaging screen and that shows the same imaging target as the imaging target that was shown in the first reference area of the previous cycle,
  • the brightness of the imaging target in the second reference area estimated from the pixel values of the pixels included in the second reference area and the current control gain is detected as the second brightness.
  • the failure detection means detects a failure of the imaging means based on whether or not the difference between the first brightness in the previous cycle and the second brightness in the current cycle is within a predetermined range.
  • the control gain during exposure control that is, the value indicating the state of the camera aperture during exposure control, and the state of this aperture without having to bother to fully open and close the aperture as in the conventional device Since the failure is detected by using the pixel value that is the image detection result at, the camera failure can be detected promptly even when the moving body is moving.
  • FIG. 1 It is a block diagram which shows the structure centering on the failure detection apparatus which concerns on embodiment of this invention in the imaging system in a vehicle control system.
  • A is explanatory drawing which shows the exposure area
  • (b) is explanatory drawing which shows the 2nd reference area
  • the failure detection apparatus 10 of this embodiment is applied to the imaging system 2 of the vehicle control system 1 mounted on a vehicle as a moving body.
  • An imaging system 2 in the vehicle control system 1 outputs image data (pixel value) obtained by imaging an imaging target. That is, the imaging system 2 is an in-vehicle camera (hereinafter simply referred to as “camera”) mounted on the vehicle. 20 and the image data captured and output by the camera 20, the recognition target (white line in the present embodiment) is recognized and a recognition result is output, and the camera 20 is appropriately recognized so that the recognition target is appropriately recognized. And a failure detection device 10 that outputs a camera control value for performing exposure control.
  • the imaging system 2 is an in-vehicle camera (hereinafter simply referred to as “camera”) mounted on the vehicle. 20 and the image data captured and output by the camera 20, the recognition target (white line in the present embodiment) is recognized and a recognition result is output, and the camera 20 is appropriately recognized so that the recognition target is appropriately recognized.
  • a failure detection device 10 that outputs a camera control value for performing exposure control.
  • the vehicle control system 1 uses the recognition result output from the failure detection device 10 to drive the lane departure process for detecting the lane departure of the vehicle based on the recognized white line and the lane departure from the warning unit 51 to the driver.
  • a lane departure warning ECU 50 that performs warning processing for notifying the vehicle is provided.
  • the vehicle control system 1 includes a vehicle speed sensor 60 that detects the vehicle speed and a yaw rate sensor 70 that detects the yaw rate.
  • the vehicle speed and yaw rate detection results are output to the failure detection device 10.
  • the failure detection apparatus 10 and the camera 20 are referred to as an imaging system 2.
  • the camera 20 is installed at a predetermined position in the vehicle interior, for example, behind the rearview mirror, and images the front of the vehicle in the traveling direction (movement direction) including the road surface.
  • the direction and the like of the camera 20 are adjusted so that the imaging range is a predetermined imaging range with respect to the traveling direction of the vehicle.
  • the camera 20 is configured to input the camera control value transmitted from the failure detection apparatus 10 and output a pixel value corresponding to the amount of light from the imaging target.
  • the gain when converting the amount of light from the imaging target into a pixel value is defined as a control gain.
  • the camera control value at least an exposure time and an exposure gain which are control instruction values for controlling the exposure of the camera 20 are set.
  • the camera 20 includes a CMOS image sensor 21, an amplification unit 22, and an AD conversion unit 23 made of a known PD (Photo Diode) array.
  • the exposure time of the CMOS image sensor 21 is controlled based on the camera control value.
  • the amplifying unit 22 amplifies a signal value indicating the luminance of each pixel of the captured image output from the CMOS image sensor 21 in accordance with an exposure gain control instruction value.
  • the AD conversion unit 23 converts the amplified signal value (analog value) into a digital value. Then, the camera 20 outputs a signal (pixel value) converted into a digital value.
  • control gain is a value proportional to the product of the exposure time and the exposure gain (hereinafter referred to as the exposure gain), and the camera 20 adjusts the control instruction value for the exposure time or the exposure gain.
  • the control gain is set.
  • the failure detection apparatus 10 includes a CPU 11, a memory 12, an image interface 13 for inputting a captured image of the camera 20, and a communication interface 14 for communicating with the lane departure warning ECU 50, the vehicle speed sensor 60, and the yaw rate sensor 70. Prepare.
  • the pixel value output from the camera 20 and the horizontal / vertical synchronization signal are input to the image interface 13.
  • the CPU 11 recognizes which pixel position the pixel value output for each horizontal line of the image corresponds to based on the horizontal / vertical synchronization signal input to the image interface 13. Then, the pixel value output from the camera 20 is stored in the memory 12 so as to correspond to the recognized pixel position. In this way, the image signal output from the camera 20 is stored in the memory 12.
  • the CPU 11 processes the image signal output from the camera 20 to recognize a recognition target (white line) and outputs the recognized white line position to the lane departure warning ECU 50.
  • the CPU 11 has an appropriate contrast between the white line and the road surface portion excluding the white line in a predetermined exposure region R (see FIGS. 2A and 2B) in front of the vehicle. (Ie, the white line is properly recognized).
  • exposure control the CPU 11 adjusts the exposure time (shutter speed) of the camera 20 and the exposure gain, which is the gain of the amplifying unit 22, so that the camera control value including at least these adjustment instruction values is set to the camera 20. Output to. Further, the CPU 11 performs failure detection of the in-vehicle camera described later using these camera control values (exposure time, exposure gain).
  • the communication interface 14 executes communication between the CPU 11 and the lane departure warning ECU 50.
  • the lane departure warning ECU 50 determines, based on the position of the white line transmitted from the CPU 11, whether or not there is a risk that the own vehicle will depart from the lane, and if it is determined that there is a risk, the warning unit 51 is instructed to issue an alarm.
  • the CPU 11 When the white line recognition process is started, the CPU 11 first captures a captured image from the camera 20 in S11. Subsequently, in the exposure control executed in S12, an exposure time and an exposure gain are set as camera control values from the average value of the luminance of each pixel in the exposure region R (FIG. 2) in the captured image captured in S11. The exposure control of the camera 20 is performed according to the control instruction value. The set exposure time and exposure gain control instruction values are stored in the memory 12. Since various methods are known for exposure control, the description thereof is omitted here.
  • the CPU 11 executes a failure detection process for detecting a failure of the camera 20 in S13 of FIG. Details of the failure detection process shown in S13 will be described later with reference to FIG.
  • white line recognition execution processing white line recognition control for outputting a result of recognizing the white line in the captured image is executed, and then the white line recognition processing in FIG. 3 is terminated.
  • the failure detection S13 is performed every preset cycle (measurement cycle, which is set to the same cycle as the white line recognition process described above).
  • the failure detection S13 a certain area on the same screen as the imaging screen on which the exposure area R is imaged is set as the first reference area B1 (see FIG. 2A).
  • the first reference area is set as an area on the screen where an imaging target with a relatively small change in brightness is shown.
  • the first reference area is set to an area on the screen where the road surface in front of the vehicle is reflected.
  • an image shown in the first reference area is referred to as a target image.
  • the target image moves on the imaging screen as the vehicle moves.
  • an area in which the target image shown in the first reference area in the previous cycle appears on the imaging screen (current imaging screen) in the current cycle is referred to as a second reference area B2 (FIG. 2B). reference).
  • the exposure area R is set to an area including the road surface in front of the vehicle, and both the first reference area and the second reference area are set to areas within the exposure area R.
  • the failure detection shown in S13 of FIG. 3 as shown in detail in the flowchart of FIG. 4, first, in S110, the CPU 11 acquires the same image data as that acquired in S11. Subsequently, in S115, it is determined whether or not the detection result of the first reference area in the previous cycle is stored in the memory 12. If the detection result is stored, the process proceeds to S140. If the detection result is not stored, the process proceeds to S120.
  • an average value (hereinafter referred to as a first average pixel value) P1 of pixels in the first reference region (B1 shown in FIGS. 2A and 2B) is calculated.
  • the product of the exposure time T1 and the exposure gain G1 at this time is calculated as the first exposure gain A1
  • the first exposure gain A1 and the first average pixel value P1 detected in S120 are calculated.
  • the detection result of the first reference area is stored in the memory 12. Then, the failure detection step S13 is finished.
  • the vehicle speed and yaw rate are acquired from the vehicle speed sensor and the yaw rate sensor.
  • the second image reference area (B2 in FIG. 2) is specified using the vehicle speed and yaw rate acquired in S140. Then, an average value P2 of pixels in the second image reference area (hereinafter referred to as a second average pixel value) P2 is calculated.
  • the product of the exposure time T2 and the exposure gain G2 in the current cycle is calculated as the second exposure gain A2.
  • the first average pixel value P1 and the first exposure gain A1 in the previous cycle stored in the memory 12 are read. Then, a value for the first exposure gain A1 of the first average pixel value P1 is calculated as a first calculated value.
  • the value of the second average pixel value P2 with respect to the second exposure gain A2 is calculated as the second calculated value.
  • the process proceeds to S175.
  • the difference between the first calculated value and the second calculated value exceeds the predetermined range, it is determined that the camera 20 has failed and the process proceeds to S170.
  • the CPU 11 notifies the lane departure warning ECU 50 of the failure of the camera 20.
  • the lane departure warning ECU 50 notifies the driver of the failure of the camera 20 by the warning unit 51 or the like, and then the process proceeds to S175.
  • the detection result of the first reference area in the previous cycle is cleared.
  • the CPU 11 calculates the first average pixel value P1 in the first reference region, and sets the exposure gain at this time (second exposure gain A2 calculated in S150) as the first exposure gain A1.
  • the first average pixel value P1 and the first exposure gain A1 are stored in the memory 12. Thereafter, the failure detection shown in FIG. 4 (that is, S13 shown in FIG. 3) is terminated.
  • the exposure gain is a value determined by the exposure time and exposure gain control instruction value adjusted in the exposure control process, regardless of the result of the failure detection process shown in S13.
  • the imaging targets of the first reference area and the second reference area are set to the same area on the road surface, and it can be considered that the brightness of the road surface is substantially constant.
  • the average pixel value of the first reference region and the average pixel value of the second reference region are respectively The value is proportional to the exposure gain and the second exposure gain.
  • the first calculated value is the light amount (first brightness) from the imaging target in the first reference region.
  • the second calculated value is a value proportional to the amount of light from the imaging target in the second reference area (referred to as second brightness). That is, in the present embodiment, it is detected that the camera 20 is operating normally when the first brightness and the second brightness calculated backward from the pixel values can be regarded as substantially the same. Can do.
  • a failure of the camera 20 is detected based on whether or not the pixel value of the first reference region changes following changes in time and exposure gain (gain of the amplification unit 22).
  • the exposure time and the exposure gain set by the exposure control can be set without completely opening and closing the diaphragm (including both the electronic diaphragm and the mechanical diaphragm) unlike the conventional apparatus.
  • the failure can be detected using the state, that is, the state of the diaphragm. Further, this exposure control is executed while performing various controls necessary for traveling. That is, the failure detection device 10 can quickly detect a failure while performing various controls necessary for traveling even when the vehicle is traveling.
  • the failure detection device 10 can be realized with a simple configuration without newly providing a special device for detecting a failure. Further, in the failure detection apparatus 10, the first reference region B1 and the second reference region B2 are set in the exposure region R. According to this, since the pixel value in the exposure region R calculated by the exposure control in S12 can be used to calculate the first average pixel value P1 and the second average pixel value P2 in the failure detection, the processing load is reduced. be able to.
  • the processes of S120 and S175 correspond to the process as the first detection means in the claims
  • the process of S145 corresponds to the process as the second detection means
  • the process of S160 serves as the failure detection means. It corresponds to the process.
  • the process of S110 corresponds to the image acquisition unit in the claims
  • the process of S12 corresponds to the process as the exposure control unit.
  • the camera 20 corresponds to the image pickup means in the claims
  • the CMOS image sensor 21 corresponds to the image pickup device.
  • the value proportional to the first exposure gain A1 calculated in S130 and the value proportional to the second exposure gain A2 calculated in S150 correspond to the current control gain in the claims.
  • the lane departure warning ECU 50 corresponds to the warning control device in the claims.
  • the failure detection device that detects the failure of the in-vehicle camera of the vehicle that is a moving body detects the failure depending on whether or not the relationship represented by the equation (1) is satisfied.
  • the expression representing the condition for detecting a failure is not limited to this.
  • the equation representing the condition for detecting a failure represents that the average pixel value of the first reference area and the average pixel value of the second reference area are values proportional to the first exposure gain and the second exposure gain, respectively. It may be represented by other formulas.
  • the first reference area is set to an area in which the road surface in front of the vehicle is reflected, but where the first reference area is an area in the imaging screen, Also good. However, an area where the change in the amount of light (brightness) from the imaging target in the first reference area is as small as possible is desirable.
  • the first reference area may be a roadside object such as a side wall on an expressway, for example.
  • the camera 20 is configured to include the CMOS image sensor 21, but may be configured to include a CCD image sensor instead.
  • the camera 20 is of an electronic shutter type using an image sensor, but the present invention may be applied to a conventional mechanical shutter type camera.
  • the failure detection apparatus 10 in the case where the image processing (white line recognition) for realizing the white line recognition control is used has been described.
  • the application (application) of the failure detection apparatus 10 is described here. It is not limited.
  • the present invention may be applied to various uses such as avoidance control based on pedestrian recognition and follow-up control based on forward vehicle recognition.
  • the present invention is not limited to this.
  • the present invention can be applied to various moving bodies capable of detecting a moving speed and a moving direction.
  • the components of the failure detection apparatus 10 exemplified in the above embodiment may be realized by hardware, software, or a combination of hardware and software.
  • These components are functionally conceptual, and some or all of them may be functionally or physically distributed or integrated.
  • the above embodiment is merely an example of an embodiment to which the present invention is applied.
  • the present invention can be realized in various forms such as an image processing apparatus, an image processing method, a program for causing a computer to function as the image processing apparatus, and a recording medium on which the program is recorded.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

 故障検出装置(10)において、第1検出手段(S155)は、現サイクルで取得した画像データで表される撮像画面(現撮像画面)上の領域である第1参照領域に含まれる画素の画素値と、現撮像画面について設定された制御利得(現制御利得)から推定される第1参照領域の撮像対象の明るさを第1明るさとして検出する。第2検出手段(S160)は、現撮像画面において、前サイクルの第1参照領域に映っていた撮像対象と同じ撮像対象が映る領域を第2参照領域として特定し、第1検出手段と同様に、第2参照領域の撮像対象の明るさを第2明るさとして検出する。故障検出手段(S165)は、前サイクルの第1明るさと現サイクルの第2明るさとの差が予め定められた範囲内にあるか否かに基づいてカメラ(20)の故障を検出する。

Description

故障検出装置
 本発明は、カメラの故障を検出する故障検出装置に関する。
 近年、移動体である車両の前方を撮像する車載カメラを利用して、道路の白線や、他車両等の認識処理を行い、認識結果を用いて車両の走行制御を行う技術が提案されている。このような技術において、認識対象の認識精度を向上させるためには、撮像画像の明るさに応じて車載カメラの露出制御を適切に行うことが重要となる。仮に、何らかの要因により露出制御を適切に行うことが困難な状況が生じた場合、この状況を故障として検出することが望まれる。このような車載カメラの故障を検出する機能を備えた画像処理装置として、車載カメラの絞りを全閉または全開にし、このときの露光量の増減に応じて撮像画面の輝度が増減したか否かによって車載カメラの故障を判定するものが知られている。
特開平8-240833
 しかしながら、上記従来装置では、故障検出のためにカメラの絞りを全閉及び全開状態にしなくてはならないため、故障検出を行うことができるタイミングは、カメラを利用した走行制御を行わない運転状態のときに限られる。つまり、従来の装置では、車両走行中は故障を検出することができないという問題があった。
 本発明はこのような問題に鑑みてなされたものであり、車両などの移動体に搭載されたカメラの故障を、移動体の移動中であっても速やかに検出する故障検出装置を提供することを目的とする。
 請求項1に記載の故障検出装置は、撮像手段の故障を検出する装置であって、この撮像手段は、移動体に搭載され、撮像素子により検出された画素毎の信号値を露出制御手段によって設定された制御利得で増幅して画素値に変換し、該画素値からなる画像データを出力するものである。故障検出装置では、画像取得手段が、予め設定されたサイクル毎に、前記移動体の移動方向における画像データを取得する。
 また、第1検出手段が、現サイクルにて画像取得手段が取得した画像データで表される撮像画面を現撮像画面とし、該現撮像画面について設定された制御利得を現制御利得とし、現撮像画面に含まれる領域であって、移動体の移動方向において予め定められた領域を第1参照領域として、該第1参照領域に含まれる画素の画素値と、現制御利得とから推定される第1参照領域の撮像対象の明るさを第1明るさとして検出する。
 また、第2検出手段が、現撮像画面に含まれる領域であって、前サイクルの第1参照領域に映っていた撮像対象と同じ撮像対象が映る領域を第2参照領域として設定し、該第2参照領域に含まれる画素の画素値と、現制御利得とから推定される第2参照領域の撮像対象の明るさを第2明るさとして検出する。
 そして、故障検出手段が、前サイクルの第1明るさと、現サイクルの第2明るさとの差が予め定められた範囲内にあるか否かにもとづいて、撮像手段の故障を検出する。このような故障検出装置によると、従来装置のようにわざわざ絞りを全開閉すること無しに、露出制御中の制御利得、つまり露出制御中のカメラの絞りの状態を表す値と、この絞りの状態での画像検出結果である画素値を用いて故障を検出すため、移動体が移動中であっても速やかにカメラの故障を検出することができる。
車両制御システム内の撮像システムにおける、本発明の実施形態に係る故障検出装置を中心とする構成を示すブロック図である。 (a)は図1で示す故障検出装置が使用する露出領域及び第1参照領域を示す説明図であり、(b)は図1で示す故障検出装置が使用する第2参照領域を示す説明図である。 図1で示す故障検出装置内のCPUが実行する故障検出処理を含む白線認識処理の処理手順を示すフローチャートである。 図3で示す故障検出の詳細な処理手順を示すフローチャートである。
 以下、本発明が適用された一実施形態について、図面を用いて説明する。
 [1.全体構成]
 図1に示すように、本実施形態の故障検出装置10は、移動体としての車両に搭載される車両制御システム1の撮像システム2に適用される。
 車両制御システム1内の撮像システム2は、撮像対象を撮像した画像データ(画素値)を出力する、即ち、撮像システム2は、車両に搭載されている車載カメラ(以下、単に「カメラ」という)20と、カメラ20により撮像され出力された画像データをもとに認識対象(本実施形態では白線)を認識して認識結果を出力するとともに、該認識対象が適切に認識されるようにカメラ20に露出制御を行わせるためのカメラ制御値を出力する故障検出装置10とを備える。
 また、車両制御システム1は、故障検出装置10から出力された認識結果を用いて、認識された白線にもとづいて、車両の車線逸脱を検出する車線逸脱処理、および車線逸脱を警報部51からドライバへ報知する警報処理を行う車線逸脱警報ECU50を備える。
 さらにまた、車両制御システム1は、車速を検出する車速センサ60と、ヨーレートを検出するヨーレートセンサ70とを備える。車速及びヨーレートの検出結果は、故障検出装置10に出力される。以下では、故障検出装置10及びカメラ20を撮像システム2とする。
 カメラ20は、車室内の所定位置、例えばルームミラーの裏側に設置され、車両の進行方向(移動方向)前方を路面も含めて撮像するものである。なお、カメラ20は、車室内の所定位置に設置されるときに、その撮像範囲が車両の進行方向に対して所定の撮像範囲となるように、その向き等が調整される。
 カメラ20は、故障検出装置10から送信されたカメラ制御値を入力し、撮像対象からの光量に応じた画素値を出力するように構成されている。ここでは、撮像対象からの光量を画素値に変換するときの利得を制御利得とする。なお、カメラ制御値としては、カメラ20の露出を制御するための制御指示値である露光時間及び露光ゲインとが少なくとも設定されている。
 カメラ20は、公知のPD(Photo Diode)アレイからなるCMOSイメージセンサ21、増幅部22、及びAD変換部23を備える。CMOSイメージセンサ21は、カメラ制御値に基づいてその露光時間が制御されている。CMOSイメージセンサ21によって画像が撮像されると、増幅部22は、CMOSイメージセンサ21から出力される撮像画像の各画素の輝度を示す信号値を、露光ゲインの制御指示値に従って増幅する。AD変換部23は、増幅された信号値(アナログ値)をデジタル値に変換する。そして、カメラ20は、デジタル値に変換された信号(画素値)を出力する。
 つまり、上述の制御利得は、露光時間と露光ゲインとの積(以下では、露光利得というものとする)に比例する値であり、カメラ20では、露光時間または露光ゲインの制御指示値を調整することにより、制御利得が設定されている。
 故障検出装置10は、CPU11、メモリ12、カメラ20の撮像画像を入力するための画像インタフェース13、及び、車線逸脱警報ECU50、車速センサ60、ヨーレートセンサ70との通信を行うための通信インタフェース14を備える。
 画像インタフェース13には、カメラ20から出力される画素値及び水平・垂直同期信号が入力される。CPU11は、画像インタフェース13に入力された水平・垂直同期信号に基づいて、画像の水平ラインごとに出力される画素値が、いずれの画素位置に対応するものかを認識する。そして、認識した画素位置に対応するように、カメラ20から出力される画素値をメモリ12に記憶する。このようにして、カメラ20から出力される画像信号がメモリ12に保存される。
 また、CPU11は、白線認識制御として、カメラ20から出力された画像信号を処理することで、認識対象(白線)の認識を行うとともに、その認識した白線の位置を車線逸脱警報ECU50へ出力する。
 さらにまた、CPU11は、車両前方の予め定められた露出領域R(図2の(a)、(b)参照)において、本実施形態では、白線と白線を除く路面部分とのコントラストが適正になるように(即ち、白線が適切に認識されるように)露出制御を行う。具体的には、露出制御として、CPU11は、カメラ20の露光時間(シャッタースピード)及び増幅部22のゲインである露光ゲインを調整するため、少なくともこれらの調整指示値を含むカメラ制御値をカメラ20へ出力する。またCPU11は、これらのカメラ制御値(露光時間、露光ゲイン)を用いて、後述する車載カメラの故障検出を実行する。
 通信インタフェース14は、CPU11と車線逸脱警報ECU50との間の通信を実行するものである。車線逸脱警報ECU50は、CPU11から送信された白線の位置に基づいて、自車が車線内から逸脱する危険性があるか否かを判定し、危険性があると判定した場合には、警報部51に対して警報を発するように指示する。
 [2.CPU11の処理]
 はじめに、予め記憶されているプログラムに従いCPU11が定期的に(例えば100ms周期で)実行する白線認識処理について、図3のフローチャートを用いて説明する。
 CPU11は、白線認識処理を開始すると、まずS11で、カメラ20から撮像画像を取り込む。続いて、S12で実行する露出制御では、S11で取り込んだ撮像画像における露出領域R(図2)での各画素の輝度の平均値から、カメラ制御値として露光時間と露光ゲインを設定し、これらの制御指示値に従ってカメラ20の露出制御を行う。設定された露光時間及び露光ゲインの制御指示値は、メモリ12に記憶される。露出制御については種々の方法が周知であるため、ここでは説明を省略する。
 次にCPU11は、図3のS13で、カメラ20の故障を検出する故障検出の処理を実行する。S13で示す故障検出の処理の詳細は、図4を参照しながら後述する。続くS14では、白線認識実行処理として、撮像画像における白線を認識した結果を出力する白線認識制御を実行し、その後図3の白線認識処理を終了する。
 [3.故障検出処理]
 続いて、図3のS13でCPU11が実行する故障検出について図4を参照しながら詳細に説明する。故障検出S13は、予め設定されたサイクル(測定周期。ここでは、上述の白線認識処理と同一周期に設定されている)毎に行われる。故障検出S13では、露出領域Rが撮像されている撮像画面と同じ画面上の、ある領域を第1参照領域B1として設定する(図2(a)参照)。この第1参照領域は、相対的に明るさの変化が小さい撮像対象が映る画面上の領域に設定される。具体的には、第1参照領域は、車両前方の路面が映る、画面上の領域に設定されている。以下では、第1参照領域に映る画像を対象画像というものとする。対象画像は、車両の移動によって、撮像画面上を移動する。ここで、前サイクルの第1参照領域に映っていた対象画像が、現サイクルでの撮像画面(現撮像画面)上に映る領域を、第2参照領域B2というものとする(図2(b)参照)。
 なお、本実施形態では、露出領域Rが車両前方の路面を含む領域に設定されており、第1参照領域及び第2参照領域はいずれも露出領域R内の領域に設定されている。図3のS13で示される故障検出は、図4のフローチャートで詳細に示されるように、まずS110にて、CPU11はS11で取得したものと同一の画像データを取得する。続いてS115にて、前サイクルでの第1参照領域の検出結果がメモリ12に記憶されているか否かを判断する。ここで検出結果が記憶されている場合はS140に移行し、検出結果が記憶されていない場合はS120に移行する。
 S120では、第1参照領域(図2の(a)、(b)で示すB1)内の画素の画素値の平均値(以下、第1平均画素値という)P1を算出する。次にS125では、このときの露光時間T1と露光ゲインG1との積を第1露光利得A1として算出し、続くS130では、第1露光利得A1とS120で検出した第1平均画素値P1とを第1参照領域の検出結果としてメモリ12に記憶する。そして故障検出ステップS13を終了する。
 一方、S115にて前サイクルでの第1参照領域の検出結果が記憶されている場合に移行するS140では、車速センサ及びヨーレートセンサから、車両の速度とヨーレートを取得する。続くS145では、S140にて取得した車速及びヨーレートを用いて、第2画像参照領域(図2のB2)を特定する。そして、第2画像参照領域内の画素の画素値の平均値(以下、第2平均画素値という)P2を算出する。
 続くS150では、現サイクルでの露光時間T2と露光ゲインG2との積を第2露光利得A2として算出する。次にS155では、メモリ12に記憶されている前サイクルでの第1平均画素値P1、及び第1露光利得A1を読み出す。そして、第1平均画素値P1の第1露光利得A1に対する値を第1算出値とし算出する。
 続くS160では、第2平均画素値P2の第2露光利得A2に対する値を第2算出値として算出する。そして、S165では、第1算出値と第2算出値との差が予め定められた範囲内にあるか否かを判断する。具体的には、式(1)に示すように、第2算出値が、第1算出値を中心として予め定められた範囲内であるか否かを判断する。なお、αは予め固定値(α≪1)に設定されている。
Figure JPOXMLDOC01-appb-M000001
 ここで、第1算出値と第2算出値との差が予め定められた範囲内にある場合、カメラ20が故障していないと判断し、S175に移行する。一方、第1算出値と第2算出値との差が予め定められた範囲内を超えた場合、カメラ20が故障していると判断してS170に移行する。
 S170では、CPU11がカメラ20の故障を車線逸脱警報ECU50へ通知する。車線逸脱警報ECU50は、警報部51等により、カメラ20の故障を運転者に報知し、その後処理はS175に移行する。S175では、前サイクルでの第1参照領域の検出結果をクリアする。続くS180では、現サイクルにおいて、第1参照領域内における第1平均画素値P1をCPU11が算出し、このときの露光利得(S150で算出した第2露光利得A2)を第1露光利得A1として設定する。そして、S185では、これら第1平均画素値P1及び第1露光利得A1をメモリ12に記憶する。その後、図4に示す故障検出(即ち、図3で示すS13)を終了する。
 つまり、露光利得は、S13で示す故障検出の処理の結果とはなんら関係無く、露出制御処理で調整された露光時間及び露光ゲインの制御指示値により決定される値である。また、第1参照領域及び第2参照領域の撮像対象は路面の同じ領域に設定されており、この路面の明るさはほぼ一定であると見なせる。
 従って、カメラ20が正常に作動している場合(正常に露出制御の機能が実現されている場合)は、第1参照領域の平均画素値及び第2参照領域の平均画素値は、それぞれ第1露光利得及び第2露光利得に比例した値となる。
 そこで、S13で示す故障検出では、測定周期毎にこの比例関係が成り立つか否かを判断し、比例関係が成り立たない場合に、カメラ20が正常に作動していないこと(故障)を検出している。
 なお、画素値は撮像対象からの光量を露光利得に比例する値(制御利得)で変換したものであることから、第1算出値は第1参照領域の撮像対象からの光量(第1明るさという)に比例する値であり、第2算出値は、第2参照領域の撮像対象からの光量(第2明るさという)に比例する値である。つまり、本実施形態では、画素値から逆算される第1明るさと第2明るさとが、ほぼ同じであると見なせる場合に、カメラ20が正常に作動していることを検出している、ということができる。
 [4.効果]
 以上説明したように、本実施形態の故障検出装置10によれば、車両の走行に伴い第1参照領域(路面)の明るさがほぼ変化しないことを利用して、露出制御により設定される露光時間及び露光ゲイン(増幅部22のゲイン)の変化に追従して、第1参照領域の画素値が変化するか否かによって、カメラ20の故障を検出する。
 このような故障検出装置10によると、従来装置のようにわざわざ絞り(電子式絞り及び機械式絞りの両方を含む)を全開閉すること無しに、露出制御により設定された露光時間及び露光ゲインの状態、つまり絞りの状態を用いて故障を検出することができる。また、この露出制御は、走行に必要な各種制御を行う中で実行される。つまり、故障検出装置10では、車両の走行中であっても、走行に必要な各種制御を行う中で、速やかに故障を検出することができる。
 なお、車両の走行中には、操舵、ブレーキ制御、危険報知等の迅速な判断が求められる各種制御が行われる。故障検出装置10では、仮に故障が生じて露出制御を適切に行うことが困難になった場合には、その故障を速やかに検出できるため、走行中のこれらの制御についての信頼性を向上させることができる。
 さらにまた、故障検出装置10は、故障を検出するために新たに特別な装置を設ける事無く、簡易な構成で実現することができる。また、故障検出装置10では、露出領域R内に第1参照領域B1及び第2参照領域B2を設定している。これによると、故障検出における第1平均画素値P1及び第2平均画素値P2の算出に、S12の露出制御で算出する露出領域R内の画素値を用いることができるため、処理負荷を軽減することができる。
 [5.特許請求の範囲との対応]
 本実施形態では、S120、S175の処理が、請求項での第1検出手段としての処理に相当し、S145の処理が第2検出手段としての処理に相当し、S160の処理が故障検出手段としての処理に相当する。また、S110の処理が、請求項での画像取得手段に相当し、S12の処理が露出制御手段としての処理に相当する。また、カメラ20が、請求項での撮像手段に相当し、CMOSイメージセンサ21が撮像素子に相当する。さらにまた、S130にて算出する第1露光利得A1に比例する値、及びS150にて算出する第2露光利得A2に比例する値が、請求項での現制御利得に相当する。また、車線逸脱警報ECU50が請求項での警報制御装置に相当する。
 [他の実施形態]
 以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲にて様々な態様で実施することが可能である。
 (1)上記実施形態では、移動体である車両の車載カメラの故障を検出する故障検出装置が、式(1)によって表される関係が成立するか否かによって故障を検出していたが、故障を検出する条件を表す式は、これに限るものではない。例えば、故障を検出する条件を表す式は、第1参照領域の平均画素値及び第2参照領域の平均画素値が、それぞれ第1露光利得及び第2露光利得に比例した値となることを表す他の式によって表されてもよい。
 (2)上記実施形態に係る故障検出装置10では、第1参照領域を車両前方の路面が映る領域に設定していたが、第1参照領域は、撮像画面内の領域であればどこであってもよい。但し、第1参照領域の撮像対象からの光量(明るさ)の変化が極力少ない領域が望ましい。第1参照領域は、例えば高速道路における側壁等の路側物であってもよい。
 (3)上記実施形態では、カメラ20は、CMOSイメージセンサ21を備える構成であったが、これに代えてCCDイメージセンサを備える構成としてもよい。また、上記実施形態では、カメラ20は、イメージセンサを用いた電子式シャッタ方式のものであったが、本発明は、従来の機械式シャッタ方式のカメラに適用されてもよい。
 (4)上記実施形態では、白線認識制御を実現するための画像処理(白線の認識)を用途とする場合の故障検出装置10について説明したが、故障検出装置10の用途(アプリケーション)はこれに限定されるものではない。この他に例えば、歩行者認識に基づく回避制御や、前方車両認識に基づく追従制御等、種々の用途に、本発明を適用するようにしてもよい。
 (5)上記実施形態は、車両に適用された場合の故障検出装置10について説明したが、本発明はこれに限定されるものではない。本発明は、移動速度及び移動方向を検出することのできる種々の移動体に適用することができる。
 (6)上記実施形態で例示した故障検出装置10の構成要素は、ハードウェアで実現してもよく、ソフトウェアで実現してもよく、ハードウェアとソフトウェアとの組み合わせで実現してもよい。例えば、上述した処理(プログラム)を実行するコンピュータ装置(例えばマイコン)により故障検出装置10の少なくとも一部を構成してもよい。また、これらの構成要素は機能概念的なものであり、その一部又は全部を、機能的又は物理的に分散又は統合してもよい。
 (7)上記実施形態は、本発明が適用された実施形態の一例に過ぎない。本発明は、画像処理装置、画像処理方法、画像処理装置としてコンピュータを機能させるためのプログラム、そのプログラムを記録した記録媒体、などの種々の形態で実現することができる。
 10・・・故障検出装置
 20・・・カメラ
 11・・・CPU

Claims (16)

  1.  移動体に搭載され、撮像素子により検出された画素毎の信号値を露出制御手段(S12)によって設定された制御利得で増幅して画素値に変換し、該画素値からなる画像データを出力する撮像手段(20)、の故障を検出する故障検出装置(10)であって、
     予め設定されたサイクル毎に、前記移動体の移動方向における画像データを取得する画像取得手段(S110)と、
     現サイクルにて前記画像取得手段(S110)が取得した画像データで表される撮像画面を現撮像画面とし、該現撮像画面について設定された前記制御利得を現制御利得とし、前記現撮像画面に含まれる領域であって、前記移動体の移動方向において予め定められた領域を第1参照領域として、該第1参照領域に含まれる画素の画素値と、前記現制御利得とから推定される前記第1参照領域の撮像対象の明るさを第1明るさとして検出する第1検出手段(S155)と、
     前記現撮像画面に含まれる領域であって、前サイクルの前記第1参照領域に映っていた撮像対象と同じ撮像対象が映る領域を第2参照領域として設定し、該第2参照領域に含まれる画素の画素値と、前記現制御利得とから推定される前記第2参照領域の撮像対象の明るさを第2明るさとして検出する第2検出手段(S160)と、
     前サイクルの前記第1明るさと、現サイクルの前記第2明るさとの差が予め定められた範囲内にあるか否かによって前記撮像手段の故障を検出する故障検出手段(S165)と、
     を備えることを特徴とする故障検出装置。
  2.  前記露出制御手段(S12)は、前記現撮像画面に含まれる領域であって、前記移動体の移動方向の予め定められた領域を露出領域として、該露出領域の明るさが予め定められた明るさとなるように前記制御利得を制御し、
     前記第1検出手段(S155)における前記第1参照領域及び前記第2検出手段(S160)における前記第2参照領域のうち少なくともいずれか一方が、前記露出領域内に設定されることを特徴とする請求項1に記載の故障検出装置。
  3.  前記露出制御手段(S12)は、少なくとも露光時間からなるカメラ制御値を調整して、前記制御利得を設定することを特徴とする請求項1に記載の故障検出装置。
  4.  前記露出制御手段(S12)は、少なくとも露光時間からなるカメラ制御値を調整して、前記制御利得を設定することを特徴とする請求項2に記載の故障検出装置。
  5.  前記第1検出手段(S155)は、前記第1参照領域を、前記移動体が移動する路面とすることを特徴とする請求項1に記載の故障検出装置。
  6.  前記第1検出手段(S155)は、前記第1参照領域を、前記移動体が移動する路面とすることを特徴とする請求項2に記載の故障検出装置。
  7.  前記第1検出手段(S155)は、前記第1参照領域を、前記移動体が移動する路面とすることを特徴とする請求項3に記載の故障検出装置。
  8.  前記第1検出手段(S155)は、前記第1参照領域を、前記移動体が移動する路面とすることを特徴とする請求項4に記載の故障検出装置。
  9.  請求項1に記載の前記故障検出装置(10)と、前記撮像手段(20)とを備えることを特徴とする撮像システム(2)。
  10.  請求項2に記載の前記故障検出装置(10)と、前記撮像手段(20)とを備えることを特徴とする撮像システム(2)。
  11.  請求項3に記載の前記故障検出装置(10)と、前記撮像手段(20)とを備えることを特徴とする撮像システム(2)。
  12.  請求項4に記載の前記故障検出装置(10)と、前記撮像手段(20)とを備えることを特徴とする撮像システム(2)。
  13.  前記故障検出装置(10)から送信される前記撮像手段(20)の故障の発生に関する情報を受け、警報手段(51)を通じて、撮像手段(20)の故障の発生を通報する制御を行う警報制御装置(50)をさらに備えることを特徴とする、請求項9に記載の撮像システム(2)。
  14.  前記故障検出装置(10)から送信される前記撮像手段(20)の故障の発生に関する情報を受け、警報手段(51)を通じて、撮像手段(20)の故障の発生を通報する制御を行う警報制御装置(50)をさらに備えることを特徴とする、請求項10に記載の撮像システム(2)。
  15.  前記故障検出装置(10)から送信される前記撮像手段(20)の故障の発生に関する情報を受け、警報手段(51)を通じて、撮像手段(20)の故障の発生を通報する制御を行う警報制御装置(50)をさらに備えることを特徴とする、請求項11に記載の撮像システム(2)。
  16.  前記故障検出装置(10)から送信される前記撮像手段(20)の故障の発生に関する情報を受け、警報手段(51)を通じて、撮像手段(20)の故障の発生を通報する制御を行う警報制御装置(50)をさらに備えることを特徴とする、請求項12に記載の撮像システム(2)。
PCT/JP2014/053365 2013-03-22 2014-02-13 故障検出装置 WO2014148161A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-060196 2013-03-22
JP2013060196A JP2014187496A (ja) 2013-03-22 2013-03-22 故障検出装置

Publications (1)

Publication Number Publication Date
WO2014148161A1 true WO2014148161A1 (ja) 2014-09-25

Family

ID=51579855

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/053365 WO2014148161A1 (ja) 2013-03-22 2014-02-13 故障検出装置

Country Status (2)

Country Link
JP (1) JP2014187496A (ja)
WO (1) WO2014148161A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3115930A1 (en) * 2015-07-06 2017-01-11 Transtron, Inc. Malfunction diagnosis apparatus
CN107079120A (zh) * 2014-10-23 2017-08-18 德克萨斯仪器股份有限公司 在数字成像系统中的故障检测和检测故障的方法
JP2017216517A (ja) * 2016-05-30 2017-12-07 アイシン精機株式会社 画像表示システム
CN107909569A (zh) * 2017-11-10 2018-04-13 广东欧珀移动通信有限公司 一种花屏检测方法、花屏检测装置及电子设备
CN116721095A (zh) * 2023-08-04 2023-09-08 杭州瑞琦信息技术有限公司 一种航拍式的道路照明故障检测方法及装置
WO2024066129A1 (zh) * 2022-09-28 2024-04-04 郑潇寒 基于脸部特征分析的故障定位平台

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017224876A (ja) * 2016-06-13 2017-12-21 アイシン精機株式会社 撮影画像判定装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002374524A (ja) * 2002-02-27 2002-12-26 Fuji Heavy Ind Ltd フェールセーフ機能を有するステレオ式車外監視装置
JP2005033680A (ja) * 2003-07-10 2005-02-03 Toyota Motor Corp 車両用画像処理装置
JP2006229341A (ja) * 2005-02-15 2006-08-31 Sanyo Electric Co Ltd 撮像装置
JP2007005854A (ja) * 2005-06-21 2007-01-11 Mitsubishi Electric Corp 撮像素子
JP2007049359A (ja) * 2005-08-09 2007-02-22 Mitsubishi Electric Corp 撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002374524A (ja) * 2002-02-27 2002-12-26 Fuji Heavy Ind Ltd フェールセーフ機能を有するステレオ式車外監視装置
JP2005033680A (ja) * 2003-07-10 2005-02-03 Toyota Motor Corp 車両用画像処理装置
JP2006229341A (ja) * 2005-02-15 2006-08-31 Sanyo Electric Co Ltd 撮像装置
JP2007005854A (ja) * 2005-06-21 2007-01-11 Mitsubishi Electric Corp 撮像素子
JP2007049359A (ja) * 2005-08-09 2007-02-22 Mitsubishi Electric Corp 撮像装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107079120A (zh) * 2014-10-23 2017-08-18 德克萨斯仪器股份有限公司 在数字成像系统中的故障检测和检测故障的方法
EP3115930A1 (en) * 2015-07-06 2017-01-11 Transtron, Inc. Malfunction diagnosis apparatus
US20170011271A1 (en) * 2015-07-06 2017-01-12 Transtron Inc Malfunction diagnosis apparatus
US10635910B2 (en) 2015-07-06 2020-04-28 Transtron Inc Malfunction diagnosis apparatus
JP2017216517A (ja) * 2016-05-30 2017-12-07 アイシン精機株式会社 画像表示システム
WO2017208585A1 (ja) * 2016-05-30 2017-12-07 アイシン精機株式会社 画像表示システム
CN107909569A (zh) * 2017-11-10 2018-04-13 广东欧珀移动通信有限公司 一种花屏检测方法、花屏检测装置及电子设备
WO2024066129A1 (zh) * 2022-09-28 2024-04-04 郑潇寒 基于脸部特征分析的故障定位平台
CN116721095A (zh) * 2023-08-04 2023-09-08 杭州瑞琦信息技术有限公司 一种航拍式的道路照明故障检测方法及装置
CN116721095B (zh) * 2023-08-04 2023-11-03 杭州瑞琦信息技术有限公司 一种航拍式的道路照明故障检测方法及装置

Also Published As

Publication number Publication date
JP2014187496A (ja) 2014-10-02

Similar Documents

Publication Publication Date Title
WO2014148161A1 (ja) 故障検出装置
JP4248558B2 (ja) 道路区画線検出装置
JP5503730B2 (ja) 車両の周辺監視装置
EP2919197B1 (en) Object detection device and object detection method
JP5437855B2 (ja) 障害物検知装置およびそれを備えた障害物検知システム、並びに障害物検知方法
EP2833618B1 (en) Method for activating and deactivating an image correction function, camera system and motor vehicle
JP4914233B2 (ja) 車外監視装置
JP4389999B2 (ja) 露出制御装置及び露出制御プログラム
US20160162743A1 (en) Vehicle vision system with situational fusion of sensor data
JP6447289B2 (ja) 撮像装置、撮像方法、プログラム、車両制御システム、および車両
JP2011009863A (ja) 車両用撮像装置の露光制御装置及び露出制御方法
JP5246254B2 (ja) 車載カメラの露出制御値の決定方法
JP2011033594A (ja) 車両用距離算出装置
JP4668863B2 (ja) 撮像装置
KR102177878B1 (ko) 영상 처리 장치 및 방법
JP4661934B2 (ja) 画像処理装置
WO2020003764A1 (ja) 画像処理装置、移動装置、および方法、並びにプログラム
JP4539400B2 (ja) ステレオカメラの補正方法、ステレオカメラ補正装置
JP6396840B2 (ja) 物体検出装置
JP2001028745A (ja) フェールセーフ機能を有する車外監視装置
JP5129094B2 (ja) 車両周辺監視装置
JP2009038463A (ja) 露光調整方法、車両用撮像装置および自動車
JP6674127B2 (ja) 画像処理装置、撮影装置、プログラム、機器制御システム及び機器
JP6206334B2 (ja) 検出装置
KR101982091B1 (ko) 서라운드 뷰 모니터링 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14769586

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14769586

Country of ref document: EP

Kind code of ref document: A1