WO2012137696A1 - 車両用画像処理装置 - Google Patents

車両用画像処理装置 Download PDF

Info

Publication number
WO2012137696A1
WO2012137696A1 PCT/JP2012/058811 JP2012058811W WO2012137696A1 WO 2012137696 A1 WO2012137696 A1 WO 2012137696A1 JP 2012058811 W JP2012058811 W JP 2012058811W WO 2012137696 A1 WO2012137696 A1 WO 2012137696A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
exposure control
imaging unit
exposure
captured
Prior art date
Application number
PCT/JP2012/058811
Other languages
English (en)
French (fr)
Inventor
白井 孝昌
正樹 増田
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to DE112012001606.8T priority Critical patent/DE112012001606T5/de
Priority to US14/110,066 priority patent/US20140055572A1/en
Publication of WO2012137696A1 publication Critical patent/WO2012137696A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors

Definitions

  • the present invention relates to a vehicular image processing apparatus that processes a captured image to detect a three-dimensional object, a road installation object, and a light.
  • the present invention has been made in view of the above points, and an object of the present invention is to provide a vehicle image processing apparatus having a large dynamic range of images and capable of reliably detecting road installations such as white lines and lights.
  • the image processing apparatus for a vehicle includes a first image pickup unit, a second image pickup unit, and exposure control for the road installation object / light recognition for exposure control of the first image pickup unit and the second image pickup unit.
  • a switching unit that switches between the control and the exposure control for three-dimensional object recognition, and the road installation object, the light, or the three-dimensional object is detected from images captured by the first imaging unit and the second imaging unit.
  • the exposure control for road installation / light recognition the exposure of the first imaging unit and the exposure of the second imaging unit are different from each other.
  • the vehicle image processing apparatus of the present invention detects road installations and lights, exposure control of both the first imaging unit and the second imaging unit is used as road installation / light recognition exposure control.
  • the exposure of the first imaging unit at that time is different from the exposure of the second imaging unit.
  • the image captured by the first imaging unit and the image captured by the second imaging unit generally have a larger dynamic range than the image captured by only one imaging unit.
  • the road installation and lighting are detected due to insufficient dynamic range of the image. It is hard to happen that it cannot be detected.
  • At least a part of the dynamic range of the first imaging unit and the dynamic range of the second imaging unit preferably overlap. By doing so, a range of brightness that cannot be detected in the middle will not occur.
  • the upper limit of the dynamic range of the first imaging unit can be matched with the lower limit of the dynamic range of the second imaging unit.
  • the lower limit of the dynamic range of the first imaging unit and the upper limit of the dynamic range of the second imaging unit can be matched.
  • the dynamic range of the first imaging unit and the dynamic range of the second imaging unit may partially overlap.
  • the detection unit synthesizes images captured by the first imaging unit and the second imaging unit when the road installation / light recognition exposure control is being executed, and the road installation is obtained from the synthesized image. And light can be detected. Since the dynamic range of the synthesized image is larger than the dynamic range of the image before synthesis (the image captured by the first imaging unit or the second imaging unit), the dynamic range can be obtained by using this synthesized image. It is hard to happen that road installations and lights cannot be detected due to the lack of.
  • the detection unit is configured to display an image captured by the first imaging unit when the road installation / light recognition exposure control is being executed, and when the road installation / light recognition exposure control is being executed. It is possible to select an image with high contrast from the images picked up by the two image pickup units, and to detect road installations and lights from the selected image. By doing so, it is unlikely that road installations and lights cannot be detected due to insufficient dynamic range of the image.
  • the road installation / light recognition exposure control may include two or more types of control with different exposure conditions.
  • Examples of exposure control for road installation / light recognition include exposure control for lane (white line) detection, sign detection, signal detection, and light detection.
  • FIG. 1 is a block diagram illustrating a configuration of a stereo image sensor 1.
  • FIG. 5 is a flowchart illustrating processing (entire) executed by the stereo image sensor 1; 4 is a flowchart showing exposure control of the right camera 3.
  • 6 is a flowchart showing exposure control of the left camera 5. It is explanatory drawing showing the transition of the kind of exposure control, and the brightness of the right camera 3 and the left camera 5.
  • FIG. 5 is a flowchart illustrating processing (entire) executed by the stereo image sensor 1;
  • 5 is a flowchart illustrating processing (entire) executed by the stereo image sensor 1;
  • 4 is a flowchart showing exposure control of the right camera 3.
  • 6 is a flowchart showing exposure control of the left camera 5.
  • 5 is a flowchart illustrating processing (entire) executed by the stereo image sensor 1;
  • the stereo image sensor 1 is an in-vehicle device mounted on a vehicle, and includes a right camera (first imaging unit) 3, a left camera (second imaging unit) 5, and a CPU (switching unit, detection unit) 7. Prepare.
  • Each of the right camera 3 and the left camera 5 includes a photoelectric conversion element (not shown) such as a CCD or a CMOS, and can capture the front of the vehicle.
  • the right camera 3 and the left camera 5 can control exposure by changing the exposure time or the gain in the output signal of the photoelectric conversion element.
  • An image captured by the right camera 3 and the left camera 5 is 8-bit data.
  • CPU 7 controls the right camera 3 and the left camera 5 (including exposure control). Moreover, CPU7 acquires the image imaged with the right camera 3 and the left camera 5, and detects a solid object, a road installation thing, and a light from the image. The process executed by the CPU 7 will be described later.
  • the CPU 7 outputs the detection result of the three-dimensional object, the road installation object, and the light to the vehicle control device 9 and the alarm device 11 through CAN (communication system in a vehicle).
  • the vehicle control device 9 executes known processes such as collision avoidance and lane keeping based on the output. Further, the alarm device 11 issues a warning of collision or lane departure based on the output from the stereo image sensor 1.
  • step 10 exposure control of the right camera 3 and the left camera 5 is performed.
  • the exposure control of the left camera 5 will be described based on the flowchart of FIG.
  • step 110 the frame N0 of the most recently captured image is acquired, and X, which is a remainder when the frame N0 is divided by 3 (any one of 0, 1, and 2), is calculated.
  • the frame N0 is a number assigned to an image (frame) captured by the left camera 5.
  • Frame NO starts from 1 and increases by 1. For example, when the left camera 5 images n times, the frames N0 attached to the n images (frames) are 1, 2, 3, 4, 5,.
  • the value of X is, for example, 1 when the frame NO of the most recently captured image is 1, 4, 7,..., And the frame NO of the most recently captured image is 2, 5, 8,. In the case of .., it is 2, and in the case where the frame number of the most recently captured image is 3, 6, 9,.
  • step 120 the process proceeds to step 120, and the three-dimensional object exposure control is set for the left camera 5.
  • This three-dimensional object exposure control is exposure control suitable for a three-dimensional object detection process described later.
  • step 140 monocular exposure control (one type of road installation / light recognition exposure control) B is set for the left camera 5.
  • This monocular exposure control B is control for setting the exposure of the left camera 5 to an exposure suitable for recognizing a sign.
  • monocular exposure control B is the brightness of the image in its control is represented by ⁇ ⁇ 2 0. This ⁇ is a value different from ⁇ .
  • monocular exposure control one type of road installation / light recognition exposure control
  • This monocular exposure control C is a control for setting the exposure of the right camera 3 to an exposure suitable for recognizing a lane (white line) on the road.
  • monocular exposure control C is the brightness of the image is represented by alpha ⁇ 2 8 in its control, which is 256 times the brightness of the monocular exposure control A ( ⁇ ⁇ 2 0).
  • step 240 the monocular exposure control (one type of road installation / light recognition exposure control) D is set for the right camera 3.
  • This monocular exposure control D is a control for setting the exposure of the right camera 3 to an exposure suitable for recognizing a sign.
  • exposure control D monocular is the brightness of the image is represented by beta ⁇ 2 8 in its control, which is 256 times the brightness of the monocular exposure control B ( ⁇ ⁇ 2 0).
  • step 30 it is determined whether X calculated in the immediately preceding steps 110 and 210 is 0, 1 or 2.
  • X it progresses to step 40, and a solid object detection process is performed.
  • the case where X is 0 is a case where the exposure control of the right camera 3 and the left camera 5 is set to the three-dimensional object exposure control in Steps 120 and 220, respectively, and imaging is performed under the conditions.
  • the distance to the object to be imaged is calculated by associating the same point of the object and obtaining the shift amount (parallax) of the associated point (corresponding point).
  • the imaging object is in front, when the image from the right camera 3 and the image from the left camera 5 are superimposed, the imaging object is shifted in the horizontal direction. Then, the position where the imaging objects overlap most is obtained while shifting one image pixel by pixel. The number of pixels shifted at this time is n.
  • the focal length of the lens is f
  • the processing between the optical axes is m
  • the pixel pitch is d
  • step 30 determines whether X is 1 or not the exposure control of the right camera 3 and the left camera 5 is set to the monocular exposure control C and A in steps 130 and 230 and imaging is performed under the conditions. .
  • step 60 the image captured by the right camera 3 (image captured by the monocular exposure control C) and the image captured by the left camera 5 (image captured by the monocular exposure control A) are synthesized, and the composite image P Create
  • the composite image P is a sum of the pixel value of each pixel in the image captured by the right camera 3 and the pixel value of each pixel in the image captured by the left camera 5 for each pixel. That is, the pixel value in each pixel of the composite image P is the sum of the pixel value of the corresponding pixel in the image captured by the right camera 3 and the pixel value of the corresponding pixel in the image captured by the left camera 5. is there.
  • the image captured by the right camera 3 and the image captured by the left camera 5 are each 8-bit data.
  • the brightness of the image captured by the right camera 3 is 256 times the brightness of the image captured by the left camera 5. Therefore, each pixel value of the image captured by the right camera 3 is multiplied by 256 and then summed.
  • the synthesized image P synthesized as described above becomes 16-bit data, and the size of the dynamic range is 256 times that of the image captured by the right camera 3 or the image captured by the left camera 5.
  • step 70 After the completion of step 70, the process proceeds to step 50 and increments the frame number by 1.
  • step 30 determines whether X is 2 or not the exposure control of the right camera 3 and the left camera 5 is set to the monocular exposure control D and B in Steps 140 and 240 and imaging is performed under the conditions. .
  • step 80 the image captured by the right camera 3 (image captured by the monocular exposure control D) and the image captured by the left camera 5 (image captured by the monocular exposure control B) are synthesized, and the combined image Q Create
  • the composite image Q is a sum of the pixel value of each pixel in the image captured by the right camera 3 and the pixel value of each pixel in the image captured by the left camera 5 for each pixel. That is, the pixel value in each pixel of the composite image Q is the sum of the pixel value of the corresponding pixel in the image captured by the right camera 3 and the pixel value of the corresponding pixel in the image captured by the left camera 5. is there.
  • step 90 processing for detecting a sign from the composite image P synthesized in step 80 is executed. Specifically, in the composite image Q, a point (edge point) having a luminance change amount equal to or greater than a predetermined value is searched, and an image of the edge point (edge image) is created. Then, in the edge image, the sign is detected from the shape of the region formed by the edge points by a known technique such as matching. Note that “monocular application 2” in step 90 of FIG. 2 means a sign detection application.
  • step 90 the process proceeds to step 50, and the frame number is incremented by 1.
  • FIG. 5 shows how the types of exposure control and the brightness of the right camera 3 and the left camera 5 change as the frame number increases.
  • “bright 1”, “bright 2”, “dark 1”, and “dark 2” are ⁇ ⁇ 2 8 , ⁇ ⁇ 2 8 , ⁇ ⁇ 2 0 , and ⁇ ⁇ 2 0 , respectively.
  • the stereo image sensor 1 synthesizes an image captured by the right camera 3 and an image captured by the left camera 5 to generate a composite image P and a composite image Q having a large dynamic range.
  • a road installation for example, a lane, a sign
  • a lamp for example, a vehicle headlight, taillight, etc.
  • the stereo image sensor 1 repeatedly executes the processing shown in the flowchart of FIG. 6 every 33 msec.
  • step 310 exposure control of the right camera 3 and the left camera 5 is performed.
  • the exposure control is the same as in the first embodiment.
  • step 320 the front of the vehicle is imaged by the right camera 3 and the left camera 5, and the images are acquired. Note that the right camera 3 and the left camera 5 capture images simultaneously.
  • step 330 the frame No. of the most recently captured image is acquired, and it is determined whether X, which is the remainder when the frame No. is divided by 3, is 0, 1, or 2. If X is 0, the process proceeds to step 340 to execute a three-dimensional object detection process.
  • X is 0 is a case where the exposure control of the right camera 3 and the left camera 5 is set to the three-dimensional object exposure control and imaging is performed under the condition.
  • the contents of the three-dimensional object detection process are the same as those in the first embodiment.
  • step 350 the frame number is increased by 1.
  • step 330 determines whether X is 1 or not the exposure control of the right camera 3 and the left camera 5 is set to the monocular exposure control C and A, respectively, and imaging is performed under the conditions.
  • the contrast is higher between the image captured by the right camera 3 (image captured by the monocular exposure control C) and the image captured by the left camera 5 (image captured by the monocular exposure control A).
  • Select an image Specifically, the selection is performed as follows. In each of the image picked up by the right camera 3 and the image picked up by the left camera 5, a point (edge point) where the amount of change in luminance is a predetermined value or more is searched to create an image of the edge point (edge image). Then, the edge image of the image captured by the right camera 3 and the edge image of the image captured by the left camera 5 are compared to determine which edge image has more edge points. Of the image captured by the right camera 3 and the image captured by the left camera 5, the one having more edge points is selected as an image having higher contrast.
  • step 370 processing for detecting a lane (white line) from the image selected in step 360 is executed. Specifically, in the edge image of the selected image, a lane (white line) is detected from the shape of the region formed by the edge points by a known technique such as matching.
  • step 370 the process proceeds to step 350 and increments frame No. by one.
  • step 330 determines whether X is 2 or more images are captured.
  • X is 2
  • the exposure control of the right camera 3 and the left camera 5 is set to monocular exposure control D and B, respectively, and imaging is performed under the conditions.
  • the contrast is higher between the image captured by the right camera 3 (image captured by the monocular exposure control D) and the image captured by the left camera 5 (image captured by the monocular exposure control B).
  • Select an image Specifically, the selection is performed as follows. In each of the image picked up by the right camera 3 and the image picked up by the left camera 5, a point (edge point) where the amount of change in luminance is a predetermined value or more is searched to create an image of the edge point (edge image). Then, the edge image of the image captured by the right camera 3 and the edge image of the image captured by the left camera 5 are compared to determine which edge image has more edge points. Of the image captured by the right camera 3 and the image captured by the left camera 5, the one having more edge points is selected as an image having higher contrast.
  • step 390 processing for detecting a sign from the image selected in step 380 is executed. Specifically, in the edge image of the selected image, a sign is detected by a known technique such as matching from the shape of the region formed by the edge points.
  • step 390 the process proceeds to step 350 and increments the frame number by 1.
  • the stereo image sensor 1 is an image having a higher contrast between the image captured by the right camera 3 and the image captured by the left camera 5 (an image having no so-called whiteout or blackout). ) To detect road installations and lights from the selected image. Therefore, it is unlikely that road installations and lights cannot be detected due to a lack of the dynamic range of the image.
  • ⁇ Third Embodiment> 1. Configuration of Stereo Image Sensor 1
  • the configuration of the stereo image sensor 1 is the same as that of the first embodiment.
  • the stereo image sensor 1 repeatedly executes the processing shown in the flowchart of FIG. 7 every 33 msec.
  • step 410 exposure control of the right camera 3 and the left camera 5 is performed.
  • the exposure control of the left camera 5 will be described based on the flowchart of FIG.
  • step 510 the frame N0 of the most recently captured image is acquired, and X, which is a remainder (one of 0, 1, 2) when the frame N0 is divided by 3, is calculated.
  • X which is a remainder (one of 0, 1, 2) when the frame N0 is divided by 3, is calculated.
  • the meaning of the frame N0 is the same as that in the first embodiment.
  • step 520 set the three-dimensional object exposure control for the left camera 5.
  • the three-dimensional object exposure control is exposure control suitable for the three-dimensional object detection process.
  • monocular exposure control (one type of road installation / light recognition exposure control) E is set for the left camera 5.
  • This monocular exposure control E is control for setting the exposure of the left camera 5 to an exposure suitable for recognizing a lane (white line) on the road.
  • monocular exposure control E is the brightness of the image in its control is represented by ⁇ ⁇ 2 0.
  • the process proceeds to step 540, and the monocular exposure control (one type of road installation / light recognition exposure control) F is set for the left camera 5.
  • This monocular exposure control F is a control for setting the exposure of the left camera 5 to an exposure suitable for recognizing a lane (white line) on the road.
  • the brightness of the image in the control is represented by ⁇ ⁇ 2 16 , which is 2 16 times the brightness ( ⁇ ⁇ 2 0 ) in the monocular exposure control E.
  • step 610 the frame N0 of the most recently captured image is acquired, and X, which is a remainder when the frame N0 is divided by 3 (any one of 0, 1, and 2) is calculated. Since the right camera 3 and the left camera 5 always capture images simultaneously, the frame N0 of the image most recently captured by the right camera 3 is the same as the frame N0 of the image most recently captured by the left camera 5. .
  • the process proceeds to step 620, and the three-dimensional object exposure control is set for the right camera 3.
  • the three-dimensional object exposure control is exposure control suitable for the three-dimensional object detection process.
  • monocular exposure control G is a control for setting the exposure of the right camera 3 to an exposure suitable for recognizing a lane (white line) on the road.
  • monocular exposure control G is the brightness of the image is represented by alpha ⁇ 2 8 in that the control is a 2 8 times the brightness of the monocular exposure control E ( ⁇ ⁇ 2 0).
  • the process proceeds to step 640 where the monocular exposure control (one type of road installation / light recognition exposure control) H is set for the right camera 3.
  • This monocular exposure control H is a control for setting the exposure of the right camera 3 to an exposure suitable for recognizing a lane (white line) on the road.
  • the brightness of the image in the control is represented by ⁇ ⁇ 2 24 , which is 2 24 times the brightness ( ⁇ ⁇ 2 0 ) in the monocular exposure control E.
  • step 420 the right camera 3 and the left camera 5 capture the front of the vehicle and acquire the images. Note that the right camera 3 and the left camera 5 capture images simultaneously.
  • Step 430 it is determined whether X calculated in the immediately preceding Steps 510 and 610 is 0, 1 or 2. If X is 0, the process proceeds to step 440 to execute a three-dimensional object detection process. Note that the case where X is 0 is a case where the exposure control of the right camera 3 and the left camera 5 is set to the three-dimensional object exposure control in Steps 520 and 620 and imaging is performed under the conditions. The contents of the three-dimensional object detection process are the same as those in the first embodiment.
  • step 430 determines whether X is 1 or not. If it is determined in step 430 that X is 1, the process proceeds to step 450 where the frame number is increased by 1.
  • step 430 determines whether X is 2 or more images are captured.
  • step 440 the exposure control of the right camera 3 and the left camera 5 is set to the monocular exposure control H and F, respectively, and imaging is performed under those conditions. Is the case.
  • step 460 the following four images are combined to create a combined image R.
  • the composite image R is a sum of pixel values of each pixel in the four images. That is, the pixel value in each pixel of the composite image R is 4
  • each of the four images is 8-bit data.
  • the image captured in the monocular exposure control E the brightness of an image captured in monocular exposure control G is 2 8 times
  • the brightness of an image captured in monocular exposure control F is 2 16 times
  • the brightness of an image captured in monocular exposure control H is 2 to 24 times. Therefore, when the sum of the pixel value of each pixel is 2 8-fold, respectively, 2 to 16 times, summing the pixel values in terms of the 2 to 24 times.
  • the composite image R becomes the 32bit data, the dynamic range, image captured by the right camera 3, or as compared to the image captured by the left camera 5, a 2 to 24 times.
  • step 470 a process of detecting a lane (white line) from the composite image R synthesized in step 460 is executed. Specifically, in the composite image R, a point (edge point) having a luminance change amount equal to or greater than a predetermined value is searched, and an image of the edge point (edge image) is created. In the edge image, a lane (white line) is detected from the shape of the region formed by the edge points by a known method such as matching.
  • step 470 the process proceeds to step 450 where the frame number is incremented by one.
  • the stereo image sensor 1 combines the two images captured by the right camera 3 and the two images captured by the left camera 5 to create a composite image R having a large dynamic range, From the composite image R, road installations and lights are detected. Therefore, it is unlikely that road installations and lights cannot be detected due to a lack of the dynamic range of the image.
  • ⁇ Fourth Embodiment> Configuration of Stereo Image Sensor 1
  • the configuration of the stereo image sensor 1 is the same as that of the first embodiment.
  • the stereo image sensor 1 repeatedly executes the process shown in the flowchart of FIG. 10 every 33 msec.
  • step 710 exposure control of the right camera 3 and the left camera 5 is performed.
  • the exposure control is the same as in the third embodiment.
  • step 720 the front of the vehicle is imaged by the right camera 3 and the left camera 5, and the images are acquired. Note that the right camera 3 and the left camera 5 capture images simultaneously.
  • step 730 the frame No. of the most recently captured image is acquired, and it is determined whether X, which is the remainder when the frame No. is divided by 3, is 0, 1, or 2. If X is 0, the process proceeds to step 740 to execute a three-dimensional object detection process.
  • the contents of the three-dimensional object detection process are the same as those in the first embodiment.
  • step 750 the frame number is increased by 1.
  • step 730 determines whether X is 1 or not the exposure control of the right camera 3 and the left camera 5 is set to the monocular exposure control G and E, respectively, and imaging is performed under the conditions.
  • step 730 determines whether X is 2 or more images are captured.
  • X is 2
  • the exposure control of the right camera 3 and the left camera 5 is set to monocular exposure control H and F, respectively, and imaging is performed under those conditions.
  • step 760 an image having the highest contrast is selected from the following four images.
  • an image captured by the right camera 3 when X was 1 an image captured in the monocular exposure control G
  • An image captured by the left camera 5 when X was most recently 1 image captured by the monocular exposure control E
  • an image captured by the right camera 3 image captured by the monocular exposure control H
  • an image captured by the left camera 5 an image captured by the monocular exposure control F
  • the selection of the image having the highest contrast is performed as follows. In each of the four images, a point (edge point) in which the amount of change in luminance is equal to or greater than a predetermined value is searched, and an image of the edge point (edge image) is created. Then, the edge images of the four images are compared to determine which edge image has the most edge points. Of the four images, the image with the most edge points is selected as the image with the highest contrast.
  • each of the four images is 8-bit data.
  • the image captured in the monocular exposure control E the brightness of an image captured in monocular exposure control G is 2 8 times
  • the brightness of an image captured in monocular exposure control F is 2 16 times
  • the brightness of an image captured in monocular exposure control H is 2 to 24 times.
  • step 770 processing for detecting a lane (white line) from the image selected in step 760 is executed. Specifically, in the image selected in step 760, a point (edge point) having a luminance change amount equal to or greater than a predetermined value is searched to create an image of the edge point (edge image). In the edge image, a lane (white line) is detected from the shape of the region formed by the edge points by a known method such as matching.
  • step 770 After step 770 ends, the process proceeds to step 750 and increments frame No. by one.
  • the stereo image sensor 1 selects an image having the highest contrast from the two images captured by the right camera 3 and the two images captured by the left camera 5, and from the selected images. Detect road installations and lights. Therefore, it is unlikely that road installations and lights cannot be detected due to a lack of the dynamic range of the image.
  • the first road installation object and the light are detected from the image captured by the right camera 3 (image captured by the monocular exposure control C).
  • the second road installation object and the light may be detected from the image captured by the left camera 5 (image captured by the monocular exposure control A).
  • the third road installation object and the light are detected from the image captured by the right camera 3 (image captured by the monocular exposure control D).
  • the fourth road installation object and the light may be detected from the image captured by the left camera 5 (image captured by the monocular exposure control B).
  • the first to fourth road installations and lights can be arbitrarily set, for example, from white lines, signs, signals, and other vehicle lights.
  • the number of images to be combined is not limited to 2, 4, and can be any number (eg, 3, 5, 6, 7, 8,). .
  • images may be selected from images other than 2, 4 (for example, 3, 5, 6, 7, 8,).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

 第1の撮像部と、第2の撮像部と、前記第1の撮像部及び前記第2の撮像部の露出制御を、道路設置物・灯火認識用露出制御と、立体物認識用露出制御との間で切り替える切り替え部と、前記第1の撮像部及び前記第2の撮像部により撮像された画像から前記道路設置物、灯火又は前記立体物を検出する検出部と、を備え、前記道路設置物・灯火認識用露出制御において、前記第1の撮像部の露出と、前記第2の撮像部の露出とが異なることを特徴とする車両用画像処理装置。

Description

車両用画像処理装置
 本発明は、撮像された画像を処理して立体物や道路設置物、灯火を検出する車両用画像処理装置に関する。
 カメラにより撮像された車両周囲の画像から立体物や道路設置物(例えばレーン、標識)や灯火(例えば車両のヘッドライト、テールライト)を検出して運転者の車両操作を支援する車両用画像処理装置が知られている(特許文献1参照)。この特許文献1記載の車両用画像処理装置は、ステレオカメラを構成する2つのカメラの露出制御を立体物用露出制御として、立体物を検出する。それとともに、2つのカメラのうちの一方の露出制御を、白線検出用露出制御として、白線を検出する。
特開2007-306272号公報
 特許文献1記載の車両用画像処理装置では、トンネルの出入り口等、明暗の変化が大きい場所では、一方のカメラで撮像した画像から白線をしようとしても、画像のダイナミックレンジが不足し、白線を検出できないことがある。
 本発明は以上の点に鑑みなされたものであり、画像のダイナミックレンジが大きく、白線等の道路設置物や灯火を確実に検出可能な車両用画像処理装置を提供することを目的とする。
 本発明の車両用画像処理装置は、第1の撮像部と、第2の撮像部と、前記第1の撮像部及び前記第2の撮像部の露出制御を、道路設置物・灯火認識用露出制御と、立体物認識用露出制御との間で切り替える切り替え部と、前記第1の撮像部及び前記第2の撮像部により撮像された画像から前記道路設置物、灯火又は前記立体物を検出する検出部と、を備え、前記道路設置物・灯火認識用露出制御において、前記第1の撮像部の露出と、前記第2の撮像部の露出とが異なることを特徴とする。
 本発明の車両用画像処理装置は、道路設置物や灯火を検出するときは、第1の撮像部と第2の撮像部との両方の露出制御を道路設置物・灯火認識用露出制御として、そのときの第1の撮像部の露出と、第2の撮像部の露出とが異なる。そのため、第1の撮像部で撮像した画像と、第2の撮像部で撮像した画像とは、全体として、一方のみの撮像部で撮像した画像よりもダイナミックレンジが大きい。
 よって、第1の撮像部で撮像した画像と第2の撮像部で撮像した画像とを用いて道路設置物や灯火を検出することにより、画像のダイナミックレンジの不足により、道路設置物や灯火を検出できないということが起こり難い。
 本発明の車両用画像処理装置が道路設置物・灯火認識用露出制御を実行しているとき、第1の撮像部と、第2の撮像部とは、同時に撮像を行うことが好ましい。そうすることにより、撮像するタイミングの違いによって、第1の撮像部で撮像した画像と、第2の撮像部で撮像した画像が異なってしまうことがない。その結果、道路設置物や灯火を一層精度よく検出できる。
 前記道路設置物・灯火認識用露出制御において、第1の撮像部のダイナミックレンジと、第2の撮像部のダイナミックレンジとは、少なくとも一部が重複することが好ましい。そうすることにより、中間に検出できない明るさの範囲が生じてしまうことがない。
 例えば、第1の撮像部のダイナミックレンジの上限と、第2の撮像部のダイナミックレンジの下限とを一致させることができる。また、逆に、第1の撮像部のダイナミックレンジの下限と、第2の撮像部のダイナミックレンジの上限とを一致させることができる。また、第1の撮像部のダイナミックレンジと、第2の撮像部のダイナミックレンジとが一部重複していてもよい。
 前記検出部は、道路設置物・灯火認識用露出制御が実行されているときに第1の撮像部及び第2の撮像部で撮像された画像を合成し、その合成された画像から道路設置物や灯火を検出することができる。合成された画像のダイナミックレンジは、合成前の画像(第1の撮像部又は第2の撮像部で撮像された画像)のダイナミックレンジより大きいため、この合成された画像を用いることにより、ダイナミックレンジの不足により、道路設置物や灯火を検出できないということが起こり難い。
 前記検出部は、道路設置物・灯火認識用露出制御が実行されているときに第1の撮像部で撮像された画像と、道路設置物・灯火認識用露出制御が実行されているときに第2の撮像部で撮像された画像の中から、コントラストが高い画像を選択し、その選択された画像から道路設置物や灯火を検出することができる。こうすることにより、画像のダイナミックレンジの不足により、道路設置物や灯火を検出できないということが起こり難い。
 前記道路設置物・灯火認識用露出制御には、露出の条件が異なる2種以上の制御が存在してもよい。道路設置物・灯火認識用露出制御としては、例えば、レーン(白線)検出用、標識検出用、信号検出用、灯火検出用の露出制御が挙げられる。
ステレオ画像センサ1の構成を表すブロック図である。 ステレオ画像センサ1が実行する処理(全体)を表すフローチャートである。 右カメラ3の露出制御を表すフローチャートである。 左カメラ5の露出制御を表すフローチャートである。 露出制御の種類と、右カメラ3、左カメラ5の明るさの推移を表す説明図である。 ステレオ画像センサ1が実行する処理(全体)を表すフローチャートである。 ステレオ画像センサ1が実行する処理(全体)を表すフローチャートである。 右カメラ3の露出制御を表すフローチャートである。 左カメラ5の露出制御を表すフローチャートである。 ステレオ画像センサ1が実行する処理(全体)を表すフローチャートである。
 本発明の実施形態を図面に基づいて説明する。
<第1の実施形態>
1.ステレオ画像センサ1の構成
 ステレオ画像センサ(車両用画像処理装置)1の構成を、図1のブロック図に基づいて説明する。
 ステレオ画像センサ1は、車両に搭載される車載装置であって、右カメラ(第1の撮像部)3、左カメラ(第2の撮像部)5、及びCPU(切り替え部、検出部)7を備える。右カメラ3、左カメラ5は、それぞれ、CCD、CMOS等の光電変換素子(図示略)を備えており、車両前方を撮像することができる。また、右カメラ3、左カメラ5は、露出時間、又は光電変換素子の出力信号におけるゲインを変えることにより、露出を制御することができる。右カメラ3、左カメラ5で撮像した画像は8bitデータである。
 CPU7は、右カメラ3、左カメラ5に対する制御(露出制御を含む)を行う。また、CPU7は、右カメラ3、及び左カメラ5で撮像した画像を取得し、その画像から、立体物、道路設置物、灯火を検出する。なお、CPU7が実行する処理については後述する。
 CPU7は、立体物、道路設置物や灯火の検出結果を、CAN(車内通信システム)を通じて、車両制御装置9及び警報装置11に出力する。車両制御装置9は、その出力に基づき、衝突回避、車線維持等の公知の処理を実行する。また、警報装置11は、ステレオ画像センサ1からの出力に基づき、衝突や車線逸脱の警報を発する。
 2.ステレオ画像センサ1が実行する処理
 ステレオ画像センサ1(特にCPU7)が実行する処理を、図2~図4のフローチャート及び図5の説明図に基づいて説明する。
 ステレオ画像センサ1は、図2のフローチャートに示す処理を、33msec毎に繰り返し実行する。
 ステップ10では、右カメラ3、左カメラ5の露出制御を行う。まず、左カメラ5の露出制御を図3のフローチャートに基づいて説明する。ステップ110では、最も直近に撮像した画像のフレームN0を取得し、そのフレームN0を3で割ったときの余り(0、1、2のうちのいずれか)であるXを算出する。ここで、フレームN0とは、左カメラ5が撮像した画像(フレーム)に付される番号である。フレームNOは1から始まり、1ずつ増加する。例えば、左カメラ5がn回撮像した場合、そのn個の画像(フレーム)に付されるフレームN0は、1、2、3、4、5・・・nとなる。上記Xの値は、例えば、最も直近に撮像した画像のフレームNOが1、4、7、・・・の場合は1となり、最も直近に撮像した画像のフレームNOが2、5、8、・・・の場合は2となり、最も直近に撮像した画像のフレームNOが3、6、9、・・・の場合は0となる。
 Xの値が0の場合は、処理はステップ120に進み、左カメラ5に対し、立体物用露出制御を設定する。この立体物用露出制御とは、後述する立体物検出処理に適した露出制御である。
 一方、Xの値が1の場合は、処理はステップ130に進み、左カメラ5に対し、単眼用露出制御(道路設置物・灯火認識用露出制御の1種)Aを設定する。この単眼用露出制御Aは、左カメラ5の露出を、道路上のレーン(白線)を認識するために適した露出とする制御である。また、単眼用露出制御Aは、その制御における画像の明るさがα×20で表される。
 また、Xの値が2の場合は、処理はステップ140に進み、左カメラ5に対し、単眼用露出制御(道路設置物・灯火認識用露出制御の1種)Bを設定する。この単眼用露出制御Bは、左カメラ5の露出を、標識を認識するために適した露出とする制御である。また、単眼用露出制御Bは、その制御における画像の明るさがβ×20で表される。このβは、αとは異なる値である。
 次に、右カメラ3の露出制御を図4のフローチャートに示す。
 ステップ210では、最も直近に撮像した画像のフレームN0を取得し、そのフレームN0を3で割ったときの余り(0、1、2のうちのいずれか)であるXを算出する。なお、右カメラ3と左カメラ5は常に同時に撮像を行うので、右カメラ3で最も直近に撮像した画像のフレームN0と、左カメラ5で最も直近に撮像した画像のフレームN0とは同じである。
 Xの値が0の場合は、処理はステップ220に進み、右カメラ3に対し、立体物用露出制御を設定する。この立体物用露出制御とは、後述する立体物検出処理に適した露出制御である。
 一方、Xの値が1の場合は、処理はステップ230に進み、右カメラ3に対し、単眼用露出制御(道路設置物・灯火認識用露出制御の1種)Cを設定する。この単眼用露出制御Cは、右カメラ3の露出を、道路上のレーン(白線)を認識するために適した露出とする制御である。また、単眼用露出制御Cは、その制御における画像の明るさがα×28で表され、単眼用露出制御Aにおける明るさ(α×20)の256倍である。
 また、Xの値が2の場合は、処理はステップ240に進み、右カメラ3に対し、単眼用露出制御(道路設置物・灯火認識用露出制御の1種)Dを設定する。この単眼用露出制御Dは、右カメラ3の露出を、標識を認識するために適した露出とする制御である。また、単眼用露出制御Dは、その制御における画像の明るさがβ×28で表され、単眼用露出制御Bにおける明るさ(β×20)の256倍である。
 図2に戻り、ステップ20では、右カメラ3、左カメラ5により車両前方を撮像し、その画像を取得する。なお、右カメラ3、左カメラ5は、同時に撮像を行う。
 ステップ30では、直前の前記ステップ110、210で算出したXが、0、1、2のいずれであるかを判断する。Xが0である場合はステップ40に進み、立体物検出処理を実行する。なお、Xが0である場合とは、前記ステップ120、220において、右カメラ3、左カメラ5の露出制御をそれぞれ立体物用露出制御に設定し、その条件で撮像を行った場合である。
 立体物検出処理は、ステレオ視の技術によって撮像した画像から立体物を検出する画像処理プログラムによる公知の処理である。立体物検出処理は、左右に配置された右カメラ3、左カメラ5により撮像された一対の画像に相関を求め、同一物体に対する視差に基づいて三角測量の要領でその物体までの距離を算出する。具体的には、右カメラ3、左カメラ5により撮像された一組のステレオ画像から、CPU7は、同一の撮像対象物が映っている部分を抽出し、一組のステレオ画像同士でその撮像対象物の同一点を対応づけ、対応づけられた点(対応点)のずれ量(視差)を求めることにより撮像対象物までの距離を算出する。撮像対象物が前方にある場合、右カメラ3による画像と、左カメラ5による画像とを重ね合わせると、撮像対象物が左右横方向にずれる。そして、一方の画像を1画素ずつシフトしながら、撮像対象物が最も重なり合う位置を求める。このときシフトした画素数をnとする。レンズの焦点距離をf、光軸間処理をm、画素ピッチをdとすると、撮像対象物までの距離Lは、L=(f・m)/(n・d)という関係式が成立する。この(n・d)が視差である。
 ステップ50では、フレームNoを1だけ増加させる。
 一方、前記ステップ30でXが1であると判断した場合は、処理はステップ60に進む。なお、Xが1である場合とは、前記ステップ130、230において、右カメラ3、左カメラ5の露出制御を単眼用露出制御C、Aに設定し、その条件で撮像を行った場合である。
 ステップ60では、右カメラ3で撮像した画像(単眼用露出制御Cにおいて撮像した画像)と、左カメラ5で撮像した画像(単眼用露出制御Aにおいて撮像した画像)とを合成し、合成画像Pを作成する。合成画像Pは、右カメラ3で撮像した画像における各画素の画素値と、左カメラ5で撮像した画像における各画素の画素値とを、各画素ごとに合計したものである。すなわち、合成画像Pの各画素における画素値は、右カメラ3で撮像した画像における、対応する画素の画素値と、左カメラ5で撮像した画像における、対応する画素の画素値との合計値である。
 ここで、右カメラ3で撮像した画像と、左カメラ5で撮像した画像とは、それぞれ、8bitデータである。そして、右カメラ3で撮像した画像の明るさは、左カメラ5で撮像した画像の明るさの256倍である。よって、右カメラ3で撮像した画像の各画素値は、256倍した上で合計するものとする。その結果、上記のように合成した合成画像Pは16bitデータとなり、そのダイナミックレンジの大きさは、右カメラ3で撮像した画像、又は左カメラ5で撮像した画像に比べて、256倍である。
 なお、右カメラ3の位置と左カメラ5の位置とは少しずれているので、右カメラ3で撮像した画像と、左カメラ5で撮像した画像との合成は、一方又は両方の画像を補正した上で行う。立体物検出処理(ステレオ処理)により、左右の画像の対応付けがなされているので、ステレオ処理の結果に基づいて補正することができる。この補正は、後述するステップ80において画像を合成する際にも同様に行われる。
 ステップ70では、前記ステップ60で合成した合成画像Pから、レーン(白線)を検出する処理を実行する。具体的には、合成画像Pにおいて、輝度の変化量が所定値以上の点(エッジ点)を検索し、エッジ点の画像(エッジ画像)を作成する。そして、エッジ画像において、エッジ点により形成される領域の形状から、周知のマッチング等の手法により、レーン(白線)を検出する。なお、図2のステップ70における「単眼アプリ1」は、レーン検出用アプリケーションを意味する。
 ステップ70の終了後、処理はステップ50に進み、フレームNoを1だけ増加させる。
 一方、前記ステップ30でXが2であると判断した場合は、処理はステップ80に進む。なお、Xが2である場合とは、前記ステップ140、240において、右カメラ3、左カメラ5の露出制御を単眼用露出制御D、Bに設定し、その条件で撮像を行った場合である。
 ステップ80では、右カメラ3で撮像した画像(単眼用露出制御Dにおいて撮像した画像)と、左カメラ5で撮像した画像(単眼用露出制御Bにおいて撮像した画像)とを合成し、合成画像Qを作成する。合成画像Qは、右カメラ3で撮像した画像における各画素の画素値と、左カメラ5で撮像した画像における各画素の画素値とを、各画素ごとに合計したものである。すなわち、合成画像Qの各画素における画素値は、右カメラ3で撮像した画像における、対応する画素の画素値と、左カメラ5で撮像した画像における、対応する画素の画素値との合計値である。
 ここで、右カメラ3で撮像した画像と、左カメラ5で撮像した画像は、それぞれ、8bitデータである。そして、右カメラ3で撮像した画像の明るさは、左カメラ5で撮像した画像の明るさの256倍である。よって、右カメラ3で撮像した画像の各画素値は、256倍した上で合計するものとする。その結果、上記のように合成した合成画像Qは16bitデータとなり、そのダイナミックレンジの大きさは、右カメラ3で撮像した画像、又は左カメラ5で撮像した画像に比べて、256倍である。
 ステップ90では、前記ステップ80で合成した合成画像Pから、標識を検出する処理を実行する。具体的には、合成画像Qにおいて、輝度の変化量が所定値以上の点(エッジ点)を検索し、エッジ点の画像(エッジ画像)を作成する。そして、エッジ画像において、エッジ点により形成される領域の形状から、周知のマッチング等の手法により、標識を検出する。なお、図2のステップ90における「単眼アプリ2」は、標識検出用アプリケーションを意味する。
 ステップ90の終了後、ステップ50に進み、フレームNoを1だけ増加させる。
 図5に、フレームNoが増加するにつれて、露出制御の種類と、右カメラ3、左カメラ5の明るさとが、どのように推移するかを示す。図5において、「明1」、「明2」、「暗1」、「暗2」とは、それぞれ、α×28、β×28、α×20、β×20である。
 3.ステレオ画像センサ1が奏する効果
 (1)ステレオ画像センサ1は、右カメラ3で撮像した画像と、左カメラ5で撮像した画像とを合成して、ダイナミックレンジが大きい合成画像P、合成画像Qを作成し、その合成画像P、合成画像Qから、道路設置物(例えばレーン、標識)や灯火(例えば車両のヘッドライト、テールライト等)を検出する。そのため、画像のダイナミックレンジの不足により、道路設置物や灯火を検出できないということが起こり難い。
 (2)合成画像P、合成画像Qの合成に用いられる2つの画像は、同時に撮像されたものである。そのため、撮像するタイミングの違いによって、2つの画像が異なってしまうようなことがない。そのことにより、道路設置物や灯火を一層精度よく検出できる。
<第2の実施形態>
 1.ステレオ画像センサ1の構成
 ステレオ画像センサ1の構成は前記第1の実施形態と同様である。
 2.ステレオ画像センサ1が実行する処理
 ステレオ画像センサ1が実行する処理を、図6のフローチャートに基づいて説明する。
 ステレオ画像センサ1は、図6のフローチャートに示す処理を、33msec毎に繰り返し実行する。
 ステップ310では、右カメラ3、左カメラ5の露出制御を行う。その露出制御は、前記第1の実施形態と同様である。
 ステップ320では、右カメラ3、左カメラ5により車両前方を撮像し、その画像を取得する。なお、右カメラ3、左カメラ5は、同時に撮像を行う。
 ステップ330では、最も直近に撮像した画像のフレームNoを取得し、そのフレームNoを3で割ったときの余りであるXが、0、1、2のいずれであるかを判断する。Xが0である場合は、処理はステップ340に進み、立体物検出処理を実行する。なお、Xが0である場合とは、右カメラ3、左カメラ5の露出制御を立体物用露出制御に設定し、その条件で撮像を行った場合である。立体物検出処理の内容は、前記第1の実施形態と同様である。
 ステップ350では、フレームNoを1だけ増加させる。
 一方、前記ステップ330でXが1であると判断した場合は、処理はステップ360に進む。なお、Xが1である場合とは、右カメラ3、左カメラ5の露出制御を、それぞれ、単眼用露出制御C、Aに設定し、その条件で撮像を行った場合である。
 ステップ360では、右カメラ3で撮像した画像(単眼用露出制御Cにおいて撮像した画像)と、左カメラ5で撮像した画像(単眼用露出制御Aにおいて撮像した画像)の中から、よりコントラストが高い画像を選択する。具体的には、以下のように選択を行う。右カメラ3で撮像した画像、及び左カメラ5で撮像した画像のそれぞれにおいて、輝度の変化量が所定値以上の点(エッジ点)を検索し、エッジ点の画像(エッジ画像)を作成する。そして、右カメラ3で撮像した画像のエッジ画像と、左カメラ5で撮像した画像のエッジ画像とを対比し、どちらのエッジ画像にエッジ点が多いかを判断する。右カメラ3で撮像した画像、及び左カメラ5で撮像した画像のうち、エッジ点が多い方を、よりコントラストが高い画像として選択する。
 ステップ370では、前記ステップ360で選択した画像から、レーン(白線)を検出する処理を実行する。具体的には、選択した画像のエッジ画像において、エッジ点により形成される領域の形状から、周知のマッチング等の手法により、レーン(白線)を検出する。
 ステップ370の終了後、処理はステップ350に進み、フレームNoを1だけ増加させる。
 一方、前記ステップ330でXが2であると判断した場合は、処理はステップ380に進む。なお、Xが2である場合とは、右カメラ3、左カメラ5の露出制御を、それぞれ、単眼用露出制御D、Bに設定し、その条件で撮像を行った場合である。
 ステップ380では、右カメラ3で撮像した画像(単眼用露出制御Dにおいて撮像した画像)と、左カメラ5で撮像した画像(単眼用露出制御Bにおいて撮像した画像)の中から、よりコントラストが高い画像を選択する。具体的には、以下のように選択を行う。右カメラ3で撮像した画像、及び左カメラ5で撮像した画像のそれぞれにおいて、輝度の変化量が所定値以上の点(エッジ点)を検索し、エッジ点の画像(エッジ画像)を作成する。そして、右カメラ3で撮像した画像のエッジ画像と、左カメラ5で撮像した画像のエッジ画像とを対比し、どちらのエッジ画像にエッジ点が多いかを判断する。右カメラ3で撮像した画像、及び左カメラ5で撮像した画像のうち、エッジ点が多い方を、よりコントラストが高い画像として選択する。
 ステップ390では、前記ステップ380で選択した画像から、標識を検出する処理を実行する。具体的には、選択した画像のエッジ画像において、エッジ点により形成される領域の形状から、周知のマッチング等の手法により、標識を検出する。
 ステップ390の終了後、処理はステップ350に進み、フレームNoを1だけ増加させる。
 3.ステレオ画像センサ1が奏する効果
 ステレオ画像センサ1は、右カメラ3で撮像した画像と、左カメラ5で撮像した画像とのうち、よりコントラストが大きい画像(いわゆる白飛びや黒飛びをしていない画像)を選択し、その選択した画像から、道路設置物や灯火を検出する。そのため、画像のダイナミックレンジの不足により、道路設置物や灯火を検出できないということが起こり難い。
<第3の実施形態>
 1.ステレオ画像センサ1の構成
 ステレオ画像センサ1の構成は前記第1の実施形態と同様である。
 2.ステレオ画像センサ1が実行する処理
 ステレオ画像センサ1が実行する処理を、図7~図9のフローチャートに基づいて説明する。
 ステレオ画像センサ1は、図7のフローチャートに示す処理を、33msec毎に繰り返し実行する。
 ステップ410では、右カメラ3、左カメラ5の露出制御を行う。まず、左カメラ5の露出制御を図8のフローチャートに基づいて説明する。
 ステップ510では、最も直近に撮像した画像のフレームN0を取得し、そのフレームN0を3で割ったときの余り(0、1、2のうちのいずれか)であるXを算出する。ここで、フレームN0の意味は前記第1の実施形態と同様である。
 Xの値が0の場合は、処理はステップ520に進み、左カメラ5に対し、立体物用露出制御を設定する。この立体物用露出制御とは、立体物検出処理に適した露出制御である。
 一方、Xの値が1の場合は、処理はステップ530に進み、左カメラ5に対し、単眼用露出制御(道路設置物・灯火認識用露出制御の1種)Eを設定する。この単眼用露出制御Eは、左カメラ5の露出を、道路上のレーン(白線)を認識するために適した露出とする制御である。また、単眼用露出制御Eは、その制御における画像の明るさがα×20で表される。
 また、Xの値が2の場合は、処理はステップ540に進み、左カメラ5に対し、単眼用露出制御(道路設置物・灯火認識用露出制御の1種)Fを設定する。この単眼用露出制御Fは、左カメラ5の露出を、道路上のレーン(白線)を認識するために適した露出とする制御である。また、単眼用露出制御Fは、その制御における画像の明るさがα×216で表され、単眼用露出制御Eにおける明るさ(α×20)の216倍である。
 次に、右カメラ3の露出制御を図9のフローチャートに基づいて説明する。
 ステップ610では、最も直近に撮像した画像のフレームN0を取得し、そのフレームN0を3で割ったときの余り(0、1、2のうちのいずれか)であるXを算出する。なお、右カメラ3と左カメラ5は常に同時に撮像を行うので、右カメラ3で最も直近に撮像した画像のフレームN0と、左カメラ5で最も直近に撮像した画像のフレームN0とは同じである。
 Xの値が0の場合は、処理はステップ620に進み、右カメラ3に対し、立体物用露出制御を設定する。この立体物用露出制御とは、立体物検出処理に適した露出制御である。
 一方、Xの値が1の場合は、処理はステップ630に進み、右カメラ3に対し、単眼用露出制御(道路設置物・灯火認識用露出制御の1種)Gを設定する。この単眼用露出制御Gは、右カメラ3の露出を、道路上のレーン(白線)を認識するために適した露出とする制御である。また、単眼用露出制御Gは、その制御における画像の明るさがα×28で表され、単眼用露出制御Eにおける明るさ(α×20)の28倍である。
 また、Xの値が2の場合は、処理はステップ640に進み、右カメラ3に対し、単眼用露出制御(道路設置物・灯火認識用露出制御の1種)Hを設定する。この単眼用露出制御Hは、右カメラ3の露出を、道路上のレーン(白線)を認識するために適した露出とする制御である。また、単眼用露出制御Hは、その制御における画像の明るさがα×224で表され、単眼用露出制御Eにおける明るさ(α×20)の224倍である。
 図7に戻り、ステップ420では、右カメラ3、左カメラ5により車両前方を撮像し、その画像を取得する。なお、右カメラ3、左カメラ5は、同時に撮像を行う。
 ステップ430では、直前の前記ステップ510、610で算出したXが、0、1、2のいずれであるかを判断する。Xが0である場合は、処理はステップ440に進み、立体物検出処理を実行する。なお、Xが0である場合とは、前記ステップ520、620において、右カメラ3、左カメラ5の露出制御を立体物用露出制御に設定し、その条件で撮像を行った場合である。立体物検出処理の内容は、前記第1の実施形態と同様である。
 ステップ450では、フレームNoを1だけ増加させる。
 一方、前記ステップ430でXが1であると判断した場合は、処理はステップ450に進み、フレームNoを1だけ増加させる。
 一方、前記ステップ430でXが2であると判断した場合は、処理はステップ460に進む。なお、Xが2である場合とは、前記ステップ540、640において、右カメラ3、左カメラ5の露出制御を、それぞれ、単眼用露出制御H、Fに設定し、その条件で撮像を行った場合である。
 ステップ460では、以下の4つの画像を合成し、合成画像Rを作成する。
 ・Xが直近に1であったときに、右カメラ3で撮像した画像(単眼用露出制御Gにおいて撮像した画像)
 ・Xが直近に1であったときに、左カメラ5で撮像した画像(単眼用露出制御Eにおいて撮像した画像)
 ・Xが2であるとき(直前のステップ420)に、右カメラ3で撮像した画像(単眼用露出制御Hにおいて撮像した画像)
 ・Xが2であるとき(直前のステップ420)に、左カメラ5で撮像した画像(単眼用露出制御Fにおいて撮像した画像)
 合成画像Rは、上記4つの画像における各画素の画素値を、各画素ごとに合計したものである。すなわち、合成画像Rの各画素における画素値は、上記4 
つの画像における、対応する各画素の画素値の合計値である。
 ここで、上記4つの画像はそれぞれ、8bitデータである。そして、単眼用露出制御Eにおいて撮像した画像に対し、単眼用露出制御Gにおいて撮像した画像の明るさは28倍であり、単眼用露出制御Fにおいて撮像した画像の明るさは216倍であり、単眼用露出制御Hにおいて撮像した画像の明るさは224倍である。よって、各画素の画素値を合計する際には、それぞれ28倍、216倍、224倍した上で画素値を合計する。また、その結果、合成画像Rは32bitのデータとなり、そのダイナミックレンジは、右カメラ3で撮像した画像、又は左カメラ5で撮像した画像に比べて、224倍である。
 ステップ470では、前記ステップ460で合成した合成画像Rから、レーン(白線)を検出する処理を実行する。具体的には、合成画像Rにおいて、輝度の変化量が所定値以上の点(エッジ点)を検索し、エッジ点の画像(エッジ画像)を作成する。そして、エッジ画像において、エッジ点により形成される領域の形状から、周知のマッチング等の手法により、レーン(白線)を検出する。
 ステップ470の終了後、処理はステップ450に進み、フレームNoを1だけ増加させる。
 3.ステレオ画像センサ1が奏する効果
 ステレオ画像センサ1は、右カメラ3で撮像した2つの画像と、左カメラ5で撮像した2つの画像とを合成して、ダイナミックレンジが大きい合成画像Rを作成し、その合成画像Rから、道路設置物や灯火を検出する。そのため、画像のダイナミックレンジの不足により、道路設置物や灯火を検出できないということが起こり難い。
<第4の実施形態>
1.ステレオ画像センサ1の構成
 ステレオ画像センサ1の構成は前記第1の実施形態と同様である。
 2.ステレオ画像センサ1が実行する処理
 ステレオ画像センサ1が実行する処理を、図10のフローチャートに基づいて説明する。
 ステレオ画像センサ1は、図10のフローチャートに示す処理を、33msec毎に繰り返し実行する。
 ステップ710では、右カメラ3、左カメラ5の露出制御を行う。その露出制御は前記第3の実施形態と同様である。
 ステップ720では、右カメラ3、左カメラ5により車両前方を撮像し、その画像を取得する。なお、右カメラ3、左カメラ5は、同時に撮像を行う。
 ステップ730では、最も直近に撮像した画像のフレームNoを取得し、そのフレームNoを3で割ったときの余りであるXが、0、1、2のいずれであるかを判断する。Xが0である場合は、処理はステップ740に進み、立体物検出処理を実行する。立体物検出処理の内容は、前記第1の実施形態と同様である。
 ステップ750では、フレームNoを1だけ増加させる。
 一方、前記ステップ730でXが1であると判断した場合は、処理はステップ750に進み、フレームNoを1だけ増加させる。なお、Xが1である場合とは、右カメラ3、左カメラ5の露出制御を、それぞれ、単眼用露出制御G、Eに設定し、その条件で撮像を行った場合である。
 一方、前記ステップ730でXが2であると判断した場合は、処理はステップ760に進む。なお、Xが2である場合とは、右カメラ3、左カメラ5の露出制御を、それぞれ、単眼用露出制御H、Fに設定し、その条件で撮像を行った場合である。
 ステップ760では、以下の4つの画像の中から、最もコントラストが高い画像を選択する。
 ・Xが直近に1であったときに、右カメラ3で撮像した画像(単眼用露出制御Gにおいて撮像した画像)
 ・Xが直近に1であったときに、左カメラ5で撮像した画像(単眼用露出制御Eにおいて撮像した画像)
 ・Xが2であるとき(直前のステップ420)に、右カメラ3で撮像した画像(単眼用露出制御Hにおいて撮像した画像)
 ・Xが2であるとき(直前のステップ420)に、左カメラ5で撮像した画像(単眼用露出制御Fにおいて撮像した画像)
 最もコントラストが高い画像の選択は、具体的には、以下のように行う。上記4つの画像のそれぞれにおいて、輝度の変化量が所定値以上の点(エッジ点)を検索し、エッジ点の画像(エッジ画像)を作成する。そして、上記4つの画像のエッジ画像を対比し、どのエッジ画像にエッジ点が最も多いかを判断する。上記4つの画像のうち、最もエッジ点が多い画像を、最もコントラストが高い画像として選択する。
 ここで、上記4つの画像はそれぞれ、8bitデータである。そして、単眼用露出制御Eにおいて撮像した画像に対し、単眼用露出制御Gにおいて撮像した画像の明るさは28倍であり、単眼用露出制御Fにおいて撮像した画像の明るさは216倍であり、単眼用露出制御Hにおいて撮像した画像の明るさは224倍である。その結果、上記4つの画像の組み合わせは、右カメラ3で撮像した画像、又は左カメラ5で撮像した画像に比べて、224倍の大きさのダイナミックレンジをカバーしている。
 ステップ770では、前記ステップ760で選択した画像から、レーン(白線)を検出する処理を実行する。具体的には、前記ステップ760で選択した画像において、輝度の変化量が所定値以上の点(エッジ点)を検索し、エッジ点の画像(エッジ画像)を作成する。そして、エッジ画像において、エッジ点により形成される領域の形状から、周知のマッチング等の手法により、レーン(白線)を検出する。
 ステップ770の終了後、処理はステップ750に進み、フレームNoを1だけ増加させる。
 3.ステレオ画像センサ1が奏する効果
 ステレオ画像センサ1は、右カメラ3で撮像した2つの画像と、左カメラ5で撮像した2つの画像のうち、コントラストが最も大きい画像を選択し、その選択した画像から、道路設置物や灯火を検出する。そのため、画像のダイナミックレンジの不足により、道路設置物や灯火を検出できないということが起こり難い。
 尚、本発明は前記実施形態になんら限定されるものではなく、本発明を逸脱しない範囲において種々の態様で実施しうることはいうまでもない。
 例えば、前記第2の実施形態における前記ステップ360、370の処理の代わりに、右カメラ3で撮像した画像(単眼用露出制御Cにおいて撮像した画像)から、第1の道路設置物、灯火を検出するとともに、左カメラ5で撮像した画像(単眼用露出制御Aにおいて撮像した画像)から、第2の道路設置物、灯火を検出してもよい。さらに、前記第2の実施形態における前記ステップ380、390の処理の代わりに、右カメラ3で撮像した画像(単眼用露出制御Dにおいて撮像した画像)から、第3の道路設置物、灯火を検出するとともに、左カメラ5で撮像した画像(単眼用露出制御Bにおいて撮像した画像)から、第4の道路設置物、灯火を検出してもよい。第1~第4の道路設置物、灯火は、例えば、白線、標識、信号、他の車両の灯火から任意に設定できる。
 前記第1、第3の実施形態において、合成する画像の数は2、4には限定されず、任意の数(例えば、3、5、6、7、8・・・)とすることができる。
 前記第2、第4の実施形態において、画像の選択は、2、4以外の数(例えば、3、5、6、7、8・・・)の画像から行うようにしてもよい。
1・・・ステレオ画像センサ、3・・・右カメラ、5・・・左カメラ、7・・・CPU、9・・・車両制御装置、11・・・警報装置

Claims (6)

  1.  第1の撮像部と、
     第2の撮像部と、
     前記第1の撮像部及び前記第2の撮像部の露出制御を、道路設置物・灯火認識用露出制御と、立体物認識用露出制御との間で切り替える切り替え部と、
     前記第1の撮像部及び前記第2の撮像部により撮像された画像から前記道路設置物、灯火又は前記立体物を検出する検出部と、
     を備え、
     前記道路設置物・灯火認識用露出制御において、前記第1の撮像部の露出と、前記第2の撮像部の露出とが異なることを特徴とする車両用画像処理装置。
  2.  前記道路設置物・灯火認識用露出制御が実行されているとき、前記第1の撮像部と、前記第2の撮像部とは、同時に撮像を行うことを特徴とする請求項1記載の車両用画像処理装置。
  3.  前記道路設置物・灯火認識用露出制御における、前記第1の撮像部のダイナミックレンジと、前記第2の撮像部のダイナミックレンジとは、少なくとも一部が重複することを特徴とする請求項1又は2記載の車両用画像処理装置。
  4.  前記検出部は、前記道路設置物・灯火認識用露出制御が実行されているときに前記第1の撮像部及び前記第2の撮像部で撮像された画像を合成し、その合成された画像から前記道路設置物、又は灯火を検出することを特徴とする請求項1~3のいずれか1項記載の車両用画像処理装置。
  5.  前記検出部は、前記道路設置物・灯火認識用露出制御が実行されているときに前記第1の撮像部で撮像された画像と、前記道路設置物・灯火認識用露出制御が実行されているときに前記第2の撮像部で撮像された画像の中から、よりコントラストが高い画像を選択し、その選択された画像から前記道路設置物、又は灯火を検出することを特徴とする請求項1~3のいずれか1項記載の車両用画像処理装置。
  6.  前記道路設置物・灯火認識用露出制御には、露出の条件が異なる2種以上の制御が存在することを特徴とする請求項1~5のいずれか1項記載の車両用画像処理装置。
PCT/JP2012/058811 2011-04-06 2012-04-02 車両用画像処理装置 WO2012137696A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112012001606.8T DE112012001606T5 (de) 2011-04-06 2012-04-02 Bildverarbeitungsvorrichtung für ein Fahrzeug
US14/110,066 US20140055572A1 (en) 2011-04-06 2012-04-02 Image processing apparatus for a vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-084565 2011-04-06
JP2011084565A JP2012221103A (ja) 2011-04-06 2011-04-06 車両用画像処理装置

Publications (1)

Publication Number Publication Date
WO2012137696A1 true WO2012137696A1 (ja) 2012-10-11

Family

ID=46969096

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/058811 WO2012137696A1 (ja) 2011-04-06 2012-04-02 車両用画像処理装置

Country Status (4)

Country Link
US (1) US20140055572A1 (ja)
JP (1) JP2012221103A (ja)
DE (1) DE112012001606T5 (ja)
WO (1) WO2012137696A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5587930B2 (ja) * 2012-03-09 2014-09-10 日立オートモティブシステムズ株式会社 距離算出装置及び距離算出方法
KR101353052B1 (ko) * 2013-07-31 2014-01-20 주식회사 피엘케이 테크놀로지 교통표지판 인식을 위한 차량용 영상인식시스템
US9465444B1 (en) * 2014-06-30 2016-10-11 Amazon Technologies, Inc. Object recognition for gesture tracking
JP6416654B2 (ja) * 2015-02-17 2018-10-31 トヨタ自動車株式会社 白線検出装置
EP3314572B1 (en) * 2015-06-26 2019-08-07 Koninklijke Philips N.V. Edge detection on images with correlated noise
JPWO2017154827A1 (ja) * 2016-03-11 2019-02-14 富士フイルム株式会社 撮像装置
US10623634B2 (en) 2017-04-17 2020-04-14 Intel Corporation Systems and methods for 360 video capture and display based on eye tracking including gaze based warnings and eye accommodation matching
EP3637758B1 (en) * 2017-06-07 2024-09-04 Hitachi Astemo, Ltd. Image processing device
JP7427594B2 (ja) * 2018-08-22 2024-02-05 日立Astemo株式会社 画像処理装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175702A (ja) * 1997-12-15 1999-07-02 Toyota Motor Corp 車両用ライン検出装置及び路上ライン検出方法並びにプログラムを記録した媒体
JP2007096684A (ja) * 2005-09-28 2007-04-12 Fuji Heavy Ind Ltd 車外環境認識装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006106522A2 (en) * 2005-04-07 2006-10-12 Visionsense Ltd. Method for reconstructing a three- dimensional surface of an object
US20100091119A1 (en) * 2008-10-10 2010-04-15 Lee Kang-Eui Method and apparatus for creating high dynamic range image
US9142026B2 (en) * 2010-02-26 2015-09-22 Thomson Licensing Confidence map, method for generating the same and method for refining a disparity map
WO2012084277A1 (en) * 2010-12-22 2012-06-28 Thomson Licensing Apparatus and method for determining a disparity estimate
AU2013305770A1 (en) * 2012-08-21 2015-02-26 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175702A (ja) * 1997-12-15 1999-07-02 Toyota Motor Corp 車両用ライン検出装置及び路上ライン検出方法並びにプログラムを記録した媒体
JP2007096684A (ja) * 2005-09-28 2007-04-12 Fuji Heavy Ind Ltd 車外環境認識装置

Also Published As

Publication number Publication date
JP2012221103A (ja) 2012-11-12
US20140055572A1 (en) 2014-02-27
DE112012001606T5 (de) 2014-02-06

Similar Documents

Publication Publication Date Title
WO2012137696A1 (ja) 車両用画像処理装置
JP5846872B2 (ja) 画像処理装置
EP2437494B1 (en) Device for monitoring area around vehicle
US11676394B2 (en) Processing device for conversion of images
US7986812B2 (en) On-vehicle camera with two or more angles of view
US10142595B2 (en) Driving assistance device and method of detecting vehicle adjacent thereto
WO2017134982A1 (ja) 撮像装置
US11516451B2 (en) Imaging apparatus, imaging processing method, image processing device and imaging processing system
JP6723079B2 (ja) 物体距離検出装置
US10455159B2 (en) Imaging setting changing apparatus, imaging system, and imaging setting changing method
JP6701327B2 (ja) グレア検出方法及び装置
JP2006322795A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP4224449B2 (ja) 画像抽出装置
JP6266022B2 (ja) 画像処理装置、警報装置、および画像処理方法
KR101709009B1 (ko) 어라운드 뷰 왜곡 보정 시스템 및 방법
JP4797441B2 (ja) 車両用画像処理装置
KR101501678B1 (ko) 노출 조절을 이용한 차량용 영상 촬영장치 및 그 방법
JP6405765B2 (ja) 撮像装置及び判定方法
JP5310162B2 (ja) 車両灯火判定装置
KR101030210B1 (ko) 자동차용 장애물 인식 시스템 및 그 방법
JP4539400B2 (ja) ステレオカメラの補正方法、ステレオカメラ補正装置
KR101982091B1 (ko) 서라운드 뷰 모니터링 시스템
JP5017921B2 (ja) 車両用画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12768586

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 1120120016068

Country of ref document: DE

Ref document number: 112012001606

Country of ref document: DE

WWE Wipo information: entry into national phase

Ref document number: 14110066

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 12768586

Country of ref document: EP

Kind code of ref document: A1