WO2018074076A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2018074076A1
WO2018074076A1 PCT/JP2017/031232 JP2017031232W WO2018074076A1 WO 2018074076 A1 WO2018074076 A1 WO 2018074076A1 JP 2017031232 W JP2017031232 W JP 2017031232W WO 2018074076 A1 WO2018074076 A1 WO 2018074076A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
imaging
windshield
vehicle
captured
Prior art date
Application number
PCT/JP2017/031232
Other languages
English (en)
French (fr)
Inventor
翔 鷹野
Original Assignee
アスモ 株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アスモ 株式会社 filed Critical アスモ 株式会社
Publication of WO2018074076A1 publication Critical patent/WO2018074076A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Definitions

  • the present invention relates to an imaging apparatus.
  • a front windshield of a vehicle is imaged from the vehicle interior by a camera including a lens and an image sensor, and raindrops or the like are formed on the outer surface of the front windshield based on the captured image.
  • an imaging device raindrop detection device
  • raindrops attached to the outer surface of the front windshield are the imaging target, the distance between the object images from the imaging target to the imaging surface on which the image of the imaging target is formed on the imaging device is short, and the image The distance between the lenses (the distance from the lens rear principal point to the imaging surface) is long.
  • an imaging apparatus that actively captures the periphery of a vehicle with a similar camera and actively assists the driver based on the captured image (such as detecting obstacles during traveling and avoiding collisions) Driving assistance devices) have also been proposed (see, for example, Patent Document 2).
  • an imaging device since a distant view in front of the vehicle, another vehicle or an obstacle existing around the vehicle is an imaging target, the distance between the imaging objects to the imaging surface is long, and The distance (distance from the lens rear principal point to the imaging surface) is short.
  • Patent Document 3 describes a technique for imaging a distant imaging object and a nearby imaging object with a single imaging device.
  • incident light that has entered the case through the case is branched by a half mirror, and one of the branched incident light is collected on the first imaging surface via the first lens.
  • the other incident light is condensed on the second imaging surface through a second lens having a different focal length from that of the first lens.
  • JP 2001-147278 A Japanese Patent Laying-Open No. 2015-19462 Japanese Patent Laid-Open No. 4-300748
  • the distance between the first lens and the first imaging surface (the inter-image distance from the rear principal point of the first lens to the first imaging surface), and The distance between the second lens and the second imaging surface (inter-image distance from the rear principal point of the second lens to the second imaging surface) is ensured by a predetermined distance depending on the imaging object to be focused.
  • a predetermined distance depending on the imaging object to be focused.
  • the first and second lenses are arranged between the first and second imaging surfaces and the half mirror, respectively, there is a problem that the apparatus is enlarged to ensure the predetermined distance. was there.
  • An object of the present invention is to provide an imaging apparatus that can suppress an increase in size of the apparatus.
  • the imaging apparatus includes a lens, a beam splitter, a first imaging unit, and a second imaging unit.
  • the beam splitter is disposed on an optical path of light transmitted through the lens.
  • the first imaging unit has a first imaging surface.
  • the first imaging surface is located at a position where the transmitted light that has passed through the beam splitter forms an image.
  • the second imaging unit has a second imaging surface. The second imaging surface is located at a position where the reflected light reflected by the beam splitter forms an image.
  • FIG. 4 is a schematic diagram of the imaging apparatus in FIG. 3.
  • FIG. 4 is a block diagram illustrating a schematic configuration of the imaging apparatus in FIG. 3.
  • 5 is a flowchart of processing performed by the image processing apparatus according to the first embodiment.
  • the schematic diagram of the distant image which the 1st image sensor in 1st Embodiment imaged.
  • the schematic diagram of the distant image which the 1st image sensor in 1st Embodiment imaged.
  • FIG. 6 is a schematic diagram of a neighborhood image captured by a second image sensor according to the first embodiment.
  • FIG. 3 is a schematic diagram of a distant image formed by the image processing apparatus according to the first embodiment.
  • 10 is a flowchart of processing performed by the image processing apparatus according to the second embodiment.
  • the schematic diagram of the imaging device of another form The schematic diagram of the imaging device of another form, and a front windshield.
  • the vehicle 10 is provided with a front windshield 12 (hereinafter referred to as a windshield 12) that extends obliquely downward from the vehicle front side end of the roof panel 11 toward the vehicle front side. ing.
  • the vehicle 10 is provided with an imaging device 20 that captures an image for assisting the driver of the vehicle 10 and an image for detecting foreign matter attached to the outer surface 12a of the windshield 12. Yes.
  • a foreign material adhering to the outer surface 12a of the windshield 12 a raindrop, snow, dust, an insect, dirt, etc. are mentioned.
  • the imaging device 20 includes a housing 21, a lens 22 held by the housing 21, a half mirror 23 as a beam splitter housed in the housing 21, and a housing 21 includes a first image sensor 24 serving as a first imaging unit and a second image sensor 25 serving as a second imaging unit.
  • the casing 21 is fixed to the inner surface 12 b of the windshield 12. Specifically, the casing 21 is fixed to the substantially upper center portion of the windshield 12 in the vehicle width direction at the upper end portion of the windshield 12.
  • the lens 22 is disposed so as to be able to receive incident light L ⁇ b> 1 incident on the inside of the casing 21 through an opening 21 a provided in front of the casing 21.
  • the half mirror 23 is disposed on the optical path of the incident light L1 transmitted through the lens 22, and divides the incident light L1 incident on the half mirror 23 into two.
  • the half mirror 23 is disposed on the rear side of the vehicle 10 with respect to the lens 22 and divides the incident light L1 into transmitted light L2 and reflected light L3 at a ratio of 1: 1.
  • the half mirror 23 is, for example, a cubic prism type, and is disposed such that the incident surface 23a on which the incident light L1 is incident is parallel to the main surface 22a of the lens 22. Further, the half mirror 23 is arranged so that the reflection surface 23 b is inclined by 45 ° with respect to the main surface 22 a of the lens 22 when viewed from the vehicle width direction (perpendicular to the paper surface in FIG. 3).
  • the first image sensor 24 and the second image sensor 25 are, for example, CMOS image sensors.
  • Each of the first and second image sensors 24 and 25 sequentially captures an image, for example, images 30 frames per second.
  • the first image sensor 24 is disposed on the optical path of the transmitted light L2 transmitted through the half mirror 23, and has a first imaging surface 24a that receives the transmitted light L2.
  • the first image sensor 24 is arranged so that the first imaging surface 24a is located at a position where the transmitted light L2 forms an image.
  • the first image sensor 24 is around the vehicle 10 (such as the front of the vehicle 10). ) Is arranged on the rear side of the vehicle 10 with respect to the half mirror 23 so as to form an image on the first imaging surface 24a.
  • the first image sensor 24 is arranged so that the first imaging surface 24 a is parallel to the main surface 22 a of the lens 22. Then, the first image sensor 24 captures an image formed on the first imaging surface 24a (that is, an image capturing the periphery of the vehicle 10 from the inside of the vehicle 10 through the windshield 12).
  • the second image sensor 25 is disposed on the optical path of the reflected light L3 reflected by the half mirror 23, and has a second imaging surface 25a that receives the reflected light L3.
  • the second image sensor 25 is disposed so that the second imaging surface 25a is positioned at the position where the reflected light L3 forms an image.
  • the second image sensor 25 is located in front of the casing 21 (see FIG. 2).
  • the windshield 12 is disposed on the lower side of the vehicle 10 with respect to the half mirror 23 so as to form an image on the second imaging surface 25a.
  • the second image sensor 25 is arranged so that the plane including the second imaging surface 25 a is perpendicular to the plane including the main surface 22 a of the lens 22.
  • the second image sensor 25 captures an image formed on the second imaging surface 25a (that is, an image of a part of the windshield 12 as viewed from the inside of the vehicle 10).
  • the first image sensor 24 is provided so as to focus on a range X1 around the vehicle 10 (the front side of the vehicle 10), and the second image sensor 25 includes a housing. 21 is provided so as to be in focus in a range X2 including the windshield 12 on the front side. That is, the imaging target imaged by the second image sensor 25 is located closer to the lens 22 than the imaging target imaged by the first image sensor 24. Therefore, the inter-image distance of the second image sensor 25 (distance between the main surface 22a and the second imaging surface 25a via the half mirror 23) is the inter-image distance (main surface of the first image sensor 24). 22a and the first imaging surface 24a).
  • the imaging device 20 includes an image processing device 26 that performs image processing of images captured by the first and second image sensors 24 and 25.
  • the image processing device 26 includes a well-known microcomputer having a CPU for performing various controls and a storage device 26a.
  • the storage device 26a includes, for example, a ROM that stores a program for executing processing performed by the CPU, parameters, and the like, and a RAM as a work area that temporarily stores data generated during the processing.
  • the storage device 26a stores an image captured by the first image sensor 24 and an image captured by the second image sensor 25.
  • the imaging device 20 also includes a foreign matter determination unit 31 that determines the presence or absence of foreign matter attached to the outer surface 12a of the windshield 12 based on image data output from the image processing device 26, and the presence or absence of foreign matter by the foreign matter determination unit 31. And a wiper control unit 32 that controls the wiper motor M based on the determination. A wiper W that is driven by the wiper motor M and wipes the outer surface 12a of the windshield 12 is connected to the wiper motor M.
  • the imaging device 20 includes a driving assistance control unit 33 for performing driving assistance to the driver (detecting an obstacle or the like during traveling to avoid a collision) based on the image data output from the image processing device 26.
  • the driving support control unit 33 controls the engine ECU (not shown) that controls the engine of the vehicle 10, the brake ECU that controls the brake, the speaker, and the like based on the image data output from the image processing device 26. Is output.
  • the image processing device 26 acquires an image obtained by capturing the periphery of the vehicle 10 from the inside of the vehicle 10 through the windshield 12 from the first image sensor 24 in step S ⁇ b> 101.
  • the process proceeds to S102.
  • the image acquired from the first image sensor 24 is, for example, an image F1 as shown in FIG. 7 when no foreign matter or the like is attached to the outer surface 12a of the windshield 12.
  • the image acquired from the first image sensor 24 is, for example, an image F2 as shown in FIG.
  • the first image sensor 24 captures an image in which the periphery of the vehicle 10 is in focus, the outline of the foreign matter 41 (for example, raindrops) is blurred in the image F2.
  • the foreign object detection process performed by the image processing apparatus 26 will be described assuming that the foreign object 41 is attached to the outer surface 12a of the windshield 12.
  • step S ⁇ b> 102 the image processing device 26 performs a differentiation operation (edge strength calculation) on each pixel of the image acquired from the first image sensor 24. Then, the image processing device 26 extracts an edge in the image (a portion where the brightness changes sharply) based on the calculation result, and proceeds to step S105.
  • the edge extraction is performed by determining whether or not the result of the differential operation exceeds a threshold value stored in advance in the storage device 26a.
  • the image processing apparatus 26 acquires an image obtained by capturing the windshield 12 from the inside of the vehicle 10 from the second image sensor 25 in step S103, and proceeds to step S104. .
  • the image processing device 26 acquires an image captured by the second image sensor 25 at the same time as the time when the image acquired from the first image sensor 24 is captured in step S101.
  • the image acquired from the second image sensor 25 is, for example, an image F3 as shown in FIG. Since the second image sensor 25 captures an image in which the windshield 12 in front of the housing 21 is in focus, the image around the vehicle 10 in the background of the foreign object 41 is blurred in the image F3. It will be a thing.
  • step S ⁇ b> 104 the image processing device 26 performs a differentiation operation (edge strength calculation) on each pixel of the image acquired from the second image sensor 25, and extracts an edge in the image based on the calculation result.
  • the process proceeds to step S105. Note that edge extraction is performed in the same manner as in step S102.
  • step S ⁇ b> 105 the image processing device 26 performs processing for extracting the edge in step S ⁇ b> 102, and for performing the edge extraction process in step S ⁇ b> 104.
  • contours that exist in both of the two images are extracted. More specifically, in the image F2 (see FIG. 8) acquired from the first image sensor 24 in the step S101, the outline of the scenery around the vehicle 10 (the outline of the roadway and the vehicle positioned ahead) is clear. However, the outline of the foreign matter 41 attached to the outer surface 12a of the windshield 12 is blurred. On the other hand, in the image F3 (see FIG.
  • the outline of the scenery around the vehicle 10 is blurred, but attached to the outer surface 12a of the windshield 12.
  • the outline of the foreign object 41 is clear.
  • the image F3 acquired from the second image sensor 25 in step S103 may include a landscape outline around the vehicle 10.
  • a part of the contour 42 of the traffic light is reflected in the image F3.
  • the outline of the scenery around the vehicle 10 should be clear only in the image F2 acquired from the first image sensor 24 in step S101. Therefore, a contour (for example, contour 42) included in (imaged in) both the image subjected to the edge extraction process in step S102 and the image subjected to the edge extraction process in step S104 is the foreign object 41.
  • step S105 the image processing device 26 compares the image that has undergone the edge extraction process in step S102 with the image that has undergone the edge extraction process in step S104. Then, based on the comparison result, the image processing device 26 extracts a contour that may not be included in the image subjected to the edge extraction processing in step S104, that is, a contour that exists in both of the two images. Then, the process proceeds to step S106.
  • step S106 the image processing apparatus 26 erases the contour extracted in step S105 (for example, the contour 42) from the image subjected to the edge extraction processing in step S104, and proceeds to step S107. Note that only the outline of the foreign object 41 remains in the image obtained by performing this step S106.
  • step S107 the image processing apparatus 26 connects the contours of the foreign matter 41a that is not circular (the contour is not closed) out of the contours of the foreign matter 41 included in the image obtained in step S106 to make the circular shape.
  • a connection process is performed and it transfers to step S108.
  • step S108 the image processing apparatus 26 fills the inside of the outline of the foreign object 41 in the image subjected to the connection process in step S107, and proceeds to step S109.
  • step S109 the image processing device 26 assumes that the portion painted in step S108 is a range where foreign matter exists in the image. As a result, the position where the foreign object 41 exists (the range occupied by the foreign object 41) is detected on the outer surface 12a of the windshield 12 within the range imaged by the second image sensor 25. Then, the image processing device 26 outputs the image data including the position information of the foreign matter 41 to the foreign matter determination unit 31 (see FIG. 5) and ends the processing.
  • the foreign matter determination unit 31 is based on the image data including the positional information of the foreign matter 41 output by the image processing device 26 (that is, the position of the foreign matter attached to the outer surface 12 a by the image processing device 26. Based on the detection result, the presence / absence of foreign matter attached to the outer surface 12a of the windshield 12 and the amount of foreign matter are determined. Then, the determination result is output to the wiper control unit 32.
  • the wiper control unit 32 controls the drive of the wiper motor M based on the determination of the presence or absence of foreign matter by the foreign matter determination unit 31. More specifically, when a foreign matter determination unit 31 determines that a foreign matter exists on the outer surface 12a when a lever switch (not shown) provided in the vehicle 10 is operated to the auto position, based on the determination result.
  • the wiper control unit 32 drives the wiper motor M. For example, the wiper control unit 32 drives the wiper motor M in a mode (low speed mode, high speed mode, intermittent mode, etc.) corresponding to the amount of foreign matter determined by the foreign matter determination unit 31. Then, the wiper motor M drives the wiper W, and the wiper W wipes the outer surface 12a of the windshield 12 to automatically remove foreign matters such as raindrops on the outer surface 12a.
  • the image processing device 26 detects the image captured by the first image sensor 24 when the foreign matter 41 is attached to the outer surface 12a of the windshield 12, and the image before the foreign matter 41 is attached to the outer surface 12a.
  • An image around the vehicle 10 is formed by removing the influence of the foreign matter 41 (such as blur caused by raindrops) from the image captured by the first image sensor 24.
  • the portion that is the range where the foreign matter exists in the image in step S109 of the foreign matter detection process (see FIG. 6) is the image F2 acquired from the first image sensor 24 (see FIG. 8).
  • the image processing device 26 acquires the image data including the position information of the foreign matter 41 obtained by performing step S109 (that is, the detection result of the position of the foreign matter attached to the outer surface 12a) and the first image sensor 24. Based on the image F2, the position of the foreign object 41 in the image F2, that is, the foreign object presence range A1 is recognized. Then, the image processing device 26 captures an image F1 captured by the first image sensor 24 before the foreign matter 41 adheres to the outer surface 12a of the windshield 12 (for example, immediately before) in the foreign matter existence range A1 in the image F2 (FIG. 7). An image F4 (see FIG. 10) is formed by joining (replacing) images of portions corresponding to the foreign substance existence range A1 in (see).
  • the image processing device 26 outputs the image data of the formed image F4 to the driving support control unit 33.
  • the image processing apparatus 26 determines that the image acquired from the first image sensor 24 (or the edge extraction process in step S102) when the foreign object presence range A1 does not exist in the image acquired from the first image sensor 24.
  • the image data of the image that has been performed is output to the driving support control unit 33.
  • the driving support control unit 33 detects an obstacle close to the vehicle 10 based on the image data output from the image processing device 26 (determines whether there is an obstacle).
  • the driving support control unit 33 sends a control signal for decelerating or stopping the vehicle 10 to the engine ECU and the brake ECU. Or output a control signal for outputting a warning sound for alerting the driver to the speaker.
  • the incident light L1 transmitted through the lens 22 reaches each of the first and second image sensors 24 and 25 via the half mirror 23, the distance between the lens 22 and the first imaging surface 24a, and the same What is necessary is just to ensure the distance between the lens 22 and the 2nd image pick-up surface 25a according to the imaging target to focus on, respectively. That is, the distance between the lens 22 and the first imaging surface 24a (the inter-image distance from the main surface 22a (rear principal point) of the lens 22 to the first imaging surface 24a) is focused on the periphery of the vehicle 10. (The image around the vehicle 10 is formed on the first imaging surface 24a).
  • the distance between the lens 22 and the second imaging surface 25a is focused on the windshield 12. (The image of the windshield 12 is formed on the second imaging surface 25a).
  • the size of the apparatus can be suppressed as compared with a conventional imaging apparatus that includes lenses corresponding to two imaging units according to an imaging target to be focused. Moreover, since one lens can be used (it is not necessary to provide two lenses having different focal lengths), this can also suppress an increase in the size of the apparatus and reduce manufacturing costs. it can.
  • the first image sensor 24 captures an image in which the periphery of the vehicle 10 is in focus and the foreign matter attached to the outer surface 12a of the windshield 12 is not in focus (foreign matter is blurred).
  • the second image sensor 25 captures an image in which the windshield 12 is in focus and the vehicle 10 is out of focus (the periphery of the vehicle 10 is blurred).
  • the image captured by the second image sensor 25 may be partially focused around the vehicle 10. Therefore, the second image sensor 25 detects the position of the foreign matter attached to the outer surface 12a by comparing the image captured by the first image sensor 24 with the image captured by the second image sensor 25.
  • the captured image it is possible to suppress erroneous detection of a part that is partially focused on the periphery of the vehicle 10 as a foreign object.
  • the foreign matter (foreign matter position) attached to the outer surface 12a of the windshield 12 can be detected with high accuracy. And since it is suppressed that an obstacle around the vehicle 10 is erroneously detected as a foreign object, malfunction of the wiper control unit 32 can be suppressed.
  • the image processing device 26 compares the images captured by the first and second image sensors 24 and 25 to determine the position of the foreign matter adhering to the outer surface 12a of the windshield 12 on the outer surface 12a. To detect. Therefore, it is possible to recognize the foreign object presence range A1, which is a range in which a foreign object image exists in an image around the vehicle 10 captured by the first image sensor 24.
  • the image processing device 26 converts an image of a portion corresponding to the foreign substance presence range A1 in the image captured by the first image sensor 24 before the foreign substance adheres to the outer surface 12a to an image including the foreign substance presence range A1. It connects with the said foreign material presence range A1.
  • the image processing device 26 can form an image of the periphery of the vehicle 10 in which the influence of foreign matters (such as blur due to water droplets) is reduced.
  • the driving assistance control part 33 detects the obstruction which adjoins the vehicle 10 based on the said image from which the influence of the foreign material adhering to the outer surface 12a of the windshield 12 was reduced, the misdetection of an obstruction is carried out. Reduced.
  • the foreign matter determination unit 31 determines the presence or absence of foreign matter attached to the outer surface 12a of the windshield 12 based on the detection result of the image processing device 26 in which erroneous detection of foreign matter is suppressed. Therefore, the foreign matter determination unit 31 can determine the presence or absence of foreign matter attached to the outer surface 12a of the windshield 12 with high accuracy. Since the wiper control unit 32 controls driving of the wiper motor M based on the determination result of the foreign matter determining unit 31, the wiper motor M can be driven and controlled with high accuracy according to the state of the outer surface 12a of the windshield 12. it can. As a result, the outer surface 12a of the windshield 12 can be favorably wiped by the wiper W driven by the wiper motor M.
  • the image processing device 26 compares the image around the vehicle 10 captured by the first image sensor 24 with the image of the windshield 12 captured by the second image sensor 25, and based on the comparison result.
  • the position of the foreign matter attached to the outer surface 12a is detected. Therefore, the position of the foreign substance in the image captured by the second image sensor 25 can be detected with high accuracy.
  • the image processing device 26 can recognize the position of the foreign matter in the image captured by the first image sensor 24 with high accuracy.
  • the driving support control unit 33 detects an obstacle close to the vehicle 10 based on an image captured by the first image sensor 24 and the position of the foreign object is recognized with high accuracy.
  • the image processing device 26 compares the image around the vehicle 10 captured by the first image sensor 24 with the image of the windshield 12 captured by the second image sensor 25, thereby In addition to water droplets attached to the outer surface 12a, the position (existing range) of dust, insects, dirt, etc. attached to the outer surface 12a can be detected. Therefore, the image processing device 26 can recognize the positions of dust, insects, dirt, and the like in the image captured by the first image sensor 24 based on the detection result. Therefore, even when dust, insects, dirt, or the like is attached to the outer surface 12a of the windshield 12 within the range imaged by the second image sensor 25, the driving support control unit 33 performs the dust, It is possible to suppress erroneous detection of insects, dirt, and the like as obstacles close to the vehicle 10.
  • the image processing device 26 compares the image around the vehicle 10 captured by the first image sensor 24 with the image of the windshield 12 captured by the second image sensor 25, and the outer surface of the windshield 12. The position of the foreign matter attached to 12a is detected, and the position of the foreign matter in the image around the vehicle 10 captured by the first image sensor 24 is recognized.
  • the image processing device 26 erroneously detects the position of the foreign matter due to the influence of the foreign matter attached to the outer surface 12a of the windshield 12, and the driving support control unit 33 causes the vehicle 10 to False detection of nearby obstacles can be reduced.
  • the image processing device 26 acquires an image obtained by capturing the periphery of the vehicle 10 from the inside of the vehicle 10 through the windshield 12 from the first image sensor 24 in step S201.
  • the process proceeds to S202.
  • An image F11 illustrated in FIG. 12 is an example of an image (second image) acquired from the first image sensor 24 when a foreign matter is attached to the outer surface 12a of the windshield 12. Since the first image sensor 24 captures an image in which the periphery of the vehicle 10 is in focus, the outline of the foreign object 41 is blurred in the image F11.
  • control processing performed by the image processing apparatus 26 will be described assuming that the foreign matter 41 is attached to the outer surface 12a of the windshield 12.
  • the image processing apparatus 26 forms a reference image F12 for performing mask processing on the area of the foreign matter 41 detected from the image F11 acquired in step S201.
  • the image processing device 26 recognizes a range where foreign matter exists in the image F11 by the foreign matter detection processing (steps S101 to S109) of the first embodiment.
  • the image acquired by the image processing device 26 in step S101 corresponds to the image F11 acquired from the first image sensor 24 in step S201, and the image acquired by the image processing device 26 in step S103 is This is an image captured by the second image sensor 25 at the same time as when the image F11 was captured.
  • the image processing device 26 acquires the image data including the position information of the foreign matter 41 obtained in step S109 (that is, the detection result of the position of the foreign matter attached to the outer surface 12a), and the first image sensor in step S201. 24, the position of the foreign object 41 in the image F11, that is, the foreign object presence range A1 is recognized. Then, the image processing device 26 forms a reference image F12 for extracting an image of a portion corresponding to the foreign substance presence range A1 from another image.
  • the reference image F12 is an image in which the foreign substance existence range A1 and a portion that is not the foreign substance existence range A1 are clarified.
  • step S203 the image processing apparatus 26 captures an image captured by the first image sensor 24 one hour before the time when the image F11 acquired in step S201 is captured.
  • F13 first image
  • “one hour before” is a time that is set in advance before the time when the image F11 acquired in step S201 is captured by the first image sensor 24.
  • the image one hour before is the image one frame before the image F11 acquired in step S201.
  • step S204 the image processing apparatus 26 captures an image captured by the first image sensor 24 two hours before the time when the image F11 acquired in step S201 is captured.
  • F14 (first image) is read from the storage device 26a.
  • “two hours ago” is a time that is a time before “one time ago” in step S203, and is a preset time.
  • the image two hours ago is an image one hour earlier than “one hour ago” in step S203, and is an image two frames before the image F11 acquired in step S201.
  • step S ⁇ b> 205 the image processing device 26 determines that the image F ⁇ b> 13 one hour before acquired in step S ⁇ b> 203 and the image two hours before acquired in step S ⁇ b> 204.
  • the optical flow is calculated from F14, and the process proceeds to step S206.
  • the image processing apparatus 26 sets, for example, a point that can be recognized as the same part as a feature point in the images F13 and F14 that are captured at different times, and uses the movement of the feature point as a flow vector for a plurality of the images. It calculates for every group classified into. Such a flow vector is calculated in all regions of the images F13 and F14.
  • a specific known method such as a matching method or a gradient method can be used as a specific method for calculating the optical flow, but is not particularly limited.
  • step S206 the image processing device 26 forms a predicted image F15 at the time when the image F11 acquired in step S201 is captured based on the optical flow calculated in step S205. Then, the process proceeds to step S207.
  • step S207 the image processing apparatus 26 applies a portion corresponding to the foreign object existence range A1 in the image F11 acquired from the first image sensor 24 in step S201 to the step S206.
  • An image F16 is formed by replacing the image of the portion corresponding to the foreign substance presence range A1 in the formed predicted image F15.
  • the image processing device 26 performs mask processing on the predicted image F15 (see FIG. 16) formed in step S206 using the reference image F12 (see FIG. 13) formed in step S202. Thereby, the image of the part corresponding to the foreign substance presence range A1 is extracted in the prediction image F15.
  • the image processing device 26 replaces the image extracted from the predicted image F15 with a portion corresponding to the foreign substance existence range A1 in the image F11 (see FIG. 12) acquired from the first image sensor 24 in the step S201 ( A joined image F16 (see FIG. 17) is formed. Then, the image processing device 26 outputs the image data of the formed image F16 to the driving support control unit 33 and ends the processing.
  • the driving support control unit 33 detects an obstacle close to the vehicle 10 based on the image data output from the image processing device 26 (similar to the obstacle) as in the first embodiment. Judgment is made)
  • the driving support control unit 33 sends a control signal for decelerating or stopping the vehicle 10 to the engine ECU and the brake ECU. Or output a control signal for outputting a warning sound for alerting the driver to the speaker.
  • the determination of the presence / absence of foreign matter adhered to the outer surface 12a of the windshield 12 by the foreign matter determination unit 31 and the drive control of the wiper motor M by the wiper control unit 32 are performed in the same manner as in the above embodiment.
  • the image processing device 26 compares the images captured by the first and second image sensors 24 and 25 to determine the position of the foreign matter adhering to the outer surface 12a of the windshield 12 on the outer surface 12a. To detect. Therefore, it is possible to recognize the foreign object presence range A1, which is a range in which a foreign object image exists in an image around the vehicle 10 captured by the first image sensor 24.
  • the image processing device 26 predicts the foreign object existence range A1 in the image F11 captured by the first image sensor 24 from the plurality of images F13 and F14 captured by the first image sensor 24 before the image F11.
  • An image F16 is formed by joining the images of the portions corresponding to the foreign substance presence range A1 in the predicted image F15. Therefore, the image processing device 26 can form an image around the vehicle 10 in which the influence of foreign matters (such as blur due to water droplets) is reduced. For example, an obstacle that moves relative to the vehicle 10 may overlap the foreign matter 41 attached to the outer surface 12a of the windshield 12 in the image F11 acquired from the first image sensor 24 in step S201. .
  • a predicted image F15 is formed from a plurality of images F13 and F14 captured by the first image sensor 24 before the image F11, and a portion corresponding to the foreign substance existence range A1 in the predicted image F15 is image F11.
  • the image F ⁇ b> 16 connected to the obstacle, there is a possibility that an obstacle that overlaps the foreign substance existence range A ⁇ b> 1 in the image F ⁇ b> 11 can be recognized.
  • the part other than the part replaced in the image F16 part of the foreign object presence range A1
  • the actual new information around the vehicle 10 is included.
  • the driving support control unit 33 determines that the vehicle 10 Since the obstacle close to the vehicle is detected, erroneous detection of the obstacle by the driving support control unit 33 is reduced.
  • the wiper motor M is driven and controlled based on the determination of the presence or absence of foreign matter by the foreign matter determination unit 31, but the determination result may be used for other purposes.
  • the imaging device 20 does not necessarily include the foreign matter determination unit 31 and the wiper control unit 32.
  • the image captured by the first image sensor 24 is used for driving assistance to the driver, but may be used for other purposes. Further, the imaging device 20 does not necessarily include the driving support control unit 33.
  • the driving support control unit 33 performs the first image before the foreign matter adheres to the outer surface 12a of the windshield 12 in the foreign matter existence range A1 in the image captured by the first image sensor 24.
  • An obstacle close to the vehicle 10 is detected based on an image obtained by joining the images captured by the sensor 24.
  • the driving support control unit 33 is an image acquired from the first image sensor 24 and not subjected to a joining process regardless of the presence or absence of foreign matter on the outer surface 12a of the windshield 12 (or step).
  • An obstacle close to the vehicle 10 may be detected based on the image obtained by performing the edge extraction process in S102.
  • the driving support control unit 33 detects the obstacle close to the vehicle 10 based on the image captured by the first image sensor 24 and the position of the foreign object is recognized, whereby the first The effect similar to (5) of 1 embodiment is acquired.
  • the image processing device 26 does not have to form the joined image.
  • the image processing device 26 forms the predicted image F15 at the time when the image F11 is captured from the two images F13 and F14 captured by the first image sensor 24.
  • the image processing device 26 forms a predicted image at the time when the image F11 is captured from three or more images captured at different times by the first image sensor 24 before the time when the image F11 is captured. It may be.
  • the image processing device 26 captures the image of the foreign object presence range A1 in the image captured by the first image sensor 24 with the first image sensor 24 before the time when the image is captured.
  • An image is formed by connecting portions corresponding to the foreign substance existence range A1 in the predicted image predicted from the plurality of images, and image data is output.
  • the driving support control unit 33 detects an obstacle close to the vehicle 10 based on the image data output from the image processing device 26.
  • the driving support control unit 33 is an image acquired from the first image sensor 24 and not subjected to a joining process regardless of the presence or absence of foreign matter on the outer surface 12a of the windshield 12 (or step).
  • An obstacle close to the vehicle 10 may be detected based on the image obtained by performing the edge extraction process in S102.
  • the driving support control unit 33 detects the obstacle close to the vehicle 10 based on the image captured by the first image sensor 24 and the position of the foreign object is recognized, whereby the first The effect similar to (5) of 1 embodiment is acquired.
  • the image processing device 26 does not have to form the joined image.
  • the image processing apparatus 26 uses the first image sensor to detect the position of the foreign matter on the outer surface 12a of the windshield 12 within the range imaged by the second image sensor 25 with high accuracy.
  • the position of the foreign matter in the image captured at 24 can be recognized with high accuracy. Therefore, the driving support control unit 33 or the image processing device 26 can correct the image used for driving support according to the position of the foreign object in the image captured by the first image sensor 24. .
  • the driving support control unit 33 can change the control signal so as to change the content of driving support in accordance with the proportion of foreign matter in the image captured by the first image sensor 24.
  • the driving support control unit 33 outputs a warning sound to stop driving support when the ratio of foreign matter in the image captured by the first image sensor 24 is large (when the ratio is above a certain level).
  • a control signal can be output to the speaker.
  • the image processing device 26 compares the image captured by the first image sensor 24 with the image captured by the second image sensor 25, and the outside of the windshield 12 is based on the comparison result. The position of the foreign matter adhering to the surface 12a on the outer surface 12a is detected. However, the image processing device 26 may detect the position of the foreign matter attached to the outer surface 12a of the windshield 12 on the outer surface 12a using only the image captured by the second image sensor 25. .
  • the first image sensor 24 is arranged so that an image around the vehicle 10 is formed on the first imaging surface 24a, and the second image sensor 25 is the windshield 12. Are arranged so as to form an image on the second imaging surface 25a.
  • the first image sensor 24 is arranged so that the image of the windshield 12 is formed on the first imaging surface 24a, and the second image sensor 25 is arranged so that the image around the vehicle 10 is the second imaging. You may arrange
  • the first image sensor 24 is disposed such that the first imaging surface 24a is parallel to the main surface 22a of the lens 22, and the second image sensor 25 is the second imaging surface.
  • the plane including 25 a is arranged so as to be perpendicular to the plane including the main surface 22 a of the lens 22.
  • the first and second image sensors 24 and 25 are arranged so as to be able to receive the transmitted light L2 and the reflected light L3 on the first and second imaging surfaces 24a and 25a, respectively, the arrangement thereof.
  • the aspect is not limited to that of the above embodiment.
  • the first image sensor 24 is arranged so that the image of the windshield 12 is formed on the first imaging surface 24 a, and the second image sensor 25 is arranged around the vehicle 10. Are arranged so as to form an image on the second imaging surface 25a.
  • the plane P1 including the first imaging surface 24a of the first image sensor 24, the plane P2 including the main surface 22a of the lens 22, and the plane P3 including the outer surface 12a of the windshield 12 are on a straight line S1.
  • the first image sensor 24 and the lens 22 are arranged so as to cross each other.
  • FIG. 19 is a schematic view of the vehicle 10 viewed from the vehicle width direction.
  • the planes P1, P2, and P3 are illustrated as straight lines because they are orthogonal to the paper surface, and the straight line S1 is illustrated as a point because it extends in the direction perpendicular to the paper surface. ing.
  • the focus (focus) of the image captured by the first image sensor 24 can be adjusted to the range X3 along the outer surface 12a of the windshield 12 by the principle of Scheinproof. Therefore, for example, even if the lens 22 is disposed at a position not facing the windshield 12 (that is, the lens 22 is disposed at a position where the main surface 22a is not parallel to the windshield 12), the outer surface 12a of the windshield 12 is disposed. It is possible to capture an image that is in focus and the background is not in focus (the background is blurred). Therefore, based on the image captured by the first image sensor 24, information (such as the adhesion state of foreign matter) of the outer surface 12a of the windshield 12 can be obtained with high definition.
  • the outer surface 12a of the windshield 12 is actually curved and not a flat surface, for example, a plane closest to the curved surface is defined as a plane P3, and the first image sensor 24 has a plane P3.
  • the inclinations of the first imaging surface 24a and the main surface 22a of the lens 22 are set. That is, the plane P3 including the outer surface 12a of the windshield 12 may be a plane that can adjust the focus to a range along the outer surface 12a of the windshield 12 according to the Scheinproof principle.
  • the first image sensor 24 is arranged so that an image around the vehicle 10 is formed on the first imaging surface 24a, and the second image sensor 25 is a windshield. Twelve images are arranged on the second imaging surface 25a.
  • the first image sensor 24 is arranged so that the first imaging surface 24 a is parallel to the main surface 22 a of the lens 22.
  • a virtual second image sensor 35 (indicated by a two-dot chain line in FIG. 12) virtually disposed at a position symmetrical to the second image sensor 25 with respect to the plane P4 including the reflection surface 23b of the half mirror 23.
  • the second imaging surface 25a (shown) is assumed to be a virtual imaging surface 35b.
  • FIG. 20 is a schematic view of the vehicle 10 as viewed from the vehicle width direction.
  • the planes P5, P2, and P3 are shown as straight lines because they are orthogonal to the paper surface, and the straight line S2 is shown as a point because they extend in the direction perpendicular to the paper surface. ing.
  • the focus (focus) of the image picked up by the second image sensor 25 can be adjusted to the range X3 along the outer surface 12a of the windshield 12 by the Scheinproof principle. Therefore, for example, even if the lens 22 is disposed at a position that does not face the windshield 12, an image in which the outer surface 12a of the windshield 12 is in focus and the background is not in focus (the background is blurred) is captured. can do. Therefore, the information on the outer surface 12a of the windshield 12 can be obtained with high definition based on the image captured by the second image sensor 25.
  • the outer surface 12a of the windshield 12 is actually curved and not flat, as in the example shown in FIG. 19.
  • the plane closest to the curved surface is flat.
  • the inclination of the second imaging surface 25a (virtual imaging surface 35b) of the second image sensor 25 and the main surface 22a of the lens 22 is set with respect to the plane P3.
  • the imaging device 20 of each of the above embodiments serves as a beam splitter that divides (branches) light transmitted through the lens 22, and a half mirror 23 that divides light transmitted through the lens 22 (that is, incident light L1) into 1: 1. It has.
  • the division ratio of the incident light L1 by the beam splitter provided in the imaging device 20 is not limited to this.
  • the beam splitter divides the incident light L1 so that the first image sensor 24 that captures the periphery of the vehicle 10 receives more light than the second image sensor 25 that captures the windshield 12. You may do. In this way, more light can be distributed to the first image sensor 24 that captures an image with a large amount of information. Therefore, the driving support control unit 33 that detects an obstacle close to the vehicle 10 based on an image captured by the first image sensor 24 can further reduce the erroneous detection of the obstacle.
  • At least one on the optical path of light that passes through the lens 22 (including light that is incident on the lens 22 and reaches the first imaging surface 24a or the second imaging surface 25a and is branched by the half mirror 23)
  • the filter include a polarizing filter, a circular polarizing filter, a neutral density filter, an infrared cut filter, and a visible light cut filter.
  • an infrared cut filter 51 is provided on the optical path of the transmitted light L2 that has passed through the half mirror 23, and a neutral density filter 52 is provided on the optical path of the reflected light L3 reflected by the half mirror 23.
  • the infrared cut filter 51 is disposed between the half mirror 23 and the first imaging surface 24a
  • the neutral density filter 52 is disposed between the half mirror 23 and the second imaging surface 25a.
  • the infrared cut filter 51 is disposed between the first imaging surface 24 a of the first image sensor 24 that images the periphery of the vehicle 10 through the windshield 12 and the half mirror 23, the first image sensor.
  • the image captured at 24 is an image close to the color seen by human eyes.
  • the driving support control unit 33 is less likely to detect the obstacle erroneously.
  • the neutral density filter 52 is disposed between the second imaging surface 25 a of the second image sensor 25 that images the windshield 12 and the half mirror 23, an external image is captured in the image captured by the second image sensor 25. It can reduce that the outline of the foreign material adhering to the surface 12a is not lost by strong disturbance light such as a headlight or a streetlight of an oncoming vehicle.
  • filters can be arranged on the optical path of the transmitted light L2 and on the optical path of the reflected light L3, respectively, a filter suitable for each of the first and second image sensors 24 and 25 is arranged. Can be easily done.
  • a filter is provided between the lens 22 and the half mirror 23 on the optical path of the incident light L1.
  • a polarizing filter may be provided between the lens 22 and the incident surface 23a of the half mirror 23. If it does in this way, it can control that reflected light reflected on a road surface or a vehicle body is received by the 1st and 2nd imaging surfaces 24a and 25a.
  • the image processing device 26 and the driving support control unit 33 it is possible to prevent the image processing device 26 and the driving support control unit 33 from misidentifying the positions of the brake lamps and headlights of the surrounding vehicles.
  • the image captured by the second image sensor 25 it is possible to prevent the outline of the foreign matter attached to the outer surface 12a from appearing in disturbance light.
  • the imaging device 20 may include a beam splitter (for example, a polarization beam splitter) having the function of the filter.
  • a beam splitter for example, a polarization beam splitter
  • the light received by the first and second image sensors 24 and 25 is light obtained by dividing the incident light L1 transmitted through the lens 22 by the half mirror 23. Therefore, the amount of light received by each of the first and second image sensors 24 and 25 is smaller than that of the incident light L1 that passes through the lens 22. Therefore, the images captured by the first and second image sensors 24 and 25 may become dark.
  • each of the first and second image sensors 24 and 25 captures an image by using a bright lens or improving the sensitivity of the first and second image sensors 24 and 25 (imaging devices). The brightness of the image can be improved.
  • the brightness adjustment unit may adjust the shutter speed in each of the first and second image sensors 24 and 25, for example.
  • the brightness adjustment unit may be provided in the image processing device 26 and may perform gain control of an image captured by each of the first and second image sensors 24 and 25.
  • the half mirror 23 is disposed such that the reflection surface 23b is inclined by 45 ° with respect to the main surface 22a of the lens 22 when viewed from the vehicle width direction.
  • the arrangement of the half mirror 23 is not limited to this as long as the first and second image sensors 24 and 25 can receive the transmitted light L2 and the reflected light L3, respectively.
  • the half mirror 23 is a cubic prism type, but is not limited thereto, and a planar type may be used.
  • the first image sensor 24 is arranged on the rear side of the vehicle 10 with respect to the half mirror 23
  • the second image sensor 25 is on the lower side of the vehicle 10 with respect to the half mirror 23. Has been placed.
  • the arrangement positions of the first and second image sensors 24 and 25 with respect to the half mirror 23 are not limited to this.
  • the second image sensor 25 may be arranged on one side in the vehicle width direction with respect to the half mirror 23.
  • the second image sensor 25 is arranged on the left side with respect to the half mirror 23.
  • the half mirror 23 is arranged so that the transmitted light L2 is received by the first image sensor 24 and the reflected light L3 is received by the second image sensor 25.
  • the imaging device 20 (housing 21) can be thinned in the vertical direction of the vehicle 10. As a result, it is possible to suppress the view of the passenger of the vehicle 10 from being narrowed by the imaging device 20.
  • the first and second image sensors 24 and 25 are both CMOS image sensors, but are not limited to this, and may be other image sensors (CCD image sensors or the like).
  • the housing 21 that holds the lens 22 and accommodates the half mirror 23, the first image sensor 24, and the second image sensor 25 is fixed to the inner surface 12 b of the windshield 12.
  • the arrangement position of the housing 21 in the vehicle 10 is not limited to this, and may be a position where the imaging device 20 can image the periphery of the vehicle 10 and the windshield 12.
  • the casing 21 is preferably fixed at a position that does not interfere with the driver's field of view.
  • the casing 21 may be fixed to the roof panel 11.
  • the casing 21 is fixed to the roof panel 11 so as to be positioned on the vehicle front side of a rearview mirror (not shown), for example, and is positioned at the center in the vehicle width direction.
  • the imaging device 20 is used for capturing an image around the vehicle 10 and an image of the windshield 12.
  • the present invention is not limited to this, and the subject distance (from the lens to the imaging target) is used. It may be used for the purpose of imaging two imaging objects having different distances.
  • the imaging device 20 may be used for capturing an image of the periphery of the vehicle 10 (the rear side of the vehicle 10) and an image of a rear windshield provided as a windshield provided behind the vehicle 10. .

Abstract

撮像装置は、レンズと、ビームスプリッタと、第1の撮像部と、第2の撮像部とを含む。ビームスプリッタは、レンズを透過した光の光路上に配置されている。第1の撮像部は第1の撮像面を有する。第1の撮像面はビームスプリッタを透過した透過光が結像する位置に位置する。第2の撮像部は第2の撮像面を有する。第2の撮像面はビームスプリッタで反射された反射光が結像する位置に位置する。

Description

撮像装置
 本発明は、撮像装置に関するものである。
 従来、例えば特許文献1に記載されているように、レンズ及び撮像素子を備えたカメラにより車室内から車両のフロントウインドシールドを撮像し、撮像した画像に基づいてフロントウインドシールドの外表面に雨滴等の水滴が付着していることを検出する撮像装置(雨滴検出装置)がある。このような撮像装置では、フロントウインドシールドの外表面に付着した雨滴が撮像対象であるため、撮像対象から撮像素子において撮像対象の像が結像する撮像面までの物像間距離が短く、像間距離(レンズ後側主点から撮像面までの距離)が長い。
 また、近年、同様のカメラにより車両の周辺を撮像し、撮像した画像に基づいて運転者への運転支援(走行時に障害物等を検出し衝突を回避する等)を積極的に行う撮像装置(運転支援装置)も提案されている(例えば特許文献2参照)。このような撮像装置では、車両の前方の遠景や、車両の周辺に存在する別の車両や障害物等が撮像対象となるため、撮像対象から撮像面までの物像間距離が長く、像間距離(レンズ後側主点から撮像面までの距離)が短い。
 そして、特許文献3には、遠方の撮像対象と近傍の撮像対象とを単一の撮像装置で撮像する技術が記載されている。特許文献2に記載された撮像装置は、ケースの開口から同ケース内に入射した入射光をハーフミラーで分岐し、分岐された一方の入射光を第1レンズを介して第1撮像面に集光し、他方の入射光を第1レンズとは焦点距離の異なる第2レンズを介して第2撮像面に集光するように構成されている。
特開2001-147278号公報 特開2015-194962号公報 特開平4-300748号公報
 ところで、特許文献3に記載された撮像装置においては、第1レンズと第1撮像面との間の距離(第1レンズの後側主点から第1撮像面までの像間距離)、並びに、第2レンズと第2撮像面との間の距離(第2レンズの後側主点から第2撮像面までの像間距離)は、ピントを合わせたい撮像対象に応じてそれぞれ所定の距離だけ確保する必要がある。しかしながら、第1及び第2撮像面とハーフミラーとの間に第1及び第2レンズがそれぞれ配置された構成であるため、上記所定の距離を確保するために装置が大型化されてしまうという問題があった。
 本発明の目的は、装置の大型化を抑制することができる撮像装置を提供することにある。
 上記目的を達成するため、撮像装置は、レンズと、ビームスプリッタと、第1の撮像部と、第2の撮像部とを含む。前記ビームスプリッタは、前記レンズを透過した光の光路上に配置されている。前記第1の撮像部は第1の撮像面を有する。前記第1の撮像面は前記ビームスプリッタを透過した透過光が結像する位置に位置する。前記第2の撮像部は第2の撮像面を有する。前記第2の撮像面は前記ビームスプリッタで反射された反射光が結像する位置に位置する。
第1及び第2実施形態の撮像装置を備えた車両の平面図。 フロントウインドシールドに固定された図1の撮像装置を模式的に示す断面図。 図2の撮像装置及びフロントウインドシールドの模式図。 図3の撮像装置の模式図。 図3の撮像装置の概略構成を示すブロック図。 第1実施形態における画像処理装置が行う処理のフローチャート。 第1実施形態における第1のイメージセンサが撮像した遠方画像の模式図。 第1実施形態における第1のイメージセンサが撮像した遠方画像の模式図。 第1実施形態における第2のイメージセンサが撮像した近傍画像の模式図。 第1実施形態における画像処理装置が形成した遠方画像の模式図。 第2実施形態における画像処理装置が行う処理のフローチャート。 第2実施形態における第1のイメージセンサが撮像した遠方画像の模式図。 第2実施形態における画像処理装置が形成した基準画像の模式図。 第2実施形態における第1のイメージセンサが撮像した遠方画像の模式図。 第2実施形態における第1のイメージセンサが撮像した遠方画像の模式図。 第2実施形態における画像処理装置が形成した予測画像の模式図。 第2実施形態における画像処理装置が形成した遠方画像の模式図。 別の形態の撮像装置の模式図。 別の形態の撮像装置及びフロントウインドシールドの模式図。 別の形態の撮像装置及びフロントウインドシールドの模式図。 別の形態の撮像装置を備えた車両の平面図。 別の形態における撮像装置を備えた車両の模式断面図。
 <第1実施形態>
 以下、撮像装置の第1実施形態について説明する。
 図1に示すように、車両10には、ルーフパネル11の車両前方側端部から車両前方側に向かって斜め下方に延びるようにフロントウインドシールド12(以下、ウインドシールド12とする)が設けられている。また、車両10には、車両10の運転者の運転支援を行うための画像と、ウインドシールド12の外表面12aに付着した異物を検出するための画像とを撮像する撮像装置20が設けられている。なお、ウインドシールド12の外表面12aに付着する異物としては、雨滴、雪、塵埃、虫、汚れ等が挙げられる。
 図2に示すように、撮像装置20は、筐体21と、筐体21にて保持されたレンズ22と、筐体21の内部に収容されたビームスプリッタとしてのハーフミラー23と、同じく筐体21の内部に収容された第1の撮像部としての第1のイメージセンサ24及び第2の撮像部としての第2のイメージセンサ25とを備えている。
 図1及び図2に示すように、筐体21は、ウインドシールド12の内表面12bに固定されている。詳しくは、筐体21は、ウインドシールド12の上端部において、同ウインドシールド12の車幅方向の略中央部に固定されている。
 図2に示すように、レンズ22は、筐体21の前方に設けられた開口部21aから同筐体21の内側に入射する入射光L1を受光可能に配置されている。
 図3に示すように、ハーフミラー23は、レンズ22を透過した入射光L1の光路上に配置されており、該ハーフミラー23に入射した入射光L1を2つに分割する。ハーフミラー23は、レンズ22に対して車両10の後方側に配置されており、入射光L1を1:1の割合で透過光L2と反射光L3とに分割する。そして、ハーフミラー23を透過した透過光L2は、車両10の後方側に進み、同ハーフミラー23の反射面23bで反射された反射光L3は、車両10の下方側に進むようになっている。なお、ハーフミラー23は、例えば、立方体状をなすプリズム型のものであり、入射光L1が入射する入射面23aがレンズ22の主面22aと平行をなすように配置されている。また、ハーフミラー23は、車幅方向(図3において紙面垂直方向)から見て、その反射面23bがレンズ22の主面22aに対して45°傾斜するように配置されている。
 図3及び図4に示すように、第1のイメージセンサ24及び第2のイメージセンサ25は、例えば、CMOSイメージセンサである。これら第1及び第2のイメージセンサ24,25は、それぞれ順次画像を撮像するものであり、例えば、1秒間に30フレームの画像を撮像する。
 第1のイメージセンサ24は、ハーフミラー23を透過した透過光L2の光路上に配置されており、透過光L2を受光する第1の撮像面24aを有する。そして、第1のイメージセンサ24は、透過光L2が結像する位置に第1の撮像面24aが位置するように配置されており、本実施形態では、車両10の周辺(車両10の前方等)の像が第1の撮像面24aに結像するように、ハーフミラー23に対して車両10の後方側に配置されている。また、第1のイメージセンサ24は、第1の撮像面24aがレンズ22の主面22aと平行をなすように配置されている。そして、第1のイメージセンサ24は、第1の撮像面24aに結像した画像(即ち、車両10の内部からウインドシールド12越しに車両10の周辺を撮像した画像)を撮像する。
 第2のイメージセンサ25は、ハーフミラー23で反射された反射光L3の光路上に配置されており、反射光L3を受光する第2の撮像面25aを有する。そして、第2のイメージセンサ25は、反射光L3が結像する位置に第2の撮像面25aが位置するように配置されており、本実施形態では、筐体21(図2参照)の前方のウインドシールド12の像が第2の撮像面25aに結像するように、ハーフミラー23に対して車両10の下方側に配置されている。また、第2のイメージセンサ25は、第2の撮像面25aを含む平面がレンズ22の主面22aを含む平面に対して直角をなすように配置されている。そして、第2のイメージセンサ25は、第2の撮像面25aに結像した画像(即ち、車両10の内部から見たウインドシールド12の一部分の画像)を撮像する。
 なお、図3に示すように、第1のイメージセンサ24は、車両10の周辺(車両10の前方側)の範囲X1にピントが合うように設けられ、第2のイメージセンサ25は、筐体21の前方側のウインドシールド12を含む範囲X2にピントが合うように設けられている。即ち、第2のイメージセンサ25が撮像する撮像対象は、第1のイメージセンサ24が撮像する撮像対象よりもレンズ22に近い位置に位置する。そのため、第2のイメージセンサ25の像間距離(ハーフミラー23を介した主面22aと第2の撮像面25aとの間の距離)は、第1のイメージセンサ24の像間距離(主面22aと第1の撮像面24aとの間の距離)よりも長い。
 また、図5に示すように、撮像装置20は、第1及び第2のイメージセンサ24,25が撮像した画像の画像処理を行う画像処理装置26を備えている。画像処理装置26は、各種制御を行うCPUと記憶装置26aとを有する周知のマイクロコンピュータで構成されている。記憶装置26aは、例えば、CPUで行う処理を実行するプログラムやパラメータ等を格納するROM及びその処理過程で生成されるデータを一時格納する作業領域としてのRAMにて構成されている。記憶装置26aには、第1のイメージセンサ24が撮像した画像、及び第2のイメージセンサ25が撮像した画像が記憶される。
 また、撮像装置20は、画像処理装置26が出力する画像データに基づいてウインドシールド12の外表面12aに付着した異物の有無を判定する異物判定部31と、異物判定部31による異物の有無の判定に基づいてワイパモータMを駆動制御するワイパ制御部32とを備えている。ワイパモータMには、同ワイパモータMによって駆動されウインドシールド12の外表面12aを払拭するワイパWが連結されている。
 また、撮像装置20は、画像処理装置26が出力する画像データに基づいて運転者への運転支援(走行時に障害物等を検出し衝突を回避する等)を行うための運転支援制御部33を備えている。運転支援制御部33は、画像処理装置26が出力する画像データに基づいて、車両10のエンジンを制御するエンジンECU(図示略)、ブレーキを制御するブレーキECU、スピーカ等を制御するための制御信号を出力する。
 次に、画像処理装置26が行う異物検出の処理について説明する。
 図6乃至図8に示すように、画像処理装置26は、ステップS101において、車両10の内部からウインドシールド12越しに車両10の周辺を撮像した画像を第1のイメージセンサ24から取得し、ステップS102に移行する。第1のイメージセンサ24から取得した画像は、ウインドシールド12の外表面12aに異物等が付着していない場合には、例えば、図7に示すような画像F1である。一方、ウインドシールド12の外表面12aに異物が付着している場合には、第1のイメージセンサ24から取得した画像は、例えば、図8に示すような画像F2となる。第1のイメージセンサ24は、車両10の周辺にピントがあった画像を撮像するものであるため、画像F2においては、異物41(例えば雨滴)の輪郭はぼけたものとなる。なお、以下、ウインドシールド12の外表面12aに異物41が付着しているものとして、画像処理装置26が行う異物検出の処理の説明をする。
 ステップS102において、画像処理装置26は、第1のイメージセンサ24から取得した画像の各画素に関する微分演算(エッジ強度の演算)を行う。そして、画像処理装置26は、その演算結果に基づいて、画像中のエッジ(明るさが鋭敏に変化している箇所)を抽出してステップS105に移行する。なお、本実施形態では、エッジの抽出は、微分演算の結果が、記憶装置26aに予め記憶された閾値を超えるか否かを判定することにより行う。
 また、図6及び図9に示すように、画像処理装置26は、ステップS103において、車両10の内部からウインドシールド12を撮像した画像を第2のイメージセンサ25から取得し、ステップS104に移行する。画像処理装置26は、前記ステップS101において第1のイメージセンサ24から取得した画像が撮像された時刻と同時刻に第2のイメージセンサ25で撮像された画像を取得する。第2のイメージセンサ25から取得した画像は、例えば、図9に示すような画像F3である。第2のイメージセンサ25は、筐体21の前方のウインドシールド12にピントが合った画像を撮像するものであるため、画像F3においては、異物41の背景の車両10の周辺の画像はぼけたものとなる。
 ステップS104において、画像処理装置26は、第2のイメージセンサ25から取得した画像の各画素に関する微分演算(エッジ強度の演算)を行い、その演算結果に基づいて、画像中のエッジを抽出してステップS105に移行する。なお、エッジの抽出は前記ステップS102と同様に行われる。
 図6、図8及び図9に示すように、ステップS105において、画像処理装置26は、前記ステップS102においてエッジの抽出処理を行った画像と、前記ステップS104においてエッジの抽出処理を行った画像とを比較し、2つの画像の両方ともに存在する輪郭を抽出する。詳述すると、前記ステップS101において第1のイメージセンサ24から取得した画像F2(図8参照)では、車両10の周辺の景色の輪郭(車道や、前方に位置する車両等の輪郭)は鮮明となるが、ウインドシールド12の外表面12aに付着した異物41の輪郭はぼけてしまう。その一方で、前記ステップS103において第2のイメージセンサ25から取得した画像F3(図9参照)では、車両10の周辺の景色の輪郭はぼけているが、ウインドシールド12の外表面12aに付着した異物41の輪郭は鮮明となる。しかしながら、ステップS103において第2のイメージセンサ25から取得した画像F3には、車両10の周辺の景色の輪郭が写り込んでいることがある。例えば、画像F3には、信号機の一部の輪郭42が写り込んでいる。車両10の周辺の景色の輪郭は、ステップS101において第1のイメージセンサ24から取得した画像F2においてのみ鮮明であるべきである。そこで、ステップS102においてエッジの抽出処理を行った画像と、ステップS104においてエッジの抽出処理を行った画像との両方の画像に含まれる(写っている)輪郭(例えば、輪郭42)は、異物41の輪郭ではないと判断することができる。従って、ステップS105では、画像処理装置26は、前記ステップS102においてエッジの抽出処理を行った画像と、前記ステップS104においてエッジの抽出処理を行った画像とを比較する。そして、画像処理装置26は、その比較結果に基づいて、ステップS104においてエッジの抽出処理を行った画像には含まれていなくてもよい輪郭、即ち、2つの画像の両方ともに存在する輪郭を抽出して、ステップS106に移行する。
 ステップS106において、画像処理装置26は、前記ステップS105において抽出した輪郭(例えば、輪郭42)を、前記ステップS104においてエッジの抽出処理を行った画像から消去して、ステップS107に移行する。なお、本ステップS106を行って得られる画像には、異物41の輪郭のみが残ることになる。
 ステップS107において、画像処理装置26は、前記ステップS106で得られた画像に含まれる異物41の輪郭のうち、環状になっていない(輪郭が閉じていない)異物41aの輪郭を繋いで環状にする連結処理を行って、ステップS108に移行する。
 ステップS108において、画像処理装置26は、前記ステップS107において連結処理を行った画像中の異物41の輪郭の内側を塗りつぶして、ステップS109に移行する。
 ステップS109において、画像処理装置26は、前記ステップS108において塗りつぶした部分を、画像において異物が存在する範囲であるとする。これにより、第2のイメージセンサ25で撮像される範囲内のウインドシールド12の外表面12a上で、各異物41が存在する位置(異物41が占める範囲)が検出される。そして、画像処理装置26は、異物41の位置情報を含む画像データを異物判定部31(図5参照)に出力して処理を終了する。
 図5に示すように、異物判定部31は、画像処理装置26が出力した異物41の位置情報を含む画像データに基づいて(即ち、画像処理装置26による外表面12aに付着した異物の位置の検出結果に基づいて)、ウインドシールド12の外表面12aに付着した異物の有無や、異物の量を判定する。そして、その判定結果をワイパ制御部32に出力する。
 ワイパ制御部32は、異物判定部31による異物の有無の判定に基づいてワイパモータMを駆動制御する。詳述すると、車両10の室内に設けられたレバースイッチ(図示略)がオート位置に操作されている場合に、異物判定部31が外表面12aに異物が存在すると判定すると、その判定結果に基づいてワイパ制御部32はワイパモータMを駆動させる。例えば、ワイパ制御部32は、異物判定部31にて判定された異物の量に応じたモード(低速モード、高速モード、間欠モード等)でワイパモータMを駆動させる。すると、ワイパモータMによってワイパWが駆動され、同ワイパWによってウインドシールド12の外表面12aが払拭されて自動的に外表面12a上の雨滴等の異物が除去される。
 また、画像処理装置26は、ウインドシールド12の外表面12aに異物41が付着している場合に第1のイメージセンサ24で撮像した画像と、同異物41が外表面12aに付着する前に第1のイメージセンサ24で撮像した画像とから、異物41の影響(雨滴によるぼけ等)を除去した車両10の周辺の画像を形成する。詳述すると、上記した異物検出のための処理(図6参照)のステップS109で画像において異物が存在する範囲であるとした部分は、第1のイメージセンサ24から取得した画像F2(図8参照)においては異物41の像が存在する異物存在範囲A1に該当する。そこで、画像処理装置26は、ステップS109を行って得られた異物41の位置情報を含む画像データ(即ち外表面12aに付着した異物の位置の検出結果)と、第1のイメージセンサ24から取得した画像F2とに基づいて、当該画像F2における異物41の位置、即ち異物存在範囲A1を認識する。そして、画像処理装置26は、画像F2における異物存在範囲A1に、ウインドシールド12の外表面12aに異物41が付着する前(例えば直前)に第1のイメージセンサ24で撮像した画像F1(図7参照)における異物存在範囲A1に対応する部分の画像を繋ぎ合わせた(置き換えた)画像F4(図10参照)を形成する。図10に示す画像F4では、二点鎖線で囲まれた異物存在範囲A1の内側の部分が、図7に示す画像F1の対応する部分に置き換えられている。そして、画像処理装置26は、形成した画像F4の画像データを運転支援制御部33に出力する。なお、画像処理装置26は、第1のイメージセンサ24から取得した画像に異物存在範囲A1が存在しない場合には、第1のイメージセンサ24から取得した画像(もしくは、ステップS102においてエッジの抽出処理を行った画像)の画像データを運転支援制御部33に出力する。
 図5に示すように、運転支援制御部33は、画像処理装置26が出力した画像データに基づいて、車両10に近接する障害物を検出する(障害物の有無を判定する)。そして、運転支援制御部33は、画像処理装置26が出力した画像データに基づいて車両10に近接する障害物を検出すると、車両10を減速もしくは停止させるための制御信号をエンジンECUやブレーキECUに出力したり、運転者に注意を促すための警告音を出すための制御信号をスピーカに出力したりする。
 次に、本実施形態の作用について説明する。
 レンズ22を透過した入射光L1がハーフミラー23を介して第1及び第2のイメージセンサ24,25の各々に至るため、レンズ22と第1の撮像面24aとの間の距離、並びに、同レンズ22と第2の撮像面25aとの間の距離を、ピントを合わせたい撮像対象に応じてそれぞれ確保すればよい。即ち、レンズ22と第1の撮像面24aとの間の距離(レンズ22の主面22a(後ろ側主点)から第1の撮像面24aまでの像間距離)は、車両10の周辺にピントが合うように(第1の撮像面24aに車両10の周辺の像が結像するように)確保すればよい。そして、同レンズ22と第2の撮像面25aとの間の距離(レンズ22の主面22a(後ろ側主点)から第2の撮像面24aまでの像間距離)は、ウインドシールド12にピントが合うように(第2の撮像面25aにウインドシールド12の像が結像するように)確保すればよい。
 次に、本実施形態の有利な効果を記載する。
 (1)ピントを合わせたい撮像対象に応じて2つの撮像部に応じたレンズをそれぞれ備える従来の撮像装置に比べて、装置の大型化を抑制することができる。また、レンズを1つにすることができる(焦点距離の異なる2つのレンズを備えなくてもよい)ため、これによっても装置の大型化を抑制することができるとともに、製造コストを低減することができる。
 (2)第1のイメージセンサ24は、車両10の周辺にピントが合い且つウインドシールド12の外表面12aに付着した異物にはピントが合っていない(異物がぼけた)画像を撮像する。その一方で、第2のイメージセンサ25は、ウインドシールド12にピントが合い且つ車両10の周辺にはピントが合っていない(車両10の周辺がぼけた)画像を撮像する。しかしながら、第2のイメージセンサ25が撮像する画像は、部分的に車両10の周辺にピントが合ってしまうことがある。従って、第1のイメージセンサ24が撮像した画像と第2のイメージセンサ25が撮像した画像とを比較して外表面12aに付着した異物の位置を検出することにより、第2のイメージセンサ25で撮像した画像において部分的に車両10の周辺にピントが合ってしまった部分を異物であると誤検出することを抑制することができる。その結果、ウインドシールド12の外表面12aに付着した異物(異物の位置)を高精度に検出することができる。そして、車両10の周辺の障害物等を異物であると誤検出することが抑制されるため、ワイパ制御部32の誤作動を抑制することができる。
 (3)ウインドシールド12の外表面12aに異物が付着していると、ウインドシールド12越しに車両10の周辺を撮像する第1のイメージセンサ24が撮像した画像では、車両10の周辺の画像において異物と重なる部分が不鮮明になったり、異物に隠れて写らなかったりする虞がある。本実施形態では、画像処理装置26は、第1及び第2のイメージセンサ24,25で撮像した画像を比較して、ウインドシールド12の外表面12aに付着した異物の同外表面12aにおける位置を検出する。そのため、第1のイメージセンサ24で撮像した車両10の周辺の画像における異物の像が存在する範囲である異物存在範囲A1を認識することができる。そして、画像処理装置26は、外表面12aに当該異物が付着する前に第1のイメージセンサ24で撮像した画像における異物存在範囲A1に対応する部分の画像を、異物存在範囲A1を含む画像の当該異物存在範囲A1に繋ぎ合わせる。これにより、画像処理装置26は、異物の影響(水滴によるぼけ等)が軽減された車両10の周辺の画像を形成することができる。そして、ウインドシールド12の外表面12aに付着した異物の影響が軽減された当該画像に基づいて、運転支援制御部33は、車両10に近接する障害物を検出するため、障害物の誤検出が低減される。
 (4)異物判定部31は、異物の誤検出が抑制された画像処理装置26の検出結果に基づいて、ウインドシールド12の外表面12aに付着した異物の有無を判定する。従って、異物判定部31は、ウインドシールド12の外表面12aに付着した異物の有無を高精度に判定することができる。そして、この異物判定部31の判定結果に基づいて、ワイパ制御部32がワイパモータMを駆動制御するため、ウインドシールド12の外表面12aの状態に応じて高精度にワイパモータMを駆動制御することができる。その結果、ワイパモータMによって駆動されるワイパWによって、ウインドシールド12の外表面12aを良好に払拭することができる。
 (5)画像処理装置26は、第1のイメージセンサ24が撮像した車両10の周辺の画像と第2のイメージセンサ25が撮像したウインドシールド12の画像とを比較し、その比較結果に基づいて外表面12aに付着した異物の位置を検出する。そのため、第2のイメージセンサ25が撮像した画像における異物の位置を高精度に検出することができる。更に、その検出結果に基づいて、画像処理装置26は、第1のイメージセンサ24が撮像した画像における異物の位置を高精度に認識することができる。そして、運転支援制御部33は、第1のイメージセンサ24が撮像した画像であって異物の位置が高精度に認識された画像に基づいて車両10に近接する障害物を検出する。そのため、第1のイメージセンサ24で撮像した画像がウインドシールド12の外表面12aに付着した異物の影響を受けている場合であっても、当該異物の影響により車両10に近接する障害物を運転支援制御部33が誤検出することが抑制される。
 (6)画像処理装置26は、第1のイメージセンサ24が撮像した車両10の周辺の画像と第2のイメージセンサ25が撮像したウインドシールド12の画像とを比較することにより、ウインドシールド12の外表面12aに付着した水滴だけでなく、外表面12aに付着した塵埃、虫、汚れ等の位置(存在する範囲)も検出することができる。従って、画像処理装置26は、その検出結果に基づいて、第1のイメージセンサ24が撮像した画像における塵埃、虫、汚れ等の位置を認識することができる。よって、第2のイメージセンサ25で撮像される範囲内のウインドシールド12の外表面12aに塵埃、虫、汚れ等が付着している場合であっても、運転支援制御部33が、当該塵埃、虫、汚れ等を車両10に近接する障害物として誤検出することを抑制することができる。
 (7)ウインドシールド12の外表面12aに異物が付着している場合には、対向車のヘッドライトや先行車のテールランプ等の光が当該異物によって屈折されたり反射されたりすることがある。すると、第1のイメージセンサ24が撮像した画像がその影響を受けて、本来暗くなるべきところが明るくなったり、逆に本来明るくなるべきところが暗くなったりすることがある。しかし、画像処理装置26は、第1のイメージセンサ24が撮像した車両10の周辺の画像と第2のイメージセンサ25が撮像したウインドシールド12の画像とを比較して、ウインドシールド12の外表面12aに付着した異物の位置を検出し、第1のイメージセンサ24が撮像した車両10の周辺の画像における異物の位置を認識する。従って、夜間の降雨時等であっても、ウインドシールド12の外表面12aに付着した異物の影響によって、画像処理装置26が異物の位置を誤検出したり、運転支援制御部33が車両10に近接する障害物を誤検出したりすることを低減できる。
 <第2実施形態>
 以下、撮像装置20の第2実施形態における制御処理について説明する。なお、本第2実施形態では、上記第1実施形態と同一の構成や対応する構成に同一の符号を付してその説明を省略する。
 図11及び図12に示すように、画像処理装置26は、ステップS201において、車両10の内部からウインドシールド12越しに車両10の周辺を撮像した画像を第1のイメージセンサ24から取得し、ステップS202に移行する。図12に示す画像F11は、ウインドシールド12の外表面12aに異物が付着している場合に、第1のイメージセンサ24から取得した画像(第2の画像)の一例である。第1のイメージセンサ24は、車両10の周辺にピントがあった画像を撮像するものであるため、画像F11においては、異物41の輪郭はぼけたものとなる。なお、以下、ウインドシールド12の外表面12aに異物41が付着しているものとして、画像処理装置26が行う制御処理を説明する。
 図11及び図13に示すように、ステップS202において、画像処理装置26は、前記ステップS201で取得した画像F11から検出された異物41の領域についてマスク処理を行うための基準画像F12を形成する。画像処理装置26は、上記第1実施形態の異物検出の処理(ステップS101~S109)により、画像F11において異物が存在する範囲を認識する。なお、本実施形態では、ステップS101で画像処理装置26が取得する画像は、ステップS201において第1のイメージセンサ24から取得した画像F11に該当し、ステップS103で画像処理装置26が取得する画像は、同画像F11が撮像された時刻と同時刻に第2のイメージセンサ25で撮像された画像である。そして、画像処理装置26は、ステップS109を行って得られた異物41の位置情報を含む画像データ(即ち外表面12aに付着した異物の位置の検出結果)と、ステップS201で第1のイメージセンサ24から取得した画像F11とに基づいて、当該画像F11における異物41の位置、即ち異物存在範囲A1を認識する。そして、画像処理装置26は、別の画像から異物存在範囲A1に該当する部分の画像を抽出するための基準画像F12を形成する。因みに、基準画像F12は、異物存在範囲A1と異物存在範囲A1でない部分とを明確にした画像である。
 また、図11及び図14に示すように、ステップS203において、画像処理装置26は、ステップS201で取得した画像F11が撮像された時刻から1時刻前に第1のイメージセンサ24で撮像された画像F13(第1の画像)を記憶装置26aから読み出す。なお、「1時刻前」とは、ステップS201で取得した画像F11が第1のイメージセンサ24で撮像された時刻よりも前の時刻であって、予め設定された時刻である。例えば、1時刻前の画像は、ステップS201で取得した画像F11の1フレーム前の画像である。なお、本実施形態では、画像F13が撮像されたときには、ウインドシールド12の外表面12aに異物は付着していなかったものとする。
 また、図11及び図15に示すように、ステップS204において、画像処理装置26は、ステップS201で取得した画像F11が撮像された時刻から2時刻前に第1のイメージセンサ24で撮像された画像F14(第1の画像)を記憶装置26aから読み出す。なお、「2時刻前」とは、前記ステップS203における「1時刻前」よりも前の時刻であって、予め設定された時刻である。例えば、2時刻前の画像は、ステップS203における「1時刻前」よりも更に1時刻前の画像であり、ステップS201で取得した画像F11の2フレーム前の画像である。なお、本実施形態では、画像F14が撮像されたときには、ウインドシールド12の外表面12aに異物は付着していなかったものとする。
 次いで、図11、図14及び図15に示すように、ステップS205において、画像処理装置26は、前記ステップS203で取得した1時刻前の画像F13と、前記ステップS204で取得した2時刻前の画像F14とから、オプティカルフローを算出し、ステップS206に移行する。画像処理装置26は、異なる時刻に撮像された画像F13と画像F14とにおいて、例えば、同一の部位として認識可能な点を特徴点として設定し、この特徴点の移動をフローベクトルとして当該画像を複数に分類した群ごとに算出する。このようなフローベクトルを画像F13,F14の全領域において算出する。なお、オプティカルフローの具体的な算出方法は、マッチング法や勾配法などの代表的な公知の手法を用いることができるが、特に限定しない。
 図11及び図16に示すように、ステップS206において、画像処理装置26は、ステップS205で算出したオプティカルフローに基づいて、前記ステップS201で取得した画像F11が撮像された時刻における予測画像F15を形成し、ステップS207に移行する。
 図11及び図17に示すように、ステップS207において、画像処理装置26は、前記ステップS201で第1のイメージセンサ24から取得した画像F11における異物存在範囲A1に該当する部分に、前記ステップS206で形成した予測画像F15における異物存在範囲A1に対応する部分の画像を置換した画像F16を形成する。画像処理装置26は、前記ステップS202において形成した基準画像F12(図13参照)を用いて、前記ステップS206において形成した予測画像F15(図16参照)にマスク処理を施す。これにより、予測画像F15において異物存在範囲A1に対応する部分の画像が抽出される。そして、画像処理装置26は、前記ステップS201において第1のイメージセンサ24から取得した画像F11(図12参照)における異物存在範囲A1に対応する部分に、予測画像F15から抽出した画像を置き換えた(繋ぎ合わせた)画像F16(図17参照)を形成する。そして、画像処理装置26は、形成した画像F16の画像データを運転支援制御部33に出力して処理を終了する。
 図5に示すように、運転支援制御部33は、上記第1実施形態と同様に、画像処理装置26が出力した画像データに基づいて、車両10に近接する障害物を検出する(障害物の有無を判定する)。そして、運転支援制御部33は、画像処理装置26が出力した画像データに基づいて車両10に近接する障害物を検出すると、車両10を減速もしくは停止させるための制御信号をエンジンECUやブレーキECUに出力したり、運転者に注意を促すための警告音を出すための制御信号をスピーカに出力したりする。
 また、異物判定部31によるウインドシールド12の外表面12aに付着した異物の有無の判定、及びワイパ制御部32によるワイパモータMの駆動制御についても、上記実施形態と同様に行われる。
 上記した本実施形態においても上記第1実施形態と同様の作用を得ることができる。また、本実施形態によれば、上記第1実施形態の(1),(2),(4)~(7)の効果に加えて、以下の効果を奏することができる。
 (8)ウインドシールド12の外表面12aに異物が付着していると、ウインドシールド12越しに車両10の周辺を撮像する第1のイメージセンサ24が撮像した画像では、車両10の周辺の画像において異物と重なる部分が不鮮明になったり、異物に隠れて写らなかったりする虞がある。本実施形態では、画像処理装置26は、第1及び第2のイメージセンサ24,25で撮像した画像を比較して、ウインドシールド12の外表面12aに付着した異物の同外表面12aにおける位置を検出する。そのため、第1のイメージセンサ24で撮像した車両10の周辺の画像における異物の像が存在する範囲である異物存在範囲A1を認識することができる。そして、画像処理装置26は、第1のイメージセンサ24で撮像した画像F11における異物存在範囲A1に、画像F11よりも前に第1のイメージセンサ24で撮像した複数の画像F13,F14から予測した予測画像F15における異物存在範囲A1に対応する部分の画像を繋ぎ合わせた画像F16を形成する。そのため、画像処理装置26は、異物の影響(水滴によるぼけ等)が軽減された車両10の周辺の画像を形成することができる。例えば、車両10に対して相対的に移動する障害物が、ステップS201で第1のイメージセンサ24から取得した画像F11においてウインドシールド12の外表面12aに付着した異物41と重なってしまうことがある。このような場合でも、画像F11よりも前に第1のイメージセンサ24で撮像した複数の画像F13,F14から予測画像F15を形成し同予測画像F15における異物存在範囲A1に対応する部分を画像F11に繋ぎ合わせた画像F16を形成することで、画像F11において異物存在範囲A1に重なった障害物を認識できる可能性がある。また、画像F11における異物存在範囲A1に、予測画像F15における異物存在範囲A1に対応する部分の画像を繋ぎ合わせるため、画像F16において置き換えられた部分(異物存在範囲A1の部分)以外の部分は、車両10の周辺の実際の新しい情報を含むものとなる。そして、画像処理装置26で形成されたこのような画像であって、ウインドシールド12の外表面12aに付着した異物の影響が軽減された当該画像に基づいて、運転支援制御部33は、車両10に近接する障害物を検出するため、運転支援制御部33による障害物の誤検出が低減される。
 なお、上記各実施形態は、以下のように変更してもよい。
 ・上記各実施形態では、異物判定部31による異物の有無の判定に基づいてワイパモータMを駆動制御するとしたが、判定の結果を他の用途に用いるようにしてもよい。また、撮像装置20は、必ずしも異物判定部31及びワイパ制御部32を備えなくてもよい。
 ・上記各実施形態では、第1のイメージセンサ24が撮像した画像を、運転者への運転支援のために用いているが、他の用途に用いるようにしてもよい。また、撮像装置20は、必ずしも運転支援制御部33を備えなくてもよい。
 ・上記第1実施形態では、運転支援制御部33は、第1のイメージセンサ24で撮像した画像における異物存在範囲A1に、ウインドシールド12の外表面12aに異物が付着する前に第1のイメージセンサ24で撮像した画像を繋ぎ合わせた画像に基づいて、車両10に近接する障害物を検出する。しかしながら、運転支援制御部33は、ウインドシールド12の外表面12a上の異物の有無にかかわらず、第1のイメージセンサ24から取得した画像であって繋ぎ合わせる加工を施していない画像(もしくは、ステップS102においてエッジの抽出処理を行った画像)に基づいて、車両10に近接する障害物を検出してもよい。この場合においても、第1のイメージセンサ24が撮像した画像であって異物の位置が認識された画像に基づいて運転支援制御部33が車両10に近接する障害物を検出することにより、上記第1実施形態の(5)と同様の効果が得られる。なお、この場合、画像処理装置26は、上記繋ぎ合わせた画像を形成しなくてもよい。
 ・上記第2実施形態では、画像処理装置26は、第1のイメージセンサ24で撮像した2つの画像F13,F14から、画像F11を撮像した時刻の予測画像F15を形成する。しかしながら、画像処理装置26は、画像F11を撮像した時刻よりも前に第1のイメージセンサ24で異なる時刻に撮像した3つ以上の画像から、画像F11を撮像した時刻の予測画像を形成するものであってもよい。
 ・上記第2実施形態では、画像処理装置26は、第1のイメージセンサ24で撮像した画像における異物存在範囲A1に、当該画像が撮像された時刻よりも前に第1のイメージセンサ24で撮像した複数の画像から予測した予測画像における異物存在範囲A1に対応する部分を繋ぎ合わせた画像を形成し、画像データを出力する。そして、運転支援制御部33は、画像処理装置26が出力した画像データに基づいて、車両10に近接する障害物を検出する。しかしながら、運転支援制御部33は、ウインドシールド12の外表面12a上の異物の有無にかかわらず、第1のイメージセンサ24から取得した画像であって繋ぎ合わせる加工を施していない画像(もしくは、ステップS102においてエッジの抽出処理を行った画像)に基づいて、車両10に近接する障害物を検出してもよい。この場合においても、第1のイメージセンサ24が撮像した画像であって異物の位置が認識された画像に基づいて運転支援制御部33が車両10に近接する障害物を検出することにより、上記第1実施形態の(5)と同様の効果が得られる。なお、この場合、画像処理装置26は、上記繋ぎ合わせた画像を形成しなくてもよい。
 ・上記各実施形態の画像処理装置26は、第2のイメージセンサ25で撮像される範囲内のウインドシールド12の外表面12a上の異物の位置を高精度に検出するため、第1のイメージセンサ24で撮像した画像における異物の位置を高精度に認識できる。従って、運転支援制御部33もしくは画像処理装置26は、第1のイメージセンサ24で撮像した画像における異物の位置に応じて、運転支援を行うために使用する当該画像を修正することが可能である。また、運転支援制御部33は、第1のイメージセンサ24で撮像した画像における異物の占める割合に応じて、運転支援の内容を変更するべく制御信号を変更することが可能である。また、運転支援制御部33は、第1のイメージセンサ24で撮像した画像における異物の占める割合が多い場合(一定以上となる場合)には、運転支援を停止する旨の警告音を出すための制御信号をスピーカに出力することが可能である。
 ・上記各実施形態では、画像処理装置26は、第1のイメージセンサ24が撮像した画像と第2のイメージセンサ25が撮像した画像とを比較し、その比較結果に基づいてウインドシールド12の外表面12aに付着した異物の同外表面12aにおける位置を検出する。しかしながら、画像処理装置26は、第2のイメージセンサ25が撮像した画像のみを用いて、ウインドシールド12の外表面12aに付着した異物の同外表面12aにおける位置を検出するものであってもよい。
 ・上記各実施形態では、第1のイメージセンサ24は、車両10の周辺の像が第1の撮像面24aに結像するように配置されており、第2のイメージセンサ25は、ウインドシールド12の像が第2の撮像面25aに結像するように配置されている。しかしながら、第1のイメージセンサ24を、ウインドシールド12の像が第1の撮像面24aに結像するように配置し、第2のイメージセンサ25を、車両10の周辺の像が第2の撮像面25aに結像するように配置してもよい。
 ・上記各実施形態では、第1のイメージセンサ24は、第1の撮像面24aがレンズ22の主面22aと平行をなすように配置され、第2のイメージセンサ25は、第2の撮像面25aを含む平面がレンズ22の主面22aを含む平面に対して直角をなすように配置されている。しかしながら、第1及び第2のイメージセンサ24,25は、第1及び第2の撮像面24a,25aにて透過光L2及び反射光L3をそれぞれ受光できるように配置されるのであれば、その配置態様は上記実施形態のものに限らない。
 例えば、図19に示す例では、第1のイメージセンサ24は、ウインドシールド12の像が第1の撮像面24aに結像するように配置され、第2のイメージセンサ25は、車両10の周辺の像が第2の撮像面25aに結像するように配置されている。そして、第1のイメージセンサ24の第1の撮像面24aを含む平面P1と、レンズ22の主面22aを含む平面P2と、ウインドシールド12の外表面12aを含む平面P3とが一直線S1上で交わるように、第1のイメージセンサ24及びレンズ22が配置されている。なお、図19は、車両10を車幅方向から見た模式図であり、平面P1,P2,P3は紙面と直交するため直線で図示し、一直線S1は紙面垂直方向に延びるため点で図示している。
 このようにすると、シャインプルーフの原理によって、第1のイメージセンサ24で撮像する画像のピント(焦点)をウインドシールド12の外表面12aに沿った範囲X3に合わせることができる。そのため、例えば、ウインドシールド12と正対しない位置にレンズ22を配置(即ち、主面22aがウインドシールド12と平行をなさない位置にレンズ22を配置)しても、ウインドシールド12の外表面12aにピントが合い且つ背景にはピントが合っていない(背景がぼけた)画像を撮像することができる。従って、第1のイメージセンサ24で撮像した画像に基づいて、ウインドシールド12の外表面12aの情報(異物の付着状態等)を高精細に得ることができる。
 なお、ウインドシールド12の外表面12aは、実際は湾曲しており平面ではないため、例えば、その湾曲した面に最も近い平面を平面P3として、この平面P3に対して、第1のイメージセンサ24の第1の撮像面24a及びレンズ22の主面22aの傾きが設定される。即ち、ウインドシールド12の外表面12aを含む平面P3は、シャインプルーフの原理によって、ピントをウインドシールド12の外表面12aに沿った範囲に合わせることができる平面であればよい。
 また例えば、図20に示す例では、第1のイメージセンサ24は、車両10の周辺の像が第1の撮像面24aに結像するように配置され、第2のイメージセンサ25は、ウインドシールド12の像が第2の撮像面25aに結像するように配置されている。また、第1のイメージセンサ24は、第1の撮像面24aがレンズ22の主面22aと平行をなすように配置されている。ここで、ハーフミラー23の反射面23bを含む平面P4に関して第2のイメージセンサ25と面対称となる位置に仮想的に配置された仮想の第2のイメージセンサ35(図12では二点鎖線で図示している)の第2の撮像面25aを仮想撮像面35bとする。即ち、実存の第2のイメージセンサ25と仮想の第2のイメージセンサ35とが平面P4に関して面対称となる状態を想定し、仮想の第2のイメージセンサ35の第2の撮像面25aを仮想撮像面35bとする。そして、仮想撮像面35bを含む平面P5と、レンズ22の主面22aを含む平面P2と、ウインドシールド12の外表面12aを含む平面P3とが一直線S2上で交わるように、第2のイメージセンサ25及びレンズ22が配置されている。なお、図20は、車両10を車幅方向から見た模式図であり、平面P5,P2,P3は紙面と直交するため直線で図示し、一直線S2は紙面垂直方向に延びるため点で図示している。
 このようにすると、シャインプルーフの原理によって、第2のイメージセンサ25で撮像する画像のピント(焦点)をウインドシールド12の外表面12aに沿った範囲X3に合わせることができる。そのため、例えば、ウインドシールド12と正対しない位置にレンズ22を配置しても、ウインドシールド12の外表面12aにピントが合い且つ背景にはピントが合っていない(背景がぼけた)画像を撮像することができる。従って、第2のイメージセンサ25で撮像した画像に基づいて、ウインドシールド12の外表面12aの情報を高精細に得ることができる。
 なお、図20に示す例についても図19に示した例と同様に、ウインドシールド12の外表面12aは、実際は湾曲しており平面ではないため、例えば、その湾曲した面に最も近い平面を平面P3として、この平面P3に対して、第2のイメージセンサ25の第2の撮像面25a(仮想撮像面35b)及びレンズ22の主面22aの傾きが設定される。
 ・上記各実施形態の撮像装置20は、レンズ22を透過した光を分割する(分岐する)ビームスプリッタとして、レンズ22を透過した光(即ち入射光L1)を1:1に分割するハーフミラー23を備えている。しかしながら、撮像装置20に備えられるビームスプリッタによる入射光L1の分割比はこれに限らない。例えば、ビームスプリッタは、ウインドシールド12を撮像する第2のイメージセンサ25よりも車両10の周辺を撮像する第1のイメージセンサ24の方が受光する光量が多くなるように、入射光L1を分割するものであってもよい。このようにすると、情報量の多い画像を撮像する第1のイメージセンサ24の方に、より多くの光を分配することができる。従って、車両10に近接する障害物を第1のイメージセンサ24が撮像した画像に基づいて検出する運転支援制御部33が、障害物を誤検出することをより低減することができる。
 ・レンズ22を透過する光(レンズ22に入射して第1の撮像面24a若しくは第2の撮像面25aに至る光であり、ハーフミラー23により分岐された光を含む)の光路上の少なくとも1箇所にフィルタを設けてもよい。フィルタは、例えば、偏光フィルタ、円偏光フィルタ、減光フィルタ、赤外線カットフィルタ、可視光カットフィルタ等である。
 図18に示す例では、ハーフミラー23を透過した透過光L2の光路上に赤外線カットフィルタ51が設けられ、ハーフミラー23で反射された反射光L3の光路上に減光フィルタ52が設けられている。赤外線カットフィルタ51は、ハーフミラー23と第1の撮像面24aとの間に配置され、減光フィルタ52は、ハーフミラー23と第2の撮像面25aとの間に配置されている。このように、ウインドシールド12越しに車両10の周辺を撮像する第1のイメージセンサ24の第1の撮像面24aとハーフミラー23との間に赤外線カットフィルタ51を配置すると、第1のイメージセンサ24で撮像される画像が、人間の目で見た色彩に近い画像となる。従って、第1のイメージセンサ24が撮像した画像に基づいて車両10に近接する障害物を検出することにより、運転支援制御部33は、障害物を誤検知し難くなる。また、ウインドシールド12を撮像する第2のイメージセンサ25の第2の撮像面25aとハーフミラー23との間に減光フィルタ52を配置すると、第2のイメージセンサ25が撮像する画像において、外表面12aに付着した異物の輪郭が、対向車のヘッドライトや街灯等の強い外乱光に紛れて現れなくなることを低減できる。また、透過光L2の光路上と、反射光L3の光路上とにそれぞれフィルタを配置することができるため、第1及び第2のイメージセンサ24,25の各々に適したフィルタをそれぞれ配置することが容易にできる。
 また、第1のイメージセンサ24と第2のイメージセンサ25との両方に共通のフィルタを配置したい場合には、入射光L1の光路上で、レンズ22とハーフミラー23との間にフィルタを設けることで、フィルタの数を減少させることができる。例えば、レンズ22とハーフミラー23の入射面23aとの間に、偏光フィルタを設けてもよい。このようにすると、路面や車両ボディで反射した反射光が第1及び第2の撮像面24a,25aで受光されることを抑制できる。そして、第1のイメージセンサ24で撮像した画像において、周辺の車両のブレーキランプやヘッドライトの位置を画像処理装置26や運転支援制御部33が誤認することを抑制できる。また、第2のイメージセンサ25で撮像した画像において、外表面12aに付着した異物の輪郭が外乱光に紛れて現れなくなることを抑制できる。
 また、ハーフミラー23に代えて、上記フィルタの機能を備えたビームスプリッタ(例えば、偏光ビームスプリッタ)を撮像装置20に備えてもよい。
 ・上記各実施形態では、第1及び第2のイメージセンサ24,25が受光する光は、レンズ22を透過した入射光L1をハーフミラー23で分割した光である。そのため、第1及び第2のイメージセンサ24,25の各々が受光する光は、レンズ22を透過する入射光L1よりも光量が少ない。従って、第1及び第2のイメージセンサ24,25の各々が撮像する画像が暗くなる虞がある。しかしながら、明るいレンズを使用したり、第1及び第2のイメージセンサ24,25(撮像素子)の感度を向上させたりすることで、第1及び第2のイメージセンサ24,25の各々が撮像する画像の明るさを改善することができる。また、撮像装置20に明るさ調整部を設けることで、第1及び第2のイメージセンサ24,25の各々が撮像する画像の明るさを改善することができる。明るさ調整部は、例えば、第1及び第2のイメージセンサ24,25の各々におけるシャッタスピードを調整するものであってもよい。また例えば、明るさ調整部は、画像処理装置26に設けられ、第1及び第2のイメージセンサ24,25の各々で撮像した画像のゲインコントロールを行うものであってもよい。
 ・上記各実施形態では、ハーフミラー23は、車幅方向から見て、レンズ22の主面22aに対して反射面23bが45°傾斜するように配置されている。しかしながら、ハーフミラー23は、第1及び第2のイメージセンサ24,25にて透過光L2及び反射光L3をそれぞれ受光可能であれば、その配置態様はこれに限らない。
 ・上記各実施形態では、ハーフミラー23は、立方体状をなすプリズム型のものを用いたが、これに限らず、平面型のもの等を用いてもよい。
 ・上記各実施形態では、第1のイメージセンサ24は、ハーフミラー23に対して車両10の後方側に配置され、第2のイメージセンサ25は、ハーフミラー23に対して車両10の下方側に配置されている。しかしながら、ハーフミラー23に対する第1及び第2のイメージセンサ24,25の配置位置は、これに限らない。
 例えば、図21に示すように、第2のイメージセンサ25を、ハーフミラー23に対して車幅方向の一方側に配置してもよい。図21に示す例では、第2のイメージセンサ25は、ハーフミラー23に対して左側に配置されている。なお、この場合、ハーフミラー23は、透過光L2が第1のイメージセンサ24で受光され且つ反射光L3が第2のイメージセンサ25で受光されるように配置される。このようにすると、撮像装置20(筐体21)を車両10の上下方向に薄型化することができる。その結果、撮像装置20によって車両10の搭乗者の視界が狭まることを抑制することができる。
 ・上記各実施形態では、第1及び第2のイメージセンサ24,25は、何れもCMOSイメージセンサであるが、これに限らず、他の撮像素子(CCDイメージセンサ等)であってもよい。
 ・上記各実施形態では、レンズ22を保持し、ハーフミラー23、第1のイメージセンサ24及び第2のイメージセンサ25を収容した筐体21は、ウインドシールド12の内表面12bに固定されている。しかしながら、車両10内における筐体21の配置位置は、これに限らず、撮像装置20にて車両10の周辺とウインドシールド12とを撮像可能な位置であればよい。但し、筐体21は、運転者の視界の邪魔にならない位置に固定されることが好ましい。
 例えば、図22に示すように、筐体21は、ルーフパネル11に固定されてもよい。この例では、筐体21は、例えば、図示しないバックミラー(リアビューミラー)の車両前方側に位置するようにルーフパネル11に固定され、車幅方向の中央に位置する。
 ・上記各実施形態では、撮像装置20は、車両10の周辺の画像と、ウインドシールド12の画像とを撮像する用途に用いられているが、これに限らず、被写体距離(レンズから撮像対象までの距離)が異なる2つの撮像対象を撮像する用途に用いられればよい。例えば、撮像装置20は、車両10の周辺(車両10の後方側)の画像と、車両10の後方に設けられたウインドシールドとしてのリヤウインドシールドの画像とを撮像する用途に用いられてもよい。

Claims (9)

  1.  レンズと、
     前記レンズを透過した光の光路上に配置されたビームスプリッタと、
     第1の撮像面を有する第1の撮像部であって、前記第1の撮像面は前記ビームスプリッタを透過した透過光が結像する位置に位置する、前記第1の撮像部と、
     第2の撮像面を有する第2の撮像部であって、前記第2の撮像面は前記ビームスプリッタで反射された反射光が結像する位置に位置する、前記第2の撮像部と、
    を備える撮像装置。
  2.  請求項1に記載の撮像装置において、
     前記第1の撮像部及び前記第2の撮像部の一方は、車両のウインドシールド越しに前記車両の周辺を撮像し、
     前記第1の撮像部及び前記第2の撮像部の他方は、前記ウインドシールドを撮像し、
     前記ビームスプリッタは、前記撮像部の他方よりも前記撮像部の一方の方が受光する光量が多くなるように、前記ビームスプリッタに入射した入射光を分割する撮像装置。
  3.  請求項1又は請求項2に記載の撮像装置において、
     前記第1の撮像部は、車両のウインドシールドを撮像し、
     前記第1の撮像面を含む平面と、前記レンズの主面を含む平面と、前記ウインドシールドの外表面を含む平面とが一直線上で交わる撮像装置。
  4.  請求項1又は請求項2に記載の撮像装置において、
     前記第2の撮像部は、車両のウインドシールドを撮像し、
     前記ビームスプリッタの反射面を含む平面に関して前記第2の撮像部と面対称となる位置に仮想的に配置された仮想の第2の撮像部の第2の撮像面を仮想撮像面とすると、
     前記仮想撮像面を含む平面と、前記レンズの主面を含む平面と、前記ウインドシールドの外表面を含む平面とが一直線上で交わる撮像装置。
  5.  請求項1乃至請求項4の何れか1項に記載の撮像装置において、
     画像処理装置をさらに備え、
     前記第1の撮像部及び前記第2の撮像部の一方は、車両のウインドシールド越しに前記車両の周辺を撮像し、
     前記第1の撮像部及び前記第2の撮像部の他方は、前記ウインドシールドを撮像し、
     前記画像処理装置は、前記第1の撮像部で撮像した画像と前記第2の撮像部で撮像した画像とを比較し、比較結果に基づいて前記ウインドシールドの外表面に付着した異物の前記外表面における位置を検出する撮像装置。
  6.  請求項5に記載の撮像装置において、
     前記画像処理装置は、前記撮像部の一方で異なる時刻に撮像した複数の第1の画像に基づいてオプティカルフローを算出し、
     前記画像処理装置は、算出した前記オプティカルフローに基づいて、前記第1の画像よりも後に前記撮像部の一方で撮像した第2の画像が撮像された時刻の予測画像を形成し、
     前記画像処理装置は、前記第2の画像における前記異物の像が存在する異物存在範囲に、前記予測画像における前記異物存在範囲に対応する部分の画像を繋ぎ合わせて、画像を形成する撮像装置。
  7.  請求項5に記載の撮像装置において、
     前記画像処理装置は、前記撮像部の一方で撮像した画像における前記異物の像が存在する異物存在範囲に、前記外表面に当該異物が付着する前に前記撮像部の一方で撮像した画像における前記異物存在範囲に対応する部分の画像を繋ぎ合わせて、画像を形成する撮像装置。
  8.  請求項5乃至請求項7の何れか1項に記載の撮像装置において、
     異物判定部とワイパ制御部とをさらに備え、
     前記異物判定部は、前記画像処理装置による前記外表面に付着した異物の位置の検出結果に基づいて前記外表面に付着した異物の有無を判定し、
     前記ワイパ制御部は、前記異物判定部による異物の有無の判定に基づいてワイパモータを駆動制御する、撮像装置。
  9.  請求項5乃至請求項8の何れか1項に記載の撮像装置において、
     運転支援制御部をさらに備え、
     前記画像処理装置は、検出した前記外表面における前記異物の位置と、前記撮像部の一方が撮像した画像とに基づいて、当該撮像部の一方が撮像した画像における前記異物の位置を認識し、
     前記運転支援制御部は、前記異物の位置が認識された前記画像に基づいて前記車両に近接する障害物を検出する撮像装置。
PCT/JP2017/031232 2016-10-19 2017-08-30 撮像装置 WO2018074076A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016205434A JP6750449B2 (ja) 2016-10-19 2016-10-19 撮像装置
JP2016-205434 2016-10-19

Publications (1)

Publication Number Publication Date
WO2018074076A1 true WO2018074076A1 (ja) 2018-04-26

Family

ID=62018323

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/031232 WO2018074076A1 (ja) 2016-10-19 2017-08-30 撮像装置

Country Status (2)

Country Link
JP (1) JP6750449B2 (ja)
WO (1) WO2018074076A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017942A (ja) * 2018-07-24 2020-01-30 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH 車両周囲の状況をアーチファクトを低減して提示するための方法およびシステム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04300748A (ja) * 1991-03-28 1992-10-23 Daihatsu Motor Co Ltd 画像処理方法
JP2001136434A (ja) * 1999-11-09 2001-05-18 Ricoh Co Ltd 撮像装置
WO2013088861A1 (ja) * 2011-12-16 2013-06-20 オリンパスメディカルシステムズ株式会社 深度拡大装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04300748A (ja) * 1991-03-28 1992-10-23 Daihatsu Motor Co Ltd 画像処理方法
JP2001136434A (ja) * 1999-11-09 2001-05-18 Ricoh Co Ltd 撮像装置
WO2013088861A1 (ja) * 2011-12-16 2013-06-20 オリンパスメディカルシステムズ株式会社 深度拡大装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017942A (ja) * 2018-07-24 2020-01-30 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH 車両周囲の状況をアーチファクトを低減して提示するための方法およびシステム
JP7429100B2 (ja) 2018-07-24 2024-02-07 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング 車両周囲の状況をアーチファクトを低減して提示するための方法およびシステム

Also Published As

Publication number Publication date
JP6750449B2 (ja) 2020-09-02
JP2018067805A (ja) 2018-04-26

Similar Documents

Publication Publication Date Title
JP6519355B2 (ja) カメラ装置及び車載システム
JP6772113B2 (ja) 付着物検出装置、および、それを備えた車両システム
JP4326999B2 (ja) 画像処理システム
JP5846485B2 (ja) 付着物検出装置及び付着物検出方法
JP5022609B2 (ja) 撮像環境認識装置
JP5233583B2 (ja) 車載用監視装置
JP6120395B2 (ja) 車載装置
JP6468482B2 (ja) 撮像装置、物体検出装置及び移動体機器制御システム
JP5680573B2 (ja) 車両の走行環境認識装置
JP5014306B2 (ja) 支援システムのための光学モジュール
JP6163207B2 (ja) 車載装置
KR100936558B1 (ko) 차량용 주변 감시 장치 및 영상 표시 방법
JP4496964B2 (ja) 車両用トンネル検出装置および車両用ライト制御装置
JP4327024B2 (ja) 画像処理システム
JP5819400B2 (ja) 天候による視界制限の検出により車両の走行の際運転者を支援する方法及び装置
JP5995140B2 (ja) 撮像装置及びこれを備えた車両システム並びに画像処理方法
US10933798B2 (en) Vehicle lighting control system with fog detection
JP5917697B2 (ja) 車両のフロントガラス上の雨滴を検出するための方法およびカメラアセンブリ
JP2002197470A (ja) 車線検出装置
JP5267101B2 (ja) 車両用対象物検出装置
JP4807733B2 (ja) 車外環境認識装置
JP5543938B2 (ja) 車外監視装置
WO2018074076A1 (ja) 撮像装置
JP2006107000A (ja) 画像異常判定方法及び画像異常判定装置
US20230386224A1 (en) Stop line recognition device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17862337

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17862337

Country of ref document: EP

Kind code of ref document: A1