WO2024111480A1 - カメラ付き車両用窓ガラス及び画像処理方法 - Google Patents

カメラ付き車両用窓ガラス及び画像処理方法 Download PDF

Info

Publication number
WO2024111480A1
WO2024111480A1 PCT/JP2023/041084 JP2023041084W WO2024111480A1 WO 2024111480 A1 WO2024111480 A1 WO 2024111480A1 JP 2023041084 W JP2023041084 W JP 2023041084W WO 2024111480 A1 WO2024111480 A1 WO 2024111480A1
Authority
WO
WIPO (PCT)
Prior art keywords
far
infrared
camera
data
window glass
Prior art date
Application number
PCT/JP2023/041084
Other languages
English (en)
French (fr)
Inventor
光吉 小林
賢治 北岡
容二 安井
Original Assignee
Agc株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agc株式会社 filed Critical Agc株式会社
Publication of WO2024111480A1 publication Critical patent/WO2024111480A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60JWINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
    • B60J1/00Windows; Windscreens; Accessories therefor
    • B60J1/02Windows; Windscreens; Accessories therefor arranged at the vehicle front, e.g. structure of the glazing, mounting of the glazing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing

Definitions

  • This disclosure relates to a vehicle window glass with a camera and an image processing method.
  • Sensors that can be installed in automobiles include cameras, LiDAR (Light Detecting and Ranging), millimeter wave radar, and infrared sensors.
  • Infrared rays are classified according to their wavelength band into near-infrared (e.g., wavelengths of 0.7 ⁇ m to 2 ⁇ m), mid-infrared (e.g., wavelengths of 3 ⁇ m to 5 ⁇ m), and far-infrared (e.g., wavelengths of 8 ⁇ m to 13 ⁇ m).
  • Infrared sensors that detect these infrared rays include touch sensors, near-infrared cameras, or LiDAR for near-infrared rays, gas analyzers or mid-infrared spectroscopic analyzers (functional group analysis) for mid-infrared rays, and far-infrared cameras for far-infrared rays. Specific examples of far-infrared cameras include night vision and thermoviewers.
  • Automobile window glass usually does not transmit much far-infrared light with wavelengths of 8 ⁇ m to 13 ⁇ m, so far-infrared cameras have traditionally been installed outside the vehicle cabin, more specifically on the front grille, as in Patent Document 1, for example.
  • the structure becomes more complex in order to ensure robustness, water resistance, dust resistance, etc., which leads to higher costs.
  • the far-infrared camera is protected by the window glass and dirt can be wiped away, solving these issues.
  • window glass has the problem of hardly transmitting far-infrared light, so far-infrared cameras were not usually installed inside the vehicle cabin.
  • Patent Document 2 discloses a window member in which a through hole is drilled in part of the window glass and filled with an infrared-transparent material.
  • a far-infrared camera placed on the inside of the window glass detects far-infrared rays that pass through the far-infrared transparent area formed in the window glass and captures a far-infrared image.
  • far-infrared rays emitted from some object placed on the inside of the window glass may be reflected by the far-infrared transparent area and enter the far-infrared camera. In this case, noise may appear in the far-infrared image captured by the far-infrared camera.
  • This disclosure provides a window glass for a camera-equipped vehicle and an image processing method that can reduce noise reflected in far-infrared images.
  • the camera-equipped vehicle window glass includes: a glass plate having a first region that transmits visible light and a second region that has a higher transmittance of far-infrared light than the first region; a far-infrared camera that detects the first far-infrared ray passing through the second region and captures a far-infrared image; and an image processing unit that reduces noise that appears in the far-infrared image due to second far-infrared rays radiated from an object installed on the side of the glass plate on which the far-infrared camera is installed.
  • the image processing unit may further include a memory for storing correction data for reducing the noise, and the image processing unit may reduce the noise by using the correction data read from the memory.
  • the correction data may include mask data for the noise.
  • the image processing unit may reduce the noise by performing a mask process on the far-infrared image using the mask data.
  • a reflector having a shielding surface that shields far-infrared rays and a reflecting surface that reflects far-infrared rays; and a driving mechanism for moving the reflector to a first position where the first far-infrared ray is blocked by the blocking surface and the second far-infrared ray is reflected by the reflecting surface and enters the far-infrared camera.
  • the image processing unit may store, in the memory as the mask data, data of the far-infrared ray detected by the far-infrared camera in a state where the reflector is moved to the first position by the driving mechanism.
  • the driving mechanism may be capable of moving the reflector to a second position where the first far-infrared ray is incident on the far-infrared camera without being blocked by the blocking surface and the second far-infrared ray is reflected by the second region and incident on the far-infrared camera.
  • the image processing unit may reduce the noise by performing a mask process on the far-infrared image using the updated mask data in a state where the reflector is moved to the second position by the driving mechanism.
  • the image processing unit may update the mask data by causing the driving mechanism to repeatedly move the reflector to the first position and the second position.
  • the object or the far-infrared transmission filter arranged between the object and the second region may have a first radiation surface that emits the second far-infrared rays at a first emissivity and a second radiation surface that emits the second far-infrared rays at a second emissivity different from the first emissivity.
  • the correction data may include data on the first emissivity and data on the second emissivity.
  • the far-infrared image may include a first pixel region in which the second far-infrared rays emitted from the first radiation surface at the first emissivity are captured, and a second pixel region in which the second far-infrared rays emitted from the second radiation surface at the second emissivity are captured.
  • the image processing unit may extract the second far-infrared rays using difference data between the luminance data of the first pixel region and the luminance data of the second pixel region, the first emissivity data, and the second emissivity data.
  • the image processing unit may extract the first far-infrared rays by subtracting a product of the extracted data of the second far-infrared rays and the data of the first emissivity from the luminance data of the first pixel region, or the image processing unit may extract the first far-infrared rays by subtracting a product of the extracted data of the second far-infrared rays and the data of the second emissivity from the luminance data of the second pixel region.
  • the first pixel region and the second pixel region may be adjacent to each other.
  • the number of pixels included in the first pixel region may be one, and the number of pixels included in the second pixel region may be one.
  • the second region may have an interior side and an exterior side.
  • the interior side may have a first reflecting surface that reflects the second far infrared ray with a first reflectance and a second reflecting surface that reflects the second far infrared ray with a second reflectance different from the first reflectance.
  • the exterior side may have a first transmitting surface that transmits the first far infrared ray with a first transmittance and a second transmitting surface that transmits the first far infrared ray with a second transmittance different from the first transmittance.
  • the correction data may include data of the first reflectance and data of the second reflectance.
  • the far-infrared image may include a first pixel region in which an image of the second far infrared ray reflected with the first reflectance is captured, and a second pixel region in which an image of the second far infrared ray reflected with the second reflectance is captured.
  • the image processing unit may extract the second far infrared ray using difference data between the luminance data of the first pixel region and the luminance data of the second pixel region, the first reflectance data, and the second reflectance data.
  • the image processing unit may extract the first far-infrared rays by subtracting a product of the extracted data of the second far-infrared rays and the data of the first reflectance from luminance data of the first pixel region, or may extract the first far-infrared rays by subtracting a product of the extracted data of the second far-infrared rays and the data of the second reflectance from luminance data of the second pixel region.
  • the image processing unit may reduce noise that appears in the far-infrared image due to the second far-infrared rays being reflected at the second region.
  • the object in a fourteenth aspect, in the camera-equipped vehicle window glass according to any one of the first to thirteenth aspects, The object may have a thermal conductivity of 150 W/m ⁇ K or more and 450 W/m ⁇ K or less.
  • a temperature control mechanism may be provided for controlling the temperature of the object.
  • the temperature control mechanism may include a blower that blows air onto the object.
  • the temperature control mechanism may include a refrigerant circuit that circulates a refrigerant.
  • an image processing method includes: A far-infrared image is captured by a far-infrared camera that detects a first far-infrared ray passing through a second region formed on a glass plate having a first region that transmits visible light and a higher transmittance of far-infrared ray than the first region; Noise appearing in the far-infrared image due to a second far-infrared ray radiated from an object placed on the side of the glass plate on which the far-infrared camera is placed is reduced.
  • the present disclosure provides a window glass for a camera-equipped vehicle and an image processing method that can reduce noise that appears in far-infrared images.
  • FIG. 1 is a cross-sectional view of a configuration in which a far-infrared camera is disposed inside a glass plate.
  • FIG. 2 is a diagram illustrating a far-infrared image free of noise.
  • FIG. 3 is a diagram illustrating a far-infrared image containing noise.
  • FIG. 4 is a cross-sectional view of the camera-equipped vehicle window glass according to the first embodiment.
  • FIG. 5 is a cross-sectional view of a window glass for a camera-equipped vehicle according to the second embodiment.
  • FIG. 6 is a diagram showing an example of a state in which correction data (mask data) is created.
  • FIG. 7 is a flowchart showing a first example of an image processing method.
  • FIG. 1 is a cross-sectional view of a configuration in which a far-infrared camera is disposed inside a glass plate.
  • FIG. 2 is a diagram illustrating a far-infrared image free of noise.
  • FIG. 8 is a cross-sectional view of a window glass for a camera-equipped vehicle according to the third embodiment.
  • FIG. 9 is a flowchart showing a second example of the image processing method.
  • FIG. 10 is a cross-sectional view of a window glass for a camera-equipped vehicle according to the fourth embodiment.
  • FIG. 11 is a diagram illustrating an example of an image processing method applied to the fourth embodiment.
  • FIG. 12 is a diagram illustrating another example of the image processing method applied to the fourth embodiment.
  • FIG. 13 is a diagram showing an example of an arrangement pattern of a plurality of radiation surfaces having different emissivities of far-infrared rays.
  • FIG. 14 is a flowchart showing an example of an image processing method applied to the fourth embodiment.
  • FIG. 14 is a flowchart showing an example of an image processing method applied to the fourth embodiment.
  • FIG. 15 is a cross-sectional view of a window glass for a camera-equipped vehicle according to the fifth embodiment.
  • FIG. 16 is a schematic diagram showing a state in which the camera-equipped vehicle window glass according to this embodiment is mounted on a vehicle.
  • FIG. 17 is a schematic plan view of a window glass for a camera-equipped vehicle according to this embodiment.
  • FIG. 18 is a cross-sectional view taken along line AA of FIG.
  • FIG. 19 is a cross-sectional view taken along line AA of FIG.
  • FIG. 20 is a cross-sectional view taken along the line BB of FIG.
  • FIG. 21 is a schematic diagram showing an example of a state in which the camera-equipped vehicle glass according to this embodiment is attached to a vehicle.
  • FIG. 21 is a schematic diagram showing an example of a state in which the camera-equipped vehicle glass according to this embodiment is attached to a vehicle.
  • FIG. 22 is a schematic diagram of the far-infrared transmitting member as viewed in a perpendicular direction from the outside of the vehicle.
  • FIG. 23 is a diagram illustrating an example of a protective member.
  • FIG. 24 is a diagram illustrating an example of a protective member.
  • FIG. 25 is a cross-sectional view of another example of the camera-equipped vehicle window glass according to the fourth embodiment.
  • FIG. 26A is a schematic diagram of the interior side of the vehicle as viewed from the inside of the vehicle.
  • FIG. 26B is a schematic diagram of the exterior side surface of the vehicle as viewed from the exterior side of the vehicle.
  • FIG. 27A is a diagram showing a far-infrared image obtained from far-infrared light transmitted through the second region.
  • FIG. 27B is a diagram showing a far-infrared image obtained from far-infrared rays reflected on the inside surface of the vehicle.
  • 13 is an explanatory diagram of another example of the image
  • the present embodiment will be described below with reference to the drawings.
  • Directions such as parallel, right angle, orthogonal, horizontal, vertical, up and down, left and right, and terms such as same and equal are permitted to have deviations that do not impair the action and effect of the embodiment.
  • the shape of the corners is not limited to right angles, and may be rounded in a bow shape. Overlapping may include the meaning of partially overlapping.
  • the X direction, Y direction, and Z direction respectively represent directions parallel to the X axis, directions parallel to the Y axis, and directions parallel to the Z axis.
  • the X direction, Y direction, and Z direction are mutually perpendicular.
  • the XY plane, YZ plane, and ZX plane respectively represent imaginary planes parallel to the X direction and Y direction, imaginary planes parallel to the Y direction and Z direction, and imaginary planes parallel to the Z direction and X direction.
  • FIG. 1 is a cross-sectional view of an example configuration in which a far-infrared camera is placed inside a glass plate.
  • the X direction represents a direction parallel to a horizontal plane (horizontal direction).
  • the Y direction represents a direction along the outer surface 53 or inner surface 54 of the glass plate 50.
  • the Z direction represents a direction along the thickness direction of the glass plate 50.
  • the glass plate 50 is a glass member in which a first region 51 that transmits visible light and a second region 52 that transmits far-infrared light are formed.
  • the second region 52 has a higher transmittance of far-infrared light than the first region 51.
  • the far-infrared camera 7 is disposed on the inside of the glass plate 50.
  • the far-infrared camera 7 detects far-infrared rays FA emitted from an object (subject 6) existing outside the glass plate 50.
  • the far-infrared camera 7 captures a far-infrared image 2 by detecting far-infrared rays FA that pass through the second region 52 from the outside to the inside of the glass plate 50.
  • a far-infrared image is also called a thermal image.
  • FIG. 2 is a diagram illustrating an example of a far-infrared image captured by a far-infrared camera. Ideally, only subjects 6a and 6b that exist outside the glass plate 50 appear in the far-infrared image 2a captured by the far-infrared camera 7.
  • far-infrared rays FB emitted from some object 4 placed inside the glass plate 50 may enter the far-infrared camera 7 directly or after reflection.
  • far-infrared rays FB may be reflected by the first region 51 or the second region 52 of the glass plate 50 and enter the far-infrared camera 7.
  • noise 5 caused by the incidence of far-infrared rays FB may appear in the far-infrared image 2b captured by the far-infrared camera 7.
  • noise 5 is also called artifacts.
  • the noise 5 is a reflected image that appears in the far-infrared image 2b in various shapes such as streaks and stripes.
  • noise 5 is present in the far-infrared image 2b
  • a computer using the far-infrared image 2b may mistakenly recognize that a non-existent object exists between the subjects 6a, 6b and the glass plate 50. For this reason, it is preferable to reduce the noise 5 reflected in the far-infrared image 2.
  • FIG 4 is a cross-sectional view of the camera-equipped vehicle window glass according to the first embodiment.
  • the camera-equipped window glass 201 shown in Figure 4 is an example of a camera-equipped vehicle window glass.
  • the X direction represents a direction parallel to the horizontal plane (horizontal direction).
  • the Y direction represents a direction along the outer surface 53 or inner surface 54 of the glass plate 50.
  • the Z direction represents a direction along the thickness direction of the glass plate 50.
  • the ZV direction represents a direction from the outside to the inside of the vehicle with respect to the glass plate 50 when the camera-equipped window glass 201 is attached to the vehicle.
  • the YV direction represents a direction from the top of the vehicle to the bottom of the vehicle along a vertical direction perpendicular to the horizontal plane with the camera-equipped window glass 201 attached to the vehicle.
  • the camera-equipped window glass 201 comprises a glass plate 50, a far-infrared camera 7, an attachment 3, and an image processing unit 8.
  • An object 4 is present on the side of the glass plate 50 on which the far-infrared camera 7 is positioned.
  • Glass plate 50 is a vehicle window glass having an outer surface 53 facing the outside of the vehicle and an inner surface 54 facing the inside of the vehicle.
  • the outer surface 53 is the first main surface that faces the outside of the vehicle when glass plate 50 is attached to the vehicle.
  • the inner surface 54 is the second main surface that faces the inside of the vehicle when glass plate 50 is attached to the vehicle.
  • the glass plate 50 is a glass member in which a first region 51 that transmits visible light and a second region 52 that transmits far-infrared light are formed.
  • the second region 52 has a higher transmittance of far-infrared light than the first region 51.
  • the first region 51 barely transmits far-infrared light, but may transmit far-infrared light with a transmittance that is sufficiently smaller than the transmittance of far-infrared light of the second region 52.
  • the far-infrared camera 7 is disposed on the vehicle interior side relative to the glass plate 50.
  • the far-infrared camera 7 detects far-infrared rays FA emitted from an object (subject 6) present outside the glass plate 50.
  • the far-infrared camera 7 detects far-infrared rays FA that pass through the second area 52 from the outside to the inside of the glass plate 50, and captures a far-infrared image 2 that reflects the detection results of the far-infrared rays FA.
  • the far-infrared rays FA are an example of a first far-infrared ray.
  • the attachment 3 is a component that directly or indirectly fixes the far-infrared camera 7 to the glass plate 50.
  • Specific examples of the attachment 3 include a cover that covers the far-infrared camera 7, a bracket that supports the far-infrared camera 7, etc.
  • the object 4 is placed on the side of the glass plate 50 where the far-infrared camera 7 is placed.
  • the object 4 is a heat source that radiates far-infrared rays FB.
  • the far-infrared rays FB are an example of second far-infrared rays.
  • the object 4 is located at a location where the far-infrared rays FB radiated from the object 4 are reflected by the second region 52 and enter the far-infrared camera 7.
  • the object 4 may be located at a location where the far-infrared rays FB radiated from the object 4 are reflected by a member other than the first region 51 or the glass plate 50 and enter the far-infrared camera 7, or may be located at a location where the far-infrared rays FB radiated from the object 4 are directly incident on the far-infrared camera 7.
  • the object 4 may be a part covered by the attachment 3 that functions as a cover, or may be a part or all of the attachment 3.
  • the object 4 may or may not be a component of the camera-equipped window glass 201.
  • the object 4 may be a part or an occupant present in the vehicle cabin.
  • the image processing unit 8 has an image processing circuit that performs image processing to reduce noise 5 (see FIG. 3) that appears in the far-infrared image 2 when the far-infrared FB emitted from the object 4 is reflected by the second region 52.
  • the image processing circuit may perform image processing to reduce noise 5 that appears in the far-infrared image 2 when the far-infrared FB is reflected by a member other than the first region 51 or the glass plate 50.
  • the image processing circuit may perform image processing to reduce noise 5 that appears in the far-infrared image 2 when the far-infrared FB is directly incident on the far-infrared camera 7.
  • Reducing noise 5" may include the meaning of "removing noise 5 from the far-infrared image 2."
  • the image processing unit 8 provides the far-infrared image 2 with reduced noise 5 to a computer (not shown), thereby reducing the possibility that the computer will mistakenly recognize the presence of a non-existent object between the subject 6 and the glass plate 50.
  • the camera-equipped window glass 201 includes an image processing unit 8, so that the far-infrared rays FB emitted from the object 4 enter the far-infrared camera 7 directly or after being reflected by the second region 52 or the like, thereby reducing the noise 5 that appears in the far-infrared image 2. This reduces the noise 5 even if the far-infrared rays FB change depending on the sunlight conditions while the vehicle is traveling.
  • the image processing function of the image processing unit 8 is realized, for example, by a processor such as a CPU (Central Processing Unit) operating according to a program stored in a readable manner in memory.
  • the program that realizes the processing performed by the image processing unit 8 may be provided, for example, via a recording medium or a network.
  • the image processing unit 8 is a component of the camera-equipped window glass 201, but it does not have to be a component of the camera-equipped window glass 201.
  • the image processing unit 8 may be an electronic control device mounted on the vehicle at a position away from the camera-equipped window glass 201, or an internal component thereof.
  • the image processing unit 8 may also be located in a server away from the vehicle, and the far-infrared image 2 with reduced noise 5 may be transmitted to the server via a communication line.
  • the image processing unit 8 may be built into the far-infrared camera 7.
  • the object 4 has a thermal conductivity of, for example, 150 W/m ⁇ K or more and 450 W/m ⁇ K or less, the temperature distribution of the object 4 becomes more uniform, and the noise 5 reflected in the far-infrared image 2 is reduced.
  • the thermal conductivity is preferably 200 W/m ⁇ K or more, and more preferably 390 W/m ⁇ K or more.
  • FIG. 5 is a cross-sectional view of a window glass for a vehicle with a camera according to the second embodiment.
  • the window glass 202 with a camera shown in FIG. 5 is an example of a window glass for a vehicle with a camera.
  • the explanation of the configuration, functions, and effects similar to those of the above-mentioned embodiment will be omitted or simplified by invoking the above-mentioned explanation.
  • the camera-equipped window glass 202 includes a memory 9 that stores correction data d for reducing noise 5 reflected in the far-infrared image 2.
  • the memory 9 is preferably a non-volatile memory, but may also be an auxiliary storage device such as a hard disk.
  • the image processing unit 8 uses the correction data d read out from the memory 9 to reduce the noise 5 reflected in the far-infrared image 2.
  • the camera-equipped window glass 202 is provided with a memory 9, and can thus store correction data d that has been created in advance for correction processing to reduce noise 5.
  • the camera-equipped window glass 202 can store in the memory 9 correction data d that has been created at an appropriate time, such as when the window glass is shipped from the factory before being installed on the vehicle, or when the window glass is shipped from the factory after being installed on the vehicle, or after shipment.
  • the correction data d includes, for example, mask data (hereinafter also referred to as "mask data dm") of the noise 5 reflected in the far-infrared image 2.
  • the image processing unit 8 reduces the noise 5 by masking the far-infrared image 2 using the mask data dm read from the memory 9.
  • the mask data is also referred to as a mask image. Note that the masking process of masking the noise 5 reflected in the far-infrared image 2 using the mask data dm may be performed by a known method.
  • the mask data dm is, for example, data of far-infrared rays FB detected in advance by the far-infrared camera 7.
  • the image processing unit 8 performs mask processing to subtract mask data dm equal to the data of far-infrared rays FB from the far-infrared image 2 including far-infrared rays FA and far-infrared rays FB, thereby obtaining a far-infrared image 2 in which the noise 5 generated by the far-infrared rays FB has been reduced.
  • FIG. 6 is a diagram showing an example of the creation status of correction data d (mask data dm).
  • Cover 55 covering second region 52 from the outer surface 53 side blocks far-infrared rays FA coming from outside the vehicle.
  • Cover 55 is, for example, a mirror that blocks far-infrared rays FA coming from outside the vehicle, but it may also be a blocking member other than a mirror that blocks far-infrared rays FA.
  • the cover 55 is placed on the second region 52 from the outer surface 53 side at a timing such as before the vehicle starts to travel.
  • the far-infrared rays detected by the far-infrared camera 7 when the cover 55 is placed are the far-infrared rays FB emitted from the object 4.
  • the image processing unit 8 stores in the memory 9, as mask data dm, the data of the far-infrared rays (far-infrared rays FB) detected by the far-infrared camera 7 when the cover 55 covers the second region 52.
  • the image processing unit 8 may update the mask data dm stored in the memory 9 to the data of the far-infrared rays FB detected by the far-infrared camera 7 when the cover 55 covers the second region 52.
  • the timing of updating the mask data dm may be any timing, a specific timing, or periodic timing (similar to the example described later).
  • the image processing unit 8 reduces noise 5 by masking the far-infrared image 2 using the updated mask data dm.
  • the updated mask data dm By using the updated mask data dm, the effect of reducing noise 5 is ensured even if the range or strength of the far-infrared rays FB incident on the far-infrared camera 7 changes due to the sunlight conditions while the vehicle is traveling or deterioration over time.
  • the image processing unit 8 can reduce the noise 5 reflected in the far-infrared image 2 by masking the far-infrared image 2 using the mask data dm thus created in advance.
  • the far-infrared rays FA coming from outside the vehicle when the mask data dm is generated may be blocked by a means other than the cover 55.
  • the far-infrared rays FA may be blocked by placing the window glass 202 with the camera in a dark room.
  • FIG. 7 is a flowchart showing a first example of an image processing method executed by the image processing unit 8.
  • the image processing unit 8 acquires a far-infrared image 2 captured by a far-infrared camera 7 that detects far-infrared rays FA.
  • the acquired far-infrared image 2 includes not only data on far-infrared rays FA but also data on far-infrared rays FB.
  • the image processing unit 8 uses the mask data dm to correct the luminance distribution of the far-infrared image 2 to mask the noise 5 reflected in the far-infrared image 2.
  • step S13 the image processing unit 8 transmits the far-infrared image 2 in which the noise 5 has been reduced to a subsequent processing unit. This allows the subsequent processing unit to perform a predetermined process on the far-infrared image 2 in which the noise 5 has been reduced.
  • FIG. 8 is a cross-sectional view of a window glass for a vehicle with a camera according to the third embodiment.
  • the window glass 203 with a camera shown in FIG. 8 is an example of a window glass for a vehicle with a camera.
  • the explanation of the configuration, functions, and effects similar to those of the above-mentioned embodiments will be omitted or simplified by invoking the above-mentioned explanation.
  • the camera-equipped window glass 203 is equipped with a reflector 56 and a drive mechanism 57 to create mask data dm.
  • the reflector 56 has a shielding surface 59 that blocks far-infrared rays and a reflective surface 58 that reflects far-infrared rays.
  • the shielding surface 59 may be a reflective surface as long as it has the function of blocking far-infrared rays.
  • the drive mechanism 57 moves the reflector 56 to a first position P1.
  • the first position P1 represents a position where the far-infrared rays FA are shielded by the shielding surface 59, and the far-infrared rays FB are reflected by the reflective surface 58 and enter the far-infrared camera 7.
  • the image processing unit 8 stores in the memory 9, as mask data dm, the data of the far-infrared rays (far-infrared rays FB) detected by the far-infrared camera 7 when the reflector 56 is moved to the first position P1 by the drive mechanism 57. If the mask data dm has already been stored in the memory 9, the image processing unit 8 may update the mask data dm stored in the memory 9 to the data of the far-infrared rays detected by the far-infrared camera 7 when the reflector 56 is in the first position P1.
  • the camera-equipped window glass 203 is provided with a drive mechanism 57 that moves the reflector 56 to the first position P1, allowing the image processing unit 8 to automatically create and update the mask data dm.
  • the drive mechanism 57 has, for example, a motor that moves the reflector 56 according to a command signal from the image processing unit 8.
  • the reflector 56 is a flat plate, but there is no particular limitation on its shape as long as it can be moved to the first position P1.
  • the reflector 56 may be a plate that can be folded like an aperture shutter or bellows, a sheet that can be stored in a roll, or a cylindrical mirror surface.
  • the driving mechanism 57 moves, for example, a flat reflector 56 or a reflector 56 that can be folded like an accordion to the first position P1 along the X direction or the Y direction.
  • the driving mechanism 57 may move the reflector 56 to the first position P1 by closing the aperture opening of the aperture shutter-shaped reflector 56.
  • the driving mechanism 57 may move the reflector 56 to the first position P1 by pulling out the reflector 56 stored in a roll.
  • the driving mechanism 57 may move the reflector 56 to the first position P1 by rotating the cylindrically arranged reflector 56 about its central axis. Note that the illustrated first position P1 is merely an example.
  • the driving mechanism 57 may move the reflector 56 to a second position P2 where the far-infrared rays FA enter the far-infrared camera 7 without being blocked by the blocking surface 59, and the far-infrared rays FB are reflected by the second region 52 and enter the far-infrared camera 7.
  • the image processing unit 8 may reduce noise 5 by masking the far-infrared image 2 using the mask data dm when the reflector 56 has been moved to the second position P2 by the driving mechanism 57.
  • the camera-equipped window glass 203 is provided with a driving mechanism 57 that moves the reflector 56 to the second position P2, and the image processing unit 8 can mask the far-infrared image 2 including the far-infrared FA data and the far-infrared FB data without being obstructed by the reflector 56.
  • the driving mechanism 57 moves, for example, a flat reflector 56 or a reflector 56 that can be folded like an accordion to the second position P2 along the X direction, the Y direction, or the ZV direction.
  • the driving mechanism 57 may move the reflector 56 to the second position P2 by opening an aperture opening of the reflector 56 in the form of an aperture shutter.
  • the driving mechanism 57 may move the reflector 56 to the second position P2 by winding up the reflector 56 that can be stored in a roll.
  • the driving mechanism 57 may move the reflector 56 to the second position P2 by rotating the reflector 56 arranged in a cylindrical shape about its central axis. Note that the second position P2 shown in the figure is merely an example.
  • the image processing unit 8 may update the mask data dm by repeatedly moving the reflector 56 to the first position P1 and the second position P2 by the driving mechanism 57. This ensures the effect of reducing noise 5 even if the range or strength of the far-infrared rays FB incident on the far-infrared camera 7 changes due to the sunlight conditions while the vehicle is traveling or deterioration over time.
  • FIG. 9 is a flowchart showing a second example of an image processing method executed by the image processing unit 8.
  • the image processing unit 8 controls the drive mechanism 57 to move the reflector 56 to the first position P1.
  • the image processing unit 8 stores data of far-infrared rays (far-infrared rays FB) detected by the far-infrared camera 7 when the reflector 56 has moved to the first position P1 in the memory 9 as mask data dm.
  • the image processing unit 8 controls the drive mechanism 57 to move the reflector 56 to the second position P2. Steps S11, S12, and S13 may be the same as those in the image processing method of FIG. 7.
  • the image processing unit 8 can automatically create and update the mask data dm, and use the updated mask data dm to perform mask processing on the far-infrared image 2.
  • update periods for the mask data dm include every time the vehicle starts traveling, every fixed time, etc.
  • FIG. 10 is a cross-sectional view of a window glass for a vehicle with a camera according to the fourth embodiment.
  • the window glass 204 with a camera shown in FIG. 10 is an example of a window glass for a vehicle with a camera.
  • the explanation of the configuration, functions, and effects similar to those of the above-mentioned embodiments will be omitted or simplified by invoking the above-mentioned explanation.
  • the object 4 may have a first radiation surface 61 that radiates far-infrared rays FB with a first emissivity ⁇ and a second radiation surface 62 that radiates far-infrared rays FB with a second emissivity ⁇ different from the first emissivity ⁇ .
  • a far-infrared transmission filter having a first radiation surface 61 that radiates far-infrared rays with a first emissivity ⁇ and a second radiation surface 62 that radiates far-infrared rays with a second emissivity ⁇ may be disposed between the object 4 radiating far-infrared rays FB and the second region 52.
  • a preferred embodiment is a configuration in which the first radiation surface 61 and the second radiation surface 62 are attached to the object 4 itself, as shown in FIG. 10.
  • the correction data d stored in the memory 9 includes data of the first emissivity ⁇ and data of the second emissivity ⁇ .
  • the memory 9 stores data of the first emissivity ⁇ and data of the second emissivity ⁇ in advance.
  • FIG. 11 is an explanatory diagram of an example of an image processing method applied to the fourth embodiment.
  • FIG. 11 shows a state in which noise 5 (reflected image) generated by far-infrared rays FB radiated from an object 4 is captured in a far-infrared image 2.
  • the far-infrared image 2 When the far-infrared image 2 is enlarged, it includes at least one first pixel region 71 and at least one second pixel region 72.
  • the first pixel region 71 is an area in which at least the second far-infrared rays FB radiated with a first emissivity ⁇ from the first radiation surface 61 of the object 4 is captured.
  • the second pixel region 72 is an area in which at least the second far-infrared rays FB radiated with a second emissivity ⁇ from the second radiation surface 62 of the object 4 is captured.
  • the first pixel regions 71 are each a single pixel having luminance data L ⁇ generated by mixing the far-infrared rays FA incident through the second region 52 and the far-infrared rays FB incident after being radiated from the first radiation surface 61 with a first emissivity ⁇ .
  • the second pixel regions 72 are each a single pixel having luminance data L ⁇ generated by mixing the far-infrared rays FA incident through the second region 52 and the far-infrared rays FB incident after being radiated from the second radiation surface 62 with a second emissivity ⁇ .
  • the first radiation surface 61 and the second radiation surface 62 are arranged in a staggered grid pattern
  • the first pixel regions 71 and the second pixel regions 72 also appear in a staggered grid pattern.
  • L ⁇ FA+FB ⁇ Equation 1
  • L ⁇ FA+FB ⁇ Equation 2
  • the image processing unit 8 measures the luminance data L ⁇ and L ⁇ .
  • the first emissivity ⁇ and second emissivity ⁇ are stored in advance in the memory 9. Therefore, the image processing unit 8 can extract far-infrared FB by substituting the measured value of the luminance data L ⁇ , the measured value of the luminance data L ⁇ , the first emissivity ⁇ , and the second emissivity ⁇ into equation 3. In this way, the image processing unit 8 can extract far-infrared FB by using the difference data between the luminance data L ⁇ and the luminance data L ⁇ , the first emissivity ⁇ , and the second emissivity ⁇ .
  • the image processing unit 8 calculates, for example, difference data (L ⁇ -L ⁇ ) for the first pixel region 71 and the second pixel region 72 that are adjacent to each other. This allows the image processing unit 8 to extract far-infrared FB with high accuracy compared to the case where difference data (L ⁇ -L ⁇ ) for the first pixel region 71 and the second pixel region 72 that are not adjacent to each other but are separated from each other is used.
  • the image processing unit 8 may extract the far-infrared rays FA by subtracting the product of the extracted data of the far-infrared rays FB and the data of the first emissivity ⁇ from the luminance data L ⁇ of the first pixel region 71 using Equation 1.
  • the image processing unit 8 may extract the far-infrared rays FA by subtracting the product of the extracted data of the far-infrared rays FB and the data of the second emissivity ⁇ from the luminance data L ⁇ of the second pixel region 72 using Equation 2.
  • FIG. 12 is an explanatory diagram of another example of an image processing method applied to the fourth embodiment.
  • a first pixel region 71 shown in FIG. 12 differs from a single pixel in FIG. 11 in that it is made up of multiple pixels (four in this example) having the same luminance data L ⁇ .
  • a second pixel region 72 shown in FIG. 12 differs from a single pixel in FIG. 11 in that it is made up of multiple pixels (four in this example) having the same luminance data L ⁇ .
  • the number of pixels included in one first pixel region 71 may be one or more, and the number of pixels included in one second pixel region 72 may be one or more.
  • the image processing unit 8 can extract far-infrared rays FB and far-infrared rays FA.
  • the image processing unit 8 may store the extracted data of far-infrared rays FB in the memory 9 as the above-mentioned mask data dm.
  • the object 4 has multiple radiation surfaces with different emissivities of far-infrared rays.
  • the arrangement pattern of the multiple radiation surfaces is not limited to a lattice pattern and may be other patterns.
  • the camera-equipped window glass 204' shown in FIG. 25 is another example of a camera-equipped vehicle window glass according to the fourth embodiment. Explanations of the configuration, functions, and effects similar to those of the above-described embodiment will be omitted or simplified by incorporating the above-described explanations.
  • the second region 52 has an interior side surface 52a and an exterior side surface 52b.
  • Figure 26A is a schematic diagram of the interior side surface 52a viewed from the interior side of the vehicle.
  • the interior side surface 52a has a first reflecting surface 91a that reflects far-infrared rays FB with a first reflectance a, and a second reflecting surface 92a that reflects far-infrared rays FB with a second reflectance b different from the first reflectance a.
  • Figure 26B is a schematic diagram of the exterior side surface 52b viewed from the exterior side of the vehicle.
  • the exterior side surface 52b has a first transmitting surface 91b that transmits far-infrared rays FA with a first transmittance a', and a second transmitting surface 92b that transmits far-infrared rays FA with a second transmittance b' different from the first transmittance a'.
  • the positional relationship between the first reflecting surface 91a on the interior side surface 52a and the second transmitting surface 92b on the exterior side surface 52b as viewed from the far-infrared camera 7 corresponds to each other.
  • the positional relationship between the second reflecting surface 92a on the vehicle interior side surface 52a and the first transmitting surface 91b on the vehicle exterior side surface 52b as viewed from the far-infrared camera 7 corresponds to each other.
  • the relationship between the first reflectance a, the second reflectance b, the first transmittance a', and the second transmittance b' is set so that the pixel values as viewed from the far-infrared camera 7 are uniform, as shown in FIG. 27A.
  • the far-infrared image obtained from the far-infrared rays FA transmitted through the second region 52 maintains a contrast ratio as shown in FIG.
  • the correction data d stored in the memory 9 includes data on the first reflectance a and the second reflectance b.
  • the memory 9 stores data on the first reflectance a and the second reflectance b in advance.
  • FIG. 28 is an explanatory diagram of another example of the image processing method applied to the fourth embodiment.
  • FIG. 28 shows a state in which noise 5 (reflected image) generated by far-infrared rays FB radiated from an object 4 is captured in a far-infrared image 2.
  • this far-infrared image 2 When this far-infrared image 2 is enlarged, it includes at least one first pixel region 71 and at least one second pixel region 72.
  • the first pixel region 71 is an area in which at least an image of the second far-infrared rays FB radiated from the object 4 reflected with a first reflectance a is captured.
  • the second pixel region 72 is an area in which at least an image of the second far-infrared rays FB radiated from the object 4 reflected with a second reflectance b is captured.
  • the first pixel regions 71 are each a single pixel having luminance data La generated by mixing the far-infrared rays FA incident through the second region 52 and the far-infrared rays FB reflected and incident with a first reflectance a.
  • the second pixel regions 72 are each a single pixel having luminance data Lb generated by mixing the far-infrared rays FA incident through the second region 52 and the far-infrared rays FB reflected and incident with a second reflectance b.
  • the first reflecting surface 91a and the second reflecting surface 92a are arranged in a staggered grid pattern on the interior side surface 52a, the first pixel region 71 and the second pixel region 72 also appear in a staggered grid pattern.
  • the image processing unit 8 measures the luminance data La and luminance data Lb.
  • the first reflectance a and second reflectance b are stored in advance in the memory 9. Therefore, the image processing unit 8 can extract the far-infrared FB by substituting the measured value of the luminance data La, the measured value of the luminance data Lb, the first reflectance a, and the second reflectance b into equation 6. In this way, the image processing unit 8 can extract the far-infrared FB by using the difference data between the luminance data La and the luminance data Lb, the first reflectance a, and the second reflectance b.
  • the image processing unit 8 calculates, for example, difference data (La-Lb) for the first pixel region 71 and the second pixel region 72 that are adjacent to each other. This allows the image processing unit 8 to extract the far-infrared FB with high accuracy compared to the case where difference data (La-Lb) for the first pixel region 71 and the second pixel region 72 that are not adjacent to each other but are separated from each other is used.
  • the image processing unit 8 may extract the far-infrared rays FA by subtracting the product of the extracted data of the far-infrared rays FB and the data of the first reflectance a from the luminance data La of the first pixel region 71 using Equation 4.
  • the image processing unit 8 may extract the far-infrared rays FA by subtracting the product of the extracted data of the far-infrared rays FB and the data of the second reflectance b from the luminance data Lb of the second pixel region 72 using Equation 5.
  • FIG. 13 is a diagram showing an example of an arrangement pattern of multiple radiation surfaces with different far-infrared radiation emissivity.
  • the arrangement pattern of the multiple radiation surfaces shown in FIG. 13 is striped. By adopting a striped pattern, adjustment of the positions of the multiple radiation surfaces with respect to the pixels in the far-infrared image 2 is unnecessary or simplified, making manufacturing easier.
  • the object 4 shown in FIG. 13 has a first radiation surface 61 that emits far-infrared radiation FB with a first emissivity ⁇ , and a second radiation surface 62 that emits far-infrared radiation FB with a second emissivity ⁇ different from the first emissivity ⁇ .
  • FIG. 14 is a flowchart showing an example of an image processing method applied to the fourth embodiment.
  • the image processing unit 8 acquires a far-infrared image 2 captured by a far-infrared camera 7 that detects far-infrared rays FA.
  • This acquired far-infrared image 2 contains not only far-infrared FA data but also far-infrared FB data.
  • the image processing unit 8 extracts the signal component of far-infrared rays FB by using, for example, difference data (L ⁇ -L ⁇ ) for the first pixel region 71 and the second pixel region 72 adjacent to each other, and the first emissivity ⁇ and second emissivity ⁇ stored in advance in the memory 9.
  • step S33 the image processing unit 8 removes the far-infrared FB signal components extracted in step S32 from the far-infrared image 2 acquired in step S31, thereby generating a far-infrared image 2 in which noise 5 has been reduced.
  • step S34 the image processing unit 8 transmits the far-infrared image 2 in which noise 5 has been reduced to a subsequent processing unit. This allows the subsequent processing unit to perform a predetermined process on the far-infrared image 2 in which noise 5 has been reduced.
  • the above description of the image processing method shown in FIG. 14 can be used in the method shown in FIG. 28 by replacing the difference data (L ⁇ -L ⁇ ) with the difference data (La-Lb), the first emissivity ⁇ with the first reflectivity a, and the second emissivity ⁇ with the second reflectivity b.
  • FIG. 15 is a cross-sectional view of a window glass for a vehicle with a camera according to the fifth embodiment.
  • the window glass 205 with a camera shown in FIG. 15 is an example of a window glass for a vehicle with a camera.
  • the explanation of the configuration, functions, and effects similar to those of the above-mentioned embodiments will be omitted or simplified by invoking the above-mentioned explanation.
  • the camera-equipped window glass 205 is provided with a temperature control mechanism 80 that controls the temperature of the object 4.
  • a temperature control mechanism 80 that controls the temperature of the object 4.
  • the temperature control mechanism 80 may include, for example, a blower 81 that blows air to the object 4.
  • the object 4 is uniformly cooled by the air blown by the blower 81, thereby reducing noise 5 that appears in the far-infrared image 2.
  • the temperature control mechanism 80 may include, for example, a refrigerant circuit 82 that circulates a refrigerant that cools the object 4. The circulation of the refrigerant uniformly cools the object 4, thereby reducing noise 5 that appears in the far-infrared image 2.
  • FIG. 16 is a schematic diagram showing a state in which the camera-equipped window glass 1 according to this embodiment is mounted on a vehicle V.
  • the window glass 1 according to this embodiment is mounted on a vehicle V.
  • the window glass 1 is a window member that is applied to the windshield of the vehicle V. That is, the window glass 1 is used as the front window of the vehicle V, in other words, as a windshield.
  • a far-infrared camera CA1 and a visible light camera CA2 are mounted inside (inside) the vehicle V.
  • the inside (inside) of the vehicle V refers to, for example, the interior of the vehicle where the driver's seat is located.
  • the camera unit 100 includes a window glass 1, a far-infrared camera CA1, and a visible light camera CA2.
  • the far-infrared camera CA1 is an example of the far-infrared camera 7 described above.
  • the far-infrared camera CA1 is a camera that detects far-infrared rays.
  • the far-infrared camera CA1 captures a thermal image of the outside of the vehicle V by detecting far-infrared rays from outside the vehicle V.
  • the visible light camera CA2 is a camera that detects visible light.
  • the visible light camera CA2 captures an image of the outside of the vehicle V by detecting visible light from outside the vehicle V.
  • the camera unit 100 may further include, for example, a LiDAR (Light Detection and Ranging) or a millimeter wave radar.
  • far-infrared rays are, for example, electromagnetic waves with a wavelength band of 8 ⁇ m or more and 13 ⁇ m or less
  • visible light is, for example, electromagnetic waves with a wavelength band of 360 nm or more and 830 nm or less.
  • FIG. 17 is a schematic plan view of the window glass 1 according to this embodiment.
  • FIGS. 18 and 19 are cross-sectional views taken along line A-A in FIG. 17.
  • FIG. 18 is a cross-sectional view taken along line A-A in FIG. 17.
  • FIG. 19 is a cross-sectional view taken along line B-B in FIG. 17.
  • the upper edge of the window glass 1 is referred to as upper edge 1a, the lower edge as lower edge 1b, one side edge as side edge 1c, and the other side edge as side edge 1d.
  • the upper edge 1a is an edge portion located on the upper side in the vertical direction when the window glass 1 is mounted on the vehicle V.
  • the lower edge 1b is an edge portion located on the lower side in the vertical direction when the window glass 1 is mounted on the vehicle V.
  • the side edge 1c is an edge portion located on one side when the window glass 1 is mounted on the vehicle V.
  • the side edge portion 1d is an edge portion that is located on the other side when the window glass 1 is mounted on the vehicle V.
  • the Z direction is the direction from the outside to the inside of the vehicle V.
  • the X direction and the Y direction are along the surface of the window glass 1, but when the surface of the window glass 1 is curved, for example, they may be directions that are tangent to the surface of the window glass 1 at the center point O of the window glass 1.
  • the center point O is the center position of the window glass 1 when the window glass 1 is viewed from the Z direction.
  • the window glass 1 is formed with a light-transmitting region A1 and a light-shielding region A2.
  • the light-transmitting region A1 is an area that occupies the center of the window glass 1 when viewed from the Z direction.
  • the light-transmitting region A1 is an area for ensuring the driver's field of vision.
  • the light-transmitting region A1 is an area that transmits visible light.
  • the light-shielding region A2 is an area that is formed around the light-transmitting region A1 when viewed from the Z direction.
  • the light-shielding region A2 is an area that blocks visible light.
  • a far-infrared light-transmitting region B and a visible light-transmitting region C are formed.
  • the light-transmitting region A1 is an example of the first region 51 described above.
  • the far-infrared light-transmitting region B is an example of the second region 52.
  • the far-infrared transmitting area B is an area that transmits far-infrared rays, and is an area where the far-infrared camera CA1 is provided. That is, the far-infrared camera CA1 is provided at a position that overlaps with the far-infrared transmitting area B when viewed from the optical axis direction of the far-infrared camera CA1.
  • the visible light transmitting area C is an area that transmits visible light, and is an area where the visible light camera CA2 is provided. That is, the visible light camera CA2 is provided at a position that overlaps with the visible light transmitting area C when viewed from the optical axis direction of the visible light camera CA2.
  • the light-shielding area A2 has a far-infrared transmitting area B and a visible light transmitting area C formed therein, so that the light-shielding area A2 blocks far-infrared rays except in the area where the far-infrared transmitting area B is formed, and blocks visible light except in the area where the visible light transmitting area C is formed.
  • the far-infrared transmitting area B and the visible light transmitting area C are surrounded by a light-shielding area A2a. Having the light-shielding area A2a around them is preferable because it protects the various sensors from sunlight. It is also preferable from the standpoint of design because the wiring of the various sensors is not visible from outside the vehicle.
  • the window glass 1 comprises a glass base 12 (first glass base), a glass base 14 (second glass base), an intermediate layer 16, and a light-shielding layer 18.
  • the window glass 1 is formed by stacking the glass base 12, the intermediate layer 16, the glass base 14, and the light-shielding layer 18 in this order in the Z direction.
  • the glass base 12 and the glass base 14 are fixed (bonded) to each other via the intermediate layer 16.
  • the glass substrates 12 and 14 may be, for example, soda lime glass, borosilicate glass, aluminosilicate glass, etc.
  • the intermediate layer 16 is an adhesive layer that bonds the glass substrate 12 and the glass substrate 14.
  • the intermediate layer 16 may be, for example, a polyvinyl butyral (hereinafter also referred to as PVB) modified material, an ethylene-vinyl acetate copolymer (EVA)-based material, a urethane resin material, a polyvinyl chloride resin material, etc.
  • the glass substrate 12 includes one surface 12A and the other surface 12B, and the other surface 12B is in contact with one surface 16A of the intermediate layer 16 and fixed (adhered) to the intermediate layer 16.
  • the glass substrate 14 includes one surface 14A and the other surface 14B, and the one surface 14A is in contact with the other surface 16B of the intermediate layer 16 and fixed (adhered) to the intermediate layer 16.
  • the window glass 1 is a laminated glass in which the glass substrate 12 and the glass substrate 14 are laminated.
  • the window glass 1 is not limited to a laminated glass, and may be configured to include, for example, only one of the glass substrate 12 and the glass substrate 14.
  • the intermediate layer 16 does not need to be provided.
  • the glass substrate 10 when there is no need to distinguish between the glass substrates 12 and 14, they will be referred to as the glass substrate 10.
  • the glass substrate 10, the glass substrate 12, or the glass substrate 14 is an example of the glass plate 50 described above.
  • the light-shielding layer 18 includes one surface 18A and the other surface 18B, and the one surface 18A is fixed in contact with the other surface 14B of the glass substrate 14.
  • the light-shielding layer 18 is a layer that blocks visible light.
  • a ceramic light-shielding layer or a light-shielding film can be used as the light-shielding layer 18.
  • a ceramic layer made of a conventionally known material such as a black ceramic layer can be used as the ceramic light-shielding layer.
  • a light-shielding polyethylene terephthalate (PET) film, a light-shielding polyethylene naphthalate (PEN) film, a light-shielding polymethyl methacrylate (PMMA) film, etc. can be used as the light-shielding film.
  • PET polyethylene terephthalate
  • PEN light-shielding polyethylene naphthalate
  • PMMA light-shielding polymethyl methacrylate
  • the side of the window glass 1 on which the light-shielding layer 18 is provided is the interior side of the vehicle V (inside the vehicle), and the glass base 12 is the exterior side of the vehicle V (outside the vehicle), but this is not limited thereto, and the light-shielding layer 18 may be on the exterior side of the vehicle V. If the window glass 1 is made of laminated glass of glass bases 12 and 14, the light-shielding layer 18 may be formed between the glass base 12 and the glass base 14.
  • the light-shielding region A2 is formed by providing the light-shielding layer 18 on the glass base 10. That is, the light-shielding region A2 is a region in which the glass base 10 has the light-shielding layer 18. That is, the light-shielding region A2 is a region in which the glass base 12, the intermediate layer 16, the glass base 14, and the light-shielding layer 18 are laminated.
  • the light-transmitting region A1 is a region in which the glass base 10 does not have the light-shielding layer 18. That is, the light-transmitting region A1 is a region in which the glass base 12, the intermediate layer 16, and the glass base 14 are laminated, and the light-shielding layer 18 is not laminated.
  • the visible light transmitting region C is a region in the Z direction where the glass base 10 does not include the light-shielding layer 18. That is, the visible light transmitting region C is a region where the glass base 12, the intermediate layer 16, and the glass base 14 are laminated, and where the light-shielding layer 18 is not laminated.
  • the visible light transmitting region C is preferably provided near the far-infrared transmitting region B.
  • the center of the far-infrared transmitting region B as viewed from the Z direction is the center point OB
  • the center of the visible light transmitting region C as viewed from the Z direction is the center point OC.
  • the distance L is preferably greater than 0 mm and less than 100 mm, and more preferably greater than 10 mm and less than 80 mm.
  • the relationship with one of the visible light transmitting regions C is shown.
  • the visible light transmitting region C in this range relative to the far-infrared transmitting region B, it is possible to capture images at close positions with the far-infrared camera CA1 and the visible light camera CA2, while suppressing the amount of perspective distortion in the visible light transmitting region C, and allowing the visible light camera CA2 to capture appropriate images.
  • the load of processing the data obtained from each camera is reduced, and the layout of power and signal cables is also optimized.
  • the window glass 1 has an opening 19 formed therein, penetrating from one surface (here, surface 12A) to the other surface (here, surface 14B) in the Z direction.
  • a far-infrared transmitting member 20 is provided in the opening 19.
  • the region in which the opening 19 is formed and the far-infrared transmitting member 20 is provided is the far-infrared transmitting region B. That is, the far-infrared transmitting region B is a region in which the opening 19 and the far-infrared transmitting member 20 disposed in the opening 19 are provided.
  • the light-shielding layer 18 Since the light-shielding layer 18 hardly transmits far-infrared rays, the light-shielding layer 18 is not provided in the far-infrared transmitting region B. That is, in the far-infrared transmitting region B, the glass base 12, the intermediate layer 16, the glass base 14, and the light-shielding layer 18 are not provided, and the far-infrared transmitting member 20 is provided in the formed opening 19.
  • the window glass 1 can be said to include a glass base 10 and a far-infrared transmitting member 20 provided in an opening 19 of the glass base 10.
  • the glass base 10 can also be called the part of the window glass 1 that constitutes the window glass, and for example, here, the configuration including the glass bases 12, 14, the intermediate layer 16, and the light-shielding layer 18 can be called the glass base 10.
  • the glass base 10 may include at least one of the glass base 12 and the glass base 14.
  • the far-infrared transmitting member 20 includes a base material 22 that is a member capable of transmitting far-infrared rays.
  • the base material 22 preferably has an internal transmittance of 50% or more for light with a wavelength of 10 ⁇ m (far-infrared rays), more preferably 60% or more, and even more preferably 70% or more.
  • the base material 22 also preferably has an average internal transmittance of 50% or more for light with a wavelength of 8 ⁇ m to 13 ⁇ m (far-infrared rays), more preferably 60% or more, and even more preferably 70% or more.
  • the average internal transmittance is the average value of the internal transmittance for light of each wavelength in that wavelength band (here, 8 ⁇ m to 12 ⁇ m).
  • the internal transmittance of the substrate 22 is the transmittance excluding the surface reflection losses on the incident and exiting sides, and is well known in the art, and may be measured by a commonly used method.
  • the material of the substrate 22 is not particularly limited, but examples include Si, Ge, ZnS, and chalcogenite glass. It is preferable that the substrate 22 contains at least one material selected from the group consisting of Si, Ge, ZnS, and chalcogenite glass. By using such a material for the substrate 22, far infrared rays can be appropriately transmitted.
  • a preferred composition of the chalcogenide glass is In atomic percent, Ge+Ga; 7% to 25%, Sb: 0% to 35%, Bi: 0% to 20%, Zn: 0% to 20%, Sn: 0% to 20%, Si: 0% to 20%, La: 0% to 20%, S+Se+Te; 55% to 80%, Ti: 0.005% to 0.3%, Li+Na+K+Cs; 0% to 20%,
  • the composition contains 0% to 20% of F+Cl+Br+I.
  • This glass preferably has a glass transition point (Tg) of 140°C to 550°C.
  • Si or ZnS As the material for the substrate 22.
  • the far-infrared transparent member 20 may also be provided with a frame member (not shown) on its outer periphery and attached to the opening 19 via the frame member.
  • FIG. 21 is a schematic diagram showing an example of a state in which the camera-equipped vehicle glass according to this embodiment is attached to a vehicle.
  • the far-infrared camera CA1 is provided in the vehicle V.
  • the far-infrared camera CA1 is provided on the inside of the vehicle from the far-infrared transparent member 20 of the window glass 1, that is, on the direction ZV side (direction Z side) from the far-infrared transparent member 20.
  • the far-infrared camera CA1 is provided so that the optical axis AXR passes through the far-infrared transparent member 20. More specifically, the far-infrared camera CA1 is provided so that the detection range R passes through the far-infrared transparent member 20.
  • the detection range R refers to the range (imaging range) that the far-infrared camera CA1 can detect, and it can be said that the far-infrared camera CA1 receives and detects far-infrared rays that pass through the detection range R.
  • the detection range R can be said to be a space that expands from the optical axis AXR at a predetermined viewing angle as it moves away from the far-infrared camera CA1.
  • the size and viewing angle of the detection range R may be set appropriately depending on the distance and range to be detected by the far-infrared camera.
  • the optical axis AXR of the far-infrared camera CA1 is inclined with respect to the perpendicular line AX of the far-infrared transparent member 20. That is, the optical axis AXR of the far-infrared camera CA1 is not along the surface 20a of the far-infrared transparent member 20, and is not perpendicular to the surface 20a of the far-infrared transparent member 20.
  • the angle between the optical axis AXR and the direction ZV may be smaller than the angle between the perpendicular line AX of the far-infrared transparent member 20 and the direction ZV.
  • the relationship between the optical axis AXR and the perpendicular line AX is not limited to this.
  • the far-infrared camera CA1 may be provided so that the optical axis AXR is along the perpendicular line AX of the far-infrared transparent member 20.
  • the window glass 1 includes a glass base 10, a far-infrared transmitting member 20 provided in an opening 19 of the glass base 10, a cover 30, and a protective member 40.
  • the far-infrared camera CA1 may be treated as being included in the window glass 1, or may be treated as being separate from the window glass 1.
  • the far-infrared camera CA1, the cover 30, and the protective member 40 may constitute a camera unit U to be attached to the window glass 1 (glass base 10).
  • the glass base 10 is an example of the above-mentioned glass plate 50.
  • the cover portion 30 is an example of the above-mentioned attachment 3.
  • the protective member 40 or the cover portion 30 is an example of the above-mentioned object 4.
  • the cover part 30 is provided in the vehicle V and houses the housing 32 and the fixing part 34.
  • the cover part 30 is provided on the vehicle interior side of the far-infrared transmitting member 20 of the window glass 1, that is, on the direction ZV side (direction Z side) of the far-infrared transmitting member 20.
  • the housing 32 is preferably larger than the far-infrared transmitting member 20.
  • the cover part 30 includes the housing 32 and the fixing part 34.
  • the housing 32 houses the far-infrared camera CA1 and the protective member 40 inside.
  • the far-infrared camera CA1 may be disposed in the housing 32 in a state fixed by a bracket not shown.
  • the housing 32 has one surface side open, and is attached to the glass base 10 so that the open side faces the surface 10B of the glass base 10 on the vehicle interior side.
  • the fixing part 34 is a member provided in the housing 32 and fixes the housing 32 to the glass base 10.
  • the fixing portion 34 fixes the housing 32 to the glass base 10 in a state where the open side of the housing 32 faces the surface 10B of the glass base 10.
  • the cover portion 30 may be made of any material, for example a resin member that does not transmit visible light.
  • the cover portion 30 can also prevent the far-infrared camera CA1 and other devices from being viewed by passengers of the vehicle V.
  • the cover unit 30 is not a required component, and the far-infrared camera CA1 and protective member 40 do not have to be stored in the cover unit 30.
  • the cover unit 30 may have an integrated structure that stores not only the far-infrared camera CA1, but also the visible light camera CA2 and other devices. Furthermore, a heater or the like may be provided in the cover unit 30 to provide anti-fogging and snow-melting functions for the glass base 10 and far-infrared transparent member 20 on the inside of the vehicle.
  • FIG. 22 is a schematic diagram of the far-infrared transmitting member viewed in the perpendicular direction from the outside of the vehicle.
  • the protective member 40 according to this embodiment will be described below with reference to FIGS. 21 and 22.
  • the protective member 40 is provided on the inside of the vehicle (the ZV direction side) of the far-infrared transmitting member 20.
  • the protective member 40 overlaps at least a part of the far-infrared transmitting member 20 when viewed from a direction along the perpendicular line AX (a direction perpendicular to the surface 20a of the far-infrared transmitting member 20).
  • the protective member 40 is preferably provided on the vehicle outer side (opposite side to the direction ZV) of the far-infrared camera CA1 and at a position not overlapping with the detection range R of the far-infrared camera CA1.
  • the protective member 40 is preferably located outside the detection range R without interfering with the detection range R. This prevents the far-infrared rays entering the far-infrared camera CA1 from being blocked by the protective member 40, thereby preventing a decrease in the detection accuracy of the far-infrared rays.
  • the protective member 40 includes a surface portion 42, a protruding portion 44, and a fixing portion 46.
  • the surface portion 42 is provided at a position overlapping at least a portion of the far-infrared transmitting member 20 when viewed from a direction along the perpendicular line AX.
  • the surface portion 42 is provided at a position not overlapping with the detection range R of the far-infrared camera CA1.
  • the surface portion 42 is a plate-shaped member and extends from end 42B to end 42A.
  • the surface 42a of the surface portion 42 on the far-infrared transmitting member 20 side is inclined with respect to the direction YV (horizontal direction).
  • the protrusions 44 protrude from both ends of the surface portion 42 in the X direction towards the glass base 10 (the vehicle exterior side).
  • the fixing portion 46 is formed at the tip of the protrusion 44 on the glass base 10 side.
  • the fixing portion 46 is fixed to the vehicle interior surface 10B of the glass base 10.
  • the protective member 40 is fixed to the glass base 10 via the fixing portion 46.
  • the protrusions 44 and the fixing portion 46 are also provided at positions that do not overlap with the detection range R of the far-infrared camera CA1.
  • the shapes of the protrusions 44 and the fixing portion 46 are not limited to those described above and may be any shape.
  • the protective member 40 shown in FIG. 23 has a first radiation surface 61 that radiates far-infrared rays FB with a first emissivity ⁇ and a second radiation surface 62 that radiates far-infrared rays FB with a second emissivity ⁇ different from the first emissivity ⁇ , on the surface portion 42 and the protruding portion 44.
  • the protective member 40 shown in FIG. 24 has the first radiation surface 61 and the second radiation surface 62 on the surface portion 42.
  • the protective member 40 shown in FIG. 23 and FIG. 24 provides the functions and effects of the above-mentioned fourth embodiment.
  • the surface roughness of the second radiation surface 62 may be made larger (or smaller) than the surface roughness of the first radiation surface 61 by sandblasting or etching. This causes the thermal emissivity of the far-infrared rays that reach the surface of the far-infrared transmitting member 20 on the vehicle interior side to differ between the first radiation surface 61 and the second radiation surface 62.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

可視光を透過する第1領域と前記第1領域よりも遠赤外線の透過率が高い第2領域が形成されたガラス板と、前記第2領域を透過する第1遠赤外線を検出し、遠赤外線画像を撮影する遠赤外線カメラと、前記ガラス板に対して前記遠赤外線カメラが配置される側に設置された物体から放射される第2遠赤外線により前記遠赤外線画像に映り込むノイズを軽減する画像処理部と、を備える、カメラ付き車両用窓ガラス。

Description

カメラ付き車両用窓ガラス及び画像処理方法
 本開示は、カメラ付き車両用窓ガラス及び画像処理方法に関する。
 近年、自動車の安全性向上を目的に、各種センサが取り付けられる場合がある。自動車に取り付けられるセンサとしては、カメラ、LiDAR(Light Detecting and Ranging)、ミリ波レーダー、赤外線センサ等が挙げられる。
 赤外線は、その波長帯域により、近赤外線(例えば、波長0.7μm~2μm)、中赤外線(例えば、波長3μm~5μm)、および遠赤外線(例えば、波長8μm~13μm)に分類される。これらの赤外線を検出する赤外線センサとしては、近赤外線では、タッチセンサ、近赤外線カメラ又はLiDAR、中赤外線では、ガス分析装置又は中赤外分光分析装置(官能基分析)、遠赤外では、遠赤外線カメラ等が挙げられる。遠赤外線カメラの具体例として、ナイトビジョン、サーモビュワー等がある。
 自動車の窓ガラスは、通常、波長8μm~13μmといった遠赤外線をほとんど透過しないため、遠赤外線カメラは、従来、例えば特許文献1のように、車室外、より具体的にはフロントグリルに設置される場合が多かった。しかし、遠赤外線カメラを車室外に設置する場合、堅牢性、耐水性、防塵性等を確保するために、より構造が複雑になり、高コストに繋がっていた。遠赤外線カメラを車室内、しかもワイパの稼働エリアに設置することによって、窓ガラスにより遠赤外線カメラが保護され、汚れなども払拭できるため、このような課題を解決できる。しかし、上記のとおり、窓ガラスは、遠赤外線をほとんど通さないという問題がある為、通常は、遠赤外線カメラを車室内に配置しなかった。
 上記の要請に応えるため、特許文献2には、窓ガラスの一部に貫通孔を開けて当該貫通孔に赤外線透過性の部材を充填した窓部材が開示されている。
米国特許出願公開第2003/0169491号明細書 英国特許出願公開第2271139号明細書
 窓ガラスに対して内側に配置された遠赤外線カメラは、窓ガラスに形成された遠赤外線透過領域を透過する遠赤外線を検出し、遠赤外線画像を撮影する。しかしながら、窓ガラスに対して内側に設置された何らかの物体から放射される遠赤外線が、遠赤外線透過領域で反射して遠赤外線カメラに入射する場合がある。この場合、遠赤外線カメラによって撮影された遠赤外線画像にノイズが映り込むことがある。
 本開示は、遠赤外線画像に映り込むノイズを軽減可能な、カメラ付き車両用窓ガラス及び画像処理方法を提供する。
 第1態様では、カメラ付き車両用窓ガラスは、
 可視光を透過する第1領域と前記第1領域よりも遠赤外線の透過率が高い第2領域が形成されたガラス板と、
 前記第2領域を透過する第1遠赤外線を検出し、遠赤外線画像を撮影する遠赤外線カメラと、
 前記ガラス板に対して前記遠赤外線カメラが配置される側に設置された物体から放射される第2遠赤外線により前記遠赤外線画像に映り込むノイズを軽減する画像処理部と、を備える。
 第2態様では、第1態様のカメラ付き車両用窓ガラスにおいて、
 前記ノイズを軽減するための補正データを格納するメモリが備えられてもよい。前記画像処理部は、前記メモリから読み出された前記補正データを用いて、前記ノイズを軽減してもよい。
 第3態様では、第2態様のカメラ付き車両用窓ガラスにおいて、
 前記補正データは、前記ノイズのマスクデータを含んでもよい。前記画像処理部は、前記マスクデータを用いて前記遠赤外線画像をマスク処理することで、前記ノイズを軽減してもよい。
 第4態様では、第3態様のカメラ付き車両用窓ガラスにおいて、
 遠赤外線を遮蔽する遮蔽面と遠赤外線を反射する反射面を有する反射板と、
 前記第1遠赤外線が前記遮蔽面で遮蔽され、且つ、前記第2遠赤外線が前記反射面で反射して前記遠赤外線カメラに入射する第1位置に前記反射板を移動させる駆動機構と、が備えられてもよい。前記画像処理部は、前記反射板が前記第1位置に前記駆動機構により移動した状態において前記遠赤外線カメラによって検出された遠赤外線のデータを、前記マスクデータとして前記メモリに保存してもよい。
 第5態様では、第4態様のカメラ付き車両用窓ガラスにおいて、
 前記駆動機構は、前記第1遠赤外線が前記遮蔽面で遮蔽されずに前記遠赤外線カメラに入射し、且つ、前記第2遠赤外線が前記第2領域で反射して前記遠赤外線カメラに入射する第2位置に前記反射板を移動できてもよい。前記画像処理部は、前記反射板が前記第2位置に前記駆動機構により移動した状態において、更新された前記マスクデータを用いて前記遠赤外線画像をマスク処理することで、前記ノイズを軽減してもよい。
 第6態様では、第5態様のカメラ付き車両用窓ガラスにおいて、
 前記画像処理部は、前記第1位置への前記反射板の移動と前記第2位置への前記反射板の移動が前記駆動機構により繰り返されることで、前記マスクデータを更新してもよい。
 第7態様では、第1又は第2態様のカメラ付き車両用窓ガラスにおいて、
 前記物体、または、前記物体と前記第2領域との間に配置された遠赤外線透過フィルターは、第1放射率で前記第2遠赤外線を放射する第1放射面と、前記第1放射率とは異なる第2放射率で前記第2遠赤外線を放射する第2放射面と、を有してもよい。前記補正データは、前記第1放射率のデータと前記第2放射率のデータを含んでもよい。前記遠赤外線画像は、前記第1放射面から前記第1放射率で放射される前記第2遠赤外線が写る第1画素領域と、前記第2放射面から前記第2放射率で放射される前記第2遠赤外線が写る第2画素領域と、を含んでもよい。前記画像処理部は、前記第1画素領域の輝度データと前記第2画素領域の輝度データとの差分データ、前記第1放射率のデータおよび前記第2放射率のデータを用いて、前記第2遠赤外線を抽出してもよい。
 第8態様では、第7態様のカメラ付き車両用窓ガラスにおいて、
 前記画像処理部は、前記第2遠赤外線の抽出データと前記第1放射率のデータとの積を前記第1画素領域の輝度データから減算することで前記第1遠赤外線を抽出してもよい。または、前記画像処理部は、前記第2遠赤外線の抽出データと前記第2放射率のデータとの積を前記第2画素領域の輝度データから減算することで前記第1遠赤外線を抽出してもよい。
 第9態様では、第7又は第8態様のカメラ付き車両用窓ガラスにおいて、
 前記第1画素領域と前記第2画素領域は、互いに隣接してもよい。
 第10態様では、第7から第9態様のいずれか一つの態様のカメラ付き車両用窓ガラスにおいて、
 前記第1画素領域に含まれる画素の数は、一つであってもよく、前記第2画素領域に含まれる画素の数は、一つであってもよい。
 第11態様では、第1又は第2態様のカメラ付き車両用窓ガラスにおいて、
 前記第2領域は、車内側面と車外側面を有してもよい。前記車内側面は、第1反射率で前記第2遠赤外線を反射する第1反射面と、前記第1反射率とは異なる第2反射率で前記第2遠赤外線を反射する第2反射面と、を有してもよい。前記車外側面は、第1透過率で前記第1遠赤外線を透過する第1透過面と、前記第1透過率とは異なる第2透過率で前記第1遠赤外線を透過する第2透過面と、を有してもよい。前記補正データは、前記第1反射率のデータと前記第2反射率のデータを含んでもよい。前記遠赤外線画像は、前記第2遠赤外線が前記第1反射率で反射した像が写る第1画素領域と、前記第2遠赤外線が前記第2反射率で反射した像が写る第2画素領域と、を含んでもよい。前記画像処理部は、前記第1画素領域の輝度データと前記第2画素領域の輝度データとの差分データ、前記第1反射率のデータおよび前記第2反射率のデータを用いて、前記第2遠赤外線を抽出してもよい。
 第12態様では、第11態様のカメラ付き車両用窓ガラスにおいて、
 前記画像処理部は、前記第2遠赤外線の抽出データと前記第1反射率のデータとの積を前記第1画素領域の輝度データから減算することで前記第1遠赤外線を抽出してもよい。または、前記画像処理部は、前記第2遠赤外線の抽出データと前記第2反射率のデータとの積を前記第2画素領域の輝度データから減算することで前記第1遠赤外線を抽出してもよい。
 第13態様では、第1から第12のいずれか一つの態様のカメラ付き車両用窓ガラスにおいて、
 前記画像処理部は、前記第2遠赤外線が前記第2領域で反射することで前記遠赤外線画像に映り込むノイズを軽減してもよい。
 第14態様では、第1から第13のいずれか一つの態様のカメラ付き車両用窓ガラスにおいて、
 前記物体は、150W/m・K以上450W/m・K以下の熱伝導率を有してもよい。
 第15態様では、第1から第14のいずれか一つの態様のカメラ付き車両用窓ガラスにおいて、
 前記物体の温度を制御する温度制御機構が備えられてもよい。
 第16態様では、第15態様のカメラ付き車両用窓ガラスにおいて、
 前記温度制御機構は、前記物体に風を送る送風機を含んでもよい。
 第17態様では、第15又は第16態様のカメラ付き車両用窓ガラスにおいて、
 前記温度制御機構は、冷媒を循環させる冷媒回路を含んでもよい。
 第18態様では、画像処理方法は、
 可視光を透過する第1領域が形成されたガラス板に前記第1領域よりも遠赤外線の透過率が高く形成された第2領域を透過する第1遠赤外線を検出する遠赤外線カメラによって遠赤外線画像を撮影し、
 前記ガラス板に対して前記遠赤外線カメラが配置される側に設置された物体から放射される第2遠赤外線により前記遠赤外線画像に映り込むノイズを軽減する。
 本開示は、遠赤外線画像に映り込むノイズを軽減可能な、カメラ付き車両用窓ガラス及び画像処理方法を提供できる。
図1は、遠赤外線カメラがガラス板の内側に配置された構成の断面図である。 図2は、ノイズが映り込んでない遠赤外線画像を例示する図である。 図3は、ノイズが映り込んだ遠赤外線画像を例示する図である。 図4は、第1実施形態に係るカメラ付き車両用窓ガラスの断面図である。 図5は、第2実施形態に係るカメラ付き車両用窓ガラスの断面図である。 図6は、補正データ(マスクデータ)の作成状況の一例を示す図である。 図7は、画像処理方法の第1例を示すフローチャートである。 図8は、第3実施形態に係るカメラ付き車両用窓ガラスの断面図である。 図9は、画像処理方法の第2例を示すフローチャートである。 図10は、第4実施形態に係るカメラ付き車両用窓ガラスの断面図である。 図11は、第4実施形態に適用される画像処理方法の一例の説明図である。 図12は、第4実施形態に適用される画像処理方法の他の一例の説明図である。 図13は、遠赤外線の放射率が異なる複数の放射面の配置パターンの一例を示す図である。 図14は、第4実施形態に適用される画像処理方法の一例を示すフローチャートである。 図15は、第5実施形態に係るカメラ付き車両用窓ガラスの断面図である。 図16は、本実施形態に係るカメラ付き車両用窓ガラスが車両に搭載された状態を示す模式図である。 図17は、本実施形態に係るカメラ付き車両用窓ガラスの概略平面図である。 図18は、図17のA-A線に沿った断面図である。 図19は、図17のA-A線に沿った断面図である。 図20は、図17のB-B断面に沿った断面図である。 図21は、本実施形態に係るカメラ付き車両用ガラスが車両に取り付けされた状態の例を示す模式図である。 図22は、車外側から遠赤外線透過部材を垂線方向に見た場合の模式図である。 図23は、保護部材の一例を示す図である。 図24は、保護部材の一例を示す図である。 図25は、第4実施形態に係るカメラ付き車両用窓ガラスの他の一例の断面図である。 図26Aは、車内側から車内側面を見た模式図である。 図26Bは、車外側から車外側面を見た模式図である。 図27Aは、第2領域を透過した遠赤外線から得られる遠赤外線画像を示す図である。 図27Bは、車内側面で反射した遠赤外線から得られる遠赤外線画像を示す図である。 第4実施形態に適用される画像処理方法の他の一例の説明図である。
 以下、図面を参照して、本実施形態について説明する。なお、理解の容易のため、図面における各部の縮尺は、実際とは異なる場合がある。平行、直角、直交、水平、垂直、上下、左右などの方向には、ならびに、同一および等しいなどの用語には、実施形態の作用及び効果を損なわない程度のずれが許容される。角部の形状は、直角に限られず、弓状に丸みを帯びてもよい。重複するとは、一部が重なる意味を含んでよい。X方向、Y方向、Z方向は、それぞれ、X軸に平行な方向、Y軸に平行な方向、Z軸に平行な方向を表す。X方向とY方向とZ方向は、互いに直交する。XY平面、YZ平面、ZX平面は、それぞれ、X方向及びY方向に平行な仮想平面、Y方向及びZ方向に平行な仮想平面、Z方向及びX方向に平行な仮想平面を表す。
 図1は、遠赤外線カメラがガラス板の内側に配置された構成例の断面図である。この例では、X方向は、水平面に平行な方向(水平方向)を表す。Y方向は、ガラス板50の外面53又は内面54に沿った方向を表す。Z方向は、ガラス板50の厚み方向に沿った方向を表す。
 ガラス板50は、可視光を透過する第1領域51と遠赤外線を透過する第2領域52とが形成されたガラス部材である。第2領域52は、第1領域51よりも遠赤外線の透過率が高い。
 遠赤外線カメラ7は、ガラス板50に対して内側に配置されている。遠赤外線カメラ7は、ガラス板50の外側に存在する物体(被写体6)から放射される遠赤外線FAを検出する。遠赤外線カメラ7は、ガラス板50の外側から内側に向けて第2領域52を透過する遠赤外線FAを検出することで、遠赤外線画像2を撮影する。遠赤外線画像は、熱画像とも称される。
 図2は、遠赤外線カメラによって撮影された遠赤外線画像を例示する図である。遠赤外線カメラ7によって撮影された遠赤外線画像2aには、ガラス板50の外側に存在する被写体6a,6bのみが現れることが理想的である。
 しかしながら、図1に示すように、ガラス板50に対して内側に設置された何らかの物体4から放射される遠赤外線FBが直接又は反射して遠赤外線カメラ7に入射する場合がある。例えば、遠赤外線FBがガラス板50の第1領域51又は第2領域52に反射して遠赤外線カメラ7に入射する場合がある。この場合、図3に示すように、遠赤外線カメラ7によって撮影された遠赤外線画像2bに、遠赤外線FBの入射によって生ずるノイズ5が映り込むことがある。このようなノイズ5は、アーティファクトとも言われる。ノイズ5は、筋状、縞模様などの様々が形状で遠赤外線画像2bに現れる反射像である。
 ノイズ5が遠赤外線画像2b内に存在すると、遠赤外線画像2bを利用するコンピュータは、被写体6a,6bとガラス板50との間に実在しない物体が存在すると誤認識するおそれがある。そのため、遠赤外線画像2に映り込むノイズ5は軽減されることが好ましい。
 次に、遠赤外線画像に映り込むノイズを軽減可能な、カメラ付き車両用窓ガラス及び画像処理方法について説明する。
 図4は、第1実施形態に係るカメラ付き車両用窓ガラスの断面図である。図4に示すカメラ付き窓ガラス201は、カメラ付き車両用窓ガラスの一例である。この例では、X方向は、水平面に平行な方向(水平方向)を表す。Y方向は、ガラス板50の外面53又は内面54に沿った方向を表す。Z方向は、ガラス板50の厚み方向に沿った方向を表す。ZV方向は、カメラ付き窓ガラス201が車両に取り付けられた状態で、ガラス板50に対して車外側から車内側に向かう方向を表す。YV方向は、カメラ付き窓ガラス201が車両に取り付けられた状態で、水平面に垂直な鉛直方向に沿って車両上側から車両下側に向かう方向を表す。
 カメラ付き窓ガラス201は、ガラス板50、遠赤外線カメラ7、アタッチメント3及び画像処理部8を備える。ガラス板50に対して遠赤外線カメラ7が配置される側には、物体4が存在する。
 ガラス板50は、車外側に面する外面53と車内側に面する内面54を有する車両用窓ガラスである。外面53は、ガラス板50が車両に取り付けられた状態で、車外側に面する第1主面である。内面54は、ガラス板50が車両に取り付けられた状態で、車内側に面する第2主面である。
 ガラス板50は、可視光を透過する第1領域51と遠赤外線を透過する第2領域52とが形成されたガラス部材である。第2領域52は、第1領域51よりも遠赤外線の透過率が高い。第1領域51は、遠赤外線をほとんど通さないが、第2領域52の遠赤外線の透過率よりも十分に小さな透過率で遠赤外線を通してもよい。
 遠赤外線カメラ7は、ガラス板50に対して車内側に配置されている。遠赤外線カメラ7は、ガラス板50の外側に存在する物体(被写体6)から放射される遠赤外線FAを検出する。遠赤外線カメラ7は、ガラス板50の外側から内側に向けて第2領域52を透過する遠赤外線FAを検出することで、遠赤外線FAの検出結果が反映された遠赤外線画像2を撮影する。遠赤外線FAは、第1遠赤外線の一例である。
 アタッチメント3は、遠赤外線カメラ7をガラス板50に直接又は間接的に固定する部品である。アタッチメント3の具体例として、遠赤外線カメラ7を覆うカバー、遠赤外線カメラ7を支持するブラケットなどがある。
 物体4は、ガラス板50に対して遠赤外線カメラ7が配置される側に設置されている。物体4は、遠赤外線FBを放射する熱源である。遠赤外線FBは、第2遠赤外線の一例である。物体4は、自身から放射される遠赤外線FBが第2領域52で反射して遠赤外線カメラ7に入射する箇所に位置する。物体4は、自身から放射される遠赤外線FBが第1領域51又はガラス板50とは異なる部材で反射して遠赤外線カメラ7に入射する箇所に位置しても、自身から放射される遠赤外線FBが遠赤外線カメラ7に直接入射する箇所に位置してもよい。物体4は、カバーとして機能するアタッチメント3に覆われる部品でもよいし、アタッチメント3の一部又は全部でもよい。
 なお、物体4は、カメラ付き窓ガラス201の構成要素でもよいし、カメラ付き窓ガラス201の構成要素でなくてもよい。例えば、物体4は、車室内に存在する部品又は乗員でもよい。
 画像処理部8は、物体4から放射される遠赤外線FBが第2領域52で反射することで遠赤外線画像2に映り込むノイズ5(図3参照)を軽減する画像処理を行う画像処理回路を有する。画像処理回路は、遠赤外線FBが第1領域51又はガラス板50とは異なる部材で反射することで遠赤外線画像2に映り込むノイズ5を軽減する画像処理を行ってもよい。画像処理回路は、遠赤外線FBが遠赤外線カメラ7に直接入射することで遠赤外線画像2に映り込むノイズ5を軽減する画像処理を行ってもよい。「ノイズ5の軽減」には、「遠赤外線画像2からのノイズ5の除去」の意味が含まれてもよい。画像処理部8が、ノイズ5が軽減された遠赤外線画像2を、不図示のコンピュータに提供することで、例えば、被写体6とガラス板50との間に実在しない物体が存在すると当該コンピュータが誤認識する可能性が低減する。
 このように、本実施形態に係るカメラ付き窓ガラス201は、画像処理部8を備えるので、物体4から放射される遠赤外線FBが直接又は第2領域52等で反射して遠赤外線カメラ7に入射することで遠赤外線画像2に映り込むノイズ5を軽減できる。これにより、車両の走行時の日射状況によって遠赤外線FBが変化しても、ノイズ5が軽減する。
 画像処理部8の画像処理機能は、例えば、メモリに読み出し可能に記憶されたプログラムによって、CPU(Central Processing Unit)等のプロセッサが動作することにより実現される。画像処理部8が行う処理を実現するプログラムは、例えば、記録媒体又はネットワークによって提供されてもよい。
 なお、この例では、画像処理部8は、カメラ付き窓ガラス201の構成要素であるが、カメラ付き窓ガラス201の構成要素でなくてもよい。例えば、画像処理部8は、カメラ付き窓ガラス201から離れた位置に車両に搭載される電子制御装置又はその内蔵部品でもよい。また、画像処理部8は、車両から離れたサーバにあってもよく、ノイズ5が軽減された遠赤外線画像2を当該サーバに通信回線を介して送信してもよい。あるいは、画像処理部8は、遠赤外線カメラ7に内蔵されてもよい。
 物体4は、例えば、150W/m・K以上450W/m・K以下の熱伝導率を有すると、物体4の温度分布が均一に近づくので、遠赤外線画像2に映り込むノイズ5が軽減する。遠赤外線画像2に映り込むノイズ5が軽減する点で、好ましくは、200W/m・K以上であり、より好ましくは、390W/m・K以上である。
 図5は、第2実施形態に係るカメラ付き車両用窓ガラスの断面図である。図5に示すカメラ付き窓ガラス202は、カメラ付き車両用窓ガラスの一例である。第2実施形態において、上述の実施形態と同様の構成、機能および効果についての説明は、上述の説明を援用することで、省略又は簡略する。
 カメラ付き窓ガラス202は、遠赤外線画像2に映り込むノイズ5を軽減するための補正データdを格納するメモリ9を備える。メモリ9は、不揮発性のメモリが好ましく、ハードディスク等の補助記憶装置でもよい。画像処理部8は、メモリ9から読み出された補正データdを用いて、遠赤外線画像2に映り込むノイズ5を軽減する。
 カメラ付き窓ガラス202は、メモリ9を備えることで、ノイズ5を軽減する補正処理用に予め作成された補正データdを保存できる。例えば、カメラ付き窓ガラス202は、車両取り付け前の工場出荷時、または車両取り付け後の工場出荷時もしくは出荷後などの適当なタイミングで作成された補正データdをメモリ9に保存できる。
 補正データdは、例えば、遠赤外線画像2に映り込むノイズ5のマスクデータ(以下、“マスクデータdm“とも称する)を含む。画像処理部8は、メモリ9から読み出されたマスクデータdmを用いて遠赤外線画像2をマスク処理することで、ノイズ5を軽減する。マスクデータは、マスク画像とも称される。なお、マスクデータdmを用いて遠赤外線画像2に映り込むノイズ5をマスクするマスク処理は、公知の方法で行われてよい。
 マスクデータdmは、例えば、遠赤外線カメラ7によって予め検出された遠赤外線FBのデータである。画像処理部8は、遠赤外線FAと遠赤外線FBを含む遠赤外線画像2から、遠赤外線FBのデータに等しいマスクデータdmを減算するマスク処理を行うことで、遠赤外線FBにより生ずるノイズ5が軽減された遠赤外線画像2を取得できる。
 図6は、補正データd(マスクデータdm)の作成状況の一例を示す図である。外面53側から第2領域52を覆うカバー55は、車外から到来する遠赤外線FAを遮蔽する。カバー55は、例えば、車外から到来する遠赤外線FAを遮蔽するミラーであるが、遠赤外線FAを遮蔽する、ミラー以外の遮断部材でもよい。
 カバー55は、車両走行時前などのタイミングにおいて、外面53側から第2領域52に配置される。カバー55が配置された状態で遠赤外線カメラ7によって検出される遠赤外線は、物体4から放射される遠赤外線FBである。画像処理部8は、カバー55が第2領域52を覆った状態において遠赤外線カメラ7によって検出された遠赤外線(遠赤外線FB)のデータを、マスクデータdmとしてメモリ9に保存する。マスクデータdmがメモリ9に既に保存されている場合には、画像処理部8は、メモリ9に保存されるマスクデータdmを、カバー55が第2領域52を覆った状態において遠赤外線カメラ7によって検出された遠赤外線FBのデータに、更新してもよい。マスクデータdmの更新タイミングは、任意のタイミング、特定のタイミング、または周期的なタイミングでよい(後述の例でも同様)。
 画像処理部8は、更新されたマスクデータdmを用いて遠赤外線画像2をマスク処理することで、ノイズ5を軽減する。更新されたマスクデータdmを用いることで、遠赤外線カメラ7に入射する遠赤外線FBの範囲又は強さが、車両の走行時の日射状況または経年劣化などによって変化しても、ノイズ5の軽減効果が確保される。
 画像処理部8は、このように予め作成されたマスクデータdmを用いて遠赤外線画像2をマスク処理することで、遠赤外線画像2に映り込むノイズ5を軽減できる。なお、マスクデータdmの生成時に車外から到来する遠赤外線FAは、カバー55とは異なる手段によって遮断されてもよい。例えば、遠赤外線FAは、カメラ付き窓ガラス202が暗室内に置かれることで遮断されてもよい。
 図7は、画像処理部8によって実行される画像処理方法の第1例を示すフローチャートである。ステップS11において、画像処理部8は、遠赤外線FAを検出する遠赤外線カメラ7によって撮影された遠赤外線画像2を取得する。この取得した遠赤外線画像2には、遠赤外線FAのデータだけでなく、遠赤外線FBのデータが含まれている。ステップS12において、画像処理部8は、マスクデータdmを用いて遠赤外線画像2の輝度分布を補正して遠赤外線画像2に映り込むノイズ5をマスク処理する。これにより、画像処理部8は、遠赤外線FBが直接又は第2領域52等で反射することで遠赤外線画像2に映り込むノイズ5を軽減できる。ステップS13において、画像処理部8は、ノイズ5が軽減された遠赤外線画像2を後段処理部に送信する。これにより、後段処理部は、ノイズ5が軽減された遠赤外線画像2について所定の処理を実行できる。
 図8は、第3実施形態に係るカメラ付き車両用窓ガラスの断面図である。図8に示すカメラ付き窓ガラス203は、カメラ付き車両用窓ガラスの一例である。第3実施形態において、上述の実施形態と同様の構成、機能および効果についての説明は、上述の説明を援用することで、省略又は簡略する。
 カメラ付き窓ガラス203は、マスクデータdmを作成するため、反射板56及び駆動機構57を備える。反射板56は、遠赤外線を遮蔽する遮蔽面59と遠赤外線を反射する反射面58を有する。なお、遮蔽面59は、遠赤外線を遮蔽する機能を有するのであれば反射面であってもよい。駆動機構57は、第1位置P1に反射板56を移動させる。第1位置P1は、遠赤外線FAが遮蔽面59で遮蔽され、且つ、遠赤外線FBが反射面58で反射して遠赤外線カメラ7に入射する位置を表す。
 画像処理部8は、反射板56が第1位置P1に駆動機構57により移動した状態において遠赤外線カメラ7によって検出された遠赤外線(遠赤外線FB)のデータを、マスクデータdmとしてメモリ9に保存する。マスクデータdmがメモリ9に既に保存されている場合には、画像処理部8は、メモリ9に保存されるマスクデータdmを、反射板56が第1位置P1にある状態において遠赤外線カメラ7によって検出された遠赤外線のデータに、更新してもよい。
 このように、カメラ付き窓ガラス203は、反射板56を第1位置P1に移動させる駆動機構57を備えることで、画像処理部8は、マスクデータdmを自動で作成及び更新できる。駆動機構57は、例えば、画像処理部8からの指令信号に従って、反射板56を移動させるモータを有する。
 反射板56は、この例では、平坦な板であるが、第1位置P1に移動可能な形状であれば、特に限られない。例えば、反射板56は、絞りシャッター状もしくは蛇腹状に折り畳み可能な板、ロール状に収納可能なシート、または円筒状の鏡面などでもよい。
 駆動機構57は、例えば、平坦な反射板56又は蛇腹状に折り畳み可能な反射板56をX方向又はY方向に沿って第1位置P1に移動させる。または、駆動機構57は、絞りシャッター状の反射板56の絞り開口を閉じることで、反射板56を第1位置P1に移動させてもよい。または、駆動機構57は、ロール状に収納された反射板56を引き出すことで、反射板56を第1位置P1に移動させてもよい。または、駆動機構57は、円筒状に配置された反射板56を中心軸で回転させることで、反射板56を第1位置P1に移動させてもよい。なお、図示の第1位置P1の位置は、単なる一例である。
 駆動機構57は、遠赤外線FAが遮蔽面59で遮蔽されずに遠赤外線カメラ7に入射し、且つ、遠赤外線FBが第2領域52で反射して遠赤外線カメラ7に入射する第2位置P2に反射板56を移動させてもよい。画像処理部8は、反射板56が第2位置P2に駆動機構57により移動した状態において、マスクデータdmを用いて遠赤外線画像2をマスク処理することで、ノイズ5を軽減してもよい。このように、カメラ付き窓ガラス203は、反射板56を第2位置P2に移動させる駆動機構57を備えることで、画像処理部8は、反射板56に邪魔されずに、遠赤外線FAのデータ及び遠赤外線FBのデータを含む遠赤外線画像2をマスク処理できる。
 駆動機構57は、例えば、平坦な反射板56又は蛇腹状に折り畳み可能な反射板56をX方向、Y方向又はZV方向に沿って第2位置P2に移動させる。駆動機構57は、絞りシャッター状の反射板56の絞り開口を開けることで、反射板56を第2位置P2に移動させてもよい。駆動機構57は、ロール状に収納可能な反射板56を巻き取ることで反射板56を第2位置P2に移動させてもよい。または、駆動機構57は、円筒状に配置された反射板56を中心軸で回転させることで、反射板56を第2位置P2に移動させてもよい。なお、図示の第2位置P2の位置は、単なる一例である。
 画像処理部8は、第1位置P1への反射板56の移動と第2位置P2への反射板56の移動が駆動機構57により繰り返されることで、マスクデータdmを更新してもよい。これにより、遠赤外線カメラ7に入射する遠赤外線FBの範囲又は強さが、車両の走行時の日射状況または経年劣化などによって変化しても、ノイズ5の軽減効果が確保される。
 図9は、画像処理部8によって実行される画像処理方法の第2例を示すフローチャートである。ステップS21において、画像処理部8は、駆動機構57を制御して、反射板56を第1位置P1に移動させる。ステップS22において、画像処理部8は、反射板56が第1位置P1に移動した状態において遠赤外線カメラ7によって検出された遠赤外線(遠赤外線FB)のデータを、マスクデータdmとしてメモリ9に保存する。ステップS23において、画像処理部8は、駆動機構57を制御して、反射板56を第2位置P2に移動させる。ステップS11,S12,S13は、図7の画像処理方法と同じでよい。
 図9の画像処理方法によれば、画像処理部8は、マスクデータdmを自動で作成及び更新し、更新後のマスクデータdmを用いて遠赤外線画像2をマスク処理できる。マスクデータdmの更新周期の具体例として、車両走行の開始毎、一定時間毎などがある。
 図10は、第4実施形態に係るカメラ付き車両用窓ガラスの断面図である。図10に示すカメラ付き窓ガラス204は、カメラ付き車両用窓ガラスの一例である。第4実施形態において、上述の実施形態と同様の構成、機能および効果についての説明は、上述の説明を援用することで、省略又は簡略する。
 物体4は、第1放射率αで遠赤外線FBを放射する第1放射面61と、第1放射率αとは異なる第2放射率βで遠赤外線FBを放射する第2放射面62と、を有してもよい。または、第1放射率αで遠赤外線を放射する第1放射面61と第2放射率βで遠赤外線を放射する第2放射面62とを有する遠赤外線透過フィルターが、遠赤外線FBを放射する物体4と第2領域52との間に配置されてもよい。好ましい形態は、図10に示すような、第1放射面61と第2放射面62が物体4自体に付された構成である。メモリ9に格納される補正データdは、第1放射率αのデータと第2放射率βのデータを含む。メモリ9は、第1放射率αのデータと第2放射率βのデータを予め記憶している。
 図11は、第4実施形態に適用される画像処理方法の一例の説明図である。図11は、物体4から放射された遠赤外線FBにより生じたノイズ5(反射像)が遠赤外線画像2内に写っている状態を示す。この遠赤外線画像2を拡大して見ると、遠赤外線画像2は、少なくとも一つの第1画素領域71と少なくとも一つの第2画素領域72を含む。第1画素領域71は、物体4の第1放射面61から第1放射率αで放射される第2遠赤外線FBが少なくとも写る領域である。第2画素領域72は、物体4の第2放射面62から第2放射率βで放射される第2遠赤外線FBが少なくとも写る領域である。
 第1画素領域71は、それぞれ、第2領域52を通して入射する遠赤外線FAと、第1放射面61から第1放射率αで放射されて入射する遠赤外線FBとの混合により生じた輝度データLαを持つ単一の画素である。第2画素領域72は、それぞれ、第2領域52を通して入射する遠赤外線FAと、第2放射面62から第2放射率βで放射されて入射する遠赤外線FBとの混合により生じた輝度データLβを持つ単一の画素である。第1放射面61と第2放射面62が互い違いに格子状に配置されていると、第1画素領域71と第2画素領域72も、互い違いに格子状に現れる。
 輝度データLα及び輝度データLβは、
   Lα=FA+FB×α   ・・・式1
   Lβ=FA+FB×β   ・・・式2
と表される。
 輝度データLαと輝度データLβとの差分データ(Lα-Lβ)は、式1及び式2によれば、
   Lα-Lβ=FB×(α-β)・・・式3
と表される。
 画像処理部8は、輝度データLαと輝度データLβを測定する。また、第1放射率αと第2放射率βは、メモリ9に予め保存されている。したがって、画像処理部8は、輝度データLαの測定値、輝度データLβの測定値、第1放射率αおよび第2放射率βを式3に代入することで、遠赤外線FBを抽出できる。このように、画像処理部8は、輝度データLαと輝度データLβとの差分データ、第1放射率αおよび第2放射率βを用いることで、遠赤外線FBを抽出できる。
 画像処理部8は、例えば、互いに隣接する第1画素領域71と第2画素領域72についての差分データ(Lα-Lβ)を算出する。これにより、画像処理部8は、互いに隣接せずに離れた第1画素領域71と第2画素領域72についての差分データ(Lα-Lβ)を使用する場合に比べて、遠赤外線FBを高精度に抽出できる。
 画像処理部8は、式1を使って、遠赤外線FBの抽出データと第1放射率αのデータとの積を第1画素領域71の輝度データLαから減算することで遠赤外線FAを抽出してもよい。または、画像処理部8は、式2を使って、遠赤外線FBの抽出データと第2放射率βのデータとの積を第2画素領域72の輝度データLβから減算することで遠赤外線FAを抽出してもよい。
 図12は、第4実施形態に適用される画像処理方法の他の一例の説明図である。図12に示す一つの第1画素領域71は、同一の輝度データLαを持つ複数(この例では、4つ)の画素である点で、単一の画素である図11の場合と相違する。同様に。図12に示す一つの第2画素領域72は、同一の輝度データLβを持つ複数(この例では、4つ)の画素である点で、単一の画素である図11の場合と相違する。
 つまり、一つの第1画素領域71に含まれる画素の数は、一つでも複数でもよく、一つの第2画素領域72に含まれる画素の数は、一つでも複数でもよい。図12の場合でも、図11での説明と同様に、画像処理部8は、遠赤外線FB及び遠赤外線FAを抽出できる。画像処理部8は、遠赤外線FBの抽出データを、上述のマスクデータdmとしてメモリ9に保存してもよい。
 第4実施形態において、物体4は、遠赤外線の放射率が異なる複数の放射面を有する。それらの複数の放射面の配置パターンは、格子状に限られず、他のパターンでもよい。
 図25に示すカメラ付き窓ガラス204’は、第4実施形態に係るカメラ付き車両用窓ガラスの他の一例である。上述の実施形態と同様の構成、機能および効果についての説明は、上述の説明を援用することで、省略又は簡略する。
 第2領域52は、車内側面52aと車外側面52bを有する。図26Aは、車内側から車内側面52aを見た模式図である。車内側面52aは第1反射率aで遠赤外線FBを反射する第1反射面91aと、第1反射率aとは異なる第2反射率bで遠赤外線FBを反射する第2反射面92aとを有する。図26Bは、車外側から車外側面52bを見た模式図である。車外側面52bは第1透過率a’で遠赤外線FAを透過する第1透過面91bと、第1透過率a’とは異なる第2透過率b’で遠赤外線FAを透過する第2透過面92bとを有する。遠赤外線カメラ7から見た車内側面52aにおける第1反射面91aと車外側面52bにおける第2透過面92bの位置関係は対応関係にある。同様に、遠赤外線カメラ7から見た車内側面52aにおける第2反射面92aと車外側面52bにおける第1透過面91bの位置関係は対応関係にある。第1反射率a、第2反射率b、第1透過率a’、第2透過率b’の関係は、図27Aに示すように、遠赤外線カメラ7側から見た画素値が均一になるよう設定されている。これにより、第2領域52を透過した遠赤外線FAから得られる遠赤外線画像は、図27Aに示すようにコントラスト比が保持されるが、車内側面52aで反射した遠赤外線FBから得られる遠赤外線画像は、図27Bに示すように第1反射率aおよび第2反射率bの差によってコントラスト差が生じる。メモリ9に格納される補正データdは、第1反射率aのデータと第2反射率bのデータを含む。メモリ9は、第1反射率aのデータと第2反射率bのデータを予め記憶している。
 図28は、第4実施形態に適用される画像処理方法の他の一例の説明図である。図28は、物体4から放射された遠赤外線FBにより生じたノイズ5(反射像)が遠赤外線画像2内に写っている状態を示す。この遠赤外線画像2を拡大して見ると、遠赤外線画像2は、少なくとも一つの第1画素領域71と少なくとも一つの第2画素領域72を含む。第1画素領域71は、物体4から放射される第2遠赤外線FBが第1反射率aで反射した像が少なくとも写る領域である。第2画素領域72は、物体4から放射される第2遠赤外線FBが第2反射率bで反射した像が少なくとも写る領域である。
 第1画素領域71は、それぞれ、第2領域52を通して入射する遠赤外線FAと、第1反射率aで反射されて入射する遠赤外線FBとの混合により生じた輝度データLaを持つ単一の画素である。第2画素領域72は、それぞれ、第2領域52を通して入射する遠赤外線FAと、第2反射率bで反射されて入射する遠赤外線FBとの混合により生じた輝度データLbを持つ単一の画素である。車内側面52aにおいて、第1反射面91aと第2反射面92aとが互い違いに格子状に配置されていると、第1画素領域71と第2画素領域72も、互い違いに格子状に現れる。
 輝度データLa及び輝度データLbは、
   La=FA+FB×a   ・・・式4
   Lb=FA+FB×b   ・・・式5
と表される。
 輝度データLaと輝度データLbとの差分データ(La-Lb)は、式4及び式5によれば、
   La-Lb=FB×(a-b)・・・式6
と表される。
 画像処理部8は、輝度データLaと輝度データLbを測定する。また、第1反射率aと第2反射率bは、メモリ9に予め保存されている。したがって、画像処理部8は、輝度データLaの測定値、輝度データLbの測定値、第1反射率aおよび第2反射率bを式6に代入することで、遠赤外線FBを抽出できる。このように、画像処理部8は、輝度データLaと輝度データLbとの差分データ、第1反射率aおよび第2反射率bを用いることで、遠赤外線FBを抽出できる。
 画像処理部8は、例えば、互いに隣接する第1画素領域71と第2画素領域72についての差分データ(La-Lb)を算出する。これにより、画像処理部8は、互いに隣接せずに離れた第1画素領域71と第2画素領域72についての差分データ(La-Lb)を使用する場合に比べて、遠赤外線FBを高精度に抽出できる。
 画像処理部8は、式4を使って、遠赤外線FBの抽出データと第1反射率aのデータとの積を第1画素領域71の輝度データLaから減算することで遠赤外線FAを抽出してもよい。または、画像処理部8は、式5を使って、遠赤外線FBの抽出データと第2反射率bのデータとの積を第2画素領域72の輝度データLbから減算することで遠赤外線FAを抽出してもよい。
 図13は、遠赤外線の放射率が異なる複数の放射面の配置パターンの一例を示す図である。図13に示す複数の放射面の配置パターンは、縞状である。縞状パターンの採用によって、遠赤外線画像2内の画素に対する複数の放射面の位置の調整が不要又は簡易となるので、製造が容易となる。図13に示す物体4は、第1放射率αで遠赤外線FBを放射する第1放射面61と、第1放射率αとは異なる第2放射率βで遠赤外線FBを放射する第2放射面62と、を有する。
 縞状パターンの場合、遠赤外線画像2に映るノイズ5の縞の方向は、複数の画素の縦又は横の配列方向と非平行であることが重要である。その理由は、隣接する画素が同じ放射率で放射された遠赤外線FBを含まないようにするためである。
 図14は、第4実施形態に適用される画像処理方法の一例を示すフローチャートである。ステップS31において、画像処理部8は、遠赤外線FAを検出する遠赤外線カメラ7によって撮影された遠赤外線画像2を取得する。この取得した遠赤外線画像2には、遠赤外線FAのデータだけでなく、遠赤外線FBのデータが含まれている。ステップS32において、画像処理部8は、例えば、互いに隣接する第1画素領域71と第2画素領域72についての差分データ(Lα-Lβ)と、メモリ9に予め保存された第1放射率αおよび第2放射率βを用いることで、遠赤外線FBの信号成分を抽出する。
 ステップS33において、画像処理部8は、ステップS31で取得された遠赤外線画像2から、ステップS32で抽出された遠赤外線FBの信号成分を除去することで、ノイズ5が軽減された遠赤外線画像2を生成する。ステップS34において、画像処理部8は、ノイズ5が軽減された遠赤外線画像2を後段処理部に送信する。これにより、後段処理部は、ノイズ5が軽減された遠赤外線画像2について所定の処理を実行できる。
 図14に示す画像処理方法についての上述の説明は、差分データ(Lα-Lβ)を差分データ(La-Lb)に、第1放射率αを第1反射率aに、第2放射率βを第2反射率bに置換することで、図28に示す方法に援用される。
 図15は、第5実施形態に係るカメラ付き車両用窓ガラスの断面図である。図15に示すカメラ付き窓ガラス205は、カメラ付き車両用窓ガラスの一例である。第5実施形態において、上述の実施形態と同様の構成、機能および効果についての説明は、上述の説明を援用することで、省略又は簡略する。
 カメラ付き窓ガラス205は、物体4の温度を制御する温度制御機構80を備える。温度制御機構80が備えられることで、物体4の温度分布が均一に近づくので、遠赤外線画像2に映り込むノイズ5が軽減する。
 温度制御機構80は、例えば、物体4に風を送る送風機81を含んでもよい。送風機81による送風により、物体4が均一に冷却されるので、遠赤外線画像2に映り込むノイズ5が軽減する。
 温度制御機構80は、例えば、物体4を冷やす冷媒を循環させる冷媒回路82を含んでもよい。冷媒の循環により、物体4が均一に冷却されるので、遠赤外線画像2に映り込むノイズ5が軽減する。
 次に、本実施形態に係るカメラ付き窓ガラスのより具体的な構成例について説明する。
 (車両)
 図16は、本実施形態に係るカメラ付き窓ガラス1が車両Vに搭載された状態を示す模式図である。図16に示すように、本実施形態に係る窓ガラス1は、車両Vに搭載される。窓ガラス1は、車両Vのフロントガラスに適用される窓部材である。すなわち、窓ガラス1は、車両Vのフロントウィンドウ、言い換えれば風防ガラスとして用いられている。車両Vの内部(車内)には、遠赤外線カメラCA1及び可視光カメラCA2が搭載されている。車両Vの内部(車内)とは、例えばドライバーの運転席が設けられる車室内を指す。
 本実施形態に係るカメラユニット100は、窓ガラス1、遠赤外線カメラCA1及び可視光カメラCA2を備える。遠赤外線カメラCA1は、上記の遠赤外線カメラ7の一例である。
 遠赤外線カメラCA1は、遠赤外線を検出するカメラである。遠赤外線カメラCA1は、車両Vの外部からの遠赤外線を検出することによって、車両Vの外部の熱画像を撮像する。可視光カメラCA2は、可視光を検出するカメラである。可視光カメラCA2は、車両Vの外部からの可視光を検出することによって、車両Vの外部の画像を撮像する。カメラユニット100は、遠赤外線カメラCA1及び可視光カメラCA2以外に、例えばLiDAR(Light Detection And Ranging)やミリ波レーダーをさらに備えてもよい。ここでの遠赤外線とは、例えば、波長が8μm以上13μm以下の波長帯の電磁波であり、可視光とは、例えば、波長が360nm以上830nm以下の波長帯の電磁波である。
 (車両用窓ガラス)
 図17は、本実施形態に係る窓ガラス1の概略平面図である。図18および図19は、図17のA-A線に沿った断面図である。図18は、車外面のガラス開口寸法が車内面の開口寸法よりも大きな場合の断面図である。図19は、車内面のガラス開口寸法が車外面の開口寸法よりも大きな場合の断面図である。図20は、図17のB-B断面に沿った断面図である。図17に示すように、以下、窓ガラス1の上縁を、上縁部1aとし、下縁を、下縁部1bとし、一方の側縁を、側縁部1cとし、他方の側縁を、側縁部1dとする。上縁部1aは、窓ガラス1を車両Vに搭載した際に、鉛直方向上側に位置する縁部分である。下縁部1bは、窓ガラス1を車両Vに搭載した際に、鉛直方向下側に位置する縁部分である。側縁部1cは、窓ガラス1を車両Vに搭載した際に、一方の側方側に位置する縁部分である。側縁部1dは、窓ガラス1を車両Vに搭載した際に、他方の側方側に位置する縁部分である。
 以下、窓ガラス1の表面に平行な方向のうち、上縁部1aから下縁部1bに向かう方向を、Y方向(第1方向)とし、側縁部1cから側縁部1dに向かう方向を、X方向とする。本実施形態において、X方向とY方向とは直交している。窓ガラス1の表面に直交する方向、すなわち窓ガラス1の厚み方向を、Z方向とする。Z方向は、例えば、窓ガラス1を車両Vに搭載した際に、車両Vの車外側から車内側に向かう方向である。X方向及びY方向は、窓ガラス1の表面に沿っているが、例えば窓ガラス1の表面が曲面の場合、窓ガラス1の中心点Oにおいて窓ガラス1の表面に接する方向となっていてもよい。中心点Oとは、Z方向から窓ガラス1を見た場合の、窓ガラス1の中心位置である。
 窓ガラス1には、透光領域A1及び遮光領域A2が形成されている。透光領域A1は、Z方向から見て窓ガラス1の中央部分を占める領域である。透光領域A1は、ドライバーの視野を確保するための領域である。透光領域A1は、可視光を透過する領域である。遮光領域A2は、Z方向から見て透光領域A1の周囲に形成される領域である。遮光領域A2は、可視光を遮蔽する領域である。遮光領域A2のうち、上縁部1a側の部分である遮光領域A2a内には、遠赤外線透過領域Bと可視光透過領域Cとが形成されている。透光領域A1は、上記の第1領域51の一例である。遠赤外線透過領域Bは、第2領域52の一例である。
 遠赤外線透過領域Bは、遠赤外線を透過する領域であり、遠赤外線カメラCA1が設けられる領域である。すなわち、遠赤外線カメラCA1は、遠赤外線カメラCA1の光軸方向から見た場合に、遠赤外線透過領域Bと重なる位置に設けられる。可視光透過領域Cは、可視光を透過する領域であり、可視光カメラCA2が設けられる領域である。すなわち、可視光カメラCA2は、可視光カメラCA2の光軸方向から見た場合に、可視光透過領域Cと重なる位置に設けられる。
 このように、遮光領域A2には、遠赤外線透過領域Bと可視光透過領域Cとが形成されているため、遮光領域A2は、遠赤外線透過領域Bが形成されている領域以外では遠赤外線を遮蔽し、可視光透過領域Cが形成されている領域以外では可視光を遮蔽する。遠赤外線透過領域B及び可視光透過領域Cは、周囲に遮光領域A2aが形成されている。このように周囲に遮光領域A2aが設けられることにより各種センサが太陽光から保護されるため好ましい。各種センサの配線が車外から見えなくなるので、意匠性の観点からも好ましい。
 図18および図19に示すように、窓ガラス1は、ガラス基体12(第1ガラス基体)と、ガラス基体14(第2ガラス基体)と、中間層16と、遮光層18とを備える。窓ガラス1は、ガラス基体12、中間層16、ガラス基体14及び遮光層18が、Z方向に向けてこの順で積層されている。ガラス基体12とガラス基体14とは、中間層16を介して互いに固定(接着)されている。
 ガラス基体12、14としては、例えばソーダライムガラス、ボロシリケートガラス、アルミノシリケートガラス等を用いることができる。中間層16は、ガラス基体12とガラス基体14とを接着する接着層である。中間層16としては、例えばポリビニルブチラール(以下PVBともいう)改質材料、エチレン-酢酸ビニル共重合体(EVA)系材料、ウレタン樹脂材料、塩化ビニル樹脂材料等を用いることができる。より詳しくは、ガラス基体12は、一方の表面12Aと他方の表面12Bとを含み、他方の表面12Bが、中間層16の一方の表面16Aに接触して、中間層16に対して固定(接着)されている。ガラス基体14は、一方の表面14Aと他方の表面14Bとを含み、一方の表面14Aが、中間層16の他方の表面16Bに接触して、中間層16に対して固定(接着)されている。このように、窓ガラス1は、ガラス基体12とガラス基体14とが積層された合わせガラスである。ただし、窓ガラス1は、合わせガラスに限られず、例えばガラス基体12とガラス基体14とのうち一方のみを含む構成であってよい。この場合、中間層16も設けられていなくてよい。以下、ガラス基体12、14を区別しない場合は、ガラス基体10と記載する。ガラス基体10、ガラス基体12、またはガラス基体14は、上記のガラス板50の一例である。
 遮光層18は、一方の表面18Aと他方の表面18Bとを含み、一方の表面18Aが、ガラス基体14の他方の表面14Bに接触して固定されている。遮光層18は、可視光を遮蔽する層である。遮光層18としては、例えばセラミックス遮光層や遮光フィルムを用いることができる。セラミックス遮光層としては、例えば黒色セラミックス層等の従来公知の材料からなるセラミックス層を用いることができる。遮光フィルムとしては、例えば遮光ポリエチレンテレフタレート(PET)フィルム、遮光ポリエチレンナフタレート(PEN)フィルム、遮光ポリメチルメタクリレート(PMMA)フィルム等を用いることができる。
 本実施形態においては、窓ガラス1は、遮光層18が設けられる側が、車両Vの内部側(車内側)となり、ガラス基体12が車両Vの外部側(車外側)となるが、それに限られず、遮光層18が車両Vの外部側であってもよい。ガラス基体12、14の合わせガラスで構成されている場合は、遮光層18が、ガラス基体12とガラス基体14との間に形成されてもよい。
 (遮光領域)
 遮光領域A2は、ガラス基体10に遮光層18を設けることにより形成される。すなわち、遮光領域A2は、ガラス基体10が遮光層18を備える領域である。すなわち、遮光領域A2は、ガラス基体12と中間層16とガラス基体14と遮光層18が積層された領域である。一方、透光領域A1は、ガラス基体10が遮光層18を備えない領域である。すなわち、透光領域A1は、ガラス基体12と中間層16とガラス基体14とが積層されて、遮光層18が積層されない領域である。
 (可視光透過領域)
 図20に示すように、可視光透過領域Cは、透光領域A1と同様に、Z方向において、ガラス基体10が遮光層18を備えない領域である。すなわち、可視光透過領域Cは、ガラス基体12と中間層16とガラス基体14とが積層されて、遮光層18が積層されない領域である。
 図17に示すように、可視光透過領域Cは、遠赤外線透過領域Bの近傍に設けられることが好ましい。具体的には、Z方向から見た遠赤外線透過領域Bの中心を中心点OBとし、Z方向から見た可視光透過領域Cの中心を中心点OCとする。Z方向から見た場合の、遠赤外線透過領域B(開口部19)と可視光透過領域Cとの間の最短距離を距離Lとすると、距離Lは、0mmより大きく100mm以下であることが好ましく、10mm以上80mm以下であることがさらに好ましい。ここでは図示しないが、可視光透過領域Cが複数個存在する場合は、その内の1つの可視光透過領域Cとの関係を示すものである。可視光透過領域Cを、遠赤外線透過領域Bに対してこの範囲の位置とすることによって、遠赤外線カメラCA1と可視光カメラCA2とで近い位置の画像を撮像することを可能としつつ、可視光透過領域Cでの透視歪み量を抑えて、可視光カメラCA2で適切に画像を撮像できる。遠赤外線カメラCA1と可視光カメラCA2とで近い位置の画像を撮像することによって、それぞれのカメラから得られるデータを演算処理する際の負荷が軽減され、電源や信号ケーブルの取り廻しも好適となる。
 (遠赤外線透過部材)
 図18および図19に示すように、窓ガラス1は、Z方向における一方の表面(ここでは表面12A)から他方の表面(ここでは表面14B)までにわたって貫通する開口部19が形成されている。開口部19内には、遠赤外線透過部材20が設けられている。開口部19が形成されて遠赤外線透過部材20が設けられている領域が、遠赤外線透過領域Bである。すなわち、遠赤外線透過領域Bは、開口部19と、開口部19内に配置された遠赤外線透過部材20とが設けられる領域である。遮光層18は遠赤外線をほとんど透過しないため、遠赤外線透過領域Bには、遮光層18が設けられていない。すなわち、遠赤外線透過領域Bにおいては、ガラス基体12、中間層16、ガラス基体14、及び遮光層18が設けられておらず、形成された開口部19に遠赤外線透過部材20が設けられている。
 なお、窓ガラス1は、ガラス基体10と、ガラス基体10の開口部19に設けられる遠赤外線透過部材20と、を含むといえる。ガラス基体10は、窓ガラス1のうちで窓ガラスを構成する部分であると呼ぶこともでき、例えばここでは、ガラス基体12、14、中間層16、及び遮光層18を含む構成を、ガラス基体10と呼んでよい。ただし、ガラス基体10は、上述のように、少なくともガラス基体12とガラス基体14とのうち一方のみを含むものであってよい。
 遠赤外線透過部材20は、遠赤外線を透過可能な部材である基材22を含む。基材22は、波長10μmの光(遠赤外線)に対する内部透過率が、50%以上であることが好ましく、60%以上であることがより好ましく、70%以上であることがさらに好ましい。また、基材22は、波長8μm~13μmの光(遠赤外線)に対する平均内部透過率が、50%以上であることが好ましく、60%以上であることがより好ましく、70%以上であることがさらに好ましい。基材22の10μmでの内部透過率や8μm~13μmでの平均内部透過率がこの数値範囲となることで、遠赤外線を適切に透過して、例えば遠赤外線カメラCA1の性能を十分に発揮できる。なお、ここでの平均内部透過率とは、その波長帯域(ここでは8μmから12μm)の、それぞれの波長の光に対する内部透過率の平均値である。
 基材22の内部透過率は、入射側および出射側における表面反射損失を除いた透過率であり、当該技術分野において周知のものであり、その測定も通常行われる方法でよい。
 基材22の材料は、特に限定はされないが、例えばSi、Ge、ZnS、及びカルコゲナイトガラス等が挙げられる。基材22は、Si、Ge、ZnS、及びカルコゲナイトガラスの群より選ばれる少なくとも1種の材料を含むことが好ましいといえる。基材22にこのような材料を用いることで、遠赤外線を適切に透過できる。
 カルコゲナイトガラスの好ましい組成としては、
 原子%表示で、
 Ge+Ga;7%~25%、
 Sb;0%~35%、
 Bi;0%~20%、
 Zn;0%~20%、
 Sn;0%~20%、
 Si;0%~20%、
 La;0%~20%、
 S+Se+Te;55%~80%、
 Ti;0.005%~0.3%、
 Li+Na+K+Cs;0%~20%、
 F+Cl+Br+I;0%~20%含有する組成である。そして、このガラスは、140℃~550℃のガラス転移点(Tg)を有することが好ましい。
 なお、基材22の材料としては、SiやZnSを用いることがより好ましい。
 また、遠赤外線透過部材20は、外周縁に図示しない枠部材が設けられ、枠部材を介して開口部19に取り付けられてもよい。
 (遠赤外線カメラの取り付け位置)
 図21は、本実施形態に係るカメラ付き車両用ガラスが車両に取り付けされた状態の例を示す模式図である。
 遠赤外線カメラCA1は、車両V内に設けられる。遠赤外線カメラCA1は、窓ガラス1の遠赤外線透過部材20よりも車内側に、すなわち遠赤外線透過部材20よりも方向ZV側(方向Z側)に設けられる。遠赤外線カメラCA1は、光軸AXRが遠赤外線透過部材20を通るように、設けられている。さらに言えば、遠赤外線カメラCA1は、検出範囲Rが遠赤外線透過部材20を通るように、設けられている。検出範囲Rは、遠赤外線カメラCA1が検出可能な範囲(撮像範囲)を指し、遠赤外線カメラCA1は、検出範囲R内を通って入射してくる遠赤外線を受光して検出するといえる。なお、検出範囲Rは、遠赤外線カメラCA1から離れるに従って所定の視野角で光軸AXRを中心に広がってゆく空間といえる。検出範囲Rの大きさや視野角は、遠赤外線カメラで検知したい距離や範囲により、適宜設定されてよい。
 また、本実施形態では、遠赤外線カメラCA1は、光軸AXRが遠赤外線透過部材20の垂線AXに対して傾斜している。すなわち、遠赤外線カメラCA1の光軸AXRは、遠赤外線透過部材20の表面20aに沿っておらず、遠赤外線透過部材20の表面20aに直交していない。例えば、光軸AXRと方向ZVとがなす角度は、遠赤外線透過部材20の垂線AXと方向ZVがなす角度より小さくてよい。ただし、光軸AXRと垂線AXとの関係はこれに限られない。例えば、遠赤外線カメラCA1は、光軸AXRが遠赤外線透過部材20の垂線AXに沿うように設けられていてもよい。
 (車両用ガラスの構成)
 図21に示すように、本実施形態に係る窓ガラス1は、ガラス基体10と、ガラス基体10の開口部19内に設けられる遠赤外線透過部材20に加えて、カバー部30と、保護部材40とを有している。なお、遠赤外線カメラCA1を、窓ガラス1に含まれているものとして扱ってもよいし、窓ガラス1とは別体として扱ってもよい。また例えば、遠赤外線カメラCA1とカバー部30と保護部材40とで、窓ガラス1(ガラス基体10)に取り付けられるカメラユニットUを構成している、としてもよい。
 ガラス基体10は、上記のガラス板50の一例である。カバー部30は、上記のアタッチメント3の一例である。保護部材40又はカバー部30は、上記の物体4の一例である。
 (カバー部)
 カバー部30は、車両V内に設けられて、筐体32と固定部34とを収納する。カバー部30は、窓ガラス1の遠赤外線透過部材20よりも車内側に、すなわち遠赤外線透過部材20よりも方向ZV側(方向Z側)に設けられる。筐体32は、遠赤外線透過部材20よりも大きい方が好ましい。カバー部30は、筐体32と固定部34とを含む。筐体32は、内部に遠赤外線カメラCA1と保護部材40とを収納する。遠赤外線カメラCA1は、図示しないブラケットによって固定された状態で、筐体32内に配置されていてもよい。筐体32は、一方の表面側が開口しており、開口する側がガラス基体10の車内側の表面10Bに面するように、ガラス基体10に取り付けられる。固定部34は、筐体32に設けられて、筐体32をガラス基体10に固定する部材である。固定部34は、筐体32の開口する側がガラス基体10の表面10Bに面した状態で、筐体32をガラス基体10に固定する。
 カバー部30は任意の材料で構成されていてよいが、例えば可視光を透過しない樹脂製の部材であってよい。また、カバー部30は、これにより、遠赤外線カメラCA1などが車両Vの乗員などによって視認されることを抑制できる。
 なお、カバー部30は必須の構成でなく、遠赤外線カメラCA1や保護部材40は、カバー部30に収納されていなくてもよい。また、カバー部30には、遠赤外線カメラCA1のみではなく、可視光カメラCA2や、他のデバイスも収納された一体型の構造であってもよい。さらに、車内側のガラス基体10や遠赤外線透過部材20の曇り防止や融雪機能を付与するため、ヒーター等がカバー部30内に備えられていてもよい。
 (保護部材)
 図22は、車外側から遠赤外線透過部材を垂線方向に見た場合の模式図である。以下、本実施形態に係る保護部材40について、図21及び図22を用いて説明する。図21に示すように、保護部材40は、遠赤外線透過部材20よりも車内側(方向ZV側)に設けられる。また、図22に示すように、保護部材40は、垂線AXに沿った方向(遠赤外線透過部材20の表面20aに直交する方向)から見た場合に、遠赤外線透過部材20の少なくとも一部に重なっている。言い換えれば、垂線AXに沿った方向から見た場合に、保護部材40の少なくとも一部と、遠赤外線透過部材20の少なくとも一部とが、重なっている。これにより、車外からの衝突物が遠赤外線透過部材20を貫通したとしても、その衝突物を保護部材40で受け止めて、衝突物が運転席側に到達してしまうことを抑制できる。さらに、車両の衝突時に、室内側からの乗員や物体が窓部を突き破り、車外に飛び出すことを抑制できる。また、図21に示すように、本実施形態では、保護部材40は、遠赤外線カメラCA1よりも車外側(方向ZVと反対方向側)に設けられ、遠赤外線カメラCA1の検出範囲Rに重ならない位置に設けられることが好ましい。すなわち、保護部材40は、検出範囲Rに干渉せず、検出範囲Rの外部に位置していることが好ましい。これにより、遠赤外線カメラCA1に入射する遠赤外線が、保護部材40によって遮断されることが抑制されて、遠赤外線の検出精度の低下を抑制できる。
 より詳しくは、保護部材40は、表面部42と、突出部44と、固定部46とを含む。図22に示すように、表面部42は、垂線AXに沿った方向から見た場合に、遠赤外線透過部材20の少なくとも一部と重なる位置に設けられている。図21及び図22に示すように、表面部42は、遠赤外線カメラCA1の検出範囲Rと重ならない位置に設けられる。表面部42は、板状の部材であり、端部42Bから端部42Aまで延在する。表面部42は、遠赤外線透過部材20側の表面42aが、方向YV(水平方向)に対して傾斜している。
 図21に示すように、突出部44は、表面部42のX方向における両端部から、ガラス基体10側(車外側)に向けて突出する。固定部46は、突出部44のガラス基体10側の先端に形成されている。固定部46は、ガラス基体10の車内側の表面10Bに固定されている。すなわち、保護部材40は、固定部46を介して、ガラス基体10に対して固定されている。なお、突出部44及び固定部46も、遠赤外線カメラCA1の検出範囲Rと重ならない位置に設けられる。ただし、突出部44及び固定部46の形状は以上に限られず、任意の形状であってよい。
 図23及び図24は、それぞれ、保護部材の一例を示す図である。図23に示す保護部材40は、第1放射率αで遠赤外線FBを放射する第1放射面61と、第1放射率αとは異なる第2放射率βで遠赤外線FBを放射する第2放射面62とを、表面部42及び突出部44に有する。図24に示す保護部材40は、第1放射面61と第2放射面62を表面部42に有する。図23及び図24に示す保護部材40により、上記の第4実施形態の機能及び効果が得られる。
 図23及び図24において、例えば、第2放射面62の表面粗さは、サンドブラスト処理又はエッチング処理などによって、第1放射面61の表面粗さに比べて、大きく(もしくは小さく)されてもよい。これにより、遠赤外線透過部材20の車内側の表面に到達する遠赤外線の熱放射率は、第1放射面61と第2放射面62とで相違する。
 以上の通り、実施形態を説明したが、上記実施形態は、例として提示したものであり、上記実施形態により本発明が限定されるものではない。上記実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の組み合わせ、省略、置き換え、変更などを行うことが可能である。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
 本国際出願は、2022年11月21日に出願した日本国特許出願第2022-185867号に基づく優先権を主張するものであり、日本国特許出願第2022-185867号の全内容を本国際出願に援用する。
 1 窓ガラス
 1a 上縁部
 1b 下縁部
 1c、1d 側縁部
 2,2a,2b 遠赤外線画像
 3 アタッチメント
 4 物体
 5 ノイズ
 6,6a,6b 被写体
 7 遠赤外線カメラ
 8 画像処理部
 9 メモリ
 10,12,14 ガラス基体
 16 中間層
 18 遮光層
 19 開口部
 20 遠赤外線透過部材
 30 カバー部
 40 保護部材
 42 表面部
 50 ガラス板
 51 第1領域
 52 第2領域
 52a 車内側面
 52b 車外側面
 53 外面
 54 内面
 55 カバー
 56 反射板
 57 駆動機構
 58 反射面
 59 遮蔽面
 61 第1放射面
 62 第2放射面
 71 第1画素領域
 72 第2画素領域
 80 温度制御機構
 81 送風機
 82 冷媒回路
 91a 第1反射面
 91b 第1透過面
 92a 第2反射面
 92b 第2透過面
 100 カメラユニット
 201,202,203,204,204’,205 カメラ付き窓ガラス
 A1 透光領域
 A2 遮光領域
 B 遠赤外線透過領域
 C 可視光透過領域
 CA1 遠赤外線カメラ
 CA2 可視光カメラ
 d 補正データ
 V 車両

Claims (18)

  1.  可視光を透過する第1領域と前記第1領域よりも遠赤外線の透過率が高い第2領域が形成されたガラス板と、
     前記第2領域を透過する第1遠赤外線を検出し、遠赤外線画像を撮影する遠赤外線カメラと、
     前記ガラス板に対して前記遠赤外線カメラが配置される側に設置された物体から放射される第2遠赤外線により前記遠赤外線画像に映り込むノイズを軽減する画像処理部と、を備える、カメラ付き車両用窓ガラス。
  2.  前記ノイズを軽減するための補正データを格納するメモリを備え、
     前記画像処理部は、前記メモリから読み出された前記補正データを用いて、前記ノイズを軽減する、請求項1に記載のカメラ付き車両用窓ガラス。
  3.  前記補正データは、前記ノイズのマスクデータを含み、
     前記画像処理部は、前記マスクデータを用いて前記遠赤外線画像をマスク処理することで、前記ノイズを軽減する、請求項2に記載のカメラ付き車両用窓ガラス。
  4.  遠赤外線を遮蔽する遮蔽面と遠赤外線を反射する反射面を有する反射板と、
     前記第1遠赤外線が前記遮蔽面で遮蔽され、且つ、前記第2遠赤外線が前記反射面で反射して前記遠赤外線カメラに入射する第1位置に、前記反射板を移動させる駆動機構と、を備え、
     前記画像処理部は、前記反射板が前記第1位置に前記駆動機構により移動した状態において前記遠赤外線カメラによって検出された遠赤外線のデータを、前記マスクデータとして前記メモリに保存する、請求項3に記載のカメラ付き車両用窓ガラス。
  5.  前記駆動機構は、前記第1遠赤外線が前記遮蔽面で遮蔽されずに前記遠赤外線カメラに入射し、且つ、前記第2遠赤外線が前記第2領域で反射して前記遠赤外線カメラに入射する第2位置に前記反射板を移動でき、
     前記画像処理部は、前記反射板が前記第2位置に前記駆動機構により移動した状態において、前記マスクデータを用いて前記遠赤外線画像をマスク処理することで、前記ノイズを軽減する、請求項4に記載のカメラ付き車両用窓ガラス。
  6.  前記画像処理部は、前記第1位置への前記反射板の移動と前記第2位置への前記反射板の移動が前記駆動機構により繰り返されることで、前記マスクデータを更新する、請求項5に記載のカメラ付き車両用窓ガラス。
  7.  前記物体、または、前記物体と前記第2領域との間に配置された遠赤外線透過フィルターは、第1放射率で前記第2遠赤外線を放射する第1放射面と、前記第1放射率とは異なる第2放射率で前記第2遠赤外線を放射する第2放射面と、を有し、
     前記補正データは、前記第1放射率のデータと前記第2放射率のデータを含み、
     前記遠赤外線画像は、前記第1放射面から前記第1放射率で放射される前記第2遠赤外線が写る第1画素領域と、前記第2放射面から前記第2放射率で放射される前記第2遠赤外線が写る第2画素領域と、を含み、
     前記画像処理部は、前記第1画素領域の輝度データと前記第2画素領域の輝度データとの差分データ、前記第1放射率のデータおよび前記第2放射率のデータを用いて、前記第2遠赤外線を抽出する、請求項2に記載のカメラ付き車両用窓ガラス。
  8.  前記画像処理部は、前記第2遠赤外線の抽出データと前記第1放射率のデータとの積を前記第1画素領域の輝度データから減算することで前記第1遠赤外線を抽出する、または、前記第2遠赤外線の抽出データと前記第2放射率のデータとの積を前記第2画素領域の輝度データから減算することで前記第1遠赤外線を抽出する、請求項7に記載のカメラ付き車両用窓ガラス。
  9.  前記第1画素領域と前記第2画素領域は、互いに隣接する、請求項7に記載のカメラ付き車両用窓ガラス。
  10.  前記第1画素領域に含まれる画素の数は、一つであり、前記第2画素領域に含まれる画素の数は、一つである、請求項7に記載のカメラ付き車両用窓ガラス。
  11.  前記第2領域は、車内側面と車外側面を有し、
     前記車内側面は、第1反射率で前記第2遠赤外線を反射する第1反射面と、前記第1反射率とは異なる第2反射率で前記第2遠赤外線を反射する第2反射面と、を有し、
     前記車外側面は、第1透過率で前記第1遠赤外線を透過する第1透過面と、前記第1透過率とは異なる第2透過率で前記第1遠赤外線を透過する第2透過面と、を有し、
     前記補正データは、前記第1反射率のデータと前記第2反射率のデータを含み、
     前記遠赤外線画像は、前記第2遠赤外線が前記第1反射率で反射した像が写る第1画素領域と、前記第2遠赤外線が前記第2反射率で反射した像が写る第2画素領域と、を含み、
     前記画像処理部は、前記第1画素領域の輝度データと前記第2画素領域の輝度データとの差分データ、前記第1反射率のデータおよび前記第2反射率のデータを用いて、前記第2遠赤外線を抽出する、請求項2に記載のカメラ付き車両用窓ガラス。
  12.  前記画像処理部は、前記第2遠赤外線の抽出データと前記第1反射率のデータとの積を前記第1画素領域の輝度データから減算することで前記第1遠赤外線を抽出する、または、前記第2遠赤外線の抽出データと前記第2反射率のデータとの積を前記第2画素領域の輝度データから減算することで前記第1遠赤外線を抽出する、請求項11に記載のカメラ付き車両用窓ガラス。
  13.  前記画像処理部は、前記第2遠赤外線が前記第2領域で反射することで前記遠赤外線画像に映り込むノイズを軽減する、請求項1に記載のカメラ付き車両用窓ガラス。
  14.  前記物体は、150W/m・K以上450W/m・K以下の熱伝導率を有する、請求項1から13のいずれか一項に記載のカメラ付き車両用窓ガラス。
  15.  前記物体の温度を制御する温度制御機構を備える、請求項1から13のいずれか一項に記載のカメラ付き車両用窓ガラス。
  16.  前記温度制御機構は、前記物体に風を送る送風機を含む、請求項15に記載のカメラ付き車両用窓ガラス。
  17.  前記温度制御機構は、冷媒を循環させる冷媒回路を含む、請求項15に記載のカメラ付き車両用窓ガラス。
  18.  可視光を透過する第1領域が形成されたガラス板に前記第1領域よりも遠赤外線の透過率が高く形成された第2領域を透過する第1遠赤外線を検出する遠赤外線カメラによって遠赤外線画像を撮影し、
     前記ガラス板に対して前記遠赤外線カメラが配置される側に設置された物体から放射される第2遠赤外線により前記遠赤外線画像に映り込むノイズを軽減する、画像処理方法。
PCT/JP2023/041084 2022-11-21 2023-11-15 カメラ付き車両用窓ガラス及び画像処理方法 WO2024111480A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-185867 2022-11-21
JP2022185867 2022-11-21

Publications (1)

Publication Number Publication Date
WO2024111480A1 true WO2024111480A1 (ja) 2024-05-30

Family

ID=91195659

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/041084 WO2024111480A1 (ja) 2022-11-21 2023-11-15 カメラ付き車両用窓ガラス及び画像処理方法

Country Status (1)

Country Link
WO (1) WO2024111480A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230563A (ja) * 2001-02-05 2002-08-16 Nissan Motor Co Ltd 車両用カメラの映り込み検出方法および画像処理装置
JP2006314061A (ja) * 2005-05-09 2006-11-16 Nissan Motor Co Ltd 画像処理装置及びノイズ判定方法
JP2010146284A (ja) * 2008-12-18 2010-07-01 Mazda Motor Corp 車両用対象物検出装置及び車両用運転支援システム
US20220035033A1 (en) * 2019-04-24 2022-02-03 Vivo Mobile Communication Co.,Ltd. Terminal
WO2022149374A1 (ja) * 2021-01-08 2022-07-14 Agc株式会社 車両用ガラス及び車両用ガラスの製造方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230563A (ja) * 2001-02-05 2002-08-16 Nissan Motor Co Ltd 車両用カメラの映り込み検出方法および画像処理装置
JP2006314061A (ja) * 2005-05-09 2006-11-16 Nissan Motor Co Ltd 画像処理装置及びノイズ判定方法
JP2010146284A (ja) * 2008-12-18 2010-07-01 Mazda Motor Corp 車両用対象物検出装置及び車両用運転支援システム
US20220035033A1 (en) * 2019-04-24 2022-02-03 Vivo Mobile Communication Co.,Ltd. Terminal
WO2022149374A1 (ja) * 2021-01-08 2022-07-14 Agc株式会社 車両用ガラス及び車両用ガラスの製造方法

Similar Documents

Publication Publication Date Title
CN102421639B (zh) 车窗玻璃及其制造方法和用途
JP6642172B2 (ja) ヘッドアップディスプレイ装置
JP4754284B2 (ja) 車載機器の防熱構造
JP4973921B2 (ja) ヘッドアップディスプレイ装置
CN110297245B (zh) 带有传感器组件和遮光罩的装置
KR20100123433A (ko) 영상을 표시하는 자동차용 인사이드 미러
JP6668151B2 (ja) 車載光学装置および車載光学システム
KR102558186B1 (ko) 불투명 폴리머 필름이 있는 적층 차량 판유리
WO2021112144A1 (ja) 車両用ガラス及びカメラユニット
CN108696676B (zh) 相机模块
JP5488202B2 (ja) 車載カメラ
US12035056B2 (en) Vehicular exterior member and far-infrared camera equipped vehicular exterior member
WO2024111480A1 (ja) カメラ付き車両用窓ガラス及び画像処理方法
WO2021182290A1 (ja) 車両用ガラス、枠部材及び車両用ガラスの製造方法
WO2022019067A1 (ja) 撮像機用加熱装置
US12055736B2 (en) Mirror for camera system and camera system
WO2021246201A1 (ja) 車両用表示装置
CN110461785A (zh) 用于自主汽车的玻璃
JP2018135020A (ja) リアガラス
CN115335253A (zh) 摄像显示系统
WO2020170495A1 (ja) ヘッドアップディスプレイ
CN113790424A (zh) 用于车辆的灯以及包括该灯的车辆
WO2022149583A1 (ja) 車両用ガラス
JP2024066108A (ja) 撮像装置
KR102491470B1 (ko) 센서 일체형 구조의 차량용 후드

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23894489

Country of ref document: EP

Kind code of ref document: A1