WO2023032295A1 - センサモジュール及びセンサモジュールの製造方法 - Google Patents

センサモジュール及びセンサモジュールの製造方法 Download PDF

Info

Publication number
WO2023032295A1
WO2023032295A1 PCT/JP2022/011566 JP2022011566W WO2023032295A1 WO 2023032295 A1 WO2023032295 A1 WO 2023032295A1 JP 2022011566 W JP2022011566 W JP 2022011566W WO 2023032295 A1 WO2023032295 A1 WO 2023032295A1
Authority
WO
WIPO (PCT)
Prior art keywords
case
sensor module
sensor
axis direction
optical axis
Prior art date
Application number
PCT/JP2022/011566
Other languages
English (en)
French (fr)
Inventor
晴貴 田中
浩史 大脇
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023032295A1 publication Critical patent/WO2023032295A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles

Definitions

  • This technology relates to a sensor module mounted on a vehicle, for example, and a method of manufacturing the sensor module.
  • the purpose of this technology is to provide a sensor module capable of improving alignment accuracy while achieving miniaturization.
  • a sensor module includes a first case, a second case, and a sensor substrate.
  • the first case comprises a lens, a cylindrical housing part for housing the lens, and a cylindrical housing part integrally formed with the housing part and extending in the optical axis direction from the circumference of the housing part and having an open end. and a lens holder having an outer frame.
  • the second case has a tubular welding surface that is laser-welded to the open end.
  • the sensor board has a sensor element arranged on the optical axis and a wiring board on which the sensor element is mounted, and is accommodated between the first case and the second case.
  • the substrate may be positioned closer to the second case than the opening end in the optical axis direction.
  • the first case further includes a joint portion having a joint surface that is arranged inside the outer frame portion and is joined to the sensor substrate, and the joint surface is positioned further than the opening end portion in the optical axis direction.
  • the sensor substrate located on the second case side may have a photocurable bonding layer and may be bonded to the bonding surface by the photocurable bonding layer.
  • the joint may have a plurality of joints arranged facing each other in a direction orthogonal to the optical axis direction.
  • the photocurable bonding layer may be an ultraviolet curable resin.
  • the sensor substrate may be rectangular, and the photocurable bonding layer may be arranged at a corner of the sensor substrate.
  • An annular rubber member sandwiched between the accommodating portion and the sensor substrate and arranged around the sensor element may be further provided.
  • an external connector disposed on the bottom of the second case, electrically connected to the sensor substrate, and having a cylindrical connecting portion parallel to the optical axis direction, wherein the sensor substrate has the cylindrical shape. It may further have a connection pin portion electrically connected to the inner peripheral surface of the connection portion of and parallel to the optical axis direction.
  • the first case is made of a synthetic resin material that absorbs laser light of a predetermined wavelength
  • the second case is made of a synthetic resin material that is transparent to the laser light. good too.
  • the sensor element may be a solid-state imaging element.
  • the lens is accommodated in a lens holder having a cylindrical housing portion for housing the lens, and a cylindrical outer frame portion integrally formed with the housing portion and extending in the optical axis direction from the periphery of the housing portion.
  • fabricating a first case A sensor board having a wiring board on which a sensor element is mounted is accommodated in a housing formed by the first case and a cylindrical second case, A method of manufacturing a sensor module, wherein the open end portion of the outer frame portion and the welding surface of the second case are laser-welded.
  • the step of accommodating the sensor substrate includes: a bonding surface disposed inside the outer frame portion of the first case and positioned closer to the second case than the opening end portion in the optical axis direction; and the sensor substrate. and through a photocurable bonding layer, Align the optical axis of the above lens, A method for manufacturing a sensor module, further comprising a step of irradiating the photocurable bonding layer with light from a direction orthogonal to the optical axis direction to cure the photocurable bonding layer.
  • FIG. 2 is a longitudinal side view of a sensor module in accordance with an embodiment of the present technology
  • FIG. 3 is an exploded perspective view of the sensor module
  • FIG. It is a figure inside the front case of the said sensor module.
  • (A) is a bonding process of the sensor substrate and the bonding surface
  • (B) is a welding process of the front case and the rear case.
  • (B) is the modification 2.
  • FIG. 10A and 10B are schematic vertical cross-sectional views of the sensor module, in which (A) is a modification 3, and (B) is a case where the joint surface in the Z-axis direction is positioned closer to the front case than the open end.
  • FIG. 1 is a block diagram of a drive control device using an in-vehicle camera equipped with a ranging sensor;
  • FIG. 8 is a flowchart showing a drive control method by the drive control device shown in FIG. 7; 4 is an example of a processed image generated by the drive control device.
  • FIG. 1 is a vertical cross-sectional view of the sensor module 100.
  • FIG. FIG. 2 is an exploded perspective view of the sensor module 100.
  • FIG. FIG. 3 is a view of the inside of the front case 11.
  • FIG. 4 shows the process of assembling the sensor module 100, (A) shows the process of joining the sensor substrate 30 and the joining surface 115A, and (B) shows the process of welding the front case 11 and the rear case 12 together.
  • the X-axis, Y-axis, and Z-axis indicate three mutually orthogonal directions, and the Z-axis corresponds to the optical axis direction C of the sensor module 100 .
  • the sensor module 100 of this embodiment is a camera module for in-vehicle use.
  • the sensor module 100 is arranged, for example, outside a vehicle body (mounting object) (not shown), and images the front, rear, or sides of the vehicle depending on the mounting position.
  • the sensor module 100 attached to the front portion of the vehicle body eg, front grille
  • the sensor module 100 attached to the rear for example, above the license plate images the environment behind the vehicle.
  • the sensor module 100 attached to the side of the vehicle e.g., the upper part of the pillar (A pillar, B pillar, the pillar at the rear end of the vehicle (C pillar, D pillar)) and the side mirror
  • the side of the vehicle e.g., the upper part of the pillar (A pillar, B pillar, the pillar at the rear end of the vehicle (C pillar, D pillar)
  • the side mirror is installed in the lateral direction of the vehicle. environment.
  • the sensor module 100 includes a housing 10, a sensor substrate 30, and the like.
  • the housing 10 is a case unit configured by combining a front case 11 as a first case and a rear case 12 as a second case in the optical axis direction (Z-axis direction).
  • the front case 11 and the rear case 12 are typically made of injection molded synthetic resin material.
  • the front case 11 has a lens 200 and a lens holder 110.
  • the lens holder 110 includes a cylindrical housing portion 20 that houses the lens 200, and an outer frame integrally formed with the housing portion 20 and extending from the periphery of the housing portion 20 toward the rear case 12 (optical axis direction). 111.
  • the lens 200 is composed of one or more lenses arranged along the optical axis.
  • the accommodating portion 20 has an opening 201 in its central portion when viewed from the Z-axis direction, and the lens 200 is fitted into the opening 201 .
  • the accommodating portion 20 accommodates the lens 200, is formed in a cylindrical shape, and has an axial center in the optical axis direction C. As shown in FIG.
  • the outer frame portion 111 has a front surface portion 112 extending substantially perpendicularly to the Z axis from the periphery of the housing portion 20 when viewed from the Z axis direction, and a cylindrical first side surface portion 113 extending from the front surface portion 112 in the Z axis direction. have.
  • the first side surface portion 113 has an open end portion 114 at its leading end facing the end portion on the rear case 12 side.
  • the open end portion 114 is formed in a substantially rectangular shape corresponding to the outer shape of the front portion 112 .
  • the shapes of the front surface portion 112 and the open end portion 114 are not limited to rectangular, and may be formed in other shapes such as circular and triangular.
  • the front case 11 has a joint portion 115 .
  • the joint portion 115 is arranged inside the outer frame portion 111 and protrudes from the front portion 111 toward the rear case 12 in parallel with the Z-axis direction.
  • a joint surface 115A which is a protruding tip of the joint portion 115, is joined to a front substrate 31 of the sensor substrate 30 described later via a photocurable bonding layer 35 (described later) made of a cured adhesive.
  • the shape of the joint surface 115A seen from the Z-axis direction is substantially rectangular.
  • the joints 115 are arranged at a plurality of locations facing each other in a direction perpendicular to the Z-axis direction (X-axis direction). As shown in FIGS. 3, 4A, and 4B, the joints 115 are arranged at two locations facing each other with the lens 200 at the center.
  • the two joints 115 are formed in flat plate shapes parallel to the Y-axis direction. Furthermore, the (shortest) distance between the two joints 115 in the X-axis direction is approximately the same as the distance between opposing sides of the sensor substrate 30, which will be described later. Also, the length of the joint surface 115A along the Y-axis direction is approximately the same as the length of one side of the sensor substrate 30 . Also, the positional relationship between the joint surface 115A and the open end 114 in the Z-axis direction will be described later.
  • each joint surface 115A has a first joint surface 115C located at both ends in the Y-axis direction and a second joint surface 115B located in the central portion.
  • the first bonding surfaces 115C at both ends are bonded to the sensor substrate 30 via a photo-curing bonding layer 35 (described later), and the second bonding surface 115B at the central portion is bonded via a thermosetting bonding layer (described later). It is bonded to the sensor substrate 30 .
  • the rear case 12 has a bottom surface portion 121 and a second side surface portion 122 which are formed substantially perpendicular to the Z-axis direction.
  • the second side surface portion 122 extends from the periphery of the bottom surface portion 121 toward the open end portion 114 of the front case 11 and is formed in a substantially rectangular tubular shape.
  • a welded portion 123 projecting outward is formed at the tip of the second side surface portion 122, and the welded portion 123 has a rectangular annular welded surface 123A that is welded to the open end portion 114 of the front case 11 ( See Figure 2).
  • the front case 11 and the rear case 12 are integrated with each other by laser welding the welding surface 123 to the open end 114, as will be described later.
  • the second side surface portion 122 has a projecting portion 124 orthogonal to the welding portion 123 and extending in the Z-axis direction.
  • the projecting portion 124 fits inside the open end portion 114 to facilitate positioning of the front case 11 and the rear case 12 .
  • the projecting portion 124 is continuously formed in a rectangular annular shape along the second side surface portion 122, but is not limited to this and may be formed intermittently. .
  • the sensor board 30 is arranged within the housing 10 .
  • the sensor substrate 30 has a sensor element 34 (described later) arranged on the optical axis, a wiring substrate 301 and a photo-curing bonding layer 35 .
  • the wiring board 301 includes a front board 31 facing the lens 200 of the front case 11 , a rear board 32 facing the bottom surface portion 121 of the rear case 12 , and a spacer 33 arranged between the front board 31 and the rear board 32 . and
  • the photocurable bonding layer 35 bonds the sensor substrate 30 and the bonding portion 115 .
  • the front substrate 31 and the rear substrate 32 are typically composed of rigid double-sided wiring substrates such as glass epoxy substrates, and spacers 33 define the facing distance between the substrates.
  • the front substrate 31 and the rear substrate 32 are formed in a rectangular shape with the same size, and are arranged in the housing 10 parallel to a plane (XY plane) substantially perpendicular to the Z axis.
  • the front board 31 and the rear board 32 are mechanically and electrically connected via a board connector (BtoB connector) not shown.
  • the sensor substrate 30 is not limited to the example composed of two substrates, the front substrate 31 and the rear substrate 32, and may be composed of one substrate.
  • An imaging element 34 is mounted on the front substrate 31 as a sensor element.
  • the imaging device 34 is an image sensor such as a CMOS (Complementary Metal-Oxide Semiconductor) or a CCD (Charge Coupled Device).
  • the front substrate 31 is bonded to the bonding portion 115 via the photocurable bonding layer 35 , and the imaging device 34 is in contact with the housing portion 20 via the rubber member 40 and arranged on the optical axis of the lens 200 .
  • the rubber member 40 is annular, sandwiched between the housing portion 20 and the front substrate 31 and arranged around the imaging device 34 .
  • the rubber member 40 is pressed between the front substrate 31 and the housing portion 20, thereby stabilizing the facing distance between the lens 200 and the imaging element 34. can be held.
  • the rubber member 40 annularly covers the periphery of the imaging element 34, the dust resistance of the imaging element 34 can be ensured.
  • the photo-curing bonding layer 35 is made of a resin that cures when irradiated with ultraviolet rays.
  • types of ultraviolet curable resins include radical polymerization type and cationic polymerization type, but are not limited to these.
  • it may be a resin that cures with visible light.
  • the photo-curing bonding layer 35 is arranged at the corners of the rectangular front substrate 31 .
  • the photo-curing bonding layer 35 is provided at the four corners of the rectangular front substrate 31 and faces and bonds to the first bonding surface 115C.
  • the sensor substrate 30 has thermosetting resin in addition to the photo-curing bonding layer 35 .
  • the thermosetting resin is provided on two sides of the peripheral edge of the front substrate 31 facing the joint surface 115 ⁇ /b>A and facing the joint portion 115 .
  • the thermosetting resin is provided so as to face the second bonding surface 115B. Accordingly, by using not only the ultraviolet curable resin but also the thermosetting resin, the bonding strength between the sensor substrate 30 and the bonding surface 115A can be secured.
  • two types of resin are provided on the sensor substrate 30.
  • the present invention is not limited to this, and an ultraviolet/thermosetting combination resin that adheres with a single resin by ultraviolet curing and thermal effect may be used. good.
  • the second joint surface 115B of the joint surfaces 115A has a groove shape compared to the first joint surface 115C. This not only facilitates the bonding between the thermosetting resin and the second bonding surface 115, but also secures the bonding strength between the sensor substrate 30 and the bonding surface 115A because the resin enters the groove shape and fixes. can do.
  • the rear board 32 is electrically connected to an external connector 60 provided on the bottom surface portion 121 of the rear case 12 via connection pin portions 321 parallel to the Z-axis direction.
  • An external connector 60 which will be described later, is for electrically connecting the sensor board 30 and the vehicle body side.
  • An image signal (an output signal of the imaging device 34) is transmitted from to the vehicle body side.
  • the external connector 60 is arranged on the bottom surface portion 121 of the rear case 12, is electrically connected to the sensor substrate 30, and has a cylindrical connecting portion 61 parallel to the Z-axis direction.
  • connection portion 61 is connected to the sensor substrate 30 by electrical contact between the connection pin portion 321 provided on the back surface of the rear substrate 32 (the bottom surface portion 121 side of the rear case 12 ) and the inner peripheral surface of the connection portion 61 . electrically connected.
  • the external connector 60 presses the sensor substrate 30 toward the housing portion 20 when the front case 11 and the rear case 12 are welded together by laser welding. It is electrically connected to the sensor substrate 30 without Therefore, since the distance between the imaging element 34 and the lens 200 is not changed, the alignment accuracy can be improved.
  • a shield case 50 for shielding electromagnetic noise surrounding the sensor substrate 30 is arranged inside the housing 10 .
  • the shield case 50 has a first shield case 51 housed in the front case 11 and a second shield case 52 housed in the rear case 12 .
  • the shield case 50 is typically made of a metal material such as stainless steel, aluminum alloy, or copper alloy, but may be made of a magnetic material or a non-magnetic material other than the above metal materials. It is one of EMC (Electromagnetic Compatibility) countermeasure parts that protect the sensor board 30 from electromagnetic noise.
  • the shield case 50 is a sheet metal press-formed body made of the material described above.
  • the second shield case 52 includes a bottom shield portion 521 arranged on the bottom portion 121 of the rear case 12, a side shield portion 522 extending from the bottom shield portion 521 to between the housing portion 20 and the outer frame portion 111, have
  • the first shield case 51 has an engaging portion 511 that engages with the rubber member 40 , and extends from the engaging portion 511 between the housing portion 20 and the outer frame portion 111 and elastically contacts the side shield portion 522 . and an elastic contact portion 512 for contacting.
  • the elastic contact portion 512 has a U-shaped portion 512A and an elastic holding portion 512B.
  • the U-shaped portion 512 ⁇ /b>A is formed in a U-shape extending from the engaging portion 511 to the inner peripheral surface side of the front surface portion 112 and folded back, and contacts the inner peripheral surface of the first side surface portion 113 .
  • the elastic holding portion 512B extends from the engaging portion 511 toward the front portion 112 side to a predetermined position, and elastically extends from the predetermined position toward the inner peripheral surface of the outer frame portion 111 to form the side shield portion 522. is elastically held with the U-shaped portion 512A.
  • the side shield part 522 of the second shield case 52 has a bent part 522A at its distal end and in contact with the U-shaped part 512A.
  • the first shield case 51 and the second shield case 52 can be brought into elastic contact with each other, so that electromagnetic noise can be cut off more reliably.
  • the joints 115 are arranged at a plurality of locations facing each other in the direction perpendicular to the Z-axis direction (X-axis direction).
  • the joint portion 115 is arranged to face the Y-axis direction (the joint portion 115 is arranged around the entire circumference of the lens 200) in addition to the portion facing the X-axis direction.
  • the cost of the hardening bonding layer 35 can be suppressed.
  • the first shield case 51 is not provided on the entire circumference, the first shield case 51 can be easily fitted to the front case 11 .
  • a heat dissipation sheet 70 for heat dissipation of the sensor substrate 20 is arranged inside the housing 10.
  • the heat dissipation sheets 70 are arranged at two locations on the rear substrate 32 side, but the shape and number of the heat dissipation sheets 70 are not particularly limited.
  • the front case 11 and rear case 12 are joined by laser welding.
  • the front case 11 is made of a synthetic resin material that absorbs the laser light L (see FIG. 4B) of a predetermined wavelength.
  • the rear case 12 is made of a synthetic resin material that is transparent to the laser beam L. As shown in FIG. 4B
  • resin materials that absorb or transmit laser light L include general-purpose resins such as AS (acrylonitrile-styrene) resin and ABS (acrylonitrile-butadiene-styrene) resin, PC (polycarbonate) resin, and ABS.
  • AS acrylonitrile-styrene
  • ABS acrylonitrile-butadiene-styrene
  • PC polycarbonate
  • ABS Polycarbonate
  • Mixed resin of PC PC
  • PA polyamide
  • PBT polybutylene terephthalate
  • Absorbability or transmittance for the laser light L can be adjusted, for example, by the amount of laser absorbing material mixed with the resin. Carbon black, for example, can be used as the absorbent.
  • the absorptivity (or transmittance) of the laser light L can be arbitrarily adjusted by adjusting the amount of the absorber added. It is preferable to use matrix resins of the same type for the resin material that absorbs the laser light L and the resin material that transmits the laser light L. As shown in FIG. As a result, the affinity between the resins in the joint is increased, and the welding strength is improved.
  • the transmittance can be adjusted by changing the thickness of the resin. By increasing the thickness of the resin (becoming thicker), the transmittance of the resin can be further reduced. In addition, the transmittance of the resin can be further increased by reducing the thickness of the resin (becoming thinner).
  • red laser light or infrared laser light with a wavelength of 800 nm to 1100 nm is used as the laser light L for welding.
  • the transmittance of the laser light L in the resin material having transparency to the laser light L is 30% or more, more preferably 40% or more.
  • the spot diameter of the laser beam L is, for example, 1 mm.
  • the joint surface 115A of the joint 115 is positioned closer to the rear case 12 than the open end 114 in the Z-axis direction. That is, the position in the Z-axis direction of the front substrate 31 that is bonded to the bonding surface 115A is positioned closer to the rear case 12 than the opening end portion 114 is. Further, the position of the photo-curing bonding layer 35 in the Z-axis direction is positioned closer to the rear case 12 than the opening end 114 .
  • the sensor module 100 adjusts the position of the lens 200 with respect to the sensor substrate 30 on which the imaging element 34 is mounted, and joins the joint surface 115A and the front substrate 31 while aligning. Specifically, laser light L emitted from a laser light source is made incident on the imaging element 34 through the lens 200 . The amount of emitted light at that time is detected, and the position of the front case 11 or the sensor substrate 30 is adjusted to maximize the amount of light by, for example, six axes (X-axis, Y-axis, Z-axis; It is adjusted by moving in the 3-axis direction of rotation around each of the X, Y, and Z axes.
  • the ultraviolet rays U are irradiated to cure the photocurable bonding layer 35 arranged at the four corners of the sensor substrate 30 . Thereby, the sensor substrate 30 and the front case 11 can be temporarily fixed.
  • the bonding surface 115A is positioned closer to the rear case 12 than the opening end 114 in the Z-axis direction. can be irradiated.
  • FIG. 6B is a diagram showing the angle at which the photocurable bonding layer 35 is irradiated with ultraviolet rays when the position of the bonding surface 115A in the Z-axis direction is positioned closer to the front case 11 than the opening end 114.
  • FIG. If the position of the bonding surface 115A in the Z-axis direction is positioned closer to the front case 11 than the opening end 114, the angle at which the photocurable bonding layer 35 is irradiated with ultraviolet rays is not perpendicular to the Z-axis direction. The light is obliquely irradiated (see FIG. 6B).
  • the reason for the oblique irradiation is that the position of the open end 114 in the Z-axis direction is closer to the front case 11 than the bonding surface 115A. This is because the photo-curing bonding layer 35 is not irradiated with ultraviolet light unless it is irradiated with ultraviolet light. However, the oblique ultraviolet irradiation is partially blocked by the sensor substrate 30 and the first side surface portion 113 . As a result, the amount of ultraviolet rays applied to the photocurable bonding layer 35 becomes uneven. As a result, the distribution of the strength of the temporary fixation is uneven, the temporary fixation is not stable, and high-precision alignment cannot be achieved.
  • the photocurable bonding layer 35 can be evenly irradiated with the ultraviolet rays U, so that the temporary fixation after alignment is more stable, and high-precision alignment is possible. can be done.
  • the position of the joint surface 115A in the Z-axis direction is, for example, about 1.5 mm to 2 mm closer to the rear case 12 than the open end 114, but it is not limited to this and can be set as appropriate.
  • the position of the opening end 114 in the Z-axis direction is preferably in the negative direction of the Z-axis direction (lens 200 side) relative to the sensor substrate 30 described later, and is equal to the position of the rubber member 40 .
  • the volume inside the housing 10 can be secured more when the front case 11 and the rear case 12 are welded together, while enabling highly accurate alignment.
  • the lens holder 110 When manufacturing the sensor module 100, first, the lens holder 110 is produced.
  • the lens holder 110 includes a housing portion 20 that houses the lens 200, a cylindrical outer frame portion 111 that is integrally molded with the housing portion 20 and extends in the Z-axis direction from the periphery of the housing portion 20 and has an open end portion 114, have Next, the front case 11 containing the lens 200 in the lens holder 110 is produced.
  • the rubber member 40 and the shield case 50 are sequentially incorporated inside the front case 11 , then the spacer 33 is assembled to the front substrate 31 and the rear substrate 32 is assembled via the spacer 33 .
  • the photo-curing bonding layer 35 is cured by irradiating with ultraviolet rays, temporarily fixed, and then heated by an oven or an infrared ray or the like. to cure the thermosetting resin (see FIG. 4A).
  • the heat dissipation sheet 70 is placed on the rear substrate 32 and the welding surface 123 of the rear case 12 is brought into contact with the open end 114 of the front case 11 .
  • the sensor substrate 30 is electrically connected to the external connector 60 via the connection pin portion 321 .
  • a laser beam L is irradiated from the rear case 12 side toward the opening end 114.
  • the front case 11 is made of a resin material that absorbs the laser light L
  • the rear case 12 is made of a resin material that transmits the laser light L.
  • the laser light L is transmitted through the rear case 12 and irradiated onto the open end portion 114 of the front case 11 .
  • the laser light L is scanned in a rectangular annular shape along the open end portion 114 .
  • the laser light L may be a continuous wave or a pulse wave.
  • the laser beam L is irradiated and scanned along the entire circumference of the first welding region 40, but the present invention is not limited to this, and the first welding region 40 may be partially irradiated. can be
  • the housing portion 20 that houses the lens 200 and the outer frame portion 111 are integrally molded, and the housing portion 20 functions as a barrel portion.
  • an O-ring for ensuring waterproofness between the housing portion 20 and the outer frame portion 111 becomes unnecessary. As a result, the number of parts can be reduced and the size can be reduced.
  • front case 11 and the rear case 12 are welded by laser welding, damage to the lens 200 and the sensor substrate 30 due to vibration during welding and a decrease in alignment accuracy are reduced compared to ultrasonic welding. can be prevented.
  • FIG. 5A is a schematic vertical cross-sectional view showing the configuration of a sensor module 100A according to Modification 1.
  • FIG. 5A is a schematic vertical cross-sectional view showing the configuration of a sensor module 100A according to Modification 1.
  • FIG. 5A configurations different from those of the first embodiment will be mainly described, and configurations similar to those of the first embodiment will be denoted by the same reference numerals, and description thereof will be omitted or simplified.
  • the rear case 12 has a tapered second side surface portion 122 extending from a bottom surface portion 121 and extends in the Z-axis direction from the second side surface portion 122 to form an outer frame portion of the front case 11 . It has a first contact portion 122A that contacts the outer peripheral portion of 111 .
  • the first contact portion 122A is brought into contact with the outer peripheral portion of the outer frame portion 111, and the first contact portion 122 is brought into contact with the front case 11.
  • the first contact portion 122A is irradiated with laser light L from a direction substantially perpendicular to the Z-axis direction.
  • the number of parts can be reduced and the size can be reduced while improving the alignment accuracy.
  • FIG. 5B is a schematic vertical cross-sectional view showing the configuration of a sensor module 100B according to Modification 2. As shown in FIG. Configurations different from those of the first embodiment and modification 1 will be mainly described below, and configurations similar to those of the first embodiment and modification 1 will be given the same reference numerals, and their descriptions will be omitted or simplified.
  • the second side surface portion 122 of the rear case 12 has a second contact portion 122B extending in the inner peripheral direction of the rear case 12 at its distal end portion.
  • the outer frame portion 111 has an extension portion 113 A extending in the outer peripheral direction of the front case 11 , and the extension portion 113 A has an open end portion 114 that faces the bottom surface portion 121 . have.
  • the second contact portion 122122B is brought into contact with the surface opposite to the open end portion 114, and laser light is emitted from the front case 11 side. Light L is applied.
  • the number of parts can be reduced and the size can be reduced while improving the alignment accuracy.
  • FIG. 6A is a schematic vertical cross-sectional view showing the configuration of a sensor module 100C according to Modification 3.
  • FIG. 6A illustrates configurations different from those of the first embodiment and modifications 1 and 2. Simplify.
  • the front case 11 has an extension portion 113A in the outer frame portion 111
  • the rear case 12 has a second contact portion 122B, as in the second modification.
  • the rear case 12 also has a third contact portion 122 ⁇ /b>C that extends in the outer peripheral direction from the second side portion 122 and contacts the harness 70 .
  • the front case 11 is made of a synthetic resin material that absorbs the laser light L1 of a predetermined wavelength.
  • the rear case 12 is made of a synthetic resin material that is transparent to the laser beams L1 and L2.
  • the harness 70 is made of a synthetic resin material that absorbs the laser beam L2 of a predetermined wavelength.
  • the front case 11 and the rear case 12, and the rear case 12 and the harness 70 can be laser-welded from the front case 11 side, so laser welding can be performed without changing the orientation of the sensor module 100C. Therefore, in this modified example, it is possible to improve the workability of the sensor module 100C as well as reduce the number of parts and reduce the size while improving the alignment accuracy.
  • each part of the above-described first embodiment and modified examples 1 to 3 are not used only for one embodiment, and can be applied to other embodiments as appropriate.
  • the extending portion 113A of the front case 11 of Modification 2 may be applied to the front case 11 of the first embodiment.
  • the front case 11 is made of a synthetic resin material that absorbs the laser beam L of a predetermined wavelength
  • the rear case 12 is made of a synthetic resin material that is transparent to the laser beam L. configured, but not limited to this.
  • a plurality of joint portions 115 are arranged inside the front case 11 so as to face each other in the X-axis direction. good too.
  • the front case 11 may be made of a synthetic resin material that is transparent to the laser beam L of a predetermined wavelength
  • the rear case 12 may be made of a synthetic resin material that is absorbent to the laser beam L. good.
  • a cover may be provided to prevent light from entering the front case 11 from the outside.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be applied to any type of movement such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, robots, construction machinery, agricultural machinery (tractors), etc. It may be realized as a sensor module mounted on the body.
  • the sensor module 100 is described as an example of a camera module, but it is not limited to this.
  • the present technology can be applied to sensor modules equipped with ranging sensors such as LIDAR (Light Detection and Ranging) and TOF (Time of Flight) as sensor elements.
  • ranging sensors such as LIDAR (Light Detection and Ranging) and TOF (Time of Flight) as sensor elements.
  • FIG. 7 is a block diagram of a drive control device 4000 using the vehicle-mounted camera 1 equipped with a distance measuring sensor.
  • FIG. 8 is a flow chart showing a drive control method by the drive control device 4000 shown in FIG.
  • FIG. 9 is an example of a processed image G generated by the drive control device 4000. As shown in FIG.
  • a drive control device 4000 is a system for controlling drive of a vehicle body M100 of an automobile M using the vehicle-mounted camera 1 described above. Specifically, the drive control device 4000 uses the image captured by the vehicle-mounted camera 1 to control the driving force generating mechanism M11, the braking mechanism M12, the steering mechanism M13, and the like of the vehicle body M100. An image captured by the vehicle-mounted camera 1 is sent to the drive control device 4000 in the state of high-quality image data (raw image data) that has not been compression-encoded.
  • the in-vehicle camera 1 is provided at the front of the vehicle (eg, the position of the front grille), the rear (eg, the position above the license plate), and the side (eg, the position of the right side mirror, the position of the left side mirror). .
  • the drive control device 4000 can be configured according to the functions required of the automobile M. Specifically, functions that can be realized by the drive control device 4000 include, for example, a driving assistance function and an automatic driving function (including an automatic parking function). The configuration of the drive control device 4000 capable of realizing the driving assistance function and the automatic driving function will be described below.
  • Driving assistance functions are typically ADAS (Advanced Driver Assistance System) functions including collision avoidance, impact mitigation, collision warning, parking assistance, lane keeping, and the like.
  • the drive control device 4000 can be configured to be able to implement these driving assistance functions.
  • FIG. 7 is a block diagram showing the configuration of the drive control device 4000 capable of realizing the driving assistance function.
  • the drive control device 4000 has an in-vehicle camera 1 , a processing section 1000 , an information generation section 2000 and a drive control section 3000 .
  • the processing unit 1000 has an image processing unit 1100 , a recognition processing unit 1200 and a calculation processing unit 1300 .
  • Each component of the drive control device 4000 is connected by a communication network.
  • This communication network may be an in-vehicle communication network conforming to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark).
  • FIG. 8 is a flowchart showing a drive control method by the drive control device 4000 shown in FIG.
  • the drive control method shown in FIG. 8 includes an imaging step ST11, an image processing step ST12, a recognition processing step ST13, an object information calculation step ST14, a drive control information generation step ST15, and a drive control signal output step ST16.
  • the vehicle-mounted camera 1 captures the scenery around the automobile M100 to generate an image.
  • the in-vehicle camera 1 transmits an image to the processing unit 1000 by an in-vehicle communication unit mounted on the sensor substrate 30, for example.
  • the processing unit 1000 is typically composed of an ECU (Electronic Control Unit) and processes images generated by the vehicle-mounted camera 1 . More specifically, in the processing unit 1000, the image processing unit 1100 performs the image processing step ST12, the recognition processing unit 1200 performs the recognition processing step ST13, and the calculation processing unit 1300 performs the object information calculation step ST14.
  • ECU Electronic Control Unit
  • the image processing unit 1100 applies image processing to the image to generate a processed image.
  • Image processing by the image processing unit 1100 is typically processing for facilitating recognition of objects in an image, such as distortion correction, automatic exposure control, automatic white balance adjustment, and high dynamic range synthesis. .
  • At the image processing step ST12 at least part of the image processing may be performed by the image processing section mounted on the sensor board 30 of the vehicle-mounted camera 1.
  • the image processing section 1100 may not be included in the processing section 1000.
  • the recognition processing unit 1200 recognizes an object in the processed image by performing recognition processing on the processed image.
  • the objects recognized by the recognition processing unit 1200 are not limited to three-dimensional objects, and include, for example, vehicles, pedestrians, obstacles, traffic lights, traffic signs, road lanes, sidewalk curbs, and the like.
  • the calculation processing unit 1300 calculates object information regarding the object in the processed image.
  • the object information calculated by the calculation processing unit 1300 includes, for example, the shape of the object, the distance to the object, the moving direction and moving speed of the object, and the like.
  • the calculation processing unit 1300 uses a plurality of temporally consecutive processed images to calculate dynamic object information.
  • FIG. 9 shows an example of the processed image G generated by the image processing unit 111. As shown in FIG. The processed image G shown in FIG. 9 shows another vehicle MF and two lanes L1 and L2 that define the driving lane.
  • the vanishing point V where the two lanes L1 and L2 intersect in the processed image G is obtained.
  • the vanishing point V may be obtained from other objects instead of the lanes L1 and L2.
  • the calculation processing unit 1300 can also obtain the vanishing point V using curbs on a sidewalk, moving trajectories of fixed objects such as traffic signs in a plurality of processed images, and the like.
  • the inter-vehicle distance to another vehicle MF can be obtained using the distances D0 and D1.
  • the inter-vehicle distance to another vehicle MF can be calculated by using the ratio of the distance D0 and the distance D1.
  • the present invention is particularly suitable for cameras that perform such image processing.
  • the processing unit 1000 transmits data including the processed image and object information obtained in steps ST12 to ST14 to the information generating unit 2000.
  • the processing unit 1000 is not limited to the above configuration, and may include configurations other than the image processing unit 1100, the recognition processing unit 1200, and the calculation processing unit 1300, for example.
  • the information generation unit 2000 In the drive control information generation step ST15, the information generation unit 2000 generates drive control information including the driving details necessary for the automobile M. More specifically, the information generation unit 2000 determines the driving content to be executed by the vehicle M based on the data transmitted from the processing unit 1000, and generates drive control information including this driving content.
  • the details of driving the automobile M include, for example, changing the speed (acceleration, deceleration) and changing the direction of travel.
  • the information generator 2000 determines that deceleration is necessary when the inter-vehicle distance between the automobile M and another vehicle MF is small.
  • the positional relationship between the lane and the host vehicle is calculated, and if the vehicle M is likely to deviate from the lane, it is determined that the traveling direction needs to be changed toward the center of the lane.
  • the positional relationship between the lane and the own vehicle is calculated by detecting the edge position of the lane (the edge closer to the vehicle) in units of pixels and the position of the vehicle in units of pixels from the captured image. If the distance between the lane and the host vehicle is less than or equal to a predetermined value, it is determined that the vehicle is too close to the lane.
  • the information generation unit 2000 transmits drive control information to the drive control unit 3000 .
  • the information generator 2000 may generate information other than the drive control information.
  • the information generator 2000 may detect the brightness of the surrounding environment from the processed image and generate lighting control information for turning on the headlights of the automobile M when the surrounding environment is dark.
  • the drive control section 3000 outputs a drive control signal based on the drive control information.
  • the drive control unit 3000 can accelerate the automobile M by the driving force generating mechanism M11, decelerate the automobile M by the braking mechanism M12, and change the traveling direction of the automobile M by the steering mechanism M13.
  • the present invention is particularly suitable for cameras that perform such image processing.
  • a circuit having the function of each block is arranged on the sensor substrate 30 in the imaging device 1 electrically connected to a circuit (not shown).
  • the image processing unit 1100 may be included in the imaging device.
  • a circuit having the function of each block is arranged on the sensor substrate 30 in the imaging device 1 electrically connected to the circuit.
  • the processing unit 1000 including a plurality of blocks may be included in the imaging device.
  • a circuit having the function of each block is arranged on the sensor substrate 30 in the imaging device 1 electrically connected to the circuit.
  • one of the drive control device 4000 and the vehicle-mounted camera 1 may be combined into one device.
  • a circuit having the function of each block is arranged on the sensor substrate 30 in the imaging device 1 electrically connected to the circuit.
  • One drive control device 4000 may be provided for each vehicle-mounted camera 1, or one drive control device 4000 may be provided for a plurality of vehicle-mounted cameras.
  • the present technology can also adopt the following configuration.
  • a lens a lens holder having a cylindrical housing portion for housing the lens, and a cylindrical outer frame portion integrally formed with the housing portion and extending in the optical axis direction from the periphery of the housing portion and having an open end.
  • a first case having a cylindrical second case having a welding surface that is laser-welded to the open end;
  • a sensor substrate that has a sensor element arranged on the optical axis and a wiring board that mounts the sensor element, and that is accommodated between the first case and the second case.
  • module (2) The sensor module according to (1) above, The substrate is positioned closer to the second case than the opening end in the optical axis direction.
  • the first case further includes a joint portion disposed inside the outer frame portion and having a joint surface that is joined to the sensor substrate; the joint surface is positioned closer to the second case than the open end in the optical axis direction;
  • the sensor module wherein the sensor substrate has a photo-curing bonding layer and is bonded to the bonding surface by the photo-curing bonding layer.
  • the sensor module wherein the junction includes a plurality of junctions arranged facing each other in a direction orthogonal to the optical axis direction.
  • the sensor module further includes a connection pin portion electrically connected to an inner peripheral surface of the cylindrical connection portion and parallel to the optical axis direction.
  • the lens is mounted in a lens holder having a cylindrical housing portion for housing the lens, and a cylindrical outer frame portion integrally formed with the housing portion and extending in the optical axis direction from the periphery of the housing portion.
  • a sensor board having a wiring board on which a sensor element is mounted is accommodated in a housing formed by the first case and a cylindrical second case,
  • the step of accommodating the sensor substrate includes: a bonding surface disposed inside the outer frame portion of the first case and located closer to the second case than the opening end portion in the optical axis direction; and the sensor substrate.
  • a method for manufacturing a sensor module further comprising a step of irradiating the photocurable bonding layer with light from a direction orthogonal to the optical axis direction to cure the photocurable bonding layer.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)

Abstract

【課題】小型化を図りつつ、調芯精度を向上させることができるセンサモジュールを提供する。 【解決手段】本技術の一形態に係るセンサモジュールは、第1のケースと、第2のケースと、センサ基板とを具備する。上記第1のケースは、レンズと、上記レンズを収容する筒状の収容部と、上記収容部と一体的に成形され上記収容部の周囲から光軸方向に延び開口端部を有する筒形状の外枠部と、を有するレンズホルダとを有する。上記第2のケースは、筒形状であり、上記記開口端部にレーザー溶着される溶着面を有する。上記センサ基板は、上記光軸上に配置されたセンサ素子と、上記センサ素子を搭載する配線基板を有し、上記第1のケースと上記第2のケースとの間に収容される。

Description

センサモジュール及びセンサモジュールの製造方法
 本技術は、例えば車両に搭載されるセンサモジュール及びセンサモジュールの製造方法に関する。
 例えば、自動車用のリヤビューカメラユニット等、車外(屋外)に設置される電子部品や光学部品は、防水性および防塵性を有したケースに収容される。特に防水性においてはIPX9Kなどの規格により高温・高圧洗浄を想定した高い気密性を有する構造が求められている。また近年車載カメラの高機能化、高解像度化が求められ、レンズサイズの拡大などが必要となる一方、車載カメラは更なる小型化が求められる。従来のケースとしては、例えば特許文献1に記載のように、レンズと、レンズを収容する鏡筒と、鏡筒を収容するフロントケースと、リアケースと、回路基板とを備え、フロントケースとリアケースの当接部分を、レーザー光の照射による溶着によって接合し、気密性を確保するものが知られている。
特開2020-150475号公報
 近年の高機能化に伴い、車載カメラモジュールに求められる高精度な調芯や防水性能を維持しながら、放熱・EMC対策を限られたカメラモジュールのサイズの中で成立させるためには、部品構成上に制約が生じる。しかしながら、特許文献1に記載の構造では、フロントケースがレンズを収容する鏡筒とは別部材で構成されているため、鏡筒をフロントケースに嵌合させる際にフロントケースと鏡筒間で防水のためのОリングを介在させる必要があり、その分、カメラの小型化に対して障害となる。
 以上のような事情に鑑み、本技術の目的は、小型化を図りつつ、調芯精度を向上させることができるセンサモジュールを提供することにある。
 本技術に係るセンサモジュールは、第1のケースと、第2のケースと、センサ基板とを具備する。
 上記第1のケースは、レンズと、上記レンズを収容する筒状の収容部と、上記収容部と一体的に成形され上記収容部の周囲から光軸方向に延び開口端部を有する筒形状の外枠部と、を有するレンズホルダとを有する。
 上記第2のケースは、筒形状の、上記開口端部にレーザー溶着される溶着面を有する。
 上記センサ基板は、上記光軸上に配置されたセンサ素子と、上記センサ素子を搭載する配線基板とを有し、上記第1のケースと上記第2のケースとの間に収容される。
 上記センサモジュールにおいて、上記レンズを収容する収容部と上記外枠部とが一体的に成形されているため、収容部と外枠部との間に防水性を確保するためのOリングが不要となる。
 上記基板は、上記光軸方向において上記開口端部よりも上記第2のケース側に位置してもよい。
 上記第1のケースは、上記外枠部の内側に配置され、上記センサ基板と接合する接合面を有する接合部をさらに有し、上記接合面は、上記光軸方向において上記開口端部よりも上記第2のケース側に位置し、上記センサ基板は、光硬化接合層を有し、上記光硬化接合層によって上記接合面と接合してもよい。
 上記接合部は、上記光軸方向に直交する方向に対向して配置される複数の接合部を有してもよい。
 上記光硬化接合層は、紫外線硬化樹脂であってもよい。
 上記前記センサ基板は、矩形状であり、上記光硬化接合層は、上記センサ基板の角部に配置されてもよい。
 上記収容部と上記センサ基板との間に挟持され、上記センサ素子の周囲に配置された環状のラバー部材をさらに具備してもよい。
 上記第2のケースの底部に配置され、上記センサ基板と電気的に接続し、上記光軸方向に平行な円筒形状の接続部を有する外部コネクタをさらに具備し、上記センサ基板は、上記円筒形状の接続部の内周面に電気的に接続され上記光軸方向に平行な接続ピン部をさらに有してもよい。
 上記第1のケースは、所定波長のレーザー光に対して吸収性を有する合成樹脂材料で構成され、上記第2のケースは、上記レーザー光に対して透過性を有する合成樹脂材料で構成されてもよい。
 上記センサ素子は、固体撮像素子であってもよい。
 レンズを収容する筒状の収容部と、上記収容部と一体的に成形され上記収容部の周囲から光軸方向に延びる筒形状の外枠部と、を有するレンズホルダに上記レンズを収容して第1のケースを作製し、
 上記第1のケースと筒形状の第2のケースと形成されるハウジング内に、センサ素子が搭載された配線基板を有するセンサ基板を収容し、
 上記外枠部の開口端部と上記第2のケースの溶着面とをレーザー溶着する
 センサモジュールの製造方法。
 上記センサ基板を収容する工程は、上記第1のケースの上記外枠部の内側に配置され上記光軸方向において上記開口端部よりも上記第2のケース側に位置する接合面と上記センサ基板とを光硬化接合層を介して接合し、
 上記レンズの光軸調芯を行い、
 上記光軸方向と直交する方向から光を上記光硬化接合層に照射し硬化させる工程をさらに有する
 センサモジュールの製造方法。
本技術の一実施形態に係るセンサモジュールの縦側面図である。 上記センサモジュールの分解斜視図である。 上記センサモジュールのフロントケース内部の図である。 上記センサモジュールの組み立て工程であり、(A)は、センサ基板と接合面の接合工程であり、(B)は、フロントケースとリアケースの溶着工程である。 上記センサモジュールの縦断面の略図であり、(A)は、変形例1であり、(B)は、変形例2である。 上記センサモジュールの縦断面の略図であり、(A)は、変形例3であり、(B)は、Z軸方向における接合面の位置が、開口端部よりもフロントケース側に位置する場合の紫外線を光硬化接合層に照射する角度を表した図である。 測距センサが搭載された車載カメラを利用した駆動制御装置のブロック図である。 図7に示す駆動制御装置による駆動制御方法を示すフローチャートである。 、駆動制御装置が生成する処理画像の一例である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
<第1の実施形態>
 [センサモジュールの構成]
 図1は、センサモジュール100の縦側断面図である。図2は、センサモジュール100の分解斜視図である。図3は、フロントケース11内部の図である。図4はセンサモジュール100の組み立て工程であり、(A)は、センサ基板30と接合面115Aの接合工程であり、(B)は、フロントケース11とリアケース12の溶着工程である。各図においてX軸、Y軸およびZ軸は相互に直交する3軸方向を示しており、Z軸はセンサモジュール100の光軸方向Cに相当する。
 本実施形態のセンサモジュール100は、車載用途のカメラモジュールである。センサモジュール100は、例えば、図示しない車体(取付対象物)の外部に配置され、取付位置に応じて車両の前方、後方あるいは側方を撮像する。
 例えば、車体の前方部(例:フロントグリル)に取り付けられたセンサモジュール100は、車両の前方の環境を撮像する。また、後部(例:ナンバープレートの上)に取り付けられたセンサモジュール100は、車両の後方の環境を撮像する。また、車両の側方(例:ピラー(Aピラー、Bピラー、車両最後部のピラー(Cピラー、Dピラー))の上部や、サイドミラー)に取り付けられたセンサモジュール100は、車両の横方向の環境を撮像する。
 図1に示すように、センサモジュール100は、ハウジング10と、センサ基板30等を備える。
(ハウジング)
 ハウジング10は、第1のケースとしてのフロントケース11と、第2のケースとしてのリアケース12とを光軸方向(Z軸方向)に組み合わせて構成されるケースユニットである。フロントケース11およびリアケース12は、典型的には、合成樹脂材料の射出成形体で構成される。
 フロントケース11は、レンズ200と、レンズホルダ110とを有する。レンズホルダ110は、レンズ200を収容する筒状の収容部20と、収容部20と一体的に成形され、収容部20の周囲からリアケース12(光軸方向)に向けて延在した外枠部111とを有する。
 レンズ200は、光軸上に沿って配列された単数又は複数のレンズによって構成される。
 収容部20は、Z軸方向から見てその中央部に開口部201を有し、開口部201にレンズ200が嵌合される。収容部20は、レンズ200を収容し、円筒状に形成され、光軸方向Cに軸心を有する。
 外枠部111は、Z軸方向から見て収容部20の周囲からZ軸に略垂直に延びる前面部112と、前面部112からZ軸方向に延びる筒形状の第1の側面部113とを有する。第1の側面部113は、その先端部にリアケース12側の端部と対向する開口端部114を有する。開口端部114は、前面部112の外形に対応する略矩形状に形成される。なお、前面部112および開口端部114の形状は、矩形に限られず、円形、三角形などの他の形状に形成されてもよい。
 図3、図4(A)、(B)に示すように、フロントケース11は、接合部115を有する。接合部115は、外枠部111の内側に配置され、Z軸方向に平行に、前面部111からリアケース12に向かって突出する。接合部115の突出した先端部である接合面115Aは、接着剤の硬化物からなる光硬化接合層35(後述)を介して後述するセンサ基板30のフロント基板31に接合される。Z軸方向から見た接合面115Aの形状は略矩形状である。
 本実施形態において、接合部115は、Z軸方向に直交する方向(X軸方向)に対向して複数個所に配置される。図3、図4(A)、(B)に示すように、接合部115は、レンズ200を中心に対向して2箇所に配置されている。2つの接合部115は、Y軸方向に平行な平板状に形成される。
 さらに、2つの接合部115間のX軸方向における(最短)距離は、後述するセンサ基板30の対向する辺同士の距離とおおよそ同じである。また、Y軸方向に沿った接合面115Aの長さは、センサ基板30の一辺の長さとおおよそ同じである。また、Z軸方向における接合面115Aの位置と開口端部114の位置関係については後述する。
 また、各接合面115Aは、そのY軸方向の両端部に位置する第1の接合面115Cと、中央部に位置する第2の接合面115Bとを有する。両端部の第1の接合面115Cは、光硬化接合層35(後述)を介してセンサ基板30と接合され、中央部の第2の接合面115Bは、熱硬化接合層(後述)を介してセンサ基板30と接合される。
 図1、図2に示すように、リアケース12は、Z軸方向に対して略垂直に形成される底面部121と、第2の側面部122とを有する。第2の側面部122は、底面部121の周縁からフロントケース11の開口端部114に向けて延在して、概略矩形の筒形状に形成される。また第2の側面部122の先端部には外周側へ突出する溶着部123が形成され、溶着部123は、フロントケース11の開口端部114に溶着される矩形環状の溶着面123Aを有する(図2参照)。本実施形態では後述するように、開口端部114に溶着面123がレーザー溶着により溶着されることで、フロントケース11とリアケース12が相互に一体化される。
 第2の側面部122は、溶着部123と直交し、Z軸方向に延在する突出部124を有する。突出部124は、開口端部114の内側に嵌合し、フロントケース11とリアケース12の位置決めを容易とする。図2に示すように、本実施形態において、突出部124は、第2の側面部122に沿って矩形環状に連続的に形成されるが、これに限らず、間欠的に形成されてもよい。
(センサ基板)
 センサ基板30は、ハウジング10内に配置される。センサ基板30は、光軸上に配置されたセンサ素子34(後述)と配線基板301と光硬化接合層35とを有する。配線基板301は、フロントケース11のレンズ200に対向するフロント基板31と、リアケース12の底面部121に対向するリア基板32と、フロント基板31とリア基板32との間に配置されたスペーサ33とを有する。光硬化接合層35は、センサ基板30と接合部115とを接合する。
 フロント基板31およびリア基板32は、典型的にはガラスエポキシ基板等のリジッド性を有する両面配線基板で構成され、スペーサ33によって各基板間の対向距離が規定される。本実施形態においてフロント基板31およびリア基板32は、それぞれ同一の大きさで矩形状に形成されており、Z軸に略垂直な平面(XY平面)に平行にハウジング10内に配置される。
 またフロント基板31およびリア基板32は、図示しない基板コネクタ(BtoBコネクタ)を介して機械的かつ電気的に接続される。センサ基板30は、フロント基板31およびリア基板32の2枚の基板で構成される例に限られず、1枚の基板で構成されてもよい。
 フロント基板31には、センサ素子として撮像素子34が搭載される。撮像素子34は、CMOS(Complementary Metal-Oxide Semiconductor)やCCD(Charge Coupled Device)等のイメージセンサである。フロント基板31は、光硬化接合層35を介して接合部115に接合され、撮像素子34は、ラバー部材40を介して収容部20と当接し、レンズ200の光軸上に配置される。
 ラバー部材40は、環状であり、収容部20とフロント基板31との間に挟持され撮像素子34の周囲に配置される。フロント基板31と接合部115との接合の際に、ラバー部材40がフロント基板31と収容部20との間で挟圧されることで、レンズ200と撮像素子34との間の対向距離を安定に保持することができる。
 またラバー部材40は、撮像素子34の周囲を環状に覆っているため撮像素子34の防塵性を確保することができる。
 光硬化接合層35は、紫外線が照射されることにより硬化する樹脂によって構成される。紫外線硬化樹脂の種類として、ラジカル重合型やカチオン重合型が挙げられるが、もちろんこれに限られない。例えば、可視光で硬化する樹脂であってもよい。また光硬化接合層35は、矩形状であるフロント基板31の角部に配置される。典型的には、光硬化接合層35は、長方形状のフロント基板31であって、その四隅に設けられ、第1の接合面115Cと対向し、接合する。
 センサ基板30は、光硬化接合層35以外にも、熱硬化性樹脂を有する。熱硬化性樹脂は、接合面115Aと対向するフロント基板31の周縁のうち、接合部115と対向する2辺に設けられる。熱硬化性樹脂は、第2の接合面115Bと対向するように設けられる。これにより、紫外線硬化樹脂だけでなく、熱硬化性樹脂を用いることで、よりセンサ基板30と接合面115Aとの接合強度が確保される。また、本実施形態では、2種類の樹脂をセンサ基板30に設けたが、これに限らず、単一の樹脂で、紫外線硬化と熱効果で接着する紫外線・熱硬化併用型樹脂を用いてもよい。
 また、接合面115Aのうち第2の接合面115Bは、第1の接合面115Cと比較して、溝形状を有している。これにより、熱硬化性樹脂と第2の接合面115との接合を容易にするだけでなく、溝形状に樹脂が入り込んで固定するため、よりセンサ基板30と接合面115Aとの接合強度を確保することができる。
 図1、図2に示すように、リア基板32は、Z軸方向に平行な接続ピン部321を介してリアケース12の底面部121に設けられた外部コネクタ60と電気的に接続される。後述する外部コネクタ60は、センサ基板30と車体側とを電気的に接続するためのものであり、外部コネクタ60を介して、車体側からセンサ基板30へ電力が供給され、および、センサ基板30から車体側へ画像信号(撮像素子34の出力信号)が送信される。
(外部コネクタ)
 外部コネクタ60は、リアケース12の底面部121に配置され、センサ基板30と電気的に接続し、Z軸方向に平行な円筒形状の接続部61を有する。
 接続部61は、リア基板32の裏面(リアケース12の底面部121側)に設けられた接続ピン部321と、接続部61の内周面とが電気的に接触することでセンサ基板30と電気的に接続される。
 これにより、リア基板32とばね接触する外部コネクタと比較して、フロントケース11とリアケース12とがレーザー溶着により溶着されたときに、外部コネクタ60によって、センサ基板30を収容部20側へ押し付けることなくセンサ基板30と電気的に接続される。よって、撮像素子34とレンズ200との距離を変化させることがないため、調芯精度向上が図られる。
(シールドケース)
 また、ハウジング10の内部には、センサ基板30の周囲を囲む電磁ノイズ遮断用のシールドケース50が配置される。シールドケース50は、フロントケース11に収容された第1のシールドケース51とリアケース12に収容された第2のシールドケース52とを有する。
 シールドケース50は、典型的には、ステンレス鋼、アルミニウム合金、銅合金等の金属材料であるが、上記金属材料以外の磁性体材料や非磁性体材料によって構成されてもよい。センサ基板30を電磁ノイズから保護するEMC(Electromagnetic Compatibility)対策部品のひとつである。シールドケース50は、上述の材料からなる板金のプレス成形体である。
 第2のシールドケース52は、リアケース12の底面部121に配置される底面シールド部521と、底面シールド部521から収容部20と外枠部111の間まで延在する側面シールド部522と、を有する。
 第1のシールドケース51は、ラバー部材40に係合する係合部511と、係合部511から収容部20と外枠部111との間に延在し側面シールド部522と弾性的に接触する弾性接触部512と、を有する。
 弾性接触部512は、U字部512Aと、弾性保持部512Bとを有する。U字部512Aは、係合部511から前面部112の内周面側まで延在し折り返すU字状に形成され、第1の側面部113の内周面に接触する。弾性保持部512Bは、係合部511から前面部112側に向かって所定の位置まで延在し、上記所定の位置から外枠部111の内周面に向かって弾性的に延び側面シールド部522をU字部512Aと弾性的に保持する。
 上記構成により、側面シールド部522やフロントケース11、リアケース12の寸法ばらつきがあったとしても、そのばらつきをU字部512Aと弾性保持部512Bとで吸収することができるため、所望とする電磁ノイズ遮断効果を得ることができる。
 また、第2のシールドケース52の側面シールド部522は、その先端部であり、U字部512Aと接触する部位に折曲部522Aを有する。これにより、より第1のシールドケース51と第2のシールドケース52とが弾性接触することが可能となるため、より確実に電磁ノイズを処断することができる。
 ここで上述したように接合部115は、Z軸方向に直交する方向(X軸方向)に対向して複数個所に配置される。これにより接合部115はX軸方向に対向する箇所以外に、Y軸方向に対向して接合部115が配置された(レンズ200の全周に接合部115が配置された)場合と比べて光硬化接合層35のコストを抑えることができる。また、全周に設けていないため、第1のシールドケース51をフロントケース11に容易に嵌合することができる。
 図1、図2に示すように、ハウジング10の内部には、センサ基板20の放熱を図るための放熱シート70が配置される。本実施形態では、放熱シート70は、リア基板32側に2箇所配置されるが、放熱シート70の形状や数は特に限られない。
 上述したように、フロントケース11とリアケース12はレーザー溶着法により接合される。本実施形態では、フロントケース11は、所定波長のレーザー光L(図4(B)参照)に対して吸収性を有する合成樹脂材料で構成される。そして、リアケース12は、レーザー光Lに対して透過性を有する合成樹脂材料で構成される。
 レーザー光Lに対して吸収性あるいは透過性を有する樹脂材料としては、例えば、AS(アクリロニトリル・スチレン)樹脂、ABS(アクリロニトリル・ブタジエン・スチレン)樹脂等の汎用樹脂、PC(ポリカーボネート)樹脂、ABSとPCの混合樹脂、PA(ポリアミド)樹脂、PBT(ポリブチレンテレフタレート)樹脂等が用いられる。
 レーザー光Lに対する吸収性あるいは透過性は、例えば、樹脂に混合されるレーザー吸収材の量により調整することができる。吸収材としては、例えばカーボンブラックを用いることができる。吸収材の添加量を調整することで、レーザー光Lの吸収率(あるいは透過率)を任意に調整することができる。なお、レーザー光Lに対して吸収性を有する樹脂材料と透過性を有する樹脂材料は、互いに同種のマトリクス樹脂を用いるのが好ましい。これにより接合部の樹脂間の親和性が高まり、溶着強度が向上する。また、樹脂の厚みを変えることで、透過率の調整をすることができる。樹脂の厚みがより増す(より厚くなる)ことで、樹脂の透過率をより下げることができる。また、樹脂の厚みがより減る(より薄くなる)ことで、樹脂の透過率をより上げることができる。
 本実施形態では、溶着用のレーザー光Lとして、例えば、波長が800nm~1100nmの赤色レーザー光あるいは赤外レーザー光が用いられる。レーザー光Lに対して透過性を有する樹脂材料における上記レーザー光Lの透過率は30%以上であり、より好ましくは、40%以上である。レーザー光Lのスポット径は、例えば、1mmである。
(接合部等の位置関係)
 図4(A)、(B)に示すように、接合部115の接合面115AのZ軸方向における位置は、開口端部114よりもリアケース12側に位置する。つまり、接合面115Aと接合するフロント基板31のZ軸方向における位置は、開口端部114よりもリアケース12側に位置する。また、Z軸方向における光硬化接合層35の位置は、開口端部114よりもリアケース12側に位置する。
 図4(A)のセンサ基板30と接合面115の接合工程で行われる、レンズ200とセンサ素子34の調芯工程について説明する。
 センサモジュール100は、撮像素子34が実装されたセンサ基板30に対してレンズ200の位置を調整し、調芯しながら接合面115Aとフロント基板31とを接合させる。詳しくは、レーザー光源から放出されたレーザー光Lを、レンズ200を通して撮像素子34に入射させる。そのときの光の出射光量を検出し、その光量が最大となるようにフロントケース11またはセンサ基板30の位置を例えば、6軸(X軸、Y軸、Z軸、それぞれの直動3軸、X軸,Y軸、Z軸の回りそれぞれに対して回転3軸)方向に移動させて調整する。
 そこで、撮像素子34の位置が確定した場合、紫外線Uを照射して、センサ基板30の四隅に配置された光硬化接合層35を硬化させる。これにより、センサ基板30とフロントケース11とを仮固定することができる。
 紫外線を照射して樹脂固定を行う際、Z軸方向における接合面115Aの位置が、開口端部114よりもリアケース12側に位置するため、Z軸に略垂直に光硬化接合層35に紫外線を照射することができる。
 図6(B)は、Z軸方向における接合面115Aの位置が、開口端部114よりもフロントケース11側に位置する場合、紫外線を光硬化接合層35に照射する角度を表した図である。仮に、Z軸方向における接合面115Aの位置が、開口端部114よりもフロントケース11側に位置する場合、紫外線を光硬化接合層35に照射する角度が、Z軸方向に対して垂直ではなく斜めから照射されることとなる(図6(B)参照)。
 斜めから照射される理由としては、開口端部114のZ軸方向の位置が接合面115Aよりフロントケース11側の位置にあるために、紫外線を光硬化接合層35に照射しようとすると、斜めから紫外線を照射しなければ、紫外線が光硬化接合層35に照射されないからである。
 しかしながら、斜めからの紫外線照射は、その一部がセンサ基板30や第1の側面部113にさえぎられてしまう。これにより、光硬化接合層35に照射される紫外線の量にムラができることになる。よって、仮固定の強度の分布にムラができてしまい、仮固定が安定せず、高精度な調芯を可能とすることができない。
 よって、上述したように本実施形態では、光硬化接合層35をムラなく紫外線Uによって照射することができるため、調芯後の仮固定がより安定し、高精度な調芯を可能とすることができる。
 また、上述したように光硬化接合層35が、フロント基板31の四隅に設けられているため、より安定した仮固定が可能となる。
 Z軸方向における接合面115Aの位置は、開口端部114よりもリアケース12側に例えば、1.5mm~2mm程度位置したところとなるが、これに限らず、適宜設定可能である。
 またZ軸方向における開口端部114の位置は、後述するセンサ基板30よりもZ軸方向の負方向(レンズ200側)であり、ラバー部材40の位置と同等であることが、好ましい。これにより、高精度な調芯を可能とすることができつつ、フロントケース11とリアケース12との溶着時に、ハウジング10内の体積をより確保することができる。
[センサモジュールの製造方法]
 センサモジュール100の製造に際しては、まずレンズホルダ110を作成する。レンズホルダ110は、レンズ200を収容する収容部20と、収容部20と一体的に成形され収容部20の周囲からZ軸方向に延び開口端部114を有する筒形状の外枠部111と、を有する。次にレンズホルダ110にレンズ200を収容したフロントケース11を作成する。
 上記フロントケース11を作成後、フロントケース11内部にラバー部材40、シールドケース50を順次組み込んだ後、フロント基板31にスペーサ33を組付け、スペーサ33を介してリア基板32を組み付ける。
 続いて、上述したようにフロントケース11とセンサ素子34を有するセンサ基板30の調芯を行った後、紫外線を照射して光硬化接合層35を硬化して、仮固定し、オーブンまたは赤外線等により加熱し、熱硬化樹脂を硬化させる(図4(A)参照)。
 続いて、リア基板32へ放熱シート70を配置し、リアケース12の溶着面123をフロントケース11の開口端部114に当接させる。このとき、センサ基板30は、接続ピン部321を介して外部コネクタ60に電気的に接続される。
 続いて、図4(B)に示すように、リアケース12をフロントケース11に向けて一定の圧力Pで押圧しながら、リアケース12側から開口端部114に向けてレーザー光Lを照射する。フロントケース11は、レーザー光Lに対して吸収性を有する樹脂材料で構成されるとともに、リアケース12は、レーザー光Lに対して透過性を有する樹脂材料で構成される。したがって、レーザー光Lは、リアケース12を透過してフロントケース11の開口端部114に照射される。レーザー光Lは、開口端部114に沿って矩形環状に走査される。レーザー光Lは連続波でもよいし、パルス波であってもよい。
 なお、以上の説明では、レーザー光Lを第1の溶着領域40に沿って全周に照射し走査したがもちろんこれに限られず、第1の溶着領域40に対して部分的に照射されるようにしてもよい。
 本実施形態のセンサモジュール100において、レンズ200を収容する収容部20と外枠部111とが一体的に成形されており、収容部20は、鏡筒部としての機能を有するため、別途鏡筒部材は不要となるだけでなく収容部20と外枠部111との間に防水性を確保するためのOリングが不要となる。これにより、部品点数の削減や小型化を図ることができる。
 さらに、レーザー溶着により、フロントケース11とリアケース12とを溶着しているため、超音波溶接と比較して、溶着時の振動によるレンズ200やセンサ基板30へのダメージや調芯精度の低下を防ぐことができる。
<変形例1>
 図5(A)は、変形例1に係るセンサモジュール100Aの構成を示す縦断面の略図である。以下、第1の実施形態と異なる構成について主に説明し、第1の実施形態と同様の構成については同様の符号を付しその説明を省略または簡略化する。
 本変形例では、リアケース12は、底面部121から延在する第2の側面部122がテーパ状に形成され、第2の側面部122からZ軸方向に延び、フロントケース11の外枠部111の外周部分に当接する第1の当接部122Aを有する。
 本変形例では、センサ基板30と接合部115とを接合させた後、第1の当接部122Aを外枠部111の外周部分に当接させ、第1の当接部122をフロントケース11の内周方向に加圧した状態で、Z軸方向に略垂直な方向からレーザー光Lが第1の当接部122Aに照射される。
 本変形例の構成であっても、第1の実施形態同様に、調芯精度の向上を図りつつ、部品点数の削減や小型化がなされる。
<変形例2>
 図5(B)は、変形例2に係るセンサモジュール100Bの構成を示す縦断面の略図である。以下、第1の実施形態、変形例1と異なる構成について主に説明し、第1の実施形態、変形例1と同様の構成については同様の符号を付しその説明を省略または簡略化する。
 本変形例では、リアケース12の第2の側面部122は、その先端部にリアケース12の内周方向に延びる第2の当接部122Bを有する。また、フロントケース11について、外枠部111はフロントケース11の外周方向へ延在する延在部113Aを有し、延在部113Aは、底面部121と対向する面である開口端部114を有する。
 本変形例では、センサ基板30と接合部115とを接合させた後、第2の当接部122122Bと、開口端部114とは反対側の面とを当接させ、フロントケース11側からレーザー光Lが照射される。
 本変形例の構成であっても、第1の実施形態同様に、調芯精度の向上を図りつつ、部品点数の削減や小型化がなされる。
 <変形例3>
 図6(A)は、変形例3に係るセンサモジュール100Cの構成を示す縦断面の略図である。以下、第1の実施形態、変形例1、2と異なる構成について主に説明し、第1の実施形態、変形例1、2と同様の構成については同様の符号を付しその説明を省略または簡略化する。
 本変形例では、センサモジュール100Cが図示しない車体にハーネス70を介して固定される構成について説明する。まず、フロントケース11は変形例2と同様に、外枠部111は延在部113Aを有し、リアケース12は、第2の当接部122Bを有する。またリアケース12は、第2の側面部122から外周方向へ延在し、ハーネス70に当接する第3の当接部122Cを有する。
 本変形例では、フロントケース11は、所定波長のレーザー光L1に対して吸収性を有する合成樹脂材料で構成される。そして、リアケース12は、レーザー光L1、L2に対して透過性を有する合成樹脂材料で構成される。そして、ハーネス70は、所定波長のレーザー光L2に対して吸収性を有する合成樹脂材料で構成される。
 これにより、フロントケース11側からフロントケース11とリアケース12、リアケース12とハーネス70をレーザー溶着することができるため、センサモジュール100Cの向きを変えずにレーザー溶着を行うことができる。よって、本変形例では、調芯精度の向上を図りつつ、部品点数の削減や小型化がなされるだけでなく、センサモジュール100Cの作業性向上を図ることができる。
 上記第1の実施形態、変形例1~3の各部構成は、一の実施形態にのみ用いられるものではなく、適宜他の実施形態へ適用することは可能である。例えば、変形例2のフロントケース11が有する延在部113Aを第1の実施形態のフロントケース11に適用してもよい。
<他の変形例>
 以上本実施形態では、フロントケース11は、所定波長のレーザー光Lに対して吸収性を有する合成樹脂材料で構成され、リアケース12は、レーザー光Lに対して透過性を有する合成樹脂材料で構成されるが、この限りではない。
 また、本実施形態では、接合部115は、X軸方向に対向してフロントケース11内に複数配置されていたが、それに加えてY軸方向に対向してフロントケース11内に複数配置されてもよい。
 例えば、フロントケース11が、所定波長のレーザー光Lに対して透過性を有する合成樹脂材料で構成され、リアケース12は、レーザー光Lに対して吸収性を有する合成樹脂材料で構成されてもよい。この場合、フロントケース11に外部から光が侵入しないように、カバーを設けてもよい。
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載されるセンサモジュールとして実現されてもよい。
 また、以上の実施形態では、センサモジュール100としてカメラモジュールを例に挙げて説明したが、これに限られない。例えば、センサ素子として、LIDAR(Light Detection and Ranging)やTOF(Time of Flight)等の測距センサが搭載されたセンサモジュールにも、本技術は採用可能である。
<第2の実施形態>
 ここで上述した測距センサが搭載されたセンサモジュールへ本技術を適用した第2の実施形態について説明する。図7は、測距センサが搭載された車載カメラ1を利用した駆動制御装置4000のブロック図である。図8は、図8に示す駆動制御装置4000による駆動制御方法を示すフローチャートである。図9は、駆動制御装置4000が生成する処理画像Gの一例である。
 本発明の一実施形態に係る駆動制御装置4000は、上記の車載カメラ1を用いて自動車Mの車体M100の駆動を制御するためのシステムである。具体的に、駆動制御装置4000は、車載カメラ1によって撮像した画像を用いて、車体M100の駆動力発生機構M11、制動機構M12、ステアリング機構M13などを制御する。車載カメラ1によって撮像された画像は、圧縮符号化処理をされていない高画質な画像データ(raw image data)の状態で、駆動制御装置4000に送られる。
 車載カメラ1は車両の前部(例:フロントグリルの位置)や、後部(例:ナンバープレートの上の位置)、側部(例:右側サイドミラーの位置、左側サイドミラーの位置)に設けられる。
 駆動制御装置4000は、自動車Mに求められる機能に応じた構成とすることができる。具体的に、駆動制御装置4000によって実現可能な機能としては、例えば、運転補助機能や自動運転機能(自動駐車機能を含む)などが挙げられる。以下、運転補助機能及び自動運転機能を実現可能な駆動制御装置4000の構成について説明する。
 (運転補助機能)
 運転補助機能とは、典型的には、衝突回避、衝撃緩和、衝突警告、駐車支援、レーン維持などを含むADAS(Advanced Driver Assistance System)の機能である。駆動制御装置4000は、これらの運転補助機能を実現可能なように構成することができる。
 図7は、運転補助機能を実現可能な駆動制御装置4000の構成を示すブロック図である。駆動制御装置4000は、車載カメラ1と、処理部1000と、情報生成部2000と、駆動制御部3000と、を有する。処理部1000は、画像処理部1100と、認識処理部1200と、算出処理部1300と、を有する。
 駆動制御装置4000の各構成は通信ネットワークにより接続されている。この通信ネットワークは、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)などの任意の規格に準拠した車載通信ネットワークであってよい。
 図8は、図7に示す駆動制御装置4000による駆動制御方法を示すフローチャートである。図8に示す駆動制御方法は、撮像ステップST11、画像処理ステップST12、認識処理ステップST13、物体情報算出ステップST14、駆動制御情報生成ステップST15、及び駆動制御信号出力ステップST16を含む。
 撮像ステップST11では、車載カメラ1が自動車M100の周囲の風景を撮像して画像を生成する。
車載カメラ1は、例えば、センサ基板30に実装された車内通信部によって画像を処理部1000に送信する。
 処理部1000は、典型的にはECU(Electronic Control Unit)で構成され、車載カメラ1が生成した画像を処理する。より詳細に、処理部1000では、画像処理部1100が画像処理ステップST12を行い、認識処理部1200が認識処理ステップST13を行い、算出処理部1300が物体情報算出ステップST14を行う。
 画像処理ステップST12では、画像処理部1100が画像に画像処理を加えて処理画像を生成する。画像処理部1100による画像処理は、典型的には、画像中の物体を認識しやすくするための処理であり、例えば、歪補正、自動露出制御、自動ホワイトバランス調整、ハイダイナミックレンジ合成などである。
 なお、画像処理ステップST12では、画像処理の少なくとも一部を車載カメラ1のセンサ基板30に実装された画像処理部によって行ってもよい。なお、画像処理ステップST12におけるすべての画像処理を車載カメラ1の画像処理部で行う場合には、処理部1000には画像処理部1100が含まれていなくてもよい。
 認識処理ステップST13では、認識処理部1200が処理画像に対して認識処理を行うことで処理画像中の物体を認識する。なお、認識処理部1200が認識する物体としては、3次元のものに限定されず、例えば、車両、歩行者、障害物、信号機、交通標識、道路の車線(レーン)、歩道の縁石などが含まれる。
 物体算出処理ステップST14では、算出処理部1300が処理画像中の物体に関する物体情報を算出する。算出処理部1300が算出する物体情報としては、例えば、物体の形状、物体までの距離、物体の移動方向及び移動速度などが挙げられる。算出処理部1300は、動的な物体情報の算出には、時間的に連続する複数の処理画像を用いる。
 算出処理部1300による物体情報の算出方法の一例として、他の車両MFとの車間距離の算出方法について説明する。図9は、画像処理部111が生成する処理画像Gの一例を示している。図9に示す処理画像Gには、他の車両MFと、走行レーンを規定する2本の車線L1,L2と、が示されている。
 まず、処理画像G中で2本の車線L1,L2が交わる消失点Vを求める。なお、消失点Vは、車線L1,L2によらずに、他の物体から求めてもよい。例えば、算出処理部1300は、歩道の縁石や、複数の処理画像における交通標識などの固定物の移動軌跡などを用いて消失点Vを求めることもできる。
 次に、処理画像の下縁部G1から消失点Vまでの距離D0(画像における上下方向の寸法)と、処理画像の下縁部G1から他の車両MFの位置(車両MFのタイヤが地面と接地している位置)までの距離D1(画像における上下方向の寸法)と、を求める。他の車両MFとの車間距離は、距離D0,D1を用いて求めることができる。例えば、距離D0と距離D1との比率を用いることにより、他の車両MFとの車間距離を算出することができる。
 このように、撮像画像中の対象物の画素位置に基づいて距離算出を行う場合、焦点の合っていない画像を用いて処理を行うと物体の検出位置がずれてしまい、算出される距離の精度が悪くなることがある。焦点が合うようにレンズとイメージセンサの位置関係を調整することが大事である。この位置関係の調整後も、温度変化や振動による位置関係の変化が起きないようにすることが大事である。そのため、今回の発明はこのような画像処理を行うカメラにおいて、特に好適である。
 処理部1000は、ステップST12~ST14で得られた処理画像及び物体情報を含むデータを情報生成部2000に送信する。なお、処理部1000は、上記の構成に限定されず、例えば、画像処理部1100、認識処理部1200、及び算出処理部1300以外の構成を含んでいてもよい。
 駆動制御情報生成ステップST15では、情報生成部2000が自動車Mに必要な駆動内容を含む駆動制御情報を生成する。より詳細に、情報生成部2000は、処理部1000から送信されるデータに基づいて自動車Mに実行させるべき駆動内容を判断し、この駆動内容を含む駆動制御情報を生成する。
 自動車Mの駆動内容としては、例えば、速度の変更(加速、減速)、進行方向の変更などが挙げられる。具体例として、情報生成部2000は、自動車Mと他の車両MFとの車間距離が小さい場合には減速が必要と判断する。また、サイドカメラ画像に基づいて、レーンと自車両の位置関係を算出し、自動車Mがレーンを逸脱しそうな場合にはレーン中央寄りへの進行方向の変更が必要と判断する。例えば、画素単位でレーンのエッジ位置(車両に近い方のエッジ)と、画素単位で車両の位置を撮像画像から検出することにより、レーンと自車両の位置関係の算出を行う。レーンと自車両の間の距離が所定値以下の場合は、レーンに近づきすぎていると判断する。
 情報生成部2000は、駆動制御情報を駆動制御部3000に送信する。なお、情報生成部2000は、駆動制御情報以外の情報を生成してもよい。例えば、情報生成部2000は、処理画像から周囲環境の明るさを検出し、周囲環境が暗い場合に自動車Mの前照灯を点灯させるための照明制御情報を生成してもよい。
 駆動制御信号出力ステップST16では、駆動制御部3000が駆動制御情報に基づいた駆動制御信号の出力を行う。例えば、駆動制御部3000は、駆動力発生機構M11によって自動車Mを加速させ、制動機構M12によって自動車Mを減速させ、ステアリング機構M13によって自動車Mの進行方向を変更させることができる。
 撮像画像中の対象物の画素位置に基づいて距離算出を行う場合、焦点の合っていない画像を用いて処理を行うと物体の検出位置がずれてしまい、算出される距離の精度が悪くなることがある。焦点が合うようにレンズとイメージセンサの位置関係を調整することが大事である。この位置関係の調整後も、温度変化や振動による位置関係の変化が起きないようにすることが大事である。そのため、今回の発明はこのような画像処理を行うカメラにおいて、特に好適である。
<第2の変形例>
 図7では、駆動制御装置4000の構成として、撮像装置1と駆動制御装置4000の機能ブロックは異なる装置として説明した。
しかし、駆動制御装置4000の任意のブロックは撮像装置1内に含まれるようにしてもよい。
 この場合は、図示しない回路と電気的に接続された撮像装置1内のセンサ基板30上に各ブロックの機能をもつ回路が配置される。
例えば、画像処理部1100が撮像装置内に含まれるようにしても良い。この場合は、回路と電気的に接続された撮像装置1内のセンサ基板30上に各ブロックの機能をもつ回路が配置される。
 また、複数のブロックを含む処理部1000が撮像装置内に含まれるようにしても良い。この場合は、回路と電気的に接続された撮像装置1内のセンサ基板30上に各ブロックの機能をもつ回路が配置される。
また、駆動制御装置4000と車載カメラ1の一つを一つの装置としてもよい。この場合は、回路と電気的に接続された撮像装置1内のセンサ基板30上に各ブロックの機能をもつ回路が配置される。
また、車載カメラ1毎に1つの駆動制御装置4000を設けても良いし、複数の車載カメラに対して駆動制御装置4000を1つ設けるようにしてもよい。
 なお、本技術は以下のような構成も採ることができる。
(1)  レンズと、
  前記レンズを収容する筒状の収容部と、前記収容部と一体的に成形され前記収容部の周囲から光軸方向に延び開口端部を有する筒形状の外枠部と、を有するレンズホルダと
 を有する第1のケースと、
 前記開口端部にレーザー溶着される溶着面を有する筒形状の第2のケースと、
 前記光軸上に配置されたセンサ素子と、前記センサ素子を搭載する配線基板とを有し、前記第1のケースと前記第2のケースとの間に収容されるセンサ基板と
 を具備するセンサモジュール。
(2)上記(1)に記載のセンサモジュールであって、
 前記基板は、前記光軸方向において前記開口端部よりも前記第2のケース側に位置する
 センサモジュール。
(3)上記(1)又は(2)に記載のセンサモジュールであって、
 前記第1のケースは、前記外枠部の内側に配置され、前記センサ基板と接合する接合面を有する接合部をさらに有し、
 前記接合面は、前記光軸方向において前記開口端部よりも前記第2のケース側に位置し、
 前記センサ基板は、光硬化接合層を有し、前記光硬化接合層によって前記接合面と接合する
 センサモジュール。
(4)上記(3)に記載のセンサモジュールであって、
 前記接合部は、前記光軸方向に直交する方向に対向して配置される複数の接合部を有する
 センサモジュール。
(5)上記(3)に記載のセンサモジュールであって、
 前記光硬化接合層は、紫外線硬化樹脂である
 センサモジュール。
(6)上記(3)~(5)のいずれか1つに記載のセンサモジュールであって、
 前記センサ基板は、矩形状であり、
 前記光硬化接合層は、前記センサ基板の角部に配置される
 センサモジュール。
(7)上記(1)~(6)のいずれか1つに記載のセンサモジュールであって、
 前記収容部と前記センサ基板との間に挟持され、前記センサ素子の周囲に配置された環状のラバー部材をさらに具備する
 センサモジュール。
(8)上記(1)~(7)のいずれか1つに記載のセンサモジュールであって、
 前記第2のケースの底部に配置され、前記センサ基板と電気的に接続し、前記光軸方向に平行な円筒形状の接続部を有する外部コネクタをさらに具備し、
 前記センサ基板は、前記円筒形状の接続部の内周面に電気的に接続され前記光軸方向に平行な接続ピン部をさらに有する
 センサモジュール。
(9)上記(1)~(8)のいずれか1つに記載のセンサモジュールであって、
 前記第1のケースは、所定波長のレーザー光に対して吸収性を有する合成樹脂材料で構成され、
 前記第2のケースは、前記レーザー光に対して透過性を有する合成樹脂材料で構成される
 センサモジュール。
(10)上記(1)~(9)のいずれか1つに記載のセンサモジュールであって、
 前記センサ素子は、固体撮像素子である
 センサモジュール。
 (11) レンズを収容する筒状の収容部と、前記収容部と一体的に成形され前記収容部の周囲から光軸方向に延びる筒形状の外枠部と、を有するレンズホルダに前記レンズを収容して第1のケースを作製し、
 前記第1のケースと筒形状の第2のケースと形成されるハウジング内に、センサ素子が搭載された配線基板を有するセンサ基板を収容し、
 前記外枠部の開口端部と前記第2のケースの溶着面とをレーザー溶着する
 センサモジュールの製造方法。
 (12)上記(11)に記載のセンサモジュールの製造方法であって、
 前記センサ基板を収容する工程は、前記第1のケースの前記外枠部の内側に配置され前記光軸方向において前記開口端部よりも前記第2のケース側に位置する接合面と前記センサ基板とを光硬化接合層を介して接合し、
 前記レンズの光軸調芯を行い、
 前記光軸方向と直交する方向から光を前記光硬化接合層に照射し硬化させる工程をさらに有する
 センサモジュールの製造方法。
 11…フロントケース(第1のケース)
 12…リアケース(第2のケース)
 20…収容部
 30…センサ基板
 34…撮像素子
 35…光硬化接合層
 40…ラバー部材
 50…シールドケース
 60…外部コネクタ
 100…センサモジュール
 110…レンズホルダ
 111…外枠部
 114…開口端部
 115…接合部
 115A…接合面
 200…レンズ
 114…開口端部
 321…接続ピン部
 L…レーザー光
 U…紫外線

Claims (12)

  1.   レンズと、
      前記レンズを収容する筒状の収容部と、前記収容部と一体的に成形され前記収容部の周囲から光軸方向に延び開口端部を有する筒形状の外枠部と、を有するレンズホルダと
     を有する第1のケースと、
     前記開口端部にレーザー溶着される溶着面を有する筒形状の第2のケースと、
     前記光軸上に配置されたセンサ素子と、前記センサ素子を搭載する配線基板とを有し、前記第1のケースと前記第2のケースとの間に収容されるセンサ基板と
     を具備するセンサモジュール。
  2.  請求項1に記載のセンサモジュールであって、
     前記基板は、前記光軸方向において前記開口端部よりも前記第2のケース側に位置する
     センサモジュール。
  3.  請求項1に記載のセンサモジュールであって、
     前記第1のケースは、前記外枠部の内側に配置され、前記センサ基板と接合する接合面を有する接合部をさらに有し、
     前記接合面は、前記光軸方向において前記開口端部よりも前記第2のケース側に位置し、
     前記センサ基板は、光硬化接合層を有し、前記光硬化接合層によって前記接合面と接合する
     センサモジュール。
  4.  請求項3に記載のセンサモジュールであって、
     前記接合部は、前記光軸方向に直交する方向に対向して配置される複数の接合部を有する
     センサモジュール。
  5.  請求項3に記載のセンサモジュールであって、
     前記光硬化接合層は、紫外線硬化樹脂である
     センサモジュール。
  6.  請求項3に記載のセンサモジュールであって、
     前記センサ基板は、矩形状であり、
     前記光硬化接合層は、前記センサ基板の角部に配置される
     センサモジュール。
  7.  請求項1に記載のセンサモジュールであって、
     前記収容部と前記センサ基板との間に挟持され、前記センサ素子の周囲に配置された環状のラバー部材をさらに具備する
     センサモジュール。
  8.  請求項1に記載のセンサモジュールであって、
     前記第2のケースの底部に配置され、前記センサ基板と電気的に接続し、前記光軸方向に平行な円筒形状の接続部を有する外部コネクタをさらに具備し、
     前記センサ基板は、前記円筒形状の接続部の内周面に電気的に接続され前記光軸方向に平行な接続ピン部をさらに有する
     センサモジュール。
  9.  請求項1に記載のセンサモジュールであって、
     前記第1のケースは、所定波長のレーザー光に対して吸収性を有する合成樹脂材料で構成され、
     前記第2のケースは、前記レーザー光に対して透過性を有する合成樹脂材料で構成される
     センサモジュール。
  10.  請求項1に記載のセンサモジュールであって、
     前記センサ素子は、固体撮像素子である
     センサモジュール。
  11.  レンズを収容する筒状の収容部と、前記収容部と一体的に成形され前記収容部の周囲から光軸方向に延びる筒形状の外枠部と、を有するレンズホルダに前記レンズを収容して第1のケースを作製し、
     前記第1のケースと筒形状の第2のケースと形成されるハウジング内に、センサ素子が搭載された配線基板を有するセンサ基板を収容し、
     前記外枠部の開口端部と前記第2のケースの溶着面とをレーザー溶着する
     センサモジュールの製造方法。
  12.  請求項11に記載のセンサモジュールの製造方法であって、
     前記センサ基板を収容する工程は、前記第1のケースの前記外枠部の内側に配置され前記光軸方向において前記開口端部よりも前記第2のケース側に位置する接合面と前記センサ基板とを光硬化接合層を介して接合し、
     前記レンズの光軸調芯を行い、
     前記光軸方向と直交する方向から光を前記光硬化接合層に照射し硬化させる工程をさらに有する
     センサモジュールの製造方法。
PCT/JP2022/011566 2021-09-01 2022-03-15 センサモジュール及びセンサモジュールの製造方法 WO2023032295A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021142253 2021-09-01
JP2021-142253 2021-09-01

Publications (1)

Publication Number Publication Date
WO2023032295A1 true WO2023032295A1 (ja) 2023-03-09

Family

ID=85412476

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/011566 WO2023032295A1 (ja) 2021-09-01 2022-03-15 センサモジュール及びセンサモジュールの製造方法

Country Status (1)

Country Link
WO (1) WO2023032295A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN210142251U (zh) * 2019-08-20 2020-03-13 宁波为森智能传感技术有限公司 摄像模组
JP2020134584A (ja) * 2019-02-14 2020-08-31 株式会社富士通ゼネラル カメラ
WO2021059965A1 (ja) * 2019-09-26 2021-04-01 京セラ株式会社 撮像装置及び移動体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020134584A (ja) * 2019-02-14 2020-08-31 株式会社富士通ゼネラル カメラ
CN210142251U (zh) * 2019-08-20 2020-03-13 宁波为森智能传感技术有限公司 摄像模组
WO2021059965A1 (ja) * 2019-09-26 2021-04-01 京セラ株式会社 撮像装置及び移動体

Similar Documents

Publication Publication Date Title
US20210302703A1 (en) Camera module
US11150448B2 (en) Vehicle windshield mounted camera module
US10578840B2 (en) Camera module
US11716525B2 (en) Vehicle windshield camera module
US20230194828A1 (en) Vehicular camera with adhesive disposed between non-axially opposed surfaces of the lens barrel and pcb structure
US10175560B2 (en) Camera module
CN105093469A (zh) 用于机动车辆的相机模块和安装相机模块的方法
CN110719386A (zh) 相机模块
CN108696678B (zh) 相机模块
US20240073498A1 (en) Sensor module
US7670064B2 (en) Optical module and optical system
WO2023032295A1 (ja) センサモジュール及びセンサモジュールの製造方法
JP7462620B2 (ja) 半導体パッケージ、半導体パッケージの製造方法、および、電子装置
US20220274528A1 (en) Vehicle-mounted camera and method of manufacturing the same
CN115413331A (zh) 传感器模块和外壳单元
US20230116237A1 (en) Sensor module and method for producing sensor module
WO2022118621A1 (ja) センサモジュール
JP7325202B2 (ja) 撮像装置の製造方法及び撮像装置
WO2021161919A1 (ja) センサモジュール
JP6896119B1 (ja) 車載カメラ
US20240155214A1 (en) Vehicular camera assembly with thermally conductive adhesive interface
US20230100251A1 (en) Camera module
JP2022137908A (ja) 撮像装置
WO2019004006A1 (ja) 撮像装置、撮像装置の製造方法、及び移動体
JP2020145489A (ja) 撮像装置、撮像装置の製造方法、及び移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22863885

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE