WO2024075398A1 - カメラモジュール、および、撮像装置 - Google Patents

カメラモジュール、および、撮像装置 Download PDF

Info

Publication number
WO2024075398A1
WO2024075398A1 PCT/JP2023/029326 JP2023029326W WO2024075398A1 WO 2024075398 A1 WO2024075398 A1 WO 2024075398A1 JP 2023029326 W JP2023029326 W JP 2023029326W WO 2024075398 A1 WO2024075398 A1 WO 2024075398A1
Authority
WO
WIPO (PCT)
Prior art keywords
substrate
lens group
camera module
actuator
rigid
Prior art date
Application number
PCT/JP2023/029326
Other languages
English (en)
French (fr)
Inventor
孝平 今吉
孝行 國光
彰洋 幸重
恵樹 笠原
隆浩 鶴田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2024075398A1 publication Critical patent/WO2024075398A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K1/00Printed circuits
    • H05K1/02Details

Definitions

  • This technology relates to a camera module. More specifically, it relates to a camera module that performs image stabilization, and an imaging device.
  • the addition of a flexible printed circuit board improves correction performance.
  • the area of the optical unit when viewed from the optical axis direction increases by the amount of the flexible printed circuit board, which causes a problem in that the size of the imaging device equipped with the unit increases.
  • This technology was developed in light of these circumstances, and aims to reduce the size of imaging devices that perform rotation correction.
  • a first aspect of the technology is a camera module that includes a lens group, a translation actuator that translates the lens group, a rotation actuator that rotates the lens group, a rigid-flexible substrate, a portion of which deforms in response to the rotation of the lens group, and a mounting substrate on one of whose two sides the translation actuator is provided and on the other the rigid-flexible substrate is provided. This has the effect of making the camera module smaller.
  • the rotary actuator may include a shape memory alloy. This has the effect of increasing the driving force of the rotary actuator.
  • the rigid-flexible substrate may include an outer frame that surrounds the mounting substrate, an inner frame that is connected to the mounting substrate, and a spring component that connects the outer frame and the inner frame. This provides the effect of ensuring that the thickness of the camera module remains almost unchanged.
  • the mounting substrate may be an organic substrate. This has the effect of miniaturizing the camera module using the organic substrate.
  • the organic substrate may further include a semiconductor chip flip-chip mounted thereon. This provides the effect of miniaturizing the camera module in which the semiconductor chip is flip-chip mounted.
  • the organic substrate may further include a semiconductor chip mounted by wire bonding. This has the effect of eliminating the need for through holes in the organic substrate.
  • a CSP Chip Size Package
  • This has the effect of miniaturizing the camera module that uses the CSP.
  • the mounting substrate may be a ceramic substrate. This has the effect of improving the performance of the camera module.
  • the mounting substrate may be a hybrid substrate in which an organic substrate and a ceramic substrate are laminated. This has the effect of improving the performance of the camera module.
  • the translation actuator may translate the lens group along at least one of three mutually orthogonal axes. This provides the effect of correcting the position of the lens group in three axial directions.
  • the rotation actuator may rotate the lens group around at least one of three mutually orthogonal axes. This provides the effect of correcting the position of the lens group in the rotational direction.
  • a second aspect of the present technology is an imaging device that includes a lens group, a translation actuator that translates the lens group, a rotation actuator that rotates the lens group, a rigid-flexible substrate that is partially deformed in response to the rotation of the lens group, a mounting board on one of whose two sides the translation actuator is provided and the rigid-flexible substrate is provided on the other side, and a semiconductor chip that photoelectrically converts incident light from the lens group to generate image data. This has the effect of miniaturizing the imaging device.
  • 1 is a block diagram showing an example of a configuration of an imaging device according to a first embodiment of the present technology
  • 1 is a block diagram showing a configuration example of an optical unit according to a first embodiment of the present technology
  • 1 is an example of a cross-sectional view of an optical unit according to a first embodiment of the present technology.
  • 1 is an example of a plan view of a flexible substrate before deformation according to a first embodiment of the present technology
  • 1 is an example of an enlarged view of a spring component according to a first embodiment of the present technology
  • 1 is an example of a plan view of a flexible substrate after deformation according to a first embodiment of the present technology
  • 13 is an example of a cross-sectional view of an optical unit according to a second embodiment of the present technology.
  • FIG. 13 is an example of a cross-sectional view of an optical unit according to a third embodiment of the present technology. 13 is an example of a cross-sectional view of an optical unit according to a fourth embodiment of the present technology. An example of a cross-sectional view of an optical unit and CSP (Chip Size Package) in a fifth embodiment of the present technology.
  • 1 is a block diagram showing a schematic configuration example of a vehicle control system;
  • FIG. 4 is an explanatory diagram showing an example of an installation position of an imaging unit.
  • First embodiment (example in which a translation actuator, an organic substrate, and a rigid-flexible substrate are laminated) 2.
  • Second embodiment (example in which a translation actuator, a ceramic substrate, and a rigid-flexible substrate are laminated) 3.
  • Third embodiment (example in which a translation actuator, a hybrid substrate, and a rigid-flexible substrate are stacked) 4.
  • Fourth embodiment (an example in which a translation actuator, an organic substrate, and a rigid-flexible substrate are laminated and wire-bonded) 5.
  • Fifth embodiment (an example in which a translation actuator, an organic substrate, and a rigid-flexible substrate are laminated and a CSP is mounted) 6. Examples of applications to moving objects
  • First embodiment [Configuration example of imaging device] 1 is a block diagram showing an example of a configuration of an imaging device 100 according to an embodiment of the present technology.
  • the imaging device 100 is a device for capturing image data, and includes an optical unit 200.
  • the imaging device 100 further includes a DSP (Digital Signal Processing) circuit 120, a display unit 130, an operation unit 140, a bus 150, a frame memory 160, a storage unit 170, and a power supply unit 180.
  • a small device such as a smartphone is assumed.
  • the imaging device 100 may be a digital camera such as a digital still camera, an in-vehicle camera, or the like.
  • the optical unit 200 generates image data through photoelectric conversion. This optical unit 200 supplies the generated image data to the DSP circuit 120.
  • the DSP circuit 120 performs a predetermined signal processing on the image data from the optical unit 200. This DSP circuit 120 outputs the processed image data to the frame memory 160 or the like via the bus 150.
  • the DSP circuit 120 can also be disposed within the optical unit 200.
  • the display unit 130 displays image data.
  • the display unit 130 may be, for example, a liquid crystal panel or an organic EL (Electro Luminescence) panel.
  • the operation unit 140 generates an operation signal in accordance with a user's operation.
  • the bus 150 is a common path for the DSP circuit 120, the display unit 130, the operation unit 140, the frame memory 160, the storage unit 170, and the power supply unit 180 to exchange data with each other.
  • the frame memory 160 holds image data.
  • the storage unit 170 stores various data such as image data.
  • the power supply unit 180 supplies power to the optical unit 200, the DSP circuit 120, the display unit 130, etc.
  • FIG. 2 is a block diagram showing a configuration example of an optical unit 200 according to the first embodiment of the present technology.
  • the optical unit 200 includes a camera module 205 and a rotation control unit 260.
  • a lens group 211 In the camera module 205, a lens group 211, a sensor chip 220, a six-axis sensor 231, a translation control unit 240, a translation actuator 250, and a rotation actuator 270 are arranged. Note that configurations other than these members are omitted in the figure.
  • the lens group 211 focuses the incident light and guides it to the sensor chip 220.
  • This lens group 211 is composed of one or more lenses.
  • the sensor chip 220 photoelectrically converts the incident light from the lens group 211 to generate image data.
  • a CIS CMOS Image Sensor
  • CCD Charge Coupled Device
  • the six-axis sensor 231 measures acceleration in each of three mutually orthogonal axial directions and angular velocity around each axis.
  • an IMU Inertial Measurement Unit
  • the six-axis sensor 231 supplies acceleration measurement values to the translation control unit 240 and angular velocity measurement values to the rotation control unit 260.
  • the translation control unit 240 controls the translation actuator 250. Based on the measurements of the six-axis sensor 231, the translation control unit 240 calculates the amount of correction for each of the three translation directions parallel to each of the three mutually orthogonal axes. The translation control unit 240 then controls the translation actuator 250 using a control signal to translate the lens group 211 by the amount of the correction along at least one of the three axes. If the correction amount is other than "0" in one direction, the lens group 211 is translated only in that direction. If the correction amount is other than "0" in two or three directions, the lens group 211 is translated in each of the directions.
  • the translation actuator 250 translates the lens group 211 along at least one of the three axes under the control of the translation control unit 240.
  • the rotation control unit 260 controls the rotation actuator 270. Based on the measurement values of the six-axis sensor 231, the rotation control unit 260 calculates the amount of correction for each of the three rotation directions around each of the three mutually orthogonal axes. Then, the rotation control unit 260 controls the rotation actuator 270 using a control signal to rotate the lens group 211 around at least one of the three axes by the amount of the correction.
  • the rotation actuator 270 rotates the lens group 211 around at least one of the three axes under the control of the rotation control unit 260.
  • an SMA (Shape Memory Alloys) actuator is used as the rotation actuator 270.
  • the rotation actuator 270 also includes a drive unit 271 and a shape memory wire 272.
  • the shape memory wire 272 is a wire-like member made of a shape memory alloy.
  • the drive unit 271 passes electricity through the shape memory wire 272 to cause it to deform.
  • six-axis correction can be achieved within the camera module 205 by performing translational correction along each of the three axes and rotational correction around each of the three axes.
  • FIG. 3 is an example of a cross-sectional view of the optical unit 200 in the first embodiment of the present technology.
  • a camera module 205 is disposed within this optical unit 200.
  • the camera module 205 includes a lens group 211, an IRCF (IR Cut Filter) 212, a sensor chip 220, and an organic substrate 230.
  • the camera module 205 further includes a translation control unit 240, a translation actuator 250, a drive unit 271, a rigid flexible substrate 283, a spacer 281, a spacer 282, and a fender 291.
  • a base 292, a rotation control unit 260, a module flexible substrate 293, and a connector 294 are disposed outside the camera module 205.
  • the optical axis of the lens group 211 is referred to as the "Z-axis.”
  • a specific axis perpendicular to the Z-axis is referred to as the "X-axis”
  • an axis perpendicular to the X-axis and Z-axis is referred to as the "Y-axis.”
  • the Z-axis direction the direction from the sensor chip 220 to the lens group 211 is referred to as the "up" direction. This figure is a cross-sectional view seen from the Y-axis direction.
  • the IRCF 212 removes infrared light components from the light incident from the lens group 211.
  • the IRCF 212 is disposed as necessary. Also, an optical filter other than the IRCF 212 can be disposed.
  • a translation control unit 240 and a predetermined number of solder-mounted components 232 are mounted on the upper surface of the organic substrate 230.
  • the aforementioned six-axis sensor 231 is mounted as the solder-mounted components 232.
  • a translation actuator 250 is connected to the upper surface of the organic substrate 230 via a spacer 281.
  • the side of the lens group 211 is attached to the translation actuator 250.
  • An IRCF 212 is disposed on the upper surface of the organic substrate 230 directly below the lens group 211.
  • the organic substrate 230 has a through-hole penetrating the substrate directly below the lens group 211 and the IRCF 212.
  • the sensor chip 220 is flip-chip mounted on the underside of the organic substrate 230 around the through-hole.
  • a plurality of pixels are arranged on the upper surface of the sensor chip 220. Each pixel receives light incident through the lens group 211, the IRCF 212, and the through-hole.
  • the sensor chip 220 is an example of a semiconductor chip as described in the claims.
  • a fender 291 and an extremely thin rigid-flexible substrate 283 are further provided on the lower surface of the organic substrate 230.
  • This rigid-flexible substrate 283 includes an outer frame 284, a spring component 285, and an inner frame 286.
  • the inner frame 286 is a frame-shaped rigid substrate, and the outer periphery of the frame is smaller than the outer periphery of the organic substrate 230 when viewed from the Z-axis direction.
  • This inner frame 286 is attached to the lower surface of the organic substrate 230.
  • the outer frame 284 is a frame-shaped rigid substrate, and the inner periphery of the frame is larger than the outer periphery of the organic substrate 230 when viewed from the Z-axis direction.
  • This outer frame 284 surrounds the organic substrate 230, and the driving unit 271 is electrically connected to the upper surface thereof via a spacer 282.
  • the spring component 274 is a flexible member that connects the inner frame 2286 and the outer frame 284.
  • the outer frame 284 is disposed within the base 292.
  • the rigid-flexible substrate 283 is a conductive substrate, and the organic substrate 230 and the actuator can transmit signals via the rigid-flexible substrate 283.
  • the organic substrate 230 is an example of a mounting substrate as described in the claims.
  • the organic substrate 230 is not limited to a single substrate, and multiple organic substrates may be stacked together.
  • module flexible board 293 One end of the module flexible board 293 is connected to the outer frame 284 of the rigid flexible board 283, and the other end is pulled out to the outside of the base 292.
  • the module flexible board 293 is provided with a rotation control unit 260 and a connector 294.
  • the connector 294 is disposed on the outside of the base 292. The captured image data is output to the outside via the connector 294.
  • the translation control unit 240 on the upper surface of the organic substrate 230 and arranging the rotation control unit 260 on the modular flexible substrate 293, the transmission distance between each control unit and the corresponding actuator can be minimized. This makes it possible to reduce power loss.
  • the translation actuator 250 is electrically connected to the organic substrate 230, and translates the lens group 211 along at least one of the X-axis, Y-axis, and Z-axis according to the control of the translation control unit 240 on the substrate.
  • the drive actuator 250 includes a shape memory wire 252 and a drive unit 251 that deforms the shape memory wire 252.
  • the shape memory wire 272 is deformed by the power supply from the drive unit 271, and rotates the lens group 211 around at least one of the X-axis, Y-axis, and Z-axis.
  • one of the X-axis and Y-axis of the three rotation axes corresponds to the pitch axis, and the other corresponds to the yaw axis.
  • the Z-axis (i.e., the optical axis) corresponds to the roll axis. Because the spring parts 285 of the rigid-flexible substrate 283 deform in response to the rotation, the outer rotation actuator 270 can rotate the lens group 211 using the outer frame 284 of the rigid-flexible substrate 283 as a base.
  • a configuration is considered in which the rigid-flexible substrate 283 is placed outside the camera module 205 and next to the camera module 205 when viewed in the Z-axis direction.
  • the camera module 205 alone cannot achieve six-axis correction, and the area of the optical unit 200 when viewed in the Z-axis direction increases by the amount of the flexible substrate, making it difficult to miniaturize the imaging device 100.
  • the camera module 205 in the figure has a rigid flexible substrate 283 disposed therein.
  • the translation actuator 250 is provided on the upper surface of the organic substrate 230
  • the rigid flexible substrate 283 is provided on the lower surface of the organic substrate 230.
  • the translation actuator 250, the organic substrate 230, and the rigid flexible substrate 283 are stacked. This allows the camera module 205 alone to achieve six-axis correction, and the area when viewed from the Z-axis direction is smaller than that of the comparative example.
  • the rigid flexible substrate 283 is extremely thin, the thickness of the camera module 205 remains almost unchanged. This allows the camera module 205, the optical unit 200, and the imaging device 100 to be miniaturized.
  • FIG. 4 is an example of a plan view of the rigid-flexible substrate 283 before deformation in the first embodiment of the present technology.
  • the figure shows an example of the rigid-flexible substrate 283 as viewed from the Z-axis direction.
  • an inner frame 286 having a smaller size is disposed inside an outer frame 284.
  • the inner frame 286 is connected to the lower surface of the organic substrate 230.
  • the outer frame 284 and the inner frame 286 are connected by four spring parts 285.
  • FIG. 5 is an example of an enlarged view of spring part 285 in the first embodiment of the present technology.
  • spring part 285 includes multiple harnesses such as harnesses 285-1 and 285-2. Each harness is made of multiple wires bundled together.
  • multiple independent wires may be wired within the spring part 285.
  • a harness and independent wires may be mixed within the spring part 285.
  • FIG. 6 is an example of a plan view of the rigid-flexible substrate 285 after deformation in the first embodiment of the present technology.
  • the spring part 285 deforms in response to the rotation by the rotation actuator 270, and the inner frame 286 rotates around the Z-axis (roll axis).
  • the spring part 285 can also deform in response to rotation around the X-axis or Y-axis (pitch axis or yaw axis).
  • the maximum rotation angle that can be rotated around each of the X-axis, Y-axis, and Z-axis is, for example, 10 degrees for each axis.
  • a VCM (Voice Coil Motor) actuator can be used to drive the lens group 211, but VCM actuators are limited in the weight they can drive, and may not be able to move lenses compatible with sensors of 1 inch or larger.
  • VCM actuators By using an SMA actuator, it becomes possible to drive lenses weighing 10 grams or more, and it becomes possible to drive lenses of a size compatible with sensors of 1 inch or larger. Furthermore, when using an SMA actuator, the driving force is large, making it possible to use glass lenses as well as plastic lenses.
  • the translation actuator 250 is provided on the upper surface of the organic substrate 230, and the rigid-flexible substrate 283 is provided on the lower surface, so that the area of the camera module 205 can be reduced, and the imaging device 100 can be made more compact.
  • the organic substrate 230 is used as a substrate for mounting the sensor chip 220 and the like, but the mounting substrate is not limited to the organic substrate 230.
  • the optical unit 200 in this second embodiment differs from the first embodiment in that it is mounted on a ceramic substrate.
  • FIG. 7 is an example of a cross-sectional view of an optical unit 200 in a second embodiment of the present technology.
  • the optical unit 200 in the second embodiment differs from the first embodiment in that it includes a ceramic substrate 235 instead of an organic substrate 230.
  • the sensor chip 220 is flip-chip mounted on the ceramic substrate 235, as in the first embodiment.
  • the ceramic substrate 235 is not limited to one piece, and multiple ceramic substrates may be stacked together.
  • the ceramic substrate 235 has excellent properties such as high thermal conductivity, low thermal expansion coefficient, low dielectric constant, and chemical resistance, so the use of such a substrate can improve the performance of the camera module 205.
  • the performance of the camera module can be improved by using the ceramic substrate 235.
  • the organic substrate 230 is used as a substrate for mounting the sensor chip 220 and the like, but the mounting substrate is not limited to the organic substrate 230.
  • the optical unit 200 in this third embodiment differs from the first embodiment in that it is mounted on a hybrid substrate.
  • FIG. 8 is an example of a cross-sectional view of an optical unit 200 in a third embodiment of the present technology.
  • the optical unit 200 in this third embodiment differs from the first embodiment in that it includes a hybrid substrate instead of an organic substrate 230.
  • the hybrid substrate is formed by laminating an organic substrate 230 and a ceramic substrate 235.
  • the sensor chip 220 is flip-chip mounted on the ceramic substrate 235 of the hybrid substrate, as in the first embodiment.
  • the performance of the camera module 205 can be improved by using a hybrid substrate.
  • the sensor chip 220 is flip-chip mounted, but this chip can also be mounted by wire bonding.
  • the optical unit 200 in this fourth embodiment differs from the first embodiment in that the sensor chip 220 is connected by wire bonding.
  • FIG. 9 is an example of a cross-sectional view of an optical unit 200 in a fourth embodiment of the present technology.
  • the optical unit 200 in this fourth embodiment differs from the first embodiment in that the sensor chip 220 is electrically connected to the upper surface of the organic substrate 230 by a wire 233.
  • the sensor chip 220 is connected by wire bonding, eliminating the need to provide a through hole in the organic substrate 230.
  • the sensor chip 220 is mounted on the organic substrate 230, but a CSP can be mounted instead.
  • the optical unit 200 of the fifth embodiment differs from the first embodiment in that a CSP is mounted.
  • FIG. 10 is an example of a cross-sectional view of the optical unit 200 and the CSP 225 in the fifth embodiment of the present technology.
  • a shows a cross-sectional view of the optical unit 200
  • b shows a cross-sectional view of the CSP 225.
  • the optical unit 200 of the fifth embodiment differs from the first embodiment in that the CSP 225 is mounted on the underside of the organic substrate 230.
  • the CSP 225 includes a sensor chip 220 and a conductive substrate 221. The sensor chip 220 and the organic substrate 230 are electrically connected via the conductive substrate 221.
  • the camera module 205 equipped with the CSP 225 can be made smaller.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be realized as a device mounted on any type of moving body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility device, an airplane, a drone, a ship, or a robot.
  • FIG. 11 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile object control system to which the technology disclosed herein can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050.
  • Also shown as functional components of the integrated control unit 12050 are a microcomputer 12051, an audio/video output unit 12052, and an in-vehicle network I/F (interface) 12053.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 functions as a control device for a drive force generating device for generating the drive force of the vehicle, such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, a steering mechanism for adjusting the steering angle of the vehicle, and a braking device for generating a braking force for the vehicle.
  • the body system control unit 12020 controls the operation of various devices installed in the vehicle body according to various programs.
  • the body system control unit 12020 functions as a control device for a keyless entry system, a smart key system, a power window device, or various lamps such as headlamps, tail lamps, brake lamps, turn signals, and fog lamps.
  • radio waves or signals from various switches transmitted from a portable device that replaces a key can be input to the body system control unit 12020.
  • the body system control unit 12020 accepts the input of these radio waves or signals and controls the vehicle's door lock device, power window device, lamps, etc.
  • the outside-vehicle information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image capturing unit 12031 is connected to the outside-vehicle information detection unit 12030.
  • the outside-vehicle information detection unit 12030 causes the image capturing unit 12031 to capture images outside the vehicle and receives the captured images.
  • the outside-vehicle information detection unit 12030 may perform object detection processing or distance detection processing for people, cars, obstacles, signs, or characters on the road surface based on the received images.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of light received.
  • the imaging unit 12031 can output the electrical signal as an image, or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light, or may be invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects information inside the vehicle.
  • a driver state detection unit 12041 that detects the state of the driver is connected.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 may calculate the driver's degree of fatigue or concentration based on the detection information input from the driver state detection unit 12041, or may determine whether the driver is dozing off.
  • the microcomputer 12051 can calculate control target values for the driving force generating device, steering mechanism, or braking device based on information inside and outside the vehicle acquired by the outside vehicle information detection unit 12030 or the inside vehicle information detection unit 12040, and output control commands to the drive system control unit 12010.
  • the microcomputer 12051 can perform cooperative control aimed at realizing the functions of an Advanced Driver Assistance System (ADAS), including vehicle collision avoidance or impact mitigation, following driving based on the distance between vehicles, maintaining vehicle speed, vehicle collision warning, or vehicle lane departure warning.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 can also control the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the outside vehicle information detection unit 12030 or the inside vehicle information detection unit 12040, thereby performing cooperative control aimed at automatic driving, which allows the vehicle to travel autonomously without relying on the driver's operation.
  • the microcomputer 12051 can also output control commands to the body system control unit 12020 based on information outside the vehicle acquired by the outside-vehicle information detection unit 12030. For example, the microcomputer 12051 can control the headlamps according to the position of a preceding vehicle or an oncoming vehicle detected by the outside-vehicle information detection unit 12030, and perform cooperative control aimed at preventing glare, such as switching high beams to low beams.
  • the audio/image output unit 12052 transmits at least one output signal of audio and image to an output device capable of visually or audibly notifying the occupants of the vehicle or the outside of the vehicle of information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 12 shows an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at the front nose, side mirrors, rear bumper, back door, and upper part of the windshield inside the vehicle cabin of the vehicle 12100.
  • the imaging unit 12101 provided at the front nose and the imaging unit 12105 provided at the upper part of the windshield inside the vehicle cabin mainly acquire images of the front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided at the side mirrors mainly acquire images of the sides of the vehicle 12100.
  • the imaging unit 12104 provided at the rear bumper or back door mainly acquires images of the rear of the vehicle 12100.
  • the imaging unit 12105 provided at the upper part of the windshield inside the vehicle cabin is mainly used to detect leading vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, etc.
  • FIG. 12 shows an example of the imaging ranges of the imaging units 12101 to 12104.
  • Imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • imaging range 12114 indicates the imaging range of the imaging unit 12104 provided on the rear bumper or back door.
  • an overhead image of the vehicle 12100 viewed from above is obtained by superimposing the image data captured by the imaging units 12101 to 12104.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera consisting of multiple imaging elements, or an imaging element having pixels for detecting phase differences.
  • the microcomputer 12051 can obtain the distance to each solid object within the imaging ranges 12111 to 12114 and the change in this distance over time (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104, and can extract as a preceding vehicle, in particular, the closest solid object on the path of the vehicle 12100 that is traveling in approximately the same direction as the vehicle 12100 at a predetermined speed (e.g., 0 km/h or faster). Furthermore, the microcomputer 12051 can set the inter-vehicle distance that should be maintained in advance in front of the preceding vehicle, and perform automatic braking control (including follow-up stop control) and automatic acceleration control (including follow-up start control). In this way, cooperative control can be performed for the purpose of automatic driving, which runs autonomously without relying on the driver's operation.
  • automatic braking control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 classifies and extracts three-dimensional object data on three-dimensional objects, such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects, based on the distance information obtained from the imaging units 12101 to 12104, and can use the data to automatically avoid obstacles.
  • the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see.
  • the microcomputer 12051 determines the collision risk, which indicates the risk of collision with each obstacle, and when the collision risk is equal to or exceeds a set value and there is a possibility of a collision, it can provide driving assistance for collision avoidance by outputting an alarm to the driver via the audio speaker 12061 or the display unit 12062, or by forcibly decelerating or steering the vehicle to avoid a collision via the drive system control unit 12010.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104. The recognition of such a pedestrian is performed, for example, by a procedure of extracting feature points in the captured image of the imaging units 12101 to 12104 as infrared cameras, and a procedure of performing pattern matching processing on a series of feature points that indicate the contour of an object to determine whether or not it is a pedestrian.
  • the audio/image output unit 12052 controls the display unit 12062 to superimpose a rectangular contour line for emphasis on the recognized pedestrian.
  • the audio/image output unit 12052 may also control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology disclosed herein can be applied to, for example, the imaging unit 12031.
  • the imaging device 100 in FIG. 1 can be applied to the imaging unit 12031.
  • the size of the imaging unit 12031 can be reduced, thereby providing more space for mounting the imaging unit 12031.
  • the present technology can also be configured as follows. (1) a lens group; a translation actuator for translating the lens group; a rotation actuator that rotates the lens group; a rigid-flexible substrate, a portion of which is deformed in response to the rotation of the lens group; a mounting board having the translation actuator on one of its two surfaces and the rigid-flexible board on the other of its two surfaces; (2) The camera module according to (1), wherein the rotary actuator includes a shape memory alloy. (3) The rigid-flexible substrate is An outer frame surrounding the mounting substrate; An inner frame connected to the mounting board; The camera module according to (2), further comprising a spring component that connects the outer frame and the inner frame. (4) The camera module according to any one of (1) to (3), wherein the mounting substrate is an organic substrate.
  • the camera module according to (4) further comprising a semiconductor chip flip-chip mounted on the organic substrate.
  • the camera module according to (4) further comprising a semiconductor chip mounted on the organic substrate by wire bonding.
  • the camera module according to (1) further comprising a CSP (Chip Size Package) connected to the mounting substrate.
  • the camera module according to (1) wherein the mounting substrate is a ceramic substrate.
  • the camera module according to (1), wherein the mounting substrate is a hybrid substrate in which an organic substrate and a ceramic substrate are laminated.
  • Imaging device 120 DSP circuit 130 Display unit 140 Operation unit 150 Bus 160 Frame memory 170 Storage unit 180 Power supply unit 200 Optical unit 205 Camera module 211 Lens group 212 IRCF 220 Sensor chip 221 Conductive substrate 225 CSP 230 Organic substrate 231 Six-axis sensor 232 Solder-mounted component 233 Wire 235 Ceramic substrate 240 Translation control section 250 Translation actuator 251, 271 Drive section 252, 272 Shape memory wire 260 Rotation control section 270 Rotation actuator 281, 282 Spacer 283 Rigid flexible board 284 Outer frame 285 Spring part 285-1, 285-2 Harness 286 Inner frame 291 Fender 292 Base 293 Module flexible board 294 Connector 12031 Imaging unit

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Studio Devices (AREA)

Abstract

回転補正を行う撮像装置において、装置を小型化する。 カメラモジュールは、レンズ群、並進アクチュエータ、回転アクチュエータ、および、実装基板を備える。このカメラモジュールにおいて、並進アクチュエータは、レンズ群を平行移動させる。回転アクチュエータは、レンズ群を回転させる。リジッドフレキブル基板の一部は、レンズ群の回転に追従して変形する。また、実装基板の両面のうち一方に並進アクチュエータが設けられ、他方にリジッドフレキシブル基板が設けられる。

Description

カメラモジュール、および、撮像装置
 本技術は、カメラモジュールに関する。詳しくは、手振れ補正を行うカメラモジュール、および、撮像装置に関する。
 従来より、スマートフォンなどの小型の撮像装置においては、互いに直交する3軸のそれぞれに平行な並進方向に沿って補正する手振れ補正機構がよく用いられている。ただし、3軸の手振れ補正機構では、無限遠にピントを合わせて撮像する際などに、補正性能が不足することがある。この補正性能の不足を解消するためには、さらにピッチ、ヨーおよびロール方向の回転補正機構が必要になる。そこで、回転補正を行うフレキシブルプリント基板を、光軸方向から見てカメラモジュールの隣に配置した光学ユニットが提案されている(例えば、特許文献1参照。)。
特開2021-139988号公報
 上述の従来技術では、フレキシブルプリント基板の追加により、補正性能の向上を図っている。しかしながら、上述の撮像装置では、光軸方向から見た際の光学ユニットの面積がフレキシブルプリント基板の分だけ増大し、そのユニットを搭載する撮像装置のサイズが大きくなってしまうという問題がある。
 本技術はこのような状況に鑑みて生み出されたものであり、回転補正を行う撮像装置において、装置を小型化することを目的とする。
 本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、レンズ群と、上記レンズ群を平行移動させる並進アクチュエータと、上記レンズ群を回転させる回転アクチュエータと、上記レンズ群の回転に追従して一部が変形するリジッドフレキシブル基板と、両面のうち一方に上記並進アクチュエータが設けられ、他方に上記リジッドフレキシブル基板が設けられた実装基板とを具備するカメラモジュールである。これにより、カメラモジュールが小型化するという作用をもたらす。
 また、この第1の側面において、上記回転アクチュエータは、形状記憶合金を含むものであってもよい。これにより、回転アクチュエータの駆動力が大きくなるという作用をもたらす。
 また、この第1の側面において、上記リジッドフレキシブル基板は、上記実装基板を囲む外枠と、上記実装基板に接続される内枠と、上記外枠と上記内枠とを接続するバネ部品とを備えてもよい。これにより、カメラモジュールの厚みが殆ど変わらないという作用をもたらす。
 また、この第1の側面において、上記実装基板は、有機基板であってもよい。これにより、有機基板を用いるカメラモジュールが小型化するという作用をもたらす。
 また、この第1の側面において、上記有機基板にフリップチップ実装された半導体チップをさらに具備してもよい。これにより、半導体チップがフリップチップ実装されたカメラモジュールが小型化するという作用をもたらす。
 また、この第1の側面において、上記有機基板にワイヤボンディングにより実装された半導体チップをさらに具備してもよい。これにより、有機基板に貫通孔が不要になるという作用をもたらす。
 また、この第1の側面において、上記実装基板に接続されたCSP(Chip Size Package)をさらに具備してもよい。これにより、CSPを用いるカメラモジュールが小型化するという作用をもたらす。
 また、この第1の側面において、上記実装基板は、セラミック基板であってもよい。これにより、カメラモジュールの性能が向上するという作用をもたらす。
 また、この第1の側面において、上記実装基板は、有機基板およびセラミック基板を積層したハイブリッド基板であってもよい。これにより、カメラモジュールの性能が向上するという作用をもたらす。
 また、この第1の側面において、上記並進アクチュエータは、互いに直交する3軸の少なくとも1つに沿って上記レンズ群を並進させてもよい。これにより、レンズ群の位置が3軸方向に補正されるという作用をもたらす。
 また、この第1の側面において、上記回転アクチュエータは、互いに直交する3軸の少なくとも1つの軸周りに上記レンズ群を回転させてもよい。これにより、レンズ群の位置が回転方向に補正されるという作用をもたらす。
 また、本技術の第2の側面は、レンズ群と、上記レンズ群を平行移動させる並進アクチュエータと、上記レンズ群を回転させる回転アクチュエータと、上記レンズ群の回転に追従して一部が変形するリジッドフレキシブル基板と、両面のうち一方に上記並進アクチュエータが設けられ、他方に上記リジッドフレキシブル基板が設けられた実装基板と、上記レンズ群からの入射光を光電変換して画像データを生成する半導体チップとを具備する撮像装置である。これにより、撮像装置が小型化するという作用をもたらす。
本技術の第1の実施の形態における撮像装置の一構成例を示すブロック図である。 本技術の第1の実施の形態における光学ユニットの一構成例を示すブロック図である。 本技術の第1の実施の形態における光学ユニットの断面図の一例である。 本技術の第1の実施の形態における変形前のフレキシブル基板の平面図の一例である。 本技術の第1の実施の形態におけるバネ部品の拡大図の一例である。 本技術の第1の実施の形態における変形後のフレキシブル基板の平面図の一例である。 本技術の第2の実施の形態における光学ユニットの断面図の一例である。 本技術の第3の実施の形態における光学ユニットの断面図の一例である。 本技術の第4の実施の形態における光学ユニットの断面図の一例である。 本技術の第5の実施の形態における光学ユニットおよびCSP(Chip Size Package)の断面図の一例である。 車両制御システムの概略的な構成例を示すブロック図である。 撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
 1.第1の実施の形態(並進アクチュエータ、有機基板およびリジッドフレキシブル基板を積層した例)
 2.第2の実施の形態(並進アクチュエータ、セラミック基板およびリジッドフレキシブル基板を積層した例)
 3.第3の実施の形態(並進アクチュエータ、ハイブリッド基板およびリジッドフレキシブル基板を積層した例)
 4.第4の実施の形態(並進アクチュエータ、有機基板およびリジッドフレキシブル基板を積層し、ワイヤボンディングを行った例)
 5.第5の実施の形態(並進アクチュエータ、有機基板およびリジッドフレキシブル基板を積層し、CSPを実装した例)
 6.移動体への応用例
 <1.第1の実施の形態>
 [撮像装置の構成例]
 図1は、本技術の実施の形態における撮像装置100の一構成例を示すブロック図である。この撮像装置100は、画像データを撮像するための装置であり、光学ユニット200を備える。さらに撮像装置100は、DSP(Digital Signal Processing)回路120、表示部130、操作部140、バス150、フレームメモリ160、記憶部170および電源部180を備える。撮像装置100としては、例えば、スマートフォンなどの小型の装置が想定される。なお、撮像装置100は、デジタルスチルカメラなどのデジタルカメラや、車載カメラ等であってもよい。
 光学ユニット200は、光電変換により画像データを生成するものである。この光学ユニット200は、生成した画像データをDSP回路120に供給する。
 DSP回路120は、光学ユニット200からの画像データに対して所定の信号処理を実行するものである。このDSP回路120は、処理後の画像データを、バス150を介してフレームメモリ160などに出力する。なお、DSP回路120を光学ユニット200内に配置することもできる。
 表示部130は、画像データを表示するものである。表示部130としては、例えば、液晶パネルや有機EL(Electro Luminescence)パネルが想定される。操作部140は、ユーザの操作に従って操作信号を生成するものである。
 バス150は、DSP回路120、表示部130、操作部140、フレームメモリ160、記憶部170および電源部180が互いにデータをやりとりするための共通の経路である。
 フレームメモリ160は、画像データを保持するものである。記憶部170は、画像データなどの様々なデータを記憶するものである。電源部180は、光学ユニット200、DSP回路120や表示部130などに電源を供給するものである。
 [光学ユニットの構成例]
 図2は、本技術の第1の実施の形態における光学ユニット200の一構成例を示すブロック図である。この光学ユニット200は、カメラモジュール205および回転制御部260を備える。カメラモジュール205内には、レンズ群211、センサーチップ220、6軸センサー231、並進制御部240、並進アクチュエータ250および回転アクチュエータ270が配置される。なお、これらの部材以外の構成は、同図において省略されている。
 レンズ群211は、入射光を集光してセンサーチップ220に導くものである。このレンズ群211は、1枚以上のレンズから構成される。
 センサーチップ220は、レンズ群211からの入射光を光電変換して画像データを生成するものである。センサーチップ220として、例えば、CIS(CMOS Image Sensor)やCCD(Charge Coupled Device)イメージセンサーが用いられる。
 6軸センサー231は、互いに直交する3軸のそれぞれの軸方向の加速度と、それぞれの軸周りの角速度とを測定するものである。6軸センサー231として、例えば、IMU(Inertial Measurement Unit)が用いられる。6軸センサー231は、加速度の測定値を並進制御部240に供給し、角速度の測定値を回転制御部260に供給する。
 並進制御部240は、並進アクチュエータ250を制御するものである。この並進制御部240は、6軸センサー231の測定値に基づいて、互いに直交する3軸のそれぞれに平行な3つの並進方向の各補正量を算出する。そして、並進制御部240は、制御信号により並進アクチュエータ250を制御して、3軸のうち少なくとも1つに沿ってレンズ群211を補正量の分だけ平行移動させる。補正量が「0」以外の方向が1つであった場合は、その方向のみにレンズ群211が平行移動される。補正量が「0」以外の方向が2つや3つの場合、それぞれの方向にレンズ群211が平行移動される。
 並進アクチュエータ250は、並進制御部240の制御に従って、3軸のうち少なくとも1つに沿ってレンズ群211を平行移動させるものである。
 回転制御部260は、回転アクチュエータ270を制御するものである。この回転制御部260は、6軸センサー231の測定値に基づいて、互いに直交する3軸のそれぞれの軸周りの3つの回転方向の各補正量を算出する。そして、回転制御部260は、制御信号により回転アクチュエータ270を制御して、3軸のうち少なくとも1つの軸周りにレンズ群211を補正量の分だけ回転させる。
 回転アクチュエータ270は、回転制御部260の制御に従って、3軸のうち少なくとも1つの軸周りにレンズ群211を回転させるものである。回転アクチュエータ270として、例えば、SMA(Shape Memory Alloys)アクチュエータが用いられる。また、回転アクチュエータ270は、駆動部271および形状記憶ワイヤ272を備える。リ形状記憶ワイヤ272は、形状記憶合金製のワイヤ上の部材である。駆動部271は、形状記憶ワイヤ272に通電して変形させるものである。
 同図に例示するように、3軸のそれぞれに沿った並進方向の補正と、3軸のそれぞれの軸周りの回転方向の補正とにより、カメラモジュール205内で6軸補正を実現することができる。
 図3は、本技術の第1の実施の形態における光学ユニット200の断面図の一例である。この光学ユニット200内にはカメラモジュール205が配置される。カメラモジュール205は、レンズ群211、IRCF(IR Cut Filter)212、センサーチップ220、有機基板230を備える。さらに、カメラモジュール205は、並進制御部240、並進アクチュエータ250、駆動部271、リジッドフレキシブル基板283、スペーサ281、スペーサ282およびフェンダー291を備える。また、光学ユニット200内において、ベース292、回転制御部260、モジュールフレキシブル基板293およびコネクタ294がカメラモジュール205の外部に配置される。
 以下、レンズ群211の光軸を「Z軸」とする。また、Z軸に垂直な所定の軸を「X軸」とし、X軸およびZ軸に垂直な軸を「Y軸」とする。また、Z軸方向において、センサーチップ220からレンズ群211への方向を「上」の方向とする。同図は、Y軸方向から見た断面図である。
 IRCF212は、レンズ群211からの入射光のうち、赤外光成分を除去するものである。なお、IRCF212は、必要に応じて配置される。また、IRCF212以外の光学フィルタを配置することもできる。
 有機基板230の上面に、並進制御部240と、所定数の半田実装部品232とが実装される。半田実装部品232として、例えば、前述の6軸センサー231などが実装される。また、有機基板230の上面に、スペーサ281を介して並進アクチュエータ250が接続される。レンズ群211の側面は、並進アクチュエータ250に取り付けられる。また、有機基板230の上面のうち、レンズ群211の直下にIRCF212が配置される。
 また、有機基板230には、レンズ群211およびIRCF212の直下において、その基板を貫通する貫通孔が設けられている。有機基板230の下面のうち貫通孔の周囲にセンサーチップ220がフリップチップ実装される。センサーチップ220の上面には、複数の画素が配列される。各画素は、レンズ群211、IRCF212および貫通孔を介して入射された光を受光する。なお、センサーチップ220は、特許請求の範囲に記載の半導体チップの一例である。
 また、有機基板230の下面には、センサーチップ220の他、フェンダー291と、極薄のリジッドフレキシブル基板283とがさらに設けられる。このリジッドフレキシブル基板283は、外枠284、バネ部品285、および、内枠286を備える。内枠286は、枠状のリジッド基板であり、Z軸方向から見て、枠の外周が有機基板230の外周より小さい。この内枠286は、有機基板230の下面に取り付けられる。外枠284は、枠状のリジッド基板であり、Z軸方向から見て、枠の内周が有機基板230の外周よりも大きい。この外枠284は、有機基板230を囲み、その上面には、スペーサ282を介して駆動部271が電気的に接続される。バネ部品274は、内枠2286と外枠284とを接続するフレキシブルな部材である。また、外枠284は、ベース292内に配置される。また、リジッドフレキシブル基板283は、導電性の基板であり、有機基板230やアクチュエータは、リジッドフレキシブル基板283を介して信号を伝送することができる。
 なお、有機基板230は、特許請求の範囲に記載の実装基板の一例である。また、有機基板230は1枚に限定されず、複数枚の有機基板を積層したものを用いることもできる。
 モジュールフレキシブル基板293の一端は、リジッドフレキシブル基板283の外枠284に接続され、他端は、ベース292の外側に引き出される。また、モジュールフレキシブル基板293に、回転制御部260およびコネクタ294が設けられる。コネクタ294は、ベース292の外側に配置される。コネクタ294を介して、撮像された画像データが外部に出力される。
 同図に例示するように、有機基板230の上面に並進制御部240を配置し、モジュールフレキシブル基板293に回転制御部260を配置することにより、制御部のそれぞれと対応するアクチュエータとの間の伝送距離を最小にすることができる。これにより、電力ロスを低減することができる。
 並進アクチュエータ250は、有機基板230と電気的に接続されており、その基板上の並進制御部240の制御に従って、X軸、Y軸およびZ軸の少なくとも1つに沿ってレンズ群211を平行移動させる。この駆動アクチュエータ250は、形状記憶ワイヤ252と、その形状記憶ワイヤ252を変形させる駆動部251とを備える。また、回転アクチュエータ270において形状記憶ワイヤ272は、駆動部271の給電により変形し、X軸、Y軸およびZ軸の少なくとも1つの軸周りに、レンズ群211を回転させる。上方向を前方とすると、3つの回転軸のうち、X軸およびY軸の一方がピッチ軸に該当し、他方がヨー軸に該当する。Z軸(すなわち、光軸)は、ロール軸に該当する。リジッドフレキシブル基板283のバネ部品285が回転に追従して変形するため、外側の回転アクチュエータ270は、リジッドフレキシブル基板283の外枠284を土台として、レンズ群211を回転させることができる。
 ここで、リジッドフレキシブル基板283をカメラモジュール205の外側に出し、Z軸方向から見てカメラモジュール205の隣に配置した構成を比較例として想定する。この比較例では、6軸補正をカメラモジュール205単体では実現できず、Z軸方向から見た際の光学ユニット200の面積がフレキシブル基板の分だけ増大し、撮像装置100の小型化が困難になる。
 これに対して、同図のカメラモジュール205では、その内部にリジッドフレキシブル基板283を配置している。詳細には、有機基板230の上面に並進アクチュエータ250を設け、有機基板230の下面にリジッドフレキシブル基板283を設けている。言い換えれば、並進アクチュエータ250、有機基板230およびリジッドフレキシブル基板283を積層している。これにより、カメラモジュール205単体で6軸補正を実現することができ、Z軸方向から見た際の面積が比較例よりも小さくなる。また、リジッドフレキシブル基板283が極薄であるため、カメラモジュール205の厚みは、ほとんど変わらない。このため、カメラモジュール205、光学ユニット200および撮像装置100を小型化することができる。
 [リジッドフレキシブル基板の構成例]
 図4は、本技術の第1の実施の形態における変形前のリジッドフレキシブル基板283の平面図の一例である。同図は、Z軸方向から見たリジッドフレキシブル基板283の一例である。同図に例示するように、外枠284の内側に、よりサイズの小さい内枠286が配置される。この内枠286が有機基板230の下面に接続される。また、外枠284と内枠286とが、4つのバネ部品285により接続される。
 図5は、本技術の第1の実施の形態におけるバネ部品285の拡大図の一例である。例えば、同図におけるaに例示するように、バネ部品285は、ハーネス285-1や285-2などの複数のハーネスを備える。ハーネスのそれぞれは、複数のワイヤを束ねたものである。
 あるいは、同図におけるbに例示するように、バネ部品285内に、独立した複数のワイヤを配線してもよい。
 もしくは、同図におけるcに例示するように、バネ部品285内において、ハーネスと、独立したワイヤとが混在してもよい。
 図6は、本技術の第1の実施の形態における変形後のリジッドフレキシブル基板285の平面図の一例である。同図に例示するように、回転アクチュエータ270による回転に追従してバネ部品285が変形し、内枠286がZ軸(ロール軸)周りに回転する。同様に、バネ部品285は、X軸やY軸(ピッチ軸やヨー軸)の軸周りの回転に追従して変形することもできる。X軸、Y軸およびZ軸のそれぞれの軸周りに回転可能な最大の回転角度は、例えば、各軸で10度である。
 レンズ群211の駆動にVCM(Voice Coil Motor)アクチュエータを用いることもできるが、VCMアクチュエータでは、駆動できる重量に制限があり、1型以上のセンサーに対応するレンズなどを動かせないことがある。SMAアクチュエータを用いることで、10グラム以上のレンズの駆動も可能となり、1型以上のセンサーに対応するサイズのレンズも駆動することができるようになる。また、SMAアクチュエータを用いる場合、駆動力が大きいため、プラスチックレンズだけでなくガラスレンズの使用も可能となる。
 このように、本技術の第1の実施の形態によれば、有機基板230の上面に並進アクチュエータ250を設け、下面にリジッドフレキシブル基板283を設けたため、カメラモジュール205の面積を小さくし、撮像装置100を小型化することができる。
 <2.第2の実施の形態>
 上述の第1の実施の形態では、センサーチップ220などを実装する基板として有機基板230を用いていたが、実装基板は、有機基板230に限定されない。この第2の実施の形態における光学ユニット200は、セラミック基板に実装する点において第1の実施の形態と異なる。
 図7は、本技術の第2の実施の形態における光学ユニット200の断面図の一例である。この第2の実施の形態の光学ユニット200は、有機基板230の代わりに、セラミック基板235を備える点において第1の実施の形態と異なる。センサーチップ220は、第1の実施の形態と同様に、セラミック基板235にフリップチップ実装される。
 なお、セラミック基板235は1枚に限定されず、複数のセラミック基板を積層したものを用いることもできる。
 セラミック基板235は、高熱伝導率、低熱膨張係数、低誘電率、耐薬品性などの優れた特性を持つため、そのような基板を用いることにより、カメラモジュール205の性能を向上させることができる。
 このように、本技術の第2の実施の形態によれば、セラミック基板235を用いるため、カメラモジュールの性能を向上させることができる。
 <3.第3の実施の形態>
 上述の第1の実施の形態では、センサーチップ220などを実装する基板として有機基板230を用いていたが、実装基板は、有機基板230に限定されない。この第3の実施の形態における光学ユニット200は、ハイブリッド基板に実装する点において第1の実施の形態と異なる。
 図8は、本技術の第3の実施の形態における光学ユニット200の断面図の一例である。この第3の実施の形態の光学ユニット200は、有機基板230の代わりに、ハイブリッド基板を備える点において第1の実施の形態と異なる。ハイブリッド基板は、有機基板230およびセラミック基板235を積層したものである。センサーチップ220は、第1の実施の形態と同様に、ハイブリッド基板のうちセラミック基板235にフリップチップ実装される。
 このように、本技術の第3の実施の形態によれば、ハイブリッド基板を用いるため、カメラモジュール205の性能を向上させることができる。
 <4.第4の実施の形態>
 上述の第1の実施の形態では、センサーチップ220がフリップチップ実装されていたが、このチップをワイヤボンディングにより実装することもできる。この第4の実施の形態における光学ユニット200は、センサーチップ220をワイヤボンディングにより接続した点において第1の実施の形態と異なる。
 図9は、本技術の第4の実施の形態における光学ユニット200の断面図の一例である。この第4の実施の形態の光学ユニット200は、センサーチップ220がワイヤ233により、有機基板230の上面に電気的に接続される点において第1の実施の形態と異なる。また、第4の実施の形態の有機基板230には貫通孔を設ける必要が無い。
 このように、本技術の第4の実施の形態によれば、センサーチップ220をワイヤボンディングにより接続するため、有機基板230に貫通孔を設ける必要が無くなる。
 <5.第5の実施の形態>
 上述の第1の実施の形態では、センサーチップ220を有機基板230に実装していたが、その代わりにCSPを実装することもできる。この第5の実施の形態の光学ユニット200は、CSPを実装した点において第1の実施の形態と異なる。
 図10は、本技術の第5の実施の形態における光学ユニット200およびCSP225の断面図の一例である。同図におけるaは、光学ユニット200の断面図を示し、同図におけるbは、CSP225の断面図を示す。
 同図におけるaに例示するように、第5の実施の形態の光学ユニット200は、CSP225が有機基板230の下面に実装される点において第1の実施の形態と異なる。同図におけるbに例示するように、CSP225は、センサーチップ220と、導電用基板221とを備える。導電用基板221を介して、センサーチップ220と有機基板230とが電気的に接続される。
 このように、本技術の第5の実施の形態によれば、CSP225を実装したカメラモジュール205を小型化することができる。
 <6.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図11は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図11に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図11の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図12は、撮像部12031の設置位置の例を示す図である。
 図12では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図12には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。具体的には図1の撮像装置100は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、撮像部12031のサイズを小型化することができるため、撮像部12031を搭載するスペースに余裕を持たせることができる。
 なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
 なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。
 なお、本技術は以下のような構成もとることができる。
(1)レンズ群と、
 前記レンズ群を平行移動させる並進アクチュエータと、
 前記レンズ群を回転させる回転アクチュエータと、
 前記レンズ群の回転に追従して一部が変形するリジッドフレキシブル基板と、
 両面のうち一方に前記並進アクチュエータが設けられ、他方に前記リジッドフレキシブル基板が設けられた実装基板とを具備するカメラモジュール。
(2)前記回転アクチュエータは、形状記憶合金を含む
前記(1)記載のカメラモジュール。
(3)
 前記リジッドフレキシブル基板は、
 前記実装基板を囲む外枠と、
 前記実装基板に接続される内枠と、
 前記外枠と前記内枠とを接続するバネ部品と
を備える
前記(2)記載のカメラモジュール。
(4)前記実装基板は、有機基板である
前記(1)から(3)のいずれかに記載のカメラモジュール。
(5)前記有機基板にフリップチップ実装された半導体チップをさらに具備する
前記(4)記載のカメラモジュール。
(6)前記有機基板にワイヤボンディングにより実装された半導体チップをさらに具備する
前記(4)記載のカメラモジュール。
(7)前記実装基板に接続されたCSP(Chip Size Package)をさらに具備する
前記(1)記載のカメラモジュール。
(8)前記実装基板は、セラミック基板である
前記(1)記載のカメラモジュール。
(9)前記実装基板は、有機基板およびセラミック基板を積層したハイブリッド基板である
前記(1)記載のカメラモジュール。
(10)前記並進アクチュエータは、互いに直交する3軸の少なくとも1つに沿って前記レンズ群を並進させる
前記(1)から(9)のいずれかに記載のカメラモジュール。
(11)前記回転アクチュエータは、互いに直交する3軸の少なくとも1つの軸周りに前記レンズ群を回転させる
前記(1)から(10)のいずれかに記載のカメラモジュール。
(12)レンズ群と、
 前記レンズ群を平行移動させる並進アクチュエータと、
 前記レンズ群を回転させる回転アクチュエータと、
 前記レンズ群の回転に追従して一部が変形するリジッドフレキシブル基板と、
 両面のうち一方に前記並進アクチュエータが設けられ、他方に前記リジッドフレキシブル基板が設けられた実装基板と
 前記レンズ群からの入射光を光電変換して画像データを生成する半導体チップと
を具備する撮像装置。
 100 撮像装置
 120 DSP回路
 130 表示部
 140 操作部
 150 バス
 160 フレームメモリ
 170 記憶部
 180 電源部
 200 光学ユニット
 205 カメラモジュール
 211 レンズ群
 212 IRCF
 220 センサーチップ
 221 導電用基板
 225 CSP
 230 有機基板
 231 6軸センサー
 232 半田実装部品
 233 ワイヤ
 235 セラミック基板
 240 並進制御部
 250 並進アクチュエータ
 251、271 駆動部
 252、272 形状記憶ワイヤ
 260 回転制御部
 270 回転アクチュエータ

 281、282 スペーサ
 283 リジッドフレキシブル基板
 284 外枠
 285 バネ部品
 285-1、285-2 ハーネス
 286 内枠
 291 フェンダー
 292 ベース
 293 モジュールフレキシブル基板
 294 コネクタ
 12031 撮像部

Claims (12)

  1.  レンズ群と、
     前記レンズ群を平行移動させる並進アクチュエータと、
     前記レンズ群を回転させる回転アクチュエータと、
     前記レンズ群の回転に追従して一部が変形するリジッドフレキシブル基板と、
     両面のうち一方に前記並進アクチュエータが設けられ、他方に前記リジッドフレキシブル基板が設けられた実装基板と
    を具備するカメラモジュール。
  2.  前記回転アクチュエータは、形状記憶合金を含む
    請求項1記載のカメラモジュール。
  3.  前記リジッドフレキシブル基板は、
     前記実装基板を囲む外枠と、
     前記実装基板に接続される内枠と、
     前記外枠と前記内枠とを接続するバネ部品と
    を備える
    請求項2記載のカメラモジュール。
  4.  前記実装基板は、有機基板である
    請求項1記載のカメラモジュール。
  5.  前記有機基板にフリップチップ実装された半導体チップをさらに具備する
    請求項4記載のカメラモジュール。
  6.  前記有機基板にワイヤボンディングにより実装された半導体チップをさらに具備する
    請求項4記載のカメラモジュール。
  7.  前記実装基板に接続されたCSP(Chip Size Package)をさらに具備する
    請求項4記載のカメラモジュール。
  8.  前記実装基板は、セラミック基板である
    請求項1記載のカメラモジュール。
  9.  前記実装基板は、有機基板およびセラミック基板を積層したハイブリッド基板である
    請求項1記載のカメラモジュール。
  10.  前記並進アクチュエータは、互いに直交する3軸の少なくとも1つに沿って前記レンズ群を並進させる
    請求項1記載のカメラモジュール。
  11.  前記回転アクチュエータは、互いに直交する3軸の少なくとも1つの軸周りに前記レンズ群を回転させる
    請求項1記載のカメラモジュール。
  12.  レンズ群と、
     前記レンズ群を平行移動させる並進アクチュエータと、
     前記レンズ群を回転させる回転アクチュエータと、
     前記レンズ群の回転に追従して一部が変形するリジッドフレキシブル基板と、
     両面のうち一方に前記並進アクチュエータが設けられ、他方に前記リジッドフレキシブル基板が設けられた実装基板と、
     前記レンズ群からの入射光を光電変換して画像データを生成する半導体チップと
    を具備する撮像装置。
PCT/JP2023/029326 2022-10-06 2023-08-10 カメラモジュール、および、撮像装置 WO2024075398A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-161341 2022-10-06
JP2022161341 2022-10-06

Publications (1)

Publication Number Publication Date
WO2024075398A1 true WO2024075398A1 (ja) 2024-04-11

Family

ID=90608005

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/029326 WO2024075398A1 (ja) 2022-10-06 2023-08-10 カメラモジュール、および、撮像装置

Country Status (1)

Country Link
WO (1) WO2024075398A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003297999A (ja) * 2002-03-29 2003-10-17 Sony Corp 半導体装置
JP2019174780A (ja) * 2018-03-29 2019-10-10 ソニーセミコンダクタソリューションズ株式会社 撮像装置、電子機器
WO2020079997A1 (ja) * 2018-10-15 2020-04-23 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2021258999A1 (zh) * 2020-06-24 2021-12-30 华为技术有限公司 摄像模组及电子设备
JP2022520370A (ja) * 2019-02-07 2022-03-30 エルジー イノテック カンパニー リミテッド イメージセンサ用基板

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003297999A (ja) * 2002-03-29 2003-10-17 Sony Corp 半導体装置
JP2019174780A (ja) * 2018-03-29 2019-10-10 ソニーセミコンダクタソリューションズ株式会社 撮像装置、電子機器
WO2020079997A1 (ja) * 2018-10-15 2020-04-23 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
JP2022520370A (ja) * 2019-02-07 2022-03-30 エルジー イノテック カンパニー リミテッド イメージセンサ用基板
WO2021258999A1 (zh) * 2020-06-24 2021-12-30 华为技术有限公司 摄像模组及电子设备

Similar Documents

Publication Publication Date Title
US10882464B2 (en) Vehicle-mounted camera, vehicle-mounted camera apparatus, and method of supporting vehicle-mounted camera
US11942494B2 (en) Imaging device
JP7379425B2 (ja) 固体撮像装置、および電子装置
US20230107566A1 (en) Imaging unit, method for manufacturing the same, and electronic apparatus
US11289519B2 (en) Semiconductor device and electronic apparatus
WO2018030139A1 (ja) 撮像素子パッケージおよびカメラモジュール
WO2024075398A1 (ja) カメラモジュール、および、撮像装置
US11152726B2 (en) Connector device and connector system
JP7123813B2 (ja) 半導体装置、固体撮像素子、並びに電子機器
US20240063244A1 (en) Semiconductor package, electronic device, and method of manufacturing semiconductor package
CN110892710B (zh) 摄像装置
WO2019176454A1 (ja) 半導体装置、撮像装置、および電子機器
US11722804B2 (en) Imaging device and imaging system having a stacked structure for pixel portion and signal processing circuit portion
WO2024111248A1 (ja) 半導体パッケージ、光学装置、および、半導体パッケージの製造方法
WO2022196188A1 (ja) 撮像装置、撮像装置の製造方法、および電子機器
WO2022168514A1 (ja) 半導体装置、撮像装置
WO2021246107A1 (ja) 固体撮像装置、固体撮像装置の制御方法および移動体
WO2024106011A1 (ja) 半導体パッケージ、電子装置、および、半導体パッケージの制御方法
WO2023026524A1 (ja) 光検出デバイスおよび光検出装置
WO2021044703A1 (ja) 半導体パッケージ、電子装置、および、半導体パッケージの製造方法
WO2020137503A1 (ja) 画像処理装置
CN118103977A (zh) 半导体封装件和模块
CN115244522A (zh) 通信装置及通信系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23874531

Country of ref document: EP

Kind code of ref document: A1