WO2020031660A1 - 車載カメラ、及びこれを用いた駆動制御システム - Google Patents

車載カメラ、及びこれを用いた駆動制御システム Download PDF

Info

Publication number
WO2020031660A1
WO2020031660A1 PCT/JP2019/028463 JP2019028463W WO2020031660A1 WO 2020031660 A1 WO2020031660 A1 WO 2020031660A1 JP 2019028463 W JP2019028463 W JP 2019028463W WO 2020031660 A1 WO2020031660 A1 WO 2020031660A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
drive control
image
processing unit
mounted camera
Prior art date
Application number
PCT/JP2019/028463
Other languages
English (en)
French (fr)
Inventor
一真 重松
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/250,493 priority Critical patent/US11851007B2/en
Priority to JP2020536423A priority patent/JP7247201B2/ja
Priority to CN201980050640.4A priority patent/CN112514361B/zh
Priority to EP19847756.4A priority patent/EP3836530A4/en
Publication of WO2020031660A1 publication Critical patent/WO2020031660A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • G03B11/04Hoods or caps for eliminating unwanted light from lenses, viewfinders or focusing aids
    • G03B11/045Lens hoods or shields
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/52Elements optimising image sensor operation, e.g. for electromagnetic interference [EMI] protection or temperature control by heat transfer or cooling elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/0026Windows, e.g. windscreen
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2217/00Details of cameras or camera bodies; Accessories therefor
    • G03B2217/002Details of arrangement of components in or on camera body

Definitions

  • This technology relates to a vehicle-mounted camera and a drive control system using the same.
  • An imaging device such as a front camera uses an imaging device.
  • the imaging apparatus when the imaging element deviates from the depth of focus due to thermal expansion of a component caused by a rise in temperature, an image to be captured has a low resolution. Therefore, in order to capture a high-resolution image, the imaging apparatus needs to have a configuration that does not easily cause a temperature rise.
  • Patent Document 1 discloses a technique capable of suppressing a rise in temperature of an imaging device.
  • an imaging device is connected to a metal bracket by a heat transfer member.
  • the heat generated by the internal chip is released to the bracket via the heat transfer member, so that a rise in temperature can be suppressed.
  • the front camera is required to be able to capture a high-quality image even in an environment that is likely to receive sunlight.
  • an object of the present technology is to provide a vehicle-mounted camera capable of capturing a high-quality image and a drive control system using the same.
  • a vehicle-mounted camera includes an imaging element, a housing, and an optical system.
  • the housing includes a housing that houses the image sensor, an outer surface that is exposed to an external space, an opening that allows the housing to communicate with the external space, and at least a portion of the outer surface.
  • a functional unit that absorbs visible light of incident light and reflects infrared light.
  • the optical system forms an image of light incident on the opening from an external space in the image sensor.
  • the thermal expansion of the constituent members is unlikely to occur, so that the relative position between the optical system and the imaging device is unlikely to shift. Therefore, in this vehicle-mounted camera, the resolution of an image to be captured is not easily reduced. As described above, the on-vehicle camera can capture a high-quality image.
  • the functional unit may have a laminated structure including an infrared reflecting layer that reflects infrared light and a visible light absorbing layer that absorbs visible light.
  • the visible light absorbing layer may be located outside the infrared reflecting layer and transmit infrared light.
  • the infrared reflective layer may be located outside the visible light absorbing layer and transmit visible light.
  • the optical system may have a fixed focus. In this vehicle-mounted camera, since the temperature does not easily rise as described above, even if the optical system has a fixed focus, the resolution of an image to be captured does not easily decrease.
  • the housing may have a plurality of openings.
  • the on-vehicle camera may further include a plurality of image sensors and a plurality of optical systems corresponding to the plurality of openings. In this configuration,
  • the optical system may include a plastic lens.
  • a plastic lens having low heat resistance can be used because the temperature does not easily rise. Thereby, the manufacturing cost of the vehicle-mounted camera can be reduced.
  • a drive control system is configured to be able to control the drive of a moving object having a windshield, and includes an imaging element, a housing, an optical system, a processing unit, an information generation unit, and a drive control. And a unit.
  • the imaging device captures a raw image.
  • the housing includes a housing that houses the image sensor, an outer surface that is exposed to an external space, an opening that allows the housing to communicate with the external space, and at least a portion of the outer surface.
  • a functional unit that absorbs visible light of incident light and reflects infrared light.
  • the optical system forms an image of light incident on the opening from an external space in the image sensor.
  • An image processing unit configured to generate a processed image by performing image processing on the raw image; a recognition processing unit configured to recognize an object by performing recognition processing on the processed image; and an object related to the object using the processed image.
  • the information generation unit generates drive control information on drive control of the moving body based on a processing result by the processing unit.
  • the drive control unit controls the drive of the moving body based on the drive control information.
  • the processing unit may further include a mapping processing unit that creates a digital map using the processed image and the object information.
  • the processing unit may further include a path planning unit that determines a route on which the moving object travels using the digital map.
  • a high-quality image can be captured by the on-vehicle camera, so that more advanced drive control for the moving body is possible.
  • FIG. 1 is a perspective view of an automobile equipped with a vehicle-mounted camera according to an embodiment of the present technology. It is a perspective view of the said in-vehicle camera.
  • FIG. 3 is a cross-sectional view of the vehicle-mounted camera taken along line AA ′ of FIG. It is a partial sectional view for explaining a functional part of the above-mentioned in-vehicle camera.
  • FIG. 3 is a partial cross-sectional view illustrating a configuration example of the functional unit.
  • FIG. 3 is a partial cross-sectional view illustrating a configuration example of the functional unit. It is a perspective view showing another embodiment of the above-mentioned in-vehicle camera.
  • FIG. 1 is a perspective view of an automobile M equipped with an in-vehicle camera 1 according to an embodiment of the present technology.
  • the vehicle M has, as transparent glass windows, a windshield (front window) M01 arranged in the front, a rear window M02 arranged in the rear, and side windows M03 arranged on both sides.
  • the vehicle-mounted camera 1 is a front sensing camera mounted inside the windshield M01.
  • the on-vehicle camera 1 is disposed above a central region in the width direction of the windshield M01. Thereby, the vehicle-mounted camera 1 can satisfactorily capture an image of the scene in front of the vehicle M without blocking the driver's view.
  • the vehicle M on which the vehicle-mounted camera 1 is mounted includes a driving force generating mechanism M11 including an engine and a motor, a braking mechanism M12, a steering mechanism M13, and the like in order to realize a traveling function. Further, the vehicle M may include a surrounding information detecting unit for detecting surrounding information, a positioning unit for generating position information, and the like.
  • FIG. 2 is a perspective view of the vehicle-mounted camera 1 before being attached to the windshield M01.
  • FIG. 3 is a cross-sectional view of the vehicle-mounted camera 1 attached to the windshield M01 along the line AA ′ in FIG. That is, FIG. 2 shows a longitudinal section along the front-rear direction at the center in the width direction of the vehicle-mounted camera 1.
  • the on-vehicle camera 1 has a housing 10 constituting its outer shape.
  • the housing 10 includes a hollow portion 11 having a hollow rectangular parallelepiped shape, an extending portion 12 extending forward from a lower portion of the hollow portion 11, and side wall portions 13 arranged on both sides of the extending portion 12 in the width direction. Including.
  • the vehicle-mounted camera 1 is adhered to the inner surface of the windshield M01 on the upper surface of the side wall portion 13.
  • a housing portion 14 is formed in the hollow portion 11 as its internal space. Further, as shown in FIG. 3, a shielding portion 15 which is an external space closed by a windshield M01 is formed on the extending portion 12. The hollow portion 11 is formed with an opening 16 that communicates the housing portion 14 and the shielding portion 15 and faces the windshield M01.
  • the shielding portion 15 is surrounded by the front surface of the hollow portion 11, the upper surface of the extending portion 12, and the inner side surface of the side wall portion 13, and is shielded except for the windshield M01. Thereby, in the housing 10, only the light transmitted through the windshield M01 can be made to enter the opening 16 connecting the shielding unit 15 to the housing unit 14.
  • the on-vehicle camera 1 has a circuit board 20 and an image sensor 21.
  • the circuit board 20 is disposed on the bottom of the housing 14.
  • the imaging element 21 is disposed forward through a connection board 21 a erected on the circuit board 20. Note that the imaging element 21 may be directly mounted on the circuit board 20.
  • the image sensor 21 is not limited to a specific type.
  • a CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • Various ceramic substrates, plastic substrates, and the like can be used as the circuit board 20 and the connection board 21a.
  • circuit board 20 In addition to the image pickup device 21, various components for realizing the functions required for the vehicle-mounted camera 1 can be mounted on the circuit board 20.
  • an in-vehicle communication unit for transmitting a captured image to another configuration in the automobile M, an image processing unit for performing image processing on the captured image, and the like can be mounted on the circuit board 20.
  • the on-vehicle camera 1 includes an optical system 30 including a lens 31 and having a fixed focus.
  • the lens 31 is attached to the front surface of the peripheral portion of the opening 16 in the hollow portion 11 via a frame 31a that holds the outer periphery. As a result, only the light transmitted through the adjacent lens 31 in front of the opening 16 is incident on the opening 16.
  • the optical system 30 is configured to form an image of the light incident on the opening 16 on the light receiving surface of the image sensor 21.
  • the optical system 30 may include, for example, optical components such as a reflecting mirror and a prism in addition to the lens. Accordingly, light incident on the lens 31 can be guided to the image sensor 21 irrespective of the arrangement of the image sensor 21.
  • the housing 10 has a functional unit 40 that forms at least a part of the outer surface exposed to the external space. Specifically, in the housing 10, the front surface of the hollow portion 11 surrounding the shielding portion 15, the upper surface of the extending portion 12, and the inner surface of the side wall portion 13 are configured by the functional portions 40.
  • the functional unit 40 has a function of suppressing generation of reflected light and suppressing a rise in temperature.
  • the configuration of the on-vehicle camera 1 according to the present technology is based on the following facts. And the allowable range of the focal position shift of the optical system 30 is several ⁇ m.
  • the configuration of the vehicle-mounted camera 1 according to the present technology has a higher pixel density than the configuration in which the image sensor 21 is a 1 / 1.7 type and the number of pixels is 7 M pixels, and the allowable range of the focal position shift of the optical system 30 is smaller. It is also particularly suitable when it is several ⁇ m.
  • FIG. 4 is a partial cross-sectional view of the vehicle-mounted camera 1 showing the vicinity of the shielding unit 15.
  • the functional unit 40 is configured to absorb visible light among incident light. That is, in the functional unit 40, the generation of reflected light of visible light is suppressed. Thereby, in the vehicle-mounted camera 1, reflected light of visible light is less likely to enter the lens 31.
  • the outer surface of the housing 10 surrounding the shielding part 15 from which the lens 31 is exposed is configured as the functional part 40, it is possible to effectively prevent the reflected light of visible light from entering the lens 31. Can be prevented. As a result, in the vehicle-mounted camera 1, lens flare is less likely to occur in an image to be captured.
  • the functional unit 40 is configured to reflect infrared rays of incident light. That is, the in-vehicle camera 1 can emit infrared light incident on the functional unit 40 to the external space. Thereby, in the housing 10, the temperature rise due to the absorption of infrared rays can be suppressed.
  • the position of the image sensor 21 is maintained within the depth of focus of the optical system 30, so that the resolution of an image to be captured does not easily decrease. Further, in the vehicle-mounted camera 1, it is possible to use a component having low heat resistance. For example, an inexpensive plastic lens can be used as the lens 31.
  • FIGS. 5 and 6 are partial cross-sectional views showing the function unit 40 in the housing 10 of the vehicle-mounted camera 1 in an enlarged manner. 5 and 6 schematically show a configuration example for realizing a function of absorbing visible light and reflecting infrared light in the function unit 40. Note that the configuration of the functional unit 40 is not limited to the configuration examples shown in FIGS. 5 and 6 and can be variously changed.
  • the functional unit 40 shown in FIG. 5A has a laminated structure including a visible light absorbing layer 41a and an infrared reflecting layer 42a.
  • an infrared reflective layer 42a is laminated on the housing 10
  • a visible light absorbing layer 41a is laminated on the infrared reflective layer 42a. That is, the visible light absorbing layer 41a is disposed outside the infrared reflecting layer 42a.
  • the visible light absorbing layer 41a is configured to absorb visible light (light having a wavelength of about 380 nm to 780 nm) and transmit infrared light (light having a wavelength of about 780 nm to 2500 nm).
  • the visible light absorbing layer 41a a known structure can be used.
  • the visible light absorbing layer 41a can be formed of a black paint or the like configured to have a transmission characteristic in an infrared region.
  • the infrared reflection layer 42a is configured to reflect infrared light.
  • a known configuration can be used, and for example, a mirror-finished metal plate or a metal deposition film deposited on the housing 10 can be used.
  • the metal plate or the metal deposition film can be formed of, for example, aluminum or the like.
  • the function unit 40 can realize a function of absorbing visible light and reflecting infrared light.
  • the infrared reflecting layer 42a shown in FIG. 5A is not provided, and the housing 10 itself functions as the infrared reflecting layer 42a.
  • the housing 10 itself can be provided with a function of reflecting infrared rays by forming the housing 10 from aluminum or the like subjected to mirror finishing.
  • the infrared rays emitted by the black visible light absorbing layer 41a itself are also reflected by the infrared reflecting layer 42a and emitted to the external space. Therefore, in the vehicle-mounted camera 1, the temperature rise is further suppressed by the cooling effect obtained by the radiation of the visible light absorbing layer 41a itself.
  • the functional unit 40 shown in FIG. 6A has a laminated structure including a visible light absorbing layer 41b and an infrared reflecting layer 42b.
  • a visible light absorbing layer 41b is laminated on the housing 10
  • an infrared reflecting layer 42b is laminated on the visible light absorbing layer 41b. That is, the visible light absorbing layer 41b is disposed inside the infrared reflecting layer 42b.
  • the infrared reflection layer 42b is configured to reflect infrared light and transmit visible light.
  • the infrared reflective layer 42b a known configuration can be used.
  • a dielectric multilayer film having a transmission characteristic in a visible light region and a reflective characteristic in an infrared region can be used. .
  • the visible light absorbing layer 41b is configured to absorb visible light.
  • a known configuration can be used, and for example, it can be formed of a black paint or a black plastic film. Further, the visible light absorbing layer 41b may be a black layer formed by a surface treatment of the housing 10.
  • infrared rays are reflected by the infrared reflecting layer 42b, and visible light transmitted through the infrared reflecting layer 42b is absorbed by the visible light absorbing layer 41b.
  • the function unit 40 can realize a function of absorbing visible light and reflecting infrared light.
  • the housing 10 does not include the visible light absorbing layer 41b shown in FIG. 6A, and the housing 10 itself functions as the visible light absorbing layer 41b. That is, by forming the housing 10 from black plastic or the like, the housing 10 itself can have a function of absorbing visible light.
  • the configuration of the vehicle-mounted camera 1 is not limited to the above, and can be variously changed.
  • a plurality of openings 16 may be provided in the housing 10, and the optical system 30 and the imaging device 21 may be provided for each of the openings 16.
  • the in-vehicle camera 1 can make the viewing angle and the like different for each optical system 30.
  • the functional unit 40 is not limited to the above-described arrangement and is disposed on at least a part of the outer surface of the housing 10.
  • the functional unit 40 may be arranged in the entire outer surface of the housing 10.
  • the entire area of the outer surface of the housing 10 be black, even if the functional unit 40 is not disposed on the entire area of the outer surface of the housing 10.
  • the in-vehicle camera 1 is less susceptible to the incidence of sunlight, so that a particularly high-quality image can be captured.
  • the vehicle-mounted camera 1 can be installed not only in the windshield M01 but also in the rear window M02 as a rear sensing camera. Further, the application of the vehicle-mounted camera 1 may be, for example, viewing, instead of sensing. In this case, display and recording of high-quality video can be performed by the vehicle-mounted camera 1.
  • the in-vehicle camera 1 may not be directly adhered to the inner surface of the windshield M01, but may be fixed to the ceiling of the automobile M via a bracket or the like, for example. Further, the vehicle-mounted camera 1 may have a configuration in which the shielding unit 15 is not formed, and for example, may be configured integrally with a rearview mirror.
  • the vehicle-mounted camera 1 is applicable not only to the automobile M but also to various moving objects.
  • the moving object to which the on-board camera 1 is applicable include a car, an electric car, a hybrid electric car, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, a robot, a construction machine, an agricultural machine (tractor), and the like.
  • the drive control system 100 is a system for controlling the drive of the automobile M using the above-described in-vehicle camera 1. Specifically, the drive control system 100 controls a driving force generation mechanism M11, a braking mechanism M12, a steering mechanism M13, and the like of the automobile M using an image captured by the on-vehicle camera 1.
  • the drive control system 100 can be configured according to the functions required of the vehicle M. Specifically, functions that can be realized by the drive control system 100 include, for example, a driving assistance function and an automatic driving function. Hereinafter, the configuration of the drive control system 100 capable of realizing the driving assist function and the automatic driving function will be described.
  • the driving assistance function is typically an ADAS (Advanced Driver Assistance System) function that includes collision avoidance, impact mitigation, following running (maintaining the inter-vehicle distance), vehicle speed maintaining running, collision warning, lane departure warning, and the like.
  • ADAS Advanced Driver Assistance System
  • the drive control system 100 can be configured such that these driving assist functions can be realized.
  • FIG. 8 is a block diagram showing a configuration of the drive control system 100 capable of realizing the driving assistance function.
  • the drive control system 100 includes the on-vehicle camera 1, a processing unit 110, an information generation unit 120, and a drive control unit 130.
  • the processing unit 110 includes an image processing unit 111, a recognition processing unit 112, and a calculation processing unit 113.
  • Each component of the drive control system 100 is connected by a communication network.
  • This communication network may be, for example, a vehicle-mounted communication network that conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark).
  • FIG. 9 is a flowchart showing a drive control method by the drive control system 100 shown in FIG.
  • the drive control method shown in FIG. 9 includes an imaging step ST11, an image processing step ST12, a recognition processing step ST13, an object information calculation step ST14, a drive control information generation step ST15, and a drive control signal output step ST16.
  • the on-vehicle camera 1 captures a scene in front of the automobile M through the windshield M01 to generate a raw image.
  • a high-quality raw image is obtained by the operation of the functional unit 40.
  • the in-vehicle camera 1 transmits a raw image to the processing unit 110 by an in-vehicle communication unit mounted on the circuit board 20, for example.
  • the processing unit 110 is typically constituted by an ECU (Electronic Control Unit), and processes a raw image generated by the vehicle-mounted camera 1. More specifically, in the processing unit 110, the image processing unit 111 performs the image processing step ST12, the recognition processing unit 112 performs the recognition processing step ST13, and the calculation processing unit 113 performs the object information calculation step ST14.
  • ECU Electronic Control Unit
  • the image processing section 111 performs image processing on the raw image to generate a processed image.
  • the image processing by the image processing unit 111 is typically processing for making it easier to recognize an object in a raw image, and includes, for example, automatic exposure control, automatic white balance adjustment, and high dynamic range synthesis.
  • the image processing step ST12 at least a part of the image processing may be performed by the image processing unit mounted on the circuit board 20 of the vehicle-mounted camera 1.
  • the processing unit 110 may not include the image processing unit 111.
  • the recognition processing unit 112 recognizes an object in the processed image by performing a recognition process on the processed image.
  • the objects recognized by the recognition processing unit 112 are not limited to three-dimensional objects, and include, for example, vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes (lanes) of roads, curbs of sidewalks, and the like. It is.
  • the calculation processing unit 113 calculates the object information on the object in the processed image.
  • the object information calculated by the calculation processing unit 113 includes, for example, the shape of the object, the distance to the object, the moving direction and the moving speed of the object, and the like.
  • the calculation processing unit 113 uses a plurality of temporally consecutive processed images to calculate dynamic object information.
  • FIG. 10 illustrates an example of the processed image G generated by the image processing unit 111.
  • the processed image G shown in FIG. 10 shows the preceding vehicle MF and two lanes L1 and L2 that define the traveling lane.
  • a vanishing point V where two lanes L1 and L2 intersect in the processed image G is determined.
  • the vanishing point V may be obtained from another object without depending on the lanes L1 and L2.
  • the calculation processing unit 113 can also determine the vanishing point V using a curb of a sidewalk or a moving locus of a fixed object such as a traffic sign in a plurality of processing images.
  • the inter-vehicle distance to the preceding vehicle MF can be obtained using the distances D0 and D1.
  • an inter-vehicle distance to the preceding vehicle MF can be calculated by using the ratio of the distance D0 to the distance D1.
  • the processing unit 110 transmits the data including the processed image and the object information obtained in steps ST12 to ST14 to the information generation unit 120.
  • the processing unit 110 is not limited to the above configuration, and may include, for example, a configuration other than the image processing unit 111, the recognition processing unit 112, and the calculation processing unit 113.
  • the information generation unit 120 In the drive control information generation step ST15, the information generation unit 120 generates drive control information including the drive content required for the vehicle M. More specifically, the information generation unit 120 determines the drive content to be executed by the vehicle M based on the data transmitted from the processing unit 110, and generates drive control information including the drive content.
  • the driving contents of the vehicle M include, for example, a change in speed (acceleration, deceleration), a change in traveling direction, and the like.
  • the information generation unit 120 determines that deceleration is necessary when the inter-vehicle distance between the vehicle M and the preceding vehicle MF is small, and when the vehicle M is likely to deviate from the lane, the traveling direction toward the center of the lane. Is determined to be necessary.
  • the information generation unit 120 transmits the drive control information to the drive control unit 130.
  • the information generation unit 120 may generate information other than the drive control information.
  • the information generation unit 120 may detect the brightness of the surrounding environment from the processed image, and may generate lighting control information for turning on the headlight of the vehicle M when the surrounding environment is dark.
  • the drive control unit 130 outputs a drive control signal based on the drive control information.
  • the drive control unit 130 can accelerate the vehicle M by the driving force generation mechanism M11, decelerate the vehicle M by the braking mechanism M12, and change the traveling direction of the vehicle M by the steering mechanism M13.
  • the automatic driving function is a function that allows the automobile M to autonomously travel without depending on the operation of the driver. In order to realize the automatic driving function, more advanced driving control than the driving assist function is required. By using the vehicle-mounted camera 1 capable of generating a high-quality raw image, the drive control system 100 can more accurately execute advanced drive control capable of realizing an automatic driving function.
  • FIG. 11 is a block diagram showing the configuration of the drive control system 100 capable of realizing the automatic driving function.
  • the drive control system 100 further includes a mapping processing unit 114 and a path planning unit 115 included in the processing unit 110, in addition to the components illustrated in FIG.
  • a description of a configuration similar to the configuration illustrated in FIG. 8 will be appropriately omitted.
  • FIG. 12 is a flowchart showing a drive control method by the drive control system 100 shown in FIG.
  • the drive control method illustrated in FIG. 12 includes, in addition to the steps illustrated in FIG. 9, a mapping processing step ST21 performed by the mapping processing unit 114 and a path planning step ST22 performed by the path planning unit 115.
  • mapping processing step ST21 and the path planning step ST22 are executed between the object information calculation step ST14 and the drive control information generation step ST15.
  • the path planning step ST22 is executed after the mapping processing step ST21.
  • the mapping processing unit 114 creates a digital map by performing spatial mapping using the processed image and the object information.
  • the digital map created by the mapping processing unit 114 is a three-dimensional map configured by combining static information and dynamic information necessary for automatic driving.
  • a high-quality raw image can be obtained by the on-vehicle camera 1, so that a high-resolution digital map can be created by the mapping processing unit 114.
  • the mapping processing unit 114 can create a digital map with a larger amount of information by acquiring information other than the raw image from the vehicle-mounted camera 1.
  • the mapping processing unit 114 can acquire information from a surrounding information detection unit, a positioning unit, and the like provided in the vehicle M. Further, the mapping processing unit 114 can acquire various information by performing communication with various devices existing in the external environment via an external communication unit that enables communication with the outside of the vehicle.
  • the surrounding information detection unit is configured as, for example, an ultrasonic sensor, a radar device, a LIDAR (Light Detection and Ranging, Laser Imaging and Ranging) device, or the like.
  • the mapping processing unit 114 can also acquire information about the rear and side of the vehicle M, which is difficult to obtain from the on-vehicle camera 1, from the surrounding information detection unit.
  • the positioning unit is configured to receive a GNSS signal from a Global Navigation Satellite (GNSS) satellite (for example, a GPS signal from a Global Positioning System satellite) and execute positioning.
  • GNSS Global Navigation Satellite
  • the mapping processing unit 114 can acquire information on the position of the car M from the positioning unit.
  • the external communication unit includes, for example, GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution), LTE-A (LTE-Advanced), and wireless LAN (Wi-Fi).
  • GSM Global System of Mobile communications
  • WiMAX registered trademark
  • LTE registered trademark
  • LTE-A Long Term Evolution
  • Wi-Fi wireless LAN
  • -Fi registered trademark
  • Bluetooth registered trademark
  • the path planning unit 115 performs path planning for determining the traveling route of the vehicle M using the digital map.
  • Path planning includes, for example, various processes such as detection of empty space on a road and prediction of movement of an object such as a vehicle or a person.
  • the processing unit 110 adds to the data including the processed image and the object information obtained in steps ST12 to ST14 and the data including the digital map and the result of the path planning obtained in steps ST21 and ST22.
  • the information is transmitted to the information generation unit 120 in a lump.
  • the information generation unit 120 In the drive control information generation step ST15, the information generation unit 120 generates drive control information including drive details for driving the automobile M on a traveling route according to the path planning determined in the path planning step ST22. The information generation unit 120 transmits the generated drive control information to the drive control unit 130.
  • the drive control unit 130 outputs a drive control signal based on the drive control information. That is, the drive control unit 130 performs drive control of the drive force generation mechanism M11, the brake mechanism M12, the steering mechanism M13, and the like so that the vehicle M can safely travel on the traveling path as in path planning.
  • An image sensor An accommodating portion for accommodating the imaging element, an outer surface exposed to an external space, an opening communicating the accommodating portion and the external space, and at least a part of the outer surface, among light incident from the external space
  • a functional unit that absorbs visible light and reflects infrared light
  • An optical system that forms an image of light incident on the opening from an external space in the image sensor
  • a vehicle-mounted camera comprising: (2) The vehicle-mounted camera according to the above (1), The in-vehicle camera, wherein the functional unit has a laminated structure including an infrared reflecting layer that reflects infrared light and a visible light absorbing layer that absorbs visible light.
  • the optical system is a vehicle-mounted camera having a fixed focus.
  • a drive control system for controlling the drive of a moving object having a windshield, An image sensor for capturing a raw image; An accommodating portion for accommodating the imaging element, an outer surface exposed to an external space, an opening communicating the accommodating portion and the external space, and at least a part of the outer surface, among light incident from the external space Having a functional part that absorbs visible light and reflects infrared light, and a housing disposed inside the windshield, with the opening facing the windshield, An optical system that forms an image of light incident on the opening from an external space in the image sensor, An image processing unit that generates a processed image by performing image processing on the raw image, a recognition processing unit that recognizes an object by performing recognition processing on the processed image, and calculation that calculates object information about the object using the processed image
  • a processing unit comprising: a processing unit; An information generation unit that generates drive control information related to drive control of

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Blocking Light For Cameras (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

【課題】高画質の画像を撮像可能な車載カメラを提供する。 【解決手段】車載カメラは、撮像素子と、筐体と、光学系と、を具備する。上記筐体は、上記撮像素子を収容する収容部と、外部空間に露出する外面と、上記収容部と外部空間とを連通させる開口部と、上記外面の少なくとも一部を構成し、外部空間から入射する光のうち、可視光線を吸収し、赤外線を反射する機能部と、を有する。上記光学系は、外部空間から上記開口部に入射する光を上記撮像素子において結像させる。

Description

車載カメラ、及びこれを用いた駆動制御システム
 本技術は、車載カメラ、及びこれを用いた駆動制御システムに関する。
 自動車の駆動制御のために、自動車の前方の風景を撮像するフロントカメラを利用する技術が知られている。この技術では、フロントカメラが撮像した画像から検出された物体の位置や動きなどに基づいて自動車の駆動制御を行う。したがって、自動車の駆動制御に用いられるフロントカメラが撮像する画像には高画質が求められる。
 フロントカメラのような撮像装置では、撮像素子が用いられる。撮像装置では、温度上昇によって生じる構成部材の熱膨張によって撮像素子が焦点深度から外れると、撮像する画像が低解像度となる。したがって、撮像装置では、高解像度の画像を撮像するために、温度上昇しにくい構成とする必要がある。
 特許文献1には、撮像装置の温度上昇を抑制可能な技術が開示されている。特許文献1に開示された技術では、撮像装置が伝熱部材によって金属製のブラケットに接続されている。これにより、この撮像装置では、内部のチップが発生させた熱が伝熱部材を介してブラケットに放出されるため、温度上昇を抑制することができる。
特開2016-14564号公報
 ウインドシールドの内側に配置されるフロントカメラの筐体には、太陽光が遮られることなく直接入射する。このため、フロントカメラでは、撮像装置の中でも特に温度上昇が生じやすい。また、フロントカメラでは、筐体における太陽光の反射光がレンズに入射すると、ゴーストなどのレンズフレアが発生しやすい。
 このように、太陽光の入射を受けやすいフロントカメラでは、温度上昇による解像度の低下や、レンズフレアの発生などによって、撮像する画像の画質が低下しやすい。したがって、フロントカメラには、太陽光の入射を受けやすい環境においても高画質の画像を撮像可能であることが求められる。
 以上のような事情に鑑み、本技術の目的は、高画質の画像を撮像可能な車載カメラ、及びこれを用いた駆動制御システムを提供することにある。
 上記目的を達成するため、本技術の一形態に係る車載カメラは、撮像素子と、筐体と、光学系と、を具備する。
 上記筐体は、上記撮像素子を収容する収容部と、外部空間に露出する外面と、上記収容部と外部空間とを連通させる開口部と、上記外面の少なくとも一部を構成し、外部空間から入射する光のうち、可視光線を吸収し、赤外線を反射する機能部と、を有する。
 上記光学系は、外部空間から上記開口部に入射する光を上記撮像素子において結像させる。
 この車載カメラでは、筐体の外面の少なくとも一部を構成する機能部に入射する可視光線が吸収される。このため、筐体の外面における可視光線の反射光の発生が抑制される。これにより、この車載カメラでは、可視光線の反射光がレンズに入り込みにくくなるため、撮像する画像にレンズフレアが発生しにくくなる。
 また、この車載カメラでは、機能部に入射する赤外線が反射されるため、筐体が赤外線を吸収することによる温度上昇が発生しにくい。このため、この車載カメラでは、構成部材の熱膨張が生じにくいため、光学系と撮像素子との相対位置がずれにくい。したがって、この車載カメラは、撮像する画像の解像度が低下しにくい。
 このように、この車載カメラは、高画質の画像を撮像可能である。
 上記機能部は、赤外線を反射する赤外線反射層と、可視光線を吸収する可視光線吸収層と、を含む積層構造を有してもよい。
 上記可視光線吸収層は、上記赤外線反射層より外側に位置し、赤外線を透過させてもよい。
 上記赤外線反射層は、上記可視光線吸収層より外側に位置し、可視光線を透過させてもよい。
 これらの車載カメラでは、積層構造の機能部によって可視光線を吸収し、赤外線を反射する構成を実現することができる。
 上記光学系は、固定焦点を有してもよい。
 この車載カメラでは、上記のとおり温度上昇しにくいため、光学系が固定焦点であっても、撮像する画像の解像度が低下しにくい。
 上記筐体は複数の開口部を有してもよい。
 上記車載カメラは、上記複数の開口部に対応した複数の撮像素子及び複数の光学系を更に具備してもよい。
 この構成では、
 上記光学系は、プラスチックレンズを含んでもよい。
 この車載カメラでは、温度上昇しにくいため、耐熱性の低いプラスチックレンズを用いることができる。これにより、車載カメラの製造コストを低減することができる。
 本技術の一形態に係る駆動制御システムは、ウインドシールドを有する移動体の駆動を制御可能に構成され、撮像素子と、筐体と、光学系と、処理ユニットと、情報生成部と、駆動制御部と、を具備する。
 上記撮像素子は、生画像を撮像する。
 上記筐体は、上記撮像素子を収容する収容部と、外部空間に露出する外面と、上記収容部と外部空間とを連通させる開口部と、上記外面の少なくとも一部を構成し、外部空間から入射する光のうち、可視光線を吸収し、赤外線を反射する機能部と、を有する。
 上記光学系は、外部空間から上記開口部に入射する光を上記撮像素子において結像させる。
 上記処理ユニットは、上記生画像への画像処理によって処理画像を生成する画像処理部と、上記処理画像への認識処理によって物体を認識する認識処理部と、上記処理画像を用いて上記物体に関する物体情報を算出する算出処理部と、を含む。
 上記情報生成部は、上記処理ユニットによる処理結果に基づいて上記移動体の駆動制御に関する駆動制御情報を生成する。
 上記駆動制御部は、上記駆動制御情報に基づいて上記移動体の駆動を制御する。
 この駆動制御システムでは、車載カメラによって高画質の画像を撮像可能であるため、移動体に対するより正確な駆動制御が可能である。
 上記処理ユニットは、上記処理画像と上記物体情報とを用いてデジタル地図を作成するマッピング処理部を更に含んでもよい。
 上記処理ユニットは、上記デジタル地図を用いて上記移動体が進行する経路を決定するパスプランニング部を更に含んでもよい。
 この駆動制御システムでは、車載カメラによって高画質の画像を撮像可能であるため、移動体に対するより高度な駆動制御が可能である。
本技術の一実施形態に係る車載カメラが搭載された自動車の斜視図である。 上記車載カメラの斜視図である。 上記車載カメラの図2のA-A'線に沿った断面図である。 上記車載カメラの機能部を説明するための部分断面図である。 上記機能部の構成例を示す部分断面図である。 上記機能部の構成例を示す部分断面図である。 上記車載カメラの別の実施形態を示す斜視図である。 本技術の一実施形態に係る駆動制御システムにおける運転補助機能を実現可能な構成を示すブロック図である。 上記駆動制御システムによる駆動制御方法を示すフローチャートである。 上記駆動制御システムの算出処理部による先行車両との車間距離の算出方法の一例を説明するための図である。 上記駆動制御システムにおける自動運転機能を実現可能な構成を示すブロック図である。 上記駆動制御システムによる駆動制御方法を示すフローチャートである。
 以下、本技術の一実施形態について図面を参照しながら説明する。
[車載カメラ1]
 (全体構成)
 図1は、本技術の一実施形態に係る車載カメラ1を搭載した自動車Mの斜視図である。自動車Mは、透明なガラス窓として、前方に配置されたウインドシールド(フロントウインドウ)M01と、後方に配置されたリアウインドウM02と、両側方に配置されたサイドウインドウM03と、を有する。
 車載カメラ1は、ウインドシールドM01の内側に取り付けられたフロントセンシングカメラである。車載カメラ1は、ウインドシールドM01の幅方向中央領域の上側に配置されている。これにより、車載カメラ1は、運転者の視界を遮ることなく、自動車Mの前方の風景を良好に撮像することができる。
 車載カメラ1が搭載される自動車Mは、走行機能を実現するために、その内部に、エンジンやモータなどを含む駆動力発生機構M11、制動機構M12、ステアリング機構M13などを備える。また、自動車Mは、周囲の情報を検出するための周囲情報検出部や、位置情報を生成するための測位部などを備えていてもよい。
 図2は、ウインドシールドM01に取り付ける前の車載カメラ1の斜視図である。図3は、ウインドシールドM01に取り付けられた状態の車載カメラ1の図2のA-A'線に沿った断面図である。つまり、図2は、車載カメラ1の幅方向中央部における前後方向に沿った縦断面を示している。
 車載カメラ1は、その外形を構成する筐体10を有する。筐体10は、中空の直方体状である中空部11と、中空部11の下部から前方に延びる延在部12と、延在部12の幅方向の両側に配置された側壁部13と、を含む。車載カメラ1は、側壁部13の上面においてウインドシールドM01の内面に接着される。
 中空部11には、その内部空間として収容部14が形成されている。また、図3に示すように、延在部12上には、ウインドシールドM01によって閉塞された外部空間である遮蔽部15が形成される。中空部11には、収容部14と遮蔽部15とを連通し、ウインドシールドM01に対向する開口部16が形成されている。
 遮蔽部15は、中空部11の前面、延在部12の上面、及び側壁部13の内側面に囲まれ、ウインドシールドM01以外において遮蔽されている。これにより、筐体10では、遮蔽部15を収容部14に接続させる開口部16に、ウインドシールドM01を透過した光のみを入射させることができる。
 また、車載カメラ1は、回路基板20と、撮像素子21と、を有する。回路基板20は、収容部14の底面に配置されている。撮像素子21は、回路基板20上に立設された接続基板21aを介して、前方に向けて配置されている。なお、撮像素子21は、回路基板20上に直接実装されていてもよい。
 撮像素子21は、特定の種類に限定されない。撮像素子21としては、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを用いることができる。回路基板20及び接続基板21aとしては、各種セラミック基板やプラスチック基板などを利用可能である。
 また、回路基板20には、撮像素子21以外にも、車載カメラ1に必要な機能を実現するための各種部品を実装することができる。例えば、回路基板20には、撮像した画像を自動車M内の他の構成に送信するための車内通信部や、撮像した画像に対して画像処理を行う画像処理部などを実装することができる。
 車載カメラ1は、レンズ31を含み、固定焦点を有する光学系30を備える。レンズ31は、その外周を保持するフレーム31aを介して、中空部11における開口部16の周縁部の前面に取り付けられている。これにより、開口部16には、その前方に隣接するレンズ31を透過した光のみが入射する。
 光学系30は、開口部16に入射する光を撮像素子21の受光面において結像させるように構成される。光学系30は、レンズ以外に、例えば、反射鏡やプリズムなどの光学部品を備えていてもよい。これにより、撮像素子21の配置によらずに、レンズ31に入射した光を撮像素子21まで導光することができる。
 筐体10は、外部空間に露出する外面の少なくとも一部を構成する機能部40を有する。具体的に、筐体10では、遮蔽部15を包囲する中空部11の前面、延在部12の上面、及び側壁部13の内側面が機能部40で構成されている。機能部40は、反射光の発生を抑制し、かつ温度上昇を抑制する機能を有する。
 なお、本技術の車載カメラ1の構成は、撮像素子21が縦4.32mm、横8.64mmのサイズ(1/1.7型)で数Mピクセル以上(特に、7Mピクセル以上)の画素数を有し、かつ光学系30の焦点位置ずれの許容範囲が数μmである場合に特に好適である。また、本技術の車載カメラ1の構成は、撮像素子21が1/1.7型で画素数が7Mピクセルの構成よりも画素の密度が高く、かつ光学系30の焦点位置ずれの許容範囲が数μmである場合にも特に好適である。
 図4は、遮蔽部15付近を示す車載カメラ1の部分断面図である。図4(A)に示すように、機能部40は、入射する光のうち可視光線を吸収するように構成されている。つまり、機能部40では可視光線の反射光の発生が抑制される。これにより、車載カメラ1では、可視光線の反射光がレンズ31に入射しにくくなる。
 特に、車載カメラ1では、レンズ31が露出する遮蔽部15を包囲する筐体10の外面が機能部40として構成されているため、レンズ31に可視光線の反射光が入射することを効果的に防止することができる。これにより、車載カメラ1では、撮像する画像にレンズフレアが発生しにくくなる。
 また、図4(B)に示すように、機能部40は、入射する光のうち赤外線を反射するように構成されている。つまり、車載カメラ1では、機能部40に入射する赤外線を外部空間に放出することができる。これにより、筐体10では、赤外線を吸収することによる温度上昇を抑制することができる。
 このため、車載カメラ1では、撮像素子21の位置が光学系30の焦点深度内に維持されるため、撮像する画像の解像度の低下が生じにくい。また、車載カメラ1では、耐熱性の低い部品を用いることが可能となり、例えば、レンズ31として廉価なプラスチックレンズを用いることができる。
 更に、車載カメラ1では、上記のとおり、遮蔽部15にウインドシールドM01以外からの光が入らない。このため、車載カメラでは、周囲環境による下方や側方からの反射光が遮蔽部15に入らない。これにより、車載カメラ1では、撮像する画像におけるレンズフレアの発生を更に抑制することができる。
 (機能部40の詳細)
 図5,6は、車載カメラ1の筐体10における機能部40を拡大して示す部分断面図である。図5,6は、機能部40において可視光線を吸収し、かつ赤外線を反射する機能を実現するための構成例を模式的に示している。なお、機能部40の構成は、図5,6に示す構成例に限定されず、様々に変更可能である。
 図5(A)に示す機能部40は、可視光線吸収層41aと、赤外線反射層42aと、を含む積層構造を有する。この機能部40では、筐体10上に赤外線反射層42aが積層され、赤外線反射層42a上に可視光線吸収層41aが積層されている。つまり、可視光線吸収層41aは、赤外線反射層42aよりも外側に配置されている。
 可視光線吸収層41aは、可視光線(約380nm~780nmの波長の光)を吸収し、赤外線(約780nm~2500nmの波長の光)を透過させるように構成されている。可視光線吸収層41aとしては、公知の構成を利用可能であり、例えば、赤外線領域に透過特性を持つように構成された黒色塗料などで形成可能である。
 赤外線反射層42aは、赤外線を反射するように構成されている。赤外線反射層42aとしては、公知の構成を利用可能であり、例えば、鏡面処理された金属板や、筐体10上に蒸着された金属蒸着膜などとすることができる。金属板や金属蒸着膜は、例えばアルミニウムなどで形成することができる。
 このような構成により、図5(A)に示す機能部40では、可視光線が可視光線吸収層41aによって吸収され、可視光線吸収層41aを透過した赤外線が赤外線反射層42aによって反射される。このように、この機能部40では、可視光線を吸収し、かつ赤外線を反射する機能を実現することができる。
 図5(B)に示す機能部40では、図5(A)に示す赤外線反射層42aが設けられておらず、筐体10自体が赤外線反射層42aとして機能する。つまり、鏡面処理が施されたアルミニウムなどで筐体10を構成することにより、筐体10自体に赤外線を反射する機能を持たせることができる。
 図5(A)(B)に示す機能部40では、黒色の可視光線吸収層41a自体が放射する赤外線も、赤外線反射層42aによって反射されて外部空間に放出される。したがって、車載カメラ1では、可視光線吸収層41a自体の放射によって得られる冷却効果によって、温度上昇が更に抑制される。
 図6(A)に示す機能部40は、可視光線吸収層41bと、赤外線反射層42bと、を含む積層構造を有する。この機能部40では、筐体10上に可視光線吸収層41bが積層され、可視光線吸収層41b上に赤外線反射層42bが積層されている。つまり、可視光線吸収層41bは、赤外線反射層42bよりも内側に配置されている。
 赤外線反射層42bは、赤外線を反射し、可視光線を透過させるように構成されている。赤外線反射層42bとしては、公知の構成を利用可能であり、例えば、可視光線領域に透過特性を持ち、かつ赤外線領域に反射特性を持つように構成された誘電体多層膜などを用いることができる。
 可視光線吸収層41bは、可視光線を吸収するように構成されている。可視光線吸収層41bとしては、公知の構成を利用可能であり、例えば、黒色塗料や黒色のプラスチックフィルムなどで形成可能である。また、可視光線吸収層41bは、筐体10の表面処理によって形成された黒色の層であってもよい。
 このような構成により、図6(A)に示す機能部40では、赤外線が赤外線反射層42bによって反射され、赤外線反射層42bを透過した可視光線が可視光線吸収層41bによって吸収される。このように、この機能部40では、可視光線を吸収し、かつ赤外線を反射する機能を実現することができる。
 図6(B)に示す機能部40では、図6(A)に示す可視光線吸収層41bが設けられておらず、筐体10自体が可視光線吸収層41bとして機能する。つまり、黒色のプラスチックなどで筐体10を構成することにより、筐体10自体に可視光線を吸収する機能を持たせることができる。
 (車載カメラ1の他の構成例)
 車載カメラ1の構成は、上記に限定されず、様々に変更可能である。例えば、図7に示すように、筐体10に複数の開口部16を設け、各開口部16ごとに光学系30及び撮像素子21を設けてもよい。この場合、車載カメラ1では、各光学系30ごとに視野角などを相互に異ならせることができる。
 また、機能部40は、上記の配置に限らず、筐体10の外面のうち少なくとも一部に配置されていれば、上記の効果が得られる。特に、機能部40は、筐体10の外面の全領域に配置されていてもよい。これにより、車載カメラ1は、優れた外観が得られることに加え、筐体10の外面の全領域において放射による冷却効果が有効に得られるため、車載カメラ1の温度上昇をより効果的に抑制することができる。
 なお、車載カメラ1では、筐体10の外面の全領域に機能部40を配置しないまでも、筐体10の外面の全領域を黒色とすることが好ましい。これにより、車載カメラ1では、優れた外観が得られることに加え、太陽光の入射の影響を受けにくくなり、特に高画質の画像を撮像可能となる。
 また、車載カメラ1は、ウインドシールドM01のみならず、リアセンシングカメラとしてリアウインドウM02に設置することもできる。更に、車載カメラ1の用途は、センシングではなく、例えば、ビューイングであってもよい。この場合、車載カメラ1によって高画質の映像の表示及び記録が可能となる。
 更に、車載カメラ1は、ウインドシールドM01の内面に直接接着されていなくてもよく、例えば、ブラケットなどを介して自動車Mの天井などに固定されていてもよい。また、車載カメラ1は、遮蔽部15が形成されない構成であってもよく、例えば、バックミラーと一体として構成されていてもよい。
 加えて、車載カメラ1は、自動車Mに限らず、様々な移動体に適用可能である。車載カメラ1を適用可能な移動体としては、例えば、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などが挙げられる。
[駆動制御システム100]
 (概略説明)
 本発明の一実施形態に係る駆動制御システム100は、上記の車載カメラ1を用いて自動車Mの駆動を制御するためのシステムである。具体的に、駆動制御システム100は、車載カメラ1によって撮像した画像を用いて、自動車Mの駆動力発生機構M11、制動機構M12、ステアリング機構M13などを制御する。
 駆動制御システム100は、自動車Mに求められる機能に応じた構成とすることができる。具体的に、駆動制御システム100によって実現可能な機能としては、例えば、運転補助機能や自動運転機能などが挙げられる。以下、運転補助機能及び自動運転機能を実現可能な駆動制御システム100の構成について説明する。
 (運転補助機能)
 運転補助機能とは、典型的には、衝突回避、衝撃緩和、追従走行(車間距離の維持)、車速維持走行、衝突警告、レーン逸脱警告などを含むADAS(Advanced Driver Assistance System)の機能である。駆動制御システム100は、これらの運転補助機能を実現可能なように構成することができる。
 図8は、運転補助機能を実現可能な駆動制御システム100の構成を示すブロック図である。駆動制御システム100は、車載カメラ1と、処理部110と、情報生成部120と、駆動制御部130と、を有する。処理部110は、画像処理部111と、認識処理部112と、算出処理部113と、を有する。
 駆動制御システム100の各構成は通信ネットワークにより接続されている。この通信ネットワークは、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)などの任意の規格に準拠した車載通信ネットワークであってよい。
 図9は、図8に示す駆動制御システム100による駆動制御方法を示すフローチャートである。図9に示す駆動制御方法は、撮像ステップST11、画像処理ステップST12、認識処理ステップST13、物体情報算出ステップST14、駆動制御情報生成ステップST15、及び駆動制御信号出力ステップST16を含む。
 撮像ステップST11では、車載カメラ1が自動車Mの前方の風景をウインドシールドM01越しに撮像して生画像を生成する。上記のとおり、車載カメラ1では、機能部40の作用によって高画質の生画像が得られる。車載カメラ1は、例えば、回路基板20に実装された車内通信部によって生画像を処理部110に送信する。
 処理部110は、典型的にはECU(Electronic Control Unit)で構成され、車載カメラ1が生成した生画像を処理する。より詳細に、処理部110では、画像処理部111が画像処理ステップST12を行い、認識処理部112が認識処理ステップST13を行い、算出処理部113が物体情報算出ステップST14を行う。
 画像処理ステップST12では、画像処理部111が生画像に画像処理を加えて処理画像を生成する。画像処理部111による画像処理は、典型的には、生画像中の物体を認識しやすくするための処理であり、例えば、自動露出制御、自動ホワイトバランス調整、ハイダイナミックレンジ合成などである。
 なお、画像処理ステップST12では、画像処理の少なくとも一部を車載カメラ1の回路基板20に実装された画像処理部によって行ってもよい。なお、画像処理ステップST12におけるすべての画像処理を車載カメラ1の画像処理部で行う場合には、処理部110には画像処理部111が含まれていなくてもよい。
 認識処理ステップST13では、認識処理部112が処理画像に対して認識処理を行うことで処理画像中の物体を認識する。なお、認識処理部112が認識する物体としては、3次元のものに限定されず、例えば、車両、歩行者、障害物、信号機、交通標識、道路の車線(レーン)、歩道の縁石などが含まれる。
 算出処理ステップST14では、算出処理部113が処理画像中の物体に関する物体情報を算出する。算出処理部113が算出する物体情報としては、例えば、物体の形状、物体までの距離、物体の移動方向及び移動速度などが挙げられる。算出処理部113は、動的な物体情報の算出には、時間的に連続する複数の処理画像を用いる。
 算出処理部113による物体情報の算出方法の一例として、先行車両MFとの車間距離の算出方法について説明する。図10は、画像処理部111が生成する処理画像Gの一例を示している。図10に示す処理画像Gには、先行車両MFと、走行レーンを規定する2本の車線L1,L2と、が示されている。
 まず、処理画像G中で2本の車線L1,L2が交わる消失点Vを求める。なお、消失点Vは、車線L1,L2によらずに、他の物体から求めてもよい。例えば、算出処理部113は、歩道の縁石や、複数の処理画像における交通標識などの固定物の移動軌跡などを用いて消失点Vを求めることもできる。
 次に、処理画像の下縁部G1から消失点Vまでの距離D0(画像における上下方向の寸法)と、処理画像の下縁部G1から先行車両MFまでの距離D1(画像における上下方向の寸法)と、を求める。先行車両MFとの車間距離は、距離D0,D1を用いて求めることができる。例えば、距離D0と距離D1との比率を用いることにより、先行車両MFとの車間距離を算出することができる。
 処理部110は、ステップST12~ST14で得られた処理画像及び物体情報を含むデータを情報生成部120に送信する。なお、処理部110は、上記の構成に限定されず、例えば、画像処理部111、認識処理部112、及び算出処理部113以外の構成を含んでいてもよい。
 駆動制御情報生成ステップST15では、情報生成部120が自動車Mに必要な駆動内容を含む駆動制御情報を生成する。より詳細に、情報生成部120は、処理部110から送信されるデータに基づいて自動車Mに実行させるべき駆動内容を判断し、この駆動内容を含む駆動制御情報を生成する。
 自動車Mの駆動内容としては、例えば、速度の変更(加速、減速)、進行方向の変更などが挙げられる。具体例として、情報生成部120は、自動車Mと先行車両MFとの車間距離が小さい場合には減速が必要と判断し、自動車Mがレーンを逸脱しそうな場合にはレーン中央寄りへの進行方向の変更が必要と判断する。
 情報生成部120は、駆動制御情報を駆動制御部130に送信する。なお、情報生成部120は、駆動制御情報以外の情報を生成してもよい。例えば、情報生成部120は、処理画像から周囲環境の明るさを検出し、周囲環境が暗い場合に自動車Mの前照灯を点灯させるための照明制御情報を生成してもよい。
 駆動制御信号出力ステップST16では、駆動制御部130が駆動制御情報に基づいた駆動制御信号の出力を行う。例えば、駆動制御部130は、駆動力発生機構M11によって自動車Mを加速させ、制動機構M12によって自動車Mを減速させ、ステアリング機構M13によって自動車Mの進行方向を変更させることができる。
 (自動運転機能)
 自動運転機能とは、運転者の操作によらずに、自動車Mを自律的に走行させる機能である。自動運転機能の実現のためには、運転補助機能よりも高度な駆動制御が必要となる。駆動制御システム100は、高画質の生画像を生成可能な車載カメラ1を用いることにより、自動運転機能を実現可能な高度な駆動制御をより正確に実行可能となる。
 図11は、自動運転機能を実現可能な駆動制御システム100の構成を示すブロック図である。この駆動制御システム100は、図8に示す各構成に加え、処理部110に含まれるマッピング処理部114及びパスプランニング部115を更に有する。以下、図8に示す構成と同様の構成については適宜説明を省略する。
 図12は、図11に示す駆動制御システム100による駆動制御方法を示すフローチャートである。図12に示す駆動制御方法は、図9に示す各ステップに加え、マッピング処理部114によるマッピング処理ステップST21と、パスプランニング部115によるパスプランニングステップST22と、を含む。
 図12に示すとおり、マッピング処理ステップST21及びパスプランニングステップST22は、物体情報算出ステップST14と駆動制御情報生成ステップST15との間に実行する。パスプランニングステップST22は、マッピング処理ステップST21の後に実行する。
 マッピング処理ステップST21では、マッピング処理部114が処理画像及び物体情報を用いて空間マッピングを行うことによりデジタル地図を作成する。マッピング処理部114が作成するデジタル地図は、自動運転に必要な静的情報及び動的情報が組み合わされて構成された3次元地図である。
 駆動制御システム100では、車載カメラ1によって高画質の生画像が得られるため、マッピング処理部114によって高精細なデジタル地図を作成可能である。なお、マッピング処理部114は、車載カメラ1による生画像以外の情報を取得することにより、更に情報量の多いデジタル地図を作成可能となる。
 例えば、マッピング処理部114は、自動車Mに備えられた周囲情報検出部や測位部などからの情報を取得することができる。また、マッピング処理部114は、車外との通信を可能にする車外通信部を介して外部環境に存在する様々な機器との間で通信を行うことにより、様々な情報を取得することができる。
 周囲情報検出部は、例えば、超音波センサ、レーダ装置、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置などとして構成される。マッピング処理部114は、車載カメラ1からは得られにくい自動車Mの後方や側方などの情報も周囲情報検出部から取得可能である。
 測位部は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行可能に構成される。マッピング処理部114は、測位部から自動車Mの位置に関する情報を取得可能である。
 車外通信部は、例えば、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)、LTE-A(LTE-Advanced)、無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などを用いた構成とすることができる。
 パスプランニングステップST22では、パスプランニング部115がデジタル地図を用いて自動車Mの進行経路を決定するパスプランニングを実行する。パスプランニングには、例えば、道路上の空きスペースの検出や、車両や人間などの物体の移動予測などの様々な処理が含まれる。
 処理部110は、パスプランニングステップST22の後に、ステップST12~ST14で得られた処理画像及び物体情報を含むデータに加え、ステップST21,ST22で得られたデジタル地図やパスプランニングの結果を含むデータを情報生成部120に一括して送信する。
 駆動制御情報生成ステップST15では、情報生成部120がパスプランニングステップST22で決定されたパスプランニングのとおりの進行経路で自動車Mを走行させるための駆動内容を含む駆動制御情報を生成する。情報生成部120は、生成した駆動制御情報を駆動制御部130に送信する。
 駆動制御信号出力ステップST16では、駆動制御部130が駆動制御情報に基づいた駆動制御信号の出力を行う。つまり、駆動制御部130は、自動車Mがパスプランニングのとおりの進行経路で安全に走行可能なように、駆動力発生機構M11、制動機構M12、及びステアリング機構M13などの駆動制御を行う。
[その他の実施形態]
 以上、本技術の実施形態について説明したが、本技術は上述の実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
 なお、本技術は以下のような構成も採ることができる。
 (1)
 撮像素子と、
 前記撮像素子を収容する収容部と、外部空間に露出する外面と、前記収容部と外部空間とを連通させる開口部と、前記外面の少なくとも一部を構成し、外部空間から入射する光のうち、可視光線を吸収し、赤外線を反射する機能部と、を有する筐体と、
 外部空間から前記開口部に入射する光を前記撮像素子において結像させる光学系と、
 を具備する車載カメラ。
 (2)
 上記(1)に記載の車載カメラであって、
 前記機能部は、赤外線を反射する赤外線反射層と、可視光線を吸収する可視光線吸収層と、を含む積層構造を有する
 車載カメラ。
 (3)
 上記(2)に記載の車載カメラであって、
 前記可視光線吸収層は、前記赤外線反射層より外側に位置し、赤外線を透過させる
 車載カメラ。
 (4)
 上記(2)に記載の車載カメラであって、
 前記赤外線反射層は、前記可視光線吸収層より外側に位置し、可視光線を透過させる
 車載カメラ。
 (5)
 上記(1)から(4)のいずれか1つに記載の車載カメラであって、
 前記光学系は、固定焦点を有する
 車載カメラ。
 (6)
 上記(1)から(5)のいずれか1つに記載の車載カメラであって、
 前記筐体は複数の開口部を有し、
 前記車載カメラは、前記複数の開口部に対応した複数の撮像素子及び複数の光学系を更に具備する
 車載カメラ。
 (7)
 上記(1)から(6)のいずれか1つに記載の車載カメラであって、
 前記光学系は、プラスチックレンズを含む
 車載カメラ。
 (8)
 ウインドシールドを有する移動体の駆動を制御するための駆動制御システムであって、
 生画像を撮像する撮像素子と、
 前記撮像素子を収容する収容部と、外部空間に露出する外面と、前記収容部と外部空間とを連通させる開口部と、前記外面の少なくとも一部を構成し、外部空間から入射する光のうち、可視光線を吸収し、赤外線を反射する機能部と、を有し、前記ウインドシールドの内側に、前記開口部を前記ウインドシールドに向けて配置される筐体と、
 外部空間から前記開口部に入射する光を前記撮像素子において結像させる光学系と、
 前記生画像への画像処理によって処理画像を生成する画像処理部と、前記処理画像への認識処理によって物体を認識する認識処理部と、前記処理画像を用いて前記物体に関する物体情報を算出する算出処理部と、を含む処理ユニットと、
 前記処理ユニットによる処理結果に基づいて前記移動体の駆動制御に関する駆動制御情報を生成する情報生成部と、
 前記駆動制御情報に基づいて前記移動体の駆動を制御する駆動制御部と、
 を具備する駆動制御システム。
 (9)
 上記(8)に記載の駆動制御システムであって、
 前記処理ユニットは、前記処理画像と前記物体情報とを用いてデジタル地図を作成するマッピング処理部を更に含む
 駆動制御システム。
 (10)
 上記(9)に記載の駆動制御システムであって、
 前記処理ユニットは、前記デジタル地図を用いて前記移動体の進行経路を決定するパスプランニング部を更に含む
 駆動制御システム。
1…車載カメラ
10…筐体
11…中空部
12…延在部
13…側壁部
14…収容部
15…遮蔽部
16…開口部
20…回路基板
21…撮像素子
30…光学系
31…レンズ
40…機能部
41a,41b…可視光線吸収層
42a,42b…赤外線反射層
100…駆動制御システム
110…処理部
111…画像処理部
112…認識処理部
113…算出処理部
114…マッピング処理部
115…パスプランニング部
120…情報生成部
130…駆動制御部
M…自動車
M1…ウインドシールド

Claims (10)

  1.  撮像素子と、
     前記撮像素子を収容する収容部と、外部空間に露出する外面と、前記収容部と外部空間とを連通させる開口部と、前記外面の少なくとも一部を構成し、外部空間から入射する光のうち、可視光線を吸収し、赤外線を反射する機能部と、を有する筐体と、
     外部空間から前記開口部に入射する光を前記撮像素子において結像させる光学系と、
     を具備する車載カメラ。
  2.  請求項1に記載の車載カメラであって、
     前記機能部は、赤外線を反射する赤外線反射層と、可視光線を吸収する可視光線吸収層と、を含む積層構造を有する
     車載カメラ。
  3.  請求項2に記載の車載カメラであって、
     前記可視光線吸収層は、前記赤外線反射層より外側に位置し、赤外線を透過させる
     車載カメラ。
  4.  請求項2に記載の車載カメラであって、
     前記赤外線反射層は、前記可視光線吸収層より外側に位置し、可視光線を透過させる
     車載カメラ。
  5.  請求項1に記載の車載カメラであって、
     前記光学系は、固定焦点を有する
     車載カメラ。
  6.  請求項1に記載の車載カメラであって、
     前記筐体は複数の開口部を有し、
     前記車載カメラは、前記複数の開口部に対応した複数の撮像素子及び複数の光学系を更に具備する
     車載カメラ。
  7.  請求項1に記載の車載カメラであって、
     前記光学系は、プラスチックレンズを含む
     車載カメラ。
  8.  ウインドシールドを有する移動体の駆動を制御するための駆動制御システムであって、
     生画像を撮像する撮像素子と、
     前記撮像素子を収容する収容部と、外部空間に露出する外面と、前記収容部と外部空間とを連通させる開口部と、前記外面の少なくとも一部を構成し、外部空間から入射する光のうち、可視光線を吸収し、赤外線を反射する機能部と、を有し、前記ウインドシールドの内側に、前記開口部を前記ウインドシールドに向けて配置される筐体と、
     外部空間から前記開口部に入射する光を前記撮像素子において結像させる光学系と、
     前記生画像への画像処理によって処理画像を生成する画像処理部と、前記処理画像への認識処理によって物体を認識する認識処理部と、前記処理画像を用いて前記物体に関する物体情報を算出する算出処理部と、を含む処理ユニットと、
     前記処理ユニットによる処理結果に基づいて前記移動体の駆動制御に関する駆動制御情報を生成する情報生成部と、
     前記駆動制御情報に基づいて前記移動体の駆動を制御する駆動制御部と、
     を具備する駆動制御システム。
  9.  請求項8に記載の駆動制御システムであって、
     前記処理ユニットは、前記処理画像と前記物体情報とを用いてデジタル地図を作成するマッピング処理部を更に含む
     駆動制御システム。
  10.  請求項9に記載の駆動制御システムであって、
     前記処理ユニットは、前記デジタル地図を用いて前記移動体の進行経路を決定するパスプランニング部を更に含む
     駆動制御システム。
PCT/JP2019/028463 2018-08-06 2019-07-19 車載カメラ、及びこれを用いた駆動制御システム WO2020031660A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/250,493 US11851007B2 (en) 2018-08-06 2019-07-19 Vehicle-mounted camera and drive control system using vehicle-mounted camera
JP2020536423A JP7247201B2 (ja) 2018-08-06 2019-07-19 車載カメラ、及びこれを用いた駆動制御システム
CN201980050640.4A CN112514361B (zh) 2018-08-06 2019-07-19 车载相机和使用车载相机的驱动控制系统
EP19847756.4A EP3836530A4 (en) 2018-08-06 2019-07-19 VEHICLE MOUNTED CAMERA AND DRIVE CONTROL SYSTEM USING IT

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018147409 2018-08-06
JP2018-147409 2018-08-06

Publications (1)

Publication Number Publication Date
WO2020031660A1 true WO2020031660A1 (ja) 2020-02-13

Family

ID=69414752

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/028463 WO2020031660A1 (ja) 2018-08-06 2019-07-19 車載カメラ、及びこれを用いた駆動制御システム

Country Status (5)

Country Link
US (1) US11851007B2 (ja)
EP (1) EP3836530A4 (ja)
JP (1) JP7247201B2 (ja)
CN (1) CN112514361B (ja)
WO (1) WO2020031660A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115185152A (zh) * 2022-06-24 2022-10-14 长春理工大学 一种具有防曝光系统的折反射全景视觉检测设备及防曝光方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003300414A (ja) * 2002-04-11 2003-10-21 Mitsubishi Electric Corp 車載装置
JP2016014564A (ja) 2014-07-01 2016-01-28 株式会社リコー 撮像ユニット
JP2018042141A (ja) * 2016-09-08 2018-03-15 株式会社デンソー 撮像装置
JP2018084950A (ja) * 2016-11-24 2018-05-31 株式会社Jvcケンウッド 車両用記録装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3900957B2 (ja) * 2002-02-15 2007-04-04 三菱電機株式会社 赤外線カメラ
JP4419609B2 (ja) * 2004-03-01 2010-02-24 株式会社デンソー 車載カメラシステム
JP2009204697A (ja) * 2008-02-26 2009-09-10 Olympus Imaging Corp 複数方向撮像装置及びそれを備えた車両
EP2982941B1 (en) 2014-08-07 2019-02-27 Conti Temic microelectronic GmbH Sensor device housing
DE102014218249A1 (de) 2014-09-11 2015-12-17 Conti Temic Microelectronic Gmbh Vorrichtung zur befestigung eines optischen sensors an der innenseite einer fahrzeugscheibe
JP2018022953A (ja) * 2016-08-01 2018-02-08 ソニーセミコンダクタソリューションズ株式会社 車載カメラ、車載用カメラ装置、並びに車載カメラの支持方法
KR102657096B1 (ko) * 2016-08-24 2024-04-15 삼성전자주식회사 광학 모듈 및 이를 구비한 전자 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003300414A (ja) * 2002-04-11 2003-10-21 Mitsubishi Electric Corp 車載装置
JP2016014564A (ja) 2014-07-01 2016-01-28 株式会社リコー 撮像ユニット
JP2018042141A (ja) * 2016-09-08 2018-03-15 株式会社デンソー 撮像装置
JP2018084950A (ja) * 2016-11-24 2018-05-31 株式会社Jvcケンウッド 車両用記録装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3836530A4

Also Published As

Publication number Publication date
US11851007B2 (en) 2023-12-26
EP3836530A4 (en) 2021-11-24
CN112514361B (zh) 2023-06-23
EP3836530A1 (en) 2021-06-16
CN112514361A (zh) 2021-03-16
JP7247201B2 (ja) 2023-03-28
JPWO2020031660A1 (ja) 2021-08-26
US20210291750A1 (en) 2021-09-23

Similar Documents

Publication Publication Date Title
CN107272168B (zh) 车辆用照相机
JP6519355B2 (ja) カメラ装置及び車載システム
KR101822895B1 (ko) 차량 운전 보조 장치 및 차량
KR102012776B1 (ko) 차량용 어라운드 뷰 제공 장치 및 차량
CN107380056A (zh) 车辆用照明装置以及车辆
US10855906B2 (en) Camera apparatus for vehicle, and vehicle
US11507789B2 (en) Electronic device for vehicle and method of operating electronic device for vehicle
JP7379425B2 (ja) 固体撮像装置、および電子装置
WO2019181112A1 (ja) 撮像システム及びこれに用いる車両用ウィンドウ
WO2019193977A1 (ja) 撮像装置
WO2020137754A1 (ja) 測距装置及び測距方法
JP7247201B2 (ja) 車載カメラ、及びこれを用いた駆動制御システム
WO2019163315A1 (ja) 情報処理装置、撮像装置、及び撮像システム
WO2021161858A1 (ja) 測距装置および測距方法
WO2021090722A1 (ja) 撮像装置
US20230375800A1 (en) Semiconductor device and optical structure body
WO2023195395A1 (en) Light detection device and electronic apparatus
WO2020189091A1 (ja) 光モジュールおよび測距装置
WO2024048292A1 (ja) 光検出素子、撮像装置、及び車両制御システム
WO2021161857A1 (ja) 測距装置および測距方法
JP2024073899A (ja) 撮像素子

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19847756

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020536423

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019847756

Country of ref document: EP

Effective date: 20210309