WO2006028180A1 - カメラ及びカメラ装置 - Google Patents

カメラ及びカメラ装置 Download PDF

Info

Publication number
WO2006028180A1
WO2006028180A1 PCT/JP2005/016532 JP2005016532W WO2006028180A1 WO 2006028180 A1 WO2006028180 A1 WO 2006028180A1 JP 2005016532 W JP2005016532 W JP 2005016532W WO 2006028180 A1 WO2006028180 A1 WO 2006028180A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
unit
dimensional object
vehicle
adjustment
Prior art date
Application number
PCT/JP2005/016532
Other languages
English (en)
French (fr)
Inventor
Kazufumi Mizusawa
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP05782305A priority Critical patent/EP1781018A1/en
Priority to US11/659,618 priority patent/US20070242944A1/en
Priority to JP2006535820A priority patent/JPWO2006028180A1/ja
Publication of WO2006028180A1 publication Critical patent/WO2006028180A1/ja

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/101Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using cameras with adjustable capturing direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking

Definitions

  • the present invention relates to a camera for in-vehicle use and the like, and a camera device that can provide a driver with information on the surroundings of a vehicle photographed by the camera as driving assistance information.
  • a conventional in-vehicle camera system has an ALC (Automatic Light Control) circuit (for example, see Non-Patent Document 1) that automatically adjusts the lens diaphragm according to the illuminance of the subject in the screen and keeps the amount of incident light constant.
  • ALC Automatic Light Control
  • AGC Automatic Gain Control
  • the conventional vehicle-mounted camera system is intended to provide a good image on the entire screen or a predetermined screen area. For this reason, the information necessary for realizing safe driving in a necessary area for the driver is not necessarily presented as a good video, and there has been a problem.
  • the (two-lens type) stereo camera device described in Patent Document 1 has a configuration that is devised with respect to temperature countermeasures, and is necessary for safe driving by using the twin-lens camera well. Information is not provided in a good image in the image area necessary for the driver.
  • the one described in Patent Document 2 is to construct a vehicle driving monitoring system using a (two-lens) stereo camera. Similarly, information necessary for safe driving is used for driving. It is not intended to provide a good image in the necessary image area for the user.
  • Non-patent document 1 Hiroo Takemura "Introduction to CCD camera technology", Corona, August 20, 1998, pp. 64-165
  • Patent Document 1 JP 2001-88609 A
  • Patent Document 2 Japanese Patent Laid-Open No. 2004-173195
  • the camera of the present invention is a camera that includes a lens, a diaphragm, a photoelectric conversion unit that receives light after passing through the lens and the diaphragm, and shoots the periphery of the vehicle, wherein the photoelectric conversion unit And an adjustment unit that is connected to the driving means of the diaphragm and automatically adjusts the gain and the diaphragm, and an output from a sensor unit outside the camera device that detects a three-dimensional object around the vehicle. It is characterized by comprising a reference determining unit for determining and a video generating unit for converting a signal input from the adjusting unit into a signal format to be displayed on a monitor. With this configuration, the three-dimensional object can be provided as a good image.
  • the present invention is characterized by comprising a graphic unit that superimposes a graphic on a region where a three-dimensional object detected by the sensor unit exists.
  • the present invention is characterized in that the reference determining unit has a function of determining an area where a three-dimensional object detected closest to the camera is captured as an adjustment reference area! / RU
  • the present invention is characterized in that the reference determining unit has a function of determining an area where a three-dimensional object detected within a certain distance from the camera is reflected as an adjustment reference area. Yes.
  • the present invention is characterized in that the adjustment section includes an ALC (Automatic Light Control) circuit and a Z or AGC (Automatic Gain Control) circuit.
  • ALC Automatic Light Control
  • AGC Automatic Gain Control
  • the present invention is characterized in that the ALC circuit automatically adjusts the lens diaphragm to keep the amount of incident light constant.
  • the present invention is characterized in that the AGC circuit adjusts a gain so that an output level of a signal within an adjustment reference range notified from the reference determination unit is kept constant. It is said.
  • the camera device of the present invention includes a camera for photographing a vehicle periphery and the vehicle periphery.
  • a camera device comprising a sensor unit that detects a three-dimensional object and a monitor that presents a video of the camera to a driver
  • the camera includes an adjustment unit that automatically adjusts a gain and an aperture, and an output of the sensor unit.
  • a reference determining unit that determines an image area to be used as an adjustment reference
  • a video generation unit that converts a signal input from the adjustment unit into a signal format to be displayed on the monitor.
  • the present invention provides a camera that captures the periphery of a vehicle, a sensor unit that detects a three-dimensional object around the vehicle, a monitor that presents an image of the camera to a driver,
  • the camera device includes a graphic unit that superimposes a graphic on a region where a three-dimensional object detected by the sensor unit is present, and the camera includes an adjustment unit that automatically adjusts a gain and an aperture, and an output of the sensor unit.
  • a reference determination unit that determines an image region to be an adjustment reference using a video signal, and a video generation unit that converts a signal input from the adjustment unit into a signal format to be displayed on the monitor.
  • the three-dimensional object detected by the sensor unit can be provided as a good image, and the detected three-dimensional object can be highlighted with graphics to alert the driver.
  • an image captured by the camera is divided in advance into a plurality of regions that are minimum units of an image region to be an adjustment reference determined by the reference determination unit,
  • the sensor unit is configured to detect a three-dimensional object for each range captured by the divided region, and the adjustment unit uses at least one of the regions as an adjustment reference image region. It is characterized by having. With this configuration, the sensor unit and the reference determination unit can detect the presence or absence of a three-dimensional object for each region, and determine whether or not the reference object is used as a reference range, thereby improving the robustness described later. .
  • the present invention is characterized in that the reference determining unit has a function of determining an area where a three-dimensional object detected closest to the camera is captured as an adjustment reference area!
  • the present invention is characterized in that the reference determining unit has a function of determining, as an adjustment reference region, an area in which a three-dimensional object detected within a certain distance from the camera is shown. It is said. With this configuration, even when there are a plurality of three-dimensional objects, a three-dimensional object existing within a certain distance from a vehicle that is expected to be highly important to the driver can be provided as a good image.
  • the present invention is characterized in that the sensor unit uses any one of an ultrasonic sensor, a laser radar sensor, and a millimeter wave radar sensor.
  • the vehicle force is generated by the first camera for photographing the periphery of the vehicle, the first camera, and a second camera provided separately from the first camera.
  • a camera device comprising: a sensor unit that detects a distance to an object; and a monitor that presents a video of the camera to a driver
  • the first camera includes a lens and an aperture, and an adjustment unit that automatically adjusts the gain and the aperture.
  • a reference determining unit that determines an image region to be used as an adjustment reference using the output of the sensor unit, and a video generation unit that converts a signal input from the adjusting unit into a signal format to be displayed on the monitor.
  • the second camera includes at least a lens and an aperture, and an image generation unit.
  • the present invention is characterized in that the sensor unit includes a recognition unit that detects a three-dimensional object closest to the vehicle.
  • the present invention is characterized in that the first camera includes a graphic unit that superimposes a graphic on a region where a three-dimensional object detected by the sensor unit exists.
  • the present invention is characterized in that the adjustment section includes an ALC (Automatic Light Control) circuit and a Z or AGC (Automatic Gain Control) circuit.
  • ALC Automatic Light Control
  • AGC Automatic Gain Control
  • the present invention is characterized in that the ALC circuit automatically adjusts the lens diaphragm to keep the incident light amount constant.
  • the present invention is characterized in that the AGC circuit adjusts a gain so that an output level of a signal within an adjustment reference range notified from the reference determination unit is kept constant. It is a sign.
  • a video creation method using a camera device which includes a camera that captures a vehicle periphery, a sensor unit that detects a three-dimensional object around the vehicle, and a video image of the camera to a driver.
  • An image creation method by a camera device including a monitor to be presented, the step of photographing the periphery of the vehicle, the step of detecting the position of a three-dimensional object around the vehicle, and the position detection step Calculating the area where the three-dimensional object is displayed, adjusting the information power image regarding the position of the three-dimensional object, and the adjusted video information. And a step of displaying the video on the monitor.
  • the present invention provides the vehicle force by using a first camera that captures the vehicle periphery, the first camera, and a second camera provided separately from the vehicle force.
  • An image creation method using a camera device including a sensor unit for detection and a monitor for presenting an image of the camera to a driver, the step of photographing the periphery of the vehicle, and the position of a three-dimensional object around the vehicle.
  • the present invention is characterized by including a graphic step of superimposing a graphic on a region where the three-dimensional object exists in the video.
  • FIG. 1 is a schematic diagram showing the configuration of a camera according to a first embodiment of the present invention.
  • FIG. 2 is a schematic diagram showing the overall configuration of a camera device according to a second embodiment of the present invention.
  • FIG. 3 is a block diagram showing a configuration of a camera device according to a second embodiment of the present invention.
  • FIG. 4 (A) Example of region division in reference determination unit according to second to fourth embodiments of the present invention (B) Monitor display example of camera device (C) Monitor in second embodiment of the present invention (D) Display example on the monitor in the second embodiment of the present invention
  • FIG. 5 is a flowchart showing an image creation method by the camera apparatus according to the second embodiment of the present invention.
  • FIG. 6 is a block diagram showing a configuration of a camera device according to a third embodiment of the present invention.
  • FIG. 7 is a block diagram showing a configuration of a camera device according to a fourth embodiment of the present invention.
  • FIG. 1 shows an in-vehicle camera according to a first embodiment of the present invention.
  • This camera is located around the host vehicle (hereinafter referred to as “vehicle body”), for example, rearward or sideward.
  • An image is taken, and includes a lens 11, a diaphragm 12, a photoelectric conversion unit 13, a reference determination unit 14, an adjustment unit 15, and a video generation unit 16.
  • the lens 11 focuses incident light on the photoelectric conversion unit 13 in order to capture a desired image around the vehicle.
  • the photoelectric conversion unit 13 includes a charge coupled device (CCD) or the like.
  • CCD charge coupled device
  • the reference determining unit 14 is for determining an imaging region that is expected to be highly important (to be a standard) for safe driving for the driver, and the input is the output of the sensor processing unit 32. It is connected to the.
  • the reference determining unit 14 determines an image region to be used as an adjustment reference by using an output of a sensor unit (not shown) provided outside the camera that detects a three-dimensional object around the vehicle body.
  • the sensor input terminal 10A is provided on the housing 10 for connection to the HO.
  • the adjusting unit 15 adjusts the aperture and gain, and the input is connected to the output of the reference determining unit 14 and the output is connected to a motor (not provided in the drawing) attached to the aperture 12 (provided for the squeezing driving means). It is connected.
  • the adjustment unit 15 is connected to the photoelectric conversion unit 13 and the output is also connected to the input of the video generation unit 16.
  • the video generation unit 16 converts the signal input from the adjustment unit 15 into a signal format to be displayed on the monitor, and the video output terminal 10B is connected to the housing 10 for connection with a monitor (not shown) outside the camera 1. Is provided.
  • the camera 1 Based on the position information of the three-dimensional object input from the sensor unit 3, the camera 1 adjusts the aperture and gain by the adjustment unit 15 so that the three-dimensional object is displayed as a good image, and the monitor 1 is not shown. Video signal is output to.
  • the image may not necessarily display a person well. In such a case, the following adjustment process is performed.
  • the light beam captured from the lens 11 is imaged on the photoelectric conversion unit 13 with the amount of light limited by the diaphragm 12.
  • the adjustment unit 15 controls the adjustment amount of the diaphragm 12 based on the signal input from the photoelectric conversion unit 13 and the signal related to the adjustment reference range input from the reference determination unit 14, and the photoelectric conversion unit 13 Controls the amount of light that enters and receives light.
  • the reference determining unit 14 is a three-dimensional object input from a sensor unit (not shown) (this sensor is connected to the reference determining unit 14 in the camera 1 via the sensor input terminal 10A).
  • the adjustment reference range is determined based on the position information and output to the adjustment unit 15.
  • the adjustment unit 15 adjusts the gain of the signal input from the photoelectric conversion unit 13 based on the adjustment reference range, and outputs it to the video generation unit 16.
  • This video generation unit 16 is a signal input from the adjustment unit 15. Is converted into a signal format that can be displayed on a monitor (not shown) (this monitor is connected to the video generation unit 16 in the camera 1 via the video output terminal 10B).
  • the three-dimensional object detected by the sensor unit is displayed well on the monitor, and it is possible to provide important information to the driver for safe driving and the like.
  • the graphic unit is not provided. However, as shown in FIG. 6, even if the graphic unit for superimposing the graphic is provided in the area where the three-dimensional object detected by the sensor unit exists. Good.
  • FIG. 2 shows an in-vehicle camera device according to a second embodiment of the present invention.
  • This in-vehicle camera device includes a single camera 1 that images the rear of the vehicle body C on the vehicle body C, and a three-dimensional object. It has a sensor unit 3 that detects and a monitor 4 that displays the output video of the camera 1.
  • the camera 1 is the same as that in the first embodiment.
  • the lens 11, the diaphragm 12, the photoelectric conversion unit 13, the reference determination unit 14, and the adjustment unit 15 are used.
  • a video generation unit 16 the lens 11 forms incident light on the photoelectric conversion unit 13 in order to capture a desired image around the vehicle, and the photoelectric conversion unit 13 uses a charge coupled device (CCD) or the like.
  • CCD charge coupled device
  • the reference determination unit 14 is for determining an imaging region that is expected to be highly important for safe driving for the driver (should be a standard), and the input is the output of the sensor processing unit 32. It is connected to the.
  • the adjusting unit 15 adjusts the aperture and gain, and the input is connected to the output of the reference determining unit 14 and the output is connected to a motor (not provided in the drawing) attached to the aperture 12 (provided for the drawing drive means). Has been.
  • the adjustment unit 15 is connected to the photoelectric conversion unit 13, and the output is also connected to the input of the video generation unit 16.
  • the sensor unit 3 detects a three-dimensional object (for example, a pedestrian M or a power pole) located on the road surface behind the vehicle body C by an ultrasonic sensor, as shown in FIG.
  • a sensor head 31 and a sensor processing unit 32 are provided.
  • the sensor head 31 transmits / receives ultrasonic waves and outputs the reception result to the sensor processing unit 32.
  • the sensor processing unit 32 is for processing the output signal from the sensor head 31 to detect the presence / absence of a three-dimensional object and its position, and the output is connected to the input of the reference determination unit 14 !,
  • the sensor processing unit 32 is for processing the output signal from the sensor head 31 to detect the presence / absence of a three-dimensional object and its position, and the output is connected to the input of the reference determination unit 14 !,
  • the camera 1 adjusts the aperture and gain by the adjustment unit 15 so that the three-dimensional object is displayed as a good image based on the position information of the three-dimensional object input from the sensor unit 3. Adjust and output the video signal to monitor 4.
  • the person M when a person M exists as a three-dimensional object behind the vehicle body C, the person M is detected by the sensor unit 3. As shown in Fig. 4 (C), the output of the signal related to video information captured by camera 1 is adjusted by the adjusting unit 15 so that the person M is displayed on the monitor 4 well. Is done.
  • the light beam taken in from the lens 11 is limited in light quantity by the diaphragm 12 and forms an image on the photoelectric conversion unit 13.
  • the adjustment unit 15 controls the adjustment amount of the diaphragm 12 based on the signal input from the photoelectric conversion unit 13 and the signal related to the adjustment reference range input from the reference determination unit 14, and the photoelectric conversion unit 13 Controls the amount of light that enters and receives light.
  • the reference determination unit 14 determines the position information force adjustment reference range of the three-dimensional object input from the sensor unit 3, and outputs it to the adjustment unit 15.
  • the adjustment unit 15 adjusts the gain of the signal input from the photoelectric conversion unit 13 based on the adjustment reference range, and outputs it to the video generation unit 16.
  • the video generation unit 16 converts the signal input from the adjustment unit 15 into a signal format that can be displayed on the monitor 4. Therefore, the three-dimensional object detected by the sensor unit 3 is satisfactorily displayed on the monitor 4 and can provide important information to the driver for safe driving.
  • the entire screen is divided in advance into a plurality of regions as indicated by dotted lines in a vertical and horizontal grid pattern.
  • the position is notified from the sensor unit 3, and the reference determining unit 14
  • the area where the detected three-dimensional object is displayed is calculated.
  • the reference determination unit 14 determines the three-dimensional object from the position of the three-dimensional object detected by the sensor processing unit 32 of the sensor unit 3. It can be calculated in which area of the video output of camera 1.
  • the reference determination unit 14 notifies the adjustment unit 15 of the area in which the three-dimensional object detected by the sensor unit 3 is displayed as the adjustment reference range.
  • the area filled with diagonal lines is the adjustment reference range.
  • the adjustment unit 15 When a plurality of three-dimensional objects are detected by the sensor unit 3, the adjustment unit 15 is notified of only the area where the three-dimensional object closest to the vehicle body C is displayed as the adjustment range. Alternatively, the adjustment unit 15 is notified as an adjustment range only for a region where a three-dimensional object located within a certain distance from the vehicle body C is displayed. Note that, when the three-dimensional object is not detected by the sensor unit 3, the reference determination unit 14 outputs a predetermined region as the adjustment reference range.
  • the adjustment unit 15 like the reference determination unit 14, the entire screen is divided in advance into a plurality of regions as indicated by dotted lines in FIG.
  • the adjustment unit 15 measures only the magnitude of the output signal from the photoelectric conversion unit 13 within the adjustment reference range notified from the reference determination unit 14, and controls the aperture amount of the aperture 12. To do. That is, when the signal value is large, the diaphragm is closed to limit the amount of light, and when the signal value is small, the diaphragm is opened to increase the amount of light.
  • a circuit that controls the aperture according to the magnitude of the output signal of the photoelectric conversion unit 13 is widely known as an ALC (Automatic Light Control) circuit.
  • the adjustment unit 15 adjusts the gain so that the output level of the signal within the adjustment reference range notified from the reference determination unit 14 is kept constant.
  • a gain adjustment circuit is widely known as an AGC (Automatic Gain Control) circuit.
  • the sensor unit 3 for example, an ultrasonic sensor can be used as described above, and the sensor unit 3 is installed so as to detect a three-dimensional object within the shooting range of the camera 1.
  • the sensor unit 3 includes a sensor head 31 that outputs and receives ultrasonic waves, and a sensor processing unit that analyzes the received ultrasonic waves and detects the position of a three-dimensional object. 32.
  • the sensor processing unit 32 outputs the detected position of the three-dimensional object to the reference determination unit 14.
  • the detection of the three-dimensional object by the sensor unit 3 may be of a resolution that can correspond to the region divided by the reference determination unit 14, so the detection range may be divided into a plurality of regions in advance. good.
  • the surroundings of the vehicle are photographed using the camera 1 (first step S1), and the sensor processing unit 32 of the sensor unit 3 detects the position of the vehicle (second step S2).
  • the reference determining unit 14 inputs data regarding the position of the three-dimensional object output from the sensor processing unit 32 of the sensor unit 3
  • the reference determining unit 14 calculates an area in which the three-dimensional object is displayed from this data (third step S3).
  • the adjusting unit 15 controls the aperture amount of the aperture 12 based on the data regarding the position of the three-dimensional object.
  • the adjustment unit 15 keeps the output level of the input signal from the photoelectric conversion unit 13 constant within the adjustment reference range notified from the reference determination unit 14. Adjust the gain. As a result, the three-dimensional object detected by the sensor unit 3 is displayed as a good image on the monitor 4 (fifth step S5).
  • the sensor unit 3 that detects a three-dimensional object, and the image range that serves as a calculation reference for the adjustment amount for the aperture and gain based on the detection result of the sensor unit 3 are determined.
  • the standard decision unit 14 to be determined and the adjustment unit 15 to determine and control the aperture amount and gain of the image range force of the standard decision unit 14 the three-dimensional object detected by the sensor unit 3 is provided as a good image. Yes (see Figure 4 (C)).
  • the image captured by the camera 1 is divided in advance into a plurality of regions serving as the minimum unit of the image region used as the adjustment reference determined by the reference determination unit 14, so that the sensor unit 3 and the reference determination unit 14 Can detect the presence or absence of a three-dimensional object for each area, and determine whether or not it is a reference range.
  • the sensor unit 3 and the reference determination unit 14 Can detect the presence or absence of a three-dimensional object for each area, and determine whether or not it is a reference range.
  • the reference determination unit 14 determines a region in which the three-dimensional object detected closest to the vehicle body C is captured as the adjustment reference region.
  • the reference determination unit 14 determines a good 3D object located closest to the vehicle body C, which is expected to be highly important for the driver.
  • by adopting a processing configuration that determines the area in which a three-dimensional object detected within a certain distance from the vehicle body C is taken as the adjustment reference area even if there are multiple three-dimensional objects, the importance of the driver is reduced.
  • a three-dimensional object existing within a certain distance from the host vehicle, which is expected to be high, can be provided as a good image.
  • the in-vehicle camera device of the present embodiment is equipped with a camera 2 further provided with a daraffic section 21 as shown in FIG. That is, the camera 2 includes a lens 11, an aperture 12, a photoelectric conversion unit 13, a reference determination unit 14, an adjustment unit 15, a video generation unit 16, and a graphic unit 21.
  • the graphic unit 21 determines a graphic to be superimposed and a display position from the position of the three-dimensional object input from the sensor unit 3 and outputs the graphic to the video generation unit 16.
  • the camera 2 Based on the position information of the three-dimensional object input from the sensor unit 3, the camera 2 adjusts the aperture and gain by the adjusting unit 15 so that the three-dimensional object is displayed as a good image, and displays the image on the monitor 4. Output a signal.
  • the adjustment unit 15 controls the adjustment amount of the diaphragm 12 based on the signal input from the photoelectric conversion unit 13 and the adjustment reference range in which the reference determination unit 14 also receives the force, and the amount of light incident on the photoelectric conversion unit 13 To control.
  • the reference determination unit 14 starts from the sensor unit 3.
  • Position information power of the three-dimensional object to be input Determines the adjustment reference range and outputs it to the adjustment unit 15.
  • the adjustment unit 15 adjusts the gain of the signal input from the photoelectric conversion unit 13 based on the adjustment reference range, and outputs it to the video generation unit 16.
  • the graphic unit 21 determines the graphic to be superimposed and the display position from the position of the three-dimensional object input from the sensor unit 3, and outputs it to the video generation unit 16.
  • the video generation unit 16 superimposes a signal related to graphics or the like input from the graphic unit 21 on a signal input from the adjustment unit 15 in accordance with the graphic information input from the graphic unit 21. Convert to the signal format to be displayed on monitor 4. Accordingly, the monitor 4 displays the video input from the video generation unit 16 and provides it to the driver. A display example at this time is shown in Fig. 4 (D).
  • the entire screen is divided into a plurality of areas in advance, as in the reference determination unit 14.
  • the graphics unit 21 calculates a region where the three-dimensional object detected by the sensor unit 3 is displayed, and outputs graphics information for displaying the boundary of the region as graphics to the video generation unit 16.
  • the area where the boundary is displayed as a graphic is, for example, the area determined as the adjustment reference range by the reference determination unit 14.
  • the color of the graphics display at the boundary may be changed according to the distance of the three-dimensional object. Even when the boundary is outside the adjustment reference range, if the boundary is located within a certain distance from the adjustment reference range, the boundary of the region where the three-dimensional object appears may be displayed in graphics.
  • the sensor unit 3 that detects a three-dimensional object, and the image serving as a reference for calculating the aperture 12 and the gain adjustment amount based on the detection result of the sensor unit 3
  • the sensor unit 3 detects the reference determining unit 14 that determines the range, the adjusting unit 15 that determines and controls the aperture amount and gain of the image range force of the reference determining unit 14, and the graphics unit 21.
  • the known three-dimensional object can be displayed as a good image, and the position of the three-dimensional object can be clearly indicated by graphics.
  • it may not always be displayed on the monitor 5 as a good image. It is also possible to specify the position of a three-dimensional object that appears in a region outside the adjustment reference range.
  • the graphics unit 21 displays the boundary of the area as graphics.
  • the entire area may be filled with a translucent color.
  • an ultrasonic sensor is used as the sensor unit 3.
  • a laser radar sensor a millimeter wave radar sensor, a stereo camera sensor described later, and the like are used. These various sensors may be used as the sensor unit.
  • the sensor unit 3 may be switched according to the purpose, such as using an ultrasonic sensor for backward confirmation during reverse parking, and using a millimeter-wave radar sensor for backward confirmation during normal driving.
  • the in-vehicle camera device of this embodiment has another camera 5 (this is called the first camera 1) in addition to the camera 1 (this is called the first camera 1), as shown in FIG. (Referred to as the second camera 5) and a recognition unit 6, and the first and second cameras 1 and 5 and the recognition unit 6 comprising these two units detect the distance to the three-dimensional object around the vehicle. 7 is composed.
  • the first camera 1 including the lens 11, the diaphragm 12, the photoelectric conversion unit 13, the reference determination unit 14, the adjustment unit 15, and the image generation unit 16, the first camera 1
  • the video generation unit 16 has an output connected not only to the input of the monitor 4 but also to the input of the recognition unit 6.
  • the second camera 5 includes a lens 51, a diaphragm 52, a photoelectric conversion unit 53, and an image generation unit 54.
  • the lens 51 forms incident light on the photoelectric conversion unit 53 in order to capture a desired image around the vehicle from a position different from the position where the first camera 1 is installed.
  • a charge coupled device (CCD) or the like is used for the photoelectric conversion unit 53.
  • the output of the photoelectric conversion unit 53 is connected to the input of the video generation unit 54.
  • the output of the video generation unit 54 is connected to the input of the recognition unit 6, and the video of the second camera 5 generated by the video generation unit 54 is taken into the recognition unit 6.
  • the recognition unit 6 is for detecting an object and detecting the position of the object.
  • the recognition unit 6 constitutes the sensor unit 7 together with the first and second cameras 1 and 5.
  • the recognition unit 6 of the present embodiment uses the first video sent from the video generation unit 16 of the first camera 1 and the second video sent from the second camera 5 to use a three-dimensional object around the vehicle (for example, A three-dimensional object detected closest to the camera, such as a pedestrian or a telephone pole, is detected, and the distance between the object and the vehicle is calculated.
  • the recognition unit 6 calculates the parallax for each three-dimensional object that is the same video generation target in both videos captured by the first and second cameras 1 and 5, and based on the parallax, The position of the 3D object is calculated and the closest 3D object is identified from this vehicle, and the position information related to the 3D object (for example, position coordinate information (X, y) in the video of the first camera) is used as a reference. The data is output to the decision unit 14.
  • the recognition unit 6 has an output connected to the input of the reference determination unit 14, and outputs the position information to the reference determination unit 14.
  • the reference determination unit 14 determines an imaging region that is expected to be highly important (to be a standard) in performing safe driving for the driver based on the position information. That is, in the present embodiment, for example, the image region is determined so that the nearest standing object such as the vehicle cover fits in the center.
  • the images captured from the first and second cameras 1 and 5 constituting the sensor unit 7 are converted into electric signals by the photoelectric conversion units 13 and 53, respectively, and the image generation units 16 and 54 are converted into video signals. Is output.
  • the recognition unit that inputs this video signal detects the same object from both video signals.
  • the closest three-dimensional object from the vehicle body is detected, and the distance from the first and second cameras 1 and 5 to the three-dimensional object with respect to the three-dimensional object is calculated.
  • the sensor unit 7 calculates the position of each three-dimensional object based on the parallax, and also determines the closest three-dimensional object from the vehicle body to obtain position information about the three-dimensional object ( For example, position coordinate information (X, y, etc.) in the video of the first camera is output to the reference determination unit 14.
  • the adjusting unit 15 adjusts the aperture and gain so that the three-dimensional object is displayed as a good image, and outputs a video signal to the monitor 4.
  • the person when a person exists as a three-dimensional object behind the vehicle body, the person is detected by the sensor unit 7. Then, the output of the signal related to the video information photographed by the first camera 1 is adjusted by the adjusting unit 15 so that the person is displayed on the monitor 4 well.
  • the light beam taken in from the lens 11 is imaged on the photoelectric conversion unit 13 with the amount of light limited by the diaphragm 12 as described in the first embodiment.
  • the adjustment unit 15 adjusts the amount of adjustment of the diaphragm 12 based on the signal input from the photoelectric conversion unit 13 and the signal related to the adjustment reference range input from the sensor unit 7 via the reference determination unit 14. To control the amount of light incident on the photoelectric conversion unit 13 and received.
  • the reference determination unit 14 determines the position information force adjustment reference range of the three-dimensional object input from the sensor unit 7, and outputs it to the adjustment unit 15.
  • the adjustment unit 15 adjusts the gain of the signal input from the photoelectric conversion unit 13 based on the adjustment reference range, and outputs it to the video generation unit 16.
  • the video generation unit 16 converts the signal input from the adjustment unit 15 into a signal format that can be displayed on the monitor 4. Therefore, the monitor 4 displays the three-dimensional object closest to the host vehicle detected by the sensor unit 7 and can provide important information for the driver to perform safe driving.
  • the entire screen is divided into a plurality of regions as indicated by dotted lines in a vertical and horizontal grid, so that a three-dimensional object is detected by the sensor unit 7.
  • the position is notified from the sensor unit 7.
  • the reference determination unit 14 calculates an area in which the three-dimensional object detected by the sensor unit 7 is displayed.
  • the reference determination unit 14 determines the position of the three-dimensional object detected by the recognition unit 6 of the sensor unit 7. It is possible to calculate in which area of the video output of the camera 1 the three-dimensional object is displayed.
  • the reference determining unit 14 is The area where the detected three-dimensional object is displayed is notified to the adjustment unit 15 as the adjustment reference range.
  • the camera 2 by providing the camera 2 with a reference determining unit, it is possible to stably detect a solid object once detected.
  • the reference determination unit 14 outputs a predetermined area as the adjustment reference range.
  • the reference determination unit 14 does not distinguish the adjustment reference region, but outputs it while dividing it into a plurality of levels according to the distance from the vehicle.
  • the unit 15 may adjust the aperture and gain by weighting the signal from the photoelectric conversion unit 13 in each region according to the level of each adjustment reference region.
  • the camera device of the present invention is a camera device that includes a camera that captures the periphery of a vehicle, a monitor that presents a camera image to the driver, and a sensor unit that detects a three-dimensional object around the vehicle.
  • a camera device that includes a camera that captures the periphery of a vehicle, a monitor that presents a camera image to the driver, and a sensor unit that detects a three-dimensional object around the vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

 本発明の課題は、運転者にとって必要度が高いと予測される車両周囲に存在する立体物についての情報を良好な映像として提供できるカメラ及びカメラ装置を提供することである。本発明において、車両周辺を撮影するカメラ(1)と、カメラ映像を運転者に提示するモニタ(4)と、車両周辺の立体物を検知するセンサ部(3)とを備える車載カメラ装置において、カメラ(1)は、ゲイン及び絞りを自動調整する調整部(15)と、センサ部(3)の出力を用いて調整基準とする画像領域を決定する基準決定部(14)とを備える。これにより、運転者にとって必要度が高いと予測される車両周囲に存在する立体物についての情報を良好な映像として提供できるカメラ装置を実現可能となる。

Description

明 細 書
カメラ及びカメラ装置
技術分野
[0001] 本発明は、車載用などのカメラ、及びこのカメラで撮影した自動車の周囲の状況を 運転の補助情報として運転者に提供することができるカメラ装置に関する。
背景技術
[0002] 従来の車載カメラシステムは、画面内の被写体照度に応じてレンズ絞りを自動調整 して入射光量を一定に保つ ALC (Automatic Light Control)回路(例えば、非特許文 献 1参照)や、入力信号のレベルに応じてゲインを制御して出力信号のレベルを一定 に保つ AGC (Automatic Gain Control)回路を組み込むことにより、車両周囲の環境 が変動した場合でも、良好な映像を運転者に知らせて ヽる。
[0003] また、車載用の 2個のカメラを用いた (2眼式の)ステレオカメラをプレビューセンサと して用いた車両運転監視システムも提案されている(例えば、特許文献 1及び 2参照
) o
[0004] しかしながら、従来の車載カメラシステムは、画面全体、あるいは、予め定められた 画面領域において良好な映像を提供することを目的としている。このため、運転者に とって必要な領域の安全運転などを実現する上で必要となる情報が、必ずしも良好 な映像として提示されるわけではな 、、 t 、う問題があった。
[0005] また、特許文献 1に記載の (2眼式の)ステレオカメラ装置は、温度対策に関して工夫 を施した構成のものであり、 2眼式カメラをうまく利用し、安全運転上必要となる情報を 、運転者にとって必要な映像領域において良好な映像で提供するものではない。一 方、特許文献 2に記載のものは、(2眼式の)ステレオカメラを利用して車両運転監視シ ステムを構築するものであるが、同様に、安全運転上必要となる情報を、運転者にと つて必要な映像領域にぉ 、て良好な映像で提供するものではな 、。
[0006] 本発明は、上記事情に鑑みてなされたもので、運転者にとって必要度が高いと予 測される車両周囲に存在する立体物についての情報を良好な映像として提供できる カメラ及びカメラ装置を提供することを目的とする。 非特許文献 1:竹村 裕夫著「CCDカメラ技術入門」、コロナ社、 1998年 8月 20日、 1 64〜165頁)
特許文献 1 :特開 2001— 88609号公報
特許文献 2:特開 2004 - 173195号公報
発明の開示
[0007] 第 1に、本発明のカメラは、レンズ、絞り、前記レンズ及び前記絞りを透過した後の 光を受ける光電変換部を備え、車両周辺を撮影するカメラであって、前記光電変換 部及び前記絞りの駆動手段に接続され、ゲイン及び絞りを自動調整する調整部と、 車両周辺の立体物を検知するカメラ装置外部のセンサ部からの出力を用いて、調整 基準とすべき画像領域を決定する基準決定部と、前記調整部から入力される信号を モニタで表示する信号形式へと変換する映像生成部とを備えることを特徴としている 。この構成により、立体物を良好な映像として提供可能となる。
[0008] 第 2に、本発明は、前記センサ部で検知した立体物が存在する領域にグラフィック を重畳するグラフィック部を備えることを特徴としている。
[0009] 第 3に、本発明は、前記基準決定部が、前記カメラの最も近くに検知された立体物 が写って 、る領域を調整基準領域として決定する機能を有することを特徴として!/、る
[0010] 第 4に、本発明は、前記基準決定部が、前記カメラから一定の距離内に検知された 立体物が写っている領域を調整基準領域として決定する機能を有することを特徴とし ている。
[0011] 第 5に、本発明は、前記調整部が、 ALC (Automatic Light Control)回路及び Z又 は AGC (Automatic Gain Control)回路を備えることを特徴としている。
[0012] 第 6に、本発明は、前記 ALC回路が、前記レンズ絞りを自動調整して入射光量を 一定に保つことを特徴として 、る。
[0013] 第 7に、本発明は、前記 AGC回路が、前記基準決定部から通知された調整基準範 囲内にある信号の出力レベルが一定に保たれるように、ゲインを調整することを特徴 としている。
[0014] また、第 8に、本発明のカメラ装置は、車両周辺を撮影するカメラと、前記車両周辺 の立体物を検知するセンサ部と、前記カメラの映像を運転者に提示するモニタとを備 えるカメラ装置において、前記カメラは、ゲイン及び絞りを自動調整する調整部と、前 記センサ部の出力を用いて調整基準とすべき画像領域を決定する基準決定部と、前 記調整部から入力される信号を前記モニタで表示する信号形式へと変換する映像生 成部とを備えることを特徴としている。この構成により、センサ部が検知した立体物を 良好な映像として提供できる。
[0015] また、第 9に、本発明は、車両周辺を撮影するカメラと、前記車両周辺の立体物を 検知するセンサ部と、前記カメラの映像を運転者に提示するモニタと、前記映像内の 、前記センサ部で検知した立体物が存在する領域にグラフィックを重畳するグラフイツ ク部とを備えるカメラ装置において、前記カメラは、ゲイン及び絞りを自動調整する調 整部と、前記センサ部の出力を用いて調整基準とすべき画像領域を決定する基準決 定部と、前記調整部から入力される信号を前記モニタで表示する信号形式へと変換 する映像生成部とを備えることを特徴としている。この構成により、センサ部が検知し た立体物を良好な映像として提供でき、かつ、検知した立体物をグラフィックにより強 調表示することで、運転者に注意を喚起できる。
[0016] 第 10に、本発明は、前記カメラで撮影された映像は、前記基準決定部で決定され る調整基準とすべき画像領域の最小単位となる複数の領域に予め分割されており、 前記センサ部は、前記分割された領域が撮像する範囲毎に立体物を検知するように 構成されているとともに、前記調整部は、前記領域の少なくとも一つを調整基準の画 像領域とする手段を備えていることを特徴としている。この構成により、センサ部、基 準決定部はそれぞれ領域毎に立体物の有無を検知したり、基準範囲とするか否かを 判定したりできるため、後述するロバスト性が向上するという効果を有する。
[0017] 第 11に、本発明は、前記基準決定部が、前記カメラの最も近くに検知された立体 物が写って 、る領域を調整基準領域として決定する機能を有することを特徴として!、 る。この構成により、複数の立体物が存在した場合でも運転者にとって重要度の高い と予想される自車両の最も近くに位置する立体物を良好な映像として提供できる。
[0018] 第 12に、本発明は、前記基準決定部が、前記カメラから一定の距離内に検知され た立体物が写っている領域を調整基準領域として決定する機能を有することを特徴 としている。この構成により、複数の立体物が存在した場合でも、運転者にとって重要 度が高いと予想される車両から一定の距離以内に存在する立体物を良好な映像とし て提供できる。
[0019] 第 13に、本発明は、センサ部が、超音波センサ、レーザーレーダーセンサ、ミリ波レ ーダーセンサの 、ずれかを用いて 、ることを特徴として!/、る。
[0020] また、第 14に、本発明のカメラ装置は、車両周辺を撮影する第 1カメラと、前記第 1 カメラ及びこれとは別に設けた第 2カメラにより前記車両力 前記車両周辺の各立体 物までの距離を検出するセンサ部と、前記カメラの映像を運転者に提示するモニタと を備えるカメラ装置において、前記第 1カメラは、レンズ及び絞りと、ゲイン及び前記 絞りを自動調整する調整部と、前記センサ部の出力を用いて調整基準とすべき画像 領域を決定する基準決定部と、前記調整部から入力される信号を前記モニタで表示 する信号形式へと変換する映像生成部とを備えるとともに、前記第 2カメラは、少なく とも、レンズ及び絞りと、映像生成部とを備えることを特徴としている。
[0021] 第 15に、本発明は、前記センサ部が、前記車両から最も近い立体物を検知する認 識部を備えることを特徴として 、る。
[0022] 第 16に、本発明は、前記第 1カメラが、前記センサ部で検知した立体物が存在する 領域にグラフィックを重畳するグラフィック部を備えることを特徴としている。
[0023] 第 17に、本発明は、前記調整部が、 ALC (Automatic Light Control)回路及び Z 又は AGC ( Automatic Gain Control)回路を備えることを特徴としている。
[0024] 第 18に、本発明は、前記 ALC回路が、前記レンズ絞りを自動調整して入射光量を 一定に保つことを特徴として 、る。
[0025] 第 19に、本発明は、前記 AGC回路が、前記基準決定部から通知された調整基準 範囲内にある信号の出力レベルが一定に保たれるように、ゲインを調整することを特 徴としている。
[0026] また、第 20に、本発明のカメラ装置による映像作成方法は、車両周辺を撮影する力 メラと、前記車両周辺の立体物を検知するセンサ部と、前記カメラの映像を運転者に 提示するモニタとを備えるカメラ装置による映像作成方法であって、前記車両周辺を 撮影する工程と、前記車両周辺の立体物の位置を検出する工程と、位置検出工程 で得られた前記立体物の位置に関する情報から、その立体物が表示される領域を算 出する工程と、前記立体物の位置に関する情報力 映像を調整する工程と、前記調 整された映像情報に基づき前記モニタに前記映像を表示する工程とを備えたことを 特徴としている。
[0027] 第 21に、本発明は、車両周辺を撮影する第 1カメラと、前記第 1カメラ及びこれとは 別に設けた第 2カメラにより前記車両力 前記車両周辺の各立体物までの距離を検 出するセンサ部と、前記カメラの映像を運転者に提示するモニタとを備えるカメラ装 置による映像作成方法であって、前記車両周辺を撮影する工程と、前記車両周辺の 立体物の位置を検出する工程と、位置検出工程で得られた前記立体物の位置に関 する情報から、その立体物が表示される領域を算出する工程と、前記立体物の位置 に関する情報から映像を調整する工程と、前記調整された映像情報に基づき前記モ ユタに前記映像を表示する工程とを備えたことを特徴としている。
[0028] 第 22に、本発明は、前記映像内の前記立体物が存在する領域に、グラフィックを重 畳するグラフィック工程を備えることを特徴として 、る。
図面の簡単な説明
[0029] [図 1]本発明の第 1の実施形態に係るカメラの構成を示す概略図
[図 2]本発明の第 2の実施形態に係るカメラ装置の全体構成を示す概略図
[図 3]本発明の第 2の実施形態に係るカメラ装置の構成を示すブロック図
[図 4] (A)本発明の第 2〜第 4の実施形態に係る基準決定部での領域分割例 (B) カメラ装置のモニタ表示例 (C)本発明の第 2の実施形態におけるモニタへの表示 例 (D)本発明の第 2の実施形態におけるモニタへの表示例
[図 5]本発明の第 2の実施形態に係るカメラ装置による映像作成方法を示すフローチ ヤート
[図 6]本発明の第 3の実施形態に係るカメラ装置の構成を示すブロック図
[図 7]本発明の第 4の実施形態に係るカメラ装置の構成を示すブロック図
符号の説明
[0030] 1 カメラ (第 1カメラ)
10 ハウジング 10A センサ入力端子 10A
10B 映像出力端子 10B
2 カメラ
11、 51 レンズ
12、 52 絞り
13 光電変換部
14 基準決定部
15 調整部
16、 54 映像生成部
21 グラフィック咅
3 センサ部
31 センサヘッド
32 センサ処理部
4 モニタ
5 第 2カメラ (センサ部)
6 認識部(センサ部)
7 センサ部
C 車両 (車体)
M 人物(立体物)
発明を実施するための最良の形態
[0031] 以下、本発明の実施形態について添付図面を参照しながら詳細に説明する。
[第 1の実施形態]
図 1は、本発明の第 1の実施形態に係る車載用のカメラを示すものであり、このカメ ラは、自車両 (以下、「車体」とよぶ)の周辺、例えば後方又は側方などを撮像するも のであり、レンズ 11と、絞り 12と、光電変換部 13と、基準決定部 14と、調整部 15と、 映像生成部 16とを備えている。
[0032] このうち、レンズ 11は、車両周辺の所望の画像を撮影するために入射光を光電変 換部 13に結像させるものであり、光電変換部 13には電荷結合素子 (CCD)などが用 いられている。基準決定部 14は、運転者にとって安全な運転などを行う上で重要度 が高いと予想される (規準となるべき)撮像領域を決定するためのものであり、入力が センサ処理部 32の出力に接続されている。また、この基準決定部 14は、車体周辺の 立体物を検知するカメラ外部に設けた図示外のセンサ部力もの出力を用いて、調整 基準とすべき画像領域を決定するものであり、センサ部との接続を行うためにハウジ ング 10にセンサ入力端子 10Aを設けている。調整部 15は、絞り及びゲインを調整す るものであり、入力が基準決定部 14の出力に接続されているとともに、出力が絞り 12 に付設した図示外の(しぼり駆動手段に備える)モータに接続されている。また、この 調整部 15は、光電変換部 13にも接続されているほかに、出力が映像生成部 16の入 力にも接続されている。映像生成部 16は、調整部 15から入力する信号をモニタで表 示する信号形式へと変換するものであり、カメラ 1外部の図示外のモニタとの接続の ためにハウジング 10に映像出力端子 10Bを設けている。
[0033] 次に、本実施形態のカメラ 1の動作を説明する。
カメラ 1は、センサ部 3から入力される立体物の位置情報に基づいて、立体物が良 好な映像として表示されるように、調整部 15により絞り及びゲインを調整して、図示外 のモニタへ映像信号を出力する。ここで、モニタの画面全体を良好な映像として表示 しょうと調整した場合、例えば、その場所や環境によっては、必ずしも人物が良好に 表示されない映像となる場合もある。このような場合には、以下のような調整処理がな される。
[0034] レンズ 11から取り込まれた光線は、絞り 12により光量が制限されて光電変換部 13 に結像する。一方、調整部 15は、光電変換部 13から入力される信号と、基準決定部 14から入力される調整基準範囲に関する信号とに基づいて、絞り 12の調整量を制 御し、光電変換部 13へと入射して受光する光量を制御する。
ここで、基準決定部 14は、図示外のセンサ部(このセンサは、センサ入力端子 10A を介してカメラ 1内の基準決定部 14に接続させているものとする)から入力される立体 物の位置情報により調整基準範囲を決定し、調整部 15へ出力する。一方、調整部 1 5は、光電変換部 13から入力される信号のゲインを調整基準範囲に基づいて調整し 、映像生成部 16へ出力する。この映像生成部 16は、調整部 15から入力される信号 を、図示外のモニタ(このモニタは、映像出力端子 10Bを介してカメラ 1内の映像生成 部 16に接続させているものとする)で表示できる信号形式へと変換する。
[0035] 従って、モニタには、センサ部で検知された立体物が良好に表示され、運転者に安 全運転等を行う上での重要な情報を提供できる。なお、本実施形態では、グラフイツ ク部を設けていないが、図 6に示すように、センサ部で検知した立体物が存在する領 域にグラフィックを重畳するグラフィック部を設けた構成であってもよい。
[0036] [第 2の実施形態]
図 2は、本発明の第 2の実施形態に係る車載カメラ装置を示すものであり、この車載 カメラ装置は、車体 Cに、この車体 Cの後方を撮像する単一のカメラ 1と、立体物を検 知するセンサ部 3と、カメラ 1の出力映像を表示するモニタ 4とを搭載している。
[0037] カメラ 1には、図 3に示すように、第 1の実施形態と同様のものが用いられており、レ ンズ 11、絞り 12、光電変換部 13、基準決定部 14、調整部 15及び映像生成部 16を 備えている。このうち、レンズ 11は、車両周辺の所望の画像を撮影するために入射光 を光電変換部 13に結像させるものであり、光電変換部 13には電荷結合素子 (CCD) などが用いられている。基準決定部 14は、運転者にとって安全な運転などを行う上 で重要度が高いと予想される (規準となるべき)撮像領域を決定するためのものであり 、入力がセンサ処理部 32の出力に接続されている。調整部 15は、絞り及びゲインを 調整するものであり、入力が基準決定部 14の出力に接続されているとともに、出力が 絞り 12に付設した図示外の(しぼり駆動手段に備える)モータに接続されている。また 、この調整部 15は、光電変換部 13にも接続されているほかに、出力が映像生成部 1 6の入力にも接続されて 、る。
[0038] センサ部 3は、超音波センサにより車体 C近傍の後方の路面上等に位置する立体 物(例えば、歩行者 Mや電柱など)を検知するものであり、図 3に示すように、センサ ヘッド 31と、センサ処理部 32とを備えている。このうち、センサヘッド 31は、超音波を 送受信し、その受信結果をセンサ処理部 32へ出力する。一方、センサ処理部 32は、 センサヘッド 31からの出力信号を処理して立体物の有無やその位置などを検知する ためのものであり、出力が基準決定部 14の入力に接続されて!、る。
[0039] 以上のように構成された車載カメラ装置について、図 3を用いて各部の動作を説明 する。
I.まず、カメラ 1の動作を説明する。
カメラ 1は、第 1の実施形態と同様に、センサ部 3から入力される立体物の位置情報 に基づいて、立体物が良好な映像として表示されるように、調整部 15により絞り及び ゲインを調整して、モニタ 4へ映像信号を出力する。
例えば、図 2に示すように、車体 C近くの後方に立体物として人物 Mが存在する場 合、センサ部 3により人物 Mが検知される。そして、カメラ 1で撮影した映像情報など に関する信号についての出力は、図 4 (C)に示すように、人物 Mがモニタ 4に良好に 表示されるように、調整部 15で絞り及びゲインが調整される。
[0040] ここで、モニタ 4の画面全体を良好な映像として表示しようと調整した場合、例えば、 その場所や環境によっては、図 4 (B)に示すように、必ずしも人物が良好に表示され ない映像となる場合もある。このような場合には、第 1の実施形態と同様に、以下のよ うな調整処理がなされる。なお、図 4のモニタ表示例中の縦横格子状の点線は、領域 分割結果をわ力りやすく明示しているだけであり、実際のモニタ 4には表示されない。
[0041] レンズ 11から取り込まれた光線は、絞り 12により光量が制限されて光電変換部 13 に結像する。一方、調整部 15は、光電変換部 13から入力される信号と、基準決定部 14から入力される調整基準範囲に関する信号とに基づいて、絞り 12の調整量を制 御し、光電変換部 13へと入射して受光する光量を制御する。
ここで、基準決定部 14は、センサ部 3から入力される立体物の位置情報力 調整基 準範囲を決定し、調整部 15へ出力する。一方、調整部 15は、光電変換部 13から入 力される信号のゲインを調整基準範囲に基づいて調整し、映像生成部 16へ出力す る。この映像生成部 16は、調整部 15から入力される信号をモニタ 4で表示できる信 号形式へと変換する。従って、モニタ 4には、センサ部 3で検知された立体物が良好 に表示され、運転者に安全運転等を行う上での重要な情報を提供できる。
[0042] II.次に、基準決定部 14の動作について、詳細に説明する。
基準決定部 14では、例えば、図 4 (A)に示すように、画面全体を縦横格子状に点 線で示されるような複数の領域に予め分割しておく。ここで、センサ部 3により立体物 が検知されると、その位置がセンサ部 3から通知され、基準決定部 14はセンサ部 3が 検知した立体物が表示される領域を算出する。このとき、センサ部 3の検知エリアと、 カメラ 1の撮影範囲とは予め対応付けることにより、基準決定部 14は、センサ部 3のセ ンサ処理部 32で検知した立体物の位置から、その立体物がカメラ 1の映像出力のど の領域に表示されるかを算出できる。その結果、基準決定部 14は、センサ部 3が検 知した立体物が表示される領域を、調整基準範囲として調整部 15に通知する。なお 、図 4 (A)では、斜線で塗り潰された領域が、調整基準範囲となる。
[0043] センサ部 3により複数の立体物が検知された場合は、車体 Cに最も近い立体物が表 示される領域のみを調整範囲として調整部 15に通知する。或いは、車体 Cから一定 の距離内に位置する立体物が表示される領域のみを調整範囲として調整部 15に通 知する。なお、センサ部 3により立体物が検知されない場合、基準決定部 14は予め 定められた領域を調整基準範囲として出力する。
[0044] III.次に、調整部 15の動作について、詳細に説明する。
この調整部 15では、基準決定部 14と同様に、画面全体を図 4に点線で示すような 複数の領域に予め分割しておく。ここで、調整部 15は、光電変換部 13からの出力信 号のうち、基準決定部 14から通知された調整基準範囲内にある信号の大きさのみを 測定し、絞り 12の絞り量を制御する。つまり、信号値が大きい場合には絞りを閉めて 光量を制限し、信号値が小さい場合には絞りを開いて光量を増やす。なお、光電変 換部 13の出力信号の大きさによって絞りを制御する回路は、 ALC (Automatic Light Control)回路として広く知られている。
また、調整部 15では、基準決定部 14から通知された調整基準範囲内にある信号 の出力レベルが一定に保たれるように、ゲインを調整する。なお、このようなゲイン調 整回路は AGC (Automatic Gain Control)回路として広く知られている。
[0045] IV.次に、センサ部 3の動作について、詳細に説明する。
センサ部 3としては、例えば、前述したように超音波センサが使用可能であり、カメラ 1の撮影範囲内の立体物を検知するように設置される。センサ部 3に超音波センサを 用いる場合、センサ部 3は、超音波を出力したり受信したりするセンサヘッド 31と、受 信した超音波を解析して立体物の位置を検知するセンサ処理部 32とを備える。この うち、センサ処理部 32は、検知した立体物の位置を基準決定部 14へと出力する。こ のとき、センサ部 3での立体物検知は、基準決定部 14で分割された領域と対応がつ けられる程度の分解能でよいため、予め、検知範囲を複数の領域に分割しておいて も良い。
[0046] 次に、本実施形態のカメラ装置を用いた映像の作成方法について、図 5を参照しな がら説明する。
この映像の作成方法では、カメラ 1を用いて車両周辺を撮影するとともに(第 1ステツ プ S1)、センサ部 3のセンサ処理部 32が車両の位置を検出する(第 2ステップ S2)。 次に、基準決定部 14はセンサ部 3のセンサ処理部 32から出力される立体物の位置 に関するデータを入力すると、このデータから、その立体物が表示される領域を算出 する(第 3ステップ S3)。また、調整部 15では、その立体物の位置に関するデータか ら、絞り 12の絞り量を制御する。つまり、基準決定部 14から通知された調整基準範囲 内において、光電変換部 13からの入力信号値が大きい場合には絞りを閉めて光量 を制限し、入力信号値が小さい場合には絞りを開いて光量を増やす (第 4ステップ S4 )。また、第 4ステップ S4では、調整部 15では、基準決定部 14から通知された調整基 準範囲内にお 、て、光電変換部 13からの入力信号の出力レベルが一定に保たれる ように、ゲインも調整する。これにより、センサ部 3が検知した立体物を良好な映像とし てモニタ 4に表示する(第 5ステップ S5)。
[0047] 従って、本実施形態の車載カメラ装置によれば、立体物を検知するセンサ部 3と、 センサ部 3の検知結果を基に絞りやゲインについての調整量の算出基準となる映像 範囲を決定する基準決定部 14と、基準決定部 14の映像範囲力も絞り量やゲインを 決定して制御する調整部 15とを設けることにより、センサ部 3が検知した立体物を良 好な映像として提供できる(図 4 (C)参照)。
[0048] また、カメラ 1で撮影された映像は基準決定部 14で決定される調整基準とする画像 領域の最小単位となる複数の領域に予め分割することにより、センサ部 3、基準決定 部 14はそれぞれ領域毎に立体物の有無を検知したり、基準範囲とするか否かを判 定したりできる。このように、領域ごとに立体物を検知することにより、例えば、長音波 センサで立体物の一部からの反射が弱かったり、ノイズの影響があったりして、立体 物の一部が検出されない場合でも、立体物全体を検出できる確立が高くなり、口バス ト性 (robustness)が向上するという効果を有する。また、領域が予め決定されているた め、領域分割処理が不要となり、処理が容易になる。
[0049] また、基準決定部 14で、車体 Cの最も近くに検知された立体物が写っている領域を 調整基準領域として決定する処理構成とすることにより、複数の立体物が存在した場 合でも、運転者にとって重要度の高いと予想される車体 Cの最も近くに位置する立体 物を良好な映像として提供できる。また、車体 Cから一定の距離内に検知された立体 物が写っている領域を調整基準領域として決定する処理構成とすることにより、複数 の立体物が存在した場合でも、運転者にとって重要度の高いと予想される自車両か ら一定の距離以内に存在する立体物を良好な映像として提供できる。
[0050] [第 3の実施形態]
以下、本発明に係る第 3の実施形態の車載カメラ装置について、図面を用いて説 明する。なお、本実施形態において、第 1、第 2の実施形態と同一部分には同一符 号を付して重複説明を避ける。
本実施形態の車載カメラ装置は、第 1の実施形態と異なり、図 6に示すように、ダラ フィック部 21をさらに設けたカメラ 2を搭載したことである。即ち、このカメラ 2は、レン ズ 11、絞り 12、光電変換部 13、基準決定部 14、調整部 15、映像生成部 16及びグ ラフィック部 21から構成される。
このグラフィック部 21は、センサ部 3から入力される立体物の位置から、重畳すべき グラフィックと表示位置とを決定し、映像生成部 16へと出力するようになっている。
[0051] 以上のように構成された車載カメラ装置の動作について、図 6を用いて説明する。
I.まず、カメラ 2の動作を説明する。
カメラ 2は、センサ部 3から入力される立体物の位置情報に基づいて、立体物が良 好な映像として表示されるように、調整部 15により絞り及びゲインを調整して、モニタ 4へ映像信号を出力する。
その結果、レンズ 11から取り込まれた光線は、絞り 12により光量が制限されて光電 変換部 13に結像する。即ち、調整部 15は、光電変換部 13から入力する信号と、基 準決定部 14力も入力する調整基準範囲とに基づいて、絞り 12の調整量を制御して 光電変換部 13へ入射する光量を制御する。一方、基準決定部 14は、センサ部 3から 入力する立体物の位置情報力 調整基準範囲を決定し、調整部 15へ出力する。従 つて、調整部 15は、光電変換部 13から入力される信号のゲインを調整基準範囲に 基づいて調整し、映像生成部 16へと出力する。他方、グラフィック部 21は、前述した ように、センサ部 3から入力される立体物の位置から、重畳すべきグラフィックと表示 位置とを決定し、映像生成部 16へと出力する。
[0052] 次に、映像生成部 16は、グラフィック部 21から入力されるグラフィック情報にしたが つて、調整部 15から入力される信号にグラフィック部 21から入力されるグラフィックス などに関する信号を重畳し、モニタ 4で表示する信号形式へと変換する。これにより、 モニタ 4は、映像生成部 16から入力される映像を表示して、運転者に提供する。この ときの表示例を、図 4 (D)に示す。
[0053] II.次に、グラフィックス部 21の動作について、詳細に説明する。
グラフィックス部 21では、基準決定部 14と同様に、画面全体を予め複数の領域に 分割しておく。ここで、センサ部 3で立体物が検知されると、その位置に関する情報が センサ部 3からグラフィックス部 21へ出力される。すると、グラフィックス部 21は、セン サ部 3が検知した立体物が表示される領域を算出し、その領域の境界をグラフィック スとして表示するためのグラフィックス情報を映像生成部 16へ出力する。ここで、境界 をグラフィックス表示する領域は、例えば、基準決定部 14で調整基準範囲と決定され た領域とする。なお、立体物の距離に応じて境界のグラフィックス表示の色を変えて も良い。また、境界は、調整基準範囲以外である場合でも、調整基準範囲から一定 の距離内に位置する場合には、立体物の写る領域の境界をグラフィックス表示しても 良い。
[0054] このように、本実施形態の車載カメラ装置によれば、立体物を検知するセンサ部 3と 、センサ部 3の検知結果を基に絞り 12やゲインの調整量算出の基準となる映像範囲 を決定する基準決定部 14と、この基準決定部 14の映像範囲力も絞り量やゲインを決 定して制御する調整部 15と、グラフィックス部 21とを設けることにより、センサ部 3が検 知した立体物を良好な映像として表示し、かつ、グラフィックスにより立体物の位置を 明示できる。また、調整基準範囲外で検出された立体物の写る境界をグラフィックス 表示することにより、必ずしも良好な画像としてモニタ 5に表示されな 、可能性のある 調整基準範囲外の領域に写る立体物の位置を明示することもできる。
[0055] なお、この第 2の実施形態では、グラフィックス部 21は、領域の境界をグラフィックス として表示しているが、例えば領域全体を半透明な色で塗り潰しても良い。
また、上記の第 1、第 2の実施形態では、センサ部 3として超音波センサを使用して いるが、本発明では、レーザーレーダーセンサ、ミリ波レーダーセンサ、後述のステレ ォカメラセンサ等の他の各種のセンサをセンサ部として使用しても良い。さらに、後退 駐車時の後方確認では超音波センサを使用する一方、通常走行時の後側方の確認 ではミリ波レーダーセンサを使用するなど、目的に応じてセンサ部 3を切換えてもよい
[0056] [第 4の実施形態]
以下、本発明に係る第 4の実施形態の車載カメラ装置について、図面を用いて説 明する。なお、本実施形態において、第 2の実施形態と同一部分には同一符号を付 して重複説明を避ける。
本実施形態の車載カメラ装置は、第 2の実施形態と異なり、図 7に示すように、カメラ 1 (これを、第 1カメラ 1とよぶ)の他にもう 1台のカメラ 5 (これを、第 2カメラ 5とよぶ)を設 置するとともに認識部 6を設け、これら 2台からなる第 1、第 2カメラ 1、 5及び認識部 6 が車両周辺の立体物までの距離を検知するセンサ部 7を構成している。
[0057] 従って、本実施形態では、レンズ 11、絞り 12、光電変換部 13、基準決定部 14、調 整部 15及び映像生成部 16を備えている第 1カメラ 1において、第 1カメラからの映像 を認識部 6へ送るために、映像生成部 16は、出力が、モニタ 4の入力だけでなく認識 部 6の入力にも接続されて 、る。
[0058] 第 2カメラ 5には、レンズ 51、絞り 52、光電変換部 53及び映像生成部 54を備えてい る。このうち、レンズ 51は、第 1カメラ 1の設置位置とは異なる位置から車両周辺の所 望の画像を撮影するために入射光を光電変換部 53に結像させるものであり、第 1の 実施形態と同様に、光電変換部 53には電荷結合素子 (CCD)などが用いられている 。また、光電変換部 53の出力は、映像生成部 54の入力に接続されている。また、映 像生成部 54の出力は、認識部 6の入力に接続されており、この映像生成部 54で生 成された第 2カメラ 5の映像が認識部 6に取り込まれる。 [0059] 認識部 6は、対象物の検出やその対象物の位置を検出するためのものであり、前 述したように、第 1、第 2カメラ 1、 5とともにセンサ部 7を構成する。本実施形態の認識 部 6は、第 1カメラ 1の映像生成部 16から送出される第 1映像と第 2カメラ 5から送出さ れる第 2映像とを用いて、車両周辺の立体物(例えば、カメラの最も近くに検知された 立体物である、例えば歩行者や電柱など)を検出するとともに、その対象物とこの車 両との間の距離を算出する。
[0060] 即ち、認識部 6では、第 1、第 2カメラ 1、 5で捉えた双方の映像内において、同一の 映像生成対象である各立体物に対する視差を算出し、その視差に基づいて各立体 物の位置をそれぞれ算出するとともに、この車両から 1番近い立体物を判別してその 立体物に関する位置情報 (例えば、第 1カメラの映像での位置座標情報 (X, y)など) を基準決定部 14へ出力するようになって 、る。
[0061] なお、認識部 6は、出力が基準決定部 14の入力に接続されており、その位置情報 を基準決定部 14へ出力する。このため、基準決定部 14は、その位置情報に基づき、 運転者にとって安全な運転などを行う上で重要度が高いと予想される (規準となるベ き)撮像領域を決定する。つまり、本実施形態では、例えばこの車両カゝら最も近い立 体物が中央に収まるように、画像領域を決定する。
[0062] 以上のように構成された車載カメラ装置にっ 、て、動作を説明する。
初めに、センサ部 7を構成する第 1、第 2カメラ 1、 5から取り込んだ映像は、それぞ れ、光電変換部 13、 53で電気信号に変換され、映像信号として映像生成部 16、 54 に出力される。一方、この映像信号を入力する認識部では、双方の映像信号から同 一対象物を検知する。特に本実施形態では、車体から最も近い立体物を検知すると ともに、その立体物に対する第 1、第 2カメラ 1、 5の視差力 立体物までの距離を算 出する。
[0063] このようにして、センサ部 7は、その視差に基づ ヽて各立体物の位置をそれぞれ算 出するとともに、車体から 1番近い立体物を判別してその立体物に関する位置情報( 例えば、第 1カメラの映像での位置座標情報 (X, y)など)を基準決定部 14へ出力す る。
[0064] 次に、第 1カメラ 1は、センサ部 7から入力される前述した立体物の位置情報に基づ いて、立体物が良好な映像として表示されるように、調整部 15により絞り及びゲイン を調整して、モニタ 4へ映像信号を出力する。
例えば、車体近くの後方に立体物として人物が存在する場合、センサ部 7により人 物が検知される。そして、第 1カメラ 1で撮影した映像情報などに関する信号について の出力は、その人物がモニタ 4に良好に表示されるように、調整部 15で絞り及びゲイ ンが調整される。
[0065] なお、ここで、モニタ 4の画面全体を良好な映像として表示しようと調整した場合、例 えば、その場所や環境によっては、必ずしも人物などが良好な映像として表示されな い場合もある。このような場合には、以下のような調整処理がなされる。
[0066] レンズ 11から取り込まれた光線は、第 1の実施形態で説明したように、絞り 12により 光量が制限されて光電変換部 13に結像する。一方、調整部 15は、光電変換部 13か ら入力される信号と、センサ部 7から基準決定部 14を介して入力される調整基準範 囲に関する信号とに基づいて、絞り 12の調整量を制御し、光電変換部 13へと入射し て受光する光量を制御する。
[0067] ここで、基準決定部 14は、センサ部 7から入力される立体物の位置情報力 調整基 準範囲を決定し、調整部 15へ出力する。一方、調整部 15は、光電変換部 13から入 力される信号のゲインを調整基準範囲に基づいて調整し、映像生成部 16へ出力す る。この映像生成部 16は、調整部 15から入力される信号をモニタ 4で表示できる信 号形式へと変換する。従って、モニタ 4には、センサ部 7で検出された自車両に最も 近い立体物が良好に表示され、運転者に安全運転等を行う上での重要な情報を提 供できる。
[0068] 基準決定部 14では、前述したように、例えば画面全体を縦横格子状に点線で示さ れるような複数の領域に予め分割しておくので、センサ部 7により立体物が検知され ると、その位置がセンサ部 7から通知される。これにより、基準決定部 14は、センサ部 7が検知した立体物が表示される領域を算出する。このとき、センサ部 7の検知エリア と、第 1カメラ 1の撮影範囲とは予め対応付けておくことにより、基準決定部 14は、セ ンサ部 7の認識部 6で検知した立体物の位置から、その立体物がカメラ 1の映像出力 のどの領域に表示されるかを算出できる。その結果、基準決定部 14は、センサ部 7が 検知した立体物が表示される領域を、調整基準範囲として調整部 15に通知する。 なお、カメラ 2にも基準決定部を設けることにより、一旦検出した立体物を安定して 検出することができる。
[0069] なお、本実施形態でも、センサ部 7により複数の立体物が検知された場合は、前述 したように、車体に最も近い立体物が表示される領域のみを調整範囲として調整部 1 5に通知する力 車体から一定の距離内に位置する立体物が表示される領域のみを 調整範囲として調整部 15に通知するようにしてもよい。なお、センサ部 7により立体物 が検知されない場合、基準決定部 14は予め定められた領域を調整基準範囲として 出力する。
[0070] 以上、本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神 と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとつ て明らかである。例えば、上記の第 1〜第 3の実施形態では、基準決定部 14は、調 整基準領域の区別はしていないが、車両からの距離に応じて複数のレベルに分けて 出力する一方、調整部 15では、各調整基準領域のレベルに応じて各領域の光電変 換部 13からの信号に重み付けをして、絞り及びゲインを調整しても良!、。
[0071] 本出願は、 2004年 9月 10日出願の日本特許出願 (特願 2004— 264260)に基づ くものであり、その内容はここに参照として取り込まれる。
産業上の利用可能性
[0072] 本発明のカメラ装置は、車両周辺を撮影するカメラと、カメラ映像を運転者に提示 するモニタと、車両周辺の立体物を検知するセンサ部とを備えるカメラ装置にぉ 、て 、カメラは、ゲイン及び絞りを自動調整する調整部と、センサ部の出力を用いて調整 基準とする画像領域を決定する基準決定部とを備えることにより、センサ部が検知し た車両周辺の立体物を良好な映像として運転者に提供できる効果を有し、運転席か らの後方確認などが難しいミニバンなどの大型乗用車や大型トラックなどに対する安 全対策用の車載カメラ装置等として有用である。

Claims

請求の範囲
[1] レンズ、絞り、前記レンズ及び前記絞りを透過した後の光を受ける光電変換部を備 え、車両周辺を撮影するカメラであって、
前記光電変換部及び前記絞りの駆動手段に接続され、ゲイン及び絞りを自動調整 する調整部と、
車両周辺の立体物を検知するカメラ装置外部のセンサ部からの出力を用いて、調 整基準とすべき画像領域を決定する基準決定部と、
前記調整部から入力される信号をモニタで表示する信号形式へと変換する映像生 成部と
を備えるカメラ。
[2] 前記センサ部で検知した立体物が存在する領域にグラフィックを重畳するグラフイツ ク部を請求項 1に記載の備えるカメラ。
[3] 前記基準決定部は、前記カメラの最も近くに検知された立体物が写っている領域を 調整基準領域として決定する機能を有する請求項 1又は 2に記載のカメラ。
[4] 前記基準決定部は、前記カメラから一定の距離内に検知された立体物が写ってい る領域を調整基準領域として決定する機能を有する請求項 1又は 2に記載のカメラ。
[5] 前記調整部は、 ALC (Automatic Light Control)回路及び Z又は AGC (Automatic
Gain Control)回路を備える請求項 1〜4のいずれ 1項に記載のカメラ。
[6] 前記 ALC回路は、前記レンズ絞りを自動調整して入射光量を一定に保つ請求項 5 に記載のカメラ。
[7] 前記 AGC回路は、前記基準決定部から通知された調整基準範囲内にある信号の 出力レベルが一定に保たれるように、ゲインを調整する請求項 5に記載のカメラ。
[8] 車両周辺を撮影するカメラと、前記車両周辺の立体物を検知するセンサ部と、前記 カメラの映像を運転者に提示するモニタとを備えるカメラ装置において、
前記カメラは、
ゲイン及び絞りを自動調整する調整部と、
前記センサ部の出力を用いて調整基準とすべき画像領域を決定する基準決定部と 前記調整部から入力される信号を前記モニタで表示する信号形式へと変換する映 像生成部と
を備えるカメラ装置。
[9] 車両周辺を撮影するカメラと、前記車両周辺の立体物を検知するセンサ部と、前記 カメラの映像を運転者に提示するモニタと、前記映像内の、前記センサ部で検知した 立体物が存在する領域にグラフィックを重畳するグラフィック部とを備えるカメラ装置 において、
前記カメラは、
ゲイン及び絞りを自動調整する調整部と、
前記センサ部の出力を用いて調整基準とすべき画像領域を決定する基準決定部と 前記調整部から入力される信号を前記モニタで表示する信号形式へと変換する映 像生成部と
を備えるカメラ装置。
[10] 前記カメラで撮影された映像は、前記基準決定部で決定される調整基準とすべき 画像領域の最小単位となる複数の領域に予め分割されており、
前記センサ部は、前記分割された領域が撮像する範囲毎に立体物を検知するよう に構成されているとともに、
前記調整部は、前記領域の少なくとも一つを調整基準の画像領域とする手段を備 えている請求項 8又は 9に記載のカメラ装置。
[11] 前記基準決定部は、前記カメラの最も近くに検知された立体物が写って 、る領域を 調整基準領域として決定する機能を有する請求項 8から 10のいずれ力 1項に記載の カメラ装置。
[12] 前記基準決定部は、前記カメラから一定の距離内に検知された立体物が写ってい る領域を調整基準領域として決定する機能を有する請求項 8から 10のいずれか 1項 に記載のカメラ装置。
[13] センサ部は、超音波センサ、レーザーレーダーセンサ、ミリ波レーダーセンサのい ずれかを用いて 、る請求項 8から 12の 、ずれ 1項に記載のカメラ装置。
[14] 車両周辺を撮影する第 1カメラと、前記第 1カメラ及びこれとは別に設けた第 2カメラ により前記車両力 前記車両周辺の各立体物までの距離を検出するセンサ部と、前 記カメラの映像を運転者に提示するモニタとを備えるカメラ装置において、
前記第 1カメラは、レンズ及び絞りと、ゲイン及び前記絞りを自動調整する調整部と 、前記センサ部の出力を用いて調整基準とすべき画像領域を決定する基準決定部と 、前記調整部から入力される信号を前記モニタで表示する信号形式へと変換する映 像生成部とを備えるとともに、
前記第 2カメラは、少なくとも、レンズ及び絞りと、映像生成部とを備えるカメラ装置。
[15] 前記センサ部は、前記車両から最も近い立体物を検知する認識部を備える請求項 14に記載のカメラ装置。
[16] 前記第 1カメラは、前記センサ部で検知した立体物が存在する領域にグラフィックを 重畳するグラフィック部を備える請求項 14又は 15に記載のカメラ装置。
[17] 前記調整部は、 ALC (Automatic Light Control)回路及び Z又は AGC (Automatic
Gain Control)回路を備える請求項 8から 16のいずれ 1項に記載のカメラ装置。
[18] 前記 ALC回路は、前記レンズ絞りを自動調整して入射光量を一定に保つ請求項 1 7に記載のカメラ装置。
[19] 前記 AGC回路は、前記基準決定部力 通知された調整基準範囲内にある信号の 出力レベルが一定に保たれるように、ゲインを調整する請求項 17に記載のカメラ装 置。
[20] 車両周辺を撮影するカメラと、前記車両周辺の立体物を検知するセンサ部と、前記 カメラの映像を運転者に提示するモニタとを備えるカメラ装置による映像作成方法で あって、
前記車両周辺を撮影する工程と、
前記車両周辺の立体物の位置を検出する工程と、
位置検出工程で得られた前記立体物の位置に関する情報から、その立体物が表 示される領域を算出する工程と、
前記立体物の位置に関する情報から映像を調整する工程と、
前記調整された映像情報に基づき前記モニタに前記映像を表示する工程と を備えたカメラ装置による映像作成方法。
[21] 車両周辺を撮影する第 1カメラと、前記第 1カメラ及びこれとは別に設けた第 2カメラ により前記車両力 前記車両周辺の各立体物までの距離を検出するセンサ部と、前 記カメラの映像を運転者に提示するモニタとを備えるカメラ装置による映像作成方法 であって、
前記車両周辺を撮影する工程と、
前記車両周辺の立体物の位置を検出する工程と、
位置検出工程で得られた前記立体物の位置に関する情報から、その立体物が表 示される領域を算出する工程と、
前記立体物の位置に関する情報から映像を調整する工程と、
前記調整された映像情報に基づき前記モニタに前記映像を表示する工程と を備えたカメラ装置による映像作成方法。
[22] 前記映像内の前記立体物が存在する領域に、グラフィックを重畳するグラフィックェ 程を備える請求項 20又は 21に記載のカメラ装置による映像作成方法。
PCT/JP2005/016532 2004-09-10 2005-09-08 カメラ及びカメラ装置 WO2006028180A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP05782305A EP1781018A1 (en) 2004-09-10 2005-09-08 Camera and camera system
US11/659,618 US20070242944A1 (en) 2004-09-10 2005-09-08 Camera and Camera System
JP2006535820A JPWO2006028180A1 (ja) 2004-09-10 2005-09-08 カメラ及びカメラ装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004264260 2004-09-10
JP2004-264260 2004-09-10

Publications (1)

Publication Number Publication Date
WO2006028180A1 true WO2006028180A1 (ja) 2006-03-16

Family

ID=36036461

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/016532 WO2006028180A1 (ja) 2004-09-10 2005-09-08 カメラ及びカメラ装置

Country Status (5)

Country Link
US (1) US20070242944A1 (ja)
EP (1) EP1781018A1 (ja)
JP (1) JPWO2006028180A1 (ja)
CN (1) CN101015200A (ja)
WO (1) WO2006028180A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336288A (ja) * 2006-06-15 2007-12-27 Sumitomo Electric Ind Ltd 障害物検出システム及び障害物検出方法
CN101742113B (zh) * 2008-11-12 2013-11-20 凹凸电子(武汉)有限公司 图像传感器的控制装置和控制方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4328692B2 (ja) * 2004-08-11 2009-09-09 国立大学法人東京工業大学 物体検出装置
JP4297501B2 (ja) * 2004-08-11 2009-07-15 国立大学法人東京工業大学 移動体周辺監視装置
JP3937414B2 (ja) * 2004-08-11 2007-06-27 本田技研工業株式会社 平面検出装置及び検出方法
JP4542058B2 (ja) * 2006-03-24 2010-09-08 富士フイルム株式会社 撮像装置および撮像方法
JP5219847B2 (ja) * 2009-01-09 2013-06-26 キヤノン株式会社 画像処理装置及び画像処理方法
US8702250B2 (en) * 2012-04-02 2014-04-22 GM Global Technology Operations LLC System and method for adjusting vehicle mirrors automatically based on driver head position
KR101373703B1 (ko) * 2012-05-23 2014-03-13 주식회사 코아로직 차량용 영상 처리 장치 및 방법
WO2015144741A1 (en) * 2014-03-27 2015-10-01 Sony Corporation Camera with radar system
CN104410820B (zh) * 2014-11-24 2017-11-03 中国铁道科学研究院 一种车载轨旁设备箱盒及线缆外观检测系统
US10453214B2 (en) * 2015-01-22 2019-10-22 Mitsubishi Electric Corporation Image capturing device and method, program, and record medium to perform exposure control based on the brightness in an attention area corresponding to a detected object
US9998695B2 (en) * 2016-01-29 2018-06-12 Ford Global Technologies, Llc Automotive imaging system including an electronic image sensor having a sparse color filter array
CN105818763B (zh) * 2016-03-09 2018-06-22 睿驰智能汽车(广州)有限公司 一种确定车辆周围物体距离的方法、装置及系统
DE102016007522B4 (de) * 2016-06-20 2022-07-07 Mekra Lang Gmbh & Co. Kg Spiegelersatzsystem für ein Fahrzeug
JP7061071B2 (ja) 2016-09-15 2022-04-27 株式会社小糸製作所 センサシステム、センサモジュール、およびランプ装置
US10296785B1 (en) * 2017-07-24 2019-05-21 State Farm Mutual Automobile Insurance Company Apparatuses, systems, and methods for vehicle operator gesture recognition and transmission of related gesture data
JP7054739B2 (ja) * 2018-09-21 2022-04-14 本田技研工業株式会社 車両検査システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06229739A (ja) * 1993-01-29 1994-08-19 Mazda Motor Corp 画像処理による環境認識装置
JPH0781459A (ja) * 1993-09-20 1995-03-28 Mitsubishi Motors Corp 自動車の走行制御装置
JPH07334800A (ja) * 1994-06-06 1995-12-22 Matsushita Electric Ind Co Ltd 車両認識装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06229739A (ja) * 1993-01-29 1994-08-19 Mazda Motor Corp 画像処理による環境認識装置
JPH0781459A (ja) * 1993-09-20 1995-03-28 Mitsubishi Motors Corp 自動車の走行制御装置
JPH07334800A (ja) * 1994-06-06 1995-12-22 Matsushita Electric Ind Co Ltd 車両認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
AKIHIKO SUGIURA ET AL: "Shoten Bokeryo Suitei o Mochiita Tanitsu Gazo no Kyori Sokutei Hoshiki", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. J81-A, no. 4, 25 April 1998 (1998-04-25), pages 518 - 526, XP008122793 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336288A (ja) * 2006-06-15 2007-12-27 Sumitomo Electric Ind Ltd 障害物検出システム及び障害物検出方法
CN101742113B (zh) * 2008-11-12 2013-11-20 凹凸电子(武汉)有限公司 图像传感器的控制装置和控制方法

Also Published As

Publication number Publication date
US20070242944A1 (en) 2007-10-18
JPWO2006028180A1 (ja) 2008-05-08
CN101015200A (zh) 2007-08-08
EP1781018A1 (en) 2007-05-02

Similar Documents

Publication Publication Date Title
WO2006028180A1 (ja) カメラ及びカメラ装置
JP6633216B2 (ja) 撮像装置、及び、電子機器
WO2018042887A1 (ja) 測距装置、および、測距装置の制御方法
US8330816B2 (en) Image processing device
JP5347257B2 (ja) 車両用周辺監視装置および映像表示方法
JP4784659B2 (ja) 車両用周辺監視装置
JP4687411B2 (ja) 車両周辺画像処理装置及びプログラム
US20070046450A1 (en) Obstacle detector for vehicle
US20100066516A1 (en) Image displaying in-vehicle system, image displaying control in-vehicle apparatus and computer readable medium comprising program for the same
CN103609101A (zh) 车辆周边监视装置
JP2012025327A (ja) 画像表示システム、画像処理装置及び画像表示方法
US20210297589A1 (en) Imaging device and method of controlling imaging device
JP2008207627A (ja) 車載撮像システム、撮像装置及び表示制御装置
JP2004194071A (ja) 運転支援画像生成装置
KR102388259B1 (ko) 촬상 장치, 촬상 모듈, 촬상 시스템 및 촬상 장치의 제어 방법
JP2006054662A (ja) 運転支援装置
KR101179326B1 (ko) 차량 후방 감시 장치
JP2013244852A (ja) 駐車支援装置、駐車支援方法およびそのプログラム
JP2013005232A (ja) 車両周辺監視装置
JP2007249814A (ja) 画像処理装置及び画像処理プログラム
KR20180117597A (ko) 화상 처리 장치, 화상 처리 방법, 컴퓨터 프로그램 및 전자 기기
JP2004040523A (ja) 車両周囲監視装置
JP2007329611A (ja) 車両周辺監視装置、車両周辺監視システム、および車両周辺監視方法
KR20220097656A (ko) 운전자 보조 장치, 차량 및 그 제어 방법
JP5436056B2 (ja) 障害物検出装置および障害物検出方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2006535820

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005782305

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11659618

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580030145.5

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005782305

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11659618

Country of ref document: US