WO2017203794A1 - 撮像装置、撮像表示方法および撮像表示プログラム - Google Patents

撮像装置、撮像表示方法および撮像表示プログラム Download PDF

Info

Publication number
WO2017203794A1
WO2017203794A1 PCT/JP2017/009362 JP2017009362W WO2017203794A1 WO 2017203794 A1 WO2017203794 A1 WO 2017203794A1 JP 2017009362 W JP2017009362 W JP 2017009362W WO 2017203794 A1 WO2017203794 A1 WO 2017203794A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
imaging
image
image processing
course change
Prior art date
Application number
PCT/JP2017/009362
Other languages
English (en)
French (fr)
Inventor
山田 康夫
聡隆 村田
啓太 林
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017015157A external-priority patent/JP6750519B2/ja
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to EP17802396.6A priority Critical patent/EP3410702B1/en
Priority to CN201780005430.4A priority patent/CN108476308A/zh
Publication of WO2017203794A1 publication Critical patent/WO2017203794A1/ja
Priority to US16/184,837 priority patent/US20190092239A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/28Circuitry to measure or to take account of the object contrast
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an imaging device, an imaging display method, and an imaging display program.
  • Patent Document 1 discloses a technique for performing exposure control using a plurality of preset brightness levels for exposure control.
  • Patent Document 2 discloses a technique of changing a region used for exposure calculation according to the traveling speed of a vehicle.
  • the present embodiment has been made to solve such a problem, and appropriately adjusts the brightness and color of an object and range that are highly important to be confirmed by the driver, and displays the image to the driver. It aims at providing the technology which presents.
  • An imaging apparatus includes an imaging unit that captures an image of the periphery of a vehicle, a control unit that controls the imaging unit, an image processing unit that processes image data output from the imaging unit, and image processing An output unit that outputs an image processed by the unit to the display unit, and a detection unit that detects information related to a change in the course of the vehicle, and at least one of imaging control by the control unit and image processing by the image processing unit is a detection unit Is weighted so as to increase in the course change direction based on the information on the course change detected by the.
  • the imaging display method includes an imaging step in which an imaging unit that images the periphery of a vehicle is imaged, a step of controlling the imaging unit, and an image process that processes image data captured in the imaging step.
  • the imaging display program includes an imaging step that causes an imaging unit that captures an image of the periphery of the vehicle, a control step that controls the imaging unit, and an image that processes image data captured in the imaging step.
  • the partial area in the course change direction is adjusted so as to have appropriate brightness and color. Can be presented. *
  • FIG. 1 is a schematic diagram showing a state in which an imaging device 100 according to the present embodiment is installed in a host vehicle 10.
  • the imaging device 100 is mainly configured by a camera unit 110 and a main unit 130.
  • the camera unit 110 is installed at the rear of the vehicle so that the surrounding environment behind the vehicle 10 can be imaged. That is, the camera unit 110 functions as an imaging unit that images the surrounding environment of the host vehicle 10.
  • An image captured by the camera unit 110 is processed by the main unit 130 and displayed on the display unit 160.
  • the display unit 160 is a display device that can be replaced with a conventional rearview mirror, and the driver can check the rear view like a conventional rearview mirror by observing the display unit 160 during operation.
  • an LCD panel is employed as the display unit 160, but not limited to the LCD panel, various types of display devices such as an organic EL display and a head-up display can be employed.
  • the display unit 160 may be juxtaposed with a conventional rearview mirror, or may be a device that can switch between a display mode by a display and a mirror mode by reflection of the half mirror using a half mirror.
  • the own vehicle 10 includes a millimeter wave radar 11 that detects the presence of another vehicle at the rear of the vehicle.
  • the millimeter wave radar 11 outputs a millimeter wave radar signal as a detection signal when another vehicle is present.
  • the millimeter wave radar signal includes information on the direction of other vehicles (right rear, rightward, left rear) and approach speed.
  • the main unit 130 acquires a signal from the millimeter wave radar 11 or a detection result of another vehicle by the millimeter wave radar 11.
  • the own vehicle 10 includes a handle 12 that is used by the driver for steering.
  • the steering wheel 12 outputs a steering signal in the right direction when rotated to the right, and outputs a steering signal in the left direction when rotated to the left.
  • the steering signal includes information indicating the steering angle in addition to the steering direction.
  • the main unit 130 acquires a steering signal via a CAN (Controller Area Network) or the like.
  • FIG. 2 is a schematic view showing a traveling direction observed from the passenger compartment of the host vehicle 10.
  • the display unit 160 is installed at a position where the rearview mirror is installed in the conventional vehicle, and the state behind the vehicle is displayed as an image.
  • the displayed image is a live view image of 60 fps, for example, and is displayed almost in real time.
  • the display of the display unit 160 starts, for example, in synchronization with the operation of the power switch or the ignition switch, and ends in synchronization with the operation of the power switch or the ignition switch again.
  • a winker lever 13 as a direction indicator is provided at the side of the handle 12.
  • the blinker lever 13 outputs a blinker signal indicating the right direction when the driver is depressed, and indicating the left direction when the driver is depressed.
  • the main unit 130 acquires a winker signal or a signal indicating that the winker has been operated via the CAN or the like.
  • a navigation system 14 is provided at the front left of the driver's seat. When the driver sets a destination, the navigation system 14 searches and guides the route, and displays the current position of the host vehicle 10 on a map. The navigation system 14 outputs a navigation signal indicating the direction prior to the guidance when guiding a right turn or a left turn.
  • the main unit 130 is connected to the navigation system 14 by wire or wireless so that signals and data from the navigation system 14 such as navigation signals can be acquired. Further, the imaging device 100 may be one of the functions realized by a system including the navigation system 14.
  • FIG. 3 is a block diagram illustrating a configuration of the imaging apparatus 100.
  • the imaging apparatus 100 is mainly configured by the camera unit 110 and the main unit 130.
  • the camera unit 110 mainly includes a lens 112, an image sensor 114, and an AFE (analog front end) 116.
  • the lens 112 guides the incident subject light flux to the image sensor 114.
  • the lens 112 may be composed of a plurality of optical lens groups.
  • the image sensor 114 is, for example, a CMOS image sensor.
  • the image sensor 114 adjusts the charge accumulation time by an electronic shutter according to the exposure time per frame specified by the system control unit 131, performs photoelectric conversion, and outputs a pixel signal.
  • the image sensor 114 delivers the pixel signal to the AFE 116.
  • the AFE 116 adjusts the level of the pixel signal in accordance with the amplification gain instructed from the system control unit 131, performs A / D conversion to digital data, and transmits the digital data to the main unit 130.
  • the camera unit 110 may include a mechanical shutter or an iris diaphragm. When a mechanical shutter or an iris diaphragm is provided, the system control unit 131 can also use these to adjust the amount of light incident on the image sensor 114.
  • the main unit 130 mainly includes a system control unit 131, an image input IF 132, a work memory 133, a system memory 134, an image processing unit 135, a display output unit 136, an input / output IF 138, and a bus line 139.
  • the image input IF 132 receives pixel data from the camera unit 110 connected to the main body unit 130 via a cable, and passes it to the bus line 139.
  • the work memory 133 is constituted by a volatile high-speed memory, for example.
  • the work memory 133 receives the pixel data from the AFE 116 via the image input IF 132 and stores them together as one frame of image data.
  • the work memory 133 delivers the image data to the image processing unit 135 in units of frames. Further, the work memory 133 is appropriately used as a temporary storage area even in the middle of image processing by the image processing unit 135.
  • the image processing unit 135 performs various types of image processing on the received image data, and generates image data conforming to a predetermined format. For example, when generating moving image data in the MPEG file format, compression processing within and between frames is performed after performing white balance processing, gamma processing, and the like on each frame image data. The image processing unit 135 sequentially generates display image data from the generated image data, and delivers it to the display output unit 136.
  • the display output unit 136 converts the display image data received from the image processing unit 135 into an image signal that can be displayed on the display unit 160 and outputs the image signal. That is, the display output unit 136 has a function as an output unit that outputs an image captured by the camera unit 110 serving as an imaging unit to the display unit 160 serving as a display unit.
  • the display image data is D / A converted and output.
  • the display image data is converted into an HDMI format digital signal and output.
  • a transmission method such as Ethernet or a format such as LVDS may be used without compressing the image.
  • the display unit 160 sequentially displays the image signal received from the display output unit 136.
  • the recognition processing unit 137 analyzes the received image data and recognizes, for example, a person, another vehicle, and a lane marking. For the recognition processing, existing processing such as edge detection processing and comparison with various recognition dictionaries is applied.
  • the system memory 134 is constituted by a nonvolatile recording medium such as EEPROM (registered trademark).
  • EEPROM registered trademark
  • the system memory 134 records and holds constants, variables, setting values, programs, and the like necessary for the operation of the imaging apparatus 100.
  • the input / output IF 138 receives a signal from an external device and passes it to the system control unit 131, or receives a control signal such as a signal request to the external device from the system control unit 131 and transmits it to the external device. Connection interface.
  • the above-described winker signal, steering signal, signal from the millimeter wave radar 11, and signal from the navigation system 14 are input to the system control unit 131 via the input / output IF 138. That is, the input / output IF 138 cooperates with the system control unit 131 to function as a detection unit that detects that the route is changed by acquiring information related to the route change of the host vehicle 10.
  • the system control unit 131 directly or indirectly controls each element constituting the imaging apparatus 100.
  • the control by the system control unit 131 is realized by a program read from the system memory 134.
  • FIG. 4 is an explanatory diagram showing a relationship between an acquired image and a display image in a certain scene.
  • an imaging field angle 214 represented as a range of the outer frame represents a range of an optical image that is photoelectrically converted by the imaging element 114.
  • the image sensor 114 photoelectrically converts, for example, 8 million pixels that are two-dimensionally arranged, and outputs a pixel signal.
  • the display angle of view 261 represented as the range of the inner frame represents an image area displayed on the display unit 160.
  • a display panel having a horizontally long aspect ratio like the conventional rearview mirror is employed.
  • the display unit 160 displays an area corresponding to the display angle of view 261 among images generated from the output of the image sensor 114.
  • the image processing unit 135 cuts out the image generated at the imaging angle of view 214 to the display angle of view 261 and generates display image data.
  • the image displayed on the display unit 160 is in a mirror image relationship with the image captured by the camera unit 110 directed to the rear of the host vehicle 10. Accordingly, the image processing unit 135 performs mirror image reversal image processing, but in the following description, the scene will be described with reference to the mirror image displayed on the display unit 160 for easy understanding.
  • the example scene shown in the figure includes a road including a central lane 900 where the host vehicle 10 travels, a right lane 901 where the other vehicle 20 travels behind, and a left lane 902 where the other vehicle is not traveling.
  • the center lane 900 and the right lane 901 are divided by a dividing line 911 drawn on the road surface.
  • the center lane 900 and the left lane 902 are divided by a dividing line 912.
  • the right lane 901 is divided by a dividing line 913 drawn between the roadside where a roadside tree 923 or the like planted on the roadside exists
  • the left lane 902 is a roadside tree 924 planted on the side of the road.
  • the sky 920 occupies about 1/3 of the imaging angle of view 214, and the sun 921 exists at the upper right. Sunlight is blocked by the roadside tree 923, and a part of the right lane 901 and most of the other vehicles 20 traveling in the right lane are included in the shadow 925.
  • the system control unit 131 assumes that the entire image to be acquired has a balanced brightness on the assumption that the driver observes the entire rear environment.
  • the camera unit 110 is controlled. Specifically, imaging processing is executed with a predetermined imaging control value to generate one piece of image data, and AE calculation is executed using the image data.
  • the AE calculation is, for example, an operation for calculating an average luminance value of the entire image from the luminance values of each region of the generated image and determining an imaging control value such that a difference between the average luminance value and the target luminance value is zero. is there. More specifically, the difference between the calculated average luminance value and the target luminance value is converted into an imaging control value correction amount with reference to, for example, a lookup table stored in the system memory 134, and this is used in advance. This is an operation that is added to the imaging control value and then determined as an imaging control value for executing the imaging process next.
  • the imaging control value includes at least one of the charge accumulation time (corresponding to the shutter speed) of the imaging element 114 and the amplification gain of the AFE 116.
  • the F value of the optical system that can be adjusted by driving the iris diaphragm may be included.
  • FIG. 5 is an explanatory diagram for explaining the weighting coefficient at the normal time when the host vehicle 10 travels straight in the central lane 900.
  • FIG. 5 is shown so that each lane of the scene of FIG.
  • the imaging field angle 214 is divided into a plurality of divided regions in a lattice shape.
  • a weighting coefficient is given for each divided region.
  • the system control unit 131 calculates the average luminance value of the entire image by multiplying the luminance value of the pixel included in each region by the weighting coefficient.
  • all of the weighting coefficients in the normal time are 1. That is, virtually no weighting is applied. Therefore, an imaging control value is determined so that an image with a well-balanced brightness is generated by treating all the regions without any bias.
  • the subject included in the shadow 925 in FIG. 4 is relatively dark and the sky 920 is relatively bright. Note that the number of regions in which the imaging angle of view 214 is divided is arbitrarily set depending on the calculation capability of the system control unit 131 and the like.
  • the normal weighting coefficient during normal time is not limited to when the host vehicle 10 is following the center lane 900 but is applied when the vehicle is traveling without changing the lane in any lane.
  • the normal weighting coefficient is not limited to an example in which the weighting coefficients are all 1 as in the above-described example.
  • the weighting at the center of the imaging field angle 214 or the display field angle 261 may be set to be large.
  • the central portion may be the central portion in the vertical and horizontal directions of the imaging field angle 214 or the display angle of view 261, or any central portion in the vertical or horizontal direction.
  • the weighting coefficient below the imaging field angle 214 or the display field angle 261 may be set to be large.
  • the term “below” refers to a position below the center in the vertical direction of the imaging field angle 214 or the display field angle 261, or below the boundary 922 between the sky 920 and the road.
  • the normal weighting coefficient includes the above.
  • FIGS. 6A and 6B are explanatory diagrams for explaining the window setting and the weighting coefficient when the route is changed from the central lane 900 to the right lane 901 when the route is changed.
  • FIG. 6A is an explanatory diagram for explaining setting of a window
  • FIG. 6B is a diagram for explaining a relationship between the set window and a weighting factor to be assigned.
  • the system control unit 131 When the system control unit 131 detects a change in the course in the right direction via the input / output IF 138, the system control unit 131 executes window setting for the currently acquired image.
  • the system control unit 131 causes the recognition processing unit 137 to perform image processing such as edge enhancement and object recognition processing, thereby extracting the division lines 911, 912, and 913 and the boundary 922. Then, by performing interpolation processing of the extracted line, etc., the area of the right lane 901 where the course is to be changed is determined, and this is defined as the weighted window 301. Further, a region of the left lane 902 that is the opposite lane and a region on the left side thereof are determined, and these are collectively defined as a reduction window 303. The other area is defined as a normal window 302.
  • a weighting coefficient that increases the weight compared to the normal time is added to the divided areas included in the weighting window 301.
  • the reduction window 303 is given a weighting coefficient that makes the weights smaller than in normal times.
  • 5 is given to the divided region included in the weighted window 303 at a rate of 80% or more
  • 3 is given to the divided region included at a rate of 30% or more and less than 80%.
  • 0 is given to the divided areas included in the reduction window 303.
  • the influence of the area of the right lane 901 in which the weighting window 301 is set becomes relatively large, and the influence of the left area including the left lane 902 in which the reduction window 303 is set is relatively affected. It becomes smaller (in the example of the figure, it becomes 0).
  • the area of the right lane 901 is partially included in the shadow 925, so that the luminance value is relatively small (dark), but the influence of the luminance value of this area is large due to weighting.
  • the average luminance value calculated for the entire image decreases, and the difference from the target luminance value increases.
  • the correction amount as the imaging control value also increases. In this case, the imaging control value for making the entire image brighter is determined.
  • the imaging control value is determined based on the AE calculation result thus weighted, the brightness of the subject included in the area of the right lane 901 is appropriate for the image captured with the imaging control value. I can expect. That is, in the case of a normal image, the subject included in the shadow 925 is dark and difficult to visually recognize. From various signals input to the input / output IF 138, it is determined in which direction the driver wants to change lanes. The brightness of the subject included in the lane region in that direction can be optimized. That is, when the driver changes the course, the camera unit 110 is controlled so that the partial area in the direction has an appropriate brightness. Therefore, the driver appropriately sets the right lane 901 that is the destination lane to be changed. An image that can be confirmed can be presented.
  • the information related to the course change of the host vehicle 10 is detected using the blinker signal, the steering signal, the signal from the millimeter wave radar 11, and the signal from the navigation system 14, but one of these is detected. May be used, or some may be used in combination. Moreover, you may use the other signal regarding a course change. Furthermore, the system control unit 131 may detect the information related to the course change not only using the input / output IF 138 but also using other means. For example, if a change in the lane marking is detected from the frame images continuously captured by the camera unit 110, the left-right movement of the host vehicle 10 can be detected, and this can be used as information regarding the course change.
  • FIG. 7 is an explanatory diagram illustrating window settings in another scene.
  • the area defined based on the two lane markings 911 and 913 adjacent to the host vehicle 10 is the weighting window 301.
  • FIG. 7 shows an example in which only one lane marking 915 is detected in the direction of lane change.
  • an area having a predetermined width from the lane marking 915 to the lane change direction is defined as the weighted window 301 with the detected lane marking 915 as a reference. The width may be reduced in the direction of moving away according to the detected inclination of the dividing line 915.
  • the weighting window 301 is set in this way, even if the moving lane cannot be accurately detected, the brightness can be adjusted to an appropriate brightness even partially for the region that the driver wants to observe.
  • the reduction window 303 may be set as in the example of FIGS. 6A and 6B.
  • FIG. 8 is an explanatory diagram for explaining the window setting in yet another scene.
  • FIG. 8 is an example when the lane markings cannot be detected in the lane change direction.
  • a virtual line is set in the straight direction adjacent to the host vehicle 10, and the area on the lane change side from the line is defined as the weighting window 301.
  • the weighting window 301 is set in this way, at least the visibility of the subject on the lane change side can be improved.
  • the reduction window 303 may be set in the same manner by setting a virtual line in the straight direction adjacent to the host vehicle 10 in the direction opposite to the direction of the lane change.
  • FIG. 9 is an explanatory diagram for explaining a case where a window is set in consideration of the other vehicle 20.
  • the recognition processing unit 137 performs a vehicle recognition process in addition to the lane marking recognition process.
  • the outline of the window is determined based on the lane and the road surface.
  • FIG. 9 includes the area when other vehicles are traveling in the direction of the lane change. It is an example which defines the weighting window 301.
  • FIG. More specifically, the weighted window 301 is determined by adding the contour of the other vehicle 20 to the weighted window 301 of FIG. 6A. If the weighted window 301 is thus defined, the visibility of the other vehicle 20 is further improved.
  • the contours including all of them may be added together, or the contours may be added only to the vehicle closest to the host vehicle 10.
  • the image processing unit 135 detects the contour of the other vehicle 20 based on, for example, a movement vector detected from a difference between a plurality of consecutive frame images. Or you may judge whether the outline of the other vehicle 20 is added together by measuring the distance with the other vehicle 20 using a millimeter wave radar. Further, the weighting coefficient of the weighting window 301 when another vehicle is detected may be larger than the weighting coefficient of the weighting window 301 when no other vehicle is detected.
  • FIG. 10 is an explanatory diagram for explaining another example in consideration of the other vehicle 20.
  • the lane to be changed and the road surface area to be changed are included in the weighting window 301.
  • the weighting window 301 only the area included in the contour of the other vehicle 20 without the road surface area is used as the weighting window 301. It is an example.
  • the weighted window 301 By defining the weighted window 301 in this way, the driver can observe the presence and movement of other vehicles that he / she wants to particularly check in the lane change with higher visibility.
  • an area other than the weighted window 301 is defined as a reduction window 303, and the influence of subjects in other areas is excluded.
  • FIG. 11A to FIG. 11C are explanatory diagrams for explaining how the window setting is dynamically changed during lane change.
  • FIG. 11A shows a state immediately after the start of the lane change
  • FIG. 11B shows a state around the lane
  • FIG. 11C shows a state immediately before the completion of the lane change.
  • a virtual line is set in the straight direction adjacent to the host vehicle 10, and the area on the lane change side from the line is defined as a weighting window 301.
  • the line may be set along this line.
  • the areas are added to obtain a weighted window 301.
  • the driver can continuously observe the subject in the direction of changing the lane with appropriate brightness while changing the lane.
  • the area of the weighted window 301 set on the road surface is fixed relative to the host vehicle 10.
  • the lane area This may be a fixed area of the weighted window 301. In this case, since the lane area relatively moves within the angle of view while the lane change is being performed, it is preferable to extract the lane area for each frame.
  • the system control unit 131 can determine the end of the lane change from the change in the signal input to the input / output IF 138. For example, in the case of a winker signal, it is possible to determine that the lane change has ended at the time when the winker signal reception is stopped. If it is a millimeter wave radar signal, it can be determined that the vehicle change is finished when the distance to the other vehicle 20 has a constant value. In addition, when the system control unit 131 detects a change in the lane marking from the frame images continuously captured by the camera unit 110, the system control unit 131 determines the time when the lane marking has been moved in the left-right direction as the end of the vehicle change. I can judge.
  • the system control part 131 can also select suitably according to the driving environment of the own vehicle 10 combining these methods.
  • the example of changing the lane in the right direction has been described.
  • the same processing is performed so that the weighting window 301 is set in the left region.
  • FIG. 12 is a flowchart showing a control flow of the imaging apparatus 100. For example, the flow is started when a power switch is operated.
  • step S101 the system control unit 131 sends an imaging control signal including an imaging control value to the camera unit 110, executes imaging, and transmits pixel data to the main unit 130. Proceeding to step S102, the system control unit 131 determines whether the host vehicle 10 has acquired information for starting a course change via the input / output IF 138 or the like.
  • step S121 the system control unit 131 determines that the information for starting the course change is not acquired. If the system control unit 131 determines that the information for starting the course change is not acquired, the system control unit 131 proceeds to step S121 to process the pixel data acquired in step S101 by the image processing unit 135 to form a display image. The AE calculation weighted with the weighting coefficient is performed to determine the imaging control value. Then, the process proceeds to step S122, and the imaging control method including the imaging control value determined based on the normal weighting coefficient is sent to the camera unit 110, and imaging is executed to transmit the image data to the main unit 130. When the main unit 130 acquires the image data, the system control unit 131 proceeds to step S123, generates a display image by the image processing unit 135, and displays it on the display unit 160 via the display output unit 136.
  • step S102 If it is determined in step S102 that the information for starting the course change is not acquired, the process described in FIG. 5 is used instead of the process of performing the AE calculation weighted with the normal weighting coefficient described above.
  • the AE calculation without weighting may be performed, and the same applies to the AE calculation weighted with the normal weighting coefficient in other embodiments.
  • the process proceeds to step S113, and if the display end instruction is not accepted, the process returns to step S101, the image acquisition is executed using the imaging control value determined in step S104, and the normal process in which the host vehicle 10 travels straight. Is repeatedly executed.
  • step S102 determines in step S102 that information for starting a course change has been acquired
  • the system control unit 131 proceeds to step S105, where the pixel data acquired in step S101 is processed by the image processing unit 135 to display a window such as a weighted window. Set.
  • the weighting window is set in the region in the direction in which the course is changed.
  • the system control part 131 progresses to step S106, and judges whether moving bodies, such as another vehicle, exist.
  • the system control unit 131 may determine the presence of the moving body using a millimeter wave radar signal, or may determine from the movement vector of the subject when images of a plurality of frames have already been acquired.
  • the system control unit 131 functions as a detection unit that detects a moving body that moves around the vehicle in cooperation with the input / output IF.
  • the system control unit 131 functions as a detection unit in cooperation with the image processing unit 135. If the system control unit 131 determines that the moving body exists, the system control unit 131 extracts the area of the moving body from the image, and performs correction to add the area to the weighted window 301 (step S107).
  • step S107 If the weighted window is modified in step S107 or if it is determined in step S106 that there is no moving body, the system control unit 131 proceeds to step S108, performs weighting, performs AE calculation, and determines the imaging control value. . Then, the process proceeds to step S109, and an imaging control signal including the imaging control value is sent to the camera unit 110, imaging is executed, and pixel data is transmitted to the main unit 130.
  • step S110 to process the image processing unit 135 to form a display image, which is displayed on the display unit 160 via the display output unit 136.
  • step S111 the system control unit 131 determines whether or not the host vehicle 10 has acquired information for completing the course change via the input / output IF 138 or the like. If it is determined that the information for ending the course change is not acquired, the process returns to step S105, and the process at the time of changing the lane is continued.
  • the system control unit 131 repeats steps S105 to S111 to update the display image in substantially real time according to a predetermined frame rate.
  • step S111 determines in step S111 that the information for completing the course change has been acquired
  • step S112 cancels the set window.
  • step S113 it is determined whether an instruction to end display is accepted.
  • the display end instruction is, for example, the operation of the power switch again. If it is determined that the display end instruction has not been received, the process returns to step S101. If it is determined that the display end instruction has been received, the series of processing ends.
  • step S106 when a moving body exists (YES in step S106), a correction is made to add the area of the moving body to the weighting window 301 (step S107). This is shown in FIG. It is an example of the window setting which considers the moving body demonstrated in FIG. A flow that does not consider the moving object, omits steps S106 and S107, and does not correct the weighting window 301 may be used.
  • FIG. 13 is a flowchart showing a control flow according to another example of the imaging apparatus 100.
  • the same processes as those in FIG. 12 are denoted by the same step numbers and description thereof is omitted.
  • the weighted window is set and the weighted AE calculation is executed.
  • this control flow even if the information for starting the course change is acquired, If no moving object is detected, no weighting is applied.
  • step S205 determines whether or not a moving body such as another vehicle exists. If it is determined that there is no moving object, the process proceeds to step S208, and the AE calculation weighted with the normal weighting coefficient is executed in the same manner as the process from step S121 to step S123 to determine the imaging control value. On the other hand, if it is determined that there is a moving body, the process proceeds to step S206, where the area of the moving body is extracted from the image, and a weighting window is set in the area whose direction is changed to include the area. In step S209, weighting is performed and AE calculation is performed to determine an imaging control value.
  • the system control unit 131 sends the imaging control value determined in step S207 or the imaging control signal including the imaging control value determined in step S208 to the camera unit, causes the imaging to be performed, and causes the main body unit 130 to transmit pixel data ( Step S209).
  • the system control unit 131 proceeds to step S110.
  • the driver can visually recognize the moving body with appropriate brightness when there is a moving body to which special attention should be given when changing the course, and if there is no moving body, The rear environment can be seen with priority on the balance.
  • the image processing unit 135 performs the AE calculation that weights the entire image generated at the imaging angle of view 214, but the system control unit 131 first sets the display angle of view 261. Cutout and calculation may be performed on the image of the display angle of view 261. If an AE calculation is performed that weights the image of the display angle of view 261, even if an object with extremely high or low luminance exists in the area of the cut-off image angle of view, it is affected by these effects. Therefore, a more appropriate imaging control value can be determined.
  • the camera unit 110 serving as the imaging unit increases in the course changing direction in the image captured by the camera unit 110 serving as the imaging unit based on the information regarding the course change detected by the input / output IF 138 serving as the detection unit.
  • An example has been described in which the AE calculation is performed with weighting and the camera unit 110 is controlled based on the result.
  • the improvement in image visibility is not limited to the imaging control based on the AE calculation, but can be realized by the image processing by the image processing unit 135.
  • FIG. 14 is a flowchart showing a control flow for adjusting the brightness by weighting. The same processes as those described with reference to FIG. 12 are denoted by the same step numbers and description thereof is omitted.
  • step S101 the system control unit 131 causes the camera unit 110 to perform imaging and transmits pixel data to the main unit 130.
  • the host vehicle 10 starts a course change via the input / output IF 138 and the like. Or whether information on whether or not the course has been changed has been acquired.
  • step S203 the image processing unit 135 performs normal brightness adjustment on the pixel data acquired in step S101.
  • the normal brightness adjustment is to perform brightness adjustment weighted by a normal weighting coefficient.
  • all the divided areas are treated uniformly (equivalent to giving the weighting coefficient 1) as described with reference to FIG.
  • Each pixel value may be adjusted so that the average brightness is a predetermined target brightness.
  • step S204 the system control unit 131 causes the display unit 160 to display the display image whose brightness has been adjusted in this way. Thereafter, the process proceeds to step S113.
  • step S202 If it is determined in step S202 that the information indicating whether the own vehicle 10 has started a course change or the course change has been acquired is obtained, the system control unit 131 sets a window such as a weighted window in step S105. Further, the weighting window 301 is modified according to the conditions (steps S106 and S107). If the moving body is not taken into consideration, the processing in steps S106 and S107 may be omitted.
  • step S208 the image processing unit 135 performs weighted brightness adjustment on the pixel data acquired in step S101. Specifically, as described with reference to FIGS. 6A to 11C, a weighting coefficient is given to the divided areas, and the average brightness of the entire image is calculated. For example, the pixels belonging to the divided area to which the weighting coefficient 0.5 is given are calculated as 0.5 pixels in the calculation of the average brightness, and the pixels belonging to the divided area to which the weighting coefficient 2.0 is given are calculated as the average brightness. Is calculated as two pixels.
  • the image processing unit 135 adjusts each pixel value so that the average brightness adjusted in this way becomes a predetermined target brightness.
  • the system control unit 131 converts the image whose brightness has been adjusted in this way into a display image for display, and displays the image on the display unit 160 via the display output unit 136 in step S210.
  • step S211 the system control unit 131 determines whether or not the host vehicle 10 has acquired information for completing the course change via the input / output IF 138 or the like. If it is determined that the information for ending the course change has not been acquired, the process returns to step S101. If it is determined that the information for completing the course change has been acquired, the process proceeds to step S112.
  • the driver can appropriately confirm the state of the course change destination when the course is changed.
  • FIG. 15 is a flowchart showing a control flow for adjusting the white balance by weighting. The same processes as those described with reference to FIGS. 12 and 14 are denoted by the same step numbers and description thereof is omitted.
  • step S303 the image processing unit 135 performs normal white balance adjustment on the pixel data acquired in step S101.
  • the normal white balance adjustment is to perform white balance adjustment weighted by a normal weighting coefficient.
  • white balance adjustment may be performed by calculating a white balance gain.
  • step S204 the system control unit 131 causes the display unit 160 to display the display image with the white balance adjusted in this manner. Thereafter, the process proceeds to step S113.
  • step S202 If it is determined in step S202 that the information indicating whether the own vehicle 10 has started a course change or the course change has been acquired is obtained, the system control unit 131 sets a window such as a weighted window in step S105. Further, the weighting window 301 is modified according to the conditions (steps S106 and S107). If the moving body is not taken into consideration, the processing in steps S106 and S107 may be omitted.
  • step S208 the image processing unit 135 performs weighted white balance adjustment on the pixel data acquired in step S101. Specifically, as described with reference to FIGS. 6A to 11C, a weighting coefficient is given to the divided areas, and a white balance gain for each RGB is calculated. For example, the pixel values of the R pixels belonging to the divided region to which the weighting coefficient 0.5 is given are calculated as 0.5 pixels in the calculation of the R white balance gain, and the divided region to which the weighting factor 2.0 is given The pixel value of the R pixel belonging to is calculated as two pixels in the calculation of the R white balance gain. The image processing unit 135 adjusts the RGB value of each pixel using each RGB white balance gain calculated in this way. The system control unit 131 converts the image with the white balance adjusted in this way into a display image for display, and displays the image on the display unit 160 via the display output unit 136 in step S210.
  • the driver can correctly visually recognize the color of the target object of the course change destination when the course is changed.
  • the brightness adjustment and white balance adjustment by the image processing unit 135 described with reference to FIGS. 14 and 15 may be applied in combination in a series of processes. 14 and 15 is a processing flow based on the processing flow of FIG. 12, but the weighting calculation may be determined based on the processing flow of FIG.
  • the image pickup control based on the AE calculation result performed using the weighting described with reference to FIGS. 12 and 13 is combined with the image processing performed using the weighting described with reference to FIGS. 14 and 15. Also good. For example, if the brightness is adjusted by both the imaging control and the image processing, it can be expected that the target of the course change destination has a more appropriate brightness.
  • the imaging apparatus 100 in the present embodiment described above has been described as an apparatus that installs the camera unit 110 toward the rear of the host vehicle 10 and supplies a rear image to the display unit 160 that is replaced with a rearview mirror.
  • the present invention can also be applied to an imaging apparatus in which the camera unit 110 is installed toward the front of the host vehicle 10. For example, in a large vehicle, if it is a camera unit that captures a front area that is a blind spot from the driver's seat, the subject in the direction to change the course, including the course change of the right turn or left turn, is displayed with appropriate brightness. Improve driver convenience.
  • the above-described image has been described as an image that is periodically displayed by the camera unit 110 and processed and continuously displayed on the display unit 160. For example, according to a predetermined timing or a timing of an event that has occurred.
  • the image may be a still image or moving image for recording.
  • the imaging apparatus, the imaging display method, and the imaging display program according to the present embodiment are, for example, an imaging apparatus that is mounted on a passenger car, an imaging display method that is implemented on a passenger car, and an imaging display program that is executed by a passenger computer. Is available.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)

Abstract

車両の走行中に周辺確認の重要性が高い対象物や範囲は、車両の動作状況によって異なってくる。しかし、画像の明るさや色味を画角の全体や予め定められた一部の領域で調整すると、周辺確認の重要性が高い対象物や範囲を運転者が確認するときに必ずしも適切な画像にならない。 そこで、車両の周辺を撮像する撮像部と、撮像部を制御する制御部と、画像データを処理する画像処理部と、処理した画像を表示部に出力する出力部と、車両の進路変更に関する情報を検出する検出部とを備え、制御部による撮像制御および画像処理部による画像処理の少なくともいずれかは、検出部が検出した進路変更に関する情報に基づいて進路変更方向に大きくなるように重み付けを施す撮像装置を提供する。このような撮像装置によれば、進路変更時において、運転者が進路変更先の様子を適切に確認できる画像を呈示することができる。

Description

撮像装置、撮像表示方法および撮像表示プログラム
 本発明は、撮像装置、撮像表示方法および撮像表示プログラムに関する。
 例えば進行方向の様子を撮像するように車両に設置されたカメラにおいて、自動露出制御(AE:Automatic Exposure)により適切な明るさの画像を得る技術が知られている。特許文献1は、予め設定された露出制御用の複数エリアの輝度を用いて露出制御を行う技術を開示している。特許文献2は、車両の走行速度に応じて露出演算に用いる領域を変更する技術を開示している。
特開2010-041668号公報 特開2014-143547号公報
 車両の走行中に周辺確認の重要性が高い対象物や範囲は、車両の動作状況によって異なってくる。しかし、画像の明るさや色味を画角の全体や予め定められた一部の領域で調整すると、周辺確認の重要性が高い対象物や範囲を運転者が確認するときに必ずしも適切な明るさや色味にならない。
 本実施形態は、このような問題を解決するためになされたものであり、運転者が確認する重要性の高い対象物や範囲の明るさや色味を適切に調整して、運転者に当該画像を呈示する技術を提供することを目的とする。
 本実施形態の第1の態様における撮像装置は、車両の周辺を撮像する撮像部と、撮像部を制御する制御部と、撮像部から出力された画像データを処理する画像処理部と、画像処理部が処理した画像を表示部に出力する出力部と、車両の進路変更に関する情報を検出する検出部とを備え、制御部による撮像制御および画像処理部による画像処理の少なくともいずれかは、検出部が検出した進路変更に関する情報に基づいて進路変更方向に大きくなるように重み付けを施す。
 本実施形態の第2の態様における撮像表示方法は、車両の周辺を撮像する撮像部に撮像させる撮像ステップと、撮像部を制御するステップと、撮像ステップにおいて撮像された画像データを処理する画像処理ステップと、画像処理ステップにおいて処理された画像を表示部に表示させる表示ステップと、車両の進路変更に関する情報を検出する検出ステップと、を備え、制御ステップおよび画像処理ステップの少なくともいずれかにおいて、検出ステップにおいて検出された進路変更に関する情報に基づいて進路変更方向に大きくなるように重み付けを施す。
 本実施形態の第3の態様における撮像表示プログラムは、車両の周辺を撮像する撮像部に撮像させる撮像ステップと、撮像部を制御する制御ステップと、撮像ステップにおいて撮像された画像データを処理する画像処理ステップと、画像処理ステップにおいて処理された画像を表示部に表示させる表示ステップと、車両の進路変更に関する情報を検出する検出ステップと、を実行する際に、前記制御ステップおよび前記画像処理ステップの少なくともいずれかにおいて、検出ステップにおいて検出された進路変更に関する情報に基づいて進路変更方向に大きくなるように重み付けを施す処理をコンピュータに実行させる。
 本実施形態により、運転者が進路変更を行う場合に、その進路変更方向の部分領域が適切な明るさや色味になるように調整するので、進路変更時において、運転者が進路変更先の様子を適切に確認できる画像を呈示することができる。 
撮像装置が自車両に設置されている様子を示す概略図である。 自車両車室内から進行方向を観察した様子を示す概略図である。 撮像装置の構成を示すブロック図である。 あるシーンにおける取得画像と表示画像の関係を示す説明図である。 通常時の重み付け係数について説明する説明図である。 進路変更時におけるウィンドウの設定について説明する説明図である。 進路変更時における重み付け係数について説明する説明図である。 他のシーンにおけるウィンドウの設定について説明する説明図である。 更に他のシーンにおけるウィンドウの設定について説明する説明図である。 他車両を考慮してウィンドウを設定する場合について説明する説明図である。 他車両を考慮する別の例について説明する説明図である。 車線変更中にウィンドウの設定を変更する様子を説明する説明図である。 車線変更中にウィンドウの設定を変更する様子を説明する説明図である。 車線変更中にウィンドウの設定を変更する様子を説明する説明図である。 撮像装置の制御フローを示すフロー図である。 撮像装置の他の制御フローを示すフロー図である。 重み付けを施して明るさを調整する制御フローを示すフロー図である。 重み付けを施してホワイトバランスを調整する制御フローを示すフロー図である。
 以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。
 図1は、本実施形態に係る撮像装置100が、自車両10に設置されている様子を示す概略図である。撮像装置100は、主にカメラユニット110と本体ユニット130によって構成されている。カメラユニット110は、自車両10の進行方向に対して後方の周辺環境を撮像できるように、車両後部に設置されている。すなわち、カメラユニット110は、自車両10の周辺環境を撮像する撮像部としての機能を担う。カメラユニット110で撮像された画像は、本体ユニット130で処理され、表示ユニット160で表示される。
 表示ユニット160は、従来のバックミラーに置き換えられる表示装置であり、運転者は運転中に表示ユニット160を観察すれば、従来のバックミラーのように後方の様子を確認することができる。本実施形態においては、表示ユニット160としてLCDパネルを採用するが、LCDパネルに限らず、有機ELディスプレイ、ヘッドアップディスプレイなど、様々な態様の表示装置を採用し得る。また、表示ユニット160は、従来のバックミラーと併置しても良く、ハーフミラーを用いてディスプレイによる表示モードとハーフミラーの反射によるミラーモードとを切り替えることができる装置であってもよい。
 自車両10は、他車両の存在を検知するミリ波レーダー11を、車両後方に備える。ミリ波レーダー11は、他車両が存在する場合に検知信号としてのミリ波レーダー信号を出力する。ミリ波レーダー信号は、他車両の方向(右後方、直後方、左後方)や接近速度の情報を含む。本体ユニット130は、ミリ波レーダー11からの信号またはミリ波レーダー11による他車両の検知結果を取得する。
 自車両10は、運転者が操舵に用いるハンドル12を備える。ハンドル12は、右へ回転されれば右方向の操舵信号を出力し、左へ回転されれば左方向の操舵信号を出力する。操舵信号は操舵向きに加えて操舵角度を示す情報も含まれる。本体ユニット130は、CAN(Controller Area Network)などを介して操舵信号を取得する。
 図2は、自車両10の車室内から進行方向を観察した様子を示す概略図である。上述のように、従来の車両においてバックミラーが設置されていた位置に表示ユニット160が設置されており、車両後方の様子が画像として表示されている。表示される画像は、例えば60fpsのライブビュー画像であり、ほぼリアルタイムに表示されている。表示ユニット160の表示は、例えばパワースイッチあるいはイグニッションスイッチの操作に同期して開始され、パワースイッチあるいはイグニッションスイッチの再度の操作に同期して終了する。
 ハンドル12の側方には、方向指示器としてのウィンカーレバー13が設けられている。ウィンカーレバー13は、運転者が押し下げれば右方向を示す、押し上げれば左方向を示すウィンカー信号を出力する。本体ユニット130は、ウィンカー信号またはウィンカーが操作されたことを示す信号を、CANなどを介して取得する。
 運転席から見て左前方には、ナビゲーションシステム14が設けられている。ナビゲーションシステム14は、運転者が目的地を設定するとルートを探索して案内すると共に、地図上に現在の自車両10の位置を表示する。ナビゲーションシステム14は、右折、左折を案内する場合に、案内に先立ってその方向を示すナビゲーション信号を出力する。本体ユニット130は、ナビゲーション信号などのナビゲーションシステム14からの信号やデータを取得可能となるように、ナビゲーションシステム14と有線または無線により接続されている。また、撮像装置100は、ナビゲーションシステム14を含むシステムが実現する機能のひとつであってもよい。
 図3は、撮像装置100の構成を示すブロック図である。上述のように、撮像装置100は、主にカメラユニット110および本体ユニット130によって構成される。
 カメラユニット110は、主にレンズ112、撮像素子114およびAFE(アナログフロントエンド)116を備える。レンズ112は、入射する被写体光束を撮像素子114へ導く。レンズ112は、複数の光学レンズ群から構成されていても良い。
 撮像素子114は、例えばCMOSイメージセンサである。撮像素子114は、システム制御部131から指定される1フレームあたりの露光時間に従って電子シャッタにより電荷蓄積時間を調整し、光電変換を行って画素信号を出力する。撮像素子114は、画素信号をAFE116へ引き渡す。AFE116は、画素信号をシステム制御部131から指示される増幅ゲインに応じてレベル調整してデジタルデータへA/D変換し、画素データとして本体ユニット130へ送信する。なお、カメラユニット110は、メカニカルシャッタや虹彩絞りを備えても良い。メカニカルシャッタや虹彩絞りを備える場合には、システム制御部131は、これらも利用して、撮像素子114へ入射する光量を調整することができる。
 本体ユニット130は、システム制御部131、画像入力IF132、ワークメモリ133、システムメモリ134、画像処理部135、表示出力部136、入出力IF138、バスライン139を主に備える。画像入力IF132は、本体ユニット130とケーブルを介して接続されているカメラユニット110から画素データ受信して、バスライン139へ引き渡す。
 ワークメモリ133は、例えば揮発性の高速メモリによって構成される。ワークメモリ133は、AFE116から画像入力IF132を介して画素データを受け取り、1フレームの画像データに纏めて記憶する。ワークメモリ133は、フレーム単位で画像処理部135へ画像データを引き渡す。また、ワークメモリ133は、画像処理部135が画像処理する途中段階においても一時的な記憶領域として適宜利用される。
 画像処理部135は、受け取った画像データに対して各種の画像処理を施し、予め定められたフォーマットに即した画像データを生成する。例えば、MPEGファイル形式の動画像データを生成する場合は、各フレーム画像データに対するホワイトバランス処理、ガンマ処理等を施した後に、フレーム内およびフレーム間の圧縮処理を実行する。画像処理部135は、生成された画像データから表示用画像データを逐次生成して、表示出力部136へ引き渡す。
 表示出力部136は、画像処理部135から受け取った表示用画像データを、表示ユニット160で表示可能な画像信号に変換して出力する。すなわち、表示出力部136は、撮像部としてのカメラユニット110が撮像した画像を表示部である表示ユニット160に出力する出力部としての機能を担う。本体ユニット130と表示ユニット160とが、アナログケーブルで接続されている場合には、表示用画像データをDA変換して出力する。また、例えばHDMI(登録商標)ケーブルで接続されている場合には、表示用画像データをHDMI形式のデジタル信号に変換して出力する。他にも、Ethernetなどの伝送方式や、画像を圧縮せずにLVDSなどの形式で送信しても良い。表示ユニット160は、表示出力部136から受け取った画像信号を逐次表示する。
 認識処理部137は、受け取った画像データを分析し、例えば人物や他車両、区画線などを認識する。認識処理は、例えばエッジ検出処理および各種認識辞書との対比など、既存の処理を適用する。
 システムメモリ134は、例えばEEPROM(登録商標)などの不揮発性記録媒体により構成される。システムメモリ134は、撮像装置100の動作時に必要な定数、変数、設定値、プログラム等を記録、保持する。
 入出力IF138は、外部機器からの信号を受信してシステム制御部131へ引き渡したり、外部機器へ信号要求などの制御信号をシステム制御部131から受け取って外部機器へ送信したりする、外部機器との接続インタフェースである。上述したウィンカー信号、操舵信号、ミリ波レーダー11からの信号、ナビゲーションシステム14からの信号は、入出力IF138を介してシステム制御部131へ入力される。すなわち、入出力IF138は、システム制御部131と協働して、自車両10の進路変更に関する情報を取得することで進路変更を行うことを検出する検出部としての機能を担う。
 システム制御部131は、撮像装置100を構成する各要素を直接的または間接的に制御する。システム制御部131による制御は、システムメモリ134から読みだされたプログラム等によって実現される。
 次に、本実施形態に係る撮像制御について説明する。図4は、あるシーンにおける取得画像と表示画像の関係を示す説明図である。図4において、外枠の範囲として表す撮像画角214は、撮像素子114が光電変換する光学像の範囲を表す。撮像素子114は、結像する光学像を、二次元的に配列された例えば800万個からなる画素で光電変換して、画素信号を出力する。
 内枠の範囲として表す表示画角261は、表示ユニット160で表示される画像領域を表す。表示ユニット160は、上述のように従来のバックミラーに置き換えられるものである場合に、従来のバックミラーのように横長のアスペクト比を有する表示パネルが採用される。表示ユニット160は、撮像素子114の出力から生成される画像のうち、表示画角261に相当する領域を表示する。本実施形態においては、画像処理部135が、撮像画角214で生成した画像を表示画角261に切り出して表示用画像データを生成する。なお、表示ユニット160に表示される画像は、自車両10の後方へ向けられたカメラユニット110で撮像された画像とは鏡像の関係にある。したがって、画像処理部135は鏡像反転の画像処理をおこなうが、以下においては理解しやすいよう、表示ユニット160で表示される鏡像を基準としてシーンを説明する。
 図示する一例のシーンは、自車両10が走行する中央車線900と、後方に他車両20が走行する右車線901と、他車両が走行していない左車線902とから成る道路を含む。中央車線900と右車線901とは、路面に描かれた区分線911で区分されており、同様に、中央車線900と左車線902とは、区分線912で区分されている。さらに右車線901は、道路脇に植えられた街路樹923などが存在する路側との間に描かれた区分線913で区分されており、左車線902は、道路脇に植えられた街路樹924などが存在する路側との間に描かれた区分線914で区分されている。道路との境界922よりも上側は空920が撮像画角214の1/3程度を占め、右上方には太陽921が存在する。太陽光が街路樹923によって遮られ、右車線901の一部と右車線を走行する他車両20大半は、影925に含まれている。
 自車両10が中央車線900を直進する通常時においては、運転者が後方環境の全体を観察することを前提として、システム制御部131は、取得する画像の全体がバランスのとれた明るさとなるように、カメラユニット110を制御する。具体的には、予め定められた撮像制御値により撮像処理を実行して一枚の画像データを生成し、その画像データを用いてAE演算を実行する。
 AE演算は、例えば、生成した画像の各領域の輝度値から画像全体の平均輝度値を算出し、その平均輝度値と目標輝度値の差が0となるような撮像制御値を決定する演算である。より具体的には、算出された平均輝度値と目標輝度値の差を、例えばシステムメモリ134に記憶されたルックアップテーブルを参照して撮像制御値の修正量に変換し、これを予め用いた撮像制御値に加算して、次に撮像処理を実行するための撮像制御値として決定する演算である。なお、撮像制御値は、撮像素子114の電荷蓄積時間(シャッタ速度に相当)と、AFE116の増幅ゲインの少なくともいずれかを含む。虹彩絞りを備える場合は、光彩絞りを駆動して調整され得る光学系のF値を含んでも良い。
 ここで、画像全体の平均輝度値を算出するときに、各領域の輝度値に重み付け係数を掛け合わせる。図5は、自車両10が中央車線900を直進する通常時の重み付け係数について説明する説明図である。図5は、後の説明に合わせ、図4のシーンの各車線がわかるように表している。
 本実施形態においては、図5中に点線で示すように、撮像画角214が格子状に複数の分割領域に分割されている。重み付け係数は分割領域ごとに与えられる。システム制御部131は、それぞれの領域に含まれる画素の輝度値に重み付け係数を掛け合わせて、画像全体の平均輝度値を算出する。図示するように、通常時の重み付け係数はすべて1である。つまり、実質的には重み付けを施さない。したがって、全ての領域を偏りなく扱うことにより、全体的にバランスのとれた明るさの画像が生成されるような撮像制御値が決定される。全体的にバランスのとれた明るさの画像であれば、図4において影925に含まれる被写体は相対的に暗くなり、空920は相対的に明るくなる。なお、撮像画角214をいくつの領域に分割するかは、システム制御部131の演算能力等によって任意に設定される。
 上述した、通常時の重み付け係数の適用は、自車両10が中央車線900をそうこうしているときに限らず、任意の車線を車線変更せずに走行しているときに適用される。また、通常時の重み付け係数は、上述した例のように、重み付け係数をすべて1とする例に限らない。通常時の重み付け係数の他の例としては、撮像画角214または表示画角261の中央部の重み付けが大きくなるように設定されていてもよい。ここでいう中央部とは、撮像画角214または表示画角261の縦方向および横方向における中央部、または縦方向または横方向におけるいずれかの中央部としてもよい。
 さらに、通常時の重み付け係数の他の例としては、撮像画角214または表示画角261の下方の重み付け係数が大きくなるように設定されていてもよい。ここでいう下方とは、撮像画角214または表示画角261の上下方向中央部より下方、または空920と道路との境界922より下方などである。以下の説明において、通常時の重み付け係数とは、上記を含む。
 図6Aおよび図6Bは、中央車線900から右車線901へ進路を変更しようとする進路変更時における、ウィンドウの設定と重み付け係数について説明する説明図である。特に、図6Aは、ウィンドウの設定について説明する説明図であり、図6Bは、設定されたウィンドウと割り当てられる重み係数の関係を説明する図である。
 システム制御部131は、入出力IF138を介して右方向への進路変更を検出したら、現時点で取得している画像に対してウィンドウの設定を実行する。システム制御部131は、認識処理部137にエッジ強調や物体認識処理等の画像処理を実行させることにより、区分線911、912、913および境界922を抽出させる。そして、抽出したラインの補間処理などを施して、進路変更を行おうとしている右車線901の領域を決定し、これを加重ウィンドウ301と定める。また、反対の車線である左車線902の領域とそれよりさらに左側の領域を決定し、これらを纏めて軽減ウィンドウ303と定める。そして、その他の領域を通常ウィンドウ302と定める。
 システム制御部131は、加重ウィンドウ301、通常ウィンドウ302および軽減ウィンドウ303を定めたら、加重ウィンドウ301に含まれる分割領域には、通常時より重みを大きくする重み付け係数を、通常ウィンドウ302に含まれる領域には、通常時と同じ重み付け係数を、軽減ウィンドウ303には、通常時より重みを小さくする重み付け係数を与える。図6Bの例では、加重ウィンドウ303に80%以上の割合で含まれる分割領域には、5を与え、30%以上80%未満の割合で含まれる分割領域には、3を与えている。一方で、軽減ウィンドウ303に含まれる分割領域には、0を与えている。
 このような重み付けを施すと、加重ウィンドウ301が設定された右車線901の領域の影響が相対的に大きくなり、軽減ウィンドウ303が設定された左車線902を含む左側の領域の影響が相対的に小さくなる(図の例では0となる)。図4のシーンの例では、右車線901の領域は影925に部分的に含まれているので、その輝度値は相対的に小さい(暗い)が、重み付けによってこの領域の輝度値の影響が大きくなると、画像全体として算出される平均輝度値が小さくなり、目標輝度値との差は大きくなる。目標輝度値との差が大きくなると、撮像制御値としての修正量も大きくなり、この場合は、画像全体をより明るくしようとする撮像制御値が決定されることになる。
 このように重み付けが施されたAE演算結果によって撮像制御値が決定されると、その撮像制御値で撮像された画像は、右車線901の領域に含まれる被写体の明るさが適正になることが期待できる。すなわち、通常時の画像であれば、影925に含まれる被写体は暗くて視認し辛いところ、入出力IF138へ入力される各種信号から運転者がどちらの方向へ車線変更をしたいのかを判断して、その方向の車線の領域に含まれる被写体の明るさを最適化することができる。つまり、運転者が進路変更を行う場合に、その方向の部分領域が適切な明るさになるようにカメラユニット110を制御するので、運転者が進路変更先の車線である右車線901を適切に確認できる画像を呈示することができる。
 なお、上述の例では、自車両10の進路変更に関する情報を、ウィンカー信号、操舵信号、ミリ波レーダー11からの信号、ナビゲーションシステム14からの信号を用いて検出したが、これらの内の一つを用いるようにしても良いし、いくつかを組み合わせて用いても良い。また、進路変更に関する他の信号を用いても良い。更には、システム制御部131は、進路変更に関する情報を入出力IF138に限らず、他の手段を用いて検出しても良い。例えば、カメラユニット110によって連続的に撮像されるフレーム画像から区分線の変化を検出すれば、自車両10の左右方向の動きを検出できるので、これを進路変更に関する情報とすることもできる。
 ここから、ウィンドウの設定についていくつかのバリエーションについて説明する。図7は、他のシーンにおけるウィンドウの設定について説明する説明図である。図6Aおよび図6Bの例では、車線変更の方向に複数の区分線を検出した場合に、自車両10に隣接する2つの区分線911、913に基づいて定められる領域を加重ウィンドウ301としたが、図7は、車線変更の方向に一つの区分線915のみを検出した場合の例である。この場合は、検出した区分線915を基準として、区分線915から車線変更の方向へ予め定められた幅の領域を加重ウィンドウ301と定める。幅は、検出した区分線915の傾きに応じて、遠ざかる方向に小さくしても良い。このように加重ウィンドウ301を設定すると、移動する車線が正確に検出できなくても、運転者が観察したい領域に対して部分的にでも適切な明るさに調整することができる。なお、車線変更の方向とは反対の方向に区分線916を検出した場合には、図6Aおよび図6Bの例と同様に軽減ウィンドウ303を設定しても良い。
 図8は、更に他のシーンにおけるウィンドウの設定について説明する説明図である。図8は、車線変更の方向に区分線が検出できなかった場合の例である。この場合は、自車両10に隣接する直進方向に仮想的なラインを設定して、そのラインより車線変更の側の領域を加重ウィンドウ301と定める。このように加重ウィンドウ301を設定すると、少なくとも車線変更する側の被写体の視認性を向上させることができる。また、自車両10が右折や左折をするような場合に、右後方や左後方を走る二輪車なども視認しやすくなる。なお、車線変更の方向とは反対の方向にも、自車両10に隣接する直進方向に仮想的なラインを設定して同様に軽減ウィンドウ303を設定しても良い。
 図9は、他車両20を考慮してウィンドウを設定する場合について説明する説明図である。図9の場合、認識処理部137は、区分線の認識処理に加えて、車両の認識処理も行う。図6Aから図8の例では、車線や路面を基準にウィンドウの輪郭を定めたが、図9は、車線変更の方向に他の車両等が走行している場合には、その領域も含めて加重ウィンドウ301を定める例である。より具体的には、図6Aの加重ウィンドウ301に対して、他車両20の輪郭を足し合わせて加重ウィンドウ301を定めている。このように加重ウィンドウ301を定めれば、他車両20の視認性がより向上する。なお、他車両が複数存在する場合は、それら全てを包含する輪郭を足し合わせても良いし、自車両10に最も近い車両に限ってその輪郭を足し合わせても良い。画像処理部135は、他車両20の輪郭を、例えば連続する複数のフレーム画像の差から検出される移動ベクトルに基づいて検出する。もしくはミリ波レーダーを使用して他車両20との距離を測定することで、他車両20の輪郭を足し合わせるか判断しても良い。また、他車両を検知した場合の加重ウィンドウ301の重み付け係数を、検知しない場合の加重ウィンドウ301の重み付け係数より、大きくしても良い。
 図10は、他車両20を考慮する別の例について説明する説明図である。図9の例では、車線変更する変更先の車線や路面領域を加重ウィンドウ301に含めたが、図10は、路面領域を省いて他車両20の輪郭に含まれる領域のみを加重ウィンドウ301とする例である。このように加重ウィンドウ301を定めると、運転者は、車線変更において特に確認したいと考えられる他車両の存在や動きを、より高い視認性をもって観察することができる。なお、図の例では加重ウィンドウ301以外の領域を軽減ウィンドウ303と定め、他の領域の被写体の影響を排除している。
 図11A~図11Cは、車線変更中にウィンドウの設定を動的に変更する様子を説明する説明図である。特に、図11Aは、車線変更の開始直後の様子を示し、図11Bは、車線を跨ぐ頃の様子を示し、図11Cは、車線変更の完了直前の様子を示す。
 図11Aに示すように、車線変更の開始時において、まず自車両10に隣接する直進方向に仮想的なラインを設定して、そのラインより車線変更の側の領域を加重ウィンドウ301と定める。このとき、区分線911を抽出できているのであれば、これに沿ってラインを設定しても良い。また、他車両20が存在する場合は、その領域を加算して加重ウィンドウ301とする。
 そして、図11Bに示すように、路面上に設定される加重ウィンドウ301の領域を自車両10に対して相対的に固定しつつも、自車両10に対して位置関係が変化する他車両20の領域を加算して加重ウィンドウ301とする。このような加重ウィンドウ301の更新を、図11Cに示す車線変更の完了直前まで継続し、車線変更が完了したら、通常時の重み付けを施さない処理に復帰する。すなわち、自車両10が進路変更を開始してから終了するまでの間は、その進路変更の状況に応じて画像内で重み付けを変化させる。
 このように、加重ウィンドウ301を動的に更新することにより、運転者は、車線変更を行っている間も継続して、車線変更をする方向の被写体を適切な明るさで観察することができる。なお、上述の例では、路面上に設定される加重ウィンドウ301の領域を自車両10に対して相対的に固定したが、変更先の車線が区分線により認識できているのであれば、車線領域の方を加重ウィンドウ301の固定領域としても良い。この場合は、車線変更を行っている間に車線領域は画角内で相対的に移動するので、フレームごとに車線領域を抽出すると良い。
 また、システム制御部131は、車線変更の終了を、入出力IF138に入力される信号の変化から判断できる。例えば、ウィンカー信号の場合は、ウィンカー信号の受信停止時点を車線変更の終了と判断できる。ミリ波レーダー信号であれば、他車両20までの距離が一定の値を示すようになった時点を車両変更の終了と判断できる。また、システム制御部131は、カメラユニット110によって連続的に撮像されるフレーム画像から区分線の変化を検出する場合には、区分線の左右方向への移動が終了した時点を車両変更の終了と判断できる。
 以上、図6Aから図11Cを用いてウィンドウ設定のバリエーションについて説明したが、システム制御部131は、これらの手法を組み合わせ、自車両10の走行環境に合わせて適宜選択することもできる。なお、上述の各例では右方向に車線変更をする例を説明したが、左方向に車線変更する場合も、加重ウィンドウ301が左側の領域に設定されるように同様に処理される。
 次に、撮像装置100の制御フローの一例について説明する。図12は、撮像装置100の制御フローを示すフロー図である。フローは、例えばパワースイッチが操作された時点で開始される。
 システム制御部131は、ステップS101で、撮像制御値を含む撮像制御信号をカメラユニット110へ送り、撮像を実行させて画素データを本体ユニット130に送信させる。ステップS102へ進み、システム制御部131は、入出力IF138等を介して、自車両10が進路変更を開始する情報を取得したか否かを判断する。
 システム制御部131は、進路変更を開始する情報を取得していないと判断したら、ステップS121へ進み、ステップS101で取得した画素データを画像処理部135で処理して表示画像を形成し、通常時の重み付け係数で重み付け処理されたAE演算を行い、撮像制御値を決定する。そして、ステップS122へ進み、通常時の重み付け係数に基づいて決定された撮像制御値を含む撮像制御鍼法をカメラユニット110へ送り、撮像を実行させて画像データを本体ユニット130に送信させる。システム制御部131は、本体ユニット130が画像データを取得すると、ステップS123へ進み、画像処理部135で表示画像を生成し、表示出力部136を介して表示ユニット160で表示する。ステップS102で、進路変更を開始する情報を取得していないと判断された場合は、上述した通常時の重み付け係数で重み付け処理されたAE演算を行う処理に代えて、図5を用いて説明した重み付けを施さないAE演算を行うこととしてもよく、以下他の実施形態における通常時の重み付け係数で重み付け処理されたAE演算に対しても同様である。その後、ステップS113へ進み、表示終了の指示を受け付けてなければステップS101へ戻り、ステップS104で決定された撮像制御値を用いて画像の取得が実行され、自車両10が直進する通常時の処理が繰り返し実行される。
 システム制御部131は、ステップS102で、進路変更を開始する情報を取得したと判断したら、ステップS105へ進み、ステップS101で取得した画素データを画像処理部135で処理して、加重ウィンドウ等のウィンドウを設定する。このとき、加重ウィンドウは、上述のように、進路が変更される方向の領域に設定される。
 そして、システム制御部131は、ステップS106へ進み、他車両等の移動体が存在するか否かを判断する。システム制御部131は、ミリ波レーダー信号を利用して移動体の存在を判断しても良いし、複数フレームの画像を既に取得している場合は、被写体の移動ベクトルから判断しても良い。ミリ波レーダー信号を利用する場合は、システム制御部131は、入出力IFと協働して、車両の周辺を移動する移動体を検知する検知部としての機能を担う。同様に、移動ベクトルを利用する場合は、システム制御部131は、画像処理部135と協働して、検知部としての機能を担う。システム制御部131は、移動体が存在すると判断したら、画像から移動体の領域を抽出し、その領域を加重ウィンドウ301に加える修正を施す(ステップS107)。
 ステップS107で加重ウィンドウに修正を加えたら、あるいはステップS106で移動体が存在しないと判断したら、システム制御部131は、ステップS108へ進み、重み付けを施してAE演算を行い、撮像制御値を決定する。そして、ステップS109へ進み、当該撮像制御値を含む撮像制御信号をカメラユニット110へ送り、撮像を実行させて画素データを本体ユニット130に送信させる。システム制御部131は、本体ユニット130が画素データを取得すると、ステップS110へ進み、画像処理部135で処理して表示画像を形成し、表示出力部136を介して表示ユニット160で表示する。
 続いてステップS111へ進み、システム制御部131は、入出力IF138等を介して、自車両10が進路変更を終了する情報を取得したか否かを判断する。進路変更を終了する情報を取得していないと判断したら、ステップS105へ戻り、車線変更時の処理を継続する。システム制御部131は、ステップS105からステップS111を繰り返すことにより、表示画像を予め定められたフレームレートに従ってほぼリアルタイムに更新する。
 システム制御部131は、ステップS111で進路変更を終了する情報を取得したと判断したら、ステップS112へ進み、設定したウィンドウを解除する。そして、ステップS113へ進み、表示終了の指示を受け付けたか否かを判断する。表示終了の指示は、例えば再度のパワースイッチの操作である。表示終了の指示を受け付けていないと判断したらステップS101へ戻り、受け付けたと判断したら一連の処理を終了する。
 なお、上記の処理においては、移動体が存在した場合に(ステップS106でYES)、移動体の領域を加重ウィンドウ301に加える修正を施したが(ステップS107)、これは、図9等を用いて説明した移動体を考慮するウィンドウ設定の例である。移動体を考慮せず、ステップS106、S107を省略して、加重ウィンドウ301を修正しないフローであっても構わない。
 図13は、撮像装置100の他の例に係る制御フローを示すフロー図である。図12と同じ処理については、同じステップ番号を付してその説明を省略する。図12の制御フローでは、進路変更を開始する情報を取得したら加重ウィンドウを設定して重み付けを施したAE演算を実行したが、本制御フローでは、進路変更を開始する情報を取得しても、移動体を検知しなかった場合には、重み付けを施さない。
 システム制御部131は、ステップS102で進路変更を開始する情報を取得したら、ステップS205へ進み、他車両等の移動体が存在するか否かを判断する。移動体が存在しないと判断したら、ステップS208へ進み、ステップS121からステップS123の処理と同様に、通常時の重み付け係数で重み付け処理されたAE演算を実行し、撮像制御値を決定する。一方で、移動体が存在すると判断したら、ステップS206へ進み、画像から移動体の領域を抽出し、当該領域を含むように進路が変更される方向の領域に加重ウィンドウを設定する。そして、ステップS209へ進み、重み付けを施してAE演算を行い、撮像制御値を決定する。
 システム制御部131は、ステップS207で決定した撮像制御値、あるいはステップS208で決定した撮像制御値を含む撮像制御信号をカメラユニットに送り、撮像を実行させて画素データを本体ユニット130に送信させる(ステップS209)。システム制御部131は、本体ユニット130が画素データを取得すると、ステップS110へ進む。
 このような制御フローを採用すると、運転者は、進路変更時に特に注意すべき移動体が存在する場合に、その移動体を適切な明るさで視認できるとともに、存在しない場合には、全体の明るさのバランスを優先して後方環境を視認できる。
 以上説明した本実施形態おいては、画像処理部135が撮像画角214で生成した画像の全体を対象に重み付けを施すAE演算を行ったが、システム制御部131は、まず表示画角261に切り出し、表示画角261の画像を対象に演算を行っても良い。表示画角261の画像を対象に重み付けを施すAE演算を行えば、切り落とした撮像画角の領域に極端な高輝度や低輝度の被写体が存在する場合であっても、これらの影響を受けることなく、より適切な撮像制御値を決定できる。
 以上説明した実施形態においては、検出部としての機能を担う入出力IF138が検出した進路変更に関する情報に基づいて撮像部としての機能を担うカメラユニット110が撮像した画像における進路変更方向に大きくなるように重み付けを施してAE演算を行い、その結果に基づいてカメラユニット110を制御する例を説明した。しかし、画像の視認性向上は、AE演算による撮像制御に限らず、画像処理部135による画像処理でも実現できる。
 画像処理による視認性向上の例として、まず、入出力IF138が検出した進路変更に関する情報に基づいてカメラユニット110が撮像した画像における進路変更方向に大きくなるように重み付けを施して明るさ調整の画像処理を行う例を説明する。図14は、重み付けを施して明るさを調整する制御フローを示すフロー図である。図12を用いて説明した処理と同じ処理については、同じステップ番号を付して、その説明を省略する。
 システム制御部131は、ステップS101でカメラユニット110に撮像を実行させて画素データを本体ユニット130に送信させたら、ステップS202で、入出力IF138等を介して、自車両10が進路変更を開始したか、または、進路変更を継続しているかの情報を取得したかを判断する。
 システム制御部131は、いずれの情報も取得していないと判断したら、ステップS203へ進み、画像処理部135は、ステップS101で取得した画素データに通常の明るさ調整を施す。ここで、通常の明るさ調整とは、通常時の重み付け係数で重み付け処理された明るさ調整を行うことである。また、通常時の重み付け係数で重み付け処理された明るさ調整に代えて、図5を用いて説明したように全ての分割領域を均一に扱い(重み付け係数1を与えることに等しい)、画像全体の平均明度が予め定められた目標明度になるように各画素値を調整することとしてもよい。システム制御部131は、このように明るさが調整された表示画像を、ステップS204で、表示出力部136を介して表示ユニット160に表示させる。その後、ステップS113へ進む。
 ステップS202で自車両10が進路変更を開始したか、または、進路変更を継続しているかの情報を取得したと判断したら、システム制御部131は、ステップS105で加重ウィンドウ等のウィンドウを設定する。さらに、条件に応じて加重ウィンドウ301を修正する(ステップS106、S107)。移動体を考慮しないのであれば、ステップS106、S107の処理を省いても良い。
 ステップS208へ進むと、画像処理部135は、ステップS101で取得した画素データに重み付け有りの明るさ調整を施す。具体的には、図6Aから図11Cを用いて説明したように分割領域に対して重み付け係数を与えて、画像全体の平均明度を算出する。例えば、重み付け係数0.5が与えられた分割領域に属する画素は、平均明度の計算において0.5画素分として計算され、重み付け係数2.0が与えられた分割領域に属する画素は、平均明度の計算において2画素分として計算される。画像処理部135は、このように調整された平均明度が予め定められた目標明度になるように各画素値を調整する。システム制御部131は、このように明るさが調整された画像を表示用の表示画像に変換して、ステップS210で、表示出力部136を介して表示ユニット160に表示させる。
 続いてステップS211へ進み、システム制御部131は、入出力IF138等を介して、自車両10が進路変更を終了する情報を取得したか否かを判断する。進路変更を終了する情報を取得していないと判断したら、ステップS101へ戻る。進路変更を終了する情報を取得したと判断したら、ステップS112へ進む。
 このように、画像処理によって明るさを調整しても、運転者は、進路変更時において進路変更先の様子を適切に確認できる。
 画像処理による視認性向上の例として、次に、入出力IF138が検出した進路変更に関する情報に基づいてカメラユニット110が撮像した画像における進路変更方向に大きくなるように重み付けを施してホワイトバランス調整の画像処理を行う例を説明する。図15は、重み付けを施してホワイトバランスを調整する制御フローを示すフロー図である。図12および図14を用いて説明した処理と同じ処理については、同じステップ番号を付して、その説明を省略する。
 システム制御部131は、ステップS202でいずれの情報も取得していないと判断したら、ステップS303へ進み、画像処理部135は、ステップS101で取得した画素データに通常のホワイトバランス調整を施す。ここで、通常のホワイトバランス調整とは、通常時の重み付け係数で重み付け処理されたホワイトバランス調整を行うことである。また、通常時の重み付け係数で重み付け処理されたホワイトバランス調整に代えて、図5を用いて説明したように全ての分割領域を均一に扱い(重み付け係数1を与えることに等しい)、RGBごとのホワイトバランスゲインを算出してホワイトバランス調整を行うこととしてもよい。システム制御部131は、このようにホワイトバランスが調整された表示画像を、ステップS204で、表示出力部136を介して表示ユニット160に表示させる。その後、ステップS113へ進む。
 ステップS202で自車両10が進路変更を開始したか、または、進路変更を継続しているかの情報を取得したと判断したら、システム制御部131は、ステップS105で加重ウィンドウ等のウィンドウを設定する。さらに、条件に応じて加重ウィンドウ301を修正する(ステップS106、S107)。移動体を考慮しないのであれば、ステップS106、S107の処理を省いても良い。
 ステップS208へ進むと、画像処理部135は、ステップS101で取得した画素データに重み付け有りのホワイトバランス調整を施す。具体的には、図6Aから図11Cを用いて説明したように分割領域に対して重み付け係数を与えて、RGBごとのホワイトバランスゲインを算出する。例えば、重み付け係数0.5が与えられた分割領域に属するR画素の画素値は、Rのホワイトバランスゲインの計算において0.5画素分として計算され、重み付け係数2.0が与えられた分割領域に属するR画素の画素値は、Rのホワイトバランスゲインの計算において2画素分として計算される。画像処理部135は、このように算出したRGBの各ホワイトバランスゲインを用いて各画素のRGB値を調整する。システム制御部131は、このようにホワイトバランスが調整された画像を表示用の表示画像に変換して、ステップS210で、表示出力部136を介して表示ユニット160に表示させる。
 このように、ホワイトバランスを調整すると、運転者は、進路変更時において進路変更先の対象物の色味を正しく視認することができる。
 以上図14と図15を用いて説明した画像処理部135による明るさ調整およびホワイトバランス調整は、一連の処理において組み合わせて適用しても良い。また、図14と図15の処理フローは、図12の処理フローをベースとする処理フローであったが、図13の処理フローをベースとして、重み付け演算の決定を行っても良い。
 更には、図12や図13を用いて説明した重み付けを施して行うAE演算結果に基づく撮像制御に、図14や図15を用いて説明した重み付けを施して行う画像処理を組み合わせて処理しても良い。例えば、明るさを撮像制御と画像処理の両方で調整すれば、進路変更先の対象物がより適切な明るさとなることが期待できる。
 以上説明した本実施形態における撮像装置100は、カメラユニット110を自車両10の後方へ向けて設置し、バックミラーに置き換えられる表示ユニット160に後方画像を供給する装置として説明した。しかし、カメラユニット110を自車両10の前方へ向けて設置する撮像装置に対しても、本発明を適用し得る。例えば、大型車両において運転席からは死角となる前方領域を撮像するカメラユニットであれば、右折や左折の進路変更も含め、進路変更する方向の被写体が適切な明るさで表示されることは、運転者の利便性を向上させる。
 以上説明した画像は、カメラユニット110により周期的に撮像した画像を処理して表示ユニット160に連続して表示する画像として説明したが、例えば予め定められたタイミングや発生したイベントのタイミングに応じて撮像される、記録用の静止画像や動画像であっても良い。
 以上説明した実施形態において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現し得る。便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
 この出願は、2016年5月24日に出願された日本出願特願2016-103392、2017年1月31日に出願された日本出願特願2017-015157を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 以上のように本実施形態に係る撮像装置、撮像表示方法および撮像表示プログラムは、例えば乗用車に搭載される撮像装置、乗用車で実施される撮像表示方法、乗用車のコンピュータによって実行される撮像表示プログラムとして利用可能である。
10 自車両、11 ミリ波レーダー、12 ハンドル、13 ウィンカーレバー、14 ナビゲーションシステム、20 他車両、100 撮像装置、110 カメラユニット、112 レンズ、114 撮像素子、116 AFE、130 本体ユニット、131 システム制御部、132 画像入力IF、133 ワークメモリ、134 システムメモリ、135 画像処理部、136 表示出力部、138 入出力IF、139 バスライン、160 表示ユニット、214 撮像画角、261 表示画角、301 加重ウィンドウ、302 通常ウィンドウ、303 軽減ウィンドウ、900 中央車線、901 右車線、902 左車線、911~916 区分線、920 空、921 太陽、922 境界、923、924 街路樹、925 影

Claims (17)

  1.  車両の周辺を撮像する撮像部と、
     前記撮像部を制御する制御部と、
     前記撮像部から出力された画像データを処理する画像処理部と、
     前記画像処理部が処理した画像を表示部に出力する出力部と、
     前記車両の進路変更に関する情報を検出する検出部と
    を備え、
     前記制御部による撮像制御および前記画像処理部による画像処理の少なくともいずれかは、前記検出部が検出した進路変更に関する情報に基づいて進路変更方向に大きくなるように重み付けを施す撮像装置。
  2.  前記制御部は、前記検出部が検出した進路変更に関する情報に基づいて前記撮像部が撮像した画像における進路変更方向に大きくなるように重み付けを施してAE演算を行い、その結果に基づいて前記撮像部を制御する請求項1に記載の撮像装置。
  3.  前記画像処理部は、前記検出部が検出した進路変更に関する情報に基づいて前記撮像部が撮像した画像における進路変更方向に大きくなるように重み付けを施して明るさ調整の画像処理を行う請求項1または2に記載の撮像装置。
  4.  前記画像処理部は、前記検出部が検出した進路変更に関する情報に基づいて前記撮像部が撮像した画像における進路変更方向に大きくなるように重み付けを施してホワイトバランス調整の画像処理を行う請求項1から3のいずれか1項に記載の撮像装置。
  5.  前記制御部または前記画像処理部は、前記検出部が進路変更を開始する情報を検出してから終了する情報を検出するまでの間は、前記車両の進路変更の状況に前記重み付け領域を対応させる請求項1から4のいずれか1項に記載の撮像装置。
  6.  前記撮像部が撮像した画像から対象物を認識する認識処理部をさらに備え、
     前記制御部による撮像制御および前記画像処理部による画像処理の少なくともいずれかは、前記進路変更方向において認識した対象物に基づいて重み付けを大きくする、
     請求項1から5のいずれか1項に記載の撮像装置。
  7.  前記認識処理部は、前記撮像部が撮像した画像から路面を検出し、
     前記制御部および前記画像処理部の少なくともいずれかは、前記車両が進路変更を行う方向の前記路面を含む領域の重みを大きくして前記重み付けを施す請求項6に記載の撮像装置。
  8.  前記認識処理部は、前記撮像部が撮像した画像から前記車両が進路変更を行う方向における移動体を検出し、
     前記制御部および前記画像処理部の少なくともいずれかは、前記車両が進路変更を行う方向の前記移動体を含めた領域の重みを大きくして前記重み付けを施す請求項6または7に記載の撮像装置。
  9.  前記認識処理部は、前記撮像部が撮像した画像から路面上の区分線を検出し、
     前記制御部および前記画像処理部の少なくともいずれかは、前記車両が進路変更を行う方向における前記区分線に基づいて前記重み付けを行う請求項6から8のいずれか1項に記載の撮像装置。
  10.  前記認識処理部が、前記進路変更の方向に複数の区分線を検出した場合は、
     前記制御部および前記画像処理部の少なくともいずれかは、前記車両に隣接する2つの区分線に基づいて定められる領域の重みを大きくして前記重み付けを施す請求項9に記載の撮像装置。
  11.  前記撮像部は、前記車両の進行方向に対して後方を撮像する請求項1から10のいずれか1項に記載の撮像装置。
  12.  前記検出部は、運転者による方向指示器の操作信号に基づいて前記進路変更に関する情報を検出する請求項1から11のいずれか1項に記載の撮像装置。
  13.  前記検出部は、運転者によるハンドル操作に基づく操舵信号に基づいて前記進路変更に関する情報を検出する請求項1から12のいずれか1項に記載の撮像装置。
  14.  前記検出部は、前記認識処理部が検出した区分線の位置の変化に基づいて前記進路変更に関する情報を検出する請求項6に従属する場合の請求項9から13のいずれか1項に記載の撮像装置。
  15.  前記検出部は、ナビゲーションシステムから取得する予定経路情報に基づいて前記進路変更に関する情報を検出する請求項1から14のいずれか1項に記載の撮像装置。
  16.  車両の周辺を撮像する撮像部に撮像させる撮像ステップと、
     前記撮像部を制御する制御ステップと、
     前記撮像ステップにおいて撮像された画像データを処理する画像処理ステップと、
     前記画像処理ステップにおいて処理された画像を表示部に表示させる表示ステップと、
     前記車両の進路変更に関する情報を検出する検出ステップと、
    を備え、
     前記制御ステップおよび前記画像処理ステップの少なくともいずれかにおいて、前記検出ステップにおいて検出された進路変更に関する情報に基づいて進路変更方向に大きくなるように重み付けを施す、撮像表示方法。
  17.  車両の周辺を撮像する撮像部に撮像させる撮像ステップと、
     前記撮像部を制御する制御ステップと、
     前記撮像ステップにおいて撮像された画像データを処理する画像処理ステップと、
     前記画像処理ステップにおいて処理された画像を表示部に表示させる表示ステップと、 前記車両の進路変更に関する情報を検出する検出ステップと、
    を実行する際に、
     前記制御ステップおよび前記画像処理ステップの少なくともいずれかにおいて、前記検出ステップにおいて検出された進路変更に関する情報に基づいて進路変更方向に大きくなるように重み付けを施す処理
    をコンピュータに実行させる撮像表示プログラム。
PCT/JP2017/009362 2016-05-24 2017-03-09 撮像装置、撮像表示方法および撮像表示プログラム WO2017203794A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17802396.6A EP3410702B1 (en) 2016-05-24 2017-03-09 Imaging device, imaging/display method and imaging/display program
CN201780005430.4A CN108476308A (zh) 2016-05-24 2017-03-09 拍摄装置、拍摄显示方法以及拍摄显示程序
US16/184,837 US20190092239A1 (en) 2016-05-24 2018-11-08 Image-pickup apparatus, image-pickup display method, and image-pickup display program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016-103392 2016-05-24
JP2016103392 2016-05-24
JP2017015157A JP6750519B2 (ja) 2016-05-24 2017-01-31 撮像装置、撮像表示方法および撮像表示プログラム
JP2017-015157 2017-01-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/184,837 Continuation US20190092239A1 (en) 2016-05-24 2018-11-08 Image-pickup apparatus, image-pickup display method, and image-pickup display program

Publications (1)

Publication Number Publication Date
WO2017203794A1 true WO2017203794A1 (ja) 2017-11-30

Family

ID=60411214

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/009362 WO2017203794A1 (ja) 2016-05-24 2017-03-09 撮像装置、撮像表示方法および撮像表示プログラム

Country Status (1)

Country Link
WO (1) WO2017203794A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019188390A1 (ja) * 2018-03-29 2019-10-03 ソニー株式会社 露光制御装置、露光制御方法、プログラム、撮影装置、及び、移動体
WO2021161712A1 (ja) * 2020-02-14 2021-08-19 ソニーグループ株式会社 撮像装置及び車両制御システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274377A (ja) * 2006-03-31 2007-10-18 Denso Corp 周辺監視装置、プログラム
JP2008230464A (ja) * 2007-03-22 2008-10-02 Alpine Electronics Inc 車載カメラ用自動露出装置
JP2012253458A (ja) * 2011-05-31 2012-12-20 Toyota Motor Corp 車両周辺表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274377A (ja) * 2006-03-31 2007-10-18 Denso Corp 周辺監視装置、プログラム
JP2008230464A (ja) * 2007-03-22 2008-10-02 Alpine Electronics Inc 車載カメラ用自動露出装置
JP2012253458A (ja) * 2011-05-31 2012-12-20 Toyota Motor Corp 車両周辺表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3410702A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019188390A1 (ja) * 2018-03-29 2019-10-03 ソニー株式会社 露光制御装置、露光制御方法、プログラム、撮影装置、及び、移動体
JPWO2019188390A1 (ja) * 2018-03-29 2021-04-15 ソニー株式会社 露光制御装置、露光制御方法、プログラム、撮影装置、及び、移動体
US11363212B2 (en) 2018-03-29 2022-06-14 Sony Corporation Exposure control device, exposure control method, program, imaging device, and mobile body
JP7243714B2 (ja) 2018-03-29 2023-03-22 ソニーグループ株式会社 露光制御装置、露光制御方法、プログラム、撮影装置、及び、移動体
WO2021161712A1 (ja) * 2020-02-14 2021-08-19 ソニーグループ株式会社 撮像装置及び車両制御システム

Similar Documents

Publication Publication Date Title
JP6750519B2 (ja) 撮像装置、撮像表示方法および撮像表示プログラム
JP4248558B2 (ja) 道路区画線検出装置
JP4389999B2 (ja) 露出制御装置及び露出制御プログラム
JP6969102B2 (ja) 画像表示装置及び画像表示方法
JP5171723B2 (ja) 障害物検知装置、および当該装置を搭載した車両
JP4622740B2 (ja) 車両用表示制御装置
CN110877572A (zh) 周边监视装置
JP4556777B2 (ja) 夜間運転視界支援装置
EP3240288B1 (en) Imaging system
JP2008230296A (ja) 車両用運転支援システム
EP2723060A1 (en) Vehicle-mounted camera device
JP6428391B2 (ja) 撮像装置
US11172173B2 (en) Image processing device, image processing method, program, and imaging device
JP5464741B2 (ja) 画像合成装置、及び、画像合成方法
JP6305430B2 (ja) 撮像設定変更装置、撮像システム、および撮像設定変更方法
WO2017203794A1 (ja) 撮像装置、撮像表示方法および撮像表示プログラム
JP5742541B2 (ja) 画像処理装置および画像処理プログラム
JP2017212633A (ja) 撮像装置、撮像表示方法および撮像表示プログラム
JP2016025394A (ja) 車両用表示装置
KR102177878B1 (ko) 영상 처리 장치 및 방법
JP6266022B2 (ja) 画像処理装置、警報装置、および画像処理方法
WO2020121758A1 (ja) 撮像部制御装置
US11546523B2 (en) Image processing system, in-vehicle camera system with image processing system, and vehicle with camera system
KR20120055824A (ko) 차량용 카메라 시스템의 영상 획득 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2017802396

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017802396

Country of ref document: EP

Effective date: 20180829

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17802396

Country of ref document: EP

Kind code of ref document: A1