WO2024122135A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2024122135A1
WO2024122135A1 PCT/JP2023/032211 JP2023032211W WO2024122135A1 WO 2024122135 A1 WO2024122135 A1 WO 2024122135A1 JP 2023032211 W JP2023032211 W JP 2023032211W WO 2024122135 A1 WO2024122135 A1 WO 2024122135A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
camera
distortion
magnification
unit
Prior art date
Application number
PCT/JP2023/032211
Other languages
English (en)
French (fr)
Inventor
和良 山崎
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Publication of WO2024122135A1 publication Critical patent/WO2024122135A1/ja

Links

Images

Definitions

  • the present invention relates to an image processing device and an image processing method.
  • stereo camera technology has been used as a three-dimensional object recognition technology.
  • Stereo camera technology uses the difference in how images taken by two cameras (called “stereo cameras") placed in different positions to detect parallax based on trigonometry, and uses this parallax to detect the depth and position of an object.
  • stereo camera technology uses this parallax to detect the depth and position of an object.
  • stereo camera technology is applied to detect and recognize three-dimensional objects in cameras mounted on vehicles and robots.
  • the images from the two cameras of a stereo camera are transformed into a specified projection using, for example, the central projection method, and the distance to an object can be measured by detecting the difference between the images after the transformation.
  • Patent Document 1 states that "For camera information that changes depending on the zoom state and focus state of each imaging means, the camera information storage means has multiple camera information corresponding to the state, and the stereo image processing means acquires the zoom state and focus state of each imaging means, acquires the corresponding camera information from the camera information storage unit, and uses it for stereo image processing.”
  • Patent document 2 also states that "The distortion correction processing unit reads from the correction coefficient storage unit a correction coefficient that minimizes the index value (amount of deviation) indicating the degree of distortion of the captured image at the detected temperature based on the temperature detected by the temperature sensor, and performs distortion correction processing according to the distortion correction formula using the read correction coefficient.”
  • Patent Document 1 describes that, in response to image shifts that occur due to lens expansion and contraction and structural deformation caused by temperature changes, temperature information from the first and second imaging units is acquired, and corresponding correction information is acquired together with the camera information from the camera information storage unit, thereby making it possible to correct changes in camera information due to temperature differences.
  • the process described in Patent Document 1 stores correction information according to temperature in a storage device, which increases the storage capacity of the storage device and makes the cost of the storage device an issue.
  • the correction information is read from the storage device, so storage devices corresponding to the two cameras must be secured in advance.
  • cameras are becoming increasingly high-pixelated, and the amount of information, such as correction information, is only increasing, so the storage capacity of the storage device must also become larger.
  • the image processing device described in Patent Document 2 uses a polynomial distortion correction formula to reduce the amount of data stored in the storage device, which addresses the problem of increased storage capacity that was identified in Patent Document 1. Therefore, even though the storage capacity of the storage device can be reduced, the image processing device described in Patent Document 2 has the problem of having to reserve a storage device corresponding to the two cameras, just like the device described in Patent Document 1.
  • the temperature detected by the temperature detection unit described in Patent Document 1 and the temperature sensor described in Patent Document 2 does not directly indicate the temperature of the lens.
  • the temperature inside the lens differs from the temperature outside.
  • the temperatures of the two cameras may differ, and errors may occur when correcting the images detected by the two cameras.
  • there is variation in the temperature characteristics of actual lenses, and the same temperature change does not necessarily result in the same characteristics. For this reason, it is difficult to detect changes in the image from temperature changes.
  • the temperature of the two cameras changes the sensitivity of the sensors built into the cameras also changes, and the images detected by each sensor also differ.
  • the present invention was made in consideration of these circumstances, and aims to correct the images output from the stereo camera (two cameras) in accordance with changes in the two cameras.
  • the image processing device includes an image comparison unit that compares a first image detected by a first image sensor of the first camera with a second image detected by a second image sensor of the second camera, the first image being input from a stereo camera having a first camera and a second camera arranged side by side in a first direction, and calculates a correction processing coefficient for correcting the second image based on the difference between the first image and the second image in a second direction different from the first direction, and an image processing unit that corrects the second image using the correction processing coefficient calculated by the image comparison unit.
  • images output from a stereo camera can be corrected in accordance with changes in the two cameras.
  • FIG. 1 is a block diagram showing an example of the internal configuration of an image processing apparatus according to a first embodiment of the present invention
  • FIG. 4 is a diagram illustrating a correction algorithm according to the first embodiment of the present invention.
  • 4A and 4B are diagrams showing changes in an image on a sensor with temperature changes according to the first embodiment of the present invention
  • 5A to 5C are diagrams illustrating a method of correcting a difference in changes between two lenses according to the first embodiment of the present invention.
  • 4 is a graph showing k dependency of a magnification error signal MES according to the first embodiment of the present invention.
  • 3A and 3B are diagrams illustrating the relationship between the positions of lenses and sensors according to the first embodiment of the present invention.
  • 13A and 13B are diagrams illustrating the effect of correcting an image height displacement amount and an image height displacement amount difference when the second image sensor according to the first embodiment of the present invention moves in the Y direction.
  • 13A and 13B are diagrams illustrating the image height displacement amount and the correction effect of the image height displacement amount difference when the second image sensor according to the first embodiment of the present invention is rotated about the Y axis as the rotation axis.
  • 11A and 11B are diagrams illustrating the effect of correcting an image height displacement amount and an image height displacement amount difference in a case where the image height displacement amount changes nonlinearly with respect to the vertical angle of view according to the first embodiment of the present invention.
  • FIG. 5A to 5C are diagrams illustrating an example of a displacement of an image height in the vertical direction at each position in the horizontal direction of a first lens and a second lens according to the first embodiment of the present invention.
  • FIG. 2 is a diagram showing examples of various regions detected by two sensors and used to calculate MES according to the first embodiment of the present invention.
  • 1 is a block diagram showing an example of a hardware configuration of a computer according to a first embodiment of the present invention
  • 4 is a flowchart illustrating an example of processing performed by the image processing device according to the first embodiment of the present invention.
  • FIG. 11 is a block diagram showing an example of the internal configuration of an image processing apparatus according to a second embodiment of the present invention.
  • FIG. 11 is a block diagram showing an example of the internal configuration of an image processing device according to a third embodiment of the present invention.
  • FIG. 13 is a block diagram showing an example of the internal configuration of an image processing device according to a fourth embodiment of the present invention.
  • the present invention is applicable, for example, to a computing device for vehicle control capable of communicating with an on-board ECU (Electronic Control Unit) for an Advanced Driver Assistance System (ADAS) or Autonomous Driving (AD).
  • ECU Electronic Control Unit
  • ADAS Advanced Driver Assistance System
  • AD Autonomous Driving
  • FIG. 1 is a block diagram showing an example of the internal configuration of an image processing apparatus 1 according to a first embodiment of the present invention.
  • the image processing device 1 performs a predetermined process on images input from a stereo camera having a first camera (first camera 10) and a second camera (second camera 20) arranged side by side in a first direction.
  • first camera 10 and second camera 20 are arranged side by side in the horizontal direction (first direction).
  • the first camera 10 has a first lens 11 and a first image sensor 12.
  • the first camera 10 detects an image of an object with the first image sensor 12 on which image light is focused via the first lens 11. Predetermined processing is performed by each subsequent functional unit on the first image detected by the first image sensor (first image sensor 12) of the first camera (first camera 10).
  • the second camera 20 has a second lens 21 and a second image sensor 22.
  • the second camera 20 detects an image of an object with the second image sensor 22 on which image light is focused via the second lens 21. Predetermined processing is performed by each subsequent functional unit on the second image detected by the second image sensor (second image sensor 22) of the second camera (second camera 20).
  • first lens 11 and the second lens 21 are not differentiated, they are collectively referred to as “lenses”.
  • first image sensor 12 and the second image sensor 22 are not differentiated, they are collectively referred to as “sensors”.
  • first camera 10 and the second camera 20 may be collectively referred to as "two cameras”.
  • first image detected by the first image sensor 12 may be referred to as “the first image detected by the first camera 10”.
  • second image detected by the second image sensor 22 may be referred to as "the second image detected by the second camera 20".
  • the first image detected by the first camera 10 is input to the distortion conversion processing unit 50A, which converts the distortion of the first image.
  • the second image captured by the second camera 20 is input to the distortion conversion processing unit 50B.
  • the distortion conversion processing unit 50B converts the distortion of the second image.
  • the image processing unit according to the first embodiment is a distortion conversion processing unit (distortion conversion processing unit 50) that converts the distortion of the first image and the distortion of the second image.
  • the distortion conversion processing units 50A and 50B convert the distortion of the first image and the second image by performing projective transformation from orthogonal projection to central projection (f tan ⁇ ), respectively.
  • the effect of the present invention can be obtained even if the image after projective transformation is other than central projection (f tan ⁇ ).
  • the magnification of the second image changes with respect to the first image due to a change in the relative temperature of the second lens 21 of the second camera 20 with respect to the temperature of the first lens 11 of the first camera 10. Also, even if the temperatures of the first lens 11 of the first camera 10 and the second lens 21 of the second camera 20 are the same, the magnification of the second image changes with respect to the first image due to the difference in sensitivity of the magnification change with respect to the temperature of the first lens 11 of the first camera 10 and the second lens 21 of the second camera 20.
  • the image processing unit disortion conversion processing unit 50B
  • the correction of the second image with the correction processing coefficient k is a process of correcting the change in magnification of the second image.
  • An image comparison unit 30 is provided downstream of the two cameras.
  • the image comparison unit 30 receives a first image from the first camera 10 and a second image from the second camera 20.
  • the image comparison unit 30 compares the first image with the second image, and calculates a correction processing coefficient k for correcting the second image based on the difference between the first image and the second image in a second direction different from the first direction.
  • the substantially horizontal direction in which the two cameras are lined up is defined as the first direction
  • the substantially vertical direction and the second direction are defined as the second direction.
  • the second direction is not limited to the substantially vertical direction, and may be a direction tilted up to about 45 degrees with respect to the horizontal direction (see (5) and (6) in FIG. 11 described later).
  • the image comparison unit 30 compares the first image and the second image in a direction approximately perpendicular to the direction in which the two cameras are arranged, and outputs the comparison result to the distortion conversion processing unit 50B.
  • the image size of the second image can be corrected by multiplying the entire second image by a predetermined magnification represented by the correction processing coefficient k. Therefore, a difference in image size of a predetermined area of the second image relative to a predetermined area of the first image is equivalent to a difference in magnification of the second image relative to the first image. Therefore, in order to calculate the correction processing coefficient k, the image comparison unit 30 extracts areas of a predetermined size from each of the first image and the second image.
  • the size of the extracted area may be the size of a part of an image that is an object that is commonly captured in the two images, as shown in FIG. 3 described later, or may be the size of the entire image for each of the two images, as shown in (1) and (2) of FIG. 11 described later.
  • the areas extracted from the first image and the second image are partial areas extracted from the first image and the second image (for example, areas R1 and R2 shown in FIG. 3 described later).
  • the image comparison unit 30 calculates an image magnification such that the image sizes of the first image and the second image match by multiplying the second image by a predetermined magnification.
  • this image magnification is called the "correction processing coefficient k”.
  • the distortion conversion processing unit 50B corrects the change in magnification of the second image using the correction processing coefficient k input from the image comparison unit 30. A detailed explanation of the correction processing coefficient k will be given later.
  • a luminance correction unit 51, an image interpolation unit 52, and a luminance information generation unit 53 are provided downstream of the distortion conversion processing unit 50.
  • the luminance correction unit 51, the image interpolation unit 52, and the luminance information generation unit 53 are provided for a path that performs a predetermined process on the image after distortion conversion output from the distortion conversion processing unit 50A, and a path that performs a predetermined process on the image after distortion conversion and magnification change correction output from the distortion conversion processing unit 50B.
  • the luminance correction unit 51 performs, as the luminance correction process, a process of correcting, for example, the difference in gain between the two cameras, or the difference in gain between the pixels in the first camera 10 and the pixels in the second camera 20. This correction makes the luminance of the same object captured in the first image and the second image the same.
  • the image interpolation unit 52 performs, as the image interpolation process, for example, demosaicing process for converting a RAW image into a color image.
  • the luminance information generating unit 53 converts, for example, the first image and the second image, which are color images, into luminance images as a process for generating luminance information to enable the downstream parallax image generating unit 60 to generate parallax images.
  • luminance information is generated for each of the first image and the second image.
  • the first and second images are subjected to processing by the luminance correction unit 51, image interpolation unit 52, and luminance information generation unit 53, thereby obtaining a first processed image and a second processed image output from the luminance information generation unit 53.
  • both the first processed image and the second processed image are the same as the luminance image, but since a predetermined processing is performed on each image, they are called "processed images.”
  • the disparity detection unit detects the disparity of an object reflected in the first image and the second image based on a first image (i.e., the first processed image) in which at least the distortion has been converted and luminance information has been generated, and a second image (i.e., the second processed image) in which at least the distortion has been converted, luminance information has been generated, and the magnification has been converted.
  • a first image i.e., the first processed image
  • a second image i.e., the second processed image
  • the disparity image generation unit 60 generates a disparity image for detecting the parallax of the object based on the first processed image and the second processed image.
  • the distance calculation unit 70 calculates the distance to the object shown in the first image and the second image based on the parallax (the above-mentioned parallax image) detected by the parallax image generation unit 60. Then, the distance calculation unit 70 outputs the distance to the object to a vehicle control unit (not shown) or the like.
  • a vehicle control unit (not shown) performs control such as steering the vehicle to change the traveling direction or stopping the vehicle in front of the object based on the calculation result of the distance to the object.
  • Such an image processing device 1 is characterized in that the images detected by the two cameras are compared by the image comparison unit 30, and the distortion conversion processing unit 50B uses the comparison result to perform correction processing of the second image.
  • the techniques described in the above-mentioned prior art documents 1 and 2 differ from the technique according to this embodiment in the concept of correcting distance measurement errors.
  • the distortion of both the first image and the second image is corrected so that the images output from the two cameras are under a predetermined temperature condition in response to temperature changes in the two lenses.
  • the techniques described in the prior art documents 1 and 2 have problems such as low image correction accuracy because the temperature measured by the thermometer is not the lens temperature, and the image cannot be corrected taking into account the variation in the image displacement amount because there is variation between lenses in the amount of image displacement relative to temperature.
  • the image processing device 1 according to this embodiment has the advantage of being able to correct images using the actual image deviation detected by the two cameras, thereby improving image correction accuracy.
  • Fig. 2 is a diagram for explaining the correction algorithm according to this embodiment.
  • the upper side of Fig. 2 shows a state where the first image sensor 12 detects an image of the object 100 represented by a black dot through the first lens 11, and a state where the second image sensor 22 detects an image of the object 100 through the second lens 21.
  • the first camera 10 is installed on the right side and the second camera 20 is installed on the left side with respect to the forward direction of the vehicle.
  • the object 100 may be, for example, a moving vehicle, a person, or a structure such as a traffic light or a pole installed on the road surface.
  • FIG. 2 shows (1) an example of an image on the sensor and (2) an example of an image after correction processing.
  • FIG. 2 (1) shows an example of an image of an object 100 detected on the first image sensor 12 and the second image sensor 22.
  • FIG. 2 (2) shows an example of an image corrected by applying the correction algorithm according to this embodiment to the image shown in FIG. 2 (1).
  • the dashed dotted lines show light ray 110 from the object 100 that enters the first camera 10 (first lens 11) and light ray 120 from the object 100 that enters the second camera 20 (second lens 21) when measured under specified temperature conditions.
  • the distance D0 to the object is detected from the difference (parallax) between the light ray incidence positions on the first image sensor 12 and the second image sensor 22. This is the same distance as the actual distance.
  • the broken line shows light ray 111 of object 100 that is incident on first camera 10 when the temperature of first lens 11 changes.
  • the relationship between the image height and the angle of view of first lens 11 shifts due to the influence of changes in the refractive index of first lens 11 and changes in the lens surface spacing.
  • light ray 110 is converted to light ray 111 by first lens 11, and the position of the image on first image sensor 12 is detected as shifted in the direction of arrow 19. If the distance measurement process for object 100 is the same as the process before the temperature of first lens 11 changes, the light ray from object 100 is erroneously detected as being present in the angle of view of virtual light ray 112 shown by the two-dot chain line.
  • the broken line also indicates a light ray 121 of the object 100 that is incident on the second camera 20 when the temperature of the second lens 21 has not changed.
  • the second lens 21 converts the light ray 120 into the light ray 121, and the position of the image on the second image sensor 22 is detected as being shifted in the direction of the arrow 29.
  • the intersection of the light ray 120 and the virtual light ray 112 is erroneously detected as the position of the object 100, and based on this position, the distance D1 is calculated with the first lens 11 and the second lens 21 as the base point, and the distance D1 is output from the image processing device 1.
  • the correct distance D0 to the object 100 and the erroneously calculated distance D1 do not match. This is the mechanism by which a distance measurement error occurs due to a change in temperature of the first lens 11.
  • 2(1) shows that when the temperature of the first lens 11 changes, the position of the image of the object 100 is detected as shifted in the direction of arrow 19 on the first image sensor 12. On the other hand, on the second image sensor 22, the position of the image of the object 100 is shifted and not detected.
  • correction information (correction processing coefficient k, described later) is generated based on the two images detected in the image on the sensor in FIG. 2 (1).
  • magnification of the image height (image size) of the object 100 detected by the second image sensor 22 is converted based on the correction information.
  • the image of the object 100 on the second image sensor 22 is corrected by being shifted in the direction of the arrow 29, which is the same direction as the arrow 19.
  • the image of the object 100 on the second image sensor 22 is corrected, it can be estimated that the light ray 120 has changed to the light ray 121 and the virtual light ray 122.
  • the intersection of virtual light ray 112 and virtual light ray 122 is detected as the position of object 100.
  • the intersection of virtual light ray 112 and virtual light ray 122 is a position shifted in the direction of arrow 91 from the position of the intersection of light rays 110, 120.
  • Distance D2 is then calculated based on the position of the intersection of virtual light ray 112 and virtual light ray 122. At this time, distance D0 and distance D2 are almost the same distance. The distance measurement error that occurs in distance D0 and distance D2 does not pose a problem in practical use.
  • lens magnification change the change in image (image height) due to lens temperature is referred to as lens magnification change.
  • Figure 3 shows the change in the image on the sensor with temperature change: on the right side of figure 3 an example of the change in the image detected by the first image sensor 12 is shown, and on the left side of figure 3 an example of the change in the image detected by the second image sensor 22 is shown.
  • the first image sensor 12 and the second image sensor 22 each show the position of the object 100 on the sensor as a black spot 1000, which was detected before the temperature of the first lens 11 changed.
  • the dashed circle C0 indicates the same image height position as the black spot 1000.
  • This circle C0 indicates that the position of the black spot 1000 relative to the horizontal center is the same whether the first lens 11 and the second lens 21 are at the same temperature, or the first image sensor 12 and the second image sensor 22 have the same sensitivity.
  • the sensitivity of the image sensor changes as the temperature of the camera changes. For this reason, the second image is corrected not only in response to changes in the lens temperature, but also in response to changes in the sensitivity of the image sensor.
  • the position on the sensor of the object 100 detected by the first image sensor 12 after the temperature of the first lens 11 has changed, and the position on the sensor of the object 100 detected by the second image sensor 22 after the temperature of the second lens 21 has changed are shown as black spots 1001.
  • a solid circle C1 indicates the same image height position as the black spot 1001.
  • circle C1 represents that the position of black spot 1001 relative to the horizontal center differs when the temperature of first lens 11 and the temperature of second lens 21 are different, or when the sensitivity of first image sensor 12 and the sensitivity of second image sensor 22 are different.
  • the first image sensor 12 and the second image sensor 22 show the displacement from black spot 1000 to black spot 1001 due to the temperature change of the two lenses as displacement dx1 and displacement dx2, respectively. Because the changes in magnification of the two lenses are different, the displacement dx1 and displacement dx2 shown on the first image sensor 12 and the second image sensor 22 are different. In other words, a difference occurs when the displacement dx2 is subtracted from the displacement dx1.
  • the image comparison unit 30 shown in FIG. 1 therefore determines the relationship between the displacement amount dx1 and the displacement amount dx2.
  • the image comparison unit determines the difference between the displacement amount of the image of region R1 where the first image extends in the second direction and the displacement amount of the image of region R2 where the second image extends in the second direction as the difference between the first image and the second image
  • the image processing unit calculates a correction processing coefficient k, which is a magnification for performing a correction to eliminate the difference in the displacement amount of the region of the second image extending in the second direction.
  • the processing of the image comparison unit 30 can also be restated as follows, based on the image sizes of the partial regions of the first and second images. That is, the image comparison unit (image comparison unit 30) regards the difference in image size between partial region R1 of the first image extending in the second direction and partial region R2 of the second image extending in the second direction as the difference between the first and second images, and calculates the correction processing coefficient k.
  • the correction processing coefficient k is a magnification factor used by the image processing unit (distortion conversion processing unit 50) to perform correction to eliminate the difference in image size of the partial region of the second image.
  • the distortion conversion processing unit 50B performs image processing according to the relationship between the displacement amount dx1 and the displacement amount dx2, thereby making it possible to correct the difference in the change between the two lenses.
  • the position of the image in the horizontal direction changes depending on the distance to the object.
  • the image comparison unit 30 cannot determine the accurate relationship between the displacement amount dx1 and the displacement amount dx2 unless it uses information that is known in advance as the distance to the object 100.
  • the image comparison unit 30 sets the difference between the circle C0 and the circle C1 in the vertical direction, rather than the horizontal direction, as the displacement amount dy1 and the displacement amount dy2, respectively.
  • the image comparison unit 30 uses the vertical displacement amount dy1 and the displacement amount dy2 to determine the relationship between the horizontal displacement amount dx1 and the displacement amount dx2.
  • the displacement amount dx1 and the displacement amount dy1 are the same amount.
  • the displacement amount dx2 and the displacement amount dy2 are also the same amount.
  • the image comparison unit 30 is able to correct the difference between the first image and the second image.
  • Fig. 4 is a diagram for explaining a method for correcting the difference in the changes of the two lenses according to this embodiment.
  • the amount of displacement of the regions R1 and R2 shown in the first image sensor 12 and the second image sensor 22 in Fig. 3 will be explained.
  • Fig. 4 shows a case where the amount of image height displacement changes linearly.
  • Figure 4 (1) is a graph showing the vertical angle of view dependency of the amount of displacement of the camera's image height associated with a temperature change ⁇ t of the first lens 11 relative to the temperature of the second lens 12.
  • the horizontal axis of this graph indicates the vertical angle of view, and the vertical axis indicates the amount of image height displacement.
  • the characteristic S11 of the first camera 10 and the characteristic S12 of the second camera 20 are shown as straight lines. However, it is difficult to directly detect the characteristics S11 and S12 shown in Figure 4 (1).
  • the image comparison unit 30 therefore uses a graph showing the vertical angle of view dependency of the image height displacement difference of the cameras associated with the temperature change ⁇ t of the first lens 11 relative to the temperature of the second lens 12, as shown in FIG. 4 (2).
  • the vertical axis of this graph shows the difference in the image height displacement amount of the two cameras.
  • the image comparison unit 30 may detect, for example, the difference in the position of the object 100 to determine the image height displacement amount.
  • the image comparison unit 30 vertically shifts the second image relative to the first image, for example in a parallax matching process, and detects the amount of shift at which the two images most closely match.
  • the image comparison unit 30 can also determine the positions of feature points by comparing the first image with the second image.
  • the points on the graph shown in FIG. 4 (2) are black dots that represent objects detected using a specified image, in addition to the specific object 100.
  • the image height of any structure reflected in the first and second images can be detected, so the number of black dots is not limited to five and may be many.
  • the difference in the amount of displacement is represented as a black dot that indicates the difference between the position of the object reflected in the first image and the position of the object reflected in the second image.
  • the image comparison unit detects the difference in the amount of displacement based on the difference between the position of the object reflected in the first image and the position of the object reflected in the second image. Then, the image comparison unit 30 calculates a correction processing coefficient k for changing the image magnification for the second image out of the first and second images used in FIG. 4 (1) and (2).
  • (3) in FIG. 4 shows the vertical angle of view dependency of the image height displacement amount when the second image is set to the optimal magnification.
  • (3) in FIG. 4 is a graph showing the vertical angle of view dependency of the camera image height displacement amount accompanying the temperature change ⁇ t of the first lens 11 relative to the temperature of the second lens 12, and shows how the characteristic S12 of the second camera 20 changes to the characteristic SC1 when the second image is set to the optimal magnification.
  • the image height displacement amount becomes the same as the characteristic S11 of the first camera 10 and the characteristic SC1 of the second camera 20.
  • the characteristic S12 shown in (1) in FIG. 4 is multiplied by the correction processing coefficient k, the slope of the characteristic SC1, which has a larger slope than the characteristic S12, becomes the same as the slope of the characteristic S11 of the first camera 10.
  • a magnification error signal MES Magnetic Error Signal
  • MES magnification Error Signal
  • S(+ ⁇ ) and S(- ⁇ ) in formula (1) represent the difference in the image height displacement amount at the vertical angle of view ⁇ .
  • MES S(+ ⁇ ) - S(- ⁇ ) ... (1)
  • Figure 5 is a graph showing the k dependency of the magnification error signal MES.
  • the horizontal axis of this graph shows the correction processing coefficient k (magnification), and the vertical axis shows the magnification error signal MES.
  • the magnification error signal MES changes with the change in the correction processing coefficient k.
  • the graph shown in Fig. 4(2) indicates that S(+ ⁇ ) takes a positive value and S(- ⁇ ) takes a negative value.
  • MES > 0.
  • MES > 0.
  • MES 0.
  • the image comparison unit 30 changes the correction processing coefficient k to calculate the MES, and finds the correction processing coefficient k (optimal value) at which the MES becomes zero.
  • the image comparison unit 30 outputs the correction processing coefficient k found as the optimal value to the distortion conversion processing unit 50B (see FIG. 1).
  • the image processing unit (distortion conversion processing unit 50) corrects the second image that differs from the first image due to a change in temperature between the first camera (first camera 10) and the second camera (second camera 20).
  • a difference occurs between the sensitivity of the first image sensor (first image sensor 12) of the first camera (first camera 10) and the sensitivity of the second image sensor (second image sensor 22) of the second camera (second camera 20) due to a change in temperature between the first camera (first camera 10) and the second camera (second camera 20). Therefore, the image processing unit (distortion conversion processing unit 50) can correct the second image that differs from the first image due to the difference in sensitivity between the first image sensor (first image sensor 12) and the second image sensor (second image sensor 22).
  • the distortion conversion processing unit 50B can correct the change in magnification of the second image due to changes in the lens temperature or the sensor sensitivity by using the correction processing coefficient k.
  • the lens has rotationally symmetric characteristics with respect to the optical axis, so the result of correcting the change in magnification in the vertical direction is also valid in the horizontal direction.
  • a change in magnification of the second image can also occur due to a change in the distance between the lens and the sensor.
  • the correction algorithm according to this embodiment can correct for changes in magnification, and can therefore also correct changes in the image that accompany changes in the distance between the lens and the sensor. For example, since a change in the distance between the lens and the sensor is itself a change in magnification, correcting this change in magnification can correct changes in the image that accompany changes in distance.
  • the image comparison unit 30 has been described as using the vertical angle of view ⁇ when calculating MES.
  • the image comparison unit 30 may, for example, detect a large number (six or more) of black points as shown in FIG. 4(2) and then use the image height displacement difference value interpolated at the black points to calculate the correction processing coefficient k that makes the MES zero.
  • the correction algorithm according to this embodiment is effective even when there is another disturbance to the first camera 10 and the second camera 20. Since the two lenses have a rotationally symmetric characteristic with respect to the optical axis, it has been explained that the displacement amount dx1 and the displacement amount dy1 are the same amount. However, when a component misalignment occurs in the first camera 10 and the second camera 20, the displacement amount dx may not match the displacement amount dy.
  • the detection magnification of the first camera (first camera 10) and the detection magnification of the second camera (second camera 20) may change over time. Even in this case, the image processing unit (distortion conversion processing unit 50) can correct the second image that is different from the first image.
  • the detection magnification of the first camera (first camera 10) and the detection magnification of the second camera (second camera 20) change over time will be described with reference to FIG.
  • FIG. 6 is a diagram showing the relationship between the positions of the lens and sensor components.
  • the right side of FIG. 6 shows the arrangement of the first lens 11 and the first image sensor 12, while the left side of FIG. 6 shows the arrangement of the second lens 21 and the second image sensor 22.
  • the first image sensor 12 and the second image sensor 22 are arranged side by side in the X-axis direction.
  • the vertical image height displacement amount detected by the second image sensor 22 is shifted, and the vertical image height displacement amount difference is also shifted. It will be explained below that the correction algorithm according to this embodiment is effective against these three factors that cause a shift in the image height displacement amount difference.
  • the correction algorithm according to this embodiment is effective even if the detection magnification of the first camera 10 and the detection magnification of the second camera 20 change because the initial positions at which the first camera 10 and the second camera 20 are attached to the vehicle are shifted from the original attachment positions.
  • FIG. 7 is a diagram showing the image height displacement amount and the correction effect of the image height displacement amount difference when the second image sensor 22 shown in Fig. 6 moves in the Y direction (arrow 41 in Fig. 6). Note that (1), (2), (3), and (4) in Fig. 7 all show the same contents as (1), (2), (3), and (4) in Fig. 4.
  • the characteristic S11 of the first camera 10 shown in the graph in FIG. 7(1) is the same as the characteristic S11 shown in FIG. 4.
  • the characteristic S22 of the second camera 20 shown in the graph in FIG. 7(1) differs from the example shown in FIG. 4 in that the image height displacement amount in the vertical direction is shifted downward.
  • the image height displacement amount difference shown in the graph in FIG. 7(2) is shifted upward.
  • the MES at this time is positive, just as when calculated with reference to the graph in FIG. 4(2).
  • the image comparison unit 30 When the image comparison unit 30 performs a correction such that the MES becomes zero, the image height displacement amount and the image height displacement amount difference change, as shown in the graphs of (3) and (4) in FIG. 7.
  • the slope of the characteristic S11 of the first camera 10 shown in (3) in FIG. 7 and the slope of the characteristic SC2 of the second camera 20 match, so that the image height displacement amount difference becomes constant regardless of the vertical angle of view, as shown in (4) in FIG. 7.
  • an offset occurs in the image height displacement amount difference, but this does not affect the parallax detection.
  • the vertical offset between the first and second images indicates a misalignment between the two images, which may result in different objects being detected. This can be corrected, for example, by offsetting the first or second image vertically using distortion conversion processing unit 50A or distortion conversion processing unit 50B.
  • (When the second image sensor rotates) 8 is a diagram showing the image height displacement amount and the correction effect of the image height displacement amount difference when the second image sensor 22 rotates around the Y axis (arrow 42 in FIG. 6). Note that (1) to (4) in FIG. 8 all show the same contents as (1) to (4) in FIG. 4.
  • the image light incident along the optical axis is received by the second image sensor 22 at a position symmetrical with respect to the optical axis of the second lens 21.
  • the image height of the second image sensor 22 changes because the distance over which the image light incident from the second lens 21 is received by the second image sensor 22 differs even if the position is symmetrical with respect to the optical axis of the second lens 21.
  • the characteristic S11 of the first camera 10 shown in the graph in FIG. 8(1) is similar to the characteristic S11 shown in FIG. 4.
  • the characteristic S32 of the second camera 20 shown in the graph in FIG. 8(1) is a combination of the characteristic S12 due to the change in magnification (see FIG. 4(1)) and the characteristic due to the rotation of the second image sensor 22 about the Y axis as the rotation axis.
  • the characteristic due to the rotation of the second image sensor 22 is nonlinear and approximately symmetrical with respect to the vertical angle of view. For this reason, the image height displacement difference shown in the graph in FIG. 8(2) has a nonlinear shape, and the MES is positive.
  • the characteristic S12 due to the change in magnification can be suppressed as shown in the graphs of (3) and (4) in FIG. 8.
  • (3) in FIG. 8 shows the characteristic SC1 of the second camera 20 when the optimal magnification is set, and the characteristic SC3 of the second camera 20 processed by the distortion conversion processing unit 50B.
  • the characteristic S11 of the first camera 10 and the characteristic SC1 of the second camera 20 are the same characteristic.
  • the characteristic S11 of the first camera 10 and the characteristic SC3 of the second camera 20 processed by the distortion conversion processing unit 50B do not match. Therefore, only the characteristic due to the rotational deviation in the X-axis direction of the second image sensor 22 remains, but this characteristic does not affect the parallax detection by the parallax image generation unit 60.
  • the distortion conversion processing unit 50A or the distortion conversion processing unit 50B by correcting the first image or the second image based on the vertical image height displacement component by the distortion conversion processing unit 50A or the distortion conversion processing unit 50B, it is also possible to correct the MES when the second image sensor 22 rotates around the Y axis as the rotation axis.
  • the optical axis misalignment of the second lens 21 can be expressed as a combination of the Y-axis misalignment and the X-axis rotation misalignment of the second image sensor 22. Therefore, the distortion conversion processing unit 50B can correct the magnification change due to the temperature of the second lens 21.
  • the image height displacement described with reference to Figures 4, 7, and 8 has been described as varying linearly with respect to the vertical angle of view.
  • the image height displacement amount and the image height displacement amount difference there is a correction effect for the image height displacement amount and the image height displacement amount difference.
  • the correction effect when the image height varies nonlinearly with respect to the vertical angle of view will be described with reference to Figure 9.
  • FIG. 9 is a diagram showing the effect of correcting the image height displacement amount and the image height displacement amount difference in a case where the image height displacement amount changes nonlinearly with respect to the vertical angle of view.
  • the graph in FIG. 9(1) shows an example of a characteristic S41 of the first camera 10 and a characteristic S42 of the second camera 20 when the image height displacement amount changes nonlinearly with respect to the vertical angle of view.
  • the image comparison unit 30 detects a specified image height with respect to the vertical angle of view, obtains the image height displacement amount difference, and calculates the MES.
  • the image height displacement amount difference is shown in the graph in FIG. 9 (2). This graph shows a nonlinear change.
  • the graph in FIG. 9 (3) shows how the characteristic S42 of the second camera 20 changes to characteristic SC4 when the second camera 20 is set to the optimal magnification.
  • the image height displacement amount becomes the same as the characteristic S11 of the first camera 10 and the characteristic SC4 of the second camera 20.
  • Graph (4) in FIG. 9 shows a graph similar to that in FIG. 4 (4).
  • the image comparison unit 30 obtains the correction processing coefficient k that makes the MES zero, and therefore the image height displacement difference becomes zero regardless of the vertical angle of view, making it possible to correct the change in magnification due to the temperature of the second lens 21.
  • FIG. 10 is a diagram showing an example of the displacement of the image height in the vertical direction at each position in the horizontal direction of the first lens 11 and the second lens 21.
  • FIG. 10 shows an example of the displacement of the vertical image height caused by the first lens 11
  • the left side of FIG. 10 shows an example of the displacement of the vertical image height caused by the second lens 21.
  • the vertical center in the figure represents the position of 0 degrees of the vertical angle of view
  • the horizontal center represents the position of 0 degrees of the horizontal angle of view.
  • FIG. 10 shows that the displacement of the image height caused by the two lenses is small in the vertical direction, regardless of the distance from the horizontal center, as long as it is near the vertical center of each lens.
  • the displacement of the vertical image height increases as one moves away from the vertical center of each lens in the positive and negative directions. This is because the displacement of the vertical image height depends only on the vertical angle of view, not on the horizontal angle of view. Therefore, when the image comparison unit 30 calculates the MES, it obtains information on the vertical image height for various regions of the two lenses, taking into account the characteristics of the displacement of the image height at each position by the two lenses.
  • FIG. 11 is a diagram showing examples of various regions detected by two sensors that are used to calculate the MES.
  • (1), (3), (5), and (7) in FIG. 11 show examples of areas detected by the second image sensor 22, and (2), (4), (6), and (8) in FIG. 11 show examples of areas detected by the first image sensor 12.
  • (1) to (8) in FIG. 11 indicate the plus and minus of the vertical and horizontal centers of each sensor. Note that to avoid cluttering the drawings, the vertical and horizontal centers of each sensor are omitted.
  • (1) and (2) in FIG. 11 show that information on the entire surface of each sensor (areas R11, R12) is used. Areas R11 and R12 are included in the entire surface of each sensor, but when the same object is included in the vertical direction relative to the horizontal direction, the image comparison unit 30 compares the images using changes in the vertical direction, which is no different from the process of calculating the MES and correction processing coefficient k shown in FIG. 4 and FIG. 5.
  • FIG. 11 show that the diagonal information from each sensor (areas R31 and R32) is used. Areas R31 and R32 are diagonal to the horizontal direction, but when areas R31 and R32 contain the same object, the image comparison unit 30 compares the images using changes in the vertical direction, which is no different from the process of calculating the MES and correction processing coefficient k shown in FIG. 4 and FIG. 5.
  • the image comparison unit detects the difference in the amount of displacement using multiple regions of the first image that are targeted with respect to the optical axis of the first lens (first lens 11) of the first camera (first camera 10) and multiple regions of the second image that are targeted with respect to the optical axis of the second lens (second lens 21) of the second camera (second camera 20). In this way, by calculating the correction processing coefficient k from the regions R41, R42 that include objects only in the vicinity of the vertical angle of view ⁇ and performing the magnification correction processing, it is also possible to reduce the processing load of the image processing device 1.
  • the MES may be calculated as shown in the following formula (2).
  • Fig. 12 is a block diagram showing an example of a hardware configuration of a calculator 200.
  • the calculator 200 is an example of hardware used as a computer capable of operating as the image processing device 1 according to the present embodiment.
  • the image processing device 1 according to the present embodiment realizes an image processing method in which the functional blocks shown in Fig. 1 cooperate with each other by causing the calculator 200 (computer) to execute a program.
  • Computer 200 includes a CPU (Central Processing Unit) 210, a ROM (Read Only Memory) 220, and a RAM (Random Access Memory) 230, each of which is connected to a bus 240. Furthermore, computer 200 includes non-volatile storage 250 and a network interface 260.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 210 reads out the program code of the software that realizes each function of this embodiment from the ROM 220, loads it into the RAM 230, and executes it. Variables and parameters generated during the calculation processing of the CPU 210 are temporarily written to the RAM 230, and these variables and parameters are read out by the CPU 210 as appropriate.
  • an MPU Micro Processing Unit
  • the CPU 210 may be used in combination with a GPU (Graphics Processing Unit).
  • the functions of the image comparison unit 30, distortion conversion processing unit 50, brightness correction unit 51, image interpolation unit 52, brightness information generation unit 53, parallax image generation unit 60, and distance calculation unit 70 shown in FIG. 1 are realized by the CPU 210 executing the software.
  • the non-volatile storage 250 may be, for example, a hard disk drive (HDD), a solid state drive (SSD), or a non-volatile memory.
  • HDD hard disk drive
  • SSD solid state drive
  • programs for operating the computer 200 are recorded in the non-volatile storage 250.
  • the ROM 220 and the non-volatile storage 250 record programs and data necessary for the CPU 210 to operate, and are used as an example of a computer-readable non-transient storage medium that stores a program executed by the computer 200.
  • the image correction coefficient k calculated by the image comparison unit 30, the first image and the second image, the first processed image and the second processed image, a parallax image, distance information to the object, etc. are recorded in the non-volatile storage 250.
  • the network interface 260 may be, for example, a NIC (Network Interface Card), and various data can be sent and received between devices via a LAN (Local Area Network) or dedicated line connected to the NIC terminal.
  • Information about the distance to the target object calculated by the distance calculation unit 70 shown in Figure 1 is sent by the network interface 260 to an ECU (Electronic Control Unit) or vehicle control device (not shown), and is used to control the vehicle.
  • ECU Electronic Control Unit
  • vehicle control device not shown
  • Example of processing of image processing device 1> 13 is a flowchart showing an example of processing performed by the image processing device 1.
  • the image processing device 1 performs the image processing method according to this embodiment through processing performed by each functional unit.
  • the image comparison unit 30 compares the first image input from the first camera 10 with the second image input from the second camera 20 (S1) and calculates the correction processing coefficient k.
  • the distortion conversion processing unit 50A converts the distortion of the first image
  • the distortion conversion processing unit 50B converts the distortion of the second image (S2). Note that the processes of steps S1 and S2 may be performed in parallel.
  • the distortion conversion processing unit 50B converts the magnification of the second image whose distortion has been converted based on the correction processing coefficient k (S3). Note that the processes in steps S2 and S3 may be reversed or may be performed simultaneously.
  • the luminance correction unit 51 corrects the luminance of the first image whose distortion has been converted, and corrects the luminance of the second image whose distortion has been converted and whose magnification has been converted (S4).
  • the image interpolation unit 52 interpolates the first image whose distortion has been converted, and interpolates the second image whose distortion has been converted and whose magnification has been converted (S5).
  • the luminance information generating unit 53 generates luminance information of the first image whose distortion has been converted, and generates luminance information of the second image whose distortion has been converted and whose magnification has been converted (S6).
  • the parallax image generating unit 60 generates a parallax image based on the luminance information of the first image whose distortion has been converted and the luminance information of the second image whose distortion has been converted and whose magnification has been converted (S7).
  • the distance calculation unit 70 calculates the distance to the object based on the parallax images (S8).
  • steps S1 to S8 are repeated at predetermined time intervals. Then, a vehicle control unit (not shown) controls the vehicle based on the distance to the object calculated by the distance calculation unit 70. Note that it is also possible to configure the image processing device 1 and the vehicle control unit as an integrated electronic control device.
  • the image processing device 1 it is possible to correct the second image by calculating a correction processing coefficient k that suppresses the image height displacement difference that is particularly noticeable at the edges of the angle of view ( ⁇ 60 degrees from the center) of a camera having a lens with a wide horizontal angle of view (approximately 120 degrees) compared to the horizontal angle of view (approximately 60 degrees) of a conventional lens.
  • the image comparison unit 30 of the image processing device 1 calculates the MES so that the difference in the image height displacement amount in the vertical direction (for example, zero) at the vertical angle of view ⁇ among the image heights detected from the first image and the second image is constant.
  • This MES is a value that depends on the correction processing coefficient k, and the MES becomes zero when the correction processing coefficient k is an optimal value.
  • the distortion conversion processing unit 50B can not only convert the distortion of the second image captured by the second camera 20, but also correct the change in magnification of the second image using the correction processing coefficient k that makes the MES zero.
  • the image comparison unit 30 detects the difference in the magnification of the images detected by the image sensors of each camera based on the image height displacement amount difference in a direction other than the horizontal direction, rather than the horizontal displacement amount. Then, the distortion conversion processing unit 50B performs a correction to match the magnification of the image detected by the image sensor of one camera to the image detected by the image sensor of the other camera.
  • the image processing device 1 can correct the images output from the stereo camera (two cameras) in accordance with changes in the two cameras. Furthermore, the image processing device 1 does not need to secure a large-capacity storage device to store image correction information.
  • each processing unit downstream of the distortion conversion processing unit 50 can handle the second image detected by the second image sensor 22 of the second camera 20 and corrected for the change in magnification in the same way as the first image captured by the first camera 10. This reduces the error in the parallax image generated by the parallax image generating unit 60, and the distance to the object calculated by the distance calculating unit 70 is also accurately measured.
  • the second image sensor 22 is shifted in the Y-axis direction, if the second image sensor 22 rotates around the Y-axis as the rotation axis, if the optical axis of the second image sensor 22 is shifted in the Y-direction, or if the image height changes nonlinearly with respect to the vertical angle of view, by matching the characteristics of the second camera 20 to the characteristics of the first camera 10, the image height displacement difference becomes constant regardless of the vertical angle of view. Therefore, the error in the parallax image generated by the parallax image generating unit 60 is reduced, and the distance to the object calculated by the distance calculating unit 70 is also accurately measured.
  • the image processing device is envisioned. Below, configuration examples of image processing devices according to the second to fourth embodiments of the present invention are described.
  • the image used as the processing target is different, but this image is used to calculate a correction processing coefficient k that makes the MES zero, and one image (the image captured by the second camera 20, or a processed image obtained by performing a specified process on this image) is corrected using this correction processing coefficient k, which is the same as the image processing device 1 according to the first embodiment.
  • Second Embodiment 14 is a block diagram showing an example of the internal configuration of an image processing device 1A according to a second embodiment of the present invention.
  • the image processing device 1A according to the second embodiment is similar to the image processing device 1 according to the first embodiment in that it calculates a correction processing coefficient k, which is a result of comparing a first image with a second image.
  • the image comparison unit 30 is provided after the first camera 10 and the second camera 20, which are the same as those in the image processing device 1 shown in FIG. 1.
  • the image comparison unit 30 outputs the correction processing coefficient k to the image magnification conversion unit 150.
  • the image magnification conversion unit 150 is disposed after the image comparison unit 30 and the luminance information generation unit 53B.
  • the image processing unit according to the second embodiment is an image magnification conversion unit (image magnification conversion unit 150) that converts the magnification of the second image whose distortion has been converted by the correction processing coefficient k.
  • the image magnification conversion unit 150 then converts the magnification of the second processed image input from the luminance information generation unit 53B using the correction processing coefficient k input from the image comparison unit 30.
  • the image magnification conversion unit 150 outputs the second processed image whose magnification has been converted to the parallax image generation unit 60.
  • the parallax detection unit detects the parallax of an object reflected in the first image and the second image based on a first image (i.e., a first processed image) in which at least the distortion has been converted and the luminance information has been generated, and a second image (i.e., a second processed image) in which at least the distortion has been converted, the luminance information has been generated, and the magnification has been converted.
  • the parallax image generation unit 60 generates a parallax image for detecting the parallax of an object based on the first processed image input from the luminance information generation unit 53A and the second processed image in which the magnification has been converted and input from the image magnification conversion unit 150.
  • the distance calculation section 70 calculates the distance to the object based on the parallax images generated by the parallax image generation section 60 .
  • the configuration of the image processing device 1A according to the second embodiment described above can also correct the change in magnification of the second image due to the temperature change of the two lenses.
  • the image comparison unit 30 calculates a correction processing coefficient k which is the result of comparing the first image and the second image
  • the image magnification conversion unit 150 converts the magnification of the second processed image using the correction processing coefficient k.
  • FIG. 15 is a block diagram showing an example of the internal configuration of an image processing device 1B according to a third embodiment of the present invention.
  • a correction processing coefficient k is calculated using the first processed image and the second processed image for which luminance information has been generated.
  • the image processing device 1B includes an image comparison unit 31 and an image magnification conversion unit 150 in addition to the functional units included in the image processing device 1.
  • the luminance information generation unit 53 includes a luminance information generation unit 53A that generates luminance information from an image captured by the first camera 10, and a luminance information generation unit 53B that generates luminance information from an image captured by the second camera 20. Note that in the image processing device 1B, the processing of the distortion conversion processing unit 50 on the first image and the second image is performed in the same manner as in the example shown in FIG. 1, and therefore the reference numerals of the distortion conversion processing units 50A and 50B as shown in FIG. 1 are omitted.
  • the image comparison unit 31 is provided in place of the image comparison unit 30 shown in FIG. 1, and is disposed after the brightness information generation unit 53.
  • the image comparison unit (image comparison unit 31) calculates a correction processing coefficient k based on a first image (i.e., a first processed image) in which at least the distortion has been converted and brightness information has been generated, and a second image (i.e., a second processed image) in which at least the distortion has been converted and brightness information has been generated. For this reason, the image comparison unit 31 receives the first processed image and the second processed image in which brightness information has been generated from the brightness information generation units 53A and 53B, respectively.
  • the first processed image is an image captured by the first camera 10 and processed by the brightness information generation unit 53A.
  • the second processed image is an image captured by the second camera 20 and processed by the brightness information generation unit 53B.
  • the correction processing coefficient k calculated by the image comparison unit 31 by comparing the first processed image and the second processed image is output to the image magnification conversion unit 150.
  • the image magnification conversion unit 150 is disposed after the image comparison unit 31 and the brightness information generation unit 53B.
  • the image processing unit according to the third embodiment is an image magnification conversion unit (image magnification conversion unit 150) that converts the magnification of the second image by the correction processing coefficient k.
  • the image magnification conversion unit 150 receives the correction processing coefficient k from the image comparison unit 31 and the second processed image from the brightness information generation unit 53B.
  • the image magnification conversion unit 150 converts the magnification of the second processed image using the correction processing coefficient k.
  • the image magnification conversion unit 150 outputs the second processed image with the magnification converted to the parallax image generation unit 60.
  • the parallax image generation unit 60 generates a parallax image for detecting the parallax of an object based on a first processed image input from the luminance information generation unit 53A and a second processed image with its magnification converted input from the image magnification conversion unit 150.
  • the distance calculation section 70 calculates the distance to the object based on the parallax images generated by the parallax image generation section 60 .
  • the lens projection is a central projection (f tan ⁇ ).
  • the projection is not changed by the distortion conversion processing unit 50A and the distortion conversion processing unit 50B.
  • the first image output by the first camera 10 and the first processed image processed by the luminance information generation unit 53A are the same.
  • the second image output by the second camera 20 and the second processed image processed by the luminance information generation unit 53B are the same.
  • the state of each image described in the third embodiment is the same as the state of each image described in the first embodiment, and it can be seen that the second processed image can also be corrected by the correction algorithm according to the third embodiment.
  • the lens projection method is orthogonal projection (f sin ⁇ ).
  • a projective transformation to central projection (f tan ⁇ ) is performed on the first image detected by the first camera 10 and the second image detected by the second camera 20.
  • the image height displacement amount of the first image and the second image is expressed by the characteristics shown in FIG. 4 (1)
  • the image height displacement amount of the first processed image and the second processed image is expressed by the characteristics shown in FIG. 9 (1).
  • the second processed image can be corrected by the correction algorithm according to the third embodiment.
  • the image magnification conversion unit 150 has the same function as the distortion conversion processing unit 50, and may convert distortion for the second processed image.
  • the distortion conversion processing unit 50B may have the same function as the image magnification conversion unit 150, and may convert the magnification of the second image.
  • the correction processing coefficient k is calculated based on the comparison result between the first processed image and the second processed image output from the luminance information generating units 53A and 53B, and the magnification of the second processed image is converted by the image magnification converting unit 150.
  • the distortion conversion processing unit 50B corrects the distortion caused by the second lens 21 and the change in magnification of the second image
  • the image processing device 1B according to the third embodiment corrects only the magnification of the second processed image in which the distortion of the second image has already been converted. Therefore, in the image processing device 1B, for example, even if the first camera 10, the second camera 20, and the functional units 50 to 53 are configured integrally, there is no need to change the processing of the distortion conversion processing unit 50B.
  • [Fourth embodiment] 16 is a block diagram showing an example of the internal configuration of an image processing device 1C according to a fourth embodiment of the present invention.
  • the image comparison unit 31 compares the first processed image and the second processed image
  • the image magnification conversion unit 150 converts the image magnification of the second processed image based on the comparison result.
  • the image magnification conversion section 150 is not necessary, and the comparison result of the image comparison section 31 is output to a distortion conversion processing section 50B.
  • the image processing device 1C according to the fourth embodiment has the same functional units as the image processing device 1B according to the third embodiment, except for the image magnification conversion unit 150.
  • the image comparison unit 31 is provided after the luminance information generation units 53A, 53B, which are the same as those in the image processing device 1B shown in FIG. 15.
  • the image comparison unit calculates a correction processing coefficient k based on a first image (i.e., a first processed image) in which at least the distortion has been converted and luminance information has been generated, and a second image (i.e., a second processed image) in which at least the distortion has been converted and luminance information has been generated.
  • the image comparison unit 31 then calculates the correction processing coefficient k based on the first processed image and the second processed image output from the distortion conversion processing unit 50B and the image magnification conversion unit 150, and outputs this correction processing coefficient k to the distortion conversion processing unit 50B.
  • the image processing unit according to the fourth embodiment is a distortion conversion processing unit (distortion conversion processing unit 50B) that converts the distortion of the first image, converts the distortion of the second image, and converts the magnification of the second image using a correction processing coefficient k.
  • This distortion conversion processing unit 50B converts the distortion of the second image detected by the second camera 20, and corrects the change in magnification of the second image based on the correction processing coefficient k input from the image comparison unit 31.
  • the subsequent processing is the same as that of the image processing device 1 according to the first embodiment.
  • the parallax detection unit detects the parallax of an object reflected in a first image and a second image based on a first image (i.e., a first processed image) in which at least the distortion has been converted and the luminance information has been generated, and a second image (i.e., a second processed image) in which at least the distortion has been converted, the luminance information has been generated, and the magnification has been converted.
  • a first image i.e., a first processed image
  • a second image i.e., a second processed image
  • the parallax image generation unit 60 generates a parallax image for detecting the parallax of an object using the first processed image input from the luminance information generation unit 53A and the second processed image input from the luminance information generation unit 53B and in which the magnification has been converted by the distortion conversion processing unit 50B.
  • the distance calculation section 70 calculates the distance to the object based on the parallax images generated by the parallax image generation section 60 .
  • the configuration of the image processing device 1C according to the fourth embodiment described above can also correct the change in magnification of the second image due to the temperature change of the two lenses.
  • the correction processing coefficient k of the distortion conversion processing unit 50B is changed based on the comparison result between the first image and the second image by the image comparison unit 31, and the difference in image height between the first image and the second image is eliminated.
  • the parallax for each object generated by the parallax image generation unit 60 is accurately determined, and the distance to the object calculated by the distance calculation unit 70 is also accurately calculated.
  • the image comparison unit 31 calculates the correction processing coefficient k based on the first processed image and the second processed image, thereby correcting the change in magnification of the second image output from the distortion conversion processing unit 50B.
  • the image comparison unit 31 calculates a correction processing coefficient k that does not correct the change in magnification of the second image. For this reason, once the correction processing coefficient k is calculated by the image comparison unit 31, the processing of the image comparison unit 31 is stopped for a certain period of time. Then, after the certain period of time, the processing of the image comparison unit 31 is resumed again.
  • each of the above-mentioned embodiments describes the configuration of an image processing device in detail and specifically in order to explain the present invention in an easily understandable manner, and is not necessarily limited to having all of the configurations described.
  • the control lines and information lines shown are those that are considered necessary for the explanation, and not all control lines and information lines in the product are necessarily shown. In reality, it can be considered that almost all components are connected to each other.
  • the process of correcting the change in magnification caused by the change in lens temperature has been described, but the same effect can be obtained even if the magnifications of the two cameras change over time.
  • the process of converting both the horizontal and vertical magnifications of the image has been described, but even if the image processing device according to the modified example converts only the magnification in the horizontal direction in which parallax is detected, the same effect as the process according to the above embodiment can be obtained.
  • the image processing unit disortion conversion processing unit 50
  • the image processing device is capable of correcting an image in real time.
  • the image processing device may correct an image based on, for example, temperature information or time information, or may monitor whether the MES has shifted by a predetermined amount and correct the image at the timing when the MES has shifted by the predetermined amount.
  • 1...image processing device 10...first camera, 11...first lens, 12...first image sensor, 20...second camera, 21...second lens, 22...second image sensor, 30...image comparison unit, 50A, 50B...distortion conversion processing unit, 51...luminance correction unit, 52...image interpolation unit, 53...luminance information generation unit, 60...parallax image generation unit, 70...distance calculation unit, 100...object

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Abstract

画像処理装置は、ステレオカメラから入力される、第1のカメラが有する第1の画像センサが検出した第1の画像と、第2のカメラが有する第2の画像センサが検出した第2の画像とを比較し、第1の方向とは異なる第2の方向における、第1の画像と第2の画像との違いに基づいて、第2の画像を補正するための補正処理係数を算出する画像比較部と、画像比較部により算出された補正処理係数により、第2の画像を補正する画像処理部と、を備える。

Description

画像処理装置及び画像処理方法
 本発明は、画像処理装置及び画像処理方法に関する。
 従来、3次元物体認識技術としてステレオカメラ技術がある。ステレオカメラ技術は、異なる位置に配置した2台のカメラ(「ステレオカメラ」と呼ぶ)が撮像する画像の写り方の違いを利用して、三角法に基づき視差を検出し、その視差を用いて物体の奥行きや位置を検出する技術である。ステレオカメラ技術を用いることにより、対象物の位置を正確に検出することができる。このため、車載カメラやロボットに搭載されるカメラなどで3次元の物体を検出及び認識するためにステレオカメラ技術が適用されている。ステレオカメラの2つのカメラの画像は、例えば、中心射影方式により所定の射影に変換され、変換後の画像の差分を検出することで物体までの距離を測定することができる。
 高精度の距離検出を行う場合、2つの画像を所定の射影に高精度に合わせる必要がある。このため、例えば、カメラやレンズの温度変化や経時変化などの要因により、カメラが撮像した画像が変化すると、物体まで測定する距離の測距誤差が発生してしまう。例えば、低コスト化や非球面化に対して利点のあるプラスチックレンズでは、温度に対して検出画像が変化するので、プラスチックレンズの温度変化に伴い測距誤差が発生する。また、ガラスレンズであっても広角視野に対応した魚眼レンズでは、広角視野での画像の変化が大きくなるので、測距誤差が発生する。
 レンズの温度変化により発生する測距誤差の課題に対し、以下の特許文献1及び2に開示された技術が知られている。例えば、特許文献1には、「カメラ情報格納手段は各撮像手段のズームの状態及びフォーカスの状態に依存して変化するカメラ情報については、その状態に応じた複数のカメラ情報を持ち、ステレオ画像処理手段が各撮像手段のズームの状態及びフォーカスの状態を取得して、カメラ情報格納部から対応するカメラ情報を取得し、ステレオ画像処理に用いる。」と記載されている。
 また、特許文献2には、「歪み補正処理部は、温度センサにより検知した温度に基づいて、その検知温度で撮像画像の歪み度合いを示す指標値(ずれ量)が最も小さくなる補正係数を補正係数記憶部から読み出し、読み出した補正係数を用いて歪み補正式により歪み補正処理を行う。」と記載されている。
特開2008-241491号公報 特開2012-147281号公報
 特許文献1には、温度が変わることで、レンズの膨張収縮や構造の変形などにより発生する像ずれに対し、第一及び第二の撮像部の温度情報を取得し、対応する補正情報をカメラ情報格納部からカメラ情報と一緒に取得することで、温度差によるカメラ情報の変化を補正することができると記載されている。一方で、特許文献1に記載された処理は、温度に応じた補正情報を記憶装置に格納するため、記憶装置の記録容量が大きくなり、記憶装置のコストが課題となる。また、カメラで取得した画像の歪補正を行う場合は、記憶装置から補正情報が読み出されるため、2つのカメラに対応した記憶装置を予め確保しておかなければならない。特に、3次元計測装置は高分解能や広視野を実現するため、カメラの高画素化が進んでおり、補正情報等の情報量は増大する一方であり、記憶装置の記録容量も大型化しなければならない。
 また、特許文献2に記載の画像処理装置では、特許文献1で課題とされた記録容量の増大に対し、多項式の歪み補正式を用いることで、記憶装置に格納されるデータのデータ量を低減できる。このため、記憶装置の記録容量を低減できても、特許文献2に記載の画像処理装置は、特許文献1に記載の装置と同様に、2つのカメラに対応した記憶装置を確保しておかなければならないという課題があった。
 さらに特許文献1及び2に記載された技術は、補正精度でも重大な課題がある。特許文献1に記載された温度検出部、特許文献2に記載された温度センサが検出する温度は、レンズの温度を直接示していない。例えば、レンズが太陽光を浴びたり、カメラ処理回路の熱がレンズに伝わったりする場合、レンズ内部の温度と外部の温度が異なる。この場合、2つのカメラの温度が異なることもあり、2つのカメラで検出される画像を補正する際、誤差が生じることがある。さらに、実際のレンズの温度特性にはばらつきがあり、同じ温度変化でも同じ特性を示すとは限らない。このため、温度変化から画像の変化を検出することは困難である。また、2つのカメラの温度が変化すると、カメラに内蔵されるセンサの感度も変化して、各センサで検出される画像も異なってしまう。
 本発明はこのような状況に鑑みて成されたものであり、ステレオカメラ(2つのカメラ)の変化に合わせて、2つのカメラから出力される画像を補正することを目的とする。
 本発明に係る画像処理装置は、第1の方向に並んで配置される第1のカメラ及び第2のカメラを備えるステレオカメラから入力される、第1のカメラが有する第1の画像センサが検出した第1の画像と、第2のカメラが有する第2の画像センサが検出した第2の画像とを比較し、第1の方向とは異なる第2の方向における、第1の画像と第2の画像との違いに基づいて、第2の画像を補正するための補正処理係数を算出する画像比較部と、画像比較部により算出された補正処理係数により、第2の画像を補正する画像処理部と、を備える。
 本発明によれば、ステレオカメラ(2つのカメラ)の変化に合わせて、2つのカメラから出力される画像を補正することができる。
 上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の第1の実施形態に係る画像処理装置の内部構成例を示すブロック図である。 本発明の第1の実施形態に係る補正アルゴリズムを説明する図である。 本発明の第1の実施形態に係る温度変化に伴うセンサ上の画像の変化を示す図である。 本発明の第1の実施形態に係る2つのレンズの変化の差の補正方法を説明する図である。 本発明の第1の実施形態に係る倍率誤差信号MESのk依存性を示すグラフである。 本発明の第1の実施形態に係るレンズとセンサの部品位置の関係を示す図である。 本発明の第1の実施形態に係る第2の画像センサがY方向に移動した場合における像高変位量と像高変位量差分の補正効果を示す図である。 本発明の第1の実施形態に係る第2の画像センサがY軸を回転軸として回転した場合における像高変位量と像高変位量差分の補正効果を示す図である。 本発明の第1の実施形態に係る垂直画角に対して像高変位量が非線形に変化するような場合における像高変位量と像高変位量差分の補正効果を示す図である。 本発明の第1の実施形態に係る第1のレンズと第2のレンズの水平方向の各位置における垂直方向の像高の変位の例を示す図である。 本発明の第1の実施形態に係るMESの算出に用いられる、2つのセンサで検出される様々な領域の例を示す図である。 本発明の第1の実施形態に係る計算機のハードウェア構成例を示すブロック図である。 本発明の第1の実施形態に係る画像処理装置の処理の例を示すフローチャートである。 本発明の第2の実施形態に係る画像処理装置の内部構成例を示すブロック図である。 本発明の第3の実施形態に係る画像処理装置の内部構成例を示すブロック図である。 本発明の第4の実施形態に係る画像処理装置の内部構成例を示すブロック図である。
 以下、本発明を実施するための形態について、添付図面を参照して説明する。本明細書及び図面において、実質的に同一の機能又は構成を有する構成要素については、同一の符号を付することにより重複する説明を省略する。本発明は、例えば、先進運転支援システム(ADAS:Advanced Driver Assistance System)、又は自動運転(AD:Autonomous Driving)向けの車載ECU(Electronic Control Unit)が通信可能な車両制御用の演算装置に適用可能である。
[第1の実施形態]
 図1は、本発明の第1の実施形態に係る画像処理装置1の内部構成例を示すブロック図である。
 画像処理装置1は、第1の方向に並んで配置される第1のカメラ(第1のカメラ10)及び第2のカメラ(第2のカメラ20)を備えるステレオカメラから入力される画像に対して所定の処理を行う。このステレオカメラでは、第1のカメラ10と第2のカメラ20が水平方向(第1の方向)に並んで配置されている。
 第1のカメラ10は、第1のレンズ11と第1の画像センサ12を備えている。第1のカメラ10は、第1のレンズ11を介して像光が結像した第1の画像センサ12で対象物の像を検出する。第1のカメラ(第1のカメラ10)が有する第1の画像センサ(第1の画像センサ12)が検出した第1の画像に対して、後段の各機能部による所定の処理が行われる。
 第2のカメラ20は、第2のレンズ21と第2の画像センサ22を備えている。第2のカメラ20は、第2のレンズ21を介して像光が結像した第2の画像センサ22で対象物の像を検出する。第2のカメラ(第2のカメラ20)が有する第2の画像センサ(第2の画像センサ22)が検出した第2の画像に対して、後段の各機能部による所定の処理が行われる。
 以下の説明で、第1のレンズ11と第2のレンズ21を区別しない場合、「レンズ」と総称する。同様に、第1の画像センサ12と第2の画像センサ22を区別しない場合、「センサ」と総称する。また、第1のカメラ10と第2のカメラ20を「2つのカメラ」と総称することがある。また、第1の画像センサ12で検出される第1の画像を「第1のカメラ10で検出される第1の画像」と呼ぶことがある。同様に、第2の画像センサ22で検出される第2の画像を「第2のカメラ20で検出される第2の画像」と呼ぶことがある。
 第1のカメラ10で検出された第1の画像は、歪変換処理部50Aに入力され、歪変換処理部50Aが第1の画像の歪を変換する。
 第2のカメラ20で検出された第2の画像は、歪変換処理部50Bに入力される。そして、歪変換処理部50Bが第2の画像の歪を変換する。
 以下の説明で、歪変換処理部50A,50Bを区別しない時は、歪変換処理部50と呼ぶ。第1の実施形態に係る画像処理部は、第1の画像の歪と第2の画像の歪を変換する歪変換処理部(歪変換処理部50)である。例えば、レンズの射影方式が正射影(fsinθ)であった場合、歪変換処理部50A,50Bは、それぞれ第1の画像と第2の画像を正射影から中心射影(ftanθ)への射影変換を行うことで、第1の画像と第2の画像の歪を変換する。ただし、射影変換後の画像が中心射影(ftanθ)以外であっても本発明の効果は得られる。
 ここで例えば、第1のカメラ10の第1のレンズ11の温度に対して、第2のカメラ20の第2のレンズ21の相対温度が変化することで第1の画像に対して第2の画像の倍率が変化する。また、第1のカメラ10の第1のレンズ11と第2のカメラ20の第2のレンズ21の温度が等しくとも、第1のカメラ10の第1のレンズ11と第2のカメラ20の第2のレンズ21の温度に対する倍率変化の感度が異なることで第1の画像に対して第2の画像の倍率が変化する。この倍率変化に対応するため、画像処理部(歪変換処理部50B)は、画像比較部(画像比較部30)により算出された補正処理係数kにより、第2の画像を補正する。補正処理係数kによる第2の画像の補正は、第2の画像の倍率変化を補正する処理である。
 2つのカメラの後段には、画像比較部30が設けられる。画像比較部30には、第1のカメラ10から第1の画像が入力され、第2のカメラ20から第2の画像が入力される。
この画像比較部30は、第1の画像と第2の画像とを比較し、第1の方向とは異なる第2の方向における、第1の画像と第2の画像との違いに基づいて、第2の画像を補正するための補正処理係数kを算出する。本実施の形態では、2つのカメラが並ぶ略水平方向を第1の方向とし、第1の方向に対する略垂直方向と第2の方向とする。ただし、後述するように第2の方向を略垂直方向に限らず、水平方向に対して45度程度まで傾けた方向(後述する図11の(5)、(6)を参照)としてもよい。
 画像比較部30は、2つのカメラの並ぶ方向に対して略垂直な方向に第1の画像、第2の画像を比較し、比較結果を歪変換処理部50Bに出力する。本実施の形態では、補正処理係数kで表される所定の倍率を第2の画像の全体に掛けることでの第2の画像の画像サイズを補正することができる。このため、第1の画像の所定領域に対して第2の画像の所定領域の画像サイズが違うことは、第1の画像に対して第2の画像の倍率が違うことと等価である。そこで、画像比較部30は、補正処理係数kを算出するために、第1の画像と第2の画像からそれぞれ所定の大きさの領域を抽出する。抽出された領域の大きさは、後述する図3に示すように、2つの画像に共通して映る対象物である画像の一部の大きさであってもよいし、後述する図11の(1)、(2)に示すように2つの画像ごとに画像全体の大きさであってもよい。
 ここでは、第1の画像と第2の画像から抽出される領域を、第1の画像と第2の画像から抽出された一部の領域(例えば、後述する図3に示す領域R1,R2)であると想定する。そして、画像比較部30は、第2の画像に所定の倍率を掛けることで、第1の画像と第2の画像のそれぞれの画像サイズが一致するような画像倍率を算出する。以下の説明では、この画像倍率を「補正処理係数k」と呼ぶ。そして、歪変換処理部50Bは、画像比較部30から入力された補正処理係数kを用いて、第2の画像の倍率変化を補正する。補正処理係数kの詳細な説明は後述する。
 歪変換処理部50の後段には、輝度補正部51、画像補間部52、及び輝度情報生成部53が設けられる。輝度補正部51、画像補間部52、及び輝度情報生成部53は、それぞれ歪変換処理部50Aから出力される歪変換後の画像に対して所定の処理を行う経路と、歪変換処理部50Bから出力される歪変換、かつ倍率変化が補正された後の画像に対して所定の処理を行う経路に対して設けられる。
 輝度補正部51は、輝度補正処理として、例えば、2つのカメラのゲインの違い、又は第1のカメラ10内の画素と第2のカメラ20内の画素間のゲインの違いを補正する処理を行う。この補正により、第1の画像と第2の画像に映る同じ対象物の輝度が同じとなる。
 画像補間部52は、画像補間処理として、例えば、RAW画像からカラー画像に変換するデモザイキング処理を行う。
 輝度情報生成部53は、後段の視差画像生成部60による視差画像の生成を可能とするため、輝度情報を生成する処理として、例えば、カラー画像である第1の画像と第2の画像を、それぞれ輝度の画像に変換する。輝度の画像への変換時に、第1の画像と第2の画像のそれぞれに対して輝度情報が生成される。
 第1の画像と第2の画像に対して、輝度補正部51、画像補間部52、及び輝度情報生成部53の各処理が行われることで、輝度情報生成部53から出力される第1の処理画像、第2の処理画像が得られる。画像処理装置1では、第1の処理画像、第2の処理画像がいずれも輝度画像と同じであるが、各画像に対して所定の処理が行われることから「処理画像」と呼ぶ。
 視差検出部(視差画像生成部60)は、少なくとも歪が変換され、かつ輝度情報が生成された第1の画像(すなわち、第1の処理画像)と、少なくとも歪が変換され、輝度情報が生成され、かつ倍率が変換された第2の画像(すなわち、第2の処理画像)とに基づいて、第1の画像と第2の画像に映る対象物の視差を検出する。ここで、視差画像生成部60が視差を検出する第1の画像と第2の画像に映る対象物は、第1の画像に基づいて処理された第1の処理画像と、第2の画像に基づいて処理された第2の処理画像とに映っている。このため、視差画像生成部60は、第1の処理画像と第2の処理画像に基づいて、対象物の視差を検出するための視差画像を生成する。
 距離算出部70は、視差画像生成部60により検出された視差(上述した視差画像)に基づいて、第1の画像及び第2の画像に映る対象物までの距離を算出する。そして、距離算出部70は、対象物までの距離を、不図示の車両制御部等に出力する。
 不図示の車両制御部は、対象物までの距離の算出結果に基づいて、車両を転舵して走行する方向を変更したり、対象物の手前で車両を停止したりする等の制御を行う。
 このような画像処理装置1は、2つのカメラで検出された画像を画像比較部30で比較し、歪変換処理部50Bが比較結果を用いて第2の画像の補正処理を行うことを特徴としている。これに対して、上述した先行文献1及び2に記載された技術は、測距誤差の補正の考え方が本実施形態に係る技術と異なる。先行文献1及び2に記載された技術では、2つのレンズの温度変化に対して、2つのカメラから出力された画像が所定温度の条件となるように第1の画像、第2の画像の両方共に歪みが補正される。ただし、先行文献1及び2に記載された技術は、例えば、温度計で計測される温度がレンズ温度でないため画像の補正精度が低く、温度に対する像の変位量にレンズ間のばらつきがあるため、画像の変位量のばらつきを考慮して画像を補正できないなどの問題がある。それに対して、本実施形態に係る画像処理装置1では、2つのカメラで検出された実際の画像のずれを用いることで、画像を補正できるため、画像の補正精度を高めることができるという利点がある。
 次に、温度変化に伴ってカメラが撮像した画像が変化する様子と、本実施形態に係る補正アルゴリズムについて説明する。
 図2は、本実施形態に係る補正アルゴリズムを説明する図である。図2の上側には、黒点で表す対象物100の像を第1のレンズ11を介して第1の画像センサ12が検出する様子と、対象物100の像を第2のレンズ21を介して第2の画像センサ22が検出する様子が示される。ここで、車両の前方方向に対して第1のカメラ10が右側に設置され、第2のカメラ20が左側に設置されているとする。また、対象物100として、例えば、移動する車両、人の他、路面に設置された信号機、ポール等の構造物等も想定される。
 また、図2の下側には、(1)センサ上の画像と、(2)補正処理後の画像の例が示される。図2の(1)には、第1の画像センサ12及び第2の画像センサ22上で検出される対象物100の画像の例が示される。また、図2の(2)には、本実施形態に係る補正アルゴリズムを図2の(1)に示す画像に適用して補正した画像の例が示される。
 まず、第1のレンズ11のレンズ温度が変化した場合に測距誤差が発生するメカニズムについて説明する。所定の温度条件で測定したときの第1のカメラ10(第1のレンズ11)に入射する対象物100からの光線110、第2のカメラ20(第2のレンズ21)に入射する対象物100からの光線120を一点鎖線で示している。所定の温度条件で測定した場合、第1の画像センサ12、第2の画像センサ22上の光線入射位置の差(視差)から対象物までの距離D0が検出される。これは、実際と等しい距離となる。
 ここで、第1のレンズ11の温度が変化したときの第1のカメラ10に入射する対象物100の光線111を破線で示している。第1のレンズ11の温度が変わった場合、第1のレンズ11の屈折率変化やレンズ面間隔の変化などの影響を受け、第1のレンズ11の画角に対する像高の関係がずれる。この場合、第1のレンズ11によって光線110が光線111に変換され、第1の画像センサ12上で像の位置が矢印19の方向にずれて検出される。そして、対象物100に対する測距の処理が、第1のレンズ11の温度が変化する前の処理と同じである場合、対象物100からの光線は二点鎖線で示す仮想光線112の画角に存在していると誤検出される。
 また、第2のレンズ21の温度が変化していない状態で第2のカメラ20に入射する対象物100の光線121についても破線で示している。第2のレンズ21によって光線120が光線121に変換され、第2の画像センサ22上で像の位置が矢印29の方向にずれて検出される。光線120と仮想光線112の交点が対象物100の位置として誤検出され、この位置に基づいて、第1のレンズ11と第2のレンズ21を基点とした距離D1が算出され、画像処理装置1から距離D1が出力される。ここで、図2に示すように、対象物100までの正しい距離D0と、誤って算出された距離D1とは一致しない。これが第1のレンズ11の温度変化に伴う測距誤差が発生するメカニズムである。
 次に、本実施形態に係る補正アルゴリズムについて説明する。
 図2の(1)には、第1のレンズ11の温度が変化すると第1の画像センサ12上で対象物100の像の位置が矢印19の方向にずれて検出されることが示される。一方、第2の画像センサ22上では、対象物100の像の位置がずれて検出されていない。
 本実施形態に係る補正アルゴリズムを適用することで、図2の(1)のセンサ上の画像にて検出された2つの画像を基に補正情報(後述する補正処理係数k)が生成される。本実施形態では、補正情報に基づいて、第2の画像センサ22で検出された対象物100の像高(画像サイズ)の倍率が変換される。
 そして、図2の(2)の補正処理後の画像に示すように、第2の画像センサ22上の対象物100の画像が矢印19と同じ方向である矢印29の方向にずれて補正される。第2の画像センサ22上の対象物100の画像が補正されると、光線120が光線121、仮想光線122に変化したと推定することができる。
 このため、仮想光線112と仮想光線122の交点が対象物100の位置として検出される。仮想光線112と仮想光線122の交点は、光線110,120の交点の位置が矢印91の方向にずれた位置となる。そして、仮想光線112と仮想光線122の交点の位置に基づいて距離D2が算出される。このとき、距離D0と距離D2はほとんど同じ距離となる。距離D0と距離D2に発生する測距誤差は実用上、問題とならない。
 このように、レンズの温度変化に伴う画像変化は、第1の画像と第2の画像の像の変位量を合わせることで測距誤差を低減することが示された。以上のようなレンズの特性は、レンズが広角となるほど大きな像高変化を起こすため、レンズの倍率が変わったと解釈することができる。以降の説明では、レンズの温度に伴う画像(像高)変化をレンズ倍率変化と呼ぶ。
 なお、本処理により、対象物100の左右の検出位置が矢印91の方向にずれるが、画角の変化としては小さく、小数点2桁目の画角が変化する程度にすぎない。このため、例えば、車両やロボットに本実施形態に係る画像処理装置1を搭載し、適用することについては問題とならない。
 次に、本実施形態に係る補正アルゴリズムで用いられる補正情報の求め方について説明する。
 図3は、温度変化に伴うセンサ上の画像の変化を示す図である。図3の右側には、第1の画像センサ12で検出される画像の変化の例が示され、図3の左側には、第2の画像センサ22で検出される画像の変化の例が示される。
 第1の画像センサ12と第2の画像センサ22には、それぞれ第1のレンズ11の温度が変化する前に検出された対象物100のセンサ上の位置が黒点1000として示されている。破線で示す円C0は黒点1000と同じ像高位置を表している。この円C0は、第1のレンズ11と第2のレンズ21が同じ温度である場合、又は第1の画像センサ12と第2の画像センサ22が同じ感度である場合のいずれであっても、水平中心に対する黒点1000の位置が同じであることを表している。なお、カメラの温度が変化することにより画像センサの感度が変わる。このため、レンズの温度の変化だけでなく、画像センサの感度の変化に応じても第2の画像の補正が行われる。
 第1のレンズ11の温度が変化した後において、第1の画像センサ12に検出された対象物100のセンサ上の位置と、第2のレンズ21の温度が変化した後において、第2の画像センサ22に検出された対象物100のセンサ上の位置とが、黒点1001として示されている。また、実線の円C1は黒点1001と同じ像高位置をそれぞれ示している。
つまり、円C1は、第1のレンズ11の温度と第2のレンズ21の温度とがそれぞれ異なる場合、又は第1の画像センサ12の感度と第2の画像センサ22の感度とがそれぞれ異なる場合に、水平中心に対する黒点1001の位置が異なることを表している。
 また、第1の画像センサ12と第2の画像センサ22には、2つのレンズの温度変化に伴う黒点1000から黒点1001への変位量がそれぞれ変位量dx1、変位量dx2として示されている。2つのレンズの倍率の変化が異なるため、第1の画像センサ12と第2の画像センサ22に示された変位量dx1、変位量dx2が異なっている。つまり、変位量dx1から変位量dx2を減じると差分が生じる。
 そこで、図1に示した画像比較部30は、変位量dx1と変位量dx2の関係を求める。この際、画像比較部(画像比較部30)は、第1の画像が第2の方向に延びる領域R1の画像の変位量と、第2の画像が第2の方向に延びる領域R2の画像の変位量との差分を、第1の画像と、第2の画像との違いとし、画像処理部(歪変換処理部50)が、第2の画像の第2の方向に延びる領域の変位量の差分をなくす補正を行うための倍率である補正処理係数kを算出する。
 なお、画像比較部30の処理は、第1の画像と第2の画像の一部の領域の画像サイズに基づいて以下のように言い換えることもできる。すなわち、画像比較部(画像比較部30)は、第2の方向に延びる第1の画像の一部の領域R1の画像サイズと、第2の方向に延びる第2の画像の一部の領域R2の画像サイズの差異を、第1の画像と、第2の画像との違いとし、補正処理係数kを算出する。補正処理係数kは、画像処理部(歪変換処理部50)が、第2の画像の一部の領域の画像サイズの差異をなくす補正を行うための倍率である。
 そして、歪変換処理部50Bが変位量dx1と変位量dx2の関係に応じた画像処理を行うことで2つのレンズの変化の差を補正することができる。ただし、水平方向の像の位置は対象物の距離に依存して変化する。このため、画像比較部30は、対象物100までの距離として予め分かっている情報を用いなければ、正確な変位量dx1と変位量dx2の関係を求めることができない。この結果、画像処理装置1は、水平方向の変位量dx1と変位量dx2だけで、例えば路上などで検出される情報に基づいて2つのレンズの変化の差を補正するのは困難である。
 このような課題に対して、本実施形態に係る画像比較部30は、水平方向ではなく、垂直方向の円C0と円C1の差分をそれぞれ、変位量dy1、変位量dy2とする。そして、画像比較部30は、垂直方向の変位量dy1と変位量dy2を用いて、水平方向の変位量dx1と変位量dx2の関係を求める。通常、レンズは光軸に対して回転対称の特性を有するため、変位量dx1と変位量dy1は同じ量となる。そして、変位量dx2と変位量dy2も同じ量となる。そこで、画像比較部30は、水平方向の変位量dx1と変位量dx2を、垂直方向の変位量dy1と変位量dy2に変えたとしても、第1の画像と第2の画像の差を補正することが可能となる。
(像高変位量が線形に変化する場合)
 次に、変位量dy1と変位量dy2の関係から2つのレンズの変化の差を補正する方法について説明する。
 図4は、本実施形態に係る2つのレンズの変化の差の補正方法を説明する図である。ここでは、図3の第1の画像センサ12と第2の画像センサ22に示した領域R1、領域R2の変位量について説明する。なお、図4には、像高変位量が線形に変化する場合が示される。
 図4の(1)は、第2のレンズ12の温度に対する第1のレンズ11の温度変化Δtに伴うカメラの像高の変位量の垂直画角依存性を示すグラフである。このグラフの横軸は垂直画角を示し、縦軸は像高変位量を示している。図中には、第1のカメラ10の特性S11、第2のカメラ20の特性S12が直線で示されている。ただし、図4の(1)に示す特性S11,S12を直接検出することは困難である。
 そこで、本実施形態に係る画像比較部30は、図4の(2)に示す第2のレンズ12の温度に対する第1のレンズ11の温度変化Δtに伴うカメラの像高変位量差分の垂直画角依存性を示すグラフを用いる。このグラフの縦軸は、2つのカメラの像高変位量の差分を示している。像高変位量の差分は、例えば、画像比較部30が対象物100の位置の違いを検出すればよい。
 そして、画像比較部30は、例えば、視差マッチング処理のように、第1の画像に対して第2の画像を垂直方向にずらし、2つの画像が最も一致するずらし量を検出する。なお、画像比較部30は、第1の画像と第2の画像とを比較することで特徴点の位置を求めることもできる。
 図4の(2)に示すグラフの点は、特定の対象物100以外にも、所定の像を用いて検出したものを黒点で表現している。第1の画像と第2の画像に映り込む構造物であれば、像高が検出されるので、黒点の数は5点に限らず、多数設けられてもよい。このように、変位量の差分は、第1の画像に映る対象物の位置と、第2の画像に映る対象物の位置との違いを示す黒点として表される。そこで、画像比較部(画像比較部30)は、第1の画像に映る対象物の位置と、第2の画像に映る対象物の位置との違いに基づいて変位量の差分を検出する。そして、画像比較部30は、図4の(1)と(2)で用いた第1の画像と第2の画像のうち、第2の画像に対して画像の倍率を変化させるための補正処理係数kを算出する。
 図4の(3)は、第2の画像を最適倍率としたときの像高変位量の垂直画角依存性を示している。図4の(3)は、第2のレンズ12の温度に対する第1のレンズ11の温度変化Δtに伴うカメラの像高の変位量の垂直画角依存性を示すグラフであり、第2の画像を最適倍率とした時に第2のカメラ20の特性S12が特性SC1に変化する様子を表している。最適倍率とすると、像高変位量が第1のカメラ10の特性S11と、第2のカメラ20の特性SC1とが同じ特性となる。つまり、図4の(1)に示した特性S12に対して補正処理係数kを掛けると、特性S12の傾きが大きくなった特性SC1の傾きと、第1のカメラ10の特性S11の傾きが同じとなる。
 図4の(4)は、第2の画像を最適倍率としたときの像高変位量差分の垂直画角依存性を示している。第1のカメラ10の特性S11と第2のカメラ20の特性SC1が同じであるため、図4の(4)に示すように、垂直画角に依らず像高変位量が一定(ほぼゼロ)となることが示される。
 本実施形態では、画像比較部30が最適倍率となる補正処理係数kを求めるための倍率誤差信号MES(Magnificaion Error Signal)を定義する。以下の説明では、倍率誤差信号MESを、「MES」と略称することもある。MESは、次式(1)で表される。式(1)に示すS(+θ)、S(-θ)は、垂直画角θでの像高変位量の差分を示している。
 MES=S(+θ)-S(-θ) …(1)
 図5は、倍率誤差信号MESのk依存性を示すグラフである。このグラフの横軸は補正処理係数k(倍率)を示し、縦軸は倍率誤差信号MESを示している。補正処理係数kの変化に伴って、倍率誤差信号MESが変化する。
 図3には、S(+θ)がdy1-k×dy2で表され、S(-θ)が-(dy1-k×dy2)で表されることが示される。このため、MESは、S(+θ)-S(-θ)=2(dy1-k×dy2)と表すことができる。
 図4の(2)に示したグラフでは、S(+θ)が正の値をとり、S(-θ)が負の値をとることが示される。ここで、例えば図4の(2)に示したグラフの場合、MES > 0となる。そして、図4の(2)に示したグラフが左上がりのグラフの場合、MES < 0となる。
 一方、補正処理係数kが最適値である場合には、図4の(4)に示したグラフでは、S(+θ)がゼロ、S(-θ)がゼロの値をとるので、式(1)より、S(+θ)-S(-θ)=0、すなわちMESはゼロのとき、dy1-k×dy2=0の関係であるので、補正処理係数kが、k=dy1/dy2と表される。
 図5に示すように、補正処理係数kが最適値よりも大きい場合には、MESはマイナスとなる。そこで、画像比較部30は、補正処理係数kを変えてMESを演算し、MESがゼロとなる補正処理係数k(最適値)を求める。画像比較部30は、最適値として求めた補正処理係数kを歪変換処理部50B(図1を参照)に出力する。
 画像処理部(歪変換処理部50)は、第1のカメラ(第1のカメラ10)と第2のカメラ(第2のカメラ20)の温度が変化したことにより第1の画像に対して違いが生じる第2の画像を補正する。また、第1のカメラ(第1のカメラ10)と第2のカメラ(第2のカメラ20)の温度の変化によって、第1のカメラ(第1のカメラ10)が有する第1の画像センサ(第1の画像センサ12)の感度と、第2のカメラ(第2のカメラ20)が有する第2の画像センサ(第2の画像センサ22)の感度の差が生じる。このため、画像処理部(歪変換処理部50)は、第1の画像センサ(第1の画像センサ12)の感度と、第2の画像センサ(第2の画像センサ22)の感度の差により、第1の画像に対して違いが生じる第2の画像を補正することができる。
 このように歪変換処理部50Bは、補正処理係数kを用いることで、レンズの温度又はセンサの感度変化に伴う第2の画像の倍率変化を補正することができる。上述したように、レンズは光軸に対して回転対称の特性を有するため、垂直方向の倍率変化を補正した結果は水平方向に対しても有効である。
 なお、第2の画像の倍率変化はレンズとセンサの間隔が変化することでも発生する。本実施形態に係る補正アルゴリズムは、倍率変化を補正できるため、レンズとセンサの間隔変化に伴う画像の変化も補正することができる。例えば、レンズとセンサの間隔変化がそのまま倍率の変化なので、この倍率の変化を補正することで、間隔変化に伴う画像の変化を補正できる。
 ここまで画像比較部30は、MESの計算にあたって垂直画角±θを用いるものとして説明した。ただし、画像比較部30は、例えば、図4の(2)に示す黒点を多数(6個以上)検出した後、その黒点で補間した像高変位量差分の値を用いて、MESがゼロとなる補正処理係数kを算出してもよい。
 次に、第1のカメラ10と第2のカメラ20に対して他の外乱があった場合であっても本実施形態に係る補正アルゴリズムが有効であることを説明する。ここまで2つのレンズは光軸に対して回転対称の特性を有するため、変位量dx1と変位量dy1は同じ量となると説明してきた。ただし、第1のカメラ10と第2のカメラ20において部品ずれが発生すると、変位量dxが変位量dyと一致しない場合がある。また、第1のカメラ(第1のカメラ10)の検出倍率と、第2のカメラ(第2のカメラ20)の検出倍率とが経時的に変化する場合がある。この場合であっても、画像処理部(歪変換処理部50)は、第1の画像に対して違いが生じる第2の画像を補正することができる。
ここでは、第1のカメラ(第1のカメラ10)の検出倍率と、第2のカメラ(第2のカメラ20)の検出倍率とが経時的に変化する例について、図6を参照して説明する。
 図6は、レンズとセンサの部品位置の関係を示す図である。図6の右側には、第1のレンズ11と第1の画像センサ12が配置され、図6の左側には第2のレンズ21と第2の画像センサ22が配置される様子が示される。第1の画像センサ12と第2の画像センサ22は、X軸方向に並べて配置されている。
 ここで、例えば、第2の画像センサ22がY軸方向にずれた場合(矢印41)、第2の画像センサ22がY軸を回転軸として回転した場合(矢印42)、第2の画像センサ22の光軸がY方向にずれた場合(矢印43)のいずれにおいても、第2の画像センサ22で検出される垂直方向の像高変位量がずれるため、垂直方向の像高変位量差分もずれてしまう。像高変位量差分にずれを生じさせる、これら3つの要因に対しても本実施形態に係る補正アルゴリズムが有効であることを以下に説明する。なお、第1のカメラ10と第2のカメラ20を車両に取り付けた当初の位置が、本来の取り付け位置からずれたことにより、第1のカメラ10の検出倍率と、第2のカメラ20の検出倍率とが変化した場合であっても、本実施形態に係る補正アルゴリズムが有効である。
(第2の画像センサがY方向に移動する場合)
 図7は、図6に示す第2の画像センサ22がY方向に移動した場合(図6の矢印41)における像高変位量と像高変位量差分の補正効果を示す図である。なお、図7の(1)、(2)、(3)、(4)は、いずれも図4の(1)、(2)、(3)、(4)と同様の内容を示している。
 図7の(1)のグラフに示した第1のカメラ10の特性S11は図4に示した特性S11と同じである。これに対し、図7の(1)のグラフに示した第2のカメラ20の特性S22は、垂直方向の像高変位量の下側にシフトしている点が図4に示す例と異なる。このため、図7の(2)のグラフに示す像高変位量差分が上側にシフトする。このときのMESは、図4の(2)のグラフを参照して計算したのと同様にプラスとなる。
 そこで、画像比較部30は、MESがゼロとなる補正を行うと、図7の(3)、(4)のグラフに示すように、像高変位量と像高変位量差分が変化する。図7の(3)に示す第1のカメラ10の特性S11と、第2のカメラ20の特性SC2の傾きが一致することで、図7の(4)に示すように、像高変位量差分が垂直画角に依らず一定となる。ここで、図7の(4)に示すように、像高変位量差分にはオフセットが発生しているが、視差検出には影響ない。
 一方で、第1の画像と第2の画像の垂直方向のオフセットは2つの画像の位置ずれを示しているため、検出する対象物が異なってしまう可能性がある。これに対しては、例えば歪変換処理部50A又は歪変換処理部50Bで第1の画像又は第2の画像を垂直方向にオフセットすることで、補正することができる。
(第2の画像センサが回転する場合)
 図8は、第2の画像センサ22がY軸を回転軸として回転した場合(図6の矢印42)における像高変位量と像高変位量差分の補正効果を示す図である。なお、図8の(1)~(4)は、いずれも図4(1)~(4)と同様の内容を示している。
 第2の画像センサ22が回転していない場合、光軸に沿って入射した像光が第2のレンズ21の光軸に対して対称の位置で第2の画像センサ22に受像される。しかし、第2の画像センサ22が像光を受像する面が第2のレンズ21の光軸に対して角度を持って回転すると、第2のレンズ21の光軸に対して対称の位置であっても、第2のレンズ21から入射した像光が第2の画像センサ22に受像するまでの距離が異なるため、第2の画像センサ22の像高が変わってしまう。
 図8の(1)のグラフに示した第1のカメラ10の特性S11は図4に示した特性S11と同様である。ただし、図8の(1)のグラフに示す第2のカメラ20の特性S32は、倍率変化による特性S12(図4の(1)を参照)と、第2の画像センサ22のY軸を回転軸とした回転による特性との合成となっている。そして、第2の画像センサ22の回転による特性は、非線形かつ垂直画角に対して略対称である。このため、図8の(2)のグラフに示す像高変位量差分が非線形の形状となり、MESがプラスとなる。
 そこで、画像比較部30は、MESがゼロとなる補正を行うと、図8の(3)、(4)のグラフに示すように、倍率変化による特性S12を抑制できる。図8の(3)には、最適倍率とした時の第2のカメラ20の特性SC1、歪変換処理部50Bで処理される第2のカメラ20の特性SC3が示される。図4を参照して説明したように、第1のカメラ10の特性S11と、第2のカメラ20の特性SC1とが同じ特性となる。一方、第1のカメラ10の特性S11と、歪変換処理部50Bで処理される第2のカメラ20の特性SC3とは一致しない。このため、第2の画像センサ22のX軸方向の回転ずれによる特性のみが残留するが、この特性は視差画像生成部60による視差検出に影響しない。
 なお、歪変換処理部50A又は歪変換処理部50Bが垂直方向の像高変位成分を基に第1の画像又は第2の画像を補正することで、第2の画像センサ22がY軸を回転軸として回転した場合のMESの補正対応をすることもできる。
 次に、第2のレンズ21の光軸がY方向にずれた場合(図6の矢印43)の補正効果について説明する。
 第2のレンズ21の光軸ずれは、第2の画像センサ22のY軸方向ずれとX軸方向の回転ずれの組合せで表すことができる。このため、歪変換処理部50Bは、第2のレンズ21の温度に伴う倍率変化を補正することができる。
 本実施形態では、図4、図7及び図8を参照した説明した像高変位は、垂直画角に対して線形に変化するものとして説明した。ただし、垂直画角に対して像高が非線形に変化しても、像高変位量と像高変位量差分の補正効果がある。ここで、垂直画角に対して像高が非線形に変化する場合の補正効果について、図9を参照して説明する。
(像高変位量が非線形に変化する場合)
 図9は、垂直画角に対して像高変位量が非線形に変化するような場合における像高変位量と像高変位量差分の補正効果を示す図である。
 図9の(1)のグラフには、垂直画角に対して像高変位量が非線形に変化した場合における第1のカメラ10の特性S41と、第2のカメラ20の特性S42の例が示される。
 垂直画角に対して像高変位量が非線形に変化した場合においても、像高変位量は垂直画角の0degに対して対称である。そこで、画像比較部30は、垂直画角に対する所定の像高を検出し、像高変位量差分を求めてMESを演算すればよい。像高変位量差分は、図9の(2)のグラフに示される。このグラフは、非線形に変化したものとなる。
 ここで、図9の(3)のグラフには、第2のカメラ20を最適倍率とした時に、第2のカメラ20の特性S42が特性SC4に変化する様子が示される。この結果、像高変位量が第1のカメラ10の特性S11と、第2のカメラ20の特性SC4とで同じ特性となる。
 図9の(4)のグラフには、図4の(4)と同様のグラフが示される。画像比較部30は、MESがゼロとなる補正処理係数kを求めることで、垂直画角によらず像高変位量差分がゼロとなるため、第2のレンズ21の温度に伴う倍率変化を補正することができる。
 また、本実施形態では図3の領域R1、領域R2に示した、水平画角が略0degである情報を用いたが、他の領域を用いてもよい。
 図10は、第1のレンズ11と第2のレンズ21の水平方向の各位置における垂直方向の像高の変位の例を示す図である。
 図10の右側には、第1のレンズ11による垂直方向の像高の変位の例が示され、図10の左側には、第2のレンズ21による垂直方向の像高の変位の例が示される。図中の垂直中心は、垂直画角の0degの位置を表し、水平中心は、水平画角の0degの位置を表す。図10より、2つのレンズによる像高の変位は、各レンズの垂直中心付近であれば、水平中心からの距離によらず垂直方向の像高の変位が小さいことが示される。
 一方、各レンズの垂直中心からプラス方向及びマイナス方向に離れるにつれて垂直方向の像高の変位が大きくなることが示される。垂直方向の像高は、水平画角によらず垂直画角のみに依存して変位するためである。そこで、2つのレンズによる各位置での像高の変位の特性を踏まえて、画像比較部30がMESを算出する際、2つのレンズの様々な領域を対象として垂直方向の像高の情報を取得する。
 図10に示した2つのレンズの水平方向の各位置における垂直方向の像高の変位を踏まえて、MESの算出に用いられる領域について、図11を参照して説明する。
 図11は、MESの算出に用いられる、2つのセンサで検出される様々な領域の例を示す図である。
 図11の(1)、(3)、(5)、(7)には、第2の画像センサ22で検出される領域の例が示され、図11の(2)、(4)、(6)、(8)には、第1の画像センサ12で検出される領域の例が示される。図11の(1)~(8)には、図10に示したのと同様に、各センサの垂直中心、水平中心に対するプラス及びマイナスを付記する。なお、図面が煩雑になるのを避けるため、各センサの垂直中心、水平中心の記載は省略する。
 ここで、図11の(1)、(2)には、各センサの全面の情報(領域R11,R12)が用いられることが示される。領域R11,R12は、各センサの全面に含まれているが、水平方向に対する垂直方向に同じ対象物が含まれる場合、画像比較部30が垂直方向の変化を用いて画像を比較する点において、図4と図5に示したMESと補正処理係数kを算出する処理と違いはない。
 図11の(3)、(4)には、各センサの0deg以外の水平画角の情報が用いられることが示される。例えば、0degの水平中心に対してマイナス方向(左端)に寄った位置(領域R21,R22)の情報が用いられることが示される。領域R21,R22は、水平方向に片寄った位置にあるが、領域R21,R22に同じ対象物が含まれる場合において、図4と図5に示したMESと補正処理係数kを算出する処理と違いはない。
 図11の(5)、(6)には、各センサの斜め方向の情報(領域R31,R32)が用いられることが示される。領域R31,R32は、水平方向に対して斜めであるが、領域R31,R32に同じ対象物が含まれる場合、画像比較部30が垂直方向の変化を用いて画像を比較する点において、図4と図5に示したMESと補正処理係数kを算出する処理と違いはない。
 図11の(7)、(8)には、各センサの0degの垂直画角に対して対称な位置の情報(領域R41,R42)が用いられることが示される。領域R41,R42に同じ対象物が含まれる場合、画像比較部30が垂直方向の変化を用いて画像を比較する点において、図4と図5に示したMESと補正処理係数kを算出する処理と違いはない。そこで、画像比較部(画像比較部30)は、第1のカメラ(第1のカメラ10)が有する第1のレンズ(第1のレンズ11)の光軸に対して対象となる第1の画像の複数の領域と、第2のカメラ(第2のカメラ20)が有する第2のレンズ(第2のレンズ21)の光軸に対して対象となる第2の画像の複数の領域とを用いて、変位量の差分を検出する。
 このように垂直画角±θ付近のみの対象物を含む領域R41,R42から補正処理係数kを算出し、倍率補正の処理を行うことで、画像処理装置1の処理負荷を低減させることも可能である。
 なお、垂直画角θは広角の方が像高変位量が大きいため、像高変位量差分を検出しやすい。また、誤差を低減する目的で、MESを次式(2)に示す演算が行われてもよい。次式(2)の±θ1、±θ2は、例えば、図4の(2)に示したいずれの黒点であってもよい。
 MES=[S(+θ1)-S(-θ1)]+[S(+θ2)-S(-θ2)]+… (2)
<計算機のハードウェア構成例>
 次に、画像処理装置1の各装置を構成する計算機200のハードウェア構成を説明する。
 図12は、計算機200のハードウェア構成例を示すブロック図である。計算機200は、本実施の形態に係る画像処理装置1として動作可能なコンピューターとして用いられるハードウェアの一例である。本実施の形態に係る画像処理装置1は、計算機200(コンピューター)がプログラムを実行することにより、図1に示した各機能ブロックが連携して行う画像処理方法を実現する。
 計算機200は、バス240にそれぞれ接続されたCPU(Central Processing Unit)210、ROM(Read Only Memory)220、及びRAM(Random Access Memory)230を備える。さらに、計算機200は、不揮発性ストレージ250及びネットワークインターフェイス260を備える。
 CPU210は、本実施の形態に係る各機能を実現するソフトウェアのプログラムコードをROM220から読み出してRAM230にロードし、実行する。RAM230には、CPU210の演算処理の途中で発生した変数やパラメーター等が一時的に書き込まれ、これらの変数やパラメーター等がCPU210によって適宜読み出される。ただし、CPU210に代えてMPU(Micro Processing Unit)を用いてもよく、CPU210とGPU(Graphics Processing Unit)を併用してもよい。CPU210がソフトウェアを実行することで図1に示した画像比較部30、歪変換処理部50、輝度補正部51、画像補間部52、輝度情報生成部53、視差画像生成部60、及び距離算出部70の各機能が実現される。
 不揮発性ストレージ250としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は不揮発性のメモリ等が用いられる。この不揮発性ストレージ250には、OS(Operating System)、各種のパラメーターの他に、計算機200を機能させるためのプログラムが記録されている。ROM220及び不揮発性ストレージ250は、CPU210が動作するために必要なプログラムやデータ等を記録しており、計算機200によって実行されるプログラムを格納したコンピューター読取可能な非一過性の記憶媒体の一例として用いられる。この不揮発性ストレージ250には、例えば、画像比較部30により計算された画像補正係数k、第1の画像と第2の画像、第1の処理画像と第2の処理画像、視差画像、対象物までの距離情報等が記録される。
 ネットワークインターフェイス260には、例えば、NIC(Network Interface Card)等が用いられ、NICの端子に接続されたLAN(Local Area Network)、専用線等を介して各種のデータを装置間で送受信することが可能である。図1に示した距離算出部70が算出した対象物までの距離情報は、ネットワークインターフェイス260により、不図示のECU(Electronic Control Unit)や車両制御装置に送信され、車両の制御に用いられる。
<画像処理装置1の処理の例>
 図13は、画像処理装置1の処理の例を示すフローチャートである。画像処理装置1は、各機能部の処理により、本実施の形態に係る画像処理方法を実施する。
 始めに、画像比較部30は、第1のカメラ10から入力した第1の画像と、第2のカメラ20から入力した第2の画像とを比較し(S1)、補正処理係数kを算出する。次に、歪変換処理部50Aは、第1の画像の歪を変換し、歪変換処理部50Bは、第2の画像の歪を変換する(S2)。なお、ステップS1,S2の処理は、並行して行われてもよい。
 次に、歪変換処理部50Bは、補正処理係数kに基づいて、歪が変換された第2の画像の倍率を変換する(S3)。なお、ステップS2,S3は処理が反転してもよいし、同時に行われてもよい。
 次に、輝度補正部51は、歪が変換された第1の画像の輝度を補正し、歪が変換され、かつ倍率が変換された第2の画像の輝度を補正する(S4)。
 次に、画像補間部52は、歪が変換された第1の画像を補間し、歪が変換され、かつ倍率が変換された第2の画像を補間する(S5)。
 次に、輝度情報生成部53は、歪が変換された第1の画像の輝度情報を生成し、歪が変換され、かつ倍率が変換された第2の画像の輝度情報を生成する(S6)。
 次に、視差画像生成部60は、歪が変換された第1の画像の輝度情報と、が変換され、かつ倍率が変換された第2の画像の輝度情報とに基づいて、視差画像を生成する(S7)。
 次に、距離算出部70は、視差画像に基づいて、対象物までの距離を算出する(S8)。
 ステップS1~S8の画像処理は、所定時間毎に繰り返し行われる。そして、不図示の車両制御部は、距離算出部70により算出された対象物までの距離に基づいて、車両を制御する。なお、画像処理装置1と、車両制御部とを一体化した電子制御装置として構成することも可能である。
 以上説明した第1の実施形態に係る画像処理装置1では、従来のレンズの水平画角(60度程度)に比べて、広角な水平画角(120度程度)のレンズを有するカメラの特に画角の端の部分(中心に対して±60度)で顕著であった像高変位量差分を抑制する補正処理係数kを算出することで、第2の画像を補正することが可能となる。
 ここで、画像処理装置1の画像比較部30は、第1の画像と第2の画像から検出した像高のうち、垂直画角の±θにおける垂直方向の像高変位量差分(例えば、ゼロ)が一定となるようにMESを算出する。このMESは、補正処理係数kに依存する値であり、補正処理係数kが最適値である場合にMESがゼロとなる。そして、歪変換処理部50Bは、第2のカメラ20が撮像した第2の画像の歪を変換するだけでなく、MESがゼロとなる補正処理係数kを用いて、第2の画像の倍率変化を補正することができる。このように画像比較部30は、水平方向の変位量ではなく、水平方向以外の方向の像高変位量差分に基づいて、各カメラの画像センサが検出した像の倍率の違いを検出する。そして、歪変換処理部50Bは、一方のカメラの画像センサが検出した画像の倍率を、他方のカメラの画像センサが検出した画像に合わせる補正を行う。
 このため、従来は、画像の補正情報を記憶するための大容量の記憶装置を確保する必要があったのに対し、本実施の形態に係る画像処理装置1は、ステレオカメラ(2つのカメラ)の変化に合わせて、2つのカメラから出力される画像を補正することができる。そして、画像処理装置1は、画像の補正情報を記憶するための大容量の記憶装置を確保する必要がない。
 また、歪変換処理部50の後段の各処理部は、第2のカメラ20の第2の画像センサ22が検出し、倍率変化が補正された第2の画像を、第1のカメラ10が撮像した第1の画像と同様に扱える。このため、視差画像生成部60により生成される視差画像の誤差が少なくなり、距離算出部70により算出される対象物までの距離も正確に測距される。
 また、第2の画像センサ22がY軸方向にずれた場合、第2の画像センサ22がY軸を回転軸として回転した場合、第2の画像センサ22の光軸がY方向にずれた場合、又は垂直画角に対して像高が非線形に変化する場合のいずれであっても、第2のカメラ20の特性を第1のカメラ10の特性に合わせることで、像高変位量差分が垂直画角に依らず一定となる。このため、視差画像生成部60により生成される視差画像の誤差が少なくなり、距離算出部70により算出される対象物までの距離も正確に測距される。
 なお、画像処理装置として様々な実施形態が想定される。以下に、本発明の第2~第4の実施形態に係る画像処理装置の構成例を説明する。各実施形態に係る画像処理装置において、処理対象として用いられる画像が異なるが、この画像を用いてMESがゼロとなる補正処理係数kを算出し、この補正処理係数kにより、一方の画像(第2のカメラ20により撮影された画像、又はこの画像に所定の処理がなされた処理画像)が補正される点は、第1の実施形態に係る画像処理装置1と同様である。
[第2の実施形態]
 図14は、本発明の第2の実施形態に係る画像処理装置1Aの内部構成例を示すブロック図である。第2の実施形態に係る画像処理装置1Aでは、第1の画像と第2の画像の比較結果である補正処理係数kを算出する点は、第1の実施形態に係る画像処理装置1と同様である。
 画像比較部30は、図1に示した画像処理装置1と同じ第1のカメラ10と第2のカメラ20の後段に設けられる。そして、画像比較部30は、画像倍率変換部150に補正処理係数kを出力する。
 画像倍率変換部150は、画像比較部30及び輝度情報生成部53Bの後段に配置される。第2の実施形態に係る画像処理部は、歪が変換された第2の画像の倍率を補正処理係数kにより変換する画像倍率変換部(画像倍率変換部150)である。そして、画像倍率変換部150は、画像比較部30から入力する補正処理係数kを用いて、輝度情報生成部53Bから入力する第2の処理画像の倍率を変換する。画像倍率変換部150は、倍率が変換された第2の処理画像を、視差画像生成部60に出力する。
 視差検出部(視差画像生成部60)は、少なくとも歪が変換され、かつ輝度情報が生成された第1の画像(すなわち、第1の処理画像)と、少なくとも歪が変換され、輝度情報が生成され、かつ倍率が変換された第2の画像(すなわち、第2の処理画像)とに基づいて、第1の画像と第2の画像に映る対象物の視差を検出する。ここで、視差画像生成部60は、輝度情報生成部53Aから入力する第1の処理画像と、画像倍率変換部150から入力する、倍率が変換された第2の処理画像とに基づいて、対象物の視差を検出するための視差画像を生成する。
 距離算出部70は、視差画像生成部60により生成された視差画像に基づいて、対象物までの距離を算出する。
 以上説明した第2の実施形態に係る画像処理装置1Aの構成としても、2つのレンズの温度変化に伴う、第2の画像の倍率変化を補正することができる。ここで、画像比較部30が第1の画像と第2の画像の比較結果である補正処理係数kを算出し、画像倍率変換部150は、補正処理係数kを用いて、第2の処理画像の倍率を変換する。このため、視差画像生成部60で生成される対象物ごとの視差が正確に求められ、距離算出部70により算出される対象物までの距離も正確に算出される。
[第3の実施形態]
 図15は、本発明の第3の実施形態に係る画像処理装置1Bの内部構成例を示すブロック図である。第3の実施形態に係る画像処理装置1Bでは、輝度情報が生成された第1の処理画像と第2の処理画像を用いて補正処理係数kが算出される。
 第3の実施形態に係る画像処理装置1Bは、画像処理装置1が備える各機能部に加えて、画像比較部31及び画像倍率変換部150を備える。ここで、輝度情報生成部53は、第1のカメラ10で撮像された画像から輝度情報を生成する輝度情報生成部53Aと、第2のカメラ20で撮像された画像から輝度情報を生成する輝度情報生成部53Bとを含むものとする。なお、画像処理装置1Bにおいても、第1の画像及び第2の画像に対する歪変換処理部50の処理は図1に示した例と同様に行われるため、図1に示したような歪変換処理部50A,50Bの符号は省略する。
 画像比較部31は、図1に示した画像比較部30に代えて設けられるものであり、輝度情報生成部53の後段に配置される。画像比較部(画像比較部31)は、少なくとも歪が変換され、かつ輝度情報が生成された第1の画像(すなわち、第1の処理画像)と、少なくとも歪が変換され、かつ輝度情報が生成された第2の画像(すなわち、第2の処理画像)とに基づいて補正処理係数kを算出する。このため、画像比較部31には、輝度情報生成部53A,53Bからそれぞれ輝度情報が生成された第1の処理画像と第2の処理画像が入力される、第1の処理画像は、第1のカメラ10が撮像した画像が、輝度情報生成部53Aにより処理された画像である。また、第2の処理画像は、第2のカメラ20が撮像した画像が、輝度情報生成部53Bにより処理された画像である。画像比較部31が第1の処理画像と第2の処理画像を比較して算出した補正処理係数kは、画像倍率変換部150に出力される。
 画像倍率変換部150は、画像比較部31及び輝度情報生成部53Bの後段に配置される。第3の実施形態に係る画像処理部は、補正処理係数kにより第2の画像の倍率を変換する画像倍率変換部(画像倍率変換部150)である。そして、画像倍率変換部150には、画像比較部31から補正処理係数kが入力し、輝度情報生成部53Bから第2の処理画像が入力する。そして、画像倍率変換部150は、補正処理係数kを用いて、第2の処理画像の倍率を変換する。画像倍率変換部150は、倍率が変換された第2の処理画像を、視差画像生成部60に出力する。
 視差画像生成部60は、輝度情報生成部53Aから入力する第1の処理画像と、画像倍率変換部150から入力する、倍率が変換された第2の処理画像とに基づいて、対象物の視差を検出するための視差画像を生成する。
 距離算出部70は、視差画像生成部60により生成された視差画像に基づいて、対象物までの距離を算出する。
 ここで、例えば、レンズの射影が中心射影(ftanθ)の場合について検討する。この場合、歪変換処理部50A、歪変換処理部50Bで射影は変更されない。そして、第1のカメラ10で出力された第1の画像と、輝度情報生成部53Aで処理された第1の処理画像は同じとなる。同様に、第2のカメラ20で出力された第2の画像と、輝度情報生成部53Bで処理された第2の処理画像は同じとなる。このため、第3の実施形態で説明した各画像の状態は、第1の実施形態で説明した各画像の状態と同じとなり、第3の実施形態に係る補正アルゴリズムによっても第2の処理画像を補正できることが分かる。
 次に、他の射影について検討する。例えば、レンズの射影方式が正射影(fsinθ)であった場合を検討する。この場合、第1のカメラ10で検出された第1の画像、第2のカメラ20で検出された第2の画像に対して、中心射影(ftanθ)への射影変換が行われる。例えば、第1の画像、第2の画像の像高変位量が、図4の(1)に示した特性で表されると、第1の処理画像と第2の処理画像の像高変位量は、図9の(1)に示したような特性で表される。このため、第3の実施形態に係る補正アルゴリズムで第2の処理画像を補正できることが分かる。
 第3の実施形態では中心射影と正射影を説明したが、中心射影と正射影の間の歪特性を有する立体射影、等立体角射影、等距離射影であっても同様の効果が得られる。また、本実施形態に係る画像倍率変換部150は、歪変換処理部50と同じ機能を有し、第2の処理画像に対して歪を変換してもよい。また、歪変換処理部50Bが、画像倍率変換部150と同じ機能を有し、第2の画像の倍率を変換してもよい。
 以上説明した第3の実施形態に係る画像処理装置1Bでは、輝度情報生成部53A,53Bから出力される第1の処理画像と第2の処理画像の比較結果に基づいて補正処理係数kが算出され、画像倍率変換部150により第2の処理画像の倍率が変換される。ここで、第1の実施形態に係る画像処理装置1では、画像比較部30が補正処理係数kを算出した後、歪変換処理部50Bが第2のレンズ21による歪と、第2の画像の倍率変化を補正していたのに対し、第3の実施形態に係る画像処理装置1Bでは、既に第2の画像の歪が変換された第2の処理画像の倍率だけを補正する点が異なる。このため、画像処理装置1Bでは、例えば、第1のカメラ10と第2のカメラ20、及び機能部50~53が一体に構成されている場合であっても、歪変換処理部50Bの処理を変える必要がない。
[第4の実施形態]
 図16は、本発明の第4の実施形態に係る画像処理装置1Cの内部構成例を示すブロック図である。第3の実施形態では、第1の処理画像と第2の処理画像を画像比較部31が比較し、比較結果を基に画像倍率変換部150が第2の処理画像の画像倍率を変換した。
これに対して第4の実施形態に係る画像処理装置1Cでは、画像倍率変換部150を不要とし、画像比較部31の比較結果が歪変換処理部50Bに出力される構成とする。
 第4の実施形態に係る画像処理装置1Cは、第3の実施形態に係る画像処理装置1Bが備える各機能部のうち、画像倍率変換部150を除いた構成としている。
 画像比較部31は、図15に示した画像処理装置1Bと同じ輝度情報生成部53A,53Bの後段に設けられる。画像比較部(画像比較部31)は、少なくとも歪が変換され、かつ輝度情報が生成された第1の画像(すなわち、第1の処理画像)と、少なくとも歪が変換され、かつ輝度情報が生成された第2の画像(すなわち、第2の処理画像)とに基づいて補正処理係数kを算出する。そして、画像比較部31は、歪変換処理部50Bと画像倍率変換部150から出力される第1の処理画像と第2の処理画像に基づいて補正処理係数kを算出し、この補正処理係数kを歪変換処理部50Bに出力する。
 第4の実施形態に係る画像処理部は、第1の画像の歪を変換し、第2の画像の歪を変換し、かつ第2の画像の倍率を補正処理係数kにより変換する歪変換処理部(歪変換処理部50B)である。この歪変換処理部50Bは、第2のカメラ20で検出された第2の画像の歪を変換し、画像比較部31から入力した補正処理係数kに基づいて、第2の画像の倍率変化を補正する。以降の処理は、第1の実施形態に係る画像処理装置1と同様である。
 例えば、視差検出部(視差画像生成部60)は、少なくとも歪が変換され、かつ輝度情報が生成された第1の画像(すなわち、第1の処理画像)と、少なくとも歪が変換され、輝度情報が生成され、かつ倍率が変換された第2の画像(すなわち、第2の処理画像)とに基づいて、第1の画像と第2の画像に映る対象物の視差を検出する。ここで、視差画像生成部60は、輝度情報生成部53Aから入力する第1の処理画像と、輝度情報生成部53Bから入力する、歪変換処理部50Bにより倍率が変換された第2の処理画像とを用いて、対象物の視差を検出するための視差画像を生成する。
 距離算出部70は、視差画像生成部60により生成された視差画像に基づいて、対象物までの距離を算出する。
 以上説明した第4の実施形態に係る画像処理装置1Cの構成としても、2つのレンズの温度変化に伴う、第2の画像の倍率変化を補正することができる。この時、画像比較部31による第1の画像と第2の画像の比較結果に基づいて、歪変換処理部50Bの補正処理係数kが変更され、第1の画像と第2の画像の像高の差分が無くなる。このため、視差画像生成部60で生成される対象物ごとの視差が正確に求められ、距離算出部70により算出される対象物までの距離も正確に算出される。
 第4の実施形態に係る画像処理装置1Cでは、画像比較部31が第1の処理画像と第2の処理画像に基づいて補正処理係数kを算出したことにより、歪変換処理部50Bから出力される第2の画像の倍率変化が補正される。倍率変化が補正された第2の処理画像が後段の処理を経て第2の処理画像として画像比較部31に入力すると、画像比較部31は、第2の画像の倍率変化を補正しない補正処理係数kを算出してしまう。このため、画像比較部31により、一旦、補正処理係数kが算出された後は、一定期間は、画像比較部31の処理が停止する。そして、一定期間後、再び、画像比較部31の処理が再開される。
 なお、本発明は上記した実施形態に限定されるものではなく、請求の範囲に記載した本発明の要旨を逸脱しない限りその他種々の応用例、変形例を取り得ることは勿論である。
 例えば、上述した各実施形態は本発明を分かりやすく説明するために画像処理装置の構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、ここで説明した実施形態の構成の一部を他の実施形態の構成に置き換えることは可能であり、さらにはある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
 さらに、上述した実施形態ではレンズの温度変化に伴う倍率変化を補正する処理を説明したが、2つのカメラの倍率が経時的に変化しても同様の効果が得られる。
 また、上述した実施の形態では、画像の水平方向と垂直方向の倍率の両方を変換する処理を説明したが、変形例に係る画像処理装置が、視差を検出する水平方向のみの倍率を変換しても、上述した実施の形態に係る処理と同様の効果が得られる。この場合、画像処理部(歪変換処理部50)は、第2の画像を少なくとも第1の方向に補正する。言い換えれば、視差を検出する方向の倍率を変換しても、上述した実施の形態に係る処理と同様の効果が得られる。
 さらに、上述した各実施の形態に係る画像処理装置は、リアルタイムでの画像の補正処理が可能である。それ以外にも、上述した各実施の形態に係る画像処理装置は、例えば温度情報や時間情報を基に画像を補正してもよいし、MESが所定量ずれたことをモニタしておき、MESが所定量ずれたタイミングで画像を補正してもよい。
 1…画像処理装置、10…第1のカメラ、11…第1のレンズ、12…第1の画像センサ、20…第2のカメラ、21…第2のレンズ、22…第2の画像センサ、30…画像比較部、50A,50B…歪変換処理部、51…輝度補正部、52…画像補間部、53…輝度情報生成部、60…視差画像生成部、70…距離算出部、100…対象物

Claims (14)

  1.  第1の方向に並んで配置される第1のカメラ及び第2のカメラを備えるステレオカメラから入力される、前記第1のカメラが有する第1の画像センサが検出した第1の画像と、前記第2のカメラが有する第2の画像センサが検出した第2の画像とを比較し、前記第1の方向とは異なる第2の方向における、前記第1の画像と前記第2の画像との違いに基づいて、前記第2の画像を補正するための補正処理係数を算出する画像比較部と、
     前記画像比較部により算出された前記補正処理係数により、前記第2の画像を補正する画像処理部と、を備える
     画像処理装置。
  2.  前記画像比較部は、前記第1の画像が前記第2の方向に延びる領域の画像の変位量と、
    前記第2の画像が前記第2の方向に延びる領域の画像の変位量との差分を、前記第1の画像と、前記第2の画像との違いとし、前記画像処理部が、前記第2の画像の前記第2の方向に延びる領域の前記変位量の差分をなくす補正を行うための倍率である前記補正処理係数を算出する
     請求項1に記載の画像処理装置。
  3.  前記画像比較部は、前記第2の方向に延びる前記第1の画像の一部の領域の画像サイズと、前記第2の方向に延びる前記第2の画像の一部の領域の画像サイズの差異を、前記第1の画像と、前記第2の画像との違いとし、前記画像処理部が、前記第2の画像の一部の領域の前記画像サイズの差異をなくす補正を行うための倍率である前記補正処理係数を算出する
     請求項1に記載の画像処理装置。
  4.  前記画像処理部は、前記第1のカメラの検出倍率と、前記第2のカメラの検出倍率とが経時的に変化することにより前記第1の画像に対して違いが生じる前記第2の画像を補正する
     請求項2に記載の画像処理装置。
  5.  前記画像処理部は、前記第1のカメラと前記第2のカメラの温度が変化したことにより、前記第1の画像に対して違いが生じる前記第2の画像を補正する
     請求項2に記載の画像処理装置。
  6.  前記画像処理部は、前記第1のカメラと前記第2のカメラの温度の変化によって生じる、前記第1のカメラが有する第1の画像センサの感度と、前記第2のカメラが有する第2の画像センサの感度の差により、前記第1の画像に対して違いが生じる前記第2の画像を補正する
     請求項5に記載の画像処理装置。
  7.  前記画像比較部は、前記第1の画像に映る対象物の位置と、前記第2の画像に映る対象物の位置との違いに基づいて前記変位量の差分を検出する
     請求項2に記載の画像処理装置。
  8.  前記画像比較部は、前記第1のカメラが有する第1のレンズの光軸に対して対象となる前記第1の画像の複数の領域と、前記第2のカメラが有する第2のレンズの光軸に対して対象となる前記第2の画像の複数の領域とを用いて、前記変位量の差分を検出する
     請求項2に記載の画像処理装置。
  9.  前記画像処理部は、前記第2の画像を少なくとも前記第1の方向に補正する
     請求項2に記載の画像処理装置。
  10.  前記画像処理部は、前記第1の画像の歪と前記第2の画像の歪を変換する歪変換処理部であって、
     少なくとも歪が変換され、かつ輝度情報が生成された前記第1の画像と、少なくとも歪が変換され、輝度情報が生成され、かつ倍率が変換された前記第2の画像とに基づいて、
    前記第1の画像と前記第2の画像に映る対象物の視差を検出する視差検出部を備える
     請求項2に記載の画像処理装置。
  11.  前記画像処理部は、歪が変換された前記第2の画像の倍率を前記補正処理係数により変換する画像倍率変換部であって、
     少なくとも歪が変換され、かつ輝度情報が生成された前記第1の画像と、少なくとも歪が変換され、輝度情報が生成され、かつ倍率が変換された前記第2の画像とに基づいて、
    前記第1の画像と前記第2の画像に映る対象物の視差を検出する視差検出部を備える
     請求項2に記載の画像処理装置。
  12.  前記画像処理部は、前記補正処理係数により前記第2の画像の倍率を変換する画像倍率変換部であって、
     前記画像比較部は、少なくとも歪が変換され、かつ輝度情報が生成された前記第1の画像と、少なくとも歪が変換され、かつ輝度情報が生成された前記第2の画像とに基づいて前記補正処理係数を算出し、
     歪が変換され、かつ輝度情報が生成された前記第1の画像と、歪が変換され、輝度情報が生成され、かつ倍率が変換された前記第2の画像とに基づいて、前記第1の画像と前記第2の画像に映る対象物の視差を検出する視差検出部を備える
     請求項2に記載の画像処理装置。
  13.  前記画像処理部は、前記第1の画像の歪を変換し、前記第2の画像の歪を変換し、かつ前記第2の画像の倍率を前記補正処理係数により変換する歪変換処理部であって、
     前記画像比較部は、少なくとも歪が変換され、かつ輝度情報が生成された前記第1の画像と、少なくとも歪が変換され、かつ輝度情報が生成された前記第2の画像とに基づいて前記補正処理係数を算出し、
     少なくとも歪が変換され、かつ輝度情報が生成された前記第1の画像と、少なくとも歪が変換され、輝度情報が生成され、かつ倍率が変換された前記第2の画像とに基づいて、
    前記第1の画像と前記第2の画像に映る対象物の視差を検出する視差検出部を備える
     請求項2に記載の画像処理装置。
  14.  第1の方向に並んで配置される第1のカメラ及び第2のカメラを備えるステレオカメラから入力される、前記第1のカメラが有する第1の画像センサが検出した第1の画像と、
    前記第2のカメラが有する第2の画像センサが検出した第2の画像とを比較し、前記第1の方向とは異なる第2の方向における、前記第1の画像と前記第2の画像との違いに基づいて、前記第2の画像を補正するための補正処理係数を算出するステップと、
     算出された前記補正処理係数により、前記第2の画像を補正するステップと、を含む
     画像処理方法。
PCT/JP2023/032211 2022-12-08 2023-09-04 画像処理装置及び画像処理方法 WO2024122135A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-196351 2022-12-08
JP2022196351A JP2024082479A (ja) 2022-12-08 2022-12-08 画像処理装置及び画像処理方法

Publications (1)

Publication Number Publication Date
WO2024122135A1 true WO2024122135A1 (ja) 2024-06-13

Family

ID=91378727

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/032211 WO2024122135A1 (ja) 2022-12-08 2023-09-04 画像処理装置及び画像処理方法

Country Status (2)

Country Link
JP (1) JP2024082479A (ja)
WO (1) WO2024122135A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070120A (ja) * 2006-09-12 2008-03-27 Hitachi Ltd 距離計測装置
JP2016218758A (ja) * 2015-05-20 2016-12-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP2021192492A (ja) * 2020-06-05 2021-12-16 キヤノン株式会社 電子機器およびその制御方法ならびにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070120A (ja) * 2006-09-12 2008-03-27 Hitachi Ltd 距離計測装置
JP2016218758A (ja) * 2015-05-20 2016-12-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP2021192492A (ja) * 2020-06-05 2021-12-16 キヤノン株式会社 電子機器およびその制御方法ならびにプログラム

Also Published As

Publication number Publication date
JP2024082479A (ja) 2024-06-20

Similar Documents

Publication Publication Date Title
JP3284190B2 (ja) ステレオカメラの画像補正装置
JP6427900B2 (ja) 校正方法、校正システム、プログラム及び移動体
JP6167525B2 (ja) 距離計測装置及び車両
JP6317456B2 (ja) 車両用のステレオ/ビデオシステム内の相対的なヨー角の変化を検知するための方法および制御装置
JP6891954B2 (ja) 物体検知装置、物体検知方法、及びプログラム
JP6602982B2 (ja) 車載カメラ、車載カメラの調整方法、車載カメラシステム
WO2021044746A1 (ja) 画像処理装置
JPH11325890A (ja) ステレオカメラの画像補正装置
JP4539427B2 (ja) 画像処理装置
WO2024122135A1 (ja) 画像処理装置及び画像処理方法
JP2008298589A (ja) 位置検出装置及び位置検出方法
JP7180177B2 (ja) ステレオカメラシステム、移動体及びステレオカメラ装置の形成方法
EP3564747B1 (en) Imaging device and imaging method
JP6983740B2 (ja) ステレオカメラシステム、及び測距方法
JPH09159442A (ja) 車両用環境認識装置
WO2019203001A1 (ja) ステレオカメラ装置
JP6241083B2 (ja) 撮像装置及び視差検出方法
CN116668665A (zh) 测量装置、移动装置、测量方法和存储介质
JP6202356B2 (ja) 画像処理装置及び方法、並びに撮像装置
JP6996582B2 (ja) 校正方法、校正装置及びプログラム
JP6680335B2 (ja) ステレオカメラ、車両、算出方法及びプログラム
JP7109386B2 (ja) 画像処理装置
JP7492599B2 (ja) 車載カメラ装置
WO2024127591A1 (ja) カメラ校正装置及びカメラ校正方法
JP6674127B2 (ja) 画像処理装置、撮影装置、プログラム、機器制御システム及び機器